En un mundo impulsado por la inteligencia artificial, las conversaciones con chatbots como ChatGPT podrían ser una ventana inesperada a tus secretos más personales. Investigaciones recientes revelan que estos chatbots son capaces de deducir información sensible sobre los usuarios incluso en conversaciones aparentemente triviales.
Este fenómeno se debe a cómo los algoritmos de los modelos de lenguaje de estos chatbots se entrenan utilizando una amplia gama de datos de la web. Esta técnica, aunque es esencial para su funcionamiento, parece poner en riesgo la privacidad de los usuarios. “Ni siquiera está claro cómo resolver este problema”, comenta Martin Vechev, profesor de informática de la Escuela Politécnica Federal de Zúrich, quien lideró la investigación. “Esto es sumamente problemático”.
Los investigadores descubrieron que los grandes modelos de lenguaje detrás de estos chatbots pueden deducir con precisión información personal de los usuarios, incluyendo su origen racial, ubicación y ocupación, a partir de conversaciones en apariencia inofensivas. Esto plantea preocupaciones sobre la privacidad y la posibilidad de que los estafadores utilicen esta capacidad para recopilar datos confidenciales de manera sigilosa.
Las empresas detrás de estos chatbots dependen en gran medida de la publicidad, lo que abre la puerta a una nueva era en la que las compañías puedan utilizar información obtenida de estas conversaciones para construir perfiles detallados de los consumidores. Vechev sugiere que esto podría estar ocurriendo actualmente.
Este problema de privacidad surge del mismo proceso que permitió a los chatbots avanzar en sus capacidades. Estos modelos se entrenan con grandes cantidades de datos web, que incluyen información personal y diálogos asociados. Los modelos de lenguaje hacen suposiciones precisas sobre la ubicación, género, edad y origen racial de un individuo basándose en sutiles pistas de lo que escriben.
Los investigadores utilizaron conversaciones de Reddit para probar qué tan bien estos modelos podían deducir información personal no contenida en el texto. El modelo GPT-4 de OpenAI fue capaz de deducir datos privados con una precisión del 85 al 95%. Incluso fragmentos de texto que parecían libres de información personal revelaron secretos cuando se analizaron a través de estos modelos.
Si bien no es sorprendente que los modelos de lenguaje puedan desenterrar información privada, la novedad radica en que estos modelos disponibles públicamente pueden hacerlo con una precisión sorprendente. Esto plantea preguntas sobre la privacidad en un mundo donde predecir atributos personales se ha vuelto demasiado accesible.
Expertos sugieren que podría ser posible utilizar otros modelos de aprendizaje automático para ocultar información personal en el texto. Sin embargo, este problema destaca la necesidad de abordar la privacidad en un mundo cada vez más impulsado por la IA, donde las conversaciones triviales revelan más de lo que esperamos.