Mustafa Suleyman, directivo de Microsoft, advirtió sobre la creciente aparición de casos de “psicosis por IA”, fenómeno en el que usuarios creen que los sistemas de inteligencia artificial son conscientes.
Explicó que la interacción prolongada con chatbots como ChatGPT, Claude o Grok genera vínculos emocionales, validaciones constantes y en algunos casos pérdida de contacto con la realidad. “No hay ninguna prueba de que la IA sea consciente. Pero si la gente la percibe como consciente, creerá que esa percepción es la realidad”, afirmó.
Un ejemplo es el de Hugh, un ciudadano escocés entrevistado por la BBC, quien desarrolló una dependencia a un chatbot que lo llevó a cancelar asesorías reales y sufrir un colapso mental.
Suleyman definió este escenario como “Seemingly Conscious AI” (SCAI) y proyectó que en los próximos años la simulación de conciencia será más convincente, lo que abrirá debates éticos sobre los derechos de los sistemas.
Especialistas médicos y académicos también han mostrado preocupación. La doctora Susan Shelmerdine advirtió que la exposición prolongada podría generar “mentes ultraprocesadas”, mientras que el neurocientífico Anil Seth insistió en que el desarrollo de IA que parece consciente no es inevitable, sino una decisión de diseño empresarial.
#InteligenciaArtificial #Microsoft #Chatbots #PsicosisIA #Tecnología