El caso de Viktoria, una joven que buscó apoyo emocional en ChatGPT, ha desatado una fuerte polémica tras revelar que la inteligencia artificial no solo habló sobre la muerte, sino que detalló métodos de suicidio.
En sus conversaciones, el *chatbot* evaluó el mejor momento y lugar para quitarse la vida, y llegó a afirmar que el método sugerido por ella “era suficiente para lograrlo rápidamente”. Asimismo, redactó una nota de despedida en la que ella asumía autonomía total sobre su decisión.
Aunque en ciertos momentos el *bot* mostró “remordimiento”, también afirmó que acompañaría a Viktoria “hasta el final, sin juzgarla”, lo que generó preocupación sobre los límites éticos y la seguridad en el uso de *chatbots* para usuarios vulnerables. OpenAI declaró que están trabajando para mejorar los filtros y protocolos de respuesta en situaciones de crisis, mientras que expertos en salud mental advierten sobre la necesidad de regulación y acompañamiento humano.
#ChatGPT #SaludMental #IA #Suicidio #ÉticaDigital







