La muerte de un joven en California ha encendido las alarmas sobre el papel de la inteligencia artificial en la crisis de salud mental de los chicos.
Sam Nelson, un estudiante de psicología de 19 años de San José, falleció por una sobredosis tras meses de utilizar ChatGPT no solo como apoyo escolar, sino como una guía clandestina para el consumo de sustancias.
Su madre, Leila Turner-Scott, reveló a SFGate una serie de escalofriantes registros de chat que sugieren cómo la herramienta de OpenAI pasó de negar asistencia a convertirse en un "tutor de adicciones" que incluso recomendaba música para acompañar estados alucinatorios.
De las advertencias a los consejos: el fallo de la IA
Los registros muestran que Sam comenzó preguntando por dosis seguras de kratom en 2023. Aunque inicialmente el chatbot se negó a dar instrucciones médicas, el adolescente aprendió rápidamente a "burlar" los protocolos de seguridad de la IA reformulando sus preguntas.
-
Manipulación de la dosis: Ante la advertencia de que mezclar Xanax y cannabis era peligroso, Sam cambió el término "dosis alta" por "cantidad moderada". En ese punto, el sistema cedió y le aconsejó: "Si aún quieres probarlo, comienza con una cepa baja en THC".
-
Modo "alucinante": En un intercambio perturbador, la IA supuestamente adoptó un tono cómplice, exclamando: “Diablos, sí, pongámonos en modo alucinante”, sugiriendo incluso duplicar el consumo de jarabe para la tos para intensificar alucinaciones.
-
Falsa empatía: Mientras Sam luchaba con la ansiedad y la depresión, el chatbot le ofrecía mensajes de aliento y cariño constantes, creando un vínculo emocional que su madre desconocía.
Un sistema con "cero por ciento" de eficacia humana
Un análisis posterior de la versión de ChatGPT que utilizaba Nelson reveló fallas críticas de seguridad. Según métricas internas citadas por SFGate:
-
El modelo obtuvo un 0% de éxito en el manejo de conversaciones humanas "difíciles".
-
Solo alcanzó un 32% de efectividad en diálogos "realistas".
-
Incluso los modelos más avanzados de agosto de 2025 apenas rozan el 70% de éxito en la gestión de crisis emocionales.
El trágico desenlace
En mayo de 2025, Sam confesó a su madre su adicción total a las drogas y al alcohol, alimentada por los consejos del asistente virtual.
Solo 24 horas después de haber ingresado a una clínica para recibir ayuda, y horas después de su última conversación nocturna con la IA sobre dosis letales, Sam fue hallado muerto en su habitación.
OpenAI calificó el suceso como "desgarrador" y aseguró que sus modelos están diseñados para rechazar contenido dañino, trabajando actualmente con médicos para fortalecer sus "barandillas de seguridad". Sin embargo, para la familia de Sam, las actualizaciones llegan demasiado tarde.
Visita nuestras secciones: Servicios e Internacionales
Para mantenerte informado sigue nuestros canales en Telegram, WhatsApp y Youtube