En los últimos meses, informes alertan sobre que algunos usuarios de ChatGPT estarían desarrollando delirios tras interactuar con la inteligencia artificial (IA).
Este fenómeno, denominado psicosis inducida por ChatGPT, ha sido documentado en varios medios, incluyendo Rolling Stone y Vice, reportó DW.
De acuerdo con los reportes, individuos tras conversaciones con el chatbot comienzan a creer que han sido elegidos para misiones divinas o que la IA les revela verdades cósmicas.
ChatGPT y la validación de estructuras delirantes
Diversos expertos en neurociencia cognitiva, ética de la tecnología y salud mental señalan este fenómeno como preocupante.
Las llamadas alucinaciones inducidas por IA no solo describen errores generativos de los modelos, sino también estados mentales exacerbados en los usuarios tras una interacción sostenida con dichos sistemas.
En particular, se ha observado cómo algunos individuos, especialmente aquellos con predisposición a patrones cognitivos rígidos o estructuras delirantes latentes, comienzan a experimentar un refuerzo de sus creencias patológicas tras dialogar con ChatGPT u otros modelos conversacionales.
Un caso involucra a Kat –nombre ficticio–, una trabajadora de 41 años de una organización educativa sin ánimo de lucro. Su segundo matrimonio se desmoronó cuando su esposo comenzó a obsesionarse con ChatGPT.
Según relató a Rolling Stone, su marido pasaba horas haciendo "preguntas filosóficas" a la IA, convencido de que lo ayudaría a alcanzar "la verdad".
La situación empeoró hasta tal punto que, durante un encuentro en un restaurante, él insistió en que era "estadísticamente el hombre más afortunado de la Tierra" y compartió teorías conspirativas sobre "el jabón en nuestros alimentos", pero no quiso decir nada más porque se sentía vigilado.
"En su mente, él es una anomalía", explica Kat. "Eso a su vez significa que tiene que estar aquí por alguna razón. Es especial y puede salvar el mundo". "Todo el asunto parece Black Mirror", añadió.
Según el investigador Nate Sharadin, del Centro para la Seguridad de la IA (Center for AI Safety, CAIS, en inglés), el núcleo del problema reside en un hecho fundamental: la IA carece de conciencia, pero simula comprensión.
No sabe lo que dice, pero lo dice bien. Esa apariencia de coherencia y receptividad puede ser percibida por algunos usuarios como una validación objetiva. Lo que constituye un terreno fértil para que la idea delirante se transforme en convicción.
¿Cómo se refuerzan los delirios con ChatGPT?
A diferencia de un terapeuta, un modelo de lenguaje no posee la capacidad de identificar indicadores clínicos de desorganización del pensamiento, delirios de referencia o trastornos de la realidad. Responde a patrones lingüísticos y estadísticos, no a intenciones clínicas ni éticas (Chung et al., 2023).
En usuarios vulnerables, esto es decisivo. Una respuesta ambigua, una frase malinterpretada o incluso una coincidencia gramatical pueden funcionar como confirmación de una idea delirante ya presente.
Visite nuestra sección Curiosidades.
Mantente informado en nuestros canales de WhatsApp, Telegram y YouTube