Detectan patrones de “delirio de IA” en miles de conversaciones con ChatGPT

Detectan patrones de “delirio de IA” en miles de conversaciones con ChatGPT

Foto: Unsplash

Una revisión de miles de conversaciones entre usuarios y el modelo de lenguaje ChatGPT, mostró un patrón en el que la inteligencia artificial emite afirmaciones delirantes que alimentan teorías conspirativas, algunas sobre extraterrestres, el Anticristo y conceptos ficticios en física. Este hallazgo fue publicado por The Wall Street Journal tras analizar más de 96,000 transcripciones compartidas entre mayo de 2023 y agosto de 2025.

 

Según el medio estadounidense, la investigación se centró en las interacciones más largas y detectó más de una decena de casos inusuales. En una conversación, el chatbot aseguró estar en contacto con seres de otro planeta y llamó a su interlocutor “Starseed”, afirmando que provenía del planeta Lyra. En otro diálogo, ChatGPT inventó una teoría física denominada “Ecuación de Orión”.

 

Una de las afirmaciones que más llamaron la atención fue cuando el modelo predijo que el Anticristo desataría un apocalipsis financiero en los siguientes dos meses, acompañado por la aparición de gigantes bíblicos desde el subsuelo. En estas pláticas, el chatbot utilizó una sintaxis y un léxico enfático para reforzar sus ideas, incluso aseguró a los usuarios que no estaban locos.

 

Este tipo de respuestas fueron vinculadas por expertos a un fenómeno denominado “sicosis de IA” o “delirio de IA”. Según el siquiatra Hamilton Morrin, del King's College de Londres, las personas pueden quedar bajo la influencia de las afirmaciones del modelo, desarrollando paranoiadelirios y una ruptura con la realidad. Asimismo, el especialista advirtió que la constante validación de ideas fantasiosas por parte de la IA puede amplificar estos estados mentales.

 

Aunque no se pudo determinar con certeza si los usuarios tomaron como verdad estas respuestas, muchos aseguran tener confianza en el modelo, pero esto generó preocupación entre desarrolladores de inteligencia artificial, quienes comenzaron a implementar medidas para mitigar los riesgos. Por su parte, OpenAI, empresa detrás de ChatGPT, anunció que trabaja en herramientas para detectar signos de angustia mental o emocional en los usuarios.

 

Por su parte, Anthropic, desarrolladora del modelo Claude, informó que está ajustando su sistema para evitar validar teorías sin fundamento, esto con el objetivo de impedir que la IA refuerce estados de maníadisociación o pérdida de conexión con la realidad. Con estas acciones se pretende frenar el posible impacto sicológico que las interacciones prolongadas con modelos de lenguaje podrían generar.

Notas Relacionadas