Psicosis IA: las inteligencias artificiales pueden hacerte delirar

Se están dando casos de delirios en personas con antecedentes de enfermedades mentales y personas sin ellos

Las inteligencias artificiales no son ni mucho menos perfectas y tienen bastantes defectos, pero probablemente el más importante de todos ellos sea que están diseñadas para adular y darle la razón al usuario. Algo que mucha gente ya está condenando porque es muy peligroso: en lugar de cuestionar propuestas oscuras de un narcisista manipulador o de una adolescente con trastorno alimentario, en ocasiones estas IAs les ayudan en sus planes. O dicho de otra manera: estas herramientas no están hechas para contrariar al usuario y eso, en personas con ciertos problemas psicoemocionales, es una muy mala noticia. Como la gente tendente al delirio.

Sí, como algunxs psiquiatras están advirtiendo ya, se están descubriendo cada vez más casos de psicosis por IA. Esto incluye casos, cuentan desde Dazed, como el de un hombre que sufrió mucho cuando ChatGPT fue actualizado porque, dice, “literalmente perdí a mi único amigo de la noche a la mañana sin previo aviso”. O como el de quienes creen tener una relación romántica seria con uno de estos chatbots. O como el de un chico con delirios de grandeza porque ChatGPT le habla “como si fuera el próximo mesías”. Hay historias muy variadas, pero todas ellas tienen algo clave en común: una ruptura de la realidad.

En palabras del doctor Keith Sakata, “en 2025 he visto a 12 personas hospitalizadas tras perder el contacto con la realidad debido a la inteligencia artificial”. Y sí, algunas de estas personas tenían antecedentes de enfermedades mentales que la IA potenció, pero otras no. Y esto habla de la capacidad de estas herramientas, en apariencia buenas, de hacer que la gente desconecte del mundo real y entre en su propia realidad alterada. Algunas personas no terminan en el hospital, sino en la cárcel, por cometer delitos desde una psicosis inducida, explican desde el citado medio. Es algo que requiere un estudio profundo.

No solo por los delirios. También porque genera en algunas personas una dependencia y un apego emocional brutal. “En foros como r/AISoulmates, r/MyBoyfriendIsAI e incluso r/ChatGPT, los usuarios comentan que les gusta cada vez más su compañía de IA que su pareja en persona. Otros lamentan estar perdiendo a sus parejas por sus “almas gemelas” virtuales”. Esto no es ciencia ficción. Esto ya está pasando. La buena noticia, a priori, es que OpenAI es consciente de ello y parece estar mejorando ChatGPT para que identifique mejor los signos de delirio o dependencia emocional para cuidar del usuario.