“Psicosis de IA”: expertos alertan sobre enfermedad vinculada a interacciones prolongadas con inteligencia artificial
Usuarios pueden desarrollar delirios y alucinaciones tras interactuar horas con chatbots, afectando vínculos y bienestar emocional.

IA / tadamichi
El uso intensivo de inteligencia artificial generativa, como ChatGPT, Gemini o Deepseek, está provocando un fenómeno emergente en salud mental llamada “psicosis de IA”. Aunque aún no es un diagnóstico formal, ya preocupa a psiquiatras en todo el mundo.
Se trata de episodios psicóticos en los que usuarios, tras interactuar de manera prolongada con chatbots, comienzan a perder contacto con la realidad, desarrollar delirios y alucinar, además de deteriorar sus vínculos sociales y familiares.
Revisa también:

Keith Sakata, psiquiatra que ha tratado a pacientes afectados, advierte en entrevista con medio como CNN, CBC y su cuenta de X que “siempre hay una vulnerabilidad de salud mental existente (…) Es entonces cuando empiezan a pasar horas y horas hablando con una IA. Eso aumenta la gravedad de la vulnerabilidad o acelera el proceso”.
El riesgo no solo depende de antecedentes psiquiátricos. La interacción con la IA funciona como un eco de creencias, reforzando ideas erróneas en quienes son más susceptibles.
Recomiendan un uso controlado
EL psiquiatra Søren Dinesen Østergaard explica a Infobae que “la comunicación con chatbots de IA generativa como ChatGPT es tan realista que uno fácilmente tiene la impresión de que hay una persona real al otro lado, aunque, al mismo tiempo, sabe que no es así”, generando un conflicto mental que puede alimentar delirios.
El fenómeno es especialmente crítico en adolescentes, cuyo cerebro en desarrollo y exposición constante a la hiperconexión digital aumenta los riesgos de adicción y distorsión de la realidad.
Los expertos recomiendan supervisión adulta y un uso controlado en entornos educativos o terapéuticos para aprovechar los beneficios de la herramienta sin comprometer la salud mental.
Sigue a ADN.cl en Google Discover
Recibe nuestros contenidos directamente en tu feed.























