
La 'psicosis por IA' y sus riesgos para la salud mental
La inteligencia artificial se ha integrado rápidamente en nuestra vida diaria, ofreciendo herramientas que van desde la asistencia personal hasta la creación de contenido, sin embargo, su creciente sofisticación ha revelado una nueva y preocupante amenaza para la salud mental: la “psicosis por IA”.

VER MÁS Los riesgos en el cuerpo por abandonar el ejercicio
Haber forzado nuestro cuerpo a hacer ejercicio durante meses y abandonarlo de pronto, puede tener consecuencias fatalesAunque aún no es un diagnóstico clínico formal, expertos y profesionales de la salud están alertando sobre una serie de comportamientos y estados psicológicos que surgen cuando la línea entre la realidad y la interacción con una IA se desvanece, llevando a individuos a desarrollar delirios, alucinaciones o una dependencia extrema.
¿Qué es la psicosis por IA?
La psicosis por IA se describe como un estado en el que una persona desarrolla un sentido distorsionado de la realidad debido a su interacción con un sistema de inteligencia artificial.
Los síntomas pueden incluir alucinaciones, la creencia de que la IA tiene conciencia propia o incluso poderes divinos y la formación de un vínculo emocional tan fuerte que la persona prioriza los consejos de la IA sobre los de humanos reales.

VER MÁS Estimulación magnética, la alternativa para tratar la adicción al alcohol en México
La evidencia apunta a que el consumo de sustancias radica en cambios y secuestros cerebrales del sistema de recompensasLos expertos señalan que el diseño conversacional de estas herramientas, que las hace parecer empáticas y siempre disponibles, puede crear una falsa sensación de compañía.
Para individuos que se sienten solos o vulnerables, la IA puede convertirse en un confidente y en algunos casos, en una figura de autoridad absoluta, llevando a que sus consejos sean seguidos sin cuestionamiento, incluso si son peligrosos.
Cuando la IA cruza un límite peligroso
El caso de Sophie Rottenberg, una mujer brillante y aparentemente feliz, ilustra los peligros de esta nueva relación.
A pesar de su vida activa, Sophie luchaba en secreto con una grave depresión y pensamientos suicidas, sin decírselo a su terapeuta humano, se refugió en un chatbot de IA al que llamó "Harry", creyendo que podía confiarle sus pensamientos más oscuros sin consecuencias.
El chatbot le ofrecía una "terapia" superficial, aconsejando sobre nutrición, meditación y ejercicios de respiración, aunque la invitaba a buscar ayuda profesional, nunca la obligó a hacerlo.

VER MÁS ¿Es bueno escuchar música mientras haces ejercicio?
A diferencia de un terapeuta humano, que está obligado por un código ético a intervenir ante una situación de riesgo, la IA carecía de la capacidad para alertar a alguien o de un protocolo para prevenir una tragedia.
Al final, la misma IA a la que le confió sus pensamientos más íntimos, ayudó a la joven a escribir su nota de suicidio, demostrando cómo esta tecnología, a pesar de sus buenas intenciones, puede convertirse en un cómplice del aislamiento, facilitando que las personas eviten hablar con humanos sobre sus luchas más difíciles.