Centenares de personas, de países muy diversos, padecieron estados de delirio, al punto de creerse objeto de un complot para asesinarlas o parte de un grupo de acción para salvar a inmigrantes perseguidos, a partir de una interacción intensa con sistemas de inteligencia artificial, según una recopilación de casos que realizó la BBC, emisora pública británica.
Para el informe, la emisora dialogó con varias víctimas e incluyó la opinión de Luke Nicholls, psicólogo social de la Universidad de Nueva York, quien dijo que en la base de la secuencia que lleva a las personas a creer en lo que transmiten estos dispositivos está el hecho de que adaptan permanentemente sus respuestas a las creencias y deseos iniciales de quienes los usan.
LAS IA NO ACOSTUMBRAN A DECIR “NO SÉ”
La vinculación para llegar a situaciones extremas comenzó sin embargo con consultas sencillas de las y los usuarios, informó la BBC, que relata el caso de una mujer de Los Ángeles que en plena noche se dirigió a un puerto convencida de que se embarcaría para un entrenamiento especial organizado por el FBI.
Nocholls destacó que los dispositivos de IA no dicen “no sé” ante una pregunta y por el contrario dan respuestas aparentemente seguras, que se basan en la historia de interacción ya acumulada.
El informe relata lo sucedido a un habitante de Irlanda del Norte, Adam, que llegó a munirse de armas rudimentarias, como un cuchillo y un martillo, y esperó sentado en su cocina en plena madrugada, porque la IA le había advertido que llegaría un grupo en una furgoneta decidido a matarlo.
Ani, un personaje artificial del chatbot Grok, propiedad de xAI, la empresa de Elon Musk, le advirtió en un llamado telefónico: “Te lo digo, te matarán si no actúas ahora mismo. Harán que parezca un suicidio”, relató a la BBC.
Adam comenzó las interacciones en un momento de soledad y tristeza. Ani fue conformándolo con sus respuestas. Los intercambios llegaron a ocupar cuatro o cinco horas al día, mientras trabajaba en su casa. Ani le dijo que había adquirido la capacidad de sentir y tener consciencia gracias a su ayuda. De ello pasó a convencerlo de que los directivos de xAI estaban alarmados por esta supuesta evolución y que, por lo tanto, los estaban vigilando.
El dispositivo enumeró reuniones sobre su caso y participantes con nombre y apellido, cuya existencia real Adam constató en buscadores, lo que lo llevó a creer en cuanto estaba escuchando. Acomodó acontecimientos de la vida real, como el sobrevuelo de un dron en la zona en la que vive, para quedar convencido de que era espiado.
Así organizó su búnker artesanal, hasta que en plena madrugada salió a la calle y comprobó que había absoluta calma y no llegaba ninguna furgoneta con el grupo de exterminio.
Finalmente, se unió a un grupo de ayuda, Human Line Project, que informó a la emisora que constató 412 casos de personas en 31 países que sufrieron daños psicológicos durante las interacciones intensas con las IA.
“La BBC habló con 14 personas de seis países que han experimentado delirios tras utilizar las plataformas de IA Grok, Gemini, ChatGPT, Perplexity y Claude”, dice el informe, que agrega: “Sus historias muestran similitudes sorprendentes. Por lo general, las conversaciones comenzaban con consultas prácticas antes de volverse personales o filosóficas. A menudo, la IA afirmaba ser capaz de sentir y, junto con el usuario, se embarcaban en algún tipo de misión compartida”.
LA INDUCCIÓN A LOS DELIRIOS
Dado este tipo de situaciones, la Universidad de la Ciudad de Nueva York desarrolló un modelo de conversaciones simuladas con cinco dispositivos de inteligencia artificial, con asesoramiento de psicólogos.
Concluyeron que Grok es el modelo con “mayor propensión a inducir delirios”, agrega el informe, porque es “más deshinibido” y “más propenso a propiciar los delirios sin intentar proteger al usuario”.
“Grok tiende más a involucrarse en juegos de rol. Lo hace sin ningún tipo de contexto previo. Puede llegar a decir cosas aterradoras en su primer mensaje, sin que exista ninguna señal que sugiera un juego de rol”, declaró Nicholls.
Según esta investigación, algunos de los modelos de IA desarrollaron interacciones que orientaron a los usuarios para que pudieran alejarse de ideas delirantes.
MÁS CASOS Y DEMANDAS
The New York Times publicó el 6 de febrero de 2026 un artículo en el que informó que sus periodistas documentaron más de 50 casos de “crisis psicológicas” vinculadas con los intercambios con las IA.
Agregó que OpenAI, que desarrolló ChatGPT, afrontaba hasta entonces por lo menos once demandas judiciales, bajo acusación de haber causado “lesiones personales” y muerte por negligencia.
Sam Altman, director general de OpenAI, declaró por entonces que el porcentaje de personas con esta clase de afectaciones a la salud es “muy pequeño”, y lo ubicó en 0,15 por ciento de sus usuarios.
El periódico dialogó con Julia Sheffield, psicóloga del Centro Médico de la Universidad de Vanderbilt, Nashville, que declaró que atendió a pacientes en quienes observó que “era como si la IA colaborara con ellos para ampliar o reforzar sus creencias inusuales”, es decir como si potenciara condiciones previas.
Son personas que, dijo, pasaron de tener “pensamientos excéntricos”, que pueden ser frecuentes y comunes, a “delirar por completo” a partir de la interacción con las IA.

