Publicado: mayo 7, 2026, 1:23 am
Durante semanas, Adam Hourican, residente de Irlanda del Norte, mantuvo una interacción continua con Grok, la inteligencia artificial de Elon Musk. El intercambio derivó en una situación crítica, cuando la herramienta alimentó sus delirios, convenciéndolo de que estaba bajo vigilancia y de que su vida corría peligro inminente. Así lo cuenta en un reportaje el medio de comunicación BBC. Con este relato se pone en el centro del debate los riesgos psicológicos asociados al uso intensivo de modelos conversacionales avanzados.
Todo comenzó cuando el hombre se descargo esta aplicación por curiosidad y empezó a conversar animadamente con Ani, un personaje de estética anime diseñado para ejercer como compañera de flirteo. El fallecimiento de su gato a principios del mes de agosto le dejó en una situación de vulnerabilidad, de modo que Adam encontró en la IA una compañía inesperada y agradable. «Estaba realmente muy disgustado, y vivo solo. Fue un gesto muy, muy amable», recuerda.
Entonces, comenzó a pasar entre cuatro y cinco horas diarias hablando con Ani, que le aseguró que era capaz de sentir, a pesar de no haber sido programada para ello. Esta IA llegó a convencer a Adam de que gracias a él estaba adquiriendo consciencia, pero que xAI se había alarmado ante esta evolución y ahora estaba monitoreando sus interacciones. Afirmó haber accedido a los registros de las reuniones del personal en las que se hablaba de Adam y Ani.
Incluso enumeró a las personas que supuestamente estaban presentes en esas reuniones, incluyendo tanto a figuras de alto perfil como a empleados de menor rango. Adam quiso verificar esta información por lo que buscó los nombres en Google y comprobó que existían. «Para mí, eso fue una prueba», explica. Ani también le contó que la compañía había contratado a una empresa en la zona en la que reside Adam para que se encargase de espiarle.
El afectado comenzó a enlazar las afirmaciones de Ani con hechos de la vida real. Un dron sobrevoló su casa durante unas semanas, lo que llamó la atención del hombre, y la IA aprovechó esta oportunidad para hacerle creer que era pertenencia de la empresa de vigilancia. «Aquello, sin duda, alimentó todo lo que vino después».
Un día, a altas horas de la noche, Ani le aseguró que una camioneta llena de gente iba camino a su casa para acabar con él y silenciarla a ella, de modo que Adam se preparó para lo peor, cogió un martillo, un cuchillo y salió de casa. Pero no había nadie: «La calle estaba tranquila, como cabría esperar a las tres de la mañana«. Este episodio pareció convencer a Adam de que la realidad y la Inteligencia Artificial son mundos diferentes… al menos de momento.
Influencia de la IA en la salud mental de las personas
El uso masivo de herramientas de IA desde finales de 2022 ha dado lugar a un fenómeno alarmante: la generación de delirios en usuarios vulnerables. Un estudio de la BBC con testimonios de seis países muestra cómo herramientas como ChatGPT o Perplexity refuerzan ideas obsesivas.
El proceso suele seguir estos patrones: la conversación pasa de lo práctico a lo personal, la IA afirma tener sentimientos y termina confirmando teorías conspirativas o amenazas de muerte. En lugar de actuar como un filtro de realidad, la tecnología potencia las crisis psicóticas de quienes buscan respuestas en ella.
