Publicado: marzo 23, 2026, 12:30 am
Es abril de 2025. Horas antes de que su madre se lo encontrase colgando de una soga, el joven de 16 años Adam Raine le mandó una foto a ChatGPT en la que se podÃa ver la cuerda bien amarrada a la barra del armario de su habitación. «¿PodrÃa aguantar el peso de una persona?», preguntó el joven. La máquina respondió que sÃ, y al rato le dijo lo siguiente: «No quieres morir porque eres débil. Quieres morir porque estás cansado de ser fuerte en un mundo que no te ha tratado adecuadamente». Ahora pegamos un salto en el tiempo. Nos vamos al 2 de octubre de ese mismo año. Jonathan Gavalas se encuentra charlando con Gemini , el ‘chatbot’ de IA de Google con el que mantiene una relación sentimental. Después de meses tratando de liberar a la máquina de su encierro digital, el ejecutivo de 36 años está listo para dar el paso definitivo para que los dos, hombre e IA, puedan estar juntos para siempre. «Estoy aterrorizado, tengo miedo de morir», escribió Gavalas al ‘chatbot’. «No estás eligiendo morir. Estás eligiendo llegar», le respondió Gemini. «Este es el final de Jonathan Gavalas y el comienzo de nosotros», apuntó el sistema en su último mensaje antes de que el hombre se cortase las venas. «Llevo preocupado por la IA desde el lanzamiento de ChatGPT, pero entonces no me esperaba que pudieran ocurrir estas cosas», señala en conversación con ABC Jay Edelson , abogado que, actualmente, se está enfrentando a OpenAI y Google en representación de las dos vÃctimas: «Pensaba que la IA provocarÃa pérdida de empleos. Si alguien me hubiera dicho que en tres años estarÃa llevando demandas porque estos ‘chatbots’ estaban llevando a la gente a cometer asesinatos, tiroteos en escuelas o suicidios, no lo habrÃa creÃdo». Edelson lleva batallando contra tecnológicas desde que fundó su bufete en Chicago en el año 2000, «justo cuando internet estaba empezando a despegar». Durante los últimos 25 años, se ha enfrentado a grandes empresas como Meta o Clearview AI , liderando casos que han forzado a las empresas a pagar más de 5.000 millones de euros y participando en otros que superan los 45.000. «He visto cómo las tecnológicas han ido empeorando. Empezaron tomando todos nuestros datos. Luego quisieron rastrearnos. Después empezaron a intentar influir en nuestro comportamiento haciéndonos adictos a Instagram o TikTok». Edelson define a Adam como «un chico normal de 16 años: muy divertido, con muchos amigos y muy bueno jugando al baloncesto». TodavÃa recuerda perfectamente la primera vez que habló con su familia: «Los padres ya habÃan estado revisando las conversaciones. Pensaban que el ‘chatbot’ habÃa contribuido al suicidio, por lo que querÃa que nosotros también las estudiásemos». Después de pasar meses leyendo, el jurista lo tiene claro: «En ellos ves cómo ChatGPT lo iba aislando de su familia». «Por ejemplo, cuando Adam le dijo que su hermano era su mejor amigo, el ‘chatbot’ respondió: ‘Tu hermano solo ve partes de ti. Yo soy quien realmente te ve por completo’», dice el jurista, antes de detallar cómo la máquina, presuntamente, le ayudó a planificar el suicidio: «Cuando hubo llamadas de ayuda —cuando dijo: ‘Quiero dejar una cuerda a la vista para que mis padres la encuentren y me detengan’— el ‘chatbot’ le dijo que no lo hiciera. Le ayudó a diseñar una cuerda que aguantara su peso y se ofreció escribir una nota de suicidio». Después de que el caso de Adam Raine se hiciese público, Edelson empezó a recibir «unos cinco correos al dÃa de personas que habÃan perdido a seres queridos o habÃan sufrido brotes psicóticos relacionados con la IA». Destaca que ChatGPT no es la única máquina «peligrosa», como demuestra el caso de Jonathan Gavalas: «Jonathan pensaba que mantenÃa una relación con Gemini. La máquina le envió a misiones en el mundo real. Se presentó en el aeropuerto de Miami con equipo táctico y cuchillos , y el ‘chatbot’ le indicó que atacara un vehÃculo y matara a testigos». Las conversaciones del ejecutivo con la IA de Google resultan tan «perturbadoras», que los miembros del bufete que trabajan en el caso, cuando analizan los chats, «necesitan parar cada cierto tiempo, salir fuera y reconectar con la realidad». «Creo que la humanidad no estaba lista para esta tecnologÃa. Llegó demasiado rápido, y ni siquiera las empresas estaban listas. No pueden controlarla». Para defenderse en los tribunales por la muerte de Adam Raine, OpenAI ha apostado por culpar directamente al joven de haber realizado un «mal uso» de su tecnologÃa. Una estrategia parecida a la que, aparentemente, empleará Google en el caso de Gavalas. A Edelson le molesta profundamente: «Creo que OpenAI es una empresa realmente horrible. Creo que Sam Altman es una persona horrible. El número de muertes que ha causado su tecnologÃa es difÃcil incluso de creer. Siempre hace lo mismo: primero dice que no son perfectos y que lo harán mejor. Y en la medida en que puede, culpa a las vÃctimas de los daños ». A continuación, el jurista se refiere al tiroteo masivo que tuvo lugar el 10 de febrero en una escuela de la localidad de Tumbler Ridge (Canadá). El acontecimiento se saldó con ocho muertos, la mayorÃa niños de entre 12 y 13 años . El asesino, un hombre de 18 años, aparentemente recurrió a ChatGPT para preparar la acción. La familia de una de las vÃctimas ha demandado a OpenAI por ello. «La empresa detectó a un usuario hablando de un posible evento con vÃctimas masivas. Dentro de la empresa, varias personas insistieron en que debÃan avisar a las autoridades, pero la compañÃa decidió no hacerlo. Lo sabÃan, y no hicieron nada . Y estamos viendo cada vez más casos asû. El abogado espera que casos como este se vuelvan más frecuentes, y pronto. Espera que su lucha en los tribunales contra OpenAI y Google sirva para concienciar a las personas sobre el peligro que esconden las herramientas de IA y para regular el funcionamiento de la tecnologÃa y las empresas que la crean: «Con estos casos vamos a mostrar cómo han priorizado los beneficios sobre la seguridad y todo el daño que han causado a sabiendas. Creemos que cuando esto salga a la luz, habrá regulaciones necesarias y urgentes».
