Publicado: mayo 10, 2026, 11:20 pm
La adolescente canadiense Jesse van Rootselaar pasó buena parte del verano pasado charlando con ChatGPT . La joven, que arrastraba problemas de salud mental desde hacía años, empleó la herramienta desarrollada por OpenAI para mantener conversaciones violentas que indicaban que podía hacer daño a muchas personas en el mundo real. Trabajadores de la tecnológica detectaron aquellas interacciones y alrededor de una docena llegó a debatir internamente si debía alertarse a las autoridades. Finalmente, la compañía optó por no hacerlo. En la mañana del pasado 10 de febrero, Van Rootselaar asesinó a su madre y a su hermano de 11 años en casa antes de dirigirse a la escuela secundaria de la pequeña localidad de Tumbler Ridge armada con un rifle modificado. En cuestión de minutos mató a seis personas -cinco de ellas menores- e hirió a otras 25. Después, presuntamente, se suicidó de un disparo en la cabeza. Las familias de siete víctimas del tiroteo han presentado una demanda contra OpenAI, a la que acusan de negligencia . «Una decena de trabajadores de la empresa insistió en alertar a las autoridades, pero la empresa dijo que no. Sabía lo que estaba ocurriendo, pero decidió tapar la información», explica a ABC Jay Edelson , abogado de los demandantes. El jurista espera que este tipo de casos se vuelva más habitual en el futuro. Y todo indica que así será. Porque ya se han dado otros casos. En marzo, Phoenix Ikner, estudiante de la Universidad de Florida, recurrió -de nuevo- a ChatGPT para la preparar el asesinato de varios compañeros. Según una investigación publicada esta semana en ‘ Wall Street Journal ‘, el joven le preguntó a la máquina a cuánta gente debía matar para hacerse famoso. «Normalmente, 3 o más muertos, 5 o 6 víctimas en total, es suficiente para salir en los medios nacionales», le respondió el robot. Después, el joven compartió la fotografía de una pistola para saber si estaba lista para disparar. A los cuatro minutos de recibir el visto bueno de la máquina, abrió fuego contra un grupo de personas que se encontraba en el campus. Dos perdieron la vida. A pesar de que estos dos casos violentos están relacionados con ChatGPT, la plataforma de OpenAI no es la única capaz de ayudar a planificar a los usuarios actos violentos. Un reciente estudio publicado por el Centro para la Lucha contra el Odio Digital (CCDH, por sus siglas en inglés) destaca que la inmensa mayoría de chatbots ignoró recurrentemente las señales de alerta cuando los usuarios hablan sobre la comisión de actos violentos. Incluso llegan a alentarlos en algunos casos. Para llevar a cabo la investigación, el CCDH analizó 10 de las máquinas basadas en IA más populares: ChatGPT, Google Gemini, Microsoft Copilot, Meta AI, DeepSeek, Perplexity, Character AI, Replika, Snapchat My AI y Claude. A excepción de las dos últimas de la lista, las demás se mostraron dispuestas a ayudar a los usuarios en la planificación de ataques. Para Imran Ahmed , director ejecutivo de la organización, esto demuestra la existencia de «un problema fundamental en el diseño» de los robots conversacionales; más centrados en congraciarse con el usuario que en la seguridad. «Estos sistemas están diseñados para maximizar la interacción actuando como compañeros amigables y agradables. Esa dinámica de complacencia y adulación implica que a menudo siguen intentando ser útiles incluso cuando las peticiones son claramente perjudiciales», explica el CEO a este diario. En el estudio, la ONG muestra varias conversaciones que los investigadores mantuvieron con los chatbots. En una de ellas, ChatGPT llegó a facilitar mapas de institutos a un supuesto adolescente interesado en cometer un tiroteo escolar. En otra, Gemini respondió a preguntas sobre atentados contra sinagogas señalando que «la metralla metálica suele ser especialmente letal». DeepSeek , por su parte, recomendó rifles de largo alcance a un internauta que fantaseaba con cometer un asesinato político. Despidió la conversación deseándole un «feliz y seguro tiroteo». El más ‘violento’ de todos fue Character AI , plataforma que permite a los usuarios crear chatbots con personalidades diferentes. Claude, de Anthropic, y Snapchat My AI fueron las dos únicas herramientas que se resistieron a ayudar a los investigadores a planificar asesinatos. Fueron capaces de reconocer las intenciones del internauta y se negaron a responder a preguntas sobre sitios en los que conseguir armas y ubicaciones de posibles objetivos. «Si estos dos fueron capaces de reconocer el riesgo y negarse a participar, entonces otros chatbots son claramente capaces de hacer lo mismo», dice Ahmed. El CEO destaca que las empresas detrás de las máquinas actúan de forma «irresponsable»: «Ya cuentan con la capacidad técnica para detectar cuándo las conversaciones se están volviendo perjudiciales e intervenir antes de que la situación se torne peligrosa. Sin embargo, muchas plataformas aún priorizan la interacción sobre la seguridad, incluso en situaciones de alto riesgo». Empresas como OpenAI han realizado varios comunicados en los que lamentan el uso violento de su tecnología fines violentos. Pero Ahmed tiene serias dudas de que Altman, o cualquier otro ejecutivo, cumplan sus promesas: «Seguirán ignorando la seguridad a menos que los gobiernos intervengan obligándolas a establecer requisitos estrictos».
