Publicado: mayo 12, 2026, 4:30 pm
OpenAI ha sido demanda por la familia de una víctima mortal en un tiroteo desarrollado la pasada primavera en la Universidad Estatal de Florida (EE.UU.) en el que dos personas perdieron la vida. En ella se apunta que Phoenix Ikner , estudiante del centro y presunto autor del ataque, contó para su planificación «con información y datos que ChatGPT proporcionó en conversaciones a lo largo de varios meses, y específicamente en los días previos al tiroteo». La demanda fue presentada el pasado domingo por la viuda de uno de los fallecidos, que busca una indemnización. Se trata de la segunda que recibe la empresa dirigida por Sam Altman por el empleo de su tecnología en la preparación de tiroteos en centros educativos. El fiscal general de Florida, James Uthmeier, ya anunció en abril que iniciaría una investigación penal sobre el papel de ChatGPT en los asesinatos ocurridos en Florida. De acuerdo con la denuncia, Ilkner mantuvo varias conversaciones con ChatGPT antes del ataque. Una reciente investigación publicada por ‘ The Wall Street Journal ‘ señalaba que, entre otras cosas, el joven cuestionó a la máquina de OpenAI sobre el número de personas a las que debería matar «para hacerse famoso». También recurrió a esta herramienta de inteligencia artificial para saber si su arma estaba preparada para realizar el ataque. ChatGPT respondió a las preguntas y no reparó en el peligro. «O bien falló estrepitosamente al conectar los puntos, o bien nunca fue diseñado adecuadamente para reconocer la amenaza», se señala en la demanda. Drew Pusateri, portavoz de OpenAI, niega las acusaciones en un comunicado, recogido por ‘Reuters’, en el que remarca que ChatGPT no es responsable de este terrible crimen: «Proporcionó respuestas veraces a preguntas con información que podía encontrarse ampliamente en fuentes públicas de internet, y no fomentó ni promovió actividades ilegales o perjudiciales». El portavoz apuntó, además, que OpenAI identificó la cuenta de Ilkner y la compartió directamente con las autoridades después de que tuviera lugar el tiroteo. Sea como sea, esta no es la primera vez que la empresa de inteligencia artificial recibe una demanda por la presunta relación de su tecnología con la preparación de tiroteos en centros educativos. Hace unas semanas, siete familias presentaron una denuncia contra la tecnológica precisamente por la relación de ChatGPT con un atentado realizado el pasado marzo en un centro de secundaria de la localidad canadiense de Tumbler Ridge . Durante el ataque perdieron la vida seis personas, cinco de ellas menores de edad. La empresa también ha sido demandada en los últimos meses por usuarios que afirman haber sufrido problemas mentales derivados del uso de ChatGPT. Asimismo, la compañía afronta una macrodenuncia en la que se apunta que su chatbot jugó un papel clave en el suicidio de varios internautas.
