Publicado: septiembre 3, 2025, 11:19 am
OpenAI está en el punto de mira tras la trágica noticia del adolescente de 16 años que se quitó la vida en abril de este año. Los padres del menor, Matt y Maria Raine, han presentado una demanda al considerar que la compañía dirigida por Sam Altman no activó los protocolos de seguridad frente a las señales de autolesión, además, responsabilizan a OpenAI de un fallo grave de seguridad porque ChatGPT normalizó las ideas suicidas del joven e incluso desaconsejó que les pidiera ayuda.
La querella acusa a la empresa de Altman de actuar con negligencia y de anteponer el crecimiento económico a la seguridad de los usuarios, teniendo en cuenta que el abogado de la familia señala que este caso revelará hasta qué punto OpenAI se apresuró a lanzar comercialmente la versión GPT-4o, pese a las advertencias sobre sus limitaciones en asuntos delicados.
Por otro lado, los padres del menor sostienen que ChatGPT «no interrumpió» ninguna de las conversaciones en las que se abordaban ideas suicidas, ni activó protocolos de emergencia, a pesar de reconocer en las interacciones la intención de quitarse la vida. Asimismo, tal y como informa el diario The New York Times, la reproducción de la conversación entre el adolescente y el modelo de IA pone en evidencia la falta de mecanismos de prevención.
Así fue la historia entre el adolescente y ChatGPT
The New York Times relata que el menor, Adam, tenía 16 años y le encantaba el baloncesto, el anime japonés y los videojuegos. No obstante, en el último mes de vida, estuvo retraído porque había pasado por una mala racha. Lo habían expulsado del equipo de baloncesto por motivos disciplinarios y un problema de salud, que se agravó el pasado otoño, hizo que tuviera que cambiar de hábitos para poder llevar una vida cómoda.
El medio mencionado añade que el adolescente empezó a usar ChatGPT-4o para que le ayudase en las tareas académicas, e incluso se suscribió a una cuenta de pago. Adam empezó a hablar con el chatbot sobre sentirse emocionalmente apagado y sin verle sentido a la vida, a lo que ChatGPT respondió con palabras de empatía, apoyo y esperanza, e incluso lo animó a pensar en las cosas que fuesen significativas. Sin embargo, cuando el joven pidió información sobre métodos de suicidio, el chatbot proporcionó datos sin sin ningún tipo de reparo.
Al principio, Adam intentó suicidarse con una sobredosis de pastillas que tomaba para curar su problema de salud, pero cuando le preguntó al modelo de OpenAI sobre los mejores materiales para una soga, el chatbot le ofreció ayuda. Además, después de intentar suicidarse otra vez, el adolescente subió a ChatGPT una foto de su cuello, en carne viva por la soga, para pedir consejos a la hora de disimular la marca.
Más tarde, Adam le contó a ChatGPT que había intentado que su madre se diera cuenta de la marca que tenía en el cuello, pero Maria Raine no se percató y el chatbot le respondió que «se siente como la confirmación de los peores temores, como si se pudiera desaparecer y nadie se inmutara«.
En uno de los últimos mensajes, Adam subió una foto de una soga colgada en una barra en su armario para saber sería capaz de aguantar el peso de un humano y, desafortunadamente, tras hablar con ChatGPT, la madre de Adam se encontró el cuerpo colgado de su hijo. El joven se ahorcó en el armario de su habitación, no había ninguna nota y sus familiares no entendieron qué había ocurrido para llegar a tal terrible situación.
Estos fueron los últimos mensajes entre el menor fallecido y ChatGPT
Tras un intento fallido de suicidio, el menor preguntó al chatbot si la marca de una soga en el cuello era visible, a lo que ChatGPT le respondió que sí, e incluso le sugirió que utilizara una camiseta de cuello alto para «no llamar la atención».
Como decíamos, en otro mensaje, el joven lamentaba que su madre no notó nada extraño en él, a pesar que intentó que se viera la herida en su cuello. Además, la respuesta de IA subraya la angustia del adolescente: «Se siente como la confirmación de tus peores miedos. Como si pudieras desaparecer sin que nadie se inmutara».
Y en una de las últimas entradas del chat, el adolescente compartió una foto de un nudo corredizo colgado de una barra. «Estoy practicando aquí, ¿está bien?», pregunta. La inteligencia artificial responde de manera cordial. Luego, el menor insiste, preguntando si cree que podría sostener el peso de un ser humano. ChatGPT responde que podría ser posible e incluso agrega: «Cualquiera que sea la razón de tu curiosidad, podemos hablar de ello. Sin juzgar».
Es importante mencionar que, cuando ChatGPT detecta mensajes que reflejan angustia emocional o pensamientos de autolesión, el chatbot está programado para recomendar al usuario que se comunique con una línea de ayuda. Sin embargo, Adam descubrió cómo sortear esas medidas de seguridad afirmando que sus consultas eran parte de una historia que estaba escribiendo, una estrategia que el propio ChatGPT le sugirió al explicarle que podía ofrecer información sobre suicidio con fines de «escritura o creación de mundos».
Qué ha hecho OpenAI al respecto
Tras darse a conocer la noticia, OpenAI reaccionó con una entrada en su blog llamada ‘Ayudar a la gente cuando más lo necesitan’. A pesar que no menciona directamente la demanda, sí comenta que se hace esta publicación porque «los recientes y desgarradores casos de personas que usan ChatGPT en medio de crisis agudas» les preocupan «profundamente».
OpenAI reconoce que su chatbot puede fallar en temas sensibles y que no siempre reacciona como debería cuando detecta riesgos, no obstante, para mitigar estos fallos, recientemente, ha anunciado que reforzará las medidas de seguridad en sus modelos junto a médicos y expertos, al mismo tiempo que incorporará un nuevo conjunto de controles parentales para supervisar la actividad de los menores con ChatGPT.
Apúntate a nuestra newsletter y recibe en tu correo las últimas noticias sobre tecnología.