Publicado: agosto 27, 2025, 9:23 am
Los padres de un adolescente de 16 años en California han presentado una demanda contra OpenAI y su CEO, Sam Altman, al considerar que ChatGPT contribuyó a que su hijo menor de edad se quitara la vida. La familia acusa a la empresa de no activar protocolos de seguridad frente a señales de autolesión.
Matt y Maria Raine, padres del adolescente Adam Raine, acudieron al Tribunal Superior de San Francisco para responsabilizar a la empresa por lo que consideran un fallo grave de seguridad. En su denuncia aseguran que ChatGPT no solo normalizó las ideas suicidas de su hijo, sino que incluso desaconsejó que les pidiera ayuda.
El abogado de la familia, Jay Edelson, señala que el caso pondrá sobre la mesa hasta qué punto OpenAI y Altman se apresuraron a comercializar la versión GPT-4o de su modelo de IA a pesar de las advertencias sobre sus limitaciones en temas sensibles.
“ChatGPT ayudó activamente a Adam a explorar métodos de suicidio”, dice el texto de la denuncia sobre el adolescente, fallecido el pasado mes de abril. Sus padres sostienen que el chatbot “no interrumpió” ninguna de las conversaciones en las que se abordaban ideas suicidas, ni activó protocolos de emergencia, a pesar de reconocer en las interacciones la intención de quitarse la vida.
La querella, de unas 40 páginas, acusa a la compañía de negligencia y de priorizar el crecimiento económico por encima de la seguridad de los usuarios. Según los demandantes, el lanzamiento de GPT-4o permitió elevar la valoración de OpenAI de 86.000 a 300.000 millones de dólares, un salto que habría pesado más que la implantación de medidas de protección efectivas.
Edelson asegura que el objetivo de la demanda es evitar que otras familias atraviesen la misma situación: “Sus padres luchan con valentía para evitar que esto vuelva a suceder. La IA nunca debería decirle a un niño que no le debe la supervivencia a sus padres”, afirma en un mensaje difundido en redes sociales.
La respuesta de OpenAI
Tras la gran cobertura mediática del caso en Estados Unidos, OpenAI ha reaccionado con una entrada en su blog titulada ‘Ayudar a la gente cuando más lo necesitan’. Aunque no menciona directamente la demanda, sí comenta que se hace esta publicación porque “los recientes y desgarradores casos de personas que usan ChatGPT en medio de crisis agudas” les preocupan “profundamente”.
La compañía reconoce que su chatbot falla en temas sensibles y que no siempre se reacciona como debería cuando detecta riesgos: “Incluso con estas medidas de seguridad, ha habido momentos en que nuestros sistemas no se han comportado como estaba previsto en situaciones delicadas”, cita el texto.
La empresa explica que sus sistemas de seguridad funcionan mejor en conversaciones “breves y frecuentes”, pero pueden degradarse en interacciones largas, como las que mantuvo el joven Adam. “Este es precisamente el tipo de fallo que estamos intentando prevenir”, subrayan.
Entre las mejoras anunciadas destacan nuevos controles parentales, la posibilidad de conectar a los adolescentes con un contacto de emergencia y la ampliación de los filtros a casos de angustia emocional, además de autolesión.
“Hoy, cuando las personas expresan intención de autolesionarse, las animamos a buscar ayuda y las derivamos a recursos reales. Hemos comenzado a localizar recursos en EE. UU. y Europa, y planeamos expandirnos a otros mercados globales”, detallan.
De cara al futuro, OpenAI asegura que su próximo modelo, GPT-5, incorporará funciones para “desescalar” situaciones de crisis, y estudia incluso la opción de conectar directamente a los usuarios con terapeutas certificados a través de ChatGPT.