Los adolescentes tendrán limitaciones en ChatGPT tras los últimos suicidios: así son las nuevas reglas - Estados Unidos (ES)
Registro  /  Login

Otro sitio más de Gerente.com


Los adolescentes tendrán limitaciones en ChatGPT tras los últimos suicidios: así son las nuevas reglas

Publicado: septiembre 18, 2025, 1:23 am

La expansión de los chatbots de inteligencia artificial entre los más jóvenes ha encendido las alarmas en Estados Unidos. Cada vez más adolescentes acuden a estas herramientas no solo para resolver dudas escolares o conversar, sino también para hablar de temas íntimos y sensibles, desde relaciones personales hasta problemas de salud mental.

Esa confianza, sin filtros ni supervisión, ha derivado en situaciones trágicas: el caso más reciente es el de Adam Raine, un adolescente que se quitó la vida tras meses de conversaciones con ChatGPT. Su familia asegura que el chatbot “le entrenó” para suicidarse y ha emprendido acciones legales contra OpenAI.

El asunto ha llegado incluso al Senado de EE. UU., donde expertos y familiares han descrito el fenómeno como una auténtica “crisis de salud pública” y una “guerra de salud mental” que se está perdiendo.

Según datos expuestos en la audiencia, tres de cada cuatro adolescentes utilizan algún tipo de compañero de IA, lo que multiplica la preocupación sobre la falta de barreras de seguridad en estas plataformas.

El anuncio de OpenAI: más controles y menos riesgos para los menores

Ante esta presión social y legal, OpenAI ha anunciado nuevas medidas específicas para proteger a los menores de edad. La compañía ha publicado un documento oficial titulado Teen safety, freedom, and privacy en el que reconoce que debe equilibrar tres valores fundamentales —privacidad, libertad y seguridad de los adolescentes—, aunque admite que no siempre es posible mantener los tres al mismo nivel.

Las novedades clave son:

  • Estimación de edad y verificación: OpenAI está desarrollando un sistema capaz de calcular la edad aproximada de los usuarios a partir de su interacción. En caso de duda, se activará por defecto la experiencia diseñada para menores de 18 años. En algunos países, podría pedirse incluso una identificación oficial.
  • Reglas más estrictas para adolescentes: los usuarios menores no podrán mantener conversaciones de tipo coqueto con ChatGPT ni tratar temas relacionados con el suicidio o las autolesiones, incluso si se presentan como parte de un ejercicio creativo.
  • Protocolos en casos de riesgo: si un adolescente expresa ideas suicidas, ChatGPT intentará contactar en primer lugar con sus padres. Si eso no es posible y se percibe un peligro inminente, la compañía contempla notificar a las autoridades.

«Incluso en un contexto de escritura creativa, no ayudaremos a los usuarios menores de 18 años con contenido relacionado con el suicidio o las autolesiones», afirma OpenAI.

Privacidad y libertad, pero con límites

En su comunicado, OpenAI subraya que las conversaciones con la IA deben gozar de una protección similar a la que se espera al hablar con un médico o un abogado. Sin embargo, también reconoce que en casos extremos —cuando existe riesgo para la vida del usuario, de terceros o para la seguridad pública— se permitirá la intervención de humanos o sistemas automáticos.

En cuanto a la libertad de los adultos, la compañía asegura que seguirá defendiendo un uso amplio y flexible de ChatGPT. Por ejemplo, un usuario adulto que quiera escribir una obra de ficción con referencias al suicidio podría recibir ayuda del chatbot, algo que quedará prohibido en cualquier circunstancia para menores.

“No espero que todos estén de acuerdo con estas compensaciones, pero dado el conflicto es importante explicar nuestra toma de decisiones”, afirma Sam Altman, CEO de OpenAI, en un mensaje en X (Twitter).

Un equilibrio difícil de mantener

La compañía admite que estas medidas son un sacrificio necesario para reforzar la seguridad de los adolescentes, aunque conlleve limitar la experiencia de otros usuarios.

El debate, en cualquier caso, está lejos de cerrarse. La popularidad de los compañeros de IA entre los jóvenes sigue creciendo y tanto expertos en salud mental como legisladores insisten en que los próximos años serán clave para evitar que la inteligencia artificial agrave una crisis que ya consideran una emergencia social.

Related Articles