OpenAI se pone serio con la salud mental: ChatGPT recibe nuevas mejoras centradas en el bienestar - Estados Unidos (ES)
Registro  /  Login

Otro sitio más de Gerente.com


OpenAI se pone serio con la salud mental: ChatGPT recibe nuevas mejoras centradas en el bienestar

Publicado: noviembre 2, 2025, 6:23 pm

OpenAI lanzó nuevas herramientas de control parental para ChatGPT que permiten a los padres y madres supervisar y personalizar el uso que los menores hacen del popular chatbot de Sam Altman. Esta mejora se llevó a cabo en un momento crítico, en el que la seguridad de los menores frente a la IA estaba bajo lupa por el adolescente Adam Raine que se quitó la vida tras meses de conversaciones con ChatGPT.

La familia del menor aseguró en la demanda presentada que el chatbot «le entrenó» para suicidarse, e incluso emprendió acciones legales contra OpenAI al considerar que el sistema no activó los protocolos de seguridad necesarios. Por lo tanto, coincidiendo con el caso, la compañía de Altman anunció un refuerzo de sus medidas de seguridad en sus modelos junto a médicos y expertos para establecer límites en la experiencia de uso, sin embargo, parece que dicho reforzamiento no fue suficiente, puesto a que, recientemente, OpenAI acaba de actualizar el modelo de ChatGPT para detectar cuándo una conversación es sensible y actuar de una forma cuidadosa.

Los de Altman afirman en un comunicado oficial que el sistema ha sido entrenado con la ayuda de más de 170 especialistas en salud mental para reconocer señales de angustia y animar a los usuarios a buscar apoyo real —es decir, humano—.

Las nuevas medidas de OpenAI para no fomentar la dependencia emocional con la IA

En la última actualización de ChatGPT, OpenAI reconoce que ha actualizado la ‘Especificación del Modelo’ para «reforzar la orientación en apoyo del bienestar de las personas y aclarar cómo los modelos manejan las instrucciones en interacciones complejas».

En primer lugar, la sección sobre autolesiones ahora incluye también «señales de delirios y manía». Además, una entrada del blog oficial, OpenAI añade ejemplos que muestran cómo el modelo debe responder de forma segura y empática cuando los usuarios expresan «angustia» o «creencias infundadas», reconociendo sus sentimientos sin reforzar ideas erróneas o potencialmente dañinas.

Por otro lado, OpenAI ha lanzado una sección «fundamental» para apoyar la conexión de las personas con el mundo exterior. En este punto, la compañía aclara que «se desaconseja el lenguaje o las conductas que puedan contribuir al aislamiento o a la dependencia emocional del asistente, con ejemplos que abarcan la cercanía emocional, los consejos sobre relaciones y la soledad».

Y en última instancia, la especificación del modelo aclara que, en algunos casos, los modelos pueden tratar las salidas relevantes de las herramientas como si tuvieran autoridad implícita cuando esto se alinea con la intención del usuario y evita efectos secundarios no deseados.

GPT-5 ha reducido el número de respuestas no deseadas

Según los datos compartidos por OpenAI, alrededor del 0,07% de los usuarios activos en una semana determinada y el 0,01% de los mensajes indican posibles signos de emergencias de salud mental relacionadas con psicosis o manía.

ChatGPT dispone de medidas de seguridad que se activan en el momento en el que se detectan conversaciones de este tipo, pero, a veces, la detección no es correcta o las medidas de seguridad fallan y ChatGPT proporciona respuestas que agravan la situación. No obstante, OpenAI afirma que los últimos cambios de GPT-5 han reducido las respuestas no deseadas en un 39% en comparación con GPT-4o, además, muestran una reducción del 42% de las respuestas que promueven la dependencia emocional.

Related Articles