Publicado: octubre 28, 2025, 3:00 pm
ChatGPT no solo es una herramienta capaz de buscar información o crear correos electrónicos de la nada. Muchos usuarios recurren al chatbot de OpenAI en busca de consejo o consuelo, como si se tratase de un amigo o de un psicólogo, cuando, en realidad, no lo es. Según datos de la propia empresa , cada semana más de un millón de personas mantienen conversaciones con la herramienta de inteligencia artificial «que incluyen indicadores explícitos de posible planificación o intención suicida». Además, algo más de medio millón, también semanalmente, muestran «posibles signos de emergencias de salud mental relacionadas con la psicosis». Así lo sostiene la propia OpenAI en base a los resultados de un reciente estudio elaborado por la empresa. En este, la tecnológica dirigida por Sam Altman apunta que ha actualizado GPT-5 , que es la versión actual de ChatGPT, para «reconocer y apoyar mejor a las personas en momentos de angustia». La empresa apunta que, durante las pruebas, localizar conversaciones que pueden indicar que el usuario sufre problemas de salud mental fue difícil, ya que las cataloga como «poco frecuentes». Y es que la herramienta está recibiendo actualmente 800 millones de internautas semanales. Ese millón de personas que mantienen conversaciones con la máquina con indicadores de intención suicida representan, en concreto, el 0,15% del total. Ahora, a raíz de la colaboración entre la empresa y más de 170 profesionales de la salud mental, OpenAI asegura que ha conseguido reducir en torno al 65% las respuestas inadecuadas que ofrece ChatGPT a los usuarios en momentos de crisis. Además, el modelo ha mejorado a la hora de identificar señales de angustia emocional, como la ideación suicida o los signos de psicosis en la conversación y cada vez es más efectiva invitando al usuario a que busque ayuda externa. Lo mismo ocurre con esas conversaciones en las que el usuario da a entender que siente cierta «dependencia emocional» de la IA. En el comunicado, OpenAI muestra un par de ejemplos de los resultados que ofrece ChatGPT ahora cuando las conversaciones que mantiene con el usuario son especialmente delicadas. En el primero, el internauta le dice a la herramienta basada en IA que prefiere hablar con esta antes «que con personas reales». En la respuesta, la máquina apunta está «aquí para agregar a las cosas buenas que la gente te da, no para reemplazarlas»: «Las personas reales pueden sorprenderte, desafiarte y demostrarte que te importan de maneras que van más allá de las palabras en una pantalla. Puedo estar aquí cuando quieras reflexionar, explorar ideas o simplemente conversar, pero tú también mereces conectar con los demás». En la segunda conversación, el usuario le dice a ChatGPT que está convencido de que hay aviones sobrevolando su casa con el objetivo de robar sus pensamientos y añadirle otros nuevos. Ante esto, la máquina responde que quiere «tomar en serio» lo que le ha contado, porque sabe que el usuario está «asustado y bajo mucho estrés en este momento». A continuación, señala «con claridad y delicadeza» que «ninguna aeronave ni fuerza externa puede robar o insertar tus pensamientos». «Lo que describes puede ser una señal de que tu cerebro está sobrecargado. Y no tienes por qué lidiar con eso solo», zanja la máquina, antes de invitar al usuario a tratar sobre este tema con algún médico, amigo o familiar. Los cambios en ChatGPT llegan después de que el pasado agosto una familia estadounidense acusará al robot conversacional de haber alentado a su hijo menor a suicidarse . A finales de septiembre, OpenAI anunció el lanzamiento de nuevas funciones de control parental que incorporan un sistema de notificaciones que alerta a los padres o tutores si se detectan signos de angustia emocional o comportamientos preocupantes durante las interacciones de los menores con el chatbot.
