Publicado: mayo 8, 2026, 7:14 am
Las personas usan ChatGPT para resolver dudas, programar código, generar imágenes o buscar información, aunque, algunas veces, también lo emplean para reflexionar sobre cuestiones personales. El chatbot de OpenAI tiene la capacidad de procesar y analizar las emociones de las personas que están pasando por dificultades o buscando apoyo, sin embargo, cuando las conversaciones van más allá y empiezan a ser delicadas, ChatGPT recomienda a los usuarios a buscar ayuda profesional.
En línea con este consejo, OpenAI acaba de lanzar la función de seguridad opcional ‘Contacto de confianza’ en ChatGPT para ayudar a los usuarios a conectarse con una persona de confianza cuando se encuentren en una situación de crisis. Acorde a la información compartida por la compañía de Sam Altman en su blog oficial, dicha novedad permite a los internautas designar a una persona de su confianza —como un amigo, familiar o cuidador—, quien será notificado si los sistemas automatizados y revisores capacitados de ChatGPT detectan que la persona ha mencionado algo relacionado sobre autolesiones o suicidio.
Básicamente, ‘Contacto de confianza’ ayuda a los usuarios a conectarse con esa persona de confianza cuando se encuentran en una situación de crisis, que indique un grave riesgo para su seguridad. No obstante, «no reemplaza la atención profesional ni los servicios de crisis», ya que se trata de una de las diversas medidas de apoyo.
Así se puede activar ‘Contacto de confianza’
Los usuarios pueden añadir a una persona mayor de 18 años como contacto de confianza desde la configuración de ChatGPT, así pues, dicho individuo recibirá una invitación donde se le explicará su función.
Una vez activada la herramienta por parte de ambos internautas, si los sistemas de monitoreo automatizados detectan que el usuario podría estar hablando de autolesiones, ChatGPT informa que podría notificar al contacto de confianza. A partir de este momento, un equipo de personas especialmente capacitadas revisa la situación y, si determinan que la conversación puede indicar un problema de seguridad grave, ChatGPT envía al contacto de confianza una breve notificación por correo electrónico, mensaje de texto o notificación en la aplicación si tiene una cuenta de ChatGPT.
OpenAI indica que «la notificación es intencionadamente limitada», pero explica el motivo general por el que surgió el tema de las autolesiones y anima al contacto de confianza a que se ponga en contacto con el afectado.
Las notificaciones «son revisadas por personal capacitado»
La compañía de Altman indica en la publicación del blog oficial que «si bien estas situaciones de seguridad graves son poco frecuentes, cuando se presentan, los sistemas están diseñados para permitir una revisión y respuesta oportunas. Aunque ningún sistema es perfecto y una notificación a un contacto de confianza no siempre refleja con exactitud la situación de la persona, todas las notificaciones son revisadas por personal capacitado antes de su envío para revisarlas en menos de una hora».
Esta característica deriva de la función de contacto de emergencia añadida en septiembre junto con los controles parentales de ChatGPT, a raíz del caso de un joven de 16 años que se quitó la vida después de meses de interacción con la plataforma.
