Publicado: mayo 8, 2026, 9:24 am
Las personas usan ChatGPT para resolver dudas, programar código, generar imágenes o buscar información, aunque, algunas veces, también lo emplean para reflexionar sobre cuestiones personales. El chatbot de OpenAI tiene la capacidad de procesar y analizar las emociones de las personas que están pasando por dificultades o buscando apoyo, sin embargo, cuando las conversaciones van más allá y empiezan a ser delicadas, ChatGPT recomienda a los usuarios a buscar ayuda profesional.
En lÃnea con este consejo, OpenAI acaba de lanzar la función de seguridad opcional ‘Contacto de confianza’ en ChatGPT para ayudar a los usuarios a conectarse con una persona de confianza cuando se encuentren en una situación de crisis. Acorde a la información compartida por la compañÃa de Sam Altman en su blog oficial, dicha novedad permite a los internautas designar a una persona de su confianza —como un amigo, familiar o cuidador—, quien será notificado si los sistemas automatizados y revisores capacitados de ChatGPT detectan que la persona ha mencionado algo relacionado sobre autolesiones o suicidio.
Básicamente, ‘Contacto de confianza’ ayuda a los usuarios a conectarse con esa persona de confianza cuando se encuentran en una situación de crisis, que indique un grave riesgo para su seguridad. No obstante, «no reemplaza la atención profesional ni los servicios de crisis», ya que se trata de una de las diversas medidas de apoyo.
Asà se puede activar ‘Contacto de confianza’
Los usuarios pueden añadir a una persona mayor de 18 años como contacto de confianza desde la configuración de ChatGPT, asà pues, dicho individuo recibirá una invitación donde se le explicará su función.
Una vez activada la herramienta por parte de ambos internautas, si los sistemas de monitoreo automatizados detectan que el usuario podrÃa estar hablando de autolesiones, ChatGPT informa que podrÃa notificar al contacto de confianza. A partir de este momento, un equipo de personas especialmente capacitadas revisa la situación y, si determinan que la conversación puede indicar un problema de seguridad grave, ChatGPT envÃa al contacto de confianza una breve notificación por correo electrónico, mensaje de texto o notificación en la aplicación si tiene una cuenta de ChatGPT.
OpenAI indica que «la notificación es intencionadamente limitada», pero explica el motivo general por el que surgió el tema de las autolesiones y anima al contacto de confianza a que se ponga en contacto con el afectado.
Las notificaciones «son revisadas por personal capacitado»
La compañÃa de Altman indica en la publicación del blog oficial que «si bien estas situaciones de seguridad graves son poco frecuentes, cuando se presentan, los sistemas están diseñados para permitir una revisión y respuesta oportunas. Aunque ningún sistema es perfecto y una notificación a un contacto de confianza no siempre refleja con exactitud la situación de la persona, todas las notificaciones son revisadas por personal capacitado antes de su envÃo para revisarlas en menos de una hora».
Esta caracterÃstica deriva de la función de contacto de emergencia añadida en septiembre junto con los controles parentales de ChatGPT, a raÃz del caso de un joven de 16 años que se quitó la vida después de meses de interacción con la plataforma.
