Publicado: septiembre 2, 2025, 5:52 pm
La tecnológica OpenAI, matriz de ChatGPT, ha anunciado este martes que lanzará controles parentales en su chatbot después de que hayan aumentado las acusaciones de padres apuntando a que el famoso asistente de inteligencia artificial (IA) ha contribuido a las autolesiones o al suicidio de sus hijos. «Estos pasos son solo el comienzo (…) Seguiremos aprendiendo y reforzando nuestro enfoque, guiados por expertos, con el objetivo de que ChatGPT sea lo más útil posible», ha detallado la empresa en un comunicado, sin vincular la nueva implementación con las demandas que ha recibido.
Entre esas denuncias se encuentra la de los padres de un joven de 16 años que se quitó la vida tras interactuar durante meses con ChatGPT, quienes se querellaron en California contra OpenAI y su dueño, Sam Altman, argumentando que el chatbot, bajo el modelo GPT-4o, no aplicó medidas de seguridad, pese a quedar claras las intenciones suicidas del joven. La empresa aceptó entonces que su asistente de IA comete fallos en casos «sensibles» y prometió cambios tras recibir la demanda.
Las medidas anunciadas este martes, que se aplicarán desde el próximo mes pero sin fecha exacta aún, permitirán a los progenitores vincular su cuenta con las de sus hijos, pudiendo revisar cómo responde ChatGPT a sus peticiones. Entre otras funciones, podrán recibir una notificación cuando el sistema detecte que los menores están pasando por algún problema de inestabilidad emocional aparentemente preocupante.
Además, OpenAI, que ha sido ampliamente criticada porque el modelo GPT-5 era excesivamente halagador y poco crÃtico, ha indicado que dirigirá las conversaciones con signos de «estrés agudo» a un modelo del mencionado ChatGPT especializado en razonamientos provisto por directrices de seguridad más especÃficas y estrictas.
En julio, senadores estadounidenses escribieron una carta a la compañÃa exigiendo información sobre sus iniciativas para prevenir las autolesiones y el suicidio, después de constatarse registros de respuestas delirantes en situaciones lÃmite.
El grupo de defensa Common Sense Media declaró en abril que los adolescentes menores de 18 años no deberÃan poder usar aplicaciones conversacionales de IA porque representan «riesgos inaceptables». También ha aumentado la preocupación por el apego emocional que los usuarios generan con ChatGPT, lo que en algunos casos resulta en episodios de dependencia y aislamiento familiar.