Publicado: mayo 26, 2025, 7:00 am
La fuente de la noticia es https://www.abc.es/tecnologia/ia-puede-util-detectar-depresion-riesgo-suicidio-20250526114610-nt.html
Abrirse con ChatGPT puede ser muy sencillo para una persona. Desde hace tiempo, muchos usuarios recurren a la máquina parlante de OpenAI, o a otras de su clase que andan rondando por la red, para compartir sus problemas cotidianos o, simplemente, encontrar algo de desahogo. Ahora, un reciente estudio elaborado por investigadores de Corea del Sur apunta que el empleo de chatbots de inteligencia artificial puede ser útil para identificar sÃntomas de depresión y riesgo de suicidio en pacientes.
La investigación, publicada recientemente en la revista cientÃfica JAMA Network Open y dirigida por la doctora Silvia Kyungjin Lho, examinó el desempeño de diferentes sistemas de IA al analizar respuestas a un clásico test psicológico conocido como prueba de frases incompletas (STC, por sus siglas en inglés).
Dicha prueba, que invita a los pacientes a completar frases como «Yo soy…» o «Mi futuro será…», ha sido utilizada durante décadas para encontrar problemas de salud mental. La idea detrás del estudio era sencilla: si una persona refleja emociones negativas en sus respuestas, como desesperanza o autocrÃtica, ¿puede un modelo de IA identificarlo como una señal de alarma?
Para sacar conclusiones al respecto, el equipo analizó los datos de 1.064 pacientes psiquiátricos de entre 18 y 39 años que fueron atendidos en el Hospital Boramae de Seúl. Todos ellos habÃan completado el test STC. Tras borrar cualquier rastro de datos personales, introdujeron las respuestas escritas -más de 52.000 frases en total- en modelos como GPT 4, uno de los que mueve a ChatGPT, o al Gemini de Google.
A los modelos se les pidió que determinaran si, basándose solo en las frases escritas por los pacientes, podÃan predecir si una persona sufrÃa de depresión o tenÃa un alto riesgo de suicidio. En algunos casos, la IA trabajó sin ninguna guÃa previa y, en otros, se le proporcionaron unos pocos ejemplos antes de analizar los textos. Los resultados obtenidos fueron bastante positivos.
El modelo de ChatGPT fue capaz de detectar la depresión con un nivel de precisión del 72% sin necesidad de entrenamiento previo, y subió al 75% cuando se le dieron ejemplos. Con el riesgo de suicidio acertó en el 73% de los casos.
El que mejor desempeño ofreció fue un modelo que combinó la conversión de texto en números con un sistema de clasificación llamado XGBoost, que alcanzó una tasa de acierto del 84% en depresión al analizar las frases relacionadas con el autoconcepto. Con el riesgo de suicidio se quedó en el 72%.
Hay que mejorar los resultados
A pesar de que las máquinas fueron capaces de llegar a detectar la mayorÃa de los problemas de salud mental en pacientes, los investigadores son conscientes de que el rango de error todavÃa es elevado. Por ejemplo, la IA de ChatGPT era buena a la hora de localizar signos de depresión cuando las respuestas examinadas mostraban sentimientos negativos y desesperanza. Sin embargo, fallaba cuando los pacientes intentaban camuflar estas emociones.
De acuerdo con los investigadores, la IA no está en condiciones de reemplazar al diagnóstico clÃnico tradicional realizado por humanos. En su lugar, se debe intentar avanzar para que los profesionales puedan utilizarla como una herramienta complementaria que les ayude a detectar posibles señales de alarma en pacientes que, quizá, requieran de una evaluación más profunda. Sea como sea, es fundamental mejorar el rendimiento de la IA y su seguridad antes de su aplicación clÃnica.
En esa misma lÃnea se mueve Gerard Anmella, psiquiatra e investigador de la Unidad de Trastornos Depresivos y Bipolares del Hospital ClÃnic de Barcelona. El profesional remarca en ‘SMC’ que el estudio representa «un paso más en el camino hacia una salud mental personalizada, democratizada y basada en marcadores objetivos«: »Se espera que estas herramientas, en el futuro, puedan complementar el trabajo de los profesionales y ayudar a las personas a comprender mejor sus propios problemas de salud mental».