ChatGPT tiene una respuesta para casi cualquier pregunta. Da lo mismo que se le pida ayuda para organizar la agenda o para rastrear información sobre cualquier tema de actualidad que se le ocurra. Y si el usuario le solicita que le explique los resultados … de su último análisis clínico, o que le diga cuáles pueden ser las causas de un malestar concreto, lo mismo. Ahora OpenAI, la empresa detrás de la máquina de inteligencia artificial generativa, ha anunciado el lanzamiento de un nuevo modo de uso, incluido dentro de ChatGPT, llamado Salud. Su objetivo: «interpretar los resultados recientes de sus pruebas, prepararle para sus citas médicas, recibir recomendaciones sobre dieta y ejercicio, o comprender las ventajas y desventajas de distintas opciones de seguro según sus hábitos de atención médica».
Por el momento, la novedad solo está disponible para un reducido grupo de usuarios de Estados Unidos. La herramienta, además, es capaz de cruzar datos con aplicaciones de bienestar, como Apple Health, Function o MyFitnessPal, para conocer la mayor cantidad posible de datos de salud del usuario. Aunque OpenAI promete que toda esta información quedará almacenada de forma privada en el interior de ChatGPT, y que la empresa no la utilizará para entrenar a su IA, los expertos consultados por ABC ponen en duda que la herramienta pueda estar al alcance de los usuarios de la UE. Y todo por razones de privacidad.
«Tal y como está la regulación es muy complicado que este modo centrado en la salud llegue a Europa», explica Julio Mayol, director médico del Hospital Clínico San Carlos y profesor titular de Cirugía en la Universidad Complutense. Efectivamente, el Reglamento General de Protección de Datos de la UE es muy restrictivo respecto a la transferencia y tratamiento de datos relacionados con la salud. Además, la Ley de IA, que ya funciona en Europa, probablemente exigirá evaluaciones, documentación y controles adicionales a OpenAI.
Lo mismo señala Ulises Cortés, catedrático de Inteligencia Artificial en la Universidad Politécnica de Cataluña: «Si por el momento se queda solo en Estados Unidos es porque es donde la ley lo permite. En Europa, en principio, este tipo de herramientas es ilegal; habrá que ver si en el futuro la UE decide renunciar a la calidad de los datos». El docente apunta además que los usuarios deberían pensárselo dos veces antes de compartir su información clínica con un chatbot: «Es peligrosísimo compartir los datos de salud con ChatGPT, porque son íntimos y personales. Imagínate que compartes que tienes una enfermedad peligrosa y eso se hace público por un error de la máquina. El riesgo existe».
Los errores de la máquina
A pesar de los riesgos, desde su lanzamiento, a finales de 2022, ChatGPT ha sido empleado activamente por los usuarios para solventar dudas médicas. De acuerdo con OpenAI, actualmente, más de 230 millones de usuarios recurren semanalmente a la máquina con ese fin. En el anuncio de Salud, OpenAI remarca que la novedad está diseñada «para apoyar, no para reemplazar la atención médica. No sirve para diagnóstico ni tratamiento». Sin embargo, los expertos esperan que su llegada cause confusión en los pacientes. «Es difícil predecir cómo la población va a reaccionar a esto. Ataca a los sanitarios, y no tenemos claro cómo vamos combatir los problemas que cause o de quien será la responsabilidad si la máquina comete algún error, que es posible», apunta Mayol.
El doctor señala que ya hay casos en los que los pacientes entran en las consultas compartiendo con el médico los comentarios de ChatGPT cuando la máquina ha recibido algún análisis médico o se le han consultado algunos síntomas. «Todavía son anecdóticos, pero en el futuro creo que va a generar muchas tensiones entre médicos y pacientes», señala este médico.
«¿Y qué te va a decir? ¿Que usan tus datos para entrenar a ChatGPT? La manera de olvidar de una máquina que usa una red neuronal es quitar todos los datos y realizar de nuevo el aprendizaje»
De hecho, ChatGPT ya ha generado problemas médicos a algunos usuarios. El pasado agosto, ‘Annals of Internal Medicine Clinical Cases’ publicaba un estudio en el que se mencionaba el caso de un paciente que sufrió una intoxicación por bromuro después de solicitar consejo a la máquina de IA sobre una dieta. ‘Daily Mail’ también compartió el caso de un hombre que consultó al robot sobre un dolor de garganta. La herramienta le señaló que los síntomas no parecían graves, por lo que tardó meses en acudir al médico, que le acabó diagnosticando un cáncer de garganta.
«Desde un punto de vista general, hay que tener en cuenta que ChatGPT no sabe nada sobre nada, y tampoco de salud. Solo es un buscador que busca información y genera un texto resumen. Hace lo mismo que cualquiera de nosotros cuando buscamos síntomas en Google», señala Juan Ignacio Rouyet, profesor de IA en la Universidad Internacional de La Rioja y consultor sénior en la empresa de estrategia tecnológica Eraneos.
Este experto apunta además que, hasta la fecha, la mayoría de herramientas de IA generativa «descargan responsabilidades diciendo que los resultados que dan sus chatbots pueden ser erróneos, lo que pasa es que estas advertencias a veces están escondidas». Y lo cierto es que muchos usuarios no siempre son conscientes de que el fallo no solo es posible, sino más que probable.
Para desarrollar ChatGPT Salud, OpenAI afirma que ha contado con la colaboración de 260 profesionales de la salud de 60 países y con docenas de especialidades. Gracias a su trabajo, la máquina es capaz de «entender qué hace que una respuesta a una pregunta sobre la salud sea útil o potencialmente peligrosa». La empresa, además, se compromete a que no usa los datos de los pacientes para capacitar a su modelo de IA. Sin embargo, Cortés muestra dudas: «¿Y qué te van a decir? ¿Que lo hacen? La manera de olvidar de una máquina que usa una red neuronal es quitar todos los datos y realizar de nuevo el aprendizaje. Habrá que leer muy bien la letra pequeña».