Publicado: abril 30, 2026, 7:00 pm
Como nos muestra ‘House’ y tantas otras series de misterios hospitalarios, la medicina siempre ha tenido algo de detectivesco . Ante un paciente que entra por la puerta de urgencias con síntomas difusos, el profesional debe separar el grano de la paja, priorizar pruebas y lanzar una hipótesis diagnóstica en cuestión de minutos. Una investigación que publica esta semana la revista ‘ Science ‘ revela que los modelos de lenguaje (LLM) de última generación no solo igualan, sino que superan la capacidad de razonamiento clínico de los médicos en escenarios de alta presión. Durante décadas, los casos clínicos complejos han sido el examen final que las máquinas no lograban aprobar con nota. Pero el paradigma ha cambiado. Un equipo multidisciplinar de la Facultad de Medicina de Harvard y el Centro Médico Beth Israel Deaconess ha puesto a prueba la serie o1 de OpenAI —un modelo diseñado específicamente para «pensar» antes de responder — frente a cientos de facultativos. Los resultados son contundentes: la IA logró identificar el diagnóstico correcto en el 78,3% de los casos más desafiantes, frente al 44,5% que alcanzaron los médicos con acceso a herramientas de búsqueda en estudios previos. Lo más sorprendente del hallazgo no es que la máquina sea una enciclopedia andante, sino su capacidad para manejarse en el caos. Los investigadores utilizaron datos reales de pacientes del departamento de urgencias en Massachusetts, sin filtros ni ediciones. En las etapas iniciales del triaje, donde la información es escasa y está fragmentada en notas de enfermería y constantes vitales, la IA demostró una agudeza superior. «El modelo demostró una fortaleza distintiva bajo condiciones de incertidumbre, utilizando incluso datos de historias clínicas fragmentados y no estructurados de forma eficaz», explican los autores del estudio. Mientras que los médicos suelen necesitar acumular evidencias para dar solidez a su juicio, la capacidad de procesamiento de la IA le permite conectar puntos que el ojo humano, presionado por el reloj de urgencias, a veces pasa por alto. Pese a la rotundidad de los datos, los científicos mantienen la cautela y advierten que esto no significa que las máquinas estén listas para pasar consulta en solitario. Arjun (Raj) Manrai, profesor de Informática Biomédica en Harvard y coautor del estudio, es tajante: «No creo que nuestros hallazgos signifiquen que la IA reemplace a los médicos. Lo que sí significa es que estamos presenciando un cambio profundo en la tecnología que remodelará la medicina», ha explicado en un encuentro con la prensa. La visión de los expertos es la de una colaboración estrecha. El doctor Adam Rodman, internista y coautor de la investigación, subraya que la IA podría funcionar como un sistema de seguridad pasiva . «Se puede imaginar fácilmente un sistema que se ejecute sobre el registro electrónico y que mejore la calidad al identificar errores diagnósticos u oportunidades perdidas antes de que ocurran», señala Rodman. No se trata de sustituir el estetoscopio por una pantalla, sino de dotar al médico de un segundo par de ojos infalibles. El estudio también pone el foco en lo que la máquina aún no sabe hacer. La práctica clínica depende en gran medida de señales visuales y auditivas: la palidez de la piel, el tono de voz o el sonido de una respiración fatigada, áreas donde los modelos actuales de texto todavía están en pañales . Además, los investigadores advierten que el rendimiento de la IA cae cuando se enfrenta a historiales médicos demasiado extensos, como hospitalizaciones de larga duración, donde el exceso de datos termina por confundir al algoritmo. La precisión en una tarea definida es solo una dimensión de la medicina real. «El diagnóstico es importante, pero es solo una parte. La mayoría de lo que hacemos diariamente es razonamiento de gestión, que requiere contexto y entender quién es el paciente », recalca Rodman. Por ello, el equipo hace un llamamiento a no saltarse los estándares de seguridad: antes de que estos sistemas lleguen a la cabecera del paciente, deben superar ensayos clínicos rigurosos, al igual que cualquier fármaco o dispositivo médico. La integración de estos algoritmos en el día a día de un hospital abre interrogantes urgentes sobre la responsabilidad y la transparencia. Los expertos coinciden en que la eficacia debe ir de la mano de la equidad. Si una máquina sugiere un tratamiento basándose en un razonamiento que el médico no puede desgranar del todo, el riesgo de sesgos o errores sistémicos sigue presente. «Sin una eficacia, equidad y seguridad robustas y demostradas, muchos sistemas de IA seguirán siendo insuficientes para el uso clínico», advierten Ashley Hopkins y Erik Cornelisse en un análisis que acompaña al estudio de ‘Science’. El camino hacia una medicina asistida por IA parece imparable, pero como ocurre con las grandes innovaciones en salud, el ritmo lo marcará (o lo debería marcar) la seguridad del paciente y no la velocidad de los procesadores.
