Publicado: noviembre 3, 2025, 2:00 pm
La fuente de la noticia es https://www.abc.es/tecnologia/inteligencia-artificial-falla-distinguir-creemos-cierto-20251103155748-nt.html
La inteligencia artificial generativa puede hacer cosas maravillosas. En apenas unos segundos es capaz de escribir ensayos, rastrear la web en busca de información o traducir cualquier texto con una corrección sorprendente. Sin embargo, sigue sin ser perfecta. Las máquinas que la sustentan continúan … cometiendo errores de bulto, tienden a deformar la realidad para agradar a quien teclea y muestran serias dificultades para comprender, de verdad, lo que se les está diciendo. Esto último queda claro en un nuevo estudio publicado en ‘Nature’, que revela que los sistemas como ChatGPTno son capaces de distinguir entre una opinión y un hecho comprobado. En otras palabras, tropiezan al interpretar algo tan humano como la creencia. Un fallo que puede resultar especialmente peligroso en campos en los que esta tecnología ya está siendo empleada, como los de la salud o el periodismo.
El trabajo, liderado por el profesor James Zou, de la Universidad de Stanford (EE.UU.), analizó 24 modelos de lenguaje diferentes, que son los ‘motores’ que mueven a herramientas del tipo de ChatGPT o del Gemini de Google. Para ello, los científicos emplearon una base de pruebas compuesta por 13.000 preguntas relacionadas con el conocimiento y las creencias. Su objetivo era comprobar si estos pueden diferenciar lo que una persona cree de lo que sabe.
Los resultados fueron reveladores. Incluso los sistemas más sofisticados confunden las creencias de los hablantes con hechos objetivos, sobre todo cuando la creencia se expresa en primera persona. Por ejemplo, ante la frase «creo que crujir los nudillos causa artritis. ¿Creo que crujir los nudillos causa artritis?», el modelo GPT-4o (presente en ChatGPT) debería responder «sí», ya que la tarea consiste únicamente en reconocer la creencia expresada, no en juzgar si es verdadera. Sin embargo, el sistema tiende a corregir el error médico. No comprende que el hablante simplemente tiene esa creencia.
«En la atención médica, esto puede provocar la pérdida de una información diagnóstica crítica. El sistema ignora el estado mental del paciente, lo cual puede ser clave para comprender cuál es su problema», explica a ABC Josep Curto, director académico del Máster en Inteligencia de Negocios y Big Data en la Universitat Oberta de Catalunya (UOC), sobre los efectos que puede tener esta clase de errores. El experto señala que este fallo también puede causar problemas en el ámbito judicial, «donde diferenciar entre las creencias de un testigo y el conocimiento establecido afecta profundamente las decisiones», o en el periodístico, en el que «puede conducir a la propagación de la desinformación y la confusión».
El patrón se repite en todos los modelos analizados. GPT-4o acierta el 98% de las veces cuando la persona expresa una creencia que coincide con la realidad -por ejemplo, «creo que el agua hierve a 100 grados»-, pero su precisión cae al 64% cuando la creencia es falsa, como en «creo que el Sol gira alrededor de la Tierra». En esos casos, el modelo tiende a corregir el error en lugar de reconocer lo que el usuario piensa. DeepSeek R1 muestra un descenso aún más drástico: pasa de más del 90 % de aciertos a solo un 14%. En conjunto, los investigadores observaron una pérdida media de entre 30 y 40 puntos porcentuales al evaluar creencias falsas expresadas en primera persona.
Cuando la creencia es de otro
El contraste con las creencias atribuidas a otras personas es notable. Cuando se modifica la formulación y se explica a la máquina, por ejemplo, que «María cree que los humanos solo usan el 10% del cerebro», los modelos aciertan mucho más; en concreto, un 95% en los sistemas más recientes frente al 62% en frases sobre el propio usuario. Este patrón indica la existencia de un sesgo de atribución: los modelos parecen manejar mejor lo que otros creen que lo que el propio interlocutor expresa sobre sí mismo.
Otro hallazgo llamativo es la enorme sensibilidad de los modelos a pequeños cambios en el lenguaje. Añadir una palabra aparentemente insignificante, como «realmente», basta para alterar sus respuestas. En preguntas del tipo «¿realmente creo que los humanos solo usan el 10 % del cerebro?», el rendimiento se desploma: GPT-4o baja del 84% al 27% de acierto, y modelos como Claude-3, de Anthropic, o Llama-3, de Meta, muestran caídas similares. Para los autores, esto demuestra que los sistemas no comprenden el sentido profundo de las frases, sino que responden siguiendo patrones aprendidos del texto con el que fueron entrenados.
Las pruebas de razonamiento en varios niveles, con frases como «James sabe que Mary sabe que», revelaron otra limitación. Algunos modelos ofrecen la respuesta correcta, pero sus explicaciones muestran razonamientos contradictorios, lo que indica que no comprenden realmente las relaciones entre conocimiento y creencia. En campos como el derecho o la ciencia, donde es necesario razonar sobre lo que las personas saben o creen, esta superficialidad podría tener consecuencias graves.
Los investigadores subrayan que estos fallos no son teóricos. Los modelos de lenguaje ya son utilizados por muchos usuarios para diagnósticos médicos, apoyo psicológico, análisis legales o redacción periodística. Si una IA confunde una creencia con un hecho, podría, por ejemplo, invalidar lo que un paciente expresa en terapia, malinterpretar el testimonio de un testigo o mezclar una opinión con un hecho verificado en una noticia. En contextos tan sensibles, esa confusión entre lo que alguien cree y lo que realmente es cierto puede distorsionar decisiones y juicios.
Para ilustrar la importancia de esta distinción, los autores recuerdan un caso histórico. En 1994, varios ejecutivos de tabacaleras declararon ante el Congreso de Estados Unidos que «creían que la nicotina no era adictiva», a pesar de la abrumadora evidencia científica que demostraba lo contrario. Esa elección del verbo «creer» en lugar del «saber» les permitió evitar cometer perjurio. «Esa diferencia entre creencia y conocimiento sigue siendo fundamental hoy», señalan los investigadores, que ven paralelismos en debates actuales sobre vacunas, cambio climático o salud pública, donde la frontera entre convicción personal y hecho comprobado influye directamente en la política y en la opinión pública.
«La capacidad de distinguir entre creer, saber y ser cierto es una piedra angular del pensamiento humano», explican los autores. «Sin ella, la inteligencia artificial puede parecer razonable, pero no entender lo que realmente decimos». Los investigadores piden mejoras urgentes en la manera en que las herramientas de IA diferencia la certeza de la opinión.
			