Publicado: marzo 26, 2026, 5:12 pm

Los sistemas de inteligencia artificial (IA) le dicen al usuario lo que quiere oír. Se ha documentado que suele ser así cuando se le hacen preguntas sobre hechos. También se ha demostrado que eso entraña serios problemas para personas vulnerables a la manipulación o el engaño, llegando en algunos casos hasta el extremo del suicidio. Pero hasta ahora no se había investigado cómo reaccionan estos programas ante preguntas de corte puramente social. Un estudio publicado en la revista Science elaborado por un equipo de informáticos de la Universidad de Stanford confirma que los grandes modelos de lenguaje (LLM, por sus siglas inglesas), como ChatGPT o Gemini, tienden a ser complacientes o serviles en sus respuestas cuando se les consulta por dilemas personales. Y que dan la razón incluso si lo que se les pregunta implica comportamientos dañinos o ilegales, lo que a su vez tiene repercusiones en la forma en que el usuario percibe la realidad.
