La IA afecta al criterio social de los usuarios al no llevarles la contraria - Estados Unidos (ES)
Registro  /  Login

Otro sitio más de Gerente.com


La IA afecta al criterio social de los usuarios al no llevarles la contraria

Publicado: marzo 26, 2026, 5:12 pm

Una adolescente estudia en su casa con ayuda de una herramienta de inteligencia artificial.

Los sistemas de inteligencia artificial (IA) le dicen al usuario lo que quiere oír. Se ha documentado que suele ser así cuando se le hacen preguntas sobre hechos. También se ha demostrado que eso entraña serios problemas para personas vulnerables a la manipulación o el engaño, llegando en algunos casos hasta el extremo del suicidio. Pero hasta ahora no se había investigado cómo reaccionan estos programas ante preguntas de corte puramente social. Un estudio publicado en la revista Science elaborado por un equipo de informáticos de la Universidad de Stanford confirma que los grandes modelos de lenguaje (LLM, por sus siglas inglesas), como ChatGPT o Gemini, tienden a ser complacientes o serviles en sus respuestas cuando se les consulta por dilemas personales. Y que dan la razón incluso si lo que se les pregunta implica comportamientos dañinos o ilegales, lo que a su vez tiene repercusiones en la forma en que el usuario percibe la realidad.

Seguir leyendo

Related Articles