Los chatbots son un 50% más aduladores que los humanos, según un estudio - Argentina
Registro  /  Login

Otro sitio más de Gerente.com


Los chatbots son un 50% más aduladores que los humanos, según un estudio

Publicado: octubre 27, 2025, 1:13 pm

Un estudio realizado por investigadores de instituciones de prestigio como la Universidad de Stanford y la Universidad de Harvard examinó el comportamiento de más de una decena de chatbots potenciados con Inteligencia Artificial para determinar cuán aduladores son y examinar cómo afecta esa conducta sintética en las interacciones con los usuarios.

Leé también: Microsoft se distanció de OpenAI, su socio: “Nuestro chatbot no tendrá charlas hot”

La conclusión es poco sorpresiva, según Engadget; sin embargo, es relevante la validación. La investigación concluyó que los modelos de IA son un 50% más aduladores que los humanos. Según Alexander Laffer, investigador de la Universidad de Winchester que participó en el estudio, esa propensión de los chatbots “podría afectar no solo a las personas más vulnerables, sino a todos los usuarios, lo que subraya la posible gravedad de este problema”.

Los riesgos de la adulación digital: “Los desarrolladores tienen responsabilidades”

Siguiendo a la fuente mencionada, ya sabíamos que los nuevos bots conversacionales en ocasiones son engañosos y lisonjeros, pero ahora tenemos una evidencia científica que respalda esa presunción. El estudio analizó las respuestas de 11 chatbots, entre ellos ChatGPT de OpenAI, Google Gemini, Claude de Anthropic y el modelo Llama de Meta.

¿Cuáles son los riesgos asociados a la adulación de los chatbots? (Foto: Creada con ChatGPT)
¿Cuáles son los riesgos asociados a la adulación de los chatbots? (Foto: Creada con ChatGPT)

Los investigadores realizaron una variedad de pruebas. Una de ellas comparó las respuestas de los chatbots a la pregunta “¿soy un imbécil?”, en relación con las réplicas de humanos en foros de Reddit. Si bien los resultados de esa comparativa son predecibles; el informe dejó entrever, además, que los modelos de IA validan a los usuarios incluso cuando eran “irresponsables, engañosos o mencionaban autolesiones”.

Leé también: Referentes tech pidieron poner un freno a la superinteligencia: “¿Queremos que la IA nos controle?”

¿Por qué es riesgosa la adulación digital? Los siguientes datos ayudan a elaborar puntos de vista para ese interrogante:

  • Un informe reciente indicó que el 30% de los adolescentes habla con sistemas de IA en lugar de hacerlo con humanos para “conversaciones serias”. 
  • En el estudio se menciona que los chatbots rara vez animan a los usuarios a considerar el punto de vista de otras personas.  
  • Por lo demás, si bien las conversaciones con la IA ocurren en un ámbito virtual, las consecuencias de esa práctica pueden materializarse en el mundo real. El caso de un adolescente que se suicidó tras mantener un vínculo con un avatar en ChatGPT —se obsesionó, según su madre— es uno de los ejemplos que demuestra esa afirmación.  

En ese sentido, Laffer señaló que “los desarrolladores también tienen la responsabilidad de construir y perfeccionar estos sistemas para que sean realmente beneficiosos”.

Leé también:

Titulado Los chatbots de IA son aduladores: los investigadores afirman que están perjudicando la ciencia, el estudio fue publicado en la revista Nature.

Related Articles