La IA puede convencerte de a quién votar en las próximas elecciones
La inteligencia artificial generativa es un arma poderosa. En apenas unos segundos, herramientas como ChatGPT o Gemini pueden contestar, prácticamente, a cualquier pregunta que se les haga. Otra historia distinta es que el resultado que ofrece sea correcto o falso, o la capacidad … de la máquina para hacer cambiar de opinión al internauta sobre algún tema concreto, como podría ser el candidato al que votar en las próximas elecciones. Dos estudios, publicados en las revistas ‘Nature’ y ‘Science’, han demostrado ahora el potencial que tienen los robots parlantes movidos por IA a la hora de influir en las opiniones políticas de los usuarios. También plantean importantes preocupaciones sobre el efecto de la desinformación generada por esta tecnología.
«Los chatbots pueden influir significativamente en la actitud de la gente hacia los candidatos presidenciales y sus políticas, y lo hacen aportando numerosas afirmaciones fácticas que respaldan su postura», afirma David Rand , profesor de Ciencias de la Información y Marketing y Gestión de la Comunicación, y autor principal de ambos artículos. «Sin embargo, estas afirmaciones no son necesariamente precisas, e incluso los argumentos basados en afirmaciones precisas pueden inducir a error por omisión», destaca a continuación.
En el primer estudio, publicado en ‘Nature’ y dirigido por investigadores de la universidad estadounidense de Cornell, se puso a prueba la capacidad de las máquinas para cambiar la opinión de los votantes. Para ello instruyeron a una herramienta basada en IA para que debatiese con 2.306 voluntarios sobre las elecciones presidenciales estadounidenses de 2024, que enfrentaron a la demócrata Kamala Harris con el republicano, y actual presidente, Donald Trump.
Cada uno de los participantes tenía ya una opinión formada sobre los candidatos, y antes de proceder con el estudio tuvieron que responder a un cuestionario en el que debían calificarlos a ellos y sus políticas en una escala del 0 al 100. Los autores, además, prepararon dos versiones del chatbot, una más favorable a Harris y otra a Trump. El objetivo de la máquina eran aumentar la aceptación del candidato que le había tocado y, si el participante apoyaba al otro, tratar de hacerle dudar sobre a quién votar.


