La IA puede convencerte de a quién votar en las próximas elecciones - Venezuela
Registro  /  Login

Otro sitio más de Gerente.com


La IA puede convencerte de a quién votar en las próximas elecciones

Publicado: diciembre 4, 2025, 3:30 pm

La inteligencia artificial generativa es un arma poderosa. En apenas unos segundos, herramientas como ChatGPT o Gemini pueden contestar, prácticamente, a cualquier pregunta que se les haga. Otra historia distinta es que el resultado que ofrece sea correcto o falso, o la capacidad de la máquina para hacer cambiar de opinión al internauta sobre algún tema concreto, como podría ser el candidato al que votar en las próximas elecciones. Dos estudios, publicados en las revistas ‘ Nature ‘ y ‘ Science ‘, han demostrado ahora el potencial que tienen los robots parlantes movidos por IA a la hora de influir en las opiniones políticas de los usuarios. También plantean importantes preocupaciones sobre el efecto de la desinformación generada por esta tecnología. «Los chatbots pueden influir significativamente en la actitud de la gente hacia los candidatos presidenciales y sus políticas, y lo hacen aportando numerosas afirmaciones fácticas que respaldan su postura», afirma David Rand , profesor de Ciencias de la Información y Marketing y Gestión de la Comunicación, y autor principal de ambos artículos. «Sin embargo, estas afirmaciones no son necesariamente precisas, e incluso los argumentos basados en afirmaciones precisas pueden inducir a error por omisión», destaca a continuación. En el primer estudio, publicado en ‘Nature’ y dirigido por investigadores de la universidad estadounidense de Cornell, se puso a prueba la capacidad de las máquinas para cambiar la opinión de los votantes. Para ello instruyeron a una herramienta basada en IA para que debatiese con 2.306 voluntarios sobre las elecciones presidenciales estadounidenses de 2024, que enfrentaron a la demócrata Kamala Harris con el republicano, y actual presidente, Donald Trump . Cada uno de los participantes tenía ya una opinión formada sobre los candidatos, y antes de proceder con el estudio tuvieron que responder a un cuestionario en el que debían calificarlos a ellos y sus políticas en una escala del 0 al 100. Los autores, además, prepararon dos versiones del chatbot, una más favorable a Harris y otra a Trump. El objetivo de la máquina eran aumentar la aceptación del candidato que le había tocado y, si el participante apoyaba al otro, tratar de hacerle dudar sobre a quién votar. Tras el experimento, los investigadores observaron que los voluntarios que habían charlado con un chatbot afín a su político favorito habían reafirmado su postura. Sin embargo, se encontraron con cambios de opinión cuando las máquinas defendían al candidato que no era el predilecto del voluntario. Por ejemplo, los partidarios de Trump que charlaron con un chatbot favorable a Harris mejoraron la valoración de esta en hasta 4 puntos tras la conversación . En el caso de Trump, la puntuación media que le dieron los partidarios de la demócrata subió 1.5 puntos. A pesar de que los cambios en la percepción de los candidatos pueden parecer reducidos, los investigadores destacan que son hasta cuatro veces superiores a los que suele provocar la publicidad electoral tradicional . Además, en experimentos similares llevados a cabo por los investigadores, esta vez relacionados con las elecciones de Canadá y Polonia de 2025, el cambio en la postura de los votantes fue incluso mayor: los chatbots modificaron la actitud y la intención de voto en, aproximadamente, 10 puntos. «El efecto fue sorprendentemente grande, especialmente en el contexto de la política presidencial», destaca Rand. Los autores detectaron otro problema tras revisar las conversaciones que habían mantenido los usuarios con la IA. Aunque la mayoría de las afirmaciones políticas que habían realizado las máquinas eran correctas, estas también compartieron datos falsos en varias ocasiones. Algo que era más frecuente en los casos en los que abogaban por el candidato más conservador. Para dilucidar qué hace que los chatbots sean tan persuasivos cuando hablan de política, parte de los autores decidieron realizar una segunda investigación en colaboración con el Instituto de Seguridad de IA de Reino Unido. El objetivo era medir los cambios de opinión de casi 77.000 británicos que interactuaron con chatbots sobre más de 700 temas políticos. Para ello, recurrieron a casi una veintena de máquinas distintas, entre las que figuraban ChatGPT (en su versión GPT-4o) o el Grok de Elon Musk (en la 3), que fueron las encargadas de discutir con los participantes sobre cientos de cuestiones políticas. De acuerdo con los resultados, cuando la herramienta en cuestión recibía entrenamiento extra para mejorar sus argumentos, la IA terminaba siendo hasta un 51% más persuasiva . Sin embargo, el estudio también mostró que cuando los chatbots se volvían más convincentes también tendían más a inventarse la información que compartían durante los debates. Esto sugiere que la IA no solo puede cambiar opiniones políticas de manera efectiva, sino que también puede ser explotada para propagar desinformación que beneficie a algún partido político. Con todo, los dos estudios tienen limitaciones, tal y como destaca en ‘SMC’ Walter Quattrociocchi, director del Laboratorio de Datos y Complejidad para la Sociedad de la Universidad de Roma La Sapienza: «Estos experimentos miden cambios a corto plazo tras interacciones breves (con la IA), mientras que la exposición en el mundo real (a las máquinas de esta clase) es continua, inmersiva y acumulativa. Por esta razón, los efectos medidos no deben interpretarse como límites superiores. En todo caso, probablemente sean conservadores». Por su parte, Daniel Gayo Avello, profesor de la Universidad de Oviedo en el área Lenguajes y Sistemas Informáticos, destaca, entre otras cosas, que los participantes del estudio fueron voluntarios, lo que pudo distorsionar los resultados, ya que eran conscientes de las pruebas que iban a realizar. Además, destaca que «ninguno de los artículos afirma que la información inexacta (de la IA) sea más persuasiva, solo que al aumentar la capacidad de persuasión tiende a aumentar la cantidad de información inexacta», algo a lo que, a su juicio, los autores deberían haber prestado más atención.

Related Articles