Enjambres de IA: cómo miles de cuentas falsas te manipularán para que pienses lo que ellas quieran
La inteligencia artificial generativa es un arma poderosa. Si las mejores palabras de los empresarios que apuestan por su desarrollo se cumplen, el día de mañana serán capaces de dirigir compañías millonarias y de cargar con todo el trabajo tedioso. ¿Y los humanos? Trabajaremos … menos y nos jubilaremos antes, de acuerdo con Elon Musk y otros. Pero claro, esa es la versión en la que todo sale rodado. Luego, está la cara menos amable. Un grupo de investigadores y académicos internacional ha publicado un artículo en ‘Science’ en el que alerta sobre el uso de enjambres de agentes de IA para condicionar el pensamiento de los usuarios a través de plataformas digitales, como redes sociales, y, potencialmente, afectar procesos electorales. Se trataría de los sucesores de esos bots maliciosos que se llevan empleando desde hace años para viralizar contenidos e ideas en internet.
«Piensa en los bots tradicionales como marionetas: copian y pegan los mismos guiones con rigidez, lo que facilita su detección porque todos actúan de la misma manera», explica a ABC Daniel Schroeder, firmante del artículo y miembro del grupo de Datos Inteligentes de la noruega Sintef, una de las organizaciones de investigación aplicada más grandes de Europa.
El experto remarca que los enjambres de IA «son más bien una colmena». No hace falta que reciban órdenes, porque son capaces de organizarse de forma independiente y actuar, en conjunto, como si fueran miles de usuarios reales tecleando en la pantalla del ‘smartphone’ y publicando en X: «En lugar de repetir eslóganes, escriben publicaciones únicas que parecen creadas por humanos. Lo hacen utilizando jerga local para integrarse y coordinarse entre sí. Además, pueden probar al instante miles de estrategias para descubrir qué convence a la gente en un contexto determinado».
Los expertos temen el efecto que este tipo de tecnología pueda tener durante el desarrollo de procesos electorales; porque las publicaciones en redes creadas de forma autónoma por una máquina inteligente pueden ser muy difíciles de detectar. «Es algo casi imposible para las personas«, señala Jonas Kunt, profesor de Comunicación en BI Norwegian Business School y, también, autor del artículo. Kunst remarca que »a diferencia de los antiguos bots de «copia y pega’», los agentes basados en IA pueden escribir «publicaciones que a menudo se consideran más humanas que las de los humanos reales».
Respecto a su funcionamiento, el experto explica que se trata de tecnología capaz de «jugar a largo plazo». Por ejemplo, varias cuentas podrían meterse en un grupo de Facebook y tener un comportamiento similar al de resto de miembros. Una vez dentro, compartirían contenido sobre sus aficiones o noticias locales para generar confianza entre los demás integrantes. «Después de conseguirlo pueden recurrir a la propaganda, coordinándose para crear un falso consenso que parezca completamente natural», remata el docente.
Más persuasiva que las personas
La inteligencia artificial generativa puede ser muy persuasiva. Dos estudios vinculados, publicados en ‘Nature’ y ‘Science’ el pasado diciembre, demostraron que las máquinas como ChatGPT tienen más probabilidades de cambiar el punto de vista de un votante sobre un candidato político que la publicidad electoral. Otro, publicado en mayo, señalaba que la IA puede ser ser más efectiva que las personas a la hora de hacer cambiar de opinión a alguien. Para ello, los investigadores pusieron a ChatGPT a discutir con usuarios sobre temas delicados, como el aborto o la legalización de las drogas.
Para Schroeder, los recientes usos de IA generativa para desinformar a los usuarios a través de vídeos e imágenes son solo el principio de lo que puede venir a continuación. Aunque no descarta que los enjambres de IA ya estén actuando para influir en la sociedad: «Es muy difícil saber con precisión hasta qué punto se han extendido las operaciones de influencia coordinadas y multicuenta, ya que la coordinación está diseñada para ser difícil de detectar y las plataformas suelen ser reacias a compartir los datos necesarios para rastrear el comportamiento coordinado».
Sin embargo, el experto se mantiene relativamente optimista, porque «el futuro no está escrito en piedra»: «Aún tenemos una ventana de oportunidad para implementar medidas de seguridad antes de los próximos eventos políticos importantes».
Sin embargo, la solución del problema no es sencilla. Kunst apunta que las cuentas no auténticas en redes sociales «a menudo inflan las métricas de participación» de sitios como Instagram o X. «Esto impulsa sus ingresos y valoración financiera, lo que hace que la autorregulación voluntaria sea insuficiente», señala el experto. Por eso, considera que es clave que los gobiernos les exijan «más transparencia y auditorías». Asimismo, propone la creación de ‘escudos de IA’: «Son herramientas que otorgan a los usuarios la capacidad de filtrar o etiquetar contenido de alto riesgo». También sugiere la creación de un observatorio de influencia de la IA global «para ayudar a la sociedad civil a rastrear las amenazas».

