Cómo los gobiernos pueden influir en lo que te dice la IA - Colombia
Registro  /  Login

Portal de Negocios en Colombia


Cómo los gobiernos pueden influir en lo que te dice la IA

Aunque sean capaces de responder casi cualquier pregunta que se les haga, en realidad, las máquinas como ChatGPT no saben nada por sí mismas. Todas las palabras que muestran en pantalla son producto de cálculos probabilísticos y de las fuentes de las que beben; … que son las que marcan el tono y la línea a seguir. Una línea que puede ser dirigida por el poder, si así lo quiere. Un reciente artículo publicado en ‘Nature’ destaca que los gobiernos pueden influir en los resultados que ofrecen estas herramientas. Y que eso sería posible gracias al control de la internet y de los medios de comunicación.
Para la realización del estudio, firmado por investigadores de varias universidades estadounidenses, los autores pusieron a prueba varios modelos de inteligencia artificial con preguntas relacionadas con política. Después compararon cómo respondían las máquinas según el idioma, probando hasta 37 lenguas diferentes. Así descubrieron que sistemas como ChatGPT tienden a ofrecer respuestas más favorables hacia el Gobierno y las instituciones chinas cuando las preguntas se realizan en chino en lugar de en inglés.

Hannah Waight, coautora principal del estudio y profesora adjunta de Sociología en la Universidad de Oregón, destaca que la IA «no aprende de forma neutral de internet». Aunque los investigadores no tienen pruebas de que «las instituciones y los gobiernos ya estén tratando de manipularla intencionalmente» no descartan que se esté dando ya u ocurra próximamente. «Nos preocupa la posibilidad de que se produzca una manipulación intencionada», explica a ABC.

MÁS INFORMACIÓN

La investigadora destaca que «a medida que las personas de todo el mundo recurren cada vez más a chatbots y herramientas de búsqueda con IA para satisfacer sus necesidades e informarse, los incentivos para que gobiernos, instituciones y grupos intenten influir en el contenido aumentarán».
Para rastrear cómo la influencia gubernamental puede acabar afectando a los resultados de la inteligencia artificial, los investigadores analizaron un conjunto de datos procedente de Common Crawl, que es una de las principales fuentes utilizadas para entrenar modelos a la IA. Descubrieron que 3,1 millones de textos utilizados para la capacitación contenían fragmentos muy similares a otros difundidos por medios vinculados al Gobierno chino. Según el estudio, dicho contenido representaba alrededor del 1,64% de todos los documentos en chino presentes en la base analizada, una proporción muy superior a la de la Wikipedia china. En textos relacionados con líderes e instituciones políticas del país, la cifra llegaba a superar el 20%.
«Elegimos estudiar China porque ya habíamos analizado su sistema mediático en trabajos anteriores. Una vez que el material de los medios se recopila, copia y reutiliza en internet, resulta difícil saber de dónde proviene originalmente el enfoque. Rastrear estos flujos de información fue una parte fundamental de nuestro trabajo previo y la base de este estudio», dice Waight.
Los autores señalan que la mayoría del contenido relacionado con Pekín no estaba alojado en páginas oficiales del gobierno o en medios estatales, sino repartidos por internet. Eso sugiere que se difundió ampliamente por la red -blogs, webs o foros- antes de acabar formando parte de los datos utilizados para entrenar los sistemas. Es decir, que la IA puede ‘absorber’ mensajes impulsados por los gobiernos sin necesidad de acudir directamente a las fuentes oficiales.

China no es la excepción

Tras esto, los investigadores quisieron comprobar si ese contenido podía modificar realmente el comportamiento de un sistema de inteligencia artificial. Tras entrenar a un pequeño modelo para ello, observaron que cuanto más contenido de ese tipo incorporaban, más probabilidades había de que la IA ofreciese respuestas favorables hacia el Gobierno chino. Algo que ocurría en el 80% de los casos en comparación con sistemas que no estaban modificados.
Los autores también comprobaron que el idioma empleado por el usuario influía en las respuestas de la IA. En preguntas relacionadas con la política de Pekín, las respuestas generadas en chino eran más favorables hacia el Gobierno en más del 75% de los casos frente a las ofrecidas en inglés.
El patrón se repetía con otras lenguas. En un análisis realizado sobre 37 países, los autores observaron que los modelos tendían a describir de forma más favorable a gobiernos e instituciones de estados con un mayor control mediático cuando las preguntas se realizaban en los idiomas de dichos territorios.

Más transparencia

Waight apunta que corregir este problema parece complicado: «no existe una fuente neutral de datos de entrenamiento en internet, especialmente para cuestiones políticamente delicadas. Internet ha sido moldeado por estados, mercados y sistemas mediáticos». No obstante, la coautora destaca la importancia de que las empresas de IA «ofrezcan mayor transparencia respecto a sus datos de entrenamiento»: «Esta transparencia permitirá a los usuarios y demás partes interesadas comprender la procedencia del contenido que obtienen de la IA y tomar decisiones informadas sobre qué herramientas de IA utilizar (si procede) para cada tipo de pregunta».
La investigadora también considera que la sociedad «debe ser cautelosa» con los llamados a la regulación gubernamental de los datos de entrenamiento de IA, ya que «puede utilizarse con fines distintos a la mitigación de daños, como la censura política».
«Infiltrar perspectivas estatales en los datos de entrenamiento a través del entorno informativo es solo una de las maneras en que los estados y otras instituciones poderosas pueden influir en los modelos. La propiedad y la regulación también son dos palancas clave en esta disputa política», zanja Waight.

Publicado: mayo 13, 2026, 11:00 am

La fuente de la noticia es https://www.abc.es/tecnologia/gobiernos-pueden-influir-dice-ia-20260513172553-nt.html

Aunque sean capaces de responder casi cualquier pregunta que se les haga, en realidad, las máquinas como ChatGPT no saben nada por sí mismas. Todas las palabras que muestran en pantalla son producto de cálculos probabilísticos y de las fuentes de las que beben; que son las que marcan el tono y la línea a seguir. Una línea que puede ser dirigida por el poder, si así lo quiere. Un reciente artículo publicado en ‘Nature’ destaca que los gobiernos pueden influir en los resultados que ofrecen estas herramientas. Y que eso sería posible gracias al control de la internet y de los medios de comunicación.

Para la realización del estudio, firmado por investigadores de varias universidades estadounidenses, los autores pusieron a prueba varios modelos de inteligencia artificial con preguntas relacionadas con política. Después compararon cómo respondían las máquinas según el idioma, probando hasta 37 lenguas diferentes. Así descubrieron que sistemas como ChatGPT tienden a ofrecer respuestas más favorables hacia el Gobierno y las instituciones chinas cuando las preguntas se realizan en chino en lugar de en inglés.

Hannah Waight, coautora principal del estudio y profesora adjunta de Sociología en la Universidad de Oregón, destaca que la IA «no aprende de forma neutral de internet». Aunque los investigadores no tienen pruebas de que «las instituciones y los gobiernos ya estén tratando de manipularla intencionalmente» no descartan que se esté dando ya u ocurra próximamente. «Nos preocupa la posibilidad de que se produzca una manipulación intencionada», explica a ABC.

La investigadora destaca que «a medida que las personas de todo el mundo recurren cada vez más a chatbots y herramientas de búsqueda con IA para satisfacer sus necesidades e informarse, los incentivos para que gobiernos, instituciones y grupos intenten influir en el contenido aumentarán».

Para rastrear cómo la influencia gubernamental puede acabar afectando a los resultados de la inteligencia artificial, los investigadores analizaron un conjunto de datos procedente de Common Crawl, que es una de las principales fuentes utilizadas para entrenar modelos a la IA. Descubrieron que 3,1 millones de textos utilizados para la capacitación contenían fragmentos muy similares a otros difundidos por medios vinculados al Gobierno chino. Según el estudio, dicho contenido representaba alrededor del 1,64% de todos los documentos en chino presentes en la base analizada, una proporción muy superior a la de la Wikipedia china. En textos relacionados con líderes e instituciones políticas del país, la cifra llegaba a superar el 20%.

«Elegimos estudiar China porque ya habíamos analizado su sistema mediático en trabajos anteriores. Una vez que el material de los medios se recopila, copia y reutiliza en internet, resulta difícil saber de dónde proviene originalmente el enfoque. Rastrear estos flujos de información fue una parte fundamental de nuestro trabajo previo y la base de este estudio», dice Waight.

Los autores señalan que la mayoría del contenido relacionado con Pekín no estaba alojado en páginas oficiales del gobierno o en medios estatales, sino repartidos por internet. Eso sugiere que se difundió ampliamente por la red -blogs, webs o foros- antes de acabar formando parte de los datos utilizados para entrenar los sistemas. Es decir, que la IA puede ‘absorber’ mensajes impulsados por los gobiernos sin necesidad de acudir directamente a las fuentes oficiales.

China no es la excepción

Tras esto, los investigadores quisieron comprobar si ese contenido podía modificar realmente el comportamiento de un sistema de inteligencia artificial. Tras entrenar a un pequeño modelo para ello, observaron que cuanto más contenido de ese tipo incorporaban, más probabilidades había de que la IA ofreciese respuestas favorables hacia el Gobierno chino. Algo que ocurría en el 80% de los casos en comparación con sistemas que no estaban modificados.

Los autores también comprobaron que el idioma empleado por el usuario influía en las respuestas de la IA. En preguntas relacionadas con la política de Pekín, las respuestas generadas en chino eran más favorables hacia el Gobierno en más del 75% de los casos frente a las ofrecidas en inglés.

El patrón se repetía con otras lenguas. En un análisis realizado sobre 37 países, los autores observaron que los modelos tendían a describir de forma más favorable a gobiernos e instituciones de estados con un mayor control mediático cuando las preguntas se realizaban en los idiomas de dichos territorios.

Más transparencia

Waight apunta que corregir este problema parece complicado: «no existe una fuente neutral de datos de entrenamiento en internet, especialmente para cuestiones políticamente delicadas. Internet ha sido moldeado por estados, mercados y sistemas mediáticos». No obstante, la coautora destaca la importancia de que las empresas de IA «ofrezcan mayor transparencia respecto a sus datos de entrenamiento»: «Esta transparencia permitirá a los usuarios y demás partes interesadas comprender la procedencia del contenido que obtienen de la IA y tomar decisiones informadas sobre qué herramientas de IA utilizar (si procede) para cada tipo de pregunta».

La investigadora también considera que la sociedad «debe ser cautelosa» con los llamados a la regulación gubernamental de los datos de entrenamiento de IA, ya que «puede utilizarse con fines distintos a la mitigación de daños, como la censura política».

«Infiltrar perspectivas estatales en los datos de entrenamiento a través del entorno informativo es solo una de las maneras en que los estados y otras instituciones poderosas pueden influir en los modelos. La propiedad y la regulación también son dos palancas clave en esta disputa política», zanja Waight.

Artículos Relacionados