Los modelos de IA tienen un problema: se llama 'data poisoning' y los está envenenando desde dentro - Estados Unidos (ES)
Registro  /  Login

Otro sitio más de Gerente.com


Los modelos de IA tienen un problema: se llama 'data poisoning' y los está envenenando desde dentro

Publicado: noviembre 3, 2025, 11:23 pm

Los modelos de IA tienen un problema: se llama 'data poisoning' y los está envenenando desde dentro

La IA está en todas partes y cada vez suma más usuarios. El paso lógico es que también fuera el objetivo de ataques maliciosos. Ya hemos hablado de los peligros del ‘prompt injection’, un ataque sorprendentemente fácil de ejecutar. No es el único. Las empresas de IA también están luchando contra el ‘data poisoning’.

Datos envenenados. Consiste en introducir datos manipulados en recursos que después serán usados para el entrenamiento de la IA. Según una investigación reciente, no se necesitan tantos documentos maliciosos para comprometer un modelo de lenguaje como se creía. Comprobaron que con tan sólo 250 documentos «envenenados» se logró comprometer modelos de hasta 13.000 millones de parámetros. El resultado es que el modelo puede tener sesgos o llegar a conclusiones erróneas. 

Inyección de prompts. Es uno de los problemas a los que se enfrentan los navegadores con IA como ChatGPT Atlas o Comet. Simplemente colocando un prompt invisible en un correo o una web se puede conseguir que la IA entregue información privada al no ser capaz de distinguir qué es una instrucción del usuario y qué una instrucción maliciosa. En el caso de agentes IA es especialmente peligroso ya que pueden ejecutar acciones en nuestro nombre.

IA para hacer el mal. Según un informe de Crowdstrike, la IA se ha convertido en el arma predilecta para los ciberdelincuentes, que la usan para automatizar y perfeccionar sus ataques, especialmente el ransomware. El MIT analizó más de 2.800 ataques ransomware y descubrieron que el 80% habían empleado IA. La cifra es aplastante.

{«videoId»:»x7ztx9j»,»autoplay»:false,»title»:»Ransomware qué es, cómo infecta y cómo protegerse», «tag»:»ransomware», «duration»:»165″}

Colaboración. Cuentan en Financial Times que las principales empresas IA, como DeepMind, OpenAI, Microsoft y Anthropic están trabajando de forma conjunta para analizar los métodos de ataque más frecuentes y diseñar estrategias defensivas en colaboración. Están recurriendo a hackers éticos y otros expertos independientes para que intenten vulnerar sus sistemas y así poder fortalecerlos. 

Urgencia.  Los navegadores IA y los agentes ya están aquí, pero estamos a tiempo porque aún no ha habido una adopción masiva. Urge  fortalecer los sistemas, especialmente para prevenir la inyección de prompts que tan fácilmente pueden robar nuestros datos.

Imagen | Shayna «Bepple» Take en Unsplash

En Xataka | «La seguridad de nuestros hijos no está en venta»: ya está aquí la primera ley que regula los ‘amigos IA’

(function() {
window._JS_MODULES = window._JS_MODULES || {};
var headElement = document.getElementsByTagName(‘head’)[0];
if (_JS_MODULES.instagram) {
var instagramScript = document.createElement(‘script’);
instagramScript.src = ‘https://platform.instagram.com/en_US/embeds.js’;
instagramScript.async = true;
instagramScript.defer = true;
headElement.appendChild(instagramScript);
}
})();


La noticia

Los modelos de IA tienen un problema: se llama ‘data poisoning’ y los está envenenando desde dentro

fue publicada originalmente en

Xataka

por
Amparo Babiloni

.

Related Articles