Imágenes trampa: usan fotos con mensajes invisibles que engañan a plataformas de IA para que den tus datos - Estados Unidos (ES)
Registro  /  Login

Otro sitio más de Gerente.com


Imágenes trampa: usan fotos con mensajes invisibles que engañan a plataformas de IA para que den tus datos

Publicado: agosto 31, 2025, 12:23 am

Un grupo de expertos en seguridad ha descubierto una nueva forma de ataque que utilizan imágenes para engañar a la IA y robar así los datos personales de los usuarios. Estas imágenes parecen totalmente normales, pero realmente esconden mensajes invisibles que solo las máquinas pueden leer.

Es decir, se producen una serie de técnicas de manipulación gráfica que pueden engañar a los sistemas de la inteligencia artificial y hacer que revelen información sin que la víctima lo note.

Desvelan un ataque mediante instrucciones ocultas en imágenes

Según informan los investigadores de The Trail of Bits a través de un informe, el mecanismo se basa en ocultar instrucciones invisibles dentro de una imagen. Cuando una persona sube una foto a sistemas de IA como Gemini CLI, Vertex AI Studio o la API de Gemini, Google Assistant y Genspark, entre otros, el sistema procesa la imagen y termina ejecutando esas instrucciones ocultas.

Este mecanismo funciona gracias al escalado de imágenes, un proceso automático en el cual los mensajes ocultos aparecen y la inteligencia artificial los interpreta como órdenes. De esta forma, esta tecnología puede acabar compartiendo información privada sin que el usuario lo sepa. Los investigadores realizaron varias pruebas y demostraron que era posible extraer datos de apps muy utilizadas.

En una de ellas consiguieron acceder al Calendario de Google de un usuario, extraer sus datos y enviarlos a un correo electrónico sin necesidad de confirmación por parte del mismo. También alertan de que esto no es un caso aislado, dado que existen otros ataques muy parecidos que aprovechan debilidades en herramientas de programación y que logran ejecutar códigos de forma remota en diferentes entornos.

El informe señala que estos ataques se pueden realizar gracias a tres algoritmos comunes que se utilizan para reducir el tamaño de las imágenes: interpolación del vecino más cercano, bilineal y bicubica. Además, para insertar los mensajes ocultos utilizaron una herramienta llamada Anamorpher que hace que los pueda esconder en las zonas más ocultas de la imagen, resultando invisibles para el ojo humano, pero no para la máquina.

Cómo prevenir este ataque

Para poder prevenir esto, los investigadores recomiendan evitar la reducción de escala automática de las imágenes y, en su lugar, limitar directamente las dimensiones al subirlas. También sugieren el tener una vista previa de lo que el modelo realmente interpreta e incluso cuando se utiliza en línea de comandos o a través de una API.

Eso sí, la solución más segura, tal y como explican, es diseñar defensas sistemáticas contra este tipo de instrucciones ocultas y que obliguen a pedir la confirmación del usuario antes de ejecutar acciones sensibles.

Related Articles