Publicado: junio 13, 2025, 9:24 am
Uno de cada diez menores de edad en Estados Unidos dice conocer a alguien en su clase que ha usado inteligencia artificial para crear desnudos falsos de otros niños. No es ciencia ficción ni una exageración alarmista: es una de las conclusiones de una encuesta publicada por la organización Thorn en agosto de 2024. La ONG, especializada en la defensa de la infancia frente al abuso sexual, advierte de un problema que va mucho más allá del acoso escolar: las herramientas de IA generativa que prometen “ver a cualquiera desnudo” están más presentes y disponibles de lo que muchas familias imaginan.
Estas aplicaciones, conocidas como nudify apps, ya están en el punto de mira de gobiernos y plataformas tecnológicas. En España, el Consejo de Ministros aprobó en marzo una ley de protección a la infancia en el ámbito digital que castiga con hasta dos años de cárcel la creación y difusión de imágenes sexuales generadas con IA. Y en países como Reino Unido, el Ministerio de Justicia deja claro que generar deepfakes pornográficos sin consentimiento es un delito, agravado si se comparte o viraliza.
En este contexto, Meta —la compañía matriz de Facebook, Instagram y WhatsApp— ha decidido pasar a la acción: ha demandado en Hong Kong a Joy Timeline HK Limited, responsable de CrushAI, una app que se anunciaba en sus plataformas y que prometía, literalmente, “desnudar a cualquiera” a partir de una simple foto.
Así funcionaba la app CrushAI, la app vetada por Meta por ‘desnudar’ personas sin su consentimiento
La denuncia, hecha pública esta semana, señala que los responsables de CrushAI intentaron repetidamente burlar el sistema de revisión publicitaria de Meta para promocionar sus servicios, incluso después de que la empresa eliminara sus anuncios por violar las normas sobre desnudez y contenido sexual. Según una investigación de CBS News, se llegaron a publicar miles de anuncios de este tipo en Instagram, Facebook e incluso en apps asociadas a la red publicitaria de Meta.
Algunas de esas promociones mostraban deepfakes sexuales de actrices como Scarlett Johansson o Anne Hathaway. Además incluían enlaces directos a sitios donde los usuarios podían subir imágenes reales de otras personas —sin consentimiento— y obtener versiones manipuladas sexualmente por IA.
En muchos casos, no se solicitaba verificación de edad, y el acceso a funciones ‘avanzadas’ podía costar entre 20 y 80 dólares.
Meta refuerza su tecnología, pero reconoce los desafíos
Meta asegura que ha eliminado miles de estos anuncios y que ha bloqueado enlaces y páginas asociadas a CrushAI. También ha restringido búsquedas de términos como ‘desnudar’, ‘desvestir’ o ‘quitar ropa’ en sus plataformas, e implementado un nuevo sistema de detección que permite identificar este tipo de contenido incluso cuando los anuncios no contienen desnudos explícitos.
“Los responsables de estas apps cambian constantemente sus tácticas para evadir nuestros controles, así que estamos reforzando nuestra tecnología y ampliando los criterios de detección”, ha explicado un portavoz de Meta. La empresa también trabaja con Lantern, una alianza de compañías tecnológicas que comparten señales de comportamiento abusivo para evitar que estos contenidos se propaguen en otras plataformas.
El problema es global y afecta a menores y mujeres
Pese a estas acciones, expertos en ciberseguridad y derechos digitales señalan que las nudify apps siguen proliferando en otras redes como X (antes Twitter), Telegram o incluso tiendas de aplicaciones como la App Store o Google Play, donde se presentan como filtros inofensivos de edición fotográfica.
La investigación de CBS News advierte que muchas de estas apps presentan una fachada inocente para evitar ser vetadas, aunque luego se promocionan en redes sociales con su propósito real: la creación de pornografía falsa.
La denuncia de Meta no es un caso aislado, sino un nuevo capítulo en un fenómeno que ha pasado del anonimato a la preocupación social en poco tiempo. Las aplicaciones que ‘desnudan’ con IA no solo violan la privacidad: están siendo utilizadas como arma de acoso, venganza y chantaje, especialmente contra mujeres y menores. Y aunque la legislación empieza a moverse, los vacíos legales y la velocidad de difusión siguen siendo un reto.