Publicado: octubre 28, 2025, 6:23 pm
Usar la desnudez o lo sexy como reclamo no es nada nuevo ni algo que haya inventado la IA. Sin embargo, se esperaría que en 2025 unos pechos no fueran gancho para ganar clics. Esa precisamente ha sido la queja de miles de usuarios de YouTube, que durante este fin de semana han denunciado haber visto en sus recomendaciones un vídeo titulado African Giat Maasai con una miniatura en la que aparecían seis mujeres en topless.
La crítica venía por varias razones: en primer lugar, este tipo de contenido está prohibido por las normas de la plataforma; en segundo lugar, se mostraba independientemente de lo que se buscara, y, por último, se saltaba incluso el modo restringido de YouTube.
La polémica miniatura ha reavivado las críticas sociales hacia la falta de moderación o los fallos en el filtrado de contenidos, especialmente teniendo en cuenta el momento histórico sensible que vive Internet con el auge de los deepfakes pornográficos que la IA permite crear con demasiada facilidad.
Una imagen que no se corresponde con el vídeo
Según detalla Android Police, el vídeo pertenece al canal Afro Zulu y la miniatura ha sido generada por inteligencia artificial. Los creadores aparentemente habrían encontrado una forma de engañar al algoritmo de YouTube para que recomiende su contenido de manera masiva usando esta provocadora imagen.
Recordamos que, tal y como dictan las normas de la plataforma, YouTube prohíbe “miniaturas con desnudos o actos sexuales, fetichismo o cualquier otro contenido con connotación sexual explícita”.
Sin embargo, esto no impidió que el vídeo apareciera en búsquedas totalmente ajenas —desde la serie Breaking Bad hasta el videojuego GTA, maquinaria industrial o canciones—, lo que apunta a un fallo en el algoritmo de recomendaciones o a una manipulación deliberada del sistema, según las fuentes de Android Police.
El giro que más crispación ha causado es que el vídeo en sí no contenía desnudos, dejando así bastante claro que se trataba solo de una forma de generar un tipo de clickbait que muchas personas rechazan: mujeres semidesnudas como reclamo.
Un cebo para ganar clics que ha dado resultado
El truco parece haber funcionado: antes de que la imagen fuera sustituida, el vídeo acumuló cerca de cuatro millones de visualizaciones.
Sin embargo, esta viralidad le puede salir cara a YouTube: aunque la miniatura ya ha sido cambiada, el daño reputacional ya está hecho. Todo apunta a una manipulación intencionada del sistema de recomendación, pero algunos expertos citados por Android Police no descartan que se trate también de un fallo en el filtrado de contenidos o en las medidas de seguridad del algoritmo, permitiendo la difusión de contenido inapropiado incluso en búsquedas inocuas.
La compañía, por el momento, no ha hecho declaraciones públicas sobre el caso.
Puede parecer un caso anecdótico, pero refleja un problema mayor. Las plataformas digitales siguen luchando por controlar el impacto del contenido generado por IA. En este contexto, la aparición de imágenes eróticas o sexualizadas en espacios supuestamente seguros refuerza la percepción de que los algoritmos de recomendación siguen siendo vulnerables a abusos.
