Publicado: julio 3, 2025, 11:24 am
Los vídeos racistas creados con IA se están convirtiendo en un problema en TikTok . Así lo señala en una investigación Media Matters, organización sin ánimo de lucro estadounidense dedicada a la vigilancia de los medios de comunicación, que apunta que muchos de ellos podrían haber sido creados con la flamante herramienta de generación de contenido Veo 3 , creada por Google. Entre los vídeos localizados por la organización destacan los contenidos en los que se se asocia a gente negra con monos o criminales, uno de ellos ha llegado a recibir más de 14,2 millones de visualizaciones en la ‘app’ de origen chino. «Los usuarios también publican videos engañosos generados por IA sobre inmigrantes y manifestantes, incluyendo videos en los que manifestantes son atropellados por autos», señalan desde Media Matters. La asociación, además, destaca un contenido «especialmente distópico» en el que aparecen «campos de concentración y ataques del Ku Klux Klan contra estadounidenses negros». Este tipo de contenido está prohibido según las políticas de TikTok. La red social prohíbe la subida de vídeos que deshumanizan a grupos raciales y étnicos , así como los que «amenazan o expresan el deseo de causar daño físico a una persona o un grupo». Sea como sea, esta no sería, ni mucho menos, la primera vez que el sitio experimenta problemas a la hora de retirar contenido prohibido. La empresa recientemente despidió a parte de su equipo internacional de moderadores para delegar parte del trabajo, precisamente, en la inteligencia artificial. Efectivamente, como señala Media Matters, los vídeos parecen estar desarrollados en su mayoría al menos con Veo 3. El resultado conseguido es muy realista, y los vídeos incluso cuentan con sonido, una característica que no está disponible en la inmensa mayoría de herramientas dedicadas a la generación con IA. Algunos de ellos también aparecen con la marca de agua de la herramienta de Google en una de las esquinas. Como ocurre con TikTok, el buscador estadounidense prohíbe el uso de su tecnología para la generación de «resultados dañinos». Lo habitual en estos casos sería que Veo 3 directamente bloquease la solicitud; aunque no sería la primera vez que algún usuario consigue ‘engañar’ a la máquina para que termine fabricando contenido que no debería. ABC se ha puesto en contacto tanto con Google como con TikTok para consultar la investigación de Media Matters. Por el momento, ninguna de las dos tecnológicas ha respondido a la solicitud.