Publicado: noviembre 11, 2025, 7:05 am
OpenAI presentó el modelo Sora 2 a finales de septiembre para dar paso a una evolución de su inteligencia artificial capaz de generar vÃdeo a partir de texto. Durante sus primeros pasos, dicha IA dio mucho de qué hablar, aunque no solo por su capacidad para crear resultados hiperrealistas, sino por el mal uso para generar vÃdeos falsos y difamar a figuras públicas.
En Internet empezaron a circular vÃdeos que mostraban a celebridades, polÃticos y personajes históricos en situaciones falsas, y por si fuera poco, ahora, se ha dado a conocer a través del diario 404 Media que se han generado decenas de vÃdeos de mujeres siendo estranguladas por otras mujeres.
Estos vÃdeos creados por Sora y otras herramientas van en contra de las normas de uso, pero, por sorpresa del redactor Emanuel Maiberg de 404 Media, se descubrió que dicho contenido se estaba publicando en TikTok y X con tÃtulos sensacionalistas para captar la atención de los internautas y con la marca de agua de Sora 2 de OpenAI. No obstante, si bien es cierto que no todos los vÃdeos incluÃan dicha marca, los creadores sugieren que se emplearon herramientas similares.
Pero independientemente de las herramientas usadas para generar estos vÃdeos, ante el incumplimiento de las normativas, TikTok ha empezado a eliminar dicho contenido que incita al odio y la violencia, mientras que X se ha negado a borrar la cuenta que difunde los vÃdeos en lo que aparecen los actos de estrangulamientos entre mujeres.
Por desgracia, este tipo de difusión muestra el riesgo más oscuro de las nuevas herramientas de IA para crear vÃdeos hiperrealistas de violencia, teniendo en cuenta que plantea serias preguntas legales sobre el uso correcto de la inteligencia artificial para generar vÃdeos que pueden alimentar la violencia de las personas.
Por el momento, como decimos, la gran mayorÃa de estos vÃdeos de estrangulamiento se están eliminado de las redes sociales y, desde el medio Digital Trends se informa que, está aumentado la presión sobre OpenAI para pongan barreras reales en sus herramientas de inteligencia artificial.
