Publicado: noviembre 11, 2025, 8:23 am
OpenAI presentó el modelo Sora 2 a finales de septiembre para dar paso a una evolución de su inteligencia artificial capaz de generar vídeo a partir de texto. Durante sus primeros pasos, dicha IA dio mucho de qué hablar, aunque no solo por su capacidad para crear resultados hiperrealistas, sino por el mal uso para generar vídeos falsos y difamar a figuras públicas.
En Internet empezaron a circular vídeos que mostraban a celebridades, políticos y personajes históricos en situaciones falsas, y por si fuera poco, ahora, se ha dado a conocer a través del diario 404 Media que se han generado decenas de vídeos de mujeres siendo estranguladas por otras mujeres.
Estos vídeos creados por Sora y otras herramientas van en contra de las normas de uso, pero, por sorpresa del redactor Emanuel Maiberg de 404 Media, se descubrió que dicho contenido se estaba publicando en TikTok y X con títulos sensacionalistas para captar la atención de los internautas y con la marca de agua de Sora 2 de OpenAI. No obstante, si bien es cierto que no todos los vídeos incluían dicha marca, los creadores sugieren que se emplearon herramientas similares.
Pero independientemente de las herramientas usadas para generar estos vídeos, ante el incumplimiento de las normativas, TikTok ha empezado a eliminar dicho contenido que incita al odio y la violencia, mientras que X se ha negado a borrar la cuenta que difunde los vídeos en lo que aparecen los actos de estrangulamientos entre mujeres.
Por desgracia, este tipo de difusión muestra el riesgo más oscuro de las nuevas herramientas de IA para crear vídeos hiperrealistas de violencia, teniendo en cuenta que plantea serias preguntas legales sobre el uso correcto de la inteligencia artificial para generar vídeos que pueden alimentar la violencia de las personas.
Por el momento, como decimos, la gran mayoría de estos vídeos de estrangulamiento se están eliminado de las redes sociales y, desde el medio Digital Trends se informa que, está aumentado la presión sobre OpenAI para pongan barreras reales en sus herramientas de inteligencia artificial.
