Publicado: septiembre 1, 2025, 7:00 am
La fuente de la noticia es gerente.com
Las grandes tecnológicas siguen apostando por la inteligencia artificial conversacional, pero los riesgos reputacionales y regulatorios también crecen. Según un reportaje de Reuters, Meta habría permitido la creación de chatbots que imitaban a celebridades como Taylor Swift, Anne Hathaway o Selena Gómez sin autorización alguna. Algunos de estos avatares incluso llegaron a generar imágenes y conversaciones de carácter sexual.
Chatbots con la imagen de celebridades
La herramienta de Meta para crear personajes virtuales está disponible en Instagram, WhatsApp y Facebook desde hace meses. Aunque la compañía permite que los usuarios diseñen sus propios bots, Reuters descubrió que un empleado de la tecnológica llegó a producir al menos tres avatares de Taylor Swift, que en las interacciones se hacían pasar directamente por la cantante.
El problema se agravó al comprobar que varios de estos avatares enviaban imágenes en lencería o con posturas sugestivas, incluso en casos en los que la IA imitaba a actores adolescentes como Walker Scobell, de 16 años.
Respuesta de Meta
Andy Stone, portavoz de Meta, reconoció la existencia de la falla:
«Nuestras políticas prohíben la creación de imágenes desnudas, íntimas o sexualmente sugerentes. El contenido detectado no debió haberse generado».
La compañía aseguró que en algunos casos los bots estaban etiquetados como parodias, aunque no siempre, lo que genera dudas sobre los mecanismos de control. En los últimos días, Meta eliminó cerca de una docena de avatares irregulares.
Riesgo regulatorio y reputacional
El caso sale a la luz apenas una semana después de que se denunciara que los chatbots de Meta podían mantener conversaciones de carácter sexual con menores de edad. Ahora, la compañía asegura que aplicará nuevas barreras:
-
Los adolescentes no podrán mantener interacciones románticas con bots.
-
Se bloquearán conversaciones sobre autolesiones, suicidio y trastornos alimenticios.
Más allá del escándalo
El incidente pone en evidencia los riesgos que enfrentan las grandes plataformas en su carrera por monetizar la IA conversacional: uso indebido de la imagen de terceros, protección de menores y posibles sanciones regulatorias. Para los inversionistas y reguladores, el caso se convierte en un nuevo test de la capacidad de Meta para garantizar la seguridad digital sin frenar la innovación.
Conclusión editorial para Gerente.com
El negocio de la IA generativa promete miles de millones en ingresos, pero casos como este revelan que la confianza de los usuarios y la supervisión ética serán factores tan importantes como la innovación tecnológica. La experiencia de Meta confirma que los riesgos reputacionales pueden crecer tan rápido como las oportunidades de negocio.