Registro  /  Login

Otro sitio más de Gerente.com


Meta emplea reconocimiento facial de celebridades para detectar deepfakes

Publicado: marzo 5, 2025, 6:00 pm

<![CDATA[

Meta dio a conocer que utiliza una herramienta de reconocimiento facial para detectar anuncios fraudulentos que utilizan imágenes de celebridades en Reino Unido, la Unión Europea y Corea del Sur. De acuerdo con David Agranovich, director de amenazas cibernéticas de Meta, las personas de estas regiones comenzarán a recibir notificaciones en las próximas semanas que les permitirán optar por utilizar la herramienta de protección “celeb-bait” con tecnología de reconocimiento facial. “Creemos que esta herramienta nos ayudará a identificar el uso incorrecto de imágenes de figuras públicas, incluso si el anuncio utiliza inteligencia artificial generativa”, dijo.

Cuando la personalidad habilite la nueva función de Meta, la herramienta escaneará su foto de perfil y la comparará con rostros que aparezcan en anuncios falsos sospechosos, los cuales serán bloqueados automáticamente si se confirma su uso indebido. Este tipo de anuncios falsos presentan imágenes manipuladas de celebridades a menudo para atraer a los usuarios para que compartan información personal o envíen dinero. Un caso de este tipo de estafas se dio a conocer en enero de este año, cuando una francesa de 53 años perdió todos sus ahorros por culpa de “un Brad Pitt falso” creado con inteligencia artificial. Los estafadores hicieron creer a la víctima que mantenía una relación amorosa virtual con la estrella de Hollywood. De acuerdo con la mujer, conocida como Anne por la cadena francesa TF1, dijo a este medio que alguien que se hacía pasar por Brad Pitt la contactó por Instagram, que pertenece a Meta, después de que hubiera publicado imágenes esquiando en las montañas. La abogada de la víctima, Laurène Hanna, declaró que su clienta había perdido 830.000 euros (850.000 dólares). Un caso más de este año se dio en Shanghai, donde un hombre perdió más de 27,000 dólares después de ser engañado en una relación en línea con una novia falsa generada por IA. Los estafadores crearon videos y fotos realistas de una joven imaginaria para convencer a su víctima de que ella necesitaba fondos para abrir un negocio y ayudar a un familiar a pagar gastos médicos. Incluso crearon informes médicos y una tarjeta de identidad para darle credibilidad a su estafa. Aunque en México no ha habido casos que resuenen a esta escala, las autoridades comienzan a alertar a los usuarios sobre la existencia de estas estafas. La Condusef, por ejemplo, señaló que estos contenidos son cada vez más comunes. Estos fraudes no siempre están asociados a personas famosas, por medio de IA, la imagen de cualquiera puede ser colocada en un video o foto en que se muestre una situación de urgencia.

Los usuarios no saben reconocer estas estafas

Una investigación de iProov, proveedor de soluciones para verificación biométrica de identidad, reveló que la mayoría de las personas no pueden identificar estos materiales. El estudio examinó a 2,000 consumidores del Reino Unido y los EU, exponiéndolos a una serie de contenidos reales y deepfakes. Los resultados son alarmantes: solo el 0,1 % de los participantes pudo distinguir con precisión el contenido real del falso en todos los estímulos, que incluían imágenes y vídeos. De acuerdo con el trabajo de iProov, las generaciones mayores son las más vulnerables a caer en este tipo de estafas. El 30% de las personas de 55-64 años y el 39% de los mayores de 65 años nunca habían oído hablar de los deepfakes, lo que destaca una importante brecha de conocimiento y una mayor susceptibilidad en este grupo. Los videos son particularmente desafiantes, ya que solo el 9 % de las personas pueden identificar todos los deepfakes. Las plataformas de redes sociales se consideran caldo de cultivo para deepfakes, y Meta (49 %) y TikTok (47 %) son los lugares donde más se encuentran deepfakes en línea. Esto, a su vez, ha reducido la confianza en la información y los medios en línea: el 49 % confía menos en las redes sociales después de enterarse de la existencia de estos contenidos. En exclusiva con Expansión, Daniel Molina, vicepresidente para Latinoamérica de iProov comentó que el problema en la actualidad radica en que la gente piensa que puede identificar estas deepfakes, lo que los expone aún más a ser engañados o víctimas de algún fraude de suplantación de identidad. “Esa incongruencia entre lo que pensamos y lo que somos nos hace más frágiles frente a estas herramientas”. Los deepfakes suponen una amenaza abrumadora en el panorama actual digital y han evolucionado a un ritmo alarmante en los últimos 13 meses. El informe de inteligencia sobre amenazas de 2024 de iProov destaca un aumento de 704% en los intercambios de rostros.

Meta integrará reconocimiento facial para recuperar cuentas

Meta también anunció que integrará el reconocimiento facial en sus herramientas de recuperación de cuentas para todos los usuarios. Aquellos que opten por utilizarlo podrán verificar su identidad grabando un breve video si su cuenta está bloqueada. La empresa dijo que los datos faciales solo se usarán para este proceso de verificación y se eliminarán inmediatamente después. Meta asegura que la tecnología cumple con las regulaciones europeas de protección de datos. El gigante informático interrumpió previamente el reconocimiento facial en sus plataformas en 2021 debido a preocupaciones de privacidad, pero anunció en octubre de 2024 que restablecería la tecnología para combatir anuncios engañosos. Con información de AFP.

]]>

Related Articles