Publicado: marzo 18, 2025, 3:01 pm
<![CDATA[
La Inteligencia Artificial generativa (GenAI) resulta útil en tareas como resolver problemas, asistir en actividades cotidianas y apoyar en la educación y el aprendizaje. Sin embargo, en las manos equivocadas se utiliza como una herramienta para concretar estafas. En este umbral, las deepfakes cobran cada vez más relevancia. El Informe Anual de Inteligencia sobre Amenazas 2025, elaborado por iProov, muestra un aumento exponencial en los ataques con cámaras virtuales nativas y el intercambio de rostros, modalidades que presentan incrementos de 2665% y 300%, respectivamente.
Las cámaras virtuales nativas pueden ser utilizadas por ciberdelincuentes para facilitar estafas con deepfakes al permitir que videos manipulados se transmitan como si fueran en tiempo real. Por ejemplo, un estafador podría usar una cámara virtual para proyectar un video deepfake de una persona conocida, como un famoso o alguien más cercano, como un familiar, durante una videollamada. Esto puede hacer que la víctima crea que está interactuando con alguien real, lo que facilita el engaño. Las alertas de los especialistas y autoridades son ignoradas por algunas personas que se niegan a creer que lo que ven sus ojos no sea realidad. Recientemente se hizo viral en redes sociales el caso de una mujer que estuvo a punto de abandonar a su esposo porque creía que había entablado una relación amorosa con el cantante Enrique Iglesias. Algo similar le pasó a una francesa que entregó 850,000 dólares a un grupo de estafadores porque creyó que hablaba con Brad Pitt. Mientras que un hombre en Shanghái perdió más de 27,000 dólares luego de ser engañado en una relación en línea con una novia ficticia. El común denominador entre estas personas es que todas fueron víctimas de delincuentes que crearon imágenes tan creíbles, que pese a lo fantasioso del escenario, lograron convencerlos de que era real. “Nos enfrentamos a un escenario en el que vemos una manipulación digital avanzada que compromete la verdad, exige cautela y necesita concientizar sobre este fenómeno. Ya es posible crear videos y audios falsos en internet de celebridades, figuras públicas o líderes de opinión, que pueden ser utilizados para desacreditar a una víctima o incluso extorsionar a quienes creen lo que la estafa muestra”, comenta Fabio Assolini, director del Equipo Global de Investigación y Análisis para América Latina en Kaspersky. De acuerdo con Daniel Molina, vicepresidente para Latinoamérica de iProov, cuando las personas se ven expuestas a estos escenarios y sospechan, responden pidiendo pruebas “convincentes”, en lugar de una foto requieren videos o incluso o una videollamada bajo la idea de que son materiales más difíciles de truquear e ignoran que los programas son más accesibles y la información para alimentarlos está en internet.
De acuerdo con Norton, los deepfakes pueden ser muy difíciles de detectar, y cada vez es más fácil falsificar a casi cualquier persona debido a la cantidad de contenido de video que muchos publicamos en redes sociales. Un reciente estudio de iProov reveló que solo el 0.1% de los participantes pudo distinguir de manera confiable entre contenido real y falso, lo que demuestra las limitaciones de defensa Un informe de Kaspersky mostró que la mayoría de los usuarios en América Latina (67%) no reconoce cuando un video ha sido editado digitalmente utilizando la técnica deepfake, lo que refleja la sofisticación de las herramientas usadas por los delincuentes. Dependiendo del refinamiento de las deepfakes pueden llevar más o menos tiempo en harce. Para videos largos, la cantidad de material requerida para generar el contenido apócrifo será mayor; sin embargo, también hay herramientas disponibles que con un par de segundos pueden crear videos cortos, incluso existen tutoriales en redes sociales de cómo utilizar algunas de estas plataformas abiertas a todo el público. Su capacidad para hacerse pasar por personas de manera convincente los convierte en una poderosa herramienta para que los ciberdelincuentes obtengan acceso no autorizado a cuentas y datos confidenciales. Los deepfakes también se pueden utilizar para crear identidades sintéticas con fines fraudulentos, como abrir cuentas falsas o solicitar préstamos. Esto plantea un desafío significativo a la capacidad de los humanos para discernir la verdad de la falsedad y tiene amplias implicaciones para la seguridad, la confianza y la difusión de información errónea. El fraude contra individuos tiene un impacto significativo, y para las organizaciones puede resultar en pérdidas económicas severas. Según la Comisión Federal de Comercio (FTC) de Estados Unidos, más de 10,000 millones de dólares se perdieron por robo de identidad en 2023, con costos de resolución que superan los 350 millones de dólares por cada filtración de datos. En México, la Comisión Nacional para la Protección y Defensa de los Usuarios de Servicios Financieros (Condusef) señala que las pérdidas causadas por fraudes financieros en 2024 alcanzaron aproximadamente los 14,500 millones de pesos, con la falsificación o suplantación de identidades y robo de datos bancarios como las causas más frecuentes, con casi el 40% de los casos reportados.
¿Cómo identificar si estoy frente a una deepfake?
De acuerdo con Kaspersky, existen algunas señales qué podrían delatar que se está frente a un contenido falso: La imagen parece muy inconsistente, con fallas en el doblaje y sombras aleatorias Busca incoherencias en los movimientos faciales, expresiones o movimientos corporales que parezcan extraños o poco naturales. Las desalineaciones en los ojos, la boca u otras partes de la cara también pueden delatarlos. La información es demasiado buena para ser cierta En este caso la alternativa es buscar a la fuente oficial y comprobar si el contenido es verosímil y si coincide con otras fuentes de información fiables. Es importante desconfiar de videos o audios que parezcan fuera de contexto o que presenten información sospechosa, así como promociones demasiado buenas para ser ciertas. Busca también el origen de los contenidos y comprueba la credibilidad de las fuentes implicadas. Desconfía de los contenidos compartidos por fuentes desconocidas o no verificadas. El audio o video solicitan descargar una aplicación o incluso pagar a un tercero Los deepfakes de figuras públicas ya han dado a conocer estafas de robo financiero, con la idea inicial de descargar una aplicación, realizar inversiones en ciertas plataformas o incluso haciendo creer a las personas que tienen contacto directo con el personaje famoso. En estos casos, hay que descartar la posibilidad automáticamente. La última recomendación de Kaspersky es ser consciente de la existencia de los deepfakes e infórmate sobre las tecnologías de manipulación digital. Cuanto más consciente seas, mejor podrás detectar posibles estafas.
]]>