Publicado: abril 23, 2026, 7:24 pm
Las videollamadas forman parte del día a día desde hace unos cuantos años, tanto en el trabajo como en la vida personal, pero con el avance de la inteligencia artificial, cada vez es más difícil saber si la persona que aparece en pantalla es real o no. Los llamados deepfakes, vídeos creados con IA que imitan rostros y voces, pueden utilizarse en fraudes o estafas, por lo que las empresas tecnológicas buscan nuevas formas de comprobar la identidad de los usuarios.
Una de las compañías más conocidas en cuanto a las videollamadas es Zoom y ahora han añadido una función que permite verificar si los participantes de la reunión son realmente humanos. Según informan desde Digital Trends, para llevarlo a cabo, Zoom ha firmado una asociación con World, la conocida empresa impulsada por Sam Altman, CEO de OpenAI, centrada en la identificación biométrica.
Explican que esta novedad fue lanzada el pasado 17 de abril y forma parte del sistema ID 4.0 de World, que busca asegurar que cada persona que aparece en una videollamada es auténtica.
¿Cómo identifica Zoom que la persona de la videollamada es humana?
La tecnología que lo permite se conoce como Deep Face y consta de un proceso de tres pasos. En primer lugar, toma como referencia una imagen del usuario registrada previamente en Orb, un escaneo facial en tiempo real realizado por el dispositivo. Después, realiza un escaneo facial en tiempo real mientras la persona está en la reunión.
Por último, compara esos datos con la imagen que aparece en el video de la llamada. Si todo coincide, aparece una etiqueta junto al nombre de usuario que indica «humano verificado». Además, los anfitriones pueden pedir verificaciones en directo durante la llamada y confirmar la identidad en cualquier momento.
De esta forma, se consigue una mayor seguridad en las reuniones online ante un problema cada vez más frecuente como las suplantaciones de identidad mediante deepfakes, algo que provoca estafas en las empresas, acompañadas de pérdidas económicas importantes.
