Tecnología - Colombia
Registro  /  Login

Portal de Negocios en Colombia

TECNOLOGÍA

Descubren una vulnerabilidad en WhatsApp que puso en peligro los datos de 3.500 millones de usuarios

Una vulnerabilidad en WhatsApp ha permitido identificar 3.500 millones de cuentas activas a nivel global en el servicio de mensajería como parte de una investigación que ha usado un generador de números y que ha ayudado a corregir el fallo para evitar la … exposición de estos datos.
Los nuevos usuarios de WhatsApp pueden descubrir si los contactos que tienen guardados en la agenda del móvil tienen una cuenta en el servicio de mensajería con solo permitir el acceso de la aplicación a este elemento. Esto es posible porque WhatsApp guarda un registro de sus usuarios vinculado a sus números de teléfono para facilitar este descubrimiento.

Sin embargo, este mecanismo «se puede utilizar indebidamente para comprobar si un individuo específico (como un funcionario gubernamental, una expareja o un empleador) está registrado en WhatsApp» con solo saber el número de teléfono, como ha advertido un grupo de investigadores de la Universidad de Viena y la Universidad Técnica de Viena (Austria).
Si bien WhatsApp ha mejorado la privacidad, este mecanismo se puede explotar para crear bases de datos a gran escala con los registros de los números de teléfono, que posteriormente actores maliciosos pueden usar en campañas de ‘spam’, ‘phishing’ o llamadas automatizadas.

Europa propone cambios en la ley para competir en inteligencia artificial con EE.UU. y China

Después de haber creado las leyes para el control de los gigantes tecnológicos más ambiciosas de todo occidente, la Unión Europea quiere que sus empresas sean más competitivas; sobre todo en materia de inteligencia artificial. La Comisión Europea ha propuesto este miércoles varios cambios … legislativos con los que espera que las compañías «dediquen menos tiempo a tareas administrativas y de cumplimiento normativo y más tiempo a innovar y expandirse». En caso de que el plan salga adelante, algo que todavía no está claro, los cambios afectarán de lleno a la Ley de IA y al Reglamento General de Protección de Datos (RGPD).
«En la UE contamos con todos los ingredientes para el éxito: talento, infraestructura y un amplio mercado único interno. Sin embargo, nuestras empresas, especialmente las emergentes y las pequeñas, a menudo se ven frenadas por una burocracia excesiva», ha señalado en un comunicado la comisaria de Soberanía Tecnológica de la UE, Henna Virkkunen.

Para lograr este fin, dejar algo de lado el papel de regulador tecnológico y recortar distancias en innovación e IA con EE.UU. y China, la Comisión propone realizar cambios en el RGPD para facilitar el que las empresas de inteligencia artificial puedan entrenar a sus herramientas con los datos personales de los usuarios. Algo que beneficiará, de seguro, a tecnológicas europeas como Mistral; pero también a gigantes estadounidenses como OpenAI, Google o Meta.
Además, se pone sobre la mesa la posibilidad de aplazar hasta 16 meses; es decir, hasta 2027, la aplicación de las normas de la UE para sistemas de IA de alto riesgo, que son aquellos que están vinculados, por ejemplo, a la identificación biométrica, la explotación de infraestructuras críticas, la educación o la salud. Los chatbots como ChatGPT o Gemini también ganarían tiempo para comenzar a cumplir con los requisitos de transparencia a los que obliga la Ley de IA.

¿Cuál es el dispositivo que mejor traduce tus conversaciones en tiempo real?

La traducción en tiempo real ha sido una de las grandes promesas de muchas marcas de dispositivos y un argumento de venta que llevamos años escuchando años. Todo un sueño el de viajar a cualquier lado y poder expresarnos como un local. Pero, ¿funciona … realmente en los dispositivos que la ofrecen? Después de mucho tiempo probando dispositivos que la ofrecen, lo cierto es que, en principio, no; aunque esta sería una respuesta demasiado simple. La traducción uno a uno, esa en la que dos usuarios se comunican en idiomas diferentes, de momento sigue sin ser natural; en el único lugar donde funciona es en las llamadas de teléfono si usamos un dispositivo Android y traducción en tiempo real. Lleva unos años funcionando perfectamente en los Samsung, y es una tecnología madura que da buenos resultados.
Es en la traducción de la conversación presencial con otra persona en la que la experiencia varía, y mucho. La razón es simple: si no contamos con la misma tecnología, nosotros podremos entender lo que nos dicen, pero la otra persona no. Al menos, siempre y cuando no usemos nuestro propio dispositivo, la pantalla y traducción en tiempo real; pero la verdad es que esto arruina completamente los tiempos y no podemos llamarlo «traducción en tiempo real», sino «traducción por turnos».

Lo que decide si una conversación fluye o se atasca no es la IA sin más, sino la suma de latencia, diseño de la interfaz en el móvil y cómo capta y reproduce el audio el dispositivo que llevas encima. Si la traducción cae alrededor del segundo desde que terminas de hablar, la charla sigue su ritmo natural, si se va a dos o tres, aparecen los silencios incómodos, las interrupciones y el «perdona, repite» que nos devuelve al siglo pasado.
Hemos distintos dispositivos que ofrecen traducción, como las gafas Ray-Ban Meta, los Google Pixel Buds 2a, los Anker Soundcore AeroFit 2, un Samsung Galaxy Z Fold 7 con el modo Intérprete de Galaxy AI y Gemini y la solución comodín. También otros auriculares tipo Sony LinkBuds con Gemini. Vamos a ordenarlos de mejor a peor.

El Z Fold, el más completo

El Z Fold 7

abc

El plegable de Samsung en modo Intérprete es, como comentábamos, la mejor experiencia: doblas el móvil, cada uno ve su traducción en su lado y el turno de palabra queda claro sin pasarse el teléfono ni mirar la misma pantalla. Eso reduce errores, baja la ansiedad del «¿me habrá entendido?» y mejora la experiencia. Claro que esto no es lo que esperamos de la traducción en tiempo real, lo que nos imaginamos; pero, hoy por hoy, es lo más eficiente, por turnos y con ‘feedback’ visual. Eso sí, dependemos de internet al 100%.

Los Pixel Buds 2a, dos ventajas y un pero

Los Pixel Buds 2a

ABC

Los Pixel Buds 2a tienen dos grandes ventajas, velocidad y el ANC. Cuando el dictado y la traducción se apoyan en tecnología Google, la latencia cae a ese entorno del segundo que mantiene el compás de la conversación, y si además llevas cancelación activa de ruido (ANC), la captura del micrófono es más limpia y la reproducción del audio traducido llega a tu oído sin competir con el entorno. En estaciones, mercados o calles con tráfico esa combinación de ANC y baja latencia es ganadora. Lo malo es que dependes del ecosistema Android, de los servicios de Google y de que la conectividad no haga aguas. Y como en otras ocasiones, no estamos hablando de traducción bidireccional, sino en una sola. En este caso, tenemos que usar el altavoz del móvil o la pantalla, y obviamente volvemos a la traducción por turnos poco natural.

Las gafas de Meta, para cuando no hay ruido

Las gafas de Meta

Las Ray-Ban Meta tienen a su favor la conveniencia y la rapidez. Puedes pedir una traducción rápida sin sacar el teléfono y son discretas. Pero al ser de formato abierto, dependemos de que no haya mucho ruido ambiente, y la cobertura de idiomas es más limitada que la de Google. En un museo o en una tienda tranquila, cumplen; pero en un bar ruidoso la tasa de error sube y la experiencia se resiente. Además, la traducción en vivo descarga la batería bastante rápido. Eso sí, tienen una gran ventaja: la cámara de las Ray-Ban Meta pueden traducir textos sin sacar el móvil, a partir de una foto. Para la traducción entre dos personas tendremos que usar inevitablemente la aplicación con la función de traducción.

Los Soundcore AeroFit 2, un paso por detrás de los Pixel

Los Soundcore

Anker con los Soundcore AeroFit 2 propone un término medio con un auricular de oreja abierta muy cómodo y resistente al sudor, de lo mejor que puedes probar en calidad de sonido en este formato, y con sólo decir «Hi Anka» la traducción se produce sin tocar el móvil. El problema es el mismo de cualquier auricular abierto, el audio traducido compite con el ruido exterior y la integración de su IA todavía no iguala la oferta de Google. Es mejor que en las gafas de Meta, pero no perfecto. Como el resto, necesitamos usar la aplicación cuando requerimos de una traducción más compleja.

Un auricular con ‘app’ de traducción

Los LinkBuds

Queda la solución genérica, que pasa por usar cualquier auricular ‘true wireless’, por ejemplo, los LinkBuds de Sony que tienen un gran ANC y un ajuste casi perfecto para hacer ejercicio, conectados con una ‘app’ de traducción. Esto sirve para salir del paso y tiene a favor la compatibilidad total, pero hereda toda la fricción del móvil: para traducir hay que desbloquear el terminal, abrir aplicación o elegir idiomas, y cada paso añade segundos. La latencia es más variable, el sistema no está afinado para conversación continua y se nota: más interrupciones, más «espera un momento» y más oportunidades de que falle y no complete el contenido. Sólo sirve para una consulta puntual.

Cuatro claves a tener en cuenta

Más allá de las opciones que hemos comentado, hay cuatro ideas constantes. La primera, la latencia es reina. Si andas cerca del segundo de diferencia entre que se dice algo y se traduce, los interlocutores no se pisan; pero si te vas por encima de dos, el diálogo parece que se está realizando a través de un walkie-talkie. La segunda: si el ruido exterior es constante un auricular con ANC captará mejor tu voz y reproducirá la traducción de forma clara; mientras tanto, las gafas y los auriculares abiertos son más ‘humanos’ porque no aíslan.
La tercera: la interfaz y la interacción con el dispositivo cambian la experiencia. Una palabra clave o un modo conversación dedicado vale más que abrir menús que matan la espontaneidad. La cuarta: casi todo depende de la nube. Sin datos estables, nada funciona.

El mejor para cada situación

¿Con qué me quedo? Para reuniones, y cualquier conversación importante, el modo Intérprete de un Samsung plegable es hoy la mejor opción, ya que reduce los malentendidos y permite al usuario poner más foco en lo que importa, que es hablar. Para viajar y sobrevivir al ruido, unos Pixel Buds integrados en Android son la navaja suiza, ya que rápidos, con buen abanico de idiomas y aislamiento suficiente para no perder el hilo.
Las Ray-Ban Meta y los AeroFit 2 son fantásticos como herramienta secundaria cuando prima la discreción y la espontaneidad, y perfectos para llevarlos siempre puestos, solo hay que aceptar que, en ambientes ruidosos, no son lo más eficiente. Por último quedaría la opción de usar unos auriculares normales con alguna aplicación de traducción.
Hemos dejado por separado el Vasco V4 que ya analizamos hace tiempo en ABC, un dispositivo de traducción dedicado con conexión en cientos de países y que prácticamente es infalible. Además, junto a sus auriculares hace que la traducción uno a uno sea casi una realidad con algunas limitaciones. Pero no es un dispositivo para todo el mundo, ya que es su única función. En el caso de un nómada digital, o que viaja constantemente entre países puede ser un la mejor opción.

Dos de los padres de las niñas desnudadas con IA en Almendralejo: «Destruir la salud mental de mi hija les ha salido por solo 1.200 euros»

En septiembre de 2023 todo cambió en Almendralejo, un pequeño pueblo de apenas 30.000 habitantes de Badajoz. Y fue Pedro el primero en descubrir que algo terrible circulaba en los móviles de los chavales. Su hija, de 14 años, llegó a casa una … tarde llorando y con el teléfono en la mano. Una amiga le había avisado de que en un grupo de WhatsApp del instituto IES Santiago Apóstol se estaban compartiendo fotos en las que aparecía desnuda junto a varias de sus compañeras. Las imágenes, que afectaban a casi una treintena de menores, eran falsas, generadas con inteligencia artificial. Pero el daño ya estaba hecho.
El padre recuerda aquel momento con una mezcla de incredulidad y rabia. «Pensé que sería un montaje burdo, una broma cruel», cuenta. Pero cuando vio una de las fotografías entendió que la habían manipulado con herramientas digitales. «Habían usado su cara y su cuerpo y la habían convertido en otra cosa», lamenta. Lo que más le dolió, dice, fue verla pedir perdón. «Me decía: ‘¡Papá, te juro que yo no he hecho nada!’». Pedro y su esposa pasaron esa noche intentando frenar la difusión. Llamaron a otros padres, al colegio y a la Policía. «Fue como intentar recoger agua con las manos», recuerda. «Sabíamos que cuanto más se compartía, más difícil sería detenerlo». Desde aquel día, la vida familiar cambió por completo. «De golpe tu hija es víctima de algo que ni siquiera existe físicamente, pero el sufrimiento es real. Hizo falta mucho apoyo psicológico, no solo para ella, también para nosotros».

La AEPD multa con 2.000 euros a uno de los menores

Este miércoles se ha sabido que la Agencia Española de Protección de Datos (AEPD) ha resuelto el caso, tras la denuncia de 21 de las familias afectadas, al sancionar a uno de los menores que difundió las imágenes falsas. Aunque la resolución no contiene el nombre de las víctimas ni del sancionado, desde la AEPD confirman a ABC que el caso está directamente relacionado con el escándalo de Almendralejo. La multa ha sido de 2.000 euros, pero en la resolución se indica que «los padres del menor abonaron el 5 de abril de 2025 la cuantía de 1.200 euros», reducida de los 2.000 por «reconocer la responsabilidad» y realizar un pronto pago de manera voluntaria. No obstante ClothOff, la aplicación utilizada para realizar los montajes, así como las plataformas con las que se difundieron, han quedado exentas de responsabilidades en la resolución de la AEPD. Cabe destacar que es la primera vez que una agencia europea sanciona económicamente la difusión de esta clase de contenido.

«Antes era una niña abierta, confiada, con muchas ganas de hacer cosas. Ahora tiene miedo de mirar el móvil, de salir, de encontrarse con alguien que haya visto las imágenes»

Ahora Pedro, pese a agradecer que las autoridades hayan actuado en el caso de su hija, admite que la cuantía es «insuficiente». «Destruir la salud mental de mi hija les ha salido por solo 1.200 euros», dice a ABC. Sobre todo porque en un pueblo pequeño, todo se magnifica y «ella ya no es la misma». «Antes era una niña abierta, confiada, con muchas ganas de hacer cosas. Ahora tiene miedo de mirar el móvil, de salir, de encontrarse con alguien que haya visto las imágenes», lamenta Pedro.

Protección de Datos multa con 2.000 euros por crear contenido sexual manipulado con IA de menores

La Agencia Española de Protección de Datos (AEPD) ha resuelto un caso que marca un hito en la protección de datos en Europa, al sancionar por primera vez a una persona que manipuló y difundió una imagen falsa de una menor utilizando inteligencia artificial (IA). … La multa ha sido de 2.000 euros.
Aunque la resolución no contiene el nombre de la víctima ni del sancionado. Las fechas en las que la AEPD inició la investigación, y la mención a la publicación de varias noticias en medios de comunicación, indican que la resolución está directamente relacionado con el escándalo de Almendralejo, iniciado en septiembre 2023. Entonces menores de edad recurrieron a herramientas de inteligencia artificial para alterar las imágenes de decenas de compañeras de clase y crearon contenido de tintes pornográficos.

El procedimiento sancionador se inició, efectivamente, tras una denuncia presentada el 2 de octubre de 2023 por «la difusión de imágenes falsas de desnudos realizadas con Inteligencia Artificial a través» de internet. El infractor, según se recoge en la resolución habría creado y difundido este contenido.
La AEPD destaca que este tipo de prácticas vulnera el derecho fundamental a la protección de datos personales, que está especialmente protegido en el caso de menores. Según la ley, el uso de datos personales debe basarse en el consentimiento expreso de la persona afectada, o, en su defecto, en una justificación legítima para su tratamiento. En este caso, no hubo consentimiento por parte de la menor ni de sus padres para que su imagen fuera manipulada y difundida de esa manera.

Crean un 'centinela' para evitar los sesgos en la inteligencia artificial de reconocimiento facial

La inteligencia artificial no solo aprende de los datos, también hereda sus prejuicios. Durante años, los sistemas de reconocimiento facial y de análisis de imágenes se han entrenado con fotografías obtenidas de internet sin permiso, con escasa diversidad y sin control sobre su procedencia. … El resultado ha sido una cadena de algoritmos que reconocen peor los rostros de personas negras, mayores o con determinados rasgos físicos, y que perpetúan estereotipos culturales o de género.
Ahora, un equipo de Sony AI propone una alternativa radical: un conjunto de datos creado desde cero con criterios éticos. El trabajo, publicado en ‘Nature’ y liderado por la investigadora Alice Xiang, presenta el Fair Human-Centric Image Benchmark (FHIBE), el primer gran banco de imágenes humanas diseñado para evaluar los sesgos de los modelos de visión artificial de forma justa y transparente.

Un trabajo ético en todas las etapas del proceso

El FHIBE reúne fotografías de 1.981 personas de más de 80 países, todas obtenidas con su consentimiento y tras una remuneración económica por facilitar sus datos. Cada participante pudo retirar sus imágenes en cualquier momento, y los investigadores aplicaron técnicas de privacidad avanzadas para eliminar información personal o rostros de personas que no habían consentido su participación. «Queríamos demostrar que la ética puede incorporarse a cada etapa del proceso, desde la recogida de imágenes hasta su uso científico», explica Xiang a ABC. «Durante demasiado tiempo la investigación en inteligencia artificial ha dependido de bases de datos recopiladas sin consentimiento ni compensación, y eso tenía que cambiar».
La base de datos no es solo diversa geográficamente —con un 45% de imágenes procedentes de África y un 40% de Asia—, sino también en términos de edad, tono de piel, apariencia y condiciones ambientales. Cada imagen está acompañada de decenas de anotaciones: desde el tipo de luz o el modelo de cámara utilizado hasta 33 puntos anatómicos del rostro y el cuerpo. En total, más de 8.500 valores distintos de atributos, lo que la convierte en la colección de imágenes humanas más exhaustivamente etiquetada del mundo.