Tecnología - Colombia
Registro  /  Login

Portal de Negocios en Colombia

TECNOLOGÍA

Jeff Bezos, sobre el impacto de la IA en el mercado laboral: «Solo hay un trabajo que no podrá substituir»

La inteligencia artificial está llamada a transformar el mercado laboral de una forma que todavía resulta difícil de imaginar. Hasta ahora, su impacto real apenas se ha reflejado en los datos de empleo y productividad, pero el consenso entre los expertos es que a largo … plazo, casi todos los sectores sentirán su efecto. Llegados a este punto, la gran incógnita es qué tipo de profesionales lograrán mantenerse a salvo en este escenario.
Sobre esta cuestión se ha pronunciado recientemente Jeff Bezos, fundador de Amazon y uno de los hombres más ricos del planeta. Durante su intervención en la Italian Tech Week 2025, celebrada en Turín, el empresario reflexionó sobre el papel de la inteligencia artificial y el futuro del empleo. Bezos aseguró que hay una cualidad que las máquinas jamás podrán replicar: la capacidad de inventar.

El magnate explicó que la inventiva no solo impulsa la innovación, sino que constituye la base de todo avance tecnológico. El progreso —dijo— depende de las personas capaces de imaginar nuevas soluciones y de construir aquello que todavía no existe. Él mismo atribuye a esa mentalidad el éxito de Amazon, que comenzó como una simple librería digital y acabó convirtiéndose en un gigante mundial del comercio electrónico. También su compañía aeroespacial, Blue Origin, nació del mismo impulso por crear lo que aún no está al alcance.

Inventar, clave del éxito

Para ilustrar su visión, Bezos compartió una anécdota personal: un verano en el rancho de su abuelo, en Texas, pasaron meses reparando un bulldozer sin ayuda externa. «Para sacar la transmisión, tuvimos que construir nuestra propia grúa», recordó. Aquella experiencia, explicó, le enseñó el valor de la creatividad práctica y la importancia de enfrentarse a los problemas con ingenio, incluso cuando no se dispone de todos los recursos.

WhatsApp se prepara para ser compatible con 'apps' como Telegram y Signal

WhatsApp está a punto de ser interoperable con otras aplicaciones de mensajería. La plataforma de mensajería propiedad de Meta ya ha incorporado en fase beta la configuración que permitirá a los usuarios comunicarse con internautas que recurren a otros servicios similares, como Telegram … y Signal, tal y como manda la Ley de Mercados Digitales (DMA, por sus siglas en inglés) de la Unión Europea.
La novedad ha sido detectada por el portal especializado WABetainfo en una versión beta de WhatsApp para Android. Se trata de una versión en desarrollo de la aplicación que, por el momento, no está al alcance del grueso de internautas, solo de unos pocos probadores. El lanzamiento para el público general llegará más tarde, cuando se haya terminado de pulir la funcionalidad. Y también estará disponible en los iPhone, evidentemente.

La interoperabilidad de WhatsApp con otras ‘apps’ de mensajería será completamente opcional para el usuario. Para poder emplearla, este tendrá que habilitarla previamente a través del menú de configuración. La herramienta de mensajería de Meta advierte a los usuarios en una página informativa de que los mensajes procedentes de otras aplicaciones de su clase pueden no tener las mismas prácticas de seguridad ni gestionar de igual forma los datos. Cabe recordar que en el caso de la plataforma de Meta todas las comunicaciones que se envían y reciben están cifradas de extremo a extremo, lo que implica que su contenido solo es accesible para los usuarios que participan en la conversación.
Para poder contactar con usuarios de otras ‘apps’ de mensajería, será imprescindible contar previamente con el número de teléfono. Además, habrá que tener en cuenta que los bloqueos en WhatsApp no se extenderán a otras ‘apps’, lo que significa que contactos bloqueados podrán comunicarse desde ellas.

Dos de los padres de las niñas desnudadas con IA en Almendralejo: «Destruir la salud mental de mi hija les ha salido por solo 1.200 euros»

En septiembre de 2023 todo cambió en Almendralejo, un pequeño pueblo de apenas 30.000 habitantes de Badajoz. Y fue Pedro el primero en descubrir que algo terrible circulaba en los móviles de los chavales. Su hija, de 14 años, llegó a casa una … tarde llorando y con el teléfono en la mano. Una amiga le había avisado de que en un grupo de WhatsApp del instituto IES Santiago Apóstol se estaban compartiendo fotos en las que aparecía desnuda junto a varias de sus compañeras. Las imágenes, que afectaban a casi una treintena de menores, eran falsas, generadas con inteligencia artificial. Pero el daño ya estaba hecho.
El padre recuerda aquel momento con una mezcla de incredulidad y rabia. «Pensé que sería un montaje burdo, una broma cruel», cuenta. Pero cuando vio una de las fotografías entendió que la habían manipulado con herramientas digitales. «Habían usado su cara y su cuerpo y la habían convertido en otra cosa», lamenta. Lo que más le dolió, dice, fue verla pedir perdón. «Me decía: ‘¡Papá, te juro que yo no he hecho nada!’». Pedro y su esposa pasaron esa noche intentando frenar la difusión. Llamaron a otros padres, al colegio y a la Policía. «Fue como intentar recoger agua con las manos», recuerda. «Sabíamos que cuanto más se compartía, más difícil sería detenerlo». Desde aquel día, la vida familiar cambió por completo. «De golpe tu hija es víctima de algo que ni siquiera existe físicamente, pero el sufrimiento es real. Hizo falta mucho apoyo psicológico, no solo para ella, también para nosotros».

La AEPD multa con 2.000 euros a uno de los menores

Este miércoles se ha sabido que la Agencia Española de Protección de Datos (AEPD) ha resuelto el caso, tras la denuncia de 21 de las familias afectadas, al sancionar a uno de los menores que difundió las imágenes falsas. Aunque la resolución no contiene el nombre de las víctimas ni del sancionado, desde la AEPD confirman a ABC que el caso está directamente relacionado con el escándalo de Almendralejo. La multa ha sido de 2.000 euros, pero en la resolución se indica que «los padres del menor abonaron el 5 de abril de 2025 la cuantía de 1.200 euros», reducida de los 2.000 por «reconocer la responsabilidad» y realizar un pronto pago de manera voluntaria. No obstante ClothOff, la aplicación utilizada para realizar los montajes, así como las plataformas con las que se difundieron, han quedado exentas de responsabilidades en la resolución de la AEPD. Cabe destacar que es la primera vez que una agencia europea sanciona económicamente la difusión de esta clase de contenido.

«Antes era una niña abierta, confiada, con muchas ganas de hacer cosas. Ahora tiene miedo de mirar el móvil, de salir, de encontrarse con alguien que haya visto las imágenes»

Ahora Pedro, pese a agradecer que las autoridades hayan actuado en el caso de su hija, admite que la cuantía es «insuficiente». «Destruir la salud mental de mi hija les ha salido por solo 1.200 euros», dice a ABC. Sobre todo porque en un pueblo pequeño, todo se magnifica y «ella ya no es la misma». «Antes era una niña abierta, confiada, con muchas ganas de hacer cosas. Ahora tiene miedo de mirar el móvil, de salir, de encontrarse con alguien que haya visto las imágenes», lamenta Pedro.

Protección de Datos multa con 2.000 euros por crear contenido sexual manipulado con IA de menores

La Agencia Española de Protección de Datos (AEPD) ha resuelto un caso que marca un hito en la protección de datos en Europa, al sancionar por primera vez a una persona que manipuló y difundió una imagen falsa de una menor utilizando inteligencia artificial (IA). … La multa ha sido de 2.000 euros.
Aunque la resolución no contiene el nombre de la víctima ni del sancionado. Las fechas en las que la AEPD inició la investigación, y la mención a la publicación de varias noticias en medios de comunicación, indican que la resolución está directamente relacionado con el escándalo de Almendralejo, iniciado en septiembre 2023. Entonces menores de edad recurrieron a herramientas de inteligencia artificial para alterar las imágenes de decenas de compañeras de clase y crearon contenido de tintes pornográficos.

El procedimiento sancionador se inició, efectivamente, tras una denuncia presentada el 2 de octubre de 2023 por «la difusión de imágenes falsas de desnudos realizadas con Inteligencia Artificial a través» de internet. El infractor, según se recoge en la resolución habría creado y difundido este contenido.
La AEPD destaca que este tipo de prácticas vulnera el derecho fundamental a la protección de datos personales, que está especialmente protegido en el caso de menores. Según la ley, el uso de datos personales debe basarse en el consentimiento expreso de la persona afectada, o, en su defecto, en una justificación legítima para su tratamiento. En este caso, no hubo consentimiento por parte de la menor ni de sus padres para que su imagen fuera manipulada y difundida de esa manera.

Crean un 'centinela' para evitar los sesgos en la inteligencia artificial de reconocimiento facial

La inteligencia artificial no solo aprende de los datos, también hereda sus prejuicios. Durante años, los sistemas de reconocimiento facial y de análisis de imágenes se han entrenado con fotografías obtenidas de internet sin permiso, con escasa diversidad y sin control sobre su procedencia. … El resultado ha sido una cadena de algoritmos que reconocen peor los rostros de personas negras, mayores o con determinados rasgos físicos, y que perpetúan estereotipos culturales o de género.
Ahora, un equipo de Sony AI propone una alternativa radical: un conjunto de datos creado desde cero con criterios éticos. El trabajo, publicado en ‘Nature’ y liderado por la investigadora Alice Xiang, presenta el Fair Human-Centric Image Benchmark (FHIBE), el primer gran banco de imágenes humanas diseñado para evaluar los sesgos de los modelos de visión artificial de forma justa y transparente.

Un trabajo ético en todas las etapas del proceso

El FHIBE reúne fotografías de 1.981 personas de más de 80 países, todas obtenidas con su consentimiento y tras una remuneración económica por facilitar sus datos. Cada participante pudo retirar sus imágenes en cualquier momento, y los investigadores aplicaron técnicas de privacidad avanzadas para eliminar información personal o rostros de personas que no habían consentido su participación. «Queríamos demostrar que la ética puede incorporarse a cada etapa del proceso, desde la recogida de imágenes hasta su uso científico», explica Xiang a ABC. «Durante demasiado tiempo la investigación en inteligencia artificial ha dependido de bases de datos recopiladas sin consentimiento ni compensación, y eso tenía que cambiar».
La base de datos no es solo diversa geográficamente —con un 45% de imágenes procedentes de África y un 40% de Asia—, sino también en términos de edad, tono de piel, apariencia y condiciones ambientales. Cada imagen está acompañada de decenas de anotaciones: desde el tipo de luz o el modelo de cámara utilizado hasta 33 puntos anatómicos del rostro y el cuerpo. En total, más de 8.500 valores distintos de atributos, lo que la convierte en la colección de imágenes humanas más exhaustivamente etiquetada del mundo.

Dinamarca trata de frenar el escaneo obligatorio de los chats de WhatsApp y Telegram en la UE

La Unión Europea sigue dividida sobre cómo frenar la circulación de material de abuso sexual infantil a través de internet. Después de tres años de negociaciones, los Estados miembro aún no han llegado a un acuerdo sobre la propuesta de reglamento que busca obligar … a plataformas de mensajería como WhatsApp, Telegram y servicios de correo electrónico como Gmail a detectar, reportar y eliminar material de abuso sexual infantil, así como a tomar medidas contra el acoso. Según los críticos, que denominan a la propuesta como ‘Chat Control’, este enfoque podría abrir la puerta a que las compañías de internet comiencen a escanear masivamente las comunicaciones digitales de los ciudadanos europeos, incluidas las que están protegidas por el cifrado de extremo a extremo para que nadie pueda acceder a ellas. Sin embargo, su supervivencia está lejos de ser segura.
Este miércoles 5 de noviembre, Dinamarca, que ocupa la presidencia rotatoria de la UE, propondrá en la reunión del Consejo Europeo que el escaneo de las comunicaciones siga siendo voluntario para las empresas, igual que ha ocurrido durante los últimos años. Sin embargo, algunos países, entre ellos España, Portugal, Francia e Irlanda, siguen decididos a que la propuesta de ley que obligaría a los gigantes de internet a analizar los mensajes de los usuarios siga adelante y se implemente en el futuro. Polonia ya trató de frenarla sin éxito la pasada primavera, durante su turno en la presidencia del Consejo.

«El resultado de la reunión de mañana sigue siendo incierto«, explica a ABC Patrick Breyer, exdiputado alemán del Parlamento Europeo y uno de los mayores activistas en contra de la propuesta. »Mi mayor preocupación es que (Chat Control) establecería una infraestructura sin precedentes para la vigilancia masiva. Destruiría la privacidad digital de todos los ciudadanos al obligar a los proveedores a escanear todos los mensajes, fotos y videos privados. Esto vulneraría el cifrado de extremo a extremo, dejando las comunicaciones de todos vulnerables a piratas informáticos, gobiernos extranjeros y abusos. Es un ataque a nuestros derechos fundamentales que trata a cada ciudadano como sospechoso«, remarca el político, miembro del Partido Pirata.
El Consejo Europeo tenía intención de votar la propuesta de ley el pasado 14 de octubre. Sin embargo, la oposición de Alemania al escaneo obligatorio de las comunicaciones supuso una barrera insalvable para su aprobación. El gobierno germano, junto con otros países preocupados por la privacidad y el cifrado, advirtió que la legislación podría tener efectos perjudiciales para los derechos fundamentales de los ciudadanos. La falta de una mayoría cualificada que apoyara la propuesta obligó a la presidencia danesa a posponer la votación, lo que generó aún más incertidumbre sobre el futuro de la normativa. Ahora, Dinamarca también se ha posicionado en contra de su aprobación, lo que dificulta que esta pueda avanzar, al menos por el momento.