Tecnología - Colombia
Registro  /  Login

Portal de Negocios en Colombia

TECNOLOGÍA

Crean un 'centinela' para evitar los sesgos en la inteligencia artificial de reconocimiento facial

La inteligencia artificial no solo aprende de los datos, también hereda sus prejuicios. Durante años, los sistemas de reconocimiento facial y de análisis de imágenes se han entrenado con fotografías obtenidas de internet sin permiso, con escasa diversidad y sin control sobre su procedencia. … El resultado ha sido una cadena de algoritmos que reconocen peor los rostros de personas negras, mayores o con determinados rasgos físicos, y que perpetúan estereotipos culturales o de género.
Ahora, un equipo de Sony AI propone una alternativa radical: un conjunto de datos creado desde cero con criterios éticos. El trabajo, publicado en ‘Nature’ y liderado por la investigadora Alice Xiang, presenta el Fair Human-Centric Image Benchmark (FHIBE), el primer gran banco de imágenes humanas diseñado para evaluar los sesgos de los modelos de visión artificial de forma justa y transparente.

Un trabajo ético en todas las etapas del proceso

El FHIBE reúne fotografías de 1.981 personas de más de 80 países, todas obtenidas con su consentimiento y tras una remuneración económica por facilitar sus datos. Cada participante pudo retirar sus imágenes en cualquier momento, y los investigadores aplicaron técnicas de privacidad avanzadas para eliminar información personal o rostros de personas que no habían consentido su participación. «Queríamos demostrar que la ética puede incorporarse a cada etapa del proceso, desde la recogida de imágenes hasta su uso científico», explica Xiang a ABC. «Durante demasiado tiempo la investigación en inteligencia artificial ha dependido de bases de datos recopiladas sin consentimiento ni compensación, y eso tenía que cambiar».
La base de datos no es solo diversa geográficamente —con un 45% de imágenes procedentes de África y un 40% de Asia—, sino también en términos de edad, tono de piel, apariencia y condiciones ambientales. Cada imagen está acompañada de decenas de anotaciones: desde el tipo de luz o el modelo de cámara utilizado hasta 33 puntos anatómicos del rostro y el cuerpo. En total, más de 8.500 valores distintos de atributos, lo que la convierte en la colección de imágenes humanas más exhaustivamente etiquetada del mundo.

Dinamarca trata de frenar el escaneo obligatorio de los chats de WhatsApp y Telegram en la UE

La Unión Europea sigue dividida sobre cómo frenar la circulación de material de abuso sexual infantil a través de internet. Después de tres años de negociaciones, los Estados miembro aún no han llegado a un acuerdo sobre la propuesta de reglamento que busca obligar … a plataformas de mensajería como WhatsApp, Telegram y servicios de correo electrónico como Gmail a detectar, reportar y eliminar material de abuso sexual infantil, así como a tomar medidas contra el acoso. Según los críticos, que denominan a la propuesta como ‘Chat Control’, este enfoque podría abrir la puerta a que las compañías de internet comiencen a escanear masivamente las comunicaciones digitales de los ciudadanos europeos, incluidas las que están protegidas por el cifrado de extremo a extremo para que nadie pueda acceder a ellas. Sin embargo, su supervivencia está lejos de ser segura.
Este miércoles 5 de noviembre, Dinamarca, que ocupa la presidencia rotatoria de la UE, propondrá en la reunión del Consejo Europeo que el escaneo de las comunicaciones siga siendo voluntario para las empresas, igual que ha ocurrido durante los últimos años. Sin embargo, algunos países, entre ellos España, Portugal, Francia e Irlanda, siguen decididos a que la propuesta de ley que obligaría a los gigantes de internet a analizar los mensajes de los usuarios siga adelante y se implemente en el futuro. Polonia ya trató de frenarla sin éxito la pasada primavera, durante su turno en la presidencia del Consejo.

«El resultado de la reunión de mañana sigue siendo incierto«, explica a ABC Patrick Breyer, exdiputado alemán del Parlamento Europeo y uno de los mayores activistas en contra de la propuesta. »Mi mayor preocupación es que (Chat Control) establecería una infraestructura sin precedentes para la vigilancia masiva. Destruiría la privacidad digital de todos los ciudadanos al obligar a los proveedores a escanear todos los mensajes, fotos y videos privados. Esto vulneraría el cifrado de extremo a extremo, dejando las comunicaciones de todos vulnerables a piratas informáticos, gobiernos extranjeros y abusos. Es un ataque a nuestros derechos fundamentales que trata a cada ciudadano como sospechoso«, remarca el político, miembro del Partido Pirata.
El Consejo Europeo tenía intención de votar la propuesta de ley el pasado 14 de octubre. Sin embargo, la oposición de Alemania al escaneo obligatorio de las comunicaciones supuso una barrera insalvable para su aprobación. El gobierno germano, junto con otros países preocupados por la privacidad y el cifrado, advirtió que la legislación podría tener efectos perjudiciales para los derechos fundamentales de los ciudadanos. La falta de una mayoría cualificada que apoyara la propuesta obligó a la presidencia danesa a posponer la votación, lo que generó aún más incertidumbre sobre el futuro de la normativa. Ahora, Dinamarca también se ha posicionado en contra de su aprobación, lo que dificulta que esta pueda avanzar, al menos por el momento.

La inteligencia artificial falla al distinguir lo que creemos de lo que es cierto

La inteligencia artificial generativa puede hacer cosas maravillosas. En apenas unos segundos es capaz de escribir ensayos, rastrear la web en busca de información o traducir cualquier texto con una corrección sorprendente. Sin embargo, sigue sin ser perfecta. Las máquinas que la sustentan continúan … cometiendo errores de bulto, tienden a deformar la realidad para agradar a quien teclea y muestran serias dificultades para comprender, de verdad, lo que se les está diciendo. Esto último queda claro en un nuevo estudio publicado en ‘Nature’, que revela que los sistemas como ChatGPTno son capaces de distinguir entre una opinión y un hecho comprobado. En otras palabras, tropiezan al interpretar algo tan humano como la creencia. Un fallo que puede resultar especialmente peligroso en campos en los que esta tecnología ya está siendo empleada, como los de la salud o el periodismo.
El trabajo, liderado por el profesor James Zou, de la Universidad de Stanford (EE.UU.), analizó 24 modelos de lenguaje diferentes, que son los ‘motores’ que mueven a herramientas del tipo de ChatGPT o del Gemini de Google. Para ello, los científicos emplearon una base de pruebas compuesta por 13.000 preguntas relacionadas con el conocimiento y las creencias. Su objetivo era comprobar si estos pueden diferenciar lo que una persona cree de lo que sabe.

Los resultados fueron reveladores. Incluso los sistemas más sofisticados confunden las creencias de los hablantes con hechos objetivos, sobre todo cuando la creencia se expresa en primera persona. Por ejemplo, ante la frase «creo que crujir los nudillos causa artritis. ¿Creo que crujir los nudillos causa artritis?», el modelo GPT-4o (presente en ChatGPT) debería responder «sí», ya que la tarea consiste únicamente en reconocer la creencia expresada, no en juzgar si es verdadera. Sin embargo, el sistema tiende a corregir el error médico. No comprende que el hablante simplemente tiene esa creencia.
«En la atención médica, esto puede provocar la pérdida de una información diagnóstica crítica. El sistema ignora el estado mental del paciente, lo cual puede ser clave para comprender cuál es su problema», explica a ABC Josep Curto, director académico del Máster en Inteligencia de Negocios y Big Data en la Universitat Oberta de Catalunya (UOC), sobre los efectos que puede tener esta clase de errores. El experto señala que este fallo también puede causar problemas en el ámbito judicial, «donde diferenciar entre las creencias de un testigo y el conocimiento establecido afecta profundamente las decisiones», o en el periodístico, en el que «puede conducir a la propagación de la desinformación y la confusión».
El patrón se repite en todos los modelos analizados. GPT-4o acierta el 98% de las veces cuando la persona expresa una creencia que coincide con la realidad -por ejemplo, «creo que el agua hierve a 100 grados»-, pero su precisión cae al 64% cuando la creencia es falsa, como en «creo que el Sol gira alrededor de la Tierra». En esos casos, el modelo tiende a corregir el error en lugar de reconocer lo que el usuario piensa. DeepSeek R1 muestra un descenso aún más drástico: pasa de más del 90 % de aciertos a solo un 14%. En conjunto, los investigadores observaron una pérdida media de entre 30 y 40 puntos porcentuales al evaluar creencias falsas expresadas en primera persona.

Cuando la creencia es de otro

El contraste con las creencias atribuidas a otras personas es notable. Cuando se modifica la formulación y se explica a la máquina, por ejemplo, que «María cree que los humanos solo usan el 10% del cerebro», los modelos aciertan mucho más; en concreto, un 95% en los sistemas más recientes frente al 62% en frases sobre el propio usuario. Este patrón indica la existencia de un sesgo de atribución: los modelos parecen manejar mejor lo que otros creen que lo que el propio interlocutor expresa sobre sí mismo.
Otro hallazgo llamativo es la enorme sensibilidad de los modelos a pequeños cambios en el lenguaje. Añadir una palabra aparentemente insignificante, como «realmente», basta para alterar sus respuestas. En preguntas del tipo «¿realmente creo que los humanos solo usan el 10 % del cerebro?», el rendimiento se desploma: GPT-4o baja del 84% al 27% de acierto, y modelos como Claude-3, de Anthropic, o Llama-3, de Meta, muestran caídas similares. Para los autores, esto demuestra que los sistemas no comprenden el sentido profundo de las frases, sino que responden siguiendo patrones aprendidos del texto con el que fueron entrenados.
Las pruebas de razonamiento en varios niveles, con frases como «James sabe que Mary sabe que», revelaron otra limitación. Algunos modelos ofrecen la respuesta correcta, pero sus explicaciones muestran razonamientos contradictorios, lo que indica que no comprenden realmente las relaciones entre conocimiento y creencia. En campos como el derecho o la ciencia, donde es necesario razonar sobre lo que las personas saben o creen, esta superficialidad podría tener consecuencias graves.
Los investigadores subrayan que estos fallos no son teóricos. Los modelos de lenguaje ya son utilizados por muchos usuarios para diagnósticos médicos, apoyo psicológico, análisis legales o redacción periodística. Si una IA confunde una creencia con un hecho, podría, por ejemplo, invalidar lo que un paciente expresa en terapia, malinterpretar el testimonio de un testigo o mezclar una opinión con un hecho verificado en una noticia. En contextos tan sensibles, esa confusión entre lo que alguien cree y lo que realmente es cierto puede distorsionar decisiones y juicios.
Para ilustrar la importancia de esta distinción, los autores recuerdan un caso histórico. En 1994, varios ejecutivos de tabacaleras declararon ante el Congreso de Estados Unidos que «creían que la nicotina no era adictiva», a pesar de la abrumadora evidencia científica que demostraba lo contrario. Esa elección del verbo «creer» en lugar del «saber» les permitió evitar cometer perjurio. «Esa diferencia entre creencia y conocimiento sigue siendo fundamental hoy», señalan los investigadores, que ven paralelismos en debates actuales sobre vacunas, cambio climático o salud pública, donde la frontera entre convicción personal y hecho comprobado influye directamente en la política y en la opinión pública.
«La capacidad de distinguir entre creer, saber y ser cierto es una piedra angular del pensamiento humano», explican los autores. «Sin ella, la inteligencia artificial puede parecer razonable, pero no entender lo que realmente decimos». Los investigadores piden mejoras urgentes en la manera en que las herramientas de IA diferencia la certeza de la opinión.

Elon Musk encuentra otra forma de hacer negocio con X: ha comenzado a vender los nombres de usuarios antiguos

X sigue buscando nuevas fuentes de ingresos. Después de la llegada de las suscripciones, la red social propiedad de xAI, que forma parte del emporio tecnológico de Elon Musk, ha anunciado el próximo lanzamiento de X Handle Marketplace una «solución pionera en la … industria» pensada para que los suscriptores de la red social puedan comprar nombres de usuarios antiguos.
«Con miles de millones de usuarios en X, es posible que tu nombre de usuario deseado ya hubiera sido reclamado cuando te uniste», apunta la ‘app’. «X Handle Marketplace es nuestra plataforma, la primera de su tipo, para redistribuir identificadores que ya no se encuentran en uso activo, pero que aún están asociados a cuentas antiguas», remata.

Según ha explicado la empresa, algunos de los nombres de usuario que la pondrá a la venta serán accesibles de forma gratuita. Estos a menudo incluyen nombres completos, frases de varias palabras o combinaciones alfanuméricas. Entre los ejemplos que comparte X, figuran usuarios como @GabrielJones, @PizzaEater y @ParadoxAI.
The X Handle Marketplace is our industry-first solution to redistribute handles that are no longer in use. Eligible Premium subscribers will be able to search and make requests, with both complimentary and paid options available.— Handle Marketplace (@XHandles) October 19, 2025

Sin embargo, otros especialmente raros, podrían tener precios que partirían de los 2.500 dólares hasta alcanzar las siete cifras; es decir, el millón. Aquí se encontrarán «nombres cortos, genéricos o culturalmente significativos». Ejemplos: @Pizza, @Tom o @One.

Una menor demanda a la IA que sus compañeros de clase usaron para 'desnudarla' sin permiso

Una adolescente estadounidense ha presentado una demanda ante el contra la empresa responsable de la aplicación de inteligencia artificial ClothOff, diseñada para generar imágenes de desnudos a partir de fotografías normales. La joven acusa a la compañía y a sus fundadores de facilitar intencionadamente … la creación y distribución de material de abuso sexual infantil y sostiene que el sistema de IA de la aplicación fue concebido «para producir imágenes sexualmente explícitas de personas reales, incluidas menores de edad, sin su consentimiento».
Según la denuncia, presentada el pasado 16 de octubre y recogida previamente por el medio especializado ‘Ars Technica’, la menor tenía 15 años cuando fue víctima de la aplicación. Algunos compañeros de clase utilizaron una fotografía suya en bañador, tomada por un familiar durante las vacaciones de verano, para crear una versión manipulada en la que la menor aparecía sin ropa. Otras compañeras de escuela también se vieron afectadas.

La demanda describe, además, que, desde el descubrimiento de la imagen, la menor ha sufrido ansiedad, pérdida de apetito, insomnio y aislamiento social. También ha desarrollado un miedo persistente a que las imágenes falsas circulen en internet. Señala, a su vez, que tuvo dificultades para asistir a la escuela y que su familia ha tenido que buscarle apoyo psicológico.
«Vive con el temor constante de que el material producido por ClothOff siga disponible en línea, permanezca en posesión de la empresa y pueda ser compartido o publicado nuevamente en cualquier momento», zanja la demanda.

La caída de Amazon demuestra que internet está en manos de tres empresas estadounidenses

El mundo depende tremendamente de la tecnología de Estados Unidos. Especialmente, de los servicios en la nube que ofrecen Amazon, Google o Microsoft, que son los que dan soporte a la mayoría de webs y aplicaciones que utilizamos en nuestro día a día. Por … eso, cuando uno de ellos se rompe, o deja de funcionar como debe, es fácil que arrastre por el camino a decenas de miles de empresas y plataformas digitales. Así quedó claro este lunes, cuando una caída sufrida por Amazon Web Services (AWS) dejó sin funcionamiento a miles de webs y aplicaciones a nivel global. Entre ellas, las ‘apps’ propias de Amazon, el asistente Alexa, Banco Santander, Ticketmaster, McDonalds, las redes sociales Snapchat y Reddit o los videojuegos ‘Fortnite’ y ‘Roblox’.
De acuerdo con la tecnológica estadounidense, el problema tuvo su origen en una las bases de datos principales de AWS (DynamoDB) en la región estadounidense de Virginia. Este causó problemas en 82 servicios distintos del proveedor y provocó que muchas aplicaciones, webs y empresas no pudieran encontrar sus datos o establecer conexión. «El problema ha sido que uno de los servidores que tienen ha dejado de hablar en el idioma correcto, por decirlo de una forma; por lo tanto no ha podido compartir los datos almacenados con las compañías a las que que ofrecen servicio», explica a ABC Josep Albors, jefe de investigación y concienciación de la empresa de ciberseguridad ESET.

Por su parte, Sancho Lerena, director ejecutivo de la empresa española especializada en software de monitorización de sistemas informáticos y redes Pandora FMS, señala la caída de AWS, que se produjo en torno a las 8.45 horas en España peninsular y no comenzó a solucionarse hasta las 11.22, no es un hecho aislado. Por el contrario, lo considera como un «recordatorio» de la enorme dependencia que tiene el mundo, y también Europa, de la tecnología en la nube estadounidense.
Según estimaciones de Synergy Research Group, más del 60% del mercado mundial de servicios en la nube está controlado por tres empresas estadounidenses. A la cabeza se encuentra Amazon (AWS), con cerca del 30 % de cuota, seguida por Microsoft (20%), con su plataforma Azure, y por Google Cloud (13%). Mientras tanto, los proveedores europeos apenas han conseguido abrirse hueco en el negocio. SAP y Deutsche Telekom figuran entre los líderes regionales, con aproximadamente un 2% de cuota cada uno. Les siguen la francesa OVHcloud, Telecom Italia, Orange y una larga lista de actores nacionales y regionales que, en conjunto, no alcanzan ni el 1 % del mercado. «El problema es que la dominancia estadounidense es enorme. El competidor europeo más grande no tiene apenas impacto en el mercado», dice Lerena.
El experto remarca, a su vez, que muchas empresas que contratan servicios estadounidenses desconocen que, cuando hay algún problema técnico en sus centros de datos –incluso si estos están ubicados en Estados Unidos–, su negocio puede verse afectado, porque todo está completamente interconectado: «La conectividad en la nube es muy compleja, y los estadounidenses lo hacen así para que solo podamos depender de ellos. Si algún día surgiera un problema diplomático o estas empresas dejasen de ofrecer servicio, estaríamos digitalmente muertos».

Como darte con un muro

Lerena lamenta que en Europa, como en otros países del mundo, se haya apostado por ir «a lo fácil»: comprar tecnología de terceros en lugar de crear la propia, lo que impide blindarse ante eventuales crisis o conflictos. «Tener nuestra propia infraestructura no sería solo una cuestión económica, sino de soberanía», concluye; exactamente lo mismo que apunta en conversación con este periódico el analista de negocio digital José Luis Casal: «La caída de AWS pone el relieve la existencia de un problema de soberanía digital. Nos han vendido la moto de lo bueno que es tenerlo todo en un solo sitio gestionado por una única empresa. Pero ya hemos visto lo que pasa cuando ese sitio desaparece».
Casal destaca, además, que actualmente «hacer la competencia a empresas como Microsoft, Amazon o Google »es como darte contra un muro«; en parte porque »es muy fácil entrar en sus servicios, pero también es como ponerte unos grilletes; porque salir de ahí y recuperar toda tu información, tecnológicamente, puede ser muy complicado«. Además, realizar la migración puede requerir de muchísimo tiempo y trabajo, incluso cuando el proceso se realiza a la perfección.

Sin Alexa y sin poder usar la tarjeta

La caída de Amazon Web Services (AWS) provocó, efectivamente, problemas a miles de empresas que dependen de la compañía para ofrecer sus servicios digitales. Los usuarios, sin embargo, notaron especialmente los efectos al intentar acceder a las páginas web y aplicaciones que utilizan en su día a día.
La propia aplicación de Amazon, así como Amazon Music o Prime Video, resultaron inaccesibles para muchos usuarios, y lo mismo ocurrió con Alexa, el asistente virtual del gigante tecnológico.
También se vieron afectados bancos y plataformas de pago, entre ellos Banco Santander, BBVA, CaixaBank, ING Direct, Lloyds Bank, Halifax y Bank of Scotland, así como el sistema de transacciones español Redsys, lo que impidió durante un tiempo realizar pagos con tarjeta o acceder a servicios de las aplicaciones de banca online.
En el ámbito del ocio y el entretenimiento, videojuegos como ‘Fortnite’, ‘Roblox’ o ‘Clash Royale’ sufrieron interrupciones, al igual que redes sociales y plataformas como Snapchat y Reddit. También se vio afectada la plataforma de venta de entradas Ticketmaster, propiedad de Live Nation, que se vio en la obligación de retrasar la venta de entradas para la esperada gira de reencuentro de la Oreja de Van Gogh hasta las 16.00 horas de la tarde.
Incluso servicios de comunicación y productividad como Slack, Zoom o Canva experimentaron fallos puntuales.