Tecnología - Colombia
Registro  /  Login

Portal de Negocios en Colombia

TECNOLOGÍA

Crean un 'centinela' para evitar los sesgos en la inteligencia artificial de reconocimiento facial

La inteligencia artificial no solo aprende de los datos, también hereda sus prejuicios. Durante años, los sistemas de reconocimiento facial y de análisis de imágenes se han entrenado con fotografías obtenidas de internet sin permiso, con escasa diversidad y sin control sobre su procedencia. … El resultado ha sido una cadena de algoritmos que reconocen peor los rostros de personas negras, mayores o con determinados rasgos físicos, y que perpetúan estereotipos culturales o de género.
Ahora, un equipo de Sony AI propone una alternativa radical: un conjunto de datos creado desde cero con criterios éticos. El trabajo, publicado en ‘Nature’ y liderado por la investigadora Alice Xiang, presenta el Fair Human-Centric Image Benchmark (FHIBE), el primer gran banco de imágenes humanas diseñado para evaluar los sesgos de los modelos de visión artificial de forma justa y transparente.

Un trabajo ético en todas las etapas del proceso

El FHIBE reúne fotografías de 1.981 personas de más de 80 países, todas obtenidas con su consentimiento y tras una remuneración económica por facilitar sus datos. Cada participante pudo retirar sus imágenes en cualquier momento, y los investigadores aplicaron técnicas de privacidad avanzadas para eliminar información personal o rostros de personas que no habían consentido su participación. «Queríamos demostrar que la ética puede incorporarse a cada etapa del proceso, desde la recogida de imágenes hasta su uso científico», explica Xiang a ABC. «Durante demasiado tiempo la investigación en inteligencia artificial ha dependido de bases de datos recopiladas sin consentimiento ni compensación, y eso tenía que cambiar».
La base de datos no es solo diversa geográficamente —con un 45% de imágenes procedentes de África y un 40% de Asia—, sino también en términos de edad, tono de piel, apariencia y condiciones ambientales. Cada imagen está acompañada de decenas de anotaciones: desde el tipo de luz o el modelo de cámara utilizado hasta 33 puntos anatómicos del rostro y el cuerpo. En total, más de 8.500 valores distintos de atributos, lo que la convierte en la colección de imágenes humanas más exhaustivamente etiquetada del mundo.

Dinamarca trata de frenar el escaneo obligatorio de los chats de WhatsApp y Telegram en la UE

La Unión Europea sigue dividida sobre cómo frenar la circulación de material de abuso sexual infantil a través de internet. Después de tres años de negociaciones, los Estados miembro aún no han llegado a un acuerdo sobre la propuesta de reglamento que busca obligar … a plataformas de mensajería como WhatsApp, Telegram y servicios de correo electrónico como Gmail a detectar, reportar y eliminar material de abuso sexual infantil, así como a tomar medidas contra el acoso. Según los críticos, que denominan a la propuesta como ‘Chat Control’, este enfoque podría abrir la puerta a que las compañías de internet comiencen a escanear masivamente las comunicaciones digitales de los ciudadanos europeos, incluidas las que están protegidas por el cifrado de extremo a extremo para que nadie pueda acceder a ellas. Sin embargo, su supervivencia está lejos de ser segura.
Este miércoles 5 de noviembre, Dinamarca, que ocupa la presidencia rotatoria de la UE, propondrá en la reunión del Consejo Europeo que el escaneo de las comunicaciones siga siendo voluntario para las empresas, igual que ha ocurrido durante los últimos años. Sin embargo, algunos países, entre ellos España, Portugal, Francia e Irlanda, siguen decididos a que la propuesta de ley que obligaría a los gigantes de internet a analizar los mensajes de los usuarios siga adelante y se implemente en el futuro. Polonia ya trató de frenarla sin éxito la pasada primavera, durante su turno en la presidencia del Consejo.

«El resultado de la reunión de mañana sigue siendo incierto«, explica a ABC Patrick Breyer, exdiputado alemán del Parlamento Europeo y uno de los mayores activistas en contra de la propuesta. »Mi mayor preocupación es que (Chat Control) establecería una infraestructura sin precedentes para la vigilancia masiva. Destruiría la privacidad digital de todos los ciudadanos al obligar a los proveedores a escanear todos los mensajes, fotos y videos privados. Esto vulneraría el cifrado de extremo a extremo, dejando las comunicaciones de todos vulnerables a piratas informáticos, gobiernos extranjeros y abusos. Es un ataque a nuestros derechos fundamentales que trata a cada ciudadano como sospechoso«, remarca el político, miembro del Partido Pirata.
El Consejo Europeo tenía intención de votar la propuesta de ley el pasado 14 de octubre. Sin embargo, la oposición de Alemania al escaneo obligatorio de las comunicaciones supuso una barrera insalvable para su aprobación. El gobierno germano, junto con otros países preocupados por la privacidad y el cifrado, advirtió que la legislación podría tener efectos perjudiciales para los derechos fundamentales de los ciudadanos. La falta de una mayoría cualificada que apoyara la propuesta obligó a la presidencia danesa a posponer la votación, lo que generó aún más incertidumbre sobre el futuro de la normativa. Ahora, Dinamarca también se ha posicionado en contra de su aprobación, lo que dificulta que esta pueda avanzar, al menos por el momento.

La inteligencia artificial falla al distinguir lo que creemos de lo que es cierto

La inteligencia artificial generativa puede hacer cosas maravillosas. En apenas unos segundos es capaz de escribir ensayos, rastrear la web en busca de información o traducir cualquier texto con una corrección sorprendente. Sin embargo, sigue sin ser perfecta. Las máquinas que la sustentan continúan … cometiendo errores de bulto, tienden a deformar la realidad para agradar a quien teclea y muestran serias dificultades para comprender, de verdad, lo que se les está diciendo. Esto último queda claro en un nuevo estudio publicado en ‘Nature’, que revela que los sistemas como ChatGPTno son capaces de distinguir entre una opinión y un hecho comprobado. En otras palabras, tropiezan al interpretar algo tan humano como la creencia. Un fallo que puede resultar especialmente peligroso en campos en los que esta tecnología ya está siendo empleada, como los de la salud o el periodismo.
El trabajo, liderado por el profesor James Zou, de la Universidad de Stanford (EE.UU.), analizó 24 modelos de lenguaje diferentes, que son los ‘motores’ que mueven a herramientas del tipo de ChatGPT o del Gemini de Google. Para ello, los científicos emplearon una base de pruebas compuesta por 13.000 preguntas relacionadas con el conocimiento y las creencias. Su objetivo era comprobar si estos pueden diferenciar lo que una persona cree de lo que sabe.

Los resultados fueron reveladores. Incluso los sistemas más sofisticados confunden las creencias de los hablantes con hechos objetivos, sobre todo cuando la creencia se expresa en primera persona. Por ejemplo, ante la frase «creo que crujir los nudillos causa artritis. ¿Creo que crujir los nudillos causa artritis?», el modelo GPT-4o (presente en ChatGPT) debería responder «sí», ya que la tarea consiste únicamente en reconocer la creencia expresada, no en juzgar si es verdadera. Sin embargo, el sistema tiende a corregir el error médico. No comprende que el hablante simplemente tiene esa creencia.
«En la atención médica, esto puede provocar la pérdida de una información diagnóstica crítica. El sistema ignora el estado mental del paciente, lo cual puede ser clave para comprender cuál es su problema», explica a ABC Josep Curto, director académico del Máster en Inteligencia de Negocios y Big Data en la Universitat Oberta de Catalunya (UOC), sobre los efectos que puede tener esta clase de errores. El experto señala que este fallo también puede causar problemas en el ámbito judicial, «donde diferenciar entre las creencias de un testigo y el conocimiento establecido afecta profundamente las decisiones», o en el periodístico, en el que «puede conducir a la propagación de la desinformación y la confusión».
El patrón se repite en todos los modelos analizados. GPT-4o acierta el 98% de las veces cuando la persona expresa una creencia que coincide con la realidad -por ejemplo, «creo que el agua hierve a 100 grados»-, pero su precisión cae al 64% cuando la creencia es falsa, como en «creo que el Sol gira alrededor de la Tierra». En esos casos, el modelo tiende a corregir el error en lugar de reconocer lo que el usuario piensa. DeepSeek R1 muestra un descenso aún más drástico: pasa de más del 90 % de aciertos a solo un 14%. En conjunto, los investigadores observaron una pérdida media de entre 30 y 40 puntos porcentuales al evaluar creencias falsas expresadas en primera persona.

Cuando la creencia es de otro

El contraste con las creencias atribuidas a otras personas es notable. Cuando se modifica la formulación y se explica a la máquina, por ejemplo, que «María cree que los humanos solo usan el 10% del cerebro», los modelos aciertan mucho más; en concreto, un 95% en los sistemas más recientes frente al 62% en frases sobre el propio usuario. Este patrón indica la existencia de un sesgo de atribución: los modelos parecen manejar mejor lo que otros creen que lo que el propio interlocutor expresa sobre sí mismo.
Otro hallazgo llamativo es la enorme sensibilidad de los modelos a pequeños cambios en el lenguaje. Añadir una palabra aparentemente insignificante, como «realmente», basta para alterar sus respuestas. En preguntas del tipo «¿realmente creo que los humanos solo usan el 10 % del cerebro?», el rendimiento se desploma: GPT-4o baja del 84% al 27% de acierto, y modelos como Claude-3, de Anthropic, o Llama-3, de Meta, muestran caídas similares. Para los autores, esto demuestra que los sistemas no comprenden el sentido profundo de las frases, sino que responden siguiendo patrones aprendidos del texto con el que fueron entrenados.
Las pruebas de razonamiento en varios niveles, con frases como «James sabe que Mary sabe que», revelaron otra limitación. Algunos modelos ofrecen la respuesta correcta, pero sus explicaciones muestran razonamientos contradictorios, lo que indica que no comprenden realmente las relaciones entre conocimiento y creencia. En campos como el derecho o la ciencia, donde es necesario razonar sobre lo que las personas saben o creen, esta superficialidad podría tener consecuencias graves.
Los investigadores subrayan que estos fallos no son teóricos. Los modelos de lenguaje ya son utilizados por muchos usuarios para diagnósticos médicos, apoyo psicológico, análisis legales o redacción periodística. Si una IA confunde una creencia con un hecho, podría, por ejemplo, invalidar lo que un paciente expresa en terapia, malinterpretar el testimonio de un testigo o mezclar una opinión con un hecho verificado en una noticia. En contextos tan sensibles, esa confusión entre lo que alguien cree y lo que realmente es cierto puede distorsionar decisiones y juicios.
Para ilustrar la importancia de esta distinción, los autores recuerdan un caso histórico. En 1994, varios ejecutivos de tabacaleras declararon ante el Congreso de Estados Unidos que «creían que la nicotina no era adictiva», a pesar de la abrumadora evidencia científica que demostraba lo contrario. Esa elección del verbo «creer» en lugar del «saber» les permitió evitar cometer perjurio. «Esa diferencia entre creencia y conocimiento sigue siendo fundamental hoy», señalan los investigadores, que ven paralelismos en debates actuales sobre vacunas, cambio climático o salud pública, donde la frontera entre convicción personal y hecho comprobado influye directamente en la política y en la opinión pública.
«La capacidad de distinguir entre creer, saber y ser cierto es una piedra angular del pensamiento humano», explican los autores. «Sin ella, la inteligencia artificial puede parecer razonable, pero no entender lo que realmente decimos». Los investigadores piden mejoras urgentes en la manera en que las herramientas de IA diferencia la certeza de la opinión.

China exigirá títulos oficiales a los influencers que hablen de salud, derecho o finanzas

El gobierno chino ha lanzado una nueva ofensiva para reforzar el control sobre el espacio digital. A partir de ahora, los influencers y anfitriones de transmisiones en vivo deberán demostrar que cuentan con las «calificaciones adecuadas» si quieren hablar sobre temas profesionales como … medicina, derecho, educación o finanzas. La medida, anunciada por la Administración Nacional de Radio y Televisión de China (NRTA), forma parte de un paquete de regulaciones que busca ordenar la pujante industria del live-streaming, uno de los sectores más lucrativos del país. Según el documento oficial, los anfitriones «asumen responsabilidades importantes» al difundir conocimiento científico y cultural, por lo que deberán acreditar su formación para ofrecer información fiable.
Aunque el comunicado no especifica qué títulos serán válidos, deja claro que sólo quienes cuenten con credenciales reconocidas podrán tratar asuntos que requieran un «alto nivel de profesionalidad». El objetivo, afirma la NRTA, es construir un entorno digital «positivo, sano, ordenado y armonioso». El nuevo reglamento no sólo establece requisitos académicos. También enumera 31 prácticas prohibidas para los creadores de contenido. Entre ellas, promover el juego, la violencia o las drogas; difundir mensajes que «debiliten o distorsionen el liderazgo del Partido Comunista»; y mostrar conductas de derroche o consumo extremo, como las populares transmisiones mukbang, en las que los anfitriones comen grandes cantidades de comida frente a la cámara.

Estas medidas amplían las restricciones existentes sobre el contenido digital y refuerzan la censura ideológica en línea. El gobierno justifica el endurecimiento de las normas como un intento de frenar la desinformación y proteger la estabilidad social, aunque críticos señalan que también limita la diversidad de opiniones y consolida el control estatal sobre el discurso público. La responsabilidad de aplicar las nuevas reglas recaerá en las principales plataformas digitales chinas, entre ellas Douyin (la versión local de TikTok), Bilibili y Weibo. Estas empresas deberán comprobar las credenciales de los creadores, asegurarse de que sus publicaciones incluyan fuentes verificables y aclarar si el contenido proviene de estudios, informes, inteligencia artificial o simples opiniones personales.

Un mercado millonario bajo la lupa del partido

Además, las plataformas estarán obligadas a «educar» a los usuarios sobre las normas y a establecer mecanismos de vigilancia que garanticen la transparencia de la información. En caso de incumplimiento, podrán suspender o cerrar cuentas que no cumplan los requisitos. De este modo, las compañías tecnológicas se convierten en una extensión del sistema de supervisión del Estado, asumiendo el papel de guardianes del discurso digital.

El primer robot amo de casa parece un muñeco y no sabe hacer nada solo

Neo tiene un rostro negro en el que no hay espacio para nada, ni los ojos, la boca, las cejas o la nariz. Mide 1,68 metros y pesa apenas 30 kilogramos, pero eso no impide que pueda levantar unos 70. Su cuerpo metálico está … cubierto por un traje de punto de un color beige claro que, a primera vista, le da la apariencia de un muñeco humano gigante. La verdad es que, para ser un robot, tiene pinta de ser bastante apañado y dicharachero; igual te dice los ingredientes que puede utilizar para cocinar un plato que te pasa el aspirador por el salón o te ordena los estantes. Camina bien, con paso firme. Si se lo propone hasta puede llegar a bailar; o al menos eso es lo que promete en su vídeo de presentación 1X, la empresa noruega, pero afincada en Silicon Valley, que está decidida a convertirlo en la primera máquina con forma humana en entrar en los hogares. Lo hará en 2026. ¿El precio? 20.000 dólares (17.300 euros aproximadamente), que también pueden ser 500 si se opta por el plan de alquiler mensual.
«El vídeo es alucinante. Parece un robot que te lo va a solucionar todo, pero en el fondo lo que hay ahí es más marketing que otra cosa. Estamos hablando de tecnología que todavía está en fase de investigación, no está lista para llegar a las casas», explica en conversación con ABC Alberto Sanfeliu, catedrático en la Universidad Politécnica de Cataluña y director del grupo de Robótica Móvil del Instituto de Robótica e Informática industrial (IRII), perteneciente al CSIC. Y la verdad es que razón no le falta, porque la máquina ni es tan autónoma como parece ni va a saber plancharle las camisas desde el primer día. Lo más probable es que se las queme o que tarde más de media hora en conseguirlo.

Según la propia empresa, en el momento en el que Neo entra en una casa, está preparado para realizar apenas tres funciones sin intervención humana: «Abrir puertas a los invitados, buscar objetos y apagar las luces por la noche», según explica 1X. Para todo lo demás habrá que esperar a futuras actualizaciones de software. Eso o solicitar la ayuda de un trabajador de la firma, que a través de un casco de realidad virtual y un mando tipo PlayStation es capaz de tomar el control del robot para que realice todas aquellas tareas que desconoce. Con tiempo, y entrenamiento, la máquina debería acabar dominándolas hasta el punto de terminar siendo capaz de hacerlas sola. O eso es lo que se promete. De lo que no hay duda es de que, al menos al principio, Neo le dará más trabajo a sus dueños del que les va a quitar, porque su funcionamiento recuerda más al de un muñeco o una marioneta que al de un dispositivo inteligente.

1X no es la única tecnológica que tiene intención de meter robots humanoides en el mundo real. En la carrera también están, entre otras, la estadounidense Figure AI o Tesla, de Elon Musk, que lleva cerca de un lustro trabajando en el desarrollo de su modelo Optimus. Algunos han encontrado trabajo en hospitales, fábricas o residencias de ancianos, pero siempre para cumplir funciones muy concretas en entornos muy definidos.

La 'app' favorita de Rosalía para hablar con sus amigos no es WhatsApp y funciona como un 'walkie-talkie'

Las tiendas de aplicaciones están saturadas de herramientas pensadas específicamente para que los usuarios se comuniquen. Y, aunque las opciones clásicas como WhatsApp, Telegram, Messenger o Signal dominan el mercado, hay alternativas que se alejan de lo convencional. Desde aplicaciones que permiten enviar mensajes sin … conexión a internet, como BitChat, hasta otras que se asemejan a un ‘walkie-talkie’, como Zello. De hecho, esta última es la favorita de Rosalía para mantener conversaciones con sus amigos, tal y como la artista confesó en una entrevista reciente con ‘GQ’.
La aplicación es gratuita y está disponible tanto en la App Store de los iPhone como en la Play Store de Android. Efectivamente, gracias a ella, el usuario es capaz de convertir su ‘smartphone’, tablet u ordenador en un ‘walkie-talkie’ digital a través del que comunicarte en tiempo real mediante mensajes de voz. Su funcionamiento es bastante sencillo: una vez que te registras con tu correo electrónico, puedes agregar contactos a través de su nombre de usuario o escaneando un código QR.

Para comunicarte, simplemente seleccionas un contacto y presionas un botón de micrófono para hablar. El mensaje de voz se transmite de inmediato al receptor, que lo escuchará aunque la pantalla de su dispositivo esté apagada o la aplicación esté en segundo plano, gracias al protocolo ‘push-to-talk’ (PTT). Esta es la característica clave que convierte a Zello en una alternativa moderna y en línea con los ‘walkie-talkies’ tradicionales.
Porque, a diferencia de WhatsApp, aquí no hace falta entrar en la aplicación para escuchar el audio de turno; este sonará directamente en el móvil sin en el mismo momento en el que lo recibe el usuario con el que te estás comunicando, incluso con la pantalla apagada. Por eso mismo suele ser una herramienta empleada fundamentalmente con fines laborales.

Cinco videojuegos de terror ideales para Halloween

No cabe duda de que el género de terror es uno de los favoritos de los jugadores. Así lo demuestra la longevidad de sagas tan icónicas como ‘Resident Evil’ o ‘Silent Hill’, cuna de algunos de los títulos más destacados de la historia … de esta forma de entretenimiento. Y qué mejor momento que Halloween para comprobarlo.
Por si acaso estás pensando en dedicarle un rato a la consola estos días, pero no tienes muy claro con qué título hacerlo, aquí te compartimos cinco obras de calidad ideales para estas fechas; y bien variadas.

‘Luigi’s Mansion 3’

Una de nuestras grandes debilidades dentro del magnífico catálogo de exclusivos de Nintendo Switch. En ‘Luigi’s Mansion 3’, el usuario se pone en la piel del hermanísimo de Mario, que se ve en la obligación de limpiar de fantasmas un hotel embrujado. Piso por piso. La jugabilidad, de tipo plataformas, está pulida al extremo, y su apartado artístico es de lo mejorcito que se puede encontrar en la híbrida original de la ‘gran N’. Ideal para jugadores adultos y para menores.

‘Silent Hill 2’

A pesar de que el reciente ‘Silent Hill f’ nos dejó muy buen sabor de boca, no podemos dejar de recomendarte que, si no lo has hecho ya, le dediques un rato aunque sea al ‘remake’ que lanzó Konami el año pasado de su ‘Silent Hill 2’ de la PS2. La propuesta llegaba con argumento ampliado, jugabilidad renovada, un apartado sonoro exquisito que congela la sangre… no hay nada que no sea excelente en esta nueva reinterpretación (¿o acaso continuación?) de la odisea de James. Es una maravillosa pesadilla que no se puede perder nadie a quien le guste pasarlo mal mientras juega.

‘Death Stranding’

Vale, ‘Death Stranding’ no es una obra de terror, pero es indudable que tiene elementos del género. Si lo has jugado, seguro que has notado algo parecido al miedo cuando andas explorando, todo se nubla, y comienza a caer declive del cielo. Y eso pasa porque ya sabes lo que viene a continuación, que vas a tener que andar esquivando esos enemigos tipo fantasma llamados entes varados si no quieres que la carga que llevas a la espalda corra peligro. Luego, el título, con sus parajes desolados y postapocalípticos, juega constantemente con la mente del jugador, especialmente explotando temas como la soledad, la muerte y lo desconocido; elementos comunes en muchos videojuegos de terror psicológico.

Nunca nos cansamos de recomendarlo, porque estamos convencidos de que es una experiencia jugable por la que todo ‘gamer’ que se precie debería tratar de pasar en algún momento. La parte uno está disponible en PlayStation, Xbox y ordenador. La segunda, por el momento, solo en PS5.

‘Little Nightmares 3’

La nueva entrega lleva la inquietante saga de terror a un nuevo nivel. En esta ocasión, los jugadores tienen la oportunidad de controlar a Low y Noa, dos personajes atrapados en un mundo de pesadilla lleno de criaturas grotescas. El juego, especialmente enfocado al plataformeo y la resolución de puzles, mantiene esa atmósfera perturbadora tan característica de la franquicia, pero a lo bestia, porque se trata de una propuesta más ambiciosa en lo visual y lo sonoro que sus antecesoras. Además, añade una opción para jugar en cooperativo online con algún amigo.
La obra tiene una duración reducida de unas cuatro horas; por lo que te lo puedes pasar tranquilamente en un día. Está disponible para todas las consolas y en PC.

‘Until Dawn’

Una aventura gráfica de las buenas, y como ocurre con el último ‘Little Nightmares’, si quieres te la puedes completar en una sola tarde. El juego funciona como una película interactiva, por lo que es el usuario el que decide por dónde debe discurrir la historia. Respecto al argumento, puedes esperar lo típico del cine de terror para adolescentes: un grupo de amigos se reúnen en una remota montaña para recordar un trágico suceso del pasado, solo para verse atrapados en una pesadilla cuando comienzan a ser acechados por un misterioso asesino. Todo con grandes dosis de tensión y muchos giros narrativos inesperados. Lo puedes jugar en PS4 y en PS5.