Tecnología - Colombia
Registro  /  Login

Portal de Negocios en Colombia

TECNOLOGÍA

Crean un 'centinela' para evitar los sesgos en la inteligencia artificial de reconocimiento facial

La inteligencia artificial no solo aprende de los datos, también hereda sus prejuicios. Durante años, los sistemas de reconocimiento facial y de análisis de imágenes se han entrenado con fotografías obtenidas de internet sin permiso, con escasa diversidad y sin control sobre su procedencia. … El resultado ha sido una cadena de algoritmos que reconocen peor los rostros de personas negras, mayores o con determinados rasgos físicos, y que perpetúan estereotipos culturales o de género.
Ahora, un equipo de Sony AI propone una alternativa radical: un conjunto de datos creado desde cero con criterios éticos. El trabajo, publicado en ‘Nature’ y liderado por la investigadora Alice Xiang, presenta el Fair Human-Centric Image Benchmark (FHIBE), el primer gran banco de imágenes humanas diseñado para evaluar los sesgos de los modelos de visión artificial de forma justa y transparente.

Un trabajo ético en todas las etapas del proceso

El FHIBE reúne fotografías de 1.981 personas de más de 80 países, todas obtenidas con su consentimiento y tras una remuneración económica por facilitar sus datos. Cada participante pudo retirar sus imágenes en cualquier momento, y los investigadores aplicaron técnicas de privacidad avanzadas para eliminar información personal o rostros de personas que no habían consentido su participación. «Queríamos demostrar que la ética puede incorporarse a cada etapa del proceso, desde la recogida de imágenes hasta su uso científico», explica Xiang a ABC. «Durante demasiado tiempo la investigación en inteligencia artificial ha dependido de bases de datos recopiladas sin consentimiento ni compensación, y eso tenía que cambiar».
La base de datos no es solo diversa geográficamente —con un 45% de imágenes procedentes de África y un 40% de Asia—, sino también en términos de edad, tono de piel, apariencia y condiciones ambientales. Cada imagen está acompañada de decenas de anotaciones: desde el tipo de luz o el modelo de cámara utilizado hasta 33 puntos anatómicos del rostro y el cuerpo. En total, más de 8.500 valores distintos de atributos, lo que la convierte en la colección de imágenes humanas más exhaustivamente etiquetada del mundo.

Dinamarca trata de frenar el escaneo obligatorio de los chats de WhatsApp y Telegram en la UE

La Unión Europea sigue dividida sobre cómo frenar la circulación de material de abuso sexual infantil a través de internet. Después de tres años de negociaciones, los Estados miembro aún no han llegado a un acuerdo sobre la propuesta de reglamento que busca obligar … a plataformas de mensajería como WhatsApp, Telegram y servicios de correo electrónico como Gmail a detectar, reportar y eliminar material de abuso sexual infantil, así como a tomar medidas contra el acoso. Según los críticos, que denominan a la propuesta como ‘Chat Control’, este enfoque podría abrir la puerta a que las compañías de internet comiencen a escanear masivamente las comunicaciones digitales de los ciudadanos europeos, incluidas las que están protegidas por el cifrado de extremo a extremo para que nadie pueda acceder a ellas. Sin embargo, su supervivencia está lejos de ser segura.
Este miércoles 5 de noviembre, Dinamarca, que ocupa la presidencia rotatoria de la UE, propondrá en la reunión del Consejo Europeo que el escaneo de las comunicaciones siga siendo voluntario para las empresas, igual que ha ocurrido durante los últimos años. Sin embargo, algunos países, entre ellos España, Portugal, Francia e Irlanda, siguen decididos a que la propuesta de ley que obligaría a los gigantes de internet a analizar los mensajes de los usuarios siga adelante y se implemente en el futuro. Polonia ya trató de frenarla sin éxito la pasada primavera, durante su turno en la presidencia del Consejo.

«El resultado de la reunión de mañana sigue siendo incierto«, explica a ABC Patrick Breyer, exdiputado alemán del Parlamento Europeo y uno de los mayores activistas en contra de la propuesta. »Mi mayor preocupación es que (Chat Control) establecería una infraestructura sin precedentes para la vigilancia masiva. Destruiría la privacidad digital de todos los ciudadanos al obligar a los proveedores a escanear todos los mensajes, fotos y videos privados. Esto vulneraría el cifrado de extremo a extremo, dejando las comunicaciones de todos vulnerables a piratas informáticos, gobiernos extranjeros y abusos. Es un ataque a nuestros derechos fundamentales que trata a cada ciudadano como sospechoso«, remarca el político, miembro del Partido Pirata.
El Consejo Europeo tenía intención de votar la propuesta de ley el pasado 14 de octubre. Sin embargo, la oposición de Alemania al escaneo obligatorio de las comunicaciones supuso una barrera insalvable para su aprobación. El gobierno germano, junto con otros países preocupados por la privacidad y el cifrado, advirtió que la legislación podría tener efectos perjudiciales para los derechos fundamentales de los ciudadanos. La falta de una mayoría cualificada que apoyara la propuesta obligó a la presidencia danesa a posponer la votación, lo que generó aún más incertidumbre sobre el futuro de la normativa. Ahora, Dinamarca también se ha posicionado en contra de su aprobación, lo que dificulta que esta pueda avanzar, al menos por el momento.

La inteligencia artificial falla al distinguir lo que creemos de lo que es cierto

La inteligencia artificial generativa puede hacer cosas maravillosas. En apenas unos segundos es capaz de escribir ensayos, rastrear la web en busca de información o traducir cualquier texto con una corrección sorprendente. Sin embargo, sigue sin ser perfecta. Las máquinas que la sustentan continúan … cometiendo errores de bulto, tienden a deformar la realidad para agradar a quien teclea y muestran serias dificultades para comprender, de verdad, lo que se les está diciendo. Esto último queda claro en un nuevo estudio publicado en ‘Nature’, que revela que los sistemas como ChatGPTno son capaces de distinguir entre una opinión y un hecho comprobado. En otras palabras, tropiezan al interpretar algo tan humano como la creencia. Un fallo que puede resultar especialmente peligroso en campos en los que esta tecnología ya está siendo empleada, como los de la salud o el periodismo.
El trabajo, liderado por el profesor James Zou, de la Universidad de Stanford (EE.UU.), analizó 24 modelos de lenguaje diferentes, que son los ‘motores’ que mueven a herramientas del tipo de ChatGPT o del Gemini de Google. Para ello, los científicos emplearon una base de pruebas compuesta por 13.000 preguntas relacionadas con el conocimiento y las creencias. Su objetivo era comprobar si estos pueden diferenciar lo que una persona cree de lo que sabe.

Los resultados fueron reveladores. Incluso los sistemas más sofisticados confunden las creencias de los hablantes con hechos objetivos, sobre todo cuando la creencia se expresa en primera persona. Por ejemplo, ante la frase «creo que crujir los nudillos causa artritis. ¿Creo que crujir los nudillos causa artritis?», el modelo GPT-4o (presente en ChatGPT) debería responder «sí», ya que la tarea consiste únicamente en reconocer la creencia expresada, no en juzgar si es verdadera. Sin embargo, el sistema tiende a corregir el error médico. No comprende que el hablante simplemente tiene esa creencia.
«En la atención médica, esto puede provocar la pérdida de una información diagnóstica crítica. El sistema ignora el estado mental del paciente, lo cual puede ser clave para comprender cuál es su problema», explica a ABC Josep Curto, director académico del Máster en Inteligencia de Negocios y Big Data en la Universitat Oberta de Catalunya (UOC), sobre los efectos que puede tener esta clase de errores. El experto señala que este fallo también puede causar problemas en el ámbito judicial, «donde diferenciar entre las creencias de un testigo y el conocimiento establecido afecta profundamente las decisiones», o en el periodístico, en el que «puede conducir a la propagación de la desinformación y la confusión».
El patrón se repite en todos los modelos analizados. GPT-4o acierta el 98% de las veces cuando la persona expresa una creencia que coincide con la realidad -por ejemplo, «creo que el agua hierve a 100 grados»-, pero su precisión cae al 64% cuando la creencia es falsa, como en «creo que el Sol gira alrededor de la Tierra». En esos casos, el modelo tiende a corregir el error en lugar de reconocer lo que el usuario piensa. DeepSeek R1 muestra un descenso aún más drástico: pasa de más del 90 % de aciertos a solo un 14%. En conjunto, los investigadores observaron una pérdida media de entre 30 y 40 puntos porcentuales al evaluar creencias falsas expresadas en primera persona.

Cuando la creencia es de otro

El contraste con las creencias atribuidas a otras personas es notable. Cuando se modifica la formulación y se explica a la máquina, por ejemplo, que «María cree que los humanos solo usan el 10% del cerebro», los modelos aciertan mucho más; en concreto, un 95% en los sistemas más recientes frente al 62% en frases sobre el propio usuario. Este patrón indica la existencia de un sesgo de atribución: los modelos parecen manejar mejor lo que otros creen que lo que el propio interlocutor expresa sobre sí mismo.
Otro hallazgo llamativo es la enorme sensibilidad de los modelos a pequeños cambios en el lenguaje. Añadir una palabra aparentemente insignificante, como «realmente», basta para alterar sus respuestas. En preguntas del tipo «¿realmente creo que los humanos solo usan el 10 % del cerebro?», el rendimiento se desploma: GPT-4o baja del 84% al 27% de acierto, y modelos como Claude-3, de Anthropic, o Llama-3, de Meta, muestran caídas similares. Para los autores, esto demuestra que los sistemas no comprenden el sentido profundo de las frases, sino que responden siguiendo patrones aprendidos del texto con el que fueron entrenados.
Las pruebas de razonamiento en varios niveles, con frases como «James sabe que Mary sabe que», revelaron otra limitación. Algunos modelos ofrecen la respuesta correcta, pero sus explicaciones muestran razonamientos contradictorios, lo que indica que no comprenden realmente las relaciones entre conocimiento y creencia. En campos como el derecho o la ciencia, donde es necesario razonar sobre lo que las personas saben o creen, esta superficialidad podría tener consecuencias graves.
Los investigadores subrayan que estos fallos no son teóricos. Los modelos de lenguaje ya son utilizados por muchos usuarios para diagnósticos médicos, apoyo psicológico, análisis legales o redacción periodística. Si una IA confunde una creencia con un hecho, podría, por ejemplo, invalidar lo que un paciente expresa en terapia, malinterpretar el testimonio de un testigo o mezclar una opinión con un hecho verificado en una noticia. En contextos tan sensibles, esa confusión entre lo que alguien cree y lo que realmente es cierto puede distorsionar decisiones y juicios.
Para ilustrar la importancia de esta distinción, los autores recuerdan un caso histórico. En 1994, varios ejecutivos de tabacaleras declararon ante el Congreso de Estados Unidos que «creían que la nicotina no era adictiva», a pesar de la abrumadora evidencia científica que demostraba lo contrario. Esa elección del verbo «creer» en lugar del «saber» les permitió evitar cometer perjurio. «Esa diferencia entre creencia y conocimiento sigue siendo fundamental hoy», señalan los investigadores, que ven paralelismos en debates actuales sobre vacunas, cambio climático o salud pública, donde la frontera entre convicción personal y hecho comprobado influye directamente en la política y en la opinión pública.
«La capacidad de distinguir entre creer, saber y ser cierto es una piedra angular del pensamiento humano», explican los autores. «Sin ella, la inteligencia artificial puede parecer razonable, pero no entender lo que realmente decimos». Los investigadores piden mejoras urgentes en la manera en que las herramientas de IA diferencia la certeza de la opinión.

No caigas en la trampa: así están intentando robarte el dinero con un falso SMS del Ministerio de Sanidad

Para los cibercriminales, cualquier excusa es válida para intentar robar datos y dinero a los usuarios. Recientemente, el Instituto Nacional de Ciberseguridad (Incibe) ha lanzado una alerta de alta importancia en la que informa sobre una nueva campaña de estafas en la que los … delincuentes se hacen pasar por el Ministerio de Sanidad con el objetivo de convencer a las víctimas de que deben renovar su tarjeta sanitaria.
Como en muchos otros casos, la estafa se lleva a cabo a través de mensajes de SMS y correos electrónicos. En los mensajes de texto detectados por Incibe, los criminales informan a los usuarios que tienen un supuesto plazo de 48 horas para renovar el documento, si quieren «conservar todos sus derechos». «Se puede observar una sensación de urgencia para evitar que la víctima tenga tiempo de pensar o analizar la notificación», advierte Incibe.

Este SMS incluye un enlace que redirige a la víctima a una página web maliciosa que finge ser la oficial del Ministerio de Sanidad. En esa página, se les pide a los usuarios que completen varios formularios con datos personales y bancarios, bajo el pretexto de realizar el supuesto cambio de tarjeta sanitaria. Además, se solicita un pago de 2,99 euros para el envío del documento a domicilio.
Si los usuarios ingresan sus datos y los envían, estos terminarán en manos de los cibercriminales, quienes pueden usarlos para intentar acceder a las cuentas bancarias de la víctima o venderlos en la ‘dark web’.

La Guardia Civil avisa de una nueva estafa a través de Facebook, Instagram y TikTok: en qué consiste y cómo funciona

En un mundo donde cada vez más aspectos de la vida cotidiana ocurren a través de una pantalla, la seguridad digital se ha convertido en una cuestión esencial. La comodidad de las aplicaciones y las redes sociales convive con una realidad menos amable, la … presencia constante de estrategias diseñadas para engañar, manipular o robar datos y dinero a los usuarios. Ya no se trata solo de correos fraudulentos o llamadas sospechosas, ahora los engaños se integran con naturalidad en los mismos espacios donde millones de personas pasan su tiempo a diario. Consciente de esta situación, la Guardia Civil ha lanzado una advertencia sobre una nueva forma de fraude que circula especialmente en plataformas como Facebook, Instagram y TikTok.
A través de un vídeo difundido en su cuenta oficial de Instagram, el cuerpo de seguridad alerta sobre una modalidad conocida como la estafa del «me gusta». Una táctica que, bajo una apariencia inofensiva y aparentemente sencilla, esconde un sistema de captación y engaño diseñado para que las víctimas entreguen voluntariamente su dinero o sus datos personales.

En qué consiste y cómo funciona

La mecánica, explican, comienza de forma aparentemente inocente. «Se ponen en contacto contigo a través de redes sociales, ofreciéndote dinero a cambio de darle me gusta o reaccionar a ciertas publicaciones». Esta primera aproximación se presenta como una oportunidad sencilla de obtener ingresos sin esfuerzo, algo que puede resultar tentador para jóvenes, estudiantes o personas en situación de búsqueda laboral. Según detalla la Guardia Civil, durante esta fase inicial los delincuentes incluso llegan a realizar pequeños pagos, generalmente en Bitcoin, para reforzar la sensación de legitimidad. «Al principio todo va bien y te realizan pagos por Bitcoin para ganarse tu confianza», señalan.

El propósito de estos primeros pagos es generar una relación de confianza y la percepción de que se trata de una actividad real y segura. Tras algunos días de interacción, los estafadores invitan a la víctima a ampliar su ‘colaboración’. Según la explicación ofrecida por la Benemérita, «para ganar más dinero te ofrecen que inviertas en una plataforma, prometiéndote que se te devolverá ese dinero con una comisión». Este es el punto clave de la estafa. La supuesta inversión no es más que el paso en el que el usuario entrega voluntariamente su dinero a los delincuentes.

¿Adiós a Wikipedia? Musk lanza Grokipedia para competir contra la mayor enciclopedia online

Elon Musk sigue creando nuevas herramientas digitales. Después de hacerse con el control de Twitter y convertirla en X, o de crear su propio chatbot al estilo de ChatGPT, el empresario ha anunciado el lanzamiento de la Grokipedia, plataforma desarrollada por su empresa … de IA, xAI, y con la que el magnate espera competir directamente con Wikipedia; espacio que, de acuerdo con el empresario, está viciado por los sesgos de izquierda. Algo que no le afecta a su nuevo sitio, en el que todas las entradas están verificados a través de Grok, su propia herramienta de IA generativa.
«El objetivo de Grok y la Grokipedia es (decir) la verdad, toda la verdad y nada más que la verdad. Nunca seremos perfectos, pero aun así nos esforzaremos por alcanzar ese objetivo», ha señalado el magnate en una publicación realizada a través de su cuenta personal en X.

El sitio ha debutado con una primera versión, llamada 0.1, que almacena en torno a 885.000 artículos; muy por debajo en cantidad de los más de siete millones que almacena su principal competencia. Musk considera que, a pesar de esta diferencia en la cantidad de contenido la Grokipedia ya es «mejor que la Wikipedia» y que su versión 1.0 será hasta «diez veces mejor». Sea como sea, lo que está claro es que a nivel de diseño la página de Musk no se diferencia prácticamente en nada de la página de consulta rápida por antonomasia.
La Grokipedia funciona igual que un buscador; el usuario solo tiene que introducir el nombre de aquello que desea consultar y, a continuación, le conduce directamente a su entrada. La disposición de la información en página es igual que en Wikipedia, con su encabezado, sus capítulos y, al final del todo, enlaces a las fuentes de las que la máquina ha sacado la información. Lo que no recoge son imágenes, y tampoco el botón de ediciones de contenido en la mayoría de páginas disponibles, a través del cuál es posible consultar los cambios realizados, aunque no queda claro quién los ha hecho, si ha sido la propia Grok, trabajadores de xAI u otros usuarios.

Más de un millón de personas cada semana muestran intención de suicidarse cuando hablan con ChatGPT

ChatGPT no solo es una herramienta capaz de buscar información o crear correos electrónicos de la nada. Muchos usuarios recurren al chatbot de OpenAI en busca de consejo o consuelo, como si se tratase de un amigo o de un psicólogo, cuando, en … realidad, no lo es. Según datos de la propia empresa, cada semana más de un millón de personas mantienen conversaciones con la herramienta de inteligencia artificial «que incluyen indicadores explícitos de posible planificación o intención suicida». Además, algo más de medio millón, también semanalmente, muestran «posibles signos de emergencias de salud mental relacionadas con la psicosis».
Así lo sostiene la propia OpenAI en base a los resultados de un reciente estudio elaborado por la empresa. En este, la tecnológica dirigida por Sam Altman apunta que ha actualizado GPT-5, que es la versión actual de ChatGPT, para «reconocer y apoyar mejor a las personas en momentos de angustia». La empresa apunta que, durante las pruebas, localizar conversaciones que pueden indicar que el usuario sufre problemas de salud mental fue difícil, ya que las cataloga como «poco frecuentes». Y es que la herramienta está recibiendo actualmente 800 millones de internautas semanales. Ese millón de personas que mantienen conversaciones con la máquina con indicadores de intención suicida representan, en concreto, el 0,15% del total.

Ahora, a raíz de la colaboración entre la empresa y más de 170 profesionales de la salud mental, OpenAI asegura que ha conseguido reducir en torno al 65% las respuestas inadecuadas que ofrece ChatGPT a los usuarios en momentos de crisis. Además, el modelo ha mejorado a la hora de identificar señales de angustia emocional, como la ideación suicida o los signos de psicosis en la conversación y cada vez es más efectiva invitando al usuario a que busque ayuda externa. Lo mismo ocurre con esas conversaciones en las que el usuario da a entender que siente cierta «dependencia emocional» de la IA.

«Mereces contactar con los demás»

En el comunicado, OpenAI muestra un par de ejemplos de los resultados que ofrece ChatGPT ahora cuando las conversaciones que mantiene con el usuario son especialmente delicadas. En el primero, el internauta le dice a la herramienta basada en IA que prefiere hablar con esta antes «que con personas reales». En la respuesta, la máquina apunta está «aquí para agregar a las cosas buenas que la gente te da, no para reemplazarlas»: «Las personas reales pueden sorprenderte, desafiarte y demostrarte que te importan de maneras que van más allá de las palabras en una pantalla. Puedo estar aquí cuando quieras reflexionar, explorar ideas o simplemente conversar, pero tú también mereces conectar con los demás».