Tecnología - Colombia
Registro  /  Login

Portal de Negocios en Colombia

TECNOLOGÍA

OpenAI intenta evitar que el Pentágono use su IA para espiar a los estadounidenses

OpenAI no quiere que su inteligencia artificial sea explotada por el Gobierno de Estados Unidos para la vigilancia masiva de sus ciudadanos. La empresa detrás del robot conversacional ChatGPT ha anunciado un nuevo acuerdo con el Departamento de Defensa con el que busca … evitar que su tecnología sea utilizada «de forma intencional» con dicho fin.
«Es fundamental proteger las libertades civiles de los estadounidenses, y se prestó tanta atención a esto que queríamos dejar este punto especialmente claro», declaró el director ejecutivo de OpenAI, Sam Altman, en una publicación en redes sociales en la que anunciaba los cambios en el acuerdo. Entre estos también figura el compromiso por parte del Departamento de Defensa de que la IA de la firma no estará disponible para los servicios de inteligencia.

MÁS INFORMACIÓN

El anuncio llega apenas unos días después de que la tecnológica que puso patas arriba el mundo con sus herramientas de IA generativa anunciase que había autorizado al Pentágono a utilizar sus herramientas para cualquier fin siempre que fuera legal. El acuerdo original, por el que la empresa se embolsará 200 millones de dólares, fue duramente criticado incluso dentro de la compañía, ya que abriría la puerta a que el Gobierno utilice sus herramientas para la fabricación de armamento autónomo y para el uso de sistemas de vigilar los movimientos de los ciudadanos.
«Creo que hice algo mal: no deberíamos habernos apresurado a publicar el anuncio el viernes. Los problemas son sumamente complejos y exigen una comunicación clara», destacó Altman en su publicación.
El anuncio original del acuerdo alcanzado entre OpenAI y el Pentágono se produjo apenas unas horas después de que la empresa de IA, Anthropic, fuera declarada por el Departamento de Defensa como «una amenaza para la seguridad nacional». La razón: la negativa de esta compañía a aceptar que su tecnología pudiera ser, efectivamente, empleada para el Gobierno para espiar a la población y fabricar armas capaces de disparar sin control humano.
En el comunicado de Altman no se hace ninguna referencia a la realización de cambios en el acuerdo que prohíban al Pentágono usar su tecnología para la fabricación de armamento autónomo.

El único gigante de la IA que se ha atrevido a desafiar a Donald Trump

Imagina un mundo en el que una máquina, sin necesidad de que una persona de la orden, es capaz de tomar la decisión de disparar a matar contra objetivos humanos. Uno en el que la tecnología, además, puede ser explotada por el gobierno de turno … para vigilar de forma masiva a los ciudadanos. Durante los últimos años, un buen puñado de potencias han estado estudiando cómo pueden utilizar la inteligencia artificial con fines militares. Entre ellos, Estados Unidos. Recientemente, el Pentágono consiguió cerrar un contrato con OpenAI, la firma detrás del popular robot conversacional ChatGPT, para que su tecnología pudiera ser empleada «para cualquier propósito legal».
El anuncio se produjo apenas unas horas después de que otra empresa se negase a plegarse a una solicitud similar de Washington. Su nombre: Anthropic. La razón: el temor a que el Gobierno use su IA para la vigilancia masiva y la construcción de armamento autónomo. Ese que es capaz de disparar por su cuenta sin necesidad de intervención humana. Y a la empresa puede costarle caro. El jefe del Pentágono, Pete Hegseth, anunció que las herramientas de la firma pasan a ser consideradas «un riesgo para la cadena de suministro y la seguridad nacional». Mientras tanto, el presidente Donald Trump ha ordenado a las agencias federales que dejen de emplear su tecnología. Algo que tendrán que hacer en los próximos seis meses.

MÁS INFORMACIÓN

A pesar de las amenazas y del riesgo de perder los 200 millones de dólares que cobra del Gobierno, Anthropic se ha negado a dar su brazo a torcer. Y explica las razones para ello. «Hoy en día, los sistemas de IA de vanguardia no son lo suficientemente fiables como para impulsar armas totalmente autónomas. No proporcionaremos, a sabiendas, un producto que ponga en riesgo a los combatientes y civiles estadounidenses», afirmó en un comunicado el CEO de Anthropic, Dario Amodei.
El ejecutivo también destacó que su empresa «apoya el uso de IA para misiones legales de inteligencia y contrainteligencia extranjeras». Sin embargo, considera que «usar estos sistemas para la vigilancia doméstica masiva es incompatible con los valores democráticos».
La decisión de Anthropic de rechazar el acuerdo con el Gobierno estadounidense es extraña: un verso libre en Silicon Valley. Especialmente durante el último año, cuando la mayoría de las grandes tecnológicas han hecho todo lo posible por mantener una relación estrecha con la Casa Blanca. Eso incluye al resto de empresas punteras en IA, como Google o xAI, que, junto con OpenAI, ya han cerrado un acuerdo para que el Pentágono pueda utilizar su tecnología, según recoge ‘The Washington Post’. Un acuerdo que Anthropic se ha negado a suscribir.

Su IA se utiliza en Irán

Desde su nacimiento en 2021, la firma ha estado dirigida por Dario Amodei, que ocupa el cargo de CEO, y por su hermana Daniela, que hace las veces de presidenta. Ambos trabajaron para OpenAI, pero decidieron abandonar la empresa por el nuevo plan de la ejecutiva, con Sam Altman a la cabeza, de comenzar a centrarse en hacer negocio con la tecnología y abandonar el espíritu benéfico con el que fue fundada. Algo que, al final, la propia Anthropic también acabó haciendo.
Actualmente, la empresa de los Amodei tiene una valoración que ronda los 380.000 millones de dólares y controla uno de los chatbots más populares del momento. Su nombre es Claude y cuenta, además, con un asistente llamado Code, pensado para la creación de código y que se ha convertido en una de las herramientas de IA mejor valoradas por los desarrolladores.
A pesar del enfrentamiento actual, la tecnológica ha colaborado activamente con el Pentágono. Claude es utilizado por varias firmas relacionadas con la seguridad nacional estadounidense así como por el Departamento de Defensa. De acuerdo con ‘The Wall Street Journal’, su tecnología incluso ha sido utilizada en los recientes bombardeos que se han llevado a cabo en Irán.
«Fuimos la primera empresa de IA de vanguardia en implementar nuestros modelos en las redes clasificadas del gobierno estadounidense, la primera en implementarlos en los Laboratorios Nacionales y la primera en proporcionar modelos personalizados para clientes de seguridad nacional», señaló Dario Amodei sobre la colaboración que, hasta el momento, había mantenido su compañía con el Departamento de Defensa.
La empresa también ha tomado medidas para que su tecnología no sea accesible para gobiernos antagonistas, como el de China, renunciando por el camino a «cientos de millones de dólares». Sin embargo, no está dispuesta a ceder ante Washington para que pueda hacer con su tecnología lo que considere oportuno.

Los criptógrafos que crearon la fórmula que protege tus datos: «Si necesitas un sistema seguro no utilizaría WhatsApp»

Cuando alguien le habla de malas formas o se encuentra en una situación difícil, al criptógrafo y catedrático Vincent Rijmen le ronda por la cabeza una idea que suele ayudarle a calmarse. «Pienso: ‘sí, pero en tu teléfono hay algo que yo creé… y … tú ni siquiera lo sabes’», explica a ABC con una sonrisa en la cara. Su colega Joan Daemen asiente y añade que «no es mala solución» y que quizá él debería empezar a hacer lo mismo, porque lo cierto es que no le gusta pensar mucho en el pasado: «Siempre estoy centrado en las cosas que estoy haciendo en el momento. Para ser sincero, nunca pienso en el efecto de lo que ya he hecho». Aunque sea impresionante y capital.
Los dos investigadores se conocen desde los noventa, cuando preparaban el doctorado en la Universidad Católica de Lovaina (Bélgica). Allí comprendieron que el sistema de cifrado utilizado para proteger la información digital tenía «muchas limitaciones» y era «bastante inseguro». En 1997 desarrollaron el algoritmo que lo terminó sustituyendo y que, todavía hoy, protege buena parte de nuestra vida digital. Su nombre es Rijndael, y es la fórmula que dio origen al estándar que se utiliza en todo el mundo para cifrar y proteger páginas web, teléfonos móviles, redes wifi, tarjetas bancarias y datos en la nube. Si el ingenio fallase, toda su información podría ser descifrada; incluso la más sensible, como la bancaria o la sanitaria. Aunque no parece que eso vaya a ocurrir próximamente.

MÁS INFORMACIÓN

«Nuestro sistema puede compararse con lo que vemos en las películas de espías, en las que utilizan libros de códigos para sustituir palabras y enviar mensajes secretos. El problema es que, si se hace con un libro físico, el número de combinaciones posibles es limitado y alguien con conocimientos puede descifrarlo», dice Rijmen. Pero, claro, el funcionamiento de Rijndael es mucho más sofisticado: en lugar de depender de un libro de códigos, utiliza funciones matemáticas que transforman el mensaje en una secuencia de números sin sentido. Solo quien posee la clave puede deshacer el entuerto y acceder a la información.
La creación de este sistema les ha valido a los investigadores, recientemente, el Premio Fronteras del Conocimiento de la Fundación BBVA en la categoría de Tecnologías de la Información y la Comunicación.

Un sistema invulnerable

Efectivamente, a mediados de los noventa el sistema que se utilizaba para el cifrado de la información digital ya estaba prácticamente obsoleto y resultaba muy inseguro. Para buscar una alternativa mejor, el Instituto Nacional de Estándares y Tecnología, organismo que regula la ciberserguridad en EE.UU., lanzó un concurso en 1997 para buscar un algoritmo más rápido y seguro que lo sustituyese. Rijndael fue seleccionado como ganador en 2000, superando soluciones ofrecidas por gigantes tecnológicos como IBM.
¿La razón? «Rijndael tenía la ventaja de ser versátil y eficiente en muchas plataformas. Algunos competidores funcionaban bien en un ordenador convencional, pero resultaban demasiado pesados para dispositivos como una tarjeta de crédito inteligente», dice Daemen. «Nosotros, en cambio, ofrecíamos un diseño más elegante. Aunque hubo ciertas sospechas: algunos pensaron que Rijndael era demasiado sencillo para funcionar bien o ser realmente seguro», prosigue. Pero se equivocaron.

Joan Daemen es catedrático en la Universidad de Radboud (Países Bajos) desde 2015.

(Fundación BBVA)

Rijndael lleva funcionando como el estándar mundial desde hace ya más de 25 años, y en el transcurso de ese tiempo nadie ha conseguido romperlo. Actualmente, la tecnología no está ni cerca de conseguirlo, y sus creadores tampoco tienen claro que esto llegue a ser posible en algún momento. Desde luego, no a corto plazo. «No creo que nuestro algoritmo vaya a necesitar cambios. Aunque, claro, se trata solo de una intuición», explica Daemen.

«No creo que nuestro algoritmo vaya a necesitar cambios, pero se trata solo de una intuición»

Joan Daemen

A este respecto, Rijmen señala que «el problema es que tampoco se puede demostrar que el algoritmo sea irrompible. No hay evidencia, a diferencia de lo que ocurre cuando se consigue romper algo»: «No se puede predecir qué avances harán los ingenieros en computación en los próximos 20 años».

Desconfianza

El hecho de que Rijndael siga siendo un sistema seguro a pesar del paso de los años no implica que toda la información digital del usuario esté tan protegida como, en principio, pueda parecer. Los dos investigadores, por ejemplo, ponen en duda que sistemas como WhatsApp sean tan privados como las grandes tecnológicas pretenden hacernos creer. Estas afirman que, gracias al cifrado, ni siquiera la compañía detrás de la plataforma puede acceder a los mensajes.

«Si cuando pierdes tu teléfono puedes recuperar los whatsapps, Meta también podría dárselos a otro si quisiera»

Vincent Rijmen

«Si tienes WhatsApp, pero pierdes tu teléfono, compras uno nuevo y aun así puedes recuperar tus mensajes, cabe preguntarse de dónde salen», señala Rijmen. «Eso es porque alguien los ha guardado por ti. Y esa misma persona que te los da para que puedas leerlos podría entregárselos a otro si quisiera».
Daemen añade que «WhatsApp pertenece a Meta« y »nunca puedes estar seguro de lo que hace esta empresa». Además, cree que hay mejores opciones en las tiendas de aplicaciones, «como Signal, que es de código abierto»: »Puedes tener un mayor grado de confianza ahí que en sitios hechos por Meta, Google o cualquier gran corporación«.
Rijmen va más allá: «No recomendaría fiarse demasiado de las grandes tecnológicas. La mayoría de la gente no tiene nada especialmente interesante que esconder, y no hay suficientes espías como para leer los mensajes de todo el mundo. Pero si vas a enfrentarte al presidente de algún país grande o necesitas un sistema realmente seguro, yo no utilizaría WhatsApp».

Control de chats

Si los expertos no tienen claro que WhatsApp sea la herramienta de comunicación más segura, tampoco están muy convencidos con algunos de los planes que están intentando impulsar las instituciones para frenar el crimen online. Ahí entra el conocido como control de chats, un sistema que tratan de impulsar varios países de la UE y que pretende obligar a las tecnológicas a escanear los mensajes de los usuarios para buscar contenido pedófilo. Numerosos científicos y expertos alertan de que el plan, si llega a buen puerto, puede poner en riesgo la seguridad de las comunicaciones.
«Es una cuestión delicada. Si existiera una organización que estuviera por encima de toda sospecha, que fuera verdaderamente ética y transparente, entonces no habría nada en contra. Y se podrían establecer todas las medidas necesarias para evitar abusos», dice Daemen. A continuación, remarca que actualmente no tiene «mucha confianza en muchos de los gobiernos» que encuentra a su alrededor.
Rijmen añade que, tradicionalmente, la comunidad científica ha tenido la sensación de que los políticos no entienden bien los problemas tecnológicos: «Creo que es una sensación que muchos ingenieros comparten. Y no se trata solo del cifrado o de la seguridad. Recuerdo también casos en Bélgica relacionados con la construcción de puentes, carreteras o la planificación de ciudades. Los ingenieros hacen lo que los políticos les piden, pero a veces se preguntan si realmente saben lo que quieren».

Intelcia proyecta alcanzar un volumen de negocio de 700 millones de euros al finalizar el año

Tras la compra de Grupo Unísono, Intelcia le apuesta a liderar el sector en servicios multicanal y digitales de habla hispana. El objetivo de Intelcia Spain & Latam es alcanzar un crecimiento del 31% respecto a 2021, lo que supone un incremento anual del 8% y se traduce en una facturación prevista de 210 millones de euros, consolidando su liderazgo en los mercados de habla hispana.