La IA que podría hackear el mundo: qué es Claude Mythos y por qué está generando miedo global - Colombia
Registro  /  Login

Portal de Negocios en Colombia


La IA que podría hackear el mundo: qué es Claude Mythos y por qué está generando miedo global

Imagina que existe un súper cerebro capaz de revisar y analizar todos los principales sistemas operativos y navegadores web que existe en el ecosistema tech y encontrar en ellos vulnerabilidades de alta gravedad. Es decir: una herramienta que identifica peligros en casi cualquier rincón digital.Eso es precisamente lo que Anthropic asegura haber conseguido con Claude Mythos Preview, un modelo de inteligencia artificial de propósito general aún no publicado.“Los modelos de IA han alcanzado un nivel de capacidad de programación que les permite superar a todos, excepto a los humanos más expertos, en la detección y explotación de vulnerabilidades de software. Mythos Preview ya ha detectado miles de vulnerabilidades de alta gravedad, incluyendo algunas en todos los principales sistemas operativos y navegadores web”, explica Anthropic en su web.La preocupación de la compañía tiene que ver con el alcance que estas tecnologías de vanguardia pueden tener: “Dado el ritmo de avance de la IA, no pasará mucho tiempo antes de que estas capacidades se extiendan, posiblemente más allá de los actores comprometidos con su implementación segura. Las consecuencias —para la economía, la seguridad pública y la seguridad nacional— podrían ser graves”. Es decir: en malas manos, un modelo de inteligencia artificial como Claude Mythos sería una ciberarma mortal.Con el fin de contener, al menos de momento, el fin del mundo, Anthropic presentó el Proyecto Glasswing, “una iniciativa para proteger el software más crítico del mundo en la era de la IA”. “Nos asociamos con las organizaciones responsables de la infraestructura de la que dependen miles de millones de personas y brindamos a sus defensores una ventaja inicial con nuestro nuevo modelo de vanguardia, Claude Mythos Preview”, señala la compañía de Dario Amodei.Concretamente, el Proyecto Glasswing reúne a Amazon Web Services, Anthropic, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorgan Chase, la Fundación Linux, Microsoft, NVIDIA y Palo Alto Networks como socios de lanzamiento. Prácticamente todas las Big Tech unidas en una misma lucha.Todo esto, ¿qué significa?Anthropic lo explica bien: “El software del que todos dependemos a diario —responsable del funcionamiento de los sistemas bancarios, el almacenamiento de historiales médicos, la interconexión de redes logísticas, el mantenimiento de las redes eléctricas y mucho más— siempre ha contenido errores. Muchos son menores, pero algunos son fallos de seguridad graves que, de descubrirse, podrían permitir a los ciberdelincuentes secuestrar sistemas, interrumpir operaciones o robar datos”.La compañía incluso se atreve a dar una cifra del daño económico global que supone el cibercrimen, valorándolo en toro a los 500.000 millones de dólares anuales.“Muchos fallos en el software pasan desapercibidas durante años porque su detección y explotación requerían conocimientos especializados de un número reducido de expertos en seguridad. Con los modelos de IA de última generación, el coste, el esfuerzo y el nivel de experiencia necesarios para encontrar y explotar vulnerabilidades de software se han reducido drásticamente”, destacan desde Anthropic. Claude Mythos Preview ha detectado vulnerabilidades que habían sobrevivido, en algunos casos, “a décadas de revisión humana y millones de pruebas de seguridad automatizadas”.Si una tecnología como esta se usara con mala intención, esos mismos fallos que detecta, en lugar de corregirse, se podrían aprovechar. Es decir: “Sin las salvaguardias necesarias, estas potentes capacidades cibernéticas podrían utilizarse para explotar los numerosos defectos existentes en el software más importante del mundo”.Por este motivo, Anthropic mantiene un acceso reducido a Mythos, compartiendo el modelo, además de con los socios fundadores, con un grupo de unas 40 organizaciones “que desarrollan o mantienen infraestructura de software crítica”. Esta cautela ha sido valorada positivamente por muchos expertos, pero al mismo tiempo han señalado la falta de coordinación internacional para gestionar una tecnología con implicaciones potencialmente globales.Porque Claude Mythos puede convertirse en una especie de ‘IA experta en ciberseguridad’, capaz de analizar sistemas complejos y encontrar vulnerabilidades antes de que lo hagan los atacantes. Y, al menos en algunos casos, parece que lo está consiguiendo: la propia organización detrás de Mozilla Firefox ha reconocido que, gracias al uso de este modelo, ha sido capaz de detectar cientos de vulnerabilidades —algunas de ellas inéditas y otras variaciones de fallos existentes— que habían pasado desapercibidas para sus equipos humanos.Confiar en lo que Anthropic aseguraEl problema es que el potencial de Mythos no está al alcance de cualquiera. La compañía ha dejado claro que no tiene un calendario definido para abrir el acceso al modelo y que, por ahora, su despliegue seguirá siendo muy limitado. De hecho, asegura haber recibido peticiones constantes de gobiernos, empresas y organizaciones interesadas en utilizarlo, pero advierte de que no todos cuentan con la experiencia necesaria para manejar una herramienta de este calibre sin riesgos.Según distintas fuentes, la Comisión Europea se ha reunido en varias ocasiones con Anthropic desde el lanzamiento de Mythos, pero todavía no ha logrado acceder al modelo. El motivo: la falta de acuerdo sobre cómo compartir una tecnología tan sensible sin comprometer su seguridad.En paralelo, el temor se ha extendido a otros ámbitos. Algunos ministros de finanzas, banqueros centrales y responsables del sistema financiero han expresado su inquietud por el impacto que una herramienta así podría tener en infraestructuras críticas. La preocupación no es menor: si una IA es capaz de encontrar fallos con rapidez y precisión, también podría acelerar —y escalar— ataques contra sistemas clave para la economía global.Sin embargo, es un acto de fe ciega, ya que todavía no hay suficiente información independiente para evaluar su verdadero poder. Las capacidades que describe Anthropic son, sobre el papel, extraordinarias. Pero sin acceso al modelo, resulta difícil verificar hasta qué punto esas afirmaciones reflejan un salto real o forman parte del relato.De hecho, algunas voces críticas ya han empezado a poner ese discurso en cuestión, argumentando que en algunos casos los resultados pueden estar influidos por cómo se han diseñado las pruebas o por el contexto en el que se han evaluado. También hay quien apunta a una estrategia conocida en la industria tecnológica: generar FUD (miedo, incertidumbre y duda) para reforzar la percepción de que se está ante una tecnología excepcional.Tenga el resultado final que tenga, conviene no perder la perspectiva. Organismos como el Centro Nacional de Seguridad Cibernética insisten en que, más allá de estos avances, la mayoría de los ataques actuales siguen aprovechando fallos básicos: contraseñas débiles, sistemas sin actualizar o errores de configuración.Es decir, incluso en un escenario donde la IA gana protagonismo, la ciberseguridad sigue estando marcada en gran medida por prácticas fundamentales que dependen principalmente de la atención que pongamos el común de los mortales en proteger nuestros datos.

Publicado: abril 27, 2026, 12:00 pm

La fuente de la noticia es https://www.20minutos.es/tecnologia/inteligencia-artificial/ia-hackear-mundo-claude-mythos-anthropic-miedo-global_6963296_0.html

Imagina que existe un súper cerebro capaz de revisar y analizar todos los principales sistemas operativos y navegadores web que existe en el ecosistema tech y encontrar en ellos vulnerabilidades de alta gravedad. Es decir: una herramienta que identifica peligros en casi cualquier rincón digital.

Eso es precisamente lo que Anthropic asegura haber conseguido con Claude Mythos Preview, un modelo de inteligencia artificial de propósito general aún no publicado.

“Los modelos de IA han alcanzado un nivel de capacidad de programación que les permite superar a todos, excepto a los humanos más expertos, en la detección y explotación de vulnerabilidades de software. Mythos Preview ya ha detectado miles de vulnerabilidades de alta gravedad, incluyendo algunas en todos los principales sistemas operativos y navegadores web”, explica Anthropic en su web.

La preocupación de la compañía tiene que ver con el alcance que estas tecnologías de vanguardia pueden tener: “Dado el ritmo de avance de la IA, no pasará mucho tiempo antes de que estas capacidades se extiendan, posiblemente más allá de los actores comprometidos con su implementación segura. Las consecuencias —para la economía, la seguridad pública y la seguridad nacional— podrían ser graves”. Es decir: en malas manos, un modelo de inteligencia artificial como Claude Mythos sería una ciberarma mortal.

Con el fin de contener, al menos de momento, el fin del mundo, Anthropic presentó el Proyecto Glasswing, “una iniciativa para proteger el software más crítico del mundo en la era de la IA”. “Nos asociamos con las organizaciones responsables de la infraestructura de la que dependen miles de millones de personas y brindamos a sus defensores una ventaja inicial con nuestro nuevo modelo de vanguardia, Claude Mythos Preview”, señala la compañía de Dario Amodei.

Concretamente, el Proyecto Glasswing reúne a Amazon Web Services, Anthropic, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorgan Chase, la Fundación Linux, Microsoft, NVIDIA y Palo Alto Networks como socios de lanzamiento. Prácticamente todas las Big Tech unidas en una misma lucha.

Todo esto, ¿qué significa?

Anthropic lo explica bien: “El software del que todos dependemos a diario —responsable del funcionamiento de los sistemas bancarios, el almacenamiento de historiales médicos, la interconexión de redes logísticas, el mantenimiento de las redes eléctricas y mucho más— siempre ha contenido errores. Muchos son menores, pero algunos son fallos de seguridad graves que, de descubrirse, podrían permitir a los ciberdelincuentes secuestrar sistemas, interrumpir operaciones o robar datos”.

La compañía incluso se atreve a dar una cifra del daño económico global que supone el cibercrimen, valorándolo en toro a los 500.000 millones de dólares anuales.

“Muchos fallos en el software pasan desapercibidas durante años porque su detección y explotación requerían conocimientos especializados de un número reducido de expertos en seguridad. Con los modelos de IA de última generación, el coste, el esfuerzo y el nivel de experiencia necesarios para encontrar y explotar vulnerabilidades de software se han reducido drásticamente”, destacan desde Anthropic. Claude Mythos Preview ha detectado vulnerabilidades que habían sobrevivido, en algunos casos, “a décadas de revisión humana y millones de pruebas de seguridad automatizadas”.

Si una tecnología como esta se usara con mala intención, esos mismos fallos que detecta, en lugar de corregirse, se podrían aprovechar. Es decir: “Sin las salvaguardias necesarias, estas potentes capacidades cibernéticas podrían utilizarse para explotar los numerosos defectos existentes en el software más importante del mundo”.

Por este motivo, Anthropic mantiene un acceso reducido a Mythos, compartiendo el modelo, además de con los socios fundadores, con un grupo de unas 40 organizaciones “que desarrollan o mantienen infraestructura de software crítica”. Esta cautela ha sido valorada positivamente por muchos expertos, pero al mismo tiempo han señalado la falta de coordinación internacional para gestionar una tecnología con implicaciones potencialmente globales.

Porque Claude Mythos puede convertirse en una especie de ‘IA experta en ciberseguridad’, capaz de analizar sistemas complejos y encontrar vulnerabilidades antes de que lo hagan los atacantes. Y, al menos en algunos casos, parece que lo está consiguiendo: la propia organización detrás de Mozilla Firefox ha reconocido que, gracias al uso de este modelo, ha sido capaz de detectar cientos de vulnerabilidades —algunas de ellas inéditas y otras variaciones de fallos existentes— que habían pasado desapercibidas para sus equipos humanos.

Confiar en lo que Anthropic asegura

El problema es que el potencial de Mythos no está al alcance de cualquiera. La compañía ha dejado claro que no tiene un calendario definido para abrir el acceso al modelo y que, por ahora, su despliegue seguirá siendo muy limitado. De hecho, asegura haber recibido peticiones constantes de gobiernos, empresas y organizaciones interesadas en utilizarlo, pero advierte de que no todos cuentan con la experiencia necesaria para manejar una herramienta de este calibre sin riesgos.

Según distintas fuentes, la Comisión Europea se ha reunido en varias ocasiones con Anthropic desde el lanzamiento de Mythos, pero todavía no ha logrado acceder al modelo. El motivo: la falta de acuerdo sobre cómo compartir una tecnología tan sensible sin comprometer su seguridad.

En paralelo, el temor se ha extendido a otros ámbitos. Algunos ministros de finanzas, banqueros centrales y responsables del sistema financiero han expresado su inquietud por el impacto que una herramienta así podría tener en infraestructuras críticas. La preocupación no es menor: si una IA es capaz de encontrar fallos con rapidez y precisión, también podría acelerar —y escalar— ataques contra sistemas clave para la economía global.

Sin embargo, es un acto de fe ciega, ya que todavía no hay suficiente información independiente para evaluar su verdadero poder. Las capacidades que describe Anthropic son, sobre el papel, extraordinarias. Pero sin acceso al modelo, resulta difícil verificar hasta qué punto esas afirmaciones reflejan un salto real o forman parte del relato.

De hecho, algunas voces críticas ya han empezado a poner ese discurso en cuestión, argumentando que en algunos casos los resultados pueden estar influidos por cómo se han diseñado las pruebas o por el contexto en el que se han evaluado. También hay quien apunta a una estrategia conocida en la industria tecnológica: generar FUD (miedo, incertidumbre y duda) para reforzar la percepción de que se está ante una tecnología excepcional.

Tenga el resultado final que tenga, conviene no perder la perspectiva. Organismos como el Centro Nacional de Seguridad Cibernética insisten en que, más allá de estos avances, la mayoría de los ataques actuales siguen aprovechando fallos básicos: contraseñas débiles, sistemas sin actualizar o errores de configuración.

Es decir, incluso en un escenario donde la IA gana protagonismo, la ciberseguridad sigue estando marcada en gran medida por prácticas fundamentales que dependen principalmente de la atención que pongamos el común de los mortales en proteger nuestros datos.

Artículos Relacionados