Publicado: abril 28, 2026, 11:00 am
En la historia de la técnica hay innovaciones que no añaden simplemente una función nueva, sino que alteran la gramática entera con la que comprendíamos el mundo; no entran al mundo como artefactos, sino como presagios. No agregan una función al repertorio técnico de la época; alteran la gramática desde la cual una civilización comprende el poder, la seguridad, la confianza y el riesgo. Durante los últimos años, aprendimos a tratar con la inteligencia artificial como quien conversa con una biblioteca despierta: le preguntamos, le pedimos, le confiamos textos, imágenes, diagnósticos, planes, códigos, consuelos y simulacros de futuro. Pero el umbral que hoy se abre es más inquietante. La IA empieza a dejar de ser una máquina que responde para convertirse en una infraestructura que actúa; deja de ocupar el escritorio simbólico del asistente y comienza a instalarse en la sala de máquinas donde se resguarda, se vulnera o se administra el mundo.
El caso de Claude Mythos Preview, anunciado por Anthropic dentro de Project Glasswing el 7 de abril de 2026, condensa esta mutación civilizatoria. Anthropic lo presentó como un modelo de frontera no liberado al público general, integrado a una iniciativa para asegurar software crítico con socios como AWS, Apple, Cisco, Google, JPMorganChase, Microsoft, NVIDIA, The Linux Foundation y Palo Alto Networks. La compañía afirma que Mythos ha identificado miles de vulnerabilidades de alta severidad, incluso en sistemas operativos y navegadores mayores, y sostiene que sus capacidades pueden superar a casi todos los humanos, salvo a los especialistas más avanzados, en la detección y explotación de fallas de software. No se trata ya de una IA que redacta mejores correos o resume documentos: se trata de una IA que explora las grietas de la infraestructura digital donde se sostiene la economía, la banca, la logística, la seguridad pública y la vida cotidiana.
La novedad no es meramente técnica. Es política. Langdon Winner, en su artículo Do artifacts have politics?, advertía que los artefactos pueden contener formas de orden social, distribuir autoridad, abrir o cerrar posibilidades de acción. Mythosvuelve esa intuición brutalmente visible: quien controla la IA capaz de encontrar vulnerabilidades controla también una parte decisiva del mapa de fragilidad del mundo. La seguridad deja de ser únicamente defensa; se convierte en conocimiento privilegiado sobre dónde puede romperse una sociedad. Allí reside la paradoja: el mismo instrumento que puede fortalecer a los defensores puede acelerar la capacidad de los atacantes. El Foro Económico Mundial advertía en su Global Cybersecurity Outlook 2026 que la IA transforma simultáneamente la defensa y la ofensiva, mientras 94% de los encuestados la identifican como el principal factor de cambio en ciberseguridad y 87% señalan las vulnerabilidades vinculadas con IA como el riesgo cibernético de crecimiento más acelerado.
El gesto de Anthropic es, por ello, ambiguo. Al restringir Mythos y canalizarlo mediante Project Glasswing, la empresa parece asumir una ética de contención: no todo lo técnicamente posible debe democratizarse de inmediato. Su Responsible Scaling Policy, actualizada a la versión 3.1 el 2 de abril de 2026, muestra una lógica de umbrales, salvaguardas y escalamiento condicionado. Sin embargo, esa prudencia también concentra poder. Decidir quién accede a una capacidad crítica, bajo qué condiciones, con qué fines y en qué territorios, no es un detalle administrativo. Es una forma de soberanía algorítmica. La ética, cuando se administra desde la infraestructura privada, corre el riesgo de convertirse en una tecnología de selección.
Michel Foucault comprendió que la seguridad moderna no opera sólo prohibiendo, sino gestionando circulaciones, probabilidades, amenazas y poblaciones. En la era de Mythos, esa racionalidad se desplaza al código. La nueva gubernamentalidad no se limita a vigilar ciudadanos; vigila dependencias de software, librerías abiertas, sistemas heredados, credenciales, identidades no humanas, cadenas de suministro y arquitecturas invisibles. IBM reportó en 2025 que el costo promedio global de una brecha de datos fue de 4.4 millones de dólares, que 63% de las organizaciones carecía de políticas de gobernanza de IA y que 97% de las organizaciones con incidentes de seguridad relacionados con IA no tenía controles adecuados de acceso. La vulnerabilidad ya no está sólo en el malware; está en la prisa, en la ausencia de gobierno, en la fe empresarial de que adoptar rápido equivale a avanzar bien.
Por eso Mythos debe leerse como síntoma de una transición mayor: de la IA generativa a la IA agéntica; de la IA agéntica a la IA infrastructural; de la IA infrastructural a la IA custodial. Primero aprendimos a producir contenidos con máquinas; después, a delegar tareas; ahora comenzamos a pedirles que detecten fracturas sistémicas antes de que el daño ocurra. La pregunta de fondo no es si la IA podrá proteger bancos, hospitales, universidades, gobiernos o redes energéticas. La pregunta es qué antropología quedará inscrita en esos sistemas protectores. ¿Protegerán la vida humana o protegerán únicamente la continuidad operativa del mercado? ¿Defenderán comunidades o defenderán activos? ¿Resguardarán la dignidad o sólo la disponibilidad del servicio?
Bruno Latour insistía en que los no humanos participan en la constitución de lo social, no como objetos pasivos, sino como mediadores que modifican cursos de acción. La IA confirma esa tesis en escala planetaria. Mythos no es sólo una herramienta en manos humanas; es un mediador capaz de reorganizar alianzas entre corporaciones, Estados, reguladores, bancos y comunidades técnicas. Reuters informó que bancos y reguladores comenzaron a revisar sus implicaciones por el riesgo de que una capacidad así introduzca asimetrías competitivas y nuevas amenazas para infraestructuras financieras complejas. El hecho económico central no es que la IA reduzca costos; es que redistribuye ventajas, visibilidad y capacidad anticipatoria entre quienes pueden acceder a ella y quienes quedan fuera.
El AI Index 2026 de Stanford ofrece el telón de fondo: la capacidad de la IA no se está estancando; se acelera. En 2025, la industria produjo más de 90% de los modelos frontera notables, la adopción organizacional llegó a 88% y el desempeño en SWE-bench Verified pasó de 60% a casi 100% en un año. La infraestructura cognitiva de la humanidad está siendo impulsada, financiada y orientada por actores corporativos que avanzan más rápido que los marcos normativos, pedagógicos y democráticos. La brecha ya no es sólo entre conectados y desconectados, sino entre quienes pueden convertir la inteligencia artificial en poder operativo y quienes apenas la consumen como interfaz.
La dimensión espiritual de este fenómeno aparece precisamente allí donde el lenguaje técnico se vuelve insuficiente. Custodiar no es únicamente proteger activos; custodiar es responder por aquello que puede perderse. En la tradición humanista, la custodia supone cuidado, límite, responsabilidad, humildad ante lo vulnerable. Una IA que descubre grietas puede volverse ángel o depredador según el régimen moral que la gobierne. Hannah Arendt distinguía entre labor, trabajo y acción para recordar que la condición humana no se agota en producir ni fabricar, sino en comparecer ante otros en un mundo común. Si la IA comienza a administrar las condiciones de seguridad de ese mundo común, entonces no basta con preguntarle qué puede hacer. Hay que preguntarle, más bien, qué mundo deja posible después de actuar.
Mythos nos coloca frente a una frontera incómoda: la inteligencia artificial ya no sólo amplifica nuestras palabras; amplifica nuestras decisiones sobre quién merece resguardo, quién queda expuesto, quién recibe acceso anticipado y quién habita la intemperie digital. El futuro no se jugará únicamente en la potencia de los modelos, sino en la arquitectura moral de sus permisos. Allí donde el código encuentre una grieta, habrá también una pregunta humana esperando ser respondida: ¿la cerramos para cuidar la casa común o la usamos para recordar, una vez más, que confundimos inteligencia con dominio?
