Anthropic Mythos y la IA aplicada a ciberataques
Hay anuncios de IA que suenan a producto y otros que, en realidad, adelantan un cambio de fase. Para mí, Anthropic Mythos pertenece al segundo grupo. No porque sea “otro modelo potente”, sino porque Anthropic lo ha presentado como una IA capaz de encontrar vulnerabilidades reales en software crítico y ayudar a convertirlas en explotación práctica. Precisamente por eso no la ha abierto al público: la mantiene en acceso restringido dentro de Project Glasswing, un programa pensado para actores defensivos y respaldado con financiación específica. Cuando una compañía decide no convertir una novedad en producto masivo y prefiere desplegarla en un entorno controlado, el riesgo ya no es teórico.
Mythos no es otro copiloto para programar
Anthropic define Mythos Preview como su modelo más capaz hasta la fecha para tareas de programación y agentes, y enlaza esa capacidad general con su rendimiento en ciberseguridad. En la documentación de Project Glasswing asegura que el modelo ya ha identificado miles de zero-days en infraestructura crítica, que seguirá en formato research preview y que el programa contará con hasta 100 millones de dólares en créditos de uso, además de 4 millones en donaciones para organizaciones de seguridad open source. Ese detalle importa mucho. No estamos ante una IA pensada solo para escribir funciones más deprisa o revisar código con más comodidad. Aquí el argumento central es otro: una IA que ya no se limita a asistir, sino que puede operar sobre problemas ofensivos y defensivos de bastante más nivel. El cambio, por tanto, no es comercial. Es estratégico.
El salto clave está en la autonomía
Lo delicado no es que Mythos encuentre fallos. Herramientas automáticas para eso ya existían. La diferencia está en la profundidad técnica y en la autonomía. En su writeup técnico, Anthropic explica que ha identificado miles de vulnerabilidades adicionales de alta severidad y publica casos en los que el modelo desarrolló exploits en horas que expertos humanos estimaban en semanas. Uno de los ejemplos más llamativos describe cómo Mythos identificó y explotó de forma completamente autónoma una vulnerabilidad de ejecución remota en FreeBSD. Ahí está, para mí, el verdadero punto de inflexión: cuando una IA no solo detecta una debilidad, sino que encadena pasos útiles para convertirla en una intrusión viable, el cuello de botella del atacante se reduce muchísimo. Y si se reduce para el atacante, también se reduce el margen de reacción del defensor.
Por qué bancos y gobiernos se han puesto en guardia
La reacción de estos días ayuda a medir la magnitud del asunto. El BCE está preparando preguntas a los bancos supervisados sobre los riesgos que plantea Mythos, en especial por su capacidad para identificar y explotar vulnerabilidades en sistemas bancarios heredados. En Estados Unidos, la Casa Blanca se reunió con Dario Amodei para hablar de cooperación en ciberseguridad y seguridad de IA. Y no estamos hablando de un debate académico: Barclays ya ha avisado de que el modelo es una amenaza seria y de que, después de Mythos, vendrán otros equivalentes o más potentes con frecuencia creciente. Esa combinación de banca, supervisores y Casa Blanca mirando al mismo tiempo en la misma dirección deja una conclusión bastante clara: el riesgo percibido no está en el largo plazo, sino en el presente inmediato.
En Europa el debate es regulatorio
Pero esto ya no va solo de capacidad técnica, sino de gobernanza. La Comisión Europea confirmó el 17 de abril de 2026 que está en conversaciones con Anthropic sobre sus modelos, incluidos los de ciberseguridad, que todavía no están disponibles en la UE, y recordó que la empresa se ha comprometido con el código europeo de buenas prácticas para modelos GPAI. Ese código está pensado para ayudar a cumplir las obligaciones del AI Act en materias como transparencia, seguridad y gestión del riesgo. En otras palabras: Bruselas ya no trata esta clase de capacidades como una hipótesis futurista. Las encaja dentro del perímetro regulatorio que está construyendo para la IA avanzada. De hecho, esto conecta muy bien con lo que ya comenté en Tecnoic al hablar de “EU AI Act: La cuenta atrás normativa para la IA europea” y de “NIS2 en España: qué empresas deben prepararse ya…”, porque aquí la frontera entre IA, riesgo sistémico y ciberseguridad corporativa ya se ha vuelto muy fina.
Lo que cambia de verdad para la ciberseguridad
Mythos importa menos como producto concreto que como prueba de que la ciberseguridad entra de lleno en una fase agentic. Modelos que inspeccionan repositorios, iteran hipótesis, priorizan hallazgos y generan resultados operativos ya no son una idea de laboratorio. Glasswing ya reúne a grandes actores tecnológicos y financieros, y Anthropic ha extendido el acceso a más de 40 organizaciones vinculadas a software e infraestructura crítica. La lectura optimista es obvia: dar ventaja a defensores y mantenedores antes de que estas capacidades se difundan más. La incómoda también: esa ventaja probablemente será temporal. Si modelos equivalentes terminan llegando a más actores, la diferencia real no estará en “tener IA”, sino en quién tenga mejor inventario de activos, menos deuda técnica, mejores tiempos de parcheo y una gobernanza más seria sobre el uso de estas herramientas. Ahí se va a decidir buena parte de la siguiente carrera defensiva.
En resumen, Anthropic Mythos no importa solo por lo que hace hoy, sino por lo que adelanta sobre mañana: la IA empieza a operar con lógica de atacante y eso cambia el ritmo de la defensa. Es una llamada a revisar ya la preparación técnica y regulatoria, no cuando estos modelos se normalicen. ¿Creéis que herramientas así darán ventaja real a los defensores o acabarán nivelando el campo para ambos lados? Os leo en comentarios.