Síguenos

Tecnología

¿Por qué Anthropic oculta Claude Mythos al público?

Publicado

el

Anthropic oculta Claude Mythos

Anthropic encierra Claude Mythos tras detectar un salto inquietante en hackeo, banca y seguridad; una decisión que cambia el tablero digital.

Anthropic ha hecho algo poco habitual incluso para una industria que vive de anunciar prodigios cada trimestre: presentar uno de sus modelos más avanzados y, al mismo tiempo, cerrarle la puerta al gran público. Claude Mythos Preview no se ha lanzado en abierto porque la propia compañía considera que su capacidad para encontrar fallos de seguridad en sistemas reales y trabajar sobre ellos va bastante más allá de la mejora incremental que el sector llevaba meses vendiendo como si cada versión nueva fuese el inicio de otra era. No es solo un modelo que programa mejor, responde más deprisa o se mueve con soltura entre tareas complejas. Es un sistema que Anthropic describe como especialmente potente en ciberseguridad ofensiva y defensiva, hasta el punto de tratarlo como un riesgo global si cae en manos inadecuadas.

Ese es el centro de la noticia. No Mythos como producto vistoso, sino Mythos como herramienta demasiado afilada para una salida abierta. En lugar de publicarlo como quien lanza una nueva app, Anthropic ha optado por un acceso restringido mediante el llamado Proyecto Glasswing, un programa limitado a grandes organizaciones tecnológicas, financieras y de ciberseguridad. La intención oficial es usar esa potencia para detectar y corregir vulnerabilidades críticas antes de que las encuentren actores maliciosos. Suena noble, desde luego. También revela otra cosa: que la propia empresa cree que ha cruzado una frontera incómoda. Una frontera donde la inteligencia artificial deja de ser solo una palanca de productividad y empieza a parecerse a una ganzúa sofisticada con manual propio.

El movimiento tiene una fuerza simbólica enorme porque desplaza el debate. Hasta hace nada, la conversación pública sobre IA se enredaba entre asistentes, redacción automática, productividad de oficina, sesgos, copyright y esa liturgia ya cansina de prometer que la próxima versión “cambiará todo”. Con Mythos, el foco se mueve a un terreno mucho menos decorativo: la fragilidad estructural de internet. Si un modelo puede leer código a escala, comprender sistemas complejos, detectar grietas antiguas y encadenar acciones con bastante autonomía, el problema ya no es qué puede hacer por una empresa, sino qué puede hacerle al andamiaje digital del que dependen bancos, administraciones, redes, nubes y servicios básicos.

Hay, además, un pequeño detalle que vuelve la historia bastante más seria de lo que parece en una primera lectura. Anthropic no ha presentado Mythos como una promesa de futuro, sino como una capacidad actual que ya habría detectado vulnerabilidades inéditas en software muy usado. Algunas, según la compañía, llevaban años —en un par de casos, décadas— sin ser descubiertas por revisiones humanas ni por herramientas automáticas de análisis. Ahí cambia el tono. Ya no estamos ante la clásica exageración de Silicon Valley, esa que suele inflar una mejora y venderla como una epifanía. Aquí lo inquietante es justo lo contrario: que, por una vez, el gesto prudente del fabricante resulta más llamativo que el gesto comercial.

No es un lanzamiento, es una cuarentena digital

Anthropic presentó Mythos como su modelo más capaz hasta ahora para programación y tareas agentivas, es decir, trabajos encadenados en los que el sistema no se limita a contestar una orden, sino que puede ejecutar pasos sucesivos, revisar resultados, corregirse y perseguir un objetivo técnico con bastante consistencia. La empresa dejó claro desde el principio que no habría acceso general. No porque faltase pulido, no porque el producto estuviera verde, no porque el calendario de salida se retrasase. No hay acceso abierto porque la compañía no quiere ponerlo ahí fuera.

Ese matiz lo cambia todo. En otros lanzamientos recientes, el patrón habitual consistía en presumir de capacidad y luego confiar en filtros, términos de uso y un cierto optimismo corporativo según el cual los malos no encontrarían la forma de torcer la herramienta. Aquí el razonamiento es justo el contrario. Anthropic parte de la idea de que un sistema con este salto en capacidades de ciberseguridad no puede tratarse como una versión más de un asistente generalista. El mensaje de fondo es diáfano: hay modelos que todavía caben en el escaparate y hay modelos que ya no.

La decisión tiene también un punto de confesión tácita. Cuando una empresa tecnológica admite que su modelo puede resultar demasiado útil para tareas de intrusión o descubrimiento de fallos graves, lo que está diciendo, en realidad, es que la barrera entre investigación legítima y capacidad ofensiva se ha vuelto muy fina. En seguridad informática esa frontera siempre ha sido ambigua. Las mismas herramientas que sirven para auditar, endurecer y defender sirven también para atacar. Un escáner de vulnerabilidades no tiene moral; la moral la pone quien lo maneja. Con Mythos, Anthropic parece asumir que el problema ya no es solo quién lo usa, sino cuánto reduce el umbral técnico necesario para hacer daño.

De fondo hay otra intuición menos visible y quizá más perturbadora. Durante años se ha asumido que el software crítico, sobre todo el más veterano y revisado, había sido ya bastante peinado por expertos, herramientas automáticas y comunidades enteras de desarrolladores. Siempre quedaban fallos, claro, pero el terreno parecía más o menos conocido. Mythos introduce una sospecha muy incómoda: que el código acumulado del mundo puede ser mucho más legible para una IA avanzada que para la suma cansada, fragmentaria y limitada de muchos equipos humanos. Y si eso es así, una parte de la seguridad moderna estaba descansando sobre una ilusión bastante frágil.

Qué ha visto Anthropic dentro de Mythos

Según la propia compañía, Mythos ha demostrado durante las pruebas internas una capacidad autónoma para encontrar vulnerabilidades en los principales sistemas operativos y navegadores web actuales. No se habla solo de señalar posibles errores o patrones sospechosos, como hacen algunas herramientas de análisis estático. Lo que Anthropic sugiere es algo más serio: detección de fallos inéditos, razonamiento técnico sobre esos fallos y, en ciertos casos, capacidad para construir cadenas de explotación funcionales.

Ese es el verdadero salto. Una herramienta tradicional puede advertir que “aquí podría haber un problema”; un investigador experto puede confirmar si lo hay, medir el impacto, entender las condiciones y, si procede, demostrar que existe una vía de explotación. Lo que vuelve inquietante a Mythos es que comprime parte de ese proceso. No elimina la necesidad de supervisión humana, ni convierte la seguridad en un acto automático, pero sí parece reducir de forma notable el tiempo y la especialización necesarios para llegar hasta puntos que antes exigían muchas horas de análisis y bastante intuición técnica. Y la intuición, en seguridad, vale oro.

Anthropic ha señalado además que gran parte de las vulnerabilidades detectadas por el modelo no pueden detallarse todavía porque siguen sin parchear. Esa sola afirmación da la medida del problema. Significa que el modelo ya habría visto demasiado y que una porción de lo visto continúa viva, latente, incrustada en infraestructuras reales. En otras palabras: la empresa no solo presume de capacidad, sino que admite que no puede contarlo todo sin aumentar el riesgo. No es una forma habitual de vender tecnología. Más bien parece una nota de contención redactada con la cara seria.

Los datos de rendimiento difundidos alrededor de Mythos también han alimentado la sensación de ruptura. En pruebas ligadas a programación y razonamiento matemático, el modelo habría alcanzado niveles extraordinariamente altos, muy por encima de lo que se consideraba puntero hace solo unos meses. Eso ha reforzado la idea de que el avance no es meramente cuantitativo, un poquito mejor aquí, otro poquito allá, sino cualitativo. Un cambio de comportamiento. Un sistema que no solo responde mejor, sino que entiende mejor el software y sus puntos débiles.

OpenBSD y FFmpeg, dos grietas con olor a sótano antiguo

Los ejemplos que más han impactado son precisamente los más simbólicos. Uno afecta a OpenBSD, un sistema con fama de disciplinado, austero y obsesionado con la seguridad. Mythos habría localizado allí una vulnerabilidad asociada a una mejora del protocolo TCP introducida a finales de los noventa. El dato impresiona por sí solo: un fallo que habría permanecido oculto durante 27 años. No porque sea un número redondo, que también, sino porque desmonta una confianza muy asentada en el sector. La idea de que lo robusto, lo viejo y lo muy revisado ya estaba razonablemente explorado.

El otro caso gira en torno a FFmpeg, una biblioteca de vídeo y audio omnipresente, una de esas piezas de software que no suelen salir en las portadas pero sostienen media internet sin hacer ruido. Según Anthropic, Mythos detectó allí una vulnerabilidad histórica que había sobrevivido a años de revisiones humanas y a campañas enormes de pruebas automáticas. El mensaje implícito es demoledor: si incluso componentes tan usados y tan examinados todavía esconden errores profundos, nadie puede sentirse demasiado cómodo.

Estos ejemplos importan no solo por el nombre propio, sino por lo que representan. OpenBSD simboliza la cultura del rigor. FFmpeg simboliza la ubicuidad del software heredado, reutilizado y asumido como infraestructura básica. Si una IA avanzada puede arrancar secretos técnicos de esos dos mundos, la conversación cambia radicalmente. Ya no se trata de si el modelo es útil para programadores o equipos de seguridad, sino de si el mapa entero de vulnerabilidades del ecosistema digital puede volverse más visible, más rápido y para más actores.

Y ahí aparece la gran inquietud: ver antes significa poder explotar antes, pero también parchear antes. Todo depende de quién llegue primero. Esa carrera, que hasta hace poco podía medirse en semanas o meses, empieza a comprimirse de forma brusca. El hallazgo técnico deja de ser una pieza artesanal, casi detectivesca, y se parece cada vez más a un proceso industrializable.

Glasswing, un club cerrado para parchear el planeta

Para responder a ese escenario, Anthropic ha creado el Proyecto Glasswing, un acceso restringido para más de 40 organizaciones entre las que figuran gigantes tecnológicos, entidades financieras y compañías de ciberseguridad. Amazon, Apple, Google, Microsoft, Nvidia, Cisco, CrowdStrike, Palo Alto Networks, JPMorgan Chase o la Linux Foundation aparecen en ese círculo inicial. No es casualidad. Son actores con capacidad real para corregir software a escala, proteger infraestructuras sensibles y absorber el coste político y técnico de esta nueva fase.

La lógica oficial del programa es defensiva. Si Mythos puede localizar grietas que han escapado durante años a herramientas y revisiones humanas, lo sensato sería ponerlo a trabajar allí donde más daño haría un fallo crítico: sistemas operativos, navegadores, redes, servicios financieros, componentes de código abierto masivo, infraestructuras de nube. El razonamiento tiene sentido. Casi demasiado. Porque al mismo tiempo revela una segunda lectura menos amable: la seguridad del futuro empieza a organizarse como un club cerrado donde unos pocos ven antes, corrigen antes y deciden antes.

No es solo una cuestión tecnológica. También hay poder. Quien acceda antes a herramientas como Mythos tendrá ventaja para defenderse, sí, pero también para entender el mapa real de debilidades del software global. Esa asimetría no es menor. Durante años, la ciberseguridad ha vivido de una desigualdad clásica: el defensor debe vigilarlo todo y el atacante solo necesita encontrar una fisura. Glasswing introduce otra: no todos los defensores verán lo mismo al mismo tiempo.

En paralelo, el proyecto funciona como una jugada impecable de posicionamiento. Anthropic no se limita a decir “tenemos un modelo potentísimo”; dice algo más eficaz: “tenemos un modelo tan potente que hemos decidido no venderlo libremente”. En una industria saturada de exageraciones, la restricción puede dar más prestigio que la apertura. El secreto sigue siendo una herramienta de marketing extraordinaria, sobre todo cuando huele a riesgo sistémico. El problema es que aquí el olor no parece del todo teatral.

Bancos, Bolsa y reguladores: el susto ya está aquí

La reacción más visible ha llegado desde las finanzas, que suelen detectar rápido cuándo una tecnología amenaza con alterar un negocio bien asentado. El anuncio de Mythos ha agitado a inversores, bancos y supervisores porque el sector financiero combina sistemas modernos con capas heredadas, software de terceros, integraciones complejas y un apetito casi patológico por la continuidad operativa. Traducido: muchísima superficie de ataque, muchísima dependencia tecnológica y poquísimo margen para errores graves.

Ese contexto explica que el eco de Mythos haya llegado a despachos mucho menos propensos al entusiasmo que Silicon Valley. Cuando autoridades monetarias, reguladores y directivos bancarios se sientan a discutir el impacto de un nuevo modelo de IA en el riesgo cibernético, ya no estamos ante una curiosidad técnica ni ante una historia de laboratorio. Estamos hablando de estabilidad financiera, de confianza institucional y de los cimientos invisibles que sostienen pagos, crédito, custodia y movimiento de datos sensibles.

Wall Street reaccionó como suele reaccionar cuando ve venir una combinación de incertidumbre, amenaza tecnológica y relato demasiado grande para ignorarlo: con nervios. Algunas firmas ligadas al software y a la ciberseguridad sufrieron caídas iniciales por el temor a que una IA especialmente fuerte en descubrimiento de vulnerabilidades y automatización ofensiva pueda dejar viejas soluciones en una posición mucho menos cómoda. Es un miedo con algo de histeria y bastante racionalidad. Las dos cosas pueden convivir. De hecho, suelen hacerlo.

Lo interesante es la paradoja. Varias compañías de ciberseguridad forman parte de Glasswing y, al mismo tiempo, pertenecen a un sector que el mercado observa con creciente ansiedad. Están dentro del salvavidas, sí, pero también dentro del oleaje. Si modelos como Mythos se consolidan, la seguridad dejará de medirse solo por quién tiene mejores firmas, mejores sensores o mejor marketing, y se medirá cada vez más por quién puede encontrar antes los fallos y convertir ese conocimiento en parches, detección y respuesta operativa.

La batalla con el Pentágono y el pulso político

Mythos no ha irrumpido en un paisaje sereno. Llega en medio de un enfrentamiento notable entre Anthropic y el Departamento de Defensa de Estados Unidos. La relación se ha deteriorado después de que el Pentágono considerara la tecnología de la empresa un riesgo para la cadena de suministro en determinados contextos, mientras Anthropic sostiene que algunas de sus restricciones éticas y operativas no son negociables. El choque es técnico, político y muy revelador del momento.

La tensión gira en torno a una pregunta que va a perseguir a toda la industria de IA avanzada: qué pasa cuando una herramienta es tan útil para la seguridad nacional como incómoda para el control público. Los gobiernos quieren acceso, previsibilidad y margen de maniobra. Las empresas quieren contratos, influencia y capacidad para fijar límites. Entre ambos lados se abre una negociación permanente sobre armas autónomas, vigilancia, uso militar, responsabilidad y dependencia estratégica. Mythos entra de lleno en ese tablero.

Lo más llamativo es que el conflicto no ha roto del todo la relación. Incluso con la disputa abierta, la tecnología de Anthropic sigue siendo observada con enorme interés por Washington. No es difícil entender por qué. Un modelo capaz de detectar fallos profundos en software crítico tiene valor defensivo, valor de inteligencia y, de forma indirecta, valor militar. Sería ingenuo pensar que un avance así no va a convertirse también en objeto de competencia estatal.

En esa fricción se ve algo muy de esta época. Las grandes compañías de IA no son solo empresas tecnológicas. Se están convirtiendo en actores geopolíticos de hecho, aunque nadie les haya dado oficialmente ese título. Deciden qué liberar, qué restringir, con quién colaborar y dónde poner las líneas rojas. Y cada una de esas decisiones afecta a mercados, gobiernos, infraestructuras y equilibrios estratégicos. Mythos no es únicamente un modelo; es un episodio más en la privatización de capacidades que antes asociábamos al Estado o a comunidades técnicas muy especializadas.

Cuando el candado cuenta más que la llave

La decisión de Anthropic no significa que el apocalipsis digital haya empezado esta semana, pero sí que la industria empieza a comportarse como si hubiera escuchado ya el chasquido de una cerradura forzada. El coste y el nivel de pericia necesarios para descubrir fallos graves están bajando. Ese parece ser el verdadero mensaje. Y cuando baja el coste de encontrar grietas, sube la presión sobre todo lo demás: desarrollo seguro, revisión de código, tiempos de parcheo, defensa de infraestructura crítica, coordinación entre proveedores, respuesta ante incidentes. La ciberseguridad entra en una fase de aceleración industrial.

Eso afectará a bancos, administraciones, grandes tecnológicas y también a empresas corrientes que todavía creen que protegerse consiste en encadenar productos, pasar auditorías y cruzar los dedos. Si herramientas como Mythos continúan mejorando —y no hay razones para pensar lo contrario— el ciclo clásico de descubrir, reportar, priorizar y corregir vulnerabilidades tendrá que comprimirse de forma brutal. Menos liturgia. Menos margen. Más velocidad. Casi todo en seguridad va a parecer más viejo de lo que parecía la semana pasada.

Anthropic ha optado por encerrar Claude Mythos porque, según su propia lectura, ya no está presentando solo una herramienta útil, sino una capacidad estratégica. Ahí está la verdadera dimensión de la noticia. No importa tanto que el modelo programe bien o que resuelva tareas complejas con brillantez. Importa que puede leer software como quien escucha una melodía y detectar enseguida dónde desafina, dónde se rompe, dónde se abre una grieta. Cuando eso ocurre, la seguridad deja de ser un problema periférico y pasa al centro de la conversación tecnológica, política y económica.

Hay una ironía final, seca, muy del presente. Durante años, las empresas de inteligencia artificial se afanaron en convencer al mundo de que sus modelos debían entrar en todas partes. En el trabajo, en la educación, en la administración, en la creatividad, en el consumo. Anthropic ha dado un paso en sentido contrario: enseñar una creación suya y, acto seguido, apartarla del escaparate. No porque no funcione, sino precisamente porque funciona demasiado bien en el lugar equivocado. A veces la noticia no es la llave que acabas de fabricar. A veces la noticia es el candado que te obligas a echarle encima.

Gracias por leerme y por pasarte por Don Porqué. Si te apetece seguir curioseando, arriba tienes la lupa para buscar más temas. Y si esto te ha gustado, compártelo: así la historia llegará un poco más lejos.

Lo más leído