Las principales compañías de la IA están en la carrera por crear el mejor modelo de inteligencia artificial. Esa carrera la ha ganado Anthropic con Mythos. Al menos, es lo que aseguran ellos (claro), con frases como que es tan potente que no pueden hacerlo público. Hay motivos para tomar las palabras de Anthropic con pinzas, pero lo que es evidente es que Mythos ya está dando resultado.
Aunque la compañía no lo ha liberado, ya ha dado acceso a ciertos socios tecnológicos. La decisión se basa en ese temor de la compañía a que el modelo se utilice de forma malintencionada. Ellos mismos lo han descrito como una amenaza para la ciberseguridad basándose en la cantidad de vulnerabilidades zero-day que Mythos habría encontrado tanto en los principales sistemas operativos del mercado como en los navegadores.
Y, justo cuando el modelo está despertando opiniones por parte de unos y otros, llega Mozilla para afirmar que la última versión de Firefox 150 cuenta con correcciones de seguridad para 271 vulnerabilidades que han podido descubrir gracias a esta versión preliminar de Claude Mythos.
Por su parte, desde OpenAI no se creen nada de nada.
“Igual de capaz que un humano”
Mozilla lo detalla en una de las últimas entradas en su blog. La compañía llevaba un tiempo colaborando con Anthropic y usando el modelo Claude Opus 4.6 para encontrar errores. En enero, halló 22 vulnerabilidades en un par de semanas, 14 de ellas calificadas como muy graves. De esas 22 encontradas por Opos 4.6, que ya es un modelo potente, pasamos a las 271 descubiertas por Mythos.
Es un salto enorme y Mozilla ha querido seguir indagando para ver hasta qué punto el nuevo modelo supera a Opus. Analizando Firefox 147, Mythos generó 181 exploits funcionales. ¿Opus 4.6? Apenas dos. 90 veces menos.
Esos resultados han llevado a Mozilla a escribir que Mythos Preview es “igual de capaz que los mejores investigadores humanos en ciberseguridad”, añadiendo que no han encontrado ninguna categoría que los humanos puedan detectar y que Mythos no pueda.
Esto tiene otra lectura ya que, como la propia compañía afirma, ver que el modelo es capaz de encontrar tantísimos errores en tan poco tiempo les hace preguntarse si es posible mantenerse al día en labores de ciberseguridad cuando se desarrollen alternativas a Mythos que sí caigan en manos no controladas por sus responsables.
Siempre queda el hecho de que Mythos no ha encontrado ningún error que los ‘vigilantes’ humanos de Mozilla no hayan detectado y que una herramienta así ayudará a tener un sistema más seguro. Todo ello, al final, empujando esa narrativa de que Mythos es prácticamente un milagro tecnológico.
Una bomba nuclear
La otra cara de la moneda es que Sam Altman, mandamás de OpenAI, no se cree nada. Aprovechando su participación reciente en un podcast, ha calificado todo el movimiento de Anthropic como una maniobra de marketing basado en el miedo.
Acusa a la empresa de Dario Amodei (enemigo público de Altman) de querer restringir la IA a un número reducido de personas en una estrategia que ha comparado con la de tener una bomba atómica, amenazar con soltarla y forrarse vendiendo búnkeres para protegerse de esa misma bomba.
Es un punto más de esa rivalidad histórica en la que ambas compañías (y directivos) llevan un tiempo envueltos, pero llega justo cuando Anthropic está teniendo un mayor protagonismo y OpenAI se está viendo obligada a soltar lastre en forma de servicios como Sora.
Altman no es el único que piensa que Anthropic está usando de forma recurrente ese discurso de “tenemos algo tan potente que no podemos hacerlo público” debido a que es una buena estrategia de cara a conseguir financiación. Ya hay voces que apuntan que Mythos no es para tanto y, de hecho, otros modelos han demostrado poder hacer lo mismo, encontrando los mismos errores y problemas detectados por el de Anthropic.
Pero, por encima de esto, hay que recordar que, en 2019, alguien ya dijo que un modelo era demasiado peligroso para un lanzamiento público. ¿Quién? La mismísima OpenAI con GPT-2. Evidentemente, no era tan peligrosísima.
En Xataka | OpenAI y Anthropic se han propuesto lo imposible: perder 85.000 millones de dólares en un año y sobrevivir
–
La noticia
Mythos será el modelo más peligroso de IA, pero las compañías ya están tomando nota de sus consejos de seguridad
fue publicada originalmente en
Xataka
por
Alejandro Alcolea
.

