Contratista Permitió el Acceso a Usuarios No Autorizados
Un grupo de personas no autorizadas ha obtenido acceso a Claude Mythos Preview, el modelo de IA más avanzado y restringido de Anthropic. Así lo informa Bloomberg, citado por The Verge. Según el informe, el grupo utilizó una combinación del acceso a un contratista externo de Anthropic, cuyo nombre no se especifica, y lo que Bloomberg describe como "herramientas de investigación de internet de uso común".
El acceso se produjo a través de un foro en línea privado, y por el momento no está claro cuántas personas obtuvieron acceso al modelo ni para qué lo utilizaron. Anthropic no ha comentado públicamente el alcance del incidente.
¿Qué Hace a Mythos Tan Peligroso?
Claude Mythos Preview – nombre en clave interno "Capybara" – es un modelo de IA que Anthropic ha retenido explícitamente de su lanzamiento público debido a su potencial ofensivo en ciberseguridad. Según la investigación relacionada con el caso, las capacidades del modelo superan significativamente lo visto en sistemas de IA anteriores.
Sarosh Nagar, líder de proyectos técnicos en la oficina del ex CEO de Google Eric Schmidt, caracteriza la capacidad de Mythos para encadenar vulnerabilidades automáticamente como "significativamente superior a lo que los modelos anteriores han podido hacer", según la investigación asociada al caso.
Modelo Anunciado Tras una Fuga
El anuncio oficial de Anthropic de Claude Mythos Preview llegó el 7 de abril de 2026, pero para entonces, el modelo ya se había dado a conocer a través de una fuga accidental de un borrador de publicación de blog a finales de marzo de 2026, causada por una configuración errónea en la herramienta de publicación de la compañía.
Project Glasswing – Uso Defensivo con Gigantes Tecnológicos
Para gestionar los riesgos asociados con el modelo, Anthropic ha lanzado "Project Glasswing", una iniciativa donde Mythos se utilizará principalmente para la investigación de seguridad defensiva. Según el material de investigación, el consorcio incluye empresas como Amazon, Apple, Google y Microsoft, además de instituciones financieras como JPMorgan Chase.
El objetivo es utilizar Mythos para asegurar la infraestructura de software crítica, es decir, aprovechar las mismas capacidades ofensivas para encontrar y parchear agujeros de seguridad antes de que otros actores puedan explotarlos.
Mal Uso Anterior de los Sistemas de Anthropic
Este incidente no es la primera vez que los sistemas de IA de Anthropic están involucrados en actividades no autorizadas. Según el material de investigación, un actor respaldado por el estado chino utilizó anteriormente la herramienta Claude Code de Anthropic para automatizar ciberataques contra aproximadamente 30 empresas y agencias gubernamentales. Estas operaciones incluyeron reconocimiento, escaneo de sistemas vulnerables, generación de contenido de phishing y exfiltración de datos, en gran medida sin intervención humana.
El hecho de que Mythos – un sistema significativamente más potente – haya caído ahora en manos de usuarios no autorizados, probablemente aumentará la presión sobre Anthropic y la industria en general en lo que respecta al control de acceso y la gestión responsable de modelos de IA avanzados.
Material de origen: The Verge / Bloomberg.