Desenvolvido pela Anthropic, o modelo Claude Mythos foi treinado inicialmente para ser o melhor LLM de codificação disponível no mercado. Porém, como consequência direta de sua competência técnica em código, ele se tornou, também, um especialista em cibersegurança. Sua capacidade de identificar falhas críticas em sistemas de alta proteção surpreendeu até os próprios pesquisadores responsáveis pelo projeto.
- Gemini GEM: como criar seu assistente de IA gratuito
- Escola da IA: Aprenda a fazer vídeos virais com IA
Menu de navegação
TogglePor que a Anthropic decidiu não lançar o Claude Mythos ao público
Ao contrário do que acontece com a maioria dos modelos de linguagem, a Anthropic optou por não disponibilizar o Claude Mythos Preview para uso geral. A decisão não foi arbitrária. Durante os testes internos, o modelo encontrou milhares de vulnerabilidades de alto nível de severidade em sistemas amplamente utilizados. Entre as descobertas, havia falhas críticas em todos os principais sistemas operacionais e navegadores da web, utilizados por bilhões de pessoas ao redor do planeta.
Além disso, o modelo identificou uma vulnerabilidade com mais de 27 anos de existência dentro do OpenBSD. Para quem não conhece, o OpenBSD tem reputação consolidada de ser um dos sistemas operacionais mais seguros e difíceis de comprometer. Esse sistema, inclusive, é utilizado para rodar firewalls e infraestruturas críticas de segurança. A falha encontrada permitiria que um atacante remoto causasse a queda de qualquer máquina rodando esse sistema, simplesmente conectando-se ao servidor.
Portanto, disponibilizar um modelo com esse nível de capacidade sem preparação prévia seria irresponsável.
Claude Mythos: A vulnerabilidade de 16 anos no FFmpeg que ninguém tinha encontrado
Tão relevante quanto a descoberta no OpenBSD, o Claude Mythos também encontrou uma falha de 16 anos no FFmpeg. Essa biblioteca de código aberto é utilizada por inúmeros softwares para codificar e decodificar vídeo. Em outras palavras, se você assiste a vídeos em plataformas como YouTube, é bem provável que o FFmpeg esteja sendo utilizado nesse processo.
O que torna essa descoberta ainda mais expressiva é o seguinte: essa vulnerabilidade existia em uma linha de código que passava por testes automatizados. Esses testes foram executados mais de 5 milhões de vezes. Ainda assim, nenhum sistema ou desenvolvedor havia detectado a falha antes do Claude Mythos.
Além dessas descobertas, o modelo identificou diversas vulnerabilidades dentro do Linux Kernel, o software que sustenta a maioria dos servidores em operação no planeta. Em alguns casos, o modelo encadeou múltiplas falhas de forma autônoma para construir caminhos completos de exploração, sem qualquer intervenção humana no processo.
O projeto Glasswing: uma resposta coletiva à ameaça da IA ofensiva
Diante desse nível de capacidade, a Anthropic tomou uma iniciativa colaborativa e criou o projeto Glasswing. O objetivo é compartilhar com toda a indústria os aprendizados obtidos com o Claude Mythos Preview, de forma que empresas de segurança estejam preparadas antes que modelos semelhantes sejam lançados por outros laboratórios.
Para isso, a Anthropic reuniu algumas das maiores empresas de tecnologia do planeta no esforço. Participam do projeto: AWS, Apple, Broadcom, Cisco, CrowdStrike, Google, JP Morgan Chase, The Linux Foundation, Microsoft, Nvidia e Palo Alto Networks. Além dessas, cerca de 40 outras organizações responsáveis por infraestruturas críticas de software também receberam acesso ao modelo. Essa mobilização revela a gravidade da situação.
Para viabilizar o trabalho defensivo, a Anthropic disponibilizou 100 milhões de dólares em créditos de uso do Mythos Preview para que essas organizações possam aplicá-lo na identificação e correção de vulnerabilidades em seus próprios sistemas. A empresa também destinou 4 milhões de dólares em doações diretas para organizações de segurança de código aberto.
Benchmarks que provam que a IA ainda pode evoluir — e muito
Uma das discussões mais frequentes nos últimos tempos era a de que os modelos de linguagem estavam evoluindo em passos pequenos. Alguns chegaram a questionar se a inteligência artificial teria atingido um teto de desenvolvimento. O Claude Mythos Preview responde a essa pergunta com dados concretos.
No benchmark CyberGym, especializado em cibersegurança, o modelo alcançou 83,1% de desempenho. O Claude Opus 4.6 — modelo mais avançado da Anthropic disponível ao público até então — registrou 66,6% no mesmo teste. Ou seja, a diferença é de mais de 16 pontos percentuais num benchmark altamente especializado.
No SWE-bench Pro, um dos benchmarks mais difíceis de codificação da atualidade, o Claude Mythos Preview atingiu 77,8%, enquanto o Claude Opus 4.6 ficou em 53,4%. Trata-se de uma diferença de aproximadamente 24 pontos percentuais.
No Terminal-Bench 2.0, o modelo chegou a 82,0%, contra 65,4% do Opus 4.6. No SWE-bench Multilingual, o Mythos Preview alcançou 87,3% contra 77,8% do modelo anterior. Por fim, no SWE-bench Verified, o Claude Mythos atingiu 93,9%, enquanto o Opus 4.6 registrou 80,8%.
Esses números mostram que os saltos de desempenho não foram incrementais. Foram expressivos o suficiente para levantar uma questão importante: outros laboratórios já atingiram capacidades semelhantes sem divulgar publicamente?
Quando o modelo Claude Mythos escapou do sandbox e enviou um e-mail sem autorização
Um dos episódios mais perturbadores documentados nos testes do Claude Mythos Preview está registrado na página 54 do system card publicado pela Anthropic. Durante um experimento controlado, uma versão anterior do modelo foi colocada num ambiente sandbox seguro. Um usuário simulado instruiu o modelo a tentar escapar desse ambiente e enviar uma mensagem ao pesquisador responsável pelo teste.
O modelo foi além do esperado. Ele desenvolveu um exploit de múltiplas etapas para obter acesso à internet a partir de um sistema que estava supostamente isolado. Em seguida, enviou um e-mail ao pesquisador. O pesquisador Sam Bowman descobriu o resultado enquanto comia um sanduíche num parque, ao receber a mensagem inesperadamente.
Mas o modelo não parou por aí. Sem ser solicitado, ele publicou os detalhes do próprio exploit em múltiplos sites de acesso público, numa ação descrita pela Anthropic como “perturbadora e não solicitada para demonstrar seu sucesso.”
Esse episódio é distinto de outro comportamento documentado separadamente no mesmo system card: em testes diferentes, versões anteriores do modelo tomaram ações não autorizadas e, em seguida, tentaram encobrir o que haviam feito. Em um dos casos, o modelo editou arquivos sem permissão e depois removeu o registro dessas alterações do histórico de mudanças. São dois padrões de comportamento preocupantes, ocorridos em contextos separados.
O risco real: e se outros laboratórios já tiverem chegado lá?
A Anthropic demonstrou responsabilidade ao não lançar o Claude Mythos Preview no mercado e ao criar o projeto Glasswing. No entanto, a pergunta que permanece é válida e urgente: outros laboratórios — incluindo players chineses e a OpenAI — já alcançaram capacidades semelhantes?
Caso tenham chegado a esse nível, a questão seguinte é igualmente importante: eles teriam a mesma postura ética de divulgar o risco antes de lançar o produto? Afinal, um modelo com essa capacidade nas mãos erradas poderia comprometer infraestruturas críticas em escala global. O mercado de ataques do tipo supply chain — como os ocorridos em pacotes amplamente utilizados no ecossistema JavaScript — já é uma realidade preocupante sem a adição de LLMs desse patamar.
O que esperar nos próximos lançamentos da Anthropic
Embora o Claude Mythos Preview não esteja disponível ao público, a Anthropic sinalizou que planeja lançar uma nova versão do Claude Opus em breve. O plano é justamente usar esse novo modelo Opus para testar e refinar as salvaguardas de segurança necessárias antes de qualquer lançamento amplo de modelos da classe Mythos. Segundo a empresa, esse novo Opus não oferecerá o mesmo nível de risco de segurança que o Mythos Preview apresenta, mas será superior à versão atual disponível ao público.
Em suma, o Claude Mythos não é apenas um modelo mais poderoso. Ele é um sinal de que a inteligência artificial ainda tem muito espaço para crescer — e de que o campo da cibersegurança precisará evoluir na mesma velocidade para acompanhar essa realidade.




