Anthropic mantém novo modelo de IA em sigilo após encontrar milhares de usuários.

Anthropic has withheld its most powerful AI model, Claude Mythos Preview, from public release after it discovered thousands of cybersecurity vulnerabilities across major platforms. Through Project Glasswing, the company is sharing the model exclusively with leading tech organisations and committing $100 million to help secure critical infrastructure.

Numa iniciativa que sinaliza uma mudança drástica na forma como as capacidades de IA de ponta são implementadas, a Anthropic optou por não disponibilizar publicamente seu modelo de inteligência artificial mais avançado, após este ter detectado milhares de vulnerabilidades de cibersegurança até então desconhecidas em importantes sistemas operacionais e navegadores web. Em vez de lançá-lo comercialmente, a empresa distribuiu discretamente o acesso às organizações responsáveis pela segurança da infraestrutura digital global.

O que aconteceu: Prévia do Projeto Glasswing e do Mito de Claude

O modelo em questão chama-se Claude Mythos Preview e representa o sistema mais poderoso da Anthropic até o momento. Durante os testes internos, o Mythos demonstrou uma capacidade extraordinária de identificar falhas de segurança — descobrindo milhares de vulnerabilidades em todos os principais sistemas operacionais e ecossistemas de navegadores atualmente em uso.

Em vez de tratar isso como uma oportunidade de lançamento de produto, a Anthropic criou uma iniciativa chamada Projeto Glasswing. O programa direciona os recursos do Mythos diretamente para as empresas e fundações que desenvolvem e mantêm softwares essenciais. Os parceiros de lançamento são um verdadeiro quem é quem da tecnologia global: Amazon Web Services, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorgan Chase, Linux Foundation, Microsoft, Nvidia e Palo Alto Networks.

Além desse grupo inicial, o acesso foi estendido a mais de 40 organizações adicionais que desenvolvem ou mantêm infraestrutura de software essencial. Para apoiar financeiramente a iniciativa, a Anthropic está investindo até US$ 100 milhões em créditos de uso para que esses parceiros possam executar o Mythos em suas próprias bases de código.

Por que isso importa: um novo paradigma para a implementação responsável da IA

Essa decisão tem enorme importância por diversos motivos. Primeiro, representa um dos exemplos mais claros até agora de um laboratório de IA limitando deliberadamente o potencial comercial de um modelo inovador devido a implicações de segurança. Em um setor frequentemente criticado por sua corrida para lançar produtos, a Anthropic optou pela cautela — e isso é digno de nota.

Em segundo lugar, a magnitude das descobertas é impressionante. Encontrar milhares de vulnerabilidades em múltiplas plataformas sugere que o Mythos opera em um nível de análise de código que supera em muito o que pesquisadores de segurança humanos ou ferramentas automatizadas existentes conseguem realizar em prazos comparáveis. Para contextualizar, o banco de dados CVE — o padrão global para rastrear vulnerabilidades de segurança cibernética divulgadas publicamente — normalmente cataloga entre 25.000 e 30.000 novas entradas por ano. Um único modelo de IA contribuindo com milhares de descobertas em um período concentrado representaria uma fração significativa das divulgações globais anuais.

Em terceiro lugar, essa abordagem pode redefinir a economia da pesquisa de vulnerabilidades. Se você tem acompanhado nossa cobertura sobre o Microsoft Open-Source Toolkit Secures AI Agents at Runtime , sabe que os programas de recompensa por bugs e os testes de penetração continuam sendo caros e trabalhosos. Um modelo de IA capaz de realizar esse trabalho em larga escala poderia economizar bilhões para as organizações em custos relacionados a violações de segurança.

Contexto: A reputação da Anthropic de priorizar a segurança

A Anthropic foi fundada em 2021 por ex-pesquisadores da OpenAI, incluindo os irmãos Dario e Daniela Amodei. A empresa tem se posicionado consistentemente como a alternativa com foco em segurança na corrida da IA de ponta, publicando políticas detalhadas de escalonamento responsável e investindo fortemente em pesquisa de alinhamento. Sua família de modelos Claude compete diretamente com a série GPT da OpenAI e o Gemini do Google.

A decisão de não disponibilizar o Mythos ao público está em consonância com esse princípio. Liberar um modelo capaz de identificar vulnerabilidades de dia zero em larga escala seria uma faca de dois gumes — inestimável para os defensores, mas potencialmente catastrófico se acessado por agentes maliciosos que poderiam explorar essas mesmas falhas antes da implementação das correções.

Essa tensão está no cerne do que os pesquisadores de segurança chamam de problema da “assimetria ofensiva-defensiva”. Os atacantes precisam encontrar apenas uma vulnerabilidade explorável. Os defensores precisam encontrar e corrigir todas elas. Uma IA que inclina a balança a favor dos defensores — mas somente se suas capacidades forem cuidadosamente controladas — é exatamente o tipo de ferramenta que exige um modelo de distribuição restrito.

As implicações estratégicas para a antropologia e a indústria.

Do ponto de vista comercial, o Projeto Glasswing é uma jogada de mestre, mesmo que sacrifique a receita a curto prazo. Considere os benefícios estratégicos:

  • Integração profunda com infraestrutura crítica: Ao incorporar o Mythos nos fluxos de trabalho da AWS, Microsoft, Google e outras empresas, a Anthropic cria dependência e confiança que nenhuma campanha de marketing conseguiria comprar.
  • Boa vontade com os órgãos reguladores: À medida que governos em todo o mundo elaboram leis sobre IA, demonstrar moderação responsável gera credibilidade, o que será importante na tomada de decisões políticas.
  • Ciclos de feedback de dados: Cada vulnerabilidade que as organizações parceiras confirmam e corrigem gera um valioso sinal de treinamento que tornará os futuros modelos antrópicos ainda mais eficazes.
  • Diferenciação competitiva: Nem a OpenAI nem o Google DeepMind anunciaram nada comparável em escopo, o que confere à Anthropic uma posição única no mercado de segurança empresarial.

A inclusão do JPMorgan Chase é particularmente reveladora. As instituições financeiras enfrentam ciberataques implacáveis e operam sob algumas das estruturas regulatórias mais rigorosas do mundo. Sua participação sinaliza que o Mythos já demonstrou valor além do setor de tecnologia. Se você estiver interessado em como a IA está remodelando os serviços financeiros, confira nosso artigo sobre o lançamento do PaperOrchestra, do Google AI, para pesquisa automatizada .

O que vem a seguir

Diversas questões permanecem sem resposta. A Anthropic eventualmente lançará o Mythos publicamente, talvez após as vulnerabilidades mais críticas serem corrigidas? Como a empresa verificará se as organizações parceiras estão realmente agindo com base nas descobertas em tempo hábil? E o que acontecerá quando os adversários inevitavelmente desenvolverem seus próprios modelos de IA para busca de vulnerabilidades sem as mesmas salvaguardas éticas?

O setor em geral também estará atento para ver se essa abordagem colaborativa, quase filantrópica, se tornará um modelo. Se um investimento de US$ 100 milhões em cibersegurança defensiva gerar resultados mensuráveis — menos violações de segurança, correções mais rápidas, uma internet mais segura — outros laboratórios de IA sofrerão pressão para seguir o exemplo.

Há também a questão de saber se os governos procurarão impor esse tipo de estrutura de divulgação responsável. A Agência de Segurança Cibernética e de Infraestrutura (CISA) dos Estados Unidos já demonstrou interesse na detecção de vulnerabilidades assistida por IA como parte de sua missão mais ampla.

Conclusão

A decisão da Anthropic de manter o Claude Mythos Preview fora do alcance do público é uma das ações mais impactantes na indústria de IA este ano. Ao priorizar a segurança em detrimento do espetáculo, a empresa faz uma aposta calculada de que os modelos de IA mais poderosos nem sempre devem ser produtos — às vezes, devem ser ferramentas usadas discretamente pelas pessoas mais bem posicionadas para proteger a todos. O sucesso dessa aposta dependerá da execução, da transparência e da disposição do restante da indústria em seguir um caminho que priorize a defesa coletiva em detrimento do lucro individual.

Follow
Loading

Signing-in 3 seconds...

Signing-up 3 seconds...