
Anthropic has withheld its most powerful AI model, Claude Mythos Preview, from public release after it discovered thousands of cybersecurity vulnerabilities across major platforms. Through Project Glasswing, the company is sharing the model exclusively with leading tech organisations and committing $100 million to help secure critical infrastructure.
Con una mossa che segna un cambiamento radicale nel modo in cui vengono impiegate le capacità di intelligenza artificiale più avanzate, Anthropic ha scelto di non rendere pubblico il suo modello di intelligenza artificiale più sofisticato dopo aver rilevato migliaia di vulnerabilità di sicurezza informatica precedentemente sconosciute nei principali sistemi operativi e browser web. Invece di lanciarlo commercialmente, l'azienda ha distribuito silenziosamente l'accesso alle organizzazioni responsabili della sicurezza delle infrastrutture digitali globali.
Il modello in questione si chiama Claude Mythos Preview e rappresenta il sistema più performante di Anthropic fino ad oggi. Durante i test interni, Mythos ha dimostrato una straordinaria capacità di identificare le falle di sicurezza, scoprendo migliaia di vulnerabilità che interessano tutti i principali sistemi operativi e browser attualmente in uso.
Anziché considerarla un'opportunità di lancio di un prodotto, Anthropic ha avviato un'iniziativa denominata Project Glasswing. Il programma convoglia le funzionalità di Mythos direttamente alle aziende e alle fondazioni che sviluppano e gestiscono software critici. Tra i partner di lancio figurano alcuni dei nomi più importanti del settore tecnologico globale: Amazon Web Services, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorgan Chase, la Linux Foundation, Microsoft, Nvidia e Palo Alto Networks.
Oltre al gruppo iniziale, l'accesso è stato esteso a più di 40 organizzazioni aggiuntive che sviluppano o gestiscono infrastrutture software essenziali. A sostegno finanziario dell'iniziativa, Anthropic si impegna a fornire fino a 100 milioni di dollari in crediti d'uso, consentendo a questi partner di eseguire Mythos sui propri codebase.
Questa decisione riveste un'enorme importanza per diverse ragioni. In primo luogo, rappresenta uno degli esempi più chiari finora di un laboratorio di intelligenza artificiale che limita deliberatamente il potenziale commerciale di un modello innovativo a causa di implicazioni per la sicurezza. In un settore spesso criticato per la fretta di lanciare i prodotti sul mercato, Anthropic ha scelto la prudenza, e questo è degno di nota.
In secondo luogo, la portata delle scoperte è sbalorditiva. Trovare migliaia di vulnerabilità su diverse piattaforme suggerisce che Mythos opera a un livello di analisi del codice che supera di gran lunga ciò che i ricercatori di sicurezza umani o gli strumenti automatizzati esistenti possono realizzare in tempi comparabili. Per dare un'idea, il database CVE , lo standard globale per il monitoraggio delle vulnerabilità di sicurezza informatica divulgate pubblicamente, cataloga in genere dalle 25.000 alle 30.000 nuove voci all'anno. Un singolo modello di intelligenza artificiale che contribuisca con migliaia di scoperte in un periodo concentrato rappresenterebbe una frazione significativa delle divulgazioni globali annuali.
In terzo luogo, questo approccio potrebbe ridefinire l'economia della ricerca sulle vulnerabilità. Se avete seguito i nostri articoli su Microsoft Open-Source Toolkit Secures AI Agents at Runtime , saprete che i programmi di bug bounty e i penetration test rimangono costosi e richiedono un grande impiego di manodopera. Un modello di intelligenza artificiale in grado di svolgere questo lavoro su larga scala potrebbe far risparmiare alle organizzazioni miliardi di dollari in costi legati alle violazioni.
Anthropic è stata fondata nel 2021 da ex ricercatori di OpenAI, tra cui i fratelli Dario e Daniela Amodei. L'azienda si è costantemente posizionata come l'alternativa attenta alla sicurezza nella corsa all'intelligenza artificiale di frontiera, pubblicando politiche dettagliate per una scalabilità responsabile e investendo massicciamente nella ricerca sull'allineamento. La sua famiglia di modelli Claude compete direttamente con la serie GPT di OpenAI e con Gemini di Google.
La decisione di non rendere Mythos accessibile al pubblico è coerente con questa filosofia. Rilasciare un modello in grado di identificare vulnerabilità zero-day su larga scala sarebbe un'arma a doppio taglio: preziosa per chi si occupa di sicurezza, ma potenzialmente catastrofica se accessibile a malintenzionati che potrebbero sfruttare le stesse falle prima del rilascio delle patch.
Questa tensione è al centro di quello che i ricercatori nel campo della sicurezza definiscono il problema dell'"asimmetria offensiva". Gli attaccanti devono trovare una sola vulnerabilità sfruttabile. I difensori devono trovarle e correggerle tutte. Un'intelligenza artificiale che fa pendere la bilancia a favore dei difensori, ma solo se le sue capacità sono attentamente controllate, è esattamente il tipo di strumento che richiede un modello di distribuzione limitato.
Dal punto di vista commerciale, il Progetto Glasswing è un colpo da maestro, anche se sacrifica i ricavi a breve termine. Consideriamo i vantaggi strategici:
L'inclusione di JPMorgan Chase è particolarmente significativa. Gli istituti finanziari sono soggetti a continui attacchi informatici e operano in un contesto normativo tra i più rigidi al mondo. La loro partecipazione dimostra che Mythos ha già dimostrato il suo valore anche al di fuori del settore tecnologico. Se siete interessati a come l'intelligenza artificiale sta trasformando i servizi finanziari, vi invitiamo a leggere il nostro articolo su Google AI che presenta PaperOrchestra per la ricerca automatizzata .
Rimangono diverse domande senza risposta. Anthropic rilascerà Mythos pubblicamente, magari dopo aver corretto le vulnerabilità più critiche? Come verificherà l'azienda che le organizzazioni partner agiscano effettivamente in modo tempestivo in base alle scoperte? E cosa accadrà quando, inevitabilmente, gli avversari svilupperanno i propri modelli di intelligenza artificiale per la ricerca di vulnerabilità, privi di analoghe garanzie etiche?
L'intero settore osserverà con attenzione se questo approccio collaborativo, quasi filantropico, diventerà un modello. Se un investimento di 100 milioni di dollari nella sicurezza informatica difensiva produrrà risultati tangibili – meno violazioni, patch più rapide, un internet più sicuro – altri laboratori di intelligenza artificiale saranno spinti a seguire l'esempio.
Si pone inoltre la questione se i governi cercheranno di rendere obbligatorio questo tipo di quadro normativo per la divulgazione responsabile. La Cybersecurity and Infrastructure Security Agency (CISA) negli Stati Uniti ha già manifestato interesse per il rilevamento delle vulnerabilità assistito dall'intelligenza artificiale, nell'ambito della sua missione più ampia.
La decisione di Anthropic di tenere Claude Mythos Preview lontano dagli occhi del pubblico è una delle mosse più significative nel settore dell'IA quest'anno. Scegliendo la sicurezza a discapito dello spettacolo, l'azienda sta facendo una scommessa calcolata sul fatto che i modelli di IA più potenti non debbano essere sempre prodotti, ma a volte strumenti utilizzati silenziosamente da chi è nella posizione migliore per proteggere tutti gli altri. Se questa scommessa si rivelerà vincente dipenderà dall'esecuzione, dalla trasparenza e dalla volontà del resto del settore di seguire un percorso che privilegi la difesa collettiva rispetto al profitto individuale.