
Anthropic has withheld its most powerful AI model, Claude Mythos Preview, from public release after it discovered thousands of cybersecurity vulnerabilities across major platforms. Through Project Glasswing, the company is sharing the model exclusively with leading tech organisations and committing $100 million to help secure critical infrastructure.
I et trekk som signaliserer et dramatisk skifte i hvordan grensesprengende AI-kapasiteter distribueres, har Anthropic valgt å holde tilbake sin mest avanserte kunstige intelligens-modell fra offentlig lansering etter at de oppdaget tusenvis av tidligere ukjente cybersikkerhetssårbarheter på tvers av store operativsystemer og nettlesere. I stedet for å lansere den kommersielt, distribuerte selskapet i det stille tilgang til organisasjonene som er ansvarlige for å sikre verdens digitale infrastruktur.
Modellen det er snakk om heter Claude Mythos Preview, og den representerer Anthropics mest kapable system hittil. Under intern testing demonstrerte Mythos en ekstraordinær evne til å identifisere sikkerhetsfeil – og avdekket tusenvis av sårbarheter som spenner over alle større operativsystemer og nettleserøkosystemer som er i bruk for øyeblikket.
I stedet for å behandle dette som en produktlanseringsmulighet, etablerte Anthropic et initiativ kalt Project Glasswing. Programmet kanaliserer Mythos' kapasiteter direkte til selskapene og stiftelsene som bygger og vedlikeholder kritisk programvare. Lanseringspartnere er som en oversikt over global teknologi: Amazon Web Services, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorganChase, Linux Foundation, Microsoft, Nvidia og Palo Alto Networks.
Utover den første gruppen har tilgangen blitt utvidet til mer enn 40 andre organisasjoner som utvikler eller vedlikeholder viktig programvareinfrastruktur. For å støtte innsatsen økonomisk, forplikter Anthropic seg til opptil 100 millioner dollar i brukskreditter slik at disse partnerne kan kjøre Mythos mot sine egne kodebaser.
Denne avgjørelsen har enorm betydning av flere grunner. For det første representerer den et av de tydeligste eksemplene hittil på at et AI-laboratorium bevisst begrenser det kommersielle potensialet til en banebrytende modell på grunn av sikkerhetsmessige implikasjoner. I en bransje som ofte blir kritisert for å ha kappløp om å levere produkter, valgte Anthropic tilbakeholdenhet – og det er verdt å merke seg.
For det andre er det enorme omfanget av funnene svimlende. Funn av tusenvis av sårbarheter på tvers av flere plattformer tyder på at Mythos opererer på et nivå av kodeanalyse som langt overgår det forskere på menneskelig sikkerhet eller eksisterende automatiserte verktøy kan oppnå innen sammenlignbare tidsrammer. For kontekst katalogiserer CVE-databasen – den globale standarden for sporing av offentliggjorte sårbarheter i cybersikkerhet – vanligvis rundt 25 000 til 30 000 nye oppføringer per år. En enkelt AI-modell som bidrar med tusenvis av funn i en konsentrert periode, ville representere en betydelig andel av den årlige globale avsløringen.
For det tredje kan denne tilnærmingen omdefinere økonomien bak sårbarhetsforskning. Hvis du har fulgt med på dekningen vår av Microsoft Open-Source Toolkit Secures AI Agents at Runtime , vet du at bug bounty-programmer og penetrasjonstesting fortsatt er dyre og arbeidskrevende. En AI-modell som er i stand til å gjøre dette arbeidet i stor skala, kan spare organisasjoner milliarder i kostnader knyttet til sikkerhetsbrudd.
Anthropic ble grunnlagt i 2021 av tidligere OpenAI-forskere, inkludert søsknene Dario og Daniela Amodei. Selskapet har konsekvent posisjonert seg som det sikkerhetsbevisste alternativet i frontløpet innen AI, publisert detaljerte retningslinjer for ansvarlig skalering og investert tungt i forskning på tilpasning. Claude-familien av modeller konkurrerer direkte med OpenAIs GPT-serie og Googles Gemini.
Beslutningen om å holde Mythos ute fra offentlig tilgang er i samsvar med denne etosen. Å lansere en modell som kan identifisere nulldagssårbarheter i stor skala ville være et tveegget sverd – uvurderlig for forsvarere, men potensielt katastrofalt hvis den ble åpnet av ondsinnede aktører som kunne utnytte de samme feilene før oppdateringer ble distribuert.
Denne spenningen ligger i kjernen av det sikkerhetsforskere kaller problemet med «offensiv-defensiv asymmetri». Angripere trenger bare å finne én utnyttbar svakhet. Forsvarere må finne og oppdatere alle. En AI som tipper vektskålen mot forsvarere – men bare hvis dens evner kontrolleres nøye – er akkurat den typen verktøy som krever en begrenset distribusjonsmodell.
Fra et forretningsperspektiv er Project Glasswing et mesterverk, selv om det går på bekostning av kortsiktige inntekter. Tenk på de strategiske fordelene:
Inkluderingen av JPMorganChase er spesielt talende. Finansinstitusjoner står overfor nådeløse cyberangrep og opererer under noen av de strengeste regulatoriske rammeverkene på jorden. Deltakelsen deres signaliserer at Mythos allerede har vist verdi utover teknologisektoren. Hvis du er interessert i hvordan AI omformer finansielle tjenester, kan du sjekke ut artikkelen vår om Google AI avduker PaperOrchestra for Automated Research .
Flere spørsmål forblir ubesvart. Vil Anthropic til slutt offentliggjøre Mythos, kanskje etter at de mest kritiske sårbarhetene er blitt oppdatert? Hvordan vil selskapet bekrefte at partnerorganisasjoner faktisk handler basert på funnene i tide? Og hva skjer når motstandere uunngåelig utvikler sine egne sårbarhetsjaktende AI-modeller uten lignende etiske rekkverk?
Den bredere bransjen vil også følge med på om denne samarbeidende, kvasifilantropiske tilnærmingen blir en mal. Hvis en satsing på 100 millioner dollar på defensiv cybersikkerhet gir målbare resultater – færre sikkerhetsbrudd, raskere oppdateringer, et sikrere internett – vil andre AI-laboratorier møte press for å følge etter.
Det er også spørsmålet om myndighetene vil søke å pålegge denne typen rammeverk for ansvarlig offentliggjøring. Cybersecurity and Infrastructure Security Agency (CISA) i USA har allerede signalisert interesse for AI-assistert sårbarhetsdeteksjon som en del av sitt bredere oppdrag.
Anthropics beslutning om å holde Claude Mythos Preview unna offentligheten er et av de mest betydningsfulle grepene i AI-bransjen i år. Ved å velge sikkerhet fremfor skuespill, satser selskapet kalkulert på at de kraftigste AI-modellene ikke alltid bør være produkter – noen ganger bør de være verktøy som brukes i stillhet av de menneskene som er best posisjonert til å beskytte alle andre. Om den innsatsen lønner seg, vil avhenge av gjennomføring, åpenhet og om resten av bransjen er villig til å følge en vei som prioriterer kollektivt forsvar fremfor individuell profitt.