
Anthropic has withheld its most powerful AI model, Claude Mythos Preview, from public release after it discovered thousands of cybersecurity vulnerabilities across major platforms. Through Project Glasswing, the company is sharing the model exclusively with leading tech organisations and committing $100 million to help secure critical infrastructure.
I et træk, der signalerer et dramatisk skift i, hvordan frontlinje-AI-kapaciteter implementeres, har Anthropic valgt at tilbageholde sin mest avancerede kunstige intelligens-model fra offentliggørelse, efter at den har opdaget tusindvis af tidligere ukendte cybersikkerhedssårbarheder på tværs af større operativsystemer og webbrowsere. I stedet for at lancere den kommercielt, distribuerede virksomheden i al hemmelighed adgang til de organisationer, der er ansvarlige for at sikre verdens digitale infrastruktur.
Den pågældende model hedder Claude Mythos Preview, og den repræsenterer Anthropics hidtil mest kapable system. Under intern test demonstrerede Mythos en ekstraordinær evne til at identificere sikkerhedshuller – og afdækkede tusindvis af sårbarheder, der spænder over alle større operativsystemer og browserøkosystemer, der i øjeblikket er i brug.
I stedet for at behandle dette som en mulighed for produktlancering, etablerede Anthropic et initiativ kaldet Project Glasswing. Programmet kanaliserer Mythos' kapaciteter direkte til de virksomheder og fonde, der bygger og vedligeholder kritisk software. Lanceringspartnere er som en oversigt over alle inden for global teknologi: Amazon Web Services, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorganChase, Linux Foundation, Microsoft, Nvidia og Palo Alto Networks.
Ud over den indledende gruppe er adgangen blevet udvidet til mere end 40 yderligere organisationer, der udvikler eller vedligeholder essentiel softwareinfrastruktur. For at støtte indsatsen økonomisk forpligter Anthropic sig til op til 100 millioner dollars i brugskreditter, så disse partnere kan køre Mythos mod deres egne kodebaser.
Denne beslutning har enorm betydning af flere årsager. For det første repræsenterer den et af de hidtil klareste eksempler på, at et AI-laboratorium bevidst begrænser det kommercielle potentiale af en banebrydende model på grund af sikkerhedsmæssige konsekvenser. I en branche, der ofte kritiseres for at kappes om at levere produkter, valgte Anthropic tilbageholdenhed – og det er bemærkelsesværdigt.
For det andet er omfanget af opdagelserne svimlende. Fund af tusindvis af sårbarheder på tværs af flere platforme tyder på, at Mythos opererer på et niveau af kodeanalyse, der langt overstiger, hvad forskere inden for menneskelig sikkerhed eller eksisterende automatiserede værktøjer kan opnå inden for sammenlignelige tidsrammer. Til sammenligning katalogiserer CVE-databasen - den globale standard for sporing af offentligt afslørede cybersikkerhedssårbarheder - typisk omkring 25.000 til 30.000 nye poster om året. En enkelt AI-model, der bidrager med tusindvis af fund i en koncentreret periode, ville repræsentere en betydelig andel af den årlige globale afsløring.
For det tredje kunne denne tilgang omdefinere økonomien bag sårbarhedsforskning. Hvis du har fulgt vores dækning af Microsoft Open-Source Toolkit Secures AI Agents at Runtime , ved du, at bug bounty-programmer og penetrationstestning fortsat er dyre og arbejdskrævende. En AI-model, der er i stand til at udføre dette arbejde i stor skala, kan spare organisationer milliarder i omkostninger relateret til brud.
Anthropic blev grundlagt i 2021 af tidligere OpenAI-forskere, herunder søskendeparret Dario og Daniela Amodei. Virksomheden har konsekvent positioneret sig som det sikkerhedsbevidste alternativ i den førende AI-kapløb, udgivet detaljerede politikker for ansvarlig skalering og investeret kraftigt i forskning i tilpasning. Dens Claude-familie af modeller konkurrerer direkte med OpenAIs GPT-serie og Googles Gemini.
Beslutningen om at holde Mythos tilbage fra offentlig adgang er i overensstemmelse med denne etos. At frigive en model, der kan identificere zero-day-sårbarheder i stor skala, ville være et tveægget sværd – uvurderligt for forsvarere, men potentielt katastrofalt, hvis den tilgås af ondsindede aktører, der kunne udnytte de samme fejl, før patches blev implementeret.
Denne spænding ligger i centrum for det, sikkerhedsforskere kalder problemet med "offensiv-defensiv asymmetri". Angribere skal kun finde én svaghed, der kan udnyttes. Forsvarere skal finde og opdatere dem alle. En AI, der tipper balancen mod forsvarere – men kun hvis dens muligheder kontrolleres omhyggeligt – er præcis den slags værktøj, der kræver en begrænset distributionsmodel.
Fra et forretningsperspektiv er Project Glasswing et mesterværk, selvom det går på kompromis med den kortsigtede omsætning. Overvej de strategiske fordele:
Inkluderingen af JPMorganChase er særligt sigende. Finansielle institutioner står over for ubarmhjertige cyberangreb og opererer under nogle af de strengeste regulatoriske rammer på Jorden. Deres deltagelse signalerer, at Mythos allerede har demonstreret værdi ud over tech-sektoren. Hvis du er interesseret i, hvordan AI omformer finansielle tjenester, kan du se vores artikel om Google AI afslører PaperOrchestra til automatiseret forskning .
Adskillige spørgsmål forbliver ubesvarede. Vil Anthropic i sidste ende offentliggøre Mythos, måske efter at de mest kritiske sårbarheder er blevet rettet? Hvordan vil virksomheden verificere, at partnerorganisationer rent faktisk handler rettidigt på resultaterne? Og hvad sker der, når modstandere uundgåeligt udvikler deres egne sårbarhedssøgende AI-modeller uden lignende etiske rækværk?
Den bredere branche vil også holde øje med, om denne samarbejdsorienterede, kvasi-filantropiske tilgang bliver en skabelon. Hvis en investering på 100 millioner dollars i defensiv cybersikkerhed giver målbare resultater – færre brud, hurtigere patches, et mere sikkert internet – vil andre AI-laboratorier stå over for pres for at følge trop.
Der er også spørgsmålet om, hvorvidt regeringer vil forsøge at pålægge denne form for ansvarlig offentliggørelsesramme. Cybersecurity and Infrastructure Security Agency (CISA) i USA har allerede signaleret interesse i AI-assisteret sårbarhedsdetektion som en del af sin bredere mission.
Anthropics beslutning om at holde Claude Mythos Preview ude af offentlighedens søgelys er et af de mest betydningsfulde træk i AI-branchen i år. Ved at vælge sikkerhed frem for skuespil, satser virksomheden på, at de mest kraftfulde AI-modeller ikke altid bør være produkter – nogle gange bør de være værktøjer, der bruges stille og roligt af de mennesker, der er bedst positioneret til at beskytte alle andre. Om det væddemål betaler sig, afhænger af udførelse, gennemsigtighed og om resten af branchen er villig til at følge en vej, der prioriterer kollektivt forsvar frem for individuel profit.