Anthropic håller ny AI-modell privat efter att ha hittat tusentals

Anthropic has withheld its most powerful AI model, Claude Mythos Preview, from public release after it discovered thousands of cybersecurity vulnerabilities across major platforms. Through Project Glasswing, the company is sharing the model exclusively with leading tech organisations and committing $100 million to help secure critical infrastructure.

I ett drag som signalerar en dramatisk förändring i hur avancerad AI-kapacitet används har Anthropic valt att hålla tillbaka sin mest avancerade modell för artificiell intelligens från offentlig lansering efter att ha upptäckt tusentals tidigare okända cybersäkerhetssårbarheter i större operativsystem och webbläsare. Istället för att lansera den kommersiellt distribuerade företaget i tysthet åtkomst till de organisationer som ansvarar för att säkra världens digitala infrastruktur.

Vad som hände: Förhandsvisning av Project Glasswing och Claude Mythos

Modellen i fråga heter Claude Mythos Preview och representerar Anthropics hittills mest kapabla system. Under interna tester visade Mythos en extraordinär förmåga att identifiera säkerhetsbrister – och avslöjade tusentals sårbarheter som spänner över alla större operativsystem och webbläsare som för närvarande används.

Istället för att behandla detta som en produktlanseringsmöjlighet, startade Anthropic ett initiativ kallat Project Glasswing. Programmet kanaliserar Mythos kapacitet direkt till de företag och stiftelser som bygger och underhåller kritisk programvara. Lanseringspartners är som en lista över de mest framstående inom global teknologi: Amazon Web Services, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorganChase, Linux Foundation, Microsoft, Nvidia och Palo Alto Networks.

Utöver den initiala gruppen har åtkomsten utökats till fler än 40 ytterligare organisationer som utvecklar eller underhåller viktig programvaruinfrastruktur. För att ekonomiskt stödja insatsen avsätter Anthropic upp till 100 miljoner dollar i användningskrediter så att dessa partners kan köra Mythos mot sina egna kodbaser.

Varför detta är viktigt: Ett nytt paradigm för ansvarsfull AI-implementering

Detta beslut har enorm betydelse av flera skäl. För det första representerar det ett av de tydligaste exemplen hittills på att ett AI-labb avsiktligt begränsar den kommersiella potentialen hos en banbrytande modell på grund av säkerhetskonsekvenser. I en bransch som ofta kritiseras för att ha tävlat om att leverera produkter valde Anthropic återhållsamhet – och det är anmärkningsvärt.

För det andra är den stora omfattningen av upptäckterna häpnadsväckande. Att hitta tusentals sårbarheter på flera plattformar tyder på att Mythos arbetar på en nivå av kodanalys som vida överstiger vad forskare inom mänsklig säkerhet eller befintliga automatiserade verktyg kan åstadkomma inom jämförbara tidsramar. Som ett sammanhang kan nämnas att CVE-databasen – den globala standarden för att spåra offentligt avslöjade cybersäkerhetssårbarheter – vanligtvis katalogiserar cirka 25 000 till 30 000 nya poster per år. En enda AI-modell som bidrar med tusentals fynd under en koncentrerad period skulle representera en betydande andel av den årliga globala avslöjandet.

För det tredje skulle denna metod kunna omdefiniera ekonomin bakom sårbarhetsforskning. Om du har följt vår bevakning av Microsoft Open-Source Toolkit Secures AI Agents at Runtime vet du att bug bounty-program och penetrationstester fortfarande är dyra och arbetsintensiva. En AI-modell som kan utföra detta arbete i stor skala skulle kunna spara organisationer miljarder i kostnader relaterade till intrång.

Bakgrund: Anthropics rykte om säkerhet först

Anthropic grundades 2021 av tidigare OpenAI-forskare, inklusive syskonen Dario och Daniela Amodei. Företaget har konsekvent positionerat sig som det säkerhetsmedvetna alternativet i den framstående AI-kapplöpningen, publicerat detaljerade policyer för ansvarsfull skalning och investerat kraftigt i anpassningsforskning. Dess Claude-familj av modeller konkurrerar direkt med OpenAI:s GPT-serie och Googles Gemini.

Beslutet att hålla Mythos undantagen från allmänhetens tillgång är i linje med den etosen. Att släppa en modell som kan identifiera nolldagssårbarheter i stor skala skulle vara ett tveeggat svärd – ovärderligt för försvarare, men potentiellt katastrofalt om den nås av illvilliga aktörer som skulle kunna utnyttja samma brister innan patchar distribuerades.

Denna spänning ligger i centrum för vad säkerhetsforskare kallar problemet med "offensiv-defensiv asymmetri". Angripare behöver bara hitta en svaghet som kan utnyttjas. Försvarare behöver hitta och uppdatera dem alla. En AI som tippar balansen mot försvarare – men bara om dess kapacitet kontrolleras noggrant – är precis den typ av verktyg som kräver en begränsad distributionsmodell.

De strategiska konsekvenserna för antropologi och industrin

Ur ett affärsperspektiv är Project Glasswing ett mästerverk även om det offrar kortsiktiga intäkter. Tänk på de strategiska fördelarna:

  • Djup integration med kritisk infrastruktur: Genom att integrera Mythos i arbetsflödena hos AWS, Microsoft, Google och andra skapar Anthropic ett beroende och förtroende som ingen marknadsföringskampanj kan köpa.
  • God vilja hos tillsynsmyndigheter: När regeringar världen över utarbetar AI-lagstiftning, ger ansvarsfull återhållsamhet trovärdighet som kommer att vara viktig när politiska beslut fattas.
  • Datafeedback-loopar: Varje sårbarhet som partnerorganisationer bekräftar och åtgärdar genererar värdefulla träningssignaler som kommer att göra framtida Anthropic-modeller ännu mer kapabla.
  • Konkurrensmässig differentiering: Varken OpenAI eller Google DeepMind har tillkännagivit något jämförbart i omfattning, vilket ger Anthropic en unik position på marknaden för företagssäkerhet.

Inkluderingen av JPMorganChase är särskilt talande. Finansinstitut står inför obevekliga cyberattacker och verkar under några av de strängaste regelverken i världen. Deras deltagande signalerar att Mythos redan har visat värde utanför tekniksektorn. Om du är intresserad av hur AI omformar finansiella tjänster, kolla in vår artikel om Google AI presenterar PaperOrchestra för automatiserad forskning .

Vad som kommer härnäst

Flera frågor kvarstår obesvarade. Kommer Anthropic så småningom att släppa Mythos offentligt, kanske efter att de mest kritiska sårbarheterna har åtgärdats? Hur ska företaget verifiera att partnerorganisationer faktiskt agerar utifrån resultaten i tid? Och vad händer när motståndare oundvikligen utvecklar sina egna AI-modeller för sårbarhetsjakt utan liknande etiska skyddsräcken?

Den bredare branschen kommer också att följa upp om detta samarbetsinriktade, kvasifilantropiska tillvägagångssätt blir en mall. Om en satsning på 100 miljoner dollar på defensiv cybersäkerhet ger mätbara resultat – färre intrång, snabbare patchar, ett säkrare internet – kommer andra AI-labb att ställas inför press att följa efter.

Det finns också frågan om huruvida regeringar kommer att försöka kräva den här typen av ramverk för ansvarsfullt offentliggörande. Cybersecurity and Infrastructure Security Agency (CISA) i USA har redan signalerat intresse för AI-assisterad sårbarhetsdetektering som en del av sitt bredare uppdrag.

Slutsatsen

Anthropics beslut att hålla Claude Mythos Preview borta från offentligheten är ett av de mest betydelsefulla besluten inom AI-branschen i år. Genom att välja säkerhet framför spektakel gör företaget en kalkylerad satsning på att de kraftfullaste AI-modellerna inte alltid ska vara produkter – ibland ska de vara verktyg som i tysthet används av de människor som är bäst positionerade för att skydda alla andra. Huruvida den satsningen lönar sig beror på genomförande, transparens och om resten av branschen är villig att följa en väg som prioriterar kollektivt försvar framför individuell vinst.

Follow
Loading

Signing-in 3 seconds...

Signing-up 3 seconds...