
Anthropic has withheld its most powerful AI model, Claude Mythos Preview, from public release after it discovered thousands of cybersecurity vulnerabilities across major platforms. Through Project Glasswing, the company is sharing the model exclusively with leading tech organisations and committing $100 million to help secure critical infrastructure.
Anthropic on päättänyt olla julkaisematta edistyneintä tekoälymalliaan sen jälkeen, kun se havaitsi tuhansia aiemmin tuntemattomia kyberturvallisuushaavoittuvuuksia tärkeimmissä käyttöjärjestelmissä ja verkkoselaimissa. Tämä merkitsee dramaattista muutosta siinä, miten tekoälyä käytetään rajaseudulla. Sen sijaan, että yritys olisi julkaissut mallin kaupallisesti, se jakoi sen käyttöoikeuden hiljaisesti organisaatioille, jotka vastaavat maailman digitaalisen infrastruktuurin turvaamisesta.
Kyseinen malli on nimeltään Claude Mythos Preview, ja se edustaa Anthropicin tähän mennessä tehokkainta järjestelmää. Sisäisissä testeissä Mythos osoitti poikkeuksellisen kyvyn tunnistaa tietoturva-aukkoja – paljastaen tuhansia haavoittuvuuksia kaikissa tärkeimmissä käyttöjärjestelmissä ja selainekosysteemeissä, joita tällä hetkellä käytetään.
Sen sijaan, että Anthropic olisi pitänyt tätä tuotelanseerausmahdollisuutena, se perusti Project Glasswing -nimisen aloitteen. Ohjelma kanavoi Mythoksen osaamisen suoraan yrityksille ja säätiöille, jotka rakentavat ja ylläpitävät kriittisiä ohjelmistoja. Lanseerauskumppanit ovat kuin kuka kukin on globaalissa teknologiassa: Amazon Web Services, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorganChase, Linux Foundation, Microsoft, Nvidia ja Palo Alto Networks.
Alkuperäisen ryhmän lisäksi käyttöoikeutta on laajennettu yli 40 muulle organisaatiolle, jotka kehittävät tai ylläpitävät keskeistä ohjelmistoinfrastruktuuria. Rahoittaakseen pyrkimystä Anthropic sitoutuu antamaan jopa 100 miljoonaa dollaria käyttöhyvityksiä, jotta nämä kumppanit voivat käyttää Mythosta omilla koodikantoillaan.
Tällä päätöksellä on valtava merkitys useista syistä. Ensinnäkin se on yksi selkeimmistä esimerkeistä tekoälylaboratoriosta, joka on tarkoituksella rajoittanut läpimurtomallin kaupallista potentiaalia turvallisuussyistä. Toimialalla, jota usein kritisoidaan tuotteiden toimittamisen kilpajuoksusta, Anthropic valitsi pidättyvyyden – ja se on huomionarvoista.
Toiseksi, löytöjen valtava laajuus on hämmästyttävä. Tuhansien haavoittuvuuksien löytäminen useilla alustoilla viittaa siihen, että Mythos toimii koodianalyysin tasolla, joka ylittää reilusti sen, mitä ihmistietoturvatutkijat tai olemassa olevat automatisoidut työkalut pystyvät saavuttamaan vertailukelpoisissa aikaväleissä. Kontekstin vuoksi CVE-tietokanta – maailmanlaajuinen standardi julkisesti paljastuneiden kyberturvallisuushaavoittuvuuksien seurantaan – luetteloi tyypillisesti noin 25 000–30 000 uutta merkintää vuodessa. Yksittäinen tekoälymalli, joka tuottaa tuhansia löydöksiä keskittyneenä ajanjaksona, edustaisi merkittävää osaa vuosittaisista maailmanlaajuisista paljastuksista.
Kolmanneksi tämä lähestymistapa voisi määritellä haavoittuvuustutkimuksen taloudelliset näkökohdat uudelleen. Jos olet seurannut artikkeliamme Microsoft Open-Source Toolkit Secures AI Agents at Runtime -tapahtumasta , tiedät, että bug bounty -ohjelmat ja penetraatiotestaus ovat edelleen kalliita ja työvoimavaltaisia. Tekoälymalli, joka pystyy tekemään tämän työn skaalautuvasti, voisi säästää organisaatioille miljardeja tietomurtoihin liittyvissä kustannuksissa.
Anthropicin perustivat vuonna 2021 entiset OpenAI-tutkijat, mukaan lukien sisarukset Dario ja Daniela Amodei. Yritys on johdonmukaisesti asemoinut itsensä turvallisuustietoiseksi vaihtoehdoksi tekoälyn eturintamassa julkaisemalla yksityiskohtaisia vastuullisen skaalauksen käytäntöjä ja investoimalla voimakkaasti yhdenmukaistamistutkimukseen. Sen Claude-mallisto kilpailee suoraan OpenAI:n GPT-sarjan ja Googlen Geminin kanssa.
Päätös estää Mythoksen julkista pääsyä on tämän eetoksen mukainen. Mallin julkaiseminen, joka pystyy tunnistamaan nollapäivähaavoittuvuuksia laajamittaisesti, olisi kaksiteräinen miekka – korvaamaton puolustajille, mutta mahdollisesti katastrofaalinen, jos pahantahtoiset toimijat pääsisivät siihen käsiksi ja voisivat hyödyntää samoja haavoittuvuuksia ennen korjauspäivitysten käyttöönottoa.
Tämä jännite on ydin siinä, mitä tietoturvatutkijat kutsuvat "hyökkäys-puolustusasymmetriaksi". Hyökkääjien tarvitsee löytää vain yksi hyödynnettävissä oleva heikkous. Puolustajien on löydettävä ja korjattava ne kaikki. Tekoäly, joka kallistaa vaakaa puolustajien puolelle – mutta vain jos sen ominaisuuksia valvotaan huolellisesti – on juuri sellainen työkalu, joka vaatii rajoitetun jakelumallin.
Liiketoiminnan näkökulmasta Project Glasswing on mestariteos, vaikka se uhraakin lyhyen aikavälin tuloja. Harkitse strategisia etuja:
JPMorganChasen mukaan ottaminen on erityisen paljastavaa. Rahoituslaitokset kohtaavat armottomia kyberhyökkäyksiä ja toimivat joidenkin maailman tiukimpien sääntelykehysten alaisuudessa. Niiden osallistuminen osoittaa, että Mythos on jo osoittanut arvoa teknologiasektorin ulkopuolellakin. Jos olet kiinnostunut siitä, miten tekoäly muokkaa rahoituspalveluita, tutustu artikkeliimme Google AI Unveils PaperOrchestra for Automated Research .
Useisiin kysymyksiin ei ole vielä vastattu. Julkaiseeko Anthropic Mythoksen lopulta julkisesti, kenties sen jälkeen, kun kriittisimmät haavoittuvuudet on korjattu? Miten yritys aikoo varmistaa, että kumppaniorganisaatiot todella toimivat löydösten perusteella ajoissa? Ja mitä tapahtuu, kun vastustajat väistämättä kehittävät omia haavoittuvuuksia metsästäviä tekoälymallejaan ilman vastaavia eettisiä suojakaiteita?
Myös laajempi toimiala seuraa, tuleeko tästä yhteistyöhön perustuvasta, lähes hyväntekeväisyyteen perustuvasta lähestymistavasta malli. Jos 100 miljoonan dollarin sitoumus puolustavaan kyberturvallisuuteen tuottaa mitattavia tuloksia – vähemmän tietomurtoja, nopeampia korjauksia, turvallisemman internetin – muut tekoälylaboratoriot kohtaavat paineita seurata perässä.
On myös kysymys siitä, pyrkivätkö hallitukset säätämään tällaisesta vastuullisesta tiedonantokehyksestä pakollisen. Yhdysvaltain kyberturvallisuus- ja infrastruktuuriturvallisuusvirasto (CISA) on jo ilmaissut kiinnostuksensa tekoälyn avusteiseen haavoittuvuuksien havaitsemiseen osana laajempaa tehtäväänsä.
Anthropicin päätös pitää Claude Mythos Preview poissa julkisuudesta on yksi tekoälyalan merkittävimmistä liikkeistä tänä vuonna. Valitsemalla turvallisuuden spektaakkelin sijaan yritys lyö laskelmoivan vetoa siitä, että tehokkaimpien tekoälymallien ei aina pitäisi olla tuotteita – joskus niiden pitäisi olla työkaluja, joita käyttävät hiljaa ihmiset, jotka ovat parhaiten asemoituneet suojelemaan kaikkia muita. Se, kannattaako tämä veto, riippuu toteutuksesta, läpinäkyvyydestä ja siitä, onko muu toimiala halukas seuraamaan polkua, joka asettaa kollektiivisen puolustuksen etusijalle yksilöllisen voiton kustannuksella.