
Anthropic has withheld its most powerful AI model, Claude Mythos Preview, from public release after it discovered thousands of cybersecurity vulnerabilities across major platforms. Through Project Glasswing, the company is sharing the model exclusively with leading tech organisations and committing $100 million to help secure critical infrastructure.
Într-o mișcare care semnalează o schimbare dramatică în modul în care sunt implementate capabilitățile de inteligență artificială de frontieră, Anthropic a ales să rețină lansarea publică a celui mai avansat model al său de inteligență artificială, după ce a detectat mii de vulnerabilități de securitate cibernetică necunoscute anterior în principalele sisteme de operare și browsere web. În loc să îl lanseze comercial, compania a distribuit discret accesul organizațiilor responsabile de securizarea infrastructurii digitale a lumii.
Modelul în cauză se numește Claude Mythos Preview și reprezintă cel mai capabil sistem al Anthropic de până acum. În timpul testelor interne, Mythos a demonstrat o capacitate extraordinară de a identifica defectele de securitate - descoperind mii de vulnerabilități care acoperă fiecare sistem de operare major și ecosistem de browsere utilizate în prezent.
În loc să trateze acest lucru ca pe o oportunitate de lansare a unui produs, Anthropic a lansat o inițiativă numită Project Glasswing. Programul canalizează capacitățile Mythos direct către companiile și fundațiile care construiesc și întrețin software critic. Partenerii de lansare sunt reprezentați de vedetele tehnologiei globale: Amazon Web Services, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorganChase, Fundația Linux, Microsoft, Nvidia și Palo Alto Networks.
Dincolo de acel grup inițial, accesul a fost extins la peste 40 de organizații suplimentare care dezvoltă sau întrețin infrastructură software esențială. Pentru a susține financiar acest efort, Anthropic alocă până la 100 de milioane de dolari în credite de utilizare, astfel încât acești parteneri să poată rula Mythos pe propriile baze de cod.
Această decizie are o semnificație enormă din mai multe motive. În primul rând, reprezintă unul dintre cele mai clare exemple de până acum ale unui laborator de inteligență artificială care limitează în mod deliberat potențialul comercial al unui model revoluționar din cauza implicațiilor de securitate. Într-o industrie adesea criticată pentru concurența în livrarea de produse, Anthropic a ales reținerea - și acest lucru este demn de remarcat.
În al doilea rând, amploarea descoperirilor este uimitoare. Descoperirea a mii de vulnerabilități pe mai multe platforme sugerează că Mythos operează la un nivel de analiză a codului care depășește cu mult ceea ce cercetătorii în domeniul securității umane sau instrumentele automate existente pot realiza în intervale de timp comparabile. Pentru context, baza de date CVE - standardul global pentru urmărirea vulnerabilităților de securitate cibernetică dezvăluite public - cataloghează de obicei între 25.000 și 30.000 de intrări noi pe an. Un singur model de inteligență artificială care contribuie cu mii de descoperiri într-o perioadă concentrată ar reprezenta o fracțiune semnificativă din dezvăluirea globală anuală.
În al treilea rând, această abordare ar putea redefini economia cercetării vulnerabilităților. Dacă ați urmărit articolul nostru despre Microsoft Open-Source Toolkit Secures AI Agents at Runtime , știți că programele de recompense pentru erori și testele de penetrare rămân costisitoare și necesită multă muncă. Un model de inteligență artificială capabil să facă această muncă la scară largă ar putea economisi organizațiilor miliarde de dolari în costuri legate de încălcări.
Anthropic a fost fondată în 2021 de foști cercetători OpenAI, inclusiv frații Dario și Daniela Amodei. Compania s-a poziționat constant ca alternativă conștientă de siguranță în cursa IA de frontieră, publicând politici detaliate de scalare responsabilă și investind masiv în cercetarea alinierii. Familia sa de modele Claude concurează direct cu seria GPT de la OpenAI și cu Gemini de la Google.
Decizia de a reține accesul public la Mythos este în concordanță cu acest etos. Lansarea unui model care poate identifica vulnerabilitățile zero-day la scară largă ar fi o sabie cu două tăișuri - neprețuită pentru apărători, dar potențial catastrofală dacă ar fi accesată de actori rău intenționați care ar putea exploata aceleași defecte înainte de implementarea patch-urilor.
Această tensiune se află în centrul a ceea ce cercetătorii în domeniul securității numesc problema „asimetriei ofensive-defensive”. Atacatorii trebuie să găsească o singură slăbiciune exploatabilă. Apărătorii trebuie să le găsească și să le corecteze pe toate. O inteligență artificială care înclină balanța în favoarea apărătorilor - dar numai dacă capacitățile sale sunt controlate cu atenție - este exact genul de instrument care necesită un model de distribuție restrâns.
Dintr-o perspectivă comercială, Proiectul Glasswing este o lovitură de maestru, chiar dacă sacrifică veniturile pe termen scurt. Luați în considerare beneficiile strategice:
Includerea JPMorganChase este deosebit de semnificativă. Instituțiile financiare se confruntă cu atacuri cibernetice neîncetate și operează în cadrul unora dintre cele mai stricte cadre de reglementare de pe Pământ. Participarea lor semnalează faptul că Mythos a demonstrat deja valoare dincolo de sectorul tehnologic. Dacă sunteți interesați de modul în care inteligența artificială remodelează serviciile financiare, consultați articolul nostru despre Google AI dezvăluie PaperOrchestra pentru cercetare automatizată .
Mai multe întrebări rămân fără răspuns. Va lansa Anthropic în cele din urmă Mythos public, poate după ce cele mai critice vulnerabilități vor fi corectate? Cum va verifica compania dacă organizațiile partenere acționează efectiv pe baza descoperirilor în timp util? Și ce se întâmplă când adversarii își dezvoltă inevitabil propriile modele de inteligență artificială pentru identificarea vulnerabilităților, fără garanții etice similare?
Industria în general va urmări, de asemenea, dacă această abordare colaborativă, cvasi-filantropică, devine un model. Dacă un angajament de 100 de milioane de dolari pentru securitatea cibernetică defensivă va produce rezultate măsurabile - mai puține breșe de securitate, patch-uri mai rapide, un internet mai sigur - alte laboratoare de inteligență artificială se vor confrunta cu presiuni pentru a urma exemplul.
Există, de asemenea, întrebarea dacă guvernele vor încerca să impună acest tip de cadru de dezvăluire responsabilă. Agenția pentru Securitatea Cibernetică și Infrastructură (CISA) din Statele Unite și-a semnalat deja interesul pentru detectarea vulnerabilităților asistată de inteligența artificială, ca parte a misiunii sale mai ample.
Decizia Anthropic de a ține Claude Mythos Preview departe de atenția publicului este una dintre cele mai importante mișcări din industria inteligenței artificiale din acest an. Alegând securitatea în locul spectacolului, compania face un pariu calculat că cele mai puternice modele de inteligență artificială nu ar trebui să fie întotdeauna produse - uneori ar trebui să fie instrumente folosite discret de către persoanele cel mai bine poziționate pentru a-i proteja pe ceilalți. Dacă acest pariu va fi rentabil va depinde de execuție, transparență și de disponibilitatea restului industriei să urmeze o cale care prioritizează apărarea colectivă în detrimentul profitului individual.