
Anthropic has withheld its most powerful AI model, Claude Mythos Preview, from public release after it discovered thousands of cybersecurity vulnerabilities across major platforms. Through Project Glasswing, the company is sharing the model exclusively with leading tech organisations and committing $100 million to help secure critical infrastructure.
W geście, który sygnalizuje radykalną zmianę w sposobie wdrażania pionierskich możliwości sztucznej inteligencji, firma Anthropic zdecydowała się wstrzymać publiczną publikację swojego najbardziej zaawansowanego modelu sztucznej inteligencji po wykryciu tysięcy nieznanych wcześniej luk w cyberbezpieczeństwie w głównych systemach operacyjnych i przeglądarkach internetowych. Zamiast wprowadzić go na rynek komercyjny, firma po cichu udostępniła dostęp organizacjom odpowiedzialnym za bezpieczeństwo światowej infrastruktury cyfrowej.
Model, o którym mowa, nosi nazwę Claude Mythos Preview i reprezentuje jak dotąd najpotężniejszy system firmy Anthropic. Podczas testów wewnętrznych Mythos wykazał się niezwykłą zdolnością do identyfikowania luk w zabezpieczeniach – odsłaniając tysiące luk w zabezpieczeniach obejmujących wszystkie główne systemy operacyjne i przeglądarki, z których obecnie korzystamy.
Zamiast traktować to jako okazję do wprowadzenia produktu na rynek, Anthropic uruchomił inicjatywę o nazwie Project Glasswing. Program ten przekazuje potencjał Mythos bezpośrednio firmom i fundacjom, które tworzą i utrzymują kluczowe oprogramowanie. Partnerzy wprowadzający produkt na rynek to prawdziwa lista światowych sław technologii: Amazon Web Services, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorganChase, Linux Foundation, Microsoft, Nvidia i Palo Alto Networks.
Oprócz tej początkowej grupy, dostęp został rozszerzony na ponad 40 kolejnych organizacji, które opracowują lub utrzymują niezbędną infrastrukturę oprogramowania. Aby wesprzeć finansowo to przedsięwzięcie, Anthropic przeznacza do 100 milionów dolarów w formie kredytów na użytkowanie, dzięki czemu partnerzy będą mogli uruchamiać Mythos na własnych bazach kodu.
Ta decyzja ma ogromne znaczenie z kilku powodów. Po pierwsze, stanowi jeden z najwyraźniejszych jak dotąd przykładów laboratorium sztucznej inteligencji celowo ograniczającego potencjał komercyjny przełomowego modelu ze względu na kwestie bezpieczeństwa. W branży często krytykowanej za pośpiech w dostarczaniu produktów, Anthropic postawił na powściągliwość – i to jest godne uwagi.
Po drugie, skala odkryć jest oszałamiająca. Znalezienie tysięcy luk w zabezpieczeniach na wielu platformach sugeruje, że Mythos działa na poziomie analizy kodu znacznie przewyższającym to, co mogą osiągnąć badacze bezpieczeństwa lub istniejące narzędzia automatyczne w porównywalnych ramach czasowych. Dla porównania, baza danych CVE – globalny standard śledzenia publicznie ujawnionych luk w zabezpieczeniach cyberbezpieczeństwa – zazwyczaj kataloguje około 25 000 do 30 000 nowych wpisów rocznie. Pojedynczy model sztucznej inteligencji generujący tysiące odkryć w skoncentrowanym okresie stanowiłby znaczący ułamek corocznych, globalnych ujawnień.
Po trzecie, takie podejście mogłoby na nowo zdefiniować ekonomikę badań nad lukami w zabezpieczeniach. Jeśli śledzisz nasz artykuł „Microsoft Open Source Toolkit Secures AI Agents at Runtime” , wiesz, że programy bug bounty i testy penetracyjne wciąż są drogie i pracochłonne. Model sztucznej inteligencji zdolny do wykonywania tych zadań na dużą skalę mógłby zaoszczędzić organizacjom miliardy dolarów na kosztach związanych z naruszeniami.
Firma Anthropic została założona w 2021 roku przez byłych badaczy OpenAI, w tym rodzeństwo Dario i Danielę Amodei. Firma konsekwentnie pozycjonuje się jako świadoma bezpieczeństwa alternatywa w wyścigu pionierskich rozwiązań sztucznej inteligencji, publikując szczegółowe zasady odpowiedzialnego skalowania i inwestując znaczne środki w badania nad zgodnością. Rodzina modeli Claude firmy Anthropic bezpośrednio konkuruje z serią GPT firmy OpenAI i Gemini firmy Google.
Decyzja o wstrzymaniu publicznego dostępu do Mythos jest zgodna z tą etyką. Udostępnienie modelu, który potrafi identyfikować luki zero-day na dużą skalę, byłoby mieczem obosiecznym – nieocenionym dla obrońców, ale potencjalnie katastrofalnym w skutkach, gdyby uzyskali do niego dostęp przestępcy, którzy mogliby wykorzystać te same luki przed wdrożeniem poprawek.
To napięcie leży u podstaw tego, co badacze bezpieczeństwa nazywają problemem „asymetrii ofensywno-defensywnej”. Atakujący muszą znaleźć tylko jedną możliwą do wykorzystania słabość. Obrońcy muszą znaleźć i załatać wszystkie. Sztuczna inteligencja, która przechyla szalę na korzyść obrońców – ale tylko pod warunkiem, że jej możliwości są starannie kontrolowane – to dokładnie ten rodzaj narzędzia, który wymaga ograniczonego modelu dystrybucji.
Z biznesowego punktu widzenia, Projekt Glasswing to majstersztyk, nawet jeśli wiąże się z poświęceniem krótkoterminowych przychodów. Rozważ korzyści strategiczne:
Włączenie JPMorganChase jest szczególnie wymowne. Instytucje finansowe mierzą się z nieustannymi cyberatakami i działają w ramach jednych z najsurowszych ram regulacyjnych na świecie. Ich udział świadczy o tym, że Mythos udowodnił już swoją wartość poza sektorem technologicznym. Jeśli interesuje Cię, jak sztuczna inteligencja zmienia usługi finansowe, przeczytaj nasz artykuł: Google AI Unveils PaperOrchestra for Automated Research .
Kilka pytań pozostaje bez odpowiedzi. Czy Anthropic ostatecznie opublikuje Mythos publicznie, być może po załataniu najpoważniejszych luk? W jaki sposób firma zweryfikuje, czy organizacje partnerskie rzeczywiście podejmują działania w oparciu o ustalenia w odpowiednim czasie? I co się stanie, gdy przeciwnicy nieuchronnie opracują własne modele sztucznej inteligencji do wyszukiwania luk w zabezpieczeniach, bez podobnych zabezpieczeń etycznych?
Szeroka branża będzie również obserwować, czy to wspólne, quasi-filantropijne podejście stanie się wzorem. Jeśli zobowiązanie w wysokości 100 milionów dolarów na defensywne cyberbezpieczeństwo przyniesie wymierne rezultaty – mniej naruszeń, szybsze wdrażanie poprawek, bezpieczniejszy internet – inne laboratoria AI będą musiały pójść w ich ślady.
Pojawia się również pytanie, czy rządy będą dążyć do wprowadzenia tego rodzaju odpowiedzialnych ram ujawniania informacji. Amerykańska Agencja ds. Cyberbezpieczeństwa i Bezpieczeństwa Infrastruktury (CISA) zasygnalizowała już zainteresowanie wykrywaniem luk w zabezpieczeniach z wykorzystaniem sztucznej inteligencji w ramach swojej szerszej misji.
Decyzja firmy Anthropic o ukryciu przed opinią publiczną premiery Claude Mythos to jeden z najważniejszych ruchów w branży sztucznej inteligencji w tym roku. Wybierając bezpieczeństwo zamiast widowiska, firma stawia na to, że najpotężniejsze modele sztucznej inteligencji nie zawsze powinny być produktami – czasami powinny być narzędziami, którymi po cichu posługują się osoby najlepiej przygotowane do ochrony innych. To, czy ten zakład się opłaci, zależeć będzie od realizacji, transparentności i tego, czy reszta branży będzie skłonna pójść drogą, która stawia zbiorową obronę ponad indywidualny zysk.