Az Anthropic több ezer mesterséges intelligencia modellt talált, így titokban tartja az új MI-modelljét

Anthropic has withheld its most powerful AI model, Claude Mythos Preview, from public release after it discovered thousands of cybersecurity vulnerabilities across major platforms. Through Project Glasswing, the company is sharing the model exclusively with leading tech organisations and committing $100 million to help secure critical infrastructure.

Egy olyan lépésben, amely drámai változást jelez a határterületi mesterséges intelligencia képességeinek alkalmazásában, az Anthropic úgy döntött, hogy visszatartja legfejlettebb mesterséges intelligencia modelljének nyilvános közzétételét, miután több ezer korábban ismeretlen kiberbiztonsági sebezhetőséget észlelt a főbb operációs rendszerekben és webböngészőkben. A kereskedelmi forgalomba hozatal helyett a vállalat csendben hozzáférést osztott ki a világ digitális infrastruktúrájának biztonságáért felelős szervezeteknek.

Mi történt: Project Glasswing és Claude Mythos előzetes

A szóban forgó modell Claude Mythos Preview néven fut, és az Anthropic eddigi leghatékonyabb rendszerét képviseli. A belső tesztelés során a Mythos rendkívüli képességet mutatott a biztonsági hibák azonosításában – több ezer sebezhetőséget tárt fel, amelyek minden jelenleg használt nagyobb operációs rendszert és böngésző-ökoszisztémát lefedtek.

Ahelyett, hogy ezt egy termékbevezetési lehetőségként kezelte volna, az Anthropic létrehozott egy Project Glasswing elnevezésű kezdeményezést. A program a Mythos képességeit közvetlenül a kritikus szoftvereket fejlesztő és karbantartó vállalatokhoz és alapítványokhoz juttatja el. Az indítási partnerek a globális technológia szakértői közé tartoznak: Amazon Web Services, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorganChase, Linux Foundation, Microsoft, Nvidia és Palo Alto Networks.

A kezdeti csoporton túl a hozzáférést több mint 40 további szervezetre kiterjesztették, amelyek alapvető szoftverinfrastruktúrát fejlesztenek vagy tartanak karban. A pénzügyi támogatás érdekében az Anthropic akár 100 millió dolláros használati kreditet is biztosít, hogy ezek a partnerek a Mythos-t saját kódbázisaikon futtathassák.

Miért fontos ez: Új paradigma a felelős mesterséges intelligencia telepítéséhez

Ez a döntés több okból is óriási jelentőséggel bír. Először is, ez az egyik legtisztább példa arra, hogy egy MI-laboratórium biztonsági szempontok miatt szándékosan korlátozza egy áttörést jelentő modell kereskedelmi potenciálját. Egy olyan iparágban, amelyet gyakran kritizálnak a termékek szállításáért folytatott verseny miatt, az Anthropic a visszafogottságot választotta – és ez figyelemre méltó.

Másodszor, a felfedezések puszta mértéke megdöbbentő. A több platformon talált több ezer sebezhetőség arra utal, hogy a Mythos olyan szintű kódelemzést végez, amely messze meghaladja azt, amit az emberi biztonsági kutatók vagy a meglévő automatizált eszközök hasonló időkereten belül el tudnak érni. Összehasonlításképpen, a CVE adatbázis – a nyilvánosan közzétett kiberbiztonsági sebezhetőségek nyomon követésének globális szabványa – jellemzően évente 25 000 és 30 000 új bejegyzést katalogizál. Egyetlen mesterséges intelligencia modell, amely egy koncentrált időszakban több ezer találatot eredményezne, az éves globális közzétételek jelentős részét képviselné.

Harmadszor, ez a megközelítés újraértelmezheti a sebezhetőségi kutatások gazdaságosságát. Ha követte a Microsoft Open-Source Toolkit Secures AI Agents at Runtime című cikkünket, akkor tudja, hogy a hibajavító programok és a penetrációs tesztelés továbbra is drágák és munkaigényesek. Egy olyan MI-modell, amely képes ezt a munkát nagy léptékben elvégezni, milliárdokat takaríthatna meg a szervezeteknek a behatolással kapcsolatos költségeken.

Háttér: Az Anthropic biztonság-első hírneve

Az Anthropicot 2021-ben alapították korábbi OpenAI-kutatók, köztük Dario és Daniela Amodei testvérek. A vállalat következetesen a határterületi MI-verseny biztonságtudatos alternatívájaként pozicionálta magát, részletes, felelősségteljes skálázási szabályzatokat tett közzé, és jelentős összegeket fektetett be az összehangolási kutatásokba. Claude modellcsaládjuk közvetlenül versenyez az OpenAI GPT sorozatával és a Google Gemini-jével.

A Mythos nyilvános hozzáférésének megvonása összhangban van ezzel az alapelvvel. Egy olyan modell kiadása, amely képes nagymértékben azonosítani a nulladik napi sebezhetőségeket, kétélű fegyver lenne – felbecsülhetetlen értékű a védők számára, de potenciálisan katasztrofális lehet, ha rosszindulatú szereplők férnének hozzá, akik kihasználhatnák ugyanazokat a hibákat, mielőtt a javításokat telepítenék.

Ez a feszültség áll a biztonsági kutatók által „támadás-védekezés aszimmetriájának” nevezett probléma középpontjában. A támadóknak mindössze egyetlen kihasználható gyengeséget kell találniuk. A védőknek pedig mindegyiket meg kell találniuk és ki kell javítaniuk. Egy olyan mesterséges intelligencia, amely a védekező fél javára billenti a mérleget – de csak akkor, ha képességeit gondosan ellenőrzik –, pontosan az a fajta eszköz, amely korlátozott terjesztési modellt igényel.

Stratégiai következmények az antropikus és az ipari életre nézve

Üzleti szempontból a Project Glasswing egy mesterfogás, még akkor is, ha rövid távon bevételeket áldoz fel. Vegyük figyelembe a stratégiai előnyöket:

  • Mély integráció a kritikus infrastruktúrával: Azzal, hogy a Mythos-t beágyazza az AWS, a Microsoft, a Google és mások munkafolyamataiba, az Anthropic olyan függőséget és bizalmat teremt, amelyet egyetlen marketingkampány sem tudna megvásárolni.
  • Jóakarat a szabályozó hatóságokkal: Miközben a kormányok világszerte mesterséges intelligencia-törvényeket készítenek, a felelős önmérséklet tanúsítása hitelességet teremt, amely számít majd a politikai döntések meghozatalakor.
  • Adat-visszacsatolási hurkok: Minden olyan sebezhetőség, amelyet a partnerszervezetek megerősítenek és kijavítanak, értékes képzési jelet generál, amely a jövőbeli antropikus modelleket még hatékonyabbá teszi.
  • Versenyelőnyös megkülönböztetés: Sem az OpenAI, sem a Google DeepMind nem jelentett be semmi hasonló hatókörű megoldást, ami egyedülálló pozíciót biztosít az Anthropicnak a vállalati biztonsági piacon.

A JPMorganChase bevonása különösen sokatmondó. A pénzügyi intézmények szüntelenül kibertámadásokkal néznek szembe, és a Föld legszigorúbb szabályozási keretei közé tartoznak. Részvételük azt jelzi, hogy a Mythos már bizonyította értékét a technológiai szektoron túl is. Ha érdekli, hogyan alakítja át a mesterséges intelligencia a pénzügyi szolgáltatásokat, tekintse meg cikkünket a Google AI bemutatja a PaperOrchestrát az automatizált kutatáshoz .

Mi következik?

Számos kérdés továbbra is megválaszolatlan marad. Vajon az Anthropic végül nyilvánosan is közzéteszi-e a Mythos-t, talán miután a legkritikusabb sebezhetőségeket kijavították? Hogyan fogja a vállalat ellenőrizni, hogy a partnerszervezetek valóban időben reagálnak-e a megállapításokra? És mi történik, ha az ellenfelek elkerülhetetlenül kifejlesztik saját sebezhetőség-vadász mesterséges intelligencia modelljeiket hasonló etikai védőkorlátok nélkül?

Az iparág szélesebb körben is figyelemmel kíséri majd, hogy ez az együttműködő, kvázi filantróp megközelítés sablonná válik-e. Ha egy 100 millió dolláros védelmi kiberbiztonsági befektetés mérhető eredményeket hoz – kevesebb incidens, gyorsabb javítások, biztonságosabb internet –, akkor más mesterséges intelligencia-laboratóriumok is nyomás alá kerülnek, hogy kövessék a példát.

Az is kérdés, hogy a kormányok vajon előírják-e majd ezt a fajta felelősségteljes közzétételi keretrendszert. Az Egyesült Államok Kiberbiztonsági és Infrastruktúra-biztonsági Ügynöksége (CISA) már jelezte érdeklődését a mesterséges intelligencia által támogatott sebezhetőség-észlelés iránt, mint tágabb küldetésének részét.

A lényeg

Az Anthropic döntése, hogy a Claude Mythos Preview-t elrejti a nyilvánosság elől, az egyik legjelentősebb lépés a mesterséges intelligencia iparágban idén. Azzal, hogy a biztonságot választja a látványosság helyett, a vállalat tudatosan arra fogad, hogy a legerősebb MI-modellek nem mindig termékek kell, hogy legyenek – néha olyan eszközök, amelyeket csendben kezelnek azok az emberek, akik a legjobb helyzetben vannak ahhoz, hogy mindenki mást megvédjenek. Az, hogy ez a tét megtérül-e, a végrehajtástól, az átláthatóságtól és attól függ, hogy az iparág többi része hajlandó-e olyan utat követni, amely a kollektív védelmet helyezi előtérbe az egyéni profittal szemben.

Follow
Loading

Signing-in 3 seconds...

Signing-up 3 seconds...