
Anthropic has withheld its most powerful AI model, Claude Mythos Preview, from public release after it discovered thousands of cybersecurity vulnerabilities across major platforms. Through Project Glasswing, the company is sharing the model exclusively with leading tech organisations and committing $100 million to help secure critical infrastructure.
Dalam langkah yang menandai pergeseran dramatis dalam cara kemampuan AI mutakhir diterapkan, Anthropic memilih untuk menahan model kecerdasan buatan tercanggihnya dari rilis publik setelah mendeteksi ribuan kerentanan keamanan siber yang sebelumnya tidak diketahui di berbagai sistem operasi dan peramban web utama. Alih-alih meluncurkannya secara komersial, perusahaan tersebut secara diam-diam mendistribusikan akses kepada organisasi yang bertanggung jawab untuk mengamankan infrastruktur digital dunia.
Model yang dimaksud disebut Claude Mythos Preview, dan ini merupakan sistem Anthropic yang paling mumpuni hingga saat ini. Selama pengujian internal, Mythos menunjukkan kemampuan luar biasa untuk mengidentifikasi celah keamanan — mengungkap ribuan kerentanan yang mencakup setiap sistem operasi dan ekosistem peramban utama yang saat ini digunakan.
Alih-alih memperlakukan ini sebagai peluang peluncuran produk, Anthropic mendirikan sebuah inisiatif yang disebut Project Glasswing. Program ini menyalurkan kemampuan Mythos secara langsung ke perusahaan dan yayasan yang membangun dan memelihara perangkat lunak penting. Mitra peluncurannya merupakan deretan perusahaan teknologi global terkemuka: Amazon Web Services, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorganChase, Linux Foundation, Microsoft, Nvidia, dan Palo Alto Networks.
Di luar kelompok awal tersebut, akses telah diperluas ke lebih dari 40 organisasi tambahan yang mengembangkan atau memelihara infrastruktur perangkat lunak penting. Untuk mendukung upaya ini secara finansial, Anthropic berkomitmen hingga $100 juta dalam bentuk kredit penggunaan sehingga para mitra ini dapat menjalankan Mythos terhadap basis kode mereka sendiri.
Keputusan ini memiliki arti penting yang sangat besar karena beberapa alasan. Pertama, ini merupakan salah satu contoh paling jelas hingga saat ini tentang sebuah laboratorium AI yang sengaja membatasi potensi komersial dari model terobosan karena implikasi keamanan. Dalam industri yang sering dikritik karena berlomba-lomba meluncurkan produk, Anthropic memilih untuk menahan diri — dan itu patut diperhatikan.
Kedua, skala penemuan yang luar biasa ini sangat mencengangkan. Menemukan ribuan kerentanan di berbagai platform menunjukkan bahwa Mythos beroperasi pada tingkat analisis kode yang jauh melampaui apa yang dapat dicapai oleh peneliti keamanan manusia atau alat otomatis yang ada dalam jangka waktu yang sebanding. Sebagai konteks, basis data CVE — standar global untuk melacak kerentanan keamanan siber yang diungkapkan secara publik — biasanya mencatat sekitar 25.000 hingga 30.000 entri baru per tahun. Sebuah model AI tunggal yang memberikan ribuan temuan dalam periode yang terkonsentrasi akan mewakili sebagian besar pengungkapan global tahunan.
Ketiga, pendekatan ini dapat mendefinisikan ulang ekonomi riset kerentanan. Jika Anda telah mengikuti liputan kami tentang Microsoft Open-Source Toolkit Mengamankan Agen AI Saat Runtime , Anda akan tahu bahwa program bug bounty dan pengujian penetrasi tetap mahal dan membutuhkan banyak tenaga. Model AI yang mampu melakukan pekerjaan ini dalam skala besar dapat menghemat miliaran dolar bagi organisasi dalam biaya terkait pelanggaran keamanan.
Anthropic didirikan pada tahun 2021 oleh mantan peneliti OpenAI, termasuk kakak beradik Dario dan Daniela Amodei. Perusahaan ini secara konsisten memposisikan dirinya sebagai alternatif yang sadar akan keselamatan dalam perlombaan AI terdepan, dengan menerbitkan kebijakan penskalaan yang bertanggung jawab secara rinci dan berinvestasi besar-besaran dalam penelitian penyelarasan. Keluarga model Claude-nya bersaing langsung dengan seri GPT OpenAI dan Gemini Google.
Keputusan untuk menahan Mythos dari akses publik sejalan dengan etos tersebut. Merilis model yang dapat mengidentifikasi kerentanan zero-day dalam skala besar akan menjadi pedang bermata dua — sangat berharga bagi para pembela, tetapi berpotensi menimbulkan bencana jika diakses oleh pelaku jahat yang dapat mengeksploitasi kelemahan yang sama sebelum tambalan diterapkan.
Ketegangan ini berada di jantung apa yang disebut oleh para peneliti keamanan sebagai masalah "asimetri ofensif-defensif". Penyerang hanya perlu menemukan satu kelemahan yang dapat dieksploitasi. Pihak bertahan perlu menemukan dan menambal semua kelemahan tersebut. AI yang memiringkan keseimbangan ke arah pihak bertahan — tetapi hanya jika kemampuannya dikontrol dengan cermat — adalah jenis alat yang membutuhkan model distribusi yang terbatas.
Dari perspektif bisnis, Proyek Glasswing adalah langkah brilian meskipun mengorbankan pendapatan jangka pendek. Pertimbangkan manfaat strategisnya:
Keikutsertaan JPMorganChase sangatlah penting. Lembaga keuangan menghadapi serangan siber tanpa henti dan beroperasi di bawah beberapa kerangka peraturan terketat di dunia. Partisipasi mereka menandakan bahwa Mythos telah menunjukkan nilai di luar sektor teknologi. Jika Anda tertarik tentang bagaimana AI membentuk kembali layanan keuangan, lihat artikel kami tentang Google AI Meluncurkan PaperOrchestra untuk Riset Otomatis .
Beberapa pertanyaan masih belum terjawab. Akankah Anthropic akhirnya merilis Mythos secara publik, mungkin setelah kerentanan paling kritis telah ditambal? Bagaimana perusahaan akan memverifikasi bahwa organisasi mitra benar-benar menindaklanjuti temuan tersebut tepat waktu? Dan apa yang terjadi ketika pihak lawan tak pelak lagi mengembangkan model AI pencari kerentanan mereka sendiri tanpa pengamanan etika yang serupa?
Industri secara luas juga akan mengamati apakah pendekatan kolaboratif yang bersifat semi-filantropis ini menjadi sebuah contoh. Jika komitmen sebesar $100 juta untuk keamanan siber defensif menghasilkan hasil yang terukur — lebih sedikit pelanggaran, pembaruan yang lebih cepat, internet yang lebih aman — laboratorium AI lainnya akan menghadapi tekanan untuk mengikuti jejaknya.
Ada juga pertanyaan apakah pemerintah akan berupaya mewajibkan kerangka kerja pengungkapan yang bertanggung jawab semacam ini. Badan Keamanan Siber dan Infrastruktur (CISA) di Amerika Serikat telah mengisyaratkan minat pada deteksi kerentanan yang dibantu AI sebagai bagian dari misi yang lebih luas.
Keputusan Anthropic untuk merahasiakan pratinjau Claude Mythos dari publik adalah salah satu langkah paling penting dalam industri AI tahun ini. Dengan memilih keamanan daripada tontonan, perusahaan ini mengambil langkah yang diperhitungkan bahwa model AI yang paling canggih tidak selalu harus berupa produk — terkadang model tersebut harus menjadi alat yang digunakan secara diam-diam oleh orang-orang yang paling tepat untuk melindungi orang lain. Apakah taruhan itu akan membuahkan hasil atau tidak bergantung pada eksekusi, transparansi, dan apakah industri lainnya bersedia mengikuti jalan yang memprioritaskan pertahanan kolektif daripada keuntungan individu.