Anthropic, binlerce sahtekarlık bulduktan sonra yeni yapay zeka modelinin gizliliğini koruyor.

Anthropic has withheld its most powerful AI model, Claude Mythos Preview, from public release after it discovered thousands of cybersecurity vulnerabilities across major platforms. Through Project Glasswing, the company is sharing the model exclusively with leading tech organisations and committing $100 million to help secure critical infrastructure.

Anthropic, en gelişmiş yapay zeka yeteneklerinin nasıl kullanıldığı konusunda çarpıcı bir değişime işaret eden bir hamleyle, büyük işletim sistemleri ve web tarayıcılarında daha önce bilinmeyen binlerce siber güvenlik açığı tespit ettikten sonra, en gelişmiş yapay zeka modelini kamuya açık olarak yayınlamaktan vazgeçti. Şirket, modeli ticari olarak piyasaya sürmek yerine, dünyanın dijital altyapısını güvence altına almakla sorumlu kuruluşlara sessizce erişim sağladı.

Neler Oldu: Glasswing Projesi ve Claude Mythos Önizlemesi

Söz konusu modelin adı Claude Mythos Preview ve Anthropic'in bugüne kadarki en yetenekli sistemini temsil ediyor. Dahili testler sırasında Mythos, güvenlik açıklarını belirleme konusunda olağanüstü bir yetenek sergiledi ve şu anda kullanımda olan tüm büyük işletim sistemleri ve tarayıcı ekosistemlerinde binlerce güvenlik açığını ortaya çıkardı.

Anthropic, bunu bir ürün lansman fırsatı olarak ele almak yerine, Project Glasswing adı verilen bir girişim başlattı. Bu program, Mythos'un yeteneklerini doğrudan kritik yazılımlar geliştiren ve sürdüren şirketlere ve vakıflara yönlendiriyor. Lansman ortakları arasında küresel teknoloji dünyasının önde gelen isimleri yer alıyor: Amazon Web Services, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorganChase, Linux Vakfı, Microsoft, Nvidia ve Palo Alto Networks.

İlk katılımcı grubunun ötesinde, temel yazılım altyapısını geliştiren veya sürdüren 40'tan fazla kuruluşa daha erişim sağlandı. Anthropic, bu ortakların Mythos'u kendi kod tabanlarında çalıştırabilmeleri için finansal olarak 100 milyon dolara kadar kullanım kredisi taahhüt ediyor.

Bu Neden Önemli: Sorumlu Yapay Zeka Uygulaması İçin Yeni Bir Paradigma

Bu karar, çeşitli nedenlerden dolayı son derece büyük önem taşıyor. Birincisi, bir yapay zeka laboratuvarının güvenlik gerekçeleriyle çığır açan bir modelin ticari potansiyelini kasıtlı olarak sınırlamasının en açık örneklerinden birini temsil ediyor. Ürünleri piyasaya sürmek için acele etmekle sık sık eleştirilen bir sektörde, Anthropic ölçülü davranmayı seçti ve bu da dikkate değer.

İkinci olarak, keşiflerin ölçeği şaşırtıcı. Birden fazla platformda binlerce güvenlik açığı bulmak, Mythos'un insan güvenlik araştırmacılarının veya mevcut otomatik araçların benzer zaman dilimlerinde başarabileceğinin çok ötesinde bir kod analizi seviyesinde çalıştığını gösteriyor. Örnek vermek gerekirse, kamuya açık olarak açıklanan siber güvenlik açıklarını izlemek için küresel standart olan CVE veritabanı , genellikle yılda yaklaşık 25.000 ila 30.000 yeni giriş kaydediyor. Yoğun bir dönemde binlerce bulguya katkıda bulunan tek bir yapay zeka modeli, yıllık küresel açıklamaların önemli bir bölümünü temsil edecektir.

Üçüncüsü, bu yaklaşım güvenlik açığı araştırmasının ekonomisini yeniden tanımlayabilir. Microsoft'un Açık Kaynak Araç Kiti ile Yapay Zeka Ajanlarının Çalışma Zamanında Güvenliğini Sağlama başlıklı haberlerimizi takip ettiyseniz, hata ödül programlarının ve sızma testlerinin hala pahalı ve emek yoğun olduğunu biliyorsunuzdur. Bu işi büyük ölçekte yapabilen bir yapay zeka modeli, kuruluşlara ihlal kaynaklı maliyetlerde milyarlarca dolar tasarruf sağlayabilir.

Arka Plan: Anthropic'in Güvenliğe Öncelik Veren İtibarı

Anthropic, 2021 yılında aralarında kardeşler Dario ve Daniela Amodei'nin de bulunduğu eski OpenAI araştırmacıları tarafından kuruldu. Şirket, sürekli olarak kendisini yapay zeka yarışında güvenliğe önem veren bir alternatif olarak konumlandırarak, ayrıntılı sorumlu ölçeklendirme politikaları yayınladı ve uyum araştırmalarına büyük yatırımlar yaptı. Claude model ailesi , OpenAI'nin GPT serisi ve Google'ın Gemini serisiyle doğrudan rekabet ediyor.

Mythos'un kamuya açık erişimden mahrum bırakılması kararı, bu anlayışla tutarlıdır. Sıfır gün güvenlik açıklarını büyük ölçekte tespit edebilen bir modeli yayınlamak iki ucu keskin bir kılıç olurdu; savunmacılar için paha biçilmez olurdu, ancak yamalar dağıtılmadan önce aynı kusurları istismar edebilecek kötü niyetli kişiler tarafından erişilirse potansiyel olarak felaketle sonuçlanabilirdi.

Bu gerilim, güvenlik araştırmacılarının "saldırı-savunma asimetrisi" problemi olarak adlandırdığı şeyin özünde yer almaktadır. Saldırganların yalnızca tek bir istismar edilebilir zayıflık bulması gerekir. Savunucuların ise tüm zayıf noktaları bulup yamalaması gerekir. Dengeyi savunucular lehine çeviren bir yapay zeka (ancak yetenekleri dikkatlice kontrol edilirse), tam olarak kısıtlı dağıtım modelini gerektiren bir araçtır.

Antropoloji ve Endüstri İçin Stratejik Sonuçlar

İş açısından bakıldığında, kısa vadeli gelir kaybına yol açsa bile Glasswing Projesi ustaca bir hamledir. Stratejik faydaları göz önünde bulundurun:

  • Kritik altyapılarla derin entegrasyon: Anthropic, Mythos'u AWS, Microsoft, Google ve diğerlerinin iş akışlarına entegre ederek, hiçbir pazarlama kampanyasının satın alamayacağı bir bağımlılık ve güven ortamı yaratıyor.
  • Düzenleyicilerle iyi niyet: Dünya genelinde hükümetler yapay zeka mevzuatı taslaklarını hazırlarken, sorumlu bir şekilde ölçülü davranmak, politika kararları alınırken önem taşıyacak olan güvenilirliği kazandırır.
  • Veri geri bildirim döngüleri: Ortak kuruluşların doğruladığı ve yamaladığı her güvenlik açığı, gelecekteki Antropik modelleri daha da yetenekli hale getirecek değerli bir eğitim sinyali üretir.
  • Rekabetçi farklılaşma: Ne OpenAI ne de Google DeepMind, kapsam açısından karşılaştırılabilir bir şey duyurmadı; bu da Anthropic'e kurumsal güvenlik pazarında benzersiz bir konum kazandırıyor.

JPMorganChase'in dahil edilmesi özellikle dikkat çekici. Finans kurumları amansız siber saldırılarla karşı karşıya ve dünyanın en katı düzenleyici çerçevelerinden bazıları altında faaliyet gösteriyor. Katılımları, Mythos'un teknoloji sektörünün ötesinde de değer gösterdiğini ortaya koyuyor. Yapay zekanın finansal hizmetleri nasıl yeniden şekillendirdiğiyle ilgileniyorsanız, Google AI'nin Otomatik Araştırma için PaperOrchestra'yı Tanıtması başlıklı yazımıza göz atabilirsiniz.

Sırada Ne Var?

Birçok soru hâlâ cevapsız kalıyor. Anthropic, en kritik güvenlik açıkları giderildikten sonra Mythos'u sonunda kamuoyuna açıklayacak mı? Şirket, ortak kuruluşların bulgulara zamanında göre hareket ettiğini nasıl doğrulayacak? Ve düşmanlar kaçınılmaz olarak benzer etik güvenlik önlemleri olmadan kendi güvenlik açığı avlama yapay zeka modellerini geliştirdiğinde ne olacak?

Daha geniş sektör de bu işbirlikçi, yarı hayırsever yaklaşımın bir şablon haline gelip gelmeyeceğini izleyecek. Savunma amaçlı siber güvenliğe yapılan 100 milyon dolarlık yatırım ölçülebilir sonuçlar verirse – daha az ihlal, daha hızlı yamalar, daha güvenli bir internet – diğer yapay zeka laboratuvarları da aynı yolu izlemeye zorlanacaktır.

Ayrıca, hükümetlerin bu tür sorumlu açıklama çerçevesini zorunlu hale getirmeye çalışıp çalışmayacağı sorusu da var. Amerika Birleşik Devletleri'ndeki Siber Güvenlik ve Altyapı Güvenliği Ajansı (CISA), daha geniş misyonunun bir parçası olarak yapay zeka destekli güvenlik açığı tespitine ilgi duyduğunu zaten belirtmişti.

Özetle

Anthropic'in Claude Mythos Preview'ı kamuoyunun gözünden uzak tutma kararı, bu yıl yapay zeka sektöründeki en önemli hamlelerden biri. Şirket, gösteriş yerine güvenliği seçerek, en güçlü yapay zeka modellerinin her zaman ürün olmaması gerektiğine, bazen de herkesi korumak için en iyi konumda olan kişiler tarafından sessizce kullanılan araçlar olması gerektiğine dair hesaplı bir bahis oynuyor. Bu bahsin karşılığını verip vermeyeceği, uygulama, şeffaflık ve sektörün geri kalanının bireysel kâr yerine kolektif savunmayı önceliklendiren bir yolu izlemeye istekli olup olmadığına bağlı olacaktır.

Follow
Loading

Signing-in 3 seconds...

Signing-up 3 seconds...