บริษัท Anthropic เก็บโมเดล AI ใหม่ไว้เป็นความลับ หลังจากพบข้อมูลจำนวนหลายพันชิ้น

Anthropic has withheld its most powerful AI model, Claude Mythos Preview, from public release after it discovered thousands of cybersecurity vulnerabilities across major platforms. Through Project Glasswing, the company is sharing the model exclusively with leading tech organisations and committing $100 million to help secure critical infrastructure.

ในความเคลื่อนไหวที่บ่งชี้ถึงการเปลี่ยนแปลงครั้งสำคัญในวิธีการใช้งานความสามารถของ AI ล้ำสมัย บริษัท Anthropic ได้เลือกที่จะระงับการเปิดตัวโมเดล AI ที่ล้ำหน้าที่สุดของตนสู่สาธารณะ หลังจากที่ตรวจพบช่องโหว่ด้านความปลอดภัยทางไซเบอร์ที่ไม่เคยเปิดเผยมาก่อนหลายพันรายการในระบบปฏิบัติการและเว็บเบราว์เซอร์หลักๆ แทนที่จะเปิดตัวในเชิงพาณิชย์ บริษัทได้แจกจ่ายการเข้าถึงอย่างเงียบๆ ให้กับองค์กรที่รับผิดชอบด้านความปลอดภัยของโครงสร้างพื้นฐานดิจิทัลของโลก

เกิดอะไรขึ้น: ตัวอย่างโปรเจกต์ Glasswing และ Claude Mythos

โมเดลที่กล่าวถึงนี้มีชื่อว่า Claude Mythos Preview และเป็นระบบที่มีประสิทธิภาพสูงสุดของ Anthropic ในปัจจุบัน ในระหว่างการทดสอบภายใน Mythos แสดงให้เห็นถึงความสามารถที่ยอดเยี่ยมในการระบุช่องโหว่ด้านความปลอดภัย โดยค้นพบช่องโหว่หลายพันรายการครอบคลุมระบบปฏิบัติการและเบราว์เซอร์หลักทุกระบบที่ใช้งานอยู่ในปัจจุบัน

แทนที่จะมองว่านี่เป็นโอกาสในการเปิดตัวผลิตภัณฑ์ Anthropic ได้ริเริ่มโครงการที่เรียกว่า Project Glasswing โดยโครงการนี้จะส่งต่อความสามารถของ Mythos ไปยังบริษัทและมูลนิธิที่สร้างและดูแลรักษาซอฟต์แวร์ที่สำคัญโดยตรง พันธมิตรในการเปิดตัวประกอบไปด้วยบริษัทเทคโนโลยีระดับโลกมากมาย เช่น Amazon Web Services, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorganChase, Linux Foundation, Microsoft, Nvidia และ Palo Alto Networks

นอกเหนือจากกลุ่มแรกนั้นแล้ว การเข้าถึงยังขยายไปยังองค์กรอีกกว่า 40 แห่งที่พัฒนาหรือดูแลรักษาโครงสร้างพื้นฐานซอฟต์แวร์ที่สำคัญ เพื่อสนับสนุนความพยายามนี้ทางการเงิน Anthropic ได้ให้เครดิตการใช้งานสูงถึง 100 ล้านดอลลาร์ เพื่อให้พันธมิตรเหล่านี้สามารถใช้งาน Mythos กับโค้ดเบสของตนเองได้

เหตุใดเรื่องนี้จึงสำคัญ: กระบวนทัศน์ใหม่สำหรับการใช้งาน AI อย่างมีความรับผิดชอบ

การตัดสินใจครั้งนี้มีความสำคัญอย่างยิ่งด้วยเหตุผลหลายประการ ประการแรก มันแสดงให้เห็นถึงตัวอย่างที่ชัดเจนที่สุดอย่างหนึ่งของการที่ห้องปฏิบัติการ AI จงใจจำกัดศักยภาพเชิงพาณิชย์ของโมเดลที่ก้าวล้ำเนื่องจากผลกระทบด้านความปลอดภัย ในอุตสาหกรรมที่มักถูกวิพากษ์วิจารณ์ว่าเร่งรีบในการส่งมอบผลิตภัณฑ์ Anthropic เลือกที่จะยับยั้งชั่งใจ ซึ่งเป็นสิ่งที่น่าชื่นชม

ประการที่สอง ขนาดของการค้นพบนั้นน่าทึ่งมาก การค้นพบช่องโหว่หลายพันรายการในหลายแพลตฟอร์มแสดงให้เห็นว่า Mythos ทำงานในระดับการวิเคราะห์โค้ดที่เหนือกว่าสิ่งที่นักวิจัยด้านความปลอดภัยของมนุษย์หรือเครื่องมืออัตโนมัติที่มีอยู่สามารถทำได้ในกรอบเวลาที่เทียบเท่ากัน สำหรับข้อมูล อ้างอิง ฐานข้อมูล CVE ซึ่งเป็นมาตรฐานสากลสำหรับการติดตามช่องโหว่ด้านความปลอดภัยทางไซเบอร์ที่เปิดเผยต่อสาธารณะ โดยทั่วไปจะบันทึกรายการใหม่ประมาณ 25,000 ถึง 30,000 รายการต่อปี โมเดล AI เพียงตัวเดียวที่ค้นพบหลายพันรายการในช่วงเวลาสั้นๆ จะคิดเป็นสัดส่วนที่มีนัยสำคัญของการเปิดเผยข้อมูลทั่วโลกในแต่ละปี

ประการที่สาม แนวทางนี้อาจเปลี่ยนแปลงเศรษฐศาสตร์ของการวิจัยช่องโหว่ได้ หากคุณติดตามข่าวสารของเราเกี่ยวกับ Microsoft Open-Source Toolkit ที่ช่วยรักษาความปลอดภัยให้กับ AI Agent ในระหว่างการทำงาน คุณจะทราบว่าโปรแกรมการให้รางวัลสำหรับการค้นหาช่องโหว่และการทดสอบการเจาะระบบยังคงมีราคาแพงและต้องใช้แรงงานมาก โมเดล AI ที่สามารถทำงานนี้ได้ในระดับใหญ่จะช่วยประหยัดค่าใช้จ่ายที่เกี่ยวข้องกับการละเมิดข้อมูลให้กับองค์กรได้หลายพันล้านดอลลาร์

ภูมิหลัง: ชื่อเสียงด้านความปลอดภัยเป็นอันดับแรกของ Anthropic

บริษัท Anthropic ก่อตั้งขึ้นในปี 2021 โดยอดีตนักวิจัยของ OpenAI รวมถึงสองพี่น้อง Dario และ Daniela Amodei บริษัทได้วางตำแหน่งตัวเองอย่างสม่ำเสมอในฐานะทางเลือกที่คำนึงถึงความปลอดภัยในการแข่งขันด้าน AI ระดับสูง โดยได้เผยแพร่นโยบายการขยายขนาดอย่างมีความรับผิดชอบอย่างละเอียด และลงทุนอย่างมากในการวิจัยด้านความสอดคล้อง กลุ่มโมเดล Claude ของบริษัทแข่งขันโดยตรงกับ ซีรี่ส์ GPT ของ OpenAI และ Gemini ของ Google

การตัดสินใจที่จะไม่เปิดเผย Mythos ต่อสาธารณะนั้นสอดคล้องกับหลักการดังกล่าว การเผยแพร่โมเดลที่สามารถระบุช่องโหว่ Zero-day ได้ในวงกว้างจะเป็นดาบสองคม — มีคุณค่าอย่างยิ่งสำหรับฝ่ายป้องกัน แต่ก็อาจเป็นหายนะได้หากผู้ไม่ประสงค์ดีเข้าถึงและใช้ประโยชน์จากช่องโหว่เหล่านั้นก่อนที่จะมีการติดตั้งแพทช์แก้ไข

ความตึงเครียดนี้เป็นหัวใจสำคัญของสิ่งที่นักวิจัยด้านความปลอดภัยเรียกว่าปัญหา “ความไม่สมดุลระหว่างการรุกและการป้องกัน” ผู้โจมตีจำเป็นต้องค้นหาจุดอ่อนที่สามารถใช้ประโยชน์ได้เพียงจุดเดียว ในขณะที่ผู้ป้องกันจำเป็นต้องค้นหาและแก้ไขจุดอ่อนทั้งหมด ปัญญาประดิษฐ์ที่ช่วยปรับสมดุลให้เอื้อต่อผู้ป้องกัน — แต่เฉพาะในกรณีที่ความสามารถของมันถูกควบคุมอย่างระมัดระวัง — เป็นเครื่องมือประเภทที่ต้องการรูปแบบการแจกจ่ายที่จำกัด

นัยสำคัญเชิงกลยุทธ์สำหรับ Anthropic และอุตสาหกรรม

จากมุมมองทางธุรกิจ โครงการ Glasswing ถือเป็นกลยุทธ์ที่ยอดเยี่ยม แม้ว่าจะต้องแลกมาด้วยรายได้ในระยะสั้นก็ตาม ลองพิจารณาถึงประโยชน์เชิงกลยุทธ์ดู:

  • การผสานรวมอย่างลึกซึ้งกับโครงสร้างพื้นฐานที่สำคัญ: ด้วยการฝัง Mythos เข้าไปในเวิร์กโฟลว์ของ AWS, Microsoft, Google และอื่นๆ Anthropic สร้างความพึ่งพาและความไว้วางใจที่แคมเปญการตลาดใดๆ ก็ซื้อไม่ได้
  • ความสัมพันธ์ที่ดีกับหน่วยงานกำกับดูแล: ในขณะที่รัฐบาลทั่วโลกกำลังร่างกฎหมายเกี่ยวกับปัญญาประดิษฐ์ การแสดงให้เห็นถึงการยับยั้งชั่งใจอย่างมีความรับผิดชอบจะสร้างความน่าเชื่อถือ ซึ่งจะมีความสำคัญเมื่อมีการตัดสินใจเชิงนโยบาย
  • วงจรการตอบรับข้อมูล: ทุกช่องโหว่ที่องค์กรพันธมิตรยืนยันและแก้ไข จะสร้างสัญญาณการฝึกอบรมที่มีค่า ซึ่งจะทำให้โมเดล Anthropic ในอนาคตมีความสามารถมากยิ่งขึ้น
  • จุดเด่นที่เหนือกว่าคู่แข่ง: ทั้ง OpenAI และ Google DeepMind ยังไม่ได้ประกาศอะไรที่เทียบเคียงได้ในด้านขอบเขต ทำให้ Anthropic มีตำแหน่งที่โดดเด่นในตลาดความปลอดภัยสำหรับองค์กร

การที่ JPMorganChase เข้าร่วมนั้นเป็นสิ่งที่บ่งบอกอะไรหลายอย่าง สถาบันการเงินต้องเผชิญกับการโจมตีทางไซเบอร์อย่างไม่หยุดยั้งและดำเนินงานภายใต้กรอบการกำกับดูแลที่เข้มงวดที่สุดแห่งหนึ่งของโลก การเข้าร่วมของพวกเขาแสดงให้เห็นว่า Mythos ได้พิสูจน์คุณค่าที่นอกเหนือไปจากภาคเทคโนโลยีแล้ว หากคุณสนใจว่า AI กำลังเปลี่ยนแปลงบริการทางการเงินอย่างไร โปรดดูบทความของเราเกี่ยวกับ Google AI เปิดตัว PaperOrchestra สำหรับการวิจัยอัตโนมัติ

อะไรจะเกิดขึ้นต่อไป

ยังมีคำถามอีกหลายข้อที่ยังไม่ได้รับคำตอบ Anthropic จะปล่อย Mythos สู่สาธารณะในที่สุดหรือไม่ อาจจะหลังจากที่ได้แก้ไขช่องโหว่ที่สำคัญที่สุดแล้ว? บริษัทจะตรวจสอบได้อย่างไรว่าองค์กรพันธมิตรได้ดำเนินการตามข้อค้นพบอย่างทันท่วงที? และจะเกิดอะไรขึ้นเมื่อฝ่ายตรงข้ามพัฒนาโมเดล AI ค้นหาช่องโหว่ของตนเองโดยปราศจากหลักจริยธรรมที่คล้ายคลึงกัน?

อุตสาหกรรมในวงกว้างจะจับตาดูว่าแนวทางการทำงานร่วมกันในลักษณะคล้ายการกุศลนี้จะกลายเป็นต้นแบบหรือไม่ หากการลงทุน 100 ล้านดอลลาร์ในด้านการรักษาความปลอดภัยทางไซเบอร์เชิงป้องกันให้ผลลัพธ์ที่วัดได้ เช่น การละเมิดข้อมูลน้อยลง การแก้ไขช่องโหว่เร็วขึ้น และอินเทอร์เน็ตที่ปลอดภัยยิ่งขึ้น ห้องปฏิบัติการ AI อื่นๆ จะเผชิญแรงกดดันให้ดำเนินการตามเช่นกัน

นอกจากนี้ยังมีคำถามว่ารัฐบาลจะพยายามออกกฎหมายบังคับใช้กรอบการเปิดเผยข้อมูลอย่างมีความรับผิดชอบแบบนี้หรือ ไม่ หน่วยงานความมั่นคงทางไซเบอร์และโครงสร้างพื้นฐาน (CISA) ในสหรัฐอเมริกาได้แสดงความสนใจในการตรวจจับช่องโหว่โดยใช้ AI ช่วยเหลือแล้ว ซึ่งเป็นส่วนหนึ่งของภารกิจที่กว้างขึ้นของตน

สรุปแล้ว

การตัดสินใจของ Anthropic ที่จะเก็บ Claude Mythos Preview ไว้เป็นความลับ ถือเป็นการเคลื่อนไหวที่สำคัญที่สุดครั้งหนึ่งในอุตสาหกรรม AI ในปีนี้ โดยการเลือกความปลอดภัยเหนือความตื่นตาตื่นใจ บริษัทกำลังเดิมพันอย่างรอบคอบว่า โมเดล AI ที่ทรงพลังที่สุดไม่ควรเป็นผลิตภัณฑ์เสมอไป บางครั้งมันควรเป็นเครื่องมือที่ถูกใช้โดยผู้คนที่เหมาะสมที่สุดในการปกป้องทุกคนอย่างเงียบๆ ว่าการเดิมพันนี้จะประสบความสำเร็จหรือไม่นั้น ขึ้นอยู่กับการดำเนินการ ความโปร่งใส และความเต็มใจของอุตสาหกรรมที่เหลือที่จะเดินตามเส้นทางที่ให้ความสำคัญกับการป้องกันส่วนรวมมากกว่าผลกำไรส่วนบุคคล

Follow
Loading

Signing-in 3 seconds...

Signing-up 3 seconds...