
Anthropic has withheld its most powerful AI model, Claude Mythos Preview, from public release after it discovered thousands of cybersecurity vulnerabilities across major platforms. Through Project Glasswing, the company is sharing the model exclusively with leading tech organisations and committing $100 million to help secure critical infrastructure.
Anthropic вирішила не випускати свою найсучаснішу модель штучного інтелекту в опублікування після того, як виявила тисячі раніше невідомих кібервразливостей в основних операційних системах і веббраузерах, що сигналізує про кардинальні зміни в розгортанні передових можливостей штучного інтелекту. Замість комерційного запуску компанії, вона непомітно розповсюдила доступ до неї організаціям, відповідальним за безпеку світової цифрової інфраструктури.
Модель, про яку йде мова, називається Claude Mythos Preview і представляє собою найпотужнішу систему Anthropic на сьогодні. Під час внутрішнього тестування Mythos продемонструвала надзвичайну здатність виявляти недоліки безпеки, виявивши тисячі вразливостей у кожній основній екосистемі ОС та браузерів, що використовуються наразі.
Замість того, щоб розглядати це як можливість запуску продукту, Anthropic започаткувала ініціативу під назвою Project Glasswing. Програма спрямовує можливості Mythos безпосередньо до компаній та фондів, які створюють та підтримують критично важливе програмне забезпечення. Партнери-запуски виглядають як список світових технологічних лідерів: Amazon Web Services, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorganChase, Linux Foundation, Microsoft, Nvidia та Palo Alto Networks.
Окрім цієї початкової когорти, доступ було поширено на понад 40 додаткових організацій, які розробляють або підтримують важливу програмну інфраструктуру. Для фінансової підтримки цих зусиль Anthropic виділяє до 100 мільйонів доларів США у вигляді кредитів на використання, щоб ці партнери могли запускати Mythos на власних кодових базах.
Це рішення має величезне значення з кількох причин. По-перше, воно є одним із найяскравіших прикладів того, як лабораторія штучного інтелекту навмисно обмежує комерційний потенціал проривної моделі через наслідки для безпеки. У галузі, яку часто критикують за перегони у постачанні продукції, Anthropic обрала стриманість — і це варте уваги.
По-друге, сам масштаб відкриттів вражає. Виявлення тисяч вразливостей на різних платформах свідчить про те, що Mythos працює на рівні аналізу коду, який значно перевищує те, що можуть зробити дослідники людської безпеки або існуючі автоматизовані інструменти за порівнянні терміни. Для контексту, база даних CVE — глобальний стандарт для відстеження публічно розкритих вразливостей кібербезпеки — зазвичай каталогізує близько 25 000–30 000 нових записів на рік. Одна модель штучного інтелекту, яка надає тисячі результатів за концентрований період, становитиме значну частку річного глобального розкриття інформації.
По-третє, цей підхід може переосмислити економіку дослідження вразливостей. Якщо ви стежили за нашим висвітленням теми « Набір інструментів Microsoft з відкритим кодом захищає агентів штучного інтелекту під час виконання» , ви знаєте, що програми винагороди за виявлення помилок та тестування на проникнення залишаються дорогими та трудомісткими. Модель штучного інтелекту, здатна виконувати цю роботу в великих масштабах, може заощадити організаціям мільярди коштів, пов’язаних із порушеннями.
Компанію Anthropic було засновано у 2021 році колишніми дослідниками OpenAI, зокрема братом і сестрою Даріо та Даніелою Амодей. Компанія послідовно позиціонує себе як безпечну альтернативу в гонці передового штучного інтелекту, публікуючи детальні політики відповідального масштабування та інвестуючи значні кошти в дослідження узгодженості. Її сімейство моделей Claude безпосередньо конкурує з серією GPT від OpenAI та Gemini від Google.
Рішення приховати Mythos від публічного доступу відповідає цьому етосу. Випуск моделі, яка може виявляти вразливості нульового дня у великих масштабах, був би палицею з двома кінцями — безцінним для захисників, але потенційно катастрофічним, якщо до нього зможуть отримати доступ зловмисники, які могли б використати ці ж недоліки до розгортання патчів.
Ця напруженість лежить в основі того, що дослідники безпеки називають проблемою «асиметрії наступально-оборонного зв'язку». Зловмисникам потрібно знайти лише одну вразливість, яку можна використати. Захисникам потрібно знайти та виправити їх усі. Штучний інтелект, який схиляє чашу терезів на користь захисників — але лише за умови ретельного контролю його можливостей — це саме той інструмент, який вимагає обмеженої моделі розповсюдження.
З точки зору бізнесу, проект Glasswing – це шедевр, навіть якщо він жертвує короткостроковими доходами. Розглянемо стратегічні переваги:
Включення JPMorganChase є особливо показовим. Фінансові установи стикаються з невпинними кібератаками та працюють за одними з найсуворіших регуляторних норм на Землі. Їхня участь свідчить про те, що Mythos вже продемонструвала цінність поза межами технологічного сектору. Якщо вас цікавить, як штучний інтелект змінює фінансові послуги, перегляньте нашу статтю про те, як Google AI представляє PaperOrchestra для автоматизованих досліджень .
Кілька питань залишаються без відповіді. Чи зрештою Anthropic опублікує Mythos, можливо, після того, як будуть виправлені найкритичніші вразливості? Як компанія перевірятиме, чи організації-партнери дійсно своєчасно реагують на виявлені вразливості? І що станеться, коли зловмисники неминуче розроблять власні моделі штучного інтелекту для пошуку вразливостей без аналогічних етичних бар'єрів?
Ширша галузь також стежитиме за тим, чи стане цей спільний, квазіфілантропічний підхід шаблоном. Якщо вкладення 100 мільйонів доларів у оборонну кібербезпеку дасть вимірні результати — менше порушень, швидше оновлення, безпечніший Інтернет — інші лабораторії штучного інтелекту зіткнуться з тиском наслідувати цей приклад.
Також виникає питання, чи прагнутимуть уряди запровадити обов’язкову систему відповідального розкриття інформації. Агентство з кібербезпеки та безпеки інфраструктури (CISA) у Сполучених Штатах вже заявило про зацікавленість у виявленні вразливостей за допомогою штучного інтелекту як частині своєї ширшої місії.
Рішення Anthropic не афішувати попередній перегляд Claude Mythos публічно – один із найважливіших кроків у галузі штучного інтелекту цього року. Обираючи безпеку замість видовищності, компанія робить розраховану ставку на те, що найпотужніші моделі штучного інтелекту не завжди повинні бути продуктами – іноді вони мають бути інструментами, якими непомітно користуються люди, найкраще підготовлені для захисту всіх інших. Чи окупиться ця ставка, залежатиме від виконання, прозорості та того, чи готова решта галузі піти шляхом, який надає пріоритет колективній обороні над індивідуальним прибутком.