
Anthropic has withheld its most powerful AI model, Claude Mythos Preview, from public release after it discovered thousands of cybersecurity vulnerabilities across major platforms. Through Project Glasswing, the company is sharing the model exclusively with leading tech organisations and committing $100 million to help secure critical infrastructure.
В шаге, свидетельствующем о кардинальном изменении подхода к использованию передовых возможностей ИИ, компания Anthropic решила не публиковать свою самую продвинутую модель искусственного интеллекта после того, как обнаружила тысячи ранее неизвестных уязвимостей кибербезопасности в основных операционных системах и веб-браузерах. Вместо коммерческого запуска компания незаметно предоставила доступ организациям, ответственным за обеспечение безопасности мировой цифровой инфраструктуры.
Рассматриваемая модель называется Claude Mythos Preview и представляет собой самую функциональную систему Anthropic на сегодняшний день. В ходе внутреннего тестирования Mythos продемонстрировал исключительную способность выявлять уязвимости в системе безопасности, обнаружив тысячи уязвимостей во всех основных операционных системах и браузерных экосистемах, используемых в настоящее время.
Вместо того чтобы рассматривать это как возможность для запуска продукта, Anthropic запустила инициативу под названием Project Glasswing. Эта программа направляет возможности Mythos непосредственно компаниям и фондам, которые разрабатывают и поддерживают критически важное программное обеспечение. В число партнеров по запуску вошли ведущие мировые технологические компании: Amazon Web Services, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorganChase, Linux Foundation, Microsoft, Nvidia и Palo Alto Networks.
Помимо этой первоначальной группы, доступ был расширен более чем на 40 дополнительных организаций, которые разрабатывают или поддерживают важную программную инфраструктуру. Для финансовой поддержки проекта Anthropic выделяет до 100 миллионов долларов в виде кредитов на использование, чтобы эти партнеры могли запускать Mythos на своих собственных кодовых базах.
Это решение имеет огромное значение по нескольким причинам. Во-первых, оно представляет собой один из самых ярких примеров того, как лаборатория искусственного интеллекта намеренно ограничивает коммерческий потенциал прорывной модели из-за соображений безопасности. В отрасли, которую часто критикуют за спешку с выпуском продукции, Anthropic выбрала сдержанность — и это заслуживает внимания.
Во-вторых, масштаб обнаруженных уязвимостей поражает. Выявление тысяч уязвимостей на различных платформах говорит о том, что Mythos работает на уровне анализа кода, значительно превосходящем возможности специалистов по кибербезопасности или существующих автоматизированных инструментов за сопоставимые сроки. Для сравнения, база данных CVE — глобальный стандарт для отслеживания публично раскрытых уязвимостей в сфере кибербезопасности — обычно содержит от 25 000 до 30 000 новых записей в год. Одна модель ИИ, которая за короткий период времени обнаружила бы тысячи уязвимостей, составила бы значительную часть ежегодного глобального объема раскрытия информации.
Во-третьих, такой подход может изменить экономику исследований уязвимостей. Если вы следили за нашими публикациями о том, как Microsoft Open-Source Toolkit обеспечивает безопасность агентов ИИ во время выполнения , вы знаете, что программы вознаграждения за обнаружение ошибок и тестирование на проникновение остаются дорогостоящими и трудоемкими. Модель ИИ, способная выполнять эту работу в больших масштабах, может сэкономить организациям миллиарды долларов на расходах, связанных с утечками данных.
Компания Anthropic была основана в 2021 году бывшими исследователями OpenAI, в том числе братом и сестрой Дарио и Даниэлой Амодей. Компания последовательно позиционирует себя как ориентированная на безопасность альтернатива в гонке передовых разработок в области ИИ, публикуя подробные политики ответственного масштабирования и вкладывая значительные средства в исследования по согласованию. Семейство моделей Claude напрямую конкурирует с серией GPT от OpenAI и Gemini от Google.
Решение не предоставлять публичный доступ к Mythos соответствует этой философии. Выпуск модели, способной выявлять уязвимости нулевого дня в больших масштабах, был бы палкой о двух концах — бесценным инструментом для защитников, но потенциально катастрофическим, если бы к нему получили доступ злоумышленники, которые могли бы использовать эти же уязвимости до выпуска патчей.
Это противоречие лежит в основе того, что исследователи в области безопасности называют проблемой «асимметрии нападения и защиты». Злоумышленникам достаточно найти всего одну уязвимость, которую можно использовать. Защитникам же необходимо найти и устранить все остальные. Искусственный интеллект, который склоняет чашу весов в пользу защитников — но только если его возможности тщательно контролируются — это именно тот инструмент, который требует модели ограниченного распространения.
С точки зрения бизнеса, проект Glasswing — это блестящий ход, даже если он и приводит к снижению краткосрочной прибыли. Рассмотрим стратегические преимущества:
Включение JPMorganChase в список особенно показательно. Финансовые учреждения сталкиваются с непрекращающимися кибератаками и работают в рамках одних из самых строгих нормативных требований в мире. Их участие свидетельствует о том, что Mythos уже продемонстрировала свою ценность за пределами технологического сектора. Если вас интересует, как ИИ меняет финансовые услуги, ознакомьтесь с нашей статьей о том, как Google AI представил PaperOrchestra для автоматизированных исследований .
Остается несколько вопросов без ответа. Выпустит ли Anthropic в конечном итоге Mythos в открытый доступ, возможно, после того, как будут устранены наиболее критические уязвимости? Как компания будет проверять, что партнерские организации действительно своевременно реагируют на полученные данные? И что произойдет, когда противники неизбежно разработают собственные модели ИИ для поиска уязвимостей без аналогичных этических гарантий?
В целом, отрасль будет внимательно следить за тем, станет ли этот совместный, квазифилантропический подход образцом для подражания. Если инвестиции в размере 100 миллионов долларов в кибербезопасность принесут измеримые результаты — меньшее количество взломов, более быстрое обновление программного обеспечения, более безопасный интернет — другие лаборатории искусственного интеллекта столкнутся с давлением, требующим последовать их примеру.
Также возникает вопрос, будут ли правительства стремиться к обязательному внедрению подобной системы ответственного раскрытия информации. Агентство по кибербезопасности и защите инфраструктуры (CISA) в США уже выразило заинтересованность в обнаружении уязвимостей с помощью ИИ в рамках своей более широкой миссии.
Решение Anthropic не публиковать предварительную версию Claude Mythos Preview — один из самых значимых шагов в индустрии ИИ в этом году. Выбрав безопасность вместо зрелищности, компания делает продуманную ставку на то, что самые мощные модели ИИ не всегда должны быть продуктами — иногда они должны быть инструментами, тихо используемыми людьми, которые лучше всего способны защитить всех остальных. Оправдается ли эта ставка, будет зависеть от реализации, прозрачности и готовности остальной части отрасли следовать пути, который ставит коллективную защиту выше индивидуальной прибыли.