Anthropic hält neues KI-Modell nach Entdeckung Tausender geheim

Anthropic has withheld its most powerful AI model, Claude Mythos Preview, from public release after it discovered thousands of cybersecurity vulnerabilities across major platforms. Through Project Glasswing, the company is sharing the model exclusively with leading tech organisations and committing $100 million to help secure critical infrastructure.

Anthropic hat sich entschieden, sein fortschrittlichstes KI-Modell nicht öffentlich zugänglich zu machen, nachdem es Tausende bisher unbekannter Sicherheitslücken in gängigen Betriebssystemen und Webbrowsern aufgedeckt hatte. Dies markiert einen Wendepunkt im Einsatz fortschrittlicher KI-Technologien. Statt das Modell kommerziell zu vermarkten, stellte das Unternehmen es stillschweigend den Organisationen zur Verfügung, die für die Sicherheit der globalen digitalen Infrastruktur verantwortlich sind.

Was geschah: Vorschau auf Project Glasswing und Claude Mythos

Das betreffende Modell heißt Claude Mythos Preview und ist das bisher leistungsfähigste System von Anthropic. In internen Tests demonstrierte Mythos eine außergewöhnliche Fähigkeit zur Identifizierung von Sicherheitslücken – es deckte Tausende von Schwachstellen in allen gängigen Betriebssystemen und Browser-Ökosystemen auf.

Anstatt dies als Gelegenheit für eine Produkteinführung zu nutzen, rief Anthropic die Initiative „Project Glasswing“ ins Leben. Das Programm stellt die Kompetenzen von Mythos direkt Unternehmen und Stiftungen zur Verfügung, die kritische Software entwickeln und pflegen. Die Launch-Partner lesen sich wie das Who’s Who der globalen Technologiebranche: Amazon Web Services, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorgan Chase, die Linux Foundation, Microsoft, Nvidia und Palo Alto Networks.

Über diese anfängliche Gruppe hinaus wurde der Zugang auf mehr als 40 weitere Organisationen ausgeweitet, die wichtige Softwareinfrastruktur entwickeln oder warten. Um dieses Vorhaben finanziell zu unterstützen, stellt Anthropic Nutzungsguthaben im Wert von bis zu 100 Millionen US-Dollar bereit, damit diese Partner Mythos mit ihren eigenen Codebasen testen können.

Warum das wichtig ist: Ein neues Paradigma für den verantwortungsvollen Einsatz von KI

Diese Entscheidung ist aus mehreren Gründen von enormer Bedeutung. Erstens stellt sie eines der deutlichsten Beispiele dafür dar, wie ein KI-Labor das kommerzielle Potenzial eines bahnbrechenden Modells aufgrund von Sicherheitsbedenken bewusst einschränkt. In einer Branche, die oft für ihre überstürzte Produktentwicklung kritisiert wird, hat Anthropic Zurückhaltung bewiesen – und das ist bemerkenswert.

Zweitens ist das schiere Ausmaß der Entdeckungen überwältigend. Tausende von Schwachstellen auf verschiedenen Plattformen deuten darauf hin, dass Mythos eine Codeanalyse durchführt, die weit über die Möglichkeiten menschlicher Sicherheitsforscher oder bestehender automatisierter Tools in vergleichbaren Zeiträumen hinausgeht. Zum Vergleich: Die CVE-Datenbank – der globale Standard für die Erfassung öffentlich bekannter Cybersicherheitslücken – verzeichnet typischerweise etwa 25.000 bis 30.000 neue Einträge pro Jahr. Ein einzelnes KI-Modell, das innerhalb eines kurzen Zeitraums Tausende von Schwachstellen identifiziert, würde einen erheblichen Anteil der jährlich weltweit gemeldeten Schwachstellen ausmachen.

Drittens könnte dieser Ansatz die Ökonomie der Schwachstellenforschung grundlegend verändern. Wenn Sie unsere Berichterstattung über Microsofts Open-Source-Toolkit zur Sicherung von KI-Agenten zur Laufzeit verfolgt haben, wissen Sie, dass Bug-Bounty-Programme und Penetrationstests nach wie vor teuer und arbeitsintensiv sind. Ein KI-Modell, das diese Aufgaben in großem Umfang erledigen kann, könnte Unternehmen Milliarden an Kosten im Zusammenhang mit Sicherheitsverletzungen ersparen.

Hintergrund: Anthropics Ruf, Sicherheit an erste Stelle zu setzen

Anthropic wurde 2021 von ehemaligen OpenAI-Forschern, darunter den Geschwistern Dario und Daniela Amodei, gegründet. Das Unternehmen positioniert sich konsequent als sicherheitsbewusste Alternative im Wettlauf um fortschrittliche KI-Technologien, indem es detaillierte Richtlinien für verantwortungsvolles Skalieren veröffentlicht und stark in die Forschung zur Systemausrichtung investiert. Die Claude-Modellfamilie von Anthropic konkurriert direkt mit OpenAIs GPT-Serie und Googles Gemini.

Die Entscheidung, Mythos nicht öffentlich zugänglich zu machen, entspricht diesem Ethos. Die Veröffentlichung eines Modells, das Zero-Day-Schwachstellen in großem Umfang identifizieren kann, wäre ein zweischneidiges Schwert – unschätzbar wertvoll für die Verteidigung, aber potenziell katastrophal, wenn Angreifer darauf zugreifen und diese Schwachstellen ausnutzen könnten, bevor Patches bereitgestellt werden.

Diese Spannung ist der Kern dessen, was Sicherheitsforscher als „offensiv-defensiv-asymmetrie“-Problem bezeichnen. Angreifer müssen nur eine einzige ausnutzbare Schwachstelle finden. Verteidiger müssen alle Schwachstellen finden und beheben. Eine KI, die das Kräfteverhältnis zugunsten der Verteidiger verschiebt – aber nur, wenn ihre Fähigkeiten sorgfältig kontrolliert werden – ist genau die Art von Werkzeug, die ein eingeschränktes Verbreitungsmodell erfordert.

Die strategischen Auswirkungen für die Anthropologie und die Industrie

Aus betriebswirtschaftlicher Sicht ist das Projekt Glasswing ein genialer Schachzug, selbst wenn es kurzfristige Umsatzeinbußen mit sich bringt. Man bedenke die strategischen Vorteile:

  • Tiefe Integration mit kritischer Infrastruktur: Durch die Einbettung von Mythos in die Arbeitsabläufe von AWS, Microsoft, Google und anderen schafft Anthropic eine Abhängigkeit und ein Vertrauen, das keine Marketingkampagne kaufen könnte.
  • Wohlwollen gegenüber den Regulierungsbehörden: Da Regierungen weltweit Gesetze zur KI entwerfen, verschafft der Nachweis verantwortungsvoller Zurückhaltung Glaubwürdigkeit, die bei politischen Entscheidungen von Bedeutung sein wird.
  • Daten-Feedbackschleifen: Jede Schwachstelle, die Partnerorganisationen bestätigen und beheben, erzeugt ein wertvolles Trainingssignal, das zukünftige anthropische Modelle noch leistungsfähiger macht.
  • Wettbewerbsdifferenzierung: Weder OpenAI noch Google DeepMind haben etwas Vergleichbares angekündigt, was Anthropic eine einzigartige Position auf dem Markt für Unternehmenssicherheit verschafft.

Die Einbindung von JPMorgan Chase ist besonders aussagekräftig. Finanzinstitute sind ständigen Cyberangriffen ausgesetzt und unterliegen einigen der strengsten regulatorischen Rahmenbedingungen weltweit. Ihre Teilnahme zeigt, dass Mythos seinen Wert bereits über den Technologiesektor hinaus unter Beweis gestellt hat. Wenn Sie mehr darüber erfahren möchten, wie KI die Finanzdienstleistungsbranche verändert, lesen Sie unseren Artikel „ Google AI stellt PaperOrchestra für automatisierte Recherche vor“ .

Was kommt als Nächstes?

Einige Fragen bleiben unbeantwortet. Wird Anthropic Mythos irgendwann öffentlich zugänglich machen, vielleicht erst, nachdem die kritischsten Sicherheitslücken behoben wurden? Wie wird das Unternehmen sicherstellen, dass Partnerorganisationen die Erkenntnisse zeitnah umsetzen? Und was geschieht, wenn Angreifer unweigerlich eigene KI-Modelle zur Suche nach Sicherheitslücken entwickeln, die keinen vergleichbaren ethischen Leitlinien unterliegen?

Die gesamte Branche wird genau beobachten, ob dieser kooperative, quasi-philanthropische Ansatz zum Vorbild wird. Sollte eine Investition von 100 Millionen US-Dollar in die defensive Cybersicherheit messbare Ergebnisse liefern – weniger Sicherheitslücken, schnellere Patches, ein sichereres Internet –, werden andere KI-Labore unter Druck geraten, diesem Beispiel zu folgen.

Es stellt sich auch die Frage, ob Regierungen einen solchen Rahmen für verantwortungsvolle Offenlegung vorschreiben werden. Die Cybersecurity and Infrastructure Security Agency (CISA) in den Vereinigten Staaten hat bereits Interesse an KI-gestützter Schwachstellenerkennung als Teil ihrer umfassenderen Aufgaben signalisiert.

Fazit

Anthropics Entscheidung, Claude Mythos Preview nicht öffentlich zu präsentieren, ist einer der folgenreichsten Schritte in der KI-Branche dieses Jahres. Indem das Unternehmen Sicherheit vor Spektakel stellt, setzt es bewusst darauf, dass die leistungsstärksten KI-Modelle nicht immer Produkte sein sollten – manchmal sollten sie Werkzeuge sein, die unauffällig von denjenigen eingesetzt werden, die am besten geeignet sind, alle anderen zu schützen. Ob diese Strategie aufgeht, hängt von der Umsetzung, der Transparenz und der Bereitschaft der übrigen Branche ab, einen Weg einzuschlagen, der die kollektive Verteidigung über den individuellen Profit stellt.

Follow
Loading

Signing-in 3 seconds...

Signing-up 3 seconds...