Anthropic hält Claude Mythos Preview zurück – zu gefährlich für die Öffentlichkeit
Das neue KI-Modell Claude Mythos entdeckt tausende Software-Schwachstellen – zu riskant für einen breiten Release.
Anthropic hat sein neues Spitzenmodell „Claude Mythos Preview“ fertiggestellt, hält es aber vorerst unter Verschluss. Der Grund: Die KI entdeckt tausende Software-Schwachstellen – darunter jahrzehntealte Lücken in Betriebssystemen und Browsern – und gilt damit als zu riskant für eine breite Veröffentlichung. Stattdessen erhalten über das neu gegründete „Project Glasswing“ ausgewählte Partner wie die Linux Foundation, Cisco und CrowdStrike exklusiven Zugang, um kritische Infrastrukturen abzusichern.
Mit dem Start der Initiative am 7. April 2026 bündeln Anthropic und 40 weitere Unternehmen ihre Kräfte. Das Ziel ist es, die kritischste Software der Welt vor Cyberangriffen zu schützen. Die Entscheidung, das Modell zurückzuhalten, verdeutlicht die wachsende Sensibilität auf regulatorischer Ebene und markiert eine neue Dynamik im Cyberspace, in der technische Überlegenheit über die Sicherheit globaler Systeme entscheidet.
Das doppelschneidige Schwert der Code-Analyse
Laut Anthropic handelt es sich bei Claude Mythos um ein vielseitiges Frontier-Modell, dessen größte Stärke in der IT-Sicherheit liegt. In internen Tests übertraf die KI bei der Suche nach Schwachstellen nahezu alle menschlichen Experten – lediglich eine kleine Gruppe von Top-Ingenieuren konnte bei der Fehlererkennung mithalten.
Das Problem liegt in der dualen Verwendbarkeit (Dual-Use-Problematik). Ein Angreifer könnte das Modell nutzen, um komplexe Code-Basen mit Millionen von Zeilen automatisiert zu scannen und direkt passende Exploits generieren zu lassen. Bei veralteten oder unzureichend gewarteten Systemen ließen sich so in kürzester Zeit kritische Lücken finden und ausnutzen. Claude Mythos löst das Problem der unübersichtlichen Software-Architekturen nicht durch mehr menschliches Personal, sondern ermöglicht eine neue Klasse von automatisierten Angriffen, die sich nur schwer abwehren lässt.
Project Glasswing: Defensive durch Exklusivität
Um dieser Gefahr zu begegnen, wählt Anthropic mit Project Glasswing einen restriktiven Ansatz. Die Allianz bringt direkte Konkurrenten wie AWS, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorgan Chase, Microsoft und NVIDIA an einen Tisch. Diese Partner erhalten kontrollierten Zugang zu Claude Mythos Preview, um ihre eigenen Systeme, Cloud-Runtimes und Betriebssysteme präventiv zu scannen.
Für die beteiligten Unternehmen ist dies ein massiver Vorteil in der Abwehr. Durch die Kombination aus der maschinellen Analysegeschwindigkeit der KI und der jahrzehntelangen Erfahrung von Security-Teams lassen sich Schwachstellen patchen, bevor Angreifer sie überhaupt entdecken. Ein Sprecher der Linux Foundation betont, dass so Risiken frühzeitig erkannt und abgebaut werden können, ohne eine potenziell gefährliche Waffe der Allgemeinheit zugänglich zu machen. Für viele Organisationen ist dieser maschinelle Ansatz der einzige Weg, ihre immer komplexer werdende Software noch verlässlich zu härten.
Eine neue Dimension der Schwachstellen-Erkennung
Die ersten Erkenntnisse aus Project Glasswing zeigen, dass KI-Modelle bei der Code-Analyse ein neues Level erreicht haben. Die KI findet Lücken, die teilweise jahrzehntelang übersehen wurden, weil eine manuelle Prüfung in diesem Umfang schlicht nicht machbar war. Laut dem CTO von Anthropic beschränkt sich das Modell dabei nicht auf statische Analysen, sondern kann in Testumgebungen gezielte Angriffe simulieren, um die Ausnutzbarkeit von Bugs zu verifizieren.
Der entscheidende Faktor ist die Skalierbarkeit. Während ein menschlicher Security-Analyst nur eine begrenzte Anzahl an Angriffsszenarien pro Tag durchdenken kann, wendet Claude Mythos tausende Vektoren in kürzester Zeit an. Das verschiebt das Machtgefüge in der Cybersicherheit stark zugunsten der Akteure, die Zugriff auf derart leistungsfähige Modelle haben. Zwar können entdeckte Vulnerabilities durch die KI auch schneller behoben werden, doch die zentrale Frage bleibt, wer die Kontrolle über diese Werkzeuge behält.
Einordnung und Konsequenzen für die Entwicklung
Für Entwickler und Systemarchitekten hat diese Entwicklung weitreichende Konsequenzen. Code-Basen – egal ob proprietär oder Open Source – werden in Zukunft systematisch von KI-Modellen durchleuchtet werden. Die automatisierte Suche nach Schwachstellen wird damit zu einem zwingenden, integralen Bestandteil moderner DevOps-Prozesse.
Gleichzeitig steigt der Druck auf Unternehmen: Wenn KI-Systeme Lücken derart präzise aufdecken, lassen sich Sicherheitsmängel kaum noch verbergen. Die Rechenschaftspflicht wächst. Organisationen müssen von einer rein reaktiven Verteidigung zu kontinuierlichen, aktiven Scans übergehen, um Angreifern einen Schritt voraus zu sein.
Die langfristige Dynamik wird davon abhängen, wie der Zugang zu solchen Sicherheits-Modellen standardisiert wird. Wer aus Allianzen wie Project Glasswing ausgeschlossen ist oder aussteigt, verliert einen entscheidenden technologischen Vorteil. Dies könnte zu einer weiteren Fragmentierung der IT-Sicherheitslandschaft führen.
Key Takeaways:
- Überlegene Analyse: Claude Mythos Preview entdeckt Software-Schwachstellen in einer Geschwindigkeit und Präzision, die menschliche Experten übertrifft.
- Restriktiver Zugang: Aufgrund des hohen Missbrauchspotenzials verzichtet Anthropic auf ein öffentliches Release.
- Präventive Abwehr: Über „Project Glasswing“ nutzen 40 Partnerunternehmen (darunter Microsoft, Google und die Linux Foundation) das Modell exklusiv zur Absicherung ihrer Systeme.
- DevOps-Evolution: Die Entwicklung macht KI-gestützte Schwachstellenscans zu einem unverzichtbaren Teil künftiger Entwicklungszyklen.
- Neue Machtverteilung: Der exklusive Zugang zu solchen Modellen verschiebt das Machtgefüge in der globalen Cybersicherheit.
Quellen
Das könnte dich auch interessieren
Meta enthüllt Muse Spark: erstes neues KI-Modell nach dem Milliarden-AI-Overhaul
Nach dem milliardenschweren AI-Overhaul stellt Meta Muse Spark vor. Spannend ist die Monetarisierungsfrage: proprietär vs. Open-Model-Strategie.
Anthropic baut Gigawatt-TPU-Kapazität mit Google und Broadcom aus
Neue Rechenkapazität ab 2027 wird Claude und andere Frontier-Modelle unterstützen – Anzeichen für extremen Bedarf bei KI-Infrastruktur.
Ende der Agenten-Flatrate: Anthropic sperrt Third-Party, OpenAI Codex wird teurer
Anthropic sperrt ab 4. April Claude Pro/Max für Third-Party-Agenten und OpenAI führt Tiers-Modell statt Flatrate ein – das Ende des günstigen Agenten-Pricings.