Zum Inhalt springen
news · 3 min Lesezeit

Anthropic baut Gigawatt-TPU-Kapazität mit Google und Broadcom aus

Neue Rechenkapazität ab 2027 wird Claude und andere Frontier-Modelle unterstützen – Anzeichen für extremen Bedarf bei KI-Infrastruktur.

Anthropic TPU Cloud-Infrastruktur Kapazität Frontier-Modelle

Die Entwicklung führender KI-Modelle erfordert eine immer massivere Infrastruktur. Um der rasant wachsenden Nachfrage nach seinen Claude-Modellen gerecht zu werden, hat Anthropic eine weitreichende Vereinbarung mit Google und Broadcom geschlossen. Ab 2027 stehen dem KI-Labor dadurch mehrere Gigawatt an zusätzlicher TPU-Rechenkapazität zur Verfügung. Die Partnerschaft unterstreicht, wie eng Modellentwickler und Hardware-Hersteller mittlerweile verzahnt sind und welche Dimensionen der Infrastrukturbedarf erreicht hat.

Exponentielles Wachstum erfordert neue Maßstäbe

Die finanziellen und operativen Kennzahlen von Anthropic haben sich zuletzt massiv beschleunigt. Nach eigenen Angaben des Unternehmens stieg der hochgerechnete Jahresumsatz (Run Rate) von knapp neun Milliarden US-Dollar Ende 2025 auf über 30 Milliarden US-Dollar Anfang 2026. Im selben Zeitraum verdoppelte sich laut Anthropic die Zahl der Geschäftskunden mit Jahresausgaben von mehr als einer Million US-Dollar von 500 auf über 1.000. Dieses exponentielle Wachstum sprengt klassische Software-Metriken und macht die physische Verfügbarkeit von Rechenleistung zum entscheidenden Flaschenhals.

Um diese Kapazitäten bereitzustellen, hat Google den Chip-Spezialisten Broadcom mit der Entwicklung und Lieferung der nächsten Generation von Tensor Processing Units (TPUs) beauftragt. Broadcom-CEO Hock Tan prognostizierte laut einem Bericht von The Register bereits im Frühjahr, dass sein Unternehmen im Jahr 2027 über 100 Milliarden US-Dollar allein mit KI-Chips erwirtschaften werde. Die neue Vereinbarung macht diese Entwicklung konkret: Die von Anthropic ab 2027 anvisierte Kapazität umfasst laut The Register etwa 3,5 Gigawatt, die direkt aus Broadcoms Next-Gen-TPUs stammen.

Fokus auf US-Infrastruktur und Hardware-Diversität

Der Großteil dieser neuen Rechenzentren wird in den USA entstehen. Anthropic erweitert damit eine bereits 2025 angekündigte Investitionszusage in Höhe von 50 Milliarden US-Dollar zur Stärkung der amerikanischen KI-Infrastruktur. Für den US-Markt bedeutet dies langfristig eine deutlich höhere Verfügbarkeit der Claude-Modelle.

Trotz der engen Kooperation mit Google bleibt Amazon (AWS) der primäre Cloud-Anbieter für das Training und Hosting der Modelle. Das sogenannte Projekt Rainier, ein massives KI-Supercluster, bildet weiterhin das Zentrum dieses Ökosystems. Anthropic setzt dabei auf eine breite Hardware-Mischung aus AWS Trainium, Google TPUs und NVIDIA GPUs. Diese Diversifizierung ermöglicht es, spezifische Workloads auf die jeweils effizientesten Chips zu verteilen und Ausfallrisiken einzelner Plattformen zu minimieren.

Konsequenzen für den Markt

Für Unternehmenskunden bedeutet die geplante Gigawatt-Infrastruktur vor allem eine höhere Stabilität und schnellere Antwortzeiten. Derzeit erfordert der Zugang zu den leistungsfähigsten Frontier-Modellen auf Enterprise-Ebene immense Investitionen. Durch die massive Ausweitung der Kapazitäten und die Nutzung spezialisierter Hardware könnten sich diese Kosten langfristig stabilisieren, während gleichzeitig die Performance steigt. Die entscheidende Frage im KI-Wettbewerb wird zunehmend sein, wer diese enormen Skaleneffekte am effizientesten ausnutzen kann.


Auf einen Blick

  • Gigawatt-Deal: Anthropic sichert sich ab 2027 rund 3,5 Gigawatt an TPU-Kapazität durch eine Partnerschaft mit Google und Broadcom.
  • Umsatzsprung: Der hochgerechnete Jahresumsatz von Anthropic stieg laut Unternehmensangaben von knapp 9 Milliarden auf über 30 Milliarden US-Dollar.
  • US-Fokus: Die neuen Kapazitäten fließen primär in den US-Markt und erweitern das bestehende 50-Milliarden-Dollar-Infrastrukturprogramm.
  • Hardware-Strategie: Durch die parallele Nutzung von AWS Trainium, Google TPUs und NVIDIA GPUs reduziert Anthropic Abhängigkeiten und optimiert Workloads.