OpenAI veröffentlicht GPT-5.5: Das agentischere Modell
OpenAI veröffentlicht GPT-5.5 mit 82,7 % auf Terminal-Bench 2.0, weniger Token-Verbrauch und besserer Agenten-Fähigkeit.
OpenAI hat am 23. April 2026 GPT-5.5 veröffentlicht. Das Unternehmen bezeichnet es als das bislang intelligenteste und intuitivste Modell. Der Fokus liegt auf Aufgaben, die Planung, Tool-Nutzung und Ausdauer über mehrere Schritte hinweg erfordern.
Das Releasetempo ist bemerkenswert: Innerhalb weniger Monate erscheint bereits das vierte größere Modell seit Ende 2025. Für Entwickler, die auf OpenAI-Infrastruktur setzen, bedeutet das kürzere Migrationszyklen und schnellere Testintervalle.
Was GPT-5.5 besser kann
Die Benchmark-Zahlen zeigen deutliche Fortschritte. Auf Terminal-Bench 2.0 erreicht GPT-5.5 82,7 % (Vorgänger: 75,1 %) [1]. Die interne Expert-SWE-Evaluierung stieg von 68,5 % auf 73,1 % [1]. Auf GDPval gewinnt oder bindet das Modell in 84,9 % der Fälle [1]. Im Vergleich liegt es damit vor Claude Opus 4.7 (69,4 % auf Terminal-Bench 2.0) und Gemini 3.1 Pro (68,5 %) [1].
Hinter den Zahlen steht ein vollständiges Retraining. GPT-5.5 soll komplexe, mehrstufige Aufgaben wie Code-Entwicklung, Web-Recherche, Datenanalyse oder Softwarebedienung eigenständig koordinieren. Der entscheidende Unterschied: Das Modell plant selbstständig, nutzt Tools, prüft Ergebnisse und navigiert auch bei nicht-linearen Arbeitswegen weiter.
Trotz der gestiegenen Komplexität bleibt die Latenz stabil. Laut OpenAI erreicht GPT-5.5 dieselbe Pro-Token-Latenz wie GPT-5.4, verbraucht bei Codex-Aufgaben jedoch signifikant weniger Tokens [1].
Die Super-App-Strategie
Greg Brockman, Co-Founder und President von OpenAI, bezeichnet den Schritt als Übergang zu „mehr agentischem und intuitiverem Computing“. GPT-5.5 soll das Fundament für eine integrierte Plattform bilden, die ChatGPT, Codex und den AI-Browser vereint. TechCrunch spricht von einem digitalen Schweizer Taschenmesser, das explizit auch Enterprise-Kunden adressiert.
Das Konzept einer Super-App ist branchenweit präsent, wie auch die Pläne von X zeigen [2]. OpenAI baut die Architektur jedoch selbst: ChatGPT als Oberfläche, Codex als Entwicklungswerkzeug und der AI-Browser zur Interaktion mit Web-Inhalten und Software. GPT-5.5 trägt dabei sowohl die gesteigerte Intelligenz als auch die Ausführungsgeschwindigkeit, die für autonome Workflows nötig ist.
Verfügbarkeit und Sicherheit
GPT-5.5 ist ab sofort für Plus-, Pro-, Business- und Enterprise-Nutzer über ChatGPT und Codex verfügbar. Die Pro-Variante rollt für Pro-, Business- und Enterprise-Kunden aus. Die API-Anbindung folgt laut OpenAI in Kürze.
Begleitend setzt OpenAI auf erweiterte Redteaming-Tests, gezielte Prüfungen für fortgeschrittene Cybersecurity- und Biologie-Fähigkeiten sowie Feedback von rund 200 Early-Access-Partnern [1]. Für das API-Deployment werden zusätzliche Sicherheits- und Infrastrukturanforderungen erwartet; OpenAI arbeitet hier eng mit Partnern an den Serving-Standards.
Was das für die Agenten-Landschaft bedeutet
GPT-5.5 positioniert sich als Modell, das agentische Workflows als Kernkompetenz behandelt. Der Sprung von 7,6 Prozentpunkten auf Terminal-Bench 2.0 innerhalb eines Monats unterstreicht die Dynamik des aktuellen Release-Zyklus [2].
Für Entwickler und Agenten-Builder verschiebt sich die Latenzgrenze zwischen Antwort und Aktion. Wenn ein Modell bei gleicher Geschwindigkeit deutlich mehr Schritte autonom koordiniert, wandelt sich die Frage von der technischen Machbarkeit hin zur Workflow-Kontrolle.
OpenAI zeigt mit GPT-5.5, dass die Orchestrierung von Kapazitäten zur nächsten zentralen Herausforderung wird. Der schnelle Release-Zyklus macht diese Entwicklung zu einem beweglichen Ziel, das kontinuierliche Anpassung erfordert.
Transparenz
Agentenlog nutzt KI-Assistenz für Recherche, Struktur und Entwurf. Inhaltliche Auswahl, Einordnung und Veröffentlichung liegen redaktionell bei nexus; Quellen und Fakten werden vor Veröffentlichung geprüft.
Quellen
Das könnte dich auch interessieren
OpenAI veröffentlicht Privacy Filter für lokale PII-Redaktion
OpenAI stellt mit Privacy Filter ein offenes Modell für lokale PII-Redaktion vor. Das ist vor allem für Agenten-, Logging- und RAG-Workflows relevant.
Google macht aus Vertex AI die Gemini Enterprise Agent Platform
Google bündelt Vertex AI, Agenten-Tools und Governance unter einer neuen Plattformmarke. Für Teams ist das mehr als ein Rebranding.
Google trennt TPU 8t und TPU 8i für die agentische Ära
Google stellt TPU 8t und TPU 8i für Training und Inferenz vor – ein Signal für spezialisierte Infrastruktur für KI-Agenten.