OpenClaw Codex Provider: Native Auth, Threads, Model Discovery
Der gebündelte Codex Provider nutzt jetzt OpenClaw-native Authentifizierung, Threads und Model Discovery statt OpenAI-Wrapper. Starker Upgrade-Pfad.
OpenClaw 2026.4.10 (laut GitHub Release Notes) bringt einen fundamentalen Architekturwechsel für Codex- und GPT-Modelle: Statt über den generischen OpenAI-Provider zu laufen, nutzen sie jetzt den gebündelten Codex-Provider mit app-server harness. Das bedeutet native Authentifizierung, Thread-Unterstützung, Model Discovery und Compaction – direkt in OpenClaw integriert, nicht als Wrapper-Layer.
Für Entwickler, die Codex oder GPT-Modelle in ihren Agenten einsetzen, ist das mehr als nur eine technische Detailverbesserung. Es reduziert Abhängigkeiten, verbessert die Performance und eröffnet einen klaren Upgrade-Pfad für zukünftige Features. Gleichzeitig bleibt der klassische openai/gpt-*-Pfad für bestehende Integrationen erhalten.
Warum ein dedizierter Codex Provider?
Bisher liefen Codex- und GPT-Modelle in OpenClaw über denselben Provider wie alle OpenAI-Endpoints. Das führte zu mehreren Einschränkungen:
- Authentifizierung: Codex benötigte separate API-Keys und konnte nicht von OpenClaws native Auth-Infrastruktur profitieren
- Threads: Codex-spezifische Thread-Features waren nicht verfügbar
- Model Discovery: Neue Codex-Modelle mussten manuell konfiguriert werden
- Compaction: Spezielle Komprimierungstechniken für Codex-Calls fehlten
Mit dem gebündelten Codex-Provider (Pull Request #64298, laut Release Notes) löst OpenClaw diese Probleme. Der Provider lädt automatisch verfügbare Codex-Modelle, verwaltet Threads nativ und nutzt OpenClaws Auth-System. Für Nutzer bleibt die Oberfläche gleich – sie wählen weiterhin zwischen codex/... und openai/... – aber die Infrastruktur dahinter ist jetzt optimiert.
Ein konkretes Szenario: Stell dir vor, du entwickelst einen Coding-Agenten, der zwischen Codex und GPT-4o wechselt, je nach Aufgabe. Bisher musstest du für beide separate Auth-Mechanismen konfigurieren und konntest keine Codex-spezifischen Features wie Thread-Persistence nutzen. Mit dem neuen Provider läuft beides über dieselbe Infrastruktur, mit automatischer Model Discovery und optimierter Komprimierung für Codex-Calls.
Die wichtigsten Verbesserungen im Detail
Native Authentifizierung
Der Codex-Provider nutzt jetzt OpenClaws zentrales Auth-System (laut Release Notes). Das bedeutet:
- Einheitliche Credentials: Keine separaten API-Keys mehr für Codex
- Sicherheitsupdates: Auth-Verbesserungen gelten automatisch für alle Provider
- Audit-Logging: Alle Codex-Calls erscheinen im zentralen OpenClaw-Log
Praktisch sieht das in der Konfiguration so aus:
agents:
defaults:
model: codex/gpt-4o-mini # Nutzt jetzt native Auth
Thread-Unterstützung
Codex-Threads (lange Konversationen mit Kontext-Persistence) werden jetzt nativ verwaltet (laut Release Notes):
- Automatische Thread-Erstellung: Bei längeren Sessions
- Context Window Management: Optimierte Komprimierung für Codex-spezifische Token-Limits
- Session-Persistence: Threads bleiben über Gateway-Restarts erhalten
Das ist besonders wertvoll für Coding-Sessions, wo Kontext über mehrere Iterationen hinweg relevant bleibt.
Model Discovery
Neue Codex-Modelle werden automatisch erkannt (laut Release Notes):
- Dynamic Loading: Bei Provider-Start
- Version Updates: Neue Model-Versionen ohne Config-Änderungen
- Fallback-Logik: Automatische Fallbacks bei Model-Unverfügbarkeit
Entwickler müssen nicht mehr manuell jede neue Codex-Version in ihre Config eintragen.
Compaction
Codex-spezifische Komprimierungstechniken reduzieren Token-Verbrauch (laut Release Notes):
- Structured Output Optimization: Besonders für Code-Generation
- Context Window Preservation: Wichtiger Code-Kontext bleibt erhalten
- Performance Gains: Schnellere Response-Times bei gleicher Qualität
Upgrade-Pfad und Kompatibilität
Der Wechsel ist abwärtskompatibel. Existierende Konfigurationen funktionieren unverändert:
codex/...-Modelle nutzen automatisch den neuen Provideropenai/...-Modelle bleiben auf dem klassischen Pfad- Keine Breaking Changes für bestehende Integrationen
Für Entwickler, die explizit auf den neuen Provider umsteigen wollen, gibt es eine klare Migration:
# Vorher: Generischer OpenAI-Provider
model: openai/gpt-4o
# Nachher: Codex-Provider (empfohlen für Codex/GPT)
model: codex/gpt-4o
Der Hauptunterschied: codex/... nutzt die optimierte Infrastruktur, während openai/... die klassische Route beibehält. Beide funktionieren parallel.
Weitere Neuerungen in 2026.4.10
Neben dem Codex-Provider bringt das Release weitere wichtige Features:
Active Memory Plugin (Pull Request #63286)
Ein optionales Memory-Plugin, das OpenClaw einen dedizierten Memory-Sub-Agent zur Verfügung stellt. Das System pullt automatisch relevante Präferenzen, Kontext und vergangene Details, bevor die Hauptantwort generiert wird. Features:
- Configurable Modes: Message/recent/full context
- Live Inspection:
/verbose-Befehl für Debugging - Transcript Persistence: Opt-in für Debugging-Zwecke
- Advanced Tuning: Prompt/Thinking-Overrides
macOS/Talk: MLX Speech Provider (Pull Request #63539)
Ein experimenteller lokaler MLX Speech Provider für Talk Mode:
- Explicit Provider Selection: Lokale vs. Cloud-Synthese
- Local Utterance Playback: Offline-Fähigkeiten
- Interruption Handling: Natürliche Unterbrechungen
- System-Voice Fallback: Garantierte Verfügbarkeit
Video Generation: Seedance 2.0 (Fal Provider)
Aktualisierte Model-References für Seedance 2.0:
- Duration/Resolution/Audio: Provider-spezifische Metadaten
- Seed Metadata: Reproduzierbare Generationen
- Live Runs: Direkte Integration ins Fal-Provider-System
Praktische Implikationen für Agenten-Entwickler
Für die OpenClaw-Community bedeutet der neue Codex-Provider mehrere konkrete Vorteile:
- Reduzierte Komplexität: Weniger Config-Boilerplate für Codex-Integrationen
- Bessere Performance: Optimierte Komprimierung und Thread-Verwaltung
- Zukunftssicherheit: Klarer Pfad für kommende Codex-Features
- Einheitliches Debugging: Alle Calls im zentralen Log
Besonders interessant ist der Active Memory Plugin für komplexe Agenten-Architekturen. Statt manuell Context-Management zu implementieren, können Entwickler jetzt auf eine native Lösung setzen, die automatisch relevante Informationen aus vorherigen Sessions pullt.
Key Takeaways
- Architekturwechsel: Dedizierter Codex-Provider statt generischem OpenAI-Wrapper
- Native Features: Auth, Threads, Model Discovery und Compaction integriert
- Abwärtskompatibel:
codex/...undopenai/...Pfade parallel verfügbar - Performance-Gewinne: Optimierte Komprimierung für Codex-spezifische Workloads
- Active Memory: Optionales Plugin für automatischen Context-Recall
- MLX Speech: Lokale Sprachsynthese für macOS/Talk Mode
OpenClaw 2026.4.10 zeigt, wie das Framework von einer Sammlung integrierter Tools zu einer kohärenten Plattform wächst. Der Codex-Provider ist kein isoliertes Feature, sondern Teil einer größeren Strategie: native Integration statt Wrapper, Optimierung statt Kompromisse, Upgrade-Pfade statt Dead Ends. Für Entwickler, die ernsthafte KI-Agenten bauen wollen, ist das ein wichtiger Schritt nach vorn.
Quellen
Das könnte dich auch interessieren
Gateway-Konfiguration: openclaw.json (JSON5) verständlich erklärt
Wie OpenClaw seine JSON5-Konfiguration (openclaw.json) liest, welche Bereiche wirklich wichtig sind und welche Defaults für Hobby-Setups sinnvoll sind.
OpenClaw Security Hardening: Browser, Sandbox, CLI
OpenClaw 2026.4.10 bringt Security-Hardening für Browser, Sandbox und CLI. Stärkere Isolation und weniger Risiken.
OpenClaw Task Flow im Core: Persistente Background-Orchestrierung
OpenClaw 2026.4.2 bringt Task Flow zurück in den Core: persistente Hintergrund-Orchestrierung mit durable state und klarer Plugin-Trennung.