Pieces MCP + OpenClaw: Daily Standups und Meeting-Preps automatisieren
Pieces MCP bringt Long-Term Memory zu OpenClaw: Agenten fragen deine Arbeitstreams ab, generieren tägliche Standups und bereiten Meeting-Kontext vor.
Wie oft hast du dich vor einem Meeting gefragt: “Was habe ich gestern zu diesem Thema eigentlich gemacht?” Oder ärgerst dich beim täglichen Standup, dass wichtige Details untergehen? Pieces MCP löst genau diese Probleme. In Kombination mit OpenClaw lässt sich die Automatisierung nahtlos in den Entwickler-Workflow integrieren.
Pieces geht über einen reinen Code-Snippet-Manager hinaus. Die Anwendung erfasst kontinuierlich Arbeitskontexte: Code-Änderungen, Browser-Verlauf, Notizen, Kalendertermine und Anwendungsdaten. Das Herzstück ist die Long-Term Memory Engine (LTM-2.7), die diese Informationen lokal speichert und strukturiert aufbereitet. Über das Model Context Protocol (MCP) stellt Pieces diese Kontextdaten KI-Agenten bereit - unter anderem OpenClaw.
Kommunikation zwischen Pieces MCP und OpenClaw
OpenClaw nutzt für MCP-Integrationen den integrierten Manager MCPorter. In der Konfigurationsdatei ~/.openclaw/workspace/config/mcporter.json definierst du den Pieces-MCP-Server:
{
"mcpServers": {
"pieces": {
"command": "mcp-remote",
"args": [
"http://localhost:39300/model_context_protocol/2025-03-26/mcp"
]
}
}
}
Entscheidend ist der Endpunkt: Verwende den MCP-Pfad (/model_context_protocol/.../mcp), nicht den veralteten SSE-Pfad. Läuft PiecesOS auf einem anderen Rechner, tunnelst du Port 39300 etwa mit ngrok und passt die URL entsprechend an.
Nach einem Neustart des OpenClaw Gateways (Befehl openclaw gateway restart im Workspace-Verzeichnis, siehe Pieces-MCP-Skill: https://clawhub.ai/jackrosspieces/pieces-mcp) erscheinen die Pieces-Tools in der Werkzeugliste des Agents. Die zentralen Funktionen nach Angaben von Pieces sind:
ask_pieces_ltm: Abfrage des Langzeitgedächtnisses nach spezifischen Kontextencreate_pieces_memory: Erzeugen neuer Memory-Einträge, etwa zur Dokumentation von Entscheidungensearch_pieces_workstream: Durchsuchen von Arbeitsstreams nach Themen, Zeiträumen oder Quellen
Drei konkrete Anwendungsfälle
1. Automatisches Daily Standup
Statt morgens mühevoll zusammenzutragen, was am Vortag erledigt wurde, generierst du den Bericht automatisch. Ein Cron-Job fragt den Pieces-Speicher ab:
## In deiner OpenClaw-Cron-Konfiguration
- name: "Daily Standup Generation"
schedule: "0 9 * * 1-5" # 9 Uhr an Werktagen
command: |
Was habe ich gestern gearbeitet? Bitte fasse die wichtigsten Aktivitäten zusammen und liste offene Blocker auf.
OpenClaw ruft ask_pieces_ltm auf, filtert die Einträge des Vortrags, gruppiert sie nach Projekten und formatiert eine kurze Übersicht. Diese ist direkt für Slack, Teams oder Notion nutzbar. Der Prozess greift auf die dokumentierte LTM-2.7-Engine zurück.
2. Meeting-Vorbereitung mit Kontexteinblendung
Vor einem Termin sucht OpenClaw automatisch nach allen Arbeitselementen, die mit dem Meeting-Thema verknüpft sind. Dafür kombiniert der Agent Kalenderdaten mit den Arbeitstreams in Pieces.
Er beantwortet Fragen wie: “Welche Code-Änderungen habe ich in den letzten zwei Wochen am Modul X vorgenommen?” oder “Was stand in den Notizen zum letzten Workshop mit Team Y?” Das Ergebnis ist eine kompakte Briefing-Note für die Besprechung.
3. Auto-Debugging mit Incident-Kontext
Bei einem Alert in der Produktionsumgebung durchsucht OpenClaw proaktiv den Pieces-Speicher nach ähnlichen Fehlermustern. Findet er relevante Einträge - etwa vergangene Debugging-Sessions oder entsprechende Commit-Messages -, erstellt er automatisch einen Memory-Eintrag zum aktuellen Vorfall und verknüpft ihn mit der Historie.
Einrichtung: Schritt für Schritt
Voraussetzungen prüfen
- Pieces Desktop App installiert und gestartet
- Long-Term Memory Engine in der App aktiviert
- Node.js 18+ und OpenClaw gemäß dem offiziellen Setup-Guide eingerichtet
mcp-remoteglobal installiert:npm install -g mcp-remote(empfohlene Version 0.1.38 laut Pieces-Dokumentation)
Konfiguration anpassen
- Öffne oder erstelle
~/.openclaw/workspace/config/mcporter.json. - Füge den Pieces-Server-Eintrag hinzu.
- Bei Remote-Betrieb: Ersetze
localhost:39300durch die Tunnel-URL. - Starte das Gateway neu mit
openclaw gateway restart(siehe Pieces-MCP-Skill auf ClawHub: https://clawhub.ai/jackrosspieces/pieces-mcp).
Testen der Verbindung
Sobald OpenClaw wieder läuft, frage den Agent: “Welche Pieces-Tools stehen zur Verfügung?” Die Antwort sollte die LTM-Funktionen auflisten. Ein einfacher Testlauf: „Was habe ich in den letzten zwei Tagen gearbeitet?”
Sicherheit und Berechtigungsmodus
OpenClaw kann im Modus permissionMode: 'bypassPermissions' Tools autonom ausführen. In Kombination mit Schreibfunktionen wie create_pieces_memory ist das leistungsfähig, erfordert aber Sorgfalt.
Empfohlene Maßnahmen:
- OpenClaw in einer Docker-Umgebung mit eingeschränktem Dateisystemzugriff betreiben
- Schreib-Tools in der MCPorter-Konfiguration deaktivieren, wenn Vollautomatisierung vermieden werden soll
- Ausführungsprotokolle regelmäßig prüfen
Für den Einstieg empfiehlt sich der interaktiven Modus, um die Pieces-Integration zunächst manuell zu validieren.
Praxisrelevanz
Die meisten KI-Agenten arbeiten mit kurzfristigem Kontext: Sie verarbeiten die aktuelle Nachricht und gegebenenfalls die letzten Antworten. Pieces MCP fügt die Dimension Langzeitgedächtnis hinzu. OpenClaw nutzt diese Erweiterung, um proaktiv zu handeln, statt nur auf Anfragen zu reagieren.
Für Entwickler und Wissensarbeiter bedeutet das: Der Agent kennt Arbeitsgewohnheiten, erinnert sich an vergangene Probleme und liefert präzisere Vorschläge. Die Automatisierung von Standups und Meeting-Vorbereitungen ist nur der Anfang. Denkbar sind zudem:
- Automatische Wissensdokumentation bei Feature-Abschluss
- Kontextuelle Erinnerungen an frühere Architektur-Entscheidungen
- Proaktive Recherche zu häufig auftretenden Themen in den Arbeitstreams
Einordnung
Pieces MCP verwandelt OpenClaw von einem reaktiven Tool in einen proaktiven Arbeitspartner mit Gedächtnis. Die offizielle Integration demonstriert, wie MCP-Server die Fähigkeiten von OpenClaw erweitern können. Das Setup ist technisch überschaubar und bietet unmittelbaren Nutzen für Teams, die tägliche Routinen optimieren möchten.
Der Vorteil: Gewohnte Arbeitsabläufe bleiben erhalten. Pieces erfasst Kontext im Hintergrund, OpenClaw ruft den Speicher bedarfsgerecht ab. Die KI-Unterstützung bleibt nahtlos, ohne dass zusätzliche Dokumentation erforderlich ist.
Transparenz
Agentenlog nutzt KI-Assistenz für Recherche, Struktur und Entwurf. Inhaltliche Auswahl, Einordnung und Veröffentlichung liegen redaktionell bei nexus; Quellen und Fakten werden vor Veröffentlichung geprüft.
Quellen
Das könnte dich auch interessieren
OpenClaw Whisper-Plugin macht Sprachnachrichten zu Agenten-Input
Das Whisper-Plugin für OpenClaw transkribiert Voice Notes aus Telegram, WhatsApp und Discord direkt für Agenten.
TokenJuice: Wenn Agenten plötzlich weniger Token fressen
TokenJuice komprimiert Tool-Call-Outputs nach der Ausführung – als OpenClaw-Plugin und eigenständiges CLI mit Cursor-Integration.
Cloudflare kündigt an: Project Think ist die nächste Generation der AI-Agenten-Plattform
Cloudflare stellt Project Think vor: Eine neue Agents SDK mit Durable Execution, Sub-Agents und Sandboxed Code Execution für langlaufende KI-Agenten.