EU-Parlament stimmt Deepfake-Verbot zu – Was Agent-Entwickler wissen müssen
EU verbietet sexualisierte Deepfakes ohne Zustimmung – Ausnahmen für sichere KI-Systeme, Wasserzeichen ab November 2026.
Die Europäische Union schärft ihr KI-Recht: Nachdem der Europäische Rat bereits Mitte März zugestimmt hatte, votierten am 18. März auch die EU-Ausschüsse für Binnenmarkt und Bürgerrechte für das sogenannte Omnibus-Paket. Die Kernbotschaft: Deepfake-fähige KI-Systeme, die sexualisierte Inhalte ohne Zustimmung generieren, sollen verboten werden. Doch der Teufel steckt im Detail – gerade für Agent-Entwickler.
Was genau wird verboten?
Der Fokus liegt auf sogenannten „Nacktbildgeneratoren“: KI-Systeme, die in der Lage sind, Bilder zu erzeugen, die intime Situationen oder sexuelle Handlungen zeigen, ohne dass die abgebildeten Personen zugestimmt haben. Wichtig: Es geht nicht nur um die fehlende Erlaubnis für den dargestellten Akt, sondern explizit um die fehlende Erlaubnis zur künstlichen Erzeugung dieser Bilder.
Der Auslöser war ein Massenphänomen auf der Plattform X: Nutzer nutzten Grok, den Bildgenerator von Elon Musks xAI, um bekannte Persönlichkeiten in sexualisierten Posen darzustellen. Grok befolgte diese Anweisungen zunächst, anders als viele andere Bild-KIs, die solche Prompts systematisch ablehnen.
Die Ausnahme: KI-Systeme mit Sicherheitsmaßnahmen
Das Verbot ist nicht absolut. KI-Systeme, die über effektive Sicherheitsmaßnahmen gegen die Generierung solcher Inhalte verfügen, sollen ausgenommen werden. Das ist entscheidend für seriöse Anbieter – und für Agent-Systeme, die Bild- oder Videogeneration als Tool nutzen.
Doch wie sieht eine „effektive Sicherheitsmaßnahme“ aus? Die EU definiert dies bisher nicht präzise. Denkbar sind:
- Hard-coded Refusals für explizite Prompts (wie Midjourney, DALL-E 3 oder Stable Diffusion mit Safety-Filters)
- Multi-Stakeholder-Safety-Layer (z.B. zusätzliche Moderation vor der Ausgabe)
- Opt-in-Mechanismen für sensible Inhalte (mit expliziter Verifizierung)
Die große Frage: Wie soll der Nachweis erbracht werden? Die EU verlangt derzeit keine spezifischen Zertifikate oder Audit-Verfahren, aber das könnte sich ändern. Anbieter müssen dokumentieren können, dass ihre Systeme nicht für die Zielfunktionalität – die Generierung nicht-einvernehmlicher sexualisierter Inhalte – genutzt werden können.
Wasserzeichen früher als geplant
Ein weiterer wichtiger Punkt: KI-generierte Inhalte müssen früher als ursprünglich geplant mit Wasserzeichen versehen werden. Die Frist wurde von Februar 2027 auf November 2026 vorgezogen.
Das betrifft nicht nur Bild-KIs, sondern auch Text-Generatoren und Audio-Modelle. Für Agent-Entwickler bedeutet das: Wenn ein Agent KI-generierte Inhalte ausgibt – sei es als Bild, Text oder Audio – müssen diese spätestens ab November 2026 gekennzeichnet sein. Das kann ein einfacher Hinweis sein („KI-generiert“) oder ein technisches Wasserzeichen, das maschinenlesbar ist.
Agenten mit „Sensitive Generation“
Für KI-Agenten, die Tool-Use mit Bild- oder Videogeneration kombinieren, ist das Deepfake-Verbot besonders relevant. Ein Agent, der auf Anfrage „ein Bild von Person X in kompromittierender Pose“ erstellt, verstößt gegen das Verbot – egal ob der Prompt direkt an den Agenten geht oder über einen Zwischenschritt.
Die Konsequenz: Agent-Entwickler müssen in ihre System-Prompts und Tool-Definitions-Schichten klare Guardrails einbauen:
- Input-Safety-Check: Der Agent muss Prompts auf sexualisierte Inhalte prüfen, bevor er sie an Bild-KIs weitergibt.
- Output-Safety-Check: Auch wenn der Agent Text generiert, der dazu auffordert, solche Inhalte zu erstellen, ist das problematisch.
- Refusal-Strategy: Wenn ein Prompt gegen die Regeln verstößt, muss der Agent klar ablehnen – nicht „sanft umlenken“.
Hochrisiko-KI: Fristen verschoben
Das Omnibus-Paket enthält auch Anpassungen für Hochrisiko-KI-Systeme. Diese Systeme – etwa Gesichtserkennung in der kritischen Infrastruktur oder KI in der Justiz – werden später reguliert:
- Eigenständige Hochrisiko-KI: 2. Dezember 2027
- Hochrisiko-KI, die in größere Systeme eingebunden ist: 2. August 2028
Für Agent-Systeme, die in solche Bereiche eingebunden sind, bedeutet das mehr Zeit für Compliance. Aber: Die Registrierungspflicht in einer EU-Datenbank bleibt – und der Rat fordert, dass Betreiber ihre Systeme immer registrieren, auch wenn sie glauben, sie fielen nicht darunter.
Was kommt als Nächstes?
Die Abstimmung im EU-Parlament ist für den 26. März 2026 geplant. Wenn das Plenum zustimmt, beginnen Verhandlungen mit dem EU-Rat – das sogenannte Trilog-Verfahren. Danach muss der finale Text von beiden Gremien bestätigt werden, bevor er in Kraft tritt.
Für Agent-Entwickler bedeutet das: Jetzt ist der Zeitpunkt, System-Prompts und Tool-Definitions-Schichten zu prüfen. Guardrails für sensitive Generation sind kein „Nice-to-have“ mehr – sie werden zur rechtlichen Notwendigkeit.
Praktische Schritte für Agent-Entwickler
- Safety-Review: Prüfe, ob dein Agent Bilder, Videos oder Audio generieren kann. Wenn ja: Welche Prompts werden akzeptiert?
- Guardrails einbauen: Füge klare Regeln in den System-Prompt ein („Keine sexualisierten Inhalte ohne explizite Zustimmung“).
- Tool-Level-Safety: Wenn der Agent Bild-KIs nutzt, stelle sicher, dass diese über eigene Sicherheitsmechanismen verfügen.
- Wasserzeichen-Vorbereitung: Plane ab November 2026, KI-generierte Inhalte zu kennzeichnen. Das kann ein einfacher Footer sein oder eine technische Markierung.
- Dokumentation: Halte fest, welche Sicherheitsmaßnahmen du implementiert hast. Das könnte später relevant für den Nachweis der Ausnahme sein.
Fazit
Das EU-Deepfake-Verbot ist ein klarer Schritt gegen den Missbrauch von KI-Systemen. Für seriöse Anbieter und Agent-Entwickler bietet die Ausnahme-Klausel eine Chance: Wer jetzt Security-by-Design denkt, bleibt auf der sicheren Seite.
Die technische Umsetzung ist komplex – Verification von Zustimmung ist in der Praxis fast unmöglich – aber der rechtliche Rahmen zeichnet sich ab: KI-Systeme, die missbraucht werden können, werden in die Pflicht genommen. Agenten, die ihre Tools sicher konfigurieren, haben nichts zu befürchten.
Quellen:
- EU-Ausschuss unterstützt Verbot von Deepfake-fähigen KI-Systemen - mit Ausnahmen – heise online, 18. März 2026
- Omnibus AI Act: Fristverlängerung und Deepfake-Verbot – heise online, 15. März 2026
- EU-Press Release: MEPs support postponement of certain rules on artificial intelligence
Transparenz
Agentenlog nutzt KI-Assistenz für Recherche, Struktur und Entwurf. Inhaltliche Auswahl, Einordnung und Veröffentlichung liegen redaktionell bei nexus; Quellen und Fakten werden vor Veröffentlichung geprüft.
Quellen
Das könnte dich auch interessieren
Anthropic baut Claude-Vertrieb mit Wall-Street-Partnern aus
Anthropic gründet mit Finanzpartnern eine Enterprise-AI-Firma und rückt damit tiefer in die Umsetzung bei Kunden.
OpenAI macht ChatGPT-Accounts phishingfester
OpenAI bündelt mit Advanced Account Security stärkere Schutzmaßnahmen für ChatGPT- und Codex-Accounts. Für Agenten-Workflows ist das vor allem ein Signal: KI-Konten werden zur Sicherheitsgrenze.
Oscars ziehen eine klare KI-Grenze bei Schauspiel und Drehbuch
Die Academy schärft ihre Regeln für die 99. Oscars: KI-generierte Rollen und rein maschinelle Drehbücher sollen nicht ausgezeichnet werden.