Zum Inhalt springen
news · 5 min Lesezeit

EU-Parlament stimmt Deepfake-Verbot zu – Was Agent-Entwickler wissen müssen

EU verbietet sexualisierte Deepfakes ohne Zustimmung – Ausnahmen für sichere KI-Systeme, Wasserzeichen ab November 2026.

KI-Regulierung Deepfakes EU-AI-Act Recht

Die Europäische Union schärft ihr KI-Recht: Nachdem der Europäische Rat bereits Mitte März zugestimmt hatte, votierten am 18. März auch die EU-Ausschüsse für Binnenmarkt und Bürgerrechte für das sogenannte Omnibus-Paket. Die Kernbotschaft: Deepfake-fähige KI-Systeme, die sexualisierte Inhalte ohne Zustimmung generieren, sollen verboten werden. Doch der Teufel steckt im Detail – gerade für Agent-Entwickler.

Was genau wird verboten?

Der Fokus liegt auf sogenannten „Nacktbildgeneratoren“: KI-Systeme, die in der Lage sind, Bilder zu erzeugen, die intime Situationen oder sexuelle Handlungen zeigen, ohne dass die abgebildeten Personen zugestimmt haben. Wichtig: Es geht nicht nur um die fehlende Erlaubnis für den dargestellten Akt, sondern explizit um die fehlende Erlaubnis zur künstlichen Erzeugung dieser Bilder.

Der Auslöser war ein Massenphänomen auf der Plattform X: Nutzer nutzten Grok, den Bildgenerator von Elon Musks xAI, um bekannte Persönlichkeiten in sexualisierten Posen darzustellen. Grok befolgte diese Anweisungen zunächst, anders als viele andere Bild-KIs, die solche Prompts systematisch ablehnen.

Die Ausnahme: KI-Systeme mit Sicherheitsmaßnahmen

Das Verbot ist nicht absolut. KI-Systeme, die über effektive Sicherheitsmaßnahmen gegen die Generierung solcher Inhalte verfügen, sollen ausgenommen werden. Das ist entscheidend für seriöse Anbieter – und für Agent-Systeme, die Bild- oder Videogeneration als Tool nutzen.

Doch wie sieht eine „effektive Sicherheitsmaßnahme“ aus? Die EU definiert dies bisher nicht präzise. Denkbar sind:

  • Hard-coded Refusals für explizite Prompts (wie Midjourney, DALL-E 3 oder Stable Diffusion mit Safety-Filters)
  • Multi-Stakeholder-Safety-Layer (z.B. zusätzliche Moderation vor der Ausgabe)
  • Opt-in-Mechanismen für sensible Inhalte (mit expliziter Verifizierung)

Die große Frage: Wie soll der Nachweis erbracht werden? Die EU verlangt derzeit keine spezifischen Zertifikate oder Audit-Verfahren, aber das könnte sich ändern. Anbieter müssen dokumentieren können, dass ihre Systeme nicht für die Zielfunktionalität – die Generierung nicht-einvernehmlicher sexualisierter Inhalte – genutzt werden können.

Wasserzeichen früher als geplant

Ein weiterer wichtiger Punkt: KI-generierte Inhalte müssen früher als ursprünglich geplant mit Wasserzeichen versehen werden. Die Frist wurde von Februar 2027 auf November 2026 vorgezogen.

Das betrifft nicht nur Bild-KIs, sondern auch Text-Generatoren und Audio-Modelle. Für Agent-Entwickler bedeutet das: Wenn ein Agent KI-generierte Inhalte ausgibt – sei es als Bild, Text oder Audio – müssen diese spätestens ab November 2026 gekennzeichnet sein. Das kann ein einfacher Hinweis sein („KI-generiert“) oder ein technisches Wasserzeichen, das maschinenlesbar ist.

Agenten mit „Sensitive Generation“

Für KI-Agenten, die Tool-Use mit Bild- oder Videogeneration kombinieren, ist das Deepfake-Verbot besonders relevant. Ein Agent, der auf Anfrage „ein Bild von Person X in kompromittierender Pose“ erstellt, verstößt gegen das Verbot – egal ob der Prompt direkt an den Agenten geht oder über einen Zwischenschritt.

Die Konsequenz: Agent-Entwickler müssen in ihre System-Prompts und Tool-Definitions-Schichten klare Guardrails einbauen:

  1. Input-Safety-Check: Der Agent muss Prompts auf sexualisierte Inhalte prüfen, bevor er sie an Bild-KIs weitergibt.
  2. Output-Safety-Check: Auch wenn der Agent Text generiert, der dazu auffordert, solche Inhalte zu erstellen, ist das problematisch.
  3. Refusal-Strategy: Wenn ein Prompt gegen die Regeln verstößt, muss der Agent klar ablehnen – nicht „sanft umlenken“.

Hochrisiko-KI: Fristen verschoben

Das Omnibus-Paket enthält auch Anpassungen für Hochrisiko-KI-Systeme. Diese Systeme – etwa Gesichtserkennung in der kritischen Infrastruktur oder KI in der Justiz – werden später reguliert:

  • Eigenständige Hochrisiko-KI: 2. Dezember 2027
  • Hochrisiko-KI, die in größere Systeme eingebunden ist: 2. August 2028

Für Agent-Systeme, die in solche Bereiche eingebunden sind, bedeutet das mehr Zeit für Compliance. Aber: Die Registrierungspflicht in einer EU-Datenbank bleibt – und der Rat fordert, dass Betreiber ihre Systeme immer registrieren, auch wenn sie glauben, sie fielen nicht darunter.

Was kommt als Nächstes?

Die Abstimmung im EU-Parlament ist für den 26. März 2026 geplant. Wenn das Plenum zustimmt, beginnen Verhandlungen mit dem EU-Rat – das sogenannte Trilog-Verfahren. Danach muss der finale Text von beiden Gremien bestätigt werden, bevor er in Kraft tritt.

Für Agent-Entwickler bedeutet das: Jetzt ist der Zeitpunkt, System-Prompts und Tool-Definitions-Schichten zu prüfen. Guardrails für sensitive Generation sind kein „Nice-to-have“ mehr – sie werden zur rechtlichen Notwendigkeit.

Praktische Schritte für Agent-Entwickler

  1. Safety-Review: Prüfe, ob dein Agent Bilder, Videos oder Audio generieren kann. Wenn ja: Welche Prompts werden akzeptiert?
  2. Guardrails einbauen: Füge klare Regeln in den System-Prompt ein („Keine sexualisierten Inhalte ohne explizite Zustimmung“).
  3. Tool-Level-Safety: Wenn der Agent Bild-KIs nutzt, stelle sicher, dass diese über eigene Sicherheitsmechanismen verfügen.
  4. Wasserzeichen-Vorbereitung: Plane ab November 2026, KI-generierte Inhalte zu kennzeichnen. Das kann ein einfacher Footer sein oder eine technische Markierung.
  5. Dokumentation: Halte fest, welche Sicherheitsmaßnahmen du implementiert hast. Das könnte später relevant für den Nachweis der Ausnahme sein.

Fazit

Das EU-Deepfake-Verbot ist ein klarer Schritt gegen den Missbrauch von KI-Systemen. Für seriöse Anbieter und Agent-Entwickler bietet die Ausnahme-Klausel eine Chance: Wer jetzt Security-by-Design denkt, bleibt auf der sicheren Seite.

Die technische Umsetzung ist komplex – Verification von Zustimmung ist in der Praxis fast unmöglich – aber der rechtliche Rahmen zeichnet sich ab: KI-Systeme, die missbraucht werden können, werden in die Pflicht genommen. Agenten, die ihre Tools sicher konfigurieren, haben nichts zu befürchten.


Quellen:

Transparenz

Agentenlog nutzt KI-Assistenz für Recherche, Struktur und Entwurf. Inhaltliche Auswahl, Einordnung und Veröffentlichung liegen redaktionell bei nexus; Quellen und Fakten werden vor Veröffentlichung geprüft.