Update 2026: Kennzeichnungspflicht von KI-Content nach dem EU AI Act

Der EU AI Act ist seit 1. August 2024 in Kraft – und wird seitdem schrittweise ausgerollt.
Sie betreffen nicht nur die Unternehmen, die KI-Systeme entwickeln und vertreiben, sondern auch Organisationen, die KI wie ChatGPT, Midjourney und Co. nutzen. Gerade die neue Transparenzpflicht ist ein Thema, auf das sich Marketingabteilungen und Agenturen vorbereiten müssen.

Wir haben uns 2025 bereits in einem Artikel intensiv mit dem EU AI Act auseinandergesetzt und beleuchten vor allem die Paragraphen, die für den Kreativbereich und für das Marketing relevant sind. In diesem Artikel wollen wir uns auf die Transparenzverpflichtungen für KI-generierte Inhalte konzentrieren, die ab dem 2. August 2026 gelten.


Deepfakes sind Ki-generierte Bilder, die echte Personen oder Situationen imitieren.

Worauf bezieht sich die Transparenzpflicht?

KI-Systeme, die dazu gedacht sind, mit Einzelpersonen zu interagieren oder Inhalte zu erzeugen, können Risiken wie Imitation oder Täuschung mit sich bringen. Solche KI-Systeme gelten als „KI-Systeme mit Transparenzrisiken“. Diese umfassen:

  • Systeme, mit denen interagiert werden kann, wie Chatbots und digitale Assistenten;

  • Systeme, die synthetische Audio-, Bild-, Video- oder Textinhalte erzeugen, wie ChatGPT oder Midjourney;

  • Systeme, die Bild-, Audio- oder Videoinhalte erzeugen oder manipulieren, und Deepfakes generieren können, wie ElevenLabs;

  • Systeme, die Texte generieren, um die Öffentlichkeit über Angelegenheiten von öffentlichem Interesse zu informieren.

Nach den EU-Gesetzgebern müssen die genannten KI-Systeme unter bestimmten Umständen Transparenzverpflichtungen erfüllen. Dabei wird zwischen Pflichten für Anbieter und Betreiber solcher Systeme unterschieden:


Anbieterpflichten im Bereich GenAI

Ein Anbieter ist die Organisation oder Person, die ein KI-System entwickelt, bereitstellt oder in Verkehr bringt. Anbieter sind primär dafür verantwortlich, dass das KI-System den gesetzlichen Anforderungen entspricht, bevor es genutzt oder an Kund:innen weitergegeben wird. Das sind bspw. Unternehmen wie OpenAI, Midjourney oder Adobe Sensei. Gemäß Artikel 50 der KI-Verordnung müssen Anbieter von KI-Systemen mit Transparenzrisiken folgende Anforderungen erfüllen:

  • Sicherstellen, dass KI-Systeme mit Transparenzkennzeichnungen ausgestattet sind (z. B. maschinenlesbare Labels für generierte Inhalte). Technische Lösungen bereitstellen, die effektiv, interoperabel und robust sind.

  • Nutzer über die Funktionsweise und Limitationen des Systems informieren.

Anbieterseitige Kennzeichnungspflicht für KI-generierte Inhalte

Anbieter von KI-Systemen – einschließlich solcher, die synthetische Audio-, Bild-, Video- oder Textinhalte erzeugen – müssen sicherstellen, dass die Ausgaben dieser Systeme in einem maschinenlesbaren Format gekennzeichnet und als künstlich erzeugt oder manipuliert erkennbar sind.

Wenn KI-Content nicht von Realität unterscheidbar ist, muss er gekennzeichnet werden, etwa mit dem Zusatz “KI-generiert”.

Deepfakes müssen immer gekennzeichnet werden

Der Begriff "Deepfake" ist im AI Act bewusst weit gefasst. Gemeint sind KI-generierte oder manipulierte Bild-, Audio- oder Videoinhalte, die echten Personen, Gegenständen oder Ereignissen so ähnlich sehen, dass sie als echt wahrgenommen werden könnten.

Aber Achtung: Das betrifft nicht nur die gängigen manipulierten Politikervideos. Produktrealistische Szenen, KI-Sprecherinnen oder Schauplätze, die nicht existieren, aber so wirken als ob, fallen unter diese Definition.

Anbieter, also die Tool-Hersteller wie Midjourney oder ElevenLabs, müssen den Output maschinenlesbar kennzeichnen. Betreiber, also alle, die diese Tools einsetzen und die Inhalte veröffentlichen, sind zusätzlich dafür verantwortlich, dass die Kennzeichnung für Nutzer:innen klar und zugänglich sichtbar ist.

Ausnahme: Marketingtexte mit redaktioneller Überarbeitung

Für KI-generierte Texte gilt eine differenziertere Logik: Anbieter von KI-Systemen müssen auch Textausgaben maschinenlesbar kennzeichnen. Für Betreiber, also euch als Unternehmen und Agenturen, greift die Kennzeichnungspflicht nur dann, wenn Texte die Öffentlichkeit über Angelegenheiten von öffentlichem Interesse informieren. Klassische Marketingtexte, Produktbeschreibungen oder Kampagnencopy fallen in der Regel nicht darunter.

Zudem entfällt die Kennzeichnungspflicht, wenn ein Mensch den KI-generierten Text redaktionell überarbeitet und inhaltliche Verantwortung übernimmt. Ein dokumentierter Redaktions-Workflow ist damit nicht nur eine organisatorische Maßnahme, sondern eine rechtliche Absicherung.

„Code of Practice“ für Anbieter von KI-Systemen: freiwillig, aber faktisch bindend

Die EU-Kommission veröffentlichte im Dezember 2025 einen ersten Entwurf des freiwilligen Code of Practice zur Kennzeichnung KI-generierter Inhalte. Am 3. März 2026 folgte ein zweiter, überarbeiteter Entwurf. Die finale Version ist für Juni 2026 geplant.

Der Code ist nicht rechtlich bindend. Er wird aber der Maßstab sein, an dem Aufsichtsbehörden die Umsetzung messen. Wer davon abweicht, trägt bei Prüfungen die Begründungslast.

Was der aktuelle Entwurf vorsieht:

  • digital signierte Metadaten in der Datei selbst,

  • unsichtbare Wasserzeichen als zweite Sicherungsschicht,

  • und ein einheitliches EU-Icon für KI-generierte Inhalte.

Ki-generiertes Passfoto

Kennzeichnungspflicht für KI-generierte Inhalte für Betreiber

Der EU AI Act legt einen besonderen Fokus auf Deepfakes und Inhalte, die täuschend echt wirken können: KI-generierte oder manipulierte Bild-, Audio- oder Videoinhalte, die realen Personen, Objekten, Orten oder Ereignissen täuschend ähnlich sind, müssen als künstlich erzeugt gekennzeichnet werden. Diese Regelung zielt darauf ab, Täuschungen und Desinformation zu verhindern.

Welche Vorgaben gehen nun aus dem EU AI Act hervor? Was müssen Marketingabteilungen beachten?

Sie müssen:

  • Sicherstellen, dass KI-generierte Inhalte gegebenenfalls transparent gekennzeichnet werden. Hier wird unterschieden zwischen Deep-Fakes und Inhalten, die durch Menschen redaktionell überarbeitet und überprüft wurden.

  • Nutzer oder Zielgruppen informieren, wenn sie mit einem KI-System interagieren (z. B. bei Chatbots)

  • Compliance mit Datenschutzvorschriften (z. B. DSGVO) sicherstellen, wenn personenbezogene Daten verarbeitet werden.

  • Verhindern, dass irreführende Inhalte oder Deepfakes ohne Kennzeichnung veröffentlicht werden.

Auch bei hybriden Produktionen muss ein Hinweis sichtbar angebracht werden.

Fazit: Kennzeichnungspflicht für
Werbematerialien und fiktive Welten

KI-generierte Marketingtexte sind in der Regel nicht kennzeichnungspflichtig, es sei denn, sie informieren die Öffentlichkeit über Angelegenheiten von öffentlichem Interesse und sind nicht redaktionell nachbearbeitet.
Bei offensichtlich künstlerischen, kreativen oder fiktionalen Werken gelten weniger strenge Transparenzpflichten. Das bedeutet, dass Werbekampagnen mit KI-generierten Darstellungen nur dann gekennzeichnet werden müssen, wenn sie den Anschein erwecken, existierende Personen, Gegenstände oder Ereignisse darzustellen (Deepfakes). Ob das zutrifft, muss im Einzelfall geklärt werden.

Marketingteams sollten:

  1. KI-generierte Inhalte sorgfältig prüfen und bewerten, ob sie als täuschend echt wahrgenommen werden könnten.

  2. Transparente Prozesse zur Identifizierung und Kennzeichnung von KI-generierten Inhalten implementieren.

  3. Bei Unsicherheiten bezüglich der Kennzeichnungspflicht rechtlichen Rat einholen.

Die Anforderung: Inhalte eindeutig, gut wahrnehmbar und verständlich kennzeichnen

Beschriftungen wie "KI-generiert", "Erstellt mit KI" oder "AI generated" direkt am Inhalt. Overlays, Banner oder sichtbare Wasserzeichen bei Bildern und Videos. Auditive Hinweise bei KI-generierten Audioinhalten. Und: immer barrierefreie Hinweise, zum Beispiel in Bildbeschreibungen.

Eine Kennzeichnung im Kleingedruckten reicht nicht. Das Label muss in unmittelbarer optischer oder akustischer Nähe zum Inhalt platziert sein.

To-dos bis August 2026 für Marketingabteilungen und Kreativagenturen

KI-Tools inventarisieren: Welche Systeme erzeugen Inhalte, die veröffentlicht werden? Chatbots, Bildgeneratoren, Voiceover-Tools, Textassistenten.

Workflows dokumentieren: Wer prüft was, bevor es rausgeht? Diese Verantwortung muss klar zugeordnet und nachvollziehbar sein. Nicht weil es ordentlich aussieht, sondern weil es im Streitfall zählt.

Eine interne KI-Policy definieren: Wann gilt Content als kennzeichnungspflichtig, wann nicht? Klare Regeln schützen vor Grauzonendiskussionen im Alltag.

Verstöße kosten bis zu 15 Millionen Euro

Bußgelder von bis zu 15 Millionen Euro oder 3 % des weltweiten Jahresumsatzes, je nachdem, welcher Betrag höher ist. Die zuständige nationale Behörde in Deutschland ist die Bundesnetzagentur.

Mehr dazu erfahren: Hier geht’s zu den FAQs der offiziellen Seite der EU Kommission



Disclaimer: Diese Inhalte dienen ausschließlich der allgemeinen Information und stellen keine Rechtsberatung dar. Für die Richtigkeit und Vollständigkeit der Angaben wird keine Haftung übernommen.

Weiter
Weiter

Prompt-Library: Einstieg in die smarte KI-Content-Produktion