Zum Inhalt springen
top of page

KI-Kennzeichnungspflicht: Was der EU AI Act verlangt

  • Christian Cansin Meyer
  • vor 1 Tag
  • 5 Min. Lesezeit

Die KI-Kennzeichnungspflicht kommt. Was der EU AI Act ab 2026 für Unternehmen, Marketing und Deepfakes bedeutet und warum Transparenz zur Markenfrage wird.



KI-Kennzeichnungspflicht: Was der EU AI Act wirklich bedeutet

Künstliche Intelligenz ist längst Teil kreativer Prozesse. Bilder entstehen schneller. Texte effizienter. Kampagnen skalieren mühelos.

Doch mit der neuen KI-Verordnung der EU, dem EU AI Act, wird klar: Wer KI einsetzt, übernimmt Verantwortung.

Ab dem 2. August 2026 gilt eine verbindliche Kennzeichnungspflicht für bestimmte KI-generierte Inhalte. Besonders relevant für Marken, Agenturen und Unternehmen, die mit realitätsnahen Bildern, Videos oder Texten arbeiten.

Was genau bedeutet das? Und was heißt das für Marketing, Content und Markenführung?



Was regelt der EU AI Act zur KI-Kennzeichnung?

Der EU AI Act schafft erstmals einen verbindlichen, europaweit einheitlichen Rechtsrahmen für den Einsatz von künstlicher Intelligenz. Ziel der Regulierung ist es, Innovation zu ermöglichen und gleichzeitig Grundrechte, Transparenz und Vertrauen zu schützen. Ein zentraler Baustein dabei sind klare Vorgaben zur Kennzeichnung von KI-generierten Inhalten.

Konkret regelt Artikel 50 die sogenannten Transparenzpflichten. Im Kern steht eine entscheidende Leitfrage:Darf ein KI-generierter Inhalt beim Publikum den Eindruck erwecken, er sei echt, unverändert oder von einem Menschen erstellt worden?

Wenn ein solcher Eindruck entstehen kann, greift grundsätzlich die Kennzeichnungspflicht. Der Gesetzgeber will damit verhindern, dass Nutzerinnen und Nutzer unbemerkt mit künstlich erzeugten oder manipulierten Inhalten konfrontiert werden, insbesondere dann, wenn diese Inhalte täuschend echt wirken oder das Vertrauen in Medien und öffentliche Kommunikation beeinträchtigen könnten.

Besonders relevant ist diese Regelung für sogenannte Deepfakes. Darunter fallen Bild-, Audio- oder Videoinhalte, die reale Personen, Orte oder Ereignisse nachahmen und dabei eine hohe Authentizität suggerieren. Sobald solche Inhalte geeignet sind, Verwechslungen mit echten Aufnahmen hervorzurufen, ist eine Offenlegung verpflichtend. Spätestens beim ersten Kontakt mit dem Inhalt muss klar und unmissverständlich erkennbar sein, dass es sich um künstlich erzeugtes oder manipuliertes Material handelt.

Dabei geht es nicht nur um das „Ob“, sondern ausdrücklich auch um das „Wie“ der Kennzeichnung. Die Information darf nicht versteckt oder missverständlich formuliert sein. Sie muss eindeutig, leicht verständlich und barrierefrei zugänglich sein. Das bedeutet: keine verschleierten Hinweise im Kleingedruckten, keine technischen Formulierungen, die Laien nicht verstehen. Transparenz soll tatsächlich wahrnehmbar sein, nicht nur formal erfüllt.

Der EU AI Act setzt damit ein klares Signal: Künstliche Intelligenz darf kreativ, effizient und innovativ eingesetzt werden. Aber dort, wo sie Realität imitiert oder verändert, braucht es Offenheit. Vertrauen entsteht nicht durch Perfektion, sondern durch Transparenz.



Wann besteht eine Kennzeichnungspflicht für KI-Inhalte?

Nicht jeder Einsatz von KI führt automatisch zu einer Offenlegungspflicht.

Ein Blick in die Systematik zeigt drei zentrale Unterscheidungen.


Primäre KI-Erstellung

Wenn ein Bild, Video oder Text vollständig von einer KI erzeugt wird und für Betrachter oder Leser nicht erkennbar ist, dass es sich um maschinelle Erstellung handelt, ist eine Kennzeichnung erforderlich.

Das betrifft vor allem realistisch wirkende Bildwelten, KI-Avatare oder synthetische Stimmen.


Unterstützende KI-Nutzung

Wird KI lediglich als Werkzeug genutzt, etwa zur Formulierungshilfe, zur Übersetzung oder zur technischen Bildoptimierung, greift in der Regel keine Kennzeichnungspflicht.

Entscheidend ist, dass ein Mensch die kreative und redaktionelle Kontrolle behält und das Ergebnis maßgeblich prägt.


Texte mit öffentlichem Interesse

Bei Texten gilt eine Besonderheit. Eine Offenlegungspflicht besteht vor allem dann, wenn KI-Inhalte zur Information der Öffentlichkeit über Angelegenheiten von öffentlichem Interesse veröffentlicht werden.

Marketingtexte oder Produktbeschreibungen fallen typischerweise nicht darunter. Dennoch bleibt ein Qualitäts- und Reputationsrisiko, wenn Inhalte ungenau oder irreführend sind.


Mit Hilfe von KI erstellt
Mit Hilfe von KI erstellt

Deepfakes im Marketing: Warum das Thema größer ist als gedacht

Die Definition von Deepfakes ist im EU AI Act bewusst weit gefasst.

Es geht nicht nur um manipulierte Politikerreden oder virale Fake-Videos. Auch fotorealistische Produktbilder, künstlich generierte Models oder realistisch wirkende Lifestyle-Szenen können unter diese Kategorie fallen, wenn sie den Eindruck einer realen Aufnahme vermitteln.

Gerade im E Commerce und in der Markenkommunikation liegt hier ein sensibles Feld.

Kundinnen und Kunden treffen Kaufentscheidungen auf Basis visueller Eindrücke. Wenn diese Eindrücke künstlich erzeugt sind, ohne transparent gekennzeichnet zu werden, entsteht ein Vertrauensrisiko.

Und Vertrauen ist die eigentliche Währung jeder Marke.


Welche Risiken drohen bei fehlender Kennzeichnung?

Der EU AI Act sieht bei Verstößen gegen die Transparenzpflicht empfindliche Bußgelder vor.

Bis zu 15 Millionen Euro oder bis zu 3 Prozent des weltweiten Jahresumsatzes können fällig werden, je nachdem, welcher Betrag höher ist.

Doch das juristische Risiko ist nur eine Seite.

Hinzu kommen wettbewerbsrechtliche Gefahren, etwa bei irreführender geschäftlicher Handlung. Und noch gravierender: ein möglicher Reputationsschaden, wenn KI-Nutzung verschleiert wird und später öffentlich wird.

Intransparenz wirkt heute stärker als jeder technische Fehler.


Warum Transparenz zur strategischen Entscheidung wird

Transparenz ist längst keine rein juristische Pflicht mehr. Sie ist eine Haltung. Und genau deshalb wird sie für Marken zu einer strategischen Entscheidung.

Aktuelle Studien zeichnen ein ambivalentes Bild. Viele Konsumentinnen und Konsumenten fordern Offenheit im Umgang mit KI-generierten Inhalten. Sie möchten wissen, ob ein Bild, ein Video oder eine Stimme künstlich erzeugt wurde. Gleichzeitig zeigt sich jedoch ein zweiter Effekt. Sobald Inhalte explizit als KI-generiert gekennzeichnet sind, reagieren Teile des Publikums skeptischer. Die wahrgenommene Authentizität kann sinken, das Vertrauen wird sensibler bewertet.

Das Spannungsfeld ist offensichtlich. Transparenz schafft Klarheit, kann aber gleichzeitig Fragen aufwerfen. Genau hier beginnt die strategische Dimension.

Für Marken bedeutet das: Die Entscheidung zur Kennzeichnung ist nicht nur eine Frage der Rechtskonformität, sondern der Positionierung. Wofür steht die Marke im Kern. Für maximale Effizienz, skalierbare Contentproduktion und technologische Innovationskraft. Oder für maximale Glaubwürdigkeit, Nähe und das Gefühl von Echtheit. Für perfekt inszenierte Visuals. Oder für bewusst sichtbare Handschrift.

Diese Entscheidung wirkt sich auf das gesamte Markenbild aus. Wer KI offen integriert und transparent kommuniziert, sendet ein Signal von Modernität und Verantwortungsbewusstsein. Wer auf Natürlichkeit und dokumentarische Ästhetik setzt, stärkt das Gefühl von Nahbarkeit und Vertrauen. Beides kann richtig sein. Entscheidend ist die innere Konsistenz.

Langfristig zahlt sich Klarheit aus. Nicht nur regulatorisch im Sinne von Rechtssicherheit, sondern emotional im Sinne von Markenbindung. Menschen verzeihen technische Perfektion. Was sie nicht verzeihen, ist das Gefühl, getäuscht zu werden.

Transparenz ist deshalb kein Risiko. Sie ist ein strategisches Instrument. Und im besten Fall ein Ausdruck von Haltung.



Wie Unternehmen sich jetzt vorbereiten sollten

Die Kennzeichnungspflicht tritt im August 2026 in Kraft. Doch wer erst dann reagiert, reagiert zu spät.

Sinnvoll ist eine interne KI-Policy mit klaren Definitionen:Wann gilt ein Inhalt als KI-generiert. Wann als KI-manipuliert. Wann lediglich als KI-unterstützt.

Ebenso wichtig ist ein transparenter Workflow. Wer prüft Inhalte. Wer trägt redaktionelle Verantwortung. Wo wird gekennzeichnet. Wie sichtbar.

Technische Lösungen wie maschinenlesbare Metadaten können sinnvoll sein, ersetzen jedoch nicht die sichtbare Kennzeichnung im Nutzerkontext.

KI-Kompetenz wird damit zur Compliance-Frage. Und zur Markenfrage.


Fazit: Die KI-Kennzeichnungspflicht ist mehr als ein Gesetz

Der EU AI Act zwingt Unternehmen nicht dazu, auf KI zu verzichten.

Er zwingt sie, Haltung zu zeigen.

Wer KI nutzt, sollte es bewusst tun. Transparent. Strategisch. Im Einklang mit der eigenen Markenidentität.

Die eigentliche Herausforderung liegt nicht im Label. Sondern im Vertrauen.

 
 
bottom of page