SmHJHX

Am Freitag, den 25.10. werden wir ab 15.00 Uhr bis ca. 18 Uhr umfangreiche technische Wartungsarbeiten durchführen. Vielen Dank für Ihr Verständnis.

Marketing wie auf Speed – KI in der Werbung 


Im Rahmen einer eigenen Kolumne beleuchten Rechtsexperten von Fieldfisher für SPOT media & film wichtige Branchenthemen aus juristischer Sicht. In der aktuellen Folge wirft Dr. Gerd Hansen, auf Media & Entertainment Law spezialisierter Rechtsanwalt und Partner bei Fieldfisher, gemeinsam mit Rechtsanwältin Christina Kufer einen Blick auf rechtliche Fallstricke beim KI-Einsatz für werbliche Inhalte.

DieZWEIanderen x
Rechtsanwalt Dr. Gerd Hansen und Rechtsanwältin Christina Kufer (Credit: Nathalie Podena)

Es dürfte kaum ein Medienunternehmen geben, dessen Marketingabteilung nicht bereits mit KI bei Werbemaßnahmen experimentiert hat. Zu verlockend sind die neuen Möglichkeiten für schicke Visualisierungen, zu reizvoll das Versprechen, Budget und Zeit zu sparen. Doch die Erfahrung zeigt: Gerade im Marketing – dieser wilden Mischung aus Kreativität, Tempo und unersättlichem Aufmerksamkeitsdrang – ist das Risiko besonders hoch, rechtliche Vorgaben zu verletzten. Generative KI kann dabei wie ein Brandbeschleuniger wirken.

Täuschend echt – Fake-Out-of-Home auf dem Vormarsch

Dies zeigt sich besonders deutlich bei Deepfakes im Zusammenhang mit dem Marketingtrend Fake Out-of-Home Werbung (FOOH). Dabei handelt es sich um Kampagnen, die aussehen wie klassische Out-of-Home-Außenwerbung im öffentlichen Raum, in Wahrheit aber digitale Fiktion sind. Die reale Umgebung (Gebäude, Straßen, Passanten) wird hier durch ein digital eingefügtes Werbemotiv ergänzt – täuschend echt und oft mit generativer KI oder klassischer CGI realisiert. So echt, dass man bisweilen zweimal hinschauen muss. Genau das ist das Erfolgsgeheimnis von FOOH: Die perfekte Simulation erzeugt Neugier, Verwirrung – und damit maximale Aufmerksamkeit.

Wie auch beim Einsatz generativer KI im redaktionellen Programm selbst (etwa im Rahmen von Dokumentationen) ist offensichtlich, dass durch die neuen technischen Möglichkeiten die Grenze zwischen Fakt und Fiktion zunehmend verschwimmt. Was ist daher in rechtlicher Hinsicht zu beachten? Inwieweit bedarf es einer Kennzeichnung? Und ist sowas urheberrechtlich überhaupt zulässig?

Wann müssen KI-generierte Inhalte gekennzeichnet werden? 

Antworten liefern die europäische KI-Verordnung, der Digital Services Act (DSA) und das Wettbewerbsrecht. Laut Art. 50 Abs. 2 KI-Verordnung müssen Anbieter generativer KI-Systemen sicherstellen, dass KI-generierte Inhalte „in einem maschinenlesbaren Format gekennzeichnet und als künstlich erzeugt oder manipuliert erkennbar sind“. Doch Werbetreibende gelten meist nicht als Anbieter, sondern im Regelfall als bloße Betreiber (im Engl. „deployer“) von KI-Systemen. 

Anders bei Deepfakes – hier greift Art. 50 Abs. 4 KI-Verordnung. Betreiber generativer KI-Systeme müssen daher „klar und deutlich offenlegen, dass die Inhalte künstlich erzeugt oder manipuliert wurden“. Betreiber sind dabei alle, die ein KI-System in eigener Verantwortung nutzen – die Offenlegungspflicht betrifft also auch Unternehmen, deren Marketingabteilungen mit KI-Systemen Werbung generieren. Entscheidend ist jedoch letztlich, wann ein kennzeichnungspflichtiger Deepfake überhaupt vorliegt. Deepfakes beziehen sich – entgegen einem weitverbreiteten Missverständnis – keineswegs nur auf Personen. Die KI-Verordnung versteht unter Deepfakes „einen durch KI erzeugten oder manipulierten Bild-, Ton- oder Videoinhalt, der wirklichen Personen, Gegenständen, Orten, Einrichtungen oder Ereignissen ähnelt und einer Person fälschlicherweise als echt oder wahrheitsgemäß erscheinen würde“ (Art. 3 Nr. 60 KI-Verordnung). Interpretiert man den Begriff des Deepfakes weit, wären fast alle realitätsnahen KI-Werbeclips betroffen. Eine enge Auslegung beschränkt den Begriff dagegen auf gezielte Simulationen real existierender Personen, Orte oder Gegenstände. Die Unterabteilung Europa des Bundestags hat zur Frage der Anwendbarkeit auf KI in der Werbung unlängst eine instruktive Stellungnahme veröffentlicht – und neigt erfreulicherweise eher dem engen Begriffsverständnis zu. Das würde für die Praxis bedeuten, dass Werbetreibende KI-Inhalte nur dann kennzeichnen müssen, wenn damit real existierende Personen, Gegenstände oder Orte nachgebildet werden. Die Bundesrechtsanwaltskammer scheint hingegen in einem Positionspapier eher einer weiten Auslegung zuzuneigen. Danach soll auch schon das generierte Bild einer fiktiven Person ein Deepfake darstellen, solange eine abstrakte Ähnlichkeit zu wirklichen Personen gegeben ist. Da Fake-Out-Of-Home-Werbung zumeist reale Orte oder Gebäude digital manipuliert, ist bei ihr im Regelfall grundsätzlich eine Kennzeichnung erforderlich.

Ist der jeweilige Inhalt jedoch Teil eines „offensichtlich künstlerischen, kreativen, satirischen, fiktionalen oder analogen Werks oder Programms“, so soll sich nach den Vorstellungen des europäischen Gesetzgebers die Transparenzpflicht darauf beschränken, das Vorhandensein mittels KI-generierter oder manipulierter „Inhalte in geeigneter Weise offenzulegen, die die Darstellung oder den Genuss des Werks nicht beeinträchtigt“. Wie diese Ausnahmeregelung genau auszulegen ist, lässt sich derzeit noch nicht mit letzter Sicherheit sagen. Viel spricht jedoch dafür, dass bei offensichtlich künstlerischen, kreativen, satirischen oder fiktionalen Werken im Regelfall eine Kennzeichnungspflicht etwa im Abspann (und nicht in der jeweiligen KI-generierten Einzelszene) genügen dürfte. Inwieweit sich diese Ausnahme unter Umständen auch auf künstlerisch gestaltete, unübersehbar satirische oder fiktionale Fake-Out-Of-Home–Clips übertragen lässt, die als Promomaßnahme etwa für eine bekannte Blockbuster-Franchise-Produktion (James Bond, Marvel etc.) auf Social-Media-Plattformen oder Websites veröffentlicht werden, wird noch zu klären sein. Fake-Out-Of-Home-Werbung, die je nach der im Einzelfall gewählten Art und Weise der Darstellung auch bei flüchtiger Betrachtung von vornherein nicht den Eindruck der Echtheit erwecken kann, bedarf unseres Erachtens jedenfalls keiner Offenlegung. Die Transparenzpflichten der KI-Verordnung gelten erst ab 2. August 2026. Es bleibt zu hoffen, dass das europäische AI Office noch Leitlinien erlässt, die insbesondere zur Reichweite und Umsetzung der Deepfake-Regelungen Aufschluss geben.

Auch der seit Februar 2024 geltende Digital Services Act (DAS) sieht Transparenzpflichten vor, allerdings nur für sehr große Online-Plattformen und Suchmaschinen. Art. 35 Abs. 1 Satz 2 Buchstabe k DAS verlangt, dass Deepfakes im engeren Sinne (siehe oben) gekennzeichnet werden – das „Wie“ bleibt jedoch den Plattformbetreibern weitgehend selbst überlassen.

Und dann wäre da noch das Gesetz gegen den unlauteren Wettbewerb (UWG). Es verpflichtet dazu, Werbung so zu gestalten, dass sie nicht irreführend ist. Irreführung kann auch darin bestehen, dass wesentliche Informationen weggelassen werden. Ein besonders heikler Fall: Wenn eine KI-generierte Influencerin eine Filmproduktion bewirbt – und für einen echten Menschen gehalten wird. Können Verbraucher nicht erkennen, dass hier ein künstlicher Avatar statt einer realen Person spricht, könnte das als unlauter im Sinne des UWG gelten. Auch hier gilt: Transparenz ist Pflicht.

Wenn das KI-Testimonial plötzlich real wird

Neben der Frage der Kennzeichnung wirft KI-generierte Werbung eine Vielzahl weiterer spannender Fragen auf – etwa beim Einsatz künstlicher Testimonials. Ein Beispiel: eine Marketingabteilung erschafft sich für die nächste Werbekampagne mittels generativer KI das (vermeintlich) perfekte Face-Testimonial (siehe z.B. die KI-Kampagne von Mango, Mango wirbt mit KI-Motiven in Kampagne für »Sunset Dream-Kollektion« – DER SPIEGEL). Das KI-Testimonial basiert weder auf realen Vorbildern noch auf bewusst eingespeisten Referenzen auf irgendwelche Prominenten. Die Kampagne läuft zunächst blendend, doch dann stellt sich heraus, dass das mittels generative KI erschaffene künstliche Testimonial unwissentlich einem real existierenden Menschen verblüffend ähnelt – womöglich sogar einer prominenten Persönlichkeit. Der oder die Betroffene dürfte im Zweifel nicht begeistert sein, insbesondere wenn mit dem „eigenen Gesicht“ Geld verdient wird. Es drohen persönlichkeitsrechtliche Auseinandersetzungen. Um solche Risiken zu reduzieren, empfiehlt es sich, als pragmatischen „Grobfilter“ Tools wie die Google Bildersuche oder ähnliche Anwendungen zu nutzen, um ungewollte Ähnlichkeiten frühzeitig zu entdecken. Wer ganz sicher gehen will, arbeitet entweder weiterhin mit echten Models oder wählt einen hybriden Ansatz wie zuletzt H&M. Die Modekette hat digitale Doppelgänger von realen Models erstellt, wobei die Models offenbar über ihre Avatare selber bestimmen und sie zu virtuellen Shootings schicken dürfen. Die ZEIT schrieb daher (nicht ohne Spott), die Marketingstrategie klinge „nach Teilhabe, nach Fortschritt, nach ‚Empowerment‘, nach KI mit Biosiegel“ (H&M-Kampagne mit KI: Ich und ich | ZEIT ONLINE). Kleiner Hinweis an die Modeindustrie: Für die hier berührten persönlichkeitsrechtlichen Fragestellungen – und regelungsbedürftigen Aspekte – lässt sich durchaus Honig ziehen aus dem jüngsten KI-Tarifvertragsabschluss zwischen Produktionsallianz, Schauspielgewerkschaft BFFS und ver.di – aber dies nur am Rande.           

FOOH und Urheberrecht: Wenn Big Ben eine Jacke trägt

Fake-Out-of-Home-Kampagnen setzen auf Wow-Effekte – und greifen dafür gerne auf bekannte Bauwerke oder Kunstwerke zurück. Etwa die Kampagne von The North Face, in der dem Big Ben eine knallgelbe Winterjacke gegen den grauen Londoner Himmel übergestreift wurde.

Was kreativ und aufmerksamkeitsstark wirkt, kann jedoch urheberrechtlich heikel sein. Denn viele Bauwerke unterliegen noch dem Urheberrecht. Dieses schützt die persönlich-geistige Schöpfung eines Architekten bis 70 Jahre nach dessen Tod (tückisch sind dabei Fälle wie der Pariser Eiffelturm: tagsüber gemeinfrei, aber nachts geschützt – wegen der Außenbeleuchtung). Dies erklärt, warum bei FOOH häufig auf ältere Gebäude wie den Big Ben, das Brandenburger Tor oder den Arc de Triomphe in Paris zurückgegriffen wird. 

Zwar gibt es in Deutschland die sogenannte „Panoramafreiheit“ (§ 59 UrhG). Sie erlaubt es, Werke der Baukunst, aber auch Denkmäler, Skulpturen etc., die sich bleibend an öffentlichen Orten befinden, zu fotografieren, zu filmen und öffentlich wiederzugeben. Allerdings nur unter engen Voraussetzungen: Die Aufnahmen müssen von jedermann frei zugänglichen öffentlichen Wegen, Straßen oder Plätzen aus erfolgen. Das Objekt muss zudem vom öffentlichen Grund aus frei einsehbar sein. Es dürfen keine Hilfsmittel wie Leitern oder Drohnen eingesetzt werden, um Sichtbarrieren zu überwinden. Gerade bei Luftaufnahmen per Drohne ist infolge einer jüngeren Entscheidung des Bundesgerichtshofs Vorsicht geboten. 

Der Clou bei FOOH ist zudem, dass existierende Orte, Gebäude, Kunstwerke digital bearbeitet und aufmerksamkeitsheischend verfremdet werden. Auch die durch die Panoramafreiheit privilegierten Nutzungshandlungen unterliegen jedoch einem generellen Änderungsverbot (§ 62 UrhG). Ist das jeweilige Gebäude noch urheberrechtlich geschützt, könnte der Architekt dies zudem unter Umständen sogar als eine Entstellung seines Werkes verbieten lassen. Dies verdeutlicht, warum man gut beraten ist, bei der Motivwahl auf gemeinfreie Gebäude oder Kunstwerke zu setzen, deren Schutzfrist abgelaufen ist. 

Wer FOOH-Kampagnen plant oder generell KI bei Werbemaßnahmen einsetzen möchte, sollte daher unbedingt sorgfältig prüfen, ob die eingesetzten Motive noch urheberrechtlich geschützt sind bzw. ob die digitalen Bearbeitungen zulässig sind. Sonst wird aus kreativem Marketing schnell ein juristisches Minenfeld. Dies gilt umso mehr dann, wenn die KI-Kampagne weltweit ausgerollt werden soll, zumal in anderen Ländern z.T. noch strengere KI-Kennzeichnungspflichten gelten (so z.B. künftig in China). 

Dr. Gerd Hansen (zum LinkedIn-Profil) / Christina Kufer (zum LinkedIn-Profil)

Zu Teil I der KI-Kolumne (Development-Phase)
Zu Teil II der KI-Kolumne (Schauspielbereich)
Zu Teil III der KI-Kolumne (Synchrobereich)
Zu Teil IV der KI-Kolumne (Dokumentarbereich)
Zu Teil V der KI Kolumne (KI-Training und Opt-out)
Zu Teil VI der KI-Kolumne (KI-generierte Musik)
Zu Teil VII der KI-Kolumne (Kaliforniens KI-Gesetze)
Zu Teil VIII der KI-Kolumne (Regeln zur KI-Kompetenz)
Zu Teil IX der KI-Kolumne (KI-Ausblick 2025)
Zu Teil X der KI-Kolumne (KI-Tarifvertrag)
Zu Teil XI der KI-Kolumne (Virtuelle Darsteller)