Im Rahmen einer eigenen Kolumne beleuchten Rechtsexperten von Fieldfisher für SPOT media & film wichtige Branchenthemen aus juristischer Sicht. In der aktuellen Folge wirft Dr. Gerd Hansen, auf Media & Entertainment Law spezialisierter Rechtsanwalt und Partner bei Fieldfisher, gemeinsam mit Rechtsanwältin Marie-Claire Waldmann einen Blick auf Transparenz- und Kennzeichnungspflichten bei KI-Einsatz in der Film- und Fernsehbranche.
Dr. Gerd Hansen ist auf Urheber- und Medienrecht spezialisierter Rechtsanwalt aus München. Ein besonderer Schwerpunkt seiner Arbeit liegt in der umfassenden juristischen Begleitung von nationalen und internationalen Film-, TV- und Streamingproduktionen über sämtliche Stadien hinweg; von der Entwicklung und Finanzierung über die Produktion bis hin zum Vertrieb. Seit April 2024 ist Dr. Gerd Hansen Partner bei der internationalen Wirtschaftskanzlei Fieldfisher und dort Teil der Practice Group Media & Entertainment Law. Zuvor war er lange Jahre als Head of Legal Affairs Sky Studios Germany sowie als Legal Director Content Production bei ProSiebenSat.1 sowie in einer anderen größeren Medienkanzlei tätig. Dr. Gerd Hansen ist ausgewiesener Experte bei rechtlichen Fragen im Zusammenhang mit generativer Künstlicher Intelligenz (KI) und veröffentlicht regelmäßig zu aktuellen, für die Film- und Fernsehbranche relevanten Rechtsfragen. Co-Autorin Marie-Claire Waldmann ist Associate im Fieldfisher Office in München und berät im Bereich Medien und Entertainment.
Neue Leitplanken für KI-Einsatz in der Film- und Fernsehbranche
Allerorten sprießen zur Zeit neue Leitlinien für den KI-Einsatz – ein klares Signal, wie tief KI bereits in die Produktionspraxis vorgedrungen ist. Noch vor einem Jahr lautete die Standardfrage „Darf man das überhaupt mit KI machen?“ Inzwischen wird munter mit neuen KI-Tools experimentiert und KI in die Workflows integriert. Sei es, um schneller oder günstiger zu sein, neue erzählerische Möglichkeiten auszuloten oder auch, um z.B. hybride Produktionsweisen zu erkunden, die die klassische Produktion mit KI-Einsatz kombinieren. Die Frage, die uns Mandanten stellen, lautet jetzt eher: „Kann ich dieses oder jenes neue KI-Tool einsetzen? Was sind die Dos and Don’ts?“ Immer häufiger gesellt sich dazu auch die Frage: „Welche Besonderheiten muss ich denn eigentlich mit Blick auf den jeweils Auftrag gebenden Sender oder Streamer in Sachen Kennzeichnung und Dokumentation beachten?“ Denn hier ist in den vergangenen zwei Jahren ein Dschungel an Vorgaben und Best-Practice-Empfehlungen für den KI-Einsatz entstanden, der es für diejenigen, die sich nicht täglich damit beschäftigen, zunehmend unübersichtlicher macht.
Es handelt sich bei diesem KI-Regeln-Wildwuchs interessanterweise keineswegs um ein rein deutsches Phänomen. Es ist also beileibe nicht so, dass sich hier – wie es das Klischée will – die regelungswütigen Deutschen besonders ausgetobt hätten.
Chinas neues Gesetz zur KI-Transparenz
So sind nämlich zum Beispiel Anfang September in China sehr strenge KI-Kennzeichnungspflichten in Kraft getreten (Link zum chinesischen Gesetz). Bemerkenswert: Sie fallen sogar strenger aus als die Kennzeichnungsvorgaben für Deep Fakes gemäß Art. 50 der KI-Verordnung (dazu näher unten). Nach chinesischem Recht müssen Nutzer – das können ausdrücklich auch kommerzielle Nutzer sein – KI generierte Inhalte proaktiv als solche kennzeichnen und die dafür bereitgestellten Kennzeichnungsfunktionen der KI-Diensteanbieter verwenden, wenn sie die Inhalte online verbreiten; das Löschen, Verändern, Fälschen oder Verbergen dieser Kennzeichnungen ist verboten. Handelt es sich um Inhalte, die geeignet sind, Verwirrung oder Fehlidentifikation in der Öffentlichkeit hervorzurufen, müssen die KI-Diensteanbieter eine explizite, auffällig wahrnehmbare Kennzeichnung am KI-generierten Inhalt anbringen, wobei die konkreten Anforderungen an die Kennzeichnung je nach Art des Inhalts differenziert ausgestaltet sind (z.B. bei Videos durch einen auffälligen Warnhinweis zu Beginn, in der Mitte oder am Ende des jeweiligen Videos).
KI-Transparenzpflicht aufgrund europäischer KI-Verordnung
Für die Produktionspraxis in Deutschland relevanter sind die hiesigen Vorgaben des Gesetzgebers – und des jeweiligen Auftraggebers! Hervorzuheben ist hier die neue Kennzeichnungspflicht für „Deep Fakes“ gemäß Art. 50 Abs. 4 der europäischen KI-Verordnung. Auch wenn diese Regelung erst ab dem 2. August 2026 gelten wird, wirft sie ihren Schatten bereits jetzt voraus. Nicht wenige Sender und Streamer haben darauf bereits in ihren KI-Leitlinien vorausschauend reagiert.
Normadressaten der KI-Verordnung sind Betreiber, die ein KI-System zum Erzeugen oder Manipulieren von Bild-, Audio- oder Videoinhalten verwenden, „die wirklichen Personen, Gegenständen, Orten, Einrichtungen oder Ereignissen merklich ähneln und einer Person fälschlicherweise echt oder wahr erscheinen würden“ (so die Definition der KI-Verordnung für Deepfakes). Betreiber (im Englischen klarer: „Deployer“) eines KI-Systems sind, in Abgrenzung zu den Anbietern von KI-Systemen (dies wäre OpenAI im Falle von ChatGPT), alle Unternehmen, die ein KI-System in eigener Verantwortung verwenden – und damit auch Produzenten und Verwerter. Ein aktuelles Beispiel ist etwa der sog. „Weimatar“, der KI-Avatar von Staatsminister für Kultur und Medien Wolfram Weimer.
Gemäß der europarechtlichen Transparenzpflicht ist deutlich offenzulegen ist, wenn Inhalte künstlich erzeugt oder manipuliert wurden. Die Kennzeichnungspflicht wird durch Art. 50 Abs. 4 Satz 3 KI-Verordnung jedoch abgeschwächt, wenn die künstlich erzeugten Inhalte Teil eines „offensichtlich künstlerischen, kreativen, satirischen (oder) fiktionalen“ Werks oder Programms sind. In diesen Fällen soll sich die Transparenzpflicht für Deepfakes darauf beschränken, das Vorhandensein solcher künstlich erzeugten oder manipulierten Inhalte „in geeigneter Weise offenzulegen, die die Darstellung oder den Genuss des Werks, einschließlich seiner normalen Nutzung und Verwendung, nicht beeinträchtigt und gleichzeitig den Nutzen und die Qualität des Werks aufrechterhält“ (vgl. Erwägungsgrund 134).
Wie diese Regelung genau auszulegen ist, lässt sich derzeit noch nicht mit letzter Sicherheit sagen. Viel spricht jedoch dafür, dass bei offensichtlich künstlerischen, kreativen, satirischen oder fiktionalen Programmen im Regelfall eine allgemeine Kennzeichnung im Vor- oder Abspann (und nicht in der jeweiligen KI-generierten Einzelszene) genügen dürfte. Demgegenüber dürfte bei einer nachrichtenartigen Dokumentation des tatsächlich Geschehenen mit dem unbedingten Anspruch auf Objektivität, Authentizität, Wahrheit und Nichtfiktionalität eine Kennzeichnung nur im Abspann nicht ausreichend sein. Bei journalistisch-redaktionellen Formaten mit einem hohen Authentizitäts- und Faktizitätsanspruch sollten daher diejenigen Teile eines Programms, die maßgeblich mittels generativer KI künstlich erschaffen oder wesentlich bearbeitet wurden, als solche in geeigneter Form kenntlich gemacht bzw. erkennbar gemacht werden. Dies gilt, wo journalistisch und vom Kontext her geboten, auch für KI-generierte Symbolfotos und KI-generierte Bild-/Tonsequenzen in Dokumentationen. Dabei sollte jedoch auch bedacht werden, dass auch durch eine überbordende, inflationäre KI-Kennzeichnung die Vertrauenswürdigkeit und empfundene Wertigkeit professioneller redaktioneller Angebote untergraben werden könnte.
Wie immer steckt der Teufel im Detail. Denn längst nicht jede KI-gestützte Bildnachbearbeitung ist gleich ein gefährlicher Deepfake. Wer mit den üblichen Postproduktionsprozessen einer professionellen Filmproduktion vertraut ist, weiß, in welchem Umfang nicht erst seit dem Aufkommen von generativer KI Material unter Einsatz technologischer Hilfsmittel nachbearbeitet wird (etwa zur Ton- oder Bildoptimierung). Dies geschieht immer häufiger unter Verwendung von KI-Tools. Es würde jedoch zu weit führen, in all jenen Fällen eine Kennzeichnung zu verlangen, in denen KI lediglich unterstützend als Werkzeug in der Postproduktion qualitätsverbessernd eingesetzt wird, ohne jedoch den Inhalt wesentlich zu verändern. Ein solch inflationär eingesetztes KI-Info-Label verlöre schlicht seine Aussagekraft – und die mit ihm verbundene Warn- und Hinweisfunktion.
Wie aber lässt sich praxisgerecht differenzieren?
In welchen KI-Anwendungsfällen ist wo auf welche Weise zu kennzeichnen? Wie gut sichtbar muss die Kennzeichnung erfolgen? Muss sie auch maschinenlesbar oder nur menschenlesbar sein? Schon jetzt ist spürbar, dass diese Fragen in der Praxis an Dringlichkeit gewinnen und bis zum Inkrafttreten der europäischen KI-Kennzeichnungspflicht im kommenden Sommer noch sehr intensiv diskutiert werden dürften. Sie können hier nicht erschöpfend behandelt werden. Wir fragen uns aber, ob nicht folgende zwei Überlegungen helfen mögen, hinsichtlich der KI-Kennzeichnung zu praxisgerechten Ergebnissen zu gelangen.
Abgestufte kontextbezogene Kennzeichnungspflicht
So hat die Rechtsprechung im Fall „Contergan“ im persönlichkeitsrechtlichen Kontext eine Differenzierung etabliert, die sich unter Umständen auch für eine sachgerechte Differenzierung bei KI-generierten Inhalten fruchtbar machen lässt. Das OLG Hamburg hat vor Jahren in seiner „Contergan“-Entscheidung nämlich eine kontextbezogene Bestimmung des jeweils nahegelegten Wirklichkeitsbezuges und damit Wahrheitsanspruchs vorgenommen. Im Einzelnen differenzierte es zwischen drei verschiedenen Kategorien von Szenen: Erstens Einblicke in das Familienleben und den Alltag der Filmfiguren (mit anderen Worten: das Privat‑ und Innenleben der Protagonisten). Hier – wie auch bei der Darstellung aller äußeren Lebensumstände – werde der Zuschauer keine Wirklichkeitstreue erwarten. Die zweite Kategorie von Szenen betraf interne Besprechungen der Mitarbeiter der Pharmafirma die das Beruhigungsmittel Contergan auf den Markt gebracht hatte. Auch hier liege für den Zuschauer auf der Hand, dass die entsprechenden Dialoge nicht dokumentiert und daher im Wesentlichen um der filmischen Darstellung willen erfunden seien. Die dritte Kategorie von Szenen bilden historische Vorgänge (das Ermittlungs‑ und Strafverfahren gegen die Verantwortlichen etc.). Bezüglich dieser Fakten erwarte der Zuschauer eine im Kern wahrheitsgetreue Schilderung. Das BVerfG ist dieser differenzierten Sachverhaltswürdigung durch das OLG Hamburg gefolgt. Aus der verfassungsrechtlich maßgebenden Sicht des unvoreingenommenen und verständigen Durchschnittspublikums werde allein für den „historisch gesicherten Geschehenskern“ eine wahrheitsgetreue Wiedergabe tatsächlicher Ereignisse erwartet. Mit anderen Worten: der mündige Zuschauer erkennt bei einer klar als fiktionaler Spielfilm gestalteten Doku-Fiction-Produktion fiktive Elemente in der Regel von selbst. Vor allem dann, wenn Teile des Films als fiktiv bzw. frei erfunden erkennbar sind, wird der Zuschauer von vornherein nicht Gefahr laufen, jedes Detail ohne Weiteres für „bare Münze“ zu nehmen.
Diese kontextbezogene Betrachtungsweise lässt sich übertragen und für eine enge Auslegung der KI-Verordnung fruchtbar machen. Selbst bei dokumentarisch angelegten Formaten gibt es solche mit einem deutlich höheren Interventionsgrad und erzählerischen Anspruch, in denen nachgestellte Szenen (etwa durch eine abweichende Bildsprache) dem unvoreingenommenen und verständigen Durchschnittspublikum klare Anhaltspunkte dafür liefern, dass es nicht von der Authentizität und Wirklichkeitstreue des Gezeigten ausgehen soll (man denke etwa an Vorgänge aus dem Privat- und Alltagsleben historischer Figuren, bei denen für den Zuschauer naheliegend ist, dass die entsprechenden Dialoge/ Szenen nicht dokumentiert und daher im Wesentlichen um der filmischen Darstellung willen künstlich erzeugt/ nachgestellt sind). Bei künstlerisch gestalteten dokumentarischen Formaten mit offensichtlich künstlich erzeugten Handlungspassagen/Szenen sollte daher nach hier vertretener Auffassung (in Anlehnung an die abgestufte Wahrheitspflicht der Contergan-Rechtsprechung) eine abgestufte kontextbezogene Kennzeichnungspflicht anhand des dem Zuschauer jeweils nahegelegten Wirklichkeitsbezuges und damit Wahrheitsanspruchs vorgenommen werden. D.h., wenn per KI nachgestellte Spielszenen des Programms aufgrund des Kontexts für den mündigen Zuschauer offensichtlich als fiktiv bzw. künstlich erzeugt erkennbar sind (dabei hilft, wenn sie als solche visuell unterscheidbar sind oder ein Disclaimer im Vor- oder Abspann eine Klarstellung enthält), dann genügt nach unserer Auffassung auch bei dokumentarischen Formaten eine Kennzeichnung bzw. ein Hinweis auf das Vorhandensein dieser künstlich erzeugten Elemente im Vor- oder Abspann (in diesen Fällen kann auch viel für eine ähnliche Handhabung wie bei der Product Placement-Kennzeichnung ganz am Anfang des Programms sprechen, um den Blick des Zuschauers zu lenken). Auf aus redaktioneller Sicht zumeist als störend empfundene Texteinblendungen in den Szenen selbst kann dann verzichtet werden. Letztlich kommt es hier aber immer auf den Einzelfall an.
Kennzeichnung auch für „unwesentliches Beiwerk“ im Bildhintergrund?
Neben der hier vorgeschlagenen kontextbezogenen Kennzeichnungspflicht bietet sich noch eine weitere – eher risikobasierte – Differenzierung an. So leuchtet die KI-Kennzeichnung intuitiv ein für künstlich erzeugte Protagonisten, Key Visuals oder fiktionale Schauplätze, die für das Bild-/Spielgeschehen wesentlich sind. Dies gilt vor allem dann, wenn diese visuell zentralen KI-generierten Elemente wirklichen Personen, Gegenständen oder Orten ähneln und dem Betrachter fälschlicherweise echt oder wahr erscheinen würden. Aber gilt dies in gleichem Maße auch für unwesentliches Beiwerk? Im urheberrechtlichen Kontext versteht man darunter ein Werk, das weggelassen oder ausgetauscht werden könnte, ohne dass dies dem durchschnittlichen Betrachter auffiele oder ohne dass dies die Gesamtwirkung des Hauptgegenstandes in irgendeiner Weise beeinflussen würde: Ein Gemälde im Bildhintergrund bei einem Interview, das nicht in das eigentliche Bild- oder Spielgeschehen einbezogen ist. Macht es wirklich Sinn, wenn auch solch untergeordnetes, unwesentliches Beiwerk eine KI-Kennzeichnung triggert, wenn es ausgetauscht werden könnte, ohne dass es jemandem auf Anhieb auffiele? Fehlte es hier nicht sogar schon an der Täuschung des Publikums, vor dem die europarechtliche Deepfake-Regulierung schützen will? Manifestiert sich hier wirklich das mit Deepfakes einhergehende Risiko der Desinformation und Verbrauchertäuschung?
Die meisten Streamer und Sender haben sich bereits KI-Leitlinien gegeben (vereinzelt – wie das ZDF oder der Bayerische Rundfunk – auch schon sehr frühzeitig), wobei aus unserer Marktbeobachtung der Risikoappetit der verschiedenen Auftraggeber noch sehr unterschiedlich ausgeprägt ist. Mancherorts führt dies auch zu etwas überschießenden Vorgaben, etwa dann, wenn unterschiedslos sämtlicher KI-Einsatz (auch im Hinblick auf bloß unwesentliches Beiwerk) granular dokumentiert werden soll. So müssen Produzenten vereinzelt neuerdings nicht nur angeben, in welcher Szene welcher konkrete KI-Einsatz mit welchem KI-Tool stattgefunden hat, sie sind zudem dazu angehalten, selber jeweils eine (letztlich rechtliche) Einschätzung dazu abzugeben, ob die von ihnen mit der KI generierten Elemente jeweils eine Kennzeichnungspflicht nach Artikel 50 Absatz 4 der KI-Verordnung auslösen. Diese Einschätzung ist wie gesehen jedoch im Einzelfall alles andere als trivial. Es würde daher nicht überraschen, wenn diese den Produzenten zum Teil abverlangte, juristische Einschätzung im Hinblick auf eine europarechtliche Norm, die erst am 02. August 2026 in Kraft tritt, die eine oder andere Produktionsfirma schlicht überfordern würde. Bei allem Verständnis für das absolut nachvollziehbare Transparenzbedürfnis der Auftraggeber stellt sich hier im Übrigen auch die Frage, ob man den Produzenten die Auskunftserteilung nicht erleichtern könnte, indem man statt der sehr technischen Abfrage, ob „eine Transparenzpflicht nach Artikel 50 (4) KI Verordnung (Verordnung (EU) 2024/1689)“ begründet wird, schlicht danach fragte, ob Deepfakes verwendet wurden, also Bild-, Audio- oder Videoinhalten, die wirklichen Personen, Gegenständen, Orten, Einrichtungen oder Ereignissen erkennbar ähneln und dadurch fälschlich als echt wahrgenommen werden können. Nicht auszuschließen auch, dass der hohe administrative Aufwand manchen Produzenten sogar ganz vom KI-Einsatz absehen ließe. Abschreckend mag dabei auch wirken, wenn die Auszahlung der Schlussrate an die Vorlage der KI-Dokumentation gekoppelt wird. Es bleibt spannend, wie sich diese Vorgaben in den kommenden Wochen und Monaten entwickeln werden (zumal dem Vernehmen nach auch die Produktionsallianz an dem Thema bereits dran ist) – bis sich hoffentlich der Dschungel lichtet und eine einheitliche Linie herausbilden wird.
Dr. Gerd Hansen (zum LinkedIn-Profil)
Marie-Claire Waldmann (zum Fieldfisher-Profil)
Zu Teil I der KI-Kolumne (Development-Phase)
Zu Teil II der KI-Kolumne (Schauspielbereich)
Zu Teil III der KI-Kolumne (Synchrobereich)
Zu Teil IV der KI-Kolumne (Dokumentarbereich)
Zu Teil V der KI Kolumne (KI-Training und Opt-out)
Zu Teil VI der KI-Kolumne (KI-generierte Musik)
Zu Teil VII der KI-Kolumne (Kaliforniens KI-Gesetze)
Zu Teil VIII der KI-Kolumne (Regeln zur KI-Kompetenz)
Zu Teil IX der KI-Kolumne (KI-Ausblick 2025)
Zu Teil X der KI-Kolumne (KI-Tarifvertrag)
Zu Teil XI der KI-Kolumne (Virtuelle Influencer und künstliche Darsteller)
Zu Teil XII der KI-Kolumne (KI vs. Copyright)
Zu Teil XIII der KI-Kolumne (Wahl des KI-Tools)