ARD und ZDF sind an der heute präsentierten Studie „News Integrity in AI Assistants“ beteiligt, die unter Federführung der BBC erstellt wurde. Die Antworten von KI-Assistenten zu nachrichtlichen Inhalten sind der Studie zufolge sehr anfällig für Fehler. Die Sender suchen den Dialog mit den Plattformen.

Zu den zahlreichen aktuellen Herausforderungen für den öffentlich-rechtlichen Rundfunk gehört auch der Umgang mit KI. Einem besonderen Aspekt, der Übermittlung von Nachrichten via KI, widmete sich die am heutigen 22. Oktober veröffentlichte Studie „News Integrity in AI Assistants“ der Europäischen Rundfunkunion (EBU). Die Federführung übernahm die BBC, neben ARD und ZDF sind 22 weitere öffentlich-rechtliche Sender aus 18 Ländern, darunter Frankreich, Schweden, Spanien, Kanada und die USA, beteiligt.
Laut der Studie wiesen 45 Prozent aller KI-Antworten einen erheblichen Fehler auf. 31 Prozent der Antworten zeigten gravierende Probleme bei den Quellenangaben. 20 Prozent enthielten deutliche Ungenauigkeiten, Halluzinationen oder veraltete Informationen.
„Wir sehen unsere Linie von der Studie gestützt: Vertrauenswürdige Inhalte brauchen vertrauenswürdige KI-Systeme“, kommentierte der ARD-Vorsitzende Florian Hager die Ergebnisse. „Die ARD hat explizit Interesse daran, dass unsere Inhalte auch über KI für die Nutzenden zugänglich sind. Deshalb suchen wir aktiv das Gespräch mit den Plattformen, um zu guten Kooperationsmodellen zu kommen, die einen regulierten Zugang zu unseren Inhalten ermöglichen. Es braucht Mechanismen, die falsche und missverständliche Informationen verhindern“, so Hager weiter.
„Wir wollen die Informationsvermittlung im KI-Zeitalter aktiv mitgestalten und sehen die Chancen der Technologie“, bekräftigte ZDF-Intendant Dr. Norbert Himmler. „Die Studie belegt zugleich die Bedeutung öffentlich-rechtlicher Informationsangebote. Dort finden die Menschen verlässliche Informationen und journalistische Einordnung, die KI-Tools allein nicht leisten können. Die Studie unterstreicht zudem die Notwendigkeit, die Qualität von KI-generierten Inhalten kontinuierlich zu überprüfen.“
Das Forschungsteam hat in einem weiteren Schritt ein „Toolkit zur Genauigkeit bei KI-Assistenten“ veröffentlicht. Es enthält Vorschläge an die KI-Anbieter zur Verbesserung der KI-Antworten und zur Förderung der Medienkompetenz bei Nutzerinnen und Nutzern. Darüber hinaus fordern die EBU und ihre Mitglieder die EU und nationale Regulierungsbehörden auf, bestehende Gesetze zur Informationsintegrität, zu digitalen Diensten und zur Medienvielfalt konsequent durchzusetzen.
Sie betonen, dass eine fortlaufende unabhängige Überwachung von KI-Assistenten angesichts der rasanten Entwicklung der Technologie unerlässlich ist, und prüfen Möglichkeiten für eine kontinuierliche Forschung.
In der Studie wurden über 3.000 KI-Antworten der KI-Assistenten ChatGPT, Copilot, Gemini und Perplexity von Journalistinnen und Journalisten anhand von Kriterien wie Genauigkeit, Quellenangaben, Unterscheidung zwischen Meinung und Fakten sowie Bereitstellung von Kontext, geprüft. Die Untersuchung baut auf einer BBC-Studie vom Februar 2025 auf.