in

ZDF reagiert auf KI-Vorfall: Korrespondentin wird entlassen

Transparenzhinweis: Text KI-gestützt, Bild KI-erstellt

Beim ZDF hat ein Fehler in der Bebilderung eines Beitrags im „heute journal“ zu einer schnellen und ungewöhnlich klaren Personalentscheidung geführt. Nach einer internen Überprüfung berief der Sender seine New-York-Korrespondentin Nicola Albrecht mit sofortiger Wirkung ab. Auslöser war ein Beitrag über Festnahmen durch die US-Einwanderungsbehörde ICE, in dem zwei problematische Sequenzen aus dem Netz verwendet worden waren: eine Szene aus einem völlig anderen Kontext sowie ein KI-generierter Clip, der nicht als solcher kenntlich gemacht wurde. Die Vorgänge befeuern eine Debatte über journalistische Sorgfalt, Kennzeichnungspflichten bei KI-Inhalten und die Kontrollmechanismen in Redaktionen.

Was das ZDF am Freitag mitteilte

In einer am Freitagvormittag, 20. Februar 2026, veröffentlichten Mitteilung erklärte das ZDF, die angekündigte Aufarbeitung der Fehler im „heute journal“ vom 15. Februar 2026 sei zu einem Ergebnis gekommen: Die Verstöße gegen interne Richtlinien und journalistische Standards wögen so schwer, dass die New-York-Korrespondentin Nicola Albrecht abberufen werde. Der Sender verortete den Kern des Problems ausdrücklich in der Missachtung von Regeln, die Vertrauen und Glaubwürdigkeit sichern sollen.

Die Mitteilung beschreibt zudem die Entstehung des fehlerhaften Beitrags: Ein Bericht für das „ZDF-Mittagsmagazin“, ausgestrahlt am 13. Februar 2026, sei in Ordnung gewesen. Für das „heute journal“ am 15. Februar 2026 sei dieser Beitrag anschließend angepasst worden. Dabei seien zwei Netzvideos ergänzt worden, die sich später als nicht sendetauglich erwiesen: Ein Clip stammte aus einem anderen Zusammenhang (eine Festnahme in Florida im Jahr 2022), der zweite Clip war KI-generiert. Beide Sequenzen seien in der Sendefassung problematisch eingesetzt worden, weil die Herkunft nicht korrekt geprüft und das KI-Material nicht transparent gekennzeichnet worden sei.

Der konkrete Fehler: Zwei Sequenzen, zwei unterschiedliche Probleme

Der Fall ist nicht nur ein Streit über eine einzelne Einblendung, sondern über zwei typische Fehlerquellen in der digitalen Bildrecherche. Erstens wurde Material genutzt, das zwar real war, aber nicht zur behaupteten Situation passte. Ein solcher Kontextbruch kann die Aussage eines Beitrags erheblich verzerren, selbst wenn der Textteil korrekt formuliert ist. Zweitens wurde ein KI-generierter Clip verwendet, ohne dass die Zuschauerinnen und Zuschauer in der Ausstrahlung eindeutig darüber informiert wurden. Damit wurde ausgerechnet in einem Umfeld, in dem es um die Bewertung der Echtheit von Online-Videos geht, ein Transparenzstandard verletzt.

In der öffentlichen Diskussion wurde besonders hervorgehoben, dass manipulierte oder synthetische Inhalte in Nachrichtensendungen nicht nur „technische“ Fehler sind, sondern unmittelbar die Glaubwürdigkeitsgrundlage berühren. Mehrere Medien griffen die ZDF-Formulierung vom „großen Schaden“ auf und ordneten die Personalmaßnahme als Konsequenz eines Regelverstoßes ein.

Einordnung: Welche Regeln beim ZDF für KI gelten

Der Vorfall fällt in eine Phase, in der öffentlich-rechtliche Sender ihre Leitlinien zum Umgang mit generativer KI ausbauen und stärker kommunizieren. Das ZDF hat dafür eigene „KI-Grundsätze“ veröffentlicht. Darin wird unter anderem festgehalten, dass generative KI in redaktionellen Prozessen unterstützen kann, die publizistische Verantwortung aber beim Menschen bleibt. Zudem wird betont, dass generativ erstellte Inhalte journalistischen Sorgfaltspflichten unterliegen und dass KI nicht als eigenständige Quelle zählt. Besonders relevant im aktuellen Fall ist der Grundsatz, dass mit Unterstützung generativer KI erstellte Inhalte – wo journalistisch geboten – für das Publikum kenntlich zu machen sind.

Lesetipp:  Bundesländer fordern eine grundlegende Überarbeitung des Krankenhaustransparenzgesetz

Parallel dazu existiert ein gemeinsamer KI-Kodex von ARD, ZDF, Deutschlandradio und Deutscher Welle, der ebenfalls auf Transparenz, Kennzeichnung und den „Human-in-the-Loop“-Ansatz setzt. Damit sind die Maßstäbe, an denen sich der konkrete Fall messen lassen muss, nicht nur interne Regeln, sondern öffentlich kommunizierte Selbstverpflichtungen.

Wie die Entscheidung zur Abberufung begründet wird

Das ZDF stellt die Abberufung als Ergebnis einer internen Überprüfung dar, nicht als spontane Reaktion auf öffentliche Empörung. Inhaltlich wird die Maßnahme mit der Schwere der Verstöße begründet: Es gehe um Richtlinien- und Standardverletzungen, die das Vertrauen in die Berichterstattung beschädigen. Der Sender verweist damit auf ein Prinzip, das in der Nachrichtenproduktion zentral ist: Nicht nur der gesprochene Text, auch die Bilder müssen überprüfbar, korrekt eingeordnet und transparent gekennzeichnet sein.

Offen bleibt in den ZDF-Angaben, welche konkreten Prüfschritte in den beteiligten Redaktionsstufen versagt haben und welche Rolle die Abnahmeprozesse spielten. Zwar wird die Verantwortung für die Anpassung des Beitrags bei der Korrespondentin verortet, zugleich ist bei Fernsehnachrichten üblich, dass mehrere Ebenen – Redaktion, Produktion, Schlussredaktion – Material sichten und freigeben. Dass der Sender dennoch eine personelle Konsequenz an der Spitze des konkreten Beitrags zieht, deutet darauf hin, dass die interne Bewertung den Vorgang als gravierend und eindeutig zurechenbar einstuft.

Reaktionen und mediale Einordnung innerhalb der letzten 24 Stunden

Innerhalb der letzten 24 Stunden wurde die ZDF-Mitteilung breit aufgegriffen. Die WELT berichtete über die Abberufung unter Bezug auf die Senderangaben und stellte die Entscheidung in den Kontext der Kritik am Einsatz von KI-Bildern in Nachrichtensendungen. Auch ZEIT ONLINE meldete die Personalentscheidung mit Verweis darauf, dass die inhaltliche Aussage des Beitrags nicht zwingend falsch gewesen sei, die Bebilderung jedoch gegen Standards verstoßen habe. BILD wiederum stellte die Entscheidung als „personelle Konsequenz“ nach einem „KI-Skandal“ dar und verwies ebenfalls auf die ZDF-Begründung, wonach die Verstöße schwer wögen.

Diese drei voneinander unabhängigen Quellen sind in einem zentralen Punkt deckungsgleich: Das ZDF hat die Abberufung offiziell bestätigt, und die Begründung wird mit schweren Verstößen gegen Richtlinien und Standards erklärt. Unterschiede bestehen vor allem in Tonlage und Kommentierung, weniger in der Kernfaktenlage.

Lesetipp:  Historischer Kälteeinbruch: Kuba meldet erstmals Temperaturen um den Gefrierpunkt

Hintergrund: Warum KI-Kennzeichnung in Nachrichten besonders sensibel ist

Generative KI kann inzwischen Videos erzeugen, die für Laien schwer von echten Aufnahmen zu unterscheiden sind. Für Nachrichtenredaktionen entsteht dadurch ein doppeltes Risiko: Zum einen steigt die Wahrscheinlichkeit, dass manipuliertes Material in Umlauf gerät und ohne ausreichende Prüfung in Beiträge gelangt. Zum anderen wirkt jeder Fehler wie ein Multiplikator für Misstrauen, weil er den Verdacht nährt, Bilder könnten bewusst „dramatisieren“ oder „inszenieren“.

Gerade bei Themen mit hoher politischer Aufladung – wie Migration, Abschiebungen oder Polizeieinsätze – ist die Wirkung von Bildern besonders stark. Ein falscher Kontext oder ein synthetischer Clip kann Emotionen auslösen, die anschließend die Wahrnehmung des gesamten Beitrags prägen. Deshalb verlangen viele Redaktionsstatuten und Kodizes nicht nur eine Prüfung der Herkunft, sondern auch eine klare Kennzeichnung, wenn Material nicht authentisch ist oder wenn es sich um nachgestellte beziehungsweise KI-generierte Inhalte handelt.

Der aktuelle Fall zeigt zudem ein strukturelles Problem: Online-Videos sind oft ohne verlässliche Metadaten, werden in sozialen Netzwerken neu hochgeladen und verlieren dabei Hinweise auf Ursprung, Datum oder Bearbeitungen. Das erhöht den Druck auf Redaktionen, Verifikationsroutinen zu professionalisieren, etwa durch Reverse-Image-Search, Geolokalisierung, Abgleich mit Agenturmaterial oder direkte Kontaktaufnahme zu Urheberinnen und Urhebern, sofern möglich.

Welche Punkte weiterhin offen sind

Gesichert ist nach der ZDF-Mitteilung die Abberufung sowie die Beschreibung der beiden beanstandeten Sequenzen. Nicht abschließend geklärt ist öffentlich, welche konkreten internen Kontrollstufen den Beitrag vor Ausstrahlung geprüft haben und warum die Probleme dabei nicht aufgefallen sind. Ebenfalls offen bleibt, welche weiteren organisatorischen Maßnahmen das ZDF zusätzlich zur Personalentscheidung plant und in welchem Zeitrahmen ein angekündigter Maßnahmenkatalog umgesetzt werden soll.

Auch ist aus der offiziellen Mitteilung nicht ableitbar, ob und welche arbeitsrechtlichen Schritte über die Abberufung hinaus erfolgen. „Abberufung“ beschreibt zunächst die Entbindung von einer Funktion, nicht zwingend die Beendigung eines Arbeitsverhältnisses.

Fazit

Der Fall um die fehlerhafte Bebilderung im „heute journal“ hat innerhalb weniger Tage von der Korrektur eines Beitrags zu einer personellen Konsequenz geführt. Die Abberufung der New-York-Korrespondentin Nicola Albrecht ist durch eine offizielle ZDF-Mitteilung vom 20. Februar 2026 belegt und wird übereinstimmend von mehreren großen Medien aufgegriffen. Im Kern geht es nicht um eine abstrakte Technikdebatte, sondern um journalistische Grundregeln: Kontexttreue, Herkunftsprüfung und Transparenz. Wie das ZDF seine Kontrollprozesse konkret nachschärft und welche Maßnahmen dauerhaft greifen, bleibt ein entscheidender nächster Schritt, der über den Einzelfall hinaus Bedeutung für den Umgang von Nachrichtenredaktionen mit KI-Inhalten haben dürfte.

Quellen

https://presseportal.zdf.de/pressemitteilung/zdf-informiert-ueber-aufarbeitung-von-fehlern-im-heute-journal-vom-15-februar-2026

https://presseportal.zdf.de/pressemitteilung/ard-zdf-deutschlandradio-und-deutsche-welle-verabschieden-gemeinsamen-ki-kodex

Written by Julia

Kassel schließt Grundschule und Hort vorübergehend: Häufung von Magen-Darm-Erkrankungen beschäftigt Behörden

Geplante Einkommensteuersenkung: Auswirkungen auf Familien im Überblick