KI und falscher Kontext

Die falschen ICE-Videos im „heute journal“ und die katastrophale Reaktion des ZDF

Erst erklärt die Moderatorin, dass gefälschte Videos von ICE-Einsätzen im Internet kursieren – und dann sendet das „heute journal“ selbst eins. Als das auffällt, verbreitet der Sender abermals etwas Falsches und löscht still ein weiteres Video, das einen ganz anderen Kontext hat. Ein Desaster.

Oh, was für eine Ironie.

Am Sonntagabend moderierte Dunja Hayali im „heute journal“ einen Beitrag über die „Gewalt“ und „Willkür“ der US-Migrationsbehörde ICE an, und sie erwähnte dabei ausdrücklich, wie viele Fakes dazu im Internet kursieren. Wörtlich sagte Hayali zu Beginn ihrer Moderation:

„Wer in den Sozialen Netzwerken unterwegs ist, wird festgestellt haben, dass es sehr viele Videos zu den Einsätzen der ICE-Truppen von Donald Trump gibt. Nicht alle sind echt, aber doch sehr viele.“

Im anschließenden Beitrag ging es dann aber nicht um KI-Fakes, auch nicht im Off-Text, sondern um die realen ICE-Einsätze und ihre Auswirkungen, vor allem auf migrantische Familien und ihre Kinder. Das ZDF arbeitete darin mit echten Bildern – und mit ganz offensichtlich falschen, die das ZDF aber als echte ausgab. Wie dumm.

Echt wirkender KI-Fake: Zwei vermeintliche Polizisten führen scheinbar eine weinende Frau ab, während zwei Kinder verzweifelt an ihr zerren.
Bild aus einem KI-Video: Kein echter ICE-Einsatz!Screenshot: ZDF / KI-Hinweis von uns

„Es sind brutale ICE-Einsätze wie diese, die ihnen Angst machen“, hieß es im Off-Text des Beitrags an einer Stelle. Kurz danach war unter anderem zu sehen, wie zwei vermeintliche Polizisten scheinbar eine weinende Frau abführen, während zwei Kinder verzweifelt an ihr zerren. ICE-„Agenten“ führten „Eltern vor den Augen ihrer Kinder ab“, textete die Sprecherin über die Bilder.

Dass der Clip nicht echt ist, konnte man sehen, weil im Bild das Logo von Sora (siehe oben) eingeblendet war, einer künstlichen Intelligenz, mit der sich real wirkende Videos erstellen lassen. Das Logo baut die KI selbst ein. Zuschauer, denen das auffiel, wiesen den Sender darauf hin.

Kuriose Begründung

Aber wie kann es sein, dass so ein Fake-Video in einen ZDF-Beitrag eingebaut wird – und dass das beim Sender niemand bemerkt hat, irgendwo im langen Produktionsablauf?

Auf unsere Anfrage antwortet das ZDF mit einer kuriosen Begründung: Die mit KI generierten Bilder im Beitrag hätten „gekennzeichnet werden müssen“, schreibt ein Sprecher. 

„Diese Kennzeichnung wurde bei der Überspielung des Beitrags aus technischen Gründen nicht übertragen. Die Redaktion hat den Fehler korrigiert und das Video entsprechend angepasst.“ 

Mal abgesehen davon, dass die Bilder ja gekennzeichnet waren, nur eben nicht vom ZDF: Sie hatten in dem Film grundsätzlich nichts verloren. Dieser Beitrag sagt ja nicht: Hier, so sehen diese Fakes aus, über die unsere Moderatorin schon sprach. Dieser Beitrag sagt: Hier, ich zeige die Wirklichkeit (oder jedenfalls Ausschnitte davon). Neben authentischen Szenen diente das KI-Video als vermeintlicher Beleg für das brutale Vorgehen von ICE.

In der ZDF-Redaktion scheint man das insgeheim genauso zu sehen. Warum sonst hat man die Szene nun im Zuge dieser „Anpassung“ aus dem Beitrag entfernt – und nicht einfach „gekennzeichnet“?

Noch ein falsches Video

Und es kommt noch doller: Eine weitere Szene wurde ebenfalls gelöscht. Dort war zu sehen, wie ein Junge von einem Sheriff abgeführt wird. Auch das ist kein ICE-Einsatz. Aber auch keine KI-Fälschung. Wie unter anderem „Bild“ berichtet, ist es ein Video von 2022, das einen Jungen zeigt, der einen Amoklauf angedroht hatte und deshalb festgenommen wurde – zu sehen hier in einem Beitrag von CBS News.

Die Version aber, die das ZDF ausgestrahlt hat, war falsch und irreführend als ICE-Einsatz beschriftet. Anscheinend nicht vom ZDF selbst, sondern offenbar von irgendwem irgendwo im Internet. Das ZDF hat das dann so übernommen.      

Und wieder ist niemandem beim ZDF aufgefallen, dass sie da mit altem, falschem Material arbeiten? Niemand hat es geprüft?

Zu sehen ist ein Junge, der an einem Auto steht und von hinten an seinem Rucksack festgehalten wird. Darüber die Einblendung: „Video aus redaktionellen Gründen nachträglich geändert“.
Aha, „redaktionelle Gründe“.Screenshot: ZDF

Nicht nur der Beitrag ist völlig verkorkst und ärgerlich, auch der ganze Korrekturprozess. Nachdem das ZDF die Folge nach Presseanfragen und Hinweisen von Zuschauern von seiner Seite genommen hatte, veröffentlichte es sie kurze Zeit später neu. An der bearbeiteten Stelle findet sich nun die gleichzeitig viel- und nichtssagende Einblendung:

„Video aus redaktionellen Gründen nachträglich geändert“.

Das ist so Usus, wenn Beiträge geändert werden, aber: Was heißt das?

Wer mehr darüber wissen will, muss die gut versteckte Korrekturen-Seite des ZDF finden. Wo dann aber nur jene Sätze stehen, die das ZDF auch auf Anfrage an Journalisten verschickt: Dass KI-generierte Bilder nicht gekennzeichnet wurden und man das „entsprechend angepasst“ habe, weil nach dem „KI-Grundsätzen des ZDF“ KI-generierte Bilder „immer transparent gekennzeichnet“ werden müssten.*

Um es noch mal zu sagen: Das ist Bullshit. 

In dem ganzen Beitrag ging und geht es nicht um KI-Fakes, davon war nur kurz in Hayalis Moderation die Rede. Es geht um das, was real in den USA passiert, und was die vielen (echten) Bilder der vielen echten ICE-Einsätze anrichten. 

Dennoch behauptet der ZDF-Sprecher stoisch auf unsere verwunderte Nachfrage, wie es vor diesem Hintergrund legitim sein kann, KI-Bilder zu verwenden: 

„Der Beitrag zeigt, dass sowohl mit echten als auch mit KI-generierten Bildern ein Klima der Angst erzeugt wird.“ 

Nein. 

„Wir bedauern, dass dabei nicht deutlich genug wurde, welche Bilder real sind und welche nicht.“

Ja, bedauerlich. Und nicht nur das, sondern der ganze Umgang damit. Zumal das ZDF nirgends erwähnt, dass sie nicht nur KI-Bilder verwendet haben, sondern wohl auch eine Aufnahme von 2022 in einem falschen Kontext.

Wieso sagt das ZDF nicht, dass ihm hier dumme Fehler unterlaufen sind? Weshalb verklärt das ZDF diese Fehler auch noch nachträglich und macht es damit schlimmer? Es ist ein gefundenes Fressen für all jene, die ARD und ZDF sowieso einstampfen wollen. Und bei allen anderen beschädigt es zwangsläufig restliches Vertrauen.

Die Gefahr solcher KI-Bilder ist nicht nur, dass sie Lügen verbreiten, indem sie eine Realität suggerieren, die es nicht gibt. Sie säen auch grundsätzliche Zweifel, ob die echten Bilder wirklich echt sind. Das ist gefährlich. Und besonders gefährlich ist es, wenn solche KI-Bilder in Tageszeitungen landen, wie kürzlich. Oder in einer öffentlich-rechtlichen Nachrichtensendung, die dann im Nachgang nicht mal seriös und selbstkritisch darüber aufklärt, sondern abermals Falschbehauptungen verbreitet. Vielleicht sollte sich beim ZDF mal irgendwer Gedanken machen, welche Konsequenzen das nun hat.

Wir wollten vom ZDF noch wissen, ob und wie Videos in der Redaktion verifiziert werden, welche Vorgaben es dazu gibt, auch in Hinblick auf KI, und wer verantwortlich ist für deren Einhaltung. Aber wer rechnet da mit Transparenz? Das ZDF hat die Fragen nicht beantwortet. Und in der Ausgabe des „heute journals“ am Montagabend: kein Wort zu den gravierenden Fehlern des Vortags. Dabei wäre gerade das der Ort für eine Richtigstellung. Doch beim ZDF haben sie ja offenbar nicht mal wirklich ein Einsehen.


Ergänzung, 17.2.2026. Das ZDF hat um 12:40 Uhr eine Pressemitteilung veröffentlicht. Darin sagt Anne Gellinek, stellvertretende Chefredakteurin und Leiterin der Aktualität:

„Wir entschuldigen uns in aller Form für diese Fehler. Der Beitrag entspricht nicht unseren Standards und hätte in dieser Form nicht gesendet werden dürfen. Wir haben ihn deshalb von allen Plattformen entfernt und werden auf ZDFheute sowie an gleicher Stelle im ‚heute journal‘ heute Abend korrigierend berichten.“

Nachtrag, 18.2.2026. Das ZDF hat ausführlich im „heute journal“ (hier ab 13:39) über die eigenen „handwerklichen Fehler“ berichtet und räumt nun alles ein. In dem Beitrag sei es nicht um KI-Fakes gegangen, deshalb hätte auch eine Kenntlichmachung nicht gereicht. KI-Bilder (in Nachrichtenformaten) zu verwenden, widerspreche den KI-Regeln des ZDF. Dass das andere Video einen Polizeieinsatz im Jahr 2022 zeige, habe die Redaktion nicht rechtzeitig erkannt. Prüf- und Verifikationsverfahren seien „in diesem Fall zu spät angewandt“ worden.

* Nachtrag, 19.2.2026. Das ZDF hat inzwischen auch den Eintrag auf seiner Korrekturen-Seite angepasst.

Nachtrag, 20.2.2026. Das ZDF teilt mit, „dass die New York-Korrespondentin Nicola Albrecht mit sofortiger Wirkung abberufen wird“. „Der Schaden, der durch die Missachtung journalistischer Regeln entstanden ist, ist groß“, sagt ZDF-Chefredakteurin Bettina Schausten.

17 Kommentare

  1. Hallo Boris und Alex,
    Gute Arbeit!
    *Und besonders gefährlich ist es, wenn solche KI-Bilder in Tageszeitungen laden, wie kürzlich. “
    Ihr meint bestimmt landen, oder? :)

  2. Ein Vorkommnis wie das geschilderte ist vor allem deshalb katastrophal, weil ich erwarte, dass in einer Welt voller KI-Bilder die Glaubwürdigkeit des Absenders immer wichtiger werden wird. Für diese Welt könnten die Öffentlich-Rechtlichen eigentlich gut positioniert sein. Dass rechtsextreme Kräfte seit einiger Zeit an ihrer Diskreditierung arbeiten, sehe ich dafür sogar als Beleg. Was aber natürlich auf keinen Fall passieren darf, sind Fälle wie dieser, auf den die Gegner des ö-r Rundfunks zeigen können, um ihr anhaltendes Verschwörungsgeraune mit völlig berechtigter Kritik zu garnieren.

  3. Was soll man denn dazu noch sagen. Das ist doch echt nur noch zum heulen!
    Und ich persönlich habe hier das Gefühl, dass entweder die für das Video Verantwortlichen dumm oder unfähig sind, oder sie uns Zuschauer für selbiges halten. Man kann es ja echt nachvollziehen wenn nicht gekennzeichnete KI Fakes für echt gehalten werden (sollte ja aber trotzdem nicht passieren in professionellen Redaktionen) aber wenn das Sora Logo deutlich und mittig zu sehen ist ist es doch echt nur noch durch Unfähigkeit oder Absicht erklärbar.

    Und ja, wie schon erwähnt haben die den Öffentlich-Rechtlichen einen Bärendienst erwiesen.

  4. Das ist ja kein Fehler, der irgendwie unterläuft. So ein Beitrag wird doch von Mitarbeitern geschnitten und von anderen, besser bezahlten, abgenommen. Erstere suchen sich die Quellen selbst zusammen, letztere sehen zumindest das KI-Wasserzeichen im Bild.

    Man kann also davon aussehen, dass hier Absicht im Spiel war (mit welcher Intention auch immer, vielleicht nur Faulheit). Wird das irgendwelche Konsequenzen haben? Ich hoffe doch…

  5. Wird das irgendwelche Konsequenzen haben? Ich hoffe doch…

    Aber so was von. Das gibt für die Täter einen Smalltalk mit dem Redaktionsleiter. Oder schlimmeres.

  6. Nun ja, immerhin eine ausführliche Richtigstellung.
    Ich bin jetzt einfach mal optimistisch (vielleicht auch etwas naiv) und gehe davon aus, dass sie es auch von sich aus gemacht hätten und nicht der starke Druck von außen nötig war – da auch andere großen Medien darüber berichteten wie Tagesspiegel und taz und vielleicht auch andere.

    „Prüf- und Verifikationsverfahren seien „in diesem Fall zu spät angewandt“ worden.“
    Dieser Satz stört mich aber dennoch sehr. Es wurden in diesem Fall ja keine Prüf- und Verifikationsverfahren angewandt. Oder fallen darunter auch Hinweise von Zuschauern und anderen Medien.
    Dann sollten besagte Menschen vielleicht eine Aufwandentschädigung vom ZDF fordern wenn sie Teil dieses Systems von Prüf- und Verifikationsverfahren sind;)

  7. @7: Ja, das Video macht gerade in den rechtsrextremen SM-Kanälen die Runde, man möge kommentieren und downvoten. Die Kommentare sind entsprechend gruselig, wie erwartbar.

  8. Sehe ich das richtig, dass das ZDF im Internet irgendwelche Videos herunterlädt, die irgendwie „zum Thema“ passen, um daraus einen Beitrag zusammenzuschneiden?

    Es gibt Youtuber, die sich mehr Mühe geben.

  9. Der Bewertung dieses in jeder Hinsicht unfassbar peinlichen Vorgangs kann ich mich nur vollständig anschließen. Die Rundfunkanstalten wollen einfach nicht begreifen, dass ihre Glaubwürdigkeit genauso von einem offensiv-ehrlichen, vollständig transparenten Umgang mit eigenen Fehlern abhängt wie davon, dass sie verlässlich höchste Anforderungen an journalistische bzw. redaktionelle Sorgfalt erfüllen. Zu allem Überfluss zeigt die im ‚heute journal‘ vom 17. Februar zitierte interne KI-Regel, dass das ZDF zudem nicht einmal sprachlich-grammatikalisch sattelfest ist: „Der Einsatz KI-generierter Bilder und Videos … sind (!) im Nachrichtenbereich nicht möglich.“ Doch, doch, ‚möglich sind‘ der Einsatz eben doch, wie dieser Vorgang zeigt – nur zulässig sollte er nicht sein. Und zwar unabhängig von internen Regeln schon aus Gründen redaktioneller Standards, die im öffentlich-rechtlichen Rundfunk selbstverständlich sein sollten.

  10. Nun muss die New-York-Korrespondentin des ZDF ihren Posten räumen.

    In der Tat, das hätte ich nicht erwartet. Bis dahin waren solche Dinger handwerkliche Fehler, die jedem eben so mal passieren.
    Aber manchmal findet man das gar nicht so schlecht, wenn man mit der Prognose falsch gelegen hat. So wie in diesem Fall.

  11. Und genau aus diesem Grund habe ich Euch abonniert. Hier gibt es keine journalistische Schnellschüsse und wenn Fehler begangen werden und erkannt werden, werden sie auch als solche korrigiert und zugegeben.
    Danke für Eure gute Arbeit.

  12. Schön, dass Übermedien hilft, die Glaubwürdigkeit der ÖFFIS zu stabilisieren.
    Gut, dass es mit Erfolg geschah.
    Schade, dass Unbelehrbare Menschen trotzdem bei ihrem Lügenpresse-Märchen bleiben werden.

Einen Kommentar schreiben

Mit dem Absenden stimmen Sie zu, dass Ihre Angaben gemäß unseren Datenschutzhinweisen gespeichert werden. Ihre E-Mail-Adresse wird nicht veröffentlicht.