Mats Schönauer zeigt in seinem neuesten Video, wie Youtube-Kanäle massenhaft Fake-Inhalte veröffentlichen, wie leicht sich damit Klicks und Abos generieren lassen – und was das für die Produzent:innen hochwertiger Formate bedeuten kann.
Wenn Künstliche Intelligenz die verstorbene Queen in einem Video zum Leben erweckt und rappen lässt, dann ist das vielleicht ganz amüsant. Und auch beeindruckend, weil es es zeigt, was mit KI möglich ist. Für die meisten Zuschauer:innen dürfte in diesem Fall klar sein: Das ist nicht echt.
Aber was, wenn die Fälschung eben nicht so leicht zu erkennen ist? Wenn Fake-Videos politische Propaganda verbreiten und pseudowissenschaftliche Kanäle wie „Sleepless Historian“ mit KI massenhaft Youtube-Inhalte produzieren? Mit welchem Ziel überhaupt? Und welche Folgen hat das für die Macher:innen von aufwendig produzierten Inhalten? Darum geht es im neuesten Video von Mats Schönauer von „Topfvollgold“.
Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.
Transparenzhinweis: Mats Schönauer betreibt seinen Youtube-Kanal „Topfvollgold“ unabhängig von Übermedien. Wir erhalten daher keine Werbeeinnahmen von Youtube oder den in seinen Videos beworbenen Unternehmen.
Der Autor
Mats Schönauer ist freier Journalist und Autor. Er hat in Dortmund Journalistik studiert, war unter anderem Leiter des „BILDblogs“ und gründete 2013 das Klatschpresse-Watchblog „Topfvollgold“. 2021 veröffentlichte er zusammen mit Moritz Tschermak das Buch „Ohne Rücksicht auf Verluste“ über die Methoden der „Bild“-Zeitung. Für Übermedien hat er über Klatschblätter berichtet und das „Schlagzeilenbasteln“ kuratiert. Seit 2024 zeigt er auf seinem Youtube-Kanal, was wirklich hinter den Schlagzeilen der Klatschpresse, Youtuber und Sozialen Medien steckt.
2 Kommentare
Hm, da scheinen mir zwei Probleme zusammengewürfelt: Propaganda durch täuschend echte KI-Video einerseits, Propaganda durch verfälschende Zusammenschnitte andererseits. Für letzteres braucht man keine KI, das geht selbst mit mechanischem Super 8-Schnittequipment.
Relevanter finde ich das Bullshit-Argument. Massenweise Unsinn, der oft nicht mal mit ideologischer Absicht erstellt wird (sondern um Kohle zu machen). Und dann wird halt doch Propaganda draus. Ein besonders krasses und viral gegangenes Beispiel analysiert hier der Historiker-Kanal MDVAL: https://www.youtube.com/watch?v=WInMgY_-nlQ
@#1 Kritischer Kritiker:
Hm, da scheinen mir zwei Probleme zusammengewürfelt: Propaganda durch täuschend echte KI-Video einerseits, Propaganda durch verfälschende Zusammenschnitte andererseits. Für letzteres braucht man keine KI, das geht selbst mit mechanischem Super 8-Schnittequipment.
Klar ging das auch früher schon, aber wie aufwändig war das, um es überzeugend hinzubekommen? Das geht jetzt locker flockig von der Tastatur…
Die Mischform von echtem und KI Content halte ich tatsächlich für besonders gefährlich. Weil das sehr leichte Anknüpfungspunkte schafft. Das war allerdings auch schon bei Fakenews ohne KI der Fall. Nicht wenige Fakenews-Produzenten starteten mit offiziellen Statistiken/Nachrichten/Fakten in ihren Beiträgen oder streuten Teile davon ein. Erst die Kombination mit absichtlicher Fehlinterpretation oder Verdrehen der Tatsachen machten manche Beiträge zu Fakenews. Das ist dann für viele insgesamt schwerer zu erkennen. Und mit KI wird das ganze halt „dead simple“ und die Strategie „flood the the zone with sh!t“ kann noch einfacher umgesetzt werden.
Sie sehen gerade einen Platzhalterinhalt von Turnstile. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.
Sie sehen gerade einen Platzhalterinhalt von Facebook. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.
Sie sehen gerade einen Platzhalterinhalt von Instagram. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.
Sie sehen gerade einen Platzhalterinhalt von X. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.
Hm, da scheinen mir zwei Probleme zusammengewürfelt: Propaganda durch täuschend echte KI-Video einerseits, Propaganda durch verfälschende Zusammenschnitte andererseits. Für letzteres braucht man keine KI, das geht selbst mit mechanischem Super 8-Schnittequipment.
Relevanter finde ich das Bullshit-Argument. Massenweise Unsinn, der oft nicht mal mit ideologischer Absicht erstellt wird (sondern um Kohle zu machen). Und dann wird halt doch Propaganda draus. Ein besonders krasses und viral gegangenes Beispiel analysiert hier der Historiker-Kanal MDVAL: https://www.youtube.com/watch?v=WInMgY_-nlQ
@#1 Kritischer Kritiker:
Klar ging das auch früher schon, aber wie aufwändig war das, um es überzeugend hinzubekommen? Das geht jetzt locker flockig von der Tastatur…
Die Mischform von echtem und KI Content halte ich tatsächlich für besonders gefährlich. Weil das sehr leichte Anknüpfungspunkte schafft. Das war allerdings auch schon bei Fakenews ohne KI der Fall. Nicht wenige Fakenews-Produzenten starteten mit offiziellen Statistiken/Nachrichten/Fakten in ihren Beiträgen oder streuten Teile davon ein. Erst die Kombination mit absichtlicher Fehlinterpretation oder Verdrehen der Tatsachen machten manche Beiträge zu Fakenews. Das ist dann für viele insgesamt schwerer zu erkennen. Und mit KI wird das ganze halt „dead simple“ und die Strategie „flood the the zone with sh!t“ kann noch einfacher umgesetzt werden.