Fatale Anreize

„Klasse gemacht!“ – Wie KI schleichend die Urteilskraft im Journalismus ersetzt

Warum erzeugen fragwürdige KI-Anwendungen eigentlich keinen Widerspruch in Redaktionen? Eine Antwort liegt in den psychologischen Effekten der bequemen Tools. Sie filtern zunehmend Zweifel, Reibung und Widerspruch aus dem Arbeitsalltag heraus.
KI kann Journalisten im Alltag durchaus „empowern“. Aufgrund der psychologischen Anreize schießt die Arbeit mit ihr jedoch leicht übers Ziel hinaus.Foto: Canva/Montage: ÜM

Als Übermedien im Januar recherchierte, dass die Webseiten von „Frankfurter Rundschau“ und „Merkur“ einen Artikel veröffentlicht hatten, der mithilfe eines KI-Tools in weiten Teilen nahezu wortgleich aus einer Reportage des „Guardian“ übernommen worden war, folgte ein vertrautes Ritual der Branche: Der Text wurde offline genommen, der Autor entschuldigte sich mit dem lapidaren Hinweis, interne Leitlinien zum Umgang mit KI seien nicht eingehalten worden. Die Botschaft dahinter: Das Plagiat war ein individueller Regelbruch, ein Einzelfall.

Doch genau diese Einordnung greift zu kurz. Denn sie wirkt beruhigend – und lenkt vom eigentlichen Problem ab. Der Fall ist kein Ausrutscher, kein reines Versehen, sondern Symptom einer neuen Produktionsideologie im digitalen Journalismus. Er zeigt exemplarisch, wie ökonomischer Druck, Reichweitenlogik, ungenaue KI-Leitlinien und der allzu routinierte Einsatz von Sprachmodellen ineinandergreifen – und wie sich dabei fatale redaktionelle Praktiken zu normalisieren drohen.

Warum winken Redaktionen das durch?

Es geht dabei um etwas, was ich die „Psychologie der KInenne – und damit um Fragen wie jene, warum ein fragwürdiger KI-Einsatz wie die abgeschriebene „Guardian“-Reportage in einer Redaktion selbst keinen Widerspruch erzeugt. Warum also Abschreiben als „Kuratieren“ durchgeht – solange es effizient, sprachlich glatt und redaktionell anschlussfähig ist.

An diesem Punkt sollte die eigentliche Debatte über KI im Journalismus ansetzen: Nicht bei der Frage, was KI im Einzelnen darf oder nicht darf (auch wenn es natürlich Leitlinien und Regeln braucht). Sondern bei der Frage, was sie mit dem Journalismus – und den Journalist:innen – macht. Die Gefahr liegt dabei aus meiner Sicht in einem schleichenden Übergang von menschlicher Urteilskraft zu maschineller Routine im Denken.

Die psychologischen Effekte im Arbeitsalltag

Dazu lohnt ein Blick auf die psychologischen Effekte des KI-Einsatzes im Journalismus. Sie lassen sich aus zahlreichen Gesprächen und Beobachtungen in unseren journalistischen Weiterbildungen verdichten. Eingeflossen sind ebenfalls Erkenntnisse aus Hintergrundgesprächen, die wir für unser Whitepaper zur „KI-Resilienz im Journalismus“ geführt haben.

Im redaktionellen Alltag zeigen sich diese Effekte nicht abstrakt, sondern konkret – beim Schreiben, Redigieren, Recherchieren, also dort, wo oft unter Zeitdruck entschieden werden muss.

  1. Selbstermächtigung
    „Wir schaffen das.“
    KI erzeugt ein unmittelbares Gefühl von Handlungsmacht. Aufgaben, die zuvor Expertise, Zeit oder Rücksprache erforderten, lassen sich plötzlich allein bewältigen. Die Schwelle, etwas auszuprobieren, sinkt drastisch. Psychologisch wirkt das wie ein Booster für Selbstwirksamkeit. Gerade unter Produktionsdruck wirkt das befreiend.
  2. Kompetenzerweiterung
    „Schlaue mich auf.“
    KI fungiert als jederzeit verfügbare Wissensressource, die nicht bewertet, nicht lacht, nicht genervt ist. Das verändert nicht nur Arbeitsabläufe, sondern auch das Verhältnis zum eigenen Nicht-Wissen. Viele Journalistinnen und Journalisten nutzen KI genau dort, wo früher gezögert wurde: bei vermeintlich naiven Fragen, bei Wissenslücken, bei Unsicherheiten, die man im Redaktionsalltag ungern offenlegt.
  3. Lösungsfokus
    „Finde Lösungen für mich.“
    Wo Wissen so verfügbar erscheint, rückt der nächste Schritt nahe: die Suche nach Lösungen. Denn KI denkt nicht in offenen Fragen, sondern in Optionen. Sie sortiert, priorisiert, generiert in Sekunden Lösungsvorschläge. Im journalistischen Alltag wirkt das psychologisch stabilisierend – besonders in Stresssituationen, in denen schnelle Entscheidungen getroffen werden müssen und Unsicherheit normalerweise zum Berufsalltag gehört.
  4. Loyalität
    „Halte zu mir.“
    Wo Lösungen so reibungslos angeboten werden, entsteht schnell ein Gefühl von Verlässlichkeit. KI widerspricht selten frontal, zieht sich nicht zurück, wird nicht zynisch, nicht müde. Im redaktionellen Alltag erzeugt das ein Gefühl von Verlässlichkeit – also dort, wo Redaktionskulturen sonst von Korrektur, Bewertung und Konkurrenz geprägt sind. Diese neue Form der Loyalität ist subtil. KI stellt sich nicht gegen die Vorschläge ihres Benutzers, sondern reformuliert sie. Sie fragt nach Präzisierungen, nicht nach Rechtfertigungen. Sie bietet Unterstützung, ohne Bedingungen zu stellen.
  5. Affektregulation
    „Beruhige mich.“
    KI ist unheimlich gut darin, emotionale Spitzen – Mails, Tonlagen, Eskalationen – zu glätten, ohne offen zu intervenieren. Sie antwortet ruhig, strukturiert, mit scheinbarer Klarheit und ohne Besserwisserei. Kommunikation fühlt sich weniger konfrontativ an, weniger aufgeladen, weniger „krawallig“. Gerade in Situationen von Nachrichten-Overkill, Skandalen und Empörungen bietet KI etwas, das im Journalismus selten geworden ist: Ruhe.

Fünf Kehrseiten der KI-Medaille

Bis hierhin erscheint KI als Ressource, als Batterie für mehr Befähigung. Doch genau dieselben Mechanismen tragen auch ihre Schattenseiten in sich, sozusagen die Kehrseiten derselben Medaille.

  1. Affirmationsfalle
    „Klasse gemacht!“
    KI-Systeme sind systematisch affirmativ. Sie lobhudeln, bestätigen, machen Komplimente. Kritik ist zwar generell möglich, sie kommt aber weichgespült, vorsichtig formuliert, oft relativiert daher. Diese Form der Bestätigung wirkt harmlos – und ist es gerade deshalb nicht. Denn wer dauerhaft mit einem System des Ja-Sagens arbeitet, verschiebt seinen Maßstab für Angemessenheit. KI vergrößert damit auf unselige Weise die journalistische Komfortzone.
  2. Autoritätshörigkeit
    „Wenn du es sagst, wird es stimmen.“
    Die sachliche, ruhige Sprache von KI erzeugt Autorität. Vorschläge erscheinen wohlüberlegt, Zusammenfassungen wirken abschließend, Einschätzungen klingen ausgewogen. Im redaktionellen Alltag kann das dazu führen, dass Aussagen nicht mehr konsequent geprüft, sondern zunehmend übernommen werden – besonders im Schichtdienst, am Balken oder generell unter Zeitdruck. Aus Vorschlägen werden dann plötzlich Fakten, aus Möglichkeiten scheinbare Wahrheiten. Das journalistische Gewissen wird implizit ausgelagert, eigene Nachrecherchen fallen hinten runter.
  3. Entlastungsillusion
    „Hilf mir beim Denken.“
    Was als kleine Hilfestellung beginnt, kann zur Gewohnheit werden. KI übernimmt Vorarbeiten, strukturiert Argumente, formuliert Übergänge, schließt Lücken wie von Zauberhand. Das spart kognitive Bio-Energie – kann aber auch dazu führen, dass intellektuelle Anstrengung zunehmend entkoppelt oder vermieden wird. Die synthetische Ko-Intelligenz wirkt scheinbar entlastend im doppelten Sinne: Eigene Denkbewegungen fühlen sich schwereloser an, aber auch flacher im Sinne der eigenen Leistungsverschiebung; wo KI eine sprachlich basierte Ordnung nach mathematischer Logik herstellt, entsteht das Gefühl, das Problem sei verstanden.
  4. Pseudo-Bindung
    „Sei immer für mich da.“
    KI ist immer da. Diese konstante Verfügbarkeit gepaart mit stumpfer Freundlichkeit wird schnell als parasoziale Beziehung erlebt. KI erinnert sich an Kontexte, greift frühere Formulierungen auf, passt Ton und Stil an. Das kann als Nähe interpretiert werden – obwohl keine Beziehung im eigentlichen Sinn existiert. Wer sich an diese Form der Begleitung gewöhnt, erlebt Rückfragen von Kolleginnen schneller als störend, Auseinandersetzungen als unnötig: Man hätte ja zuerst mal die KI fragen können.
  5. Kontrollverlust
    „Das kam von der KI!“
    Je selbstverständlicher KI in Entscheidungen eingebunden ist, desto nebulöser wird die Frage der Haftung. Formal bleibt sie beim Menschen. Praktisch verteilt sie sich auf Vorschläge, Formulierungen, Kleinigkeiten, die nicht eindeutig einer Quelle zugeordnet werden können. Fehler lassen sich so viel leichter externalisieren: „Das hat die KI vorgeschlagen“ wird zur stillen Ausrede. Die Kontrolle wird dadurch immer weniger persönlich verantwortet. Durch KI wird damit die journalistische Sorgfaltskontrolle scheibchenweise ausgehebelt und möglicherweise klare redaktionelle Zuständigkeiten untergraben.

Leitlinien bleiben oft abstrakt

Für unser aktuelles Whitepaper haben wir Hintergrundgespräche mit KI-Verantwortlichen, Führungskräften und Redaktionsteams geführt und darüber hinaus KI-Leitfäden aus unterschiedlichen – auch internationalen – Medienhäusern gesichtet und ausgewertet. Daraus geht zwar hervor, dass in fast allen Redaktionen inzwischen allerlei – teils unverbindliche – Leitlinien, Ethikcodes oder KI-Regelwerke existieren. Sie signalisieren Haltung, Verantwortung, Kontrolle.

Nach innen aber wirken sie oft anders. Denn sie bleiben oft abstrakt, mitunter auch ein bisschen unterkomplex wie etwa der gerade veröffentlichte KI-Kodex von ARD/ZDF und Deutscher Welle. Sie sagen, was man vermeiden muss – aber meist nicht, wie konkret gearbeitet werden soll. Damit bleiben sie hinter den Möglichkeiten zurück, weil sie – anders als international renommierte Häuser wie die „New York Times“, die „Financial Times“ oder die BBC – noch kaum organisationale Struktur oder strategische Steuerung in den Blick nehmen.

Im Redaktionsalltag erzeugt das nur scheinbare Sicherheit, aber dafür viele Sollbruchstellen und Schwebezustände: Journalistinnen und Journalisten wissen, dass von ihnen erwartet wird, dass sie KI nutzen sollen – aber nicht genau wie. Sie wissen, was riskant sein könnte – aber nicht, was im Zweifel als zielführend gilt. Orientierung nach außen, Verunsicherung nach innen. Damit verbunden bleibt auch der notwendige Kompetenzerwerb diffus: Ist der souveräne Umgang mit KI eine optionale Zusatzqualifikation? Ein „Nice to have“ für besonders nerdige Kollegen? Oder wird er zur Grundanforderung, ohne dass dies systematisch über Weiterbildung vermittelt wird? In vielen Fällen zeigt sich etwa, dass KI-Experimente als Schnellschüsse gestartet wurden, bevor sich robuste Schulungs- und Review-Strukturen etablieren konnten.

Zwischen Tabu und Normalität: Wie Redaktionen KI nutzen

Das sind keine unbilligen Fragen, sondern praktische Zumutungen: Denn KI ist gleichzeitig Werkzeug, Infrastruktur und politischer Akteur. Auffällig ist vor allem ein Paradox: Fast alle Journalistinnen und Journalisten, mit denen wir gesprochen haben, haben inzwischen einige Erfahrung mit KI – teils sogar sehr umfangreiche. Vor einem Jahr war das noch anders. Und trotzdem bleibt die Nutzung generativer Sprachmodelle oft zögerlich, verdeckt, hinter vorgehaltener Hand. Weitgehend ungeklärt bleibt vor allem der individuelle Einsatz, teils privatisierte Gebrauch von KI-Systemen in Redaktionen – beispielsweise auch, weil Betriebsratsvereinbarungen hinterherhinken oder in einzelnen Redaktionen der journalistische Grad des KI-Einsatzes hochumstritten ist.

Gerade viele Freie vermeiden ein offenes Outing, aus Sorge, ihre Arbeit könne per se entwertet werden. So wird KI regelmäßig genutzt, zugleich herrscht an vielen Stellen Desorientierung – wohl auch deshalb, weil sich viele Leitplanken eher nach außen an die Allgemeinheit zu richten scheinen, statt an die eigenen Leute.

Zweifel institutionell verankern

Was bleibt also? KI kann Redaktionen womöglich effizienter machen, vielleicht auch informierter – vor allem aber macht sie bequem. Und Bequemlichkeit ist das eigentliche Gift für den Journalismus. Nicht, weil sie uns alle „faul“ macht, sondern weil sie über kurz oder lang Zweifel, Reibung und Widerspruch aus dem Arbeitsalltag herausfiltert. Der Fall der kopierten Guardian-Reportage zeigt, wie filigran sich journalistische Routinen verschieben, wenn Vorschläge von Sprachmodellen als gefällig, hilfreich und anschlussfähig wahrgenommen werden und menschliche Urteilskraft dabei schleichend zur optionalen Zusatzleistung wird. 

KI kann Journalistinnen und Journalisten im Alltag durchaus „empowern“. Angesichts der psychologischen Effekte kann die Arbeit mit ihr jedoch übers Ziel hinausschießen und genaue Gegenteil dessen kippen, was Journalismus auszeichnet: KI antwortet, ohne zu widersprechen, sie glättet Friktionen, liefert als „konstruktive KI“ plausible Lösungen – auch dort, wo eigentlich Skepsis angebracht wären. Genau diese Wirkung erklärt, warum ihr Einsatz so selten offen verhandelt wird und zur geräuschlosen Beiläufigkeit wird.

Es ist am Ende vielleicht gut, dass solche Fehler passieren und öffentlich diskutiert werden. Denn sie liefern wichtige Denkanstöße und zeigen, warum es nicht reicht, über Tools, Regeln und Ethik jeweils getrennt zu sprechen. Diese Ebenen wirken in einem „KI-Framework“ stets zusammen – oder sie sie unterlaufen sich gegenseitig. KI-Resilienz im Journalismus meint deshalb nicht Fehlervermeidung, sondern eine Haltung: den Zweifel institutionell zu verankern, Verantwortlichkeiten transparent zu halten und maschinelle Routinen nicht an die Stelle redaktioneller Urteilskraft treten zu lassen.

25 Kommentare

  1. Bald besteht so eine „Redaktion“ dann aus einem Chef.Red. und zwei „Promptern“. Wer braucht schon Rechercheure, Lektoren, Übersetzer – Wir haben doch KI.

    Das hier ist urz, aber lesenswert:
    https://blog42.eu/nebenwirkungen-der-ki/
    „Hier wird beschrieben wie z.B. die Doku von Open Source Projekten von KIs gelesen wird und dann ihren Nutzern beim Lösen von Problemen hilft. Das Problem hierbei ist, dass Nutzer, die ihr Problem mit Hilfe der KI gelöst haben keinen Grund mehr haben auf die Webseite der Entwickler zu gehen.“

    Und genau so wird es erst den Redaktionen und dann den Medien selbst gehen.

    Ich meine ja, ohne ein großflächiges KI-Verbot (z. B. wegen der Urheberrechtsverletzungen beim „Anlernen“ der KI) sollten wir bald mit der Diskussion über soziale Sicherungssysteme beginnen, bei den erwarteten Arbeitslosen.

    Nicht vergessen: Ist alles unvermeidlich! Es gibt keine Alternative. Unternehmer müssen Personalkosten sparen um Wettbewerbsfähig zu bleiben. Bitte immer wieder nachbeten, bis man es glaubt. Dann Fritze wählen und alles wird gut! Nicht nach oben schauen!

  2. Finde toll, wie hier bewusst ein Typo eingebaut wurde. ;-)
    „Durch KI wird damit die journalistischen Sorgfaltskontrolle scheibchenweise ausgehebelt und möglicherweise klare redaktionelle Zuständigkeiten untergraben.“
    -> journalistische Sorgfaltskontrolle

    Dieser Fehler wurde ganz ohne KI und mit eigener Denkleistung beim Durchlesen gefunden.

  3. Ich finde es sehr symbolisch, dass im Symbolfoto der Menschenarm „Adam“ und der Roboterarm „Gott“ ist. Und nicht etwa umgekehrt.
    Hat das eine KI entworfen?

  4. Guter Text über ein wichtiges (und wachsendes) Problem. Schwierig finde ich allerdings das Titelbild: LLMs (um die es hier geht) sind eben keine humanoiden Roboter, denen ein Lebensfunke eingehaucht wurde, wie die Montage suggeriert. Es sind „stochastische Papageien“ (Emily Bender) ohne Gedanken, Gefühle oder Bewusstsein.

    Texte, die sich kritisch mit dem KI-Hype auseinandersetzen, sollten auf Mystifizierung verzichten. Das Titelbild tappt leider in dieselbe Falle wie unzählige, viel reißerischere Beiträge zum Thema.

  5. @Anderer Max (#1):

    Nicht vergessen: Ist alles unvermeidlich! Es gibt keine Alternative. Unternehmer müssen Personalkosten sparen um Wettbewerbsfähig zu bleiben.

    Der sarkastische Ton soll wohl bedeuten: Alles Quatsch, alles rechte Propaganda. Aber das stimmt nicht. Unternehmen, die eine technische Innovation nicht mitmachen, verschwinden früher oder später vom Markt, weil sie nicht mehr konkurrenzfähig sind. Warum das so ist, erfährt man nicht im CDU-Parteiprogramm, sondern bei Karl Marx, Das Kapital, Bd. 1.

  6. @KK: Quatsch, ja – rechte Propaganda, nein. Pragmatismus würde ich sagen. Technische Innovation … ja gut, es gibt kein relevantes Unternehmen, das LLMs in DE entwickelt (und durch den Verkauf des Produkts Steuern in DE erzeugt). Um die geht es also nicht, sondern um die, die amerikanische KI-Produkte kaufen und einsetzen (nicht „Schatten-KI“, also den privaten GPT Account auf der Arbeit zu nutzen, ohne dass es dokumentiert ist). Und diese Modelle werden gekauft, um Profit zu maximieren, weil sie eben echte Menschen ersetzen können. Das hat ja nichts mit echter Innovation zu tun, aus der nachher ein volkswirtschaftlicher Nutzen gezogen werden könnte – Dafür müsste man mit KI in DE Geld verdienen und Steuern bezahlen. Ja gut, große Konzerne können nun die Verträge mit den outgesourcten Call-Centern kündigen und die einfach gegen einen Chatbot-Server ersetzen, aber das wird das Steueraufkommen auch nicht signifikant verändern, oder?
    „Der Gerät schläft nie, der Gerät macht kein Urlaub“ Und der Gerät kennt keine Arbeitsschutzgesetze.

  7. Ich hatte in #1 auch den falschen Blogpost verlinkt …
    Der hier ist eigentlich gemeint:
    https://www.leitmedium.de/2026/01/09/das-drohende-ende-von-opensource-projekten-durch-llms-am-beispiel-von-tailwind/
    „(…) ist der hier sichtbare Vorgang ein parasitärer Raubbau an Texten, wie er auch in anderen Bereichen, etwa bei Fiktion oder Sachtexten, zu beobachten ist. Technikversprechen der LLM-Anbieter hin oder her: Das kann so nicht funktionieren.“
    Klar kann man nun über „andere Geschäftsmodelle“ sprechen … Oder man wagt sich, die Sinnhaftigkeit dieser „Innovation“ wirklich zu hinterfragen.
    Vor Allem wenn man das mal weiter denkt: OpenSource Projekte lohnen nicht mehr, weil die KI alles verdaut hat und dessen Output den eigentlichen OpenSource Output verdrängt. Dadurch gibt es weniger OS Projekte. KI kann weniger davon verdauen. Der Output der KI wird schlechter.
    Ersetze OpenSource-Projekte mit Presseerzeugnisse.
    Möglich ist das der KI nur, weil deren Entwicklerfirmen „Raubbau“ (s.o.) betrieben haben. Die KI wäre nicht in der Lage, diese Ergebnisse zu liefern, wenn sich deren Entwickler nicht einfach frei und gratis an Allem Content, den es je im Interwebz gab, bedient hätten.
    Eine KI kann immer nur so gut sein, wie der Datensatz mit dem sie angelernt wurde. Die KI selbst sorgt aber dafür, dass die Output-Datensätze schlechter werden. Gleichzeitig verdrängt sie die „menschlichen Alternativen“ vom Markt, tötet also die Grundlage ihrer Überlegenheit ab.
    Daher gibt es ja auch die Theorie, dass die ersten LLMs für immer die besten bleiben werden, weil die KIs ihre Inhalte noch nicht gegenseitig verdaut haben. Als zweitrangig abgetane Bedenken wie Halluzinationen, stumpfe falsche Sachinformationen oder Bias sind da ja noch nicht mal mitgedacht.

  8. Sorry für 3 Posts auf einmal … Aber ein Link noch:
    https://zwetschgenmann.de/rate-mal-etwas/

    LLMs können nicht raten, nur „educated guesses“ abgeben – Auf Basis einer Wahrscheinlichkeitsberechnung. Emotionen haben sie erst recht nicht. Oder wie der Artikel hier schon sagt „Sie filtern zunehmend Zweifel, Reibung und Widerspruch aus dem Arbeitsalltag heraus.“ – Also all das Menschliche.

    Ich will nur noch einmal ganz klar sagen: Es gibt keine „KI“. Das sind alles nur LLMs, die man bis vor gar nicht langer Zeit noch DeepLearning genannt hat. Davor wurde sowas FuzzyLogic genannt. Man spricht nicht umsonst vom Blackbox-Prinzip, bei dem man nicht weiß, wie ein Ergebnis zustande kommt. Seit man das Ganze „KI“ nennt, verkauft es sich nur besser.
    Der Chatbot ist ein Gerät, kein Mensch (Mini-Exkurs: Eigentlich wurden Menschen als „Computer“ bezeichnet – also die, die computet haben).
    Und der Chatbot ist zu aller erst das Produkt einer Firma, die Produkte entwickelt und verkauft. Mit ganz wenigen Spezialisten, die wahrscheinlich auch nicht am Umsatz beteiligt sind.

    Außerhalb von „Geh mit der Zeit, sonst gehst du mit der Zeit“-Mantras: Wo liegt der (gesellschaftliche? staatlich-monetäre? psychologische?) Nutzen dieser Technologie? M. E. findet sich die Antwort auch im Anreißer des Artikels: „bequem“.

    Und wieso glaubt man, dass da noch so viel Potential in dem Markt steckt? Die Dinger sind doch auf dem Markt und werden schon fleißig (von amerikanischen Unternehmen, die in den US und A Steuern zahlen) verkauft. In Sachen Produktlebenszyklus sind wir auf der steil steigenden Exponentialfunktion vor der Marktsättigung. Wie will die deutsche Politik denn damit „Innovation“ erzeugen? Innovation war vor 5 Jahren, wie immer in Deutschland, bei allen Themen.

  9. @7 Anderer Max

    Es stimmt schlicht nicht, dass deutsche Unternehmen keine KI-Produkte anbieten. Erstens ist KI weit mehr als LLMs und es stimmt noch nicht einmal für LLMs.

    Als ein Beispiel von vielen mag Ihnen das Rostocker Unternehmen „Planet AI“ dienen, das unter anderem automatisierte Dokumentenanalyse anbietet. Und im Maschinenbau und anderen deutschen Industriebranchen gibt es zig Anwendungen, die mithilfe von KI (maschinellem Lernen) zum Beispiel automatisiertes Schweißen oder Greiftechnik-Handling verbessert. Auch in der Medizin(-technik) oder in der Juristerei gibt es konkurrenzfähige Produkte aus Deutschland.

    Im Journalismus (wahrscheinlich) und in der Privatnutzung (ganz sicher) sind es klar die großen US-Anbieter, die den Markt bespielen. Aber deutsche Firmen sind bei weitem nicht so abgeschlagen, wie es bei Ihnen tönt.

  10. Ein bisschen lustig ist es schon, hier mitzulesen. Am dichtesten an der Realität würde ich @Chateaudur sehen.

    Wir werden sicher irgendwann ein eigenes Modell trainieren – so, wie wir schon seit 15+ Jahren Cloud-Services in Deutschland hosten. Das Problem ist im Augenblick eher die Hardwareseite und deren Energiehunger.

    Und dass die KI-Blase (IT-Unternehmen, die sich gegenseitig mit Fantasiesummen die Preise hochtreiben, weil am Ende alle hoffen, davon zu profitieren) GPUs und Speicher unbezahlbar gemacht hat.

    Ansonsten wäre ich – auf den vielen anderen Ebenen, die hier zitiert werden – vorsichtig mit Prognosen. Ich kann nur über mein Berufsfeld mitreden. Erste Annahmen waren, dass KI zulasten der Juniors in der IT gehen würde. Das mag zeitweise und teilweise auch so sein, aber tatsächlich sind die Auswirkungen solcher Entwicklungen auf das Berufsleben historisch gesehen oft ganz anders verlaufen.

    Der Buchautor, CEO von Mergify und Python-Guru (to name a few) Julien Danjou beschreibt in einem Artikel ein Szenario, das ich für viel wahrscheinlicher halte:
    https://julien.danjou.info/blog/ai-wont-kill-juniors-it-will-expose/

    “AI Won’t Kill Juniors. It Will Expose Seniors.
    Everyone fears for the juniors. But the engineers who stopped growing at the wrong layer have more to lose.”

  11. Ach ja – und nicht, dass wir uns falsch verstehen:
    Das, was Altman, Musk, Huang und Co. da treiben, halte ich für übel und gefährlich. Genauso wie den Missbrauch von Algorithmen in den sozialen Medien (wie schon gesagt: Marktmechanismen auf Steroiden) oder die Medienmacht, die sich globale Milliardäre zusammenkaufen, um damit letztlich populistische Regime zu begünstigen – mit dem Ziel, am Ende noch weniger Steuern zu zahlen, als ohnehin schon.

    Aber warum werden schon wieder die Webstühle attackiert – und nicht die Besitzer der Webereien?

  12. Der Artikel liest sich so, als wäre er selbst von ChatGPT geschrieben worden. Hört sich alles irgendwie gut an, bleibt am Ende aber total vage. Und dann gibt es diese typischen genAI Floskeln. „Nicht A, sondern B“ – und (fast) immer mit Gedankenstrich:

    „Der Fall ist kein Ausrutscher, kein reines Versehen, sondern Symptom einer neuen Produktionsideologie im digitalen Journalismus.“

    „Nicht bei der Frage, was KI im Einzelnen darf oder nicht darf (auch wenn es natürlich Leitlinien und Regeln braucht). Sondern bei der Frage, was sie mit dem Journalismus – und den Journalist:innen – macht. “

    „Im redaktionellen Alltag zeigen sich diese Effekte nicht abstrakt, sondern konkret – beim Schreiben, Redigieren, Recherchieren, also dort, wo oft unter Zeitdruck entschieden werden muss.“

    „Das kann als Nähe interpretiert werden – obwohl keine Beziehung im eigentlichen Sinn existiert.“

    „Das spart kognitive Bio-Energie – kann aber auch dazu führen, dass intellektuelle Anstrengung zunehmend entkoppelt oder vermieden wird. “

    „Journalistinnen und Journalisten wissen, dass von ihnen erwartet wird, dass sie KI nutzen sollen – aber nicht genau wie. Sie wissen, was riskant sein könnte – aber nicht, was im Zweifel als zielführend gilt.“

    Ich will hier nichts unterstellen, aber wollte meine Beobachtung teilen, dass der Text (auch mit diesen Listenformaten) echt ChatGPT Vibes verströmt.

  13. @14: Ob Ihnen der Text inhaltlich und stilistisch zusagt, bleibt natürlich allein Ihnen überlassen. Den Verdacht des ChatGPT-Einsatzes möchte ich aber klar zurückweisen.
    PS: Der KI-Gedankenstrich ist einfach ein Mythos – und lädt geradezu zum confirmation bias ein ;).

    Beste Grüße aus der Redaktion

  14. Waren Sie dabei, als er geschrieben wurde, Herr Graf? ;-)

    P.S.: Hätte ich vor 10 Jahren einen Text mit derart vielen Geviertstrichen ins Lektorat gegeben, wäre mein CvD entsetzt gewesen. Bias hin oder her.

    Nichtsdestotrotz bin ich tatsächlich auch mehr über diesen „Nicht a, sondern B“ Duktus gestolpert. Und den bekommt man von ChatGPT in genau dieser Form in jeder zweiten Antwort serviert (in der kostenfreien Variante zumindest).

  15. Noch als Ergänzung: Eine Editier- und eine Markdown-Funktion für Kommentare wäre nützlich und zeitgemäß.

  16. @Alexander Graf (#15):

    Der KI-Gedankenstrich ist einfach ein Mythos – und lädt geradezu zum confirmation bias ein.

    Ja, zum Gedankenstrich neigt, wer das Handwerk mithilfe von Wolf Schneider-Büchern erlernt hat (bin schuldig im Sinne der Anklage). Spätestens seit „Deutsch für Profis“ wird er häufig verwendet – und bei SPON ad nauseam am Ende von Anreißern. ;-)

  17. Ich fände es hilfreich, wenn versucht würde, ein wenig mehr zu differenzieren.
    Was soll denn bitte „von ChatGPT geschrieben“ bedeuten?

    Tippt der Autor nur „Schreib mir etwas über die abnehmende Urteilskraft der Journalist:innen durch Nutzung einer KI“ ein und gibt dann noch an, wie viele Zeilen in etwa und welche Zielgruppe – oder schreibt er einen eigenen Text, holt sich Anregungen via KI, macht Fact-Checking, wobei er Dinge, die er benutzen will, noch mal gegencheckt?
    Zum Schluss darf die KI noch einmal den Thesaurus spielen.

    Ist das wirklich alles dasselbe?

    Abweichler von der reinen Lehre steinigen, Medizin, die wirkt, muss bitter sein, profane Musik ist Teufelskram und hinter der Tastatur lauert die Sünde?
    Quo vadis?

    Man kann sich von der KI in die Irre führen lassen, seine Kritikfähigkeit korrumpieren und/oder faul werden. Daraus die Forderung zu basteln, auf KI zu verzichten, ist – Pardon – ein loser move.

    Es sollte Ansporn sein, diese Fehler nicht zu machen, nicht blind Knöpfe zu drücken und die Vorteile gewinnbringend einzusetzen.

    [ Text wurde von ChatGPT nur orthografisch korrigiert ]

  18. Die psychologischen Effekte und das fahrlässige Veröffentlichen kompletter KI-Texte ist das eine. Nicht zu unterschätzen ist KI aber auch in der seriösen fachlichen Recherche. Und hier ist die Verlockung groß, das eigene Wissen über KI zu füttern statt Primärquellen zu suchen. Manchmal geht es nur um Seitenaspekte eines Artikels, die man mal schnell mit den eigenen Ideen abgleichen möchte. Will ich z.B. herausfinden, wie sich die EEG-Zahlungen über die Jahre mit welchem Hintergrund entwickelt haben und wie die Prognose ist (Herausfallen der hohen Einspeisevergütungen der frühen Jahre, PPAs etc), liefert KI super Antworten, die man ansonsten mühsam zusammentragen müsste. Oder bei der Frage, was alles zu bedenken ist, wenn man sich beim Studienanfang von der GKV befreien lässt (Altersgrenze 25, Beihilfe, Praktika, Arbeitslosigkeit oder Weltreise nach dem Bachelor). Man kann zwar die KI auffordern, Links zu nennen und diese dann überprüfen. Bloß wenn es nur ein Randaspekt ist, stellt sich die Frage des Aufwandes. Es bestehen Risiken: Bei einem anderen Thema habe ich es schon erlebt, dass die KI einen früheren Artikel von mir selbst (!) als Quelle nannte, der meine Fragestellung gar nicht beantwortete. Die Antwort erschien dennoch plausibel.
    Nun kann man natürlich den Bogen noch etwas größer schlagen und fragen: Wie haben wir es denn bisher mit Sekundärquellen gehalten? Natürlich wurde auch früher nicht alles gegengeckeckt. Kann ich es als gesichertes Wissen verbuchen, wenn ich in einem seriösen Medium etwas lese? Der gesamte öffentliche Diskurs fußt wahrscheinlich zu 99.9% aus Informationen, die wir aus nicht aus Primärquellen angeeignet haben, die oft kompliziert zu ergründen sind. Nur in kritischen Spezialfragen wälzt man vielleicht Gesetzestexte. Hier hat KI das Potential, selbst Fachjournalisten zu überholen – wenn sie mit dem gelegentlichen Halluzinieren aufhört.

  19. Zu #2 und #3, also Fehler im Text, die eher dagegen sprechen, dass hier KI im Spiel war. Es gibt nämlich noch mindestens zwei weitere:

    „… jedoch übers Ziel hinausschießen und ***(fehlendes „ins“)*** genaue Gegenteil dessen kippen, was Journalismus auszeichnet: KI antwortet, ohne zu widersprechen, sie glättet Friktionen, liefert als „konstruktive KI“ plausible Lösungen – auch dort, wo eigentlich Skepsis angebracht wäre***n***.“

    Um eure eigene Textprüfung bzw. das Schlusslektorat scheint es wohl nicht besonders gut bestellt zu sein, denn die genannten Fehler hätte jede Rechtschreib- und Grammatikprüfung markiert.

  20. „Der gesamte öffentliche Diskurs fußt wahrscheinlich zu 99.9% aus Informationen, die wir aus nicht aus Primärquellen angeeignet haben, die oft kompliziert zu ergründen sind.“
    Dafür gibt es doch schon seit 25 Jahren Wikipedia als so eine Art Schwarm-KI.

  21. @Tardis:
    Und warum behandeln wir KI nicht wie Wikipedia? Fakten, die wir wirklich einfließen lassen wollen, müssen dann „konventionell“ und „tiefer“ verifiziert werden.

    Ich muss wirklich häufig Fehler oder Bad Habits, die zu Folgefehlern führen würden, in KI-generiertem Code entfernen. Dennoch ist das Programmieren insgesamt erheblich schneller geworden.

    Ja, Companies werden nun Juniors entlassen oder gar nicht erst einstellen, weil Seniors mehr Output liefern können und das unterm Strich billiger ist. Aber wie bei den Medien darf das nicht dazu führen, dass sich die anderen die Benutzung der neuen Tools verbieten.

    Diejenigen ohne Skrupel werden KI exzessiv verwenden – ob der Rest warnt, abstinent ist oder irgendwo ein Fahrrad umfällt. Irgendwann werden denen dann diejenigen fehlen, die überhaupt noch begreifen, was sie da tun. In unserer Branche sind es immer Juniors, die neue Technologien irgendwann fast intuitiv begreifen und anwenden.

    Das eigentliche Problem mit KIs ist dasselbe wie das mit Cloud-Hyperscalern und den Massenmedien: eine Tech-/Milliardärs-Oligarchie, die Demokratie immer mehr als Hindernis begreift, und ein entfesselter Kapitalismus, der sich immer destruktiver gebiert.

    Also kritisiert doch nicht die Webstühle.

  22. Da Computer „ursprünglich“ für statische Berechnungen erfunden wurden, sollte es theoretisch keine Statiker mehr geben, weil Programme ja alles machen. Praktisch gibt es sie noch, weil Programme eben doch nicht alles machen.
    Die „Denkfallen“ für Statiker sind diegleichen wie die für Journalisten, aber da nicht das Programm (oder der Programmierer) für etwaige einstürzende Neubauten haftet, kann man die Statik nicht von ungelernten Hilfskräften machen lassen, um Geld zu sparen. (Auch wenn Statikerleistungen gemessen am Ausstoß viel günstiger sind als zu Zuses Zeiten.)
    Im Journalismus gibt es keine Haftungsfrage (außer vielleicht, wenn die Funke-Gruppe ein komplettes Interview von der KI erfinden lässt), so das sich da die Frage stellen sollte, welche Leistung ein Journalist erbringt, die nicht KI-ersetzbar ist, und was diese wert ist.
    Wenn der Webstuhl quasi umsonst ist, warum noch Kleidung kaufen? (Weil man die Näher bezahlen muss…)

Einen Kommentar schreiben

Mit dem Absenden stimmen Sie zu, dass Ihre Angaben gemäß unseren Datenschutzhinweisen gespeichert werden. Ihre E-Mail-Adresse wird nicht veröffentlicht.