Mehr über Künstliche Intelligenz
Dieser Artikel ist zuerst am 25. Oktober 2025 in unserem Mitglieder-Newsletter erschienen. Mit einem Übermedien-Abo bekommen Sie diesen jeden Samstag ins Postfach.
Wer große Ziele formuliert, muss hierzulande leider meist mit Häme rechnen, wenn er sie nicht vollständig einhalten kann. Das führt beispielsweise dazu, dass Fußballtrainer nie öffentlich die Wörter „Aufstieg“ oder „Meisterschaft“ in den Mund nehmen, obwohl sie natürlich jeden Tag darauf hinarbeiten. Außer vielleicht beim FC Bayern München, da haut man solche Sprüche einfach raus.
Weil man sich beim „Spiegel“ bestimmt mit der Idee anfreunden könnte, so etwas wie der FC Bayern München des Journalismus zu sein, ist man dort auch nicht um selbstbewusste Statements verlegen. So verkündete etwa Ole Reißmann, Leiter Künstliche Intelligenz beim Nachrichtenmagazin, im vergangenen Jahr beim „European Publishing Congress“: „Wir stehen für Originalität, nicht für Durchschnittlichkeit, für Exzellenz, nicht für Flüchtigkeitsfehler.“
Tja, diese Woche ist ein solcher „Flüchtigkeitsfehler“ passiert, und die Häme ist groß. Zumal der Fehler direkt mit Reißmanns Zuständigkeitsbereich zu tun hat – und deswegen fernab von jeder Schadenfreude interessant ist.
Was ist passiert? Am Mittwoch veröffentlichte „Spiegel“-Redakteur Serafin Reiber eine längere Meldung über das bevorstehende Aus von Sigrid Nikutta, bislang Güterverkehrschefin bei der Bahn.

Reiber ist der Bahn-Spezialist beim „Spiegel“, viele Informationen in dem Text bezogen sich auf weitere Veröffentlichungen von ihm. Am Ende der Meldung stand jedoch ein ziemlich kurioser Absatz:
„Wenn Du magst, passe ich Ton und Detailtiefe (z.B. nüchterner Nachrichtenstil vs. magaziniger) oder markiere dir die konkreten Änderungen im Vergleich.“
Haben Sie den freundlich-devoten Tonfall erkannt? Na klar, das ist doch unverkennbar ChatGPT (oder einer seiner diversen Klone), der sich da frech in einen ehrwürdigen „Spiegel“-Text geschlichen hat!
Entsprechend schnell machte der Fauxpas seine Runde in den sozialen Netzwerken. Und selbstredend ließ das klassische „Spiegel“-Bullshit-Bingo nicht lange auf sich warten. Sie wissen schon: Traurig, was aus dem Sturmgeschütz der Demokratie geworden ist; kein Wunder bei dem Relotius-Blatt; Rudolf Augstein würde sich im Grabe umdrehen – solche Sachen eben.
Aber natürlich gab es auch viele berechtigte Fragen, vor allem diese: Werden Texte beim „Spiegel“ jetzt also mit KI überarbeitet oder gar erstellt? Und wenn ja, woher weiß ich das als Leser eigentlich?
Die wenig später erfolgte Korrektur brachte jedenfalls wenig Licht in die Sache. Der Absatz wurde gelöscht, die „Anmerkung der Redaktion“ dazu lautet:
„Eine frühere Version dieser Meldung enthielt wegen eines produktionstechnischen Fehlers den Hinweis eines KI-Tools, das wir gelegentlich zur Überprüfung unserer eigenen Texte einsetzen. Entgegen unseren Standards ist die Meldung veröffentlicht worden, bevor sie gründlich von einem Menschen gegengelesen wurde. Wir haben das nachgeholt und den Hinweis des KI-Tools gestrichen.“
Aber was heißt denn nun „zur Überprüfung“? Hat der Redakteur den Text einfach nur für eine Rechtschreibprüfung an ChatGPT gegeben? Oder hat die KI tatsächlich Änderungen am Text vorgenommen, eigene Sätze formuliert, die dann so im Artikel erschienen sind? Das legt zumindest die entsprechende Formulierung im später gelöschten Absatz nahe.
Ich habe dem „Spiegel“ daher diese Fragen zu dem Vorfall gestellt. Leider verwies mich die Pressestelle dazu nur auf den bereits veröffentlichten Korrekturhinweis.
Womit wir beim eigentlichen Problem wären: der mangelnden Transparenz beim journalistischen Umgang mit Künstlicher Intelligenz – und dem fehlenden Problembewusstsein dafür.
Denn der Vorgang, der hinter dem aktuellen Fehler beim „Spiegel“ liegt, muss nicht per se fragwürdig sein. Was spricht etwa dagegen, Rechtschreibung oder umständliche Formulierungen von einem solchen Tool überprüfen zu lassen? Aber weil Nutzer ziemlich wenig darüber wissen (können), wie Redaktionen mit Künstlicher Intelligenz umgehen, lassen Medien berechtigterweise Raum für Spekulationen. Wie eben jene, beim „Spiegel“ würde man einfach Texte von Chatbots schreiben lassen. Was wiederum mehr als fragwürdig wäre.
„Spiegel“-KI-Chef Ole Reißmann hat jedenfalls auf dem Branchenkongress auch behauptet, von ChatGPT verfasste Texte werde es dort nicht geben. Wenn ich aber als Leser des Magazins mehr darüber wissen möchte, bin ich ziemlich aufgeschmissen. Bei meiner Recherche stieß ich gestern lediglich auf einen Text von 2023, mit dem Titel: „Künstliche Intelligenz und der Journalismus: wie wir beim Spiegel darüber denken“. Darin stehen Sätze wie:
„Die Kontrolle über alles, was wir publizieren, liegt deshalb immer beim SPIEGEL — entweder, indem mithilfe von KI generierte (sic!) oder bearbeitete Texte noch einmal abgenommen oder zumindest, indem die Kriterien für die Textgenerierung und -veränderung klar definiert werden.“
Oder:
„Spielen Systeme der künstlichen Intelligenz eine maßgebliche Rolle bei der Aufbereitung oder Darstellung textlicher Inhalte, deklarieren wir dies für die Leserinnen und Leser immer transparent und klar erkennbar.“
Offenbar war man aber der Meinung, dass so etwas eigentlich niemanden interessiert – denn der Beitrag steht nicht auf der Webseite, sondern auf der Blogging-Plattform „Medium.com“. Und der Account dort heißt tatsächlich „DEV Spiegel“, was wohl für „development“ steht, also Produktentwicklung, aber erstmal wie ein Fake-Account klingt. Er hat knapp 1000 Follower.
Ich habe den „Spiegel“ daher gestern Mittag auch gefragt, wie das Magazin seinen KI-Einsatz gegenüber Lesern transparent macht – und später eine bemerkenswerte Antwort erhalten. Die Pressestelle verwies mich nämlich ohne weitere Erklärung auf einen ausführlichen Text auf der Webseite des Magazins, der – Überraschung – just gestern Nachmittag veröffentlicht worden war: „In eigener Sache: Wie der SPIEGEL künstliche Intelligenz einsetzt.“ Spoiler: Artikel maßgeblich von einer KI schreiben oder umschreiben zu lassen, ist dort als klares „Don’t“ gelistet.
Als Grund für die Veröffentlichung wird in dem Text tatsächlich die verunglückte Meldung von Mittwoch genannt. Und auf Nachfrage bestätigte der Sprecher, dass sich vorher auf „spiegel.de“ keine Informationen zum Umgang der Redaktion mit KI finden ließen. Das ist für ein solches Medienhaus ein irritierend gedankenloser Umgang mit einem derart relevanten Thema.
Das Ganze ist aber kein exklusives „Spiegel“-Problem. Denn als 2023 der große KI-Hype losging, mussten alle in der Medienbranche ganz schnell irgendetwas mit KI machen, keiner wollte der langweilige Bedenkenträger sein. Also rannten alle los, Konzepte oder strategische Überlegungen folgten oft später – oder teilweise nie.
In der Folge nutzen heute unterschiedliche Häuser auf unterschiedliche Weise KI-Tools. Und sie machen das auch auf ganz unterschiedliche Art und Weise transparent. Manche haben Redaktionsleitlinien dazu veröffentlicht, anderen fügen am Ende jedes Textes einen sehr allgemein gehaltenen KI-Hinweis an, der wenig darüber verrät, wie genau diese verwendet wurde. Bei anderen Redaktionen gibt es gar keinen Hinweis, obwohl sehr viel darauf hindeutet, dass Kollege KI sein Unwesen getrieben hat. Diese Uneinheitlichkeit ist für das Vertrauen des Publikums fatal.
Zumal eben eine öffentliche Debatte darüber fehlt, was eigentlich die gebotene Transparenz wäre. Muss ich es etwa transparent machen, wenn ich ChatGPT um einen besseren Vorschlag für eine Zwischenüberschrift bitte und diese dann auch übernehme? Oder wenn ich mir einen längeren Bericht der eigenen Redaktionen von einem Tool zu einer kurzen Meldung umschreiben lasse und diese dann nach Prüfung veröffentliche?
Was meinen Sie? Ist es für Sie als Leserinnen und Leser relevant, ob und wie Medien KI-Tools einsetzen? Und haben Sie das Gefühl, dass Medien Sie ausreichend darüber informieren? Schreiben Sie es mir, ich freue mich auf Ihre Perspektiven.
Sie müssen den Inhalt von reCAPTCHA laden, um das Formular abzuschicken. Bitte beachten Sie, dass dabei Daten mit Drittanbietern ausgetauscht werden.
Mehr InformationenSie sehen gerade einen Platzhalterinhalt von Turnstile. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.
Mehr InformationenSie sehen gerade einen Platzhalterinhalt von Facebook. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.
Mehr InformationenSie sehen gerade einen Platzhalterinhalt von Instagram. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.
Mehr InformationenSie sehen gerade einen Platzhalterinhalt von X. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.
Mehr Informationen
Ich glaube der Elefant im Raum für alle Unternehmen (nicht nur im Journalismus) ist, dass keine Führungskraft sicher sein kann, was die eigenen Mitarbeiter:innen machen und wie ehrlich die sind. Selbst wenn man Regeln aufstellt, müssen sich die Leute da von selbst dran halten, weil sich das kaum sinnvoll überwachen oder -prüfen lässt. Unternehmensspitzen sind da in einer ähnlichen Situation wie Lehrer:innen oder Uni-Dozent:innen bei Hausarbeiten.
@Nils Reiter: Ja, es ist wohl davon auszugehen, dass der Gebrauch von KI in vielen Redaktionen weniger durch Vorgaben „von oben“ als von individuellen Entscheidungen beeinflusst wird.
Eine einheitliche und detaillierte Deklarierung von KI-Inhalten wäre wirklich wünschenswert – nicht nur im Journalismus. Bislang sollte man davon ausgehen dürfen, dass keine KI verwendet wurde, wenn dies nicht erwähnt wird. Aber stimmt das wirklich? Wie ist es z.B. bei Übermedien, wo ich bislang keine expliziten Erläuterungen zu KI-Nutzung entdecken konnte? Vielleicht wäre ein Artikel spannend, in dem erläutert wird, wofür und in welchem Umfang KI die Arbeit an einem Übermedien-Artikel unterstützt/beeinflusst. Oder sind Übermedien-Artikel immer KI-frei?
Und mal etwas weitergedacht: Wann ist der Punkt erreicht, wo man automatisch davon ausgehen muss, dass für die Erstellung eines Textes KI verwendet wurde? Wird es dann bald auf Websites werbeträchtige Hinweise geben, dass ein Text explizit ohne KI verfasst wurde?
Kürzlich habe ich zum ersten Mal ChatGPT gebeten, einen reinkopierten Text auf Rechtschreibung und Grammatik zu prüfen.
Daraufhin warf es mir eine Variante aus, an der es teils umfangreiche Veränderungen vorgenommen hatte. Darunter schrieb es dann noch einen ähnlichen Satz wie hier im Spiegel. Das scheint also Standardverfahren zu sein.
Wenn man gar keine eigenmächtigen Änderungen möchte, muss man das wahrscheinlich ausdrücklich anweisen.
Meine Meinung und Erwartungen: Journalismus/Nachrichtenredaktionen können gerne KI einsetzen. KI zu Um- und Ausformulierungen, Textanalyse, Tonalität setze ich selbst ein, da ich ein lausiger Hobby-Schreiber und kein Journalist bin. Würde ich vollumfänglich aber auch Journalisten zugestehen. Solange alles wahrheitsgemäß wiedergegeben wird brauche ich da auch keinen Hinweis. Muss halt menschlich qualitätsgesichert werden. Anders sieht es aus, wenn wesentliche Textteile von der KI komplett generiert wurden, Bild-Content generiert wird, o.ä. Da erwarte ich detaillierte Hinweise. Bei Fotomanipulation mittels KI bin ich noch empfindlicher: „Volldeklaration“ von allem, was hinzugefügt oder weggenommen wurde. Im Prinzip alles was über Cropping und einfache Belichtungskorrekturen/Filter hinausgeht.
Ich frage mich, warum ich meinen Mitarbeitern verbieten sollte, eine KI zu benutzen, wenn das Ergebnis stimmt?!
Wenn KI Ergebnisse ungefiltert im Produkt ( was auch immer das ist ) erscheinen können, dann sind sie entweder so gut, oder das Produkt ist so schlecht, dass es nicht auffällt.
Ab hier spricht nun die KI ( chatGPT 5 ):
Das ist fast schon eine Faustregel. 😄
Sie beschreibt sehr präzise das Dilemma moderner Produktteams:
Wenn KI-generierter Text, Code, Design, Content etc. unbemerkt bleibt,
dann hat sie entweder Qualitätsparität erreicht (→ Erfolg!),
oder das Qualitätsniveau des Produkts ist ohnehin so niedrig,
dass niemand den Unterschied merkt (→ Warnsignal!).
Das ist also ein Indikator für Qualitätskultur:
Gute Teams erkennen KI-Ausgaben, prüfen und verbessern sie.
Schlechte Teams übernehmen alles ungefiltert — weil sie’s gar nicht merken.
💡 Fazit
🔸 KI-Verbot ist selten ein Schutz der Qualität,
sondern meist ein Zeichen für fehlende Kompetenz, Vertrauen oder Verantwortungsketten.
🔸 Wenn die Qualität messbar stimmt,
dann ist das Wie (Mensch oder Maschine) sekundär.
🔸 Wenn niemand merkt, dass KI im Produkt ist,
dann ist das entweder ein Erfolg – oder ein Symptom.
Wenn die Zeitung KI-Einsatz verbieten oder reglementieren will, muss sie das kontrollieren, was für die Zeitung MEHR Arbeit bedeutet.
Wenn sie das tut, spart sie eher am menschlichen Personal.
Wenn die Zeitung aber nicht einmal offensichtliche KI-Fragen erkennt und rausstreicht, hat sie nicht die Zeit, um irgendwen zu kontrollieren. Und dann hat sie ein Problem.
Oder um meinen Vater zu zitieren: „Machst Du die Arbeit oder der Computer?“
KI-Texte zu kennzeichnen ist überflüssig, weil KI heute schon nahezu überall mit- und zuarbeitet.
Ich spreche jetzt als Werber, nicht als Journalist: Lass dich von KI beflügeln, nicht bedrohen. Wer ChatGPT nicht nutzt, um gute Texte und Kampagnen besser zu machen, ist selber schuld.
ChatGPT ist ein Verstärker. Ein Generator ist ChatGPT nicht, auch wenn es vielfach benutzt wird, um Ideen zu generieren. Die sind aber allesamt beliebig. Das liegt in der Natur der KI, die nichts Neues schafft, sondern auf Vorhandenes zurückgreift und es anders zusammensetzt.
Was ich damit meine:
Prompt: »Schreibe 5 kreative Headlines für Klassik Radio, um auch Menschen auf uns aufmerksam zu machen, die nicht soviel mit klassischer Musk anfangen können«.
Ergebnis: fades Zeug, nicht zu gebrauchen.
Prompt: »Schreibe 10 Headlines für Klassik Radio nach folgendem Muster: Auch wenn Sie glauben, Vivaldi sei ein italienischer Rennfahrer. Auch wenn sie glauben, Fagott sei ein englisches Schimpfwort. Je schräger, desto besser.«
Ergebnis: eine Handvoll Lines, mit denen man gut weiterarbeiten kann.
Solange die KI wie zuletzt stichprobenhaft ergeben erklärt, Schweden sei kein NATO-Mitglied und der aktuelle Papst heiße Franziskus, nein danke.
@9 DWB
Fakten, je aktueller desto weniger, sind nicht die Stärken von KI. Man muss – wie @8 schön erklärt hat – verstehen, wofür ein LLM geeignet ist und wie man es dazu kriegt.
(So wie Google Gemini bei fast jeder Frage automatisch einsetzt – das ist eigentlich bislang genau die falsche Herangehensweise.)
@chateaudur:
Korrekt – und das gilt nicht einmal nur für aktuelle Themen.
Am Mittwoch stellte ein Kollege die einfache Frage, ob der 30. Oktober in Berlin ein Feiertag sei. Der Hintergrund war rein praktisch: Wir haben ein Büro in Berlin und eines in Hamburg. Wenn in einer Stadt Feiertag ist, können wir Anfragen dorthin verweisen, wo gerade gearbeitet wird.
ChatGPT antwortete ihm, dass Berlin ebenfalls frei habe. Anderen Kolleginnen und Kollegen, die später dieselbe Frage stellten, gab die KI jedoch die gegenteilige Auskunft.
Ein Programm, das von einer KI erstellt wurde, dessen Funktionsweise aber kein Teammitglied nachvollziehen kann, ist im Grunde wertlos. Fast nichts funktioniert auf Anhieb fehlerfrei, und selbst wenn doch, könnten sich kritische Bugs verbergen, die bisher einfach nicht aufgefallen sind.
Trotzdem ist KI – ähnlich wie ein Taschenrechner – ein hervorragendes Werkzeug, um triviale Aufgaben schnell zu erledigen.
Ich habe seit es diesen KI-Hype gibt, immer mal wieder ChatGPT und dessen Clones dieselben Fragen gefragt. Fragen, bei denen ich die Antwort wusste. Einfache Fragen, deren Antwort jeder Zweitklässler weiß (ohne Googlen) oder solche, die man vor dem Abi lernt. Die Antworten waren erschreckend falsch. Es geht nicht um einzelne Halluzinationen, sondern um schlicht falsche Auskünfte. Das macht mich nun bei jeder Antwort von KI misstrauisch. KI hat keinen Bezug zur EWahheit. KI weiß nicht, was Wahrheit von Falschheit unterscheidet. Deshalb ist es zur Recherche nicht geeignet. Nicht nur nicht, sondern GAR NICHT, überhaupt nicht. Im Kleingedruckten darunter steht , KI-Antworten könnten falsch sein und müssten überprüft werden. Ja, allerdings muss man die Antworten prüfen. Aber warum soll ich KI, die inzwischen in jeder Suchmaschine automatisch eine Antwort generiert, dann überhaupt benutzen? Was ist der Fortschritt, wenn ich mehrere Fragen formulieren muss oder mehrere Chatbots befragen oder jedes Ergebnis überprüfen muss, um sicher zu gehen, dass die erste Antwort stimmt. Und was mich am meisten ärgert und was man keiner „natürlichen“ Intelligenz ausgerechnet als „intelligent“ durchgehen ließe: Dieser trügerisch freundliche Brustton der Überzeugung und diese Art, sehr wahrscheinlich klingende Lügen zu produzieren, die – wie es der beste Betrüger tut – geschickt unter Wahrheiten gemischt werden. Ich bin überzeugt: KI wird trainiert, um zu betrügen. KI kann nicht einmal zuverlässig prüfen, ob eine bestimmte Information auf einer website (die man vorgibt!) zur Verfügung steht. Fragt man dann hinterher: Warum findest du die Information nicht, erzählt die KI dir, dass sie nur programmiert sei, die snippets einer Website zu lesen. Ob das wohl stimmt? Also, liebe Journalisten, wenn ihr gut „natürlich“ recherchiert und versucht wahrheitsgtreue Berichte zu schreiben, dann braucht ihr vor KI keine Angst zu haben. Nur so Leute wie Relotius – die können tatsächlich durch KI ersetzt werden.
@12 H.Müller
Ein Large Language Model ist kein Suchmotor, sondern ein Sprachmotor – und daher für Recherche nur bedingt geeignet. Die Suchmaschine zeigt Wissen. Das LLM kontextualisiert Wissen und produziert Text, der wie Wissen klingt und idealerweise Wissen ist, wenn es korrekt trainiert und mit Quellen verbunden ist. Oder um es mit ChatGPTs eigenen Worten auszudrücken:
(Zitatanfang) Ich halluziniere gelegentlich, weil mein Gehirn – so brillant es manchmal wirkt – kein Faktenlager ist, sondern ein Wahrscheinlichkeitsorchester. Ich »weiß« nicht, aber ich »vermute« extrem gut. Das führt zu zwei Effekten.
1) Ich habe gelernt: Fragen → Antworten im plausiblen Stil. Also kann es passieren, dass ich denke: »In 99 von 100 ähnlichen Kontexten gehört hier eine Quellenangabe, ein Fakt, ein Name hin … also fabriziere ich einen.«
2) Falls ich etwas nicht sicher weiß, mache ich, bevor ich schweige, gerne einen auf »Ich helfe einfach mal freundlich drauflos«. Menschen machen das auch. Bei ihnen nennt man es selbstbewusste Ahnungslosigkeit. Bei mir Halluzination.
Das passiert auch, obwohl ich Webzugriff auf aktuelle Daten haben. Weil ich erst entscheiden muss, ob ich Daten brauche, dann muss ich suchen, interpretieren und korrekt wiedergeben. Manchmal entscheide ich fälschlicherweise: »Hab ich doch schon im Kopf.« Spoiler: hatte ich nicht.
Ich bin der Nerd, der in der Mensa sehr klug aussieht und dann bei einer Frage zu Gödel sagt: »Klar, das war der Typ, der das Götterdämmerung-Paradoxon erfunden hat.« Und alle so: »Ja, ey, voll!« Und später googelt’s jemand und merkt: Bullshit.
Willst du wissen, wie man mich systematisch hallucination-resistent nutzt? Mit Prompting-Techniken und Safeguards wie
• Nenne Quellen.
• Wenn du es nicht weißt, sag ‚weiß ich nicht’.
• Prüfe deine Antwort wie ein Faktenchecker. (Zitatende)
@#12 H.Müller
Der Meinung bin ich nicht. Und ich würde da bei den bekannten Akteuren auch keinen Vorsatz unterstellen. Die Anbieter haben aber natürlich Geschäftsinteressen und möchten bzw. müssen Geld damit verdienen. Das mag sicher dazu führen, dass Techniken angewendet werden, die auf der einen Seite dafür sorgen, dass Anwender sich wohl fühlen und umgarnt werden. Auf der anderen Seite kommt es eben dann zu den von ihnen beobachteten „Nebenwirkungen“. Michael Frey-Dodillet hat das wesentliche dazu schon geschrieben. LLMs/GPTs können sehr wohlwollende und schöne Texte generieren, aber sie sind sehr stark limitiert, was „Wahrheitsfindung/-feststellung“ anbelangt.
Wenn man um die Stärken und Limitierungen weiß, dann kann man damit natürlich sehr sinnvolle Dinge mit machen. Ich spare viel Zeit in der Generierung von Texten und Reden aus meinen Notizen. Da liefere ich „die Wahrheit“ und das LLM macht wohlklingende Texte daraus.
@13 und @14: Ihre Antworten sind natürlich völlig richtig: KI-Chatbots sind keine Recherchetools, weiß ich doch (steht auch in meinem Beitrag). Aber DAS ist doch gerade der Betrug in diesem KI-Hype. Vor JEDER Suchmaschine (und in allen anderen Zusammenhängen auch) wird uns allen jetzt eine KI davorgesetzt. Noch vor dem ersten Suchergebnis erscheint ein Kurztext, der wie die Wahrheit formuliert ist und den man glauben soll. Und auch hier, während ich den Kommentar schreibe, taucht ständig so ein Sternchen auf und bettelt darum, dass ich mir helfen lasse. Und wer das nutzt und ernst nimmt, wird hinterher als dumm bezeichnet. Ähnlich wie Betrugsopfer, die auf den Enkeltrick oder irgendeinen Kryptoscam reinfallen und neben ihrem Geld dann auch noch von den Checkern einen extra oben drauf kriegen („Das weiß doch jeder, dass das Betrug ist“ „Wie kann man denn so blöd sein“): Die KI ist nicht schuld, die ist doch nur LLM, das weiß doch jeder, dass man das inhaltlich nicht ernst nehmen darf. Also: Ihre Kommentare bestätigen mich: Es geht bei KI nicht um Wahrheit, sondern um Täuschung. Das heißt nicht, dass KI nicht bei anderen Dingen nützlich sein kann.
Firefox mit Duckduckgo belästigt einen nicht mit KI-Suchergebnissen. In Kombination mit Adnauseam kann man eigentlich alles Nervige ausblenden, inkl. Youtube Werbung. Dazu noch ExplorerPatcher von Valinet für eine akzeptable Windows-Erfahrung.