Kinderkrankheit oder „krasser Sündenfall“? Wie Ippen Media KI einsetzt
„KI-Sprachmodelle bieten im Journalismus vielfältige Möglichkeiten, wie automatisierte Textgenerierung und Echtzeit-Übersetzungen. Allerdings können sie auch Gefahren mit sich bringen, wie die Verbreitung von Fehlinformationen und die Einschränkung der Vielfalt und Objektivität in der Berichterstattung. Es ist wichtig, die Technologie verantwortungsvoll zu nutzen und menschliche Überprüfung und Kontrolle sicherzustellen.“ – ChatGPT1)Prompt: „Bitte schreibe einen kurzen Text (maximal 400 Zeichen) über die Möglichkeiten und Gefahren beim Einsatz von KI-Sprachmodellen im Journalismus.“
Bei „ingame“, einem Portal des Verlags Ippen Media, erschien kürzlich ein Artikel über den Fall der angeblichen Rollstuhlfahrerin und Bloggerin „Jule Stinkesocke“, die als mutmaßlicher Fake enttarnt wurde. Der Account nutzte als Profilfoto das Bild einer Pornodarstellerin, und „Jule Stinkesocke“ war offenbar nie öffentlich aufgetreten, sondern wurde von einem vorgeblich Vertrauten (und Administrator des Blogs) vertreten. Der Mann steht nun im Verdacht, die „Jule Stinkesocke“ erfunden zu haben. Er kommt aus Hamburg.
Bei „ingame“ aber war zu lesen:
„Jahrelang hat ein Mann aus San Francisco tausende Follower hinters Licht geführt.“
Der 53-Jährige habe die „Fake-Person“ geschaffen.
Und:
„Die Bloggerin Kristi-Anne hatte Zweifel an der Authentizität von Jule Stinkesockes Persönlichkeit, als sie Unstimmigkeiten in ihrer Geschichte und in der Kommunikation mit ihren Followern feststellte. Nach weiteren Recherchen fand Kristi-Anne heraus, dass es Ähnlichkeiten zwischen Jules Online-Aktivitäten und dem Mann gab, der hinter der falschen Identität stecken soll.“
Allerdings trifft auch das nicht auf den „Stinkesocke“-Fall zu, sondern auf einen ähnlichen Fall in den USA – der sich vor über einem Jahrzehnt zutrug.
Unter dem Text findet sich der Hinweis, der „ingame“-Artikel sei „mithilfe maschineller Unterstützung erstellt“ und vor Veröffentlichung von einem Redakteur „sorgfältig“ überprüft worden. Da lag natürlich, angesichts des krassen Fehlers, der Verdacht nahe, dass eine halluzinierende KI die Kontrolle über ein redaktionelles Produkt übernommen hat. Lars Wienand, Redakteur bei „T-Online“, warf Ippen Media gar einen „krassen KI-Sündenfall“ vor.
Definitiv Fake:
Die Behauptung, Peer Schmidt hätte diesen Text von KI sorgfältig überprüft“. KI hat einen Fall, in dem eine Kristi-Anne 2012 (!) in den USA einen Identitätsdiebstahl aufgedeckt hat, mit #julestinkesocke vermischt.Krasser KI-Sündenfall, @ippenmedia! pic.twitter.com/gUvqwsiS8h
— Lars Wienand (@LarsWienand) April 5, 2023
Aber ist es das: ein Sündenfall? Und ist es das, was uns erwartet, wenn KI im Journalismus eingesetzt wird: Texte, in denen automatisch zusammengerührt wird, was nicht zusammengehört – und das wird dann publiziert?
Jahrelang war „Künstliche Intelligenz“ (KI) für Journalist:innen vor allem eines: ein Buzzword. Eins, das manche nutzten, um sich in Redaktionskonferenzen oder Talkshows wichtig zu machen. Ernsthaft beschäftigt haben sich mit den Möglichkeiten und Gefahren für den Journalismus, die maschinelle Unterstützung mit sich bringt, etwa wenn es darum geht, Texte zu schreiben oder Bilder zu erzeugen, lange Zeit nur einzelne Experten.
Seit Anfang des Jahres reden nun alle darüber. KI-basierte Werkzeuge wie ChatGPT oder der Bildgenerator Midjourney finden sich in allen Feeds; auch medial wird der Technologiesprung reichlich abgebildet, zumeist in dystopischen Kommentaren, durchaus anschaulichen Expterten-Interviews oder in mehr oder vor allem weniger aussagekräftigen KI-Experimenten.
Aber wie wollen Medienhäuser denn nun mit KI im redaktionellen Arbeiten umgehen, sie einsetzen? Dazu ist bisher noch nicht so viel zu erfahren.
Es scheint, als wären Verlage und Anstalten weitgehend überrumpelt und ein bisschen planlos: „Die meisten Medienhäuser haben noch keine ausgereifte KI-Strategie“, bilanzierten Marcus Schuster und Markus Wiegand im Februar im Branchenmagazin „Kress Pro“. Auch beim Einsatz von ChatGPT werde noch viel experimentiert, und etliche Redaktionen seien noch nicht bereit, Erkenntnisse zu teilen. Ein Grund:
„Die Technik steckte noch in den Kinderschuhen. Die Texteditoren machen noch zu viele Fehler. Ein flächendeckender Einsatz birgt damit noch zu viele Reputationsrisiken.“
Andere üben sich in Prognosen: Für Oliver Eckert, Chef von Burda Forward, sind „die letzten Tage des Internets, an denen der überwiegende Anteil der Inhalte noch menschengemacht ist“, bereits angebrochen. Im „Kress pro“-Interview sagt er: „Ich gehe davon aus, dass bereits in zwei Jahren der Großteil der Inhalte im Internet von Maschinen geschrieben sein wird.“
Ippen Media: „substantielle Veränderung“
Mit Ippen Media setzt bereits jetzt ein großes deutsches Medienhaus KI in der Produktion von Texten ein. Markus Knall, Digital-Chefredakteur bei Ippen, sagt im Gespräch mit Übermedien: „Wir beschäftigen uns mit dem Thema KI schon lange und bauen weiter aus.“ Er sieht den Einsatz von KI nicht als reines Trend-Thema, sondern die Branche „am Anfang großer Veränderung“, die langfristig „eine substanzielle Veränderung“ darstelle.
Knall sagt, bei Ippen begreife man es als Chance, maschinelle Unterstützung zu nutzen, wichtig sei aber:
„Der Impulsgeber ist der Redakteur, der die Informationen und den Artikel prüft und überarbeitet. Die letzte Verantwortung hat der Mensch.“
Etliche Texte auf den vielen Ippen-Portalen sind „mithilfe maschineller Unterstützung erstellt“, wie es unter den Texten heißt, und seien „vor der Veröffentlichung“ von eine:r Redakteur:in „sorgfältig überprüft“ worden.
Hunderte Texte2)Wobei etliche davon auf mehreren Ippen-Portalen ausgespielt werden, folglich viele Dubletten vorliegen. tragen bereits eine solche Kennzeichnung: Bei der „tz“ sind es bisher rund 90 Artikel, bei der „Frankfurter Rundschau“ online etwa 80 Beiträge, bei der „Hessischen/Niedersächsischen Allgemeinen“ (HNA) mehr als 100. Auch beim Ippen-Nischenportal „ingame“ finden sich solche Texte, etwa 30 Artikel derzeit, bei Buzzfeed etwa sind es deutlich weniger. „Wir kennzeichnen jeden Text, selbst wenn nur kleine Abschnitte mit KI-Hilfe generiert wurden“, sagt Markus Knall.
War Stinkesocke der „KI-Sündenfall“?
Aber was ist mit der „Stinkesocke“? „Lars Wienand hat völlig zurecht auf den Fehler hingewiesen“, faktisch aber, sagt Knall, habe die KI „mit dem Fehler nichts zu tun“. Doch wer dann? Der Fehler sei laut Knall im Redigat passiert. Es werde im klassischen Sinne redigiert, und natürlich gelte das Vier-Augen-Prinzip: „Jeder Artikel mit maschineller Unterstützung wird von CvDs, Teamleads, Redaktionsleitern oder Kollegen gegengelesen.“
Auch würden die Texte (mit einer einzigen transparenten Ausnahme) nicht, wie es aussehen könnte, komplett von der KI geschrieben. Die werde nur für einzelne Aufgaben herangezogen. Sprachmodelle nutze man etwa, um Infoboxen und einzelne Textelemente zu erstellen. Bei Überschriften setzt man nicht auf ChatGPT, sondern auf Aleph Alpha und erhalte „sehr gut Ergebnisse“, sagt Knall. „Wir probieren KI außerdem für Paraphrasierungen aus, wenn etwa mehrere Agenturmeldungen zu einem Text umformuliert und gekürzt werden sollen.“
Insgesamt sieht Knall aktuell vier mögliche Einsatzgebiete für KI im Journalismus: „Unterstützung bei Kleintexten wie Überschriften oder Teasern, Textzusammenfassungen, Bildgenerierung und Transkription von Sprech- und Schriftsprache.“
Laut Knall gibt es bei Ippen auch Regeln für den Umgang mit der maschinellen Unterstützung. Er zählt fünf Prinzipien auf:
- „KI-Anwendungen unterliegen den Werten, Normen und Zielen von Redaktion und Unternehmen. Dazu gehörten zum Beispiel die redaktionellen Leitlinien oder der Pressekodex.“
- „Wir betrachten KI grundsätzlich als Fortschritt und wollen als führender digitaler Publisher in Deutschland den Prozess so kritisch wie positiv begleiten.“
- „Transparenz: Maschinelle Unterstützung wird offensiv gegenüber Mitarbeitern und Lesern kenntlich gemacht.“
- „Es muss ein Bewusstsein entstehen, dass die Verantwortung für KI-Anwendungen immer bei Mitarbeitern, Redaktion und Unternehmen liegt.“
- „Es gilt das ‚Human in the Loop‘-Prinzip: Jeder Inhalt wird von einem Mitarbeiter beauftragt und endabgenommen.“
Ähnliche „Guidelines“ hatte kürzlich auch die Deutsche Presse-Agentur (dpa) veröffentlicht. Dort heißt es etwa:
„Die dpa setzt KI nur unter menschlicher Aufsicht ein. Die letzte Entscheidung über den Einsatz von KI-basierten Produkten trifft ein Mensch. Wir achten die menschliche Autonomie und den Vorrang menschlicher Entscheidungen.“
Weitere Fehler
So sinnvoll diese Regeln sind – sie müssen natürlich auch eingehalten werden, um ihren Zweck zu erfüllen. Der Fehler im „Stinkesocke“-Text war aber kein Einzelfall: Als wir einzelne Ippen-Texte durchgesehen haben, die mit „maschineller Unterstützung“ verfasst wurden, haben wir weitere Fehler in zwei Beiträgen gefunden.
Bei dem einen etwa ist es ein Widerspruch in sich. In der Überschrift stand falsch:
„Corona-Masken im Auto ab Februar Pflicht: Das müssen Autofahrer wissen“
Und im Artikel dann zutreffend, es sei „nicht korrekt, von einer verpflichtenden Änderung im Auto zu sprechen“:
„Es handelt sich um eine Empfehlung, nicht um eine Pflicht. Autofahrer müssen also im Moment den Verbandskasten nicht nachrüsten, sollten es jedoch tun.“
Es wäre nicht neu, dass über Artikeln, auch bei Ippen, Überschriften stehen, deren Inhalt vom Text nicht belegt ist. Clickbait nennt man so etwas. Allerdings gibt es im Artikel weitere logische Fehler. Oder verstehen Sie das hier?
„Generell gilt: Da es steril verpackt ist, kann Verbandsmaterial nicht ablaufen. Der MDR berichtet, dass die Haltbarkeit des Materials, wie zum Beispiel Kompressen, mindestens vier Jahre beträgt. Deshalb ist es dennoch sinnvoll, den Inhalt von Verbandskästen nach mehreren Jahren auszutauschen.“
Bei einem anderen Text kann man davon ausgehen, dass er nicht „sorgfältig geprüft“ wurde. In einem „ingame“-Artikel über eine Investition der Tech-Firma Samsung war erst zweimal von „31 Milliarden US-Dollar“ die Rede, dann zweimal von „3,1 Milliarden US-Dollar“ und schließlich – „zusammenfassend“ – wieder von 31 Milliarden US-Dollar.
Nachdem wir Ippen mit diesen Fehler konfrontiert haben, wurden sie korrigiert und richtiggestellt. Ein Fehler der KI soll es aber auch hier nicht gewesen sein. Die 31 beziehungsweise 3,1 Milliarden seien Tippfehlern geschuldet, sagt Knall, und die fehlerhafte Maskenpflicht entstamme einer Textvorlage. Tatsächlich findet sich die Formulierung „Masken werden Pflicht“ auch in einer ZDF-Überschrift. Knall sagt:
„Jeder einzelne Fehler ist einer zu viel und darf nicht passieren. Auch wenn die Fehler nichts mit dem Einsatz von KI zu tun haben, sondern im normalen Redaktionsalltag passiert sind, überprüfen wir dennoch unsere Prozesse noch einmal und suchen nach technischer Unterstützung.“
Was lernt man aus den Fehlern?
Technische Unterstützung um Fehler im Umgang mit technischer Unterstützung zu vermeiden? Genau. Um die Kinderkrankheiten zu meistern und Fehler künftig zu vermeiden, will Ippen noch mehr KI nutzen: Man prüfe eine Funktion im Redaktions-System, „die Fakten/Entitäten markiert und damit Redakteuren hilft, Flüchtigkeitsfehler zu vermeiden“. Außerdem würden Anwendungen geprüft, die den Inhalt von Überschrift, Teaser und Grundtest auf Konsistenz abgleichen.
Zudem suche man weiteres Fachpersonal. Seit zwei Jahren arbeite bereits ein Redakteur bei Ippen, der auf Natural Language Processing (NLP), also die Verarbeitung menschlicher Sprache mit Hilfe von Computersystemen, spezialisiert ist. Er stehe Redakteur:innen zur Seite, die maschinelle Unterstützung nutzen. Nun wolle man das Team weiter ausbauen und auch einen „Prompt-Redakteur“ einstellen.
Prompts, also „Aufforderungen“, sind entscheidend für die Arbeit mit Künstlicher Intelligenz. Es sind die Befehle, die der KI gegeben werden. Je spezifischer und auf die Fähigkeiten der KI zugeschnitten so ein Prompt ist, desto niedriger ist die Fehlerwahrscheinlichkeit – in der Theorie. Das weiß auch Knall: „Die Qualität eines KI-Textes hängt wesentlich vom Prompt ab“, die Prompts „müssen richtig formuliert werden“. Deshalb testen Ippen-Mitarbeiter derzeit die KI-Anwendungen und werden intern dazu geschult.
Wie neu ist der Einsatz von KI im Journalismus eigentlich?
„In der Branche wird seit vielen Jahren mit KI-Anwendungen gearbeitet“, sagt Knall. Er meint etwa die redaktionelle Optimierung auf die Algorithmen von Facebook bis Google als auf maschinellem Lernen basierende Prozesse. „Redakteure haben also bereits mehr Erfahrung mit KI und Mensch-Maschine-Interaktion als vielen bewusst ist.“ Das belegt zumindest in Teilen auch der „Digital News Report 2023“ des Reuters Instituts.
Der Autor
Frederik von Castell ist Redaktionsleiter von Übermedien. Als Datenjournalist und Faktenchecker war er unter anderem für HR, SWR und dpa tätig. Von Castell ist außerdem Recherchetrainer, unter anderem am Journalistischen Seminar Mainz.
Tatsächlich werden unterstützende Tools schon länger vereinzelt eingesetzt: etwa wenn Inhalte verschlagwortet oder Teaser verfasst werden, oder auch in Form von automatisierten Newsletter-Inhalten. Aber auch (semi-)automatisierte lokale Berichterstattung ist nicht neu: Im Sportjournalismus beispielsweise finden sich schon lange Ticker, die automatisiert Spieldaten und -ereignisse in mehr oder weniger lesefreundlichen Kurztexten ausgeben. Nicht alles davon unterliegt der engstmöglichen Definition von Künstlicher Intelligenz und dem tatsächlichen maschinellen „Lernen“, sonst würden diese Ticker etwa längst weniger sperrig formulieren – aber hier wird maschinelle Unterstützung bis hin zur vollständigen Automatisierung eingesetzt.
Im Moment werde KI bei Ippen hauptsächlich in den Feldern Unterhaltung und Service getestet, sagt Knall. So finden sich zum Beispiel KI-Texte über „das Grundrezept“ für Mürb-, Rühr-, Sauer-, Biskuit- oder den „Hefeteig Ihrer Träume“ (… „so wird er fluffig, luftig, köstlich…“); oder etwa Artikel darüber, wie man Parkettböden reinigt. Die Texte wimmeln vor Gemeinplätzen.
„Bei welchen Thema wie umfangreich KI-Unterstützung in Anspruch genommen wird, das sind redaktionelle Einzelfallentscheidungen, bei denen Stärken und Schwächen abgewogen werden“, sagt Knall. Tatsächlich sind die KI-Artikel dabei thematisch wie auch hinsichtlich ihrer Recherche-Tiefe kaum zu unterscheiden von anderem banalen Content bei Ippen. Der liest sich ähnlich, trägt aber zumindest keinen Hinweis auf „maschinelle Unterstützung“.
Chancen und Risiken
Für Markus Knall überwiegen die Vorteile. Dabei koste das redaktionelle Arbeiten mit KI derzeit mehr Ressourcen als das klassische Handwerk. Und:
„In der aktuellen Testphase nimmt das noch viel Zeit in Anspruch, so dass die Textproduktion mit KI-Hilfe nicht immer schneller ist.“
Knall meint aber, dass sich das mittelfristig verbessern werde. „In erster Linie geht es darum, die Mitarbeiter zu unterstützen, vor allem bei repetitiven Aufgaben.“
Im Lokaljournalismus sei es auch „zunehmend schwieriger“, Mitarbeiter zu finden, sagt Knall. „Aber wir wollen die Berichterstattung gerade in den ländlichen Regionen nicht aufgeben.“ Die Kollegen dort seien froh, wenn sie bei bestimmten Aufgaben maschinelle Unterstützung bekämen, etwa dabei, Vereinsberichte zusammenzufassen oder zu kürzen. Darüber hinaus gebe es Aufgaben, die von Menschen nicht erledigt werden können. „Die Verarbeitung einer sehr großen Menge an Daten bei einer Recherche beispielsweise. Oder die Produktion von vielen Texten in spitzen Themenfeldern. Da brauchen wir technische Unterstützung.“
Aber Knall sieht auch Nachteile:
„Sprachmodelle sind Wahrscheinlichkeitsberechnungen. Das heißt, die Modelle können auch mal Falschinformationen produzieren, sie halluzinieren dann.“
Sprachmodelle seien zu Beginn eben „nur so gut, wie die Trainingsdaten, mit denen sie entwickelt wurden“. Man könne sich „den Umgang mit KI-Anwendung vorstellen, wie das Arbeiten mit einem jungen Kollegen. Der Redakteur beauftragt die Anwendung mit einem Thema, gibt Feedback und lässt den Text so lange umschreiben, bis alles Wesentliche enthalten und alle Fehler verbessert sind.“
Der Unterschied zum Verhältnis einer erfahrenen Redaktion zum Nachwuchstalent ist aber in der Regel: Die Redaktion hat einen Vorsprung an Erfahrung und Wissen im Handwerk – und bestenfalls auch im Umgang mit Anzulernenden.
Aber bei Ippen kommt es eben offenbar darauf an, sehr viele Texte am Tag zu publizieren, zu allen möglichen Themen, und das alles so zu optimieren, dass es möglichst viel Reichweite bringt. Dann muss man auch damit leben, dass es Kritik gibt und Vorwürfe ertönen, wenn nicht sorgfältig gearbeitet wird. Aber vielleicht ist „Sündenfall“ zu scharf formuliert.
Knall jedenfalls glaubt fest an die Vorzüge von KI, und für alle, die daneben auch Zweifel hegen, hält er einen Satz des Zukunftsforschers Roy Charles Amara parat:
„Wir neigen dazu, die Auswirkungen einer Technologie auf kurze Sicht zu überschätzen und auf lange Sicht zu unterschätzen.“
Wie hieß es einmal recht amüsant in einer durchaus technikkritischen Satire von Ephraim Kishon: „Ja ja, der Mensch wird allmählich überflüssig“. Vielleicht sollten die solcherart erstellten Texte dann auch nur noch von der KI GELESEN werden. Denn der springende Punkt im erwähnten Kishon-Text war eine Maschine, die Kartoffeln pflanzt, gießt, erntet und selbst aufisst… 😊
@Schelling:
Darauf läuft’s hinaus. Antiquiertheit des Menschen. Wenn Sie die Kartoffeln durch Daten ersetzen, ist es schon soweit. Wird nur nicht so lustig wie bei Kishon…
Der nächste Jule-Stinkesocke-Fall wird bestimmt von einer KI betrieben.
KI-Expert*innen warnen davor ChatGPT und andere LLMs als KI zu bezeichnen, weil sie nichts mit Intelligenz zu tun haben. Vielleict wäre im Deuts hen der Begriff „Textmaschinen“ anagemessen?
Als Sohn einer treuen Abonnentin einer Heimatzeitung, die seit geraumer Zeit auch zur Ippengruppe gehört, sehe ich keinen Unterschied, ob das jetzt eine KI verhunzt, der unterbezahlte desinteressierte „News-Room-Redakteur“ oder der langjährige Lokalreporter.
Generative AI, insbesondere LLMs und dort durch die allgemeine Verfügbarkeit ChatGPT sind super beeindruckend, weil sie grammatikalisch und orthographisch richtige Sätze zusammenbauen und einem immer das Gefühl einer definitiven Antwort geben.
Wenn ich nach einem technischen Problem google, dann bekomme ich wegen SEO (danke für gar nichts) Schrilionen Treffer, bei denen die ersten zehn die Wiederholung meiner Frage ohne eine Antwort sind, und sehr viel Werbung, Cookies und anderen Scheiß, den ich nicht will. Wenn ich ChatGPT frage, bekomme ich eine Antwort. Und die ist ziemlich oft ziemlich richtig und kann sofort weiterverwendet werden. Da ChatGPT im Kontext antwortet, kann ich die Antwort noch mit weiteren Nachfragen verbessern.
Ich bekomme natürlich nie eine richtige Antwort, auf Fragen die ich auch nicht ergoogeln kann.
LLMs sind so ein bisschen wie die ersten Textverarbeitungsprogramme, die plötzlich Umlaute konnten, dann Sprachen unterstützten, Silbentrennung und Thesauri einführten sowie Grammatikprüfungen integrierten. Mittlerweile kann man in Word auch – nicht so gut wie mit DeepL – übersetzen. Meine heranwachsenden Kinder, eins nach dem anderen, machten alle den selben Fehler: Wenn Word etwas im Bericht nicht rot oder blau unterkriegest, dann bin ich fertig, der Text muss dann ja richtig sein.
Genauso verhält es sich mit ChatGPT.
Vorsicht aufgrund von Datenschutz, Geschäfts- und Berufsgeheimnis beim Eingeben der Fragen sowie die notwendige Bewertung der Antworten durch Experten aufgrund von voreingenommenem (biased) oder unzureichendem Training, die zu KI-Halluzinationen führen können, sind die zu lösenden Probleme.
Unterkringelt, nicht unterkriegst. Automatische Textkorrektur hatte ich in meiner Aufzählung oben vergessen. Klappt super!
@SvenR (#5):
„… sehe ich keinen Unterschied, ob das jetzt eine KI verhunzt, der unterbezahlte desinteressierte „News-Room-Redakteur“ oder der langjährige Lokalreporter. “
Stimmt schon. Nur: Das Ideal wären ja _gutbezahlte_ Lokalreporter, die kompetenten, kritischen Journalismus machen. Das wird durch Chat GPT &. Co. noch unwahrscheinlicher. Allein die Existenz solcher Programme erzeugt einen ökonomischen Druck, der den Spielraum für die Verlage noch enger macht.
Am Ende wird in den Lokalredaktionen dasselbe passieren wie in den fordistischen Fabriken (nur nicht so schmutzig) – die Reporter verwandeln sich von (Text-)Arbeitern, die Rechner als Werkzeug benutzen, in Anhängsel dieser Rechner, die sie nur noch mit Daten füttern. Kritische Berichterstattung ist dann gar nicht mehr zu erwarten.
„Wenn ich ChatGPT frage, bekomme ich eine Antwort. Und die ist ziemlich oft ziemlich richtig und kann sofort weiterverwendet werden.“
Ja, eine echte Erleichterung. Und unproblematisch bei reinen Wissensfragen wie „Wann fährt der nächste Zug nach Leipzig?“ oder „Was ist das Atomgewicht von Cäsium?“ Schwierig wird es aber, wenn man sich bei komplexen oder umstrittenen Fragen auf ein Programm verlässt. Zum einen, weil die Antwort vermutlich einseitig gefärbt ist und fehlerhaft sein kann – zum anderen, weil wir uns so das Selbstdenken abgewöhnen.
Kritisches Denken beherrscht man ja nicht einfach so – so wenig, wie man ohne Training einen Marathon laufen kann. Es muss durch ständige Praxis erlernt und gepflegt werden. Durch das Lesen schwieriger Bücher zum Beispiel. Das ist durchaus anstrengend und kostet Zeit. Deshalb ist die Versuchung groß, die Sache einfach an eine KI auszulagern. Keine guten Aussichten.
@Kritischer Kritiker #7: Ideal wäre auch, wenn „Reiche“ angemessen Steuern zahlten. Oder Beamte in die Rentenversicherung einzahlten. Darüber müssen wir nicht diskutieren.
Es ist immer schwierig, wenn man sich auf ein Programm verlässt. Fragen Sie meine Kinder – ich muss einem noch helfen, einen Praktikumsbericht übers Wochenende von „nichts ist rot oder blau unterkringelt“ zu „das ist ein sinnvoller, vollständiger Bericht“ zu verbessern. Oder den Leuten, die ihrem Navigationssystem blind vertraut haben, und in einen Fluss oder See gefahren sind.