Der Gesprächspartner
Falk Steiner ist Journalist in Berlin. Er ist als Autor für „heise online“, Tageszeitungen, Fachnewsletter sowie Magazine tätig und berichtet unter anderem über Digitalpolitik im Bund und in der EU.

(Sie können den Podcast auch über die Plattform oder App Ihrer Wahl hören. Hier ist der Feed.)
Es ist eine Lüge, dass die Organisation Campact sich aus Steuermitteln finanziert. Dennoch hat der KI-Chatbot Grok das behauptet. Grok gehört zur Firma xAI, die auch das Netzwerk X betreibt. Campact ist juristisch gegen sie vorgegangen und hatte vor dem Landgericht Hamburg Erfolg: xAI muss nun dafür sorgen, dass die KI diese falsche Aussage nicht länger verbreitet.
Doch woher kommen solche falschen Behauptungen von KI-Chatbots überhaupt? Und wer ist verantwortlich, wenn sie Unsinn ausgeben? Darüber spricht Holger Klein diese Woche mit Falk Steiner.
Steiner ist Journalist mit dem Schwerpunkt Digitalpolitik und erklärt: Bei der Technik hinter KI-Chatbots, den sogenannten Large Language Models (LLM), geht es nicht darum, ob etwas wahr oder falsch ist, sondern um Statistik: „Die KI schaut sich an, welche Aussagen es gibt (…), puzzelt sie neu zusammen und sagt dann: Das hier ist wahrscheinlich die korrekte Antwort auf eine Frage.“ Es gehe darum, was angesichts der Algorithmen plausibel erscheint, mit denen die Modelle trainiert wurden. Und wenn bei X viele Nutzer behaupten, dass Campact Steuergelder erhält, übernimmt die KI diese Aussage.
Wie kann man falsch gelerntes Wissen aus solchen Modellen wieder entfernen? Was können Einzelpersonen tun, über die die KI falsche Dinge behauptet? Und brauchen wir für KI neue Gesetze – oder gibt es die passenden schon? Darüber sprechen Holger Klein und Falk Steiner in der neuen Folge von „Holger ruft an…“.
Falk Steiner ist Journalist in Berlin. Er ist als Autor für „heise online“, Tageszeitungen, Fachnewsletter sowie Magazine tätig und berichtet unter anderem über Digitalpolitik im Bund und in der EU.
Sie müssen den Inhalt von reCAPTCHA laden, um das Formular abzuschicken. Bitte beachten Sie, dass dabei Daten mit Drittanbietern ausgetauscht werden.
Mehr InformationenSie sehen gerade einen Platzhalterinhalt von Turnstile. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.
Mehr InformationenSie sehen gerade einen Platzhalterinhalt von Facebook. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.
Mehr InformationenSie sehen gerade einen Platzhalterinhalt von Instagram. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.
Mehr InformationenSie sehen gerade einen Platzhalterinhalt von X. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.
Mehr Informationen
Mal abgesehen von der Frage, ob ein Chatbot tatsächlich lügen kann – meine Frau erzählte mir von einem Fall, wo ein Anwalt in der USA eine KI nach Akten suchen ließ. Die KI fand ein Urteil, das es gar nicht gab. Der Anwalt baute u.a. darauf seine Verteidigung auf, und die Gegenseite – die eigentlich nur wissen wollte, ob das ein Sonderfall war, der auf den aktuellen Fall nicht anwendbar war – haute dem Anwalt das um die Ohren.
In dem Fall haftet der Anwalt, der die KI nicht kontrolliert hat.