Holger ruft an (212)

Wer haftet eigentlich für KI-Chatbots, die lügen?

Dass Modelle wie Grok, ChatGPT oder Gemini Quatsch verbreiten, passiert häufig. Aber wie genau kommt es eigentlich dazu? Wer kann dafür juristisch belangt werden? Und gibt es überhaupt passende Gesetze? Holger ruft an bei Falk Steiner.
Journalist Falk Steiner
Journalist Falk Steiner

(Sie können den Podcast auch über die Plattform oder App Ihrer Wahl hören. Hier ist der Feed.)

Es ist eine Lüge, dass die Organisation Campact sich aus Steuermitteln finanziert. Dennoch hat der KI-Chatbot Grok das behauptet. Grok gehört zur Firma xAI, die auch das Netzwerk X betreibt. Campact ist juristisch gegen sie vorgegangen und hatte vor dem Landgericht Hamburg Erfolg: xAI muss nun dafür sorgen, dass die KI diese falsche Aussage nicht länger verbreitet.

Doch woher kommen solche falschen Behauptungen von KI-Chatbots überhaupt? Und wer ist verantwortlich, wenn sie Unsinn ausgeben? Darüber spricht Holger Klein diese Woche mit Falk Steiner.

Steiner ist Journalist mit dem Schwerpunkt Digitalpolitik und erklärt: Bei der Technik hinter KI-Chatbots, den sogenannten Large Language Models (LLM), geht es nicht darum, ob etwas wahr oder falsch ist, sondern um Statistik: „Die KI schaut sich an, welche Aussagen es gibt (…), puzzelt sie neu zusammen und sagt dann: Das hier ist wahrscheinlich die korrekte Antwort auf eine Frage.“ Es gehe darum, was angesichts der Algorithmen plausibel erscheint, mit denen die Modelle trainiert wurden. Und wenn bei X viele Nutzer behaupten, dass Campact Steuergelder erhält, übernimmt die KI diese Aussage.

Wie kann man falsch gelerntes Wissen aus solchen Modellen wieder entfernen? Was können Einzelpersonen tun, über die die KI falsche Dinge behauptet? Und brauchen wir für KI neue Gesetze – oder gibt es die passenden schon? Darüber sprechen Holger Klein und Falk Steiner in der neuen Folge von „Holger ruft an…“.

Mehr zum Thema:

1 Kommentare

  1. Mal abgesehen von der Frage, ob ein Chatbot tatsächlich lügen kann – meine Frau erzählte mir von einem Fall, wo ein Anwalt in der USA eine KI nach Akten suchen ließ. Die KI fand ein Urteil, das es gar nicht gab. Der Anwalt baute u.a. darauf seine Verteidigung auf, und die Gegenseite – die eigentlich nur wissen wollte, ob das ein Sonderfall war, der auf den aktuellen Fall nicht anwendbar war – haute dem Anwalt das um die Ohren.
    In dem Fall haftet der Anwalt, der die KI nicht kontrolliert hat.

Einen Kommentar schreiben

Mit dem Absenden stimmen Sie zu, dass Ihre Angaben gemäß unseren Datenschutzhinweisen gespeichert werden. Ihre E-Mail-Adresse wird nicht veröffentlicht.