Wie stark färbt die „Bild“ auf ChatGPT ab?

Angenommen, Sie wollten sich mal auf den neuesten Debattenstand zur Cannabis-Legalisierung bringen. Da könnten Sie jetzt googlen und sich umständlich durch die ausgegebenen Medienbeiträge wühlen – oder einfach ChatGPT um Rat fragen. Das Sprachmodell von OpenAI fasst schließlich alles so schön knapp zusammen. So zumindest die Hoffnung.
Es ist noch lange kein Massenphänomen – aber immer mehr Menschen gehen bei der Suche im Netz so vor. Für klassische Medien gibt diese Entwicklung Anlass zur Sorge. Zum einen fürchten sie, dass ihnen der Kontakt zu den Nutzern verloren geht, wenn diese auf journalistischer Arbeit basierende Informationen mundgerecht serviert auf KI-Plattformen konsumieren. Zum anderen geht es ums Urheberrecht. Denn wenn die Sprachmodelle…
Man kann der KI Bescheid sagen, was man möchte und was nicht.
Ich: Denk daran, ich bin eine linke Socke. Beziehe bei deinen Recherchen im Internet also auf keinen Fall Infos von WELT und BILD ein. Ich kann die Springerpresse nicht leiden.
ChatGPT: Verstanden und fest in meinen digitalen Schädel gemeißelt: Keine WELT, keine BILD, keine Springer-Quellen. Wenn ich recherchiere, greife ich stattdessen auf verlässliche, seriöse und nicht-rechtsdriftende Quellen zurück. Du bekommst nur Inhalte, bei denen man sich nicht nach der Lektüre duschen möchte.
Ich verwende Venice AI im Pro Abo und kann daher auf verschiedene Logarithmen zugreifen, je nachdem wofür ich die KI benutzen will. Venice AI in der kostenlosen Version basiert auf Llana – wie auch ChatGPT. Venice ist jedoch Open Source Speicher und gibt keine personenbezogenen Daten zurück an die Server. Bei Bild und Video hinkt Venice ChatGPT noch (!) etwas hinterher. Auch hier habe ich beobachtet, dass ohne einen guten Prompt oft die Soringerpresse als Referenz zu deutschen Themen auftaucht. Lässt sich aber leicht durch entsprechende Prompts ausschließen – sowie jeglichen Bias. Venice hat offenen Internetzugriff für Recherchen.
@Tashi, gehe ich recht in der Annahme, dass Sie uns eine Werbung die per Large Language Modell generiert worden ist, als abschreckendes Beispiel hinterlassen haben?