Hasswort (37)

Algorithmus

Früher war ein Algorithmus nicht mehr, als eine Wenn-Dann-Operation. Mal mehr, mal weniger komplex. Im einfachsten Fall: Wenn ich Corona-Symptome habe, dann muss ich zum Test.

In einer komplexeren Situation wird dann aber auch der Algorithmus komplexer: Nun reichen nicht mehr Corona-Symptome, sondern es spielen auch Risiko-Kontakte eine Rolle und vorhandene Testkapazitäten und die Nachverfolgbarkeit des Risiko-Kontaktes, vielleicht auch noch der Beruf oder der Wohnort des Menschen mit Symptomen. Je komplexer die Kriterien werden, desto undurchsichtiger die Entscheidungsfindung.

Dabei definiert sich der Algorithmus eigentlich vor allem dadurch, dass er bei Eingabe der Rahmenbedingungen ein Ergebnis liefert. Ein Ergebnis, dass bei Eingabe der gleichen Parameter das immer gleiche Ergebnis liefert. Problem: Schon Nuancen reichen, damit die Entscheidung abweicht. Zum Beispiel: Hatte der Mensch mit Symptomen den Risiko-Kontakt nun für 14 oder für 16 Minuten? Die Eingabe unterscheidet sich in dem Fall minimal, das Ergebnis könnte aber trotzdem anders lauten.

Das unkontrollierbare Wesen

Genau genommen ist ein Algorithmus also auch heute nichts anderes als die Wenn-Dann-Operation. Mit Blick auf eine Vielzahl von Medien und Beiträgen in der öffentlichen Debatte drängt sich jedoch der Eindruck auf, als sei ein Algorithmus nichts weniger als die Manifestation des Gefährlichen, das unbedingt gezähmt gehört.

So fragt der MDR beispielsweise: „Wer kann den Algorithmus beherrschen?“ Ganz so, als wäre der ein unkontrollierbares, egomanisches Wesen mit Allmachtsanspruch. Nein, der Algorithmus ist kein Donald Trump aus Einsen und Nullen.

Das Imageproblem von Algorithmen rührt viel mehr daher, dass sie in einer hoch digitalisierten Welt wahnsinnig komplexe Gebilde sind – nicht der einzige Unterschied zu Donald Trump.

Ist der Instagram-Algorithmus ein Lustmolch?

Das scheint dem MDR selbst zu dämmern, denn im zugehörigen Artikel findet eine weitestgehend differenzierte Auseinandersetzung mit dem Thema statt. Zitiert wird unter anderem Katharina Nocun: „Sie sagt, es sei höchste Zeit, den Machern hinter den Algorithmen Grenzen zu setzen“, so der MDR.

Also: Die Macher:innen dahinter, nicht die Algorithmen sind das Problem. Die Angst vor dem dominanten Algorithmus ist unbegründet. Nur warum dann diese Angst schüren?

Der Bayerische Rundfunk fragt etwa, ob der Instagram-Algorithmus auf nackte Haut steht. Dieser kleine Lustmolch. Instagram-Eigentümer Facebook selbst bestreitet im Artikel, dass es diesen direkten Zusammenhang gibt. Mutmaßlich muss es den auch gar nicht geben: Denn natürlich sind die Algorithmen inklusive (selbst-)lernender Systeme so gestaltet, dass sie die Posts häufiger darstellen, mit denen Nutzer:innen wahrscheinlich häufiger interagieren. Wenn man darin also ein Problem sehen möchte (wofür es im Hinblick auf Geschlechtsdarstellungen, Sexismus aber auch Jugendschutz durchaus gute Gründe gibt), dann könnte man sich die Frage stellen, ob nicht eventuell die Menschen ursächlich sind. Und zwar die hinter dem Algorithmus und die vor dem Bildschirm.

Doch Antworten auf diese Fragen finden wir nicht, wenn das Thema so unterkomplex angegangen wird. Dann ist eine kritische Debatte fast unmöglich.

Der Algorithmus entscheidet nicht

Wenn die „Welt“ titelt „Dieser Algorithmus entscheidet über Freiheit oder Knast“ ist das natürlich Quatsch. Genauso gut könnte man sagen, der Taschenrechner entscheidet, dass 2+2=4 ist. Der Algorithmus entscheidet nicht, er berechnet ein Ergebnis. Auf Basis der Eingangsinformationen, die man ihm zur Verfügung stellt. Wenn er etwas Falsches tut, tut er das aufgrund von Angaben, die Menschen ihm mitgegeben haben. Selbst dann, wenn eine Künstliche Intelligenz (KI) im Spiel ist. Denn auch selbstlernende Systeme arbeiten auf der Basis von Informationen, die man ihnen zur Verfügung stellt (und schon diese Infomationsbasis kann problematisch oder einfach schlecht sein).

Eine KI ist deshalb mit noch höherer Sensibilität zu behandeln. Sie verarbeitet Informationen selbstständig, erkennt Muster auf Basis großer Datensätze. Das heißt auch: Eine KI kann immer nur so intelligent sein, wie die Lernbasis, die sie hat. Die aber stellt ihr der Mensch zur Verfügung.

Im Beispiel der „Welt“ ist die Fallhöhe dabei besonders hoch: Denn natürlich ist es absolut heikel, wenn eine Software, die von Gerichten verwendet wird, eine Rückfallwahrscheinlichkeit von Straftätern berechnet. Und es ist absolut unabdingbar, eine kritische Debatte über den Einsatz solcher Software zu führen. Aber egal wie nun ein Einsatz der Software aussähe, das Versagen ist immer menschlicher Natur. Entweder weil leichtfertig einer Software vertraut wird, oder weil eine Software so hergestellt ist, dass sie Diskriminierung reproduziert.

Zuerst muss gefragt werden: Wie sind wir?

Deshalb ist es auch nicht sinnvoll, von rassistischen oder diskriminierenden Algorithmen zu sprechen. Man unterstellt Algorithmen damit eine Motivation, die es in Wahrheit gar nicht geben kann.

Wenn bei Twitter eine Person of Color weniger wahrscheinlich in einem Vorschaubild angezeigt wird, als eine weiße Person, dann manifestieren sich darin rassistische Entscheidungsmuster von Menschen. Bevor man einen Algorithmus verbessern kann, müssen diese menschlichen Verhaltensweisen reflektiert werden.

Das Problem bei der Sache: Welches Entscheidungsmuster nun genau verantwortlich ist, bleibt im Falle Twitter unklar. Kommt die Entscheidung zustande, weil die Mehrheit der Nutzer:innen bevorzugt jene Vorschaubilder klickt, die weiße Menschen zeigen? Oder vielleicht, weil das System weiße Menschen als Pseudo-Norm kennen gelernt hat (und People of Color womöglich sogar schlechter identifizieren kann als weiße Menschen)? Man kann es nicht sagen.

Ohne Transparenz keine Kontrolle

Das aber führt nicht dazu, dass Facebook, Google oder Twitter geringere Verantwortung hätten – ganz im Gegenteil. Welche Muster Grundlage von algorithmischen Entscheidungen sind, muss gerade deshalb transparent sein, weil rassistische Tendenzen von Menschen dann potenziell verdichtet werden, wenn ein Algorithmus sie anwendet.

Algorithmen zu kennen böte die notwendige Möglichkeit, Entscheidungsparameter zu bewerten. Denn nur selten sind Entscheidungsmuster so offen sichtbar, wie bei der algorithmischen Auswahl eines Bildausschnitts. Aber selbst hier würde es helfen, die Ursache zu erkennen. Denn dann könnte man besser beurteilen, ob die Programmierung eine fahrlässige Folge von unterschwellig-rassistischen Denkmustern war. Oder bewusster Rassismus.

Solange die Entscheidungsparameter nicht bekannt sind, ist es nicht möglich das tatsächlich zu beurteilen.

Wie intelligent ist KI?

Dass Algorithmen rassistische Tendenzen verdichten, liegt auch daran, dass die Künstliche Intelligenz zumindest noch nicht ganz so schlau ist, wie es viele Menschen (und offenbar auch viele Journalist:innen) fürchten. Denn wo ein Algorithmus eingesetzt wird, um die nächste Führungskraft zu finden, tut er das auf Basis von Eigenschaften bisher erfolgreicher Führungskräfte. Weil diese in der Vergangenheit aufgrund des deutlich erhöhten Anteils an der Gesamtpopulation erfolgreicher Führungskräfte in der Tendenz weiß und männlich waren, behandelt eine mäßig kluge KI weiße Männer also bevorzugt. Und ignoriert die vielfach nachgewiesene Evidenz, dass diverse Teams den Unternehmenserfolg wahrscheinlicher machen.

Es bringt also wenig, Untergangsszenarien von Algorithmen ins Internet oder TV zu blasen, die die Menschheit dominieren wollen. Viel größer sollte die Angst vor schlecht programmierten Algorithmen sein. Egal, ob die nun mutwillig oder fahrlässig so aussehen, wie sie es tun.

Jedenfalls sind jene Algorithmen problematisch, die schlechte menschliche Entscheidungen vervielfältigen und manifestieren.

Aber: Die prinzipielle Technologiefeindlichkeit, die aus dem Narrativ des bösen Algorithmus spricht, wird weder der Sache noch der sozialen Debatte um Algorithmen gerecht. Vielleicht würde es helfen, in Zukunft nicht mehr von dem Algorithmus zu sprechen, sondern davon, wie Menschen etwas programmiert haben.

26 Kommentare

  1. Ja, ja und nochmals ja. Von seiten eines Softwareentwicklers ein ganz dickes Lob für diese Entmystifizierung. Ich bin da ganz beim Autor.

  2. „Weil [Führungskräfte] in der Vergangenheit aufgrund des deutlich erhöhten Anteils an der Gesamtpopulation erfolgreicher Führungskräfte in der Tendenz weiß und männlich waren, behandelt eine mäßig kluge KI weiße Männer also bevorzugt.“
    Wieso genau?
    Warum die Kriterien „Hautfarbe“ und „Geschlecht“ dem Algoritmus einfach nicht definieren, dann kann sie die auch nicht abfragen.
    Genau, wie „Händigkeit“ und „Blutgruppe“ nicht abgefragt werden.

  3. #2 Klar, deswegen ist da auch von einer mäßig klugen KI die Rede. Ist die KI intelligent genug gefüttert, lässt sich das natürlich ausblenden. In der Vergangenheit wurde das aber nicht immer getan. Auch die Gegenwart hat da oft noch keine optimalen Lösungen.

  4. @ Peter Sievert (#1):

    Schon richtig. Nur finde ich, diese fundierte Kritik passt nicht in die Rubrik „Hasswort“.

    Dass Algorithmen für den Alltag eine immer stärkere Rolle spielen, ist schlicht richtig. Der häufige Gebrauch des Wortes folglich normal. Das Problem: Seitens der Medien wird ihnen oft ein Subjektstatus zugesprochen, den sie nicht besitzen – was Herr Servatius treffend aufs Korn nimmt. Nur kann dafür der Begriff ja nichts.

  5. Grundsätzlich gelingt die Argumentation des Autors. Jedoch würde ich es nicht so eng sehen mit dem Festlegen der »Schuld«. Algorithmen, erst recht, wenn sie sehr komplex sind (oder werden), verselbstständigen sich tatsächlich, insofern sie Ergebnisse liefern, die Menschen nicht vorhergesehen haben. Man muss jetzt nicht typisch modernistisch behaupten, dass nur Menschen über Handlungsmacht verfügten. Hier haben wir es eindeutig mit einer verteilten (Entscheidungs-)Macht zu tun. Das macht das Phänomen auch so interessant: Die Entwickler□innen sagen, dass sie z. B. rassistische Selektion in ihrem Algorithmus nicht intendiert hatten. Aber trotzdem verstärkt der Algorithmus eben etwas, was unter uns Menschen (bisher?) eher unterschwellig oder unbewusst mitgeschwungen hat. Algorithmen sind also in der Lage, als Verstärker (sub)kultureller, unbewusster Werte zu fungieren. Die Entwickler□innen sind zudem nicht alleine »schuld«, sie haben ebenso an Kultur(en) teil. Und Algorithmen legen nun schneller und leichter offen, was bisher sich nur in seltenen Fällen konkret ausgedrückt hat. Kein Medium ist neutral.

    Der wichtigste Schritt wäre also tatsächlich mehr Transparenz, wie der Autor richtig feststellt.

  6. „Ist die KI intelligent genug gefüttert, lässt sich das natürlich ausblenden.“ Ja, genau das verstehe ich eben nicht – irgendwer muss der KI, die neue Führungskräfte sucht, doch einprogrammiert haben, dass es Geschlecht und Hautfarbe überhaupt _gibt_.
    Warum sollten die Programmierer(m/w/d) sich diese Mühe gemacht haben, wenn sie nicht selbst rassistisch und sexistisch sind?

    Oder gibt es wirklich KIs, die Händigkeit, Blutgruppe oder meinetwegen Schuhgröße statistisch auswerten? Oder Sternzeichen?

  7. #5 Die Frage ist, ob wir „nur“ von Algorithmen oder von KI sprechen. Bezogen auf KI: Je nach Verfügbarkeit der Daten ist es gar nicht zu vermeiden, dass eine KI mit Dingen wie Geschlecht oder Hautfarbe konfrontiert wird, sei es auch nur in einer Tendenz, wenn sie beispielsweise mit Bildern konfrontiert wird. Will man das verhindern ist oft eine Begrenzung des Datensatzes die einzige Möglichkeit. Das macht die Daten aber dann womöglich schlechter. Das ist natürlich vereinfacht dargestellt, aber im Kern ist das ein Problem.

  8. Witziger Weise neigen gerade diejenigen dazu, eine Apotheose der IT zu betreiben, die ebenso dazu neigen, die Gefahren derselben zu dramatisieren.
    Ein Beispiel:
    Neulinge neigen immer solange dazu, Fehlermeldungen einer Software absolut zu setzen, bis sie dann selber etwas komplexere Programme, mit eigenen Fehlercodes, geschrieben haben.
    Dann merken sie, dass derselbe Fehler auch andere Ursachen haben kann, als gerade diejenige, die sie in ihrer eigenen Testsuite abgefangen-, und in der Fehlermeldung verarbeitet haben.
    Das ist vergleichsweise trivial, kann aber die Fehlersuche des Anwenders komplett aufs falsche Gleis schicken.

    Letztlich scheint das ein Impuls zu sein, so wie die Technik, die sich gegen die DAUs verschworen hat, wie das Wetter, welches schlecht wird, weil mensch nicht aufgegessen hat.

  9. Zu #6: „irgendwer muss der KI, die neue Führungskräfte sucht, doch einprogrammiert haben, dass es Geschlecht und Hautfarbe überhaupt _gibt_.“
    Nicht unbedingt. Der Witz an Deep Learning, einer Unterkategorie der KI, ist, dass man den Algorithmus nur grob anhand von „So muss das sein/OK“-Bildern/Infos und Gegenbeispielen trainiert. Der Algorithmus kann nach einigen Durchläufen dann selbstständig zwischen Ok und Nicht-ok unterscheiden (oder andere Bewertungen ausgeben), ohne dass sich genau nachvollziehen lässt anhand welcher Kriterien. Black Box nennt man das dann.
    Dieses Verfahren kommt insbesondere in der industriellen Qualitätssicherung zum Einsatz.

    Das Fiese daran ist – und darum drehen sich hier ja auch teilweise der Artikel und einige Kommentare – dass sich eben auch Kriterien einschleichen, die man gerade NICHT drin haben wollte. Sei es Hautfarbe oder der eigentlich irrelevante Bildhintergrund.

    Mein größtes Problem mit sogenannter Künstlicher Intelligenz ist, dass deren Ergebnisse von vielen Menschen als objektiv verstanden werden. Natürlich fleißig gefördert von den Entwicklern und Nutznießern dieser Software.

  10. Dann _kann_ es also passieren, dass eine KI sich eine „Astrologie“ Marke Eigenbau entwickelt, wenn zufällig in der Vorlage etwas mehr Führungskräfte vorkommen, die bspw. in der ersten Jahreshälfte geboren sind?

    Ok, jetzt habe ich das Problem verstanden, aber dann verstehe ich den Sinn einer solchen KI erst recht nicht, wenn die quasi jedes Vorurteil und noch ein paar neue entwickeln kann.

    Ein dumpfer Alogoritmus, der nur die Eigenschaften auswertet, die man ihm abschließend aufgezählt hat, wäre doch das Mittel der Wahl gegen Vorurteile.

  11. „Dann _kann_ es also passieren, dass eine KI sich eine „Astrologie“ Marke Eigenbau entwickelt…“
    Exakt. Dazu gibt es unzählige weitere Beispiele: Statt Gesichtern von Verbrechern erkennt sie Häuserwände, statt Tieren in der Wildnis erkennt sie Schnee und so weiter….

    „Ein dumpfer Alogoritmus…“
    Viel mehr sind die Algorithmen aka KI an sich ja auch gar nicht. Das sagt ja auch der Artikel: Ich nehme eine Gleichung, die eine bestimmte Anzahl an Variablen in ein bestimmtes Verhältnis zueinander setzt. Dann füttere ich die Gleichung mit unzähligen (oder auch nur 20) Ausprägungen dieser Variablen und freue mich dann, wenn ich vorne Wert X eingebe und hinten 42 rauskommt.

    Die beiden Hauptvorteile von KIs und Deep Learning etc. sind, dass man erstens die Modelle automatisiert mit Daten füttern kann anstatt jeden Einzelfall zu nehmen, die relevanten Bereiche zu definieren und bei jedem neuen Fall das ganze Prozedere zu wiederholen. Und (zweiter Vorteil) die Modelle spucken auch Lösungen zu Fällen aus, die nicht direkt in den Trainingsdatensätzen vorkommen, weil sie mit Wahrscheinlichkeiten rechnen, nicht mit absoluten Werten.

    Das Problem ist nur, dass die eigentliche menschliche Arbeit mit dem von der KI ausgespuckten Ergebnis eigentlich erst anfängt, und nicht etwa bereits abgeschlossen ist, wie die KI-Apologethen uns ständig weismachen wollen. Die Ergebnisinterpretation ist nämlich die Krux.

  12. Okeee.
    Wie schwer ist es eigentlich, der KI eine Dokumentation einzuprogrammieren, damit sie keine Black Box mehr ist, sondern hinterher nicht nur sagt, welche Person für sie der beste Kandidat ist, und welche Kriterien die entscheidenen sind?

    Im Geo kam mal ein Bericht über dressierte Tauben, die Bilder von iirc van Gogh und Picasso erkennen können. Sogar auf dem Kopf stehend. Die kann man auch nicht fragen, woran sie sie erkennen, aber irgendeinen Vorteil müssen Computer gegenüber Tauben doch haben?

  13. @KK
    Ja, stimmt, die Rubrik ist in dem Sinne wohl nicht 100%ig getroffen. Das Wort an sich ist sogar sehr schön.

    @Mycroft
    Das ist je nach Bauweise der KI durchaus möglich, nach der Lernphase die Entscheidungskriterien der KI nachzuvollziehen anhand der angelernten Parameter, andere sind im Ihren Aufbau aber derart komplex gestrickt, dass es nicht möglich ist. Im zweiteren Fall kann man dann nur anhand der Entscheidungen selbst Schlüsse ziehen, was die KI sich da wohl beigebracht hat.
    Letztlich ist das ein Merkmal des Begriffes „Intelligenz“, würde ich mal behaupten. „Intelligenz“ bezeichnet eine nicht mechanisch erklärbare Geistesleistung. Wir können ja auch nicht beschreiben und entschlüsseln, auf welchem Wege Beethoven die neunte Sinfonie geschrieben hat und David Hilbert die Axiome der Geometrie gefunden, die die Lücken in Euklids Beweisen schlossen. Genau daher stammt ja der Begriff „Künstliche Intelligenz“ und die Tauben zeigen halt eine „animalische Intelligenz“.
    Computer sind anders als Tauben jedenfalls in der Lage, eine Vielzahl an Entscheidungen in zutreffen und diese Entscheidungen über Schnittstellen in jedwede gewollte Aktion umzusetzen (dem Nutzer Bilder anzeigen, Aktien kaufen, einen Roboterarm steuern, Auto fahren,…)

    @Theodor
    Das geht in die philosophische Richtung, in der Alan Turing gedacht hat. Da unser Gehirn letztlich auch nur eine biomechanische Lernmaschine ist, aus der dann determiniert, aber zum Teil unvorhergesehen Erkenntnisse und Aktionen folgen, kann man dies auf jede Art adaptierendes System anwenden.
    Alan Turing schwebten Computer vor, die selbständig einen Teil ihrer eigenen Programmierung anpassen könnten. (Was mit KI-Ansätzen ja emuliert wird.)

  14. Ich dachte da eher an science and technology studies. Algorithmen werden zurzeit auch gerne untersucht, wie sie an der Entscheidungsfindung teilhaben.

  15. „Wir können ja auch nicht beschreiben und entschlüsseln, auf welchem Wege Beethoven die neunte Sinfonie geschrieben hat und David Hilbert die Axiome der Geometrie gefunden, die die Lücken in Euklids Beweisen schlossen.“
    Wir können die neunte Sinfonie aber nachspielen und schön finden und die Axiome der Geometrie überprüfen und anwenden.

    Eine KI, deren Entscheidungen nicht nachvollziehbar und daher nicht überprüfbar sind – welchen Mehrwert hat sie gegenüber selber suchen, außer die Geschwindigkeit?

  16. Die Fokussierung auf das, was ein Computer nicht kann, mag für Fortschritte in der Forschung wichtig sein, ist aber für ein erfolgreiches Arbeiten eher hinderlich.
    Eine Fliege hat einen vollkommenen Panoramablick, also ist der Mensch ihr unterlegen!?
    Es sind diejenigen, die Algorithmen für Dinge einsetzen, für die sie nicht geschaffen-, oder noch nicht gut genug ausgearbeitet sind. Das gleiche Prinzip aber liefert in anderen Bereichen wieder phantastische Ergebnis. mRNA Impfstoffe würde es ohne biologische Kybernetik nicht geben. Gleichzeitig geben uns evolutionäre Programme aber auch wertvolle Einblicke, wenn sie dieselben Fehler machen, wie die Menschen.
    Oder glaubt noch jemand, dass Teams bei uns nicht deshalb vorwiegend aus männlichen Weissen bestehen, weil dieses Bild prominent in den Köpfen der Entscheider steckt?

  17. Ich weiss nicht mehr, welcher Forscher ( Kybernetik ). das gesagt hat, aber es ist haften geblieben. In etwa:
    „Wenn wir eine Maschine bauen, die so komplex ist, dass die zentrale Computing Einheit so viele Ebenen von Untereinheiten braucht, dass sie diese nicht mehr in Gänze komplett überschauen kann, dann wird sich diese Maschine irgendwann einreden, sie hätte eine Seele“.
    Soviel zum Thema „Genialität“ und „Intelligenz“. Es scheint manchmal, als wäre diese Themen eine Art atheistische Ersatzreligion ;-)

  18. „Die Fokussierung auf das, was ein Computer nicht kann, …“ Wieso Fokussierung? Wenn ein Computer etwas besser oder schneller als ein Mensch kann, ist er ein nützliches Werkzeug, wenn nicht, dann nicht.

    Komplexe dreidimensionale Molekülstrukturen sind was anderes, als unter einer sagen wir zweistelligen Anzahl von Bewerbern die geeignetste Person zu finden. DAS könnte man tatsächlich auch ohne Computer in vertretbarer Zeit schaffen. Aber…

    „…glaubt noch jemand, dass Teams bei uns nicht deshalb vorwiegend aus männlichen Weissen bestehen, weil dieses Bild prominent in den Köpfen der Entscheider steckt?“
    Tatsächlich ist halte ich den Grund für etwas komplexer, aber ja, Vorurteile haben damit auch zu tun.

    Jetzt wäre mein Ansatz, dass weder Bewerber(m/w/d) noch Firma ein Interesse daran haben, dass die Vorurteile der Personalabteilung die Jobvergabe beeinflussen, ergo wäre ein vorurteilsfreier Computer, der die Bewerbergruppe objektiv analysiert, mMn das Mittel der Wahl.
    Nein, erfahre ich, auch Computer entwickeln Vorurteile.
    Wenn menschliche UND künstliche Entscheider Vorurteile haben können, gibt es nur zwei Möglichkeiten, Vorurteile zu überwinden:
    – die Firma definiert eine abschließende Reihe von berufsbezogenen Kriterien, die der Algorithmus verarbeiten soll, er darf sie allerdings unterschiedlich wichten
    – Losverfahren

  19. @Mycroft
    Die Geschwindigkeit IST zumeist der gesuchte Mehrwert in der Regel. Der ist ja auch erheblich. Wir reden ja hier von Millionen- bis Milliardenfachen Mengen, die verarbeitet werden können.
    Außerdem: Kein Mensch kann so gut Schach und Go spielen wie Computer, in manchen Bereichen übertreffen sie uns also bereits auch in der Qualität. Es gibt andere Beispiele und die Anzahl wird wachsen.

  20. „Die Geschwindigkeit IST zumeist der gesuchte Mehrwert in der Regel.“ Das IST mir klar. Es ging mir aber explizit um das Thema „(un)faire Jobvergabe“, und da ist der Geschwindigkeitsvorteil eigentlich nicht so relevant, sondern, wenn überhaupt, die Überwindung von Vorurteilen.

  21. – Losverfahren

    Testweise sollte man damit anfangen in der Chirurgie, bei den Zahnärzten und den Piloten.

  22. „Deshalb ist es auch nicht sinnvoll, von rassistischen oder diskriminierenden Algorithmen zu sprechen. Man unterstellt Algorithmen damit eine Motivation, die es in Wahrheit gar nicht geben kann.“

    Algorithmen und auch Menschen können sich sehr wohl rassistisch, diskriminierend oder sexististisch verhalten – auch ohne, dass dahinter eine entsprechende Motivation steht. Das ist ja z.B. gerade das Problem mit Vorurteilen.

  23. @Mycroft
    Ich bezog mich auf #16, da war von der Jobvergabe noch keine Rede.

    Es ist hier aber auch denkbar, Algorithmen zu schreiben, die eine bessere Qualität an den Tag legen. Nur weil bisherige dazu nicht in der Lage waren, müssen zukünftige ja nicht genauso schlecht sein. Aber ja, weil weder Geschwindigkeit ein Kriterium ist, noch die Qualität mutmaßlich besser, entscheiden Algorithmen bisher auch nicht über die Jobvergabe.

  24. Algorithmen als mögliche Methode, rassistische oder sexistische Jobvergabe zu unterbinden war bereits im Artikel Thema:
    „Weil diese in der Vergangenheit aufgrund des deutlich erhöhten Anteils an der Gesamtpopulation erfolgreicher Führungskräfte in der Tendenz weiß und männlich waren, behandelt eine mäßig kluge KI weiße Männer also bevorzugt. “
    Und darauf habe ich mich die ganze Zeit bezogen.

  25. Also ein richtig guter Algorithmus besteht wahrscheinlich den Turing-Test. Allerdings würden ihn Merkel oder Steinmeier nicht bestehen. Ich weiss aber auch nicht, was das bedeutet.

Einen Kommentar schreiben

Mit dem Absenden stimmen Sie zu, dass Ihre Angaben gemäß unseren Datenschutzhinweisen gespeichert werden. Ihre E-Mail-Adresse wird nicht veröffentlicht.