Nach oben

Wie Künstliche Intelligenz Entscheidungen trifft

Eine weitverbreitete Meinung ist, dass Daten nicht lügen. Deshalb sei das mit Daten trainierte künstlich-intelligente System objektiv und hätte Recht. Wir erklären hier, warum das nicht stimmt und wie wir als UX Designer mithelfen können Systeme zu bauen, die menschliche Entscheidungen unterstützen, statt sie zu überschreiben.

Illu zur Datensortierung by AI
Wie Künstliche Intelligenz Entscheidungen trifft, illustriert von echtpraktisch.ch

KI braucht gute Daten

Die meisten KI-Systeme basieren auf einer grossen Menge von Daten. Je nachdem, wo die Daten herkommen, können sich aus Versehen Biases in das System einschleichen.

Wurden in der Vergangenheit nur Männer ins Management befördert, wird das KI-Recruitingsystem die Erfolgschancen von Frauen niedrig einschätzen – nur aufgrund der historischen Werte. Ist ein Navigationssystem im selbstfahrenden Auto mit Daten von Autobahnen optimiert worden, trifft es für Landstrassen allenfalls falsche Entscheidungen. Auch medizinische Forschung wurde lange Zeit fast ausschliesslich an Männern durchgeführt – mit Folgen für die medizinische Prognosequalität für Frauen. All diese Daten werden heute natürlich in die KI-Systeme gefüttert.

UX Designer müssen deshalb immer fragen, woher die Daten fürs Machine Learning kommen. Sind die Daten geeignet? Ist der richtige Kontext gewählt? Wird jemand ausgeschlossen?

Kann ein System wegen fehlender Daten nicht für alle funktionieren, können die Service-Anbieter Benutzergruppen zumindest bewusst ausschliessen. Dann können sie auf dem Interface der KI-Systeme darauf hinweisen und das Vertrauen der User so stärken.

Die guten ins Töpfchen, die schlechten ins Kröpfchen

Häufig wird Maschine Learning eingesetzt, um zu klassifizieren, um z.B. gute Äpfel von schlechten zu trennen. Nun kann man das System so trainieren, dass es nur gute und möglichst keine schlechten vorschlägt, selbst wenn dadurch ein paar gute Äpfel verloren gehen («Optimizing for precision»). Dies ist z.B. wichtig, wenn es darum geht, Menüvorschläge für Vegetarier zu machen. Hier soll garantiert kein Fleischgericht in die Auswahl geraten.

Das System kann jedoch auch so trainiert werden, dass es im Zweifel auch einige schlechte Äpfel in die Auswahl lässt, dafür aber mit hoher Wahrscheinlichkeit alle guten Äpfel hat («Optimization for recall»). Das ist zum Beispiel bei einem Recruiting-System sinnvoll, wenn man sich keinen geeigneten Kandidaten entgehen lassen will.  Dafür kann es sein, dass auch jemand in der Auswahl ist, der gar nicht geeignet ist. Das muss dann der menschliche Recruiter entscheiden.

Irren ist technisch

Aber egal, wofür man optimiert und wie gut die Daten sind:

Das Ergebnis beim Machine Learning ist keine perfekte Lösung, sondern eine Wahrscheinlichkeit.

Das bedeutet, dass auch bei einem sehr guten System immer mal etwas falsch klassifiziert werden kann. Das ist nicht weiter schlimm, wenn mir dadurch ein Film vorgeschlagen wird, den ich nicht so mag, aber das kann fatal sein, wenn es um Menschen geht.

Hier müssen wir dafür sorgen, dass sich User und Auftraggeber überhaupt dessen bewusst sind, dass ein KI-System auch Fehler machen kann. Dann kann man auch dafür sorgen, dass es Möglichkeiten gibt, Fehler zu beheben. Zum Beispiel muss es ein Mensch richtigstellen können, wenn er «im falschen Topf» gelandet ist.

Killer Feature Mensch

Wenn es uns gelingt, die Zusammenarbeit zwischen Mensch und Maschine zu optimieren, kann das bedeuten, dass typisch menschliche Stärken langfristig aufgewertet werden. Die Fähigkeit zur Datenanalyse wird vielleicht bei einer Ärztin künftig weniger gefragt sein als ihre empathischen Fähigkeiten und ihr kritisches Denken.

Letztlich kommt es darauf an, dass wir als Gesellschaft entscheiden, worauf wir die künstliche Intelligenz optimieren wollen:  Stellen wir Menschen in den Mittelpunkt oder optimieren wir auf schnellen Profit?

Wir als UX Designer stecken mittendrin in dieser Aufgabe. Wir können viel bewirken – nur alle Einflüsse auf diese digitale Zukunft kontrollieren, das können wir leider nicht.

Genauer und mit mehr Beispielen erkläre ich das im Videocast vom World Usability Day 2019 im 1. Post dieser Miniserie über «UX Design für künstliche Intelligenz„.

Im 2. Post der Serie erklären wir einige Grundlagen über künstliche Intelligenz.

Was User Experience Profis tun können:

  1. Hilf dem Projektteam, den User und seinen Kontext zu verstehen
  2. Frag woher die Daten kommen/wie der Algorithmus funktioniert
  3. Hilf dem User, ein mentales Modell zu bilden
  4. Versuche herauszufinden, was alles schief gehen könnte
  5. Hilf die Prozesse zwischen Mensch und Maschine so zu gestalten, dass es einen Plan B gibt, falls etwas schief geht.

Kommentare

Kommentar schreiben

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert