Nach oben

Was ist Künstliche Intelligenz (AI)?

Künstliche Intelligenz gehörte zu den Top-Themen des Jahres 2019. Die allseitigen Erwartungen – sowie die Ängste – sind hoch. User Experience Profis sind mehr denn je gefordert, Usern zu helfen, verlässliche mentale Modelle von KI-Anwendungen aufzubauen. Das sind die wichtigsten Fakten, um diese Aufgabe zu meistern.

Illustratrion AI kann Angst machen
Angst & Erwartungen für die Zukunft illustriert von echtpraktisch.ch

Es ist nicht so einfach zu erklären, was Künstliche Intelligenz genau ist. Schon der Begriff «Intelligenz» ist schwer genug zu fassen.

Zum Glück brauchen User gar nicht genau zu wissen, was KI ist und wo sie drin steckt – User Experience Designer dagegen schon. Denn noch besteht viel Unsicherheit, was künstliche Intelligenz leisten kann, wo sie unangebracht ist und wann sie schlicht auf die falsche Fährte lockt.

Der AI Effekt

Die Urväter der KI, Marvin Minsky und John Mc Carthy haben sich 1956 zusammen mit anderen KI-Pionieren auf eine sehr breite Definition von künstlicher Intelligenz geeinigt, die sinngemäss sagt: «Künstliche Intelligenz ist, wenn eine Maschine etwas macht, wofür der Mensch Intelligenz brauchen würde.»

Allerdings wandelt sich die Vorstellung davon mit der technologischen Entwicklung. Früher schien es intelligent, wenn Computer Schach spielen können. Heute findet das kaum jemand «wirklich intelligent». Douglas Hofstadter beschreibt dies in seinem Buch «Gödel, Escher, Bach» (1980) als den AI Effekt und zitiert seinen Kollegen Larry Tesler:

«AI is, whatever hasn’t been done yet. »

Das macht Künstliche Intelligenz zur beweglichen Zielscheibe.

Aus Usersicht ist es eher unwichtig, was AI genau ist. Um selbst mitreden zu können ist es gut zu wissen, dass man zwischen starker künstlicher Intelligenz («General AI») und schwacher künstlicher Intelligenz («Narrow AI») unterscheidet.

Grob gesagt, bedeutet General AI dass sich eine Maschine wie ein Mensch verhält. Sie hat das Weltwissen und die Strategien, um alle Arten von Fragen wie ein Mensch mit gesundem Menschenverstand zu beantworten. Dies gibt es bisher nur in Filmen. In der Realität sind wir noch weit davon entfernt. Die Experten sind uneinig, ob das überhaupt geht.

Narrow AI ist dagegen so etwas wie ein Fachidiot. Sie kann meist nur eine Sache, aber die richtig gut, z.B. Schach spielen, Krebs auf Röntgenbildern erkennen oder ein Auto steuern. Auch Spracherkennung gehört zur Narrow AI.

«Think first» gilt auch für Machine Learning

Ein Teilgebiet der Künstlichen Intelligenz, das derzeit oft synonym für KI benutzt wird, ist das Machine Learning. Hier unterscheidet man zwischen Supervised und Unsupervised Learning.  Beim «Supervised Learning» hilft der Mensch der Maschine beim Lernen. Der Computer wird z.B. mit vielen Bildern von Tieren gefüttert und der Information, ob ein Vogel darauf ist oder nicht. Später ist das System fähig, selbständig zu entscheiden, welche Bilder Vögel enthalten.

Dagegen erhält der Computer beim «Unsupervised Learning» nur die Daten ohne Label und versucht selbst Muster zu finden (Pattern Recognition). Die Zusammenhänge, die das System dabei herausfindet sind Korrelationen. Meist besteht kein kausaler Zusammenhang.

Dies wird problematisch, wenn der User die – oft unbedeutende – Korrelation der Daten mit Kausalität verwechselt bzw. das System selbst aufgrund der Korrelationen Entscheidungen fällt. Der gesunde Menschenverstand sortiert automatisch absurde Kausalitäten aus – dies kann eine intelligente Maschine noch nicht. Hier kommen UX Professionals ins Spiel: sie haben das Wissen über den Kontext und können mit qualitativer Forschung falsche Zusammenhänge entlarven.

Deep Learning oder Neuronale Netze

Eine spezielle Form des Machine Learning ist das Deep Learning. Hier füttert man die Daten in Neuronale Netze. Mit guten Daten und geschickter Programmierung liefert Deep Learning oft sehr gute Ergebnisse, z.B. wenn es bei Banken darum geht, die Kreditwürdigkeit von Kunden zu beurteilen. Oft sind die Voraussagen des KI-Systems besser als die eines menschlichen Beraters.

Das Problem ist, dass bei den meisten dieser Systeme kein Mensch nachvollziehen kann, wie die Maschine zu ihrem Ergebnis gelangt ist. Die Bank kann dann z.B. Steve Wozniak nicht mehr erklären, warum er einen 10 mal höheren Kreditrahmen bekommt als seine Frau.

Aber wollen wir so künftig wichtige Entscheidungen Maschinen nach undurchsichtigen Kriterien überlassen?

Um vertrauenswürdige Systeme mit Künstlicher Intelligenz zu bauen, ist es wichtig zu verstehen, dass wir es fast immer mit Wahrscheinlichkeiten zu tun haben. Darüber mehr im dritten Teil unserer Miniserie «UX Design für künstliche Intelligenz: Wie KI Entscheidungen trifft».

Dieser Blogpost ist Teil unserer Miniserie UX Design für künstliche Intelligenz, basierend auf dem Zeix-Vortrag am World Usability Tag 2019.

Kommentare

Kommentar schreiben

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert