Nach oben

Bessere Bewerberauswahl mit Maschinen?

Sollen Mitarbeitende und die passenden Jobs zueinander finden, spielen viele Aspekte eine Rolle. Fakten, Tagesform und Emotionen kommen von beiden Seiten ins Spiel. Worauf es ankommt, damit künstliche Intelligenz in diesem allzu menschlichen Prozess einen Mehrwert bieten kann.

Macht AI das "Cherrypicking" der besten Bewerber'innen einfacher? Photo by Manu Camargo on Unsplash

Als Recruiter müssen Sie wissen, welche Stärken und Kompetenzen Sie genau für die offene Position brauchen, Fachwissen über Abschluss- und Jobniveaus haben, Fakten schnell und richtig verarbeiten, Menschenkenntnis, Urteilskraft und Fairness anwenden. Ihre Laune und Tagesform müssen passen. Auf der anderen Seite muss die Bewerberin in ihren Unterlagen den richtigen Ton getroffen haben, im richtigen Zeitraum verfügbar sein und sich in Bestform beim Bewerbungsgespräch oder Assessment präsentieren. Nun soll die Automatisierung in diesem so menschlichen Prozess einen Mehrwert bringen. Diese Fakten über KI sollten Sie kennen, wenn Sie sich mit KI-unterstützter Rekrutierung auseinandersetzen:

Märchen von der fairen Maschine

Neue Systeme, die auf künstlicher Intelligenz beruhen, sollen verschiedene Probleme im HR lösen. Zum einen sollen sie Personalabteilungen unterstützen, die mit einer grossen Flut von Bewerbungen klarkommen müssen. Hier soll das System eine Vorauswahl treffen. Ausserdem entscheiden sich Menschen oft nach ihren persönlichen Vorlieben. Ein intelligentes System soll den Auswahlprozess gerechter machen, indem es «unemotional» und ohne persönliche Vorlieben geeignete Kandidat’innen vorschlägt. Dass das nicht so einfach ist, zeigen prominente Beispiele, wie das Recruiting-System, das Amazon entwickelt hat.

In der Pilotphase stellte sich heraus, dass das Rekrutierungstool Frauen bei der Vorauswahl benachteiligt. Obwohl das Tool nicht anhand von Namen auf das Geschlecht schliessen konnte, entdeckte das Testteam, dass z.B. Absolventinnen von Women-only Colleges automatisch als weniger geeignet eingestuft wurden. Die Entwickler’innen versuchten zwar, das System «umzutrainieren», das gelang aber nicht. Amazon hat das Projekt eingestellt, bevor das Tool in Betrieb ging.

KI-Rekrutierungstools werden mit vielen Daten gefüttert: die Entwickler’innen versuchen zum Beispiel, geeignete Kandidat’innen daran zu erkennen, dass sie ähnliche Lebensläufe wie bereits erfolgreiche Mitarbeitende haben. Das Tool lernt dann mit immer neuen Daten erfolgreicher Personen im Unternehmen weiter dazu. – Das Grundproblem: die Datensätze enthalten nur Daten von Personen, für die sich das Unternehmen in der Vergangenheit bereits entschieden hat.  Soll ein Rekrutierungstool nicht dasselbe Problem wie Amazon haben, müssen sich die Personalverantwortlichen genau überlegen, wie sie ihr System «trainieren» möchten. Füttern Sie Ihr Tool mit Daten aus der Vergangenheit und es gab bisher nur wenige Frauen im Management, dann wird das System auch weiterhin nur wenige Frauen für Führungspositionen vorschlagen. Wenn die Datenmenge zu klein oder verzerrt ist, dann könnte es zudem passieren, dass die Maschine annimmt, dass erfolgreiche Manager vorzugsweise schlecht in Mathe und gut in Sport sind – denn «Intelligente» Systeme können (noch) nicht zwischen Korrelation und Kausalität unterscheiden.

Persönlichkeitschecks kritisch betrachten

Bei Dimensionen wie dem «Cultural Fit»wird es für das KI-System noch schwieriger. Es gibt Systeme, die Persönlichkeitsmerkmale wie Selbstbewusstsein oder die Risikobereitschaft von Bewerber’innen zu analysieren versuchen. Das System wertet dazu beispielsweise Videos aus, die die Kandidat’innen erstellen müssen. Andere werten die öffentlich zugänglichen Social Media Profile der Bewerber’innen aus und ziehen daraus Rückschlüsse auf Persönlichkeit und den Gesundheitszustand. Hier gibt es viele offene Fragen – zur Verlässlichkeit und zur Ethik. Die Hersteller sagen, dass diese Analysen auf fundierten, psychologischen Theorien beruhen. Das mag sein – aber auch psychologische Theorien können Biases enthalten. Werden Social Media Posts aus dem Zusammenhang gerissen, geben auch sie oft ein völlig falsches Bild wieder: z.B. Ironie und Sarkasmus erkennen Maschinen nur sehr schlecht. Die Online-Persönlichkeit eines Menschen weicht ausserdem oft stark von seiner realen Persönlichkeit ab. Die Daten sind also nicht zuverlässig und die Methoden teilweise ungeeignet.

Verlassen Sie sich bei der Rekrutierung unkritisch auf KI-Analysen, besteht die Gefahr, dass Sie komplett falsch liegen.

Bessere Daten für bessere Entscheide

Menschliche Rekrutierende sind natürlich auch nicht objektiv. Auch sie werfen vielleicht vor dem Bewerbungsgespräch einen Blick auf die Social Media Profile der Bewerber’innen. Diese Kritik an KI-Rekrutierungstools soll also nicht heissen, dass ein intelligentes Recruiting-System nicht auch gerechtere Entscheidungen als ein Mensch treffen könnte.  Aber im Moment schiessen intelligente Rekrutierungssysteme wie Pilze aus dem Boden und sind auf bestem Wege, eins der neuen Flaggschiffe für digital transformierte Unternehmen zu werden.

Eventuell wird sich irgendwann daraus der «Mercedes unter den Rekrutierungssystemen» herauskristallisieren und viele grosse Firmen werden dasselbe System benutzen – das anonym auf den gleichen Datenbestand zugreift. Dann kann es passieren, dass einzelne Menschen oder auch ganze Gruppen nirgendwo mehr einen Job bekommen, weil das System sie aus nicht nachvollziehbaren Gründen «nicht mag».

Investieren wir nicht heute in das richtige Datendesign, bleibt auch das modernste intelligente System in der Vergangenheit stecken.

Kinderstube für KI gefragt

Eine gute «Erziehung» für KI-Tools tut not. Nur so können sie uns Menschen beim Design der Arbeitswelt von morgen unterstützen. Die Daten müssen neue Anforderungen der Arbeit mit KI berücksichtigen können, z.B. Innovationsfähigkeit, Frustrationstoleranz und Empathie. Gesellschaftliche und soziale Werte müssen genauso einfliessen, wie Mechanismen, um Beurteilungsfehler nachträglich zu beseitigen («Design abseits des Happy Path»). Solche Designprinzipien können uns davor bewahren, dass wir Menschen ausschliessen, die irgendwie nicht in die «Raster» der Vergangenheitsdaten passen. Denn die hätten sonst bei keiner dieser Firmen eine Chance. Bei einer menschlichen Personalerin kann der Bewerber immer noch zur nächsten Firma gehen und hoffen, dass diese anders urteilt.

Human-Centered Design für Unternehmen

Unternehmen sind letztlich Zusammenschlüsse von Menschen, die Leistungen für alle anderen erbringen. Nun haben wir es mit einer sehr mächtigen, potentiell sehr nützlichen, aber auch gefährlichen Technologie zu tun, die auf die Zusammensetzung des Teams in Unternehmen Einfluss haben werden. Ich bin sicher, dass die Firmen, die derzeit solche Rekrutierungssysteme entwickeln, überhaupt nicht abschätzen können (oder wollen), was das in Zukunft für Bewerber’innen, Unternehmenskulturen und die Gesellschaft bedeutet. Sie rechtfertigen sich damit, dass sie ja nur Vorschläge machen und der Mensch immer noch entscheiden muss. Wie bei selbstfahrenden Autos: Auch hier ist immer noch der Fahrer selbst schuld, wenn etwas passiert.

Die «intelligenten» Systeme sind oft viel dümmer als der User annimmt.

Wenn es aber bequem ist, werden sich die Recruiter’innen immer mehr auf die Maschine verlassen. Deshalb sollten Sie als HR-Strateg’in von Anfang an genau hinschauen: Es ist ein Trugschluss, dass es ausreicht, die Kriterien transparent zu machen, nach denen das KI-System entscheidet (was oft auch gar nicht möglich ist). Einfache Kriterien sind oft viel zu einseitig und führen zu einer Gleichmacherei. Das haben wir ja teilweise schon bei Anschreiben mit Standardfloskeln. Inzwischen gibt es Anleitungen im Internet, die zeigen, wie man seine Bewerbung maschinentauglich macht. Damit wird es schwierig, die besten Köpfe für die Herausforderungen der Zukunft zu rekrutieren.

Oft ist es deshalb sinnvoll, wenn das System vom Menschen lernt.

Die Rekrutierenden müssen dem KI-Tool mitteilen können, wenn sie nicht einverstanden sind mit dem Vorschlag und das System lernt daraus. Dies bringt umgekehrt die Gefahr mit sich, dass das System die Vorurteile der Rekrutierenden übernimmt. Es ist wichtig, solche Grenzen der KI zu kennen.

Um ein effektives und ethisches System zu bauen, gehören die Möglichkeiten und Schwächen von Menschen (sowohl die Rekrutierenden als auch die Bewerberinnen und Bewerber) in den Mittelpunkt. Ich bin sicher, dass wir KI-Systeme so bauen können, dass sie sowohl die Arbeit der HR-Abteilung sinnvoll unterstützen, als auch die Bedürfnisse der Bewerber’innen respektieren. Aber da liegt noch viel Arbeit vor uns – und ein sorgfältiges Requirements Engineering.

KI-Analysen der besten Arbeitgeber

Nicht für jeden Job biegen sich die Tische vor Bewerbungsdossiers. High Potentials, Top-Manager’innen und Personen mit raren Qualifikationen dürften von KI-Tools profitieren – auch dafür müssen HR-Strategen vorbereitet sein. Plattformen wie kununu oder glassdoor helfen ihnen heute schon dabei zu entscheiden, wo sie sich bewerben sollen. Welche Unternehmen werden von Mitarbeitenden als fair und sozial bewertet, wo herrscht ein gutes Arbeitsklima? Stellen Sie sich nun vor, kununu würde mit Hilfe von KI und öffentlich zugänglichen Informationen Jobsuchenden in Zukunft Fragen beantworten wie:

  • Wie viele Frauen gibt es im Management, hast du da eine Chance?
  • Wie lange bleiben Mitarbeitende bei dieser Firma? (z.B. aus LinkedIn-Profilen)
  • Gibt es viele Mitarbeitende mit Burnout und Depressionen?
  • Gibt es sexuelle Belästigung am Arbeitsplatz? (z.B. aus Tweets der Mitarbeitenden)

und würde den potenziellen Bewerber’innen daraufhin passende Vorschläge erstellen.

Da stellt sich die Frage, ob die Unternehmen im Kampf um die High Potentials darauf vorbereitet sind.

Gemeinsam ein Dream Team

Damit wir uns richtig verstehen: ich freue mich auf die KI-unterstützten Prozesse der nächsten Jahre. Es sollte nicht darum gehen, menschliche Rekrutierende durch KI zu ersetzen, sondern sie in ihrer Arbeit zu unterstützen. Aber für unsere künftige Lebens- und Arbeitsqualität lohnt es sich auf jeden Fall alles, auf dem «Künstliche Intelligenz» (KI) draufsteht, kritisch zu hinterfragen.

Dieser Gedankengang erschien im August 2019 als Interview im «HSG-Career».

Kommentare

Kommentar schreiben

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.