Bessere Entscheidungen mit People Analytics

Der optimale Kandidat per Datenanalyse

von - 01.04.2016
Plattformen wie Gild, Sutro oder TalentBin versprechen durch eine Kombination aus optimierten Jobprofilen und der Datenanalyse auf Social-Media-Kanälen und Stellenbörsen die optimalen Kandidaten für eine offene Position zu finden, gehen aber ebenso wenig wie Textio darauf ein, wo­rauf die Algorithmen basieren. 
Analyse mit dem Smartphone: Die App Kelaa misst unter anderem das Schlafverhalten des Nutzers und sendet die Daten anonymisiert an den Arbeitgeber.
Systeme wie Precire JobFit des deutschen Unternehmens Psyware kommen im nächsten Schritt ins Spiel, wenn es um die Vorauswahl der Kandidaten geht, die zu einem Assessment-Center oder einem Interview eingeladen werden sollen. Der Kandidat muss dazu ein 20-minütiges Telefoninterview mit der Software führen, das automatisiert ausgewertet wird. Psyware verspricht dadurch weniger Abbrüche als beim üblichen Ausfüllen von Fragebögen, eine höhere Bewerberzufriedenheit und einen um bis zu zwei Wochen kürzeren Recruiting-Prozess.
Torsten Biemann vom Lehrstuhl für Allgemeine BWL, Personalmanagement und Führung an der Universität Mannheim, sieht allerdings die Gefahr, dass sich Stellensuchende über kurz oder lang an die automatisierten Verfahren anpassen und eine „Recruiting Engine Optimization“ betreiben werden, die ähnlich wie die Suchmaschinenoptimierung (SEO) im Webseitenbereich funktioniert und Bewerbungsunterlagen auf die Algorithmen hin optimiert (siehe Interview auf der letzten Seite dieses Beitrags).
Stefanie Krügl glaubt nicht, dass das so schnell passieren wird: „Precire beispielsweise nutzt 180.000 Faktoren für die Analyse, das ist schwer zu manipulieren.“ Selbst wenn es gelänge, wäre nichts verloren, meint Krügl: „Dann haben wir eben dieselbe Situation wie heute, wo Bewerber sich von darauf spezialisierten Beratern Lebensläufe und Anschreiben designen lassen.“
Auch bei der Frage, ob es bei automatisierten Bewerbungsverfahren fairer zugeht als bei traditionellen Verfahren, gehen die Meinungen auseinander. „Quantitative Analysen können für mehr Fairness sorgen“, sagt BWL-Professor Biemann. Cornelia Reindl hat dagegen im Austausch mit dem Chaos Computer Club gelernt, dass Algorithmen nicht uneingeschränkt zu trauen ist. „Ab einer gewissen Datenmenge zeigen selbstlernende Verfahren ähnliche Diskriminierungsmuster wie Menschen.“ So könnte das scheinbar unbestechliche System beginnen, Bewerber nach Alter und Geschlecht auszusortieren. „Man muss sehr viel IT-Kompetenz besitzen und die Ergebnisse der Auswahlverfahren kritisch hinterfragen, um solche Fehlentwicklungen erkennen zu können.“
Verwandte Themen