Fair Play - Das Zusammenspiel von Mensch und Maschine im Recruiting
24.03.2020
Von Larissa Fuchs, Universität zu Köln
Zur Gleichheit der Möglichkeiten - Recruiting fair(er) gestalten
In einer globalen und digital vernetzten Welt spielen Aspekte wie Diskriminierung und Fairness eine wesentliche Rolle. Ungleichheit und fehlende Transparenz in Prozessen prägen nicht nur das Zusammenleben in unserer Gesellschaft, sondern sind auch zentrale Herausforderungen im Arbeitsmarkt. Chancengleichheit ist längst nicht mehr nur ein Begriff, sondern wird auch vermehrt in Gesetzen konkretisiert. Neben den „Sustainable Development Goals“ der Vereinten Nationen finden sie auch in Deutschland im Rahmen des Allgemeinen Gleichstellungsgesetztes Einzug. In diesem Gleichstellungsgesetz ist unter anderem festgelegt, dass Merkmale wie beispielsweise Geschlecht, Herkunft oder Religion nicht zu Benachteiligungen führen dürfen.
Im Rahmen des FAIR Verbundprojektes, gefördert durch das Land NRW und die Europäischen Kommission, wird erforscht wie Entscheidungsprozesse im Recruiting mit Hilfe automatisierter Einstellungsprozesse fairer gestaltet werden können. Um zu evaluieren, ob und inwieweit Algorithmen zur Verbesserung der Chancengleichheit beitragen, muss zunächst allerdings ein einheitliches Verständnis von Diskriminierung geschaffen werden. Eine konkrete Definition des Begriffes bildet demnach die Basis für diese Fragestellung.
… handle ich „fair“ wenn ich nicht diskriminiere?
Ein Konzept von Fairness zu entwickeln ist sehr komplex. So kann beispielsweise die unterschiedliche Behandlung von Männern und Frauen im Einzelfall gerechtfertigt sein, wenn dadurch auf angemessene Weise einer bestehenden Diskriminierung entgegengewirkt wird. Wie sollen Unternehmen nun rechtskonforme, effiziente und faire Entscheidungen treffen?
Irren ist menschlich - deshalb ist es auch natürlich, dass in Auswahlprozessen nicht alle Entscheidungen frei von Fehlern sind. Treten Fehler jedoch wiederholt auf und gehen vermehrt zu Lasten einer bestimmten Gruppe, kann dies ein Anzeichen für eine bestehende und systematische Diskriminierung sein.
Der FAIR Index macht Diskriminierungsneigungen von Algorithmen und Menschen in Bewerbungsprozessen messbar. So erhöht der FAIR Index die Transparenz über den Status Quo und zeigt auf, wie sich Muster über Zeiträume hinweg entwickeln und gegebenenfalls verbessern.
Der FAIR Index - Diskriminierung sichtbar machen
Unternehmen müssen täglich tausende Entscheidungen treffen. Um langfristig im Markt zu bestehen, ist es wichtig Fehlentscheidungen so klein wie möglich zu halten. Im Rahmen des Begriffe Diskriminierung und Fairness wird oft von Quoten gesprochen. Aber ist ein simpler Indikator wie statistische Parität, welche die Gleichheit der Anzahl über die Gruppen fordert, aussagekräftig genug für das komplexe Fairness-Konstrukt? Wenn sich auf eine Stelle deutlich mehr Männer als Frauen bewerben, so sagt die statistische Parität nicht nur wenig über potenzielle Diskriminierung aus, son-dern deutet die Informationen gegebenenfalls falsch herum.
… Chancengleichheit als Maß der Dinge
Der FAIR Index berücksichtigt Selektion und deckt bestehende Tendenzen diskriminierungssensibler Faktoren auf. Equality of Opportunity verlangt nach einer Ausgeglichenheit zwischen Gruppen. Es stellt sich die Frage: Wer wurde fälschlicherweise eingestellt und wer wurde vielleicht übersehen?
Eine mögliche Annäherung daran, solche Fehler im Recruiting-Prozess künftig zu minimieren, bieten eignungsdiagnostische Verfahren, aber auch der CASE Score von candidate select. Der CASE Score sorgt für eine Vergleichbarkeit zwischen den Bewerber*innen entsprechend ihres Studienortes und Faches und kann so als zusätzliche Informationsquelle herangezogen werden. Wenn Unterschiede zwischen Gruppen durch die Messung sichtbar sind und diese nicht auf die erwartete Leistung zurückzuführen sind, kann das ein Indiz für die systematische Benachteiligung bestimmter Gruppen sein.
Die Abbildung zeigt das Ausmaß der Diskriminierung auf einer Skala von 0 bis 100 ab. Ein FAIR Index von 0 bedeutet, dass die Anzahl der „fälschlicherweise“ eingestellten und nicht eingestellten Bewerber*innen über das Kriterium hinweg gleich ist. Am Beispiel des biologischen Geschlechts würde dies bedeuten, dass genauso viele Männer wie Frauen den Job „fälschlicherweise“ nicht bekommen haben beziehungsweise „fälschlicherweise“ eingestellt wurden. Das Extrem von 100 deutet auf eine vollständige Diskriminierung der jeweiligen Gruppe hin, entweder hinsichtlich ihres Geschlechtes oder ihrer Herkunft.
Gemeinsam zum besten Ergebnis
Damit Menschen Entscheidungen mit Maschinen treffen oder die Entscheidung sogar abgeben können, ist es wichtig ethische Aspekte zu berücksichtigen. Oft wird befürchtet, dass Recruiting-Algorithmen der Gegenwart die Diskriminierung aus der Vergangenheit fortschreiben. Aus dieser Angst heraus werden jedoch häufig die zahlreichen Vorteile der Technik übersehen und wie wir sie für uns nutzen können.
Im Zeitalter der Digitalisierung sinken die Kosten für eine Bewerbung. Recruiter sehen sich Hunderten von Lebensläufen gegenübergestellt. Aufgrund dessen bleibt oft nur wenig Zeit, den Lebenslauf der jeweiligen Bewerber*innen individuell zu beurteilen. Anders als Menschen können Algorithmen, Entscheidungen unabhängig von Empfindungen wie Stress, Müdigkeit oder unbewussten Assoziationen treffen. Dabei muss aber transparent aufgezeigt werden anhand welcher Kriterien Algorithmen arbeiten und diese müssen fortlaufen evaluiert werden, z.B. auf Basis des FAIR Index.
Ob unbewusst oder bewusst - kleine Fehlentscheidungen oder Unaufmerksamkeiten setzen sich in der Unternehmensstruktur fort und addieren sich über die Zeit auf. Gerade hier kann die Neutralität eines Algorithmus genutzt werden und so können, wie in dem FAIR Projekt vorgesehen, Lebenslaufstationen der Bewerber*innen in Sekundenschnelle gedeutet werden.
Die Neutralität des Algorithmus mit der Empathie des Menschen vereinen und zusammen den Bewerbungsprozess FAIR(ER) zu gestalten – das ist das Anliegen dieses Projekts. Wir finden: Better Together!