Künstliche Intelligenz ist im Alltag mittlerweile allgegenwärtig, verdeckt in Form von Social-Media-Algorithmen, die darüber entscheiden, welche Inhalte wir ausgespielt bekommen, offensichtlicher als Chatbots im Kundensupport oder tagtäglich bei der Gesichtserkennung mobiler Endgeräte. Hier steht die Effizienzsteigerung und Verbesserung der Kundenerfahrung im Vordergrund. Abgesehen davon bieten Algorithmen ebenfalls die Chance, Diskriminierungen einzudämmen.
Diskrimierung im Einstellungsverfahren – der Status Quo
Nach wie vor sind Diskriminierungen bei der Jobsuche ein ernstzunehmendes Problem. So waren laut einer Befragung im Auftrag der Antidiskriminierungsstelle des Bundes von 4.000 Diskriminierungsfällen 23,9 Prozent dem Einstellungsverfahren zuzuordnen. Insgesamt 41 Prozent der Beratungsfälle, mit welchen sich die Antidiskriminierungsstelle befasst, beziehen sich auf das Arbeitsleben. Davon macht der Zugang zur Arbeit wiederum ein Drittel aus. Generell sind Vorurteile und Stereotype im Umgang miteinander üblich; die Jobsuche bildet hier keine Ausnahme. Nicht zuletzt bei den Unconscious Biases (unbewusste Vorurteile) oder Gender Biases (Geschlechtervorurteile/Stereotype) gibt es Verbesserungsbedarf.
Schafft KI Abhilfe gegen Diskriminierung bei der Jobsuche?
Die Künstliche Intelligenz befindet sich in vielen Bereichen noch in den Anfängen; auch, was das Recruiting anbetrifft, ist sie noch nicht komplett ausentwickelt. Gleichwohl ist anzunehmen, dass KI bei fortschreitender Entwicklung zu einem wichtigen Faktor bei der Stellenbesetzung werden kann. Wie in vielen Bereichen, so hat die Corona-Krise 2020 auch dort der Digitalisierung Vorschub geleistet und die Einführung neuer Methoden beschleunigt. Mögliche Anwendungsbereiche erstrecken sich mittlerweile bis hin zur Untersuchung von Kandidat*innenprofilen auf Handlungsweisen und Wertevorstellungen sowie deren Kompatibilität mit dem ausschreibenden Unternehmen – dem sogenannten Cultural Fit.
Das FAIR Projekt
Einen interessanten Ansatz für den Einsatz von KI gegen Diskriminierung und mehr Chanchengleichheit bei der Eignungsdiagnostik liefert das Projekt FAIR (Fair Artificial Intelligence Recruiting). Das Projekt wurde durch candidate select (CASE) und der Universität zu Köln, durchgeführt im Zeitraum vom 01. Januar 2020 bis zum 31. Dezember 2021, ins Leben gerufen. Die Zielsetzung von FAIR ist es, Diskriminierungsfaktoren im Recruiting durch den Einsatz von Algorithmen sowohl systematisch zu erkennen als auch zu beseitigen. Die EU sowie das Land NRW unterstützen das Projekt mit Fördermitteln. jobvalley ist assoziierter Projektpartner von FAIR.
Wo setzt FAIR mit seiner KI an?
FAIR hat sich zur Aufgabe gemacht, einen nachweislich fairen Algorithmus zu entwickeln und zu validieren, um den Status Quo rund um die Diskriminierung zu verbessern. Der FAIR-Algorithmus hilft bei der Vorselektion unbewusster Bias (Unconscious Biases) oder Geschlechtervorurteile (Gender Biases). Also ein KI-basiertes Recruitingtool, das nicht nur effizient, sondern darüber hinaus auch diskriminierungsfrei arbeitet.
Ist KI zu 100 % objektiv?
Künstliche Intelligenz ist in der Theorie frei von Vorurteilen und somit objektiver als ein Mensch. Jedoch sind Algorithmen, mithin auch solche für die Vorauswahl von Kandidatinnen und Kandidaten, auf Input bzw. Informationen angewiesen. Sie werden demnach auf Basis vorhandener Daten trainiert, sollen natürlich keinesfalls existierende Diskriminierungen übernehmen. FAIR möchte dem mit dem FAIR-Index entgegenwirken.
Dieser kann sowohl menschengemachte als auch algorithmenbasierte Diskriminierungen aufdecken, indem er abbildet, welche Personen „zu unrecht” eingestellt wurden und ob eventuell geeignete Kandidat*innen keine Beachtung fanden. Auch wenn Abweichungen nicht immer problematisch sind, ist eine kontinuierliche Benachteiligung spezifischer Personengruppen ein Hinweis auf systematische Benachteiligung. Algorithmen, welche derartige Diskriminierungen übernehmen, kann der FAIR-Index identifizieren. Sie lassen sich in der Folge anpassen, was zu einer Steigerung des Fairnessgrades im Recruiting führt.
KI als unterstützende Instanz im Recruitingprozess
Recruiter sind Profis, aber auch Menschen. Als solche können sie sich auch trotz ihrer Erfahrung und spezieller Trainings nicht vollkommen von (unbewussten) Vorurteilen freisprechen. Indikatoren auf die Herkunft, das Geschlecht oder auch Foto können die Entscheidung beeinflussen; nicht ohne Grund wird in einigen Gesellschaften im Bewerbungsprozess kategorisch darauf verzichtet. KI kann Recruiter beim Lebenslaufscreening unterstützen, (besser) passende Profile vor dem vorschnellen Ausschluss bewahren und somit mehr Bewerberinnen und Bewerber zu fairen Einstellungschancen verhelfen.
Gleichzeitig eröffnen Systemlösungen dieser Art Unternehmen zu mehr Effizienz und Flexibilität, was insbesondere in Zeiten von Remote Work einen echter Pluspunkt darstellt.