KI im Bewerbungsverfahren

KI im Bewerbungsverfahren, Foto: AdobeStock / denisismagilov
KI im Bewerbungsverfahren, Foto: AdobeStock / denisismagilov

Künstliche Intelligenz kommt immer häufiger im Bewerbungsverfahren zum Einsatz. Eingehende Bewerber*innen-Daten werden durch die Technik gefiltert und geordnet. Doch diese Vorgehensweise ist nicht unumstritten und mit einer Menge Problemen behaftet. Lernen die Algorithmen doch mit vorhandenen Daten. von Christoph Berger

Es ist ein großes Versprechen, dass Entwickler von Künstlicher Intelligenz machen: Durch ihren Einsatz soll es zu weit besseren Entscheidungen kommen als wenn diese Menschen treffen würden. Die Entscheidungen würden zudem effizient und transparent getroffen. Dies gelte auch bei der Auswahl von Kandidat*innen für zu besetzende Stellen in Unternehmen. Doch sind solche „Bewerbungsalgorithmen“ tatsächlich frei von Diskriminierungen? „Die Gefahr einer solchen Diskriminierung besteht bei Bewerbungsalgorithmen ganz klar“, sagt Prof. Dr. Tobias Matzner, Professor für Medien, Algorithmen und Gesellschaft an der Universität Paderborn. „Geht es direkt um die Bewertung, müssen Beispiele für „gute Mitarbeiter“ oder „qualifizierte Mitarbeiter“ gefunden werden. Schon die Kriterien hierfür können verzerrend sein, wenn zum Beispiel bestimmte Verhaltensweisen oder kulturelle Codes implizit vorausgesetzt werden“, erklärt Matzner weiter. Selbst wenn sich hier einigermaßen objektive Kriterien zur Bewertung finden lassen könnten, sei das Problem, dass die Beispiele, die es schon gebe, existierende Diskriminierungen abbilden würden. In einem Betrieb, der tendenziell mehr Männer einstelle, werde die Mehrheit der Hochqualifizierten männlich sein, so der Wissenschaftler.

Auch Dr. Jessica Heesen, Leiterin des Forschungsschwerpunkts Medienethik und Informationstechnik am Internationalen Zentrum für Ethik in den Wissenschaften der Eberhard Karls Universität Tübingen erkennt ein reales Risiko für Diskriminierungen durch den Einsatz von Algorithmen für die Personalauswahl. „Zum Beispiel kann es sein, dass es „Lücken“ in einem beruflichen Lebenslauf gibt aufgrund von Betreuungszeiten für Kinder oder kranke Verwandte. Diese Lücke kann durch einen Bewerbungsalgorithmus detektiert und schlecht bewertet werden, ohne den Kontext zu kennen.“ Das könne auch passieren, wenn eine menschliche Personalverantwortliche die Entscheidung treffe, ergänzt sie. „Aber hier gibt es doch eine bessere Chance, den Kontext in den Blick zu nehmen und gegebenenfalls gerade einen solchen Aspekt positiv oder zumindest nicht negativ zu bewerten.“

Transparenz gewährleisten

Sollte KI im Kontext dieser Argumente gänzlich aus dem Bewerbungsprozess rausgehalten werden? „Um einer ungerechtfertigten Schlechterstellung von Menschen durch Algorithmen vorzubeugen, gibt es verschiedene Maßnahmen. Dazu gehören die Sicherstellung einer hohen Qualität der Trainingsdaten, die Durchführung von Überprüfungen durch zum Beispiel Audits und entsprechend die rechtlichen Regulierungsanforderungen, um diese Maßnahmen in der Praxis verpflichtend zu machen“, sagt Jessica Heesen. Vor diesem Hintergrund sei es gut möglich, ADM-Systeme (ADM – Algorithmic Decision Making) bei der Personalauswahl zu nutzen, die menschliche Entscheidungen besser machen könnten. Doch: Die Auswahl sollte nie nur auf ein ADM-System zurückgehen. Und wenn ein solches System einbezogen werde, sollten die Bewerber*innen darüber in Kenntnis gesetzt werden.

Das zentrale Problem ist nicht, dass Algorithmen mehr oder weniger diskriminieren als Menschen, sondern anders.

Weniger optimistisch bewertet Tobias Matzner den KI-Einsatz: „Das zentrale Problem ist nicht, dass Algorithmen mehr oder weniger diskriminieren als Menschen, sondern anders.“ Zwar würden sich mittels Algorithmen tatsächlich einige Probleme, so man sie denn bedenkt, gut ausblenden lassen. Dafür würden neue auftreten. Matzner sagt: „In ADS (algorithmic decision-making systems) entstehen zum Beispiel oft sogenannte Stellvertreter-Merkmale (proxies). Hier korrelieren Zusammensetzungen von diversen, vermeintlich harmlosen Merkmalen mit gesetzlich geschützten Eigenschaften wie Geschlecht oder Herkunft. Oft sind diese Kombinationen aber so komplex, dass sie von Menschen nur schwer als diskriminierend zu durschauen sind.“ Zudem hätten Algorithmen einen anderen Impact: Beispielsweise habe ein sexistischer Personaler nur Einfluss auf die Entscheidungen, die über seinen Tisch gehen würden. Ein sexistischer Algorithmus betreffe hingegen das gesamte Unternehmen. Oder je nach Verbreitung sogar viele Unternehmen.

Zwingende Überprüfungen

Tobias Matzner hält eine unabhängige Überprüfung der Algorithmen daher für zwingend erforderlich. Eine Auditierung müsse alle Elemente – Grundannahmen, Modell, Einsatzformen und so weiter – in Zusammenhang stellen. Er sagt: „Dazu kommt: Gerade datengetriebene Systeme können während der Anwendung diskriminierende Eigenschaften entwickeln. Ein Audit a priori kann also nur einen Teil der Probleme erfassen. Deshalb muss eine solche Maßnahme immer ergänzt werden mit einem Recht auf Auskunft, Beschwerdestellen oder andere Maßnahmen, an die sich potenziell Betroffene wenden können.“

Europäische Union: Excellence and trust in artificial intelligence

Auch Jessica Heesen fordert eine transparente und nachvollziehbare Auditierung. Sie erklärt: „Im Regulierungsvorschlag für Künstliche Intelligenz (KI) der EU vom April 2021 werden vier Risikokategorien zur Klassifizierung von KI vorgeschlagen. Algorithmische Entscheidungssysteme werden sehr häufig mit KI-Anwendungen kombiniert. Die Nutzung von KI im Personalmanagement wird hier explizit als „hohes Risiko“ eingestuft, weil es hierbei um die Realisierung von Lebenschancen geht.“ KI-Anwendungen mit einem hohen Risiko würden nach diesem Regulierungsvorschlag einer Konformitätsbewertung unterliegen und müssen registriert werden. Für diese Bewertung kämen dann unabhängige Stellen in Frage, aber auch eine Durchführung der Überprüfung in eigener Verantwortung sei denkbar. Laut Heesen sei der Vorschlag hier noch nicht eindeutig. „Welche Modelle für die Auditierung genutzt werden sollten, kann jetzt noch nicht zufriedenstellend beantwortet werden. Dazu brauchen wir noch weitere Diskussionen in Wissenschaft und Gesellschaft sowie Regulierungs- und Standardisierungseinrichtungen.“