KI in der Bewerberauswahl: Effizienzgewinn oder Risiko?
Künstliche Intelligenz ist im Recruiting angekommen, vom automatisierten CV‑Screening bis zum KI‑gestützten Video‑Interview. Für Geschäftsführung, HR und Kandidat:innen stellt sich damit eine zentrale Frage: Bringt die KI wirklich fairere, bessere Entscheidungen – oder nur schnellere, aber intransparente?
Die Verlockung: Schneller, objektiver, günstiger?
Viele Anbieter versprechen, dass KI-Bewerbungen objektiv bewertet und HR von Routineaufgaben entlastet. Lebensläufe werden automatisch vorsortiert, Kandidat:innen gerankt, passende Profile vorgeschlagen.
Was nach „mehr Fairness“ klingt, hat jedoch einen Haken: Die Systeme lernen aus historischen Daten – und reproduzieren damit oft unbewusst genau die Verzerrungen, die Unternehmen eigentlich abbauen wollen (z. B. Bevorzugung bestimmter Geschlechter, Altersgruppen, Bildungswege). Ein Algorithmus, der „falsche“ Kandidat:innen systematisch aussortiert, kann im Hintergrund massiven Schaden für Arbeitgebermarke, Diversität und Innovationskraft anrichten.
Europa & Österreich: Bewerberauswahl als Hochrisiko‑Anwendung
Mit dem EU AI Act werden KI‑Systeme im Recruiting‑ und HR‑Bereich als Hochrisiko‑Anwendungen eingestuft. Das bedeutet:
- Strenge Anforderungen an Transparenz, Nachvollziehbarkeit und Risikomanagement
- Pflicht zu menschlicher Aufsicht – KI‑Entscheidungen dürfen nicht völlig autonom laufen
- Dokumentations‑ und Prüfpflichten für die eingesetzten Systeme
Parallel gilt weiterhin die DSGVO. Bewerberdaten sind besonders schützenswerte personenbezogene Daten und automatisierte Entscheidungen mit erheblicher Wirkung – etwa die Ablehnung einer Bewerbung – fallen unter Art. 22 DSGVO.
Das heißt für Unternehmen in Österreich:
- KI darf Bewerber:innen nicht vollständig automatisiert „aussortieren“, ohne dass eine qualifizierte Person die Entscheidung prüft
- Bewerber:innen müssen darüber informiert werden, dass ihre Daten durch KI verarbeitet werden und wie diese Entscheidungen zustande kommen – zumindest in verständlicher, vereinfachter Form
- Datenminimierung und Zweckbindung gelten auch hier: Bewerberdaten dürfen nicht einfach „auf Vorrat“ zum Training von Algorithmen aufgehoben werden
Diskriminierung: Wenn KI das Problem verstärkt, nicht löst
Europäische Untersuchungen zeigen, wie leicht KI in Bewerbungsprozessen diskriminierende Effekte entwickeln kann – selbst dann, wenn offensichtliche Merkmale wie Geschlecht oder Herkunft gar nicht abgefragt werden. Oft reichen scheinbar neutrale Datenpunkte wie:
- bestimmte Postleitzahlen oder Schulen
- Lücken im Lebenslauf
- berufliche Quereinstiege
- untypische Karriereverläufe
Wenn Modelle überwiegend mit „erfolgreichen“ Profilen aus der Vergangenheit trainiert werden, entsteht schnell ein unsichtbarer Filter: „Menschen, die so aussehen wie bisherige Erfolgsprofile, kommen durch – andere fallen hinten runter.“ Das kann Diversitätsziele unterlaufen, Innovation bremsen und rechtliche Risiken erhöhen.
Für Geschäftsführer:innen und HR bedeutet das: KI ist kein Garant für Objektivität. Im Gegenteil – ohne bewusste Kontrolle verstärkt sie oft genau die Muster, die man überwinden möchte.
Was Unternehmen jetzt konkret tun sollten:
KI als Unterstützung, nicht als Richter
KI sollte als Werkzeug zur Strukturierung und Vorfilterung verstanden werden, nicht als alleinige Entscheidungsinstanz. Die finale Entscheidung über Einladungen, Shortlists und Einstellungen muss bei qualifizierten Menschen liegen, die Verantwortung übernehmen.
Transparenz gegenüber Bewerber:innen schaffen
- In Stellenausschreibungen oder Datenschutzhinweisen klar kommunizieren, wo und wie KI eingesetzt wird
- Auf Anfrage verständlich erklären können, welche Rolle automatisierte Systeme gespielt haben
- Intern definieren, welche Entscheidungen nie ausschließlich automatisiert getroffen werden dürfen
Rechtliche und datenschutzrechtliche Basis klären
- Prüfen, ob die eingesetzten Tools DSGVO‑konform sind (Auftragsverarbeitungsvertrag, Löschfristen, Datenspeicherung in der EU etc.)
- Prozesse so gestalten, dass Art. 22 DSGVO respektiert wird: kein vollautomatisches „Ja/Nein“ ohne menschliche Kontrolle
- Entwicklungen zum EU AI Act verfolgen und frühzeitig Prozesse und Dokumentation darauf ausrichten
Fairness‑ und Qualitätschecks etablieren
- Regelmäßig auswerten, ob bestimmte Gruppen systematisch schlechter abschneiden
- Testläufe mit fiktiven oder anonymisierten Profilen durchführen, um unerwartete Verzerrungen sichtbar zu machen
- HR und Führungskräfte in Grundprinzipien von Algorithmik, Bias und Fairness schulen – nicht technisch, sondern pragmatisch
Fazit: Verantwortung bleibt beim Menschen
KI in der Bewerberauswahl kann sinnvoll sein – etwa um große Mengen an Bewerbungen zu strukturieren, Muster sichtbar zu machen oder Routineaufgaben zu automatisieren. Sie ersetzt aber weder menschliche Urteilskraft noch rechtliche und ethische Verantwortung.
Für Geschäftsführung, HR und Kandidat:innen gilt gleichermaßen: Nicht der Einsatz von KI an sich ist das Problem, sondern ein unreflektierter Einsatz ohne Transparenz, Kontrolle und Bewusstsein für Risiken. Wer sich dieser Verantwortung stellt, kann von neuen Technologien profitieren – ohne Fairness, Datenschutz und Unternehmensreputation aufs Spiel zu setzen.
Quellen:
AMS Österreich: Künstliche Intelligenz in der Personalauswahl (Studie der Universität Graz)
Österreichische Datenschutzbehörde: Informationen zu KI und Datenschutz
Überblick zum EU AI Act und Hochrisiko‑Systemen
Beiträge zu Diskriminierung durch KI in Bewerbungsverfahren (z. B. AlgorithmWatch/FINDHR)
