Datenbasierte Personalentscheidungen ohne Diskriminierung
Ein Tech-Unternehmen aus München hat sein Bewerbungsverfahren mit KI optimiert. Nach sechs Monaten stellte sich heraus: Das System bevorzugte systematisch männliche Kandidaten, weil es mit historischen Daten trainiert wurde – und die Firma hatte in der Vergangenheit hauptsächlich Männer eingestellt. Klassischer Bias-Fehler.
Wo KI im HR helfen kann
CV-Screening für Standardpositionen funktioniert gut. Die KI filtert nach objektiven Kriterien: relevante Berufserfahrung, erforderliche Skills, Sprachkenntnisse. Das spart Zeit und sorgt dafür, dass keine Bewerbung übersehen wird. Ein mittelständischer Arbeitgeber reduzierte seine Time-to-Hire von 45 auf 28 Tage.
Die Risiken verstehen
Jedes KI-System reproduziert Muster aus den Trainingsdaten. Wenn diese Daten bestehende Ungleichheiten widerspiegeln, wird die KI diese verstärken. Wir analysieren drei Fälle, in denen große Unternehmen deshalb ihre KI-Systeme wieder abgeschaltet haben.
Sie lernen Fairness-Metriken kennen: Demographic Parity, Equal Opportunity, Disparate Impact. Diese mathematischen Konzepte helfen, Diskriminierung messbar zu machen. Wir verwenden die Fairlearn-Library von Microsoft, um Bias in realen Datensätzen aufzudecken.
Rechtliche Rahmenbedingungen: AGG, DSGVO und die kommende EU-KI-Verordnung. Welche Dokumentationspflichten haben Sie? Was müssen Bewerber wissen?