Datenbasierte Personalentscheidungen ohne Diskriminierung

Jederzeit verfügbar
790 EUR
Datenbasierte Personalentscheidungen ohne Diskriminierung

Ein Tech-Unternehmen aus München hat sein Bewerbungsverfahren mit KI optimiert. Nach sechs Monaten stellte sich heraus: Das System bevorzugte systematisch männliche Kandidaten, weil es mit historischen Daten trainiert wurde – und die Firma hatte in der Vergangenheit hauptsächlich Männer eingestellt. Klassischer Bias-Fehler.

Wo KI im HR helfen kann

CV-Screening für Standardpositionen funktioniert gut. Die KI filtert nach objektiven Kriterien: relevante Berufserfahrung, erforderliche Skills, Sprachkenntnisse. Das spart Zeit und sorgt dafür, dass keine Bewerbung übersehen wird. Ein mittelständischer Arbeitgeber reduzierte seine Time-to-Hire von 45 auf 28 Tage.

Die Risiken verstehen

Jedes KI-System reproduziert Muster aus den Trainingsdaten. Wenn diese Daten bestehende Ungleichheiten widerspiegeln, wird die KI diese verstärken. Wir analysieren drei Fälle, in denen große Unternehmen deshalb ihre KI-Systeme wieder abgeschaltet haben.

Sie lernen Fairness-Metriken kennen: Demographic Parity, Equal Opportunity, Disparate Impact. Diese mathematischen Konzepte helfen, Diskriminierung messbar zu machen. Wir verwenden die Fairlearn-Library von Microsoft, um Bias in realen Datensätzen aufzudecken.

Mitarbeiterentwicklung ist ein besserer Anwendungsfall: KI identifiziert Skill-Gaps und schlägt passende Weiterbildungen vor. Weniger problematisch als Hiring, weil die Entscheidungen weniger folgenreich sind.

Rechtliche Rahmenbedingungen: AGG, DSGVO und die kommende EU-KI-Verordnung. Welche Dokumentationspflichten haben Sie? Was müssen Bewerber wissen?