Bevorzugt ein Bewerbungs-Algorithmus Männer, weil frühere Daten mehr männliche Bewerber enthielten – stimmt dieses Bias-Argument?

Antwort vom

Teilweise stimmt es – aber nur als **Erklärungsmöglichkeit**, nicht als automatisch gültiges Argument. - **Ja, plausibel:** Wenn ein Modell aus historischen Einstellungs-/Bewerbungsdaten lernt und diese Daten (oder die damaligen Entscheidungen) Männer systematisch überrepräsentieren, kann es diese Muster übernehmen und Männer **bevorzugen**. Das passiert z.B., wenn „erfolgreich eingestellt“ als Zielvariable dient und frühere (möglicherweise verzerrte) Entscheidungen nachgebildet werden, oder wenn Merkmale als Proxy für Geschlecht wirken (bestimmte Stationen, Begriffe, Karriereverläufe). - **Aber: „Mehr männliche Bewerber“ allein reicht nicht:** Eine bloße höhere Anzahl männlicher Bewerbungen führt nicht automatisch zu einer Bevorzugung. Das Modell könnte auch einfach nur die **Basisrate** abbilden (mehr Männer im Pool), ohne einzelne Frauen schlechter zu bewerten. Bevorzugung entsteht typischerweise durch **Label-/Entscheidungsbias**, **Feature-Proxies**, **Sampling-/Messfehler** oder eine **Optimierung**, die historische Ungleichheiten verstärkt. **Fazit:** Das Argument ist als grobe Intuition verständlich, aber in der Form zu kurz. Korrekt wäre: *Ein Algorithmus kann Männer bevorzugen, wenn die Trainingsdaten oder Zielgrößen/Features historische Verzerrungen enthalten oder Proxies für Geschlecht nutzen – nicht allein, weil früher mehr Männer beworben haben.*

Neue Frage stellen

Verwandte Fragen

Was ist Disparate Impact, wie zeigt er sich konkret, was bedeutet Fairness und wie lässt sie sich verbessern?

**Disparate Impact (auch: „mittelbare Diskriminierung“ / „indirekte Benachteiligung“)** Disparate Impact bedeutet: Eine Regel oder ein Modell wirkt *formal für alle gleich...