Teilweise stimmt es – aber nur als **Erklärungsmöglichkeit**, nicht als automatisch gültiges Argument. - **Ja, plausibel:** Wenn ein Modell aus historischen Einstellungs-/Bewerbu...
**Disparate Impact (auch: „mittelbare Diskriminierung“ / „indirekte Benachteiligung“)** Disparate Impact bedeutet: Eine Regel oder ein Modell wirkt *formal für alle gleich*, führt aber *in der Wirkung* dazu, dass bestimmte geschützte Gruppen (z. B. nach Geschlecht, Alter, Behinderung, ethnischer Herkunft) systematisch schlechtere Ergebnisse bekommen – ohne dass die Gruppe explizit als Kriterium verwendet wird. Entscheidend ist also die **Auswirkung**, nicht die Absicht. **Wie kann das konkret aussehen? (Beispiele)** - **Hiring/Recruiting:** Ein Unternehmen filtert Bewerbungen nach „lückenlosem Vollzeitverlauf“. Das benachteiligt z. B. überproportional Personen mit Care-Arbeit oder bestimmten Behinderungen, obwohl „Geschlecht“/„Behinderung“ nie abgefragt wird. - **Kreditvergabe:** Ein Scoring nutzt Postleitzahl, Wohngegend, Geräte-/Vertragsdaten oder Einkaufsprofile. Diese Merkmale können stark mit sozioökonomischem Status oder ethnischer Segregation korrelieren und dadurch Gruppen indirekt benachteiligen. - **Versicherung/Preise:** Telematik- oder Nutzungsdaten (Fahrzeiten, Strecken) können Menschen mit Schichtarbeit oder schlechter ÖPNV-Anbindung systematisch teurer machen. - **Gesundheit:** Ein Triage- oder Risiko-Score nutzt „bisherige Gesundheitskosten“ als Proxy für Bedarf. Wenn bestimmte Gruppen historisch schlechteren Zugang hatten, erscheinen sie fälschlich „weniger bedürftig“. - **Bildung:** Zulassung nach „standardisierten Tests“ plus „Extracurriculars“ kann Gruppen benachteiligen, die weniger Zugang zu Vorbereitung/Angeboten haben. - **Content/Moderation:** Ein Modell markiert bestimmte Dialekte/Sprachstile häufiger als „toxisch“, weil Trainingsdaten unausgewogen sind. **Wie kann Fairness verbessert werden? (praktische Hebel)** 1. **Ziel klären & messen:** Fairness-Kriterien festlegen und *gruppenweise* Kennzahlen prüfen (z. B. Annahmequote, Fehlerraten, Kalibrierung). Ohne Messung bleibt Fairness Behauptung. 2. **Daten verbessern:** Repräsentativere Daten, bessere Labels, weniger Messfehler; historische Verzerrungen erkennen (z. B. „Arrest“ ≠ „Kriminalität“). 3. **Feature- und Proxy-Checks:** Merkmale identifizieren, die als Stellvertreter (Proxies) für geschützte Attribute wirken (z. B. PLZ, Schule, Name) und begründet entfernen/entschärfen. 4. **Modell-/Trainingstechniken:** - *Pre-processing:* Reweighting, Debiasing, Balancing. - *In-processing:* Fairness-Regularisierung, adversarial debiasing. - *Post-processing:* Schwellenwerte pro Gruppe, Reject-option, Kalibrierung – mit Vorsicht, weil es Trade-offs gibt. 5. **Entscheidungsprozess ändern (nicht nur Modell):** Human-in-the-loop mit klaren Leitplanken, Einspruchswege, Begründungen, Dokumentation, Audits. 6. **Kontext & Recht:** Prüfen, ob unterschiedliche Behandlung zulässig/geboten ist (z. B. Barrierefreiheit, Nachteilsausgleich) und ob ein Kriterium „job-related“/sachlich gerechtfertigt ist. 7. **Monitoring im Betrieb:** Drift, neue Ungleichheiten, Feedback-Schleifen (z. B. „wer weniger Kredit bekommt, hat später schlechtere Daten“) laufend überwachen. **Was ist überhaupt „Fairness“?** „Fairness“ ist kein einzelnes, universelles Maß, sondern ein **normatives Ziel**: Was gilt als gerecht im jeweiligen Kontext? In ML/Entscheidungssystemen werden häufig mehrere (teils unvereinbare) Fairness-Definitionen genutzt, z. B.: - **Demographic Parity (Gleichverteilung):** Gruppen erhalten ähnlich oft positive Entscheidungen (z. B. Einstellungsquote). - **Equal Opportunity:** Unter den tatsächlich Geeigneten haben Gruppen ähnliche Chance, positiv entschieden zu werden (gleiche True-Positive-Rate). - **Equalized Odds:** Sowohl True-Positive- als auch False-Positive-Raten sind ähnlich (Fehlerfairness). - **Calibration:** Ein Score bedeutet für alle Gruppen dasselbe (z. B. „0,7 Risiko“ entspricht überall ~70%). - **Individual Fairness:** Ähnliche Personen sollen ähnlich behandelt werden (
Teilweise stimmt es – aber nur als **Erklärungsmöglichkeit**, nicht als automatisch gültiges Argument. - **Ja, plausibel:** Wenn ein Modell aus historischen Einstellungs-/Bewerbu...