Definition
Unter Verzerrungen in der KI versteht man systematische Fehler in den KI-Ergebnissen, die durch verzerrte Daten, fehlerhaftes Design oder gesellschaftliche Ungleichheiten in den Datensätzen verursacht werden. Dies kann zu unfairen oder diskriminierenden Ergebnissen führen.
Zweck
Ziel der Untersuchung von Voreingenommenheit ist es, Ungerechtigkeiten in KI-Systemen zu identifizieren und zu mildern. Organisationen zielen darauf ab, durch die Auseinandersetzung mit diesen Problemen gerechtere Modelle zu entwickeln.
Bedeutung
- Führt zu Diskriminierung bei der Einstellung, Kreditvergabe oder im Gesundheitswesen, wenn dies nicht behoben wird.
- Untergräbt das Vertrauen in KI-Systeme.
- Erfordert die Einhaltung gesetzlicher Vorschriften in sensiblen Branchen.
- Bezieht sich auf Fairness und verantwortungsvolle KI-Praktiken.
Funktionsweise
- Identifizieren Sie potenzielle Quellen von Verzerrungen (Datenerfassung, Kennzeichnung, Modellierung).
- Analysieren Sie Datensätze auf Ungleichgewichte.
- Wenden Sie fairnessbewusste Trainingsmethoden an.
- Testen Sie die Ergebnisse mit Fairnessmetriken.
- Passen Sie das Design an und trainieren Sie es gegebenenfalls erneut.
Beispiele (Reale Welt)
- COMPAS-Risikobewertungstool: wegen rassistischer Voreingenommenheit kritisiert.
- Amazon-Einstellungsalgorithmus: aufgrund geschlechtsspezifischer Voreingenommenheit verworfen.
- Gesichtserkennung: Bekanntermaßen wird dadurch eine falsche Klassifizierung bestimmter demografischer Gruppen vorgenommen.
Referenzen / Weiterführende Literatur
- KI-Voreingenommenheit – NIST.
- Fairness und maschinelles Lernen – Barocas, Hardt & Narayanan (Buch).
- Algorithmische Verzerrung – ACM FAccT-Konferenzberichte.
- Vielfältige KI-Trainingsdaten: Der Schlüssel zur Beseitigung von Voreingenommenheit