Whitepaper zu Bias in KI-Systemen
Unter „Bias“ versteht man im Kontext künstlicher Intelligenz jede Form systematischer Verzerrung, die zu ungleichen oder unfairen Behandlungsergebnissen führt. Solche Verzerrungen können entstehen, wenn Trainingsdaten bestimmte Gruppen unterrepräsentieren, historische Vorurteile enthalten oder Modelle aufgrund ihrer Architektur und Parametrierung bestimmte Muster bevorzugen. Die Folgen sind weitreichend: Neben der Beeinträchtigung von Fairness und Transparenz können Bias auch
Mehr erfahren

