|
Münster (upm/sp)
Algorithmen gelten als objektiv, weil sie automatisiert Daten auswerten und Muster erkennen.<address>© Unsplash - Markus Spiske</address>
Algorithmen gelten als objektiv, weil sie automatisiert Daten auswerten und Muster erkennen.
© Unsplash - Markus Spiske

Was datenbasierte Benachteiligung über die Gesellschaft verrät

Diskriminierung per Algorithmus

Künstliche Intelligenz und die dahinterstehenden Algorithmen gelten als besonders objektiv. Schließlich trifft nicht ein Mensch Entscheidungen, sondern eine automatisierte Technik auf Grundlage von Daten. Dass dabei allerdings auch Diskriminierung und Rassismus reproduziert werden, zeigen verschiedene Beispiele wie das 2014 entwickelte Bewerbertool des Online-Versandhandels Amazon. Ziel war es, mittels Künstlicher Intelligenz ein Ranking aller eingegangenen Bewerbungen zu erstellen, um die besten Kandidaten herauszufiltern. Vier Jahre später zeigte sich, dass Frauen ungewollt, aber systematisch benachteiligt wurden. Schuld waren die Daten, mit denen Amazon die KI fütterte. Verwendet wurden die Bewerberdaten der vergangenen zehn Jahre. Ein Großteil der Bewerbungen stammte von technikaffinen Männern, woraus die Software folgerte, dass Männer offensichtlich die geeigneteren Kandidaten seien.

Victoria Guijarro Santos, die als wissenschaftliche Mitarbeiterin am Lehrstuhl für Internationales Öffentliches Recht und Internationalen Menschenrechtsschutz an der WWU zu Fragen rund um digitale Grund- und Menschenrechte forscht, erklärt den Mechanismus: „Bei datenbasierten Diskriminierungen sprechen wir von Systemen, die Daten über vergangenes Verhalten oder Eigenschaften von Personen auswerten, darin Muster erkennen, generalisieren und auf neue Daten anwenden. Einzelfallgerechtigkeit ist jedoch ein wichtiges rechtsstaatliches Prinzip.“

Victoria Guijarro Santos<address>© privat</address>
Victoria Guijarro Santos
© privat

Was also tun bei algorithmisch arbeitenden Systemen, die keinen Einzelfall kennen? Die gute Nachricht ist, dass technische Ungerechtigkeiten – auch Bias genannt – korrigiert werden können. „Eine große interdisziplinäre Gemeinschaft forscht an Korrekturmethoden und stellt ihre Ergebnisse bei der jährlich stattfindenden Konferenz ,Fairness, Accountability and Transparency in Machine Learning' vor“, berichtet die Rechtswissenschaftlerin. Schwieriger sei es, mit Verzerrungen umzugehen, die nicht aus den Daten oder der Technik resultieren, sondern aus der Gesellschaft, aber von KI aufgegriffen werden. Ein Bewerbersystem, das nicht nach Geschlecht unterscheidet, sondern nach Personen, die in Voll- und Teilzeit arbeiten, würde vermutlich trotzdem Frauen benachteiligen, weil es nach Mustern sucht. Laut Victoria Guijarro Santos gilt es, diese „Social Bias“ anzuerkennen: „Ein Problem im bisherigen Rechtssystem ist, dass man sich zu sehr auf die Unvollständigkeit von Daten und Fehler bei der Programmierung fokussiert, anstatt den sozialen Datenbias ernst zu nehmen.“

Ein Problem im bisherigen Rechtssystem ist, dass man sich zu sehr auf die Unvollständigkeit von Daten und Fehler bei der Programmierung fokussiert, anstatt den sozialen Datenbias ernst zu nehmen.
Victoria Guijarro Santos

Die Beispiele datenbasierter Diskriminierung zeigen, dass Diskriminierung strukturell ist. Wäre sie ein Einzelfall, gäbe es keine Muster, die das System aufnimmt. „Wir sollten KI und Algorithmen einsetzen, um Ungleichheit zu quantifizieren und sichtbar zu machen. So können sie von Unternehmen und Politik genutzt werden, um zielgerichtet positive Maßnahmen zu etablieren – beispielsweise die Förderung von Frauen in Unternehmen.“

Autorin: Sophie Pieper

Dieser Artikel stammt aus der Unizeitung wissen|leben Nr. 7, 10. November 2021.

Links zu dieser Meldung