TP 2: Diskriminierungsschutz als Grenze maschinellen Entscheidens

Teilprojekt 2 (TP 2) untersucht, inwieweit das Nichtdiskriminierungsrecht – welches auf menschliches Verhalten zugeschnitten ist – Entscheidungen autonomer Systeme beschränkt.
Der Einsatz von Künstlicher Intelligenz birgt Diskriminierungspotenzial: Algorithmische Systeme können durch fehlerhafte Daten oder Programmierungen Verzerrungen erzeugen und bestehende gesellschaftliche Ungleichheiten fortschreiben.
Der bestehende Diskriminierungsschutz wird hier auf die Probe gestellt. Um dieser Herausforderung zu begegnen, setzt sich das Teilprojekt exemplarisch mit rechtlichen Aspekten des Arbeits-, Privat- und Sozialrechts auseinander.
Diese Bereiche sind von bestehenden Machtasymmetrien geprägt und daher besonders auf Schutzlücken zu untersuchen. Gemeinsamkeiten und zugrunde liegende Konzepte sollen identifiziert werden. Darauf aufbauend sollen rechtliche Gestaltungsmöglichkeiten entwickelt werden, die eine Vereinheitlichung und Vereinfachung des Rechts fördern. Hierbei soll inter- und intradisziplinärer Austausch fruchtbar gemacht werden. Ziel ist es, ein über die drei Bereiche übergreifendes Schutzniveau herzustellen.
Das Projekt ist in drei Arbeitsbereiche gegliedert, für die je eine These leitend ist:
- Eine stabile gesetzliche Grundlage mit hohen Standards ist erforderlich, um Diskriminierungen durch autonome Systeme wirksam zu begegnen und damit die Autonomie der Betroffenen zu schützen. Mehr lesen
- Unterschiede im Schutzniveau ergeben sich aus der unterschiedlichen Regelungsdichte in den spezifischen Konstellationen; Schutzlücken und fehlende Prävention werden sichtbar. Mehr lesen
- Auf Basis der gewonnenen Erkenntnisse kann ein kohärentes System des Diskriminierungsschutzes als Grenze maschinellen Entscheidens entwickelt werden. Mehr lesen