> Dr. Judit Bayer

Die rechtlichen Grundprinzipien für künstliche Intelligenz

 

Abstract:

Die gegenwärtigen Gesetzgebungs- und Selbstregulierungsversuche konzentrieren sich auf der einen Seite auf illegale Inhalte, z.B. Terrorismus, falsche Nachrichten oder Hassreden und auf der anderen Seite auf die Einhaltung der Verpflichtungen im Unternehmensverhalten, z. B. die Erstellung von Benachrichtigungssystemen und die Bereitstellung von Transparenzberichten.

Wenn gesetzgeberische Maßnahmen das Verhalten von Unternehmen betreffen, bedeutet dies, dass auch die Durchsetzung und Kontrolle an Unternehmen gerichtet sein muss. Wenn jedoch regulatorische Standards die Qualität und Merkmale von Algorithmen berücksichtigen und Algorithmen als Produkte behandeln würden, die bestimmte Anforderungen erfüllen müssen, könnte dies zu einer weniger zweideutigen technologischen Umgebung führen. Ethische Prinzipien sollten schon zum Zeitpunkt des Entwurfs in den Algorithmus integriert werden. Obwohl in dem breiten Wertebereich, der in KI-Systeme eingebaut werden soll, scheint sich ein Konsens zu entwickeln, die genaue Auslegung und der Inhalt von Werten wie Fairness, Vielfalt und Gleichheit können jedoch zu Meinungsverschiedenheiten führen, die über die Grenzen der Kultur, des wirtschaftlichen und politischen Systems oder einfach des Habitus beeinflusst werden.

 

Social Media-Plattformen sind auf künstliche Intelligenz angewiesen, um Inhalte zu organisieren, bestimmte Nachrichten zu verstärken, sie populär zu machen, und die Sichtbarkeit anderer Inhalte zu unterdrücken, wenn sie als falsch oder anstößig empfunden werden. Sie empfehlen Nutzern Inhalte, genau wie Werbeanzeigen Produkte empfehlen und zwar basierend auf früheren Präferenzen und dem Online-Verhalten. Durch jede Auswahl, die ein Nutzer trifft, lernen sie, ihre Effizienz zu steigern. Dies geschieht, ohne das Bewusstsein der Nutzer weiß, dass das Verhalten verfolgt und analysiert wird. Darüber hinaus werden Meinungen, Weltanschauungen und sogar Entscheidungen der Benutzer, ohne ihr Wissen beeinflusst. Algorithmen beeinflussen nicht nur das Leben von Personen ähnlich wie bei Bankkrediten oder Bewerbungen. Sie wirken sich tiefgreifend auf soziale Prozesse aus, unter anderem durch die Strukturierung des demokratischen öffentlichen Diskurses über soziale Medien und die Verbreitung von Medieninhalten im Allgemeinen. Sie sind in der Lage, bestimmte Meinungen zu erweitern und andere auf undurchsichtige Weise zu unterdrücken. Die DSGVO gewährt Einzelpersonen mehrere Rechte, um sie vor den Auswirkungen von Algorithmen zu schützen, deckt aber nicht alle Gefahrenlagen ab.

Es müssen angemessene rechtliche und ethische Schutzmaßnahmen getroffen werden, damit künstliche Intelligenz in einem immer größeren Anwendungsbereich wie Gesichtserkennung, gezielter politischer Werbung und Bewertungen des sozialen Vertrauens sicher eingesetzt werden kann. Während wir uns vor dem chinesischen Sozialkreditsystem zurückhalten, bieten immer mehr Unternehmen Rabatte und Premiumdienste für „vertrauenswürdiges“ Kundenverhalten an und wenden personalisierte Preise ohne ethische Überlegungen an.

Die gegenwärtigen Gesetzgebungs- und Selbstregulierungsversuche konzentrieren sich auf der einen Seite auf illegale Inhalte, z.B. Terrorismus, falsche Nachrichten oder Hassreden und auf der anderen Seite auf die Einhaltung der Verpflichtungen im Unternehmensverhalten, z. B. die Erstellung von Benachrichtigungssystemen und die Bereitstellung von Transparenzberichten.

Parallel dazu konzentrieren sich Forschungsprojekte unter anderem am MIT, am Berkman Klein Center und am Oxford Internet Institute, und auch am ITM eher auf die Algorithmen selbst und suchen nach Antworten auf die Frage: wie könnte künstliche Intelligenz den gesetzlichen Anforderungen an die Achtung der Menschenrechte genügen? Und wer trägt dafür die Verantwortung? Eine umfassende Studie verglich 35 Grundsatzdokumente und ergab, dass eine relativ hohe Korrelation zwischen den von den meisten Sammlungen ethischer Grundsätze empfohlenen Werten besteht.

Wenn gesetzgeberische Maßnahmen das Verhalten von Unternehmen betreffen, bedeutet dies, dass auch die Durchsetzung und Kontrolle an Unternehmen gerichtet sein muss. Wenn jedoch regulatorische Standards die Qualität und Merkmale von Algorithmen berücksichtigen und Algorithmen als Produkte behandeln würden, die bestimmte Anforderungen erfüllen müssen, könnte dies zu einer weniger zweideutigen technologischen Umgebung führen. Ethische Prinzipien sollten schon zum Zeitpunkt des Entwurfs in den Algorithmus integriert werden. Gegenwärtige Gesetze neigen dazu, nur größeren Unternehmen Regeln aufzuerlegen. Es sollte jedoch keine Frage der Größe sein, ob ein Unternehmen einen ethischen Algorithmus anwendet oder nicht.

Aber es ist leichter gesagt als getan. Der Betrieb der künstlichen Intelligenz kann sich nach ihrer Inbetriebnahme ändern. Sie lernt aus den Daten, mit denen sie gefüttert wird, was die Verantwortungsbeziehungen kompliziert. Die Selbstlernfähigkeit von Algorithmen birgt Risiken, insbesondere, wenn sie in Beziehung zum Menschen steht. Algorithmen lernen bereits bestehende Ungleichheiten und soziale Vorurteile und reproduzieren sie, was zu Diskriminierung führt. Es ist noch ein langer Weg, um diese verborgenen sozialen Vorurteile aufzudecken, die von Natur aus eingebaut oder durch Dateneingabe in die KI-Systeme eingespeist werden. In diesem Prozess lernen wir auch unsere menschliche Natur kennen. Die ursprüngliche Programmierung sollte sich dieser Risiken bewusst sein, sich mit der Korrektur  sozialer Vorurteile befassen und das maschinelle Lernverfahren sollte regelmäßig aus ethischer Sicht kontrolliert werden. Aus dieser Perspektive ergibt es Sinn, dass die oben genannten Forschungsgruppen jetzt in Zusammenarbeit mit Philosophen und Juristen an künstlicher Intelligenz arbeiten.

In dem breiten Wertebereich, der in KI-Systeme eingebaut werden soll, scheint sich ein Konsens zu entwickeln (siehe oben genannte Studie). Die genaue Auslegung und der Inhalt von Werten wie Fairness, Vielfalt und Gleichheit können jedoch zu Meinungsverschiedenheiten zwischen Wissenschaftlern, Experten oder Politikern führen, die über die Grenzen der Kultur, des wirtschaftlichen und politischen Systems oder einfach des Habitus beeinflusst werden.

Auf dem Gebiet der ethischen Prinzipien, Menschenrechte und Werte, die in KI und Robotik übertragen werden sollen, sind polarisierende theoretische Diskussionen zu erwarten.

Deutsche Rechtstheorie könnte hier nützlich sein, um die neuen Regelungsprinzipien der KI festzulegen, insbesondere in Hinblick auf die Menschenrechte. Die zentrale Position der Menschenwürde im Menschenrechtssystem und der Drittwirkungseffekt von Grundrechten sind Grundsätze, die die Diskussion über KI-Programmierung zur Achtung der Menschenrechte und Werte beeinflussen können. Mit den entsprechenden Schutzmaßnahmen hat KI das Potenzial, eine bedeutende positive Veränderung für uns herbeizuführen.