Was passiert, wenn ein sog. ‚autonomes Fahrzeug‘ im Straßenverkehr einen Unfallschaden verursacht? Wird dann das Auto für die Folgen belangt? Kann es bestraft werden und muss es haften? Oder wird auf die Passagiere oder die Konstrukteure, die Hersteller- oder Händlerfirmen zurückgegriffen? Gibt es in diesem Zusammenhang eine „Verantwortlichkeitslücke“, wie z.T. behauptet wird (vgl. Matthias (2004). „The Responsibility Gap – Ascribing Responsibility for the Actions of Learning Automata“, Ethics and Information Technology 6, 175-183)? Anspruchsvolle autonome Systeme rekurrieren auf künstliche Intelligenz, um die ihnen übertragenen Funktionen ausfüllen zu können. Zwar wird ‚künstliche Intelligenz‘ durchaus unterschiedlich bestimmt, doch stellt ein verbreiteter Ansatz v.a. auf maschinelle Lernfähigkeit mittel künstlicher neuronaler Netze ab. Fragen, wie ‚menschenähnlich‘ solche neuronalen Netze sind und ob ihnen zurecht ‚Intelligenz‘ zugeschrieben werden kann, treten aus Gründen praktischer Relevanz gegenüber ethischen Fragen gegenwärtig in den Hintergrund: Wenn ‚künstliche Intelligenzen‘ – nunmehr als Artefakte verstanden – selbsttätig Entscheidungen treffen, die moralisch relevant sind, sind sie dann nicht auch als ‚moralische Akteure‘ zu verstehen? Kann ihnen Verantwortlichkeit zugeschrieben, sollten sie als eigene Haftungssubjekte verstanden werden? Während diese Fragen retrospektiv die Suche nach geeigneten Adressaten für moralischen Tadel, Strafe oder Schadensersatzansprüche betreffen, stellen sich ex ante sehr grundlegende Fragen: Nach welchen ethischen Prinzipien oder normativen Theorien sollten künstliche Intelligenzen ihre Entscheidungen treffen? Was heißt überhaupt ‚Entscheidungen treffen‘ und worauf bezieht sich die Rede von ‚ex ante‘? Vor der Handlung? Lässt sich denn mit Bezug auf künstliche Intelligenz sinnvoll von ‚Handeln‘ sprechen? Bei der Programmierung autonomer Fahrzeuge verlieren solche Fragen den Charakter bloßer Gedankenexperimente und werden zu praktischen Herausforderungen. Zunehmend werden wir es auch im täglichen Leben (Restaurantbedienung, Krankenpflege, Schulunterricht und Weiterbildung …) mit Dienstleistungen zu tun haben, die von Robotern erbracht werden. Die damit zusammenhängenden ethischen Fragen gehen uns (nicht nur) deshalb alle an. – In diesem Seminar werden wir uns einen systematischen Überblick über aktuelle Ansätze zur Maschinen- oder Roboterethik verschaffen, uns zunächst ein zumindest gewisses Verständnis künstlicher Intelligenz verschaffen und immer wieder aktuelle und mögliche ethische Probleme praktischer Anwendungen diskutieren.

Kurs im HIS-LSF

Semester: SoSe 2020