Teilprojekt 5: Gesellschaftsrecht zwischen Anthropozentrismus und selbstfahrender Kapitalgesellschaft – wieviel KI verträgt ein Unternehmen?

Forschungsprogramm: 

Teilprojekt 5 spürt in enger Kooperation mit Teilprojekt 1 der Frage nach, wieviel KI ein Unternehmen verträgt bzw. wieviel Anthropozentrismus es im Gesellschaftsrecht künftig noch bedarf. Das Teilprojekt verfolgt zwei Stränge, zum einen eher rechtsvergleichenden und rechtspolitischen sowie zum anderen einen mehr anwendungsorientierten, dogmatischen Teil.

In einem ersten Schritt sollen anthropozentrische Grundsätze im deutschen Gesellschaftsrecht aufgezeigt werden, wobei von der Hypothese ausgegangen wird, dass §§ 76 Abs. 3 AktG bzw. § 6 Abs. 2 GmbHG, wonach Organmitglieder von Kapitalgesellschaften in Deutschland natürliche Personen sein müssen, eine bewusste Entscheidung für einen Menschenvorbehalt im Gesellschaftsrecht darstellt.

Auch wenn eine vollständig selbstfahrende Kapitalgesellschaft heute vermutlich noch eher ein Schreckgespenst ist, wird im Recht des US Bundesstaates Delaware, in dem die corporation auf ein board of directors verzichten kann, zumindest erwogen, eine corporation funktional der Kontrolle durch einen autonom agierenden Algorithmus zu unterstellen. Da in Delaware eine vollständige, wechselseitige Beteiligung von zwei Kapitalgesellschaften möglich ist, wären auf diesem Wege zwei allein durch eine KI geleitete Kapitalgesellschaften, die sich gegenseitig zu 100% gehören und nicht einmal mehr von menschlichen Gesellschaftern kontrolliert werden, zumindest denkbar.

Vor diesem Hintergrund will der erste Strang des Teilprojekts zum einen der Frage nachspüren, ob eine selbstfahrende Kapitalgesellschaft überhaupt ein wünschenswertes rechtspolitisches Ziel ist. Zum anderen geht es darum, ob es rechtspolitisch sinnvoll sein kann, eine KI zumindest neben Menschen zu einem Organmitglied zu machen. Im Fokus werden die US-Bundestaaten Delaware sowie Wyoming mit seinen DAO-Gesellschaften stehen.

Am Ende dieses rechtspolitischen Strangs soll die Frage stehen, ob und wenn ja, mit welchen Argumenten der Menschenvorbehalt im deutschen Gesellschaftsrecht zu verteidigen ist. Dabei wird schwerpunktmäßig auch der Frage nachzugehen sein, ob künstliche Leitungsagenten zumindest satzungsdispositiv neben Menschen anerkannt werden können und welche Vorkehrungen dann im Gesellschaftsrecht zu treffen sind. Dabei wird weiterhin der klassische Prinzipal-Agent-Konflikt neu zu vermessen sein. Rechtsökonomische Erwägungen werden für die rechtspolitischen Schlussfolgerungen einen wichtigen Baustein bilden.

Der zweite mehr dogmatische Strang des Teilprojekts untersucht die Frage, welche Kontrollverantwortlichkeiten beim Einsatz von KI in der Aktiengesellschaft und der GmbH entstehen. Den Einsatz von KI dort zu verteufeln, kann keine Lösung sein. Im Gegenteil, eine Arbeitshypothese lautet, dass der Vorstand aufgrund der allgemeinen Pflicht, das Unternehmenswohl zu fördern, unter gewissen Voraussetzungen sogar verpflichtet sein kann, KI einzusetzen, wenn diese ebenso zuverlässig, aber schneller und kostengünstiger Ergebnisse produzieren kann als ein Mensch.

Will man Kontrollverantwortlichkeiten herausarbeiten, ist danach zu unterscheiden sein, ob die KI zur Entscheidungsvorbereitung einer menschlichen Entscheidung eingesetzt wird oder aber eine Entscheidung unmittelbar auf die KI übertragen wird, die dann z.B. für die Aktiengesellschaft autonom Wertpapiere verkauft. Beim Einsatz zur Entscheidungsvorbereitung stehen zwei Fragen im Mittelpunkt. Erstens: Welche Sorgfalt bedarf die Auswahl der KI? Und zweitens: Inwieweit muss der Vorstand den Entscheidungsvorschlag der KI plausibilisieren? Setzt die Plausibilisierung voraus, dass der Vorstand die Black Box entschlüsselt? Sähe man das so, wäre ein Einsatz kaum rechtssicher möglich. Vorbehaltlich der rasanten weiteren Entwicklung von erklärbarer KI (XAI) wird als Arbeitshypothese angenommen, dass eine Entschlüsselung der Black Box nicht notwendig ist. Denn der Grund für die Heranziehung externen Rats liegt gerade darin, dass dem Vorstand das erforderliche Fachwissen fehlt. Aufgabe der Plausibilisierung ist es vielmehr, einen Abgleich der vom Experten gefundenen Ergebnisse mit der Erfahrung und der unternehmerischen Intuition des Vorstandes vorzunehmen.

Weiterhin werden die Rolle des Aufsichtsrats und die Frage im Mittelpunkt stehen, ob die Aktiengesellschaft organisatorische Vorkehrungen treffen muss, um sicherzustellen, dass der Einsatz der KI keine Schäden im Unternehmen verursacht. Beim Aufsichtsrat wird näher zu untersuchen sein, ob dieser im Rahmen seiner Kontrollaufgabe eine eigene Plausibilisierung der Entscheidungs-vorschläge der KI vornehmen muss oder sich darauf beschränken kann, die durch den Vorstand erfolgte Plausibilisierung zu überwachen. Letzteres liegt zumindest prima vista nahe, es sei denn, der Aufsichtsrat setzt selbst KI bei seiner Überwachungstätigkeit ein.

Weiterhin wird einerseits der Einsatz von KI bei der Durchführung einer virtuellen Hauptversammlung und andererseits auf Seiten von Aktionären zur Vorbereitung ihrer Abstimmung in der Hauptversammlung sowie bei Stimmrechtsberatern in den Blick zu nehmen sein.

Ein weiterer zentraler Forschungsgegenstand in Zusammenhang mit Kontrollverantwortlichkeiten ist die Frage nach dem organisatorischen Rahmen für Corporate Digital Responsibility (CDR). Die rechtlichen Vorgaben hierfür sind derzeit noch sehr verstreut, es werden insbesondere die organisationsrechtlichen Vorgaben in der KI-VO in den Blick zu nehmen sein, deren Bedeutung für das Gesellschaftsrecht auch noch nicht ansatzweise ausgeleuchtet ist. Dabei werden in Abhängigkeit von der Größe des Unternehmens und des Umfangs, in dem KI eingesetzt wird, unterschiedliche Maßstäbe zu entwickeln sein. Insbesondere geht es auch um die Frage, ob gegebenenfalls eine eigene CDR-Abteilung zu schaffen ist. Auch wird zu klären sein, in welchem Verhältnis eine solche CDR-Abteilung zur regulären Compliance-Abteilung steht.