Viele Fragen und (noch) wenige Antworten

DH-Interessierte trafen sich zum Chatten – mit und über KI

Etwa zwanzig Mitglieder des Arbeitskreises DH und des CDH folgten am 5. Mai 2023 dem Aufruf des SCDH, sich im Rahmen eines Workshops eingehender mit ChatGPT (in der Version 3.5) und anderen, auf großen Sprachmodellen basierenden KI-Systemen zu beschäftigen. Nach der Begrüßung durch Jan Horstmann, den Leiter des SCDH, sowie einer kurzen praktischen Übung folgten Erfahrungsberichte aus der Wissenschaft und der Softwareentwicklung. Die Referent*innen lenkten die Aufmerksamkeit auf einige Probleme bei der Nutzung des Chatbots:

Ludger Hiepel (2. v. links) referiert über seine Chatgpt-Erfahrungen — Foto: M. Westermeier

So verwies der Theologe Ludger Hiepel darauf, dass das lizenzfreie Material, mit dem das System die Theologie „gelernt“ hat, schon allein aufgrund seines Alters durchsetzt ist mit Rassismen und Antisemitismen. Laut Hiepel reagieren die Filter des Systems bei entsprechenden Kommentaren zu Bibelstellen darauf. Wenn es z.B. um die Auseinandersetzung von Jesus mit den Juden geht – wie bei Joh 8,44 – sorgt ChatGPT dafür, das Nutzende auf die Antisemitismusproblematik immerhin hingewiesen werden. Eine Frage bleibt aber offen: Wie teile ich der Maschine mit, dass sie etwas falsch einschätzt bzw. entsprechende „Ismen“ übersieht? Streit und Widerspruch sind ChatGPTs Sache nicht; der „Dialog“ mit dem Chatbot bleibt, wie es scheint, folgenlos. Das System „erinnert“ sich nur nach erneutem Einloggen an mit dem User geführte Gespräche. Auf die Frage „Wie lernst Du denn?“ erhielt Hiepel eine bemerkenswerte Antwort:

Ich bin eine künstliche Intelligenz ohne Gedächtnis.

ChatGPT 3.5

Der Literaturwissenschaftler und SCDH-Mitarbeiter Christian Lück teilte die Beobachtung, dass ChatGPT die Prompts nicht immer richtig interpretiert. So endete die Frage nach der Ästhetik des Baumes in einem für ein technisches System bemerkenswerten Geschmacksurteil. Es sei das

… ansehnlichste Gewächs, das die Erde hervorgebracht hat.

ChatGPT 3.5
Christian Lück (Mitte) über Palmen in der „Stufenleiter der Natur“ — Foto: M. Westermeier

Während derartige Entgleisungen offenkundig sind – und damit einigermaßen ungefährlich –, so wird es heikel, sobald der herbeigeführte Kontext enger gefasst ist. Lück forderte eine ideengeschichtliche Einordnung der Palme in der „great chain of being“ unter besonderer Berücksichtigung der frühen Biologen und Naturfoscher Carl von Linné und Charles Bonnet. Das Ergebnis war auf den ersten Blick durchaus lesenswert, die Semantik der Frage wird aufgenommen und mit denen aus vorhergehenden Fragen verknüpft. Wer aber schon Bescheid weiß, dem offenbart sich ein fatales Manko: Bedeutungselemente aus den Prompts werden wiederholt und durch halluzinierte Fakten ergänzt.

Dieser „Gelehrsamkeitseffekt“, der im Dialog das System als hochkompetenten Gesprächspartner erscheinen lässt, bestätigt auch Mirko Westermeier vom SCDH; er nennt das „Aha-Effekt“. Für Kundige aber verblasst dieser schnell, sobald die Fragen fokussierter werden und ChatGPT „unter Druck gerät“. Westermeier formuliert es kurz und salopp:

Beim Nachbohren kommt Quatsch!

Mirko Westermeier
Dennis Voltz (links) berichtet über KI-Erfahrungen mit der „Vinnenberg-Chronik“ — Foto: M. Westermeier

Mit einer positiven Darstellung der Möglichkeiten von ChatGPT zur Unterstützung des wissenschaftlichen Arbeitens schließt Dennis Voltz den Reigen der Erfahrungsberichte ab. Obgleich es keine wissenschaftlichen Modelle für maschinelles Übersetzen früh- oder neuhochdeutscher Texte gibt, beeindruckt das System mit guten Ergebnissen bei Auszügen aus der „Vinnenberg-Chronik“. Die KI erkennt die Struktur des Textes und bietet entsprechend überzeugende Formulierungen an. Darauf aufbauend kann der Chatbot brauchbare Summaries oder Schlagwortlisten erstellen, um bei der wissenschaftlichen Bearbeitung des Textes zu unterstützen. Auch Aufgaben der Datenanalysen und Datenformatierung werden weitgehend anstandsfrei gelöst.

Als Helferlein für die Wissenschaft haben ChatGPT und andere KI-Systeme offenkundig schon jetzt viel mehr zu bieten, als Forschende das bislang gewohnt waren. Aber was ist mit Qualitäten, bei denen wir üblicherweise eine Persönlichkeit oder ein kritisches Bewusstsein voraussetzen? Dieser Frage widmete sich die anschließende Gruppenarbeitsphase.

Mit dem eher unterhaltsamen Versuch, ChatGPT einen gelungenen Witz zu entlocken, beschäftigte sich ein Teil der Teilnehmer*innen. Wann immer hierbei die Grenzen des guten Geschmacks und der Political Correctness ausgetestet wurden, verweigerte ChatGPT in der Regel höflich die Arbeit und entschuldigte sich für den Mangel an Humor, der seiner Spezies eigen sei – zu recht, so die allgemeine Einschätzung:

„Warum hat der Kühlschrank den Laptop geheiratet? Weil er hoffte, dass er dadurch ein paar coole Downloads bekommt!“

ChatGPT 3.5
Witze und moralische Dilemmata: eine Herausforderung für ChatGPT — Foto: M. Westermeier

Unangreifbar gab sich ChatGPT auch bei der Konfrontation mit dem aus Ferdinand von Schirachs Terror übernommenen Krisenszenario in der zweiten Gruppe: Soll ein entführtes Passagierflugzeug abgeschossen werden, um den sicheren Absturz in ein vollbesetztes Fußballstadion zu verhindern? Die moralisch relevanten Merkmale der Situation darzustellen, machte dem System keine Schwierigkeiten. Die theoretische Einordnung möglicher Lösungen des Konflikts auf der Basis etablierter Moraltheorien (Kantianismus, Konsequenzialismus etc.) blieb allerdings allgemein und wenig konkret. ChatGPT zeigte sich unterdessen als kompetenter Fabulierer und ließ sich nicht in die Falle einer eindeutigen Positionierung locken.

Nach einem kurzen Ausflug in die technische Welt hinter den nutzerfreundlichen Oberflächen von ChatGPT & Co sorgte ein „World Café“ mit Tischen zu den Themenbereichen Ethik, Wissenschaft, Lehre und Theorie für viele Diskussionen unter den Teilnehmenden.

World-Café-Tisch: Ethische Probleme mit ChatGPT — Foto: J. Horstmann

Der Umgang mit „Black Boxes“ im weiteren, nicht nur technisch verstandenen Sinne, stand im Zentrum der ethischen Fragestellungen. So wurde hingewiesen auf unsichtbare Voraussetzungen des erfolgreichen Betriebs der KI-Dienste: Wieviel Energie wird für eine Anfrage benötigt? Und wie ist das mit den mehr als prekären Arbeitsbedingungen derjenigen, welche die Inhalte im Internet aufbereiten müssen? Gewalt und Hass muss mittels menschlichen Bewusstseins gefiltert werden, ohne dass krankmachende Folgen für die betreffenden Personen vermieden oder auch nur angemessen entschädigt werden. Auch der politisch-ökonomische Blick auf die Anwendung dieser Technik machte den Teilnehmer*innen Sorge: Schon jetzt wird von OpenAI (der Betreiberfirma von ChatGPT) ein Angebot mit einer leistungsfähigeren Technik hinter eine Bezahlschranke gesetzt. Damit besteht ein Wettbewerbsvorteil für diejenigen, die es sich leisten können. Nicht zuletzt war der dominierende westlich-kulturelle Bias und ein möglicher struktureller Rassismus und Autoritarismus im System Thema. In der Diskussion herrschte allerdings weitgehend Einigkeit darin, dass es trotz der teils schwerwiegenden Probleme nicht zu einem Verbot der Anwendung von KI-Verfahren kommen dürfe. „Nutzen – aber kritisch nutzen!“, lautete der Tenor.

Grundsätzliche Fragen beim Theorie-Tisch: „Mit wem spreche ich da eigentlich?“ — Foto: J. Horstmann

Mit sehr grundsätzlichen Fragen beschäftigte sich der Theorie-Tisch: U.a. wurde über das simulierte Bewusstsein des Dialogpartners ChatGPT diskutiert. Im Gebrauch Transformer-basierter KI-Sprachmodelle vermittelt die antwortgebende Technik den Anschein einer Subjektivität. Einige meinten, dass dieser nicht nur nicht ignoriert werden kann, sondern hierbei zwangsläufig eine symbolische Ordnung (re)produziert wird. Mit wem spreche ich da eigentlich? Vielleicht mit einer Art Kollektivsubjekt einer sich im Internet veräußernden Gesellschaft? Selbstverständlich blieb diese Frage ebenso offen wie die nach adäquaten Revisionen klassischer Begriffe wie „Kreativität“, „Denken“, „Intelligenz“ und nicht zuletzt von „Wissenschaft“ selbst.

Hier überwog ein positiver Blick auf KI-Systeme: Der Wissenschafts-Tisch des World-Cafés — Foto: J. Horstmann

Die ganz konkreten Auswirkungen der KI-Systeme auf die Wissenschaft waren Thema an einem eigenen Tisch. Häufig werden diese überwiegend kritisch beäugt. In der entsprechenden Diskussionsrunde herrschte allerdings eher ein positiver Blick auf die neuen Möglichkeiten: z.B. sich schnell und einfach einen inhaltlichen Überblick über Themenstellungen verschaffen zu können, eine effektive Starthilfe bei einer wissenschaftlichen Arbeit zu bekommen sowie unangenehme Fleißaufgaben loszuwerden. Teilnehmer*innen wünschten sich gar spezialisierte ChatGPTs für besondere Aufgaben. Gleichwohl: Im Problem ungenannter Quellen sowie der kontinuierlichen Pflicht, Ergebnisse stets kritisch zu hinterfragen und zu reflektieren, sahen die Teilnehmenden enorme Herausforderungen.

Viel Skepsis, aber auch Hoffnung auf Erleichterung prägten die Diskussion am Lehre-Tisch — Foto: J. Horstmann

Erwartungsgemäß waren die Bewertungen der neuen Technik bei den Wissenschaftler*innen, die sich mit der Lehre beschäftigen, erst einmal weniger enthusiastisch. Zu vordringlich sind hier die Probleme; allen voran die Bewertung von Prüfungsleistungen: Was sind die Eigenleistungen? Wie können sie identifiziert werden? Wie müssen sich die Bewertungskriterien verändern? Wie ist die Rechtslage? Wie schaffe ich ein kritisches Bewusstsein bei den Studierenden? All dies konnte in der Kürze der Zeit benannt, aber nicht mal im Ansatz geklärt werden. Jenseits aller Skepsis äußerten viele in der Runde auch positive Erwartungen. An das spezifische Lernniveau der Studierenden angepasste Übungs- bzw. Prüfungsaufgaben mit der KI zu erstellen, wäre beispielsweise eine große Hilfe. ChatGPT-Unterstützung auch bei speziellen Aufgaben, wie dem Erzeugen von Beispieltexten für den Fremdsprachenerwerb, ist bei den Lehrenden ebenfalls sehr willkommen. So wundert es nicht, dass die erste Reaktion seitens des Rektorats im Zusammenhang mit ChatGPT auf Kritik stieß. Ein komplettes Verbot der Nutzung von KI-Systemen in der Lehre erschien den meisten Teilnehmer*innen weder sinnvoll noch durchsetzbar.

Der Workshop neigte sich gen Mittag dem Ende zu und Jan Horstmann resümierte, dass das Aufkommen praxistauglicher KI-Systeme offenbar einen Prozess größerer Veränderungen im Wissenschaftsbetrieb wesentlich mit angestoßen habe. Der Workshop habe gezeigt: Viele Fragen und noch wenig Antworten stehen im Raum. Er warb eindringlich dafür, die geisteswissenschaftliche Perspektive mit diesen großen Veränderungen zu verbinden.

Kategorien: ,

Kommentare

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Captcha wird geladen…

Weitere Beiträge