Von ungelutschten Drops, Sprachmodellen und maschinenlesbarer Intertextualität

Von ungelutschten Drops, Sprachmodellen und maschinenlesbarer Intertextualität

Rückblick auf die DHd-Konferenz 2024 in Passau

Vom 26. Februar bis 1. März 2024 fand die diesjährige DHd-Konferenz in Passau statt. Jan Horstmann, Katharina Dietz und Immanuel Normann vom SCDH waren dabei und berichten im Interview, was sie für Münster davon mitgenommen haben.

Redaktion: Jan, Immanuel, Katharina, wie war denn die Resonanz auf euren Vortrag „Von Menschen und Maschinen: Transziplinäre Workflows im Münsteraner Editionsprojekt Heinrich Scholz?

Jan Horstmann: Ich würde sagen, das war recht unaufgeregt, und im Vergleich zu den beiden anderen Vorträgen zu Large Language Models in dem Panel, waren wir traditioneller unterwegs. Es waren 100 bis 200 Leute da, und es kamen jetzt keine bahnbrechenden Nachfragen oder Diskussionen auf, sondern unser Vortrag wurde wohlwollend zur Kenntnis genommen. Man interessierte sich vor allem für die im Vortrag angesprochene Mensch-Mensch-Schnittstelle. Also wie funktioniert die interdisziplinäre Zusammenarbeit mit den unterschiedlichen Abteilungen, die da beteiligt sind, mit den unterschiedlichen disziplinären Hintergründen? Ich hatte das Gefühl, dass viele Leute ähnliche Erfahrungen machen – gerade auch die aus infrastrukturellen Einheiten oder die, die in der Beratung arbeiten. Die enge Zusammenarbeit mit mehr oder weniger traditionellen Fachwissenschaftler*innen gestaltet sich ja eigentlich pro Disziplin immer unterschiedlich, und es ist mal mehr, mal weniger kompliziert. Es scheint ein ungelutschter Drops zu sein, wie man das gut gestalten kann, denn eigentlich ist es jedes Mal wieder eine Herausforderung, da den richtigen Ton zu treffen, sich gegenseitig zu verstehen, sich auf Augenhöhe zu begegnen.

Immanuel Normann: Ich würde noch ergänzen wollen, dass wir da methodisch ja auch nichts wahnsinnig Innovatives präsentiert haben, sondern es ging primär um die Herausforderung, wie man so ein komplexes Projekt überhaupt managt, wie die Kommunikation da funktionieren kann, und da war es dann eigentlich fast natürlich, dass die Mensch-zu-Mensch-Schnittstelle die größte Herausforderung ist, weil alle ihre Fachexpertisen haben und ihre Fachjargons, und sich da zu verständigen, das unterschätzt man vielleicht doch ein bisschen, was das für einen Aufwand bedeutet in so einem komplexen Projekt.

Katharina Dietz: Wir hatten bei der technischen Komponente die Konzentration auf unsere Texterkennung, und es war zu merken, wie etabliert die Dinge in der DH-Community sind, mit denen wir da jetzt arbeiten. Also es kamen zum Beispiel sehr konkrete Nachfragen zu den verwendeten OCR-Tools. Ich denke, das Scholz-Projekt zeichnet eben aus, dass wir ein sehr großes und langes Projekt sind. Wir haben also einen recht soliden Bericht über unser Projekt abgeliefert, und dann wurde unser Vortrag gefolgt von einem sehr eingängigen Vortrag, in dem es auch um Prompt-Engineering ging und worauf viele Leute sehr neugierig waren. Der hat uns vielleicht dann so ein bisschen die Show gestohlen.

Jan: Man darf auch nicht unterschätzen, wieviel wert die Books of Abstracts der DHd-Konferenzen sind. Also wir bekommen ja mit jedem Abstract, das darin vorkommt, eine eigene DOI und sind persistent referenzierbar. Das Scholz-Projekt ist jetzt sozusagen dadurch Teil der Digital-Humanities-Community geworden. Das ist schon gut, wir haben da ein Vehikel, um das Licht des Interesses der DH-Community auf Münster zu lenken. Dazu noch: Wir waren fünf Einreichende für diesen Vortrag, also Patrick Dinger war auch noch Teil des Teams und Vitus Schäfftlein, der war im Scholz-Projekt studentische Hilfskraft. Ihre Anteile am Vortrag haben wir auch noch in den 20 Minuten untergebracht.

Hype-Thema Large Language Models

Redaktion: Es klang ja gerade schon an: Large Language Models waren also das große Hype-Thema bei der DHd 2024?

Jan: Absolut, ich hatte das Gefühl, die halbe Konferenz hat sich mit Large-Language-Models auseinandergesetzt. In vielen Bereichen wurde GPT als Synonym verwendet für LLMs. Ich würde dafür plädieren, wirklich eher von Large Language Models zu sprechen. Ich habe auch das Gefühl, oder die Hoffnung vielleicht auch, dass ChatGPT abgelöst wird von offen zugänglichen, kollaborativ zusammengestellten Large Language Models …

Redaktion: … was es ja jetzt auch gibt …

Jan: Ja, von der GWDG, das ist uns schon unter die Fittiche gekommen. Das ist ganz toll, die haben das jetzt öffentlich zur Verfügung gestellt. Da kann man unterschiedliche Modelle auswählen, unter anderem auch GPT 3 und GPT 4. Die haben bei der Entwicklung GWDG-getreu ganz viel darauf geachtet, dass der Datenschutz gewahrt bleibt. Man kann das, glaube ich, mit ruhigerem Gewissen verwenden als das originale ChatGPT zum Beispiel, oder andere Produkte nicht-europäischer Anbieter. Für uns besonders interessant: Immanuel und ich waren am Dienstag in einem ganztägigen Workshop, in dem es um Large Language Models bei digitalen Editionen ging.

Immanuel: Also ich habe da tatsächlich die Erfahrung gemacht, dass es auch wieder mal eine gar nicht so kleine Verunsicherung bei mir hervorruft, wenn ich damit in Berührung komme, weil es doch grundsätzlich immer wieder bisherige traditionellen Methoden in Frage stellt. Bei diesem Workshop ging es primär darum, wie man diese Sprachmodelle nutzen kann als Werkzeug, um unstrukturierte Daten in strukturierte Daten zu überführen. Sagen wir mal, man hat einen Text gescannt, und Texterkennung drüber laufen lassen und dann bemüht man ein Sprachmodell, um daraus Vorschläge zu generieren, wie man das in TEI codieren könnte. Das ist ja wirklich spannend und avanciert, das wurde uns auch vorgeführt, was man da alles machen kann und es war sehr verblüffend. Aber das Endprodukt sind gewissermaßen strukturierte Daten und das ist dann ja auch irgendwie ein Mismatch: Man will trotzdem wieder zu den strukturierten Daten hin, fragt sich aber, ja, brauchen wir die überhaupt noch, wenn wir diese Sprachmodelle haben, die ja sehr gut mit unstrukturierten Daten umgehen können? Also das, was man dann am Ende mit den strukturierten Daten machen will, könnte man das nicht direkt gleich auf unstrukturierten Daten mit Sprachmodellen machen? Das ist so eine Frage, die im Workshop aufkam.

Poster zum Intertextor

Redaktion: Am Donnerstagnachmittag gab es dann den Posterslam und die Postersession. Was ist da von Seiten des SCDH passiert?

Jan: Wir haben da unser Poster „Intertextor: Interfaces für die Annotation intertextueller Relationen“ vorgestellt. Beim Posterslam hat jede*r genau eine Minute Zeit, das möglichst unterhaltsam und witzig und so weiter zu präsentieren. Es gibt ein Applausometer, das die Lautstärke misst, und dann wird pseudowissenschaftlich ermittelt, wer das gewinnt. Unser Slam hat sehr viel Applaus bekommen, und auch wenn wir nicht gewonnen haben, hatte ich schon das Gefühl, die Leute haben wirklich viel gelacht und verstanden, was wir da tun. Wir haben sehr viel mit bekannten Zitaten gearbeitet, weil unser Thema ja Intertextualität ist. Wir haben angefangen mit diesem Julia-Kristeva-Zitat „Jeder Text baut sich als Mosaik von Zitaten auf.“ Und darauf aufbauend haben wir dann eine Minute einen Text aus Zitaten bestehend, einen Dialog performt, der sehr witzig war. Ich habe Immanuels Vortrag sozusagen die ganze Zeit gestört mit meinen Zitateinwürfen. Mit dem Poster von der DHd-AG Digitales Publizieren, an dem ich auch beteiligt war, haben wir einen Slam-Award erspielt, worauf ich sehr stolz bin. Das hat wirklich viel Spaß gemacht.

Immanuel: Bei der Postersession war dann der Austausch am intensivsten. Es kamen einige zu unserem Stand und wir kamen sofort in die Diskussion, aus verschiedensten Perspektiven. Man muss dazu sagen, dass das Ganze ja auch eine Vorgeschichte hat. Intertextualität ist ein Thema, das uns schon länger beschäftigt, zu dem wir auch von der eher theoretischen Seite schon etwas publiziert haben. Und daran anknüpfend haben wir jetzt unsere Pläne zu einem Werk, zu einem InterAnnotator vorgestellt, und eben solche MockUps mit dem Poster präsentiert. Zum Teil ist dann aber auch ein bisschen der Eindruck entstanden, als würde dieses Werkzeug schon existieren, und da waren einige schon richtig neugierig und wollten das direkt ausprobieren, …

Jan: Deswegen ist es ja auch gut, dass wir vor dem Poster stehen und das als work in progress einordnen können.

Immanuel: Ja, genau. Und natürlich haben wir das ganze Projekt so angelegt, dass wir das nicht nur für Münster entwickeln wollen, sondern dass es eigentlich ein offenes Projekt sein soll, an dem sich auch andere Externe beteiligen können und sollen. Also zum Beispiel kann man sich als Nutzer*in daran beteiligen, in dem man selber User Stories liefert: Wie würde ich so ein Werkzeug am liebsten nutzen? Oder aus Entwicklersicht: Welche Komponenten möchte ich mit entwickeln oder welche Vorschläge habe ich zur Architektur? Also wir sind da ganz offen und haben Links auf GitHub bereitgestellt, wo man sich dann weiter informieren kann.

Jan: Aus den Gesprächen habe ich mitgenommen, dass man scheinbar aus ganz unterschiedlichen Richtungen kommend so ein Tool braucht, mit dem man die Beziehungen zwischen Texten definieren und maschinenlesbar machen kann. Das Tool basiert auf einer einheitlichen Ontologie und Erfassungssprache, so dass man irgendwann ganz groß angelegte Analysen machen kann.  Das setzt aber ganz grundsätzlich kollaborative Arbeit voraus. Ich stelle mir immer vor, das ganze intertextuelle Wissen der Menschheit, also was immer Leute an intertextuellen Relationen aus allen existierenden Texten gefunden, erforscht, entdeckt haben, das steckt in irgendwelchen separat veröffentlichten Artikeln oder Büchern. Da komme ich nicht dran. Es sei denn, ich lese alle Artikel oder Bücher, die zu Intertextualitäts- oder auch eben nicht zu Intertextualitäts-Studien mal veröffentlicht wurden. Solche Entdeckungen finden ja auch in Publikationen statt, die sich nicht primär mit Intertextualität beschäftigen. Und dieses ganze Wissen möchte ich eigentlich zur Verfügung haben, also auffindbar, FAIR idealerweise. Das ist so meine Vision für dieses Tool. Und das kann nur wachsen, glaube ich, durch einzelne Projekte, die dieses Tool zum Einsatz bringen. Also ich stelle mir vor, dass ein Projekt, das sich mit Intertextualität bei Autorin XY beschäftigt, durch dieses Projekt das Repositorium an Intertextualitäts-Annotationen anreichert.

Immanuel: Perspektivisch ist es natürlich auch weiter gedacht über den klassischen, geschriebenen oder gesprochenen, Text hinaus, eben auch multimedial gedacht. Dass man natürlich auch Verknüpfungen hat zu anderen Medien, sei es eben Bilder, Filme oder Theaterstücke und dergleichen, …

Jan: … 3D-Objekte, archäologische Objekte sind natürlich auch relevant.

Neuigkeiten im Bereich Texterkennung

Redaktion: Katharina, jede*r hat ja einen eigenen Blick auf so eine Konferenz: Was hast du denn von der DHd mitgenommen?

Katharina: Ich würde auf jeden Fall zustimmen, dass LLMs das Hype-Thema waren. Ansonsten muss ich aber auch sagen, dass ich vor allem im Bereich Texterkennung noch das eine oder andere mitnehmen konnte. Wir sind ja jetzt unter anderem im Rahmen des Scholz-Projekts damit konfrontiert worden, dass Transkribus seine Geschäftsbedingungen sehr stark geändert hat, und wenn man das in dem Umfang nutzen möchte, in dem wir das zum Beispiel tun, das eben sehr teuer ist. Und wir sind natürlich nicht die einzigen, die vor diesem Problem stehen. Viele suchen nach Alternativen mit guten Bedienungs- und Supportaspekten, die qualitativ ähnliche Ergebnisse liefern wie Transkribus, die man dann aber eben selbst hosten kann und die eben nicht proprietär sind. Also das war für mich auf jeden Fall noch ein ganz spannender Aspekt, dass in der Community gerade was in Bewegung gerät durch diese Neuausrichtung von Transkribus.

Jan: Vielleicht entwickelt sich da bei Transkribus auch selber noch etwas. Ich hänge ja nach wie vor an diesem Tool, weil die aus der Wissenschaft heraus gekommen sind. Das ist ja eine Ausgründung aus der Wissenschaft, und solchen Leuten wünsche ich erst einmal immer Erfolg. Die machen das nicht, um reich zu werden sondern um sich selber zu finanzieren und um das weiter entwickeln zu können und das funktioniert richtig gut, aber das das jetzt so „abgewatscht“ wird, ist natürlich echt hart.

Redaktion: Aber es ist doch auch immer die Frage nach einer Alternative, oder? Es scheint da ja jetzt eine vielversprechende zu geben, die man zumindest mal austesten könnte.

Katharina: Ja, also der heiße Renner ist natürlich eScriptorium, das qualitativ sehr hochwertige Ergebnisse liefert.  Es ist Open Source und auch kostenfrei, erfordert aber ein bisschen mehr Aufwand, weil man den Server selbst aufsetzen muss oder befreundete Einrichtungen bei der Hand haben sollte, auf deren Instanz man zugreifen kann. Es gab da eine kleinere, zweistellige Anzahl an Menschen, die da sehr interessiert waren und für die eScriptorium tatsächlich auch am ehesten der Scope ist.

Jan: Ich habe auch das Gefühl, dass wir das als SCDH abfedern können. Wir sind ja jetzt an dem Thema schon ein paar Monate dran. Die Frage, die dahinter steht ist natürlich: Können wir einen universitätseigenen eScriptorium-Server aufsetzen, so dass wir die Schwierigkeiten des Zugangs durch das SCDH kanalisieren und abfedern können, so dass die Leute, die das benutzen wollen, das auch kostenfrei über den Uni-Server tun können. Das fände ich schon sehr angebracht.

Ein 4D-Browser für das Arbeiten mit Forschungsdaten

Redaktion: Was wurde denn noch auf der DHd diskutiert, das für Münster vielleicht spannend ist?

Immanuel: Also eine Sache ist mir beim Thema Forschungsdaten direkt ins Auge gesprungen: „Verknüpfung und Kontextualisierung durch Annotationen – Forschen mit multimodalen Daten“. Das ist ein Projekt aus Dresden. Und was da sehr imposant war und ich glaube auch wegweisend, ist ein sogenannter 4D-Browser. Es geht darum, die gesamte Stadtgeschichte, die natürlich bekanntermaßen in Dresden durch großen Wandel durchzogen ist, durch Zerstörung, Wiederaufbau und so weiter, dass man das in 3D-Modellen erfasst hat, und man kann da mit einem Schieberegler durch die Zeit gehen und gewissermaßen die verschiedenen Zeitstände sich anschauen. Natürlich kann man sich auch die Metadaten zu einzelnen Objekten anschauen, verschiedene Perspektiven sich überblenden lassen, durch Fotografien, die gemacht wurden von verschiedensten Leuten, die in Archiven gesammelt sind. Das kann man dann für interessante Analysen nutzen. Es gab zum Beispiel Heat Maps, von welcher Stelle aus die meisten Aufnahmen gemacht wurden und in welche Richtung. Ich fand dabei zum einen die Zeitdimension interessant, zum anderen die Perspektiven, die dann analysiert werden, also die Blicke gewissermaßen in der Stadt. Das wurde dann auch interessant aufgegriffen: Im Publikum war eine Professorin, die sich sich mit dem Dritten Reich befasste und die sich dafür interessierte, wie zum Beispiel Nazi-Aufmärsche die Kulisse der Stadt nutzen. Dafür könnte man diese Perspektiven und diese Fotos gut nutzen. Das war mal was ganz anderes als das ansonsten sehr dominierende Thema Sprachmodelle.

Redaktion: Abschließende Frage: Wo findet die nächste DHd-Konferenz statt? Steht das schon fest?

Jan: In Bielefeld, nächstes Jahr. Also kann man gut mal hinfahren, wenn man in Münster forscht. Und übernächstes Jahr treffen wir uns in Wien.

Kategorien: , ,

Kommentare

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Captcha wird geladen…

Weitere Beiträge