JAN CHRISTOPH MEISTER führt in das Workshopthema Automatisierung in der digitalen Textarbeit ein. Hintergrund dieses forTEXT-Expertenworkshops sei die Erfahrung aus der forTEXT-Projektarbeit, dass die niedrigschwellige Vermittlung von Digital-Humanities-Methoden früher oder später Fragen nach der Automatisierung aufwerfe. Dabei sieht Meister eine besondere Herausforderung darin, skalierbare Datenmengen als Kontinuum zu begreifen, sodass Automatisierung dementsprechend als dynamischer Prozess gestaltet werden sollte. Von der Narratologie kommend erkennt Meister, dass formale Beschreibungen die Textarbeit stark bereichern könnten, stärker noch als viele eher traditionell arbeitende Literaturwissenschaftler*innen glauben. Der Grund hierfür sei die Repetitivität systematischer Erfassung narrativer Merkmale mithilfe erzähltheoretischer Kategorien. Was immer wieder auftritt, müsse sich auch automatisiert erkennen lassen. Für den beginnenden Workshop wirft Meister die Frage auf, bis zu welcher Komplexitätsebene von Phänomenen es sinnvoll und möglich wäre, automatisch vorzugehen. Dabei dürfen auch Kosten-Nutzen-Relationen im universitären Kontext nicht unberücksichtigt bleiben.
Meister gibt abschließend einen kurzen Einblick in die zweite Projektphase von forTEXT, in der auch die Kooperation mit der Hamburger Informatik ausgebaut werden solle.
EVELYN GIUS betrachtet in ihrem Vortrag Automatisierung und Erkenntnisinteresse in der literaturwissenschaftlichen Textanalyse die literaturwissenschaftliche Textanalyse aus theoretischer Warte und fragt dezidiert nach Herausforderungen an die Automatisierung. Sie unterscheidet zunächst drei Schritte der hermeneutisch-literaturwissenschaftlichen Textanalyse: (1) die unmittelbare lesende Aufnahme des Textes, bei der Polyvalenzen eingeschränkt werden; (2a) die begriffliche Fixierung von Textphänomenen und (2b) die Fokussierung auf Textstrukturen sowie (3) das Nachvollziehen der Textbedeutung mit Konzentration auf die jeweilige Wirkungsgeschichte, hypothetische Autor*innenintentionen etc. Sie macht deutlich, dass in theoretischen Zugriffen die Grenze zwischen Analyse und Interpretation unterschiedlich gezogen wird und häufig dynamisch ist.
Das Projekt hermA erarbeitet vor dem Hintergrund der Peirce’schen Unterscheidung von Deduktion („something must be”), Induktion („something actually is operative”) und Abduktion („something may be”) verschiedene „Wege zur Erkenntnis“. Während für die Deduktion noch gewisse Regeln und Hypothesen vorhanden seien, käme bei der Abduktion immer etwas Neues hinzu. Die Textanalyse funktioniere demnach deduktiv, eine Kategorienbildung induktiv (wie es bspw. bei Genette in Bezug auf Prousts Recherche geschieht) und die (hermeneutische) Interpretation sei abduktiv.
Diese drei Dimensionen der Erkenntnisproduktion könnten auf einer Skala (induktiv – deduktiv – abduktiv) angeordnet werden, wobei eine Automatisierung schwieriger (bis unmöglich) würde, je abduktiver ein Ansatz sei. Problematisch bei derzeitigen Automatisierungsprojekten sei, dass implementierbare Routinen häufig nicht literaturwissenschaftlich „satisfaktionsfähig“ seien, denn Textoberfläche und Text als Bedeutungsträger hingen nicht unbedingt systematisch zusammen. Generell sei der Zusammenhang von deduktiven und abduktiven Zugängen noch weitestgehend unbekannt.
Gius nennt drei mögliche Herangehensweisen an diese Problematik: (1) Die Operationalisierung sollte sich auf Machbares fokussieren, was nicht gleichbedeutend damit sei, dass man sich einschränken müsse. Methodisch käme dies den „instrumental variables“ (vgl. Moretti 2013, 104) gleich, bei denen Dinge betrachtet würden, die sich systematisch ähnlich verhalten wie diejenigen Dinge, an denen man interessiert sei. (2) Eine durchdachte Komplexitätsreduktion könnte stabile, literaturwissenschaftlich sinnvolle Voranalysen als Basis nutzen. Methodisch bedeute dies eine Analyse der Komplexität (sowohl des Gegenstandes wie der Methode, denn Strategien der Reduktion müssten beides betreffen). Eine Modellierung sei notwendigerweise eine Vereinfachung und man müsse Interdependenzen betrachten. (3) Man müsse getreu der diskursiv verfahrenden Erkenntnisproduktion in der Literaturwissenschaft die literaturwissenschaftliche Relevanz sicherstellen, indem man methodisch auf Expert*innen-Annotationen und -Feedback zurückgreift. Gius’ eigener Ansatz in diesem Feld ist die Identifikation sinntragender Segmente (wie narrative Ebenen, Szenen, Ereignisse etc.).
In der Diskussion wird insbesondere folgende Position kontrovers diskutiert: Da die literaturwissenschaftliche Interpretation zumeist eine holistische Sichtweise (abduktiv) einnehme und sich nicht auf Einzelheiten fokussiere, müsse das Fernziel von Automatisierungsbemühungen ebenfalls die holistische Interpretation sein, um ein Feld aufzuspannen, bei dessen Durchschreitung viele Teilprobleme zu bearbeiten wären. Gleichzeitig müsse die Literaturwissenschaft selbst anfangen, stärker zu differenzieren.
Demgegenüber könne man Interpretation auch als granulares Konzept begreifen, das nicht immer holistisch sein müsse, sondern auch auf einer unteren Ebene ansetzen könne. Es müsse bei dieser Diskussion generell zwischen Close Reading und Distant Reading unterschieden werden (die literaturwissenschaftliche „Satisfaktionsfähigkeit” gehe i. d. R. vom Close Reading aus) und die Frage sei stets: Kann eine automatische Routine Literaturwissenschaftler*innen in ihrer Arbeit unterstützen oder nicht? Finde-Heuristiken seien hilfreich, wenn es nur um den Recall und nicht um die Precision gehe; dabei sei aber eine Automatisierung nicht das Ziel und Werte von z. B. 37 % könnten dabei schon ausreichend hilfreich sein. Es werde komplizierter, wenn man nicht bewerten könne, welche relevanten Textstellen automatisch nicht gefunden wurden.
Diskutiert werden zudem Bewertungsmöglichkeiten von Inter-Annotator-Agreements (die in den Literaturwissenschaften nicht das primäre Ziel zu sein schienen, auch bei einem schlechten Inter-Annotator-Agreement kann das Feedback eines einzelnen Annotators literaturwissenschaftlich interessant und relevant sein). Man verlange nicht, dass der Computer besser werde als der menschliche Annotator. Man bräuchte jedoch nicht nur für die richtigen Ergebnisse eine systematische Evaluationsmetrik, sondern ebenso für die Fehler. Es wäre erstrebenswert, herauszufinden, wie viel Disagreement noch als (literaturwissenschaftlich) erkenntnisproduktiv empfunden wird, bzw. die Faktoren zu benennen, die für diese Kategorisierung ausschlaggebend seien.
DANIËL DE KOK zeigt in seinem Vortrag Neural natural language processing in WebLicht: state-of-the-art and future perspectives die Webanwendung WebLicht, eine Toolpipeline für individuelle, automatisierte Workflows. WebLicht berechne dynamisch, welche Toolzusammensetzungen genutzt werden können, und unterstütze die Nutzer*innen so beim Ausführen komplexer Prozesse. Der Toolumfang, der unter anderem Tokenizer, Part-of-Speech-Tagger und Named Entity Recognizer umfasse, sei für Ergänzungen offen und könne jederzeit durch die Open-Source-Community erweitert werden.
WebLicht nutze ein TCF-Format und funktioniere mit einer Reihe anderer Austauschformate, sodass es auch in Kombination mit anderen Tools genutzt werden könne. Über die WebLicht-API könnten einzelne Komponenten in andere Tools integriert werden.
Nach der Einführung in WebLicht stellt de Kok die Implementierung von Vector Representations und Deep Neural Networks vor, die die WebLicht-Entwicklung zukünftig ergänzen werde. In der Vector Representation würden Wortähnlichkeiten in Vektoren umgerechnet, die in unterschiedlichen Winkeln zueinander stehen könnten. Kleine Winkel ließen auf ähnliche Wörter schließen, Wörter mit großen Winkeln zwischen den sie repräsentierenden Vektoren seien einander unähnlich. Mithilfe des Deep Neural Network-Modells würden zusätzlich Wörter vor und nach einem spezifischen Wort untersucht. Bezüge von vorausgegangenen und nachstehenden Wörtern würden mathematisch erfasst und kombiniert (entsprechend einer Theorie der rekursiven neuronalen Netze). Informationen der Wortumgebung und kumulative Referenzen würden ebenfalls einbezogen, um zu einem tieferen Wortverständnis zu gelangen. Mithilfe dieser Methode werde Part-of-Speech-Tagging von 97% auf 99% Akkuratesse verbessert, Dependency Parsing sogar von 90% auf 96%.
In der Diskussion gibt es zunächst einige Nachfragen bezüglich der Nutzung von WebLicht: Die unterstützte Sprachenvielfalt wird ebenso angesprochen wie das Exportformat (TCF), die Zusammenarbeit mit CLARIN und die Nutzeranzahl (die bei einigen Tausend liegt). Für das WebLicht-Exportformat wird geklärt, dass es auf Spannen beruhe und somit nach einem Export und manueller Ergänzung auch wieder importiert werden könne. Festgestellt wird, dass eine Komponente hilfreich sei, mit der bestimmte Elemente aus einem Text herausgenommen werden könnten. Die vorgestellte Methode sei in ein paar Wochen in WebLicht nutzbar.
Neben diesen dezidierten Nachfragen werden auch größere Zusammenhänge diskutiert. Part-of-Speech-Tagging sei heutzutage eher ein Schritt im Preprocessing, den Wissenschaftler*innen auf dem Weg zu den für sie eigentlich interessanten Methoden zurücklegten. Aus literaturwissenschaftlicher Perspektive wird nachgefragt, wie viele Daten für das Training der vorgestellten Methode gebraucht würden, da literaturwissenschaftliche Daten meist nicht besonders gut in frei nutzbaren Datensammlungen repräsentiert seien. In der Tat würden die vorgestellten Methoden zunächst mit linguistischen Daten erprobt, da diese massenweise verfügbar seien. Eine Domänenanpassung für die Literaturwissenschaft könne auch dann noch gemacht werden, wenn die Methoden als solche bereits erprobt seien. Insbesondere für die Nutzer*innen von forTEXT wäre eine Erprobung für ihre speziellen Forschungsgegenstände aber sehr wichtig.
CHRIS BIEMANN setzt sich in seinem Vortrag Interaktive Entitätennetzwerke zur Informationserschließung von Text zum Ziel, Zukunftsperspektiven aus der beispielhaften Vorstellung einiger Tools abzuleiten. Entitätennetzwerke (vgl. → Named Entity Recognition und → Netzwerkanalyse) setzten einen akteurzentrierten Fokus voraus (anders als bspw. der inhaltszentrierte Zugriff beim → Topic Modeling). Bei der Entwicklung von Tools zur automatisierten Unterstützung von Analyseroutinen sei es wichtig, dass die Nutzer*innen (a) Toolvorschläge annehmen und ablehnen können und (b) nachvollziehen können, aus welchen Quellen die jeweiligen Ergebnisse stammen. Tools sollten dabei interaktiv mitlernen und sich an die Benutzer*innen idealerweise so anpassen, dass diese es nicht merkten. Dies sei durch die Implementierung eines Vorschlagsalgorithmus zu erreichen, der von selbst ab einem gewissen Punkt beginne, Vorschläge zu machen. Dafür müssten die Geisteswissenschaftler*innen mit ihrem Know-How in den Arbeitsprozess integriert werden. Ein mitlernendes Tool habe das Potential, auf Konzeptveränderungen zu reagieren und diese im Systemverhalten direkt umzusetzen. Biemann stellt in diesem Sinne drei Tools vor: (1) das Network of the Day, (2) den Storyfinder und (3) New/s/leak.
(1) Das Tagesnetzwerk sammelt tagesaktuelle deutsche Nachrichten über RSS-Feeds und Webseiten und stellt diese als Netzwerk dar, in denen die Knoten auffaltbar sind und wiederum knoteninterne Netzwerke anzeigen. Ein Klick auf die Kanten zeigt die Originalquellen an, wodurch häufig auch unerwartete „Nadeln im Heuhaufen“ gefunden werden könnten.
(2) Der Storyfinder ist ein personalisierter Mitleser und funktioniert als lokal installiertes Browserplugin. Die Nutzer*innen können Weblektüre hinzufügen, an die sich der Storyfinder zukünftig erinnern wird. Aus dieser gesammelten Lektüre baut das Tool ein Entitätennetzwerk.
(3) New/s/leak wurde zusammen mit dem SPIEGEL für investigativen Journalismus entwickelt und soll mithilfe etlicher Filteroptionen (Keywords oder Personen, Orte, Organisationen) ermöglichen, in großen Textmengen schnellstmöglich solche Meldungen zu finden, die sich durch einen hohen Neuigkeitswert auszeichnen.
Im Zentrum der anschließenden Diskussion steht besonders die Frage nach der Übertragbarkeit auf literaturwissenschaftliche Kontexte. Die NER in den Tools sei auf Zeitungstexte spezialisiert, wodurch zu Beginn vor allem Vornamen ohne Nachnamen nur sehr schlecht erkannt worden seien. Bei literarischen Texten müsste man zudem genauer Grenzen definieren, um zu schauen, welche Entitäten in der Nähe von anderen Entitäten auftreten.
Außerdem kommt die Frage auf, ob man ein Tool so konzipieren könnte, dass man Filter parametrisieren kann (zunächst Entitäten, dann Ereignisse, jetzt Verben etc.), sodass man ein Korpus in derselben Umgebung iterativ aus unterschiedlichen Perspektiven betrachten könne, was auch literaturwissenschaftlich interessant wäre. Technisch sei das prinzipiell möglich und durch das Hinzufügen weiterer Filter-Spalten im Backend zu erreichen. Ein Netzwerk werde als ganzes Netzwerk ohnehin nicht gespeichert, sondern immer im Moment der Abfrage generiert. Es würden immer nur Aspekte eines Netzwerks analysiert und i. d. R. nicht das Netzwerk als Ganzes.
Schließlich weckt auch die Empfehlungsfunktion das Interesse der Diskutierenden. Beim → kollaborativen Annotieren würden beispielsweise live Kategorien ausgehandelt und es entstehe sofort ein neuer Konsens. Das Inter-Annotator-Agreement sei in diesem Moment weniger aussagekräftig und auch nicht mehr so interessant. Generell müssten Informationen, die von Nutzer*innen generiert werden, jedoch konsistent sein, um sie für einen Algorithmus lernbar zu machen. Freitextkommentare wären dafür nicht geeignet.
ANNELEN BRUNNER stellt in ihrem Vortrag Zur automatischen Erkennung von Redewiedergabe-Formen – Work in progress Zwischenergebnisse aus ihrer laufenden Projektarbeit vor. Sie skizziert den theoretischen Hintergrund der narratologischen Textanalyse und legt dar, dass eine automatische Redewiedergabe-Erkennung die Untersuchung literarischer Texten ebenso bereichern könne wie die Analyse von Sachtexten. In ihrem Projekt nutzt sie insbesondere Genettes Kategorisierungen der Redewiedergabe (direkte, indirekte, erzählte, freie indirekte Rede und Redebericht). Sie macht deutlich, dass sie sich mit ihrem Team noch mitten in der Projektarbeit befinde und darum bestimmte Auswertungen (z.B. Entwicklung von Indikator-Klassen oder Identifizierung von Störfaktoren beim Vergleich der Testergebnisse) noch nicht durchgeführt worden seien.
Brunner weist auf die Probleme einer auf An- und Abführungszeichen basierenden Erkennung bei bereits existierenden Tools wie CoreNLPQuote und GutenTag hin. Dazu gehören die Verwendung dieser Zeichen für Titel, die uneinheitliche Zeichennutzung und dass manche Autor*innen von Literatur diese Zeichen generell gar nicht nutzen. Am Beispiel der freien indirekten Rede (einer Kategorie, die besonders schwer zu erkennen sei, da sie sich nur leicht von den Nachbarkategorien der erzählten Rede und dem Wiedergabebericht unterscheide) zeigt Brunner erste Ergebnisse, die sie mit einer regelbasierten Erkennung in Kombination mit Deep Learning und → manueller Annotation erreicht hat. Menschliche Erkennungsraten liegen für diese Kategorie bei 70% F1-Score, 73% Precision, 76% Recall und 93% Accuracy. Da die freie indirekte Rede in moderner und zeitgenössischer Literatur besonders häufig vorkommt, liegt den Untersuchungen ein Spezialkorpus zugrunde, das vor allem moderne Heftchenromane und Krimis umfasst. Die regelbasierte Erkennung erreicht Werte von 37% F1-Score, 57% Precision, 27% Recall und 88% Accuracy, was mithilfe von Deep Learning auf 52% F1-Score, 65% Precision, 43% Recall und 96% Accuracy gesteigert werden konnte. Die größten Probleme bei der automatischen Redewiedergabe-Erkennung seien derzeit die schlechten Recall-Werte (d. h. es werden zu wenig Vorkommnisse erkannt) und die schlechte Erkennung von Übergängen von der Erzählerrede zur freien indirekten Rede.
Insgesamt zeige sich schon zu diesem frühen Projektzeitpunkt der Trend, dass die automatische Erkennung von Redewiedergabe in Heftchenromanen etwas schlechter funktioniere als in traditionelleren Formaten. Darüber hinaus sei die Erkennung der Redewiedergabe sehr stark von der jeweiligen Kategorie abhängig. Dagegen unterschieden sich die Erkennungsraten in fiktionalen Texten weniger stark von denen in Sachtexten, als vielleicht zu vermuten wäre.
In der Diskussion wird geklärt, dass das Korpus, das zur Erkennung der freien indirekten Rede erstellt wurde, wahrscheinlich nicht veröffentlicht werden könne, da es nicht aus gemeinfreien Texten bestehe und der Umfang wahrscheinlich über der 10%-Grenze für Zitate liege. Die Materialien könnten aber vor Ort weiter genutzt und auch geprüft werden.
In Bezug auf die Relevanz des Projektes für die Narratologie wird festgehalten, dass ein Korpus wünschenswert sei, an dem die digital arbeitende literaturwissenschaftliche Community gemeinsam arbeiten könne. Vor allem im Hinblick auf die theoretische Basis sei aber auch wichtig, sehr genau zu spezifizieren, auf welche literaturwissenschaftlichen Traditionen und Modelle man sich stütze. Im Falle des Redewiedergabe-Projektes verfolge man z. B. eine sehr enge Definition der erlebten Rede. Der Prozess des Modellierens sei aber natürlich dynamisch, was auch darauf zurückzuführen sei, dass die Definitionen der Narratologie zum Teil nicht spezifisch genug seien bzw. noch weiter ausdifferenziert werden könnten. Solche Spezifikationen müssten dann wieder in die eher traditionell arbeitende literaturwissenschaftliche Community rückvermittelt werden.
Über den Zeitpunkt dieser Rückvermittlung ist sich das Plenum nicht einig. Auf der einen Seite ist die Meinung vorherrschend, dass der Kontakt zur traditionellen literaturwissenschaftlichen Community von vornherein und fortwährend eng sein sollte. Die andere Seite gibt zu bedenken, dass die Tools und Methoden der Digital Humanities erst erprobt werden müssten, bevor sie wirklich für die traditionellen Geisteswissenschaften relevante Ergebnisse hervorbringen könnten. Vorbehalte gegenüber der Methodik könnten auch dadurch entstehen, dass die Traningskorpora, die derzeit genutzt würden, als „trivial” betrachtet werden könnten, sodass der Eindruck entstünde, dass die traditionelle Community und die digitalen Geisteswissenschaftler*innen grundsätzlich an sehr unterschiedlichen Gegenständen forschen würden. Auch sei die Herangehensweise der Digital Humanities an Forschungsgegenstände etwas anders als in traditionelleren Gebieten der Literaturwissenschaften, da hier immer relational gedacht werde. Bevor also Sonderformen oder herausragende Beispiele der Literatur erforscht werden könnten, müssten erst einmal die Normalformen des Erzählens ausgemacht werden. Weitgehende Einigkeit herrscht allerdings darüber, dass bestimmte Tools, Routinen und Methoden der DH zum jetzigen Zeitpunkt bereits robust seien und als gut erprobt angesehen werden könnten. Diese Tools und Methoden könnten schon jetzt sehr gut an traditioneller arbeitende Geisteswissenschaftler*innen weitergegeben werden und das forTEXT-Projekt zeige auch, dass ein entsprechendes Interesse seitens der Literaturwissenschaftler*innen vorhanden sei.
FRANK FISCHER nähert sich der Automatisierung in seinem Vortrag „Programmable Corpora” in der Praxis von der Seite der digitalen Dramenanalyse. Dem Projekt → DraCor: Drama Corpora Project liege die Überzeugung zugrunde, dass Forschungsprojekte eine dedizierte Infrastruktur benötigen (und auch erzeugen). DraCor bietet daher eine Schnittstelle (API) für Literaturwissenschaftler*innen, mit der weiternutzbare Daten schnell erzeugt werden könnten. Die Daten, die auf der Plattform per Knopfdruck Figurennetzwerke erzeugen, würden direkt auf Grundlage des TEI bei GitHub generiert und seien daher stets aktuell. Um die erweiterbare API herum könne jeder zusätzliche Apps bauen (wie z. B. Shiny DraCor). Die gesamten Metadaten eines Korpus (wie hier des russischen) ließen sich zudem auch direkt in Excel importieren, um dort analysiert zu werden. Neben den bereits angebotenen Korpora seien noch Korpora zu Ibsen und Holberg, schwedischen, baschkirischen und italienischen Dramen in Planung. DraCor habe zudem einen didaktischen Impetus durch (1) die Verknüpfung mit dem leicht bedienbaren Netzwerktool → Ezlinavis und (2) der Veröffentlichung des Dramenquartetts Brecht beats Shakespeare im Sinne der Gamification.
Die Idee der „Programmable Corpora“ behandele Korpora als vergleichbare Objekte, die selbst Funktionen anbieten und (via LOD) mit anderen Datenquellen verbunden seien. FAIR-Prinzipien sorgten für eine Reproduzierbarkeit und eine Andockbarkeit sei auf allen Ebenen (TEI, API, R, Python etc.) gewährleistet. Dynamische Daten seien mit dem ndtv-Package „out of the box“ generierbar.
Eine solche Anbindung sei beispielsweise an die Linked-Open-Data-Cloud möglich, indem z. B. der Wikipedia-Artikel zu jedem Drama verlinkt würde, um automatisch die Uraufführungsorte auszulesen und dadurch regionale Verzerrungen in der Textauswahl zu vermeiden. Man könne zudem die Repräsentativität eines Korpus anhand der Anzahl von Wikipedia-Links zu den einzelnen Texten messen, was einer Metrik zur Messbarkeit von Weltliteratur gleichkäme.
In der Diskussion wird insbesondere die Skalierbarkeit des Projektes lobend hervorgehoben: Es wecke Neugierde bei Einsteiger*innen und könne dann für komplexere Anwendungsfälle weiter genutzt werden. Da das Projekt sich noch in der Alpha-Phase befinde (Veröffentlichung von Version 1.0 ist für Dezember geplant), seien Fragen der infrastrukturellen Einbindung (DARIAH-EU oder die europäische Time-Mashine-Projekte werden vorgeschlagen) und weiteren Förderung noch nicht geklärt, Vorschläge aber gerne gesehen. Eine Schwierigkeit sei mitunter die Einbindung anderer Korpora, deren Markup nicht unter einer freien Lizenz steht. Oft sei hier Überzeugungsarbeit dahingehend zu leisten, dass das offene und transparente Andocken an eine Forschungsplattform einem Korpus erst zur vollen Geltung verhelfe.
Besprochen wird auch das den Netzwerken, aber auch insbesondere dem Kartenspiel inhärente Übersetzungsmoment in ein anderes Medium. Die komparatistischen Diskussionen über Weltliteratur konzentrierten sich auf diesen Übersetzungsprozess und sollten beachtet werden. Es gibt aktuelle Forschungsarbeiten auch in den Digital Humanities, die sich diesem Problem widmen (z. B. Trilcke/Fischer (2018): „Literaturwissenschaft als Hackathon” oder das Projekt QuaDramA). Das Ziel von medialen Übersetzungen sei nicht, den Text loszuwerden, sondern wieder zurück zum Text zu kommen, denn man solle nicht vergessen, was man eigentlich formalisiert habe. Eine Rückanbindung von Visualisierungen an den Text (wie bspw. auch in → CATMA möglich) sei daher stets wichtig.
Schließlich werden Datenformate besprochen. Grundsätzlich möchte DraCor möglichst wenig invasiv arbeiten. Daher werden Metadatenschema der jeweiligen Korpora übernommen und erweitert und nur die eigenen Korpora (deutsch und russisch) haben ein einheitliches Schema. Die Diskussionsteilnehmer*innen betonen die Notwendigkeit eines dezidiert literaturwissenschaftlichen Metadatenschemas.
NILS REITER greift in seinem Vortrag Automatisierungsperspektiven für die Erforschung von Literatur einige Diskussionspunkte des Workshops auf und stellt die Frage, was getan werden müsse, um Ergebnisse aus den Digital Humanities anschlussfähig zu machen. Er stellt zunächst zwei Möglichkeiten der DH-Forschung vor, einen Top-Down- und einen Bottom-Up-Ansatz, weist aber darauf hin, dass sich die Herangehensweisen in der Realität zumeist überlappten. Eine Möglichkeit eines Top-Down-Ansatzes sei die vorangehende Konzeptentwicklung und -operationalisierung. Die hieraus entstandenen Modelle könnten dann literaturwissenschaftlich angewandt werden (z. B. könnten Annotationen damit erstellt werden). Eine Möglichkeit des Bottom-Up-Verfahrens sei die explorative Betrachtung eines Korpus mit einer eher vagen Konzeptidee im Hinterkopf. Per Trial and Error könnten auf diese Weise Muster entdeckt werden, die man dann konzeptionell verwerten könne. Der hier skizzierte Top-Down-Ansatz könne in erster Linie durch Menschen realisiert werden. Beim Bottom-Up-Verfahren könnten dagegen von Beginn an Computer und damit auch Automatisierung eingesetzt werden.
Reiter stellt fest, dass Vollautomatisierung in manchen Fällen nicht erreicht werden könne und auch nicht immer ein sinnvolles (wenn auch meist von Computerlinguist*innen das erklärte) Ziel sei. Es könne sehr sinnvoll sein, die manuelle Exploration bereits in den Entwicklungsprozess der Automatisierung einzubeziehen, statt sie an dessen Ende zu setzen, wie es in der Computerlinguistik häufig passiere.
Als wichtigen Unterschied zwischen computerliguistischer Forschung und (digitalen) Literaturwissenschaften stellt Reiter die Einstellung zur generischen Toolentwicklung heraus. Während diese in der Computerlinguistik durchaus Ziel eines Forschungsprojektes sein könne, stünden in einem literaturwissenschaftlichen Projekt häufig Fragen im Vordergrund, die eine für den jeweiligen Forschungsgegenstand sehr spezifische Methodik benötigten. In einem solchen Zusammenhang entwickelte Modelle und Tool seien nicht immer auf andere Projekte übertragbar.
Als Ziele der Automatisierung schlägt Reiter vor:
- eine Finde-Heuristik: Vorgeschlagen würden Textstellen, die relevant sein könnten für eine Analyse,
- die Unterstützung von Annotationen durch Vorschläge,
- das Testen von Hypothesen.
Problematisch sei, dass Claims in der Literaturwissenschaft nicht immer als Hypothesen ausformuliert würden. D. h. dass ein erster Schritt der Operationalisierung immer sein müsse, konkrete Hypothesen zu finden und diese dann Schritt für Schritt zu definieren. Der Automatisierungsprozess könne in einem solchen Falle auch ein Weg sein, der von der Ursprungshypothese wegführt. Reiter wirft die Frage auf, wie viel Kontext benötigt werde, um mehrdeutige Aussagen auflösen zu können. Und inwiefern sei eine solche Auflösung überhaupt wünschenswert, da die Mehrdeutigkeit literarischer Texte ja gerade einen spezifischen Wert darstelle. Reiter schlägt vor, Lesarten in Bezug auf ihre Plausibilität zu klassifizieren, ein Vorgehen, das in der Linguistik bereits angewendet werde, um sich diesem Ambiguitätsproblem anzunähern.
Reiter geht noch einen Schritt weiter, indem er feststellt, dass es eine spezifische Qualität des Computers sei, Dinge wie z. B. unplausible Lesarten nicht einfach auszusortieren, wie menschliche Leser*innen es beim Lesen vielleicht tun würden. Durch diese Qualität könne einem Zirkelschluss vorgebeugt werden, bei dem bereits im Vorhinein feststünde, welcher Lesart bei einer bestimmten Interpretation gefolgt werde.
Schließlich sei der Bereich der Domain Adaptation in den letzten Jahren in den Digital Humanities vermehrt in den Fokus gerückt. Er zeigt auf, dass die Übertragung einer digitalen Methode auf einen unbekannten Gegenstand vor allem dann zum Problem werden könne, wenn das genutzte Tool als Black-Box funktioniert. Reiter plädiert darum dafür, manuelle und automatische Prozesse von vornherein zu verbinden, um eine Methode gar nicht erst zur Black-Box werden zu lassen. Darüber hinaus sei die fortlaufende Fehleranalyse sehr fruchtbar, um Methoden und Programme stetig zu verbessern.
In der anschließenden Diskussion wird zu bedenken gegeben, dass Trial Run eine gute Lösung sei, die allerdings den Forschungsprozess zeitlich belasten könne. Darum sei es wichtig, zwischen der Nutzerperspektive und der Entwicklung zu unterscheiden. Es wird in Frage gestellt, ob Black-Boxen tatsächlich in irgendeiner Weise akzeptabel seien.
In Bezug auf die Klassifikation plausibler Interpretationen wird angemerkt, dass es womöglich kein finites Set an Interpretationen gebe. In Abhängigkeit von der Argumentation könne sehr vieles als plausibel eingeschätzt werden. Hinzu kämen dann noch Unschärfe-Bereiche, in die Annahmen fallen könnten, über die Uneinigkeit herrscht.
In Ergänzung zum Top-Down-Ansatz der literaturwissenschaftlich fundierten Modelle sei ein weiteres Vorgehen denkbar. Statt möglichst flächendeckend Praktiken aus den traditionellen Literaturwissenschaften übernehmen zu wollen, wäre denkbar, sich auf die Ansätze zu konzentrieren, die bereits in den Denkmustern der Digital Humanities verankert seien. Es sei allerdings allgemein ein Trend innerhalb der DH zu erkennen, der von explorativen Arbeiten (wie z. B. denen Matthew Jockers) hin zu hypothesengeleiteten Untersuchungen (wie z. B. von Underwood vorgelegt) führe.
(Protokoll: Jan Horstmann & Mareike Schumacher)
Dateianhang | Größe |
---|---|
Präsentation Annelen Brunner | 861.86 KB |
Präsentation Chris Biemann | 4.83 MB |
Präsentation Daniël de Kok | 1017.15 KB |
Präsentation Evelyn Gius | 692.2 KB |
Präsentation Nils Reiter | 3.13 MB |