Ergebnisprotokoll
In seiner Einführung weist JAN CHRISTOPH MEISTER darauf hin, dass es nicht an allen Universitäten im deutschsprachigen Bereich DH-Studiengänge oder DH-Professuren gebe, weshalb sich viele der an digitalen Methoden interessierten Forschenden und Studierenden selbstinitiativ über beispielsweise Summerschools oder Online-Tutorials einen Zugang zu den DH schaffen müssten. Diese Gegebenheiten müsse man berücksichtigen, wenn man – wie es im Projekt forTEXT geschieht – über adressatenorientierte Beratungskonzepte nachdenkt. Innerhalb der philologischen Fachdisziplinen seien die Digital Humanities noch immer ein kleiner Aspekt, so haben beispielsweise nur 7 von 128 (5,5 %) von der DFG innerhalb der Philologien von 2005–2015 geförderten Projekte laut GEPRIS-Analyse einen ausgewiesenen digitalen Anteil. Als primäre Zielgruppe des Disseminationsprojektes forTEXT werden daher Literaturwissenschaftler*innen mit primär qualitativ/hermeneutischen Fragestellungen ohne DH-Vorkenntnisse genannt, die häufig auch noch Nachwuchswissenschaftler*innen seien. Ein solcher Schwerpunkt auf qualitativ-hermeneutische, manuelle Texterschließung konzentriere sich auf den Bereich zwischen habitualisierten analogen Forschungspraktiken und formalisierten digitalen Forschungsmethoden.
ELISABETH BURR geht es in ihrem Vortrag Digital Humanities bottom-up und integriert. Wie geht das und wie könnte es besser gehen? dezidiert um die Studierenden. Sie berichtet von ihren Erfahrungen, die DH in grundständige Seminare der Romanistik zu integrieren. Es sei wichtig, die Studierenden, die kein Verständnis von Datenbanken, Wikis, digitalem Referenzieren, Auszeichnung oder TEI haben, an ein konzeptionelles Verständnis schrittweise heranzuführen. Das von ihr entwickelte Modul (bestehend aus zwei Masterseminaren und einem Tutorium mit 15 bis 20 Masterstudierenden) rekurriert daher auf den Buchdruck als Medienrevolution, um ein kritisches Verständnis der digitalen Revolution und ihren Auswirkungen zu ermöglichen. Anhand der Frage „Was ist Text?“ verfolgen die Studierenden die Entwicklung von der scripta continua (der Handschrift ohne Spatien) zum Buchdruck mit seinen Spatien, hin zum digitalen Text mit seinen zwei Ebenen. Eine Transkription und Auszeichnung von Texten im TEI-xml-Format und die anschließende Analyse werden zu einem studentischen Beitrag zum Projekt und in einer Projektarbeit am Ende werden die einzelnen Teile ineinander integriert und teilweise weiterentwickelt. Die Problematisierungs- und Theoretisierungsphase am Anfang verhindere häufig Erfolgserlebnisse, weshalb Konzepte wie Spielen, Ausprobieren und Tun gefördert werden sollten. Burr macht die Beobachtung, dass geisteswissenschaftliche Studierende dabei schnell einen Zugang zu finden scheinen. Sie beobachtet bei den Studierenden zudem große Befriedigung darüber, sich mit alten Dokumenten auseinandersetzen zu können. Studierende legten mit der Zeit selbst Tabellen mit den Unicodes an, nähmen Eintragungen im TEI-Header sinnvoll vor und die praktische TEI-Auszeichnung mache schnell Spaß. Burr plädiert für eine flexiblere digitale Arbeitsumgebung. Moodles Linearität widerspreche beispielsweise dem geisteswissenschaftlichen Arbeitsprozess; Wikis, Datenbanken, Etherpads, etc. müssten integriert werden und die jeweilige Arbeitsumgebung müsse online und offline nutzbar sein.
In der Diskussion besprechen die Teilnehmer*innen unter anderem, ob es nicht eine zu vermittelnde Kompetenz darstelle, zwischen vielen digitalen Tools wechseln zu können, da es realiter keine allumfassende Umgebung gebe. Außerdem wird eine Tendenz wahrgenommen, in dem besprochenen Modul vor allem kommerzielle Tools (wie beispielsweise Endnote statt Zotero etc.) zu nutzen, statt den Studierenden open-source-Werkzeuge für die zukünftige private Nutzung an die Hand zu geben. Als Grund dafür wird angegeben, dass Lizenzen für Universitäten und Studierende mittlerweile sehr günstig geworden seien und daher die Nutzerfreundlichkeit eine wichtigere Rolle spiele.
In ihrem Vortrag Wie und wo entsteht in traditionellen literaturwissenschaftlichen Projekten Bedarf an digitalen Methoden? Erfahrungsbericht mit Verallgemeinerungsanspruch berichtet SIMONE WINKO von einem literaturwissenschaftlichen Projekt, das aktuell an der Universität Göttingen durchgeführt wird. In diesem Projekt, das ursprünglich ohne die Einbeziehung digitaler Methoden konzipiert worden ist, geht es um die Analyse der Argumentationspraxis in literaturwissenschaftlichen Interpretationstexten. Hierzu wird ein Korpus aus 100 Interpretationstexten händisch und nach einem eigens entwickelten Analyseverfahren in Form ‚dichter Beschreibungen‘ ausgewertet. Im Rahmen der Projektkonzeption wurde zwar zunächst geprüft, ob die im Projektkontext relevanten Fragestellungen auch mithilfe automatisierter Methoden durchgeführt werden können – dabei hat sich jedoch herausgestellt, dass digitale Methoden zur Argumentanalyse (argumentation mining) für die anvisierte Analyse unterkomplex sind. Erst im späteren Projektverlauf hat sich herausgestellt, dass quantitative digitale Analysen als einzelne Analysebausteine in unterschiedlichen Projektphasen durchaus hilfreich sein könnten. Eine nachträgliche Integration solcher Methoden in das Projekt erwies sich jedoch als äußerst zeit- und arbeitsintensiv – insbesondere in Ermangelung von Hilfsangeboten für die Aufbereitung des Textkorpus für die digitale Analyse sowie an Beratungsangeboten für die Auswahl, Nutzung und Kombination relevanter digitaler Tools. Winko leitet aus dieser Erfahrung den allgemeinen Bedarf an Beratungsangeboten ab, die fachwissenschaftliche Expertise mit digitaler Kompetenz verbinden und so interessierten Forscher*innen auf die jeweiligen Forschungsprojekte (oder Projekttypen) zugeschnittene Hinweise zur Nutzung digitaler Angebote liefern können. Um Literaturwissenschaftler*innen neu für die Nutzung digitaler Methoden gewinnen zu können, schlägt Winko u.a. vor, niedrigschwellig zugängliche Tools zu entwickeln sowie den Nutzen der Methoden für die Generierung sowohl der anvisierten als auch unerwarteter Erkenntnisse herauszustellen.
In der anschließenden Diskussion wird unter anderem die Fragen aufgeworfen, wie sehr Beratungsangebote zu digitalen Methoden tatsächlich individuell auf einzelne Fachdisziplinen (beispielsweise Linguistik und Literaturwissenschaft) zugeschnitten sein müssen und ob bereits existierende Tool-Verzeichnisse zum Zweck der Informationsbeschaffung für geisteswissenschaftliche Projekte nicht bereits hinreichend seien. In Reaktion auf beide Fragen wurde noch einmal betont, dass sowohl persönliche DH-Beratungsangebote als auch Nachschlagewerke viel stärker als bisher auf die fachwissenschaftlich-geisteswissenschaftlichen Fragestellungen und Arbeitsweisen zugeschnitten sein müssen – die Übersetzungsleistung zwischen geisteswissenschaftlicher und digitaler Denk- und Arbeitsweise ist unerlässlich für die Akzeptanz digitaler Methoden auf Seiten geisteswissenschaftlicher Forscher*innen.
ALEXANDER GEYKEN widmet sich dem Thema der Plattform des DTA: Texte kuratieren und nachnutzen, die sich mit den Schritten beschäftigt, die vor Annotation und Analyse liegen. Das Deutsche Textarchiv (DTA) ist ein von 2007 bis 2016 von der DFG gefördertes Projekt, in dem 1500 Erstausgaben von 1650–1900 digitalisiert wurden und das ca. 100 Millionen Textwörter enthält. Die Kernkompetenz des DTA sei die Nachnutzung: Die durchgängige linguistische Annotation mache das DTA einheitlich recherchierbar und es gebe zahlreiche Downloadpakete. Eine leichtere Kommunikation zwischen den einzelnen Ressourcen solle zudem ermöglicht werden. Am Beispiel von Google Books zeigt Geyken Editionsfehler auf, die bei der Analyse zu Interpretationsfehlern führten; der Nutzer einer digitalen Textsammlung solle sich jedoch nicht Gedanken darüber machen müssen, ob die Metadaten korrekt eingegeben worden sind. Das interoperable Format DTABf solle Projekte, Forschende und Studierende motivieren, ihre Daten entsprechend der DTA-Richtlinien zu erstellen und im DTA zu veröffentlichen. Anwendungsbeispiele scheinen darauf hinzudeuten, dass die Richtlinien des DTA-Basisformats auch ohne umfassende Fachkenntnisse umsetzbar seien. In der Community DTAQ mit ihren 1300 Nutzer*innen finde zudem eine Datenqualitätssicherung statt. Das DTA arbeitet mit drei editorischen Erschließungstiefen: Level 1: notwendig, Level 2: empfohlen, Level 3: fakultativ (Level 4: unzulässig), wobei das DTA-Kernkorpus bis Level 2 vorgedrungen sei. Geyken berichtet von 2044 Downloads von DTA-Paketen allein im Januar 2018. Seit 2017 sei das DTA Teil von CLARIN, wodurch eine Nachhaltigkeit angestrebt werde. Zu konstatieren sei ein großer Beratungsbedarf, wobei die Kapazitäten geringer seien als die potentiellen Nutzungsanfragen.
Die Diskussionsteilnehmer*innen betonen, dass die Verknüpfung von Bild und digitalisiertem Text, wie sie im DTA üblich sei, gerade bei weniger technisch Versierten auf Zuspruch zu stoßen scheine. Man wünsche sich eine Annotationsumgebung, in der man das originale repräsentierte Manuskript bearbeiten könne. Die Frage, wie verschiedene Druckausgaben im DTA repräsentiert werden könnten, wird dahingehend beantwortet, dass aus lexikographischer Sicht prinzipiell die Erstausgabe gewählt wurde, es aber auch Fälle gebe, in denen zwei Ausgaben angeboten würden, da die Erstausgabe häufig nicht die beste sei. Die gepflegte und gute Dokumentation im DTA wird besonders lobend hervorgehoben. Sie sollte das Ziel für alle Projekte sein. Da viele Projekte 2020 ihrem vorläufigen Ende entgegensähen, sei der Community-Aspekt (DTAQ) zudem eine gute Perspektive für die Nachhaltigkeit und die Integration der Fachgemeinschaft. Die Fachcommunities konnten bislang jedoch nicht gut aktiviert werden. Eine Idee wäre, Aufgaben zu verteilen, sodass nicht der gesamte Workflow von einem Anbieter (wie dem DTA) übernommen werden müsse. Die Integration von nicht-DH-affinen Fachwissenschaftler*innen mache jedoch auch häufig sehr viel mehr Arbeit und produziere Daten, die weit davon entfernt seien, uploadfähig zu sein. Man sollte in diesem Problem jedoch auch eine Chance sehen; die Kompetenzen und Interessen der Geisteswissenschaftler*innen stellen einen Ansporn dar, um hochqualitative Projekte durchzuführen, die mit Papier und Bleistift so nicht durchführbar gewesen wären.
GABRIEL VIEHHAUSER adressiert in seinem Vortrag Die Interpretation im Zeitalter der technischen Reproduzierbarkeit. Überlegungen zur Verortung der Digital Humanities zwischen Analyse, Interpretation und Kollaboration die Frage, ob sich die digitale Literaturwissenschaft als eigenes literaturwissenschaftliches Teilgebiet verstehen muss oder ob sie sich in die traditionelle Literaturwissenschaft integrieren lässt. Ausgehend vom Benjamin’schen Gedanken, dass die Aura des technisch reproduzierten Kunstwerks verloren gehe, weist Viehhauser darauf hin, dass insbesondere digital-quantitative Analysen von Literatur (bzw. distant reading) womöglich in unterschiedlicher Hinsicht ein Abstandnehmen von der Idee erforderten, Kunstwerke seien auratisch und die Interpretation von Literatur selbst eine Kunst. Im Rahmen von distant reading würden zumeist nicht nur einzelne und kanonische literarische Kunstwerke untersucht, sondern große Korpora, die auch trivialere Literatur beinhalten können. Zudem hängen – durch die Häufigkeit bzw. Notwendigkeit von Kollaborationen im DH-Bereich – Interpretationen nicht mehr ausschließlich am Spezialwissen einzelner literaturwissenschaftlicher Spezialist*innen. Insgesamt hätten es digital generierte Textinterpretationen deswegen schwierig, in der traditionelleren Literaturwissenschaft ausreichend Anerkennung zu erfahren: Die Validität digitaler Interpretationen lasse sich am leichtesten zeigen, indem akzeptierte Interpretationen digital reproduziert würden – dann könne ihnen aber zugleich mangelnde Originalität attestiert werden. Viehhauser stellt beispielhaft eine mithilfe der digitalen Methode des Topic Modeling erstellte Gattungsanalyse mittelhochdeutscher Lyrik vor. Diese Analyse zeigt, dass sich in Texten, die der Gattung des Tagelieds zugehörig sind, ein hoher Anteil eines ‚Tagelied‘-Topics identifizieren lässt – d.h. ein hohes Vorkommen typischer Wörter bzw. Wortgruppen. Anhand dieses Beispiels macht Viehhauser deutlich, dass solche digital erzielten, quantitativ-analytischen Erkenntnisse sinnvollerweise durch qualitative Interpretationen kontextualisiert und angereichert werden sollten (scalable reading), um einen literaturwissenschaftlichen Erkenntnisgewinn zu bringen, der auch in der traditionelleren Literaturwissenschaft Anerkennung erfährt.
Im Rahmen der Diskussion wurde unter anderem die Frage diskutiert, ob die Interpretationen, die sich an die digitale Analyse anschließen bzw. auf ihr aufbauen, in Form von (Meta-)Annotationen direkt im digitalen Text dokumentiert werden sollten. Vorteile seien, dass Interpretationen dann ggf. direkt bestimmten Textpassagen oder digitalen Analyseergebnissen zugeordnet werden könnten und unterschiedliche Interpretationen besser exploriert werden könnten. Zu Bedenken gegeben wurde allerdings, dass es sinnvoll sein könnte, hier zwischen Begründungen für Analyseentscheidungen einerseits und weiterführenden, komplexen Interpretationen andererseits zu unterscheiden. Während erstere sinnvoll als (Meta-)Annotationen umgesetzt werden könnten, sollten letztere womöglich weiterhin eher in Form separater, zusammenhängender Texte präsentiert werden.
SANDRA RICHTER stellt in ihrem Vortrag Reading with the workflow – Karten und Graphen in der Literaturwissenschaft das Projekt GermanLiteratureGlobal.com vor und demonstriert damit eine Form der DH auf dem Weg zu einem „normalen Ansatz“ in der Literaturwissenschaft. Der Trend gehe dahin, dass auch traditionellere Fachwissenschaftler*innen affiner gegenüber DH-Ansätzen würden. Das Projekt besteht sowohl aus zahlreichen Daten über Veröffentlichungen deutschsprachiger Literatur, die in den DARIAH-Geobrowser eingespeist wurden inkl. weltweiter Übersetzungen, als auch Richters 700seitiger Monographie Eine Weltgeschichte der deutschsprachigen Literatur (2017). Es knüpft einerseits an die Debatte über Weltliteratur an und schaut sich Übersetzungen, Adaptionen, Rezeptionen etc. an, andererseits ist es jedoch auch ein Beitrag zur Debatte über distant oder scalable reading. Anhand von Beispielen wie Übersetzungen von Gessners Der Tod Abels, Goethes Werther und Rilkes Duineser Elegien zeigt Richter in ihrem Vortrag eine Komplexitäts- und Reflexionserzählung, ein „reading with/in the workflow“, welches zeigt, dass wir mit Graphiken/Karten/Netzwerken mehr sehen können als zuvor. Mit diesen Daten in eine existierende literaturwissenschaftliche Diskussion zu gehen, habe sehr großen Anklang gefunden, die Zugänglichkeits- und Offenheitsemphase (die Daten sind auf der Website frei zugänglich) erzeuge eine Experimentierfreudigkeit und zeige die Anschlussfähigkeit der Komplexitäts- und Reflexionserzählung. Als Ansätze für Beratungskonzepte sieht sie die Adressatenspezifik des DH-Angebots, Wandlungseffekte zu zeigen, Abwägungshilfe zu leisten sowie eine Reflexion der guten Gründe für einen DH-Einsatz und die Reflexion von Grenzen dieses Einsatzes. Best-practice-Beispiele könnten im Fach für Bewegung sorgen. Mit beispielhaftem Bezug auf das Deutsche Literaturarchiv Marbach zeigt sie den langsamen Aufwuchs von Digitalität und die Möglichkeiten, ein Archiv als digitales Archiv und auch als digitalen Kultort zu verstehen.
In der Diskussion wird positiv betont, dass durch einen Ansatz wie dem vorgestellten die Aura des Einzeltextes nicht beschnitten, sondern ganz neue Informationen erzeugt würden, die keine Bedrohung für die klassische Einzeltext-Fachwissenschaft seien. Das Projekt könne einerseits häufig die Aura von Texten und damit die Überzeugungen der Fachwissenschaftler*innen belegen, andererseits müsse man jedoch auch die Möglichkeit im Auge behalten, dass sich Vertreter*innen des klassischen Feuilletons auch in ihrem Kanon bedroht sehen könnten, wenn auf einmal die gesamte Weltliteratur auf ihnen zusammenbräche. Als häufiger Grund des Scheiterns von Projekten, die ähnlich angelegt sind, wird die Rechtslage in die Diskussion gebracht. So könnten beispielsweise häufig Gegenkorrespondenzen in Briefeditionen nicht mit veröffentlicht werden. Eine Möglichkeit bei open-source-Projekten wäre, dass man eine Plattform mit Passwortzugang versehe und nur für einen ausgewählten Nutzerkreis zugänglich mache. Open-source sollte jedoch das Ziel bleiben: Wenn eine Reproduzierbarkeit nicht gegeben ist, führe das häufig zu Skepsis. Die DH-Welt werde mit open-source-Daten entzaubert und dadurch zugänglicher. Das hier vorgestellte Vorgehen in großem Stil beispielsweise mit Kooperationspartnern wie dem DLA Marbach oder dem Verbund Marbach, Weimar, Wolfenbüttel durchzuführen, sei noch ein großes Stück Arbeit.
Schließlich wird die Beobachtung gemacht, dass es eine Klasse von DH-Analysewerkzeugen zu geben scheine, die sehr objektive und nicht so stark debattier-provozierende Daten wie beispielsweise das Topic Modeling erzeugten, sodass man mit wenig Aufwand eine reiche Ernte erzielen könne. Insgesamt solle man nicht unterschätzen, wie attraktiv es sei, etwas bereitzustellen, mit dem man (spielerisch) experimentieren könne. Dadurch werde einerseits eine Demystifizierung der DH erlangt und andererseits eine große Anschlussfähigkeit hergestellt.
ANDREAS WITT erläutert in seinem Vortrag Rechtliche Aspekte des Text- und Datamining (TDM) unter Berücksichtigung aktueller Änderungen – der Vortrag sei allerdings nicht als rechtlich verbindliche Auskunft zu verstehen. Das Grundproblem, das Witt darstellt, besteht darin, dass im Rahmen vieler DH-Projekte Daten verarbeitet würden, die grundsätzlich Urheber- oder Persönlichkeitsrechtsbestimmungen unterliegen und deswegen nicht ohne Weiteres publiziert werden könnten. Auf der anderen Seite sei aus wissenschaftlicher Perspektive die Veröffentlichung der Forschungsergebnisse notwendig. Von rechtlichen Bestimmungen zum Urheberrecht seien insbesondere DH-Projekte betroffen, die sich mit Kunstwerken auseinandersetzen – beispielsweise literaturwissenschaftliche Projekte. Solche Werke sind durch Art. 14 des Grundgesetzes bis 70 Jahre nach dem Tod des Urhebers geschützt. Gleichzeitig ist allerdings die Wissenschaftsfreiheit durch Art. 5 des Grundgesetzes rechtlich geregelt. Lösen lasse sich dieses Dilemma in bestimmten Fällen durch im Rahmen von Nutzungsverträgen mit den Urhebern festgehaltene Verwertungsrechte. Zugleich tritt ab März 2018 testweise für fünf Jahre ein Gesetz in Kraft, das das Urheberrecht an die Erfordernisse der Wissensgesellschaft angleicht und Ausnahmeregelungen für nicht-kommerzielle wissenschaftliche Forschung vorsieht. Wie genau die Ausnahmeregelungen ausgelegt und verstanden werden können, sei jedoch für Einzelfälle nicht immer eindeutig. Im Hinblick auf Persönlichkeitsrechte im Zusammenhang mit linguistischen DH-Projekten beispielsweise im Rahmen der Analyse von Sprachdaten tritt ab Mai 2018 ein Gesetz ein, das ebenfalls Ausnahmeregelungen für die wissenschaftliche Forschung einräumt. Die Anonymisierung persönlicher Daten ist jedoch weiterhin eine Voraussetzung für deren Publikation – und diese lasse sich (insbesondere beispielsweise für Sprachdaten) immer schwieriger realisieren. Darüber hinaus sei immer zu beachten, dass neben rechtlichen auch ethische Faktoren bei der Publikation persönlicher Daten berücksichtigt werden müssten. Informationen über derartige rechtliche Aspekte seien auch über den CLARIN-D Legal Help Desk verfügbar – es werde dort aber keine individuelle Rechtsberatung angeboten.
Im Rahmen der Diskussion wurden insbesondere die Grenzen der neuen Ausnahmeregelungen für die wissenschaftliche Datennutzung hervorgehoben. So bestehe beispielsweise die Auflage, dass rechtlich geschützte analysierte Textkorpora zwar für die Forschung genutzt, aber anschließend gelöscht werden müssten, was aus wissenschaftlicher Sicht oft verheerend sei. Auch die Ausnahmeregelung, dass geschützte Texte zu Forschungszwecken nur ‚bestimmten abgegrenzten Kreisen von Nutzern‘ zugänglich gemacht werden dürften, sei zu vage, um eine verlässliche Handlungsrichtlinie darzustellen.
In ihrem Vortrag Anticipated Use und mentale Modelle in einer geisteswissenschaftlichen Forschungsumgebung stellt EVELYN GIUS die Frage, wie man digitale Bedarfe ermittelt und beantwortet sie mit designimplementierungsorientierten Überlegungen. Die User Experience (UX) betreffe Punkte bevor, während und nach der Nutzung eines interaktiven Systems. Der Bereich vor der Nutzung betreffe den anticipated use und beinhalte Kategorien wie Emotionen, Überzeugungen, vorherige Erfahrungen, Fähigkeiten etc. und auch die Erwartungshaltung sei ein wesentlicher Faktor. Anhand von design failure-Beispielen macht sie deutlich, dass anticipated und intended use unterschieden werden müssten. Der anticipated use beschäftige sich mit mentalen Modellen und sei sehr kulturabhängig. Mentale Modelle basierten auf realen, hypothetischen oder imaginierten Situationen, seien kontextabhängig und Vereinfachungen aber sehr wichtig für z. B. den Arbeitsmodus der Kollaboration und den Umgang mit dem Computer. Als mögliche Herangehensweise demonstriert sie das Prinzip der Personas (archetypische Nutzer*innen) und seinen potentiellen Nutzen für die digitale Literaturwissenschaft. Mit Hilfe der Personas könnte man ein besseres Verständnis von unterschiedlichen Nutzertypen erlangen und hätte eine Entscheidungsgrundlage für den Entwicklungsprozess digitaler Forschungsumgebungen. Als Kriterien für Personas schlägt Gius vor: Alter, Status, Person, fachlicher Hintergrund, Forschungsinteresse, Textbasis und ihre Nutzung, das jeweilige Methodenparadigma (deduktiv, induktiv oder abduktiv, da unterschiedliche Funktionen von Annotationen auch unterschiedliche Konsequenzen für die jeweilige Forschungsumgebung hätten), DH-Erfahrung, Computernutzung, Softwarekenntnisse und -präferenzen, der Umgang mit unbekannter Software und die Fähigkeit, das eigene fachliche Vorgehen zu reflektieren.
Das Personas-Konzept wird in der Diskussion als sehr sinnvoll auch für eine GUI-Überarbeitung existierender Angebote erachtet. Neue Designs könnten jedoch immer auch sehr frustrieren und bedürften jedes Mal einer neuen Gewöhnungsphase, bevor man sie zu schätzen wisse, weshalb die Frage gestellt wird, ob man sich bei der Neuentwicklung nicht sehr viel mehr an kommerziellen Produkten orientieren sollte, an welche die meisten Nutzer*innen schon gewöhnt seien – dies sei jedoch unter Umständen nur schwer zu leisten durch einen universitären, nicht-kommerziellen Anbieter. Dies betreffe jedoch lediglich den UI- und nicht den UX-Bereich; die Erkenntnisse der UX seien nachhaltiger. Generell gelte jedoch, dass neue Designs immer sowohl neue Nutzer*innen gewännen, aber immer auch alte verlören. Ähnlich wie man mit Tutorials in der eigenen Sprache der Fremdsprachenbarriere entgegenwirke, müssten die Einstiege in der Nutzung von Forschungsumgebungen erleichtert und an Erfahrungen in anderen Umgebungen angeglichen werden. Es sei jedoch darauf zu achten, dass ganz unterschiedlichen Nutzertypen die Arbeit auf der jeweiligen Forschungsumgebung ermöglicht werden müsste.
Auf die Frage, ob man am Ende eine Art Kompromiss-Arbeitsoberfläche aus sehr vielen möglichen Einstiegen in eine Arbeitsumgebung bilde, wird betont, dass Personas immer ein Zwischenschritt seien, und am Ende aus z. B. 15 Personas drei Zugänge herauskämen. Der Vorteil dieser Methode auch gegenüber einem Ansatz wie Erklärvideos, die Quasi-Personas in Form von erklärenden Personen böten und damit versuchten, den anticipated use in eine bestimmte Richtung zu lenken, sei, dass man zunächst das Feld ganz öffne und sämtliche Vorkommnisse in ihrer ganzen Varianz erfasse, um erst dann Grenzen zu ziehen und gewisse Personas wieder auszuschließen. Statt das Personas-Konzept nur zur Softwareentwicklung zu verstehen, wäre es sinnvoll, sie auch zur Entwicklung eines Beratungskonzeptes zu nutzen.
Aus historischer Perspektive nähert GEORG VOGELER sich der Thematik in seinem Vortrag monasterium.net in der langjährigen Praxis historischer Forschung. Ein Projekt zwischen Portal, Repository und virtueller Forschungsumgebung. Die virtuelle Forschungsumgebung umfasse 170 Archive, 634.592 Urkunden, 865.460 Bilder und 2.132 registrierte Nutzer*innen. Im Projekt stelle sich die Frage, wie der Umgang mit DH-affinen aber nicht DH-kompetenten Wissenschaftler*innen funktioniere. Die Website von Monasterium sei veraltet und beinhalte nicht-intuitive Komponenten. Dennoch existiere das 2002 angefangene Projekt trotz aller Wahrscheinlichkeiten noch. Mögliche Gründe dafür seien, dass das Material seine eigene Triebkraft habe oder der soziale Kontext evtl. wichtiger sei als die Theorie und die Technik. Monasterium sei nicht nur Portal und Repository, sondern auch eine virtuelle Forschungsumgebung, in der beispielsweise eigene Archive angelegt werden könnten, ein Information-Retrieval möglich sei, eine Ingest-Funktion (mit Wizards zum Import) zur Verfügung stünde und Urkunden bearbeitet und publiziert werden könnten. Vogeler konstatiert in Bezug auf die Nutzer*innen, dass diese viel Erklärung bräuchten und es häufig einer vertrauenserweckenden Basiskommunikation (d. h. persönlich) bedürfe, um sich einem Werkzeug zu öffnen. Dies sei beispielsweise in der Lehre oder bei Ereignissen für kollaboratives Arbeiten an Dokumenten gekoppelt mit einer Heranführung an das Tool möglich. Eine Rückkopplung mit konkreten Projekten unterstütze zudem die Arbeit an der Verbesserung des Tools.
Vogeler beobachtet das Dilemma, dass digitale Methoden erst akzeptiert seien, wenn sie zuverlässige Ergebnisse erzielten; Zuverlässigkeit könne jedoch nur nachgewiesen werden, wenn bekannte Ergebnisse reproduziert werden, die reine Reproduktion sei aber uninteressant. In den DH merkten wir evtl. nicht, wenn eine digitale Methode in den Fachwissenschaften längst angekommen sei. Ein Verständnis digitaler Methoden entstehe durch positive – aber disruptive – Erfahrung mit problemorientierten digitalen Werkzeugen. Man müsse die Nutzer*innen bis zu dem gemeinsamen Gefühl bringen, dass sich der Aufwand gelohnt habe, ein reines Zeigen von Methoden und Werkzeugen reiche nicht aus.
Das Disruptive wird als Element der Entwicklung von Forschungsumgebungen anschließend diskutiert. Neben der reinen Funktionalität stehe besonders auch die Nutzungsfreude von Tools beispielsweise beim explorativen Arbeiten, aber auch schon vor der Erkenntnis durch quasi-haptische Erlebnisse, im Zentrum. Disruptive Erfahrungen zu ermöglichen sei dabei hilfreich, aber nicht notwendig; auch assoziative Prozesse bei der Exploration eines völlig unbekannten Raums seien relevant. Die Diskussionsteilnehmer*innen machen die Beobachtung, dass Nutzer*innen häufig bereits vor der Analyse bei der Datenerhebung dazu genötigt werden, ihre jeweiligen Daten in ein vorhandenes Modell zu zwängen und nicht etwa die Möglichkeit hätten, vage Daten einzugeben. Viele derartige Probleme seien mittlerweile zwar gelöst, es sei aber zu erwarten, dass seitens der Geisteswissenschaften immer wieder Impulse kommen werden, vorhandene Probleme aufzuzeigen. Betont wird auch die Wichtigkeit der Interaktion von Gedankengängen und Tool-Performance: Wenn man beispielsweise mit einem Ergebnis nicht zufrieden ist, eine Neuberechnung jedoch drei Stunden dauert, unterbreche das den Gedankenfluss. Daher sollte die interaktive Komponente eine Ergänzung des Disruptiven im Umgang mit einer digitalen Forschungsumgebung sein.
Als generelles Phänomen werden die Schwierigkeiten hervorgehoben, mit einem DH-Angebot interdisziplinären Ansprüchen zu genügen, weshalb häufig die Belange der Spitzendisziplinen der einzelnen Fächer nicht erfüllt werden könnten. Dies sei einer der Gründe, warum interdisziplinäre DH-Zentren so erfolgreich seien. Man könnte in der Servicekonstitution auf Bibliotheken setzen, die langfristiger als Forschungsprojekte planen und daher auch Anschaffungen machen könnten, die zur nachhaltigeren Nutzung bereitgestellt werden. Jedoch bräuchten auch die Bibliotheken in diesem Bereich Beratung.
HEIKE ZINSMEISTER liefert den abschließenden Vortrag des Workshops mit dem Titel Dissemination digitaler Methoden – Erfahrungsbericht aus Schulungen mit der textverarbeitenden Pipeline WebLicht des Projekts CLARIN-D. Hierin berichtet Zinsmeister von ihren Erfahrungen mit der Veranstaltung einführender DH-Workshops im Feld der immer noch hauptsächlich nicht-digital arbeitenden Sprachwissenschaft. Konkret geht es um den im Rahmen der sprachwissenschaftlichen Tagung „Gottesteilchen der Sprache“ veranstalteten Workshop zur syntaktischen Korpusaufbereitung mithilfe der Analyseplattform WebLicht. Der Workshop richtete sich an Sprachwissenschaftler*innen, die keine Vorerfahrung mit, aber Interesse an digitalen Methoden zur automatischen Korpusanalyse haben. Im Rahmen des Workshops wurden die Teilnehmer*innen zunächst mittels Voranalysen mit Papier und Stift an die formale und kleinteilige digitale Arbeitsweise herangeführt. Im Anschluss wurden ihnen die unterschiedlichen Nutzungmodi von WebLicht nahegebracht: Im Easy-Modus haben Nutzer*innen weniger Auswahlmöglichkeiten und müssen dementsprechend weniger Vor- und Spezialkenntnisse mitbringen; der Advanced-Modus bietet dagegen flexibler wähl- und kombinierbare Operationen. Aus der Workshoperfahrung konnte Zinsmeister einige Erkenntnisse hinsichtlich der Frage ziehen, wie traditionelleren Geisteswissenschaftler*innen digitale Methoden am besten nahegebracht werden können. Unter anderem sei es ratsam, die digitale Herangehensweise klar als Methode zu kennzeichnen und nicht als Ersatz für Interpretationen zu präsentieren. Eingesetzte Analysekategorien seien immer nur als Annäherungen an die eigentlichen Forschungsfragen zu verstehen. Zudem müssten zugleich einerseits die Vorteile des digitalen Arbeitens deutlich gemacht werden (z. B. große Textmengen bewältigen zu können), andererseits aber auch die Grenzen der Verfahren reflektiert werden, um bei den geisteswissenschaftlichen Nutzer*innen keine unrealistischen Erwartungen zu schüren. Insgesamt betont auch Zinsmeister die Wichtigkeit vermittelnder Beratungsangebote, die sowohl die geisteswissenschaftlichen Fragestellungen ernst nehmen als auch technisches Know-how und Wissen um die Grenzen digitaler Methoden mitbringen.
In der Diskussion wurde insbesondere betont, dass die Dissemination automatisierter linguistischer Analysen, wie sie mit WebLicht durchgeführt werden können, auch davon profitieren könnte, dass die Relevanz solcher Analysen auch im Rahmen literaturwissenschaftlicher Forschungsprojekte hervorgehoben wird. Dort dienen derartige Methoden oft als vorbereitende Analyseschritte (preprocessing). Ebenfalls mit Blick auf die Relevanz der WebLicht-Plattform für die Literaturwissenschaft wurde deutlich gemacht, dass eine modulare Arbeitsweise (d. h. das Nacheinanderschalten unterschiedlicher Analyseschritte) wie in WebLicht auch für literaturwissenschaftliche Annotationen einen fruchtbaren Ansatz darstellen könnte.
(Protokollanten: Jan Horstmann & Janina Jacke)
Dateianhang | Größe |
---|---|
Burr_forTEXT_Expertenworkshop2018.pdf | 2.64 MB |
Geyken_forTEXT_Expertenworkshop2018.pdf | 2.76 MB |
Gius_forTEXT_Expertenworkshop2018.pdf | 3.81 MB |
Meister_forTEXT_Expertenworkshop2018.pdf | 345.2 KB |
Viehhauser_forTEXT_Expertenworkshop2018.pdf | 903.66 KB |
Vogeler_forTEXT_Expertenworkshop2018.pdf | 1.57 MB |
Winko_forTEXT_Expertenworkshop2018.pdf | 117.37 KB |
Witt_forTEXT_Expertenworkshop2018.pdf | 847.43 KB |
Zinsmeister_forTEXT_Expertenworkshop2018.pdf | 4.36 MB |