Reviewed Publication:
Michael Bender. 2016. Forschungsumgebungen in den Digital Humanities. Nutzerbedarf, Wissenstransfer, Textualität (Sprache und Wissen 22). Berlin, Boston: De Gruyter Mouton. xii, 341 S.
Der Gesellschafts- und Geschichtswissenschaftler Michael Bender schließt seine Monographie an den 1945 erschienenen Essay As we may think von Vannevar Bush (1945)[1] an. Dieser hat mit seiner Vision der informationstechnischen Verknüpfung von Dokumenten ein Wissensmanagement vorgeschlagen, welches das (heute noch viel virulenter gewordene) Problem der Informationsflut mit technologischen und kollaborativen Mitteln lösen will. So finden sich heute die Grundfunktionalitäten des Speicherns, Suchens, Zugreifens, Ordnens, Anreicherns und kooperativen Verknüpfens von Dokumenten in den computergestützten virtuellen Forschungsumgebungen (VRE) der Digital Humanities wieder.
In den ersten zwei Kapiteln seines Buches präsentiert Bender eloquent und bildungssprachlich anspruchsvoll die theoretischen und ideengeschichtlichen Grundlagen von Informationssystemen, welche für digitale Editionen relevant sind. Im Fokus steht dabei das Konzept der elektronischen Hypertext-Edition im Vergleich zu konventionellen, buchgestützten Editionen: Relevante Unterschiede der Textualität zwischen Buch und Hypertext ergeben sich nach Bender in der Multimodalität und Synästhetisierung insbesondere wegen der digitalisierten Faksimiles. Digitale Editionen mit ihren flexibleren Sichten und Nutzer/System-Dialogen unterstützen Interaktivität, erlauben Zusammenarbeit über Zeit und Raum hinweg und ergeben im Idealfall ein „kollaboratives Dokuversum“ (S. 325). Prototypisch für konventionelle Editionen dagegen ist die monologische Etablierung einer Textfassung als fixiertes stabiles Werk, das mit unikaler Ausrichtung auf eine bestimmte Nutzung produziert wird. Demgegenüber unterstützt die multilineare Organisation und Modularität von Hypertexten flexiblere Rezeptionsmuster, fortlaufende Texterstellung sowie Kommentierung und zielt damit weniger auf ein abgeschlossenes Produkt. Diese Instabilität stellt eine Herausforderung im wissenschaftlichen Umfeld dar, in dem eindeutige Referenzierbarkeit und Zitierbarkeit wichtig sind. Typische editionswissenschaftliche Verweissysteme und Intertextualität sind zwar bereits in den Apparaten konventioneller Editionen realisiert, lassen sich aber digital direkter und komfortabler nutzen.
Auf der praktischen Seite setzt sich Bender mit TextGrid[2] auseinander, einer deutschsprachig ausgerichteten „virtuellen Forschungsumgebung für die Geisteswissenschaften“, welche im Jahr 2015 nach neunjähriger Projekt-Laufzeit als nachhaltige Forschungsinfrastruktur den Digital Humanities zur Verfügung steht (Neuroth u. a. 2015). Als Informationssystem soll TextGrid „Informationsprozesse organisieren und so den menschlichen Wissenstransfer unterstützen“ (S. 35), und als Dokumentationssystem soll es formalisiertes Wissen als digitalisierte Objekte speichern. Dem Langzeitarchiv TextGridRep[3] fehlt allerdings gerade die inhaltliche Kommentarebene, die gemäß Bender „aus editionswissenschaftlicher Sicht von besonderer Bedeutung“ (S. 118) wäre und von ihm als wichtiger Mehrwert digitaler Editionen aufgeführt ist. Als Kollaborationssystem soll es örtlich und zeitlich verteilt arbeitende Fachpersonen beim „gemeinsamen Prozess des Schaffens von kollektiviertem Wissen“ (S. 119) unterstützen; als konkretes Software-Werkzeug steht dabei die im Forschungsprojekt entwickelte Desktop-Anwendung TextGridLab im Zentrum. Diese basiert auf einer klassischen Umgebung zur projektorientieren Software-Entwicklung, beinhaltet einen XML-Editor und integriert verschiedene, für die digitale Edition spezialisierten Werkzeuge und Web-Dienste.
An konkretem technischen Nutzerbedarf für die digitale Editionspraxis streicht Bender die folgenden Punkte heraus: Aus Produzentenperspektive relevant ist die Bearbeitung und Validierung von XML-Dateien, die Projekt- und Benutzerverwaltung, die Erstellung von Annotationen, insbesondere die multimodale Verknüpfung von Bild und Text, die Export- und Publikationsfunktionen sowie die modulare Erweiterbarkeit für spezialisierte Werkzeuge und Workflows. Aus Rezipientenperspektive relevant sind lesefreundliche Sichten auf XML-Dateien, Suchfunktionen auf der Ebene von Inhalt und Metadaten, Integration von Recherchefunktionen für Wörterbuchportale und externe Korpusabfragen, computerlinguistische Analysefunktionen (OCR für Fraktur, Tokenisierung, Lemmatisierung, Named Entity Recognition) sowie Visualisierungsfunktionen für Textbestände, die alternative analytische Zugänge im Sinne des Distant Readings (Moretti 2013) unterstützen.
Benders Vergleich von TextGrid mit ähnlich ausgerichteten Projekten fällt mit sieben Seiten leider recht kurz aus und hätte von einer systematischeren Übersicht der Möglichkeiten profitiert. In Anbetracht der editionswissenschaftlichen Ausrichtung des Buchs fehlt aus inhaltlicher Sicht insbesondere eine vergleichende Auseinandersetzung mit dem deutschen Textarchiv (DTA)[4] (Geyken und Gloning 2015), aber auch mit älterer elektronischer Editionspraxis wie TUSTEP.[5]
Benders Stärke liegt in der theoretisch ausgerichteten Behandlung der technikhistorischen und informationswissenschaftlichen Thematik. Mit seinem vollständigen Verzicht auf illustrierende Praxis-Beispiele vergibt er sich aber die Chance, abstrakte Konzepte anschaulich zu machen. Gerade in der kurzlebigen digitalen Welt sind längerfristig zugängliche Dokumentationen von Momentaufnahmen interessant, wie zeitgebunden diese auch erscheinen mögen.
In den Kapiteln 3 und 4 wechselt Bender virtuos von der theorieorientierten Methode auf sozialwissenschaftlich-empirische Untersuchungsverfahren. Seine Stärke zeigt sich hier darin, wie er die Reflexion über Methoden und ihre Anwendung miteinander verknüpft. Gemäß Bender sind aussagekräftige Erhebungen zum Nutzerbedarf von editionswissenschaftlichen Forschungsumgebungen ein Schwachpunkt bisheriger Forschung, teilweise wegen der dafür notwendigen Finanzierung, teilweise wegen der heterogenen Zusammensetzung der Digital Humanities. Seine Untersuchung soll diese Lücke zumindest teilweise schließen. Die qualitative Methode des Leitfaden-Interviews mit induktiver Kategorienbildung ist für ihn als Mittelweg zwischen stark strukturierter und unstrukturierter Untersuchungsmethode dazu geeignet, die vielfältigen Nutzererwartungen und -perspektiven zu erfassen.
28 Interviewpartner mit editionswissenschaftlichem Schwerpunkt aus neun verschiedenen geisteswissenschaftlichen Disziplinen wurden im Anschluss an TextGrid-Workshops rekrutiert und decken somit ein breites und an digitalen Ansätzen interessiertes Nutzerpublikum ab. Leider wurden zum Interview-Zeitpunkt nur Testprojekte zu Demonstrationszwecken auf der Plattform (S. 111) bearbeitet, was die Aussagekraft für die Praxis abschwächt. Den Anspruch auf allgemeine Gültigkeit der Resultate senkt zudem der Umstand, dass sich die folgenden sieben von den insgesamt zehn Fragethemen auf konkrete Prototypen von TextGrid beziehen: (a) Erwartungen, (b) Gesamteindruck, (c) Funktionalität, (d) Organisation, Navigation, Bedienbarkeit, (e) Vernetzung von Inhalten und Arbeitsprozessen, (f) Kooperation und Kollaboration, (g) Individualisierungsmöglichkeiten. Die weiteren Fragen sind generisch: (h) persönliches Arbeitsgebiet und Erfahrungen, (i) persönliche Einschätzung des Potenzials digital gestützter Arbeit, (j) Einschätzung der Erlangung neuer wissenschaftlicher Erkenntnisse dank Anwendungen der Digital Humanities.
Die transkribierten Interviews wurden entsprechend dem Lehrbuch von Gläser und Laudel (2010) einer qualitativen und quantitativen Inhaltsanalyse unterzogen, welche den sozialwissenschaftlichen Standards einer kategoriengeleiteten Textanalyse folgt. Der Nutzerbedarf wird dabei als abhängige Variable in die folgenden sechs induktiv erschlossenen Kategorien abgebildet, d. h. kodiert (S. 181): Bedienbarkeit (K1), Rezeption/Zugriff (K2), Produktion/Manipulation (K3), Modularität/Anpassbarkeit (K4), Kollaboration/Kooperation (K5), Organisation/Verwaltung (K6). Als unabhängige Variable ist die wissenschaftliche Tätigkeit mit den Dimensionen Forschungsgegenstand, Methoden, Fragestellungen, institutioneller Rahmen gesetzt. Die EDV-Erfahrung stellt die intervenierende Variable dar, welche binär aufgeteilt wird in viel (v. E.) oder wenig (w. E.) Erfahrung. Alle Interview-Transkriptionen und deren Kodierungen auf Kategorien sind auf der Buch-Website[6] elektronisch verfügbar und setzen damit die wissenschaftsmethodischen Anforderungen der Reproduzierbarkeit und intersubjektiven Nachvollziehbarkeit für diese interpretierende Analyse vorbildlich um. Aus Lesersicht hätte man sich im empirischen Teil neben den differenzierten Diskussionen eine übersichtliche Zusammenstellung mit griffigen und etwas zugespitzten Aussagen gewünscht. Die folgende Zusammenfassung reflektiert deshalb stark die Auswahl des Rezensenten.
Die Ergebnisse zur Bedienbarkeit (K1) ergeben das interessante Resultat, dass Personen mit viel EDV-Erfahrung stellvertretend für fachwissenschaftliche Nutzende einfache Benutzerführung/Erlernbarkeit fordern. Weniger EDV-Erfahrene gehen für sich selbst von einem entsprechenden Lernaufwand sowie von Schulungsmaßnahmen für ein professionelles Werkzeug aus und gewichten die Nutzerfreundlichkeit nicht so stark. Der Wunsch, direkt auf einer präsentationsorientierten Textoberfläche editieren zu können und nicht XML-Quellkode bearbeiten zu müssen, wird verbreitet geäußert und berührt die Frage, wie viel technische Informatikkenntnisse in den Digital Humanities erforderlich sind.
Bei den Ergebnissen zu Rezeption/Zugriff (K2) ergibt sich eine Vielzahl von Bedürfnissen, wie gesucht, geordnet, nachgeschlagen oder verglichen (z. B. Faksimile und Transkription) werden kann. Bezüglich Produktion/Manipulation (K3) zeigt sich, dass persönliche Vorlieben zum Editieren von XML bei EDV-Erfahrenen berücksichtigt werden müssen. Der Anspruch an optimierte fachspezifische Editions-Werkzeuge und an eine möglichst allgemein einsetzbare DH-Forschungsumgebung lässt sich nicht ohne Weiteres vereinbaren. Dies spiegelt sich auch bei den Resultaten zu Modularität/Anpassbarkeit (K4) wider, da mit der Modularisierung und Konfigurierbarkeit auch eine Komplexitätssteigerung miteinhergeht. Bezüglich Kollaboration/Kooperation (K5) wünschen sich die Befragten keine social-media-artige Kommunikationsplattform, sondern eine inhaltliche Zusammenarbeit über geteilte Primär-, Arbeits- und Ergebnisdaten, d. h. „Möglichkeiten der kollaborativen Nutzung und Weitervernetzung von Inhalten“ (S. 280). Bei Organisation/Verwaltung (K6) werden relativ technische Bedürfnisse formuliert wie Versions- und Datenverwaltung, Langzeitarchivierung, Referenzierbarkeit und Zitierbarkeit, Rechteverwaltung, Nutzerrollen und Workflows.
Die Befragungen haben gemäß Bender weiter gezeigt, dass innerhalb der Editionsphilologie projektspezifisch sehr heterogene Anforderungen bestehen; so benötigt die Modellierung komplexer Textgenese ein anderes Tooling als Handschriften-Editionen. Über die Edition hinausgehende Funktionalitäten wie die automatische, computerlinguistische, daten-orientierte Analyse sind dabei noch ausgespart. Benders Fazit, dass „digitale Unterstützung vor allem genau das leisten muss, was im jeweiligen Forschungsprojekt zur Bearbeitung der entscheidenden Fragestellungen und Untersuchungsgegenstände erforderlich ist“ (S. 321), macht klar, dass generische Werkzeugkasten, welche für spezifische Aspekte weniger leistungsfähig sind, kaum Akzeptanz finden können. Nur eine offene Plattform mit modularen Erweiterungsmöglichkeiten kann die Grundlage für eine virtuelle Forschungsumgebung bilden.
Die heterogenen Ansätze, die Bender in informationswissenschaftlichen, wissenschaftsmethodischen, technikgeschichtlichen, anwenderorientierten und editionspraktischen Erörterungen ausbreitet, machen eine einfache Zuordnung zu einer Adressatengruppe schwierig. Das Buch stellt aber sicherlich einen Maßstab dar, an dem sich qualitativ hochwertige Begleitforschung für praktisch ausgerichtete informationswissenschaftliche Projekte in Zukunft zu messen hat.
Literatur
Bush, Vannevar. 1945. As we might think. In: Atlantic Monthly 176, 101–108.Search in Google Scholar
Geyken, Alexander & Thomas Gloning. 2015. A living text archive of 15th-19th-century German. Corpus strategies, technology, organization. In: Jost Gippert & Ralf Gehrke (Hg.). Historical Corpora. Challenges and Perspectives. Tübingen: Gunter Narr, 165–179.Search in Google Scholar
Gläser, Jochen & Grit Laudel. 2010. Experteninterviews und qualitative Inhaltsanalyse. Wiesbaden: Springer SV. 10.1007/978-3-531-91538-8Search in Google Scholar
Moretti, Franco. 2013. Distant Reading. London, New York: Verso.Search in Google Scholar
Neuroth, Heike, Andrea Rapp & Sybille Söring (Hg.). 2015. TextGrid: Von der Community – für die Community. Göttingen: Universitätsverlag Göttingen. Search in Google Scholar
© 2017 Walter de Gruyter GmbH, Berlin/Boston
This article is distributed under the terms of the Creative Commons Attribution Non-Commercial License, which permits unrestricted non-commercial use, distribution, and reproduction in any medium, provided the original work is properly cited.