Skip to content
BY 4.0 license Open Access Published by De Gruyter August 9, 2022

Kulturen des digitalen Gedächtnisses

8. Jahrestagung des Verbands „Digital Humanities im deutschsprachigen Raum“, ausgerichtet von der Universität Potsdam und der Fachhochschule Potsdam

  • Dennis Mischke

    Dr. Dennis Mischke

    ORCID logo EMAIL logo
From the journal ABI Technik

1 Einleitung

„What is the role of digital humanities in a world gone mad?“ – mit diesem Satz begann am 8. März 2022 Amalia S. Levi die Eröffnungs-Keynote der 8. Jahrestagung des Verbands „Digital Humanities in Deutschland“ (DHd 2022). Unter dem unmittelbaren Eindruck der russischen Invasion in der Ukraine und einer fast zweijährigen, globalen Pandemie markieren Levis Worte auf eine bemerkenswerte Weise die enorme Komplexität und Aspekt-Tiefe des Themas der Tagung.[1] Wie verändert die Digitalisierung unsere Gedächtnisorte, unsere Bibliotheken, Archive, Museen und Galerien und wie verändert diese Transformation der Speicherung von kulturellen Artefakten, Zeugnissen und Erinnerungen auch die Art und Weise, wie Wissen über die Vergangenheit abgerufen, zusammengestellt und reproduziert werden kann? Was bedeutet es, wenn Erinnerungsarbeit, Archivierung oder auch Kuratierung, Erschließung und Benutzung von Bibliotheken und Galerien zunehmend zur Arbeit mit Daten, Discovery-Systemen und Künstlicher Intelligenz wird? Um es mit einer provokanten Frage aus dem Call for Papers der Tagung auf den Punkt zu bringen: „Was für Erinnerungstechniken sind eigentlich Parsing oder Preprocessing – was für eine Form des Gedächtnisses ist der Datenbankdump?“[2]

Mit diesen und vielen anderen Fragen beschäftigten sich vom 7. bis zum 11. März 2022 über eintausend registrierte Teilnehmerinnen und Teilnehmer in 53 Einzelvorträgen, sieben Paneldiskussionen, 19 Workshops und rund sechzig Posterpräsentationen auf der jährlichen Zusammenkunft der Digital Humanities im deutschsprachigen Raum. Die von der Universität Potsdam sowie der Fachhochschule Potsdam ausgerichtete und pandemiebedingt ausschließlich online durchgeführte Tagung hat dabei in vielerlei Hinsicht neue Maßstäbe für Digital-Humanities-Konferenzen in Deutschland gesetzt. Durch das Online-Format konnten mehr als doppelt so viele Teilnehmende erreicht werden, als dies in den Vorjahren der Fall war. Der Wegfall von Konferenzgebühren ermöglichte es Studierenden und Interessierten einer erweiterten Öffentlichkeit, Einblicke in ein spannendes und sich derzeit rasant entwickelndes Fach zu gewinnen: Digitale Geisteswissenschaften oder Digital Humanities.

Auch die Digitalität des Formates der DHd 2022 selbst wurde dabei auf eine besondere Art und Weise den komplexen Herausforderungen der Digitalisierung eines zunehmend globaler werdenden Kulturerbes gerecht: Obgleich die Tagung im virtuellen Raum stattfand, gelang es den Ausrichtenden, den Geist und das kulturelle Flair des Kulturstandortes Potsdam überzeugend in die virtuelle Welt zu übertragen. Während die Workshops, Panels und Vorträge in pandemisch-eingeübter Routine in Zoom stattfanden, wurde den sozialen Begegnungen sowie dem bilateralen Austausch zwischen Kolleginnen und Kollegen auf der Plattform Gather.town ein Raum gegeben, der gleichsam einen ikonischen Ort Potsdams digital nachbildete: das Neue Palais und den Park Sanssouci. Sowohl die Poster-Session als auch verschiedene soziale Events konnten im virtualisierten Grün der historischen Wiesen der Stadt Potsdam ausgetragen werden. Auf diese Weise wurde – den Restriktionen der Pandemie zum Trotz – auch den so wichtigen zufälligen Begegnungen und Zusammenkünften bei Konferenzen ein angemessener Raum gegeben.

Gleichzeitig markierte die Tagung auch eine Zäsur in Bezug auf den Begutachtungsprozess der Einreichungen. Die 8. Jahrestagung des DHd-Verbandes stand 2022 im Zeichen der Open-Science: das Peer-Review-Verfahren wurde erstmalig und zu Erprobungszwecken auf ein offenes, genauer ein „Zero-Blind-Modell“ umgestellt, in dem sowohl die Gutachterinnen und Gutachter als auch die Begutachteten die Namen und Identitäten aller Beteiligten kannten. Identitäten waren allen Beteiligten offengelegt. Mit Erfolg: Die Mitgliederversammlung sprach sich eindeutig für eine Fortführung dieses Verfahrens für zukünftige Tagungen aus.

2 „Filling the Gaps“ – Digitale Erinnerungskulturen und restorative Praktiken

Unter dem Titel „Filling the Gaps: Digital Humanities as Restorative Justice“[3] eröffnete Amalia S. Levi (Archivarin, Gründerin der Heritage Connection sowie Fellow am Center for Dependency & Slavery Studies der Universität Bonn) die Tagung am Internationalen Frauentag mit einem Beitrag aus einer dezidiert postkolonialen Perspektive und aus der Sicht marginalisierter Gruppen des globalen Südens. In ihrer Eröffnungsrede weitete sie den Blick auf die Digital Humanities und die Digitalisierung des globalen Kulturerbes mahnend und kritisch. Digitalisierung, so Levi, muss immer auch als Verschleierung und Reduktion verstanden werden: Der Scan von Dokumenten ist immer eine Reproduktion und Reduktion im Digitalen, Metadaten privilegieren bisweilen nur bestimmte Urheber oder beinhalten problematische Beschreibungen. In einigen digitalisierten Sammlungen werden marginalisierte Teile der Bevölkerung mithin überhaupt nicht repräsentiert. Während die Kolonialherrschaft in verschiedenen Teilen der Welt bereits im 19. Jahrhundert selbst „Daten“ erhob und Aufzeichnungen als Herrschaftsinstrument einsetzte, sind die postkoloniale Geschichte und das koloniale Erbe noch immer in Formen von „archivarischer Gewalt“ oder „archivarischer Stille“ verstrickt. Dabei können „archivarische Abhängigkeiten“ auch durch Digitalisierung fortbestehen oder sogar intensiviert werden. Eine digitale Forschung im Sinn der Digital Humanities könne dabei „exacerbate silences and perpetuate imperial legacies“.[4] Das Gegenteil sei jedoch ebenso möglich. Digital-Humanities-Projekte können durchaus den Blick auf die Leerstellen in postkolonialen Archiven richten, können Verbindungen zwischen Datensätzen finden, Lücken schließen und „restorative“ Praktiken in die Arbeit mit einem globalen, digitalen Kulturerbe einbringen. Levis Vortrag verwies im Anschluss auf eine ganze Reihe von erfolgreichen und auch vielversprechenden Projekten aus dem globalen Süden, dem karibischen Raum, aber auch aus Deutschland. Die folgenden Vorträge, Podiumsdiskussionen und Gesprächsrunden nahmen diesen Impuls nach Inklusion und Vielschichtigkeit des digitalen Gedächtnisses auf.

3 Digitale Sammlungsforschung und computationelle Analysen

In einer ersten Podiumsdiskussion zum Thema „Digitale Sammlungsforschung“ stand der Vernetzungsgedanke von Infrastrukturen für die Forschung im Vordergrund. Die Digitalisierung wissenschaftlicher Sammlungen von Forschungseinrichtungen und Universitäten ist ein wichtiger, aber auch ressourcenintensiver Prozess, der sich an verschiedenen, dezentralen Orten der Wissenschaft vollzieht. Neben den großen nationalen und internationalen Infrastrukturprojekten im Sammlungsumfeld – wie zum Beispiel Europeana, DARIAH, UNIVERSEUM, OCLC WorldCat, Wikimedia oder die deutsche Koordinierungsstelle Universitätssammlungen – sind auch lokale Vernetzungsinitiativen hilfreich und effizient. Die Verbindung von (lokalen) Wissens- und Sammlungsbeständen ist immer auch eine Vernetzung und Konsolidierung von Forschung. Im Sammlungsbereich, das machte das Podium mit Vertreterinnen und Vertretern einschlägiger Institutionen[5] klar, geht es dabei einerseits um die Herausforderung, Technologien zur Referenzierung und Relationierung von sehr heterogenen wissenschaftlichen Sammlungsobjekten in einer möglichst interoperablen Form zu realisieren und andererseits die dezentrale Digitalisierung und Erschließung einer großen Menge von universitären Erinnerungsdaten durch eine persistente und hohe Qualitätssicherung abzusichern. Denn nur ein sinnvoll und qualitativ hochwertig digitalisiertes kulturelles Gedächtnis bietet auch computationellen Verfahren Möglichkeiten der Verarbeitung, Analyse und Deutung.

Eben diesem Thema widmeten sich zahlreiche Panels und Einzelvorträge. In der Vortragssession „Computationelle Analysen poetischer Sprachverwendung“ wurden die diffizilen sprachlichen Eigenheiten poetischer Sprachverwendung anhand rechnergestützter Methoden untersucht. Der Vortrag „Genitivmetaphern in der Lyrik des Realismus und der frühen Moderne“[6] (Kröncke, Konle, Jannidis & Winko) z. B. zeigte, inwieweit Verfahren des maschinellen Lernens (ML) bereits bei der automatisierten Erkennung von Metaphern helfen können. Ähnlich überzeugende Fortschritte in der Anwendung von ML stellte der Beitrag von Mareike Schumacher „Wie Wölkchen im Morgenlicht“ – zur automatisierten Metaphern-Erkennung und der Datenbank literarischer Raummetaphern laRa“ vor.[7] Einen alternativen und konstruktiv-kritischen Blick auf die „Performance“ von computerlinguistischen Verfahren in den Digital Humanities hingegen warf der Beitrag von Henny Sluyter-Gäthje und Peer Trilcke mit dem Titel „Poesie als Fehler – Ein ‚Tool Misuse‘-Experiment zur Prozessierung von Lyrik“ auf.[8] Mit großem technischen und poetologischen Sachverstand bearbeiteten die Autorin und der Autor ein eklatantes Problem der Digital Literary Studies: Viele in den Digital Humanities verwendete Werkzeuge und Verfahren – wie das Natural-Language Processing (NLP) – wurden auf Daten trainiert und entwickelt, die in ihrer Beschaffenheit sehr stark von den digitalisierten Beständen kultureller und poetischer Daten abweichen. Diese Problemlage richtet zum einen den Blick auf die Verbesserung und Domänenadaption digitaler Verfahren und Tools, zeigt aber zum anderen auch die Notwendigkeit einer umfassend gedachten Kuratierung von Kultur- und Erinnerungsdaten.

4 Daten, Kuratierung und digitale Infrastrukturen

Diesem, einer Tagung zum Thema „Kulturen des digitalen Gedächtnisses“ naturgemäß zentral eingeschriebenen Problemnexus, widmete sich sehr pointiert ebenfalls das Panel 6: „Kultur – Daten – Kuratierung: Was speichern wir und wozu?“ mit der folgenden Besetzung: Magarete Pratschke (Humboldt-Universität zu Berlin), Patrick Primavesi (Universität Leipzig), Kristina Richts-Matthaei (Universität Paderborn), Daniel Röwenstrunk (Universität Paderborn), Christoph Schulz (Fachhochschule Düsseldorf) und Martha Stellmacher (SLUB Dresden).[9] Das lebendige Gespräch auf dem virtuellen Podium drehte sich dabei um Fragen der Datenauswahl für die langfristige Speicherung in Archiven, Bibliotheken, Sammlungen und Forschungsinstituten sowie um Fragen wissenschaftsgeleiteter Strategien für ein nachhaltiges Forschungsdatenmanagement in den Kultur-, Tanz-, Theater-, oder Medienwissenschaften. Ein zentraler Aspekt der vielschichtigen Diskussion bewegte sich auch hier erneut um die Frage wie „Datenproduzierende, Datenkuratierende, und Datennutzende“[10] in einer möglichst zielführenden, offenen, aber auch nachhaltigen Art und Weise zusammengebracht werden können – ein zentraler Aspekt des Konsortiums „NFDI4Culture“ der Nationalen Forschungsdateninfrastruktur (NFDI).

Neben Fragen zu Auswahl, Speicherung, Kuratierung und Datenstandardisierung waren Infrastrukturen für die digitale Forschung ein Aspekt, der wiederholt zur Sprache kam. Im Doctoral Consortium wurden beispielsweise sowohl nationale als auch internationale Infrastrukturen für digitale Forschung vorgestellt und insbesondere mit Blick auf die Arbeit von Nachwuchswissenschaftlerinnen und Nachwuchswissenschaftler diskutiert. Der Beitrag von Alireza Zarei u. a. „Der SSH Open Marketplace – Kontextualisiertes Praxiswissen für die Digital Humanities“[11] stellte ein frühes und bereits sehr gut etabliertes Tool-Directory für geisteswissenschaftliche Arbeit vor, das sich seit längerer Zeit einer aktiven und ambitionierten internationalen Community of Practice erfreut.

Doch die Frage nach kritischen Infrastrukturen für die Digital Humanities und die Speicherung, Verarbeitung und Analyse von Erinnerungsdaten im Kultursektor wurde nicht nur auf der Ebene geeigneter Forschungssoftware diskutiert, sondern umfasste auch die Rolle der digitalen Archive für die Literatur. In einem prominent besetzen Panel, organisiert und moderiert von Anna Busch und Peer Trilcke (Theodor-Fontane Archiv der Universität Potsdam), diskutierten Bernhard Fetz (Literaturarchiv und Literaturmuseum der Österreichischen Nationalbibliothek, Wien), Marcel Lepper (Goethe- und Schiller-Archiv, Weimar), Sandra Richter (Deutsches Literaturarchiv, Marbach) sowie Irmgard Wirtz-Eybl (Schweizerisches Literaturarchiv der Schweizerischen Nationalbibliothek, Bern) die institutionelle Transformation von Literaturarchiven im Licht der Digitalisierung. Literaturarchive, die sowohl in ihrer Größe als auch in ihrer institutionellen Aufhängung ebenso stark variieren, wie die Form des kulturellen Erbes, das sie speichern und bewahren, stehen vor der Herausforderung, Infrastrukturen, Routinen und Standards durch eine geschickte Vernetzung und intelligente Ressourcennutzung zu organisieren. Dabei sind diese Herausforderungen immens. Im Zuge der digitalen Transformation werden nicht nur die Archivobjekte digitalisiert – sie liegen beispielsweise im Fall von Born Digitals in Nachlässen zeitgenössischer Autorinnen und Autoren zum Teil in sehr heterogenen und kurzlebigen digitalen Formaten vor, die bei der Archivierung in jeweils langfristige Formate überführt werden müssen. Kurzum: Die Aufgaben von Literaturarchiven auch in Hinblick auf neue Erwartungshaltungen einer interessierten Öffentlichkeit etwa in Punkten wie Open Access und digitale Zugänge werden zunehmend anspruchsvoller und vielfältiger.

5 Fazit: „Rucksack oder Rechenzentrum?“

Die Komplexität der Infrastruktur-Frage für digitale Erinnerungskulturen wurde zum Ende der Tagung noch einmal umfassend und sehr informativ in Katrin Passigs Closing Keynote mit dem Titel „Rucksack oder Rechenzentrum“ aufgegriffen. In einem unterhaltsamen, aber zugleich durchaus ernst gemeintem Gedankenexperiment ging die deutsche Publizistin, Journalistin und Intellektuelle auf dem Gebiet der Digitalkulturen der Frage nach, ob eine vollständige und umfassende Archivierung aller deutschsprachigen Twitter-Beiträge (einschließlich sämtlicher Links, Medien und Bilder) in einen Rucksack passt oder doch ein Rechenzentrum benötigt. Diese selbstverständlich provokativ zugespitzte Überlegung verweist jedoch auf ein durchaus reales und gar nicht triviales Problem. Wie können Gedächtnisinstitutionen auf der lokalen, nationalen oder der transnationalen Ebene den exponentiell wachsenden Datenmengen gerecht werden, die in unserer rasant voranschreitenden, immer stärker von digitalen Umgebungen dominierten Medienwelt produziert werden? Zwar hielt die Entwicklung von Speicherkapazitäten wie Festplatten und anderen Speichermedien in den vergangenen Jahren und Jahrzehnten den stetig wachsenden Anforderungen stand, mit Blick auf die zentrale Speicherung von immer mehr Cloud-basierten Systemen und Infrastrukturen in großen Rechenzentren jedoch stellt sich für Kulturarchive immer wieder die Frage, ob eine Speicherung eines digitalen kulturellen Erbes im Zeitalter des Plattformkapitalismus überhaupt möglich und sinnvoll ist? In dem Maß, in dem kritische Infrastrukturen der Speicherung und Archivierung von Kulturen zunehmend über dezentralisierte Rechenzentren und Cloud-basierte Infrastrukturen realisiert werden, verändert sich auch der Zugriff für staatliche Institutionen und Akteure der öffentlichen Hand. Die von der Digitalwirtschaft oft als Social-Media-Plattformen oder als „Infrastructure as a Service“ angebotenen Dienstleistungen der Kommunikation und Vernetzung aller Lebensbereiche stellen die wissenschaftlichen und kulturellen Gedächtnisinstitutionen immer wieder vor neue Herausforderungen.

About the author

Dr. Dennis Mischke

Dr. Dennis Mischke

Published Online: 2022-08-09
Published in Print: 2022-08-03

© 2022 bei dem Autor, publiziert von De Gruyter.

Dieses Werk ist lizensiert unter einer Creative Commons Namensnennung 4.0 International Lizenz.

Downloaded on 11.12.2023 from https://www.degruyter.com/document/doi/10.1515/abitech-2022-0036/html
Scroll to top button