Jump to ContentJump to Main Navigation
Show Summary Details
More options …

Bibliothek Forschung und Praxis

Ed. by Bonte, Achim / Degkwitz, Andreas / Horstmann, Wolfram / Kaegbein, Paul / Keller, Alice / Kellersohn, Antje / Lux, Claudia / Marwinski, Konrad / Mittler, Elmar / Rachinger, Johanna / Seadle, Michael / Vodosek, Peter / Vogt, Hannelore / Vonhof, Cornelia

Online
ISSN
1865-7648
See all formats and pricing
More options …
Volume 41, Issue 3

Issues

Herausforderungen und Perspektiven für ein geisteswissenschaftliches Forschungsdatenzentrum

Challenges and Perspectives of a Humanities Data Centre

Dr. Sven Bingert
  • Corresponding author
  • Gesellschaft für wissenschaftliche Datenverarbeitung mbH GöttingenAm Faßberg 11,37077 GöttingenGermany
  • Email
  • Other articles by this author:
  • De Gruyter OnlineGoogle Scholar
/ Stefan Buddenbohm
  • Niedersächsische Staats- und Universitätsbibliothek GöttingenAbteilung Forschung und EntwicklungPlatz der Göttinger Sieben 1,37073 GöttingenGermany
  • Email
  • Other articles by this author:
  • De Gruyter OnlineGoogle Scholar
/ Claudia Engelhardt
  • Niedersächsische Staats- und Universitätsbibliothek GöttingenAbteilung Forschung und EntwicklungPlatz der Göttinger Sieben 1,37073 GöttingenGermany
  • Email
  • Other articles by this author:
  • De Gruyter OnlineGoogle Scholar
/ Daniel Kurzawe
  • Niedersächsische Staats- und Universitätsbibliothek GöttingenAbteilung Forschung und EntwicklungPlatz der Göttinger Sieben 1,37073 GöttingenGermany
  • Email
  • Other articles by this author:
  • De Gruyter OnlineGoogle Scholar
Published Online: 2017-11-28 | DOI: https://doi.org/10.1515/bfp-2017-0036

Zusammenfassung

Durch die Zunahme an digitalen Forschungsmethoden in den Geisteswissenschaften nimmt auch die Nachfrage nach Diensten zum Forschungsdatenmanagement rasant zu. Wir beschreiben die sich daraus ergebenden Herausforderungen und Perspektiven eines geisteswissenschaftlichen Datenzentrums zur nachhaltigen Sicherung und Bereitstellung digitaler Forschung am Beispiel des Humanities Data Centres.

Abstract

Due to the increase in digital research methods in the humanities, the demand for research data management services is growing rapidly. We describe the resulting challenges and perspectives of a humanities data centre for the sustainable archiving and provision of digital research data using the example of the Humanities Data Centre.

Schlüsselwörter: Datenmanagement; Nachhaltigkeit; Datenzentrum; Forschungsdaten

Keywords: Data management; sustainability; data centre; research data

1 Einleitung

Mit der fortschreitenden Digitalisierung erfahren auch die geisteswissenschaftlichen Forschungsdisziplinen eine verstärkte Verwendung von digitalen Werkzeugen und Forschungsmethoden.1 Daraus ergibt sich für die Geisteswissenschaften eine wachsende Nachfrage nach Angeboten und Diensten für das Forschungsdatenmanagement und die Langzeitverfügbarkeit digitaler Daten und Forschungsergebnisse. Diese Nachfrage äußert sich zum einen hinsichtlich der Nutzung von vorhandenen digitalen Forschungsdaten, zum anderen hinsichtlich des Umgangs mit den eigenen Forschungsdaten. Dabei sind die Grenzen zwischen der Infrastruktur und den Forschungsmethoden und den damit bisweilen eng verbundenen Werkzeugen nicht immer klar zu ziehen. Die Verwaltung der Daten steht in der Regel nicht im Fokus der Forschung. Jedoch fordert der Einsatz von digitalen Werkzeugen eine verstärkte Auseinandersetzung mit den infrastrukturellen Anforderungen, Gegebenheiten und Möglichkeiten. In diesem Aufsatz werden die Herausforderungen und Perspektiven in diesem Zusammenhang diskutiert und das Humanities Data Centre vorgestellt.

Mit dem Humanities Data Centre (HDC)2 wurde 2016 ein Forschungsdatenzentrum für die Geisteswissenschaften gegründet, das dieser wachsenden Nachfrage ein entsprechendes, sich weiterentwickelndes Angebot gegenüberstellt. Das HDC unterstützt die geisteswissenschaftliche Forschung beim nachhaltigen Umgang mit Forschungsdaten. Der Fokus liegt dabei auf Niedersachsen. Durch die Zusammenarbeit mit anderen Forschungsdatenzentren, die Betreuung von überregionalen Projekten und die enge Kooperation mit dem Infrastrukturprojekt DARIAH-DE3 ist das HDC auch über die Grenzen des Bundeslandes hinaus aktiv.

Das HDC bietet zum einen technische Dienstleistungen für die nachhaltige Speicherung und den langfristigen Zugang zu Daten und Anwendungen und zum anderen Beratungs- und Schulungsangebote an, die Wissenschaftler beim nachhaltigen Umgang mit Forschungsdaten unterstützen. Denn anders als bei digitalen Forschungsinfrastrukturen für Publikationen, beispielsweise institutionellen oder disziplinären Repositorien, sind die Angebote für Forschungsdaten aus verschiedenen Gründen derzeit in vielen Fällen noch nicht für eine intuitive Nutzung ausgelegt. Auf die Gründe hierfür wird im Folgenden einzugehen sein, da sie zum Teil auch die vom HDC gewählte Angebotsstruktur erklären.

Federführend wird das HDC gemeinsam von der Gesellschaft für wissenschaftliche Datenverarbeitung mbh Göttingen (GWDG)4 und der Niedersächsischen Staats- und Universitätsbibliothek Göttingen (SUB)5 betrieben – in Zusammenarbeit mit einem erweiterten Konsortium, das aus der Akademie der Wissenschaften zu Göttingen,6 dem Max-Planck-Institut zur Erforschung multiethnischer und multireligiöser Gesellschaften Göttingen7 sowie der Herzog-August-Bibliothek Wolfenbüttel8 besteht. Über diese niedersächsischen Partner hinaus waren an der Konzeption in einer ersten Projektlaufzeit die Berlin-Brandenburgische Akademie der Wissenschaften9 sowie das Konrad-Zuse-Institut Berlin als Projektpartner beteiligt.10

Mit seiner Arbeit leistet das HDC einen Beitrag zu etablierten Arbeitsabläufen und der Standardisierung im Umgang mit digitalen geisteswissenschaftlichen Forschungsdaten. Dazu zählen auch Aspekte wie die Förderung von Forschungsdatenpublikationen oder der Möglichkeit der Zitation von Anwendungen und Visualisierungen.

Im Folgenden werden Überlegungen zur Nachhaltigkeit digitaler Forschung angestellt und ausgewählte Aspekte des aktuellen Standes der Forschungsdatenarchivierung und -nachnutzung in den Geisteswissenschaften besprochen. Anschließend werden die wesentlichen bestimmenden Faktoren für die Angebotsgestaltung des HDC diskutiert, das aktuelle Angebot vorgestellt sowie mögliche zukünftige Entwicklungspfade des Forschungsdatenzentrums skizziert.

2 Nachhaltigkeit digitaler Forschung

Digitale Forschung muss sich insbesondere in den traditionsreichen Forschungsdisziplinen an bewährten und beständigen Vorgehensweisen messen. Dabei gibt es zwei entscheidende Aspekte der digitalen Forschung, die im Folgenden besprochen werden: Die Nachhaltigkeit digitaler Forschungsmethoden und die Nachhaltigkeit der digitalen Daten, die in diesen Prozessen verwendet werden.

Unter digitalen Forschungsmethoden werden alle Prozesse verstanden, in denen der Computer als Werkzeug zur Erkenntnisgewinnung eingesetzt wird. Dies sind beispielsweise Analyseverfahren,11 Simulationen12 und Visualisierungen.13 Zur Anwendung dieser Methoden werden notwendigerweise Programme und in vielen Fällen digitale Daten benötigt. Wobei die Programme selbst auch Daten im Sinne von Forschungsdaten darstellen können.

Insbesondere Bücher und verwandte Formate haben sich als beständiges Medium erwiesen.14 Eine umfangreiche Infrastruktur ermöglicht dabei, von Ausnahmefällen abgesehen, eine kontinuierliche Bewahrung und Erneuerung. Vornehmlich Bibliotheken und Verlage sorgen für den Erhalt und die Verbreitung von (vor allem gedrucktem) Wissen. Die Forschung verlässt sich auf die Neutralität und Beständigkeit der Infrastruktur und die Stabilität der Medien. Doch hat sich in den letzten Jahren nicht nur der Bezug zu Medien geändert, auch in der Forschungspraxis haben neue Methoden zu einem Veränderungsprozess geführt. Die Forschung stellt neue Anforderungen, die nicht mehr durch klassische Medien erfüllt werden können. Quantitative Analysemethoden, Netzwerkanalysen und weitere Verfahren lassen sich nicht oder nur sehr bedingt über analoge Medien realisieren. Dabei stützt sich die digitale Forschung auf eine Infrastruktur, die sich im Vergleich zu den lange erprobten analogen Praktiken, beispielsweise klassischer Bibliotheksarbeit, noch bewähren muss.

2.1 Zugänglichkeit von Informationen

Der wohl deutlichste Unterschied zwischen analogen und digitalen Medien ist beim Zugang erkennbar. Während das Lesen eines Buches zumeist ohne Hilfsmittel möglich ist, sind digitale Informationen nur unter Zuhilfenahme einer weitreichenden Kette von physikalischen und digitalen Werkzeugen zugänglich, die sehr viel stärker als Bücher über die Zeit hinweg Veränderungen und damit verbundenen spezifischen Komplikationen unterworfen sind.15

Die Langlebigkeit von Information in gedruckten Büchern ist von zwei Einflussfaktoren abhängig: zum einen der Lebensdauer des Buches und zum anderen der Möglichkeit zur Interpretation der Information. Beide Faktoren sind auch bei digitalen Medien gültig. Technik hat eine begrenzte Lebensdauer und auch Informationen16 bedürfen der Interpretation, um erschließbar zu bleiben, da sich Sprache, Schrift und auch Semantik über die Zeit verändern. Diese Aspekte können bei digitalen Medien aufgrund von Kodierungen noch deutlich weitreichender ausfallen. Um diesen Punkt zu erläutern, wird zunächst darauf eingegangen, wie digitale Informationen gespeichert werden.

Es werden im Folgenden eine physische und eine logische Informationsschicht unterschieden.17 Diese Unterscheidung geht auf die bereits von Aristoteles getroffene Unterscheidung zwischen zwischen causa materialis und causa formalis zurück.18 Bei der Trennung zwischen der abstrakten Information vom Träger ergibt sich die folgende Unterscheidung.

Als physische Informationsschicht wird im Folgenden, angelehnt an das OSI-Referenzmodell,19 der physikalische Träger der Information mit allen notwendigen Werkzeugen, um diese auszulesen, bezeichnet. Je nach Trägersystem werden Informationen unterschiedlich abgebildet. Auf Magnetbändern, Festplatten, Disketten und ähnlichen Technologien werden die Informationen über die Magnetisierung kleinster Bereiche auf einem Trägermedium gespeichert. Über einen sensitiven Lesekopf können diese magnetischen Felder gemessen und als Sequenz verarbeitet werden. Andere Trägersysteme, wie CD, DVD, SSD, Ringkernspeicher, Lochkarten usw., verfolgen dabei andere physikalische Strategien, bilden jedoch eine ähnliche logische Informationsschicht ab. Dabei lässt sich eine Analogie zu geschriebener Sprache auf unterschiedlichen Trägermedien ziehen. Informationen können zum einen auf unterschiedliche Medien geschrieben werden, zum anderen aber auch in unterschiedlichen Sprachen formuliert sein.

Doch werden die Informationen nicht direkt gespeichert, auf der logischen Informationsschicht befinden sich normierte Abstraktionsstufen. Derzeit übliche Computer bilden Informationen ab, indem diese über eine Kodierung in ein binäres Alphabet überführt werden.20 Je nach Computerarchitektur und Datenformat unterscheiden sich die Zahl und Art der Abstraktionsstufen und somit auch die Komplexität der logischen Informationsschicht. An diesem kurzen Beispiel wird ein Unterschied deutlich: Der Aufwand, um Informationen aus digitalen Medien zu extrahieren, ist deutlich größer als bei analogen Medien. Wobei es auch bei rein analog gespeicherten Informationen Unterschiede in der Komplexität geben kann. Ein Beispiel ist die Miniaturisierung von Informationsträgern, beispielsweise Mikrofiche. Um Informationen auslesen zu können, werden Vergrößerungswerkzeuge benötigt. Auch gespeicherte akustische Aufnahmen benötigen Werkzeuge zur Wiedergabe.

Anhand dieses kurzen Exkurses sollte verdeutlicht werden, dass digitale Informationen in spezieller Weise ausgelesen und interpretiert werden müssen. Dieser Aspekt ist für die Diskussion um die Nachhaltigkeit von digitalen Informationen und somit auch für die Nachhaltigkeit digitaler Forschung maßgeblich.

Forschungsdatenzentren konsolidieren Daten in einer Infrastruktur, die durch Prozesse auf unterschiedlichen Ebenen digitalen Daten eine stabile Basis zur Erhaltung bietet. Die Nutzbarkeit kann dabei nur durch die kontinuierliche Pflege der physischen und logischen Informationsschicht gewährleistet werden. Daten werden zwischen Trägermedien migriert, jedoch immer nach dem Grundsatz, dass sich der Zugang zu den Daten im Idealfall nicht ändert. Dazu werden für einen dauerhaften Zugang insbesondere Konzepte wie Persistent Identifier (PID) für die Referenzierung21 und definierte und standardisierte Schnittstellen (Application Programming Interface, API) verwendet.

Das Überleben von Informationen ist auch von der Nachfrage nach diesen Informationen abhängig. Bücher werden bei hoher Nachfrage nachgedruckt und bei besonderer Bedeutung aufwändiger konserviert. Gleiches gilt für Daten, weshalb die „Blue Ribbon Task Force on Sustainable Digital Preservation and Access“ in ihrem Abschlussbericht auch folgerte: „When making the case for preservation, make the case for use.“22 Aus diesem Grund ist insbesondere die Auffindbarkeit von Daten ein wesentlicher Aspekt, aus dem wichtige Impulse für Dienstportfolio und Geschäftsmodell von Forschungsdatenzentren folgen. Im Kern heißt das, dass es neben der bloßen Archivierung und Sicherung der Forschungsdaten einen zweiten Handlungsstrang geben muss, der auf die Nachnutzbarkeit der Forschungsdaten abzielt.23

2.2 Kontinuität

Digitale Forschung und insbesondere die durch sie erzeugten Forschungsdaten bedürfen kontinuierlicher Anstrengung, um nachnutzbar gehalten zu werden.24 An dieser Stelle ist ein Vergleich mit der klassischen Bibliothek hilfreich: Auch diese pflegt archiviertes Schriftgut über längere Zeiträume hinweg. Diese Pflege erstreckt sich auf die physikalischen Träger ebenso wie auf die Katalogisierung, Erschließung und Verknüpfung der individuellen Medien. Die Aufgaben zur Erhaltung von Wissen sind also bei analogen wie digitalen Archivierungseinrichtungen teilweise vergleichbar.

Wie oben beschrieben, besteht ein wesentlicher Unterschied zwischen der Erhaltung von analog gespeicherten Informationen durch Bibliotheken und der Erhaltung von digitalen Forschungsergebnissen und -publikationen. Während in einem gewissen Rahmen einmal erschlossenes und archiviertes Schriftgut bei sachgemäßer Nutzung für sehr lange Zeiträume nur geringfügige weitere Aufwände verursacht, sieht das Bild bei digitalen Publikationen und insbesondere bei digitalen Forschungsdaten derzeit noch gänzlich anders aus. Bedingt durch die Entwicklungsdynamik in der digitalen Welt verändern sich die Zugangsverfahren und Bearbeitungswerkzeuge noch relativ schnell.25 Nur mit beständigem Erhaltungsaufwand lassen sich digitale Forschungsdaten und Werkzeuge nutzbar halten.

Daraus folgen wesentliche Merkmale des Arbeitsverständnisses des Forschungsdatenzentrums, das über das Bild eines Datensilos hinausgehen und die Nachnutzung der archivierten Daten durch eine entsprechende Aufbereitung, durch Mehrwertdienste oder andere Werkzeuge gewährleisten muss.26 Problematisch ist und bleibt die Unvorhersehbarkeit von zukünftigen Anwendungsszenarien. Hier kann durch die enge Verzahnung mit der Wissenschaft27 zwar sichergestellt werden, dass Forschungstrends frühzeitig wahrgenommen werden, aber führt dies alleine noch nicht zur Entwicklung von technischen und inhaltlichen Angeboten zum Umgang mit diesen Trends.

Allerdings ergeben sich bereits aus der Archivierung und Zugänglichkeit von Forschungsdaten Nutzungsszenarien, die es ohne Forschungsdatenzentrum bzw. den archivierten Bestand nicht gäbe. Ein Beispiel hierfür ist die Analyse von sich über längere Zeiträume verändernden Semantiken. Durch die gesammelte Archivierung und neue technische Werkzeuge ist es möglich, die Bestände etlicher Datenzentren zu durchsuchen und über Mappings die sich verändernden Semantiken nachvollziehbar zu machen.

3 HDC im Kontext

Die zunehmende Nutzung und Erzeugung digitaler Forschungsdaten verbindet sich mit neuen Herausforderungen für Forschungs- und Informationsinfrastrukturen. Verschiedene Initiativen bieten disziplin- und bereichsspezifische oder generische Angebote. Ein Beispiel für die biologische Forschung ist die DFG-geförderte Dateninfrastruktur „German Federation for Biological Data“ (GFBio).28 GFBio verbindet Angebote zur Aufbereitung von Daten und der Beratung zu Daten, Datenzentren und Archiven mit Kontakten zu spezifischen Archiven und Datenzentren. Durch den zentralen Anlaufpunkt wird Forschenden der Umgang mit Daten und der Zugang zu Archiven deutlich erleichtert. Während das HDC sich auf eine kleine Menge spezifischer Anfragen konzentriert, verfolgt GFBio den Ansatz der Bildung einer Dachorganisation, der GFBio e.V., die mit spezialisierten Datenzentren und Archiven, beispielsweise dem „European Nucleotide Archive“ (ENA) oder „Data Publisher for Earth & Environmental Science“ (PANGAEA), zusammenarbeitet.

Sonderforschungsbereiche (SFB) der DFG29 bieten die Möglichkeit, das Informationsmanagement in einem Informationsinfrastruktur(INF)-Teilprojekt über die bis zu zwölfjährige Laufzeit zu bündeln. Dazu zählt auch das Forschungsdatenmanagement. INF-Projekte können ein gutes Datenmanagement während des Projekts ermöglichen, das die Forschungsdaten bestmöglich auf eine spätere Archivierung und Nachnutzung vorbereitet. Die Gewährleistung der Nachhaltigkeit über die Projektlaufzeit kann jedoch, da die INF-Projekte mit dem SFB selbst ja auch enden, nicht ihre originäre Aufgabe sein. Hier sind die INF-Projekte auf die Kooperation mit dedizierten Datenzentren angewiesen.

Neben direkten Serviceangeboten werden auch neue Ansätze für das Forschungsdatenmanagement und die Datenkuration erarbeitet und erprobt. Das EU-geförderte Projekt Pericles30 (2013–2017) hat zum Ziel, Ansätze und Werkzeuge zu entwickeln, die den Zugang zu digitalen Inhalten in dynamischen Systemen gewährleisten. Dazu werden sowohl semantische, als auch strukturelle Veränderungen in den Daten und der Softwareumgebung erfasst und in einem dynamischen Gesamtsystem abgebildet. Verschiedene Werkzeuge ermöglichen es, diese Informationen zu erfassen und je nach Veränderung über die Auswirkungen auf das Gesamtsystem zu informieren. Im HDC werden im Rahmen der verfügbaren Ressourcen ebenfalls aktuelle Ansätze und Technologien beobachtet und erprobt. Anders als Pericles, wird innerhalb des HDC nicht versucht, die Dynamik der Systeme aufzufangen, sondern es werden dezidierte Zustände, etwa über die Anwendungskonservierung oder über Strukturbeschreibungen, erfasst und archiviert.

In diese komplexe Landschaft unterschiedlicher, teils miteinander vernetzter Akteure und Initiativen bettet sich das HDC ein. Die beschriebenen Beispiele stehen exemplarisch für eine Vielzahl von Maßnahmen und parallelen Entwicklungen auf internationaler wie auch auf nationaler und regionaler Ebene.31

Eine der bekanntesten wissenschaftspolitischen Maßnahmen ist sicher das im Jahr 2002 initiierte „European Strategy Forum on Research Infrastructures“ (ESFRI) der EU.32 Ziel ist es, einen einheitlichen strategischen Ansatz für Forschungsinfrastrukturen zu definieren und Projekte zur Entwicklung und Verbesserung von Forschungsinfrastrukturen in die Wege zu leiten.33 In der 2006 erstmals vorgelegten (und seither mehrere Male aktualisierten) ESFRI-Roadmap34 wurden 48 Projekte aus allen Wissenschaftsbereichen identifiziert und anschließend auf- oder ausgebaut. Für die Geisteswissenschaften sind vor allem DARIAH-EU (Digital Research Infrastructure for the Arts and Humanities)35 und CLARIN (Common Language Resources and Technology Infrastructure)36 zu nennen, die Werkzeuge und wissenschaftliche Dienste für die Geistes- und Kulturwissenschaften bereitstellen. Um diesen großen, länderübergreifenden Forschungsinfrastrukturen eine rechtliche Form zu geben und sie mit Geschäfts- und Rechtsfähigkeit auszustatten, wurde das Instrument „European Research Infrastructure Consortium“(ERIC) geschaffen. Ein ESFRI-Projekt kann unter bestimmten Bedingungen ein ERIC, eine eigene rechtliche Entität, werden,37 was auch einen entscheidenden Schritt zur Verstetigung bedeutet. Neben der ESFRI-Roadmap auf EU-Ebene haben fast alle Mitgliedsstaaten sowie assoziierte Länder nationale Roadmaps verabschiedet bzw. sind solche in Vorbereitung. In diesen können eigene Akzente gesetzt werden, doch ist auch eine Bezugnahme im europäischen Rahmen, etwa durch den Aufbau nationaler Pendants zu den ESFRIs bzw. ERICs, sinnvoll und von der Europäischen Kommission gewünscht.38

Für Deutschland wurde vom Bundesministerium für Bildung und Forschung 2013 die „Roadmap für Forschungsinfrastrukturen“39 herausgegeben. In dieser werden die in einem 2011 initiierten Bewertungsprozess priorisierten und anschließend mit Mitteln des BMBF und/oder weiterer Trägereinrichtungen geförderten Forschungsinfrastrukturprojekte vorgestellt.40 Die Geisteswissenschaften sind in der Roadmap durch DARIAH-DE41 und CLARIN-D,42 die deutschen Beiträge zu den europäischen Forschungsinfrastrukturen (ERIC) DARIAH-EU und CLARIN, vertreten. Sie unterstützen die digitale Forschung in den Geistes- und Kultur- (DARIAH-DE) bzw. den Geistes- und Sozialwissenschaften (CLARIN-D) durch die Entwicklung und Bereitstellung grundlegender Infrastrukturkomponenten, aber auch speziellerer Forschungswerkzeuge sowie Informationen und Lehr- und Schulungsmaterialien zu digitaler Forschung und dem Umgang mit Forschungsdaten. Der mehrschichtige Infrastrukturansatz wird am Beispiel von DARIAH-DE erläutert. DARIAH-DE stellt basale Dienste für die digital forschende geisteswissenschaftliche Community bereit, auf denen spezialisiertere Dienste aufsetzen, wobei die Grenze im Einzelfall z. T. schwer zu ziehen ist. Zur ersten Kategorie können Dienste wie ein Forschungsdatenrepositorium,43 ein über ePIC realisierter PID-Dienst oder die DARIAH-DE Autorisierungs- und Authentifizierungsinfrastruktur (AAI) gezählt werden. In die zweite Kategorie fallen Dienste wie Digivoy, der GeoBrowser mit Datasheet-Editor, der MEI-Score-Editor, das Virtuelle Skriptorium oder eine Webapp zu Orten jüdischer Geschichte. Speziell für die Suche sowie Indizierung von Forschungsdaten und Sammlungen aus unterschiedlichen Quellen wurde die Data Federation Architecture aufgebaut. Neben dem Repositorium und dem PID-Service, die schon genannt wurden, besteht sie aus der Generischen Suche, der Collection Registry, der Schema Registry und der Crosswalk Registry.

Das DARIAH-DE-Serviceportfolio beinhaltet mit dem Repositorium ein Angebot zur Datenarchivierung, allerdings liegt ein weiterer Schwerpunkt von DARIAH-DE in der Ermöglichung und Unterstützung von digitaler Forschung. DARIAH hat die Themen Forschungsdatenmanagement und Langzeitarchivierung als Forschungsgegenstand im Blick und kooperiert hinsichtlich der Nutzung aus diesem Grund mit Einrichtungen und Initiativen wie dem HDC, um so ihren Nutzern auch Dienstleistungen anbieten oder vermitteln zu können, die nicht zum Kerngeschäft gehören. Für das HDC wiederum ist DARIAH eine wichtige Schnittstelle zur Zielgruppe, über die es Informationen über deren Bedürfnisse und Anforderungen erhalten wie auch in umgekehrter Richtung Informationen über seine Angebote in der DH-Community verbreiten kann. Der Vorteil bei der Kooperation beider Initiativen liegt darin, dass Dienste und digitale Angebote, die im Rahmen von DARIAH-DE auf Basis von Nutzeranforderungen entwickelt werden, durch das HDC betrieben werden können.

Ein zentraler Partner am Standort Göttingen ist die Göttingen eResearch Alliance (eRA).44 Die eRA ist eine von der Universität Göttingen im Jahr 2014 ins Leben gerufene Initiative, die die Wissenschaftler der Universität in IT- und informationswissenschaftlichen Fragen unterstützt. Einen Schwerpunkt bilden dabei die Beratung45 und Schulungen46 zum Forschungsdatenmanagement. Wird für ein Projekt spezielle Expertise im Umgang mit geisteswissenschaftlichen Forschungsdaten benötigt oder sollen geisteswissenschaftliche Forschungsdaten und -ergebnisse archiviert werden, vermittelt die eRA die interessierten Personen oder Projekte an das HDC.

In den letzten Jahren sind an verschiedenen Orten im deutschsprachigen Raum geisteswissenschaftliche Datenzentren entstanden bzw. wurde der Prozess ihrer Schaffung angestoßen. Ein großer Teil von ihnen, darunter das HDC, ist in der AG Datenzentren des Verbandes Digital Humanities im deutschsprachigen Raum47 versammelt. Die Arbeitsgruppe dient dazu, sich über zentrale Begrifflichkeiten und Themen, das jeweilige Selbstverständnis, Mandat und Aufgabenspektrum zu verständigen sowie gemeinsam Forschungsfragen und Herausforderungen zu identifizieren und zu bearbeiten.48 Die Kooperation und Abstimmung der geisteswissenschaftlichen Datenzentren untereinander wird eine entscheidende Rolle dafür spielen, wie gut und umfassend der Bedarf der geisteswissenschaftlichen Community in Zukunft abgedeckt werden kann. Denn mit ihren vielen verschiedenen Einzeldisziplinen und einer Vielfalt an Methoden und Datenarten benötigen die Geisteswissenschaften eine Reihe von unterschiedlichen Lösungsansätzen und Services für verschiedene Fälle. Kein einzelnes Datenzentrum wird diese in ihrer Gesamtheit bereitstellen können. Vielversprechender scheint ein kooperativer Ansatz, bei dem einzelne Datenzentren Schwerpunkte ausbilden – etwa für bestimmte Datenarten oder Disziplinen, aber auch regional –, sodass insgesamt ein möglichst breites Spektrum der Anforderungen abgedeckt werden kann. In anderen Wissenschaftsbereichen gibt es vereinzelt bereits ähnliche Ansätze, beispielsweise die oben erwähnte German Federation for Biological Data (GFBio). Ein solcher Verbund würde sich auch gut in die vom Rat für Informationsinfrastrukturen (RfII) empfohlene (noch zu schaffende) Nationale Forschungsdateninfrastruktur (NFDI)49 einpassen, die einerseits soweit wie möglich generische Dienste aufbauen und disziplinübergreifend anbieten, andererseits durch einen arbeitsteiligen Ansatz zugleich notwendige Spezialisierungen und Schwerpunktsetzungen ermöglichen soll.

4 Bausteine des HDC

Das Angebot des HDC kann in zwei ineinandergreifende Bereiche aufgeteilt werden: technisch basierte Angebote sowie Beratungs- und Schulungsangebote.

Insbesondere die zuletzt genannte Kategorie ist dabei von besonderem Interesse, da hier ein Merkmal der geisteswissenschaftlichen Forschungsdatenlandschaft illustriert werden kann: die Heterogenität in Formaten, Werkzeugen, Inhalten der Forschungsdaten auf der Seite der Forschung und die weitestgehend noch im Aufbau befindliche bzw. nicht standardisierte Forschungsinfrastruktur auf der anderen Seite. Beide Aspekte erschweren die voraussetzungslose Nutzung von technischen Diensten im Sinne eines Self-Service. Was bei der nachhaltigen Archivierung und Bereitstellung von wissenschaftlichen Publikationen mittels institutioneller oder disziplinärer Repositorien eine etablierte Praxis ist, ist in dieser Ausprägung bei geisteswissenschaftlichen Forschungsdaten nur schwer bzw. erst in Anfängen möglich. Hinzu kommt, dass gerade bei Vorhaben, die mit komplexen Datenformen und Anwendungen oder neuen Methoden arbeiten, eine Standardisierung nur begrenzt möglich ist. Zudem ist auch immer die Balance zwischen Standardisierung und der Freiheit der Wissenschaft im Blick zu behalten. Um dieser Situation gerecht zu werden, wurde der Beratung im Serviceportfolio des HDC besondere Bedeutung eingeräumt.

Durch die Beteiligung außeruniversitärer Forschungseinrichtungen am HDC wird die Anschlussfähigkeit über die Universität hinaus sichergestellt. Grundsätzlich geht das Forschungsdatenzentrum von einer arbeitsteiligen Struktur der Dienstelandschaft zur Langzeitarchivierung und Nachnutzung von Forschungsdaten aus, ist also von Anfang an in Abstimmung und ggf. Kooperation mit anderen relevanten Akteuren, wie z. B. anderen Hochschulen, Infrastrukturanbietern oder Forschungsdatenzentren, verbunden.

Ausgehend von den Anforderungen der Wissenschaft an ein Forschungsdatenzentrum richtet sich die Angebotsstruktur entlang von drei Dimensionen aus:50

  • Nachhaltigkeit: Sicherstellung der Langzeitarchivierung von übernommenen Forschungsdaten

  • Präsentation: Eine langfristige und nachhaltige Darstellung von komplexen Forschungsdaten, beispielsweise in Form von Visualisierungen und multimedialen Präsentationsformen, Ermöglichung der Referenzierung und Zitation

  • Integration: Bereitstellung von Forschungsdaten in möglichst standardisierter Form für eine kurzfristige und direkte Nachnutzung, Integration von Schnittstellen, die beispielsweise den (Meta-)Datenaustausch mit anderen Datenzentren oder die Anbindung an virtuellen Forschungsumgebungen ermöglichen

Das Angebot des HDC richtet sich zum einen an wissenschaftliche Datenproduzenten, die Forschungsdaten, beispielsweise nach Beendigung eines Projektes, in ein Datenzentrum überführen wollen, zum anderen an Forschende, die bereits erzeugte Daten nachnutzen möchten. Damit erfüllt es Aufgaben, die die Dokumentation, Transparenz und Reproduzierbarkeit von Wissenschaft (wie z. B. Gute Wissenschaftliche Praxis der DFG51) sowie teilweise Aufgaben im Zusammenhang mit der Bewahrung des kulturellen Erbes berühren.

4.1 Technische Infrastruktur und Werkzeuge des HDC

Das nachfolgend beschriebene Angebotsportfolio des HDC ist aktuell für den Zeitpunkt der Gründung und Betriebsaufnahme im August 2016. Es handelt sich nicht um eine statische Angebotsstruktur, sondern um eine, die einer ständigen Weiterentwicklung unterliegt.

Im Einzelnen besteht das technische Angebot aus den im Folgenden beschriebenen Diensten:

  • Repositorium: Repositorien sind ein wichtiger Baustein zur Archivierung und Bereitstellung von dateibasierten Forschungsdaten. Diese werden entweder direkt als Angebot für die Nutzenden verfügbar gemacht oder als Ebene zwischen der Middleware und dem Speicher konzipiert. Im ersten Fall kann der Nutzer seine Daten direkt im Repositorium hinterlegen (Self-Service) bzw. auf die Daten zugreifen. Technisch wird es zu einer Einbindung des bereits bestehenden DARIAH-DE-Repositoriums52 kommen. Daneben werden weitere Repositorien erstellt, sofern dies für bestimmte Objekttypen notwendig ist.

  • Anwendungskonservierung: Die Anwendungskonservierung stellt eine flexible Möglichkeit dar, Forschungsergebnisse als Webdienst oder Visualisierung für einen begrenzten Zeitraum zu archivieren und für die geisteswissenschaftliche Gemeinschaft sowie die interessierte Öffentlichkeit langfristig bereitzustellen.53 Gemäß dem aktuellen Konzept werden solche Ergebnisse in eine sichere Umgebung verschoben, damit auch bei ausbleibender Wartung die Sicherheitsrichtlinien des Rechenzentrums nicht verletzt werden. Wenn das Forschungsergebnis als eine über den Browser erreichbare Visualisierung vorliegt, müssen zudem die Browser mit archiviert und damit auch in den gesicherten Bereich übernommen werden. Der Zugriff auf die Forschungsergebnisse erfolgt dann über einen Remote-Desktopdienst. Unter Berücksichtigung der Benutzerfreundlichkeit wird der Zugriff über eine HTML-Schnittstelle geregelt. Dadurch ist die nutzerseitige Installation von weiteren Programmen nicht notwendig, ein Standardbrowser genügt.

  • PID-Service: Die Aufgabe eines Forschungsdatenzentrums ist nicht nur die Archivierung der Daten, sondern auch deren Bereitstellung und Integration, wozu die Daten zugänglich und auffindbar sein müssen. Für letzteres sowie für das Management von Forschungsdaten im Allgemeinen bildet sich die Verwendung von Persistent Identifiern als Standard heraus. Diese global eindeutigen Identifikatoren können mittlerweile für alle Forschungsdaten vergeben werden und sind nicht mehr auf klassische Publikationen in entsprechenden Repositorien begrenzt. Jede Datei als Teil eines Forschungsergebnisses kann unabhängig von Größe, Häufigkeit und Format mit einer PID referenziert werden. Auf dieser Grundlage lassen sich Mehrwertdienste zur Auffindung und Integration entwickeln. Mit dem ePIC-Service steht dem HDC eine Implementierungsmöglichkeit und ein PID-Provider zur Verfügung, der die Vergabe von langzeitstabilen Referenzen erlaubt. Darüber hinaus sind SUB und GWDG DataCite-Mitglieder54 und bieten einen Dienst zur Vergabe von Digital Object Identifiern (DOIs) und eine Möglichkeit, ePIC-PIDs in DOIs für (Daten-)Publikationen umzuwandeln, an.

Neben den Diensten, die direkt an Wissenschaftler gerichtet sind, gibt es weiterführende Aufgaben für den Betrieb, die für ein vertrauenswürdiges Datenzentrum wichtig sind. Dies betrifft zum einen den Aspekt der Zertifizierung verschiedener Komponenten (Repositorien) oder des gesamten Forschungsdatenzentrums. Das HDC sieht es als eine Aufgabe an, dies zu überwachen und mögliche Komponenten des Zentrums zertifizieren zu lassen. Weiterhin bedarf es eines einfachen und zugleich gesicherten Zugangs zu den Diensten. Das HDC wird sich daher als Service Provider größeren Autorisierungs- und Authentifizierungsinfrastrukturen (AAI) wie z. B. der DARIAH-AAI55 anschließen.

4.2 Unterstützung der Wissenschaft durch Datenkuratoren

Die bisherigen Erfahrungen verschiedener geisteswissenschaftlicher Datenzentren zeigen, dass die Gewährleistung der Nachhaltigkeit und Anschlussfähigkeit von Forschungsdaten „anscheinend einen ganzen Strauß an Diensten und Angeboten [erfordert], die sich von der koordinierten Unterstützung durch Fachberatung, der Vermittlung von Hardware, der Beantragung von Mitteln, dem Betrieb von Repositorien bis zur anhaltenden Pflege von Daten und Anwendungen erstrecken“.56 Um archivfähige und nachnutzbare Forschungsdaten zu erhalten, ist von Anfang an ein sorgfältig geplantes und umgesetztes Datenmanagement notwendig, das durch Fachberatung unterstützt werden muss. Zudem erfordert die Erhaltung der Nachnutzbarkeit eine kontinuierliche Kuratierung.57 Um diese breite Palette an Maßnahmen bedienen zu können, verfolgt das HDC den Ansatz, neben den oben geschilderten technischen Angeboten Datenkuratoren einzusetzen, die Wissenschaftler von der Phase der Antragstellung an beraten, sie über den gesamten Verlauf eines Vorhabens beim Datenmanagement unterstützen, die Überführung der Forschungsdaten ins Datenzentrum begleiten und sich auch danach um die Kuratierung der im HDC archivierten Daten kümmern. Dem Konzept des Embedded Data Management (das wiederum vom Ansatz des Embedded Librarianship58 inspiriert wurde)59 folgend, das sich in Deutschland beispielsweise in den INF-Projekten von Sonderforschungsbereichen60 bereits erfolgreich bewährt hat,61 sind die Datenkuratoren schwerpunktmäßig an den wissenschaftlichen Einrichtungen, mit denen das HDC kooperiert, angesiedelt, wodurch ein enger Kontakt zur Zielgruppe hergestellt wird.

Ergänzend hierzu wird in naher Zukunft mit der Erarbeitung von Schulungsangeboten (sowohl online als auch face-to-face) begonnen, die sich thematisch zum einen generell mit Forschungsdatenmanagement, zum anderen konkret mit der Nutzung der Services des HDC beschäftigen werden. Während sich die Beratung vornehmlich an Datengebende wendet und einzelfallbezogen ist, richten sich die Schulungen an ein – sowohl hinsichtlich des Spektrums als auch zahlenmäßig – breiteres Publikum, das auch diejenigen einbezieht, die Daten entnehmen und nachnutzen.

5 Geschäftsmodell und nachhaltiger Betrieb

Zur Gewährleistung der Nachhaltigkeit von Forschungsdaten und -ergebnissen braucht es nicht nur Einrichtungen wie Datenzentren, die entsprechende Dienstleistungen anbieten – auch der nachhaltige Betrieb dieser Einrichtungen selbst und damit die langfristige und verlässliche Bereitstellung ihrer Dienste muss gewährleistet sein. Dieses Aufgabenfeld hat der Rat für Informationsinfrastrukturen (RfII) als eine der großen Herausforderungen in Bezug auf die wissenschaftliche Informationsinfrastruktur benannt. Er stellte fest, dass die Konzeption und Entwicklung eines Großteils der Dienste und auch Einrichtungen zum Management und der Langzeitarchivierung von Forschungsdaten nach wie vor projektförmig organisiert und ganz oder zum Teil über Fördergelder finanziert wird. Wenn es um die Verstetigung geht, tut sich jedoch oft eine Finanzierungslücke auf, die die tragenden Institutionen aufgrund fehlender Eigenmittel sowie fehlender Möglichkeiten zur Akquise von Mitteln für den dauerhaften Betrieb nicht füllen können. Hinzu kommt, dass das föderale System in Deutschland die Implementierung länder- und sektorenübergreifender Infrastrukturlösungen erschwert.62

Entsprechend misst der RfII seinen Empfehlungen zur Verstetigung von Informationsinfrastrukturen, die sich vor allem an den Bund, die Länder und die Wissenschaftsorganisationen richten, höchste Priorität bei.63 Dabei handelt es sich um ein „Phasenmodell, das Pfadentscheidungen für die mögliche Überführung in eine geeignete Trägerschaft bzw. die Konsolidierung ermöglicht“.64 Nach diesem werden die betreffenden Infrastrukturen zunächst in Bezug auf die wissenschaftliche Qualität, Relevanz sowie Akzeptanz in der Zielgruppe evaluiert. Anschließend werden die Verstetigungsoptionen im Einzelfall geprüft, wobei auch wissenschaftspolitische Erwägungen (Schwerpunktbildung, Pluralität etc.) eine Rolle spielen.65 Für die Verstetigung identifizierte der RfII „mindestens folgende Optionen:

  • Weiterführung als singuläre Infrastruktur;

  • Angliederung an eine bestehende Infrastruktur;

  • Integration einen zentralen, im Rahmen einer nationalen Infrastruktur bereits bestehenden Dienst zur langfristigen Nachnutzung [...];

  • Zusammenfassung unterkritisch ausgestatteter Infrastrukturen in übergreifenden Betriebsmodellen;

  • Archivierung des erreichten Stands;

  • Verbesserung der Kosten-Nutzen-Relation durch Rückbau auf einen auch in einer längerfristigen Perspektive prioritären Kern.“66

Da es für die Begutachtung von Infrastrukturen etablierte Konzepte bisher nur in Ansätzen gibt, empfiehlt der RfII zudem die Entwicklung eines solchen.67

Ein entscheidender Faktor für die Verstetigung bzw. den nachhaltigen Betrieb einer Infrastruktureinrichtung ist ein stabiles Geschäftsmodell. Ein Geschäftsmodell68 beschreibt alle Komponenten und Abläufe, die zur Herstellung eines Produkts oder einer Dienstleistung notwendig sind, einschließlich des Betriebsmodells69 und des Kostenmodells.70 Ein Instrument zur initialen Erarbeitung eines Geschäftsmodells ist das „Business Model Canvas“, das Schlüsselpartner, Schlüsselaktivitäten, Schlüsselressourcen, Nutzenversprechen, Kundenarten, Kundenbeziehungen, Betriebs- und Kommunikationskanäle und Kosten sowie Einnahmequellen beschreibt.71 Es bietet eine gute Grundlage für die anschließende Erstellung eines Geschäftsplans, der – detaillierter und ergänzt um einige weitere wichtige Punkte (z. B. Organisations- und Rechtsform) – alle Facetten eines Vorhabens und des entsprechenden Geschäftsmodells abbildet und als Bauplan für den Aufbau eines Unternehmens oder einer Institution dient.72 Im Zuge der konzeptionellen Vorarbeiten für das HDC wurde ebenfalls dieses Vorgehen gewählt.73 Das Ergebnis war der Entwurf eines Geschäftsplans. Am 1. August 2016 wurde das HDC als gemeinsame Einrichtung der SUB Göttingen und der GWDG gegründet.74 Das Geschäftsmodell wird in der Folge noch weiter ausgearbeitet (z. B. um die Art der Einbindung bzw. Anbindungen der wissenschaftlichen Partnereinrichtungen ADWG, MPI MMG und HAB zu definieren) und stets an aktuelle Entwicklungen angepasst werden müssen.

6 Perspektive für das HDC und die digitale Forschung

Folgt man Kuhns Konzept75 der Evolution der Forschung, ergibt sich ein stetig selbst erneuerndes System. Auch Technik und Sprache verändern sich. Forschungsdatenzentren versuchen, in diesem sich stetig verändernden Themenkomplex eine Stabilität für aufeinander aufbauende Forschung und als Zeitzeugnis zu bieten. In den vorangegangenen Abschnitten wurde erläutert, welche Herausforderungen bestehen und wie das HDC versucht, diese zu meistern. In diesem Kapitel versuchen wir, mögliche Perspektiven ausgehend von momentan gegebenen Rahmenbedingungen zu beschreiben. Dabei betrachten wir zunächst die absehbare nahe Zukunft und versuchen, von dort aus den Blick zu erweitern und Prognosen für längere Zeiträume zu geben.

Die Heterogenität von Forschungsdaten bezüglich der Größe und Formate ist hoch. Dies kann und wird voraussichtlich trotz vielfältiger, teils globaler, Bemühungen zur Standardisierung (z. B. im Rahmen der Research Data Alliance76) weiter zunehmen. Neue Formate und Werkzeuge werden entwickelt und in den Fachcommunities eingesetzt. Für eine Sicherung und Integration solcher komplexer Daten in die Angebotslandschaft eines HDCs ist ein Verständnis der Daten und Datenstrukturen von besonderer Bedeutung. Eine angestrebte Dienst-Erweiterung bildet beispielsweise die Datenextraktion und Strukturbeschreibung. Diese sind nicht losgelöst von anderen Dienstleistungen nutzbarer Angebote. In der Regel erfolgt die Datenextraktion durch eine Kuration von Forschungsdaten, die auf interoperable Formate migriert oder soweit von Formatbeschränkungen befreit werden, dass ein Rohdatenkern für die Nachnutzung freigelegt werden kann. Durch die Verwendung von PIDs werden zudem Relationen zwischen Elementen nachgebildet und damit die Struktur, neben einer Dokumentation, nachhaltig archiviert. Es müssen vor allem die notwendigen Werkzeuge für die Kuration und Migration bereitgestellt sowie die Vorgänge und Transformationen definiert und ausgeführt werden (z. B. XML-Transformationen von Daten und/oder Metadaten, Formatmigrationen in LZA-fähige Formate, Erstellen von Datenbank-Dumps in Text-/XML-Dateien etc.). Die Datenextraktion und Strukturbeschreibung wird auf Daten stattfinden, die entweder im Bestand des Forschungsdatenzentrums bereits vorhanden sind oder von Datenlieferanten für einen Import bereitgestellt und vor dem Import normalisiert werden sollen.

Eine weitere Herausforderung, die in naher in Zukunft zu bewältigen sein wird, ist die Bearbeitung von großen Datenmengen (Big Data). Dazu müssen die darunterliegende Infrastruktur und die Angebote aufeinander abgestimmt werden. Es genügt nicht, die Daten auf einem einfachen Dateisystem abzulegen, es muss auch eine performante Anbindung an die Rechenkapazitäten gewährleistet sein. Dies ist ein wichtiger Aspekt bei der Untersuchung und Implementierung von Schnittstellen zur Integration der im HDC hinterlegten Daten.

6.1 Langfristige Perspektive

Die Zunahme an digitaler Forschung ist unbestritten. Doch wie kann gewährleistet werden, dass Forschungsergebnisse auch in Zukunft reproduzierbar und nachnutzbar bleiben? Durch die wachsende Menge an digitaler Forschung ist dies nicht mehr nur die Aufgabe von Einzelnen, sondern kann nur durch eine gemeinsame Anstrengung der gesamten wissenschaftlichen Gemeinschaft erreicht werden. Eine große Rolle spielt hierbei die Standardisierung. Nur so lassen sich skalierbare Dienste für standardisierte Formate entwickeln, während für nicht-standardisierte Daten ein erhöhter Aufwand berücksichtigt werden muss. Diese Gemeinschaft besteht aber nicht nur aus den Einzelwissenschaftlern sowie Projekten, sondern auch aus den fachspezifischen Dienste- und Infrastrukturanbietern. Dazu zählt auch das HDC, das inhaltlich durch Beteiligung an Konferenzen und Arbeitsgruppen (z. B. der AG Datenzentren im DHD-Verband), aber auch durch eigene IT-Entwicklungsarbeit an der Standardisierung mitwirken wird.

Das HDC ist ein virtuelles Datenzentrum, d. h., es bedient sich der Infrastruktur der beteiligten Organisationen. Dies hat vielfältige Auswirkungen auf eine langfristige Planung, die gewährleistet, dass die Forschungsdaten im HDC sicher aufbewahrt werden können. Da das HDC als Teil einer größeren Infrastruktur auch deren Ressourcen verwendet, ist bei Entscheidungen zur technologischen Entwicklung und Beschaffung nur eine teilweise Einflussnahme möglich, was Auswirkungen auf das Geschäftsmodell hat. Aber auch die technische Entwicklung und Weiterentwicklung der Dienste ist abhängig von der darunterliegenden Infrastruktur. Eine Anpassung erfordert weitere Ressourcen, die es im Betrieb des HDC zu berücksichtigen gilt. Ein weiterer Aspekt in der Organisation betrifft die Qualifikation der Mitarbeiter sowie der Nutzenden. Bei immer größer werdenden Datenmengen und einer immer größer werdenden Auswahl an Werkzeugen und Formaten werden sich Personen auf bestimmte Gebiete in der Handhabung der Daten spezialisieren. Der Wissenschaftler, der die Daten erhebt, benötigt unter Umständen Hilfe bei der Analyse durch einen Data Analyst. Dieser unterstützt den Wissenschaftler bei der Analyse, wobei die Interpretation nicht die Aufgabe von Data Analysts ist. In Zukunft wird sich das Berufsbild des Data Analysts weiter profilieren. Das HDC wird solche und ähnliche Kompetenzen benötigen, damit eine bestmögliche (Nach-)Nutzbarkeit der Forschungsdaten erreicht werden kann.

Das Humanities Data Centre ist darauf ausgerichtet, sich der stetig ändernden Umgebung und neuen Anforderungen – soweit sinnvoll – anzupassen, aber gleichzeitig den Bestand weiter zu pflegen und für die Nachnutzung bereitzustellen.

Literaturverzeichnis

Footnotes

About the article

Dr. Sven Bingert

Stefan Buddenbohm

Claudia Engelhardt

Daniel Kurzawe


Published Online: 2017-11-28

Published in Print: 2017-11-23


Citation Information: Bibliothek Forschung und Praxis, Volume 41, Issue 3, Pages 279–290, ISSN (Online) 1865-7648, ISSN (Print) 0341-4183, DOI: https://doi.org/10.1515/bfp-2017-0036.

Export Citation

© 2017 Walter de Gruyter GmbH, Berlin/Boston.Get Permission

Comments (0)

Please log in or register to comment.
Log in