Jump to ContentJump to Main Navigation
Show Summary Details
More options …

Bibliotheksdienst

Editor-in-Chief: Michalke, Karin / Ihrig, Hartmuth

Online
ISSN
2194-9646
See all formats and pricing
More options …
Volume 51, Issue 6

Issues

Webarchivierung in der SUB Hamburg: kleine Schritte in der Region – Bausteine zu einem größeren Ganzen?

Ulrich Hagenah
  • Corresponding author
  • Staats- und Universitätsbibliothek Hamburg Carl von Ossietzky, Von-Melle-Park 3, 20146 Hamburg, Deutschland
  • Email
  • Other articles by this author:
  • De Gruyter OnlineGoogle Scholar
Published Online: 2017-05-10 | DOI: https://doi.org/10.1515/bd-2017-0053

Zusammenfassung

Die Staats- und Universitätsbibliothek Hamburg sammelt im Rahmen ihres Auftrags als Landes- und Pflichtexemplarbibliothek seit 2015 Websites Hamburger Institutionen bzw. zu regional relevanten Themen. Der Beitrag beschreibt die rechtlichen und technischen Grundlagen, die Prinzipien der Auswahl, den Bearbeitungs-Workflow einschließlich der Katalogisierung sowie die Zugänge zu den Archivkopien der Websites. Diskutiert werden technisch-organisatorische Grenzen und der Stellenwert der Webarchivierung im landesbibliothekarischen Kontext.

Abstract

Since 2015, the Hamburg State and University Library has been collecting websites of Hamburg institutions or websites concerning regional topics as part of its responsibility as state and depository library. The article describes the legal and technical basis, selection principles, the processing workflow including cataloging as well as how to access the websites’ archive copies. Technical and organizational limits and the status of web archiving are discussed in the state library context.

Schlüsselwörter: Website; Archivierung; Pflichtexemplar; Kulturelles Erbe; Landesbibliothek; Landeskunde; Hamburg

Keywords: website; archiving; deposit copy; cultural heritage; state library; regional studies; Hamburg

1 Einführung

Für die Staats- und Universitätsbibliothek Hamburg Carl von Ossietzky (SUB) stellt sich die Aufgabe der Webarchivierung sowohl als Pflichtexemplarbibliothek für das Bundesland Hamburg1 als auch im Zusammenhang ihrer landeskundlichen Sammlungs- und Dokumentationstätigkeit als Landesbibliothek. Eines der Kernziele der Bibliothek ist, das kulturelle Erbe Hamburgs und seiner Region möglichst umfassend zu sammeln, zu dokumentieren und langfristig gesichert zu archivieren. Die in Hamburg publizierten Druckschriften wurden von der Bibliothek seit 1696 als Pflichtexemplare vereinnahmt, zusätzlich die außerhalb erschienene Literatur über die Hansestadt gekauft oder als Geschenk oder Belegexemplar erworben. Mit der Entwicklung des Internets und des digitalen Publikationssektors entstand rasch das Bedürfnis, die digitalen, insbesondere die e-only veröffentlichten Inhalte entsprechend der Praxis im Printbereich nachhaltig zu sichern. Web-Publikationen unterliegen permanenter Veränderung, Aktualisierung, Erweiterung, Innovationen der Publikationsformate und der technologischen Erneuerung, und sie sind in ganz erheblichem Umfang flüchtig, weshalb eine granulare Erschließung von Webressourcen ohne eine Archivierung mittlerweile als nicht mehr nachhaltig sinnvoll betrachtet wird. Das Publikationssystem Web wiederum in seiner Dynamik diachron vollständig in einem Archiv abzubilden und als mediale Umgebung für die Nachwelt rekonstruierbar zu erhalten, ist unmöglich. Allenfalls aspekthaft und für kleine Segmente mag ein so umfassender dokumentarischer Ansatz unter wissenschaftlichen Laborbedingungen für begrenzte Zeiträume realisierbar sein. Auch das Webarchiv des gemeinnützigen Projekts Internet Archive (https://archive.org/web/) repräsentiert mit seinen derzeit fast 300 Milliarden Websites in der Wayback Machine nur eine Teilmenge, nämlich „snapshots“, Zeitschnitte des von seinen Crawlern erreichten Webinhalts.2 Bibliotheken und Archive können die dort, quasi zufällig, von Algorithmen gesteuert eingesammelten Inhalte ihres jeweiligen Referenzgebiets vorfinden; manche machen sich diesen Fundus auch gezielt zunutze. Doch das ersetzt nicht ein eigenes systematisches Bemühen um die Sicherung des im Web entstehenden kulturellen Erbes, wenngleich nur in repräsentativen Ausschnitten entsprechend dem Sammelauftrag der Einrichtung und überhaupt nur denkbar in strategischer Abstimmung auf regionaler, nationaler und internationaler Ebene.

Mitte 2008 wurde in Hamburg eine neue Verordnung über die Abgabe amtlicher Publikationen an die Staatsbibliothek erlassen, in der die Sammlung elektronischer Veröffentlichungen verankert wurde. Im Folgejahr wurde das bestehende Pflichtexemplargesetz von 1988 erweitert um den Passus: „Für digitale Publikationen gelten die Vorschriften dieses Gesetzes entsprechend.“3 Eine (unpublizierte) Verfahrensanordnung vom 01.12.2010 zur Durchführung des Gesetzes lässt Ausnahmen von der Pflichtexemplarsammlung zu, u. a. wenn die Sammlung und Archivierung bestimmter Mediengattungen organisatorisch oder technisch nicht oder nur mit unverhältnismäßigem Aufwand möglich ist. Dies galt in der Einführungsphase der „E-Pflicht“ für das Harvesting von Websites.

Umso dankbarer begrüßte die SUB im Jahr 2013, dass ihr die Möglichkeit eröffnet wurde, in das DFG-Projekt der Bayerischen Staatsbibliothek Langzeitarchivierung von Websites: Entwicklung eines Servicemodells auf Grundlage praktischer Erfahrungen (2013–2016) mit einem bereits erprobten Workflow als Pilotanwender einsteigen zu können.4 Im Frühjahr 2014 stellten Kollegen der BSB München (Tobias Beinert, Astrid Schoger) das Projekt in Hamburg im Detail vor – insbesondere die zugrundeliegende Archivierungssoftware, das von der British Library und der Nationalbibliothek von Neuseeland entwickelte Web Curator Tool ( WCT). Abstimmungsprozesse zwischen BSB und SUB folgten, während gleichzeitig bis zum Sommer 2014 die zukünftigen Anwender in Hamburg im Umgang mit der Archivierungssoftware intensiv geschult wurden und das zweite Halbjahr 2014 zum Kennenlernen des WCT, des Heritrix Crawlers und der Open Wayback Machine in einer Testumgebung nutzen konnten. In der SUB wurde das Projekt in die Organisationsstruktur der Hauptabteilung Acquisition für die Bearbeitung fortlaufender Sammelwerke eingebunden, und bei zwei Mitarbeiterinnen wurden Stellenanteile im Umfang von insgesamt 0,7 VZÄ E10 für die Webarchivierung umgewidmet. Daneben wurde das Projekt in der IT-Abteilung verankert. Für die inhaltliche Selektion der Websites5 ist der Bereich Landesbibliothek verantwortlich. Der neue Geschäftsgang Websitearchivierung der SUB ging im Frühjahr 2015 ins Produktivsystem über.

Auf die einzelnen Prozessschritte geht der nächste Abschnitt näher ein, soweit sie nicht bereits durch den Beitrag von Tobias Beinert (Bayerische Staatsbibliothek) in diesem Heft dargelegt sind.6

2 Workflow, technische Möglichkeiten und Grenzen

Einige Einschränkungen des Webharvesting seien zuerst genannt. Die Domain hamburg.de, das offizielle Stadtportal der Freien und Hansestadt Hamburg, bildet in ihrer Gesamtheit einen Sonderfall.7 Sie vollständig zu harvesten, verbietet ihre schiere Größe, Tests wurden ergebnislos abgebrochen. Subdomains werden jedoch in Auswahl eigenständig geharvestet, u. a. alle Hamburger Behörden-Websites.

Grundsätzlich ist festzuhalten, dass eine archivierte Website nie eine hundertprozentige Kopie der Live-Site sein kann. Die gecrawlte Site bildet den Zustand im Augenblick der Archivierung ab; externe Links, Formulare und Suchfunktionen sind in einem archivierten Zeitschnitt einer Website in der Regel außer Funktion. Einige Webanwendungen sind technisch nicht abbildbar, zum Beispiel eingebettete Youtube-Videos oder Google-Maps-Ausschnitte. Es gibt etliche Webressourcen, so zusammengefasst die Erfahrung der Bayerischen Staatsbibliothek, „die sich einer Archivierung bereits aufgrund ihrer spezifischen technischen Struktur bzw. der Limitationen des standardmäßig zur Verfügung stehenden Webcrawler (Heritrix) entziehen und somit im Verfahren vorab ausgeschlossen werden mussten. Dazu zählen:

  • Einzelne Animationen und Flash-Dateien,

  • Websites mit einem überwiegenden Anteil an Animationen (Flash/Java-Script),

  • Websites, die nur aus einer Suchmaske für die Suche in einer oder mehreren Datenbanken, bestehen, (Problem dynamisch generierter Inhalte, die nicht effizient gecrawlt werden kann [sic]),

  • (Unkommentierte) Linklisten, weil externe Links von dem Webcrawler im Falle eines selektiven Harvesting nicht weiterverfolgt werden,

  • Streaming Media wie z. B. You-Tube-Videos, falls der Großteil der Website daraus besteht.“8

Ein anderer Problemfall sind css-Dateien (Dateien, die das Design und Layout einer Website bestimmen), die jedem Crawl einer Site aus ihrem Quellcode wieder manuell hinzugefügt werden müssen (Whitelisting), wenn sie von Mal zu Mal verändert vorliegen. Neuerdings behindern immer weiterreichende, komplexere Verschlüsselungstechnologien das Crawlen von Websites.9

Je mehr Erfahrung die BearbeiterInnen mit der Leistungsfähigkeit und den Limitationen der Harvesting-Software gesammelt haben, desto sicherer können sie vor Beginn eines Crawls einschätzen, ob der Ressourceneinsatz für womöglich langwierige Qualitätssicherungsprozesse und wiederholte Crawls sich lohnt. Evaluierungssoftware könnte künftig dieses Moment der Ressourcensteuerung unterstützen.10

Das Web Curator Tool bietet einen integrierten Bearbeitungsprozess von der Information des Website-Betreibers betreffend das beabsichtigte Harvesting über eine Genehmigungseinholung, den automatisierten Harvest-Prozess und die Qualitätssicherung bis hin zur Archivierung. Der Workflow sieht vor, dass die Kommunikationsschritte vor der Archivierung einer Website per E-Mail erledigt werden, unter Nutzung von Templates für Standardtexte und mit automatischem Versand aus dem WCT heraus an den Website-Betreiber. Das Hamburger Anschreiben enthält die Ankündigung, dass die SUB Hamburg einen Website-Crawl und weitere (Folge-)Crawls einer bestimmten Domain, z. B. www.hafencity.com, und deren Subdomains (mit gleichem Impressum) in regelmäßigen Zeitabständen durchführen wird. In der Regel findet der Crawl in halbjährlichem Rhythmus statt. Unter Website ist dabei die Gesamtheit aller Webseiten eines Internetauftritts unter einer bestimmten Internetadresse/Domain zu verstehen. Als Rechtsgrundlage für die Harvesting- und Archivierungsabsicht wird das Pflichtexemplargesetz genannt.

Darüber hinaus wird um die Erteilung einer Genehmigung gebeten, die Archivkopien zur Nutzung öffentlich zugänglich machen zu dürfen. Dafür werden drei Zugriffsvarianten angeboten, die dem Rechtemanagement der Ablieferung anderer digitaler Pflichtdokumente in der SUB Hamburg entsprechen. Präsentiert werden können die archivierten Websites grundsätzlich auf drei unterschiedlichen Ebenen: weltweit frei im Netz; im Bereich des Campus der Universität Hamburg einschließlich des Fernzugriffs für alle Angehörigen der Universität; an einem dezidiert dafür bestimmten PC im Lesesaal der SUB ohne Druck-, Speicher-, Kopier- und Versandmöglichkeit. Die erteilten „Permissions” werden in den jeweiligen Genehmigungsdatensatz eingetragen. Dementsprechend werden die archivierten Websites einer von drei für die unterschiedlichen Varianten eingerichteten Wayback Machines zugewiesen. Ist nach Ablauf von sechs Wochen keine Antwort der angeschriebenen Institution eingegangen, wird ein Erinnerungsschreiben gleichen Wortlauts verschickt. Nach weiteren sechs Wochen ohne Reaktion wird dem Webarchiv ein Einzelplatzzugriff im SUB-Lesesaal, also die Minimalnutzung zugewiesen. Ca. 50% aller angeschriebenen Institutionen antworten nicht und erhalten daher für ihre Webarchive nur den engsten Zugriff.

Vor Beginn des Crawls werden jeder Website bestimmte Crawlparameter in sogenannten „Targets“ zugewiesen. „Targets“ sind Datensätze, welche die technischen Modalitäten eines Website-Crawls einer Institution oder Themenseite definieren. Im Vorfeld eines Erst-Crawls sind das u. a.:

  • die Frage, welche URLs („Seeds“) gecrawlt werden sollen: häufig kommt es vor, dass bezogen auf eine Institution nicht nur eine URL wichtig ist, sondern auch noch Subdomains dazukommen, im Beispiel www.hafencity.com etwa http://presse.hafencity.com/.

  • die Festlegung, in welchem Zeitintervall gecrawlt werden und wann das starten soll (eingestellt über einen „Scheduler“),

  • schließlich die Entscheidung, in welche Tiefe der inhaltlichen Struktur hinein, d. h. bis zu welcher Hierarchiestufe eine Website geharvestet werden soll.

Ist dann mit einem Klick der Erst-Crawl initiiert und der Vorgang abgeschlossen, muss er mittels Qualitätskontrollen auf seine Konsistenz, Vollständigkeit, Funktionstauglichkeit, Erhalt des Look and Feel, usw., überprüft werden. Dies geschieht mit verschiedenen Verfahren der intellektuellen Qualitätskontrolle sowie zusätzlich einer visuellen Qualitätskontrolle, d. h. dem Vergleich der Archivkopie auf der Wayback Machine mit der Live-Site. Methodik und Standards der intellektuellen Qualitätssicherung sind in den Projektpapieren und Veröffentlichungen der Bayerischen Staatsbibliothek detailliert und vorbildlich dokumentiert,11 weshalb sie hier kursorisch behandelt werden können.

Für die intellektuelle Qualitätskontrolle werden in erster Linie sogenannte Log-Dateien analysiert, d. h. Dateien, die die Software für jeden Crawl gewissermaßen als Status-Anzeige generiert. Sie unterstützen eine erste Fehleranalyse, indem sie beispielsweise anzeigen, ob der Crawl erfolgreich durchgeführt wurde, ob er abgebrochen wurde, ob es zu viele Error-Codes gibt, ob bestimmte Dateiformate komplett fehlen oder ob externe URLs mitgecrawlt wurden. Zum Erkennen des zuletzt genannten, häufigsten Fehlers ist als Methode der Tree-View angesagt, d. h. die Prüfung einer Sitemap-Übersicht aller gecrawlten URLs, die einen schnellen Überblick über auszuschließende Fremd-URLs ermöglicht.

War die Qualität der gecrawlten Website unzureichend, wird der Crawl mit veränderten technischen Parametereinstellungen erneut gestartet. Parameteränderungen können u. a. sein:

  • der Ausschluss externer, nicht zur Domain gehörender URLs durch gezieltes Herausfiltern (Blacklisting; zur Optimierung dieses Verfahrens wurde in Hamburg eine Liste mit häufig auf Webseiten auftretenden Fremd-URLs wie etwa .*flickr.com/.*, google.com.*, google-analytics.com.* oder auch hvv.de.* angelegt, die so schon im Vorfeld eines Erst-Crawls als Filter eingetragen werden können),

  • das Hinzufügen essentieller Links und Dateien, die beim Erstcrawl fehlten; oft sind das css-Dateien zur Steuerung von Design und Layout der Website (Whitelisting),

  • die Löschung von Error-Code-URLs (z. B. 404-Dateien – „URL nicht vorhanden“) oder fehlerhaften URLs,

  • das Ausschließen von dynamischen oder interaktiven Applikationen wie Javascript-Anwendungen (besonders AJAX: Asynchronous JavaScript and XML) durch ein umgestaltetes Crawlprofil, z. B. Oberflächen zur Eingabe von Nutzerdaten oder Warenkorb-Anwendungen, Kalenderanwendungen, Veranstaltungskalender, Slideshows (die der Crawler einsammeln kann, die aber in der Anzeige Probleme bereiten),

  • ein Heraufsetzen der Obergrenze herunterzuladender Dateien bzw. der zu crawlenden Bytemenge.

Zeigt die Analyse des Erst-Crawls oder – nach einer Neu-Parametrisierung – des Folge-Crawls keine gravierenden Mängel (mehr), wird der akzeptierte Crawl als Reference-Crawl festgelegt. Für alle Folge-Crawls steht dann eine teilautomatisierte Qualitätskontrolle zur Verfügung, die einen Log-Datei-Vergleich zur ersten archivierten Version durchführt und die Archivierung empfiehlt oder zurückweist. Die Praxis zeigt, dass darauf nur bedingt zu vertrauen ist; es empfiehlt sich zusätzlich ein grober visueller Vergleich.

Das Ergebnis kann auch sein, dass ein Crawl bei einer Website aus technischen Gründen gar nicht möglich ist. So verweigern sich einige Sites einer angemessenen Änderung der Parameter: etwa wenn Seiten, was zunehmend auftritt, in einer ssl-Verschlüsselungsstärke angeboten werden, die das WCT nicht mehr unterstützt. Oder die Website weist den Crawler aufgrund einer Beschränkung in der robots.txt-Datei komplett ab, die betreiberseitige Definitionen für Crawling-Ausschlüsse enthält – sie sind allenfalls im Direktkontakt mit dem Betreiber aufzulösen, wenn überhaupt. In anderen Fällen muss man aufgrund gehäufter Mängel auf das Harvesten einer Seite verzichten, wenn etwa deren Hauptnavigation und Menüfunktionen auf der Hauptseite in der Archivversion nicht funktionsfähig sind, die Darstellung sich dort völlig verändert oder ein Dateiformat, z. B. alle PDFs, komplett nicht mit einzusammeln ist.

Zusammenfassend ist zu sagen, dass die Qualitätskontrollen mit Abstand den größten Arbeitsaufwand auf einem anspruchsvollen Expertiseniveau darstellen, sie bilden damit den entscheidenden Kostenfaktor neben der notwendigen Speicherkapazität. Für den gesamten Workflow zwischen vorgängiger inhaltlicher Auswahl der Website und Metadatenerfassung für den Bibliothekskatalog – beides nicht eingerechnet – setzt der BSB-Erfahrungsbericht als Regelfall 20 bis 35 Minuten Bearbeitungszeit für einen Erst-Crawl an. Für die Kontrollen der Folge-Crawls veranschlagt man dort 3–10 Minuten, bei umfangreichen Änderungen der Website können aber auch Aufwände wie für einen Erst-Crawl entstehen.12 Diese groben Einschätzungen liegen unter den bisherigen Hamburger Erfahrungswerten – bis zu 20 oder 30 Minuten mehr für einen Erst-Crawl –, wobei die nach einer langen Findungsphase allmählich wachsende Routine im Umgang mit der ausgesprochen neuartigen Materie mittlerweile zu Buche schlägt. Die in Hamburg noch wenig umfangreiche statistische Grundlage zeigt, dass man im Schnitt über alle Typen bisher gecrawlter Websites pro archiviertem Zeitschnitt zwei Crawls braucht. Der erste zu archivierende Zeitschnitt benötigt meist mindestens zwei Crawls, bei großen Seiten oft drei. Von den Folge-Crawls im Halbjahresabstand sind geschätzt 30–40% problemlos ins Archiv zu verschieben, die übrigen erfordern intensivere Kontrollen. Organisatorisch empfiehlt sich in jedem Fall, um die aufgebaute Spezialexpertise fruchtbar zu machen, eine Zentralisierung der technischen Bearbeitung bei wenigen darauf konzentrierten Personen.

3 Erschließung und Präsentation

Die formale Erfassung einer Website erfolgt in der Zeitschriftendatenbank (ZDB) als fortlaufende integrierende Ressource. Hier ist das Katalogisat im ZDB-Feld 1131 inhaltlich als Website gekennzeichnet. In Feld 4085 wird einerseits der Link zur Live-Site und andererseits der Bereitstellungs-Link zum Webarchiv der jeweiligen Site eingetragen. Dass es sich um eine von der SUB Hamburg archivierte Website handelt, ist bereits an dieser Stelle im Link ablesbar, denn die URL des Webarchivs ist als Subdomain zur SUB-Adresse gestaltet. Mit dem Klick auf den Archivlink im Katalogdatensatz erscheint eine Übersicht der archivierten Zeitschnitte im Viewer OpenWayback. Die Navigation zum gewünschten Zeitschnitt öffnet die Archivversion der Website, die durch ein Banner am oberen Bildrand als Archivkopie zu identifizieren ist.

Als Titel der Website fungiert in der ZDB entweder ein eigener Sachtitel, z. B.: Hamburgisches Architekturarchiv/Hamburgisches Architekturarchiv der Hamburgischen Architektenkammer; oder der Körperschaftsname des Website-Betreibers bildet den Titel, z. B.: Genealogische Gesellschaft Hamburg: Hamburgs Verein für Familienforschung oder: CDU Bürgerschaftsfraktion Hamburg oder: Zentralverband der deutschen Seehafenbetriebe e. V.: ZDS.13 Ein Beispiel für die herausgelöst aus der nicht crawlbaren Top-Domain hamburg.de archivierten Websites Hamburger Behörden und Landesbetriebe ist die Hamburger Kulturbehörde, wie in allen diesen Fällen in der ZDB einheitlich mit dem Titel hamburg.de: offizielles Stadtportal für Hamburg und dem institutionellen Namen als Unterreihe: Kulturbehörde/Kulturbehörde Hamburg katalogisiert.14 Als Beispiel für eine Institution, deren Site nicht mit einem .de-Domaincrawl erreicht würde, sei die Hamburg Media School (HMS, Extension: .com) genannt, die unter landesbibliothekarischem Gesichtspunkt selbstverständlich zu den zu sammelnden Webquellen zählt.15

Die ZDB-Metadaten gehen in den Verbundkatalog des GBV und von dort in die lokalen Kataloge für Hamburg (beluga) und das Bibliothekssystem Universität Hamburg (Campus-Katalog) ein. Sie werden ferner von der Hamburg-Bibliographie, die ebenfalls GBV-Verbundteilnehmer ist, angesigelt und mit ihrer tieferen Sacherschließung versehen. Das Regionalportal Hamburg Wissen Digital (HWD) indexiert die Hamburg-Bibliographie neben derzeit ca. 40 anderen Webressourcen für eine gemeinsame Suche regional relevanter – z.Zt. ca. 850.000 – digitaler Objekte und Referenzen.16 So sind die archivierten Websites eingebettet in die komplette Nachweisstruktur für Hamburger regionalkundliche Quellen.

Im Ergebnis waren bis Mitte Februar 2017 von 168 Websites insgesamt 389 Zeitschnitte – in der Regel in halbjährlichem Abstand – archiviert. Von den 168 laufend geharvesteten Sites sind bisher 150 katalogisiert. Für knapp 50 weitere Websites liegen positive Antworten auf die Genehmigungsanfragen hinsichtlich der Ebene der Publikation vor, ihr Harvesting kann jederzeit beginnen. Von den bisher freigeschalteten geharvesteten Zeitschnitten sind 88,7% weltweit frei zugänglich, 6,6% in der Nutzung auf den Universitäts-Campus beschränkt und 4,7% nur an einem dezidierten PC im Lesesaal der SUB ohne Druck-, Download-, Kopier- oder Versandmöglichkeit zu benutzen.

4 Sammelprofil

Was wird archiviert, mit welcher Begründung, in welchem Umfang? Und umgekehrt: Worauf verzichtet die SUB aus freien Stücken? Welche Einschränkungen uns technische Grenzen, Probleme und Innovationen auferlegen, wurde im vorigen Abschnitt skizziert. Hier geht es jetzt um die Einbettung der Webarchivierung in das fachliche Konzept der Landesbibliothek. Wie bereits angedeutet, trafen zwei organisatorisch- technische Vorbedingungen, die Novelle der Rechtsgrundlagen und die Realisierungschance mit Unterstützung der BSB, auf eine dritte, inhaltliche Disposition der SUB Hamburg: das Bestreben, möglichst umfassend im Rahmen des bibliothekarischen Sammelauftrags zur Überlieferung des schriftlichen und bildlichen kulturellen wie wissenschaftlichen Erbes der Freien und Hansestadt beizutragen. Grundsätzlich stehen die Pflichtexemplarsammlung und der auf das kulturelle Erbe einer Region bezogene Sammelauftrag der Landesbibliothek in einem Spannungsverhältnis, werden doch der Pflichtexemplarsammlung traditioneller Medien wo irgend möglich rein formale Abgrenzungskriterien zugrunde gelegt und gilt innerhalb dieser Grenzen das Vollständigkeitspostulat. Eine Auswahl nach inhaltlichen Kriterien findet allenfalls in eng definierten Ermessensspielräumen bei bestimmten Medienarten statt, wie sie in Durchführungsverordnungen und Sammelrichtlinien zum Pflichtexemplargesetz vorgegeben sind, in Hamburg beispielsweise bei Periodika aus Schulen, Kirchengemeinden, Vereinen oder Firmen und bei Akzidentien.

Die unübersehbare, sich der Abgrenzung und Kategorisierung wie der technischen Einhegung entziehende Vielfalt der Netzpublikationen verlangt ein Umdenken bei der Ausgestaltung der Pflichtexemplar-Sammlungen auf diesem Gebiet. Sie werden hier viel mehr als zuvor bewusst zu gestalten sein, durch Selektion, Priorisierung, Entscheidungen zur Sammlungs- und Erschließungstiefe, systematische Arbeitsteilung. Ein mehrschichtiges Vorgehen ist geboten: Umfassende, rein maschinell erschlossene Domaincrawls können nur und müssen von den Nationalbibliotheken geleistet werden; das schließt methodologische Bemühungen um den Einschluss der z. B. deutschen Anteile an Domains wie .org, .eu, .edu oder .com ein.17 Die deutschen Regionalbibliotheken werden keine technischen Möglichkeiten haben, maschinell die Websites allein aus ihrem Referenzterritorium zu harvesten – wenn sie sich der Webarchivierung stellen, bleibt ihnen voraussichtlich keine andere Wahl als nach ihrem zentralen Kriterium, der für ihr Land bestehenden Relevanz „repräsentativ“ zu sammeln. Freilich lässt auch das Label „regional repräsentatives Sammeln“ hinsichtlich der Bestimmung eines Kern- und eines weiteren Bestandes aussagekräftiger Quellen erheblichen Ermessensspielraum und Definitionsbedarf.

Welche Arten von Institutionen sind einzubeziehen? Möglichst alle eines Typs oder eine „repräsentative Auswahl“? Sollen öffentliche Einrichtungen mit Vorrang behandelt werden, oder empfiehlt sich in Abstimmung mit archivischen Sammelrichtlinien bei den Bibliotheken eher eine Schwerpunktsetzung auf andere kulturelle, wissenschaftliche, politische, gesellschaftliche oder wirtschaftliche Institutionen? Welchen Stellenwert geben wir thematischen Websites, und welche Kriterien sollen sie erfüllen, ehe wir sie harvesten? Und wie gehen wir um mit dem Interesse von Institutionen, archiviert und dokumentiert zu werden? In jedem Fall gilt es, das repräsentative Sammeln an transparenten, nachvollziehbaren Kriterien auszurichten. Nur so ist Akzeptanz für den nicht unerheblichen Aufwand zu erreichen. Zugleich lässt sich das Medium Website umso geschmeidiger und selbstverständlicher in den Erschließungsaktivitäten der Bibliothek verankern, je passgenauer die Aktivitäten in diesem Feld mit dem Sammlungsprofil für alle anderen Medien kongruent sind.18, 19

Noch eine dritte Schicht von Webarchivierung sollte der bibliothekarischen Aufmerksamkeit nicht entgehen, sondern als Herausforderung zu Kooperationen begriffen werden: Die vielerorts längst jenseits von Bibliotheken und Archiven angelaufene Webarchivierung in wissenschaftlichen Zusammenhängen. Seien es sozialwissenschaftliche, kommunikationswissenschaftliche oder am Literaturbetrieb interessierte Projekte – sie bringen in günstigen Fällen hoch verdichtete thematische Cluster von Webmaterial zusammen, indem sie gleichsam quer zu bibliothekarischen Workflows Quellen ermitteln und vernetzen bzw. ihre Vernetzung repräsentieren.20 Nicht immer liegt das Andocken an solche Vorhaben so nahe wie bei der Nachnutzung regionaler Ausschnitte aus der Weblog-Archivierung des Deutschen Literaturarchivs Marbach.21 Aber perspektivisch scheint eine Zusammenarbeit bibliothekarischer Archivierungskompetenz mit den oft flüchtigen oder entlegen publizierten Forschungsdokumentationen und wissenschaftlichen Webquellensammlungen schon aus Ressourcengründen nur konsequent.

Nun zur derzeitigen Hamburger Selektionspraxis: Inhaltlicher Ausgangspunkt war die seit 2005 zusammengetragene und laufend gepflegte Sammlung von z.Zt. ca. 870 Internetressourcen, die in Academic LinkShare (ALS) katalogisiert und unter dem Label Linksammlung Hamburg22 auf der Landesbibliotheksseite der SUB23 angeboten werden: wichtige Internetquellen zu Hamburg in Geschichte und Gegenwart, zu allen Themen- und Lebensbereichen. Aus dieser Grundmenge wurden ca. 650 Websites als besonders relevant für eine kontinuierliche Archivierung ausgewählt. Anders als bei gedruckten Pflichtexemplaren muss die Sammelpolitik hier eher vom Kriterium der Repräsentativität als dem der Vollständigkeit bestimmt sein. Die SUB Hamburg konzentriert sich zunächst auf institutionelle Websites: Behörden, Landesbetriebe, kulturelle und wissenschaftliche Einrichtungen, Firmen, Verbände, Gesellschaften, Vereine, Gedächtnisinstitutionen. Daneben steht ein Set von thematischen, sowohl auf Personen, auf einzelne Stadtteile als auch auf bestimmte Themen fokussierten Websites. Nicht berücksichtigt werden bis auf Weiteres die für den Linkkatalog und seine Orientierungsfunktion wichtigen, aber für die Archivierung als nachrangig betrachteten zahlreichen Themen-Sites der Domain hamburg.de. Für die erste Phase der Websitearchivierung hat die SUB bis auf wenige Ausnahmen nur die institutionellen Unterseiten von hamburg.de ausgewählt.

Der Kanon ausgewählter Sites ist nicht starr, sondern in Bewegung: Neue Internetressourcen entstehen bzw. werden vom Team Landesbibliothek entdeckt und zur Archivierung vorgeschlagen. Ursprünglich als fortlaufend gepflegte Webpublikationen betrachtete Ressourcen beenden ihr Erscheinen – als Beispiel sei die Nachrichten-Website Mittendrin für den Hamburger Bezirk Mitte genannt, die von 2012–2015 erschien.24 Websites erleben einen fundamentalen Relaunch, und eine Einrichtung wie die Hamburger Kunsthalle erbat beispielsweise von der SUB nachdrücklich eine Archivierung noch der alten und dann fortlaufend der neuen Version.25 Nachfrage entsteht derzeit auch von Seiten innovativer Ausstellungsmacher, die keinen gedruckten Katalog produzieren, sondern im Verlauf einer Ausstellung eine vorher angelegte Website kreativ entwickeln wollen. Hierfür ist selbstverständlich ein engmaschiger Crawl-Rhythmus erwünscht – diese Erwartung ließe sich in einzelnen Fällen erfüllen, anders als die möglicherweise hier geballt auftretenden Probleme mit eingebundenen dynamischen Anwendungen, die der Archivierung mit dem momentan verfügbaren Werkzeug im Wege stehen.

Das Beispiel steht für den Typus des Event-Crawlings, das für einzelne besondere Ereignisse mit einer dem Thema angepassten Intervall-Gestaltung die Strategie des stetigen Halbjahres-Harvestings ergänzt. In Hamburg wurde als erster Versuch in diesem Feld ein Event-Crawl zu Beginn der Kampagne zum Entscheid über die Hamburger Olympia-Bewerbung 2024 angestoßen – und nach dem Scheitern des Vorhabens abgebrochen. Eine vergleichbare Aktion wäre wünschenswert gewesen rund um die Eröffnung der Elbphilharmonie im Januar 2017. Dies scheiterte jedoch an einer technischen Hürde, die mittlerweile bei zahlreichen Websites auftritt und mit den verfügbaren Werkzeugen nicht zu meistern war: die zu hohe ssl-Verschlüsselung von Websites wie jener der Elbphilharmonie, die den Heritrix Crawler in der derzeit eingesetzten Version vor unlösbare Probleme stellte. Ereignisbezogene Flexibilität wird von Fall zu Fall geübt, z. B. wurde für die Website zur Hamburger Reformation mit Blick auf das Jubiläum 2017 ein vierteljährliches Crawl-Intervall eingestellt.26

Die Archivierungswerkzeuge werden der technologischen Entwicklung des Web immer in gewissem Abstand hinterherhinken. Besonders kleinere Player wie die Regionalbibliotheken bedürfen hier, um überhaupt auf der Höhe der Zeit ihren Auftrag erfüllen zu können, starker Partner und möglichst weiträumiger Kooperationen.27 Zu wünschen ist, dass sich für die Bibliotheken Partizipation an technologischen Entwicklungen der Webarchivierung so organisieren lässt, dass Restriktionen des Sammelns aus technischen Gründen minimiert werden. Die Grenzen des Möglichen sollten weit dehnbar sein, damit inhaltliche Entscheidungen prävalent sind gegenüber technologischen Vorgaben und Rahmenbedingungen. Die Diskussion um eine strategische Arbeitsteilung in inhaltlicher Hinsicht hat spät, aber immerhin seit 2014 Fahrt aufgenommen.28 Die Gefahr besteht, dass pragmatisch-operative Fixierungen auf den einen oder anderen Web-Medientyp, die in einer Einstiegsphase fast unvermeidlich sind, an anderer Stelle blinde Flecken, Sammlungslücken und Kompetenzmängel hervorrufen, die nachträglich nicht zu beheben sind. Man kann dabei an die Privilegierung der druckbild-identischen E-Paper als Sammlungsobjekt gegenüber e-only Nachrichtenmedien denken oder an die oben beschriebene Fokussierung der Webarchivierung auf die in größeren Zeitintervallen vollzogene Archivierung statischer Websites, während all die durch ihre besondere Temporalität gekennzeichneten Webpublikationen von Twitter über Blogs bis zu lokalen Nachrichten-Webdiensten, die das gesellschaftliche Leben ebenso spiegeln wie mittlerweile prägen, außerhalb des bibliothekarischen Aktionsfeldes bleiben.29 Für Hamburg ist zu einem späteren Zeitpunkt eine Ausweitung des Spektrums denkbar, insbesondere was das Harvesting von Nachrichtenmedien in knappen Zeitintervallen angeht. Die inhaltliche Ausgestaltung sollte jedoch in jedem Falle in enger systematischer Abstimmung im Netzwerk aller potentiell an der Webarchivierung Beteiligten erfolgen. Für den weiteren Weg regionaler Webarchivierung sind technische wie ressourcenbezogene Erwägungen maßgeblich; darin einzuschließen ist vor allem die Einbindung der gesammelten Webressourcen in ein tragfähiges System der Langzeitarchivierung.30 Um dem Verlust an digitalen Kulturgut- und Wissensbeständen wirkungsvoll vorzubeugen, bedarf es sehr rasch einer komplexen, kooperativen Mehrebenen-Strategie.

Footnotes

  • 1

    Vgl. Hagenah, Ulrich; Helm, Annett: Die elektronische Pflicht in den Bundesländern: Hamburg. In: Bibliotheksdienst 47 (2013), 8/9, S. 619–623. 

  • 2

    https://archive.org/web/; https://de.wikipedia.org/wiki/Internet_Archive (Stand: 28.02.2017). [Zugriff: 08.03.2017]; zum initialen Programm der 1996 begonnenen Webarchivierung vgl. Kahle, Brewster: Preserving the Internet. In: Scientific American, 276 (1997), H. 3, S. 82 f. 

  • 3

    Gesetz über die Ablieferung von Pflichtexemplaren (PEG) von 14.09.1988; Gesetz zur Änderung des Pflichtexemplargesetzes. In: Hamburgisches Gesetz- und Verordnungsblatt 2009, Nr. 41, 11.9., S. 330. URL: http://www.luewu.de/gvbl/2009/41.pdf. Vgl. auch URL: http://www.buergerschaft-hh.de/parldok/, Drucksache 19/2990 vom 05.05.2009 [Zugriff: 06.03.2017]. 

  • 4

    Ausgangssituation und Realisierung sind an anderer Stelle im Überblick dargestellt worden. Vgl. Beinert, Tobias; Hagenah, Ulrich; Kugler, Anna: Es war einmal eine Website …: Kooperative Webarchivierung in der Praxis. In: O-bib: das offene Bibliotheksjournal/hrsg. vom Verein Deutscher Bibliothekare (VDB). München: VDB, 1.2014, S. 291–304, hier: S. 300–302, URL: https://www.o-bib.de/article/view/2014H1S291-304, DOI: http://dx.doi.org/10.5282/o-bib/2014H1S291-304 [Zugriff: 06.03.2017]. Die Kooperation wird derzeit fortgesetzt. Für Unterstützung beim Abfassen dieses Beitrags durch zahlreiche Auskünfte danke ich sehr herzlich den Kolleginnen und Kollegen der Bayerischen Staatsbibliothek sowie aus der SUB Hamburg Heinke Schumacher, Maria Plaggenborg und Edgar Schumacher. 

  • 5

    Der Begriff Website wird verwandt für einen virtuellen Platz im World Wide Web, an dem sich meist mehrere Dateien und andere Ressourcen in Verknüpfung miteinander befinden, deren Nutzung im Zusammenhang durch eine einheitliche Navigation gewährleistet ist. Eine Website kann statisch oder dynamisch (der Weiterentwicklung unterworfen oder jeweils erst im Benutzungsfall generiert) sein. 

  • 6

    Vgl. ferner Charalambakis, Ioannis; Beinert, Tobias; Bitzl, Marcus; Schoger, Astrid: Erfahrungsbericht: Retrospektive Langzeitarchivierung von in Academic Linkshare erschlossenen Internetressourcen <Stand: 20.04.2016>. https://www.babs-muenchen.de/content/DFG-Projekt_Webarchivierung/Erfahrungsbericht_LZA_von_Internetressourcen.pdf [Zugriff: 06.03.2017], bes. S. 5–11. – Charalambakis, Ioannis; Beinert, Tobias: Qualität und Prozessoptimierung bei der Langzeitarchivierung von Websites: Konzeptuelle Überlegungen zur Steuerung des Ressourceneinsatzes bei der selektiven Webarchivierung <Stand: 09.03.2016>. https://www.babs-muenchen.de/content/DFG-Projekt_Webarchivierung/Webarchivierung_Qualitaet_und_Prozessoptimierung.pdf [Zugriff: 06.03.2017]. 

  • 7

    Hamburg.de – Offizielles Stadtportal für Hamburg, http://www.hamburg.de/ [Zugriff: 06.03.2017]: „Das Stadtportal hamburg.de ist die offizielle Internetpräsenz für die Freie und Hansestadt Hamburg. … Das offizielle Stadtportal hamburg.de beinhaltet Inhalte verschiedener Anbieter, die jeweils deutlich gekennzeichnet sind. Inhalte ohne Anbieterkennzeichnung fallen in die Verantwortung der Betreibergesellschaft [hamburg.de GmbH & Co. KG]. … Für Portalinhalte, die mit dem städtischen Logo (Hammaburg) sowie einem Behörden-/Institutionsnamen gekennzeichnet sind, gelten gesonderte Ansprechpartner, Verantwortlichkeiten sowie ggf. Nutzungsbedingungen“; sämtliche Zitate aus dem Impressum, http://www.hamburg.de/impressum/ [Zugriff: 06.03.2017]. 

  • 8

    Charalambakis u. a.: Erfahrungsbericht (wie Anm. 6), S. 6. 

  • 9

    Vgl. u. a. auch Fritz, Steffen: Praxisreport – Verfahren zur Evaluierung der Archivierbarkeit von Webobjekten, in: ABI Technik 35 (2015), 2, S. 117–120. 

  • 10

    Vgl. Charalambakis u. a.: Erfahrungsbericht (wie Anm. 6), S. 15, Charalambakis/Beinert: Qualität (wie Anm. 6), S. 5 f. 

  • 11

    Vgl. https://www.babs-muenchen.de/index.html?c=projekte_webarchivierung&l=de [Zugriff: 08.03.2017]. 

  • 12

    Vgl. Charalambakis u. a.: Erfahrungsbericht (wie Anm. 6), S. 7–14. Ebd., S. 14, auch die Einschätzung, dass man sich methodisch gegenwärtig gleichsam in einem Zustand mittlerer Aufwandshöhe befindet: „Die intellektuelle Analyse der verschiedenen aufbereiteten Webarchivierungs-Reports hat den Aufwand für das früher praktizierte Durchklicken einer Archivkopie deutlich reduziert, nach wie vor sind aber semi- bzw. vollautomatische Methoden der Qualitätskontrolle nicht in größerem Umfang praxistauglich.“ 

  • 13

    ZDB-IDs der Beispiele: 2847635-9; 2851101-3; 2851011-2; 2866717-7. 

  • 14

    ZDB-ID: 2851288-1. 

  • 15

    ZDB-ID: 2855559-4, http://www.hamburgmediaschool.com/ [Zugriff: 08.03.2017]. 

  • 16

    http://www.hamburgwissen-digital.de/home.html [Zugriff: 08.03.2017]. Hamburg-Bibliographie und HWD befinden sich 2017 beide in einem Relaunch der technischen Basis für die Suchfunktionalitäten. 

  • 17

    Vgl. dazu u. a. Schoger, Astrid; Beinert, Tobias: Vernachlässigte Pflicht oder Sammlung aus Leidenschaft? Zum Stand der Webarchivierung in deutschen Bibliotheken. In: Zeitschrift für Bibliothekswesen und Bibliographie 62 (2015), H. 3/4, S. 172–183; Steinhauer, Eric W.: Die Sammlung, Bewahrung und Verwaltung von Netzpublikationen durch Pflichtexemplarbibliotheken in Deutschland. In: Bibliotheksdienst 49 (2015), 12, S. 1101–1113; Aubry, Sara: Introducing Web Archives as a New Library Service: the Experience of the National Library of France. In: Liber Quarterly 20 (2010), H. 2, S. 1–21. http://persistent-identifier.nl/?identifier=URN:NBN:NL:UI:10-1-113591; Steinke, Tobias: Webarchivierung als internationale Aufgabe. In: Zeitschrift für Bibliothekswesen und Bibliographie 62 (2015), H. 3/4, S. 184–192; ders.: Erfahrungsbericht der Deutschen Nationalbibliothek zum ersten Crawl der .de-Domain <10.03.2016>. https://www.babs-muenchen.de/content/veranstaltung/2016-03-10/2016_03_10_steinke.pdf; ders.: Selective Web Archiving at the German National Library <21.04.2016>. http://blogs.sub.uni-hamburg.de/ifla-newsmedia/wp-content/uploads/2016/04/Steinke-Selective-Web-Archiving-at-the-German-National-Library.pdf; Mayr, Michaela; Predikaka, Andreas: Nationale Grenzen im World Wide Web – Erfahrungen bei der Webarchivierung in der Österreichischen Nationalbibliothek. In: Bibliothek – Forschung und Praxis 40 (2016), 1, S. 90–95; Skovgård Jensen, Tonny; Schostag, Sabine; Bønding, Niels: Chasing the news. Report from 10 years of digital legal deposit in Denmark <16.04.2015>. http://www.kb.se/dokument/utbildning/IFLA-KB-2015/12%20-%20Chasing%20the%20news%20-%2011-04-2015%20-%20final.pdf [Zugriffe sämtlich: 08.03.2017]. 

  • 18

    Die Webarchivierung hat auch Rückwirkungen und verlangt auch Entscheidungen hinsichtlich der sonstigen E-Pflicht-Sammlung: zum Beispiel eine Klärung, wie man sich zur individuellen Sammlung von PDFs der für die Website-Archivierung ausgewählten Produzenten stellt. Man harvestet die PDFs bei einem Website-Crawl mit und hat sie damit quasi gesichert; aber nur bei individueller Sammlung und Katalogisierung erhalten sie auch eine für das individuelle Dokument angemessene Sacherschließung, nicht bei der pauschalen Archivierung und Katalogisierung der Website als ganzer. 

  • 19

    Diese Sicht auf die von Regionalbibliotheken vorrangig zu sammelnden Webressourcen impliziert eine sammlungsstrategisch gleichsam konservative Tendenz: Die einzelne Website wird gleich einer Print- oder druckbildähnlichen E-Publikation in ein vorhandenes, nur leicht erweitertes Medienspektrum eingegliedert und allem anderen erschließungstechnisch gleichgestellt. Das Webarchiv der Bibliothek bildet keine eigene, zeitgemäße Präsentations- und Nutzungsumgebungen innovativ nachbildende Angebotsschicht. Insofern ist die einzelne archivierte Webressource gleich in mehrfacher Hinsicht (Zeitschnitt, Reduktion auf statische, ggf. Stilllegung dynamischer Elemente, isolierte Darbietung) abstrahiert von ihrem medialen Herkunftskontext. Dies mindert nicht den Wert der Webarchivierung als Maßnahme gegen den Wissensverlust in der Digitalität, ist aber bei der Bewertung des Webarchivbestandes als historischer Quelle zu bedenken. Vgl. auch Hagenah, Ulrich: Archivieren – aufbereiten – digitale Lebenswelten für die Forschung verfügbar halten: was können, was sollten Bibliotheken angesichts der Umwälzungen des Nachrichtenmarktes leisten? Die IFLA News Media Section und ihre Fachtagungen 2015. In: Bibliotheksdienst 50 (2016), H. 3/4, S. 300–317. 

  • 20

    Als ein Beispiel sei stellvertretend das Hannoveraner iCrawl-Projekt des Forschungszentrums L3Sgenannt: Risse, Thomas; Nejdl, Wolfgang: Herausforderungen für die nationale, regionale und thematische Webarchivierung und deren Nutzung. In: Zeitschrift für Bibliothekswesen und Bibliographie 62 (2015), H. 3/4, S. 160–171; Risse, Thomas: Improving the Freshness of Web Collections by Integrating Social Web and Focused Web Crawling <21.04.2016>. http://blogs.sub.uni-hamburg.de/ifla-newsmedia/wp-content/uploads/2016/04/Risse-Improving-the-Freshness-of-Web-Collections-by-Integrating-Social-Web-and-Focused-Web-Crawling-Slides.pdf [Zugriff: 08.03.2017]. 

  • 21

    Vgl. Schoger/Beinert: Vernachlässigte Pflicht (wie Anm. 17), S. 180 f.; die Nachweise sind u. a. über die ZDB und den SWB-Verbundkatalog gut auffindbar. 

  • 22

    http://www.sub.uni-hamburg.de/hamburg/linksammlung-hamburg.html [Zugriff: 08.03.2017]. 

  • 23

    http://www.sub.uni-hamburg.de/hamburg.html [Zugriff: 08.03.2017]. 

  • 24

    http://hh-mittendrin.de/; SUB-Webarchivierung am 27.09.2016, ZDB-ID: 2763559-4 [Zugriff noch möglich am: 08.03.2017]. 

  • 25

    ZDB-ID: 2850184-6. 

  • 26

    http://www.hamburger-reformation.de/ [Zugriff: 10.03.2017]. 

  • 27

    Exemplarisch die Aktivitäten des BSZ; vgl. Wolf, Stefan: Aufgabenteilung und Partnerschaft bei der Webarchivierung mit SWBcontent <10.03.2016>. https://www.babs-muenchen.de/content/veranstaltung/2016-03-10/2016_03_10_wolf.pdf [Zugriff: 09.03.2017]. 

  • 28

    Wesentliche Anstöße gaben Altenhöner, Reinhard; Schrimpf, Sabine: Lost in tradition. Systematische und technische Aspekteder Erwerbung von Internetpublikationen in Archivbibliotheken. In: Michael Hollmann; André Schüller-Zwierlein (Hrsg.): Diachrone Zugänglichkeit als Prozess. Kulturelle Überlieferung in systematischer Sicht. Berlin 2014 (Age of Access? Grundfragen der Informationsgesellschaft, Bd. 4), S. 297–328; Altenhöner, Reinhard; Oßwald, Achim: Im Fokus: Webarchivierung in Bibliotheken. In: Zeitschrift für Bibliothekswesen und Bibliographie 62 (2015), H. 3/4, S. 139–143. 

  • 29

    Vgl. Feeney, Mary; Hagenah, Ulrich: IFLA News Media Conference „Reviving the Past and Keeping Up With the Future – the Libraries‘ Role in Preserving and Providing Access to Newspapers and News Media“, Hamburg, Staats- und Universitätsbibliothek Carl von Ossietzky, 20–22 April 2016. In: Zeitschrift für Bibliothekswesen und Bibliographie 63 (2016), 5–6, S. 325–330; http://blogs.sub.uni-hamburg.de/ifla-newsmedia/?page_id=242 [Zugriff: 09.03.2017]. 

  • 30

    Hierauf bezieht sich die Kooperation BSB/SUB Hamburg nicht. 

About the article

Ulrich Hagenah

Ulrich Hagenah M.A.

Staats- und Universitätsbibliothek Hamburg Carl von Ossietzky, Von-Melle-Park 3, 20146 Hamburg, Deutschland


Published Online: 2017-05-10

Published in Print: 2017-06-01


Citation Information: Bibliotheksdienst, Volume 51, Issue 6, Pages 500–515, ISSN (Online) 2194-9646, ISSN (Print) 0006-1972, DOI: https://doi.org/10.1515/bd-2017-0053.

Export Citation

© 2017 by De Gruyter.Get Permission

Comments (0)

Please log in or register to comment.
Log in