Jump to ContentJump to Main Navigation
Show Summary Details
More options …

Bibliotheksdienst

Editor-in-Chief: Michalke, Karin / Ihrig, Hartmuth

Online
ISSN
2194-9646
See all formats and pricing
More options …
Volume 49, Issue 6

Issues

Auf „vier Rädern“ in die Cloud?

Andreas Degkwitz
  • Corresponding author
  • Direktor der Universitätsbibliothek der Humboldt-Universität zu Berlin, Unter den Linden 6, 10099 Berlin, Tel.: 030/209399300
  • Email
  • Other articles by this author:
  • De Gruyter OnlineGoogle Scholar
Published Online: 2015-05-01 | DOI: https://doi.org/10.1515/bd-2015-0069

Zusammenfassung:

Die Bibliothekssysteme der nächsten Generation der weltweit größten Anbieter Ex Libris und OCLC sind cloud-basierte Systeme. Damit verbinden sich für Bibliotheken neue Herausforderungen. Über Fragen des Datenschutzes und der Datensicherheit hinaus spielen die damit einhergehende Standardisierung von Abläufen und Workflows sowie Katalogisierung und Metadatenmanagement eine zentrale Rolle. Mit dem DFG-Projekt „Cloudbasierte Infrastruktur für Bibliotheksdaten“ (CIB) wird ein virtueller „Deutscher Datenraum“ entwickelt, in dem die bibliothekarischen Metadaten der Katalogisierungsumgebungen von ALMA (Ex Libris) und WMS (OCLC) sowie von künftigen Systemanbietern synchronisiert zur Verfügung stehen. Wie wirken sich diese Entwicklungen auf die deutsche Katalogisierungspraxis aus? Wie und in welche Richtung wird sich künftiges Metadatenmanagement verändern? Unter diesen und weiteren Gesichtspunkten soll die Frage beantwortet werden, ob Bibliotheken auf „vier Rädern“ in der Cloud ankommen.

Abstract:

The next generation’s library systems offered by the world’s biggest suppliers Ex Libris und OCLC are cloud-based systems which pose a new challenge to libraries. Beyond questions of data protection and data safety, the necessary standardization of processes and workflows as well as cataloging and metadata management play a central role. A virtual “German data space” is being developed by the DFG project „Cloud based infrastructure for library data“ (CIB), in which the library metadata of the cataloging environment of ALMA (Ex Libris) and WMS (OCLC) as well as of future system suppliers are available in synchronized form. Which impact will these developments have on the German cataloging practice? How will future metadata management change and in which direction will it develop? From these and many more points of view the question shall be answered if libraries will reach the cloud by German engineering.

Schlüsselwörter: : Bibliotheksdaten; Bibliothekssysteme; CIB-Projekt; Cloud-Computing; Katalogisierung; Metadatenmanagement; World-Cat

Keywords: : library data; library systems; CIB project; cloud computing; cataloging; metadata management; world-cat

Sicher sehr überspitzt gesagt, beruht das erfinderische Innovationspotenzial im deutschen Ingenieurwesen zu einem erheblichen Teil auf den bekannten „vier Rädern“ und die dafür gefundene Physik ihres Antriebs. Vieles, wenn bestimmt auch nicht alles, von dem, was in die industrielle Produktion deutscher Automobile an innovativer Technologie eingeht und ganz unbestritten High-Tech-Charakter hat, beruht weiterhin auf dem Modell des Vierradantriebs, der sich bisweilen auch zum Mehrradantrieb gemausert hat. Die Akzeptanz deutscher Autos, mehr noch ihre Beliebtheit, ist weltweit ungemein groß. Von daher sind die „vier Räder“ ein Erfolgsmodell. Zugleich vermittelt sich allerdings der Eindruck, dass nicht nur die Innovation deutscher Automobile, sondern viele deutsche Innovationen, soweit sie Produktreife haben gewinnen können und auf dem weltweiten Markt platziert werden konnten, ganz wesentlich auf eigenen, selbst erfundenen technischen Errungenschaften beruhen – dazu mag das Stichwort „Maschinenbau“ genügen, das diese Entwicklung in ähnlicher Weise wie die „vier Räder“ charakterisiert. Aus einer eher anthropologischen Perspektive lässt sich hier eine Gründlichkeit im doppelten Sinne erkennen, indem deutsche Technologie einerseits auf Grundsätzen beruht, die so etwas wie „Bodenständigkeit“ erkennen lassen, und andererseits dabei stets „von Grund auf“ oder eben „grundsätzlich“ gedacht und konzipiert sind. Was sich in dem einen Marktsegment der Innovation als qualitätsgesichert, stark und verlässlich erweist, zeigt sich in anderen Marktsegmenten, deren Erfolg von Agilität, Risiko und flexiblem Wechsel von Plattformen geprägt ist, als behäbig, pfadabhängig und überholt.

Wie der Vierradantrieb die deutsche Automobilindustrie so haben die Preußischen Instruktionen das deutsche Bibliothekswesen geprägt. Allem Anschein nach hat die „Götterdämmerung“ dieses „Regelwerksmaster“ noch immer nicht eingesetzt. „Warum auch“, hört man da fragen, „wenngleich die Preußischen Instruktionen selbst inzwischen Vergangenheit sind, hat doch das Modell, das diesem Regelwerksstandard zugrunde liegt, sein Verfallsdatum weiterhin noch nicht erreicht.“ Und so setzen sich die Preußischen Instruktionen fort, wie der Vierradantrieb läuft und läuft. Die Regeln zur Formalkatalogisierung gedruckter Bestände haben Erweiterungen und Veränderungen erfahren und wurden professionell in Formaten abgebildet, um von der Vorgangsbearbeitung mittels der Schreibmaschine zu IT-gestützten, vernetzten Workflows überzugehen. Doch im Kern ist es bei den bewährten Strukturen geblieben, die jedenfalls aus Expertensicht ein hohes Maß an Effizienz für Erfassung und Recherche von Informationen und Medien sicherstellen – übrigens vollkommen unabhängig davon, ob es um die Erfassung von analogen oder digitalen Medien geht. Als Frage kommt auf, warum sich eigentlich Google noch nicht in Deutschland gemeldet hat, um endlich „hierarchische Verknüpfungen“ in seine Suchmaschine zu integrieren, was verdeutlichen mag, dass die Erfolge der deutschen Automobilindustrie nicht unmittelbar auf Entwicklungen deutscher Informationstechnologie übertragbar sind.

Die Bibliothekssysteme der nächsten Generation der weltweit größten Anbieter Ex Libris und OCLC sind cloud-basierte Systeme. ALMA, wie das Produkt von Ex Libris heißt, und WMS, was das Produkt von OCLC ist, werden in Rechenzentren außerhalb des Hochschulcampus in einer virtualisierten Systemumgebung (Cloud) gehostet und als Software as a Service (SaaS) selbst von den Firmen betrieben. Der Zugang zu ALMA und WMS ist den Bibliothekarinnen und Bibliothekaren als Anwenderinnen und Anwendern über eine WEB-Schnittstelle via Browser ihres Desktops verfügbar. Welche Herausforderungen verbinden sich mit diesem Szenario? Was ist so aufregend an der „Cloud“? Richtig, das Bibliothekssystem ist nicht mehr vor Ort und wird nicht mehr von den bisher dafür zuständigen Mitarbeiterinnen und Mitarbeitern der IT-Abteilungen der Bibliotheken administriert. Da könnte die eine Kollegin oder der andere Kollege froh sein, dass „endlich“ die Technik außer Haus ist, aus der Steckdose kommt und frau/man damit nichts mehr zu „schaffen“ hat – ein gewaltiger Irrtum! Weiterhin nämlich werden sich Bibliotheken mit ihren Bibliothekssystemen befassen müssen und die Kolleginnen und Kollegen in den IT-Abteilungen wichtige Aufgaben übernehmen. Denn zum einen erfordert die Konfiguration der neuen Systeme informationstechnische Kompetenz. Zum anderen werden weiterhin Dritt-Systeme für Finanzmanagement, Nutzerauthentifizierung, Selbstverbuchungs- und Rückgabe u. Ä. an ALMA oder an WMS sowie an Systeme künftig auf dem Markt agierender Anbieter anzuschließen und zu integrieren sein. Die Themen Datenschutz, Datensicherheit und Datenhoheit sind nicht grundsätzlich neu, erfordern aber im Cloud-Umfeld besondere Beachtung und Sensibilität. Denn wenn Bibliotheken ihre Metadaten und die Daten ihrer Nutzerinnen und Nutzer in ein System einspielen, das außerhalb des Campus gehostet wird, müssen personenbezogene Daten nach den Bestimmungen der geltenden Datenschutzregelungen geschützt, müssen Daten aus Gründen der Sicherheit auf jeden Fall redundant gespeichert und müssen nicht zuletzt Vorkehrungen getroffen sein, dass eine in regelmäßigen Zeitintervallen aktualisierte Kopie der in der Cloud gehosteten Daten einzelner oder mehrerer Bibliotheken auf einem Repositorium in der „eigenen Domain“ aus Gründen der Datenhoheit gespeichert wird.

Vor diesem Hintergrund lassen sich weder große Begeisterung noch große Skepsis bezüglich der neuen Systemgeneration tatsächlich nachvollziehen, was zu der Frage führt: Warum werden cloud-basierte Bibliotheksanwendungen von den Firmen überhaupt angeboten? Klare Vorteile sind Skalierbarkeit der Systeme bei stark steigenden Anforderungen, Entlastung der Bibliothekskunden durch Auslagerung von Systemtechnik und deren Administration, rasche Aktualisierung der Software, vereinheitlichte Bearbeitung analoger und digitaler Medien, Knowledge-Bases für lizenzierte Ressourcen, gute Statistikfunktionen und standardisierte Workflows, die eine ganz zentrale, firmenseitige Motivation für SaaS-Lösungen sind. Denn eine verstärkte Standardisierung des Funktionsumfangs und der Workflows der cloud-basierten Bibliothekssysteme wird von den Firmen schon deshalb verfolgt, weil der Support für die Funktionsmodule lokal gehosteter Bibliothekssysteme vergleichsweise aufwändig und unter Kostenaspekten nicht mehr wirtschaftlich ist. Dies liegt in den vielen Unterschieden begründet, die sich bei den bisher lokal betriebenen Applikationen – teils durch Eigenentwicklungen, teils durch nutzerspezifische Firmenanpassungen – trotz gleicher Systemgrundlage eingestellt haben. Dem wirkt ein standardisiertes Applikationsportfolio entgegen, das von den Firmen selbst auf Cloud-Basis betrieben wird. Dass Standardisierung ihrer Workflows auch den Bibliotheken entgegenkommt, ist „auf der Metaebene“ ganz unbestritten, doch auf der praktischen Ebene viel herausforderungsvoller als oft vermutet wird. War doch die Festlegung hauseigener Standards schon schwierig genug – die Übernahme eines firmenseitig vorgegebenen Standards erfordert effektives „Change-Management“, was keinesfalls heißen soll, dass der Einsatz der neuen Softwaresysteme unter einem „Diktat“ der Firmen steht. Denn gewisse Spielräume werden den anwendenden Bibliotheken durchaus eingeräumt, doch deren Umfang ist spürbar geringer als bisher. Aufgefangen werden mögliche Einschränkungen, indem Schnittstellen und „app galeries“ zur Verfügung stehen, mit denen die Bibliotheken selbst ihr Funktionsspektrum erweitern können. Allerdings liegen Betrieb und Pflege dieser dann von Anwenderseite zusätzlich eingesetzten Komponenten allein in der Verantwortung der Bibliotheken.

Der größte Impact der „library-clouds“ liegt für die Bibliotheken im künftigen Metadatenmanagement. „Internationalisierung“ ist das Stichwort hier, und viele fragen sich, was damit gemeint sein soll, wird doch mit der Umstellung auf das Regelwerk der „Resource Description and Access“ (RDA) der Anspruch der Internationalisierung unserer Katalogisierungspraxis mit seiner MARC-Umsetzung erfüllt. Aber es geht bei den cloud-basierten Bibliothekssystemen noch um mehr: Die Umsetzung des Regelwerks nach den deutschen Anwendungsregeln in MARC ist zwar „internationaler“ als MAB, doch im Ergebnis nur ein weiterer der bereits bestehenden MARC-Dialekte – „internationaler“ und damit interoperabler werden deutsche Metadaten dadurch in jeglicher Hinsicht nicht. Insofern liegt das Mehr in einem „noch Mehr“ an Standardisierung, was heißt, dass die weltweit am meisten genutzte Datenquelle und „deren MARC“ der Internationalisierung unserer Katalogisierungspraxis zugrunde gelegt werden muss. Die weltweit am meisten genutzte Datenquelle ist – kein Zweifel – der World-Cat. Wo ist möglicherweise ein „Weniger“ zu erkennen? Die Regelwerks- und Formatpraxis des World-Cats ist primär an der Zielgruppe amerikanischer Bibliotheken ausgerichtet und unter Einschluss vieler weiterer, außeramerikanischer Katalogisierungsregionen ein de-facto-Standard, dessen vereinheitlichende Wirkung einem „echten“ Standard nicht nachsteht. Standardisierung, wie bereits bei den standardisierten Workflows der Anwendungsmodule cloud-basierter Systeme thematisiert, bedeutet Verzicht auf Besonderheiten und „Sonderlocken“ – ein Verzicht oder ein „Weniger“, das vor allem nach einem eher traditionell angelegten Qualitätsmaßstab sicher auch schmerzen kann. Doch ob dieses „Weniger“ tatsächlich weniger ist, darauf kommt dieser Beitrag später erneut zurück.

Zuvor geht es um eine weitere Konsequenz des Einsatzes der cloud-basierten Systeme ALMA und WMS, die wesentlich darauf beruht, dass damit die sechs deutschen Verbunddatenbanken ihrem Ende entgegensehen – nicht nur, weil von der Deutscher Forschungsgemeinschaft (DFG) und dem Wissenschaftsrat (WR) die Reduzierung von sechs Verbunddatenbanken auf einen nationalen Nachweis empfohlen wurde, nein, sondern auch weil die Firmen mit der Entwicklung ihrer neuen Systeme in etwa genauso schnell wie DFG und WR mit ihren Empfehlungen waren. Insofern ist, was selten genug geschieht, von DFG und WR etwas empfohlen worden, dessen Realisierung zum Greifen nah erscheint. Warum brauchen ALMA und WMS keine Verbünde mehr? WMS greift für Katalogisierung und Fremddatennutzung auf den World-Cat zurück. ALMA bietet mit seiner „Community-Zone“, die aktuell internationale Master- und Normdaten sowie die bereits erwähnte Knowledge-Base für elektronische Ressourcen enthält, jedoch vor allem mit der „ALMA-Network-Zone“ eine kooperative Katalogisierungsplattform an, die der Praxis deutscher Bibliotheksverbünde recht ähnlich ist. Einmal angenommen, dass die Network-Zone alle deutschen ALMA-Bibliotheken katalogisierend vereint und ggf. noch weitere deutschsprachige Katalogisierungsregionen einbezieht und dass die deutschen WMS-Bibliotheken ihren Weg mit dem World-Cat gehen, dann haben wir in Deutschland statt sechs Verbunddatenbanken immerhin nur noch zwei. Doch nach einer mehr als zwanzigjährigen Arbeits- und Zweckgemeinschaft mit sechs Verbunddatenbanken wollen und sollen wir – schon ein wenig nach dem „Alles-oder-nichts-Prinzip“ – nun nur noch eine Verbunddatenbank, also den einen nationalen Nachweis haben. Ja, richtig verstanden, genau einen Nachweis aller Metadaten deutscher Bibliotheken, der damit ein nationaler Nachweis ist und zu dem natürlich auch ZDB und GND gehören. Aber um sich mit diesem einen Nachweis auf nationaler Ebene nicht wieder nur mit sich selbst zu beschäftigen, setzen wir in der allerletzten Sekunde auf das CIB-Projekt.

CIB steht für „Cloudbasierte Infrastruktur für Bibliotheksdaten“, aber es würde auch niemanden wundern, wenn CIB für „Cloudbasierte Internationalisierung von Bibliotheksdaten“ stehen würde. CIB ist ein mit DFG-Mitteln für drei Jahre gefördertes Vorhaben1 , das von den Verbünden BVB, HEBIS und KOBV beantragt wurde und seit September 2013 durchgeführt wird. Das Projekt gehört zum Themenfeld 1 der DFG-Ausschreibung „Neuausrichtung überregionaler Informationsservices“2 , die an die Empfehlungen zu den deutschen Bibliotheksverbünden von DFG und WR anknüpft, in Themenfeld 3 die Entwicklung eines Konzepts für ein überregional einsetzbares E-Ressourcen-Management unterstützt und in Themenfeld 4 das RADAR-Projekt fördert, bei dem es um den Aufbau einer überregionalen Infrastruktur für Archivierung und Speicherung von Forschungsdaten geht. Das CIB-Projekt lässt sich – aus großer Distanz heraus – als bibliothekarische Deutung des Goethe-Gedichts „Willkommen und Abschied“ verstehen und zwar in der Weise, dass man die nationale Metadatenebene nicht vollständig hinter sich lassen möchte und sich auf die internationale Datenebene nicht vollständig einlassen will, um sich mit dieser „Einheit in Vielfalt“ im „Deutschen Datenraum“ wiederzufinden, der in der laufenden Synchronisierung von Metadaten deutscher Bibliotheken im World-Cat und der mit ALMA gegebenen German Network Zone (GNZ) virtuell entsteht. Die GNZ soll primär den verbundähnlichen Zusammenschluss aller deutschen ALMA-Bibliotheken zum Zweck der kooperativen Katalogisierung abbilden. Der virtuelle „Deutsche Datenraum“, dessen Definition sich auf der WEB-Seite des CIB-Projekts findet3 , ist also einesteils national, indem er deutsche Metadaten enthält, andernteils international, weil mit dem Einfluss des World-Cats der de-facto-Standard der größten internationalen Datenquelle in die deutsche Katalogisierungspraxis eingespielt wird. Im „Deutschen Datenraum“ können ALMA- und WMS-Anwender via Synchronisierung wechselseitig auf die Datenbestände der jeweils anderen Metadatenumgebung zugreifen und ihrer Katalogisierung zugrunde legen. Die Synchronisierung soll nicht auf die Datenumgebungen dieser beiden Systemanbieter beschränkt bleiben, sondern grundsätzlich offen für weitere, künftige Anbieter von Bibliothekssystemen ausgelegt sein. Diese Zielsetzung erfordert über technische Vorkehrungen hinaus ein RDA-kompatibles Datenmodell, das die deutschen RDA-Anwendungsregeln flexibilisiert und zugleich einige wenige Weiterungen des RDA-Verständnisses im World-Cat verlangt, wie beispielsweise MARC-Felder für GND-Daten, die mit Identifikatoren (also mit Nummern und nicht mit Text-Strings) verlinkt werden sollen. Darüber hinaus soll es keine materialspezifische Katalogisierung mehr geben, was nichts anderes heißt, als dass bei der Katalogisierung im „Deutschen Datenraum“ nicht mehr zwischen Monografien und Zeitschriften unterschieden wird, aber die Zeitschriftendatenbank (ZDB) noch so lange aus dem „Deutschen Datenraum“ zu beliefern ist, bis sie aufgrund fehlender bibliothekarischer Lieferanten von Zeitschriften- und Seriendaten diesem Wandel erliegt.

Nun möge niemand erwarten, dass zu den anvisierten Entwicklungen des CIB-Projekts schon etwas Fertiges oder Konkretes zur Verfügung steht – dieser Hinweis ist in keiner Weise als Kritik an den Projektarbeiten zu verstehen. Denn es gibt in der Tat gut ausgearbeitete, teilweise schon fein spezifizierte Konzepte zur GND, zur künftigen Katalogisierung von Zeitschriften und Serien, zu dem sehr komplexen Thema der Synchronisierung, und es gibt ein Datenmodell, das der bibliothekarischen Öffentlichkeit zugänglich ist. Darüber hinaus existiert kein einfach zu moderierendes Szenario, das sich aus Vertretern von Bibliotheken, DFG-Gutachtern, Firmen, Länderressorts und Verbünden zusammensetzt und durchaus von Ermutigung, aber auch von vielen Erwartungen und von noch mehr Kritik begleitet wird. Ob das Projekt zu brauchbaren Ergebnissen führt und seine Ziele erreicht, wird vielfach gefragt und mehr noch bezweifelt. Viel zu selten wird hingegen die Frage gestellt, welcher Erwartungshorizont sich mit dem Projekt verbindet und was unter belastbaren, brauchbaren Ergebnissen zu verstehen ist: Fortsetzung des Status quo oder Aufbruch zu neuen Ufern? Zugleich besteht anstelle dieser und weiterer Fragestellungen vielerorts einfach die schlichte Hoffnung, dass alles neu wird und gleichzeitig alles beim Alten bleibt. Damit ist das Projekt mit Erwartungen konfrontiert, die nicht Gegenstand des Vorhabens sind, doch Beurteilung und Bewertung seines Erfolges unmittelbar beeinflussen.

Das führt erneut zu der Frage nach dem „Mehr“ oder „Weniger“ und wie das vermutete „Weniger“ tatsächlich in ein „Mehr“ überführt werden kann. Zunächst ist der World-Cat als de-facto-Standard und damit als „leading system“ sicher kein „Weniger“, sondern aufgrund seines Geschäftsmodells, seiner Struktur und Vielfalt – verglichen mit dem, was für deutsche Bibliotheken gewohnt und vertraut ist – etwas ganz „Anderes“. Es kommt hinzu, dass sich die Nutzung des World-Cat für die primäre Zielgruppe der amerikanischen Bibliotheken nochmals anders gestaltet als für Bibliotheken anderer Länder, mit deren Erwartungen an den World-Cat sich OCLC mit Projekten zu Clustering- und Deduplizierungsverfahren durchaus auseinandersetzt. Denn die Vision eines weltweiten Datenpools unter Einbeziehung unterschiedlicher Master- und Normdatenbestände weckt Interesse am Potenzial neuer Entwicklungen. Dies hat allerdings zur Folge, dass der Umgang mit einem solchen Datenbestand künftig ganz anders und neu für die Katalogisierung zu sehen ist. Bis dato werden Datenquellen für die Metadatenerfassung aus der Perspektive des „Backend“ betrachtet: Kooperative Katalogisierung in einer gemeinsamen Verbunddatenbank. Dabei setzt der Anspruch an die Daten- und Katalogqualität genau dort an, wo Katalogdaten entweder erstellt oder als Fremddaten verarbeitet werden. Die Katalogisierung und die damit verbundenen Arbeiten im „Backend“ haben dadurch einen recht hohen Stellenwert. Wenn allerdings die Sicht der Metadatenverarbeitung vom „Backend“ auf das „Frontend“ gerichtet wird, stellt sich der Umgang mit Daten-Hubs oder -Pools wie dem World-Cat vollkommen anders dar. Dann nämlich werden Monografien- und Zeitschriftendaten von katalogisierenden Mitarbeiterinnen und Mitarbeitern – nicht anders als von Bibliotheksnutzerinnen und -nutzern – mit den verfügbaren Discovery-Diensten identifiziert oder „entdeckt“ und zu welchen Zwecken auch immer weiter verarbeitet oder einfach im vorgefundenen Zustand belassen. Das Metadatenmanagement setzt bei dieser Herangehensweise nicht mehr am Punkt der Entstehung der Metadaten an, sondern greift primär auf vorliegende Datenbestände zu, deren Genese und Qualität zahlreiche Akteure mit unterschiedlichen, zunehmend automatisierten Verfahren beeinflussen. Der Qualitätsanspruch liegt dann nicht mehr in der Qualität der unmittelbar manuellen Erfassung oder Bearbeitung, sondern in der Qualität automatisierter Verfahren, die Metadaten generieren und Rechercheergebnisse zur Verfügung stellen. Damit sinkt der Stellenwert der bis dato eingesetzten Katalogisierungsverfahren, indem sie durch maschinelle Verfahren des Information Retrieval und durch weitgehend automatisierbare Weiterverarbeitungsprozesse ersetzt werden können – das ist ein absehbares Szenario für den Umgang mit „big data“ im Bibliothekskontext. So bieten schon jetzt Discovery-Systeme eine schnelle Identifizierung von Daten, so dass die weitere bibliothekarische Verarbeitung von Metadaten mit fast ebenso schnellen Verlinkungsverfahren für Besitznachweise und zusätzliche Anreicherungen erfolgen und in die Indexe der Discovery-Services eingespielt werden kann. Der Blick auf den Datenpool wird dabei weg vom „Backend“ und hin auf das „Frontend“ gelenkt – mit der Folge, dass Metadatenmanagerinnen und –manager wie alle, die Discovery-Systeme für ihre Recherchen nutzen, die benötigten Metadaten „entdecken“ und, wenn notwendig, weiter bearbeiten. „Katalogisiert“ wird damit nicht mehr „im Grunde“ des „Backend“, sondern „in der Veröffentlichung“ des „Frontend“, von wo aus der Zugriff auf die Daten erfolgt.

Ist dieser „approach“ noch „Zukunftsmusik“ oder bald schon „Realität“? Bei der Bearbeitung und Bereitstellung von E-Book-Paketen wird ein solches Vorgehen im Ansatz bereits praktiziert. Mit dem Einsatz cloud-basierter Bibliothekssysteme wird sich der hier skizzierte Wandel im Umgang mit bibliografischen Metadaten permanent fortsetzen. Vor diesem Hintergrund sind wir tatsächlich auf einem Weg in die Zukunft, in der sich die Katalogisierung mit „linked (open) data“ im WWW abspielt. Aber dahin kommen wir weder auf den „vier Rädern“ noch im oben angesprochenen Modus der „Gründlichkeit“. Deutlich wird jedenfalls, dass das vermeintliche „Weniger“ oder besser das „Andere“ sich im Ergebnis als signifikantes „Mehr“ erweist. Von daher sollten wir künftig weniger über Regelwerksexegese und Formatoptimierung streiten, sondern uns mit den vielen (nicht nur bibliothekarischen) Metadatenformaten, persistenten Identifikatoren, internationalen Normdaten und Ontologien, Taxonomien und Thesauri sowie mit semantischen Verlinkungstechnologien vertraut machen und deutlich mehr als bisher zu diesen Themen Expertise und Kompetenz gewinnen. Mit dieser Aussicht werden sich die Preußischen Instruktionen, RAK-ÖB wie RAK-WB, MAB und MARC wie auch der „Deutsche Datenraum“ als wichtige Meilensteine auf einem Weg erweisen, der uns in einen globalen WEB-Space führt. Dort sind neben vielen anderen interessanten Daten auch die Daten unserer Bibliotheken zugänglich und zur Weiterverarbeitung verfügbar. Ist das nicht das Ziel, in dem wir uns alle einig sind? Dann surfen wir doch mit unseren „mobile devices“ auf diesen WEB-Space zu und lassen das „Auto“ zu Hause.

Prof. Dr. Andreas Degkwitz:

Footnotes

  • http://www.projekt-cib.de/wordpress/. 

  • http://www.dfg.de/download/pdf/foerderung/programme/lis/ausschreibung_ueberregionale_informationsservices_121015.pdf. 

  • http://www.projekt-cib.de/wordpress/?page_id=128. 

About the article

Andreas Degkwitz

Prof. Dr. Andreas Degkwitz


Published Online: 2015-05-01

Published in Print: 2015-05-25


Citation Information: Bibliotheksdienst, Volume 49, Issue 6, Pages 600–608, ISSN (Online) 2194-9646, ISSN (Print) 0006-1972, DOI: https://doi.org/10.1515/bd-2015-0069.

Export Citation

© 2015 by De Gruyter.Get Permission

Comments (0)

Please log in or register to comment.
Log in