Warum die Leistungen von Bibliotheken vergleichen?

  • 1 Universitätsbibliothek Dortmund, 44222 Dortmund
Joachim Kreische

Zusammenfassung:

Die bibliothekspolitisch immer noch aktuelle Frage, ob und wie ein öffentlicher Leistungsvergleich von Bibliotheken sinnvoll und möglich ist, soll aus dem Schatten der Diskussion um die mangelnde Akzeptanz des Bibliotheksindex herausgeführt werden. Mit der Unterscheidung zwischen funktionalem und wettbewerbsorientiertem Benchmarking werden für beide unterschiedliche Werkzeuge empfohlen, die im BIX methodisch unzulässig miteinander verknüpft werden. Kritisch beleuchtet wird auch die Frage, wie mit Kennzahlen überhaupt eine Gesamtbewertung von Bibliotheksleistungen möglich ist.

Leistungsvergleiche sind für Bibliotheken eine Selbstverständlichkeit und haben eine lange Tradition. Schon im ersten Jahrbuch der Deutschen Bibliotheken wird mit der Bibliotheksstatistik das Ziel verfolgt, „die ständigen und wechselnden Verhältnisse der Bibliotheken … unter sich vergleichbar zu machen“, um damit „eine wertvolle Selbstkontrolle und eine Übersicht über die Entwicklung der Anstalt“ zu ermöglichen und die Bibliotheken in die Lage zu versetzen, „Schlüsse auf die grössere oder geringere Leistungsfähigkeit der einzelnen, auf ihre Aufp. besserungsbedürftigkeit usw. zu ziehen.“ Bibliotheken waren also schon deutlich vor der Adaption betriebswirtschaftlicher Methoden in der Lage, die betriebliche Steuerung einzelner Bibliotheken durch das überbetriebliche Messen, Vergleichen und Bewerten von Bibliotheksleistungen zu unterstützen. Die in Bestands- und Betriebsstatistik veröffentlichten und vor allem strukturierten Daten sollten gewährleisten, dass „die zu Grunde liegenden Verhältnisse genügend bekannt sind“, damit der Vergleich und darauf basierende Bewertungen „richtig“ sind.

Bibliotheksstatistik. In: Jahrbuch der Deutschen Bibliotheken 1 (1902), S. 139–158, hier S. 141.

Vergleichen und bewerten sollen hier die Bibliotheken im Rahmen ihrer betrieblichen Steuerung („Selbstkontrolle“) nicht etwa eine interessierte Öffentlichkeit. Dass dies angesichts veröffentlichter und aufbereiteter Daten durchaus möglich gewesen wäre, kam vermutlich niemandem in den Sinn. Ein Ranking oder Rating, also ein bewertender Vergleich über die Maßstäbe der einzelnen Bibliotheken hinaus, war mit der Veröffentlichung der Kennzahlen nicht vorgesehen. In der Betriebswirtschaft sind für diese Unterscheidung auch die Begriffe funktionales Benchmarking und wettbewerbsorientiertes Benchmarking gängig.

Berens, Wolfgang; Hoffjan, Andreas: Controlling in der öffentlichen Verwaltung. Stuttgart 2004, S. 237.

Diese merkwürdige Diskrepanz – veröffentlichte und aufbereitete Zahlen nur zur internen Verwendung zuzulassen – ist für das Bibliothekswesen auch heute noch festzustellen. Während die Meldequote unter den wissenschaftlichen Bibliotheken für die Deutsche Bibliotheksstatistik (DBS) trotz des teilweise enormen Aufwandes sehr hoch ist,

2013 haben 249 wissenschaftliche Universal- und Hochschulbibliotheken Daten an die Bibliotheksstatistik gemeldet. In der entsprechenden Sektion IV des Deutschen Bibliotheksverbandes sind aktuell 265 Bibliotheken organisiert.

nahmen am Bibliotheksindex (BIX) 2013 ganze 62 wissenschaftliche Bibliotheken aus Deutschland teil. Die Tendenz ist weiter rückläufig. Die Bibliotheksstatistik als Instrument zum individuell betriebenen Vergleich wird allgemein geschätzt und von den allermeisten wissenschaftlichen Bibliotheken auch mit Zahlen bestückt. Die haben offensichtlich auch kein Problem damit, dass die Daten, die dieser individuellen Bewertung zugrunde liegen, veröffentlicht werden. Das haben die meisten Bibliotheken aber, sobald dieselben Zahlen für eine allgemeine und öffentliche Bewertung der Leistungen verwendet werden. Nur vier der 27 Basiszahlen, die für die 17 Kennzahlen des BIX-WB erhoben werden, stammen nicht direkt aus der DBS. Wer wollte, könnte für nahezu jede an die DBS meldende Bibliothek ein fast vollständiges Indikatorenset für den BIX zusammenstellen und veröffentlichen.

p. Methodisch gesehen ist diese Skepsis aber nachvollziehbar: Wer mit Perspektive auf die eigene Bibliothek ihre Ressourcen, Prozesse und Produkte mit denen anderer Bibliotheken vergleicht, ist sich bewusst, die eigenen wie die fremden Daten einzig unter dem Aspekt zu betrachten, welche Rückschlüsse auf die strategische Ausrichtung der eigenen Bibliothek möglich sind. Der Vergleichs- und Bewertungsprozess beginnt dann mit der Generierung von Kennzahlen, mit denen die Umsetzung der aus den strategischen Vorgaben abgeleiteten Ziele überprüft wird. Wichtig ist dabei auch, dass den Kennzahlen Sollwerte zugewiesen werden. Die Formulierung von Kennzahlen im Rahmen der strategischen Steuerung lässt sich schematisch darstellen:

Abb. 1:
Abb. 1:

Bildung strategierelevanter Kennzahlen.

Citation: Bibliotheksdienst 49, 5; 10.1515/bd-2015-0057

Der Vergleich mit den Kennzahlen anderer Bibliotheken steht dann unter doppelter Kontingenz: Die eigenen Kennzahlen sind nicht objektiv vorgegeben, sondern selbst gewählt und dienen allein dem Zweck, die Erreichung selbst gesteckter Ziele zu messen. Sie geben Auskunft darüber, in welchem Umfang und mit welchem Mittelaufwand ein messbares Ziel erreicht wurde. Nur aus diesem Blickwinkel macht der Vergleich mit den Leistungskennzahlen anderer Bibliotheken Sinn, die wiederum auch nur im Kontext der strategischen Planung der jeweiligen Bibliothek sinnvoll zu bewerten sind. Ein rein zahlenbasierter Vergleich ist methodisch soweit möglich, als die Ziele und die Sollwerte identisch sind. Dass dies aber nicht umstandslos so sein muss, zeigt ein einfaches Beispiel: Eine Bibliothek, die das Ziel verfolgt oder den Auftrag erfüllt, einen großen Teil ihres Bestandes zu archivieren und dessen Nutzung vornehmlich über Digitalisate zu ermöglichen, wird ihre Kennzahl „konventionelle Ausleihen pro Euro Erwerbungsausgaben“ nicht naiv mit den Werten reiner Gebrauchsbibliotheken vergleichen.

Für ein rein funktionales Benchmarking steht mit der DBS eine solide Datenbasis zur Verfügung. Sie beinhaltet sowohl input- als auch output-orientierte Daten, so dass grundsätzlich Kennzahlen zur Ressourcenausstattung, zur Effizienz und zur Effektivität gebildet werden können.

Umlauf, Konrad: Leistungsmessung und Leistungsindikatoren für Bibliotheken im Kontext der Ziele von Nonprofit-Organisationen. Berlin: Institut für Bibliothekswissenschaft der Humboldt-Univ. zu Berlin (Berliner Handreichungen zur Bibliothekswissenschaft; 116), S. 11. http://www.ib.hu-berlin.de/~kumlau/handreichungen/h116/.

Derartige Kennzahlen sind für die bibliothekarische Praxis von hoher Bedeutung, wie ein paar Beispiele zeigen:

  1. p. Da bisher kein erfolgreich umgesetztes Modell bekannt ist, die Budgets von Hochschulbibliotheken in hochschulinterne Verteilungsmodelle einzubeziehen, sind Vergleiche mit der Ausstattung anderer Hochschulbibliotheken methodisch zwar zweifelhaft, aber in Ermangelung objektiver Kriterien ein häufig praktiziertes Verfahren.
  2. Nur in der DBS sind überbetriebliche Vergleiche von Nutzungshäufigkeiten in Bezug auf primäre Nutzergruppen möglich, die einen deutlicheren Hinweis auf die Nachfrage von Bibliotheksdienstleistungen geben als absolute Zahlen.
  3. Eine vergleichende Effektivitätsmessung, die sich sehr gut zur Bewertung der eigenen Ergebnisse eignet, ist z. B. durch Kennzahlen möglich, die Nutzungshäufigkeiten ins Verhältnis zu Aufwänden setzt. Je nach Perspektive kann dann die Kennzahl „Ausgaben pro Entleihung aus der Lehrbuchsammlung“ unter Effektivitätsgesichtspunkten („Haben wir mit dem Aufwand etwas erreicht?“) oder auch als Effizienzaussage betrachtet werden („Waren die Mittel richtig verwendet?“).

Die Möglichkeit, durch Vergleiche mit anderen Bibliotheken zu Aussagen zur Effizienz der eigenen Prozesse zu kommen, ist mit der DBS allerdings nur eingeschränkt möglich, da keine aufgaben- oder produktbezogene Darstellung der Personalaufwände erfolgt. Warum das so ist, dürfte sich nur psychologisch erklären lassen: Personalaufwände Produkten oder Prozessen zuzuordnen, wird als sensibler und ggf. mitbestimmungspflichtiger Vorgang gewertet, dessen Ergebnisse nicht an die Öffentlichkeit sollen. Dass diese Argumente aber keiner praktischen Prüfung standhalten, zeigen die selbstverständliche Verwendung entsprechender Basiszahlen im BIX und die jahrelang erhobene Betriebsstatistik der nordrhein-westfälischen Universitätsbibliotheken, in der die Personalressourcen ca. 60 Funktionsbereichen zugeordnet wurden und damit ein sehr genauer Vergleich mit anderen Bibliotheken möglich war.

Poll, Roswitha: 3 Jahre Betriebszahlen für Universitätsbibliotheken. In: ProLibris (1999) 2, S. 95–97.

Warum sollte es also nicht möglich sein, in der DBS auch die wichtigste Ressource der Bibliotheken, nämlich ihr Personal, funktional differenziert so darzustellen, dass ähnlich wie im BIX damit Kennzahlen zur Prozesseffizienz darstellbar sind? Selbst eine sehr grobe funktionale Differenzierung ergäbe mehr Sinn als die aktuelle Unterscheidung nach Laufbahngruppen.

p. Sicherlich gibt es auch noch weitere Ansatzpunkte, die DBS als Werkzeug für die strategische Steuerung zu optimieren. Doch verglichen mit anderen Branchen, die dafür das teure Wissen von Unternehmensberatungen einkaufen müssen, verfügt das Bibliothekswesen mit der DBS schon jetzt über eine so breite und tiefe Datenbasis und variable Auswertungsmöglichkeiten, dass die Forderung, sie in Richtung eines Data-Warehouses weiterzuentwickeln, keine radikale Neuorientierung, sondern ein Voranschreiten auf einem bereits eingeschlagenen Weg bedeutet.

Die Frage aber, warum die für das funktionale Benchmarking ohne Bedenken veröffentlichten Zahlen von einem großen Teil der Bibliotheken nicht unmittelbar für ein wettbewerbsorientiertes Benchmarking akzeptiert werden, muss für eine wirkliche Erklärung umgedreht werden: Worin soll überhaupt das Motiv bestehen, aus ohnehin veröffentlichten Zahlen ein Ranking zu formen, das die Leistungen von Bibliotheken öffentlichkeitswirksam bewertet? Welches Ziel verfolgen also die am BIX teilnehmenden Bibliotheken? Die offizielle Zielformulierung des BIX, „die Leistungsfähigkeit von Bibliotheken anhand bestimmter Kennzahlen kurz, prägnant und dennoch in aussagekräftiger Form zu beschreiben“,

http://www.bix-bibliotheksindex.de/projektinfos/allgemeine-informationen.html. Vgl. auch McLeod, Shirley; Schiller, Robert: Leistungsmessung mit dem Bibliotheksindex BIX. In: Bibliothek, Forschung und Praxis 38 (2014), S. 239–245, hier S. 239.

gibt noch keine Antwort auf die Frage, welche Zwecke Bibliotheken mit der Teilnahme am BIX verfolgen sollten, wenn die Daten der DBS für ein funktionales Benchmarking ausreichend sind und dafür kein BIX benötigt wird. Leider definiert der BIX keine klare Zielgruppe, an deren Perspektive die „Leistungsfähigkeit von Bibliotheken“ bemessen werden könnte. Dies ist aber für andere Ranking-Verfahren konstitutiv, wie die beiden vermutlich bekanntesten Beispiele verdeutlichen: Für das so bekannte wie umstrittene CHE-Hochschulranking ist die Frage nach der Zielgruppe eindeutig damit beantwortet, dass mit dem Ranking eine Entscheidungshilfe für Studieninteressierte geliefert werden soll.

Bayer, Christian: Anspruch und Wirklichkeit von Hochschul-Ranking; Vorschlag einer allgemeinen Methodik. In: Die Betriebswirtschaft 60 (2000), S. 547–569.

Genauso anerkannt ist, dass quasi als Sekundärzweck die Hochschulen selbst die Platzierungen im Ranking als objektivierte Darstellung ihrer Reputation ansehen. Wie auch immer die Qualität und Relevanz des CHE-Rankings beurteilt wird: Die Kritik ist ausschließlich am Zweck messbar, ob den Studieninteressierten eine zuverlässige Hilfestellung bei der Wahl des Studienortes geboten wird oder nicht. Ähnliches gilt für die ebenso bekannten Bewertungen der Stiftung Warentest. Hier sollen den Kunden Hinweise auf Produktqualitäten geliefert werden, die ihnen im p. Rahmen einer mit vertretbarem Aufwand betriebenen Marktanalyse verborgen bleiben würden, die für die Produktwahl aber relevant sind. Abgesehen von hitzigen Debatten über Messfehler und Deklarationen bezieht sich die Kritik an den Bewertungen der Stiftung Warentest immer darauf, ob sie für das tatsächliche Kundenverhalten relevant sind oder nicht.

Der BIX hingegen vertritt den Anspruch, mit seinen Leistungskennzahlen den Blickwinkel aller relevanten „Stakeholder“ widerspiegeln zu können. Poll und te Boekhorst nennen für die Messung von Bibliotheksleistungen die vier Interessengruppen „users“, „funding institution“, „library staff“ und „library managers“.

Poll, Roswitha; te Boekhorst, Peter: Measuring Quality. 2. Aufl. München 2007, S. 15.

Unklar bleibt, wie der BIX diese Perspektiven abbilden will. Die Einordnung der Kennzahlen in vier Dimensionen lässt jedenfalls keinen klaren Rückschluss darauf zu, wie damit die Bewertung der Leistungsfähigkeit aus bestimmten Stakeholder-Perspektiven zum Ausdruck kommen soll. Der eigentliche Anspruch des BIX war zumindest bis 2012, über die gewichtete Summe aller Kennzahlen eine „Gesamtbewertung der Bibliotheksleistung“

Ceynowa, Klaus: Kennzahlenorientiertes Bibliothekscontrolling – Perspektiven und Probleme. In: Die effektive Bibliothek. Hrsg. von Klaus Hilgemann und Peter te Boekhorst. München 2004, S. 91–109, hier S. 103.

zum Ausdruck zu bringen. Seit 2012 wird ein Gesamturteil nur noch für die vier Dimensionen gebildet. Ob mit der Gesamtbewertung bis 2012 eine andere Perspektive zum Ausdruck kommen sollte als mit den vier Dimensionen, ist nicht erkennbar.

Das Kennzahlenset soll die Bibliotheksleistungen als Ganzes in Form einer Balanced Scorecard abbilden. Sie wird bekanntlich in der strategischen Planung genutzt, um dem Management einen ausgewogenen Blick auf die Entwicklung des Unternehmens zu erlauben. Sie soll eine Verkürzung auf monetäre Kennzahlen vermeiden, mit denen nur ein kurzfristiger Erfolg gemessen werden kann.

Die Literatur dazu ist Legion. Die klassische Darstellung ihrer Urheber ist: Kaplan, Robert; Norton, David: Balanced Scorecard : Strategien erfolgreich umsetzen. Stuttgart 1997.

So mag die Schließung der Forschungs- und Entwicklungsabteilung kurzfristig deutliche Einsparungen ergeben, langfristig kann aber die Zukunftsfähigkeit des Unternehmens darunter leiden. Für das Bibliothekswesen haben Ceynowa und Coners luzide und praxistauglich den Einsatz einer Balanced Scorecard beschrieben.

Ceynowa, Klaus; Coners, André: Balanced Scorecard für wissenschaftliche Bibliotheken. Frankfurt a. M. 2002.

Im Gegensatz zum Ranking des Bibliotheksindex haben sie mit der Balanced Scorecard aber ein Kennzahlenmodell vor Augen, das „unmittelbar aus den strategischen Entwicklungszielen der Bibliothek abgeleitet und auf der Grundlage von Zielwerten, die den Kennzahlen zugeordnet werden“, die Umsetzung p. und Anpassung der „strategischen Grundausrichtung der Bibliothek“ unterstützt.

Ceynowa (wie Anm. 9), S. 103.

Dass ein solches Instrument nicht auf den überbetrieblichen Vergleich übertragen werden kann, zeigt allein schon der Umstand, dass die Kennzahlenwerte des BIX grundsätzlich keine Zielgröße haben, sondern dass jeweils maximale oder minimale Werte prämiert werden.

Mit der Balanced Scorecard ist ein wettbewerbsorientiertes Benchmarking nur unter einer Annahme denkbar: Die strategische Orientierung aller Bibliotheken ist soweit identisch, dass ihre Leistungsfähigkeit mit den gleichen Kennzahlen und den gleichen Zielwerten gemessen werden kann. Der BIX stellt sich diesem Anspruch durchaus, lässt aber offen, inwieweit dieser durch die konkreten Kennzahlen umsetzbar ist.

„Gute Bibliotheksleistung zeigt sich in Nutzerorientierung, Aktualität, Schnelligkeit, Verlässlichkeit, leichter Zugänglichkeit, kosteneffektiven Prozessen und adäquaten Hilfsdiensten wie Beratung und Schulung.“ Poll, Roswitha: Das Wagnis des Benchmarkings. In: BIX-Magazin 2006, S. 10–14, hier S. 10.

Dass die Kennzahlen des BIX als Gesamtsumme ein identisches Zielsystem für Bibliotheken abbilden können, ist schon aus methodischen Gründen nicht einsichtig. Der Holismus der Balanced Scorecard zielt auf die Gesamtheit eines Unternehmens, nicht auf die der Bibliotheken und auch nicht auf die der dabei vorstellbaren Stakeholder. Nur im Kontext der strategischen Planung macht es Sinn, Dimensionen wie Zukunftsfähigkeit, Effizienz und Effektivität durch aufeinander bezogene Kennzahlen zum Ausdruck zu bringen. In der Literatur zur Balanced Scorecard ist kein Hinweis auf ihre Tauglichkeit als Ranking-Instrument zu finden. Spätestens durch das Splitting des Rankings in vier Dimensionen ist die Frage der Gesamtbewertung der Leistungsfähigkeit von Bibliotheken im Sinne eines ganzheitlichen Instruments ohnehin hinfällig.

Auf der Ebene der einzelnen Kennzahlen ist sicher mit guten Gründen bestreitbar, dass sie gemeinsame Ziele und Zielwerte für alle Bibliotheken wiedergeben, wie mit wenigen Beispielen belegbar ist: Warum soll jede Bibliothek unabhängig von den Besuchszählungen ein Interesse an maximierten Öffnungszeiten haben? Warum sollen die Literaturausgaben ad infinitum gesteigert werden, egal wie die Ausleihzahlen sind? Warum soll eine Bibliothek auf Sondermittel setzen, wenn sie erfolgreich ein auskömmliches Budget verhandelt hat? Warum sollen alle Bibliotheken eine Maximierung des Ausgabenanteils für elektronische Medien unabhängig von den Nutzungszahlen verfolgen? An der Dimension „Angebot“ lässt sich die Fehlfunktion des BIX besonders gut demonstrieren: Für die strategische Steuerung einer Bibliothek ist es offensichtlich sinnvoll, die Potentiale der eigenen Infrastruktur auch unabhängig von ihrer aktuellen Auslastung zu bewerp. ten. Die Bewertung dieser Kennzahlenwerte kann dann aber nur im Kontext einer Strategie vorgenommen werden. Warum die Quantität einer Infrastruktur im Leistungsvergleich unabhängig von seiner effizienten oder effektiven Nutzung per se prämiert werden soll, ist überhaupt nicht einsichtig.

Auch an diesem Beispiel wird klar, dass das Proton Pseudos des BIX in der unzulässigen Übernahme eines Instruments zur strategischen Steuerung für ein Ranking zu liegen scheint, womit zwei Probleme sehr elegant gleichzeitig gelöst werden sollen: Zum einen soll der holistische Anspruch der Balanced Scorecard den teilnehmenden Bibliotheken versichern, dass die Kennzahlen alle leistungsrelevanten Aspekte vergleichbarer Bibliotheksportfolios ausgewogen abbilden. Poll und te Boekhorst sprechen von einem „mission statement for academic libraries“, das mit dem BIX manifestiert worden sei.

Poll; te Boekhorst (wie Anm. 8), S. 17.

Damit wird auch die Kritik am BIX geschickt umgedreht: Wer am BIX teilnimmt, akzeptiert, dass er die gleichen Ziele verfolgt wie alle anderen Teilnehmerbibliotheken. Zum anderen soll die Mehrdimensionalität der Balanced Scorecard die verschiedenen Verwendungsmöglichkeiten des BIX zum Ausdruck bringen. Er soll nicht nur einen überbetrieblichen Leistungsvergleich ermöglichen, sondern auch mögliche Argumente für die Öffentlichkeitsarbeit und die Budgetverhandlungen mit der Trägerorganisation liefern und schließlich als Instrument für die innerbetriebliche Steuerung einsetzbar sein. Ungestellt bleibt im Bibliothekswesen die Frage, ob diese eierlegende Wollmilchsau nicht die Überfrachtung eines Instruments zur Folge hat, die alle die unbefriedigt zurücklassen muss, die mit einem klaren Verwendungszweck an die Sache herangehen. In der betriebswirtschaftlichen Literatur wird hingegen bei Rankings vor einer „Vermischung der unterschiedlichen Zielsysteme“ gewarnt, da sie zur Folge hat, „dass der entscheidungsunterstützende Gehalt der resultierenden Rangliste für alle Zielgruppen abnimmt“.

Bayer 2000 (wie Anm. 7), S. 553.

Mögen diese methodischen Bedenken auch etwas akademisch erscheinen, das Faktum, dass zumindest der Großteil der wissenschaftlichen Bibliotheken das Konzept des BIX nicht mit trägt, ist nicht zu übersehen. Die Motive dafür sind vielfältig. Während die einen bezweifeln, dass der BIX das richtige Instrument ist oder einer mehr oder weniger umfassenden Reform bedarf, so wird von anderen Bibliotheksverantwortlichen sicher bestritten, dass ein Leistungsvergleich auf Basis eines akzeptierten „Mission Statements“ möglich ist. Schließlich ist sicher auch das unausgesprochene Argument virulent, dass ein Leistungsvergleich Bibliotheken mehr schadet als nutzt. Ein auf breiter Beteiligung basierender, an die Öffentlichkeit gerichteter Vergleich von Bibliotheksleistungen wird nur möglich p. sein, wenn zumindest die letzte Frage wieder offen diskutiert wird und nicht in den Schatten der schwammigen Debatte über die mehr oder weniger fehlende Akzeptanz des BIX geschoben wird. Deshalb ist es dringend nötig, diese Fragen vom BIX abstrahiert zu diskutieren, um im Falle positiver Antworten nach Alternativen zum BIX zu suchen, ohne dessen eigentliche Motivation in Frage zu stellen. Die bestand darin, dass Bibliotheken in Zeiten des New Public Management eine bewusste und öffentliche Position zu Transparenz, Leistungs- und Kundenorientierung beziehen. Mit den veröffentlichten Daten auch eine öffentliche Bewertung der Leistungsdaten zuzulassen, schreibt den teilnehmenden Bibliotheken das Selbstbild einer sportlich kompetitiven Haltung zu. Ganz nach dem Tucholsky-Zitat „Wer in der Öffentlichkeit Kegel schiebt, muss sich gefallen lassen, dass nachgezählt wird, wieviel er getroffen hat“ bieten die Kennzahlen eine akzeptierte Objektivität, die einen allgemeinen und öffentlichen Vergleich verschiedener Bibliotheken zulässt. Der Leistungsvergleich stellt damit ein Marktsurrogat dar, das Leistungsunterschiede sichtbar macht, die nicht durch Unterschiede im ökonomischen Erfolg zum Ausdruck kommen können. Der einzige Zweck eines solchen Leistungsvergleichs liegt dann in der Wirkung gegenüber einer Öffentlichkeit, zu der auch die Unterhaltsträger und Trägereinrichtungen zählen. Erkennbar ist dabei auch eine proaktive Haltung der Bibliotheken, selbst Bewertungsergebnisse zu liefern, die nicht unter Zwang z. B. durch Rechnungshöfe gefordert werden müssen.

Dies mag als Ökonomisierung der Bibliotheken oder als ihre Auslieferung an die sparwütigen Unterhaltsträger verdammt werden.

Umlauf (wie Anm. 4, S. 40) sieht im BIX einen „Stakeholder-Ansatz“, in dem Bibliotheken auf einen Auftrag eingeengt werden, der Unterhaltsträgern nur Argumentationshilfe für Einsparungen liefert. Zu teilen ist diese Kritik soweit, als sie auf den unzulässigen Anspruch des BIX zielt, a priori ein vollständiges Aufgabenprofil von Bibliotheken zu beschreiben.

Die Debatte über den ausbleibenden durchschlagenden Erfolg des BIX hat aber die bibliothekspolitische Debatte über die Frage, ob wir als Bibliotheken selbstbewusst eine solche öffentliche Haltung einnehmen wollen, verstummen lassen. Ihr muss eine sorgfältige Fachdiskussion darüber folgen, mit welchen Kennzahlen ein solcher Leistungsvergleich dann tatsächlich von einer viel größeren Zahl von Bibliotheken akzeptiert werden kann. Hier dürfte es pragmatisch sinnvoll sein, sich auf die Suche nach dem kleinsten gemeinsamen Nenner zu machen, also die Aufgaben und Ziele zu bestimmen, die tatsächlich den Bibliotheken gemeinsam sind, so dass sie mit gleichen Leistungskennzahlen und gleichen Sollgrößen gemessen werden können. Der Form nach werden das eher Effizienz- und Effektivitätskennzahlen für gleiche Leistungen sein, während mitunter kontingente Ausstattungskennp. zahlen untauglich für ein Ranking oder Rating sind. Einfach wie der BIX einen identischen Auftrag für alle Bibliotheken zu unterstellen, wird dabei keinen Zuwachs an Akzeptanz für einen öffentlichen Leistungsvergleich generieren.

Ein Blick auf die Vielzahl an Beispielen zum Leistungsvergleich öffentlicher Einrichtungen kann hier Orientierung bieten. So zeigt z. B. ein Blick auf die – zumindest aus Bibliothekssicht – homogen aufgestellte Abwasserwirtschaft, wie langwierig und schmerzhaft der Prozess sein kann, an dessen Ende in der Breite akzeptierte Kennzahlen stehen, mit denen „Leistungsvergleiche und darauf aufbauend Benchmarking“ möglich sind.

Weiß, Mathias; Schielein, Jörg: Kennzahlenvergleiche und Benchmarking in der Wasserversorgung. In: Wissensdurst. BWV, Zweckverband Bodensee-Wasserversorgung. Stuttgart 2007, S. 42–51, hier S. 50.

Hier wie auch beim Benchmarking für Theaterbetriebe wird nicht nur der Gewinn durch ein „Weniger ist Mehr“ deutlich, sondern auch der Umstand, dass vorhandene Datenquellen

Kleine, Andreas; Hoffmann, Steffen: Dynamische Effizienzbewertung öffentlicher Dreispartentheater mit der Data Envelopment Analysis. http://www.fernuni-hagen.de/imperia/md/images/fakultaetwirtschaftswissenschaft/db-488.pdf, hier S. 19.

oder internationale Kennzahlensysteme eine gute Basis dafür bieten, einen solchen Klärungsprozess strukturiert und auf Verbandsebene angesiedelt zum Ziel zu bringen.

Joachim Kreische:

joachim.kreische@tu-dortmund.de

Footnotes

1

Bibliotheksstatistik. In: Jahrbuch der Deutschen Bibliotheken 1 (1902), S. 139–158, hier S. 141.

2

Berens, Wolfgang; Hoffjan, Andreas: Controlling in der öffentlichen Verwaltung. Stuttgart 2004, S. 237.

3

2013 haben 249 wissenschaftliche Universal- und Hochschulbibliotheken Daten an die Bibliotheksstatistik gemeldet. In der entsprechenden Sektion IV des Deutschen Bibliotheksverbandes sind aktuell 265 Bibliotheken organisiert.

4

Umlauf, Konrad: Leistungsmessung und Leistungsindikatoren für Bibliotheken im Kontext der Ziele von Nonprofit-Organisationen. Berlin: Institut für Bibliothekswissenschaft der Humboldt-Univ. zu Berlin (Berliner Handreichungen zur Bibliothekswissenschaft; 116), S. 11. http://www.ib.hu-berlin.de/~kumlau/handreichungen/h116/.

5

Poll, Roswitha: 3 Jahre Betriebszahlen für Universitätsbibliotheken. In: ProLibris (1999) 2, S. 95–97.

6

http://www.bix-bibliotheksindex.de/projektinfos/allgemeine-informationen.html. Vgl. auch McLeod, Shirley; Schiller, Robert: Leistungsmessung mit dem Bibliotheksindex BIX. In: Bibliothek, Forschung und Praxis 38 (2014), S. 239–245, hier S. 239.

7

Bayer, Christian: Anspruch und Wirklichkeit von Hochschul-Ranking; Vorschlag einer allgemeinen Methodik. In: Die Betriebswirtschaft 60 (2000), S. 547–569.

8

Poll, Roswitha; te Boekhorst, Peter: Measuring Quality. 2. Aufl. München 2007, S. 15.

9

Ceynowa, Klaus: Kennzahlenorientiertes Bibliothekscontrolling – Perspektiven und Probleme. In: Die effektive Bibliothek. Hrsg. von Klaus Hilgemann und Peter te Boekhorst. München 2004, S. 91–109, hier S. 103.

10

Die Literatur dazu ist Legion. Die klassische Darstellung ihrer Urheber ist: Kaplan, Robert; Norton, David: Balanced Scorecard : Strategien erfolgreich umsetzen. Stuttgart 1997.

11

Ceynowa, Klaus; Coners, André: Balanced Scorecard für wissenschaftliche Bibliotheken. Frankfurt a. M. 2002.

12

Ceynowa (wie Anm. 9), S. 103.

13

„Gute Bibliotheksleistung zeigt sich in Nutzerorientierung, Aktualität, Schnelligkeit, Verlässlichkeit, leichter Zugänglichkeit, kosteneffektiven Prozessen und adäquaten Hilfsdiensten wie Beratung und Schulung.“ Poll, Roswitha: Das Wagnis des Benchmarkings. In: BIX-Magazin 2006, S. 10–14, hier S. 10.

14

Poll; te Boekhorst (wie Anm. 8), S. 17.

15

Bayer 2000 (wie Anm. 7), S. 553.

16

Umlauf (wie Anm. 4, S. 40) sieht im BIX einen „Stakeholder-Ansatz“, in dem Bibliotheken auf einen Auftrag eingeengt werden, der Unterhaltsträgern nur Argumentationshilfe für Einsparungen liefert. Zu teilen ist diese Kritik soweit, als sie auf den unzulässigen Anspruch des BIX zielt, a priori ein vollständiges Aufgabenprofil von Bibliotheken zu beschreiben.

17

Weiß, Mathias; Schielein, Jörg: Kennzahlenvergleiche und Benchmarking in der Wasserversorgung. In: Wissensdurst. BWV, Zweckverband Bodensee-Wasserversorgung. Stuttgart 2007, S. 42–51, hier S. 50.

18

Kleine, Andreas; Hoffmann, Steffen: Dynamische Effizienzbewertung öffentlicher Dreispartentheater mit der Data Envelopment Analysis. http://www.fernuni-hagen.de/imperia/md/images/fakultaetwirtschaftswissenschaft/db-488.pdf, hier S. 19.

If the inline PDF is not rendering correctly, you can download the PDF file here.

FREE ACCESS

Journal + Issues

The Library and Information Science journal Bibliotheksdienst is published in 10 physical issues per year (monthly, with 2 double issues) and covers traditional and technically innovative topics. It communicates information from libraries and related institutions, professional societies within librarianship and neighbouring areas.

Search