Zusammenfassung
Seit dem Informationspapier der Deutschen Forschungsgemeinschaft aus dem Jahr 2021 wird das Thema Datentracking in der Wissenschaft viel diskutiert. Jedoch sind bislang weder umfassende Konzepte sichtbar, wie der damit einhergehenden Gefährdung der wissenschaftlichen Autonomie und Integrität beispielsweise durch die Stärkung digitaler Souveränität abgeholfen werden könnte, noch kommt der Griff der maßgeblichen wirtschaftlichen Akteure nach dem gesamten Forschungszyklus angemessen in den Blick. Dieser Aufsatz betrachtet die wissenschaftlichen Workflows und deren Unterminierung durch datenbasierte Geschäftsmodelle.
Abstract
Since the German Research Foundation’s Information Paper 2021, data tracking in science has been widely discussed. However, comprehensive concepts on how to remedy this threat to scientific autonomy and integrity, for example by strengthening digital sovereignty, are not given, nor is the grip of the relevant economic actors on the entire research cycle adequately addressed. This paper looks at scientific workflows and their undermining by data-based business models.
1 Vorgeschichte
Nachdem Michel Foucault 1975 Überwachen und Strafen[1] publizierte, erreichte seine Analyse der Disziplinarmacht eine lang anhaltende Rezeption. Die Beschreibung von Dispositiven als einer Verknüpfung von diskursiven und institutionellen Momenten erlaubte ihm den Übergang von seiner vorherigen diskursanalytischen Betrachtung verknappender Elemente wie dem „Autor“[2] oder der „Disziplin“[3] hin zu den Strategien von Macht. Dispositive zeigen sich in seiner Betrachtung sehr produktiv und erzeugen Effekte, die ganz im Gegensatz zu ihren diskursiven Aussagen stehen können:[4] Das Dispositiv der Klinik redet von „Gesundheit“ und „Heilung“ und produziert Patienten, das Gefängnisdispositiv redet von „Besserung“ und „Resozialisierung“ und produziert Delinquenten usw. Entscheidend ist die erhebliche, wenn nicht totale Machtasymmetrie, die Dispositive stiften, ablesbar an Foucaults Paradebeispiel, Benthams Panopticon.
Das Panopticon sollte für den Sozialreformer Jeremy Bentham den Idealtypus eines Gefängnisses bilden: Die Zellen wurden kreisförmig um einen Beobachtungsturm für den Wärter angeordnet, der alle Gefangenen somit sehen, selbst aber nicht gesehen werden konnte. Der unbeobachtbare Beobachter war das zentrale Prinzip des Panopticons, denn der Gefangene musste davon ausgehen, dass er jederzeit zumindest beobachtet werden könnte, selbst wenn der Wärter gerade andere Gefangene betrachtete oder der Turm überhaupt nicht besetzt war. Die Auslieferung an die totale Machtasymmetrie sollte nach Benthams Vorstellung verhaltensformend wirken – der Gefangene würde alle unerwünschten Regungen unterlassen und das Disziplinarregime internalisieren.
Foucaults prominente Herausstellung des Panopticons trug wohl dazu bei, dass es im Zeitalter der Digitalisierung wieder vermehrt thematisiert wurde – nicht zuletzt deshalb, weil die verhaltensformende Kraft sich hier z. B. im Bereich der Videoüberwachung nun auch empirisch belegen ließ,[5] auch wenn es sich als Metapher digitaler Machtstrategien bei genauerer Betrachtung als nicht sehr tragfähig erweist.[6] Aber noch Shoshana Zuboff analysiert in ihrer Betrachtung des Überwachungskapitalismus[7] die panoptische Gefährdung hinter den Weltverbesserungsdiskursen der Internetkonzerne. Ganz lebenspraktisch holt dann das Tool Panopticlick der Electronic Frontier Foundation[8] durch die Untersuchung der Browser-Features die großen Beobachter-Plattformen schrittweise aus ihrer Unbeobachtetheit heraus und sensibilisiert für das Machtgefälle, das sich im Tracking vollzieht.

Panoptisches Gefängnis auf Kuba aus der Zeit der Machado-Diktatur (Quelle: Inside one of the prison buildings at Presidio Modelo, Isla de la Juventud, Cuba. Von Friman, CC BY-SA 3.0, https://commons.wikimedia.org/w/index.php?curid=2410607)
2 Tracking
Das Datentracking in der Wissenschaft ist im deutschsprachigen Raum spätestens seit dem Informationspapier der Deutschen Forschungsgemeinschaft (DFG)[9] in der Literatur vielfach diskutiert worden,[10] auch ABI Technik hat dem Gegenstand bereits ein Themenheft gewidmet.[11] Michael Freiberg vertiefte dabei die Kenntnis der von Verlagen eingesetzten Third-Party-Trackingtechnologien,[12] während das Interview mit dem Hessischen Landesbeauftragten für Datenschutz und Informationsfreiheit, Andreas Roßnagel, rechtliche Fragen mit deutlichen Worten in den Blick nahm:
Die Bibliotheken und Hochschulen müssen durch die Auswahl ihrer Vertragspartner und die Vereinbarungen mit ihnen verhindern, dass es zu Grundrechtsverletzungen kommt. Im Zweifel dürfen sie Dienste, deren Grundrechtskonformität sie nicht sicherstellen können, nicht nutzen.[13]
Von der Umsetzung dieser rechtlichen Pflicht – und Verpflichtung gegenüber ihren Nutzenden – ist dagegen bislang wenig zu erkennen. So kommt ein aktueller Praxisleitfaden zur Open-Access-Transformation und Erwerbung[14] ohne einen Hinweis auf diese Problematik aus, obwohl gerade im Open-Access-Bereich von einer hohen Motivation der Verlage auszugehen ist, das Informationsverhalten zu tracken.[15] Die Open-Access-Empfehlungen des Wissenschaftsrats betonen in einem kurzen Abschnitt die Chancen einer solchen science analytics, wenn nur die Regeln eingehalten würden.[16] Die Handreichung der Schwerpunktinitiative „Digitale Information“ der Allianz der deutschen Wissenschaftsorganisationen zu Transformationsverträgen hält ebenso vorsichtige wie lückenhafte Soll-Formulierungen bereit,[17] während sich die weiteren Umstände der Publikation etwa nach Ansicht von Björn Brembs durchaus erstaunlich gestalteten.[18]
Unterm Strich ist daher festzuhalten, dass nach dem initialen Anstoß durch die DFG, welche auch das potentiell erhebliche persönliche Risiko für die Forschenden und die Möglichkeit von Wirtschaftsspionage benennt, sich andere für das Informationswesen zentrale Akteure bislang diese Gefährdungsanalyse offenbar nicht in gleicher Weise zu eigen machen. Vielmehr scheinen diese stärker dazu zu neigen, dies unter die vielen anderen Vertragswidrigkeiten, die aus den Verhandlungen mit den großen Verlagen bekannt sind, einzuordnen.[19] Diese Unterschätzung des Trackings ist in vielen Bereichen geläufig – „Das ist doch bloß Werbung“ – und wird vom Experten für digitale Werbetechnik Bob Hoffman mit deutlichen Worten zurückgewiesen:
The worst consequences of tracking are not that it makes advertising worse, it’s that it makes other things so dangerous. What most people don’t understand is that the tracking-based data collected by and for advertisers is also used:
To create algorithms that have the effect of polarizing us and driving wedges into society.
By malefactors to spread misinformation and lies in specific directions undermining confidence in elections, democratic institutions and scientific findings.
By criminals to extract tens of billions of dollars illegally from the programmatic advertising ecosystem.[20]
Hoffman verdeutlicht dies beispielhaft an der Situation, wie der Oberste Gerichtshof der Vereinigten Staaten das Roe vs. Wade-Urteil verwarf und auf einen Schlag die von der Trackingindustrie aufgehäuften Daten zur handfesten Bedrohung wurden, seien es Lokalisierungsdaten, Facebook Pixel oder andere Tracker auf den Klinikwebseiten oder sogar Nutzungsdaten z. B. von Perioden-Apps – wodurch prompt die auf Facebook getauschten Nachrichten für eine schwangere 17-jährige und ihre Mutter zum Verhängnis wurden. Einer Industrie, die schon von einem 13-jährigen Kind durchschnittlich 72 Millionen Datenpunkte gesammelt hätte, sei jede gebotene Vorsicht entgegen zu bringen und dies unabhängig von der individuellen technischen Kompetenz – „you don’t have to be an automotive engineer to unterstand that a truck can run you over“.[21] Angesichts dieser Situation hat die Europäische Kommission aktuell auch eine umfangreiche Studie vorgelegt, um digitale Werbung grundlegend zu reformieren.[22]
3 Workbenches
Claudio Aspesi und Amy Brand wiesen bereits 2020 auf die Gefahr hin, dass auch Open Access zu Lock-in-Effekten führen könne, wenn die Anbieter – anstatt nur über Paketlizenzen für Content zu verfügen – nun durch privilegierte Transformationsverträge immer größere Teile des Publikationsaufkommens bei sich bündeln und dabei Zugang, Analyse, Hosting, Assessment, Forschungsdaten und viele Services mehr verknüpfen können.[23] Was Aspesi und Brand deshalb als „the next battleground“ bezeichnen, nämlich den Kampf um die infrastrukturelle Souveränität, um wissenschaftliche Autonomie wenigstens in Ansätzen weiterhin sichern zu können, wird in einer aktuellen Darstellung einigermaßen dramatisch beschrieben:
It is becoming increasingly clear that the core functions of higher education are destined to be quantified and that this data will be harvested, curated, and repackaged through a variety of enterprise management platforms. All aspects of the academic lifecycle, such as research production, publication, distribution, impact determination, citation analysis, grant award trends, graduate student research topic, and more can be sold, analysed, and gamed to an unhealthy degree.[24]
Diese Vernetzung, Verdichtung und Auswertung wissenschaftsbezogener Daten geschieht auf Basis der sehr hohen Renditen im Verlagsgeschäft und wurde daher vor Jahren bereits von Roger Schonfeld in Bezug auf das Publizieren als der kommende „Supercontinent“ analysiert.[25] Dies betrifft nicht nur den Teilbereich der Publikationen, sondern den gesamten Forschungszyklus. Stets steht der Zugriff auf die konkrete Person und ihr Verhalten im Fokus, wie es Eiko Fried verdeutlichen konnte – das „Hotel Elsevier“ führt genauestens Buch mit einer Tabelle, die allein für die Mendeley-Nutzung innerhalb weniger Jahre 213 000 Zeilen umfasst.
Einen noch detaillierteren Eindruck erhält man, wenn man die Nachrichten zu Aufkäufen und Übernahmen der vergangenen Jahre nach den einzelnen Abschnitten des Forschungszyklus sortiert. Alejandro Posada und George Chen haben dies mit Fokus auf Elsevier unternommen,[26] Bianca Kramer und Jeroen Bosman haben im Projekt „101 Innovations“ eine ganze Reihe von Medienunternehmen in dieser Weise betrachtet.[27] Dadurch zeigt sich, dass die „Fusionitis“ bei den Marktführern unter den vormaligen Verlagen bereits zum Aufbau kompletter Ökosysteme geführt hat. Diese brauchen die Forschenden nicht mehr zu verlassen – und sollen es sicher auch nicht, denn wie bei Social Media und ihrem „doom scrolling“ bedeutet längere Präsenz mehr Daten, mehr Beobachtung und mehr Verwertung.
Der Ökonom Philip Mirowski analysiert diese Entwicklung als neoliberalen Angriff auf die Wissenschaft, mit dem nach einer bereits langen Vorgeschichte der Kommerzialisierung von Forschung seit den 2010er Jahren durch den Plattformkapitalismus ein Re-Engineering des gesamten Prozesses festzustellen wäre.[28] Ziel wäre die Kontrolle von Wissenschaft durch die Plattformen anstelle nur von einzelnen „IP-Bits“ – ein Punkt, den bereits Schonfeld in seiner Beschreibung des Supercontinents aufgenommen hatte: die Disintegration des Contents durch das Urheberrecht legte der Verwertung in der Vergangenheit auch Schranken auf, die Umstellung auf Open Access ermögliche dagegen, Materialien in ganz anderen Maßstäben zu bündeln, zu analysieren und mit überwölbenden Schichten an Verwertungsprodukten zu belegen. „Open“ allein kann damit auch zu etwas Zwiespältigem geraten, nämlich auch offen für Einflüsse, Beeinflussung und den Markt. Diesen Punkt nimmt Mirowski auf, indem er Open Science insgesamt als subtile Rache der Big-5-Publisher (Elsevier, Springer, Wiley, Taylor & Francis, Sage) an den Wissenschaftsaktivistinnen und -aktivisten wertet. Den Firmen wäre die absehbare Erschöpfung ihres tradierten Geschäftsmodells völlig bewusst gewesen, doch wären sie nun den Wissenschaftlerinnen und Wissenschaftlern wieder mehrere Schritte voraus, indem sie unter der öffentlichen Agenda von Open Science die gesamte Infrastruktur des Forschungsprozesses aufkauften, zusammenbauten, monetarisierten und unter Kontrolle hielten.
Open Science in dieser marktförmig kontrollierten Form wälze das bisherige Wissenschaftsverständnis und vor allem die entsprechende Praxis völlig um, erkennbar an der Position der Forschenden. Die #IchBinHanna-Existenzen[29] sind in der Perspektive weder ein bloßer Unfall noch Ausdruck des Unvermögens der Unterhaltsträger, sondern hinter den rasch zirkulierenden Projektkräften stehe das System, den Forschenden die Macht über ihre Agenda zu nehmen und sie in eine Position zu zwingen, die von Ghost Work nicht weit entfernt ist.[30] Citizen Science als beliebtes Schlagwort würde dies in der Weise ergänzen, dass wissenschaftliche Arbeit, wo möglich, dequalifiziert und ein Reservepool geschaffen würde, mit dem Hanna im Zweifel an den ihr zugewiesenen Platz erinnert werden könne. Selbst für das Funding würden mittlerweile vielfach Alternativen nach Kickstarter-Modell entwickelt und als Science Startups verkauft, vergleichbar den Organisationsplattformen von Citizen Science.

Aufgezeichnete Nutzungsdaten eines Mendeley-Accounts (Abbildung verwendet mit Erlaubnis des Autors: Fried, Eiko. „Welcome to Hotel Elsevier: You can check out any time you like … not.“ Eiko Fried Blog, 09.05.2022. Zuletzt geprüft am 01.03.2023. https://eiko-fried.com/welcome-to-hotel-elsevier-you-can-check-out-any-time-you-like-not/)

Workbenches geordnet nach Anbietern (Grafik verwendet mit Erlaubnis des Autors: Björn Brembs auf Basis von Kramer und Bosman o. J. https://stoptrackingscience.eu/background-information/. Zuletzt geprüft am 01.03.2023.)
Nach dieser Lesart droht die freie öffentliche Forschung zusehends in einen neoliberalen Wissenschaftsmarkt transformiert zu werden. Als Science Platforms agierend verfolgten die Big-5-Publisher schließlich ihre eigene Geopolitik, denn sie übernähmen die Validierung für die „Elite-Forschung“, während die sogenannten Predatory Publisher als „Lumpensammler“ den Rest aufkehrten: nicht-englischsprachige Forschung, Forschende des Global South, Peripherie in jeder – auch disziplinbezogener – Hinsicht. Auch diese Forschenden bräuchten Validierung und würden dabei auf diese Infrastrukturen zurückgeworfen. Der Gegensatz zwischen Legacy Publisher und Predatory Publisher wäre damit keiner, denn beide würden in gleicher Weise auf den Markt vertrauen, für beide wäre ausreichend finanzieller Spielraum und beide hielten wenig von Ambitionen der Wissenschaft, die inhaltliche Relevanz für den Diskurs zu bestimmen – „Let the market sort it out!“
4 Data Cartels
Mirowski sieht die großen Player im Wissenschaftsbereich noch nicht am Ende ihrer Pläne, z. B. bei der Automatisierung des praktischen Laborbetriebs, sondern extrapoliert aus dem gegenwärtigen Stand ihre weitergehenden Ambitionen. Dabei ist es wichtig zu sehen, dass diese Ambitionen sich nicht auf den Wissenschaftsbereich beschränken. Gerade die führenden Player breiten sich in weitere Märkte aus, die noch wesentlich größer sind und ähnliche Renditen versprechen. Sarah Lamdan bezeichnet diese Firmen in ihrem Buch als Datenkartelle[31] und betrachtet RELX und Thomson Reuters als Musterbeispiele: Sie wären nicht nur im Bereich der Rechtsinformation führend, sondern in der gesamten Wissenschaftskommunikation relevant, in der Finanz- und Wirtschaftsinformation, im Nachrichtengeschäft und immer mehr als Data Broker für die Sicherheitsindustrie. Das Geschäftsmodell bliebe dabei im Wesentlichen immer das gleiche: ein relevanter öffentlicher Bereich würde okkupiert und in ein Klubeigentum verwandelt, das angesichts der Bepreisung dann nur wenigen Privilegierten zur Verfügung stünde.
Datenkartelle bildeten ein „GAFAM der kuratierten Information“ und schaffen damit für Lamdan eine starke Verzerrung in der gesellschaftlichen Wahrnehmung und Selbstvergewisserung: Die exklusiven Informationen stehen vorzugsweise der Entscheiderebene zur Verfügung, während die breite Masse der Bürgerinnen und Bürger dagegen immer eingeschränkter sei, ihre Angelegenheiten in Bereichen wie Gesundheit, Finanzen und Rechte zu regeln. Durch das Tracking und die dadurch gesammelten Informationen würden sie stattdessen immer mehr zum Objekt von Entscheidungen anderer, mit teils verheerenden Folgen. So wurde beispielsweise in Michigan das automatisierte Entscheidungssystem MiDAS zum Aufspüren von Sozialbetrugsfällen eingeführt, das binnen kurzer Zeit die Zahl der Verdachtsfälle verfünffachte. Allerdings waren fast alle Anschuldigungen falsch, und bis zur gerichtlichen Aufarbeitung hatten viele Betroffene die Wohnung verloren, mussten Insolvenz anmelden, ihre Ehen zerbrachen, einige verübten Suizid.[32] Trotzdem verbreiten sich solche Systeme immer weiter.[33]
Ausschlaggebend für diese Entwicklung ist die von Mirowski benannte lange Vorgeschichte der Kommerzialisierung in Verbindung mit dem neoliberalen Staatsverständnis. Das Duopol von RELX und Thomson Reuters in der US-amerikanischen Rechtsinformation entwickelte sich eben auch daraus, dass die öffentliche Hand das Printzeitalter bei den relevanten Rechtsressourcen auslaufen ließ, ohne sich um eine adäquate digitale Fortsetzung zu bemühen. In der Folge muss in der Darstellung von Lamdan die durchschnittliche law firm 70 % ihres Umsatzes für Produkte von RELX und/oder Thomson Reuters ausgeben, die infolge ihrer zunehmenden Integration mit Assistenz- und Recommenderfunktionen immer mehr rechtsgestaltende Kraft entwickeln. Ebenso sind diejenigen, die durch die Risk Solutions-Datenprodukte von RELX und Thomson Reuters von der militarisierten Grenzpolizei Immigration and Customs Enforcement (ICE) aufgespürt wurden, auf die digitalen Prison Products der gleichen Firmen angewiesen – und diese Rechnerplätze sind wiederum mit Tracking-Technologien ausgestattet.[34] Ein Musterbeispiel für den von Zuboff beschriebenen „Extraktionsimperativ“, wie er auch immer mehr in der Wissenschaft gebräuchliche Serviceplattformen kennzeichnet: Die Analyse der gewonnenen Nutzungsdaten führt zu neuen Produkten, die zusätzliche Daten generieren, welche wiederum analysiert und monetarisiert werden, bis die Workflows an eine Folge von Matrjoschka-Puppen erinnern, die allesamt immer mehr ihrer eigenen Agenda verpflichtet sind, anstelle der Forschung oder anderen öffentlichen Bereichen.
In der Betrachtung hat im Digitalbereich vielleicht wenig so viel Schaden angerichtet wie die immer noch gebräuchliche Floskel von Daten als dem „neuen Öl“. Wer seine Hacke in den Boden schlägt, die Bohrstation oder den Bagger in Betrieb nimmt, dem werden keine Daten entgegenquellen wie etwa Öl, Kohle oder Erze. Daten sind mit konkreten Menschen verbundene Artefakte: eine bestimmte Person hat eine Messung vorgenommen, von einer anderen bestimmten Person hat ein Device oder ein Service Nutzungsdaten protokolliert. Die Rede vom neuen Öl übernimmt unkritisch den grundsätzlichen Antrieb des Überwachungskapitalismus, den persönlichen und inneren Bezug des Menschen zu den Daten nicht zu achten, sondern als angebliches virgin wood auszubeuten und damit zu entwürdigen. Es ist eine ins Digitale gewendete koloniale Attitüde,[35] so wie der klassische Kolonialismus ganze Kontinente wie Australien zum „No man’s land“ erklärte und sich aneignete, während man Bewohner kolonisierter Gebiete als „Völkerschau“ im Zoo ausstellte.[36] Datenkolonialismus vollzieht dies neuartig im globalen Maßstab, sei es durch Beförderung von Verfolgung und Pogromen im Global South,[37] sei es auch in den Ländern der früheren Kolonialherren, wo Macht- und Verteilungskämpfe, oft verschleiert durch culture wars, verschärft werden.
Auch hier spielt Tracking keine unwesentliche Rolle, da das Targeting, wie bei Cambridge Analytica zu sehen war, den politischen Wettbewerb mindestens beeinflussen kann.[38] Vor allem unterfüttert es das Ökosystem der Alternativen Fakten[39] mit sehr, sehr viel Geld. Geschätzt zwischen 80 und 120 Milliarden US-Dollar, also etwa ein Fünftel des globalen Budgets für trackinggestützte digitale Werbung, sollen jedes Jahr durch Adfraud verschwinden und organisiertes Verbrechen, autoritäre Regime, die ansonsten teils schwer an Devisen kommen, wie auch extremistische Bewegungen finanzieren. Für 2025 wird Adfraud von Hoffman als weltweit zweitwichtigste Geldquelle für Kriminelle nach dem Drogenhandel prognostiziert.[40] Steve Bannon und sein Wahlspruch „Flood the zone with shit!“ ist ein bekanntes Beispiel dafür, wie sich Hassrede mit Werbegeldern finanzieren lässt,[41] aber auch Initiativen wie #StopFundingHate liefern beinahe täglich neue Belege dafür, wie auch russische Propaganda gegen die westliche Welt sich durch westliche Gelder zum Geschäft machen lässt.[42] Wer immer daher AdTech-Instrumente wie das Tracking in die wissenschaftliche Tätigkeit einführt, trägt die Wissenschaft damit in ein Biotop, in dem alle Kerngrundsätze guter wissenschaftlicher Praxis und die Selbstaufklärung einer freien Gesellschaft nichts zählen, es sei denn instrumentell und als eine Gelegenheit zur Monetarisierung unter anderen.
5 Abschluss
Demanding privacy from surveillance capitalists […] or lobbying for an end to commercial surveillance on the internet is like asking old Henry Ford to make each Model T by hand. It’s like asking a giraffe to shorten its neck, or a cow to give up chewing. These demands are existential threats that violate the basic mechanisms of the entity’s survival.[43]
Es ist das Geschäftsmodell einer Kuh, Gras nicht nur zu kauen, sondern so lange wiederzukäuen, bis der letzte Nährstoff herausgesogen ist. Entsprechendes gilt für das Verhältnis der Digitalkonzerne zu persönlichen Daten.
Man muss sich Mirowskis Kritik am neoliberalen Wissenschaftsmodell nicht im Detail zu eigen machen. Dennoch sollte angesichts der aktuellen Entwicklungen auch im Bereich der Künstlichen Intelligenz (engl. artificial intelligence – AI) die Zeit eines quasi naiven Open-Science-Ansatzes vorbei sein. OpenAI (und ebenso tun es konkurrierende Firmen) eignete sich das Trainingsmaterial ohne Rücksichten auf die Produzentinnen und Produzenten an[44] und zahlt den Nachfahren früherer Kolonien Centbeträge, um Hass und toxische Inhalte aus seinen Produkten zu beseitigen,[45] arbeitet aber selbst an versteckten Wasserzeichen, um die Kontrolle wahren zu können.[46] So wenig es in der Wissenschaft einen Rückzug in einen „Closed“-Ansatz geben kann, da dieser nur die bekannten spezialisierten Datenkartelle exklusiv privilegieren würde, so wenig kann ein offenes Wissenschaftsmodell sich damit zufriedengeben, als Mechanical Turk Akteuren bloß zuzuliefern, welche zu den Grundwerten von Wissenschaft ein bestenfalls zynisches Verhältnis haben. Dieses „Offen“ muss gemeinwohlorientiert ausgefüllt werden, um die gegenwärtige „Tragedy of the Commons“ in ihrer Dezimierung zum exklusiven Klubeigentum aufzulösen:[47] „The tech industry has hijacked a variety of commons and then rents us access to what should be open.“[48]
Momentan sieht es hiernach aber nicht aus, sondern eher danach, dass den Plattformen der Informationsbereich absehbar zufallen wird, weil der öffentliche Bereich diesen allein schon aus demographischen Gründen nicht mehr tragen kann. Gab es laut Statistischem Bundesamt im Jahr 2011 noch 11 407 Beschäftigte an deutschen Hochschulbibliotheken, so waren es zehn Jahre später nur noch 9 442.[49] Parallel dazu stehen die Fachausbildung und damit die Generierung von beruflichem Nachwuchs vor bedeutenden Schwierigkeiten,[50] obwohl die eigentliche demographische Welle erst noch bevorsteht, wenn etwa ab dem Jahr 2030 jährlich 500 000 Menschen mehr den Arbeitsmarkt verlassen, als ihn betreten werden (Migrationseffekte, soweit sie sich sinnvoll prognostizieren lassen, bereits eingerechnet).[51] Die öffentliche Hand wird dann in noch weitaus stärkerem Maße in Konkurrenz mit der freien Wirtschaft um Personalressourcen stehen als dies bereits heute der Fall ist, aber sich dabei auch intern differenzieren. Da nicht davon auszugehen ist, dass beispielsweise aus Personalgründen irgendwann die Steuererhebung beendet wird, wird der Personaldruck voraussichtlich an Bereiche weitergegeben werden, die nicht zum allerengsten hoheitlichen Bereich gehören.
Eine solche Entwicklung wird allen Diskussionen über digitale Souveränität zum Trotz die Anbieter „schlüsselfertiger Lösungen“ privilegieren, weil sie ein von der Personalnot getriebenes Outsourcing ermöglichen (und damit den Rückgriff auf ein seit der neoliberalen Wende etabliertes Verfahren), und der Blick auf die Workbenches zeigt, dass dabei nicht nur ein Modell von Library-as-a-Service im Raum steht, sondern ein ganzes Ökosystem hochschulischer Kernprozesse. Die Konzentration auf Big Deals und Transformationsverträge im Bibliothekswesen befördert diese Perspektive, denn die bewusste Priorisierung der großen Akteure und die Zentralisierung wichtiger Funktionen wird einen gleitenden Übergang erleichtern. Der Informationsbereich könnte damit ein Vorreiter des People Farming[52] auf dem Campus werden, die Debatte um #IchBinHanna gibt hier bereits einen Vorgeschmack.
Der Überwachungskapitalismus wird in Europa sehr kritisch gesehen: Das Recht auf Vergessenwerden, die Datenschutzgrundverordnung insgesamt und eine Reihe weiterer regulatorischer Eingriffe entsprangen einem gesellschaftlichen Kontext, worin die Erinnerung an die panoptische Drohung ebenso lebendig ist wie die an deren Vordenker. Jeremy Bentham verfügte, nach seinem Tod präpariert zu werden. Dies geschah, und seit 1850 ist er im University College of London, dessen Gründung er inspiriert hatte, in seiner Kleidung und mit Hut und Spazierstock auf einem Stuhl sitzend zu sehen. Als 2013 Rektor Sir Malcolm Grant ausschied, nahm Bentham am council meeting teil. Der Legende nach verzeichnet das Sitzungsprotokoll in solchen Fällen Bentham als „present, but not voting“.[53] Denn die Stimme zu erheben ist Aufgabe aller Gegenwärtigen, denen an der vernunftgeleiteten Entwicklung freier Gesellschaften gelegen ist.
About the author

Renke Siems
© 2023 bei den Autoren, publiziert von De Gruyter.
Dieses Werk ist lizensiert unter einer Creative Commons Namensnennung 4.0 International Lizenz.