Skip to content
Publicly Available Published by De Gruyter Saur August 22, 2018

Open Science nachhaltig gestalten

Open Science Conference 2018

  • Alexander Botte EMAIL logo , Jasmin Schmitz , Anne-Katharina Weilenmann and Luzian Weisel

Die international ausgerichtete Konferenz fand vom 13. bis 14. März 2018 im Hotel NH Collection Berlin Friedrichstraße statt. Sie war die fünfte Konferenz unter diesem Titel, die vom Leibniz-Forschungsverbund Science 2.0[1] jährlich veranstaltet wird. Federführender Organisator ist dabei das ZBW – Leibniz-Informationszentrum Wirtschaft in Kiel.

Der Forschungsverbund wie die Konferenz wollen für die wachsende Open-Science-Bewegung in Deutschland und international fokussierte Plattformen bieten, um Ideen und Erfahrungen auszutauschen und gleichzeitig Forschungskooperationen anzubahnen. Dabei stehen aktuell Forschungsdaten und ihre Nachnutzung im Vordergrund. Es geht um Fragen, wie Forschungsdaten behandelt, gespeichert und zur Verfügung gestellt werden sollten, um ihre Wiederverwendung zu unterstützen. Der thematische Schwerpunkt der Konferenz lag auf der Umsetzung fairer Prinzipien bei der Behandlung von Forschungsdaten, wie sie von der Initiative FORCE11 als „FAIR Data Principles[2]“ vorgeschlagen wurden.

Typisch für eine Konferenz der Science 2.0-Generation war ihr ein eigenständiges Barcamp vorgeschaltet, das in den Räumen der Wikimedia Deutschland stattfand und ausgebucht war. Das durch einen sogenannten „Ignition Talk“ von Lambert Heller von der TIB Hannover eingeleitete Barcamp umfasste fünf Sessions, die im Online-Radio übertragen und dadurch auch zum großen Teil dokumentiert wurden[3].

Die Konferenz selbst, mit 200 Teilnehmenden aus 35 Ländern, bot sowohl eingeladene Hauptvorträge bzw. eine Podiumsdiskussion als auch insgesamt 19 Kurz- bzw. Posterbeiträge, die aufgrund von Einreichungen durch eine Reviewgruppe ausgewählt wurden.

Die Konferenz startete nach der Begrüßung durch Georg Schütte vom zuständigen Bundesministerium BMBF mit einem Statement der Europäischen Kommission: Jean-Claude Burgelman legte mit seinem Beitrag unter dem Titel „State of Play of open data policies and EOSC“ die aktuelle EU-Politik zur Unterstützung offener Forschungspraxis dar und ging dabei insbesondere auf die Europäische Open Science Cloud[4] ein, deren Eröffnung (Launch) für November geplant ist. Dabei stellte er auch das enge Zusammenspiel mit dem Aktionsplan und den Empfehlungen der Initiative FAIR dar.

Mitveranstalter Klaus Tochtermann, Direktor des ZBW, nannte in seiner Einführung drei thematische Schwerpunkte: praktische Erfahrungen mit und ein Nachdenken über Open-Science-Prinzipien sowie Einblicke in die neuesten Entwicklungen beim Management von Forschungsdaten.

In zwei Beiträgen aus den Niederlanden und Großbritannien wurden nationale Konzepte und Initiativen zur Unterstützung von FAIR-Prinzipien dargestellt. Karel Luyben (TU Delft) ging dabei sehr konkret auf praktische Maßnahmen zur Implementation der Prinzipien und zur Beseitigung von Barrieren ein, während Sarah Jones (Universität Glasgow) vor dem Hintergrund empirischer Daten politische Strategien skizzierte, die vor allem auf den engen Zusammenhang der Ziele Offenheit, Fairness und sauberes Datenmanagement abheben.

Abbildung 1 Klaus Tochtermann spricht. (Foto: Dr. Luzian Weisel)Weitere Bilder und Logos unter: https://www.open-science-conference.eu/media/ [22.6.2018].
Abbildung 1

Klaus Tochtermann spricht. (Foto: Dr. Luzian Weisel)[5]

Nach der Pause folgte Wolfram Horstmann, Direktor der Göttinger Staats- und Universitätsbibliothek. Er befasste sich zwar auch spezifisch mit dem deutschen Umgang mit Open Science, bettete diesen Bericht aber in eine mit internationalen Daten und Beispielen erläuterte strategische Betrachtung ein. Diese konzentrierte sich darauf, dass Open Science mit der Open-Access-Bewegung einen Vorläufer habe, aus deren Entwicklung man möglicherweise lernen könne. Eine seiner zentralen abschließenden Schlussfolgerungen war, dass Open Science weniger ein politisch zu erzwingendes Endziel sein dürfe als vielmehr eine auf freiwilliger Einsicht beruhende Wandlung der Forschungskultur über einen längeren Zeitraum. Und ganz praktisch gesehen stellte der Beitrag dar: wie macht eine Universitätsbibliothek hochschulintern Marketing für Open Science bei den Forschenden, wie werden lokale und nationale mit europaweiten Initiativen vernetzt?

Natalia Manola (Universität Athen) berichtete von der europäischen Initiative „OpenAIRE“. Der Vortrag knüpfte an den vorigen an, denn auch hier wurde der Kulturwandel als zentraler Treiber von Open Science betont. OpenAIRE setzt dabei vor allem im Bereich des Datenmanagements (RDM) an und versucht, über die Etablierung fester Umgangskulturen mit Forschungsdaten die entscheidende Voraussetzung für den Austausch zu schaffen.

Nach der Mittagspause wurden in sehr rascher Folge in 10 sogenannten Lightning-Talks Poster präsentiert, die sich im Reviewprozess durchgesetzt hatten und zusammen mit weiteren in einer anschließenden Poster-Session ausgestellt wurden.

Nach der Kaffeepause folgten zwei Vorträge von Vertretern eher unerwarteter Zielgruppen. Stefan Bender von der Deutschen Bundesbank und dem German Data Forum ging auf ethische Aspekte bei der Erzeugung von Mikrodaten im Finanzwesen in den Zeiten von Big Data ein. Das Schließen von Datenlücken durch „Data Sharing“ und „Trust“ sei neben etlichen weiteren ein wichtiger Qualitätsparameter. Felix Schönbrodt von der Fakultät für Psychologie und Pädagogik der Maximilians-Universität München sprach über die bisher noch weitgehend schwach ausgeprägte Bereitschaft in den meisten Fachdisziplinen, sich Open-Science-Prinzipien zu öffnen. Seiner Meinung nach verstärkt die momentane Praxis die Tendenz zu „bad science“. Er präsentierte Ideen, wissenschaftliche Strukturen und Prozesse zu reformieren, um die Wertevorstellungen von Forschern Open Science gegenüber in Einklang zu bringen mit ihrem tatsächlichen Handeln.

Der zweite Konferenztag begann mit den Grußworten von Matthias Kleinert, Präsident der Leibniz-Gemeinschaft, zum Thema „Science in the Openness“. Er betonte noch einmal die Notwendigkeit der Öffnung der Wissenschaft, um das Vertrauen der Gesellschaft in die Wissenschaft zu stärken und die Wirkung von Wissenschaft insgesamt zu erhöhen. Der Beitrag „Making FAIR data a reality“ von Simon Hodson (CODATA) stellte unter anderem die Aufgaben der „European Commission Expert Group on FAIR Data“ vor. Dazu gehört die Entwicklung eines „FAIR Data Action Plan“, in dem konkrete Maßnahmen benannt werden, um die FAIR-Data-Prinzipien als gängige Praxis zu etablieren. Auch soll ein Vorschlag für Indikatoren zur Messung des Fortschritts bei den einzelnen Komponenten des FAIR-Prinzips erarbeitet werden. Bei der Etablierung der Prinzipien wird als große Herausforderung angesehen, innerhalb und zwischen den Fachgemeinschaften ein Verständnis dafür zu entwickeln, wie Daten interoperabel und nachnutzbar gemacht werden können.

Der Vortrag „The European Open Science Cloud: moving from policy to practice” von Juan Bicarregui (Science and Technology Facilities Council) stellte die Planungen zur Realisierung der European Open Science Cloud (EOSC) vor. Hierzu müssen u. a. eine cloudbasierte Infrastruktur sowie eine europaweite Governancestruktur geschaffen werden. Außerdem soll die Bereitschaft, Daten zu veröffentlichen, durch Bewusstseinsbildung und Anreizsysteme erhöht werden. Schließlich braucht es eine breite Nutzerbasis für die Nachnutzung der Daten. In einer Pilotphase (EOSCpilot) sollen zunächst die Voraussetzungen geschaffen werden. Ziel ist der Aufbau eines länder- und disziplinübergreifenden Stakeholdernetzwerks sowie die Entwicklung von ersten Demoversionen aus unterschiedlichen Disziplinen, um die Umsetzbarkeit, Interoperabilität und Nutzungsmöglichkeiten zu demonstrieren. Abschließend stehen die Etablierung eines Governance-Rahmens und die Entwicklung einer Open Science Policy sowie von Best-Practice-Beispielen auf dem Programm. In sich daran anschließenden Projekten, die teilweise auch parallel laufen, wird daraus bis 2022 die EOSC entwickelt.

Nach der Pause gab Robert Jones Einblicke in die Dateninfrastruktur des CERN („Preparing for High-Luminosity LHC“). Dieses verfügt über ein weltweites Netzwerk an Rechenzentren, die Rechenleistung und Speicherplatz für die Analyse der Daten des LHC bereitstellen. In Deutschland nimmt das KIT teil. Ein Teil der Daten wird auch über http://opendata.cern.ch frei zur Verfügung gestellt. Um die sehr großen Datenmengen, die vergangene und auch künftige Läufe des LHC generieren werden, überhaupt verarbeiten und analysieren zu können, setzt das CERN auf technische Weiterentwicklungen, da diese Datenmengen sonst nicht mehr zu bewältigen sein werden.

Eine fachliche Sicht aus der Perspektive der Lebenswissenschaften auf das Thema „Open Science“ brachte der Vortrag „Translational failure in preclinical research“ von Emily Sena (Universität Edinburgh). Vorklinische Ergebnisse erweisen sich im Rahmen von klinischen Studien vielfach als nutzlos. Die Gründe dafür sind unter anderem: unklare Darstellung von Experimenten, Auslassen von Informationen und das Übertreiben bei der Beschreibung von Effekten. Dieses Vorgehen ist auf ein problematisches Anreizsystem zurückzuführen. Metastudien belegen, dass nur knapp über 30 Prozent der Studien teilweise oder ganz reproduzierbar sind. Dieser Umstand könnte mit Open Science verbessert werden: Tools wie die „ARRIVE Guidelines Checklist[6]“, „protocols.io[7]“ und „Experimental Design Assistant[8]“ könnten für Klarheit sorgen, wie Studien durchgeführt wurden. Registrierungen von Studien und Reports sollen die Transparenz zusätzlich erhöhen. Einige Zeitschriften nehmen Publikationen aus nicht-registrierten Studien erst gar nicht mehr an. Bei der Registrierung von Reports würde das Peer Review nicht erst bei der Veröffentlichung der Ergebnisse ansetzen, sondern bereits nach der Formulierung des Studiendesigns. Zudem setzt dies neue Anreize: Forschende konzentrieren sich darauf, das beschriebene Design möglich akkurat umzusetzen, statt besonders spektakuläre Ergebnisse zu generieren.

Das von Klaus Tochtermann (ZBW) moderierte Panel zum Abschluss der Konferenz, besetzt mit Marc Rittberger (DIPF), Mercè Crosas (Havard University), Natalia Manola (Universität Athen) und Hans Pfeiffenberger (Alfred-Wegener-Institut), diskutierte über grundsätzliche Aspekte der FAIR-Data-Prinzipien sowie den Zugang zu Daten. Als Vorteile der FAIR-Prinzipien wurden die pragmatischen und „leicht verdaulichen“ Formulierungen genannt sowie die Möglichkeit der Übertragung auf die Datensituation in unterschiedlichen Fachgebieten und die Betonung der Maschinenlesbarkeit. Gleichzeitig sind die Prinzipien auch eine Hilfe für Repositoriumsbetreiber. Insgesamt stellen sie einen moralischen Imperativ dar und lassen sich auch auf andere wissenschaftliche Arbeitsergebnisse wie Software übertragen. Allerdings adressieren die FAIR-Prinzipien nicht die Qualität und Verlässlichkeit von Daten. Hier besteht auch noch Einigungsbedarf auf Seiten der wissenschaftlichen Gemeinschaft. Gleiches gilt auch für die Beschreibung der Daten. Hier sahen die Diskutierenden noch Unterstützungsbedarf. Wissenschaftlerinnen und Wissenschaftler sollen durch Datenkuratorinnen und -kuratoren bei der Bereitstellung guter Metadaten unterstützt werden, die wiederum ebenfalls auf den FAIR-Prinzipien beruhen sollten. Die Institutionen sind dabei in der Pflicht, Unterstützungsleistungen anzubieten.

Eine Schlüsselrolle können zudem die Fachgesellschaften spielen. Gute Beschreibungen der Daten mittels Metadaten sichern die Auffindbarkeit und sind eng verknüpft mit der Zugänglichkeit; was dies allerdings konkret bedeutet, darüber muss jeweils noch Konsens hergestellt werden, weil „Zugänglichkeit“ nicht zwangsläufig mit „freier Zugänglichkeit“ („Openness“) gleichgesetzt werden kann. Schnell deutlich wird das bei personenbezogenen Daten, die nicht veröffentlicht werden dürfen. Gleichzeitig gibt es auch Datenbestände, die zwar offen, aber nicht FAIR sind (wie z. B. Daten der Verwaltung). Im Hinblick auf die Zugänglichkeit von Daten ist auch zu beobachten, dass Verlage verstärkt Datenbestände aufkaufen. Eine Herausforderung bleibt nach wie vor, wie man aus den Daten Wissen generiert. Hierzu muss auch die Interoperabilität zwischen den Daten gewährleistet sein; ideal wäre die Kombination von Daten mit der Möglichkeit des Hin- und Herspringens.

Angesichts der angestrengten Bemühungen der Vortragenden, Open Science als zukünftige Forschungspraxis zu begründen, konterkarierte ein kurzes Statement eines Teilnehmers in der Abschlussdiskussion diesen Elan. Der Teilnehmer äußerte, er sei als Umweltwissenschaftler tätig und beschäftige sich fortwährend mit brennenden Themen wie dem Klimawandel; sein Ziel sei es einzig und allein, Lösungen zu finden für diese großen Herausforderungen der Welt. Deshalb könne er kaum nachvollziehen, wie sich Expertinnen und Experten eines Fachkongresses mit derart nebensächlichen Fragestellungen wie Repositorien oder Open Badges auseinandersetzen könnten. (Wobei der Teilnehmer – so in einem persönlichen Kontakt – sich durchaus als „Open Science-Advokat“ outete, der seine Forschung und die Erkenntnisse gänzlich Open Access publiziert.)

Diese Aussage spiegelt die Haltung vieler Forschender wider. Sie macht aber auch deutlich, dass viele Vortragende den Finger in die richtige Wunde legten, wenn sie darauf verwiesen, dass Open Science auf einer Wertekultur basiert, für die es einer gänzlich neuen Einstellung der Wissenschaft zum gesamten Forschungszyklus bedarf. Forschende möchten die für ihre Forschungsaufgaben geeignetsten Tools und Ressourcen einsetzen. Nur wenn diese im Rahmen von Open Science besser und schneller zur Verfügung stehen, macht ein solcher Kulturwandel für die Forschenden Sinn. Dabei drängt sich auch zunehmend die Frage nach der Art und Weise sowie der Ausgestaltung einer nachhaltigen Open-Access-Zukunft auf (Ross-Hellauer und Fecher, 2017)[9]. Trotz all der vielversprechenden und interessanten Initiativen und Projekte rund um Open Access und Open Science wird es wohl noch ein langer Weg sein, bis die gesteckten Ziele erreicht werden können.

Die Tagung wurde zeitgleich unter dem Hashtag #osc2018 durch ein intensives „Twittergewitter“ kommentiert.

Die Abstracts und Präsentationen zu den Vorträgen sind abrufbar unter https://www.open-science-conference.eu/programme/.

„What next in 2019? The real work starts. Let’s make it happen together!“ Jean-Claude Burgelman nahm es zum Schluss seines Eröffnungsstatements bereits vorweg. Und in einem Jahr sind wir vielleicht schlauer: Die nächste Open Science Conference findet vom 19. bis 20. März 2019 in Berlin statt, ebenfalls wieder in Verbindung mit einem Barcamp am Vortag.

Deskriptoren: Tagung, Wissenschaft, Datendokumentation, Open Science, Forschungsdaten, Forschungsdatenmanagement, FAIR Data

Published Online: 2018-08-22
Published in Print: 2018-08-08

© 2018 Walter de Gruyter GmbH, Berlin/Boston

Downloaded on 5.3.2024 from https://www.degruyter.com/document/doi/10.1515/iwp-2018-0031/html
Scroll to top button