Jump to ContentJump to Main Navigation
Show Summary Details
More options …

Information - Wissenschaft & Praxis

Ed. by Reibel-Felten, Margarita


CiteScore 2017: 0.10

SCImago Journal Rank (SJR) 2017: 0.151
Source Normalized Impact per Paper (SNIP) 2017: 0.384

Online
ISSN
1619-4292
See all formats and pricing
More options …

Auf Sicht fahren – APE-Konferenz 2016

Elgin Helen Jakisch
Published Online: 2016-05-03 | DOI: https://doi.org/10.1515/iwp-2016-0030

Die wissenschaftlichen Verlage stecken seit den 2000er Jahren mitten in einem Strukturwandel. Das etablierte Verlagswesen ist mit seinen Produkten inzwischen online, befindet sich aber im disruptiven Spannungsfeld zwischen digitalen Infrastrukturen, Open Access, Science 2.0 und dem Verhalten seiner Kunden, den Wissenschaftlern, im Social Web. Wer ist künftig auf der Überholspur? Wo geht die Reise hin? Welche Wege wählt die Wissenschaftscommunity für den Informationsaustausch? Ein Bericht über die Konferenz Electronic Publishing in Europe mit dem Thema „The Digital Agenda: the Road Ahead for Scholarly Communication“, die vom 19. bis 20. Januar 2016 in Berlin stattfand.

Seit elf Jahren mobilisiert der engagierte Veranstalter Arnoud de Kemp, ehemaliger DGI-Präsident, die akademische Verlagswelt zur jährlichen Konferenz nach Berlin. Das Programmkomitee versprach diesmal einen direkten Blick auf die Situation der Akteure zu richten und eine Annäherung der Interessen zu versuchen. Die Themen lauteten: „research, ethics and output, quality control, electronic libraries and repositories, information infrastructure, policies, reputation, sustainable models, long-term financing“. Der voll besetzte Saal der Akademie der Wissenschaften bestätigte das Konzept. Ein vielversprechendes, zweitägiges Programm mit hochkarätigen Rednern sowie ein Pre-Conference-Day mit dem Titel „Working on the digital Highway“ erwartete die vorwiegend aus den Managementebenen der akademischen Verlage, zentralen Forschungseinrichtungen und Universitäten stammende Teilnehmerschaft.

Michael Mabe (STM) eröffnet: „What more can we do to innovate science?“ (Bild: E. Jakisch).
Abbildung 1:

Michael Mabe (STM) eröffnet: „What more can we do to innovate science?“ (Bild: E. Jakisch).

Bisher war die Rollenverteilung zwischen Wissenschaft und Verlagen unangefochten, wie man in der unterhaltsamen „Lecture“ von Prof. Dr. Klaus G. Saur erfahren konnte, der über die Geschichte der Wissenschaftsverlage seit 1500 referierte. Aber mit den Möglichkeiten des Internets verschwimmen die Rollen und verändern sich Geschäftsmodelle. Selbst so erfahrene Verleger wie Prof. K. G. Saur tun sich mit Prognosen für das 21. Jahrhundert schwer. „Seit dem Jahr 2000 haben wir Wikipedia, Open Access und Books on Demand – und da sind wir jetzt. Etwas über die Zukunft zu sagen ist schwierig“, so Saur. Damit fasste er die Problematik des momentanen Strukturwandels gut zusammen.

Der Weg zur Infrastruktur des Wissens führt über Open Science

Bei den Europäischen Forschungsgesellschaften, so Stephan Kuster (Science Europe, Brüssel), der über die Verbandsarbeit von Science Europe referierte, haben die Qualität von wissenschaftlicher Kommunikation sowie die Transparenz von Forschungsergebnissen einen hohen Stellenwert. 70 Prozent der europäischen Organisationen haben bereits eine Open Access Policy, 50 Prozent davon sind auf dem „goldenen Weg“, Tendenz steigend.

Herrscht nun auf dem „digital Highway“ Linksverkehr, wenn Max-Planck ankündigt, Open Access (OA) sei der goldene Weg in die Zukunft? Dr. Ralf Schimmer von der Max Planck Digital Library (als Vertretung für den angekündigten Dr. Ulrich Pöschl) erläuterte die Ergebnisse eines im April 2015 von der Max-Planck-Gesellschaft (MPG) veröffentlichten White Paper (s. a. http://dx.doi.org/10.17617/1.3) mit Signalwirkung für öffentliche Forschungseinrichtungen. Digitale Publikationsmodelle könnten sich endgültig ins Gegenteil verkehren, wenn sich herausstellt, dass der OA-Weg gut ausgebaut, verkehrssicher und kostengünstiger für die forschenden Einrichtungen ist, als das bisherige Subskriptionsmodell. Die Tätigkeit des Verlegens müsste nicht vom finanziellen Modell dahinter abhängen. „OA seems to be fincanciable without any risk“, so Schimmer, und erläuterte, dass im Schnitt der MPG ein konventioneller Artikel 5000 Euro und ein OA-Artikel etwa 2000 Euro kosten würde. Bei diesem Shift könnten erhebliche Umsatzeinbußen entstehen, wenn die Entscheidung der MPG einen Dominoeffekt hätte und andere Forschungseinrichtungen folgen sollten. Die Unruhe im Auditorium der Verleger war mit Händen zu greifen. Wäre es nach 400-jähriger Zusammenarbeit zwischen Wissenschaft und Verlagswelt nicht angebracht gewesen, vor einer solchen Entscheidung die Verlage in einen Dialog einzubinden, so eine Frage aus dem Publikum. Schimmer verteidigte die interne Entscheidung mit der Verpflichtung gegenüber den Trägern und der Gesellschaft beim Umgang mit Finanzmitteln.

Nicht alle Länder, die Forschung finanzieren, setzten allein auf Open Access, so beruhigte Dr. Philippe Terheggen (Elsevier Journals) das Plenum. USA und China seien noch zurückhaltend und traditioneller – und die Länder, die am meisten publizierten. Die Finanzierung der Abonnements sei in der digitalen Welt nicht das einzige Problem, mit dem sich Verlage konfrontiert sehen. Terheggen rechtfertigte die Kosten auch mit der Finanzierung neuer Services und einer digitalen Infrastruktur. Deshalb müsste das Geld den Verlagen weiterhin zur Verfügung stehen.

Prof. Dr. Barend Mons (Leiden University Medical Center) war mit seiner Eröffnungskeynote schon einige große Schritte weiter gegangen. Wenn einem die Daten gehören und sie in maschinenlesbaren Repositorien lagern, kann man noch andere Dinge damit tun, als sie nur zu archivieren. Wie schon Schimmer in seinem Vortrag betont hatte, dass die „ownership of data“, essentiell sei, damit Forscher wieder in die Lage versetzt würden, in ihre ursprüngliche Tätigkeit des Rezipierens, Schreibens und Forschens ohne Grenzen zurückzukehren, propagierte Mons eine Partnerschaft von Verlag und Roboter. Diese würden leider von den bekannten Hürden wie Bezahlschranken, fehlenden Off-Campus-Zugänge, nationalen Urheberrechten und toten Links daran gehindert, endlich effektiv zusammen zu arbeiten. Er verglich die Auswertung von Big Data mit einem Helikopterflug über eine Landschaft, der es einem ermöglicht, Strukturen zu entdecken, die ein Spaziergang durchs Feld nicht offenbart. Er visionierte, dass Partnerschaften mit Data Scientists neue Möglichkeiten der wissenschaftlichen Rezeption ermöglichen könnten, wenn die Suchstrategien der Algorithmen öffentlich werden. Warum nicht alle global im Internet verfügbaren Informationsquellen für neue Entwicklungen nutzen?

Mit der Aussage „Information flow is not stopping in front of frontiers“, versuchte Ulrich Korwitz (Direktor der ZB MED) das Auditorium für die in Deutschland existierende föderale Struktur der Finanzierung von Forschung und für die Arbeit des Rates für Informationsinfrastrukturen (rfii) zu sensibilisieren. Sabine Brünger-Weilandt, Geschäftsführerin des FIZ-Karlsruhe, stellte die Initiativen des Rates vor, in dem ein Joint Venture aller Beteiligten (User, Provider, Geldgeber, Wissenschaftler und nationale Träger, Museen, Bibliotheken, Archive u. a.) die Zukunft des Zugangs zu Forschungsdaten sichern soll. Hier geht es um IT, Prozesse und nachhaltige Geschäftsmodelle. Ihr Beitrag war eine gute Überleitung zur Paneldiskussion des ersten Tages, die nach einer neuen Infrastruktur für die wissenschaftliche Kommunikation suchte. Wir stehen einem Wust von Lösungen gegenüber („digital plumbing of infrastructures“), die ineinander laufen, so Alice Meadows von ORCID. Dabei wäre eine standardisierte Wissenschaftskommunikation mit dem Schwerpunkt Speicherung von Forschungsdaten notwendig. Bleibt die Frage nach der Finanzierung.

Money matters

Ist am Ende doch entscheidend, wo das Geld herkommt und wo es hingeht? Die Nachmittagssession des ersten Tages griff die Finanzierungsfrage wieder auf. Warum gibt es wenig Vertrauen bei der Vergabe und Nutzung von öffentlichen Geldern, fragte sich Kent Anderson (Caldera Publishing Solutions, USA). Der Trend ist besorgniserregend, denn Wissenschaftler stehen dabei mehr unter Druck als früher. Die Angst vor Kürzungen von Projektgeldern führe dazu, dass man nur an die Mittel für das nächste Projekt denke und nicht mehr in Ruhe forschen könne. Das hat Auswirkungen auf Projekte, die eigentlich für eine langfristige Forschung angelegt sind. Es gäbe genug Fördergelder, so Ian Russel (Society of Endocrinology, UK). Öffentliche Förderung wirke sich auf Investitionen aus, die wiederum der Allgemeinheit zu Gute kommen könnten.

Ein effektiveres Lobbying der Wissenschaft könnte unter Umständen Forschungsbudgets erhöhen. Denn, so Russel, 79 Prozent der Öffentlichkeit wolle auch eine öffentlich finanzierte und damit unabhängige Forschung. Todd Toler (Wiley) ermutigte die Verlage, die Wissenschaft bei diesen Fragen mit effizienten Produkten zu unterstützen: digital first, lautete sein Appell. Hat man in den 2000er Jahren noch das „e-Modell“ über das „p-Modell“ gestülpt, ginge es jetzt endlich darum, weniger Zeit in „page proofing“ zu vergeuden. Stattdessen sollte technisch gewährleisten sein, dass Links funktionieren, Tags gesetzt sind, die Lizenzen einfach, der Zugang gesichert und Zugriffe auf alle Quellen möglich sind. Dann könnten die Geldgeber nicht nur von Open Access profitieren, sondern auch einen Schritt in Richtung Open Science, Open Data und Open Standards gehen. „Share data, have fun, be independent, become famous and make a lot of money!“ Folgen Sie den Anweisungen eines Todd Toler!

Pause im virtuellen Raum: Was twittern die Kollegen? (Bild: E. Jakisch).
Abbildung 2:

Pause im virtuellen Raum: Was twittern die Kollegen? (Bild: E. Jakisch).

Sharing Scientists

Wie lassen sich Social Media Elemente in den Veröffentlichungsprozess inkludieren, ohne das bisherige Verfahren aufzulösen? Impact-Faktoren, ethische Fragen und Glaubwürdigkeit von Forschung sowie neue Geschäftsmodelle üben einen großen Druck auf die Wissenschaftler und Verlage aus. Dr. Stuart Taylor (Royal Society) legte in seinem Beitrag den Finger in die Wunde. Das bereits im Netz stattfindende kollaborative Forschen könnte sich auch auf die Veröffentlichungsprozesse niederschlagen. Das Peer-Review-Verfahren wird als zu langsam und ineffizient in der digitalen Welt eingestuft. Soll man also gleich veröffentlichen und „den Schwarm“ bewerten lassen? Welcher Weg ist am Ende glaubwürdiger? Der Peer oder der Experte im Netz? Es ist fraglich, ob der Zeitschriftenartikel immer noch das zentrale Kommunikationsmedium sei oder ob digitale Forschungsergebnisse nicht vielmehr fragmentiert vorlägen, so Taylor. Deshalb müssten die bewährten Verfahren um neue Ansätze und Inhalte ergänzt werden.

Seit 2002 war klar, dass alle Journale online gehen, so auch John Sack (High Wire), bloß hatte man bisher nur ein „e-“ vor die Begriffe gehängt und dies als Innovation verkauft. Das reiche nicht mehr aus, wolle man in einer netzwerkähnlichen Kommunikationsstruktur als Verlag bestehen. Heutige Treiber für eine digitale Akzeptanz sind Bequemlichkeit, Preis und auch Trend. Wissenschaftler sind im virtuellen und realen Leben Konsumenten, beide Welten verschwimmen. Dass wissenschaftliche Autoren ihre Ergebnisse auch in anderen Kanälen wie Youtube oder Social Media veröffentlichen, bleibt bisher von Verlagen weitestgehend unberücksichtigt. Verlage unterstützen ihre Autoren auch nicht dabei, größere Mengen von Artikeln zu rezipieren. Sack nannte als Beispiel, dass gelinkte Referenzen nur zum Artikel, nicht aber zur Aussage im Text springen, von Fachbüchern mal ganz abgesehen. „Viel Spaß beim Suchen“, so Sack. Auch er sieht algorithmische Potentiale für die Auswertung von Fachliteratur.

Die Diskussionsrunde der Wake-up-Session am zweiten Tag erkundete, ob die Erfahrungen aus der Sharing Economy Verlage bereichern könnten, da Innovationen aus diesem Bereich schon einige etablierte Branchen erschüttert hatten. „Sharing is the new buying“, so eröffnete Richard Padley (Semantico). Kann man also aus der Not eine Tugend machen und beispielsweise Scholarly Collaboration Networks (SCN) besser einbinden? Wissenschaftler treffen sich virtuell in sozialen Netzwerken genauso wie offline, teilen Artikel, tauschen Erfahrungen aus.

Verlage sehen das Teilen von abonnierten Inhalten naturgemäß mit gemischten Gefühlen. Hier widersprechen sich Verlags- und Wissenschaftsinteressen unmittelbar. Deshalb wurden die „STM voluntary principles“ formuliert (s. a. http://www.stm-assoc.org/stm-consultations/scn-consultation-2015/), die ein konformes Verhalten in sozialen Netzwerken empfehlen. Alles gut und schön, doch wer liest das? Ein Wissenschaftler, der einen guten Artikel teilen möchte, kümmert sich nicht um eine Policy. Bisher waren Regeln im Umgang mit Literatur intransparent und von Verlag zu Verlag unterschiedlich. Verlage müssen mit der Dynamik neuer Kommunikationsformen leben und auch damit, dass sie die letzten 15 Jahre ihre Rechte nicht transparent kommuniziert haben. Letztlich könnte der Verlag profitieren, wenn ein Artikel aus seinem Portfolio in den Netzen kursiert und die SCNs könnten einen ähnlichen Effekt wie die CrossRef-Initiative auslösen. Das „Sharing“ sollte man eher als wissenschaftliche Aktivität betrachten und nicht als ein wirkliches oder gar bedrohliches Geschäftsmodell.

In der „Dotcom-Session“ präsentierten fünf Startups ihre Produkte zur Unterstützung des Informationsaustausches der Wissenschaft. Das Publikum war aufgefordert, am Ende den Favoriten zu wählen. Publons.com verspricht den Peer-Review-Prozess zu beschleunigen und Peers durch ein Credit-Verfahren zu motivieren. Die Effizienz ihrer Arbeit kann man in einer Social Media-Plattform nachprüfen. Drayd (http://datadryad.org/) bietet einen Rundumservice, Publikationen mit Links, DOI und anderen Daten anzureichern und in den Peer-Review-Prozess mit Hilfe von Kuratoren einzubinden. Das könnte Zeit im Veröffentlichungsprozess sparen. Zapnito.com ist eine Knowledge-Sharing-Platform von und für Experten und Wissensmanager, die aus den „Verstecken“ ihrer Unternehmen hinaus ins Netz gehen und sich austauschen können. Bookmetrix.com ist von Springer initiiert und will den Einfluss von E-Books aufdecken, indem sichtbar wird, wie oft, wo und wann ein Buch zitiert, diskutiert und verwendet wurde. Overleaf.com unterstützt beim kollaborativen Schreiben von Artikeln und will Forschung, Lehre, Unternehmen und Verlage in einem Prozess miteinander verbinden. Alle Repräsentanten taten sich schwer, auf den Punkt zu bringen, was das Besondere an ihrem Service ist und wo er sich von den etablierten Prozessen abhebt. Der Favorit war Publons, in den inzwischen SAGE investiert (Pressemitteilung 19. Januar 2016, s. a. https://uk.sagepub.com/en-gb/eur/press/sage-publishing-makes-investment-in-publons-the-peerreview-innovators-with-a-mission-to-speed).

Reputation um jeden Preis?

„Policies and Reputation“ der Wissenschaft(ler) sind ein Phänomen, mit dem sich David Nicholas (CIBER Research Ltd.) beschäftigte. In Zeiten von digitalen Likes und Credits innerhalb der Social Networks gibt es eine Tendenz, dort präsent zu sein. „Reputation matters,“ so Nicholas. Die Aktivitäten der Wissenschaftler werden, zusätzlich zu Forschung, Publikation und Zitierung, mit weiteren digitalen Maßstäben bewertet, wie den Grad der Vernetzung durch Kontakte und Feedback in Social Networks. Dies ist inzwischen kein Zufall mehr, sondern gehört zum Alltag und könnte die Wichtigkeit von reinen Zitierungen ablösen.

Wissenschaftliches Fehlverhalten wiederum, wie falsche Zitate oder gar Plagiate und der damit einhergehende Verlust der Glaubwürdigkeit, werfen bei steigender Anzahl von Publikationen die Frage nach der Ethik in der Forschung auf. Es scheint zu viel Druck da zu sein, gute Ergebnisse zu liefern. Auf dem Abschlusspanel diskutierten Verlagsvertreter, ob es auf dem „digital Highway“ neue Verkehrsregeln geben muss. Hat Open Access das Potential, Fehlverhalten zu verhindern, weil Autoren der Schwarmintelligenz ihrer Forscherkollegen weltweit stärker ausgesetzt sind? Verlag und Forscher gehen auch hier eine Symbiose ein, wenn es um die Integrität ihrer Arbeit geht. Fehlverhalten wirkt sich auf alle aus: Autoren, Verlage, Rezipienten. Zwischengeschaltete Prozesse könnten im Vorfeld helfen die Qualität einer Veröffentlichung zu sichern und die Institutionen zu unterstützen, die Autoren und Peers hervorbringen. Die Verlage verweisen auf die Selbstreinigungskräfte der Wissenschaft. Sie können und wollen nicht für ethische Verstöße verantwortlich sein. Es gibt bisher kein unabhängiges Kontrollgremium, das „toxische Artikel“ ahndet. Hier kann höchstens eine Erziehung über moralische und praktische Konsequenzen helfen.

Das vollgepackte Tagungsprogramm fokussierte sich auf die Symbiose zwischen Autor und Verlag. Es beleuchtete das digitale Umfeld, in dem Forschungsergebnisse zunehmend fragmentiert vorliegen. Es gilt, zum „Rohstoff Information“ und seiner Rezeption zurückzukehren – allerdings auch mit effizienter Unterstützung durch Verlage. Die Konferenz hat mit 30 Referenten aus dem Umfeld der „Scholarly Communication“ aus 16 Ländern dazu einen wichtigen Beitrag geleistet. Das digitale Zeitalter verlangt neue Standards für verlegerische Entwicklungen. Auch wenn klar ist, dass neue und alte Geschäftsmodelle parallel fortbestehen, werden einige Bereiche Federn lassen müssen.

Der „Pre Conference Day“ am 18. Januar stand im Zeichen von „Working on the (digital) Highway“. Es ging um die im Verlag tätigen Menschen, ihre Qualifikationen und Einsatzmöglichkeiten. Bei den Verlagen hat inzwischen ein Wandel vom Verkauf von Produkten hin zu Dienstleistungen stattgefunden. Die digitale Arbeitswelt verlangt nach flexiblen Umsteigemöglichkeiten zwischen den Providern und Verlagen. Kurzzeitige Projekte für Interim-Mitarbeiter könnten auch neue Chancen für Infoprofis bieten, die vermehrt zwischen informationsvermittelnden Einrichtungen und Verlagen springen werden. Auf lange Sicht könnte nicht nur eine Branche durchlässiger werden, sondern auch die Möglichkeiten, hier tätig zu sein. Eigentlich doch gute Aussichten.

Programm und Videoaufzeichnungen der Veranstaltung sind unter http://www.ape2016.eu zu finden, die Diskussionen bei Twitter unter #APE2016. Die nächste Academic Publishing in Europe APE 2017 wird vom 17. bis 18. Januar wie gewohnt in der Berlin-Brandenburgischen Akademie der Wissenschaften in Berlin stattfinden,

Weitere Artikel zur APE-Konferenz 2016

Vera Münch: Akademisches Wissen wird zum internationalen Gemeingut: Bericht von der APE 2016. In: B.I.T.-Online, Heft 1 (2016), s. a. http://www.b-i-t-online.de/heft/2016-01-reportage-muench.pdf

Elisabeth Simon: Academic Publishing in Europe -Übergang der Wissenschaft zu Open Access. http://www.password-online.de/academic-publishing-in-europe-uebergang-der-wissenschaft-zu-open-access/

Charlie Rapple, Phill Jones, Alice Meadows: „Research Mechanics“, OA, Ethics, and More: Three Chefs Musings on APE 2016. http://scholarlykitchen.sspnet.org/2016/02/03/research-mechanics-oa-ethics-and-more-three-chefs-musings-on-ape-2016/

Deskriptoren: Tagung, Verlag, Autor, Wissenschaftler, Forschung, Finanzierung, APE 2016

Elgin Helen Jakisch ist mit U&B Interim-Services, Berlin selbstständig und Mitglied im DGI-Vorstand

About the article

Published Online: 2016-05-03

Published in Print: 2016-05-01


Citation Information: Information - Wissenschaft & Praxis, Volume 67, Issue 2-3, Pages 137–141, ISSN (Online) 1619-4292, ISSN (Print) 1434-4653, DOI: https://doi.org/10.1515/iwp-2016-0030.

Export Citation

© 2016 Walter de Gruyter GmbH, Berlin/Boston.Get Permission

Comments (0)

Please log in or register to comment.
Log in