Skip to content
Publicly Available Published by De Gruyter Saur August 22, 2018

Open Citations – Die Transparenzforderungen der San Francisco Declaration on Research Assessment (DORA)

Open Citations. The San Francisco Declaration on Research Assessment (DORA) demands transparency in quantitative evaluation
Citations ouvertes. Les exigences de transparence de la déclaration de San Francisco sur l’évaluation de la recherche (DORA)
  • Terje Tüür-Fröhlich

    Dr.in phil. Terje Tüür-Fröhlich ist Lektorin am Institut für Philosophie und Wissenschaftstheorie an der Johannes Kepler Universität (JKU) Linz/Österreich (Wissenschaftsforschung, Kultur- und Medientheorie, Informationskompetenz und Informationsethik). Ihre Forschungsinteressen sind Datenqualität und endogene Fehler in Zitatdatenbanken und deren Auswirkungen v. a. auf Wissenschaftlerinnen und Wissenschaftler, aus non-ascii- bzw. LOTE (languages other than English)-Sprachräumen, wie auch für deren Institutionen in der Ära permanenter Evaluation.

    EMAIL logo

Zusammenfassung

Eine wachsende Anzahl von wissenschaftlichen Gesellschaften, Zeitschriften, Institutionen und wissenschaftlich Tätigen protestieren und bekämpfen den „allmächtigen“ Journal Impact Faktor. Die bekannteste Initiative von Protest und Empfehlungen heißt DORA, The San Francisco Declaration on Research Assessment. Kritisiert wird die fehlerhafte, verzerrte und intransparente Art der quantitativen Evaluationsverfahren und ihre negativen Auswirkungen auf das wissenschaftliche Personal, insbesondere auf junge Nachwuchskräfte und ihre wissenschaftliche Entwicklung, insbesondere die subtile Diskriminierung von Kultur- und Sozialwissenschaften. Wir sollten nicht unkritisch im Metrik-Paradigma gefangen bleiben und der Flut neuer Indikatoren aus der Szientometrie zujubeln. Der Slogan „Putting Science into the Assessment of Research“ darf nicht szientistisch verkürzt verstanden werden. Soziale Phänomene können nicht bloß mit naturwissenschaftlichen Methoden untersucht werden. Kritik und Transformation der sozialen Aktivitäten, die sich „Evaluation“ nennen, erfordern sozialwissenschaftliche und wissenschaftsphilosophische Perspektiven. Evaluation ist kein wertneutrales Unternehmen, sondern ist eng mit Macht, Herrschaft, Ressourcenverteilung verbunden.

Abstract

A growing number of learned societies, journals, institutions and scientists argue and campaign against the ‘almighty‘ journal impact factor. The most famous initiative of protests and recommendations is named DORA, The San Francisco Declaration on Research Assessment. The critics emphasize the erroneous, biased and “opaque” nature of quantitative evaluation procedures and their negative effects on scientific personnel, especially early career scientists and scientific development. The often subtle discrimination of cultural and social sciences is overseen and not discussed at all. We should not uncritically be captured by the metrics paradigm and hail the next indicator presented. DORA’s slogan “Putting Science into the Assessment of Research” may not be understood only as a scientometrical abbreviation. Social phenomena cannot be studied merely by quantitative and natural sciences methods. Critique and transformation of the social activities – which evaluation is – demand to consider the perspectives of philosophy of sciences and social sciences. Evaluation is not a value-free establishment, but closely linked to power structures, including the decision making for the available resources apportionment.

Résumé

Un nombre croissant de sociétés savantes, de revues, d’institutions et de chercheurs contestent et contestent et combattent « l’hégémonie » du facteur d’impact des revues. L’initiative la plus célèbre en termes de protestation et de recommandations est DORA, la Déclaration de San Francisco sur l’évaluation de la recherche. Les critiques soulignent le caractère erroné, déformé et opaque du processus d’évaluation quantitative et ses effets négatifs sur le personnel scientifique, en particulier sur les jeunes chercheurs et sur le développement des sciences, relevant notamment la discrimination subtile des sciences sociales et culturelles. Nous ne devrions pas rester enfermés sans esprit critique dans le paradigme des métriques et applaudir le flot de nouveaux indicateurs issus de la scientométrie. Le slogan « Putting Science into the Assessment of Research » (« Pour une évaluation scientifique de la recherche ») ne doit pas être compris de façon réductrice et scientiste. Les phénomènes sociaux ne peuvent pas être étudiés exclusivement avec les méthodes des sciences exactes. La critique et la transformation des activités sociales qui s’appellent « évaluation » requièrent les perspectives de la sociologie et de la philosophie des sciences. L’évaluation n’est pas une entreprise neutre en termes de valeur, mais elle est étroitement liée au pouvoir, à la domination et à l’allocation des ressources.

Die San Francisco Declaration on Research Assessment (siehe DORA 2012) wurde auf der Jahrestagung der US-amerikanischen Gesellschaft für Zellbiologie (ASCB) im Dezember 2012 in San Francisco von einer Gruppe von Zeitschriftenverlegern bzw. -herausgebern initiiert. Bis heute (Stichtag: 21. Juli. 2018) haben 501 Organisationen und 12.402 Einzelpersonen diese Deklaration unterzeichnet.

„Declaring War on the Impact Factor“

Was ist das Anliegen von DORA? In der Öffentlichkeit wurde DORA martialisch als „Kriegserklärung gegen den Impact Factor“ dargestellt (z. B. Balaram 2013). Die Empfehlungen von DORA richten sich an unterschiedliche Personenkreise im Publikationsprozess wie Forschungsförderer, Verleger, Institutionen, Metriken anbietende Organisationen sowie Forscherinnen und Forscher. DORA empfiehlt in der Tat, den Journal Impact Factor (JIF)[1], bei der Gründung von DORA noch vom Medienkonzern Thomson Reuters[2] berechnet, nicht zur Bewertung individueller wissenschaftlicher Leistungen zu verwenden.

Dies ist eine sinnvolle, aber im Grunde keine revolutionäre Forderung. Fast die gesamte Forschungsliteratur zum Thema belegt, dass JIFs keineswegs repräsentativ für den Einfluss der einzelnen Artikel der jeweiligen Zeitschriften sind (article impact, siehe Seglen 1997). Zitier von Artikeln sind innerhalb der einzelnen Journale statistisch stark schief verteilt. Einige wenige erfolgreiche Artikel erwirtschaften oft einen Großteil der Zitate eines Zeitschriftjahrgangs. Bis zu 70 Prozent der Artikel weisen wesentlich geringere Zitierungen auf, als es der JIF als arithmetisches Mittel vermuten ließe. Möglicherweise ist gerade dieser „Huckepackeffekt“ eine Ursache für die Beliebtheit des JIF. Denn gering zitierten Artikeln können so illusionäre Zitiererfolge zugeschrieben werden. Immer öfter schmücken Autorinnen und Autoren ihre Publikationslisten mit JIF-Punkten, zur Freude ihrer akademischen Verwaltungen – und den (wechselnden) Eigentümern der Zitierungsdatenbanken SCI & SSCI, welche die Datengrundlagen für die JIF-Berechnungen liefern.

„to assess an individual scientist’s contributions ... on its own merits“

Was fordert DORA? Forschung sollte nicht mehr nach dem Publikationsorgan (der Höhe des JIF der betreffenden Zeitschrift), sondern „on its own merits“ (DORA 2012) bewertet werden: „Do not use journal-based metrics, such as Journal Impact Factors, as a surrogate measure of the quality of individual research articles, to assess an individual scientist’s contributions, or in hiring, promotion, or funding decisions. “ (ebd.)

Wissenschaftliche Publikationen aufgrund ihrer kritischen Prüfung durch Fachleute statt über JIF-Werte als „Qualitätsmaß“ zu bewerten, ist ebenfalls eine Forderung, die bereits vielfach gestellt wurde, allerdings bisher ohne durchschlagenden Erfolg. Eher im Gegenteil: Etliche Länder offerieren den einzelnen Autorinnen und Autoren beachtliche finanzielle Bonuszahlungen für JIF-Publikationen – das heißt für von Thomson Reuters erfasste Publikationen (Tüür-Fröhlich 2014; 2016, 41). Manche Länder sind einen Schritt weiter gegangen und binden die Höhe der Boni an die Höhe der JIF-Punkte (Chou et al. 2013; Jiménez-Contreras et al. 2002). Die in der Literatur zahlreich belegten disziplinären Unterschiede bei Zitierraten und JIFs (z. B. Stellenwert von Publikationen in der Landessprache, Stellenwert von Büchern) werden bei den Bonuszahlungen nicht berücksichtigt. Autorinnen und Autoren aus Fächern mit hohen durchschnittlichen Anzahlen an Zitierungen sind daher bevorteilt, sozial- und kulturwissenschaftliche Autorinnen und Autoren sind genau deshalb benachteiligt.

Kennzahl 3.B.1

Österreich ist keine Ausnahme: Leistungsvereinbarungen zwischen Ministerium und Universitäten enthalten entsprechende Erfolgsindikatoren. Das österreichische Bundesministerium für Wissenschaft, Forschung und Wirtschaft verpflichtet die von ihr finanzierten Universitäten dazu, vor allem die Zahl in den Thomson Reuters-Zitierindexen SCI, SSCI und AHCI (für Natur-, Sozial-, Kulturwissenschaften) erfassten Publikationen aus der jeweiligen Universität in den Wissensbilanzen buchhalterisch anzuführen (siehe Bundesministerium für Wissenschaft und Forschung 2010/2012).[3] Ähnlich wie in den Businessplänen in der neoliberalen Privatwirtschaft sehen die jeweils für drei Jahre abgeschlossenen Leistungsvereinbarungen prozentuale Steigerungen dieses Publikationsoutputs vor.

Weitere Punkte der Kritik und der Empfehlungen von DORA sind in den wissenschaftlichen und Massenmedien eher unerwähnt geblieben. Diese Lücke möchte ich mit meinem Beitrag schließen.

„Putting science into the assessment of research“

Es ist mir aufgefallen, dass der Untertitel der Deklaration: „Putting science into the assessment of research“ (DORA 2012) kaum beachtet wurde. In DORAs Untertitel kommt zum Ausdruck, dass die derzeitigen Evaluationspraktiken wissenschaftlichen Maßstäben nicht genügen. Wissenschaftliche Methoden werden zu allererst über intersubjektive Überprüfbarkeit definiert bzw. das System Wissenschaft über das Wissenschaftsethos bei Robert K. Merton (1972, 1973). Oft totgesagt, zeigen viele wissenschaftsethische und wissenschaftspolitische Initiativen in den letzten Jahren eine Wiederbelebung der institutionellen Imperative Mertons:

  1. Kommunismus (aufgegriffen vor allem in der Open Access-, Open Science-Bewegung): Wissenschaftlerinnen und Wissenschaftler verdanken ihre Leistungen den Arbeiten ihrer wissenschaftlichen Vorgängerinnen und Vorgänger und haben daher auch die Pflicht, deren Resultate in den Wissenspool der Menschheit wieder einzuspeisen.

  2. Universalismus: wissenschaftliche Resultate und Kritik sollen unabhängig vom Status des „Senders“ ernst genommen werden. Eigentlich verbietet dies, Befunde aus JIF-höheren Journalen einen wissenschaftlich höheren Status einzuräumen.

  3. Uneigennützigkeit (im amerikanischen Original: „desinterestedness“) meint nicht, dass Wissenschaftlerinnen und Wissenschaftler keine Karriere machen oder kein Geld verdienen dürfen. Doch Forschungsdesigns, Methoden bzw. Ergebnisse dürfen nicht zugunsten der Auftraggeber manipuliert oder verbogen werden.

  4. Organisierter Skeptizismus: Alles und jedes soll kritisch untersucht werden.

Mertons Forderungen sind keine Beschreibung des Wissenschaftsalltags, sondern normativ zu interpretieren: So sollte gute Wissenschaft funktionieren. Institutionelle Imperative bedeutet: Es ist nicht (nur) Sache der einzelnen Wissenschaftlerinnen und Wissenschaftler, diese Werte zu praktizieren, sondern ihre Institutionen sollten die Einhaltung dieser Werte fordern und fördern.

Black Box Zitatindexierung

DORA bezieht sich zumindest indirekt auf Mertons Wissenschaftsethos, vor allem auf sein Postulat des Kommunismus. Dies lässt sich aus DORAs Kritik an der Intransparenz der Berechnung des JIF bzw. aus DORAs Forderungen nach eindeutiger Transparenz schließen: „data used to calculate the Journal Impact Factors are neither transparent nor openly available to the public“ (DORA 2012).

Wu et al. (2008, 582) beginnen ihre kritische Analyse der Thomson Reuters-Datenbank SCI: „It is of the utmost importance to know and understand the specific indexing methods underlying this database. Yet, it is shown that this is not easy to find out.“ Meine eigenen Forschungserfahrungen decken sich voll und ganz mit dieser Kritik. Ich möchte sie sogar noch ausweiten. In meiner Dissertation (Tüür-Fröhlich 2016) untersuchte ich die trivialen Fehler in Zitatdatenbanken und deren Auswirkungen auf betroffene Autorinnen und Autoren, Journale, Institutionen. Im Laufe der qualitativen und quantitativen Fallstudien zu den Fehlern in SSCI-Records stieß ich auf zahlreiche unerwartete Informationsbarrieren.

Ursprünglich hatte ich vorgesehen, meine Datenbank-Analysen durch Interviews mit Expertinnen und Experten zu ergänzen. Das erwies sich als nicht realisierbar, denn eigentlich war und ist alles geheim. Niemand wollte oder wagte mir etwas zu sagen, ob Beschäftigte von Thomson Reuters oder Forschende. Wenn es doch zu einem Gespräch kam, dann nur „informell“, „off-records“ und inhaltlich vage. Auf konkrete Nachfragen zur Klärung von Details kamen keine Antworten.

Geschäftsgeheimnisse der Datenbanken und in der quantitativen Evaluation

Was ist im Kontext von Datenbanken und quantitativer Evaluation geheim, d. h. durch Geheimhaltungsverträge geschützt? Es beginnt bei den Preisen für Datenbankenlizenzen, gerüchteweise 100 000 Euro für eine einjährige Campuslizenz für eine größere Zitatdatenbank. Den Bibliotheken ist es nicht gestattet, darüber Auskunft zu geben. Es geht weiter mit den Preisen für „customised data“. Damit sind Datensätze gemeint, die sich Kunden kaufen müssen, wenn sie spezielle Evaluationen durchführen wollen. Der maschinelle Zugriff über die Campuslizenz ist untersagt. Auch hier soll es um hohe Beträge gehen, Summen ab 100 000 Euro je Datenset jährlich wurden angedeutet. Diese zusätzlich zur Datenbank-Lizenz teuer gekauften Daten sind sehr fehlerhaft. Sie müssen von den Kunden aufwändig „gesäubert“ werden. Szientometrikerinnen und Szientometriker gaben mir gegenüber informell zu, 80 Prozent ihrer Zeit mit Datensäuberungen zu verbringen. Die eingekauften Daten verbleiben jedoch im Eigentum von Thomson Reuters. Veröffentlichung bzw. Weitergabe der bereinigten Daten an andere Forschungsprojekte ist untersagt; diese müssen also unter Umständen dieselben fehlerhaften Daten kaufen und erneut aufwändig säubern. Deshalb gibt es auch kaum „open Data“ in der Szientometrie.[4] Im Gegensatz dazu verlangen Biologie- und immer häufiger auch Medizin-Zeitschriftenherausgeber von ihren Autorinnen und Autoren, die bei einer Publikation verwendeten Daten zwecks intersubjektiver Überprüfbarkeit auf einen öffentlich zugänglichen Datenserver zu laden.

DORAs Forderungen nach Open Access bei Literaturlisten

Die beiden DORA-Forderungen an die Verleger wurden in Diskussionen mit Kolleginnen und Kollegen aus Szientometrie bzw. Wissenschaftsforschung als irrelevant angesehen:

„9. Whether a journal is open-access or subscription-based, remove all reuse limitations on reference lists in research articles and make them available under the Creative Commons Public Domain Dedication.“ (ebd.)

Diese Forderung kann ich nur unterstützen. Meine Fallstudien zu Fehlern in SSCI-Records (Tüür-Fröhlich 2014, 2015) gestalteten sich extrem aufwändig. Ich wählte die für mich naheliegende Methode, den Vergleich der SSCI-Records mit den Originalartikeln. Diese lagen meist nicht open access vor bzw. meine Heimatuniversität verfügte über keine Lizenz. Hätten die Originalliteraturlisten wie von DORA gefordert maschinell suchbar und zugreifbar vorgelegen, hätte sich der zeitliche Aufwand für die Dokumentbeschaffung um ein Vielfaches verringert. Würden alle Literaturangaben maschinell suchbar und zugreifbar vorliegen, wäre das Monopol der Zitatdatenbanken aufgeweicht. Unabhängige Forschende könnten ohne teure Lizenzzahlungen und ohne Knebelverträge Untersuchungen durchführen, quantitative Evaluationen leichter auf Fehler überprüfen und die verwendeten bzw. bereinigten Daten problemlos dokumentieren.

Eine weitere Forderung von DORA ist ambivalent zu bewerten:

„10. Remove or reduce the constraints on the number of references in research articles, and, where appropriate, mandate the citation of primary literature in favor or reviews in order to give credit to the group(s) who first reported a finding. “ (DORA 2012)

„Obliteration by incorporation“ ist ein in der szientometrischen Literatur bekanntes Phänomen. Übersichtsarbeiten (Reviews) zitieren eine große Zahl von Primärstudien, viele Autorinnen und Autoren zitieren daher nicht mehr die Originalstudien, sondern nur mehr die Reviews. Übersichtsarbeiten werden wesentlich häufiger als Originalstudien zitiert und sind deshalb bei Journaleditoren sehr beliebt, weil sie zuverlässig den JIF eines Journals erhöhen. Die Autorinnen und Autoren der Originalveröffentlichungen verlieren bei dieser Praktik, sie erleiden Zitierverluste. Wir sehen an dieser Forderung aber auch, dass trotz der anfänglichen Forderung nach Prüfung der „own merits“ von Studien DORA der Metrik-Logik verhaftet bleibt.

Die Forderung nach der Aufhebung aller zahlenmäßigen Beschränkungen von Referenzen ist zwar nachvollziehbar, aber zwiespältig: Thomson Reuters stuft nach den eigenen Richtlinien alle Aufsätze mit 100 und mehr Referenzen als Review ein. Ann-Wil Harzing (2013) zeigte, dass sozialwissenschaftliche Aufsätze, bei denen lange Literaturlisten üblich sind, als Reviews fehlklassifiziert wurden. Die Pointe: Das mächtige Shanghai-Universitätsranking zählt nur Originalreports als Publikationsleistung, keine Reviews. Daher wurden und werden Universitäten mit einem hohen sozialwissenschaftlichen Forschungsanteil diskriminiert, d. h. ihre Forschungsleistungen werden unterschätzt und sie landen im Universitätsranking weiter unten.

DORAs Transparenzforderungen: Methodik, Lizenzen, maschineller Zugriff

Unter den Forderungen, die sich an Organisationen richten, die Metriken bereitstellen – gemeint sind hier die Datenbank-Konzerne wie bei der DORA-Gründung Thomson-Reuters bzw. nunmehr Clarivate Analytics (Web of Science) oder Elsevier (Scopus), aber möglicherweise auch kleinere szientometrische Dienstleister – finden sich wichtige Forderungen im Sinne von Mertons „Kommunismus“:

„11. Be open and transparent by providing data and methods used to calculate all metrics.

12. Provide the data under a licence that allows unrestricted reuse, and provide computational access to date, where possible.“ (DORA 2012)

Auch diese beiden Transparenz-Forderungen unterstütze ich voll und ganz. Autoren, die den JIF reproduzieren wollten, scheiterten, selbst wenn Thomson Reuters mit ihnen kooperierten (zusätzliche Daten wurden gekauft), siehe z. B. Rossner et al. 2007[5] sowie Rossner et al. 2008. Doch auch viele andere Prozeduren sind undurchschaubar. Zu Recht bemängelte DORA in einem Brief an Thomson Reuters, dass das genaue Vorgehen, wie Artikel als „nicht zitierfähig“ eingestuft werden und daher den JIF eines Journals steigern, nicht nachvollziehbar sei (DORA 2013).

Es beginnt bereits bei der Dateneingabe in die Zitatindexe: Es ist unklar, wie bei Thomson Reuters die bibliographischen Angaben inklusive der Zitatliste technisch erfasst werden. Werden die bibliographischen Daten digital übernommen oder werden die Papierversionen der Journale durch Menschen und/oder nur mittels Scan-, OCR- und Parser-Programmen aufgenommen und indexiert? Ersteres behauptet Moed (2005, 182) für „viele“ der Journale, letzteres Pamela Blazick, Editorin des Journal Citation Reports von Thomson Reuters (z.n. Adam 2002, 728). Der Datenbank-Experte Peter Jacsó (2009) nimmt hingegen menschliche Indexierung an.[6] Falls alle drei Aussagen zutreffen, bedeutet das, dass die Journale nicht einheitlich abgearbeitet werden und daher Opfer unterschiedlicher Fehlerquellen und Fehlerhäufigkeiten sind. „Off-records“ räumte jemand von Thomson Reuters nach hartnäckiger Nachfrage ein, dass die Indexierung in Billiglohnländern in Südostasien erfolgt.

Zu den vielen Unklarheiten gehört auch die Frage, ob Fehler von Thomson Reuters von sich aus, also auf eigene Initiative, korrigiert werden, oder ob dies nur aufgrund von Reklamationen betroffener Autorinnen und Autoren geschieht. Diese Frage stellen nämlich Franceschini et al. 2016. Irritierend daran ist, dass szientometrische Studien hier rätseln und es nicht als selbstverständlich gilt, dass Datenbankproduzenten im Sinne intersubjektiver Überprüfbarkeit solche Informationen ihrer Nutzerschaft bekanntgeben sollten. Eigene Nachforschungen ergaben folgendes Bild: Offiziell sollte Thomson Reuters die bibliographischen Angaben und Zitate aus dem Original ohne Korrekturen übernehmen. Informell wurde mir gegenüber zugegeben, dass berühmte Namen von Autorinnen und Autoren und Institutionen doch ad hoc korrigiert werden. Damit zeigt sich auch im Geschäft mit Zitierungen Robert K. Mertons (1968) Matthäus-Effekt, nämlich die Bevorteilung der bereits Bekannten.

„Putting science into the assessment of research“? Putting Social Sciences and Science Ethics into the Assessment of Research!

Zusammenfassend: Die Prozesse der Zitatindexierung und der darauf basierenden Evaluationspraktiken sind äußerst intransparent. DORAs Forderungen sind zu unterstützen, sollten aber durch sozialwissenschaftliche und wissenschaftsphilosophische Perspektiven ergänzt werden.

Prozeduren und Ergebnisse der Zitatindexierungen sind nicht neutral gegenüber disziplinären Publikations- und Zitierkulturen. Rechtswissenschaftliche (vgl. Tüür-Fröhlich (2018)), sozial-wissenschaftliche (vgl. Tüür-Fröhlich (2016)) sowie kultur- und geisteswissenschaftliche Publikationen und deren Autorinnen und Autoren werden diskriminiert. Wir sollten nicht unkritisch im Metrik-Paradigma gefangen bleiben und der Flut neuer Indikatoren aus der Szientometrie zujubeln. H-Index-Derivate gibt es inzwischen mit fast allen Buchstaben des Alphabets.

Der Slogan „Putting Science into the Assessment of Research“ darf nicht szientistisch verkürzt verstanden werden. Soziale Phänomene können nicht bloß mit naturwissenschaftlichen Methoden untersucht werden. Kritik und Transformation der sozialen Aktivitäten, die sich „Evaluation“ nennen, erfordern sozialwissenschaftliche und wissenschaftsphilosophische Perspektiven. Evaluation ist kein wertneutrales Unternehmen, sondern ist eng mit Macht, Herrschaft, Ressourcenverteilung verbunden. Daher schreit die Problematik förmlich nach kritischen sozialwissenschaftlichen, wissenschaftsphilosophischen und vor allem wissenschafts- und informationsethischen Untersuchungen. Wie Espeland / Stevens (2008) gezeigt und gefordert haben, sollten wir an einer Soziologie (und wir sollten ergänzen: Wissenschaftsphilosophie, Wissenschaftsethik) der Quantifizierung arbeiten. Daher mein Vorschlag zu einem DORA 2.0, auf eine Kurzformel gebracht – „Putting Social Sciences and Science /Information Ethics into the Assessment of Research“.


Anmerkung

Eine frühere Version dieses Beitrags habe ich auf dem Kongress für Soziologie 2015 in Innsbruck/Österreich vorgetragen (Ad hoc-Gruppe „DORA et al.: Global movements against ‘impactitis’ and ‘evaluitis’“). Den zahlreichen Personen, die während der Sessions und in den Pausen, engagiert mit mir diskutiert haben, danke ich für konstruktive Kritik und Ermutigung.


About the author

Dr.in phil Terje Tüür-Fröhlich , MSc

Dr.in phil. Terje Tüür-Fröhlich ist Lektorin am Institut für Philosophie und Wissenschaftstheorie an der Johannes Kepler Universität (JKU) Linz/Österreich (Wissenschaftsforschung, Kultur- und Medientheorie, Informationskompetenz und Informationsethik). Ihre Forschungsinteressen sind Datenqualität und endogene Fehler in Zitatdatenbanken und deren Auswirkungen v. a. auf Wissenschaftlerinnen und Wissenschaftler, aus non-ascii- bzw. LOTE (languages other than English)-Sprachräumen, wie auch für deren Institutionen in der Ära permanenter Evaluation.

Literatur

Adam, David. 2002. The counting house. Nature, 415: 726–729.Search in Google Scholar

Archambault, Éric and Vincent Larivière. 2009. History of the journal impact factor: contingencies and consequences. Scientometrics 79 (3): 1–15.10.1007/s11192-007-2036-xSearch in Google Scholar

Balaram, Padmanabhan. 2013. Research Assessment: Declaring War on the Impact Factor. Current Science, 104: 1267–1268.Search in Google Scholar

Bundesministerin für Wissenschaft und Forschung Wien (2010/2012): Kennzahl 3.B.1: Wissensbilanz, Leistungsvereinbarung: Output und Wirkungen der Kernprozesse – Forschung und Entwicklung/Entwicklung und Erschließung der Künste. Verordnung der Bundesministerin für Wissenschaft und Forschung über die Wissensbilanz (Wissensbilanz-Verordnung 2010 – WBV 2010) StF: BGBl. II Nr. 216/2010; Änderung BGBl. II Nr. 292/2012; BGBl. II Nr. 253/2013.Search in Google Scholar

Chou, Chuing Prudence, Hsiao Fang Lin and Yun-ju Chiu. 2013. The impact of SSCI and SCI on Taiwan’s academy: an outcry for fair play. Asia Pacific Education Review, 14: 23–31. DOI: 10.1007/s12564-013-9245-1.10.1007/s12564-013-9245-1Search in Google Scholar

DORA. 2012. San Francisco Declaration on Research Assessment. Putting science into the assessment of research. http://am.ascb.org/dora/ [15.5.2018]; aktuell https://sfdora.org [21.7.2018].Search in Google Scholar

DORA. 2013. Letter to Thompson (sic! TTF) Reuters. Archiviert unter https://web.archive.org/web/20170204072933/, http://www.ascb.org/dora/a-letter-to-thompson-reuters/ [25.5.2018]Search in Google Scholar

Espeland, Wendy Nelson und Mitchell L. Stevens. 2008. A Socio-logy of Quantification. European Journal of Sociology 49: 401–436.10.1017/S0003975609000150Search in Google Scholar

Franceschini, Fiorenzo, Domenico Maisano and Luca Mastrogiacomo. 2016. Do Scopus and WoS correct ‘old’ omitted citations? Scientometrics. Published online: 1 February 2016. DOI 10.1007/s11192-016-1867-8.10.1007/s11192-016-1867-8Search in Google Scholar

Harzing, Anne-Wil. 2013. Document categories in the ISI Web of Knowledge: Misunder-standing the Social Sciences? Scientometrics 94: 23–34.10.1007/s11192-012-0738-1Search in Google Scholar

Jacsó, Péter. 2009. Errors of omission and their implications for computing scientometric measures in evaluating the publishing productivity and impact of countries. Online Information Review 33 (2): 376-385.10.1108/14684520910951276Search in Google Scholar

Jiménez-Contreras, Evaristo, Delgado López-Cózar, Rafael Ruiz-Pérez und Víctor M. Fernández. 2002. Impact-factor rewards affect Spanish research. Nature 417 (6892): 898.10.1038/417898bSearch in Google Scholar

Merton, Robert King. 1973. The Sociology of Science: Theoretical and Empirical Investigations, 267–278. Chicago: University of Chicago Press.Search in Google Scholar

Merton, Robert King. 1972. Wissenschaft und demokratische Sozialstruktur. In: (Hrsg.) Peter Weingart, Wissenschaftssoziologie I. Wissenschaftliche Entwicklung als sozialer Prozeß, 45–59. Frankfurt/Main: Fischer Athenäum.Search in Google Scholar

Merton, Robert King. 1968. The Matthew Effect in Science. Science 159(3810): 56–83.10.1126/science.159.3810.56Search in Google Scholar

Moed, Henk F. 2005. Citation Analysis in Research Evaluation. Dordrecht: Springer.Search in Google Scholar

Rossner, Mike, Heather Van Epps and Emma Hill. 2007. Show me the data. The Journal of cell biology 179: 1091–1092.10.1083/jcb.200711140Search in Google Scholar

Rossner, Mike, Heather Van Epps and Emma Hill. 2008. Irreproducible Results – a Response to Thomson Scientific. The Journal of General Physiology 131: 183–184.10.1085/jgp.200809957Search in Google Scholar

Seglen, Per O. 1997. Why the impact factor of journals should not be used for evaluating research. British Medical Journal 314: 497–502.10.1136/bmj.314.7079.497Search in Google Scholar

Šubelj, Lovor, Marko Bajec, Biljana Mileva Boshkoska, Andrej Kastrin and Zoran Levnajić. 2015. Quantifying the Consistency of Scientific Databases. PLoS ONE 10(5): e0127390. doi:10.1371/journal.pone.0127390.10.1371/journal.pone.0127390Search in Google Scholar

Tüür-Fröhlich, Terje. 2014. “Needless to say my proposal was turned down”. The early days of commercial citation indexing, an “error-making” (Popper) activity and its repercussions till today. Theory of Science 36 (2):155–180. http://sammelpunkt.philo.at:8080/2426/ [15.5.2018].Search in Google Scholar

Tüür-Fröhlich, Terje. 2016. The Non-trivial Effects of Trivial Errors in Scientific Communication and Evaluation. Glücksstadt/D.: VWH, Schriften zur Informationswissenschaft, Band 69 (zugleich Doctoral Thesis, Johannes Kepler Universität Linz, Institut für Philosophie und Wissenschaftstheorie).Search in Google Scholar

Tüür-Fröhlich, Terje. 2018. Eine „autoritative“ Datenbank auf dem Prüfstand: Der Social Sciences Citation Index (SSCI) und seine Datenqualität. Erscheint in: IWP 69(5–6).10.1515/iwp-2018-0050Search in Google Scholar

Wu, Xiu-fang, Qiang Fu and Ronald Rousseau. 2008. On indexing in the Web of Science and predicting journal impact factor. Journal of Zhejiang University SCIENCE B 9 (7): 582–590.10.1631/jzus.B0840001Search in Google Scholar

Published Online: 2018-08-22
Published in Print: 2018-08-08

© 2018 Walter de Gruyter GmbH, Berlin/Boston

Downloaded on 30.11.2023 from https://www.degruyter.com/document/doi/10.1515/iwp-2018-0032/html
Scroll to top button