Thomas Meyer

Historisches Forschungsnetz

Ein offener Werkstattbericht

De Gruyter | Published online: November 27, 2015

Der Einfluss neuer Technologien auf Forschungsmethoden ist in jüngster Zeit eines der großen Themen des Kinos und der Literatur. Sieht man vom teils fragwürdigen historischen „Wahrheitsgehalt“ von Filmen wie „Imitation Game“ oder der Mythenbildung in bspw. George Dysons Bestseller „Turings Kathedrale“ ab, zeigen diese immerhin die Ambivalenzen von Wissenschaft, ihren Akteuren und der „Einführung“ neuer Technologien. Nicht ganz so mythisch aufgeladen kreisten in den vergangenen Jahren Diskussionen um das scheinbar neue Konzept der Virtuellen Forschungsumgebungen (VFU). Diese VFUs sollten – möglichst umfassend – IT-gestützte Forschungs-„Tools“ in Umgebungen abbilden, die einer breiten wissenschaftlichen Nutzergemeinde bzw. „Community“ zugänglich sind, Forschungsdaten unterschiedlicher Herkunft integrieren und mittels darin eingebetteter Analysetools zu neuen methodischen Ansätze führen. Ein Paradigma, welches mittlerweile auch die Digital Humanities an und für sich beanspruchen. Nun können Technologien sicherlich als Innovationsmotor eine wesentliche Rolle spielen, ein Blick in die Wissenschafts- und Technikgeschichte zeigt eindrucksvolle Beispiele. Allein durch Proklamationen sind diese nicht zustande gekommen: Gerade in der Wissenschaft bedarf es vielmehr williger Akteure, die neue Forschungstechnologien – über Disziplingrenzen hinweg – auch durch soziale Interaktion und Innovation verbreiten.[1]

Ein Projekt, welches im Rahmen der DFG-Förderprogramme zu VFUs zwar nicht neu für eine „Community“ geschaffen wurde, sondern selbst technischer Innovation bedurfte, ist H-Soz-Kult, das Online-Forum für die Geschichtswissenschaften. Aus dem einstigen Mailinglistenableger des Humanities-Net – kurz H-NET – der Michigan-State-University im Jahr 1996 mit der ursprünglichen Ausrichtung auf Sozial- und Kulturgeschichte, gestartet mit einer Handvoll Subskribenten, hat sich mittlerweile eines der größten geisteswissenschaftlich-interdisziplinären Foren im deutschsprachigen Raum entwickelt. Informationen über das Geschehen in Forschung und Lehre, über Karrieremöglichkeiten bis hin zu wissenschaftlichen Publikationen sind über konfigurierbare Mailinglisten, neue Suchtechnologien sowie verschiedene Informationskanäle wie RSS-Feeds oder neuerdings Twitter zugänglich.

Zum Zeitpunkt, als das Thema VFU um das Jahr 2009 herum einen ersten Höhepunkt in Deutschland erreicht hatte, befand sich H-Soz-Kult aufgrund seiner überholten technologischen Basis gegenüber jüngeren Projekten der Fachinformation und -kommunikation sichtlich im Rückstand. Mit der Durchsetzung des World Wide Web hatte H-Soz-Kult frühzeitig seine Präsenz genau dort gefunden, mit den technologischen Möglichkeiten, die seit Ende der 1990er-Jahre zur Verfügung standen: SQL-Datenbanken und einfache Skriptsprachen beherrschten damals die Szenerie, komplexe Content-Management-Systeme steckten noch in den Kinderschuhen, von mobilen Endgeräten ganz zu schweigen. Die Inhalte der Mailingliste wurden zwar von Beginn an im WWW zugänglich gemacht, nur waren die Automatisierung und Flexibilisierung von Arbeitsabläufen/Workflows, die Abbildung komplexer Datenstrukturen/Metadaten und Rezeptionsmöglichkeiten über neue Endgeräte, vor allem aber die Einbettung sowohl externer Daten wie auch die Vernetzung mit den eingesetzten IT-Technologien der früheren Jahre kaum noch zu leisten.[2]

Die Website von Soz-Kult zählt neben den mittlerweile mehr als 23 000 Mailinglisten-Abonnements zum Kern des Projekts: Mehr als monatlich 250 000 Leser auf Website und RSS-Feed und 1 Mio. Seitenabrufe in 2014 zeugen vom anhaltenden Wachstum der Leserschaft. Die Anzahl der Beiträge hatte ab Mitte der 2000er-Jahre bereits ein Maß erreicht, welches die Möglichkeiten der bis dahin gängigen Rezeptionsmöglichkeiten vor allem in Form der Einzelmails überschritt: Im Bereich der Veranstaltungsankündigungen, Tagungsberichte und Stellenausschreibungen allein hat sich seitdem das Beitragsvolumen verdoppelt. Auf technischer Ebene wurden bereits 2005 erste Abo-Optionen im Kontext des Clio-online-Projekts zur Ausdifferenzierung des Angebots entwickelt. Auf redaktioneller Ebene wurden Fachredaktionen für einzelne Themengebiete oder Epochen gegründet, um die Breite des wissenschaftlichen Publikationsgeschehens abzudecken. Dem Wachstum vor allem ab 2007/2008 war damit allein nicht zu begegnen, waren doch die Zunahme an Beiträgen und die wachsende Leserschaft nicht nur durch die historische Zunft bedingt. Vielmehr wird H-Soz-Kult durch weitere geisteswissenschaftliche Disziplinen genutzt. Interdisziplinäre Vorhaben, sicherlich auch beflügelt durch die Exzellenzinitiative des BMBF oder zahlreiche interdisziplinäre SFBs, haben ihren Teil zur weiterhin steigenden Popularität beigetragen. Zudem fehlte oder fehlt immer noch in anderen geisteswissenschaftlichen Disziplinen ein entsprechendes Pendant, sodass die Attraktivität von H-Soz-Kult auch in den Philologien oder den Sozialwissenschaften ungebrochen ist.

Eine weitere Diversifikation redaktioneller Strukturen, die stärkere Einbeziehung der Nutzer und ihrer Bedürfnisse sowie eine technische Generalüberholung standen somit auf der Agenda. Nutzer und Redaktion waren zielgerichteter in die Erschließung und Veröffentlichungsprozesse einzubinden, die Arbeitswerkzeuge auf verteilte Redaktionen an verschiedenen Standorten auszurichten und schließlich die Erschließung und Zugänglichkeit zu verbessern, Letzteres zum Beispiel mittels neuer Konfigurationsoptionen oder facettierter Suchen. Letztlich wuchs nach fast zwanzig Jahren des Bestehens ein Archiv des geschichtswissenschaftlichen Geschehens heran, dessen Informationen bisher unzureichend strukturiert waren, um sie später bspw. digital auswerten zu können. Eine technologische Neuaufstellung beinhaltete auch die Beseitigung infrastruktureller Desiderata bzw. eine stärkere arbeitsteilige Verantwortung für Basisdienste gemeinsam mit Rechenzentren oder die bessere Anbindung an Archiv- und Bibliotheksdienste. Bereits im Clio-online-Projekt waren solche Ansätze erprobt und in Teilen umgesetzt worden, u. a. mit verschiedenen Verzeichnisdiensten oder einer Metasuche. Die Idee der VFUs – verschiedene Arbeitswerkzeuge und Datenstrukturen zusammenzuführen – bot sich somit für eine strukturelle und technische Neuaufstellung von H-Soz-Kult an, mit einem Ansatz, der die Kerntätigkeiten der Historiker – das Schreiben, Erschließen, Kommunizieren und Publizieren – in den Mittelpunkt stellte.

Ziel des DFG-geförderten Projekts „Historisches Forschungsnetz“ war daher die Entwicklung eines modularen Frameworks basierend auf Open-Source-Komponenten, in dem Bausteine für die Erschließung und Veröffentlichung gängiger Fachinformationsformate sowie weitere Tools für deren Distribution bereitgestellt werden. Ein neues Datenmodell, welches die Modularität der einzelnen Informationstypen, deren Verknüpfung, die Anbindung an gängige Informationssysteme von Archiven und Bibliotheken unterstützt, wurde mit in der Bibliothekswelt gängigen Standards geschaffen: mit FRBR und RDA wurden die wesentlichen Metadatenstrukturen und Verfahren etabliert, mit der sich bibliografische Einheiten erschließen und in automatisierte Abläufe einpassen lassen, diese bilden nunmehr das Grundgerüst des Datenmodells von H-Soz-Kult.

Neben bibliografischen Metadaten waren außerdem Personen, Organisationen und Ereignisse abzubilden. Durch Anreicherung mit weiteren Vokabularien (u. a. bibo, FOAF, geonames, Linked Data Service der DNB, MarcOnt, vcard) unterschiedlicher Provenienz konnten diese Entitäten und ihre Eigenschaften modelliert werden, nur wenige Ausnahmen wurden mit eigenen neuen Eigenschaftsmodellen aufgefüllt. Ergänzt wurde das Modell durch Anleihen bei gängigen Industrie-Standards, um Informationen zu Arbeitsabläufen/Workflows abzubilden. So steht mit dem BPMN – Business Process Model and Notation[3] – ein Modell bereit, mit dem Zustände von Objekten, die damit betrauten Personen sowie deren Einbettung in Abläufe beschrieben und Prozesse automatisiert werden können. Eine Vielzahl an Tools bzw. Workflowengines für gängige Programmiersprachen ermöglicht die Einbettung in eigene Applikationen. Allein mit dem „Vokabular“ von BPMN lassen sich eigene Informationen für die Abbildung von Workflows in Datenmodellen unterbringen.

Für das HFN-Projekt waren damit Formate und Vokabularien eingeführt, in die vorhandene Daten und Abläufe übertragen, teils verbessert werden konnten. So werden Rezensionen im neuen Datenmodell nicht als singuläre Einheiten aufgefasst, sondern in einzelne Entitäten „Buch/Website“ – „Rezensent“ – „Verlag“ – „Besprechung“ und ihre jeweiligen Relationen zueinander zerlegt. Was für Bibliothekare hier auf den ersten Blick banal klingen mag – die Zerlegung in einzelne informatorische Einheiten – ist in der Praxis vieler wissenschaftlicher Projekte und Publikationen nicht unbedingt selbstverständlich.

Das neue Datenmodell ist Voraussetzung für eine performante Verarbeitung und für zukünftige Kooperationen und arbeitsteilige Vorgehensweisen. Denkbar sind einfachere Zugriffe auf Erschließungsinformationen aus Bibliotheken, ergänzende Materialien von Verlagen („Organisationen“) und die Verknüpfung mit strukturierten Personendaten (Autoren, Rezensenten). Mit der GND sowie Personennormdatei stehen schließlich zwei Werkzeuge zur Verfügung, die mit den Entitäten des neuen Datenmodells in Beziehung gesetzt werden können. Eine Anreicherung mit bspw. Kataloginformationen entlastet Abläufe in einer Redaktion, das Redaktionsgeschäft kann stärker auf die Redaktionsbelange ausgerichtet werden, da weniger Zeit und Personal in die Erschließung und Aufbereitung der bibliografischen Informationen der besprochenen Werke zu investieren ist – auch dies leider eine noch oft anzutreffende Praxis in Zeitschriftenredaktionen.

Für die Vernetzung selbst wurden im Umfeld von Bibliotheks- und Content-Management-Systemen (CMS) gängige Schnittstellen evaluiert. Neben bekannten Standard wie OAI, Z39.50 oder SRU steht mit CMIS (Content Management Interoperability Services) eine weitere Schnittstellendefinition aus der kommerziellen Softwarewelt bereit, die den Austausch von Inhalten (Dokumente/Objekte) aus unterschiedlichen Datenspeichern über normierten Verfahren ermöglicht. Über Such- und Browsingverfahren können CMS wie z. B. Sharepoint, Alfresco, Liferay oder Drupal, um nur einige repräsentative Beispiele zu nennen, miteinander vernetzt werden. Der Austausch ist dabei nicht auf das Retrieval beschränkt, sondern bezieht das „Schreiben“ mit ein. Eine Umsetzung für H-Soz-Kult wurde in einem Alfresco-Repository prototypisch implementiert: Eine Java-Bibliothek (core) übernimmt als Serviceschnittstelle die Kommunikation zwischen CMIS-Server am Dokumentenrepository und dem jeweiligen Client (z. B. ein Plugin für die Suche und Anzeige in einem CMS wie z. B. Drupal oder ein separates administratives System für die Verwaltung von Beiträgen und Metadaten).

Repositorien

Nun sind Repositorien keineswegs eine Erfindung der Bibliothekswelt, die Terminologie ist auch in der Welt der Content-Management- und Dokumenten-Management-System allgegenwärtig. Die „Repositories“ der Bibliothekswelt fokussieren wie ihre Pendants im Content-Management auf bestimmte Anwendungsfälle, meist sind sie technisch auf den Bedarf von Projekten ausgelegt, die „Sammlungen“ erschließen und präsentieren. Eines der gängigen Repositorien – FEDORA – wurde im HFN-Projekt für die Nutzung untersucht. Auch Fedoras Schwerpunkt liegt, wie man heute noch auf der Website lesen kann, auf „Collections“. Fachinformationsforen wie H-Soz-Kult, die sehr heterogene und vor allem auch fluide Formate anbieten, lassen sich in Sammlungsschemata nur bedingt einfügen, wie u. a. Tests mit größeren Datenbeständen ergaben. Nachdem zuerst eine kleine Auswahl eigener Beiträge in ein Repository importiert und mit den gängigen Fedora-Clients darauf CRUD-Operationen (create, read, update, delete) ausgeführt wurden, ist der Testlauf auf größere Datenmengen ausgeweitet worden. Diese ergaben auffällige Performanceverluste – von bspw. mehr als 80 000 zu importierenden Rezensionen der Rezensionsdatenbank „Historische Rezensionen Online“ waren nach 12 Stunden Testlauf gerade einmal 25 % der Daten eingefügt (Ziel des HFN-Projekts war es, alle Teildatenbanken, die von Clio-online und H-Soz-Kult genutzt werden, in eine gemeinsame Struktur zu überführen). Abwägungen, ob die zur Verfügung stehenden zeitlichen und personellen Ressourcen in die Behebung von Performanzproblemen zu investieren sind, verbunden mit weiterer Einarbeitung und Expertisebildung, mündeten schließlich in der Entscheidung, stattdessen auf bekannte bzw. erprobte Verfahren zurückzugreifen, die von allen Projektbeteiligten beherrscht werden.

Um die Tür zu FEDORA allerdings nicht zu verschließen, wurde weiterhin die Entwicklung des Projekts Bamboo in den USA beobachtet, welches mit „HUBZero“ eine Webplattform entwickelte, die einige der im HFN-Projekt definierten Schnittstellen unterstützte. In „HUBZero“ wurde u. a. die Implementierung des Dokumentenaustauschs über eine CMIS-Schnittstelle mit einem FEDORA-Repository vorangetrieben. Das hätte zu diesem Zeitpunkt Architekturen ermöglicht, die sowohl CMS-/DMS-Systeme nutzen, als auch Schnittstellen und Speichersysteme der Bibliothekswelt einschließen. Fertiggestellt wurde diese Funktionalität in Bamboo leider nicht, mittlerweile ist das Projekt auch abgeschlossen.[4]

Ein weiterer Exkurs auf gängige NOSQL-Datenbanken, welche in letzter Zeit durch das Thema „BIG-DATA“ populär geworden sind, sollte deren Verwendbarkeit evaluieren. Die Abbildung der ‚realen Welt‘ in NOSQL-Datenbanken ist eingeschränkt, sie enthalten keine Relationen bzw. geben eine Datenstruktur vor, in der Relationen eher durch sog. horizontale Verknüpfungen von Datensätzen abgebildet werden. Diese Verknüpfungen werden in einer Baumstruktur abgebildet, deren Verarbeitung mit den Mitteln der Informatik aufwändig ist. Vor allem Applikationen mit großen Datenmengen stoßen schnell an ihre Leistungsgrenzen, sodass diese Datenspeicher für eine skalierbare Umgebung im Projekt verworfen wurden.[5]

Weitaus performanter und in ihrer Wartung und Erweiterbarkeit nachhaltiger haben sich im HFN-Projekt klassische SQL-Datenbanken erwiesen. Deren Verbreitungsgrad, ihre Verfügbarkeit in universitären Rechenzentren und die Nutzung in akademischen wie kommerziellen Projekten sind ungebrochen hoch. Verknüpft mit performanten Indexierungstools wie bspw. SOLR-basierten Suchmaschinen und gängigen Programmierframeworks lassen sich mit SQL einfache Anwendungen erstellen und in vorhandene Dokumenten- und Content-Management-Systeme integrieren. Für das HFN-Projekt wurden daher einige Entwicklungsstränge verändert – ein oftmals vernachlässigter und ausbleibender Schritt in akademischen Projekten.[6] Die Implementierung des Datenmodells und der Schnittstelle zur Verknüpfung von Datenspeicher und Anwendungsoberflächen (Websites, Redaktionsumgebung) wurde innerhalb kurzer Zeit in eine neue Zwischenschicht auf der alten Datenbank verlagert. Die von vornherein geplante lose Verknüpfung von Datenschicht und Anwendungsschichten über eine CMIS-Struktur erwies sich an dieser Stelle als richtig, da in dieser offenen Architektur nun fortlaufend einzelne Bausteine (Datenspeicher, Öffentliche Anwendungen/Websites, Internes Bearbeitungs- und Redaktionssystem) schrittweise weiter ausgebaut werden können, unabhängig von der Entscheidung, welches Content- oder Dokumenten-Management-System oder Datenbank als Datenspeicher endgültig zu verwenden sein wird.

Abb. 1: Architektur der HFN-Module

Abb. 1:

Architektur der HFN-Module

Im Herbst 2014 wurde die Website von H-Soz-Kult mit neuen Funktionalitäten freigeschalten. Die Site basiert auf dem neuen Datenmodell, als auch einer Auswahl der geplanten Schnittstellen, wie bspw. der umfänglich implementierten SOLR-Suchmaschine, auf der sämtliche Browsing- und Suchfunktionalitäten aufsetzen. Die Ausgabe der Dokumente erfolgt in einer datenbankunabhängigen JSON-CMIS-Struktur, die in beliebige weitere Ausgabeformate (xml, html, pdf) konvertierbar ist. Ein weiterhin bestehendes Desiderat ist die geplante Einführung von XML-Dokumententypen für die Volltexterfassung bzw. -erschließung. Bisher existiert weder auf dem kommerziellen Markt noch in der akademischen Welt eine zufriedenstellende Lösung (Editor), mittels derer sich wie in gängigen HTML-Editoren wie TinyMCE oder CKEditor leicht die Auszeichnung von Volltexten nach wissenschaftlichen Anforderungen für die Erschließung und für die automatisierte Verarbeitung vornehmen lässt. Gängige Implementationen wie beispielsweise von Eclipse-Umgebungen oder XML-Editoren wie Oxygene sind weder einer mehr als fünfzigköpfigen Redaktion noch Hunderten von Autoren zuzumuten.[7]

Ausblick

Der Prozess der technologischen Neuaufstellung ist damit nicht abgeschlossen. Derzeit befinden sich Teile des Redaktionssystems in Überarbeitung, auch die Unterstützung konfigurierbarer Distributionsformate und -kanäle unterliegt weiteren Veränderungen: Der „Vertrieb“ der Beiträge als E-Mails war und bleibt eine der zentralen Säulen von H-Soz-Kult, auch wenn mittlerweile Beiträge in Twitter oder per RSS-Feed abgerufen werden können. In den vergangenen Jahren jedoch verschärfen kommerzielle wie auch akademische E-Mail-Hoster/Provider ihre SPAM-Schutzmechanismen aus nachvollziehbaren Gründen. Das wiederum hat Auswirkungen auf den „Vertrieb“ von E-Mails gerade über Mailinglisten. SPAM-Schutzmechanismen und die weiterhin stark wachsenden Subskribentenzahlen sowie die Menge der Beiträge führen zu einem erhöhten Konfigurations- und Wartungsaufwand, die Kommunikation der Listenserver muss viel stärker auf einzelne Empfänger(-server) angepasst werden. Für das H-NET rückt E-Mail daher derzeit als primärer Distributionskanal in den Hintergrund, das „Announcement“ auf der Website gewinnt stärker an Bedeutung, E-Mails werden in erster Linie als „Alerts“ zu neuen Beiträgen versendet (für H-Soz-Kult bleibt E-Mail eine der zentralen Distributionskanäle).

Schon dieses Beispiel zeigt, dass Technologien einem Nutzungswandel und teils eingeschränkten Lebenszyklen unterliegen. Gleiches gilt für Datenbanksysteme, Indexierungstools und Suchmaschinensoftware bis hin zu Design- und Layoutstandards im Print- und Onlinebereich. Fortlaufende Anpassungen richten sich nicht nur an den „Bedürfnissen der Community“ aus, sondern sind auch durch technische Rahmenbedingungen determiniert. An dieser Stelle gewinnt die Webstatistik an Bedeutung, um Funktionalitäten und Inhalte hinsichtlich ihrer realen Nutzung und Nachfrage zu überprüfen. Die bei H-Soz-Kult anonymisierte Erhebung von Zugriffszahlen der einzelnen Rubriken wird nun durch Erhebungen zur Nutzung der neu eingeführten Facettierungen der Suchen ergänzt: Diese werden erfreulicherweise in den Suchoptionen nachweislich am stärksten genutzt, im Bereich Rezensionen vor allem die Aufstellung der thematischen Redaktionsbereiche, der thematischen Klassifikation sowie der besprochenen Publikationstypen und -formate (Monografie, Sammelband, Quellensammlung, Nachschlagewerk etc.)

Zuletzt misst sich die Entwicklung digitaler Werkzeuge natürlich an den Bedürfnissen der „Community“. Für H-Soz-Kult sind das einerseits die wachsende Leserschaft und deren Bedarf an Inhalte-geleiteten Rezeptionsmöglichkeiten und andererseits die Redaktion, welche mit möglichst einfachen Mitteln den Workload redaktioneller Arbeit – die im Übrigen unentgeltlich neben der eigentlichen Tätigkeit in Forschung und Lehre stattfindet! – bewältigen können muss. Hierfür sind einfache und transparente Verfahren notwendig, die nicht zwangsläufig auf komplexen Funktionen aufsetzen müssen. Umfassende Workflow-Frameworks wie das im Alfresco-Repository enthaltene Activity erwiesen sich als zu komplex und für den redaktionellen Gebrauch überdimensioniert. Stattdessen wurden in H-Soz-Kult überschaubare Optionen und Funktionen im Redaktionssystem implementiert, mit denen sich schnell ein Überblick über das Redaktionsgeschehen erfassen lässt, die aber auf dem BPMN-Workflow-Modell basieren. Diese, wie auch die gängigen Basistechnologien (SQL, Suchmaschinenindexierung, Schnittstellen wie OAI und CMIS) waren leicht zu implementieren. Schließlich sind bereits das Know-how rund um diese Technologien und die Technologien selbst bei Projektträgern und Partnereinrichtungen (wie z. B. der Computer- und Medienservice der HU und dessen Datenbankhosting) vorhanden.

Nachhaltigkeit

Es war einer der Grundannahmen im HFN-Projekt, von vornherein an Lösungen anzuknüpfen, die nicht nur im akademischen Umfeld, sondern großflächig verbreitet sind, sodass die Pflege von Updates, die Implementierung von Features usw. über mehrere Jahre hinweg auch gewährleistet bleibt. Trotz aller Bestrebungen zur Etablierung von Kompetenzzentren wird Software im akademischen Umfeld nur selten über umfassende Strukturen gepflegt, die mit ausreichend finanziellen und personellen Mitteln ausgestattet sich für viele Jahre mit Wartung und Ausbau beschäftigen können. Verschiedene Finanzierungs- und Beteiligungsmodelle sind zwar erprobt und eingeführt (siehe z. B. MyCoRe oder Textgrid). Eine Vergleichbarkeit mit freien Open-Source-Frameworks hinsichtlich Funktionalität, Wartung usw. ist aber kaum gegeben. Für Projekte wie die „Virtuelle Forschungsumgebung für die Geisteswissenschaften – FuD“[8] oder eben auch H-Soz-Kult haben deren „Heimat“-Universitäten Teile der Trägerschaft übernommen. Nur geht die technische Entwicklung in der Regel mit Schulungen von Anwendern, der Weiterentwicklung von Funktionalitäten und Wartungsaufwand einher; Aufgaben, deren finanziellen Bedarfe bzw. die dafür notwendigen Ressourcen nicht zu unterschätzen sind.[9]

Letztlich lässt sich die zukünftige Nutzung neuer digitaler Arbeits- und Kommunikationsformen nur schwer prognostizieren, vor allem in welcher Art und Weise technologische Veränderungen und einhergehende soziale Praktiken das Informations- und Kommunikationsverhalten verändern. Augenscheinlich ist bspw. die wachsende Nutzung von Twitter, Facebook und Blogs auch im wissenschaftlichen Bereich angekommen. Gleichzeitig mehren sich auch Stimmen, die für eine Rückbesinnung auf analoge Formen plädieren. So hat kürzlich die TED-Conference – eine Institution im Bereich Nutzung digitaler Medien in der Wissenschaftskommunikation – auf ihrer letzten Tagung nach einem klaren Votum ihrer Teilnehmer für einen vollständigen Ausschluss von Smartphones, Twitter und Co. auf der Konferenz plädiert.[10] Außerhalb der akademischen Welt beginnen Tageszeitungen ausufernde „Debatten“ in ihren Kommentarfunktionen auf ein redaktionell zu bewältigendes Maß zurückzufahren.[11] Wie eingangs erwähnt, hat die Technikgeschichte in den vergangenen Jahren einige interessante „Beobachtungen“ gemacht: „Research technologies“ setzen sich in anderen Fächern durch, wenn sie durch einige Akteure, die in unterschiedlichen Disziplinen aktiv sind, zwischen den Disziplinen übertragen werden. In der Geschichtswissenschaft sind dies in der Regel „technikaffine“ Wissenschaftler, die nicht den Mehrwert von Tools in ihrer „Community“ preisen müssen, sondern Anforderungen definieren und selbst den Nutzen IT-gestützter Arbeitstechniken in ihrem Arbeitsumfeld praktizieren (und somit vermitteln) können. Jede Forschungsrichtung, jede Lehranwendung beansprucht zudem für sich eigene Anforderungen, insofern dürfte weiterhin von der Prämisse auszugehen sein, dass wegen dieser „Heterogenität [...] ein allgemeingültiges Set von Erfolgskriterien als unrealistisch erschein(t).“[12]

Published Online: 2015-11-27
Published in Print: 2015-12-1

© 2015 Walter de Gruyter GmbH, Berlin/Boston

This work is licensed under the Creative Commons Attribution-NonCommercial-NoDerivatives 3.0 License.