Skip to content
Publicly Available Published by De Gruyter Saur October 31, 2015

Das Experteninterview als zentrale Methode der Wissensmodellierung in den Digital Humanities

  • Anke Reinhold EMAIL logo

Zusammenfassung

Der Beitrag erläutert grundlegend die informationswissenschaftliche Methode des Experteninterviews. Der Schwerpunkt liegt auf der Konzeptualisierung der Methode, praktischen Handlungsanweisungen zur Durchführung von Experteninterviews sowie der Bedeutung der empirisch-qualitativen Datenanalyse für die Wissensmodellierung in den Digital Humanities.

Abstract

The article illustrates the expert interview as a fundamental method in information science. The focus is on the conceptualization of the method, practical instructions for conducting expert interviews as well as the importance of empiric qualitative data analysis for knowledge modelling in the Digital Humanities.

Resumé

L’auteur explique en profondeur la méthode d’interview d’experts utilisée en sciences de l’information. Elle met l’accent sur la conceptualisation de la méthode, des instructions pratiques pour effectuer des interviews d’experts ainsi que l’importance de l’analyse empirique et qualitative des données pour la modélisation des connaissances dans les humanités numériques.

Einleitung

Bei den Digital Humanities (im Deutschen hat sich die Bezeichnung digitale Geisteswissenschaften eingebürgert) handelt es sich um ein Forschungsfeld, das sich durch eine hohe thematische und methodische Vielfalt auszeichnet. So umfasst das Programm der jährlich stattfindenden Konferenz der Alliance of Digital Humanities Organizations (ADHO)[1] 2015 unter anderem die folgenden Themen:

  1. Geisteswissenschaftliche Forschung mithilfe digitaler Medien, Data Mining oder so genannter Software Studies;

  2. Informationsdesign und Informationsmodellierung;

  3. Computerbasierte Anwendungen in Literaturwissenschaft, Kulturwissenschaft, Linguistik oder Geschichte;

  4. Digitale Darstellungsformen in Kunst, Architektur, Musik, Film, Theater, Neuen Medien und Computerspielen;

  5. Konzeption und Kuratierung digitaler Kollektionen (ADHO, 2015).

Die hier deutlich werdende Interdisziplinarität, die sich zwischen den Geisteswissenschaften und der Informatik bewegt, wird durch die Definition des Begriffs der „Digital Humanities“ von Craig Saper folgendermaßen beschrieben: „A field of study, research and teaching focused on the intersection of computing and disciplines in the humanities. It involves investigation, analysis, synthesis and presentation of information in electronic form“ (Terras et al., 2013, S. 286). Insbesondere für die Informationswissenschaft eröffnen sich hier neue Perspektiven, etwa im Forschungsfeld der Wissensmodellierung, das beispielsweise in der Definition der Digital Humanities von Steven Hayes im Mittelpunkt steht: „Modelling and recording traditional humanities datasets in such a way that they can be read by both humans and machines“ (Terras et al. 2013, S. 282). Die Modellierung von Wissen ist immer dann von zentraler Bedeutung, wenn Gemeinsamkeiten im Hinblick auf Forschungspraktiken in verschiedenen Teilbereichen der Digital Humanities identifiziert werden sollen (McCarty, 2004, S. 254).

Unter Wissensmodellierung versteht man nach Geyer-Hayden (2008) die Analyse expliziten Wissens in einem (Fach-)Gebiet und die Abgrenzung dieses Wissens, um ein gemeinsames Verständnis über die Struktur des Gebietes zu entwickeln. Das Ziel ist die Entwicklung eines Wissensorganisationssystems, „um Inhalte für Benutzer leichter (wieder)auffindbar zu machen“ und „Informationen über Inhalte (Metadaten) so zu modellieren, dass sie eindeutig referenzierbar und maschinenverstehbar sind“ (Geyer-Hayden, 2008, S. 134–135). Nach wie vor mangelt es jedoch an einem disziplinübergreifenden Methodenkanon für die benutzerzentrierte Wissensmodellierung in den Digital Humanities. Der Methode des Experteninterviews könnte hier zukünftig eine zentrale Rolle zukommen, um den Austausch zwischen den Fach-Communities und der Informationswissenschaft hinsichtlich der Modellierungsarbeit zu erleichtern. So argumentiert etwa Borgman (2009): “The digital humanities community could benefit from more collaborative partnerships within the field and between the humanities and disciplines such as computer science. Collaboration requires investment in listening skills, always being alert to nuanced differences in assumptions, theories, definitions, and methods”. Doch letztlich ist nicht nur die Fähigkeit des Zuhörens, die insbesondere in den Digital Humanities aufgrund ihrer interdisziplinären Ausrichtung mit besonderer Sorgfalt eingesetzt werden sollte, eine Schlüsselkompetenz informationswissenschaftlich Forschender. Um Wissensgebiete auf der Grundlage empirischer Forschung strukturiert und kontextualisiert abbilden zu können, ist zusätzlich ein hohes Maß an Modellierungskompetenz nötig.

Informationswissenschaftliche Methoden der Wissensmodellierung

Wissensmodellierung setzt zunächst die Auswahl einer geeigneten Form der Wissensrepräsentation voraus. Die Wissensrepräsentation hat nach Randall et al. (1993) unter anderem die Funktion, „Dinge“ (z. B. Objekte oder Ereignisse) zu ersetzen, um losgelöst vom ursprünglichen Kontext neue Denkprozesse anzuregen. Die Wissensrepräsentation soll daher durch Menschen verstanden werden können, zugleich aber auch die maschinelle Informationsverarbeitung ermöglichen. Hier spielen Ontologien eine zentrale Rolle, unter anderem auch bei der Entwicklung virtueller Forschungsumgebungen und Informationsinfrastrukturen im Digital-Humanities-Kontext wie z. B. Europeana[2] für den Bereich des kulturellen Erbes, TextGrid[3] und DARIAH-DE[4] für die Geistes- und Kulturwissenschaften, CLARIN-D[5] speziell für Sprachressourcen in den Sozial- und Geisteswissenschaften oder SMW-CorA[6] für die Historische Bildungsforschung. Das Methodeninventar der benutzerzentrierten Wissensmodellierung umfasst in den hier genannten Projekten beispielsweise die Durchführung von Gruppendiskussionen, Expertenworkshops oder Usability-Studien.

Typische Ressourcen, die für die Informationsextraktion bei der Ontologie-Modellierung herangezogen werden, sind Datenbanken, Konferenz-Proceedings und Publikationen, Blogs und Foren in einer Domäne oder Gesetzestexte (Efimenko et al., 2009, S. 11). Weitere Quellen sind bestehende Klassifikationen (z. B. Folksonomien), Statistiken, Normen und Strukturen von Websites (z. B. Sitemaps) (Geyer-Hayden, 2008, S. 141). Bei der Ontologie-Entwicklung werden regelmäßig semi-automatische Verfahren mithilfe von Inferenzmaschinen angewandt, um logische Inkonsistenzen zu identifizieren und das automatische Schlussfolgern zu ermöglichen (Weller, 2013, S. 211). Zunehmend werden auch voll-automatische Verfahren des Natural Language Processings (NLP) eingesetzt, z. B. für die automatische Extraktion von Ontologie-Relationen (Maedche und Staab, 2000) oder Konzepten bzw. Konzept-Gruppen einer Ontologie (Kayed et al., 2008) aus Texten. Gleichwohl hat das manuelle Concept Mapping, insbesondere in einem frühen Stadium des Modellierungsprozesses, für die Entwicklung qualitativ hochwertiger Ontologien einen hohen Stellenwert (vgl. Eskridge und Hoffmann, 2012; Staab, 2002). Denn nach wie vor stellt die Erkennung von Bedeutungszusammenhängen bei der automatischen Textanalyse eine große Herausforderung dar. So argumentiert Fuhs (2007, S. 87), dass es nur selten möglich ist „Bedeutungen automatisch zu kategorisieren. In der Regel müssen die Daten [...] von Menschen aufgenommen und verstanden werden, bevor man dahin gelangt, dass eine Aussage oder Beobachtung in diese oder jene Kategorie einzuordnen ist“. Dies gilt in hohem Maße für die Konzeption digitaler Bibliotheken und Forschungsdatenbanken in den Digital Humanities mit ihrer Vielzahl an kleinen, speziellen Domänen und heterogenen Datenbeständen. Eine vollautomatische Ontologie-Entwicklung ist hier nach wie vor ausgeschlossen und somit kommt der systematischen und benutzerorientierten Wissenserfassung eine umso größere Bedeutung zu.

Insbesondere für die so genannte „Konzeptakquisition“ (vgl. Kayed et al., 2008, S. 1803), bei der in einem ersten Schritt die Schlüsselkonzepte einer Ontologie definiert werden, bietet es sich an, zukünftige Benutzer einer Anwendung im Digital-Humanities-Kontext frühzeitig mit in den Modellierungsprozess einzubeziehen. So werden im Forschungsfeld des Ontology Engineerings zunehmend benutzerzentrierte Ansätze zur Modellierung und Evaluierung von Ontologien eingesetzt (vgl. Almeida, 2009; Casellas, 2009; Holsapple und Joshi, 2004; Pasin und Motta, 2011; Pattuelli, 2011; Tsakonas und Papatheodorou, 2011). Nach Pattuelli (2011, S. 316) ist die Einbeziehung von Benutzern besonders wichtig, um das mentale Modell der „intended community of end users“ bestmöglich in der Ontologie abbilden zu können:

Modeling is a critical task in ontology development and it is also the most challenging to perform. Gaining feedback on the validity of the model and on its potential helpfulness early in the process may result in an economical choice in that it can help to consolidate the model and build a better tool (Pattuelli, 2011, S. 336).

Zu den benutzerzentrierten Methoden der Wissensmodellierung gehören beispielsweise Card-Sorting-Experiment (Pasin und Motta, 2011), Delphi-Studie (Holsapple und Joshi, 2004), Tutorial und Fokus-Gruppe (Tsakonas und Papatheodorou, 2011) sowie Interview (Almeida, 2009; Casellas, 2009; Pattuelli, 2011). Interviews mit Experten aus unterschiedlichen Domänen dienen hier der Modellierung von Ontologie-Prototypen (z. B. bei Pattuelli (2011) für eine Digitale Bibliothek des kulturelles Erbes für Lehrkräfte), die zu einem späteren Zeitpunkt erneut benutzerzentriert evaluiert werden. Zur Vorgehensweise bei der Planung und Durchführung der Interviews werden im Allgemeinen nur wenige Hintergrundinformationen gegeben, zudem wird zumeist nur unzureichend erläutert, inwieweit sich konkrete Modellierungsentscheidungen anhand der Analyse der Interviewdaten ergeben. Für die Wissensmodellierung im Kontext der Digital Humanities ist es jedoch von zentraler Bedeutung, dass das Experteninterview als Methode empirisch-valide durchgeführt und nachvollziehbar dargestellt wird. Nur so kann ein solides Fundament für die Kooperation zwischen Informationswissenschaft und den Fach-Communities mit ihren stark ausdifferenzierten epistemologischen und methodischen Ansätzen geschaffen werden.

Das Experteninterview

Konzeptualisierung der Methode des Experteninterviews

Die Durchführung von Interviews ist eine häufig angewandte Methode der Informationsbedarfsanalyse (Pickard, 2007, S. 171). Das Experteninterview als Sonderform des Interviews wird in informationswissenschaftlichen Studien jedoch nur vereinzelt als eigenständige Methode mit spezifischen Charakteristika dargestellt. Dabei sind bei der Anwendung der Methode des Experteninterviews einige Besonderheiten zu beachten, insbesondere im Hinblick auf die Auswahl der Befragten, die Planung und die Durchführung. In der informationswissenschaftlichen Methoden-Literatur finden sich häufig nur allgemeine Handlungsanweisungen für die Durchführung von Interviews. In den methodischen Standardwerken von Wildemuth (2009) und Pickard (2007) wird beispielsweise ausschließlich zwischen unstrukturierten und teilstrukturierten Interviews unterschieden, eine Differenzierung zwischen Benutzern eines Informationssystems oder Experten als Befragte erfolgt nicht. Kluck (2004) unterscheidet zwischen Experteninterview, Gruppendiskussion und narrativem, situationsflexiblem Interview (Kluck, 2004, S. 279), die Unterschiede bezüglich der methodischen Herangehensweise werden jedoch nur am Rande thematisiert.

Ein erster Hinweis auf die besondere Bedeutung des Experteninterviews für die Informationswissenschaft findet sich bei Werner (2013, S. 142). Das Experteninterview wird hier als eine für die Bibliotheks- und Informationswissenschaft bedeutsame Methode beschrieben, die sich über den Status der Befragten von anderen Formen der qualitativen Befragung unterscheidet. Dennoch muss für die Empirie-geleitete Planung und Durchführung von Experteninterviews nach wie vor hauptsächlich auf sozial- bzw. politikwissenschaftliche Literatur zurückgegriffen werden, wie beispielsweise die Arbeiten von Bogner und Menz (2005, 2009), Brinkmann et al. (1995), Gläser und Laudel (2009), Helfferich (2009), Kaiser (2014) sowie Meuser und Nagel (2005, 2009). Auch für die Auswertung von Interviewdaten wird sich zumeist an den gängigen Analysemethoden der qualitativen Sozialforschung orientiert, wie beispielsweise von Zhang und Wildemuth (2009) oder Pickard (2007) für die Anwendung in informationswissenschaftlichen Studien beschrieben. In Arbeiten mit dem Schwerpunkt der Wissensmodellierung fehlt es jedoch häufig an einer präzisen Darstellung der Vorgehensweise bei der Datenanalyse, obwohl damit erst die empirische Grundlage für eine bestimmte Modellierungsentscheidung geschaffen werden kann.

Gläser und Laudel (2009) definieren das Experteninterview als Befragung von „Angehörigen einer Funktionselite“, die über Spezialwissen verfügen. Die Durchführung von Experteninterviews ist immer dann besonders gut geeignet, wenn soziale Situationen oder Prozesse rekonstruiert werden sollen (Gläser und Laudel, 2009, S. 11–13). Experten können Zusammenhänge zumeist sachlich begründen und verfügen zudem über konkretes „Ereignis- oder Fallwissen“ (Deeke, 1995, S. 9). Experteninterviews können nach Simsion und Witt (2004) aber auch zum Zweck der Datenmodellierung eingesetzt werden, beispielsweise zur Identifikation relevanter Klassen, Attribute, Relationen, Schemata oder sogar Instanzen, da konkrete Anforderungen an die Daten extrahiert werden können: „Encourage them to talk about the processes and the data they use and to look critically at how well their needs are met [...] leading to an examination of how [...] goals are achieved and what data is (ideally) required to support them (Simsion und Witt, 2005, S. 257). Grundsätzlich garantieren Experteninterviews bereits in den frühen und theoretischen Phasen einer Untersuchung eine „konkurrenzlos dichte Datengewinnung gegenüber Erhebungsformen wie etwa teilnehmender Beobachtung oder einer [...] quantitativen Untersuchung, die in der Organisation von Feldzugang und Durchführung zeitlich und ökonomisch weit aufwändiger sind“ (Bogner und Menz, 2009, S. 8).

Experteninterviews dienen außerdem dazu, Untersuchungsgebiete „thematisch zu strukturieren und Hypothesen zu generieren“ (Bogner und Menz, 2009, S. 64). Anhand von Experteninterviews lässt sich ein hohes Maß an Kontextwissen gewinnen, das bei der domänenspezifischen Wissensmodellierung von entscheidender Bedeutung ist. Das so genannte „Prozesswissen“ wird sichtbar gemacht, „das sich auf Einsichtnahme und Informationen über Handlungsabläufe, Interaktionsroutinen, organisationelle Konstellationen sowie vergangene oder aktuelle Ereignisse bezieht, in die der Experte aufgrund seiner praktischen Tätigkeit direkt involviert ist oder über die er aufgrund der Nähe zu seinem persönlichen Handlungsfeld zumindest genauere Kenntnisse besitzt“ (Bogner und Menz, 2005, S. 43). Zudem sind Interviews hilfreich, um deskriptive und implizite Informationen zu gewinnen, die spezifisch auf das Individuum zugeschnitten sind oder die auf andere Weise schwierig zu erfragen sind. Dazu gehören unter anderem die Rekonstruktion von Ereignissen und aktuellen Entwicklungen sowie die Einstellung der Befragten dazu (Pickard, 2007, S. 172). In diesem Zusammenhang benutzen Experten besonders häufig Metaphern, Modelle oder Theorien (Hitzler, 1994, S. 23). Insbesondere im Kontext der Modellierung von Forschungsprozessen und Forschungsdaten in den Digital Humanities stellt das Experteninterview eine adäquate Methode der Informationsbedarfsanalyse dar, da aufseiten der Forschenden ein hohes Maß an implizitem Wissen zu erwarten ist. Dieses Wissen, das „als ‚geistiges Eigentum‘ des Experten betrachtet werden kann, weil es nur ihm in seinen Handlungen und Bewertungen zur Verfügung steht, aber bisher nicht kodifiziert, also etwa nicht verschriftlicht worden ist“ (Kaiser, 2014, S. 45–46) wird vom Experten üblicherweise nur mitgeteilt, wenn der Interviewer über ein hohes Maß an Expertise hinsichtlich der für das Interview relevanten Themen verfügt (Flick, 2007, S. 218–219). Zur Durchführung einer Informationsbedarfsanalyse für die Entwicklung von Forschungsinfrastrukturen sind vonseiten des Interviewers daher umfassende Kenntnisse über die Forschungspraxis in der zu untersuchenden Domäne vorauszusetzen, beispielsweise hinsichtlich der Forschungsplanung, der wissenschaftlichen Kommunikation, der Datenerhebung und Dokumentation, der generierten Datentypen, der Datenanalyse, der Prozesse beim Forschungsdatenmanagement sowie der Einstellungen zum Data-Sharing (vgl. Reinhold, 2015, S. 131–139).

Handlungsanweisungen zur Durchführung von Experteninterviews

Bei der Planung von Experteninterviews sind forschungsstrategische Entscheidungen (vgl. Helfferich, 2009, S. 167) zu treffen, beispielsweise über die Größe und die Auswahl des Samples. Nach Gläser und Laudel (2009, S. 104) ergibt sich die Anzahl der Experten „aus der Verteilung von Informationen unter den Akteuren und aus den Erfordernissen der empirischen Absicherung“. Pickard (2007) argumentiert, dass bereits zu einem frühen Zeitpunkt im Forschungsprozess festgelegt werden sollte, wann eine Sättigung in Bezug auf die gewonnen Informationen vorliegt. Die Redundanz von Informationen ist dabei das entscheidende Kriterium. Die Feldarbeit kann nach Pickard abgeschlossen werden, sobald die Datenerhebung keine neuen relevanten Informationen mehr generiert (Pickard, 2007, S. 91). Auch ist zu berücksichtigen, dass für bestimmte Themen möglicherweise nur sehr wenige Experten als potentielle Interviewpartner zur Verfügung stehen (vgl. Kaiser, 2014, S. 73). Die Auswahl der Interviewpartner sollte sich im Allgemeinen daran orientieren, dass die Beantwortung der Forschungsfrage möglich ist, beispielsweise in dem typische Fälle oder „Extremfälle“ ausgewählt werden oder eine Variation an wichtigen Variablen vorgenommen wird (Gläser und Laudel, 2009, S. 97–98). Die Befragten im Experteninterview werden jedoch „nicht als Einzelfall, sondern als Repräsentant einer Gruppe (bestimmter Experten)“ in das Sample einbezogen (Flick, 2007, S. 214). So gehören insbesondere auch Wissenschaftlerinnen und Wissenschaftler zur Zielgruppe von Experteninterviews (Meuser und Nagel, 2005, S. 73). Bei der Auswahl der Experten ist zudem nach Kaiser (2014) darauf zu achten, dass nicht ausschließlich Vertreter höherer Hierarchiestufen in das Sample aufgenommen werden. Der Personenkreis der mittleren Hierarchieebene verfügt „zumeist über eine sehr viel längere Erfahrung innerhalb der Organisation“ und kann somit eher zu „Kontinuitäten und Veränderungen in Bezug auf die Bearbeitung des zu erforschenden Problembereichs“ Auskunft geben (Kaiser, 2014, S. 132).

Grundsätzlich ist man bei der Auswahl der Experten nach Kaiser (2014) „begründungspflichtig“, das heißt, dass „die eigenen Überlegungen, die zur Auswahl der Experten geführt haben, nicht nur in der Untersuchung genannt werden müssen, sondern es muss zudem erkennbar werden, auf welche Weise und mit welchen Problemen und Schwierigkeiten die tatsächlich Befragten gewonnen werden“ (Kaiser, 2014, S. 71). Im Allgemeinen kann jedoch beim Experteninterview mit hohen Zustimmungsquoten, problemlosen Zugängen und einer hohen Kooperationsbereitschaft vonseiten der Befragten gerechnet werden (Bogner und Menz, 2009, S. 9).

Bei der Durchführung von Experteninterviews sind nach Kaiser (2014) außerdem die folgenden Gütekriterien zu beachten:

  1. „Die intersubjektive Nachvollziehbarkeit der Verfahren der Datenerhebung und Datenauswertung,

  2. Die theoriegeleitete Vorgehensweise,

  3. Die Neutralität des Forschers gegenüber neuen Erkenntnissen sowie anderen Relevanzsystemen und Deutungsmustern“ (Kaiser, 2014, S. 9)

Diese Gütekriterien lassen sich insbesondere mithilfe eines Leitfadens, der nach Gläser und Laudel (2009, S. 142) als „Erhebungsinstrument“ des Experteninterviews dient, anwenden. Für die Entwicklung eines Leitfadens müssen die Forschungsfragen in Interviewfragen, die der Alltagssprache der Befragten angepasst sind (Gläser & Laudel, 2009, S. 142), operationalisiert[7] werden. Zudem muss die Art und Weise, wie die Fragen gestellt werden, die spezifische Rolle des Befragten als Experte eines bestimmten Wissensgebiets berücksichtigen:

„Die im Interview gestellten Fragen sollten sich auf das Wie des Entscheidens und Handelns konzentrieren. [...] Die Fragen sollten des Weiteren durch ihre Formulierung deutlich machen, dass sie auf überpersönliches, institutionenbezogenes Wissen abzielen. [...] Nachfragen sollten möglichst Berichte über konkrete Ereignisse evozieren bzw. Erzählungen generieren“ (Meuser und Nagel, 2009, S. 474).

Empirisch-qualitative Datenanalyse von Experteninterviews

Zur theoriegeleiteten Auswertung von Experteninterviews im Bereich der Digital Humanities liegen bisher nur wenige Arbeiten vor. Methoden der „freien Interpretation“ (Gläser und Laudel, 2009, S. 44) sind nach wie vor die gängige Praxis im Forschungsfeld (vgl. u. a. Allen und Sieczkiewicz, 2010; Almeida, 2009; Audenaert und Furuta, 2010; Casellas, 2009; Pattuelli, 2011). Dabei stellt die qualitative Sozialforschung eine Vielzahl an Varianten für die qualitative Datenanalyse zur Verfügung, beispielsweise die Qualitative Inhaltsanalyse nach Mayring (2010) oder die aus der Grounded Theory (Glaser und Strauss, 1967) abgeleiteten Verfahren des Kodierens (vgl. Saldaña, 2013), bei denen theoriebasiert und regelgeleitet Kategoriensysteme zur Erfassung von Bedeutungszusammenhängen in Texten entwickelt werden. Dieser Theoriebezug stellt nach Kaiser (2014, S. 144) „die konzeptionelle Klammer zwischen der Begründung einer Befragung, der Festlegung der wesentlichen Parameter und der späteren Analyse dar“. In der Informationswissenschaft werden diese Verfahren insbesondere zur Aufdeckung oder zur Modellierung des Informationsverhaltens sowie zur induktiven Theoriebildung eingesetzt (Zhang und Wildemuth, 2009, S. 309–310).

Nur vereinzelt werden empirisch-qualitative Analysemethoden systematisch auf Interviewdaten im Kontext der Digital Humanities angewendet, z. B. in der Studie von Maye et al. (2014), in der ein interaktives Ausstellungs-Design für den Bereich des kulturellen Erbes entwickelt wird. Das Kodieren der Experteninterviews erfolgt mithilfe einer kollaborativen Themenanalyse, bei der aus dem Datenmaterial induktiv Kategorien gebildet werden. Die identifizierten Themen beziehen sich auf Prozesse, Erwartungen und Einstellungen hinsichtlich digitaler Technologien in der Domäne. Ein weiteres Beispiel aus dem Bereich der Ontologie-Modellierung ist die Arbeit von Reinhold (2015), in der – neben quantitativen Ansätzen der Textanalyse – die Methode der In-vivo-Codierung[8] zur Identifikation „kultureller Kategorien“ (Miles et al., 2014, S. 74) in der Domäne der videobasierten Unterrichtsforschung angewandt wird. Die so entwickelten Kategorien dienen als Grundlage für die Modellierung einer benutzerzentrierten Ontologie zur Repräsentation von Forschungsdaten und -kontexten. In den Digital Humanities, in denen die Anwendung qualitativer Methoden innerhalb der Fachwissenschaften bereits eine lange Tradition hat, bieten solche stark empirisch ausgerichteten Interviewstudien als Teil der Informationsbedarfsanalyse ein enormes Potential für die Entwicklung nachhaltiger Informationsinfrastrukturen.

Fazit

Das Experteninterview stellt eine zentrale Methode für die Wissensmodellierung in den Digital Humanities dar. Insbesondere bei der Entwicklung von Ontologien als konzeptionelle Grundlage von Informationsinfrastrukturen muss das Kontext- und Prozesswissen von Forschenden adäquat repräsentiert werden, um eine dauerhafte und produktive Nutzung von Informationssystemen sicherstellen zu können. Das Methodenrepertoire in den Digital Humanities umfasst zwar die Durchführung von Interviews, aber die Besonderheiten des „Expertentums“ und der Umgang mit dem gewonnenen Expertenwissen werden noch unzureichend thematisiert. Zukünftig kann hier die Informationswissenschaft, in der bei der Datenanalyse regelmäßig auch auf anerkannte Methoden der qualitativen und quantitativen Sozialforschung zurückgegriffen wird, weitere wichtige Impulse für eine stärker empirische und benutzerzentrierte Ausrichtung der Digital Humanities geben.

Literatur

Allen, R. B.; Sieczkiewicz, R. (2010). How historians use historical newspapers. Proceedings of the American Society for Information Science and Technology, Bd. 47, Nr. 1, S. 1–4.10.1002/meet.14504701131Search in Google Scholar

Alliance of Digital Humanities Organizations (ADHO) (2015). Call for proposals. University of Western Sydney. http://dh2015.org/cfp [12.08.2015].Search in Google Scholar

Almeida, M. B. (2009). A Proposal to Evaluate Ontology Content. Applied Ontology, Bd. 4, Nr. 3–4, S. 245–265.10.3233/AO-2009-0070Search in Google Scholar

Audenaert, N.; Furuta, R. (2010). What Humanists Want: How Scholars Use Source Materials. Proceedings of the 10th Annual Joint Conference on Digital Libraries (JCDL’10), Gold Coast, Queensland, Australia. NY: ACM, S. 283–292.10.1145/1816123.1816166Search in Google Scholar

Bogner, A.; Menz, W. (2005). Das theoriegenerierende Experteninterview. Erkenntnisinteresse, Wissensformen, Interaktion. Bogner, A.; Littig, B.; Menz, W. (2009) (Hrsg.). Experteninterviews. Theorien, Methoden, Anwendungsfelder. 2. Auflage. Wiesbaden: VS, Verlag für Sozialwissenschaften, S. 33–70.10.1007/978-3-322-93270-9_2Search in Google Scholar

Bogner, A.; Menz, W. (2009). Experteninterviews in der qualitativen Sozialforschung. Zur Einführung in eine sich intensivierende Methodendebatte. Bogner, A.; Littig, B.; Menz, W. (2009) (Hrsg.). Experteninterviews. Theorien, Methoden, Anwendungsfelder. 3., grundlegend überarbeitete Auflage. Wiesbaden: VS, Verlag für Sozialwissenschaften. ISBN 978-3-531-16259-1, S. 7–31.Search in Google Scholar

Borgman, C. L. (2009). The Digital Future Is Now: A Call to Action for the Humanities. Digital Humanities Quarterly, Bd. 3, Nr. 4 http://www.digitalhumanities.org/dhq/vol/3/4/000077/000077.html [12.08.2015].Search in Google Scholar

Brinkmann, C.; Deeke, A.; Völkel, B. (1995) (Hrsg.). Experteninterviews in der Arbeitsmarktforschung. Diskussionsbeiträge zu methodischen Fragen und praktischen Erfahrungen. Beiträge zur Arbeitsmarkt- und Berufsforschung, Nr. 191, Nürnberg. ISSN 0173-6574.Search in Google Scholar

Casellas, N. (2009). Ontology Evaluation through Usability Measures: An Experiment with the SUS Scale in the Legal Domain. On the Move to Meaningful Internet Systems: OTM 2009 Workshop. Lecture Notes in Computer Science, Bd. 5872, S. 594–603.10.1007/978-3-642-05290-3_73Search in Google Scholar

Deeke, A. (1995). Experteninterviews – ein methodologisches und forschungspraktisches Problem. Brinkmann, C.; Deeke, A.; Völkel, B. (1995) (Hrsg.). Experteninterviews in der Arbeitsmarktforschung. Diskussionsbeiträge zu methodischen Fragen und praktischen Erfahrungen. Beiträge zur Arbeitsmarkt- und Berufsforschung, Nr. 191, Nürnberg, ISSN 0173–6574, S. 7–22.Search in Google Scholar

Efimenko, I. V.; Minor, S. A.; Starostin, A. S. (2009). Semantic Portals in Biomedicine: Case Study. Savova, G.; Karkaletsis, V.; Angelova, G. (Eds.). Proceedings of the Workshop on Biomedical Information Extraction Association for Computational Linguistics (WBIE’09), Stroudsburg, PA, USA. New York, NY: ACM, S. 8–13.Search in Google Scholar

Eskridge, T. C.; Hoffmann, R. (2012). Ontology Creation as a Sensemaking Activity. Intelligent Systems, Bd. 27, Nr. 5, S. 58–65.10.1109/MIS.2012.101Search in Google Scholar

Flick, U. (2007). Qualitative Sozialforschung. Eine Einführung. 7. vollständig überarbeitete und erweiterte Neuauflage. Reinbek bei Hamburg: Rowohlt. ISBN 978-3-499-55694-4.Search in Google Scholar

Fuhs, B. (2007). Qualitative Methoden in der Erziehungswissenschaft. Darmstadt: Wissenschaftliche Buchgesellschaft. ISBN 978-3534175291.Search in Google Scholar

Geyer-Hayden, B. (2008). Wissensmodellierung im Semantic Web. Blumauer, A.; Pellegrini, T. (2008) (Hrsg.). Social Semantic Web: Web 2.0 – Was nun? Berlin: Beck. ISBN 978-3-540-72215-1, S. 127–146.Search in Google Scholar

Glaser, B. G.; Strauss, A. L. (1967). The Discovery of Grounded Theory. Chicago, IL: Aldine. ISBN 978-0-202-36337-0.Search in Google Scholar

Gläser, J.; Laudel, G. (2009). Experteninterviews und Qualitative Inhaltsanalyse. 3., überarbeitete Auflage. Wiesbaden: VS. ISBN 978-3-531-15684-2.Search in Google Scholar

Helfferich, C. (2009). Die Qualität qualitativer Daten. Manual für die Durchführung qualitativer Interviews. 3., überarbeitete Auflage. Wiesbaden: VS. ISBN 978-3-351-15410-7.10.1007/978-3-531-91858-7Search in Google Scholar

Hitzler, R. (1994). Wissen und Wesen des Experten. Hitzler, R.; Honer, A.; Maeder, C. (1994) (Hrsg.). Expertenwissen. Die institutionalisierte Kompetenz zur Konstruktion von Wirklichkeit. Opladen: Westdeutscher Verlag, S. 13–30. ISBN 3-531-12581.10.1007/978-3-322-90633-5_1Search in Google Scholar

Holsapple, C. W.; Joshi, K. D. (2004). A Formal Knowledge Management Ontology: Conduct, Activities, Resources, and Influences. Journal of the American Society for Information Science and Technology, Bd. 55, Nr. 7, S. 593–612.10.1002/asi.20007Search in Google Scholar

Kaiser, R. (2014). Qualitative Experteninterviews. Konzeptionelle Grundlagen und praktische Durchführung. Wiesbaden: Springer VS. ISBN: 978-3-658-02478-9.10.1007/978-3-658-02479-6Search in Google Scholar

Kayed, A.; Hirzallah, N.; Al Shalabi, L. A.; Najjar, M. (2008). Building Ontological Relationships: A New Approach. Journal of the American Society for Information Science and Technology, Bd. 59, Nr. 11, S. 1801–1809.10.1002/asi.20879Search in Google Scholar

Kluck, M. (2004). Methoden der Informationsanalyse. Einführung in die empirischen Methoden für die Informationsbedarfsanalyse und die Markt- und Benutzerforschung. Kuhlen, R.; Seeger, T.; Strauch, D. (2004) (Hrsg.). Grundlagen der praktischen Information und Dokumentation. Handbuch zur Einführung in die Informationswissenschaft und –praxis. 5., völlig neu gefasste Ausgabe. München: De Gruyter Saur. ISBN 978-3598116742, S. 271–288.10.1515/9783110964110.271Search in Google Scholar

Kuckartz, U. (2010). Einführung in die computergestützte Analyse qualitativer Daten. 3., aktualisierte Auflage. Wiesbaden: VS, Verlag für Sozialwissenschaften. ISBN 978-3-531-16661-2.10.1007/978-3-531-92126-6Search in Google Scholar

Maedche, A.; Staab, S. (2000). Discovering conceptual relations from text. Horn, W. (2000) (Ed.). Proceedings of the 14th European Conference on Artificial Intelligence. Amsterdam: IOS Press. http://www.aifb.kit.edu/images/d/de/2000_519_Maedche_Discovering_Con_1.pdf [12.08.2015].Search in Google Scholar

Maye, L. A.; McDermott, F. E.; Ciolfi, L.; Avram, G. (2014). Interactive Exhibitions Design – What Can We Learn From Cultural Heritage Professionals? Proceedings of the 8th Nordic Conference on Human-Computer-Interaction: Fun, Fast, Foundational (NordiCHI’14), Helsinki, Finland. New York, NY: ACM, S. 598–607.10.1145/2639189.2639259Search in Google Scholar

Mayring, P. (2010). Qualitative Inhaltsanalyse. Grundlagen und Techniken. 11., aktualisierte und überarbeitete Auflage. Weinheim und Basel: Beltz. ISBN 978-3-407-25533-4.Search in Google Scholar

McCarty, W. (2004). Modeling: A Study in Words and Meanings. Schreibman, S.; Siemens, R.; Unsworth, J. (Eds.). A Companion to Digital Humanities. Malden, MA et al.: Blackwell. ISBN 978-1-4051-6806-9, S. 254–270.10.1111/b.9781405103213.2004.00022.xSearch in Google Scholar

Meuser, M.; Nagel, U. (2005). ExpertInneninterviews – vielfach erprobt, wenig bedacht. Ein Beitrag zur qualitativen Methodendiskussion. Bogner, A.; Menz, W. (2005) (Hrsg.). Das theoriegenerierende Experteninterview. Erkenntnisinteresse, Wissensformen, Interaktion. Experteninterviews. Theorien, Methoden, Anwendungsfelder. 3., grundlegend überarbeitete Auflage. Wiesbaden: VS, Verlag für Sozialwissenschaften. ISBN 978-3-531-16259-1, S. 71–93.Search in Google Scholar

Meuser, M.; Nagel, U. (2009). Das Experteninterview. Konzeptionelle Grundlagen und methodische Anlage. Pickel, S.; Pickel, G.; Lauth, H.-J.; Jahn, D. (2009) (Hrsg.). Methoden der vergleichenden Politikwissenschaft. Neue Entwicklungen und Anwendungen. Wiesbaden: VS, Verlag für Sozialwissenschaften. ISBN 978-3-531-16194-5, S. 465–479.10.1007/978-3-531-91826-6_23Search in Google Scholar

Miles, M. B.; Huberman, M. A.; Saldaña, J. (2014). Qualitative Data Analysis. A Methods Sourcebook. 3rd edition. Thousand Oaks, CA et al.: Sage. ISBN. 9781452257877.Search in Google Scholar

Pasin, M.; Motta, E. (2011). Ontological Requirements for Annotation and Navigation of Philosophical Resources. Synthese, Bd. 182, Nr. 2, S. 235–267.10.1007/s11229-009-9660-3Search in Google Scholar

Pattuelli, M. C. (2011). Modeling a Domain Ontology for Cultural Heritage Resources: A User-centered Approach. Journal of the American Society for Information Science and Technology, Bd. 62, Nr. 2, S. 314–342.10.1002/asi.21453Search in Google Scholar

Pickard, A. (2007). Research Methods in Information. London: Facet Publishing. ISBN 978-1-85604-545-2.Search in Google Scholar

Randall, D.; Schrobe, H.; Szolovis, P. (1993). What Is a Knowledge Representation? AI Magazine, Bd. 14, Nr. 1, S. 17–33.Search in Google Scholar

Reinhold, A. (2015). Forschungsdaten in der videobasierten Unterrichtsforschung. Modellierung und Evaluierung einer nutzerzentrierten Domänen-Ontologie. Dissertation Universität Hildesheim. Glückstadt: vwh. ISBN. 978-3-86488-080-3.Search in Google Scholar

Saldaña, J. (2013). The Coding Manual for Qualitative Researchers. 2nd edition. London et al.: Sage. ISBN 978-1446247372.Search in Google Scholar

Simsion, G. C., Witt, G. C. (2004). Data Modeling Essentials. 3rd edition. San Francisco, CA: Morgan Kaufmann. ISBN 0126445516.Search in Google Scholar

Staab, S. (2002). Wissensmanagement mit Ontologien und Metadaten. Informatik-Spektrum, Bd. 25, Nr. 3, S. 194–209.10.1007/s002870200226Search in Google Scholar

Terras, M.; Nyhan, J.; Vanhoutte, E. (2013). Defining Digital Humanities. A Reader. Farnham et al.: Ashgate. ISBN 978-1-4094-6962-9.Search in Google Scholar

Tsakonas, G.; Papatheodorou, C. (2011). An Ontological Representation of the Digital Library Evaluation Domain. Journal of the American Society for Information Science and Technology, Bd. 62, Nr. 8, S. 1577–1593.10.1002/asi.21559Search in Google Scholar

Weller, K. (2013). Ontologien. Kuhlen, R.; Semar, W.; Strauch, D. (2013) (Hrsg.). Grundlagen der praktischen Information und Dokumentation: Handbuch zur Einführung in die Informationswissenschaft und –praxis. 6., völlig neu gefasste Ausgabe. Berlin und Boston: De Gruyter Saur. ISBN 978-3-11-025822-6, S. 207–218.10.1515/9783110258264.207Search in Google Scholar

Werner, P. (2013). Qualitative Befragungen. Umlauf, K.; Fühles-Ubach, S.; Seadle M. (2013) (Hrsg.). Handbuch Methoden der Bibliotheks- und Informationswissenschaft. Bibliotheks-, Benutzerforschung, Informationsanalyse. Berlin und Boston: De Gruyter Saur. ISBN 978-3-11-025553-9, S. 128–151.10.1515/9783110255546.128Search in Google Scholar

Wildemuth, B. M. (2009) (Ed.). Applications of Social Research Methods to Questions in Information and Library Science. Westport, CT: Libraries Unlimited. ISBN 978-1-59158-503-9.Search in Google Scholar

Zhang, Y.; Wildemuth, B. M. (2009). Qualitative Analysis of Content. Wildemuth, B. M. (2009) (Ed.). Applications of Social Research Methods to Questions in Information and Library Science. Westport, CT: Libraries Unlimited. ISBN. 978-1-59158-503-9, S. 308–319.Search in Google Scholar

Dr. Anke Reinhold ist wissenschaftliche Mitarbeiterin am Informationszentrum Bildung des Deutschen Instituts für Internationale Pädagogische Forschung (DIPF) in Frankfurt am Main. Ihre Forschungsschwerpunkte sind Wissensmodellierung, Informetrie und Mensch-Maschine-Interaktion. Ihre Dissertation, die in Zusammenarbeit mit dem Institut für Informationswissenschaft und Sprachtechnologie (IWIST) an der Universität Hildesheim entstanden ist, behandelt die benutzerzentrierte Modellierung und Evaluierung einer Forschungsdaten-Ontologie für die Bildungsforschung.

Online erschienen: 2015-10-31
Erschienen im Druck: 2015-11-1

© 2015 Walter de Gruyter GmbH, Berlin/Boston

Downloaded on 7.12.2023 from https://www.degruyter.com/document/doi/10.1515/iwp-2015-0057/html
Scroll to top button