Jump to ContentJump to Main Navigation
Show Summary Details
More options …

Information - Wissenschaft & Praxis

Ed. by Reibel-Felten, Margarita

6 Issues per year


CiteScore 2017: 0.10

SCImago Journal Rank (SJR) 2017: 0.151
Source Normalized Impact per Paper (SNIP) 2017: 0.384

Online
ISSN
1619-4292
See all formats and pricing
More options …

Automatische Erkennung von politischen Trends mit Twitter – brauchen wir Meinungsumfragen noch?

Automatic detection of political trends by Twitter analysis – do we still need opinion surveys?

L’identification automatique de tendances politiques avec Twitter –est-ce que nous avons encore besoin de sondages d'opinion ?

Prof. Dr. Melanie Siegel
  • Corresponding author
  • Informationswissenschaft, Fachbereich Media, Hochschule Darmstadt, Max-Planck-Straße 2, 64807 DieburgInformationswissenschaft, Fachbereich Media, Hochschule Darmstadt64807 DieburgGermany
  • Email
  • Other articles by this author:
  • De Gruyter OnlineGoogle Scholar
/ Jennifer Deuschle
  • Informationswissenschaft, Fachbereich Media, Hochschule Darmstadt, Max-Planck-Straße 2, 64807 DieburgInformationswissenschaft, Fachbereich Media, Hochschule Darmstadt64807 DieburgGermany
  • Email
  • Other articles by this author:
  • De Gruyter OnlineGoogle Scholar
/ Barbara Lenze
  • Informationswissenschaft, Fachbereich Media, Hochschule Darmstadt, Max-Planck-Straße 2, 64807 DieburgInformationswissenschaft, Fachbereich Media, Hochschule Darmstadt64807 DieburgGermany
  • Email
  • Other articles by this author:
  • De Gruyter OnlineGoogle Scholar
/ Marina Petrovic
  • Informationswissenschaft, Fachbereich Media, Hochschule Darmstadt, Max-Planck-Straße 2, 64807 DieburgInformationswissenschaft, Fachbereich Media, Hochschule Darmstadt64807 DieburgGermany
  • Email
  • Other articles by this author:
  • De Gruyter OnlineGoogle Scholar
/ Sascha Starker
  • Informationswissenschaft, Fachbereich Media, Hochschule Darmstadt, Max-Planck-Straße 2, 64807 DieburgInformationswissenschaft, Fachbereich Media, Hochschule Darmstadt64807 DieburgGermany
  • Email
  • Other articles by this author:
  • De Gruyter OnlineGoogle Scholar
Published Online: 2017-02-08 | DOI: https://doi.org/10.1515/iwp-2017-0009

Zusammenfassung

Meinungsforschungsinstitute betreiben einen beträchtlichen Aufwand, um die Meinungstrends der Bevölkerung bezogen auf Politiker mit Telefon- und Straßenumfragen zu erfassen. Mit einer Studierendengruppe haben wir uns im Winter 2015/16 die Frage gestellt, ob es möglich ist, diesen Prozess zu automatisieren. Die Idee dahinter ist, dass die Plattform Twitter vielfach für politische Diskussionen genutzt wird. Da sich Tweets auf einen Umfang von 140 Zeichen beschränken und das jeweilige Thema durch Hashtags meist eindeutig zugeordnet werden kann, scheinen sich Twitter-Daten gut für eine automatische Sentiment-Analyse zu eignen. Mit Sentiment-Analyse-Methoden kann man diese Tweets automatisch in positive und negative Meinungsäußerungen klassifizieren. Wir haben dafür einen Twitter-Crawler und Sentiment-Analyse in der Programmiersprache Python implementiert. Anschließend haben wir über einen Zeitraum von vier Wochen Tweets zu Politikern gesammelt und die Ergebnisse der Meinungsanalysen visualisiert. Schließlich haben wir unsere Ergebnisse mit dem ZDF-Politbarometer verglichen.

Abstract

Opinion research institutes try to capture the public opinion on politicians with telephone and road surveys. In winter 2015/16, a student group worked on the question if it is possible to automate this process. The idea behind this is that the platform Twitter is often used for political discussions. Since tweets are limited to 140 characters, and the topic can usually be clearly identified by hashtags, Twitter data seem to be well suited for automatic sentiment analysis. Sentiment analysis methods aim to automatically classify these tweets into positive and negative expressions of opinion. We have implemented a Twitter crawler and sentiment analysis routines in Python. We then collected tweets for politicians over a period of four weeks, and visualized the results of the opinion analyses. Finally, we compared our results with the “ZDF-Politbarometer“, a monthly TV opinion analysis.

Résumé

Les instituts de sondage font des efforts considérables pour déterminer les tendances de l'opinion publique à propos des personnalités politiques en utilisant des sondages téléphoniques et des enquêtes de rue. Avec un groupe d'étudiants, nous nous sommes demandé, durant l'hiver 2015–16, s'il serait possible d'automatiser ce processus. L'idée derrière cela est que la plate-forme Twitter est souvent utilisée pour des discussions politiques. Comme les tweets sont limités à 140 caractères et, dans la plupart des cas, le sujet peut être attribué clairement grâce aux hashtags, les données Twitter semblent très appropriées pour une analyse automatique de sentiments. Les méthodes d'analyse de sentiments permettent facilement de classer ces tweets automatiquement en opinions positives et négatives. Pour ce projet, nous avons utilisé un robot Twitter et une méthode d'analyse de sentiments dans le langage de programmation Python. Ensuite, nous avons recueilli des tweets sur des politiciens pendant une période de quatre semaines et visualisé les résultats des analyses d’opinion. Enfin, nous avons comparé nos résultats avec le baromètre politique de la chaîne de télévision ZDF.

Deskriptoren: Sprachtechnologie; Sentiment-Analyse; Politik; Twitter; Medienforschung

Descriptors: Media research; sentiment analysis; language technology; politics; Twitter

Descripteurs: Recherche sur les médias; Évaluation; Automatique; Politique; Enquête; Comparaison; Twitter

Einleitung

Meinungsforschungsinstitute betreiben einen beträchtlichen Aufwand, um die Stimmung der Bevölkerung bezogen auf Politiker mit Telefon- und Straßenumfragen zu erfassen. Die Disziplin scheint jedoch in einer Krise zu stecken. Bereits beim Brexit waren einen Tag vor dem Referendum die meisten Meinungsforschungsinstitutionen zum Schluss gekommen, dass die Briten in der EU bleiben wollen.1 Aber auch bei der US-Wahl wurde in den meisten Fällen Clinton vorn gesehen.2

Mit einer Studierendengruppe haben wir uns im Winter 2015 die Frage gestellt, ob man den Prozess der Meinungsforschung automatisieren kann. Dahinter steht die Frage, ob die Plattform Twitter, die vielfach für politische Diskussionen genutzt wird, als Quelle für Meinungsforschung dienen kann und klassische Meinungsforschung dadurch ersetzbar wird.

Da sich Tweets auf einen Umfang von 140 Zeichen beschränken und das jeweilige Thema durch Hashtags meist eindeutig zugeordnet werden kann, scheinen sich Twitter-Daten gut für eine automatische Sentiment-Analyse zu eignen. Mit sogenannten „Sentiment-Analyse-Methoden“ sollte versucht werden, diese Tweets automatisch in positive und negative Meinungsäußerungen zu klassifizieren. Die Idee dabei war, Tweets zu Politikern mit Veränderungen im ZDF-Politbarometer in Beziehung zu setzen. Damit näherten wir uns einer Antwort auf die Frage, ob man den Meinungstrend der Bevölkerung automatisch erfassen und damit letztlich klassische Meinungsforschung durch automatisierte Verfahren ersetzen kann.

Stand der Forschung

(Tumasjan et al. 2010) haben bereits 2009 versucht, mit der automatischen Analyse von Twitter die Ergebnisse der Bundestagswahl in Deutschland vorauszusagen. Dabei haben sie 100.000 Twitter-Nachrichten mit einer automatischen Text-Analyse-Software klassifiziert und die Ergebnisse mit den Ergebnissen der Bundestagswahl verglichen. Zu diesem Zeitpunkt war Twitter relativ neu, noch nicht mal vier Jahre alt. Die politische Diskussion in Twitter wurde von wenigen Nutzern beherrscht: „In sum, it becomes clear that, while Twitter is used as a forum for political deliberation, this forum is dominated by a small number of heavy users.“ (Tumasjan et al. 2010, 181) Dennoch konnte eine klare Relation zwischen der Anzahl der Tweets zu einer politischen Partei und ihrem Wahlergebnis festgestellt werden: Je mehr Tweets es zu einer Partei gab, desto besser war das Ergebnis der Wahl. Die Abweichung betrug lediglich 1,65 Prozent, also nicht viel schlechter als bei den Vorhersagen der „Forschungsgruppe Wahlen“ mit einer Abweichung von 1,48 Prozent. (Jungherr et al. 2012) versuchten zwei Jahre später, diese Analyse nachzuvollziehen und kamen zum gegenteiligen Ergebnis: „The number of party mentions in the Twitter sphere is thus not a valid indicator of offline political sentiment or even of future election outcomes.“ (Jungherr et al. 2012, 233)

(Maynard und Funk 2011) untersuchten politische Tweets im Zusammenhang mit den britischen Parlamentswahlen im Jahr 2010 und klassifizierten automatisch Meinungsäußerungen. Im letzten Schritt korrigierten sie aber die Klassifikation der Tweets manuell, denn die automatische Klassifikation hatte eine Präzision von 62,2 Prozent. Das ist nicht aussagekräftig genug, um z. B. Wahlprognosen abzugeben.

Sentiment-Analyse über Social-Media-Daten ist ein Thema, das aktuell sehr aktiv betrieben wird und auch regelmäßig Gegenstand einer SemEval-Task ist. 2016 haben sich 43 wissenschaftliche Teams daran beteiligt (Nakov et al. 2016). Die Herausforderung ist, die Meinung der Twitter-Autoren automatisch zu erkennen und damit ein Meinungsbild zu erstellen. Twitter-Sätze sind zwar kurz aber nicht standardisiert, mit Umgangssprache, Rechtschreibfehlern und speziellen Ausdrücken. Dazu kommen Ironie und Sarkasmus. Das erschwert eine automatische Klassifizierung erheblich, weil die Algorithmen bis vor wenigen Jahren für Standardsprache – häufig Zeitungstexte – entwickelt worden sind. Technisch sind aktuell Methoden des maschinellen Lernens (Deep Learning) vorherrschend, aber auch Sentiment-Wörterbücher.

Die meisten Untersuchungen und automatischen Analysen beziehen sich jedoch auf die englische Sprache. Auch (Tumasjan et al. 2010) haben die deutschen Tweets automatisch ins Englische übersetzt, um die Werkzeuge nutzen zu können, die vorwiegend für die englische Sprache verfügbar sind. Die deutschsprachigen Twitter-Nachrichten enthalten jedoch weitaus mehr Ironie als die englischsprachigen und sind daher schwerer zu analysieren. In den letzten zwei Jahren erschienen verstärkt Publikationen, die sich mit Sentiment-Analyse für die deutsche Sprache beschäftigen.3 (Sidarenka 2016) stellen einen annotierten Korpus mit deutschsprachigen Tweets vor, der politische Themen behandelt.

Aufstellung der Datenbasis

Für die Untersuchung sollten Twitter-Beiträge zu Politikern und Ergebnisse der Meinungsforschung des ZDF-Politbarometers verwendet werden.

Politbarometer

Der Politbarometer wird von der Forschungsgruppe Wahlen e. V. (FGW) seit 1977 betrieben. Diese existiert seit 1974. Zu den Hauptaufgaben zählt die Betreuung und wissenschaftliche Beratung der Sendungen des Zweiten Deutschen Fernsehens (ZDF).4 Dabei werden Themenschwerpunkte wie politische Wahlen, Wählerverhalten, Meinungen zu politischen und gesellschaftlichen Fragen untersucht. Außerdem unterstützen und beraten sie bei der Verwendung von sozialwissenschaftlichen Daten. Für diese Untersuchung ist besonders der Aspekt „Beobachtungen gesellschaftlicher Trends und Stimmungen“ interessant. Die Politbarometer-Untersuchungen ermitteln die zehn momentan beliebtesten bzw. sympathischsten und leistungsstärksten Spitzenpolitiker. Die Erhebung erfolgt telefonisch (Dienstag bis Donnerstag). Zielgruppe sind Wahlberechtigte in der Bundesrepublik Deutschland. Es werden in den westlichen Bundesländern ca. 1.000 zufällig ausgewählte Wahlberechtigte befragt, in den neuen Bundesländern 700. Um ein repräsentatives Ergebnis zu erhalten, werden die Befragungen im Osten überquotiert. Letztlich werden ca. 1.250 Interviews evaluiert. Weiterhin wird eine Zufallsauswahl der Befragten vorgenommen und nach mehreren Faktoren gewichtet. Die Bewertungsskala der Politiker umfasst den Wertebereich von -5 bis 5. Für den Vergleich mit Twitter haben wir die Monate Oktober und November 2015 betrachtet, speziell die Veränderungen in der Beliebtheitsskala der Politiker. Abbildung 1 zeigt die Werte der Beliebtheitsskala für die untersuchten Politiker im November und Dezember 2015.

Politbarometer: Beliebtheit der Politiker.
Abbildung 1:

Politbarometer: Beliebtheit der Politiker.

Twitter

Twitter stellt für Forschungszwecke eine API zur Verfügung, die z. B. mit einer Python-Schnittstelle angesprochen werden kann. Damit lassen sich Tweets zu einem bestimmten Keyword oder Hashtag rückblickend für eine Woche aus der Twitter-Timeline extrahieren. Wir haben daher einen Python-basierten Twitter-Crawler geschrieben. Dieser extrahiert automatisch Tweets, die sich mit einem der zehn Politiker beschäftigen, die auch im Politbarometer untersucht werden. In einer Voruntersuchung wurden die relevanten Keywords und Hashtags erfasst, mit denen der Twitter-Crawler dann gestartet wurde. Für jeden der zehn Politiker entstand so eine Textdatei, die alle Tweets der letzten sieben Tage enthält. Jede Zeile entspricht einem Tweet (s. Abb. 2). Insgesamt wurden von jedem beteiligten Politiker über vier Wochen insgesamt 800 Tweets gesammelt, eine Gesamtmenge von 8.000 Tweets.

Ergebnis des Twitter-Crawlers.
Abbildung 2:

Ergebnis des Twitter-Crawlers.

Sentiment-Analyse für Tweets

Im nächsten Schritt mussten die gesammelten Tweets daraufhin analysiert werden, ob sie Meinungsäußerungen enthalten und ob diese positiv oder negativ sind. Wir haben zunächst Algorithmen des automatischen Opinion Mining – wie sie z. B. bei (Liu 2012) beschrieben werden – auf unsere Daten angewendet, um sie zu klassifizieren. Dafür mussten die Tweet-Dateien zunächst von Sonderzeichen und Ähnlichem „gereinigt“ werden, was mit einer Python-Routine automatisiert werden konnte.

Opinion Mining für deutsche Tweets

Da kein annotierter Korpus zur Verfügung stand, der für maschinelle Lernverfahren genutzt werden konnte, wurde ein regel- und lexikonbasierter Ansatz verwendet. Sentiment-Wörterbücher für die deutsche Sprache sind verfügbar.5 Diese wurden in ein Python-Format überführt. Da sich aber die Sprache in Tweets – wie bereits erwähnt – erheblich von Standardsprache unterscheidet, wurde diese eingehender untersucht, um die Sentiment-Lexika anzupassen und zu erweitern. Mithilfe der Python-Bibliothek textblob6 wurden die syntaktischen Kategorien der Wörter annotiert und anschließend alle Adjektive extrahiert. Die Idee dabei ist, dass Adjektive ein guter Hinweis auf Meinungsäußerungen sind. Ein Problem für diesen Ansatz ist jedoch, dass auch textblob zunächst für Standardsprache entwickelt wurde und auf Twitter-Daten vieles falsch klassifiziert, so dass noch viel Kopf- und Handarbeit notwendig war, um das Lexikon zu erweitern.

So mussten im nächsten Schritt Negationen wie „nicht gut“ und Verstärker wie „sehr gut“ in die automatische Analyse einbezogen werden. Da Konditional- und Fragesätze normalerweise keine Meinungsäußerung enthalten, konnte man sie von der Klassifikation ausschließen. Schließlich wurde eine Lemmatisierung implementiert, um Schlüsselwörter auch in ihrer flektierten Form zu erkennen. Eine automatische Klassifikation vieler Tweets wurde damit möglich, wie in Abbildung 3 zu sehen ist.

Automatische Analyse eines Tweets.
Abbildung 3:

Automatische Analyse eines Tweets.

Bei der Anwendung auf den gesamten Korpus kam jedoch die Ernüchterung: die automatische Analyse lieferte viele – zu viele – falsche Ergebnisse. Hier sind Beispiele für einige Tweets aus dem Herbst 2016, die eine andere Herangehensweise erfordern7:

  • a)

    Oezdemir: „Der nächste Verkehrsminister darf nicht mehr von der CSU aus Bayern kommen.“ Dem ist nichts mehr hinzuzufügen. #Urwahl

  • b)

    @welt Oh da bewegt sich Seehofer auf sehr dünnem Eis, dasieht nach ein Verpflechtung der Vergangenheit aus.

  • c)

    Es ist enorm wichtig, die Gemeinsamkeiten zu benennen. Von Seehofer bis Stiefelnazis. Selbe Argumente, selbe Ziele, selbe Scheiße

  • d)

    Dann stellt #Seehofer wieder Forderungen beim #CSU_Parteitag und knickt vor #Merkel in #Berlin ein!

  • e)

    #Oettinger wird niemals eine Anästhesistin brauchen. Der Mann ist echt absolut schmerzbefreit.

Die Meinungsäußerung in a) ist eine komplexe Phrase, die wir mit dem lexikonbasierten Ansatz nicht erfassen. b) und d) enthalten Metaphern („auf sehr dünnem Eis“, „knickt ... ein“). In b) gibt es Tipp- und Rechtschreibfehler. c) enthält einige positive Wörter („wichtig“, „Gemeinsamkeiten“) und eine Wortneuschöpfung, ist aber insgesamt sehr negativ. e) ist ironisch und arbeitet wie b) und d) mit bildlicher Sprache.

Manuelle Auswertung der Tweets

Insgesamt konnte man sich den Twitter-Daten mit den zur Verfügung stehenden Mitteln und im gegebenen Zeitrahmen nur annähern, sie aber nicht in ausreichender Qualität automatisch klassifizieren, um die eingangs gestellte Frage beantworten zu können, ob eine Analyse von Twitter Meinungsforschung ersetzen kann. Um doch zu einer Antwort zu kommen, wurde im nächsten Schritt eine intellektuelle manuelle Klassifikation durchgeführt.

Aus den 8.000 Tweets wurden diejenigen extrahiert, die eine Meinungsäußerung zu einem der untersuchten Politiker enthalten. Diese wurden dann als negative, positive oder neutrale Meinungsäußerungen klassifiziert. Es stellte sich heraus, dass auch dies nicht immer einfach und eindeutig war. Dazu waren die annotierenden Studierenden in vielen Fällen unsicher, wie eine Klassifikation zu erfolgen hat. Es gab z. B. Tweets mit einer allgemeinen positiven Aussage unter einem Hashtag für einen Politiker, die aber nicht auch eine positive Aussage zu diesem Politiker waren. Dies ist ein typisches Problem, genannt „Inter-Annotator Agreement“, das z. B. auch bei (Sidarenka 2016) beschrieben wird: „Various inter-annotator agreement studies, which were carried out at different stages of work on these data [...], reveal that labeling evaluative judgements in microblogs is an inherently difficult task even for professional coders“. Daher wurde entschieden, nur eindeutige Fälle in die Annotation aufzunehmen.

Die intellektuelle manuelle Klassifikation der Tweets.
Abbildung 4:

Die intellektuelle manuelle Klassifikation der Tweets.

Datenanalyse

Die so erhobenen und klassifizierten Daten konnten nun untersucht und verglichen werden. Eine quantitative Analyse der Tweets der Politiker führt bereits zu interessanten Ergebnissen (s. Abb. 5). Insgesamt gab es deutlich mehr negative Tweets als positive.

Die Beliebtheitsskala der Politiker im Politbarometer im gleichen Zeitraum ist in Abbildung 6 zu sehen. Schäuble war der beliebteste Politiker, gefolgt von Steinmeier. Über beide wurde im Untersuchungszeitraum viel getwittert. Am unbeliebtesten war Seehofer, der gleichzeitig die meisten negativen Tweets bekam. Die Anzahl der Tweets ist anscheinend ebenso ein Indikator für die Beliebtheit wie die Anzahl der negativen Tweets.

Analyse der Tweets – Politikervergleich.
Abbildung 5:

Analyse der Tweets – Politikervergleich.

Beliebtheit der Politiker im November und Dezember 2015.
Abbildung 6:

Beliebtheit der Politiker im November und Dezember 2015.

In einem nächsten Schritt wurden die Bewegungen auf der Beliebtheitsskala mit den Veränderungen bei den Twitter-Daten verglichen, wobei interessante Korrelationen zu erkennen waren. Ein Politiker mit einer starken Dynamik in der Popularitätsskala war Gysi. Sein Wert stieg im Untersuchungszeitraum um 0,2 Punkte. Der Verlauf seiner Tweets zeigt, dass die positiven Tweets stark anstiegen, die negativen hingegen nur geringfügig (s. Abb. 7).

Tweets zu Gregor Gysi im November 2015.
Abbildung 7:

Tweets zu Gregor Gysi im November 2015.

Ein ähnliches Phänomen findet sich bei De Maizière. Das Politbarometer zeigt für ihn einen Rückgang der Beliebtheit von 0,3 Punkten auf insgesamt 0,6 im Dezember 2015, die größte Veränderung aller untersuchten Politiker. Parallel dazu gab es einen Anstieg der negativen Tweets, besonders im Zeitraum vom 11. bis zum 18. November 2015. Dieses Phänomen lässt sich auf ein besonderes Ereignis zurückführen. Sein Satz: „Teile dieser Antworten würden die Bevölkerung verunsichern“ aus der Pressekonferenz zur Absage des Fußballspiels Deutschland gegen Holland führte zu einem regelrechten „Shit Storm“. Dieser spiegelt sich in dem extremen Anstieg der negativen Tweets und zeigt die just-in-time-Reaktionen der Twitter-User.

Tweets zu De Maizière im November 2015.
Abbildung 8:

Tweets zu De Maizière im November 2015.

Von der Leyens Beliebtheit war nach den Meinungsumfragen im November und Dezember gleich. Die Twitter-Auswertung zeigt jedoch einen starken Anstieg der negativen Tweets, vor allem gegen Ende November (s. Abb. 8). Der Auftritt Von der Leyens im ARD Morgenmagazin und ihre umstrittenen Äußerungen zum Syrien-Krieg führten zu einem starken Anstieg der negativen Tweets. Hier zeigt sich, dass die Twitter-Analyse schneller erfolgen kann und damit direkte Reaktionen auf politische Ereignisse erkennbar werden.

Tweets zu Von der Leyen im November 2015.
Abbildung 9:

Tweets zu Von der Leyen im November 2015.

Fazit

Mit dem Web 2.0 sind aus Internet-Konsumenten Internet-Aktivisten geworden. In Foren, bei Facebook, bei Amazon und bei Twitter äußern Nutzer ihre Meinung und diskutieren miteinander. Seitdem wird aber auch versucht, diese Meinungsäußerungen automatisch zu analysieren. Dieses Projekt stellte die Frage, ob eine Twitter-Analyse die klassische Meinungsforschung (hier in Form des ZDF-Politbarometers) ersetzen kann. Um sie zu beantworten, wurden Twitter-Daten zu Politikern gesammelt und klassifiziert. Hier zeigten sich die Grenzen der automatischen aber auch der der intellektuell manuellen Klassifikation. Dennoch konnten einerseits interessante Korrelationen zwischen der erfragten Beliebtheit von Politikern und der Entwicklung ihrer Tweets festgestellt werden. Andererseits zeigte sich, dass Twitter-Analysen das Potential haben, Veränderungen, die sich aufgrund politischer Ereignisse ergeben, schnell aufzuzeigen.

Die Wissenschaft ist dabei, die Grenzen der automatischen Analyse zu überwinden. An der Shared Task zur Sentiment-Erkennung in Twitter-Daten beteiligten sich 2016 43 Teams. Auch die deutsche Forschung befasst sich verstärkt mit der Sentiment-Analyse für die deutsche Sprache und mit Twitter-Daten, so dass eine automatische Analyse schon sehr bald gute Ergebnisse liefern wird. Die klassische Meinungsforschung wird daher schon sehr bald ersetzbar sein.

Zwei Faktoren könnten diese Entwicklung stören: Erstens wenn Social Media-Kommentare und -Bewertungen von angeblich unabhängigen aber gekauften „Meinungsäußerungen“ überhäuft werden. Denn dann ergibt eine Analyse dieser Daten nur noch, welcher Politiker das meiste Geld dafür ausgibt. Der zweite Faktor ist das Phänomen der „Social Bots“, die im amerikanischen Wahlkampf 2016 angeblich für bis zu 30 Prozent der „Meinungsäußerungen“ verantwortlich waren. Wenn diese die Diskussion in den sozialen Netzwerken beherrschen, wird eine Auswertung sinnlos.

Literatur

  • Jungherr, A., Jürgens, P., & Schoen, H. 2012. „Why the pirate party won the german election of 2009 or the trouble with predictions: A response to Tumasjan, A., Sprenger, T. O., Sander, P. G., & Welpe, I.M. “predicting elections with twitter: What 140 characters reveal about political sentiment”.Social science computer review, 2012: 229–234. Web of ScienceGoogle Scholar

  • Liu, Bing. Sentiment Analysis and Opinion Mining. Morgan & Claypool Publishers, 2012. Google Scholar

  • Maynard, Diana, and Adam Funk. „Automatic detection of political opinions in tweets.“ Extended Semantic Web Conference, 2011. Google Scholar

  • Nakov, Preslav and Ritter, Alan and Rosenthal, Sara and Sebastiani, Fabrizio and Stoyanov, Veselin. „SemEval-2016 Task 4: Sentiment Analysis in Twitter.“ Proceedings of the 10th International Workshop on Semantic Evaluation (SemEval-2016). San Diego, USA: Association for Computational Linguistics, 2016. 1–18. Google Scholar

  • Sidarenka, Uladzimir. „PotTS: The Potsdam Twitter Sentiment Corpus.“ Proceedings of LREC. 2016. Google Scholar

  • Tumasjan, A., Sprenger, T. O., Sandner, P. G., & Welpe, I. M. „Predicting Elections with Twitter: What 140 Characters Reveal about Political Sentiment.“ ICWSM, 2010: 178–185. Google Scholar

Frau Prof. Dr. Melanie Siegel, Computerlinguistin und Sprachtechno-login, ist seit 2012 Professorin an der Hochschule Darmstadt, Fachbereich Media. Ihre Schwerpunkte sind: Sprachtechnologie, Maschinelle Übersetzung, Syntax und Semantik der japanischen Sprache, Ontologien, Informationsextraktion, Sentimentanalyse und Technische Dokumentation.

Jennifer Deuschle hat nach dem Studium der Bibliotheks- und Informationswissenschaft in Stuttgart ihr Masterstudium Informationswissenschaft an der Hochschule Darmstadt aufgenommen.

Barbara Lenze belegt seit 2014 ein Masterstudium Informationswissenschaft an der Hochschule Darmstadt und ist Werkstudentin bei T-Online in der Redaktion.

Marina Petrovic ist Masterstudentin im Studiengang Informationswissenschaften an der Hochschule Darmstadt und war Teilnehmerin des Opinion Mining Projekts „Trenderkennung“.

Sascha Starker, gebürtiger Bensheimer und Student der Informati-onswissenschaften an der Hochschule Darmstadt, steht kurz vor seinem Masterabschluss.

Footnotes

About the article

Published Online: 2017-02-08

Published in Print: 2017-02-01


Citation Information: Information - Wissenschaft & Praxis, Volume 68, Issue 1, Pages 67–74, ISSN (Online) 1619-4292, ISSN (Print) 1434-4653, DOI: https://doi.org/10.1515/iwp-2017-0009.

Export Citation

© 2017 Walter de Gruyter GmbH, Berlin/Boston.Get Permission

Comments (0)

Please log in or register to comment.
Log in