Skip to content
Accessible Published by De Gruyter Saur April 7, 2020

Datenexploration für Kryptowährungen

Prototypische Entwicklung eines Dashboards mit Open Source Technologie

Data exploration for crypto currencies
Exploration de données pour les monnaies cryptées
Prototypical development of a dashboard with open source technology
Développement d'un prototype de tableau de bord avec une technologie open source
Lukas Sontheimer, Ralph Kölle and Thomas Mandl

Zusammenfassung

Kryptowährungen gewinnen zunehmend an Bedeutung und ihr Handel unterliegt großen Wertschwankungen. Erfolgreiche Händler müssen sich aus zahlreichen Quellen informieren und Daten analysieren. Wir präsentieren ein prototypisches System, das aus Twitter die Nachrichten zu Kryptowährungen filtert und anschließend in einer graphischen und interaktiven Oberfläche darstellt. Der Beitrag zeigt beispielhaft, wie mit der offenen ElasticSearch Technologie eine Datenvisualisierung entwickelt werden kann. Zwei Interviews mit Domänenexperten weisen auf Schwächen und Stärken des Systems hin.

Abstract

Crypto currencies are becoming increasingly important and their trading is subject to large fluctuations in value. Successful traders must obtain information and analyze data from numerous sources. We present a prototypical system that filters messages about crypto currencies from Twitter and then displays them in a graphical and interactive interface. The article shows exemplarily how data visualization can be developed with the open ElasticSearch technology. Two interviews with domain experts point out weaknesses and strengths of the system.

Résumé

Les monnaies cryptographiques prennent de plus en plus d’importance et leur commerce est soumis à de grandes fluctuations de valeur. Les commerçants qui réussissent doivent obtenir des informations et analyser des données provenant de nombreuses sources. Nous présentons un système prototype qui filtre les messages sur les monnaies cryptées de Twitter et les affiche ensuite dans une interface graphique et interactive. L’article montre de manière exemplaire comment la visualisation de données peut être développée avec la technologie ouverte ElasticSearch. Deux entretiens avec des experts du domaine soulignent les faiblesses et les forces du système.

1 Blockchain und Digitalisierung im Finanzbereich

Die Blockchain ist derzeit in aller Munde. Dabei handelt es sich um eine dezentrale Technologie, die alle Transaktionen eines Peer-to-Peer-Netzwerkes verifiziert und zusammenfasst. Diese Blöcke werden in einer Kette festgehalten, die zusammenhängend die Blockchain bilden (Nakamoto 2008). Diese bietet Dezentralisierung, Echtzeit Peer-to-Peer Operationen, Anonymität, Transparenz sowie Unabänderlichkeit (Hassani et al. 2018). Ihre bisher weitreichendste Anwendung liegt in Kryptowährungen. Deren Kern bildet jeweils ein verschlüsseltes Fundament, welches durch die Mischung von unterschiedlichen Kryptographie-Methoden sichere Peer-to-Peer Transaktionen ermöglicht (Tschorsch & Scheuermann 2016).

Als erste Volkswirtschaft hat China 2019 angekündigt, eine eigene Digitalwährung einzuführen. Dies zeigt, dass die Digitalisierung auch die Finanzmärkte zukünftig noch mehr beeinflussen wird. Bereits bestehende Kryptowährungen basieren auf komplexen Netzwerktechnologien. Ihr Wert kann kaum von regulierenden Institutionen beeinflusst werden. Somit wird Datenanalyse für den Handel sehr wichtig. Text Mining hat sich in den letzten Jahren als wichtige Technologie durchgesetzt (Mandl 2013) und gerade Twitter gilt häufig als eine gute Quelle für die Analyse von Trends (Xing et al. 2018).

Im Folgenden zeigen wir modellhaft, wie für Kryptowährungen ein Text Mining Prototyp aufgebaut wird, der Twitter-Daten mit Python extrahiert und diese mit dem flexiblen Web-Tool Kibana visualisiert. Das System wurde nach den Prinzipien der nutzerorientierten Gestaltung für die Währungen Bitcoin, Litecoin und Ripple entwickelt. Mit Hilfe eines Leitfadeninterviews wurde dieses Dashboard von zwei Domänen-Experten qualitativ evaluiert.

2 Kryptowährungen

Kryptowährungen haben sich seit der Einführung des Grundgedanken 2008 zu einem globalen Phänomen mit einer Marktkapitalisierung von über 200 Mrd. US-Dollar und mehr als 5000 verschiedenen Währungen entwickelt (Coinmarketcap 2019). Der Markt der Kryptowährungen ist vielseitig und zeichnet sich durch ein entscheidendes Merkmal aus – keine Währung hat eine zentrale Instanz wie eine Zentralbank, die den Geldfluss der Währung steuern kann. Der Marktwert einer Kryptowährung wird damit nahezu ausschließlich von Angebot und Nachfrage bestimmt. Angebot und Nachfrage wiederum werden stark von der Wahrnehmung einer Kryptowährung beeinflusst, die sich sehr gut anhand von Social-Media Plattformen wie Twitter beobachten lässt (Kim et al. 2017).

Twitter stellt eine ideale Quelle dar, um Textdaten zum Thema Kryptowährungen zu erforschen und so unentdeckte Zusammenhänge aufzudecken. In der Literatur fokussieren sich die meisten Forscher auf die Volatilität des Kryptowährungsmarktes und nutzen eine Reihe von Big Data Analyse Techniken, um bessere Prognosen und Analysen zu erstellen. Im Kern ist das Ziel die Profitmaximierung und die Reduzierung eines Investment-Risikos. Dabei wurden Echtzeit-Twitter-Daten über eine bestimmte Kryptowährung für die Entwicklung einer vorteilhaften Trading-Strategie genutzt. Der Bereich der Kryptowährungen rückt weiter in den Fokus der Forschung, aber trotz alledem liegt hier noch viel Potential für zukünftige Fragestellungen.

Hassani et al. haben einen genaueren Blick auf die Interaktion von Big Data und Kryptowährungen im Allgemeinen geworfen (Hassani et al. 2018: 1) und Kryptowährungen selbst als Datenquelle für Big Data betrachtet. Sie kommen zu dem Schluss, dass mit Big Data Analyse Techniken wertvolle Erkenntnisse gewonnen werden können, die einen besseren Einblick in die Kryptowährung-Industrie gewähren (Cavalcante et al. 2016).

Der Entwicklung des hier vorgestellten prototypischen Systems setzt an dieser Stelle an und kombiniert diese beiden Datenquellen zu einer Datenanalyse, um wertvolle Erkenntnisse und Zusammenhänge über Kryptowährungen zu erhalten und diese in einem nutzerfreundlichen Dashboard für Trader und Investoren zu visualisieren. Der vorgestellte Prototyp legt seinen Schwerpunkt auf Twitter-Daten, bezieht aber auch elementare Daten über Kryptowährungen ein.

3 Datengrundlage Twitter

Tweets haben sich bereits zu einer gängigen Datengrundlage in den Sozial- und Politikwissenschaften entwickelt und bergen ein enormes Potential zur Analyse gerade aktueller Ereignisse. Als Grundlage für die hier gezeigte Analyse dient ein Datenset mit ca. 130 Mio. Tweets aus dem Zeitraum vom 1. bis zum 31. Dezember 2017. Dieses ist eine einfache Kollektion von Tweets im JSON Datenformat, die zum Zweck der Forschung, Archivierung, Speicherung und zu Testzwecken aus dem Twitter Stream extrahiert wurden. Bereitgestellt wird dieses Datenset von der Non-Profit Organisation The Internet Archive (vgl. Internet Archive 1996). Geleitet von der Mission, einen universellen freien Zugang zu Wissen zu schaffen, stellt das Online-Archiv Forschern unter anderem monatliche Mengen von Tweets bereit.

Dem verwendeten Datenset liegt eine neutrale Haltung zu Grunde. Beim Sammeln durch das Internet Archive wurde keine bestimmte Intention verfolgt, sodass keine Verzerrung vorliegt. Dadurch lässt es sich als authentische Datenquelle betrachten und kann nach allen beliebigen Faktoren untersucht werden. Die Tweets darin sind im sogenannten JSON Format abgelegt. JSON steht für JavaScript Object Notation und ist ein schlankes Datenaustauschformat, das für Menschen einfach zu lesen und zu schreiben ist, gleichzeitig aber auch für Maschinen einfach zu parsen und zu generieren.

Von den ca. 130 Millionen Tweets aus dem ursprünglichen Datenset wurden ca. 130.000 Tweets zum Thema Bitcoin herausgefiltert. Das entspricht etwa 0,1 Prozent des ursprünglichen Datensets. Anhand dieser einfachen Datenanalyse lassen sich bereits Zusammenhänge erkennen, die als Indikatoren für eine Trenderkennung dienen können. Die Visualisierungen im finalen Dashboard stellen Informationen aus den Metadaten dieser Tweets dar. Wie die Daten extrahiert bzw. verarbeitet wurden und wie der Prototyp entwickelt wurde, wird im folgenden Abschnitt näher erläutert. Eine vollständige Erläuterung bietet Sontheimer (2019).

4 Datenextraktion und Verarbeitung

Das in diesem Abschnitt dargelegte prototypische System nutzt eine selbst programmierte Code-Pipeline für die Datenanalyse und die offene ElasticSearch Technologie für die Datenvisualisierung. ElasticSearch (ES) ist eine Open-Source-Suchmaschine auf Basis der Java-Bibliothek Apache Lucene. Das Programm sucht und indexiert Dokumente verschiedener Formate, speichert die Suchergebnisse in einem NoSQL-Format (JSON) und gibt sie über eine RESTful-Webschnittstelle aus (vgl. ElasticSearch B.V. 2019). Dadurch unterliegt der Kern der Software Open-Source-Lizenzen (Apache Lizenz 2.0) und ist vielseitig auf große, organisierte und unstrukturierte Datenmengen anwendbar. Inzwischen hat sich ElasticSearch zu einem beliebten Web-Tool entwickelt und wird unter anderem von Organisationen wie Wikipedia, GitHub und Stack Overflow verwendet.

Der Datenextraktion und Verarbeitung aus den Twitter-Daten ging zunächst eine Auseinandersetzung mit der Datenstruktur und dem Aufbau der Daten voran, für die Entwicklung des Prototyps war dennoch keine tiefere Kenntnis über Datenstrukturen Voraussetzung. Die Code-Pipeline des Prototyps wurde in einem iterativen Prozess entwickelt, der mit kleinen Datenmengen zu Testzwecken begann und in den Folgeschritten mit größeren Datenmengen weitergeführt wurde. Einen Überblick zeigt Abbildung 1. Die Verarbeitung erfolgt mit Python, denn es ermöglicht einen leichten Zugriff auf Programmierschnittstellen (APIs) und unzählige Bibliotheken. In die verwendete Version 3.7 konnten die Bibliotheken glob, patool, internetarchive und elasticsearch sehr leicht importiert werden. Im Entwicklungsprozess wurden die Elemente der Code-Pipeline anfangs in einzelne Skripte geschrieben, wie Abbildung 1 zeigt. Der finale Code wurde aus Gründen der Effizienz und universellen Einsetzbarkeit in einem Jupyter Notebook (vgl. Jupyter 2019) entwickelt.

Abbildung 1 Prozess zur Erstellung des Prototyps.

Abbildung 1

Prozess zur Erstellung des Prototyps.

Die Code-Pipeline startet mit einem zentralen Skript, in dem alle relevanten Parameter, wie das relevante Tweet-Datenset bzw. alle Suchterme, definiert werden. Anschließend wird das gewünschte Datenset mit Tweets von der Webseite des Internet Archive heruntergeladen und entpackt. Im Falle des verwendeten Datensets umfasste das vollständig entpackte Datenset im JSON-Format eine Größe von ca. 500 GB. Die Code-Pipeline wird mit der eigentlichen Datenanalyse fortgesetzt, in der die Twitter-Daten nach Stichwörtern untersucht und aus allen relevanten Tweet-Objekte die wesentlichen Attribute extrahiert werden. Ein Tweet-Objekt beinhaltet über 150 Meta-Daten-Attribute, von denen nur wenige für die spätere Darstellung notwendig sind. Die relevanten Tweet-Objekte mit den extrahierten Attributen werden zu einer finalen JSON zusammengefasst und in den Elastic Stack übertragen. In diesem Prozess wird eine Verbindung mit einem ElasticSearch-Cluster hergestellt, ein Index angelegt und die Ergebnisdokumente mit den jeweiligen Feldern gespeichert und indexiert. Für den Prototyp wurde ein lokal installiertes ElasticSearch-Cluster verwendet.

Nach dem Einlesen in das Elastic-Stack können die Ergebnisse mit Hilfe von Kibana visuell aufbereitet und betrachtet werden. Durch seine benutzerfreundliche Oberfläche fungiert Kibana auch als Management-Oberfläche für ElasticSearch. Damit kann auf den vorher erstellten Index mit den relevanten Tweet-Objekten zugegriffen werden. Durch die Erstellung eines sogenannten Index-Pattern in Kibana, lassen sich eine Vielzahl von Visualisierungen kreieren. Diese lassen sich in einem Dashboard zusammenstellen und beliebig konfigurieren. Für den Prototyp wurden zusätzlich zu den Metadaten der Tweets auch Kurs- und Handelsvolumen-Daten zum Bitcoin aus CryptoCompare (vgl. CryptoCompare 2019) mit in ElasticSearch importiert und in Kibana dargestellt.

Im Entwicklungsprozess wurde das Datenset zur besseren Handhabung zunächst stückweise in die Code-Pipeline gegeben. Mit einem Laptop (16 GB Arbeitsspeicher und 2,5 GHz Prozessorleistung) wurde die Pipeline mit Teilmengen durchlaufen. Im weiteren Prozess wurde die Code-Pipeline in den zunehmend in ein Online-Notebook in der Umgebung Google Colab (vgl. Google LLC 2019) transformiert. Das entstandene Jupyter Notebook steht online in einem Github Repository (vgl. Sontheimer 2020) zur Verfügung.

Diese Transformation ermöglicht es, durch die Automatisierung von Daten-Download und Entpacken der Daten, die Code-Pipeline (mit entsprechender Anpassung) in jeder Umgebung einzusetzen. Ein Beispiel für eine solche Umgebung ist Amazon Web Services (vgl. Amazon.com Inc. 2019). Das Unternehmen bietet darin zahlreiche Anwendungen in der Cloud an, die besonders für die Datenverarbeitung geeignet sind. Eine intuitivere und einfachere Alternative bietet Google Colab (vgl. Google LLC 2019). Google Colab bietet die Möglichkeit, ein ausführbares Dokument zu erstellen, in dem Nutzer Codes schreiben, ausführen und teilen können. Das Dokument ist vergleichbar mit einem Juypter Notebook (vgl. Project Jupyter 2019) und ist aus Zellen zusammengesetzt, von denen jeder Code, Text, Bilder und mehr enthalten kann. Diese Umgebung eignet sich besonders für Datenverarbeitungen, die eine hohe Rechenleistung benötigen. Sowohl in AWS als auch in Colab ließen sich mit der Pipeline sehr einfach auch größere Mengen an Twitter-Daten verarbeiten.

5 Benutzerschnittstelle

Die Entwickler hinter Kibana bezeichnen die browserbasierten Open-Source-Analyseplattform als „Fenster“ auf die Daten (vgl. ElasticSearch B.V. 2019). Mit ihr lassen sich Daten aus ES-Indizes visualisieren und suchen. Aus den Visualisierungen lässt sich ein Dashboard mit interaktiven Elementen erstellen. Die Open-Source-Varianten von ElasticSearch und Kibana bieten eine Vielzahl von Möglichkeiten zur Datenanalysen und Visualisierung. Diese können einfach und ohne Programmierkenntnisse eingesetzt werden. Die Ergebnisse aus der oben beschriebenen Datenverarbeitung wurden in Kibana visualisiert und in dem Dashboard zusammengestellt, das in den Abbildungen 2 bis 4 dargestellt wird. Das Dashboard selbst ist in elementare und beiläufige Indikatoren unterteilt.

Elementare Indikatoren: Der obere Teil des Dashboards in Abbildung 2 zeigt die elementaren Indikatoren, beginnend mit dem Bitcoin-Preis in der oberen linken Ecke, dem Bitcoin-Handelsvolumen in der linken unteren Ecke, dem Tweet-Volumen in der oberen rechten Ecke und zuletzt der Gesamtanzahl geposteter Tweets für den ausgewählten Zeitraum unten rechts. Die Daten hinter dem Bitcoin-Preis und dem Bitcoin-Handelsvolumen wurden von CryptoCompare entnommen; das Tweet-Volumen und die Gesamtanzahl geposteter Tweets entstammen den Metadaten der indexierten Tweets zum Bitcoin.

Abbildung 2 Elementare Indikatoren für Kryptowährungen im oberen Teil des prototypischen Dashboards.

Abbildung 2

Elementare Indikatoren für Kryptowährungen im oberen Teil des prototypischen Dashboards.

Beiläufige Indikatoren: Im unteren Teil des Dashboards folgen die beiläufigen Indikatoren, die ebenfalls den Metadaten der Tweets entnommen wurden. Der erste Teil der beiläufigen Indikatoren in Abbildung 3 fokussiert sich auf die Ortsangabe der geposteten Tweets für den ausgewählten Zeitraum. Auf der Koordinaten-Karte in der linken oberen Ecke werden alle Geo-Locations angezeigt, die an Tweets angehängt worden sind. Daneben ist auf der rechten oberen Seite das Verhältnis der Tweets, die mit einer Geo-Location versehen sind, zu denjenigen ohne Geo-Location zu sehen. Darunter folgt das Verhältnis der verifizierten Twitter Nutzenden zu den nicht verifizierten. Die beiden unteren Kreisdiagramme in Abbildung 3 illustrieren die Länderverteilung und die Ortsverteilung der geposteten Tweets. Die Daten hinter diesen beiden Diagrammen entstammen dem Nutzer-Objekt der Tweets und geben an, wo der jeweilige Nutzer herkommt.

Abbildung 4 stellt den zweiten Teil der beiläufigen Indikatoren dar. Die oberen beiden Diagramme fokussieren sich auf die Zeitzonen-Verteilung, in der linken oberen Ecke gemessen an der Zeitzone der Nutzer hinter den geposteten Tweets und in der rechten oberen Ecke durch die Zeitverschiebung von der UTC-Zeitzone angegeben in Sekunden. Im unteren Teil folgen die beiden Diagramme zur Sprachverteilung der Tweets, auf der linken Seite gemessen an den Tweets und auf der rechten Seite gemessen an den Nutzenden.

Abbildung 3 Beiläufige geographische Indikatoren im unteren Teil des prototypischen Dashboards.

Abbildung 3

Beiläufige geographische Indikatoren im unteren Teil des prototypischen Dashboards.

Abbildung 4 Beiläufige Indikatoren zu Zeitzonen und Sprachverteilung im prototypischen Dashboard.

Abbildung 4

Beiläufige Indikatoren zu Zeitzonen und Sprachverteilung im prototypischen Dashboard.

6 Evaluierung des Systems

In der nutzerorientierten Gestaltung ist es elementar, herauszufinden, wie das System auf Nutzende wirkt. Ein typischer Evaluationsprozess in der Mensch-MaschineInteraktion hat folgende Zielvorgaben (vgl. Mazza 2009: S. 125): Die Beurteilung der Funktionalität eines Systems, die Analyse der Effekte des Systems auf Nutzende sowie die Identifikation möglicher Probleme in der Interaktion mit denselben.

Gewählt wurde die Methode des Experteninterviews. Es stellt im Gegensatz zu den forschungsokönomisch sehr aufwendigen Beobachtungsverfahren eine pragmatische Alternative dar. Bogener et al. definieren Expertentum so: „Experten lassen sich als Personen verstehen, die sich – ausgehend von einem spezifischen Praxis- oder Erfahrungswissen, das sich auf einen klar begrenzbaren Problemkreis bezieht – die Möglichkeit geschaffen haben, mit ihren Deutungen das konkrete Handlungsfeld sinnhaft und handlungsleitend für Andere zu strukturieren.“ (Bogener et al. 2014: S. 13).

Mit der Anwendungsthematik Kryptowährungen wurde der Prototyp für die Zielgruppe Trader und Investoren entwickelt. Aus pragmatischen Gründen wurden Personen fokussiert, die mindestens zwei Jahre Erfahrung im regelmäßigen Handeln von Finanzprodukten mitbringen und die diese in kurzen Zeitintervallen regelmäßig handeln. Bei den beiden ausgewählten Fachleuten handelt es sich um Testnutzende, die nach eigenen Angaben mehr als drei Jahre Erfahrung im Handeln von Finanz- und Anlageprodukten wie Aktien, Währungen, Rohstoffen und vor allem auch Kryptowährungen haben.

Eine Vorbefragung lieferte wertvolle Einblicke in die Erfahrungen und Ansichten der Experten. Es ist von Vorteil viele relevante Informationen über die Zielgruppe und deren Erwartungen früh im Interview-Prozess abzufragen.

Den Test-Personen wurde der Prototyp mit Daten zur Kryptowährung Bitcoin vorgelegt. Deutlich wurde, dass Kibana keine besonders hohe Nutzerfreundlichkeit aufweist. Das schlanke und minimalistische Design verhilft zwar zu einer schnellen Übersicht, doch stößt das Programm bei der Betrachtung von Detail-Informationen an Grenzen. Von beiden Befragten wurde häufig kritisiert, dass sich die Darstellungsweise der Graphen und Diagramme nur begrenzt verändern lässt und Aktionen wie Zoomen oder Scrollen innerhalb der Diagramme kaum möglich sind. Ein weiteres Beispiel hierfür ist die Änderung des gewünschten Zeitintervalls. Gerade die Einstellung des Zeitintervalls ist eine elementare Funktion. In Kibana ist diese Einstellungsmöglichkeit jedoch leider nicht selbsterklärend und intuitiv. Beide hatten Probleme diese Einstellung vorzunehmen. Denn alle Datenpunkte sind an einen Zeitstempel gebunden; wird das Zeitintervall verändert, passen sich alle Visualisierungen im Dashboard an diese Änderung an. Durch die automatische Anpassung an das Zeitintervall bekommt die Oberfläche einen hohen Grad an Interaktivität. Wird in einem Graphen beispielweise ein bestimmter Zeitpunkt ausgewählt, verändert sich das Zeitintervall zu diesem Zeitpunkt hin und alle anderen Daten im Dashboard passen sich daran an. Diese Funktion wurde von beiden Test-Personen intuitiv benutzt, ihnen als interaktives Element aber erst bewusst, als sie vom Experten darauf hingewiesen wurden.

Durch die direkte Interaktion mit dem Prototyp kann der Interviewer gut erkennen, welche der Indikatoren und Datenpunkte die Experten als relevant erachten. Diese Erkenntnisse sind bei der Gestaltung der Oberfläche von großer Bedeutung und können die Gebrauchstauglichkeit eines Produkts steigern. Dies wurde z.B. durch die Darstellung der Geo-Location der Tweets innerhalb des Dashboards deutlich. Die Befragten gaben an, es sei interessant nachzuverfolgen, wo die Tweets gepostet wurden, aber die exakte Position sei zu detailliert und das Land reiche aus. Durch die Evaluation wurde deutlich, welche der Datenpunkte und Indikatoren für die Experten relevant sind. Besonders hervorgestochen ist hier der Zusammenhang zwischen dem Handelsvolumen des Bitcoins und dem Tweet-Volumen, zu dem einer der beiden Experten sogar vorschlug, einen eigenen Indikator zu entwickeln.

In der Gesamtbetrachtung hat das Dashboard seine Kernaufgabe erfüllt und relevante Daten für die Test-Nutzenden angezeigt. Der Prototyp verhalf den Experten damit trotz der erheblichen Schwächen in der Usability zu hilfreichen Erkenntnissen. Schon die Einbeziehung einer kleinen Anzahl von Nutzenden hat gezeigt, wie der Prototyp weiter verbessert werden könnte.

7 Fazit und Ausblick

Die prototypische Entwicklung eines Text-Mining-Tools für Twitter-Daten gelang in dem beschriebenen Ansatz durch einfache Python-Skripte und dem Einlesen und Darstellen der Daten in Elastic-Tools. Die Visualisierung der Ansichten in Kibana wurden nach den Prinzipien der nutzerorientierten Gestaltung evaluiert. Im Laufe des Implementierungsprozesses stellt sich heraus, dass einige der Erweiterungsmöglichkeiten aus zeitlichen Gründen nicht umzusetzen waren.

Die einfache Form der Analyse könnte noch weiter verbessert werden. Die Suche nach vordefinierten Termen im Tweet-Text hat einen gewissen Streueffekt. Bei der Suche werden auch Tweets einbezogen, die nichts mit der eigentlichen Thematik zu tun haben. Ein gutes Beispiel dafür ist die Kryptowährung Ripple, denn das Verb „ripple“ hat im Englischen viele weitere Bedeutungen. Richtet man die Analyse auf Hashtags aus, würden die Ergebnisse vermutlich mit einer größeren semantischen Relevanz ausfallen.

Die Entwicklung und die folgende Evaluation zeigten, dass sich Kibana sehr für das Prototyping eignet und damit gut als Werkzeug für einen iterativen Entwicklungsprozess qualifiziert ist. Mit der Anpassung der Daten im Dashboard an das gewünschte Zeitintervall beinhaltet Kibana auch Interaktivität. So lassen sich grobe Strukturen und Trends deutlich erkennen. Kibana sollte vor allem für die Datenexploration verwendet werden, es eignet sich dagegen kaum für eine automatische Datenanalyse.

Literatur

Bogener, Alexander; Littig, Beate; Menz Wolfgang (2014): Interviews mit Experten. Eine praxisorientierte Einführung. Wiesbaden: Springer.Search in Google Scholar

Cavalcante, Rodolfo, Brasileiro, Rodrigo C., Souza, Victor, Nobrega, JJarley, & Oliveira, Adriano (2016): Computational intelligence and financial markets: A survey and future directions. Expert Systems with Applications, 55, S. 194–211.Search in Google Scholar

Coinmarketcap (2019): Global Charts. Total Market Capitalization. [9.1.2020]. Search in Google Scholar

CryptoCompare (2019): How to use our API, (7. 8.2019). Search in Google Scholar

ElasticSearch B.V. (2019): Elasticsearch. The Elastic Stack, [5.9.2020].Search in Google Scholar

Google LLC (2019): Google Colaboratory. (27.8.2019).Search in Google Scholar

Hassani, Hossein; Huang, Xu; Silva, Emmanuel (2018): Big-Crypto: Big Data, Blockchain and Cryptocurrency. In: Big Data and Cognitive Computing, 2018, Vol. 2, No. 34.Search in Google Scholar

Jupyter (2019): Jupyter Notebook, [9.1.2020].Search in Google Scholar

Kim, Young Bin, Lee, Jurim, Park, Nuri, Choo, Jaegul., Kim, Jong-Hyun, & Kim, Chang Hun (2017): When Bitcoin encounters information in an online forum: Using text mining to analyse user opinions and predict value fluctuation. PloS one, 12(5), e0177630.Search in Google Scholar

Mandl, Thomas (2013): Text Mining und Data Mining. In: Kuhlen, Rainer; Semar, Wolfgang; Strauch, Dietmar (Hrsg.): Grundlagen der praktischen Information und Dokumentation: Handbuch zur Einführung in die Informationswissenschaft und – praxis. 6. Ausgabe – Verlag de Gruyter, Saur. S. 183–191.Search in Google Scholar

Mazza, Riccardo (2009): Introduction to Information Visualization. London: Springer.Search in Google Scholar

Nakamoto, Satoshi (2008): Bitcoin: A Peer-to-Peer Electronic Cash System. [9.1.2020].Search in Google Scholar

Sontheimer, Lukas (2019): Visualisierung von Twitterdaten als Basis für die Trenderkennung mit dem Fokus auf Kryptowährungen. Bachelorarbeit, Stiftung Universität Hildesheim.Search in Google Scholar

Sontheimer, Lukas (2020): GitHub Repository: [9.1.2020].Search in Google Scholar

The Internet Archive (1996): About the Internet Archive. [9.1.2020].Search in Google Scholar

Tschorsch, Florian, & Scheuermann, Björn (2016): Bitcoin and beyond: A technical survey on decentralized digital currencies. IEEE Communications Surveys & Tutorials, 18(3) S. 2084–2123.Search in Google Scholar

Xing, Frank, Cambria, Erik, & Welsch, Roy (2018): Natural language based financial forecasting: a survey. Artificial Intelligence Review, 50(1) S. 49–73.Search in Google Scholar

Online erschienen: 2020-04-07
Erschienen im Druck: 2020-04-01

© 2020 Walter de Gruyter GmbH, Berlin/Boston