BY 4.0 license Open Access Published by De Gruyter July 13, 2021

»Vorhersageprodukte«

Algorithmische Entscheidung, Profiling und die Kapitalisierung des Werdens

Richard Weiskopf

Zusammenfassung

Der Beitrag problematisiert das »new profiling«. Dieses bezieht seine Attraktivität aus dem Versprechen, mithilfe von Daten und leistungsfähigen Algorithmen Unsicherheit zu reduzieren und das Verhalten, Denken, Entscheiden von Menschen vorhersehbar zu machen. Auf der Basis scheinbar rationaler und neutraler Berechnungen verwandeln diese »Vorhersageprodukte« (S. Zuboff) das offene Werden in eine kalkulierte Zukunft, die zu einer Quelle der Generierung von Einkommen und Kapital wird und zugleich mögliche Zukünfte verbaut.

Abstract

The article problematizes »new profiling«, which derives its attractiveness from the promise of using data and powerful algorithms to reduce uncertainty and make people’s behavior, thinking, and decisions predictable. On the basis of seemingly rational and neutral calculations, these »prediction products« (S. Zuboff) transform the open becoming into a calculated future, which becomes a source of income and capital generation and at the same time obstructs possible futures.

1 Einleitung[1]

Datafizierung zielt auf die Umwandlung von realen Ereignissen – Verhaltensweisen, Handlungen, Bewegungen, Körper, Gefühle etc. – in ein quantifiziertes Format, das eine tabellarische Darstellung und Analyse ermöglicht. Dies setzt eine Quantifizierung und Messung sozialer Phänomene voraus. Diese wurde in den letzten Jahren in verschiedenen Bereichen intensiv diskutiert. [2] Mit der Digitalisierung hat die Datafizierung eine neue Dimension erreicht. Die »digitalen Brotkrümel« (»digital breadcrumbs«),[3] die wir in alltäglichen Interaktionen wissentlich oder unwissentlich hinterlassen, werden durch leistungsfähige Sensoren aufgesammelt und in maschinenlesbare und -messbare Daten verwandelt. Das Label »Big Data« fasst eine Entwicklung zusammen, die durch gesteigerte Rechenleistung und technologische Fortschritte in der Datenerfassung (»Harvesting«), Verarbeitung, Speicherung und »Mining« ermöglicht wurde. »Big Data« wird häufig durch mehrere – in der Regel drei, vier oder gar fünf Vs – charakterisiert: Volume (Masse), Velocity (Geschwindigkeit), Variety (Vielfältigkeit), Validity (Validität) und auch Value (Mehrwert). [4]

Big Data ist allerdings nicht nur ein technologisches Phänomen, sondern zugleich auch ein ideologisches und ein ökonomisches. Ideologisch kann Big Data mit dem Mythos der großen Zahl arbeiten. Daten scheinen für sich zu sprechen und bringen eine Form von Objektivität hervor, die keiner weiteren Rechtfertigung bedarf. [5]

Ökonomisch verweist das Label auf eine »Mutation des Kapitalismus«, die Shoshana Zuboff als »Überwachungskapitalismus«[6] bezeichnet hat. Während Big Data-Technologien die Umwandlung menschlicher Erfahrung in maschinenlesbare und -speicherbare Daten erlauben und damit einen Möglichkeitsraum erschließen, sind es die ökonomischen Imperative des »Überwachungskapitalismus«, die die Entwicklung vorantreiben, verstärken und in eine bestimmte Richtung lenken. Nach Zuboff beruht der Überwachungskapitalismus darauf, die datafizierte menschliche Erfahrung als Rohstoff für die Produktion von »Vorhersageprodukten« zu nutzen. Das sind Produkte, die »prognostizieren sollen, was wir jetzt, bald und irgendwann fühlen, denken und tun«. [7] Die »maschinelle Intelligenz« – ein weit gefasster Begriff, der sich auf eine Vielzahl von Rechenoperationen bezieht, wie maschinelles Lernen, »klassische« algorithmische Produktion, Predictive Analytics, künstliche Intelligenz und andere mehr – ist hier das zentrale Produktionsmittel. Der »Extraktionsimperativ« verlangt, aus den gesammelten Verhaltensdaten die wertvollen – also die verwertbaren – herauszuziehen. Der »Vorhersageimperativ« verlangt möglichst große Datenmengen zu generieren, um die Vorhersagekraft bzw. die Qualität der Produkte zu optimieren und als Quelle des Profits zu nutzen.

2 Vorhersagen und evidenzbasierte Entscheidungen

Prognosen und prognostische Praktiken und Techniken haben eine lange Tradition. Wie Christof Niederwieser gezeigt hat, finden sich in dieser aus heutiger Perspektive seltsam anmutende Praktiken wie Gift- und Knochenorakel, Eingeweideschau, Graphologie und Wünschelrute. Vielfältigste Deutungssysteme, mit deren Hilfe die Zeichen am Himmel und auf Erden entschlüsselt werden, versprechen Orientierung im ungewissen Feld zukünftiger Entwicklungen und Ereignisse. Neben Praktiken, die besinnliche, meditative oder ekstatische Stimmungen erfordern, sind hier auch solche zu finden, die »äußerst komfortabel und nahezu in sämtlichen Lebenslagen konsultiert werden«. [8] Dazu gehören etwa Praktiken wie das Werfen einer Münze oder ähnliche Hilfsmittel zur Reduktion von Unsicherheit und Kontingenz. In der modernen Welt heißen die Zauberwörter »Evidenz« und »Transparenz«. Entscheidungen sollen auf der Basis von Tatsachen, die mit Hilfe von rationalen Techniken und Methoden sichtbar gemacht werden, getroffen werden. In die Reihe dieser Methoden lassen sich moderne Systeme der Vermessung der sozialen Welt, statistische Verfahren, und (ökonomische) Kennzahlensysteme ebenso einordnen wie Big Data Verfahren, die mithilfe von Algorithmen vorhersagen sollen, was Personen oder Personengruppen denken und tun, mögen oder empfinden werden. Wie auch ihre Vorgänger/innen bedienen diese Verfahren »die uralte Sehnsucht nach zuverlässigen Entscheidungsmaschinen in unsicheren Zeiten«. [9]

2.1 Algorithmische Verfahren und »predicting people«

Algorithmen bzw. algorithmengestützte Verfahren werden heute in vielfältigen Zusammenhängen eingesetzt, um aus großen Datenmengen Wissen zu extrahieren und Entwicklungen vorherzusagen. Sie werden für die Kalkulation von Sicherheitsrisiken und für die Prognose von kritischen Ereignissen ebenso verwendet wie für die Vorhersage von Straftaten im Rahmen des Predictive Policing;[10] sie finden im Management von Populations- und Migrationsströmen[11] ebenso Anwendung wie bei versicherungsmathematischen Berechnungen, finanzwirtschaftlichen Entscheidungen[12] oder bei der Aufdeckung von betrügerischen Praktiken im Zahlungsverkehr. Im Rahmen des Credit-Scorings werden sie zur Berechnung der Wahrscheinlichkeit eines Kreditausfalls verwendet etc. In betriebswirtschaftlichen Zusammenhängen werden Big Data-Analysen vor allem in den Bereichen Marketing und Konsumentenforschung eingesetzt. Insbesondere sogenannte Empfehlungssysteme (vgl. Amazons »Kunden die x gekauft haben, kaufen auch y«), personalisierte Werbung oder das sogenannte »dynamic pricing« zur Optimierung des Profits durch Anpassung des Preises an aktuelle Marktbedingungen oder spezifische Kund/innenmerkmale, beruhen auf algorithmischen Verfahren. Hier werden zunehmend psychometrische Kategorien zur Prognose des Verbraucherverhaltens und zur Bildung von Clustern von Verbrauchertypen (Profilen) verwendet. Die Idee des »Predicting People«[13] ist v. a. auch im Bereich des Human Capital Management auf der Grundlage der datengestützten »Predictive HR Analytics«[14] vorangetrieben worden.

In all diesen Bereichen versprechen Big Data-Analysen Unsicherheit zu reduzieren und eine (objektive) Grundlage für »evidenzbasierte Entscheidungen« zu liefern. Daten werden in der Regel als neutrale Formen von Information verstanden, die Objekte in der Welt idealerweise abbilden und somit Einblicke in soziale, ökonomische und ökologische Phänomene geben. Idealerweise sollten dieser Idee zufolge Daten vollständig erfasst werden. Mit der stetig steigenden Leistungsfähigkeit von Technologien scheint die Idee, die Wirklichkeit vollständig abzubilden, in greifbare Nähe zu rücken. Die (unmögliche) Utopie der vollständigen Erfassung und Repräsentation der Wirklichkeit (n = all) rückt scheinbar ins Reich des Möglichen. Algorithmische Verfahren (Data Mining), erlauben es, die dieser Realität zugrundeliegenden Strukturen und Muster zu identifizieren und zu »entdecken«. Nach herrschender (positivistischer) Auffassung durchdringt der Blick der Datenwissenschaft bzw. der Datenwissenschaftler/innen die Oberfläche der Erscheinungen und macht eine zugrundliegende Realität als Evidenz sichtbar. [15] McAfee und Brynjolfsson haben die daraus resultierende Überzeugung der Big Data-Befürworter prägnant zum Ausdruck gebracht: »Datengetriebene Entscheidungen sind bessere Entscheidungen – so einfach ist das. Die Verwendung von Big Data ermöglicht es Manager/innen, auf der Grundlage von Evidenz, statt auf der Grundlage von Intuition zu entscheiden.«[16] Diese Annahme wurde vielfach in Frage gestellt und als Fiktion entlarvt. Wie groß auch immer die Datenmenge sein mag, so ist sie doch immer – notwendigerweise – eine selektive Auswahl. Auch wenn eine Unparteilichkeit und formale Indifferenz von Algorithmen vielfach als Garant oder zumindest als Fortschritt in Richtung von mehr Gerechtigkeit gesehen wird, so bestehen kritische Forscher/innen wie Dan Bouk darauf, dass die »profitable discrimination« und damit auch die Vergrößerung und Intensivierung von Ungleichheiten als »the essence of many Big Data Projects«[17] verstanden werden muss. Daten sind selektiv und Algorithmen sind wertbeladene und -durchdrungene menschliche Konstrukte. Sie können ungerechte Diskriminierungen entstehen lassen, bestehende Ungleichheiten reproduzieren oder sogar verstärken. [18] Darüber hinaus ist zu bedenken, dass es keine »rohen Daten« gibt. Daten werden in einer Vielzahl von sozialen, technischen und organisationalen Prozessen »gekocht«. Sie werden in sozialen Prozessen erfasst, aufbereitet, zusammengefasst und -gemischt, sie werden gelagert und gespeichert, sie werden »gereinigt« und dargestellt, sie werden für verschiedene Zwecke verwendet und gebraucht. Das alles setzt eine sozio-technische Infrastruktur voraus. Solche Infrastrukturen sind weder neutral und wertfrei, noch sind sie für alle in gleichem Maße zugänglich. Darüber hinaus erinnert Kitchin[19] daran, dass (große) Daten nicht nur in sozio-materiellen Prozessen und Kontexten produziert werden, sondern auch umgekehrt Teil eben dieser Zusammenhänge sind und auf diese einwirken.

2.2 Entscheidung, Kalkulation und das Gespenst des Unentscheidbaren

»Nur die Fragen, die im Prinzip unentscheidbar sind, können wir entscheiden.« – so lautet das metaphysische Postulat, das der Kybernetiker Heinz von Foerster[20] formuliert hat. Warum ist das so? Von Foerster liefert die Begründung gleich mit: »Einfach weil die entscheidbaren Fragen sind ja schon entschieden durch die Wahl des Rahmens, in dem sie gestellt werden, und durch die Wahl von Regeln, wie das, was wir ›die Frage‹ nennen, mit dem, was wir als ›Antwort‹ zulassen, verbunden wird.« Ein Algorithmus ist in diesem Sinne nichts anderes als ein System von Regeln, das Frage und Antwort, Input und Output in bestimmter Weise verknüpft. Aus einer »Serie von zwingenden logischen Schritten« resultiert eine Antwort, ein »definitives Ja oder ein definitives Nein«. Bei den unentscheidbaren Fragen gibt es keine zwingende Logik – im Gegenteil: Hier entfällt jeder Zwang. Mit anderen Worten: Mit den unentscheidbaren Fragen ist die Freiheit verbunden, so oder anders zu entscheiden. Mit dieser Freiheit geht für von Foerster aber auch »die Last der Verantwortung« einher. Es ist diese Last, die uns Verfahren, Prozeduren, Regelsysteme abnehmen.

Ähnlich hat es Derrida[21] formuliert: Eine »wirkliche Entscheidung«, eine Entscheidung, die den Namen verdient, setzt »Unentscheidbarkeit« voraus. Die Unentscheidbarkeit ist dabei »nicht einfach das Schwanken oder die Spannung zwischen zwei Entscheidungen, es ist die Erfahrung dessen, was dem Berechenbaren, der Regel nicht zugeordnet werden kann, weil es ihnen fremd ist und ihnen gegenüber ungleichartig bleibt«.[22] Eine »wirkliche Entscheidung« muss sich der »Prüfung des Unentscheidbaren« stellen und sie muss durch die Erfahrung des Unentscheidbaren hindurch. Algorithmische Entscheidungen sind in seinem Sinne überhaupt keine wirklichen Entscheidungen, denn »[e]ine Entscheidung, die sich nicht der Prüfung des Unentscheidbaren unterziehen würde, wäre keine freie Entscheidung, sie wäre eine programmierbare Anwendung oder ein berechenbares Vorgehen«.[23] Sogenannte Entscheidungsbäume, die algorithmische Entscheidungen charakterisieren, automatisieren Antworten und erzwingen eine Ja / Nein-Stellungnahme bzw. eine Wenn / Dann-Wahl. Der Agonismus und die radikale Ungewissheit einer wirklichen Entscheidung werden aufgehoben bzw. geleugnet. Im Reich der Algorithmen gibt es anscheinend kein Zweifeln und Zaudern, kein Zögern und keine Angst, kein zitterndes Herz, und keine Mehrdeutigkeit. [24] All die zweifelhaften und zweifelbehafteten Mikroentscheidungen, die in die Erstellung des Algorithmus einfließen und die in diesen in gewissem Sinne eingeschrieben sind, werden unsichtbar gemacht. Während also der Zweifel in vielfältiger Form in Algorithmen und deren Erstellung einfließt, wird die daraus resultierende (scheinbare) Entscheidung bzw. deren Ergebnis jenseits des Zweifels positioniert. [25] Entscheidungen, die sich scheinbar zwangsläufig aus dem ergeben, was auf der Basis der Berechnungen von Experten oder aufgrund algorithmischer Visualisierung als »offensichtlich« oder »evident« erscheint, sind im Sinne von Derrida gar keine »wirklichen Entscheidungen«. Solche Entscheidungen sind gerade dann erforderlich, wenn es keine Evidenz gibt, wenn es keine ausreichende Evidenz gibt oder wenn sich die präsentierten Evidenzen widersprechen. Die Idee der vollständigen Information, die rationalistische Entscheidungstheorien und -modelle als Ideal präsentieren, ist aus Derridas Perspektive nicht nur eine Unmöglichkeit, sondern ein Grenzfall, in dem es überhaupt keine Entscheidung mehr gibt, die den Namen verdient. Eine wirkliche Entscheidung fällt definitionsgemäß »in der Nacht des Nicht-Wissens und der Nicht-Regelung«.[26] Häufig besteht angesichts der Ereignisse in der Welt eine Dringlichkeit, die keinen Aufschub duldet. Die Entscheidung ist »jetzt« erforderlich, unmittelbar. Man kann nicht warten, bis man eine vollständige oder auch nur ausreichende Information hat. Man »kann sich nicht zuerst eine unendliche Information besorgen, das grenzenlose Wissen und die Bedingungen, die Regeln, die hypothetischen Imperative, die sie rechtfertigen könnten«.[27] Eine wirkliche Entscheidung gleicht einem Sprung über den Abgrund. In diesem Sinne zitiert Derrida Kierkegaard: »der Augenblick der Entscheidung ist […] ein Wahn.«[28]

2.3 Vom Wahn der Entscheidung zum Wahn der Algorithmen

Algorithmische Verfahren scheinen einen Ausweg aus diesem »Wahn« zu bieten. Sie rahmen Entscheidungen als (system)technische Fragen und produzieren eine Lösung für das »Entscheidungsproblem«. Diese Rahmung hat einen doppelten Effekt. Zum einen wird der »unlösbare Zusammenhang von Entscheiden und Unsicherheit«[29] aufgelöst, indem die Entscheidung in eine Rechenoperation verwandelt wird, die zu einem eindeutigen Ergebnis führt; zum anderen hat diese Rahmung auch realitätskonstituierende Effekte. Wie es Lindebaum u. a. ausgedrückt haben: Als logische und mathematische Verfahren werden algorithmische Entscheidungsprozeduren zu »supercarriers of formal rationality«.[30] Sie »tragen« gewissermaßen eine formale Rationalität in die verschiedensten Handlungsbereiche hinein und verdrängen damit eine substanzielle oder materielle Rationalität, die nach Max Weber[31] stets »wertende Postulate« beinhaltet. Diese wertenden Postulate sind nicht nur vielfältig, sondern auch »höchst vieldeutig«. Sie erfordern daher Werturteile und Abwägung, Einfühlungsvermögen und Austausch – kurz: All das, was Entscheidungstheoretiker wie Herbert Simon, für die »bounded rationality«[32] des Menschen verantwortlich machen.

Der Wahn(sinn) der Entscheidung wird damit nicht aus der Welt geschafft. Metaphorisch gesprochen: Der Abgrund bzw. die »Kluft der Kontingenz«[33] wird nicht im (riskanten) Akt der (freien) Entscheidung übersprungen. Die Kluft wird vielmehr zugeschüttet und planiert, so dass man über diese schnell und sicher »drüberfahren« kann. Die ethisch-politischen Entscheidungen, die unzähligen »microdecisional acts of worldmaking«[34] werden in die Latenz verschoben, so dass aus der unübersichtlichen Vielfalt der Möglichkeiten eine eindeutige Option wird und aus der (bedrohlichen) Unentscheidbarkeit mit ihren Ausweglosigkeiten (Aporien) eine klare Entscheidung. Der Wahnsinn der Entscheidung verwandelt sich in einen anderen Wahnsinn – einen Wahnsinn, der tief in die Logik des

Algorithmus eingeschrieben ist. So sieht es die britische Datenwissenschafterin, Geographin und Philosophin Luise Amoore:

The madness of algorithms […] arises not from the loss of rationality or from the error-prone deferral of human reason into the machine, but instead from the making of a calculation in conditions of nonknowledge. When an algorithm generates a singular output from an incalculable multiplicity of associative relations, it shelters the darkness of the decision in the reduction to one actionable output.[35]

Während die Befürworter/innen algorithmischer Entscheidungsfindung davon ausgehen, dass die inhärente Unentscheidbarkeit, die soziale Gefüge charakterisiert und durchzieht, beseitigt und im Idealfall aufgehoben werden kann und auch soll, erinnert Derrida daran, dass die Unentscheidbarkeit »niemals ein Vergangenes, Überholtes oder Überschrittenes [ist] […] nie ein in der Entscheidung, durch die Entscheidung aufgehobenes Moment«.[36] Vielmehr wohnt jeder Entscheidung »das Unentscheidbare wie ein Gespenst inne, wie ein wesentliches Gespenst«.[37] Die programmierte Entscheidung und die von ihr geschaffenen Objekte, Trennungen und Abgrenzungen werden von ihrem eigenen Schatten begleitet und zuweilen von diesem heimgesucht. »Sein Gespensterhaftes dekonstruiert im Inneren jede Gegenwarts-Versicherung, jede Gewissheit, jede vermeintliche Kriteriologie […]«.[38] Im Kontext datengetriebener Entscheidungen lenken der Begriff des Gespenstes und des Gespenstischen die Aufmerksamkeit auf all das, was über das Mess- und Kalkulierbare hinausgeht: Auf das »Rauschen« im System, auf das, was Systeme gelegentlich und unerwartet unterbricht und stört.

2.4 Algorithmen als Organisatoren

Algorithmen können als »Reihe verallgemeinerter Prozeduren zur Umwandlung unorganisierter Dateneingaben in handhabbare Outputs durch eine Reihe logischer Regeln«[39] verstanden werden. Eine Vielzahl von Entscheidungen in Organisationen wird heute durch Algorithmen strukturiert und automatisiert. Auf Organisationsebene umfasst dies nach Kellog u. a. [40] eine Vielzahl von Systemen: »algorithmische Empfehlungssysteme« zielen darauf ab, »targeted workers« zu veranlassen, Entscheidungen zu treffen, die von den »choice architects« für wünschenswert erachtet werden; »algorithmische Einschränkung« verwendet Algorithmen, um selektive Informationen anzuzeigen und nur bestimmte Verhaltensweisen zuzulassen; algorithmische Evaluierungssysteme werten ein breites Spektrum von internen und externen Quellen aus und aggregieren Daten; algorithmische Bewertungssysteme (Ratings, Ranking, prädiktive Analytik) erstellen Reihungen; »algorithmische Disziplinierung« automatisiert die Zuteilung von Belohnung und Bestrafung – bis hin zur automatisieren Entlassung leistungsschwacher Arbeiter/innen.

Algorithmen werden dabei häufig als technisch-instrumentelle bzw. mathematische Hilfsmittel verstanden, die es erlauben, solche Prozesse strukturierter, effizienter, objektiver oder unparteilicher zu gestalten. In dieser technischen Sicht sind Algorithmen Instrumente in den Händen von Organisatoren oder Managerinnen, die an sich bzw. idealerweise neutral sind und für verschiedene Zwecke eingesetzt und verwendet werden können.

Man kann aber auch Algorithmen selbst als Organisatoren verstehen, die die Welt ordnen, gestalten und produzieren. Organisation ist ein Prozess der Erzeugung und Produktion geordneter Welten. [41] Algorithmen strukturieren den realitätsproduzierenden Prozess, indem sie Informationen selektieren, filtern und rahmen und damit eine bestimmte Form der Faktizität erzeugen. Es ist daher kein Algorithmus neutral. »Pattern recognition« bzw. »Pattern discrimination«,[42] also die Fähigkeit, Informationen aus Daten herauszufiltern, ist notwendigerweise an Werturteile gebunden und reproduziert oder verstärkt oft genau jenes Phänomen, das sie zu beschreiben oder darzustellen versucht. Die Werte liegen also nicht außerhalb des Algorithmus, sondern sind in diesen eingefaltet. Selbst (scheinbar) triviale Akte des Benennens und Speicherns von Daten, oder der »Entscheidung, wo im System Schnitte gemacht werden«,[43] enthalten Werturteile. Darüber hinaus werden Algorithmen, die von vielfältigen Entscheidungen, politischen Überlegungen, ideologischen Positionen und Weltsichten geprägt sind, stets für bestimmte Zwecke geschaffen, die alles andere als neutral sind. Es geht beispielsweise darum, Wert und Kapital zu schaffen, Verhalten und Präferenzen zu berechnen, zu prognostizieren und zu beeinflussen, es geht darum, Menschen zu identifizieren, zu klassifizieren und zu sortieren. [44] Algorithmen kodifizieren Annahmen und sind performativ. Ein Data-Mining-Algorithmus zum Beispiel, der darauf ausgelegt ist, wertvolle Daten und Muster zu finden oder zu »entdecken«, sortiert, selektiert, filtert Daten auf der Grundlage bestimmter Annahmen darüber, was diese Daten »wertvoll« macht bzw. auch, was sie »wertvoll für wen« macht. Es handelt sich im Sinne des Philosophen Ian Hacking nicht nur um Entdeckungsmaschinen (»engines of discovery«) – wie der im informationstechnischen Kontext gebräuchliche Begriff »Knowledge Discovery in Data Base« (KDD) suggeriert – sondern gleichzeitig auch um »engines of making up people«, also um Maschinen zur Produktion oder Fabrikation von Menschen bzw. von Menschentypen (»kinds of people«).[45] Algorithmen beschreiben die Realität nicht nur, sondern sie produzieren sie auch. Sie erzeugen Wissensobjekte, die ihrerseits in einem »looping« auf die Welt zurückwirken und so realitätskonstituierende Effekte haben. Es gibt viele verschiedene – hochkomplexe und ausgefeilte – technische Methoden des Data Mining (z. B. Entscheidungsbäume, Clusteranalyse, neuronale Netze, Text Mining, Anomalie-Erkennung und viele andere). Eine Besonderheit dieser Methoden der Wissensproduktion ist der Umstand, dass sie stets von einem spezifischen Interesse geleitet sind. Dieses ist weniger ein Erkenntnisinteresse, das auf Einsicht zielt, sondern vielmehr ein Verwertungsinteresse, das auf Nutzen abzielt. Diese Rationalität leitet die Suche nach »wertvollen« Daten und Mustern. Die Extraktion von spezifischen Daten aus dem digitalen Heuhaufen und deren erneute Zusammenfassung lässt eine »person of interest« entstehen – eine Person, die für spezifische Akteure, Institutionen, Organisationen aus unterschiedlichsten Gründen von Interesse sein kann. Ein Algorithmus der Personalauswahl beispielsweise durchforstet oder »schürft« Daten aus der interessengeleiteten Perspektive von Arbeitgeber/innen und erstellt ein Bild des / der attraktiven / unattraktiven Kandidat/ in; ein Sicherheitsalgorithmus erstellt ein Bild des / der potentiellen Terrorist/in; beim Kundenprofiling werden Typen von mehr oder weniger attraktiven, das heißt profitablen Kund/innen erstellt, klassifiziert und ein- / aussortiert; beim credit-scoring wird ein Bild der mehr oder weniger kreditwürdigen oder vertrauenswürdigen Person erstellt. Während oft angenommen wird, dass die Ergebnisse eine präexistente und zugrundeliegende Realität auf neutrale Art und Weise abbilden, haben kritische Forscher/innen diese Idee vielfach infrage gestellt. Der Datenwissenschaftler Rob Kitchin beispielsweise spricht von »sorgfältig ausgearbeiteten Fiktionen«,[46] die an die Stelle neutraler Repräsentation treten. Solche Fiktionen tragen dazu bei, dass wir übersehen oder vergessen, dass die zugrundeliegenden Daten oft unvollständig, lücken- und fehlerhaft sind. Der ideologische Effekt lässt uns nicht nur die Tatsache vergessen, dass Algorithmen durch vielfältige kontingente Entscheidungen und Interessen geprägt sind, sondern auch den Umstand, dass sie zuweilen systematisch verzerrte Ergebnisse hervorbringen. Solche Fiktionen sind jedoch nicht einfach nur Illusionen, sondern vielmehr soziale Objekte und Artefakte, die konkrete materielle Auswirkungen in der Welt haben. Dies wird im folgenden Abschnitt am Beispiel des Profiling theoretisiert und illustriert.

3 Profile, Data-doubles und die Kontrolle des Werdens

Die Technologien und Praktiken des Profiling werden zunehmend im Rahmen der Entscheidungsfindung eingesetzt. In vielen Fällen ergänzen sie das menschliche Urteilsvermögen als Basis von Entscheidungen, in manchen Fällen ersetzen sie es aber auch, so dass Entscheidungen scheinbar »ganz ohne menschliches Zutun«[47] getroffen werden.

Profile und Profiling haben eine lange Geschichte. Genealogische Stränge lassen sich bis zu ihrer Verwendung in der Polizeiarbeit und der Verhaltenspsychologie bzw. der sogenannten Psychotechnik zu Beginn des 20. Jahrhunderts zurückverfolgen. [48] Harcourt[49] hat gezeigt, wie in der zweiten Hälfte des 20. Jahrhunderts versicherungsmathematische Methoden zunehmend im Kontext der Strafjustiz eingesetzt wurden, wobei Profile aus Statistiken abgeleitet wurden. Koopmans Genealogie der »Informationsperson«[50] verweist auf verschiedene Systeme der »menschlichen Buchhaltung« (Registrierungssysteme, die definieren, »wer die Person ist«), Persönlichkeitstests, Psychometrie sowie auf (auch rassistisch geprägte) Kreditwürdigkeitsprüfungssysteme im frühen 20. Jahrhundert als Vorläufer des modernen Profiling. Lange vor dem Aufkommen von Big Data wurden also Profile in den verschiedensten Bereichen der Humanwissenschaften als Erkenntnisinstrument eingesetzt. Das Erkenntnisinteresse bestand, so Bernard, »von Anfang an darin, einer wertenden Instanz Aufschluss über die Identität und das Verhalten abweichender Subjekte zu geben.«[51] Heute geht es aber nicht mehr nur um »abweichende Subjekte« im psychologischen, (straf-) rechtlichen, oder moralischen Sinne, sondern v. a. auch um das Identifizieren von (potenziell) »wertvollen« Subjekten (und das Aussortieren von als weniger »wertvoll« angesehenen Subjekten oder von Personen, die ein Risiko darstellen – z. B. ein Kreditausfallrisko, Terrorrisiko, illegale Grenzübertritte, Infektionsrisko etc.). Im modernen Marketing etwa werden Profile verwendet, um Kund/innen nach ihrem potentiellen Wert zu erfassen und zu sortieren. Auch im Human Resource Management (HRM) hat die Erstellung von Profilen von Mitarbeiter/innen eine gewisse Tradition. Im Kontext des »strategischen Human Resource Management«, beispielsweise, erlangte Odiornes »Human Resource Portfolio«[52] – ein Tableau, das Menschen auf den Dimensionen »Leistung« und »Leistungspotenzial« klassifiziert und in »High Potentials« bzw. »Stars«, »Fragezeichen«, »Cash-Cows« und »Deadwood« einteilt – eine gewisse Berühmtheit. Das Profiling von potentiellen und / oder aktuellen Mitarbeiter/innen stützt sich zunehmend auf Online-Daten und algorithmische Verfahren, um Wissen über die »Fitness for the Job« zu generieren. [53] Im Rahmen des Marketing- und des Customer-Profiling beobachteten Forscher/innen eine Verlagerung von der Klassifizierung und Segmentierung der Kund/innen nach demografischen Kriterien hin zur Klassifizierung und Segmentierung nach Kriterien des psychometrischen Profiling, um ein Produkt, einen Preis oder eine Marketingstrategie auf bestimmte Personen oder Zielgruppen abzustimmen. In all diesen Bereichen wird angenommen, dass sich die Entscheidungsfindung dramatisch verbessert, da sie »auf einer hochinformierten Vorhersage des zukünftigen Verhaltens beruht«.[54]

3.1 Die Abstraktion des Profiling

Bei der Erstellung von Profilen werden Bilder der Person zum Zweck der Diagnose oder Prognose erstellt. Ein Profil ist dabei nie eine maßstabsgetreue Abbildung einer Person, sondern stets eine selektive Konstruktion, die für bestimmte Zwecke erstellt wird. Bei der Erstellung von Profilen wird die Komplexität der Person notwendigerweise reduziert. Die prinzipiell offene, dynamische und durch eine unbestimmte Zahl von Merkmalen charakterisierte Person (eine Vielheit) wird auf eine endliche Anzahl von Dimensionen, Merkmalen, und Merkmalsausprägungen reduziert. Derrida[55] beschreibt den Prozess in dem Gedanken, Ideen, Daten etc. aus dem lebenden Körper extrahiert und in einen abstrakteren Körper integriert werden als einen »spektrogenen« Prozess, einen Prozess, in dem man mit jeder Stufe der Abstraktion Gespenster erzeugt. [56] Auf unseren Kontext übertragen beginnt die Abstraktion bereits mit der Umwandlung menschlicher Erfahrung in »Information«. Ein weiterer Schritt ergibt sich, wenn aus dem entstehenden Meer von Daten die »wertvollen Daten« extrahiert werden, und in einen »dekorporalisierten Körper, ein ›data double‹ reiner Virtualität«[57] umgewandelt werden. Das data double bzw. die Aggregation persönlicher Informationen stellt bereits einen sehr hohen Abstraktionsgrad dar; ein nächster Schritt der Abstraktion – und damit eine zusätzliche gespenstische Ebene – wird erreicht, wenn das data double noch einmal durchforstet (»mined«) wird und Informationen bzw. Daten selektiv-interessengeleitet zu einem Profil zusammengesetzt werden, das es Institutionen und Organisationen erlaubt, Menschen zu klassifizieren, sie zu unterscheiden, einzuteilen und differenziell zu behandeln. Sie schaffen vielfältige »Klassifizierungssituationen«, die Lebenschancen beeinflussen[58] und konfrontieren Menschen mit oft überraschenden Anforderungen, Zuschreibungen und Erwartungen.

3.2 »New profiling«: Von der Inspektion zur Prospektion

Es gibt verschiedene Formen des Profiling. Das traditionelle Profiling (diagnostisches Profiling) ist ein Klassifizierungsprozess, der auf Ex-ante-Kategorisierungen von Personen beruht. Es geht davon aus, dass das Individuum durch eine Reihe von Merkmalen charakterisiert werden kann. Die Präsenz und Ausprägung dieser Merkmale lässt sich nach diesem Modell durch professionelle Methoden feststellen und durch wissenschaftliche Methoden messen. Es entsteht ein spezifischer Wissenstyp, der typischerweise auf Erfahrung oder die Tradition des Expertenwissens verweist. Typischerweise ist solches Wissen deduktiv. Es wird aus bestimmten vordefinierten Hypothesen abgeleitet. Die Messung erlaubt es, Unterschiede zu erkennen und den Abstand zur Norm zu messen. Das Profiling erlaubt es, Individuen in einer normativen Verhaltensmatrix zu positionieren und sie mit anderen vergleichbar zu machen.

Das traditionelle Profiling ähnelt der klassischen Disziplinartechnik der Prüfung. Dieses »kleine Verfahrensschema, das eine solche Verbreitung hat (von der Psychiatrie bis zur Pädagogik, von der Diagnose der Krankheiten bis zur Überprüfung von Arbeitskräften)«, das Foucault im Herzen der Verfahren der Disziplin sah, »errichtet über den Individuen eine Sichtbarkeit, in der man sie differenzierend behandelt«.[59] Es handelt sich um eine wissenschaftliche oder quasiwissenschaftliche Fixierung von Unterschieden, welche in Form von Zahlen, Diagrammen und Berichten dargestellt werden, und die eine Grundlage für administrative Entscheidungen bilden.

Als »wissenschaftliche oder administrative Inquisition, die bestimmt, wer man sei«[60] funktioniert das klassische Profiling wie die Prüfung zugleich als Technologie der Wissensproduktion wie auch als produktive Machttechnik. Sie schafft Wissensobjekte, ermöglicht die Klassifizierung und Einordnung dieser Objekte und macht Individualität dokumentierbar. Wie die Prüfung so macht auch das Profiling aus den Individuen »Fälle«, bzw. beschreibbare und analysierbare Gegenstände, die auf besondere Weise gehandhabt und verwaltet werden können. Die entstehenden Profile sind normative Konstruktionen, denen auch ein bestimmter moralischer Wert anhaftet. Sie schreiben denjenigen, die zum Gegenstand des Profiling werden, eine bestimmte (moralische) Wertigkeit zu. Ähnlich wie die Stereotypisierung funktioniert das Profiling als ein apriorisch wirksames Ordnungs- und Wahrnehmungsschema, das uns sagt, wer gut / schlecht, vertrauenswürdig / suspekt, gesund / ungesund, unverdächtig / verdächtig, profitabel / nicht profitabel etc. ist. Die Profile liefern auch denjenigen die beurteilt und klassifiziert werden ein Bild, das als Folie der Selbstreflexion dienen kann. In diesem Sinne schaffen Profile ein normatives und normierendes Ideal – das in dem Maße als subjektivierende Kraft wirkt, in dem Menschen ihr Verhalten im Lichte dieses Ideals und der damit verknüpften normativen Erwartungen beobachten, reflektieren und bewerten. Menschen wollen oder sollen so oder so sein bzw. nicht sein, sie wollen in diese oder jene Kategorie fallen und nicht in eine andere. Da die Einordnung in eine bestimmte Kategorie mitunter schwerwiegende Konsequenzen hat, erzeugt das Profiling auch einen starken Druck, sich selbst entsprechend zu formieren und zu gestalten und sich im Extremfall sogar selbst gewaltsam zurechtzurichten, um in eine bestimmte Kategorie zu passen. Ein sehr eindrückliches Beispiel dafür findet sich in Berichten von Menschen, die im Apartheidsregime in Südafrika sich selbst Gewalt antun (müssen), um in die als hochwertig angesehene Kategorie der »Weißen« zu fallen statt als »farbig« oder »schwarz« klassifiziert zu werden. [61]

Im New Profiling sind Profile das Ergebnis automatisierter und algorithmisch gestützter Systeme der Mustererkennung und -diskriminierung. Dies setzt zunächst die Umwandlung des Erfahrungsstroms und des Durcheinanders realer Ereignisse in maschinell lesbare Daten voraus. Das Wissen ist in diesem Fall induktiv. Es wird aus den gesammelten Daten abgeleitet. In diesem Prozess lenken Algorithmen die Aufmerksamkeit auf bestimmte Punkte oder Partikel im »Meer der Daten«. Als »Verarbeitungsvorschriften zur Kondensierung und Extraktion von Informationen«[62] heben sie manche hervor bzw. heraus, und drängen andere in den Hintergrund bzw. löschen sie aus. Bei dieser Art des Profiling geht es weniger um die Feststellung und Messung von bestehenden Persönlichkeitsmerkmalen, sondern um das Erkennen und Unterscheiden (»diskriminieren«) von Mustern. Profile entstehen ex post, durch das Clustern von bestimmten Mustern. Wie Hildebrandt erklärt: »Die Mustererkennung basiert auf ›blinden‹ Korrelationen (d. h. Korrelationen, die nicht von vordefinierten Hypothesen ausgehen und nicht notwendigerweise Ursachen oder Gründe implizieren) und ermöglicht es denjenigen, die die daraus resultierenden Profile nutzen, den Zustand oder das Verhalten der zu profilierenden Objekte oder Subjekte zu antizipieren.«[63]

Das traditionelle Profiling folgt der Logik der »Inspektion«. Es versucht, das Vorhandensein bestimmter vordefinierter Merkmale im Individuum zu identifizieren um dieses dann entsprechend zu kategorisieren. Im Gegensatz dazu folgt das New Profiling der vorausschauenden Logik der »Prospektion«. Basierend auf Mustererkennung und Korrelationen wird eine »predictive transparency« hergestellt, welche die Grundlagen für präventive Entscheidungen und vorausschauendes Regieren und Managen bildet. Vorhersagen werden aus Mustern im Verhalten in der Vergangenheit abgeleitet (die sich mit einer gewissen Wahrscheinlichkeit wiederholen) oder sie werden aus Ähnlichkeiten mit Mustern von anderen »Gruppen« oder von »Nachbarn« abgeleitet. Das eine Mal wird die Vergangenheit in die Zukunft projiziert, das andere Mal wird die Ähnlichkeit zum Maßstab gemacht bzw. zur Norm erhoben. Kategorisierungen hängen also nicht nur von individuellen Handlungen, Verhaltensweisen und Geschichten ab, sondern auch von denen anderer, die der betreffenden Person ähnlich sind (Beispiel: Amazon erstellt Vorschläge auf der Basis des bzw. meines Einkaufsmusters in der Vergangenheit und auf der Basis (m)einer Ähnlichkeit mit anderen, ein anderes Beispiel ist die (diskriminierende) Einordnung der Kreditwürdigkeit aufgrund von Alter oder Wohnsitz bzw. Wohngegend). Es entsteht ein probabilistisches Wissen, das Kausalitäten ausblendet. Kurz gesagt, während das traditionelle Profiling versucht, zu bestimmen und sichtbar zu machen, wer oder was die Person ist, macht das New Profiling die Menschen »auf eine eher kontraintuitive Weise transparent. Die Profiling-Software schaut gewissermaßen durch sie hindurch um sichtbar machen, wem oder was sie ähneln«.[64]

Das auf Mustererkennung beruhende New Profiling verknüpft Datenpunkte und konstruiert so eine »person of interest«. Diese wird visualisiert und erscheint auf einem Bildschirm, einem Scoring Sheet, einer Risikokarte oder ähnlichem. Im Falle des New Profiling entsteht die person of interest als »data derivative«.[65]

Solche Wissensobjekte können aus einer Vielzahl unterschiedlicher und heterogener Quellen generiert bzw. abgeleitet werden (z. B. aus digitalen Akten wie Online-Suchen, Versenden von Nachrichten, Blogging, Online-shopping, Liken, Twittern und Posten etc.). Profile werden durch die Kombination und Zusammensetzung dieser Datenfragmente oder -fetzen erstellt. Es handelt sich dabei nicht um Abbildungen »realer« Personen oder »Individuen«, sondern um Montagen und (Neu-)Zusammensetzungen aus Elementen oder Bruchstücken, die aus dem Datenfluss für bestimmte Zwecke extrahiert wurden. Als solche ähneln sie dem codierten »Dividuum«, das nach Deleuze in der »Kontrollgesellschaft« das ungeteilte In-Dividuum ersetzt. [66] Wie Hildebrandt erklärt, sind diese Elemente oder Eigenschaften nicht einfach gegeben; vielmehr werden sie zugeschrieben und tragen damit die Handschrift derjenigen, die die Algorithmen entwickeln, um aus maschinen-lesbaren Daten die gewünschten Objekte abzuleiten. [67]

Amoore betont, dass das digitale Alter Ego, das aus dem algorithmischen Profiling hervorgeht, genaugenommen »eine projizierte Person ist: das Bild einer potentiellen zukünftigen Person, die noch kommen wird«,[68] z. B. der oder die potentielle Terrorist/ in, der oder die potentielle Kriminelle, der oder die potentielle Käufer/in, der oder die potentielle toxische Mitarbeiter/in, der oder die potentielle Kreditausfaller/ in, usw.

Während das traditionelle Profiling das Individuum in einer relativ stabilen normativen Matrix fixiert, arbeitet das New Profiling mit »momentanen Gruppierungen, die im nächsten Moment im weißen Rauschen der Datenbank verschwinden können«.[69] Diese schaffen ein fluktuierendes Netzwerk von Kategorien, die das Verhalten modulieren. Solche Modulationen sind keine starren Verhaltensschablonen oder Wahrnehmungsraster, vielmehr »gleichen (sie) einer sich selbst verformenden Gußform, die sich von einem Moment zum anderen verändert, oder einem Sieb, dessen Maschen von einem Punkt zum anderen variieren«.[70] In solchen dynamischen Netzwerken können Subjekte kontinuierlich bewertet und für bestimmte Zwecke präventiv ein- und aussortiert werden. Das offene Werden wird einer Kontrolle unterworfen und in die Kreisläufe der Ökonomie eingeschleust. In Tabelle 1 sind die wesentlichen Unterschiede zusammengefasst.

Tabelle 1

Traditionelles und datengetriebenes »New Profiling«.

Traditionelles Profiling New Profiling
Deduktion Induktion
Kausalität Korrelation
Inspektion Prospektion
»Fixierung der Differenz« Temporäre Muster
Relative stabile normative Matrix von Identitäten Netz von fluktuierenden Kategorien
Prüfung Kontinuierliche Evaluation
Administrative Entscheidungen Präventive Entscheidungen

Zusammengefasst: Die Analyse des New Profiling zeigt, wie die Profile, die in diesem Zusammenhang erstellt werden, von den sozialen Zusammenhängen, aus denen sie hervorgehen, losgelöst werden. Der Prozess der Bildung von Kategorien wird zunehmend – insbesondere in Systemen des Machine learning (ML) – von menschlichen Entscheidungen abgekoppelt. Die vielfältigen Mikroentscheidungen, die bestimmen, was in das System der Berechnungen einfließt, werden mehr und mehr unsichtbar und verschwinden in der Black Box einer komplexen Maschinenarchitektur. Die entstehenden Profile entpuppen sich als »artefaktische Körper«, die vom Individuum, das sie vorgeblich repräsentieren, getrennt werden und ein Eigenleben führen können. Sie können mit anderen Profilen kombiniert werden und für verschiedene Zwecke in unterschiedlichen Kontexten eingesetzt werden. Sie können kontinuierlich modifiziert werden und sind – insbesondere in ihrer elektronischen Form – extrem fungibel und mobil. Sie werden zu »Vorhersageprodukten«, die im Cyberspace zirkulieren.

4 Kapitalisierung des Werdens

Im Kontext des »Überwachungskapitalismus« sind Profile die Form der Kapitalisierung von Daten. Digitale Spuren werden in »Vorhersageprodukte« umgewandelt, als solche werden sie ge- und verkauft. Da jedes Stück Daten für irgendjemanden von potenziellem Wert ist, kann auch jedes Versatzstück in irgendeinem Profil landen, das für irgendjemanden von Nutzen ist und daher verkauft werden kann. Auf die Monetarisierung der Daten haben sich verschiedene Databroker, Directmarketer und andere Organisationen und Unternehmen spezialisiert, die eine Expertise in der Verarbeitung, Analyse und Verwertung von Daten haben. Das New Profiling bezieht seine Attraktivität aus dem Versprechen, mithilfe einer Vielzahl von Daten und leistungsfähigen Algorithmen die Unsicherheit zu reduzieren und das Verhalten, Denken, Entscheiden von Menschen berechenbar und kalkulierbar zu machen. Auf der Basis scheinbar rationaler und neutraler Berechnungen verwandelt es das offene Werden in eine kalkulierte Zukunft, die zu einer profitablen Quelle der Generierung von Einkommen und Kapital wird. Während das datengetriebene Profiling Handlungen, Gedanken, Gefühle und Verhalten der Bürger/innen (Kunden/innen, Wähler/innen, Schuldner/innen, Mitarbeiter/ innen usw.) mehr und mehr berechenbar und vorhersehbar macht, wird es aber selbst in höchstem Maße unvorhersehbar. Wie oder wann Profile wirksam werden bzw. zu welchem Zweck sie verwendet werden, ist schwer zu prognostizieren. Dass wir uns im Visier bestimmter Organisationen befinden und Zielscheiben von Profiling- und Vorhersagemaschinen sind, wird uns häufig nur sporadisch bewusst. Beispielsweise dann, wenn wir eine individualisierte oder personalisierte Nachricht von unbekannter Stelle erhalten, wenn uns ein maßgeschneidertes Produkt angeboten wird, wenn wir am Flughafen oder an der Grenze angehalten werden und als Risiko oder potentielle/ r Terrorist/ in »erkannt« werden; es wird uns auch dann bewusst, wenn uns der Zugang zu öffentlichen Räumen, Versicherungsleistungen, begehrten Stellen oder Positionen, zu Krediten, Dienst- oder Sozialleistungen etc. verwehrt wird, weil wir – bzw. unser Profil – nicht zu den im Vorfeld von anonymen Instanzen definierten Kriterien passen. So wird auf der Basis von Prognosen eine mögliche Zukunft verbaut. Das kann zum Beispiel dann passieren, wenn die angehende Studierende von der Universität XY als Risiko kategorisiert[71] und aufgrund des prognostizierten Studien(miss)erfolgs in präemptiver Weise (aus)sortiert wird; es kann passieren, wenn der Algorithmus des Arbeitsmarktservices[72] bestimmten Gruppen aufgrund statistischer Merkmale Hoffnungslosigkeit bescheinigt; es kann passieren, wenn die algorithmisch generierte Figur des potentiellen Terroristen aus der Entfernung eliminiert wird oder wenn der algorithmisch produzierte Verdacht zur selbst-erfüllenden Prophezeiung wird und eigene Realitäten schafft. Unabhängig davon, ob die Prognosen zutreffend sind oder nicht: Sobald jemand beispielsweise auf der »strategic subject list« der Chicagoer Polizei steht, ist er oder sie ein/e »Verdächtige/r« und wird dementsprechend behandelt. [73] So kann die »wissenschaftliche« Prognose Realitäten schaffen und im Extremfall zu einer dauerhaften Stigmatisierung der betreffenden Person(en) beitragen. Das zeigt sich etwa auch im Rahmen des »predictive policing«, wenn, wie Untersuchungen in den USA gezeigt haben, bestimmte Bevölkerungsgruppen aufgrund statistischer Merkmale überdurchschnittlich häufig als »verdächtig« klassifiziert werden,[74] oder wenn bei Gerichtsentscheidungen, Angehörige bestimmter Gruppen überproportional als »riskant« im Sinne einer hohen Rückfallwahrscheinlichkeit eingestuft werden und dementsprechend länger im Gefängnis festgehalten werden. [75] In all diesen Fällen geht es weniger darum, dass Entscheidungen, die das Schicksal von Menschen bestimmen, auf dem (Ab-)Bild der »wahren Persönlichkeit« getroffen werden. Vielmehr wird auf der Basis von Daten eine »potentielle Person« erschaffen, die in Form einer »rationalen Diskriminierung«[76] differentiell behandelt und (aus)sortiert wird. Das heißt nicht, dass Entscheidungen, die auf der Basis von algorithmischem Profiling und Prognosen getroffen werden, mehr oder auch weniger fehleranfällig sind als beispielsweise solche von Expert/innen – sie sind nur besser geeignet, diese Fehleranfälligkeit zu verschleiern. Um nochmals Louise Amoores Einschätzung aufzugreifen und zu variieren: Der Wahnsinn algorithmisch erzeugter Prognosen und Vorhersageprodukte besteht nicht darin, dass diese eine nur unzulängliche Objektivität verkörpern, er besteht vielmehr darin, dass auf der Basis kontingenter Setzungen Wahrheiten produziert werden, die Ein- /Ausschlüsse zur Folge haben. Hinter der »mathematischen Objektivität« verbirgt sich ein bestimmtes Maß an Willkür, die als solche unkenntlich gemacht wird. Vielleicht liegt darin das größte Problem der algorithmisch-technologisch fabrizierten Vorhersageprodukte: das Abschneiden und Verbauen von Möglichkeiten erscheint als Ausdruck einer wissenschaftlich beglaubigten Zukunftsvision. Als eine Form der instrumentären Macht bringt sie den ethisch-politischen Raum der Imagination und potentiellen Transformation zum Verschwinden. Der kritischen Forschung geht es darum, diesen verdeckten Raum sichtbar zu machen und damit eine Problematisierung der Wirkungen und Effekte dieser Verfahren in Gang zu setzen.

Published Online: 2021-07-13
Published in Print: 2021-07-27

© 2021 Richard Weiskopf, published by De Gruyter.

This work is licensed under the Creative Commons Attribution 4.0 International License.