Accessible Published by De Gruyter Saur February 5, 2016

Privatsphäre als ethische und liberale Herausforderungen der digitalen Gesellschaft

Privacy as ethical and liberal challenge of the digital society
La vie privée comme défi éthique et libéral de la société numérique
Max-Otto Baumann

Zusammenfassung

Der gesellschaftliche Diskurs über Privatsphäre ist bislang sehr auf das Individuum und seine Rechte (sowie deren Verletzungen) fokussiert, wobei auf dieser Ebene die digitalen Gefährdungen schwer zu fassen sind. Dabei gerät aus dem Blick, wie grundlegend Privatsphäre gerade in der digitalen Gesellschaft unsere sozialen, wirtschaftlichen und politischen Beziehungen reguliert. Unter ethischen Gesichtspunkten erscheint es problematisch, dass durch Profilbildung Normen der öffentlichen Gleichheit unterlaufen werden, die individuelle Interessen schützen. Die liberale Herausforderung besteht darin, dass auf das Individuum fokussierte Schutzkonzepte, insbesondere die „informationelle Selbstbestimmung“, nicht mehr greifen, wenn sich Privatsphäre von einem individuellen Recht zu einem kollektiven Gut wandelt.

Abstract

Our current discourse on privacy is narrowly focused on the individual and his or her right to privacy (or rather, violations thereof). This approach does not provide an adequate foundation for addressing the problems of the digital society. The main function of privacy is arguably to regulate our social, economical, and political relationships. From an ethical point of view, it is a concern that privacy invasions and profiling undermine norms of public equality that protect individual interests. The liberal challenge is that privacy protection concepts that built on individual consent, especially the right to “informational self-determination”, become ineffective as privacy evolves from an individual right to a collective good.

Résumé

Le discours social sur la vie privée s’est concentré, jusqu’à présent, sur l’individu et ses droits (ainsi que leurs violations), bien que les dangers numériques soient difficilement saisissables dans ce domaine. Mais on perd de vue à quel point la vie privée régit, spécialement dans la société numérique, nos relations sociales, économiques et politiques. Sur le plan éthique, il semble problématique que des normes d’égalité publique soient minées par la constitution de profils qui protègent les intérêts individuels. Le défi libéral consiste dans le fait que les concepts de protection focalisés sur l’individu, en particulier «l’autodétermination informationnelle», ne sont plus valables quand la vie privée passe d’un droit individuel en un bien collectif.

Mit der Privatsphäre verhält es sich recht ambivalent. Einerseits jagt eine skandalöse Nachricht die andere: Jahrelang standen Facebook und andere Social Media-Anwendungen in der Kritik, dann brachte der NSA-Skandal eine fast ungeheuerliche staatliche Massenüberwachung ans Licht. Vor einiger Zeit wurde bekannt, dass der Taxi-Dienst „Uber“ allein aus Metadaten abgeleitet hat, welche seiner Kunden sexuelle Affären pflegen. Spätestens damit war klar, dass unsere digitale Gesellschaft keine Schlupfwinkel mehr bietet, in denen man vor Ausspähung gefeit wäre. Umfragen verzeichnen auch eine seit Jahren steigende Wertschätzung der Privatsphäre.[1]

Andererseits drängt sich der Eindruck auf, dass hinter einem pflichtschuldigen Bekenntnis zur Privatsphäre letztlich eine ausgeprägte Indifferenz in der Bevölkerung vorherrscht. Für die meisten Menschen scheinen die Vorteile digitaler Innovationen jedes ihnen bekannte Risiko zu überwiegen. Jedenfalls bremst die Sorge um die Privatsphäre bislang nicht die Ausbreitung digitaler Innovationen und ihre gesellschaftliche Akzeptanz. Ein Wahlkampfthema ist die Privatsphäre nicht.

Woher kommt diese Indifferenz? Sie hat vielleicht auch mit den Begriffe zu tun, anhand derer wir uns über das Thema verständigen. Unter Privatsphäre verstehen wir meist das „Right to Be Let Alone“. Mit dieser sehr eingängigen Definition haben zwei amerikanische Juristen vor mittlerweile 125 Jahren das Recht auf Privatsphäre erfunden.[2] Eine Verletzung der Privatsphäre könne, so die beiden Richter damals, „mental pain and distress“ verursachen, was für die Betroffenen womöglich noch schlimmer sei als körperliche Verletzungen.

Diese Begründung der Privatsphäre ist heute kaum noch tragfähig. Staat und Wirtschaft lassen uns, subjektiv betrachtet, ziemlich alleine. Die digitale Entblößung tut nicht weh, wir merken sie nicht einmal. Stellen wir uns in einem kleinen Gedankenexperiment einmal zwei Individuen vor. Das eine lebt unter der heute üblichen digitalen Überwachung und hat keine digitale Privatsphäre, das andere wird nicht ausgespäht, es hat digitale Privatsphäre. Die entscheidende Frage wäre dann: Macht die Privatsphäre einen praktischen Unterschied für die betroffenen Individuen? Wenn nicht, dann könnten wir der Privatsphäre lediglich intrinsischen Wert zuschreiben, sie berührt sicherlich unsere Würde, hätte jedoch sonst keine praktische Bedeutung.[3]

Ich glaube nicht, dass Privatsphäre in digitalen Kontexten nur intrinsischen Wert hat. Ein solches Verständnis von Privatsphäre rührt daher, dass wir Privatsphäre individuell denken, d. h. von der Gefahr der Entblößung her. Die amerikanische Politikwissenschaftlerin Priscilla Regan hat dagegen schon 1995 den bemerkenswerten Satz geschrieben: „Our thinking on privacy needs to turn outward, to its importance to social, political, and economic relationships [...] and to our common public life more generally.“[4] Erst in dieser Perspektive kommen die ethischen Probleme der digitalen Gesellschaft überhaupt in den Blick.

Im möchte im Folgenden versuchen, eine pragmatistisch-liberale Perspektive auf die Privatsphäre einzunehmen: Pragmatistisch heißt, dass nicht die Verletzung der Privatsphäre selbst (oder des Rechts auf Privatsphäre) thematisiert wird, sondern die praktischen Folgen, die sich damit verbinden. Liberal bedeutet, dass mich zuvorderst die Folgen für die individuelle Freiheit interessieren. Ich glaube diese Herangehensweise ermöglicht es, vergleichsweise objektiv über ethische Herausforderungen der digitalen Gesellschaft zu sprechen.

Ethische Konflikte im Zusammenhang mit Privatsphärenverletzungen

Der durchschnittliche Bürger, der Zeitung liest und gelegentlich auch einmal die AGB, dürfte recht gut über die umfassende Erfassung seiner Daten in sozialen, wirtschaftlichen und politischen Kontexten informiert sein. Ihm ist klar, dass er sich den zahlreichen digitalen Netzen, deren Maschen immer dichter werden, kaum noch entziehen kann. Jede Bewegung, ob offline oder online, wird irgendwo aufgezeichnet, es können tiefe und intime Einblicke in seine Privatsphäre genommen werden. Aber wie soll unser durchschnittlicher Bürger sich angemessen dazu verhalten? Wenn wir uns einmal die pauschalen Abkürzungen zum Werturteil verbieten, also Sätze wie „Ein Mensch unter Beobachtung ist nicht frei“ oder „Privatsphäre ist ein Grundrecht“, dann wird es schwierig, die praktische Bedeutung der Privatsphäre zu erkennen.

Daher noch ein zusätzliches Beispiel, das vielleicht etwas dramatisch ist; wahrscheinlich bringt der Zeitungsleser es nicht in Verbindung mit Facebook & Co. Bekanntlich überwachen die USA im Rahmen des Kampfes gegen den Terror bestimmte Krisengebiete mit Drohnen.[5] Derzeit geschieht dies u. a. in Syrien, Pakistan, Jemen und Somalia – also weit weg von hier. Die Drohnen sind mit leistungsstarken optischen und elektronischen Sensoren ausgestattet und über Satellit mit Rechnern und Datenbanken der NSA verbunden. Wird ein Terrorist anhand von Metadaten und anderen Informationen identifiziert, feuert der Drohnenpilot, der im US-Bundesstaat Nevada sitzt, eine Rakete ab. Wir wissen, dass dabei auch Zivilisten getötet werden. Außerdem verstört der Drohnenkrieg eine ganze Gesellschaft, diese Drohen sind wie herumschwebende Damoklesschwerter.

Die digitale Überwachung in unserem Alltag und der Drohnenkrieg liegen auf einem Spektrum und unterscheiden sich eigentlich nur graduell: Beide Male erfolgt die Beobachtung mit einem bestimmten gesellschaftlichen Zweck; beide Male kommt leistungsfähige Technologie zum Einsatz; beide Male ist nicht die Beobachtung selbst – der entblößende Blick – das Problem. Das wirkliche Problem sind die Folgen der Datenerfassung, die sich ihrerseits aus dem Zweck der Beobachtung ableiten. Dazu kommen erhebliche Risiken durch falsche oder ungenaue Daten.

Wir können die Folgen von Privatsphärenverletzungen noch ein bisschen systematischer fassen. Der niederländische Philosoph Boudewijn de Bruin hat dazu ein einfaches Modell vorgeschlagen.[6] Das Modell verknüpft Privatsphäre mit der negativen Freiheit. (Negative Freiheit besteht darin, nicht von anderen gehindert zu werden, etwas zu tun.) Alles über den Kamm der Freiheit zu scheren, hat den deutlichen Vorteil, dass man nicht für jede Art der Überwachung, ob sie nun im sozialen, wirtschaftlichen oder staatlichen Kontext geschieht, eine neue Rechnung aufmachen muss.

Die Verknüpfung von Privatsphäre und negativer Freiheit ist nach dem Modell von de Bruin nun ein Prozess mit drei Stufen: (1) Information: Es werden Informationen über ein Subjekt erhoben und gegebenenfalls auch weitergegeben; (2) Einstellungswandel: Der Beobachter oder Empfänger revidiert sein Bild des Subjekts; (3) Reaktion: Er behandelt das Subjekt auf Grundlage des neuen Bildes anders, als dies ohne die Information geschehen wäre. Die Der Akt der Beobachtung selbst ist in de Bruins Modell also nur der erste Schritt. Entscheidend ist, welche Reaktion eine Information auslöst: Je nachdem vergrößert oder verringert dies die negative Freiheit des Subjekts.

Ein Beispiel: Ich erfahre, dass mein neuer Nachbar eine kriminelle Vergangenheit hat (Information); ich betrachte ihn nicht mehr als freundlichen Herrn, sondern als sozial problematische Person (Einstellungswandel); deshalb gehe ich auf Distanz (Reaktion). Der neue Nachbar ist mithin in seiner Freiheit eingeschränkt, die üblichen nachbarschaftlichen Sozialbeziehungen aufzubauen. Ahnt er, dass ich Bescheid weiß, wird er vielleicht gar nicht erst versuchen, mit mir in Kontakt zu kommen. Streng genommen kommt es also gar nicht auf die tatsächliche Reaktion an, sondern nur auf die Disposition zu einer Reaktion.

Nun ist freilich Gesellschaft nicht ohne gegenseitige Beobachtung und wechselseitige Freiheitseinschränkungen denkbar. Wir brauchen Informationen über andere, um uns ihnen gegenüber angemessen verhalten zu können. Aber mit der digitalen Revolution verschieben sich einige Parameter der sozialen, wirtschaftlichen und politischen Beziehungen. Dabei treten ethische Probleme auf, die sich an allen drei Stufen des Modells festmachen lassen (wobei die anderen triadisch mitzudenken sind).

Neu ist, dass es für die Erhebung und Weitergabe von Informationen in der digitalen Gesellschaft kaum noch Grenzen gibt, u. a. weil die digitalen Netze sich bis in die Ritzen der Gesellschaft ausbreiten und die Kosten für den Datentransport enorm gesunken sind. Die Folge ist, dass Individuen durch den Austausch von Information mit einem potentiell sehr viel größeren Kreis von Akteuren in Beziehung gesetzt werden, als dies früher denkbar war. Ein „Shitstorm“ beruht unter anderem darauf, dass ein Individuum in Kontakt gerät mit einer Vielzahl von Menschen, die zuvor keine Notiz von dessen privatem Tun und Lassen genommen hätten.

Ethisch problematisch ist nun, dass solche Beziehungen nicht mehr durch die moralischen Normen des sozialen Nahbereichs reguliert werden. Ein Shitstorm kann verheerende Folgen für das betroffene Individuum haben, z. B. kann die öffentliche Stigmatisierung Bewerbungs- und Berufschancen zunichte machen. Jedoch lässt sich den am Shitstorm Mitwirkenden vielleicht eine Verantwortung, jedoch keine Schuld an diesem Schaden zuweisen. Jeder einzelne Tweet ist legitim, aber gebündelt schlagen sie ein wie eine Bombe.

Im wirtschaftlichen Bereich sehe ich den ethisch neuralgischen Punkt auf der zweiten Stufe des Modells (Einstellungswandel). Große Organisationen, die mit Big-Data-Technologie arbeiten, haben enorme Möglichkeiten zur Profilbildung. Eigentlich ist Profilbildung nichts anderes als die Reduktion eines Individuums anhand von Algorithmen auf eine bestimmte Kategorie. Aber dies gelingt mittlerweile aus großer Distanz und mit hoher Treffsicherheit. Facebook kann allein anhand von Metadaten bestimmte Persönlichkeitsmerkmale wie ethnische Zugehörigkeiten, Weltanschauung, Beziehungsstatus, sexuelle Präferenzen, Intelligenz feststellen. Auch können mittlerweile in Echtzeit Gefühlslagen identifiziert werden.

Profilbildung ist mittlerweile von einer solchen epistemologischen Kraft, dass Dinge über ein Individuum in Erfahrung gebracht werden können, welche dieses entweder selbst nicht freiwillig preisgeben würde oder gar nicht von sich weiß – z. B. Gesundheitsrisiken, Charaktereigenschaften, politische Einstellungen. Dieser Wissensvorsprung ermöglicht es, die Entscheidungsautonomie des Individuums zu unterlaufen und in der Auseinandersetzung mit ihm ein Ergebnis zu erzielen, welches eher die Interessen des Datenverarbeiters widerspiegelt als diejenigen des Individuums.

Dies führt direkt zur dritten Stufe (Reaktion). Im staatlichen Kontext geht es, wie vorhin beschrieben, mitunter um Leben und Tod, wobei uns hierzulande Demokratie und Rechtsstaat noch vor dem Schlimmsten schützen. Im wirtschaftlichen Kontext dient Profilbildung einerseits der Verbesserung von Produkten, häufig aber auch der Diskriminierung. Positive Diskriminierung kann die negative Freiheit vergrößern, z. B. wenn man als Kunde als kreditwürdig erkannt wird. Negative Diskriminierung dagegen – die Verweigerung eines Kredits, die Verteuerung einer Versicherung – verringert die negative Freiheit. Große Organisationen entscheiden heute auf der Grundlage von Datenauswertung maßgeblich mit, welche Preise, Dienste und Chancen einzelne Individuen bekommen.

Was ist die moralische Grundlage für diese Diskriminierung? Unlängst hat die Europäische Kommission Ermittlungen gegen spanische Hotels aufgenommen, weil diese von Reisenden bestimmter Länder teilweise bis zu doppelt so hohe Preise verlangen. Offensichtlich tolerieren wir derzeit in digitalen Zusammenhängen Praktiken, die offline als empörender Betrug gewertet und verfolgt werden.

Es werden also in der digitalen Sphäre nicht nur die moralischen Normen des sozialen Miteinanders ausgehebelt, sondern auch gesellschaftlich-politische Normen. Die politische Philosophie von John Rawls gründet auf dem Konzept des fiktiven „Schleiers des Nichtwissens“; Gerechtigkeit beruht auf Unvoreingenommenheit, die durch Nichtwissen garantiert wird. In digitalen Kontexten wird durch Profilbildung gewissermaßen der Schleier vor dem Privaten weggerissen. Wo zuvor politisch-gesellschaftliche Normen eine öffentliche Gleichbehandlung sichergestellt haben, wird Diskriminierung entsprechend existierender sozialer Ungleichheiten möglich. Es kommt in der Folge zu einer Umverteilung von negativer Freiheit.

Die Maßstäbe, nach denen dies geschieht, kennen wir häufig nicht, geschweige denn, dass wir uns dagegen wehren können. Bislang gelten die Algorithmen von Kreditauskunfteien als Betriebsgeheimnis. Sehr wahrscheinlich sind sie eher am wirtschaftlichen Gewinn der Unternehmen ausgerichtet als am Wohl der Individuen und an gesellschaftlichen Gerechtigkeitsvorstellungen. Damit wird ein weiteres ethisches Prinzip unterlaufen, nämlich die Kopplung von Handeln und Verantwortung. Je schwerwiegender die Einmischung in politisch-gesellschaftliche Normen ist, desto mehr bedarf sie gesellschaftlicher Kontrolle. Der Drohnenkrieg ist wiederum ein extremes Beispiel, wie in digitalen Zusammenhängen Rechenschaftspflicht ausgehebelt wird; denn es wird ohne richterliche Kontrolle getötet, ein fundamentaler Bruch rechtsstaatlicher Prinzipien. Aber auch das „Scoring“ einer Kreditauskunftei unterliegt keinerlei gesellschaftlichen Kontrolle, obwohl die Folgen für Individuen schwerwiegend sein können.

Besonders brisante Punkte im Zusammenhang mit Verantwortung sind Datenlecks und fehlerhafte Daten. Kürzlich hat eine Seitensprung-Plattform massiv Daten verloren, was für die Betroffenen äußerst problematisch sein kann. Identitätsdiebstahl oder Identitätsverwechslungen werden sich nie vollständig verhindern lassen, können in der digitalen Gesellschaft aber massive Folgen haben. Eigentlich muss jeder Mensch damit rechnen, irgendwann einmal davon betroffen zu sein, weshalb es rational ist, sein Verhalten entsprechend diesem Risiko auszurichten. Das Bundesverfassungsgericht hat daher den Grundsatz geschaffen, dass die Erfassung personenbezogener Informationen in einer Datenbank in jedem Fall als Einmischung in die Privatsphäre und eine Freiheitseinschränkung gewertet werden muss.

Kritik der „informationellen Selbstbestimmung“

Statt um die Gefährdungen soll es nun um Konzepte zum Schutz der Privatsphäre als Grundlage einer freiheitlichen Gesellschaftsordnung gehen. Ausgangspunkt kann dabei das „Recht auf informationelle Selbstbestimmung“ sein (das im Amerikanischen eine Entsprechung im Prinzip des „informed consent“ hat). Eigentlich denkt jeder liberal, der auf das Recht auf informationelle Selbstbestimmung setzt. Das Problem ist nun freilich: In der informationellen Selbstbestimmung kehrt die oben kritisierte Fokussierung auf das Individuum wider. FDP-Politiker haben im Bundestag die informationelle Selbstbestimmung eng mit dem liberalen Leitbild des „eigenverantwortlichen“ und „mündigen“ Bürgers verknüpft, der selbst entscheidet, wann und wo er seine Privatsphäre für welche Gegenleistung eintauscht.

Ich sehe drei grundlegende Schwierigkeiten beim Konzept der informationellen Selbstbestimmung und glaube daher nicht, dass es heute noch einen adäquaten Schutz der Privatsphäre bietet. Das liberale Leitbild des selbstbestimmten Individuums versagt meines Erachtens aus ähnlichen Gründen, aus denen es unsinnig wäre, dem Nutzer die Verantwortung für sauberes Wasser oder sichere Produkte zu geben.

(1) Kompetenzprobleme. An sich ist die Idee der Einwilligung gut, auf der die informationelle Selbstbestimmung gründet. Einwilligung wirkt moralisch transformativ: Wem ich Zutritt zu meinem Haus gestatte, der verletzt meine Privatsphäre nicht, wer durch’s Fenster einsteigt, dagegen schon.[7] Aber die Einwilligung muss bestimmten Kriterien genügen: Sie muss u. a. gut informiert, zwanglos und zweckgebunden sein. Nun zeigen Untersuchungen aber, dass es für den durchschnittlichen Menschen 244 Stunden im Jahr dauern würde, alle AGBs zu lesen.[8] Fraglich auch, ob Dienste wie Facebook oder der Online-Einkauf tatsächlich immer freiwillig genutzt werden; meist gibt es keine ernsthaften Handlungsalternativen, z. B. eine Website, auf der man Bestellungen tätigen könnte, ohne in eine weitreichende Datenverarbeitung einzuwilligen.

Im Prinzip könnten diese Probleme durch verbesserte Informationen, durch eiserne Disziplin zum Lesen der AGBs oder notfalls durch digitale Keuschheit gelöst werden. Aber massenhaftes Versagen bei der Ausübung eines Rechts deutet auf strukturelle Probleme hin. Wenn sich im Straßenverkehr die schweren Autounfälle an einer bestimmten Kurve signifikant häufen, geht die moralische Verantwortung dafür vom Fahrer auf die Verkehrsbehörde über. Einige prominente Denker, darunter Viktor Mayer-Schönberger, haben daher kritisiert, dass die informationelle Selbstbestimmung zu einer bedeutungslosen Formalität geworden sei. Der Schutz der Verbraucher dürfe nicht mehr länger darauf beruhen, dass Nutzer verstehen, was mit ihren Daten geschieht, um dann geeignete Maßnahmen zu ergreifen.[9]

(2) Struktur der digitalen Wirtschaft. Man hört häufig den Satz „Der Nutzer zahlt mit seiner Privatsphäre“. Aber das stimmt nicht mehr, denn oft geht es gar nicht um einen Tausch, sondern die Interaktionen gleichen mehr einem Betrug, einer Täuschung – nämlich immer dann, wenn negativ diskriminiert wird. Wer zum Beispiel einen Apple-Laptop für Online-Bestellungen nutzt, bekommt mitunter Preise, die bis zu 50 Prozent höher als der Durchschnitt ausfallen, er wird also über den Wert des Produkts getäuscht. Auf der Internetseite einer Big-Data-Firma, die Profilbildungstechnik liefert, wurde unverblümt mit Strategien der „emotionalen Beeinflussung“ von Kunden geworben.

Das bedeutet: Der Zweck der Datenverarbeitung ist häufig gerade die Überwindung der Nutzerselbstbestimmung, die deswegen nicht Grundlage von Datenschutz sein kann. Eine 2014 von US-Präsident Obama in Auftrag gegebene Studie zum Thema Big Data und Privatsphäre resümiert, dass jährlich enorme Summen in die Entwicklung von Profilbildungstechnologie investiert werden, aber nur ein winziger Bruchteil davon in Technologien, welche die Privatsphäre schützen.[10] Der gesunde Menschenverstand sagt, dass dies die Möglichkeiten der informationellen Selbstbestimmung massiv unterläuft.

(3) Systemische Schwierigkeiten. Das größte Problem für die liberale Perspektive könnte schließlich sein, dass Privatsphäre zunehmend auch von den Entscheidungen anderer abhängt. Wenn 90 Prozent der Autofahrer sich für einen Telematik-Tarif entscheiden und eine Box installieren, die alle Bewegungen aufzeichnet, dann entsteht ein Zwang für diejenigen, die es nicht tun. Wenn Freunde und Bekannten ein Online-Netzwerk zur sozialen Interaktion nutzen oder wenn in der Öffentlichkeit Menschen Google-Glas verwenden, werden auch diejenigen digital erfasst, die es nicht tun. Werden ganze Infrastrukturen digitalisiert, weil die gesellschaftliche Mehrheit dies begrüßt, z. B. durch Einführung elektronischer Bezahlsysteme, kann sich der einzelne dem nicht mehr entziehen.

Privatsphäre wandelt sich also in der digitalen Gesellschaft von einem individuellen Recht zu einem kollektiven Gut. Entweder es haben sie alle oder niemand. Sie haftet nicht mehr am Individuum, sondern sie liegt darin, wie unsere sozialen, wirtschaftlichen und politischen Beziehungen organisiert, wie die technischen Infrastrukturen konstruiert sind.

Ein neues Paradigma

Wenn diese pessimistische Einschätzung der informationellen Selbstbestimmung zutrifft, darf die Verantwortung für den Schutz der Privatsphäre nicht mehr dem Einzelnen übertragen werden. Sie sollte viel stärker als bislang den Datenverarbeitern gegeben werden. Um über Pflichten von Datenverarbeitern nachzudenken, empfehlen sich Anleihen bei der ethischen Theorie des „Gerechten Kriegs“, in der eine recht ähnliche Problemstellung bearbeitet wird. Es geht um die Frage, wie man die Verletzung grundlegender moralischer Rechte rechtfertigen kann, wenn die Betroffenen selbst nicht gefragt werden können. Die in der Lehre des „Gerechten Kriegs“ dazu entwickelten Kriterien sind im Wesentlichen der legitime Zweck, die Notwendigkeit und die Proportionalität einer Maßnahme.

Tatsächlich kommen diese Kriterien auch im Privatsphärenvölkerrecht zum Tragen. Sowohl internationale Gerichte als auch Bürgerrechtsaktivisten sind auf dieser Grundlage zu dem Ergebnis gekommen, dass staatliche Massenüberwachung, wie sie derzeit vielfach praktiziert wird, jeder Rechtfertigung entbehrt. Auch das deutsche Bundesdatenschutzgesetz enthält allgemeine Datenschutzprinzipien wie die Datensparsamkeit und die Zweckbindung, die den Kriterien der Ethik des gerechten Krieges entsprechen. Sie stehen derzeit aber hinter dem Prinzip der Selbstbestimmung zurück und werden nicht mit Gewinn abschöpfenden Sanktionen durchgesetzt.

Ich sehe keinen Grund, weshalb dieses Modell nicht auch stärker in Bezug auf privatwirtschaftliche Datenverarbeitung angewandt werden könnte. Liberale sollten in gesetzlicher Regulierung nicht automatisch Paternalismus sehen, auch wenn man diese Gefahr selbstverständlich mitdenken sollte. Der britische Liberalismus-Theoretiker Leonard Hobhouse hat geschrieben: „There is no true opposition between liberty as such and control as such, for every liberty rests on a corresponding act of control.“[11] Es ist illusorisch zu meinen, dass Individuen in einer digitalisierten Gesellschaft ihre Daten und deren Verarbeitung durch Unternehmen noch selbst kontrollieren können. Es geht um verbindliche Regeln, wie die Freiheiten gesellschaftlicher Akteure, darunter auch Unternehmen, in eine vernünftige Balance gebracht werden können. Diese Regeln kann nur der Staat aufstellen und durchsetzen.

Dr. Max-Otto Baumann (32) hat in Heidelberg Politikwissenschaft, Philosophie und Physik studiert und wurde im Fachbereich Internationale Beziehungen promoviert. Von 2012 bis 2015 war er akademischer Mitarbeiter am John Stuart Mill Institut in Heidelberg im Projekt „Öffentlichkeit und Privatheit in der Digitalen Revolution“. Nun forscht er am Deutschen Institut für Entwicklungspolitik, Bonn in der Abteilung Bi- und multilaterale Entwicklungspolitik.

Online erschienen: 2016-2-5
Erschienen im Druck: 2016-2-1

© 2016 Walter de Gruyter GmbH, Berlin/Boston