„Privatheit ist nicht tot, sondern ungleich verteilt.“

Felix Maschewski und Anna-Verena Nosthoff im Gespräch mit der Privacy-Expertin Frederike Kaltheuner über WählerInnen-Targeting, Cybermanifestos und die Frage nach der (digitalen) Technik

é: Der in Stanford lehrende Datenwissenschaftler Michal Kosinski, der zuletzt an der Charaketeranalyse via Facebooklikes und -bildern forschte, verkündete im Frühjahr auf der CeBit das „Ende der Privatheit“. Es sei schlicht egoistisch, seine Daten nicht zu teilen. Statt antiquierte Vorstellungen zu propagieren, sollten wir uns mit den neuen Realitäten abfinden. Du saßt damals neben Kosinski auf dem Panel. Wie beurteilst du derartige Aussagen?

FK: Michals Forschung zeigt sehr eindrücklich, wie aus scheinbar belanglosen Datenspuren hochsensible Informationen gewonnen werden können. Das Recht auf Privatheit wird in diesem Zusammenhang aber nicht überflüssig oder unzeitgemäß, sondern wichtiger denn je. Wenn ich anhand von einfachen Metadaten ein Persönlichkeitsprofil erstellen kann, heißt das im Umkehrschluss, dass jede Organisation, die Daten über mich sammelt, prinzipiell wissen kann, ob ich neurotisch, gewissenhaft, oder offen für neue Erfahrungen bin. Dasselbe gilt für andere sensible Daten, wie sexuelle Präferenzen oder politische Orientierung. In diesem Sinne bestimmen sich aber nicht nur Smartphones, sondern fast alle Formen vernetzter, internetfähiger Geräte als ein gewaltiger psychologischer und demographischer Fragebogen, den wir konstant bewusst und unbewusst ausfüllen. Sensible Daten sind auch deshalb sensibel, weil sie gegen uns verwendet werden können.

Allerdings ist auch wichtig zu verstehen, dass solche datengetriebene Rückschlüsse eine bestimmte Art von Wissen generieren. Die gängige Vorstellung ist immer noch, dass wir uns mehr oder weniger bewusst entscheiden können, ob und mit wem wir Daten über uns teilen möchten. Persönliche Daten werden aber immer häufiger und immer umfassender erhoben und analysiert, oder aus anderen Daten abgeleitet, zuweilen sogar vorhergesagt (provided data vs. observed, derived and inferred data). Diese Daten sind aber per Definition immer nur eine Annäherung an die Realität, und oft systematisch verzerrt. Ihre Verwendung kann daher äußerst problematisch sein – etwa, wenn solche Daten die Grundlage automatisierter Entscheidungen bilden. Als Gesellschaft müssten wir uns also fragen, wann und wo wir uns auf probabilistisches und antizipatorisches Wissen verlassen möchten – wann und wo nicht. In der personalisierten Onlinewerbung, in der Justiz, in Bewerbungsverfahren oder um jemanden auf eine No-Fly-Liste zu setzen?

Die Privatheit ist nicht tot, sondern ungleich verteilt. Automatisierte Entscheidungen anhand von Daten, deren Existenz uns nicht einmal bewusst ist, werden besonders gerne dort eingesetzt, wo Geld gespart werden soll. Das Recht über uns getroffene Beurteilungen und Entscheidungen zu korrigieren, oder zumindest anzufechten, ist zunehmend zum Luxus geworden.

 

é: Kosinski ist nun weniger für seine fragwürdigen Aussagen über Privatheit, als für seine Forschungen im Rahmen der Datenanalyse bekannt. Er lieferte indirekt sogar die Analysewerkzeuge, die Cambridge Analytica-CEO Alexander Nix [Anm. der Redaktion: Nix war zum Zeitpunkt des Interviews noch CEO von Cambridge Analytica], der mit ihnen den Wahlkampf Donald Trumps unterstützt haben soll, nun prominent vermarktet. In den letzten Monaten wurde in diesem Zusammenhang wiederholt über die Gefahren des WählerInnentargetings und der gezielten Manipulation von WählerInnenmeinungen diskutiert. Wie schätzt du den Einfluss von Firmen wie Cambridge Analytica ein und was sollte uns an ihnen beunruhigen?

FK: Skrupellose Unternehmen, die wenig Respekt vor geltendem Recht haben und intimste Daten über Millionen von Menschen zur gezielten Beeinflussung von Stimmungen, Meinungen und Verhalten nutzen, sollten uns immer beunruhigen. Das Problem ist jedoch nicht Cambridge Analytica, sondern, dass die datenbasierte Beeinflussung von Verhalten das Geschäftsmodell unserer Zeit ist. Im Kontext von Wahlen ist das besonders eindrücklich.

Die Kritik jedoch auf eine einzige Firma zu beschränken, halte ich für zu einfach. Auch IBM bietet eine Software an, die anhand von Textdaten Persönlichkeitsprofile erstellt. Wer die Snowden-Dokumente gelesen hat, wird sich erinnern, dass auch der Britische Nachrichtendienst GCHQ die Abteilung JTRIG (Joint Threat Research Intelligence Group) unterhält, die unter anderem auf die Manipulation von Online-Diskursen und die gezielte Verbreitung von Falschinformationen spezialisiert ist. Ein interner Bericht aus dem Jahre 2011 zeigt eindeutig, dass sich der Geheimdienst für die Potenziale der datenbasierten Persönlichkeitsanalyse interessiert. Cambridge Analytica ist also bei Weitem nicht die einzige Organisation, die hochsensible psychometrische Daten zur gezielten strategischen Kommunikation nutzt.

Zumindest im US-Kontext ist außerdem wichtig, dass alle politischen Parteien spätestens seit Obama die Wählerschaft ganz gezielt mit Micro-Targeting beeinflussen wollen. Persönlichkeitsprofile mögen vielleicht eine Innovation sein, aber das macht die Datenoperation von Hillary Clinton nicht weniger problematisch.

 

é: Angesichts der neuen Potenziale, die die Technologien um Big Data und Co. vermitteln, scheinen sich aktuell die alten politischen Steuerungsträume aus der Hochzeit der Kybernetik (60er/70er Jahre) zu revitalisieren. Star-Investoren des Silicon Valley wie Tim O’Reilly oder Governance-ExpertInnen wie Beth Noveck oder Parag Khanna propagieren Modelle von ‚algorithmic regulation’ bis ‚democracy as data’. Was denkst du darüber, bewegen wir uns auf eine Technokratie 2.0 zu oder sind hinter den technologisch avancierten Modellpraxen doch nur wieder die Gesetze des Neoliberalismus am Werk (siehe beispielsweise auch die Debatte um den rechts-libertären Software-Milliardär Robert Mercer, Stephen Bannon, Cambridge Analytica und Co.)?

FK: Kybernetische Steuerungsträume sind immer auch ein Phantasma, vielleicht sogar das Phantasma unserer Zeit. Das Versprechen der Datafizierung ist auch immer das Versprechen einer Welt, in der alles quantifizierbar, messbar und dadurch steuerbar wird.

Ich finde ja, dass die Faszination an Mercer und Cambridge Analytica auch etwas mit diesem Phantasma zu tun hat. Die Idee, dass eine skrupellose Firma alleine durch die geschickte Nutzung hochsensibler Daten und jeder Menge Geld das Wahlverhalten Tausender signifikant verändert hat, ist beängstigend, in letzter Konsequenz aber nicht nachweisbar. Latente Ausländerfeindlichkeit, eine nie aufgearbeitete Kolonialgeschichte, die Boulevardpresse, Generationenkonflikte, eine – zumindest 2016 noch – zerstrittene Labour Partei, die sich nicht eindeutig positioniert hat, jahrelang verbreitete Desinformationen über die Aufgabe der Europäischen Union, wachsende Ungleichheit, Austeritätspolitik – all diese Faktoren sollen weniger ausschlaggebend gewesen sein, als der gezielte Versuch der datenbasierten Steuerung durch einen einzelnen Akteur?

Die Realität ist ungemein schwieriger. Natürlich sind das Verhalten und die intimsten Gedanken von ganzen Bevölkerungen quantifizierbarer, messbarer und somit auch kontrollierbarer geworden. Und natürlich haben sich in- und ausländische Geheimdienste und diverse Unternehmen durch Kontrolle über diese Daten und die Infrastruktur, in der politischen Kommunikation und Meinungsbildung zunehmend stattfindet, ein Machtmonopol angeeignet. Informationen sind Macht, Macht korrumpiert und absolute Macht korrumpiert absolut. Das ist ganz eindeutig eine Gefahr für die freie und offene Gesellschaft.

 

é: Im Silicon Valley herrscht, wie vielfach analysiert, die Geisteshaltung des „Solutionismus“ (Evgeny Morozov), d.h. der Glaube, dass es für jedes Problem eine technologische Lösung gebe. Man spricht in diesem Zusammenhang auch von einer „Ethik der Machbarkeit“. Welche Probleme siehst du in diesem Konzept?

FK: Solutionismus ist verführerisch. Leider gibt es nicht für jedes Problem eine zufriedenstellende technologische Lösung. Viele Probleme lassen sich überhaupt nicht einfach lösen, oder monokausal erklären. Gerade dort eignet sich Technologie besonders gut als Platzhalter.

Vielleicht sollten wir in diesem Zusammenhang nicht nur von einer „Ethik der Machbarkeit“, sondern einer „Ethik der monokausalen Erklärbarkeit“ sprechen. Technologie fungiert nämlich nicht nur als machbare Lösung, sondern auch als vereinfachte Erklärung von Ursachen. Ein gutes Beispiel sind die politischen Reaktionen nach terroristischen Anschlägen. Was ist die wahre Ursache eines Anschlags? Wer wie die britische Premierministerin Theresa May die Schuld reflexartig auf angeblich „sichere Rückzugsorte“ (safe spaces) im „Cyberspace“ schiebt, macht es sich nicht nur sehr einfach, sondern entpolitisiert eine fundamental politische Debatte. Großbritannien hat unter Theresa May als Innenministerin erst 2016 eines der extremsten Überwachungsgesetze westlicher Demokratien verabschiedet. Man könnte also fast meinen, dass Überwachung nicht funktioniert – und dass sich Anschläge in einer freien Gesellschaft leider nur sehr schwer verhindern lassen.

Technologie eignet sich besonders gut als Heilsbringer („Ethik der Machbarkeit“) oder Sündenbock („Ethik der monokausalen Erklärbarkeit“), weil das allgemeine Verständnis so gering ist, dass sich politische Positionen als scheinbar neutrale Metaphern tarnen lassen. Verstecken sich Terroristen im „Cyberspace“, wenn sie auf WhatsApp eine verschlüsselte Nachricht schicken? Die räumliche Metapher suggeriert, dass Regierungen auf diese Räume nicht zugreifen können, dass diese Räume „dunkel“ sind, und wir sie deshalb beleuchten müssen. Das ist ganz bewusst irreführend und faktisch schlichtweg falsch.

 

é: Neben den häufig negativ konnotierten Debatten um die Gefahren der Künstlichen Intelligenz, Big Data etc. hat etwa der französische Philosoph Bernard Stiegler jüngst wiederholt den pharmakologischen Aspekt der Technik betont; d.h. pointiert, dass sie sowohl Gift als auch Heilmittel ist. Etwas sinnverfremdet betonen auch die Apologeten des Silicon Valleys immer wieder, dass die Technik per se „neutral“ (Eric Schmidt etc.) sei, ist dem so? Oder anders gewendet: Brauchen wir eine neue Moraltheorie der Technik?

FK: Dem würde ich mit Melvin Kranzberg entgegensetzen: Technology is neither good, nor bad; nor is it neutral. Technik hat keine determinierten Auswirkungen auf die Gesellschaft, trotzdem ist Technik natürlich niemals wertneutral. Wir kommunizieren und bewegen uns zunehmend in dynamischen, vernetzten Räumen. Die Gestaltung und Kontrolle über diese Räume gleicht einer ontologischen Macht. Wer in diesem Kontext zum Beispiel maschinelles Lernen mit einem Hammer vergleicht, macht es sich zu einfach.

Die wirklich interessante Frage ist, was wir eigentlich heute mit Technik meinen – Daten, Algorithmen, Plattformen, Interfaces, vernetzte Geräte, Sensoren, das Internet? Auf welcher Abstraktionsebene soll eine solche Moraltheorie der Technik überhaupt ansetzen? Was ist ihr Gegenstand in einer menschengemachten, vernetzten Welt?

Technologieunternehmen, besonders im Bereich der Künstlichen Intelligenz, aber auch Softwareentwickler und Ingenieure sind momentan sehr an Moral und Ethik interessiert. Das zeigt auf der einen Seite, dass sie sich ihrer enormen gesellschaftlichen Verantwortung langsam bewusst werden; gleichzeitig wird Ethik in diesen Kontexten oft als etwas verstanden, das einem Produkt oder einer Dienstleistung einfach hinzugefügt werden kann. Dazu kommt natürlich auch, dass Ethikdiskurse kein Ersatz für notwendige gesetzliche Kontrollen, Regulierung und Aufsicht werden dürfen.

 

é: Neben allerlei dystopischen werden immer auch emanzipatorische Potenziale in den Debatten (z.B. in puncto Arbeitswelt) um die Digitalisierung betont. Welche wären das für dich und was müssen wir gesellschaftlich tun, um diese Potenziale zu nutzen? Umgekehrt gefragt: Was hindert uns daran, diese umzusetzen?

FK: Digitalisierung im engeren Sinne heißt nichts weiter als die digitale Repräsentation von analogen Medien, physischen Objekten oder Ereignissen. Das ist nicht inhärent emanzipatorisch, aber deshalb nicht weniger radikal. Ich möchte nicht mehr in einer Welt leben, in der Informationen knapp sind und Wissen teuer ist. Digitalisierung ist keine Naturgewalt mit Potenzialen und Gefahren, sondern besteht aus kontingenten Strukturen und Prozessen. Die Frage ist nicht, ob Digitalisierung an sich gut oder schlecht ist, sondern wie, und in wessen Interesse wir sie gestalten möchten. Die Antworten sind durchaus antagonistisch, weswegen die Metaphern und Bilder, mit denen wir Veränderungen beschreiben, so politisch sind.

Aus heutiger Sicht wirken die Cybermanifestos aus den 80er und 90er Jahren naiv und gleichzeitig vorausahnend neoliberal; ich denke hier zum Beispiel an A Declaration of the Independence of Cyberspace. Sie zeigen aber auch sehr deutlich, dass Dinge, die wir heute für selbstverständlich halten, auch anders hätten sein können – das libertäre Ideal eines staaten- und grenzenlosen „Cyberspace“ ist natürlich keine utopische Alternative.

 

é: Man hat häufig den Eindruck – nach Snowden oder den jüngsten Enthüllungen rund um die CIA-Überwachung – dass sich die BürgerInnen im Spannungsfeld digitaler Technologien entweder tendenziell ohnmächtig fühlen, oder aber, wie Slavoj Žižek es hinsichtlich neolibaralen Konsums generalisiert, trotz eines besseren Wissens um die Kontrolle, die „Früchte“ der Digitalisierung genießen – im Sinne von „they know very well, but still“. Natürlich spielen da auch Wettbewerbsmechanismen eine große Rolle; viele Menschen können es sich einfach nicht leisten, ein Leben jenseits der sozialen Netzwerke, jenseits der Technik zu führen: Das ist ja auch eine Form sozialen Kapitals. Was kann denn die bzw. der Einzelne konkret tun, um sich der Überwachung seitens der Regierungen, vor allem aber auch der Privatwirtschaft – zumindest teilweise – zu entziehen?

FK: Es stimmt natürlich schon, dass die Gefahren und Folgen abstrakt erscheinen, manchmal erst Jahre später zu spüren sind, und nicht alle gleichermaßen stark betreffen; zum Beispiel, wenn es – wie angesprochen – um datenbasierte, automatisierte Entscheidungen geht.

Ohnmacht beschreibt den derzeitigen Zustand sehr gut. Es wird ja oft behauptet, dass die Privatsphäre auch deshalb überholt sei, weil Privatpersonen „willentlich“ intime Informationen über sich ins Netz stellen. Das ist empirisch so nicht richtig – Studien zeigen immer wieder, dass die meisten Menschen ihre Onlinepräsenz sehr genau kuratieren. Dazu kommt leider auch, dass das allgemeine Verständnis über das Ausmaß der von Webseiten, Netzwerken, Apps und Geräten gesammelten Daten gering ist. Ganz zu schweigen von der Vielzahl an hochsensiblen Rückschlüssen, die selbst aus scheinbar uninteressanten Informationen gewonnen werden können. Wie kann und soll sich der bzw. die Einzelne dem entziehen?

Auch deshalb darf die Verantwortung nicht auf Einzelne abgewälzt werden. Ganz im Gegenteil – wir dürfen uns nicht zensieren oder uns dem öffentlichen Raum entziehen. Natürlich versuchen Organisationen wie Privacy International, Bürger besser zu informieren. Wir setzen uns aber hauptsächlich für bessere und effektivere Regulierung ein – auf regionaler, nationaler oder internationaler Ebene, fordern eine strenge Kontrolle staatlicher Überwachung und unterstützen Partnerorganisationen im globalen Süden, wo Gesetze zum Datenschutz oder im Bereich Cybersicherheit zum Teil erst geschrieben werden müssen.

 

é: Welche Gefahr schätzt du denn größer ein: Die der Privatwirtschaft oder die der Regierungen?

FK: Eine Hauptgefahr sehe ich in der zunehmenden Verflechtung zwischen Regierungen und der Privatwirtschaft, insbesondere im Bereich der nationalen Sicherheit und im Militär.

 

é: Gibt es noch etwas, das du loswerden möchtest?

FK: Nein. Danke für die guten Fragen.

 

kaltheuner_1_1000x.jpg

Der Beitrag erschien zuerst in der fünften Ausgabe von engagée („Maschine-Werden“). Von Frederike Kaltheuner ist zuletzt das gemeinsam mit Nele Obermüller verfasste Buch „DatenGerechtigkeit“ bei nicolai Publishing & Intelligence (Berlin) erschienen. Ein Auszug  daraus ist auf netzpolitik.org zu lesen.

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out /  Change )

Twitter picture

You are commenting using your Twitter account. Log Out /  Change )

Facebook photo

You are commenting using your Facebook account. Log Out /  Change )

Connecting to %s