Die Opt-out-Kultur der sozialen Netzwerke

Wer neue Funktionen in sozialen Netzwerken nicht nutzen möchte, muss beständig auf der Hut sein und Häkchen in den Einstellungen entfernen. Wer Opfer von Identitätsdiebstahl wurde oder durch Profiling-Agorithmen verdächtigt wird, muss seine Unschuld beweisen. Eine Opt-out-Kultur ist entstanden, die der Gesellschaft schadet, so das italienische Forscherkollektiv Ippolita.

Daten von Nutzern werden nach Belieben geändert

Die Macht des Defaults liegt in der Macht der Anbieter der sozialen Netzwerke, für Millionen von Nutzern Voreinstellungen zum Beispiel beim Datenschutz festzulegen und diese nach Belieben und oft ohne Wissen der Nutzer zu ändern. In Hinblick auf die freie Wahl ergibt sich daraus eine praktische Konsequenz, die eine nähere Betrachtung lohnt: eine Opt-out-Kultur entsteht. Wenn Facebook praktisch ohne Vorankündigung die Einstellungen für Millionen von Nutzern ändert und nur undurchsichtige oder jedenfalls nachgeschobene Information dazu liefert, wird stillschweigend vorausgesetzt, dass die Nutzer eigentlich gar nicht wissen, was sie wollen, oder dass der Anbieter es zumindest besser weiß.

Die sozialen Netzwerke akkumulieren enorme Datenmengen über die Vorlieben jedes einzelnen Nutzers und können diese mithilfe ihrer Feedback-Systeme (Votes, Likes, Missbrauchsmeldungen und andere Mechanismen) immer effizienter analysieren und zusammenführen. Sie speichern praktisch die wahre Identität ihrer Nutzer und gewinnen eine umfassendere Sicht auf sie, als die Nutzer sie vielleicht selbst besitzen. Aus der Perspektive der Anbieter sozialer Netzwerke ist es logisch, dass jede Änderung für die Nutzer von Vorteil ist – die gewonnen Daten sind der beste Beweis. Später können die Nutzer immer noch ihr Einverständnis bestreiten und die Neuerung ablehnen (Opt-out).

Die Annahme, dass neue Versionen immer besser sind, wird leichthin akzeptiert, führt jedoch zu einem Diktat der Innovation um ihrer selbst willen. Die Sache ist heikel, denn technisch gesehen wird es immer schwieriger, viele Millionen Nutzer in die Lage zu versetzen, unkompliziert zu entscheiden, was sie teilen wollen und wie. Offensichtlich sind die Betreiber der sozialen Netzwerke nicht allein dafür verantwortlich, ihren Nutzern Datenschutzeinstellungen anzubieten, die schwer in den Griff zu bekommen sind. Auch für Nutzer besteht die “optimale” Strategie in der datengetriebenen Welt der radikalen Transparenz oft darin, die Einstellungen lieber den Anbietern zu überlassen. Delegation gehört zum Wesen dieser Werkzeuge. Die Nutzer erwarten möglichst einfache Anwendungen, wollen jedoch ausdrücklich selbst entscheiden, zu welchem Grad und mit welcher Sichtbarkeit sie Dinge mit anderen teilen.

Freie Entscheidung vs. einfache Anwendungen

Vom Standpunkt der Anbieter sozialer Netzwerke ist es nicht einfach, gleichzeitig nutzerfreundlich zu sein, ein Massenpublikum zu erreichen und die ausdrückliche Zustimmung der einzelnen Nutzer einzuholen. Es ist also für beide – Dienstanbieter wie Nutzer – schwieriger und umständlicher, einer Opt-in-Logik zu folgen als die Entscheidung einfach an einen Algorithmus zu übertragen. Delegieren ist einfacher als alles selbst zu verwalten. Freie Entscheidung und Autonomie sind immer schwierig und riskant; im Massenmaßstab sind sie unmöglich.

Auch können wir in der “Google-Kultur” einen Kult der Innovation, von permanenter Forschung und Entwicklung beobachten, die dazu führt, dass neue Software meist in ungetesteten Beta-Version veröffentlicht wird. Wirklich brauchbar wird die Software erst, nachdem das Feedback der Anwender eingearbeitet wurde. Eine schlechte Neuerung zu riskieren, wird für die Anbieter so zu einem überschaubaren Risiko, weil jeder Schritt korrigiert werden kann, wenn sich zu viele Nutzer beschweren.

Betrachten wir ein praktisches Beispiel: Seit Dezember 2010 stellt Facebook seinen Nutzern eine Gesichtserkennungsfunktion zur Verfügung, um hochgeladene Fotos automatisch mit Nutzernamen zu versehen. Fotos werden durchsucht und Gesichter auf Basis bereits zugeordneter Bilder aus Zuckerbergs Datenbanken identifiziert. Als die Software in den USA eingeführt wurde, löste sie wegen der Gefahren für die Privatsphäre einen Sturm der Entrüstung aus.

Facebook entgegnete, die User könnten die Funktion doch einfach abschalten. Es genüge, einmal in die Privatsphäre-Einstellungen zu gehen und per Opt-out die automatische Foto-Tagging-Funktion zu deaktivieren. Natürlich hat Facebook, als die Technologie eingeführt wurde, es vernachlässigt, seine Nutzer – ob Einzelpersonen oder Firmen – zu benachrichtigen, dass die Gesichtserkennung standardmäßig aktiviert worden war. [In Europa hat Facebook die automatischen Vorschläge zur Gesichtserkennung seit 2012 deaktiviert, Anm. d. Red.]

Die Folgen des “Release early, release often”

Facebook ist nicht allein: Auch Google, Microsoft, Apple und die US-Regierung haben neue automatische Gesichtserkennungssysteme entwickelt. Vorgeblich im Interesse der Nutzer und zu dem Zweck, die Bürger vor gefährlichen Terroristen zu schützen. Aber das Gefahrenpotenzial der Technologie ist erschreckend. Im Worst-case-Szenario kann ein autoritäres Regime halbautomatisiert Gesichter mittels öffentlicher Kameras aufzeichnen, Dissidenten markieren, ein umfassendes System der Überwachung installieren und zu einem beliebigen Zeitpunkt zuschlagen. In demokratischen Gesellschaften wird die Technologie für jeden technisch bewanderten Interessenten verfügbar sein.

Die Logik des Opt-out folgt dabei dem Motto der Software-Entwickler: Release early, release often (RERO) – also der Regel, neue Versionen einer Software so häufig und so früh wie möglich zu veröffentlichen. Mit stetigen Aktualisierungen und Nutzer-Feedback wird die Software sukzessive verbessert. Allerdings können soziale Beziehungen nicht nach Art solcher logischen Kreisläufe kodifiziert werden. Fehlbeurteilungen bei der Einführung neuer Technologien können hier zu großen Kollateralschäden führen.

Unschuldsvermutung wird zur Schuldvermutung

Paradoxerweise führt die “Webisierung” des Sozialen durch massenhaft gesammelte Profile zu antisozialen Ergebnissen, zum Beispiel, wenn allein aufgrund von Zusammenhängen in den Daten auf unsere vermeintliche Schuld an einem Vergehen geschlossen wird – oder bei ihrem Fehlen auf unsere Unschuld. Wenn Entscheidungsträger zukünftig immer mehr ihrer Macht an Algorithmen delegieren, ist mit einer wachsenden Zahl falscher Einschätzungen zu rechnen, die in der Offline-Welt oder in dezentralisierten Systemen leicht vermeidbar gewesen wären. Denselben Namen zu tragen wie ein bekannter Krimineller oder ein polizeilich gesuchter Terrorist, wird per Datenverknüpfung bereits zu einem Vergehen. Die Maschinen machen uns zu Angeklagten, wenn sie uns nicht von einer Person gleichen Namens unterscheiden können.

Ist unsere Identität gestohlen worden, hat jemand unsere Kreditkarte für illegale Aktivitäten genutzt oder werden wir Opfer eines Betrugs, sind wir im Spiegel unseres digitalen Egos zweifelsohne als schuldig zu betrachten. Nicht die Unschuldsvermutung, sondern die Schuldvermutung herrscht in dieser Ordnung. Profiling-Prozeduren, wie sie aus der Erstellung von Täterprofilen stammen, führen zu einer Kriminalisierung der Gesellschaft. Nutznießer sind am Ende diejenigen, die tatsächlich böse Absichten hegen und deshalb von vornherein auf ein Alibi achten.

Einfache Nutzer sind durch ein Profiling, das sie in potenzielle Angeklagte verwandelt, allen möglichen Arten von Missbrauch ausgesetzt. Ein Facebook- oder ein Google-Plus-Account gehört seinem Nutzer letztlich nicht. Es ist ein Raum, der gratis zur Verfügung gestellt wird, um den Nutzer in seine kommerziell interessanten Einzelteile zerlegen zu können. Der einzelne Nutzer selbst trägt dagegen keinen Wert. Muss er zeigen, dass er tatsächlich er selbst ist und auch noch unschuldig, lassen sich leicht Gründe finden, ihm den Zugang zu sperren.

Radikale Transparenz: Facebook plus Melderegister

Bei Facebook ist der häufigste Grund dafür die Nutzung eines falschen Namens. In vielen Fällen ist das leicht zu bemerken, in anderen nicht. “Superman” ist wahrscheinlich ein falscher Name, aber welcher Algorithmus kann herausfinden, ob “Ondatje Malimbi” tatsächlich ein kenianischer Nutzer mit einer schwedischen Mutter ist? Um das zu tun, braucht man Zugang zu Melderegistern, Finanzbehörden und Sozialversicherungs-Datenbanken – eine eigentlich gar nicht so unrealistische Aussicht. Wir sollten aber auch festhalten, dass autoritäre Regierungen augenscheinlich weniger Bedenken gegenüber der Schaffung radikaler Transparenz haben.

Die Manager bei den Anbietern sozialer Netzwerke spielen eine entscheidende Rolle bei der Festlegung, was zulässig ist und was nicht. Sie sind daran beteiligt, die Regeln unserer Gesellschaft zu gestalten. Noch haben sie nicht die Macht, jemanden ins Gefängnis zu schicken, aber sie arbeiten aktiv mit den Regierungen zusammen, um die rechtlichen und gesellschaftlichen Regeln des jeweiligen Landes durchzusetzen. Gerade Google hat seit seinen Anfängen mit der amerikanischen intelligence community zusammengearbeitet. Auch die Aufdeckung von PRISM bestätigt, was über Echolon, globales Tracking und Spionage bereits bekannt wurde, inklusive des Problems der direkten, automatischen Verwicklung der großen digitalen Player. Wir dürfen mit einer Reihe weiterer und ähnlicher Skandale in der Zukunft rechnen.

Dieser Artikel ist ein bearbeiteter Auszug aus Ippolitas Buch „In the Facebook Aquarium. The Resistible Rise of Anarcho Capitalism“. Die englische Ausgabe ist kürzlich in einer neuen, überarbeiteten Auflage in der Reihe „Theory on Demand“ (Institute of Network Cultures) erschienen. Der Auszug steht unter der Lizenz CC BY-SA. Der Beitrag erschien zuerst auf iRights.info in deutscher Sprache. Übersetzung: Andreas Kallfelz.


Image (adapted) “Social Media apps” by Jason Howie (CC BY 2.0)


 

Schlagwörter: , , , , , , , ,
Gastpilot

Gastpilot

Die Netzpiloten nehmen immer mal wieder Gastpiloten mit an Bord, die über ihre Spezialthemen schreiben. Das kann dann ein Essay sein, ein Kommentar oder eine kleine Artikelserie.

More Posts