Gunnar SohnDie Big-Data-Auswertung im Internet : Das Big-Data-Komplott

Big Data wird unsere Spuren im Netz aufspüren und uns Menschen denunzieren. Es ist ein Datenverbrechen mit Maschinen, welche die Welt vermessen.

Die Big-Data-Auswertung im Internet : Das Big-Data-Komplott

Big Data ist neben der Share Economy das große Thema der CeBIT. Die politische Ökonomie des Teilens scheitert zumindest in Deutschland ja schon an der mangelhaften Bereitschaft, sich Netzwerken zu öffnen. Traditionelle Manager erleiden eher einen Kulturschock und versuchen alles, als Funktionselite zu überleben.

    Alle Belohnungs- und Karrieremodelle beruhen auf dem gegenteiligen Ansatz. Derjenige kommt nach oben, der sich durchsetzt, die Ellbogen und seinen Wissensvorsprung nutzt. Da werden die Firmen sich noch was einfallen lassen müssen, um die alten Denkmuster zu durchbrechen.

So kommentiert der Marketingberater Harald Henn mein Blogposting „Wie die Shareconomy die Machtverhältnisse der Wirtschaft ändern könnte“.

Noch revolutionärer soll Big Data die politische und wirtschaftliche Landkarte verändern. Denn der Mensch sei ein extrem vorhersehbares Wesen, glaubt zumindest der Blogger Martin Weigert:

    Routinen, Gewohnheiten, Interessen, vergangene Erlebnisse und besondere Charaktereigenschaften prägen uns so sehr, dass bei einer genaueren Analyse ein Großteil unseres Verhaltens im Vorfeld prognostiziert werden kann.

Die Spuren im Netz

Angeblich bestätigt auch die Wissenschaft diesen Eindruck. Weigert zitiert eine amerikanische Studie aus dem Jahr 2010, nach der rund 93 Prozent des menschlichen Verhaltens vorhersagbar sei. Schluss mit Zufall. Wir sind berechenbare Apparaturen.

    Selbst wenn wir in der Regel glauben, vollkommen frei in unseren Entscheidungen zu sein, so agieren wir in den meisten Fällen nach bestimmten Mustern, die sich bei hinreichend großer Datenbasis auswerten und für Prognosen über zukünftiges Agieren verwenden lassen.

Das meint der liebwerteste Blogger-Gichtling Weigert. Aber 93 Prozent von was? Bezieht sich die Genauigkeit der Prognose auf meinen Tagesablauf? So gehe ich jeden Morgen aufs Klo, danach zum Kiosk und zur Bäckerei meines Vertrauens, trinke Kaffee und esse seit Jahrzehnten Brötchen mit Himbeermarmelade. Den Rest des Tags arbeite ich. Vorher muss noch für die Körperhygiene gesorgt und Überlegungen über das Bekleidungsritual angestellt werden. Alles nicht sehr überraschend. Das kann mein Nachbar völlig ohne Software vorhersagen. Was passiert in dieser Zeit aber in meinem Kopf? Wie bewerte ich die Big-Data-Zeilen von Weigert? Welche Themen greife ich in meinem Blog auf? Wie verarbeite ich die Interviews auf der CeBIT? Was werden meine Gesprächspartner auf der Computermesse zu Big Data und Shareconomy sagen? Und, und, und. Es gibt eine Vielzahl von Variablen, die mein Leben prägen.

Ich hinterlasse dabei eine Menge Spuren im Netz. Aber die determinieren nicht eindeutig mein Verhalten in der Zukunft. Aber was machen nun die großen Big-Data-Systeme mit diesen Informationen? Im Kiosk kaufe ich zwei Schachteln Zigaretten und bekenne mich in den Sendungen des Bloggercamps zum kettenrauchenden Helmut Schmidt und zur alten Tradition des Paffens, die bei Live-Übertragungen in den 1960er- und 1970er-Jahren im Fernsehen noch üblich war. Beim „Internationalen Frühschoppen“ von Werner Höfer konnte man in den blauen Nebelschwaden kaum die politischen Korrespondenten verorten. Herrliche Zeiten. Zudem bekenne ich mich freimütig zum Konsum von Gerstensaft, der nicht als Brühwürfel-Bier mit Hopfenextrakt massenweise auf den Markt gebracht wird. Zwei Indikatoren, die mich als künftigen Pegeltrinker und Krebspatienten für Krankenversicherungen verdächtig machen. Denn Big-Data-Analysten versprechen ja nicht nur Auswertungen auf der Meta-Ebene, die ich noch als nützlich erachte. Etwa bei der Warnung vor Epidemien, Verkehrsstaus, Unwetter oder Attacken auf Computersysteme.

Big Data macht auch personalisierte Aussagen auf der Grundlage einer kruden Mischung von E-Mails, Facebook-Postings, Amazon-Rezensionen, Ebay-Geboten oder Sucheingaben bei Google. Die klassischen Statistikalgorithmen reichen dabei nicht aus, um mit den Daten-Massen fertig zu werden. Man verteilt die Aufgaben auf Computernetzwerke, um über spezielle Softwareprogramme die Ergebnisse zusammenzufassen, nach Mustern zu suchen und Daten miteinander zu verknüpfen. Aus der Kombinatorik ergeben sich dann neue und vielleicht sogar überraschende Erkenntnisse. Etwa bei der Standortanalyse für neue Windkraftanlagen oder bei der Kontrolle von Turbinen, um in Echtzeit Informationen über notwendige Wartungsarbeiten nach der Landung des Flugzeugs zu erhalten.

Erkennen Maschinen Ironie?

Was passiert aber, wenn mich eine Krankenversicherung in Sekundenschnelle zum alkoholsüchtigen sowie lungenkrebsverdächtigen Patienten einstuft, der in den nächsten zehn Jahren zu einem teuren Pflegefall mutiert und meinem Antrag zum Wechsel in diesen von Big-Data-Systemen gesteuerten Laden ablehnt? Erkennen die Maschinen überhaupt den Ironie-Anteil meiner Social-Web-Bekenntnisse über den von mir sehr geschätzten Alt-Kanzler? Wie wird mein sportliches Engagement in einer Mixed-Mannschaft im Volleyball gegengerechnet? Oder mein Rennrad-Training im Kottenforst? Und was ist mit meinem früheren Pensum als Leistungssportler, über das es keine Daten im Netz gibt?

Immer, wenn es um Zukunftsprognosen geht, steigt die Fehlerquote der Rechenmethoden. Auch wenn man schmutziges Big Data zum Einsatz bringt und einfach nur Muster aus der amorphen Datenmasse herausschält. Man operiert mit Annahmen und Hypothesen, die mehr über das mechanistische Menschenbild der Analysten als über die untersuchten Personen aussagen – auch wenn das die zumeist naturwissenschaftlich geprägten Big-Data-Gurus anders sehen. Wenn fehleranfällige Maschinen Entscheidungen über einzelne Menschen treffen, etwa bei der Verweigerung von Krediten, hört der Spaß auf.

Es reicht dann auch nicht aus, einen Big-Data-TÜV ins Spiel zu bringen, bei dem ich die Möglichkeit habe, die Vorhersagen der automatischen Denunzianten-Systeme zu entkräften. So eine Institution hat Professor Mayer-Schönberger vom Internet Institute in Oxford ins Gespräch gebracht: Algorithmen, die Risiko-Vorhersagen für Internetnutzer berechnen, müssten für Experten einsehbar sein, sagte der Autor des neuen Buches „Big Data – A Revolution that will transform how we live, work and think“ im Gespräch mit der „Zeit“: „Die Faktoren, die in die Berechnung der Prognose einfließen, müssen transparent sein, und es muss Regeln geben, wie der Betroffene das Ergebnis widerlegen kann.“ Die Beweislast muss beim Big-Data-Anwender liegen. Wenn er mich ohne meine Zustimmung und ohne Offenlegung der Berechnungsmethoden als kriminellen und nicht zahlungsfähigen Alkoholiker einstuft, kann ich das betreffende Unternehmen oder die Organisation als „Datenverbrecher“ anzeigen und strafrechtlich belangen.

„Das Maß aller Dinge ist meine Bereitschaft, Daten von mir preiszugeben. Hier liegt der Kern von Big-Data-Anwendungen. Mein digitales Ich, meine digitale Repräsentanz und mein digitales Beziehungsnetzwerk müssen in meiner Hand liegen. Sozusagen ein Recht auf virtuelle Selbstbestimmung. Die Nutzung dieser Daten kann ich den Big-Data-Systemen zu jeder Zeit wieder wegnehmen“, so Unternehmensberater Bernhard Steimel, nachzulesen in meinem Beitrag für die Frühjahrsausgabe der Zeitschrift GDI-Impuls.

Wir sollten uns im netzpolitischen Diskurs nicht länger mit personalisierter Werbung aufhalten, die über Big Data im Internet eingeblendet wird. Ich lasse mich von den blöden Anzeigen nicht zum willenlosen konsumsüchtigen Käufer degradieren. Anders sieht es mit Entscheidungshilfen von Maschinen aus, die mein Leben beeinflussen und hinter meinem Rücken ablaufen. Deshalb fordern wir (also Bloggercamp-Kollege Hannes Schleeh und ich) die Big-Data-Vielschwätzer heraus, in unserer Schreibwerkstatt für das Crowdfunding-Buch „Die Streaming Revolution“ den Giftschrank ihrer Systeme zu öffnen und die Treffsicherheit der Prognosen nachzuweisen. Live und ohne doppelten Boden. Das Ganze fließt ein in das Kapitel „Die Vermessenheit der Big-Data-Weltvermesser“.

Ansonsten klassifiziere ich die Big-Data-Gichtlinge weiterhin nach der Devise von Hoffmann von Fallersleben: „Der größte Lump im ganzen Land, das ist und bleibt der Denunziant.“


Mehr zu Themen des Netzes und dem digitalen Wandel gibt es auch vom European-Kolumnisten Lars Mensel in seinem aktuellen Artikel “Die Vorteile von freier Software: Steve Jobs entscheidet für Sie”.

Text: Der Artikel “Die Big-Data-Auswertung im Internet : Das Big-Data-Komplott” von Gunnar Sohn ist zuerst erschienen auf www.theeuropean.de


Image by Intel Free Press (some rights reserved)



Über den Autor / die Autorin
ist 51 Jahre alt, Diplom-Volkswirt, lebt in Bonn und ist Wirtschaftsjournalist, Kolumnist und Blogger. Herausgeber des Online-Magazins NeueNachricht.

 

Kommentar verfassen


Diese Artikel aus der Kategorie Markt könnten Dich auch interessieren:

Weitere Artikel zum Thema Markt.

Diese Artikel aus der Kategorie Tech könnten Dich auch interessieren:

Weitere Artikel zum Thema Tech.