Die Grenzen von Big Data

Forensiker gegen Big Data-Denunziantentum: Warum man den Sozialingenieuren der Datenwelt Grenzen setzen muss. Big-Data-Anbieter sind großartige Verkäufer, wenn sie in der Öffentlichkeit von den Vorzügen der schönen neuen Datenwelt fabulieren können. Sie gieren nach Analysen möglichst großer Datenberge, um Grippewellen vorherzusagen, Euro-Krisen zu verhindern, den Autoverkehr staufreier zu machen oder Prognosen über den Verkaufserfolg von Rollkragenpullovern in roter Farbe abzugeben. Mit statistischen Spielchen auf der Metaebene geben sich die Zahlenfreunde aber nicht zufrieden. Sie wollen mehr. Sie erheben sich zur neuen Klasse der Sozialingenieure, um Gesundheitssysteme zu steuern, Banken vor Kreditausfällen zu bewahren oder Minderjährige vor dem Abrutschen ins Verbrechen zu „schützen“. Die zumeist technisch oder naturwissenschaftlich ausgebildeten Analysten wollen sich also tief ins Datenleben einzelner Menschen eingraben und beeinflussen.

Lichtscheue Analysten

Rückt man den liebwertesten Big-Data-Gichtlingen allerdings mit Anfragen zu den Rechenformeln ihrer Gottesmaschinen zu sehr auf den Pelz, ändert sich blitzschnell ihre Disposition: Die Algorithmen-Wahrsager werden lichtscheu und löschen ihre Datenspuren. So geschehen bei einer kleinen Disputation auf Facebook über selbstgewisse Neurowissenschaftler, die Abläufe des menschlichen Gehirns noch nicht mal in Ansätzen erklären können. Ein Systemingenieur warnte vor zu großem Pessimismus. Man werde sich noch wundern, was in der Hirnforschung und beim künstlichen Nachbau der Gehirne in den nächsten Jahren so alles passieren werde. Über die „Intelligenz“ seiner eigenen Prognose-Maschine äußerte sich dieser Geschäftsführer eines Softwareunternehmens ähnlich euphorisch. Ist ja völlig in Ordnung. Jeder Krämer lobt seine Ware. Als ich nachfragte, ob er sein System live in Bloggercamp.tv vorführen wolle, wechselte der virtuelle Werkzeugmacher direkt in den privaten Modus und sagte mir klar, dass er gegenüber der Öffentlichkeit keine Bringschuld habe. „Nur so viel: Wir setzen unsere Software im Klinikbereich ein, um gute von schlechten Patienten zu trennen. Als Auswertungstool, um aufzuzeigen, wo Ärzte Geld verballern.“ Und was ist mit den Patienten, fragte ich nach. Müsste so etwas nicht öffentlich verhandelt werden? Antwort: Offenlegungspflichten sieht er nur gegenüber seinen Auftraggebern und beendete die Diskussion mit mir – zumindest im nicht-öffentlichen Chat. Seine Großspurigkeit im öffentlichen Teil setzte er fort. Nach der anonymisierten Veröffentlichung seines Patienten-Zitats auf meinem ichsagmal-Blog verfiel er in eine Panikattacke, löschte alle Facebook-Kommentare und proklamierte pauschal, man könne Bloggern einfach nicht vertrauen. Jetzt geht es also um „Vertrauen“ – es geht wahrscheinlich auch um seine Reputation. In diesem kleinen Feldtest ist dem Big-Data-Maschinisten vielleicht klar geworden, um was es geht. Was passiert, wenn seine Algorithmen ahnungslose Menschen in die Kategorie „schlechte Patienten“ eintüten und sie von den „guten“ Patienten abtrennen? Welche Gewichtungen und Abgrenzungen hat denn der Systemingenieur in sein Prognose-System eingebaut? Bekommt der „schlechte“ Patient Einblick in die Formelstube?

Social-Media-Freunde als Indikator für Kreditwürdigkeit

Gleiches gilt für die Firma „Big Data Scoring“ aus Estland, die über die Auswertung von Social-Media-Profilen Aussagen über die Kreditwürdigkeit für Banken treffen will: „Es läuft ein bisschen nach dem Prinzip: ‚Sag mir, wer deine Freunde sind, und ich sag dir, wer du bist‘“, erklärt nach einem t3n-Bericht Meelis Kosk von Big Data Scoring. Ein hoher Akademiker-Anteil unter den Freunden könnte beispielsweise ein gutes Zeichen für die persönliche Finanzlage sein. Äh, und wenn es Philosophen und Germanisten sind? Ziemlich dubiose Kriterien. Alles sei selbstverständlich gaaaaanz freiwillig, beschwichtigen die Unternehmensgründer. Es gebe schließlich eine Opt-In-Regel – ohne Zustimmung des Kreditnehmers passiere nichts. Auch die politische Gesinnung und die sexuelle Orientierung bleiben außen vor. Wie großzügig. Haben die Rechenschieber-Freaks eigentlich mal probiert, in Deutschland einen Bankkredit zu beantragen? Was passiert denn, wenn man die Abfrage beim kommerziellen Dienstleister Schufa verweigert, der ebenfalls mit Scoring-Verfahren in einer trüben Suppe der Wahrscheinlichkeitsrechnung herumrührt und seine Formeln als Geschäftsgeheimnis deklariert? Nichts, man kann nach Hause gehen und schauen, ob noch irgendein Spargroschen unter der Matratze liegt. Welchem Scoring-System unterliegen eigentlich die Entwickler und Anwender der Big-Data-Analysetools? Wer haftet denn für falsche Berechnungen, die zum Reputationsverlust führen?

Wer muss wem etwas beweisen?

Viktor Mayer-Schönberger vom Oxford Internet Institute hat eine Beweislastumkehr ins Spiel gebracht, die beim Anwender liegen müsse. Zudem benötige man eine neue Berufsgruppe zur Überprüfung der Big-Data-Analysen. Mayer-Schönberger spricht von „Algorithmikern“, es könnten auch Big-Data-Forensiker sein, die den Betroffenen helfen, rechtlich gegen die Zahlendreher vorzugehen. Über die Wirksamkeit und Genauigkeit der Korrelations-Fetischisten sind Zweifel angebracht, wenn sie Individuen zum Objekt ihrer Begierde machen und damit auch noch Geld verdienen wollen. Die Systeme können nur das, was Menschen programmiert haben und daraus ableiten. Es sind hoch manipulative, konstruierte und erfundene Welten, die immer zu richtigen Ergebnissen kommen. Richtig im Sinne des Erfinders, Konstrukteurs, Systemingenieurs, Mathematikers, Software-Entwicklers oder KI-Wissenschaftlers: Die Logik sei nur ein Beschreibungsapparat, so wie die Grammatik für Sprache, sagt Systemtheoretiker Heinz von Foerster im Fernsehinterview mit Lutz Dammbeck. „Die Logik ist ja nur eine Maschine, um mit gewissen Aussagen gewisse andere Aussagen machen und entwickeln zu können. Der Übergang von A nach B, das ist, was die Logik kontrolliert … also die Logik bringt ja gar nichts Neues … die Logik macht es nur möglich, dass Sie von einem Satz, der etwas verschwommen ist, etwas ableiten können, oder Sätze, die ähnlich verschwommen sind, ordentlich beweisen können“, erläutert Foerster. In diesen weltweit funktionierenden Maschinensystemen seien alle Aussagen richtig – im Sinne der Ableitungen. Den Wahrheits-Maschinisten sollte man politisch und rechtlich zeigen, wie wichtig Vertrauen ist, wenn man Menschen berechnet, kategorisiert, sortiert und letztlich aburteilt.


Dieser Artikel erschien zuerst auf The European.


Image (adapted) „Big_Data_Higgs“ by KamiPhuc (CC BY 2.0)


ist Diplom-Volkswirt, lebt in Bonn und ist Wirtschaftsjournalist, Kolumnist, Moderator und Blogger. Mitglied des Netzpiloten Blogger Networks.


Artikel per E-Mail verschicken
Schlagwörter: , , ,

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert