bigdata

Big Data: Mit Umsicht zum Anticipatory Web

Big Data verspricht treffende Vorhersagen über das zukünftige Verhalten von Nutzern und Käufern. Birgt dies nicht das Risiko, Stereotypen zu zementieren? // von Björn Rohles

bigdata

Aus Bewegungsmustern den richtigen Ort für eine neue Filiale erschließen, Vorhersagen über die Veränderungen von Kundenwünschen treffen, auf Knopfdruck das Meinungsbild in der Bevölkerung ermitteln – die Ergebnisse, die sich mit Big Data erzielen lassen, sind beeindruckend und versprechen die Ankunft des Anticipatory Web. Big Data ist jedoch nicht vor Fehlern sicher: Ohne eine repräsentative Datenbasis und kritisches Hinterfragen riskiert sie Stereotypen und unsaubere Antworten.


Warum ist das wichtig? Big Data wird das Anticipatory Web bringen, das Vorhersagen über unser Verhalten trifft – vorausgesetzt, die Grundlagen stimmen.

  • Big Data trifft Vorhersagen über das Leben von Nutzern und Kunden.

  • Auch bei Big Data entscheidet die Datenbasis über die Qualität der Aussagen.

  • Nicht jede Meinung wird auch veröffentlicht – Big Data muss das bei der Interpretation berücksichtigen.


Mit Big Data zum Anticipatory Web

„Big Data ist nicht farbenblind und geschlechtsneutral“, sagte die Wissenschaftlerin Kate Crawford im vergangenen Oktober auf der EmTech-Konferenz, und ergänzt: „Ehrlich gesagt nutzen es die Marketing-Fachleute, um noch genauere Kategorien für Sie zu finden.“

Die Segmentierung von Kunden gehört im Marketing zum guten Ton – es beruht darauf, Wissen über seine Zielgruppe aufzubauen und sie möglichst treffend anzusprechen. Kaum jemand würde einem Marketer vorwerfen, nicht in einer Männerzeitschrift zu inserieren, wenn er sich von diesen Lesern wenig Umsatz verspricht.

Doch Big Data verspricht mehr als das: Dank der zunehmenden Verbreitung von Smartphones und unserer Nutzungsgewohnheiten stehen wir mit einem Bein bereits im „Anticipatory Web“, in dem Vorhersagen über unser Leben möglich sind. Mehr noch: Es sind Vorhersagen, die nicht mehr auf unserem eigenen Verhalten beruhen, sondern aus dem, was wir aus riesigen Datenmengen ableiten können. Und Big Data geht weit über die reine Online-Welt hinaus. Umso wichtiger ist es, die Grundlagen zu hinterfragen, auf denen das Anticipatory Web basiert.

Richtige Instrumente für die richtigen Fragen wählen

Ein erster Stolperstein liegt in der Auswahl der Daten selbst. Twitter ist beispielsweise ein schnelles Medium, das besonders in den Vereinigten Staaten weit verbreitet ist. Kate Crawford berichtet von einem Versuch, Twitter als ein Instrument zur Analyse von Naturkatastrophen zu nutzen. Die Regionen mit den größten Auswirkungen lassen sich identifizieren und so punktgenau Hilfskräfte dorthin senden – könnte man meinen.

Aber stimmt das überhaupt? Bei der Studie von Twitter-Nachrichten zum Hurricane Sandy wurde das Thema besonders in Manhattan besprochen, während die betroffenen Gebiete eher in anderen Vierteln lagen – Regionen, in denen die Twitter-Nutzung auf Grund der Bevölkerungsstruktur geringer ist. Hinzu kommen Stromausfälle, überlastete und lückenhafte Netzabdeckung sowie die Frage, ob jemand twittern möchte, wenn sein Haus gerade eingestürzt ist.

Die Erkenntnis dahinter klingt zunächst simpel: Wer Twitter-Nachrichten analysiert, kann nicht auf die Gesamtheit der Bevölkerung schließen – höchstens auf die Twitter-Nutzer, und sogar dabei müssen die Rahmenbedingungen berücksichtigt werden. Das Problem: Unsaubere Stichproben sind gerade bei den gewaltigen Datenmengen von Big Data nicht einfach zu erkennen. Eine große Datenbasis bedeutet nicht zwangsläufig, dass sie frei von sozialen Milieus ist – die Ergebnisse können sogar ungerechtfertigt verallgemeinert werden, wenn dies nicht erkannt wird.

Das hat auch bei der praktischen Anwendung von Big Data Folgen: Natürlich ist es toll, wenn die Stadt Boston eine App namens „Street Bump“ veröffentlicht, mit der Smartphones von Erschütterungen durch Schlaglöcher berichten. Mit diesen Daten können sanierungsbedürftige Straßen gefunden werden. Aber so lange diese App nicht von allen Bevölkerungsschichten genutzt wird, sind auch die Ergebnisse der App auf wenige Viertel konzentriert.

Schweigespirale in Social Media

Aber selbst, wenn alle relevanten Bevölkerungsschichten in der Datensammlung vorhanden sind, bedeutet das noch nicht, dass die Ergebnisse zwangsläufig sauber sind. Ein Beispiel dafür ist die Verwendung von Social-Media-Daten bei der Beobachtung von Meinungen. Besonders bei moralischen Fragen kann ein weiteres Problem entstehen: Nicht immer sind alle Meinungen überhaupt veröffentlicht.

Elisabeth Noelle-Neumann brachte diese Tatsache in den 1970er Jahren unter dem Begriff der „Schweigespirale“ auf den Punkt: Ob Menschen ihre Meinung äußern oder nicht, hängt häufig damit zusammen, ob sie diese für mehrheitsfähig halten. Viele Menschen möchten ungerne sozial isoliert sein und beobachten daher die Meinungen, die in den Medien geäußert werden. Der Effekt: Haben sie den Eindruck, dass ihre Meinung auf verlorenem Posten dasteht, schweigen sie lieber. Und je mehr Menschen schweigen, umso größer wird die Wahrscheinlichkeit, dass andere Menschen ebenfalls schweigen. Ein Team von Wissenschaftlern rund um Keith Hampton konnte kürzlich auch in Social Media Hinweise auf die Schweigespirale finden.

Öffentlich verfügbare Daten wie Twitter-Streams und Facebook-Posts müssen daher nicht zwangsläufig die tatsächlichen Meinungen darstellen. Zumal jeder schon einmal die Beobachtung gemacht hat, dass sich enttäuschte Menschen viel eher zu Wort melden als jene, die zufrieden sind. Das kann dazu führen, dass eine Auswertung nicht das gesamte differenzierte Meinungsspektrum widerspiegelt.

Wie schaffen wir es, gleiche Zugangsbedingungen zu Tools wie Street Bump zu schaffen, damit alle Menschen über den Zustand von Straßen berichten können? Müssen wir in solchen Projekten Alternativen anbieten – etwa in Form von reinen Webtools, die über einen Browser erreichbar sind? Und müssen wir Datenquellen aus Social Media mit anderen Ergebnissen anreichern, um zu prüfen, ob sie alle Meinungen widerspiegeln – zum Beispiel aus anonymen Umfragen? Auch mit Big Data sollten diese Überlegungen nicht ignoriert werden, wenn das Anticipatory Web niemanden ausschließen soll.


Teaser & Image by luckey_sun (CC BY-SA 2.0)


Schlagwörter: , , ,
Björn Rohles

Björn Rohles

ist Medienwissenschaftler und beobachtet als Autor („Grundkurs Gutes Webdesign“) und Berater den digitalen Wandel. Seine Themenschwerpunkte sind User Experience, anwenderfreundliches Design und digitale Strategien. Er schreibt regelmäßig für Fachmedien wie das t3n Magazin, die Netzpiloten oder Screenguide.

More Posts - Website - Twitter - Facebook - Google Plus