All posts under statistik

Digital Economy Compass: Was die Zahlen für Deutschland bedeuten – Teil 1


Was sind die aktuellen digitalen Trends weltweit? Wie entwickelt sich der Wettbewerb auf digitalen Plattformen? Diese Fragen versucht der „Digital Economy Compass“ von Statista in regelmäßigen Abständen zu beantworten. Wir haben in unserer Artikelreihe einen Blick auf die Trends geworfen.


Der kürzlich veröffentlichte Digital Economy Compass 2017 macht auf über 190 Slides vor allem zwei Dinge deutlich: China wird voraussichtlich 2018 zum größten digitalen Markt aufsteigen und Unternehmen, die die digitalen Plattformen nicht verstehen, werden untergehen.

Und wie machen sich dabei die deutschen Unternehmen unter den globalen Playern? Nach den Analysen von Statista eher unterdurchschnittlich. Doch es gibt auch einige Bereiche, in denen zumindest einige deutsche Firmen herausstechen. Eine dieser Plattformen ist der E-Commerce.

Einnahmen im E-Commerce werden sich verdoppeln

Laut Statista sollen sich die Einnahmen in diesem Bereich bis 2021 auf mehr als zwei Milliarden US-Dollar verdoppeln. Vor allem in den Branchen „Mode” und „Food und Personal Care” wird der größte Wachstum erwartet.

statista 2 wichtige faktoren ecommerce
E-Commerce Wachstum – Screenshot by Marinela Potor (Quelle: Statista)

Die Konzerne, die hier – nicht überraschend – ganz vorne mitspielen sind der US-Riese Amazon und die chinesische Alibaba Group. Interessant zu sehen ist aber auch dass sich neben diesen großen Playern auch einige, wenn auch nur sehr wenige, deutsche Konzerne wiederfinden. Dazu gehören zum Einen der Online-Modeversandhändler „Zalando“ sowie der Berliner Kochbox-Lieferant „HelloFresh“. Beide stammen aus der Start-up-Schmiede Rocket Internet und beide sind als globale Unternehmen im E-Commerce vorne mit dabei.

HelloFresh: Schnell und aggressiv

HelloFresh_CEO_Dominik_Richter
Foto: HelloFresh CEO Dominik Richter (Quelle: HelloFresh)

HelloFresh, das nach dem ersten gescheiterten Versuch nun möglicherweise einen erneuten Börsengang wagen will, erwirtschaftet inzwischen die Hälfte seines Umsatzes in den USA. Offensichtlich ist die Kombination aus neuartigem Konzept, ausgewählten Zutaten und flexiblem Abomodell zu einem internationalen Verkaufsschlager geworden. Nach Meinung einiger liegt der Erfolg von HelloFresh aber auch darin, sich früh und aggressiv auf die richtige Zielgruppe konzentriert zu haben: die anspruchsvolle, aber faule Generation Y.

Und noch etwas mag dazu kommen: Das nötige Quäntchen Glück, zur richtigen Zeit am richtigen Markt zu sein. Denn wenn Statista mit seinen Prognosen richtig liegt, ist die Essenslieferung der dynamischste Markt im Bereich E-Services. Demnach sollen sich die Einnahmen hier bis 2021 verdreifachen. So scheint HelloFresh bereits sehr früh auf das richtige Pferd gesetzt zu haben – ein Risiko, das sich jetzt auszahlt.

Den Kunden das geben, was sie vom E-Commerce erwarten

Dies hat möglicherweise auch dem Modeversandhaus Zalando zum Erfolg verholfen. Zalando hat sich seit der Gründung 2008 von einer Garagenfirma für Schuhversand zu einem Online-Riesen für Fashion entwickelt. Experten sehen den Erfolg von Zalando in strategischen Partnerschaften, der schnellen und klugen Entwicklung aus dem Nischenmarkt heraus – und vor allem dem einfachen Bestellverfahren. In einer Umfrage aus dem Jahr 2014 von deals.com gaben 51 Prozent der Befragten an, dass sie die Gratis-Lieferung sowie den kostenlosen Rückversand als größten Vorteil des Onlineshops an.

Zalando Adidas Paket Shooting
Quelle: Zalando. Image by Claudius Pflug

Darüber hinaus positionierte Zalando sich von Anfang an als unkonventionelle Marke und zielte damit, ähnlich wie HelloFresh, auf eine junge Zielgruppe ab. Vor allem über geschickte Werbung, sowohl im TV als auch im Netz erreichte sie damit Kultstatus, sagt Dörte Spengler-Ahrens, Geschäftsführerin Kreation bei Jung von Matt/Fleet, die die Inhalte der Marke kommuniziert: „Der Schrei wurde Kult und die Marke zur Kultmarke im Fashion-Retail. Neben einem Shoppingerlebnis mit der Produkauswahl einer gesamten Fußgängerzone zur Convienence des eigenen Wohnzimmers bietet Zalando auch Fahionistas die neusten Trends und Designer.“

Wenn man dies wiederum mit dem vergleicht, was Statista als Erfolgsfaktoren für den E-Commerce identifiziert hat, erkennt man einen weiteren Grund, warum gerade HelloFresh und Zalando so erfolgreich sind. Sie geben ihren Kunden das, was sie vom E-Commerce erwarten: Eine transparente Preispolitik, einfachen Lieferservice sowie schnellen Kundenservice.

statista 2 wichtige faktoren ecommerce
Wichtige Faktoren des eCommerce – Screenshot by Marinela Potor (Quelle: Statista)

Unternehmen haben echte Kundenorientierung noch nicht Verstanden

Gerade die enge Bindung zum Kunden ist es, was Onlinehändler im B2C E-Commerce so erfolgreich macht, betont Dr. Kai Hudetz, Geschäftsfu?hrer der IFH Institut fu?r Handelsforschung GmbH Köln. Seiner Meinung nach haben aber viel zu viele Unternehmen noch immer nicht verstanden, was das wirklich bedeutet: „Die meisten haben echte Kundenorientierung schlichtweg immer noch nicht verstanden und beschäftigen sich viel zu stark mit sich selbst, der Verhandlung der Boni, der Sicherung der eigenen Verantwortungsbereiche oder auch der neuen Positionierung im aktuellen Change-Prozess. Sie denken weiterhin, weil die Kunden bisher immer gekommen sind, werden sie auch weiter kommen. Das wird sich zukünftig aber noch schneller ändern als bisher.”

Vor allem im Internet, wo Kunden zwischen vielen verschiedenen Onlineshops auswählen können, sind Alleinstellungsmerkmale wie Kundenservice extrem wichtig. Dazu gehören aber auch Angebote, die über das Kerngeschäft hinausgehen und Kunden an das Unternehmen binden. Ein Trend, den auch die Statista-Daten belegen. Unternehmen müssen – auch, oder gerade im Internet – nicht nur Produkte, sondern auch einen Lifestyle verkaufen. So bieten nach Angaben von Statista zum Beispiel Sportgiganten längst nicht mehr nur Sportsachen an. Adidas hat beispielsweie, wie viele Konkurrenten, in eine Fitness-App investiert und schließlich 2015 „Runtastic” erworben.

Diese Zahlen zeigen: Wer im E-Commerce langfristig erfolgreich sein und wie Zalando oder HelloFresh vorne mitspielen will, muss sich vor allem auf eins konzentrieren – einfache Einkaufsprozesse für den Kunden.

Was die Statista-Daten über die digitalen Märkte „SmartHome“ und „Connected Cars“ in Deutschland sagen, schauen wir uns in den nächsten beiden Folgen der Analyse zum Digital Economy Compass 2017 genauer an.


Image (adapted) „Credit Card“ by NegativeSpace (CC0 Public Domain)


Weiterlesen »

Das kollektive Gedächtnis verstehen: Das Netz macht’s möglich

Mini Wikipedia globe at the Wikimedia Foundation offices (adapted) Image by Lane Hartwell CC3.0 Share Alike via Wikipedia

Das Internet hat sämtliche Bereiche unseres Lebens umgekrempelt. Genauer gesagt hat sich die Art und Weise, wie wir Wissen erwerben, signifikant verändert – zum Teil durch Wissensquellen im Netz wie die Wikipedia. Genau genommen hat es sogar die Art der Wissenschaft verändert. Sozialwissenschaftler verwenden immer häufiger Daten aus dem Netz, um unsere individuellen und kollektiven Verhaltensweisen zu studieren – und das tun sie mit einer Genauigkeit, die man sonst nur aus den Naturwissenschaften kennt.

Sicherlich sind wir immer noch weit davon entfernt, im Internet große experimentelle sozialwissenschaftliche Datensätze vergleichbar zu denen, die im CERN produziert werden, zu finden, doch zumindest haben wir digitale empirische Daten, wie beispielsweise die aufgrund von Beobachtung gewonnenen Daten der Astrophysik. Millionen Menschen nutzen tagtäglich Online-Tools. So wird beispielsweise Wikipedia rund 500.000 Mal am Tag aufgerufen.

Das “Kollektive Gedächtnis”, wie es von Wissenschaftlern genannt wird, ist eines der Schlüsselthemen, um soziales Verhalten zu verstehen: Es verdeutlicht, wie sich Mitglieder einer sozialen Gruppe gemeinsam an ein Event in ihrer Vergangenheit erinnern. Obwohl es sich beim kollektiven Gedächtnis um einen Grundbegriff in der Soziologie handelt, gab es nur ein paar wenige empirische Studien über dieses Thema, hauptsächlich aufgrund fehlender Datensätze. Wissenschaftler, die erforschen, wie das Publikum vergangene Ereignisse abruft, hatten klassischerweise viel Zeit in Interviews und Aufwand in die Datensammlung investiert.

Flugzeugabstürze

Im Rahmen einer aktuellen Studie, die im Science Advances veröffentlicht wurde, verwendete unser Team, bestehend aus einem Soziologen, einem Computeringenieur und zwei Physikern, Daten aus der Wikipedia. Ziel war es, durch die in aller Öffentlichkeit zugänglichen Statistiken der täglichen Seitenabrufe aller Artikel der Enzyklopädie das kollektive Gedächtnis zu studieren.

Wir suchten in unserem Beispiel nach Flugzeugabstürzen in der gesamten Geschichte der Luftfahrt. Dies taten wir, weil solche Vorfälle gut dokumentiert sind und weil bedauerlicherweise einegroße Anzahl solcher Vorfällen existiert, die die statistische Analyse stabil gestalten. Wir unterteilten die Ereignisse in die Zeiträume “vor nicht allzu langer Zeit” (2008-2016) und “früher” (alle Vorfälle vor 2008). Beispiel für die neulich stattgefundenen Vorfälle sind Flug MH370, Flug MH17, Flug AF447 und der Germanwings-Flug 9525. Bei den vorhergehenden Unfällen handelt es sich zum Beispiel um den Flug AF587 und den Flug IR 655.

Um die steigenden Seitenabrufe für Artikel vergangener Ereignisse, eine Woche nachdem ein Ereignis eintrat, zu messen, verwendeten wir statistische Methoden. Wir nannten diesen Anstieg den “Aufmerksamkeits-Strom”. Wir waren daran interessiert, herauszufinden, ob der Anstieg der Aufmerksamkeit bezüglich des vergangenen Ereignisses in Korrelation zu den zeitlichen Abständen und der Ähnlichkeit der neulich stattgefundenen und der vergangenen Ereignissen steht. Darüber hinaus waren wir daran interessiert, herauszufinden, ob wir den Anstieg des “Aufmerksamkeit-Stroms” zu vergangenen Ereignissen verhindern können, indem ein neues Ereignis eintritt.

Wir haben herausgefunden, dass die Menschen nach dem Absturz der Germanwings-Maschine im Jahr 2015 in der Wikipedia Informationen über den American-Airlines-Flug außerhalb von New York City im November 2001 suchten. Tatsächlich gab es einen dreifachen Anstieg der Seitenabrufe in der Woche nach dem Germanwings-Absturz.

Es scheint hier ein Muster zu geben. Wir haben kontinuierlich einen signifikanten Anstieg der Seitenabrufe vergangener Ereignisse als Folge zu Vorfällen, die vor Kurzem geschahen, beobachtet. Im Durchschnitt wurden vergangene Ereignisse 1,4 mal öfter aufgerufen als die Ereignisse aus der vergangenen Woche. Das lässt vermuten, dass die Erinnerung an ein Ereignis mit der Zeit wichtiger werden kann, und auch, dass dem Ereignis mit der Zeit mehr Bedeutung zugetragen wird, als es ursprünglich der Fall gewesen ist.

Wir haben dann versucht, dieses Muster abzubilden. Unter Berücksichtigung aller Faktoren, wie den Einfluss der Ereignisse aus der kürzer zurückliegenden Vergangenheit und derer, die weiter zurück lagen, zudem die Ähnlichkeit zwischen den Ereignissen und ob ein Hyperlink existiert, der die beiden Ereignisse direkt miteinander auf Wikipedia verlinkt.

Was unsere Erinnerung beeinflusst

Beispielsweise lässt sich im Fall der Germanwings- und American-Airlines-Flüge sagen, dass beide Vorfälle im Zusammenhang mit dem Piloten standen. Dieser könnte ein wichtiger Kopplungsfaktor sein. Die Maschine der American Airlines stürzte aufgrund eines Pilotenfehlers ab, während der Germanswings-Pilot das Fluzgeug absichtlich abstürzen ließ. Dies wurde umso interessanter, als wir herausfanden, dass es keinen Hyperlink gab, der diese beiden Artikel auf Wikipedia miteinander verlinkt. Tatsächlich blieben unsere Daten sogar dann stabil, als wir alle Paare entfernten, die durch Hyperlinks in direkter Verbindung zueinander standen.

Der wichtigste Faktor des Musters war die ursprüngliche Auswirkung des vergangenen Ereignisses, die durch ihre durchschnittlichen täglichen Seitenabrufe gemessen wurde, bevor das Ereignis eintrat. Das heißt, dass manche vergangenen Ereignisse einprägsamer sind und unsere Erinnerung daran leichter ausgelöst werden können als andere. Als Beispiel hierfür können die Flugzeugabstürze am 11. Semptember genannt werden.

Statistik Seitenaufrufe Wikipedia
Drei Flugzeugabstürze aus der jüngeren Vergangenheit (genauer: aus dem Jahr 2015) und ihre Auswirkung auf die Seitenaufrufe vergangener Ereignisse. Die Abstürze aus der jüngeren Vergangenheit haben einen Anstieg in Seitenaufrufen bei den Ereignissen, die bereits längere Zeit vergangen sind, verursacht.

Die zeitliche Trennung zwischen zwei Ereignissen spielt ebenso eine wichtige Rolle. Je näher zwei Ereignisse beieinander liegen, desto stärker ist ihre Verbindung. Wenn ein Ereignis mehr als 45 Jahre zurück liegt, ist es unwahrscheinlich, dass es noch eine Erinnerung an ein vergangenes Ereignis auslöst.

Die Ähnlichkeit zwischen zwei Ereignissen hat sich ebenso als einen wichtiger Faktor ergeben. Dies lässt sich am Beispiel der IR 655 erklären. Die Maschine wurde im Jahr 1988 von einem US-Kriegsschiff mittels einer Rakete abgeschossen. Hierbei handelte es sich eigentlich um kein Ereignis, an das sich die Menschen gut erinnern konnten. Allerdings wurde diesem Ereignis wieder große Aufmerksamkeit zugetragen, als im Jahr 2014 der Malaysia-Airlines-Flug 17 von einer Rakete über der Ukraine getroffen wurde. Der Unfall mit der Iran-Air-Maschine hatte vor den Geschehnissen in Malaysia eine durchschnittliche tägliche Quote von 500 Aufrufen und stieg kurz danach auf 120.000 Aufrufe täglich.

Es ist wichtig, festzuhalten, dass wir die tieferliegenden Mechanismen hinter diesen Beobachtungen nicht wirklich verstehen. Die Rolle der Medien, die individuellen Erinnerungen oder die Struktur der Kategorisierung von Artikeln auf Wikipedia können alle ein Teil dessen sein und werden ein Thema in zukünftigen Beobachtungen darstellen.

In traditionelleren Theorien wird vermutet, dass die Medien die zentrale Rolle in der Formung unseres kollektiven Gedächtnisses spielen. Dennoch ist eine wichtige Frage, inwiefern der Wandel zu Onlinemedien und vor allem sozialen Medien diesen Mechanismus verändern wird. Heutzutage erhalten wir oft Neuigkeiten durch unsere Facebook-Freunde. Kann dies erklären, warum Ereignisse, die seit Jahren nicht in den Nachrichten erschienen sind, auf einmal so nah an unserer Gegenwart sind?

Zu wissen, wie diese Fragen zu beantworten sind – und um zu verstehen, wie das kollektive Gedächtnis gebildet wird, ist nicht nur aus der wissenschaftlichen Perspektive heraus interessant. Das Verständnis über das kollektive Gedächtnis könnte darüber hinaus Anwendung im Journalismus, in der Medienentwicklung, in der Politik und sogar in der Werbung finden.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „Wikipedia_mini_globe_handheld“ by Lane Hartwell (CC BY-SA 3.0)


The Conversation

Weiterlesen »

FollowUs – Die Netzpiloten-Tipps aus Blogs & Mags

Follow me
  • APPLE golem: Macbook mit Touchscreen zum Nachrüsten: Ganz einfach kann nun eine Art Touchscreen an ein Macbook Air 13 Zoll per USB angeschlossen werden. Dafür muss das Display nicht einmal ausgetauscht werden. Die Airbar von Neonode ermöglicht dem Anwender, das Macbook Air 13 Zoll mit den Fingern zu bedienen. Der Hersteller verkaufte die Sensoreneinheit, die per Infrarot die Position des Fingers erkennt, bisher nur in einer Version mit 15,6 Zoll Bildschirmdiagonale für Windows-Rechner. Weitere Modelle für Macs anderer Größen sollen laut Hersteller folgen.

  • HTC heise: HTC Vive mit Noitom-Hi5-Handschuh ausprobiert: Ohne Controller in die VR greifen: HTC will es für Hersteller jetzt noch einfacher machen, Gegenstände in die Virtual Reality zu holen. Bislang haben sich Entwickler damit beholfen, die konventionellen HTC-Vive-Handcontroller mit Klebeband an diverse Gegenstände zu kleben. Mit dem „Vive Tracker“ gibt es nun ein offizielles Zubehörteil für solche Zwecke. Der Tracker ist deutlich kleiner als der Hand-Controller, da er ohne Griff auskommt. Der Hi5-Datenhandschuh des chinesischen Motion-Capture-Entwicklers Noitom („Motion“ rückwärts) soll das Mittendrin-Gefühl gegenüber konventionellen Hand-Controllern steigern.

  • DELL computerbase: Dell präsentiert ersten 8K-Monitor für 5.000 Dollar: Dell hat seinen neuen 8K-Monitor vorgestellt: Der UltraSharp UP3218K ist der erste 32-Zoll-Monitor mit 8K-Auflösung – also vierfacher 4K-Auflösung oder ausmultipliziert über 33 Megapixel. Die Pixeldichte beträgt rund 280 dpi. Der UP3218K soll den AdobeRGB-und den sRGB-Farbraum vollständig abdecken. Die Ansteuerung mit voller Auflösung und 60 Hz muss über zwei DisplayPort-Kabel erfolgen; per HDMI sind nur 30 Hz möglich. Die neue Technik hat aber seinen Preis: 5.000 US-Dollar sollen zumindest Profis mit hohen Anforderungen an Auflösung und Farbumfang bereit sein, zu zahlen.

  • SAMSUNG e-commerce: Samsungs kleiner Smartphone-Drucker für unterwegs: Mit dem Image Stamp hat Samsung einen Fotodrucker für Smartphones vorgestellt, der so klein ist, dass er in die Hosentasche passt. Dank Zero-Ink-Technologie benötigt der Drucker keine Tintenpatrone – die Farben sind im Papier enthalten. Die Fotos werden auf Zero-Ink-Papier gedruckt, bei dem die Farben Magenta, Gelb und Cyan in Schichten eingearbeitet sind. Durch thermische Impulse werden die Schichten aktiviert und verschiedene Farben erzeugt.

  • SNAPCHAT t3n: Ex-Mitarbeiter behauptet, dass sie Investoren falsche Nutzer-Statistiken zeigen: Der ehemalige Mitarbeiter soll nur drei Wochen bei dem Unternehmen gewesen sein, er kam von Facebook zu ihnen. Gerichtsunterlagen zeigen jetzt, dass er behauptet, Snapchat würde über den Grund seiner Entlassung nicht die Wahrheit sagen und es daher für ihn unmöglich sei, einen anderen Job in der Branche zu bekommen. Die Klage sagt, dass der ehemalige Mitarbeiter entlassen wurde, weil er sich weigerte, falsche Zahlen zu präsentieren. Außerdem sollen sie von ihm interne Geheimnisse seines vorherigen Arbeitgebers, Facebook, verlangt haben. 

Weiterlesen »

Algorithmen können fairer sein als Menschen

code(image by geralt [CC0 Public Domain] via Pixabay)

Amazon hat kürzlich damit angefangen, Lieferungen am selben Tag in ausgewählten großstädtischen Gegenden anzubieten. Das mag für viele Kunden gut sein, doch die Markteinführung zeigt auch, wie computerisierte Entscheidungsfindung eine hohes Maß an Diskriminierung fördern kann.

Sinnvollerweise begann die Firma mit ihrem Service in Gegenden, in denen die Lieferkosten am niedrigsten waren, indem sie die Postleitzahlen von dicht besiedelten Orten sowie die Anzahl existierender Amazonkunden ermittelten, deren Einkommensniveau hoch genug war, um regelmäßig Produkte, für die Lieferung am selben Tag verfügbar waren, zu erwerben. Die Firma gab eine Internetseite an, auf der Kunden ihre Postleitzahl eingeben konnten, um zu sehen, ob eine Lieferung am selben Tag bei ihnen möglich wäre. Enthüllungsjournalisten bei den Bloomberg News nutzten diese Seite zur Erstellung einer Karte, die die Gegenden mit dem Amazon-Lieferangebot am selben Tag zeigt.

Die Bloomberg-Analyse zeigte, dass viele ärmere, städtische Gegenden von diesem Service ausgeschlossen waren, während in wohlhabenderen Nachbarschaften dieser Service angeboten wurde. Viele dieser ausgeschlossenen armen Gegenden wurden vorwiegend von Minderheiten bewohnt. Beispielsweise wurde in Boston das komplette Stadtgebiet abgedeckt – bis auf den Bezirk Roxbury. Der Service deckte in New York City beinahe sämtliche Bezirke ab, während die Bronx außen vor blieb. In Chicago wurde die verarmte South Side ausgelassen, während die wohlhabenderen nördlichen und westlichen Vorstädte mit einbezogen wurden.

Man ist versucht, zu denken, dass datenbasierte Entscheidungen unvoreingenommen sind. Jedoch zeigen Forschung und wissenschaftliche Diskussionen nach und nach, dass Unfairness und Diskriminierung bestehen bleiben. In meinem Onlinekurs zu Datenethik lernen die Studenten, dass Algorithmen diskriminieren können. Allerdings gibt es einen Silberstreif am Horizont: Wie auch die Bloomberg-Studie zeigt, kann es die Tatsache, die Entscheidungsfindung auf Daten zu gründen, auch einfacher machen, aufkommende Vorurteile zu entdecken.

Voreingenommenheit kann unbeabsichtigt sein

Unfaire Szenarios, wie bei der Lieferpolitik von Amazon, können aus vielen Gründen entstehen, inklusive versteckter Verzerrungen – beispielsweise der Annahme, dass die Bevölkerung einheitlich über die Stadt verteilt ist. Die Entwickler von Algorithmen haben wahrscheinlich nicht die Absicht, zu diskriminieren, und merken es möglicherweise gar nicht, dass sich ein Problem eingeschlichen hat.

Amazon erklärte Bloomberg, dass man keine diskriminierenden Absichten verfolgte, und alles spricht dafür, dass diese Aussage wahr ist. Als Antwort auf den Bloomberg-Bericht haben Stadtbeamte und andere Politiker Amazon dazu aufgerufen, dieses Problem zu beheben. Die Firma reagierte schnell darauf und fügte die ehemals ausgeschlossenen ärmeren städtischen Postleitzahlen zu ihren vom Service abgedeckten Gegenden hinzu.

Eine ähnliche Frage hat sich bei Uber gestellt. Hier sah es zunächst so aus, dass in Gegenden, die eher von einer weißen Bevölkerung bewohnt wurde, ein  besserer Service angeboten wurde. Es ist wahrscheinlich, dass noch mehr Einzelhandel- und Serviceindustriebeispiele in Zukunft gefunden werden, die unabsichtlich durch Algorithmen diskriminieren.

Wird von den Algorithmen zu viel verlangt?

Wir sollten einen Moment innehalten, um zu prüfen, ob wir übermäßige Ansprüche an die Entscheidungen von Algorithmen stellen. Firmen, die stationär arbeiten, treffen ständig standortbezogene Entscheidungen und beziehen dabei Kriterien ein, die sich nicht allzu sehr von denen Amazons unterscheiden. Solche Filialen versuchen, Standorte zu finden, die für eine große Menge potenzieller Kunden mit Geld zum Ausgeben in Frage kommen.

Konsequenterweise entscheiden sich nur wenige Geschäfte dafür, sich in ärmeren innerstädtischen Nachbarschaften niederzulassen. Vor allem im Zusammenhang mit Lebensmittelgeschäften ist dieses Phänomen ausführlich erforscht worden, und der Term „food desert“ („Lebensmittelwüste“) wird benutzt, um städtische Gegenden zu beschreiben, in denen die Einwohner keinen geeigneten Zugang zu frischen Lebensmitteln haben. Diese Standortverzerrung ist weniger gut untersucht, wenn es zu Einzelhandelsgeschäften im Allgemeinen kommt.

Als ein bezeichnendes Beispiel schaute ich mir die 55 Standorte von Target, einer großen Einzelhandelskette, in Michigan an. Als ich jede Postleitzahl in Michigan danach sortierte, ob das Durchschnittseinkommen verglichen mit dem landesweiten Durchschnittseinkommen hier in der unteren oder oberen Hälfte lag, fand ich heraus, dass nur 16 der Targetläden (29 Prozent) in den Gegenden mit Postleitzahlen aus der unteren Einkommenshälfte lokalisiert waren. Mehr als zweimal so viele, 39 Läden, befanden sich in den Gegenden mit den Postleitzahlen der reicheren Hälfte.

Diskriminierung identifizieren

Darüber hinaus findet sich keine einzige Target-Filiale in Detroit, während sich in den reicheren Vorstädten von Detroit diverse Läden befinden. Trotzdem gab es noch keinen öffentlichen Aufschrei mit dem Vorwurf, dass Target durch seine Niederlassungsentscheidungen arme Menschen diskriminiert. Es gibt zwei Hauptgründe, warum die Sorge über Amazon gerechtfertigt ist: Rigidität und Dominanz.

Rigidität hat sowohl mit dem Entscheidungsfindungsprozess des Online-Einzelhändlers als auch mit dem Ergebnis zu tun. Amazon entscheidet, welche Postleitzahlgegenden in das Servicegebiet fallen. Wenn ein Kunde nur eine Straße von der Grenze, die Amazon gesetzt hat, entfernt wohnt, liegt er außerhalb der Servicegegend und kann wenig dagegen tun. Im Gegensatz dazu kann jemand, der in einer Postleitzahlgegend ohne Target-Filiale lebt, dennoch bei Target einkaufen – auch wenn er länger braucht, um dorthin zu kommen.

Es ist außerdem wichtig, wie dominant ein Einzelhändler in den Köpfen der Verbraucher ist. Während Target nur einer von vielen Sportartikelverkäufern ist, genießt Amazon als Interneteinzelhändler Marktdominanz und zieht daher mehr Aufmerksamkeit auf sich. Solch eine Dominanz ist charakteristisch für die heutigen Internetgeschäfte, die nach dem Motto „The Winner takes it all“ funktionieren.

Während ihre Rigidität und Dominanz unsere Sorge über Onlinegeschäfte vergrößern mögen, so helfen sie uns doch auch, ihre Diskrimination besser zu entdecken als bei stationären Geschäften. Bei einer traditionellen Ladenkette müssen wir schätzen, wie lang ein Anfahrtsweg für den Kunden maximal sein darf. Wir müssen uns außerdem des Zeitfaktors bewusst sein: Fünf Meilen zur nächsten Autobahnausfahrt ist nicht das gleiche wie fünf Meilen durch vollgestopfte Straßen in Richtung der anderen Seite der Stadt. Außerdem kann die Anreisezeit selbst in Abhängigkeit von der Tageszeit stark variieren. Nachdem man identifiziert hat, in welchen Gegenden ein Geschäft wahrscheinlich seinen Service anbietet, werden diese Gegenden nicht eins zu eins deckungsgleich mit den geographischen Einheiten sein, für die uns Statistiken über Rasse und Einkommen vorliegen. Zusammengefasst ist die Analyse chaotisch und bedarf eines großen Aufwands.

Im Gegensatz dazu haben Journalisten bei Bloomberg wohl nur wenige Stunden gebraucht, um eine Karte mit der Servicegegend Amazons zu erstellen und diese mit dem Einkommen oder der Rasse in Beziehung zu setzen. Wenn Amazon das betriebsintern vollzogen hätte, hätten sie dieselbe Analyse in nur wenigen Minuten durchführen können – und sie hätten vielleicht die Probleme gesehen und schon vor der Einführung des Services der Lieferung am selben Tag behoben.

Wie vergleichen Menschen?

Lassen Sie uns einen Blick auf ein ganz anderes Beispiel werfen, um zu sehen, wie die gleichen Punkte auf viele Dinge zutreffen. ProPublica hat eine exzellente Analyse von Rassendiskriminierung durch einen Algorithmus, der die Wahrscheinlichkeit, dass ein Krimineller wieder das Gesetz bricht voraussagt, veröffentlicht. Dieser Algorithmus berücksichtigt Dutzende Faktoren und kalkuliert eine Wahrscheinlichkeitseinschätzung. ProPublicas Analyse fand signifikante systematische Rassenverzerrungen, und das, obwohl Rasse nicht einmal unter den spezifischen berücksichtigten Faktoren war.

Ohne den Algorithmus würde ein menschlicher Richter eine ähnliche Einschätzung abgeben, als Teil einer Strafzumessung oder Bewährungsentscheidung. Die menschliche Entscheidung würde vielleicht ein umfassenderes Set von Faktoren berücksichtigen, so wie beispielsweise das Auftreten des Kriminellen vor Gericht. Aber wir wissen aus psychologischen Studien, dass menschliche Entscheidungsfindung voll von Verzerrung und Vorurteilen ist, selbst wenn wir versuchen, möglichst fair zu sein.

Jegliche Fehler, die aus den Verzerrungen in Entscheidungen menschlicher Richter entstehen, sind aber voraussichtlich bei verschiedenen Richtern unterschiedlich bewertet worden – und sogar bei verschiedenen Entscheidungen, die von ein und demselben Richter getroffen werden. Insgesamt mag es Rassendiskriminierung durch unterbewusste Vorurteile geben, dies aber endgültig festzustellen, ist schwierig. Eine amerikanische Studie des Justizministeriums fand deutliche Hinweise darauf, dass bei der Verurteilung weißer und schwarzer Häftlinge Unterschiede bestehen, konnte aber nicht klar bestimmen, ob die Rasse selbst ein Faktor bei diesen Entscheidungen war.

Im Gegensatz dazu wird der Algorithmus, den ProPublica überprüft hat, bei tausenden von Fällen über viele Staaten hinweg genutzt. Seine Rigidität und das hohe Volumen erleichtern die Aufgabe, eine mögliche Diskriminierung festzustellen – und kann Wege bieten, das Problem effizient zu beheben.

Das Nutzen von Informationstechnologie scheint die Unterschiede und Daten deutlicher und leichter verfügbar zu machen. Was gestern noch unter den Teppich gekehrt werden konnte, schreit heute nach Aufmerksamkeit. Während wir immer mehr Nutzen für datengelenkte Algorithmen finden, ist es noch nicht üblich, deren Fairness zu analysieren, vor allem vor der Einführung eines neuen, datenbasierten Services. Um dies zu erreichen, muss ein langer Weg des Messens und Verbesserns der Fairness dieser immer wichtiger werdenden computerisierten Kalkulationen gegangen werden.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image ”Algorithmen” by geralt (CC Public Domain)


The Conversation

Weiterlesen »

FollowUs – Die Netzpiloten-Tipps aus Blogs & Mags

Follow me

  • WHATSAPP welt: Was WhatsApp jetzt mit Facebook teilt – und was nicht: Tja, wer hätte das gedacht – Facebook möchte die Daten von WhatsApp. Eigentlich hatte damit jeder gerechnet, der die damalige Übernahme mitbekommen hat. Fraglich war es lediglich, wann dieser Zeitpunkt sein wird. Aber warum ist der Aufschrei nun doch so groß? Telefonnummern und Nutzungsdaten, also wie häufig man den Messenger nutzt, werden an Facebook weitergeleitet. Damit ist nun jede Person eindeutig identifizierbar. Sensible Daten sollen angeblich nicht weitergeleitet werden. Dies versichere zumindest WhatsApp.

  • AMAZON heise: Der Siegeszug des Online-Handels geht weiter – das Ladensterben auch: Mit Öffnungszeiten rund um die Uhr und bequemer Lieferung bis vor die Haustür machen Internethändler den Einkaufsstraßen immer mehr Kunden abspenstig. Vor allem in Klein- und Mittelstädten stehen deshalb immer mehr Läden leer. Der Internethandel in Deutschland boomt, viele Innenstädte dagegen leeren sich. „Prognosen, wonach bis 2020 rund 50.000 Geschäften das Aus droht, sind nicht übertrieben. Das wird eher die Untergrenze sein“, warnt der Handelsexperte Gerrit Heinemann von der Hochschule Niederrhein in einem Gespräch mit der dpa.

  • TWITTER blog.twitter: 187 Millionen Tweets zu #Rio2016 – der Twitter-Rückblick in Zahlen, Daten und Momenten: Ein grünes Schwimmbecken, eine mitfiebernde Twitter-Omi und das Triple-Triple des schnellsten Mannes der Welt – #Rio2016 war für zwei Wochen DAS Thema auf Twitter. Mehr als 187 Millionen Tweets wurden insgesamt rund um die Olympischen Spiele verschickt, diese führten zu rund 75 Milliarden Impressions auf Twitter und über eingebettete Tweets.

  • IPHONE handelsblatt: Spionage-Software “Pegasus” auf iPhones entdeckt: Eine neu entdeckte Spionage-Software hat drei iPhone-Schwachstellen ausgenutzt, um sich weitreichenden Zugriff auf die Geräte zu verschaffen. Nach Erkenntnissen von Sicherheitsforschern wurde das Programm auch gegen Menschenrechtler und Journalisten eingesetzt. Apple stopfte die Sicherheitslücken im iPhone-System iOS am Donnerstag – rund zwei Wochen nach dem ersten Verdacht. Experten zufolge steckt hinter dem Programm, das von ihnen „Pegasus“ genannt wurde, ein Unternehmen aus Israel.

  • STARBUCKS golem: Starbucks testet Wireless Charging in Deutschland: Hoppla, Akku schon wieder leer. Diese Erfahrung teilen zumindest sehr viele Smartphonenutzer. Wenn man es genau nimmt, sind leere Akkus ein tägliches Problem und die Suche nach etwas Strom ist damit ebenso verbunden. Starbucks will dem nur einen Riegel vorschieben und bietet seinen Kunden an, via Wireless Charging die Geräte wieder aufzuladen. Da diese Funktion noch nicht bei allen Smartphones vorhanden sind, kann man sich vor Ort einen Adapter ausborgen. „Einmal Strom to go bitte“

Weiterlesen »

Die richtige Social Media-Frequenz: „Fail again. Fail better.“

busy schedule? (adapted) (Image by flik [CC BY 2.0] via Flickr)

Twitter, Facebook, Google+, LinkedIn – auf welchem Social Media-Kanal sollte man wann wie viel posten? Der Frage gehen unzählige Statistiken nach. Auf wie viele Tweets kommen wie viele Posts bei Facebook oder Google+ und was kann man eigentlich mit LinkedIn anfangen? Der Grat in den verschiedenen Social Media-Kanälen zwischen informativ und nervig ist ein sehr schmaler. Umso wichtiger ist es, sich über die richtige Social Media-Frequenz Gedanken zu machen. Doch – helfen dabei nur Statistiken?

Community besteht aus Individuen

Ihr kennt sie doch auch, diese Frage, die man sich als aktiver Twitterer, Facebooker und Googleplusler irgendwann zwangsläufig stellt: Wann ist genug? Gerade, wenn man Social Media-Manager-mäßig unterwegs ist und vielleicht sogar Profile von größeren Unternehmen betreut, wird die Frage elementar. Schließlich will man das Beste aus seiner Community herausholen, will hohe Interaktionsraten, viele Retweets und Shares sowie Kommentare und Resonanzen. Aber auf der anderen Seite steht immer das ungute Gefühl, man könnte es übertreiben und die Community nerven oder – jetzt wird es etwas albern, zugegeben – die Algorithmen gegen sich aufbringen.

Kevan Lee, zuständig für die Inhalte für die bekannte Social Media-App Buffer, hat in einem lesenswerten Blogbeitrag über die beste Frequenz von Postings auf Twitter, Facebook, Google+ und LinkedIn geschrieben. Auch er geht ganz konkret der Frage nach der Grenze zwischen informativ und nervig nach. Eine Grenze, die so einfach gar nicht zu ziehen ist. Schließlich besteht eine Community aus unzähligen Individuen, die alle eine andere „Schmerzgrenze“ haben. Manche wünschen sich viel Inhalt ihrer Lieblingsmarke, andere möchten mehr Inhalte ihrer Freunde und nur zwischendrin mal ein Posting ihrer Lieblingsmarke sehen und wieder andere liken, folgen oder abonnieren die Seite zwar, fühlen sich aber schon beim kleinsten Lebenszeichen genervt.


Social Media-Bearterin Kimberly Ann Jimenez erklärt, wie man Buffer nutzt:


Kein Schema F

Daher finde ich persönlich es mehr als schwierig, pauschalisierte Werte auszugeben. Ein Schema F, nachdem ab sofort alle vorgehen sollen, gibt es nicht – und wird es auch mit noch so vielen Statistiken nicht geben. Zumindest, jetzt wird es wieder etwas albern, bis uns die Computeralgorithmen als Individuum lückenlos entschlüsselt haben (ja, ja – nur eine Frage der Zeit, ich weiß). Entsprechend sollten die Zahlen, die Lee aus diversen Statistiken von SocialBakers bis Track Social extrahiert hat, mit Vorsicht genossen werden. Sie können ein guter Richtwert sein, aber im Zweifel entscheidet das Gefühl und Gespür des Social-Media-Managers gegenüber der Community und jeweiligen Plattform.

Das belegt auch, dass Buffer auch seinen eigenen Social-Media-Zeitplan veröffentlicht hat – und der weicht teilweise ebenfalls klar von den Werten ab, die Lee zusammenfasst. So veröffentlicht der Dienst auf seinen Kanälen per Twitter 14 Mal über den Tag verteilt (auch nachts, um die internationale Followerschaft auch mit Zeitverschiebung anzusprechen). Bei Facebook sind es zwei Postings pro Tag, bei LinkedIn einer und bei Google+ ebenfalls zwei.

Ein Posting bei Facebook pro Tag

Das deckt sich nur bedingt mit den Werten, die etwa SocialBakers für Facebook herausgefiltert hat. Drei Monate lang hat der Statistik-Dienst große Marken – von iTunes über Red Bull bis Coca Cola – im Auge behalten. iTunes postet überdurchschnittlich hoch mit 2,29 Posts pro Tag, Coca Cola unterdurchschnittlich wenig mit 0,44 Posts pro Tag. Am besten liegt Converse mit 0,93 Posts pro Tag im Schnitt von einem Posting.

Warum ein Posting pro Tag am besten ist, zeigt auch eine Statistik von Track Social. Die zeigen auf, dass die Interaktionen der Nutzer mit jedem Posting mehr steigen. Relativ betrachtet, bedeutet das, dass wenn die Rate bei einem Posting bei 100 Prozent liegt, sie beim vierten Posting nur noch bei 80 Prozent liegt und so weiter. Lee merkt aber auch ganz richtig an, dass die Zahlen von vor dem großen Algorithmus-Update von Facebook stammen. Grundsätzlich aber gilt nach wie vor: Zu viel Aktivität auf Facebook (etwa im Rhythmus von Twitter) schadet eher der Aufmerksamkeit, da sich die Postings irgendwann gegenseitig kanibalisieren und Facebook nicht zwei, drei oder fünf Postings von einer Marke im Newsfeed anzeigt.

Drei bis sieben Tweets pro Tag?

Bei Twitter spiegeln sich ganz klar andere Zahlen wieder als man bislang vermutet hatte. Ich persönlich würde auch durch die Halbwertszeit von 18 Minuten pro Tweet annehmen, dass es mehr oder minder egal ist, wie viel man bei Twitter postet – solange man sich 18 Minuten Zeit lässt. Dem sei, so ebenfalls Social Bakers, nicht so. Ab dem dritten Tweet sinke die Interaktionsrate pro Tweet. Eine andere Statistik von Track Social legt den Wert auf fünf bis sieben Tweets fest – auch weniger, als von mir angenommen. Aber auch hier gilt, wie ja auch Buffer mit seinen 14 Tweets zeigt: Gespür für die Community entwickeln und nicht von anderen irgendwelche Werte vorgeben lassen. Track Social ist übrigens auf die (Ironie an) überaus überraschende (Ironie aus) Erkenntnis gestoßen, dass man mehr Antworten bekommt, je mehr man twittert.

Bei Google+ und LinkedIn ist es wesentlich schwieriger, zuverlässige Statistiken zu generieren. LinkedIn selbst empfiehlt eine Posting-Dichte von 20 Postings pro Monat, also jeden Wochentag eins. Bei Google+ empfiehlt Buffer, sich an Facebook zu orientieren und auf maximal zwei Postings pro Tag zu setzen. Google+ sei von Format und Followerschaft Facebook am ähnlichsten – daher die Empfehlung. Auch hier kann sich aber natürlich auf Google+ eine wesentlich andere Community als auf Facebook eingefunden haben. Ist dem so, sollte man sich auch hier nicht an diese Empfehlung halten.


Podcaster Blane Warrene stellt seine persönliche Scheduling-Startegie vor:


Fail again. Fail better.

Ein weiterer, spannender Ansatz von Lee ist, dass man Twittert, wenn kein anderer Twittert. Er vergleicht das mit der Werbung: „When there’s nothing else on, you’re more likely to watch an infomercial.“ Entsprechend könnte gelten: „When there’s little else being tweeted, your tweets are more likely to stand out.“ Etwas, das er übrigens aus dem Bereich des E-Mail-Marketings zieht. Anstatt eine Werbe-E-Mail in den täglichen Fluss von E-Mails zu schicken, empfiehlt es sich, die einzige neue Mail im Postfach zu sein: 20 Uhr bis Mitternacht sei entsprechend eine gute Zeit.

Dem Fazit von Kevan Lee möchte auch ich mich anschließen: Testen, experimentieren, wiederholen, verbessern. Das ist der richtige Weg zur optimalen Social-Media-Frequenz. Man könnte es auch mit den Worten des irischen Schriftstellers Samuel Beckett sagen: „Ever tried. Ever failed. No matter. Try Again. Fail again. Fail better.“


Image (adapted) „busy schedule?“ by flik (CC BY 2.0)


Weiterlesen »

Was bedeutet der neue „Aufrufe“-Counter auf Google+?

Dear Steve. Google+ iPhone (adapted) (Image by Charlie Wollborg [CC BY-SA 2.0] via Flickr)

Seit kurzem zeigt Google+ an, wie oft das Profil eines Nutzers aufgerufen wurde – Google-Mitarbeiter Yonatan Zunger beantwortet Fragen rund um das neue Feature. Mit dem neuen Feature hat Google+ erst einmal Verwirrung gestiftet. Unklar ist, wie sich die Summe der wiedergegebenen Anzahl zusammensetzt. Auf Google+ gibt Google-Mitarbeiter Yonatan Zunger Antwort und erklärt in einem Frage-Antwort-Post (den wir hier frei übersetzt wiedergeben), dass die Anzahl die Summe von Profil-Aufrufen, Aufrufen aller Postings und auch Aufrufen aller Fotos ist.

Was bedeutet diese Zahl?

Das ist die Gesamtanzahl der Aufrufe eines Profils, der Beiträge, Fotos und Videos eines Nutzers.

Wie ist ein „Aufruf“ definiert?

Das bedeutet, dass eine Profilseite aufgerufen wurde. Aber auch, dass die Inhalte eines Nutzers gesehen wurden. Zum Beispiel im Stream, denn auf diese Art lesen die meisten Nutzer die Beiträge von anderen. Der Blick auf die Hovercard zählt nicht.

Hat das etwas mit +1, Reshares, etc. zu tun?

Indirekt ja, denn für ein +1 oder Reshare muss der Inhalt des Nutzers auch betrachtet worden sein. Schon früher konnten die Aufrufe bei individuellen Beiträgen oder Fotos gesehen werden, jetzt eben auch für alles zusammen.

Zählt es auch, wenn jemand meine Beiträge als Reshare weitergeteilt hat?

Ja, denn zum einen hat dieser Nutzer den Beitrag gesehen und auch andere Nutzer werden den weitergeleiteten Beitrag sehen, auch wenn er zum Beispiel auf einer anderen Seiten eingebunden ist.

Kann ich das auch unterbinden?

Ja, unter „Konto“ > „Google+ Einstellungen > „Profil“ kann der Haken bei „Anzeigen, wie oft mein Profil und dessen Inhalte aufgerufen wurden“ entfernt werden.

Warum haben einige Leute mehr Seitenansichten als ich, aber weniger Follower?

Manche Nutzer verstehen es eben besser mit weniger Menschen besser interaktiv zu kommunizieren als andere mit mehr Followern.

Mehr Informationen gibt es hier: goo.gl/8BjroH


Image (adapted) „Dear Steve: Google+ iPhone“ by Charlie Wollborg (CC BY-SA 2.0)


Weiterlesen »

Der eigene URL-Shortener: Mission failed?

macro pixels url cliche (adapted) (Image by Chirs Dlugosz [CC BY 2.0] via Flickr)

Mitte Januar hat sich Netzpiloten-Autor Tobias Gillen einen eigenen URL-Shortener eingerichtet und hier diskutieren lassen, ob das Sinn macht. Inzwischen weiß er es. Links bestimmen unser digitales Leben. Wer keinen Link hat, hat meist nichts zu teilen. Denn hinter all den schönen Sachen in diesem Internet steht immer auch ein Link, so wie hinter diesem Artikel auch. Gekürzte Links mit bit.ly oder goo.gl sieht man tagtäglich viele in den sozialen Netzwerken. Um einen Überblick über seine Links zu bekommen, hat sich unser Autor einen eigenen Shortener für seine Links angelegt und berichtet nun von seinen Erfahrungen und der Frage, ob das Sinn macht oder verzichtbar ist.

Drei große Kritikpunkte

Grundsätzlich finde ich den eigenen URL-Shortener mit einer indivduellen URL, in meinem Fall tobgil.de, nach wie vor sehr reizvoll. Zumindest ziehen die Argumente dafür bei mir immer noch: Detailierte Statistiken, welcher Link wann, wie oft und wo angeklickt wurde. Zudem eine stärkere Verknüpfung mit meiner Person, vertrauenswürdigere Links und alles auf meinem eigenen Server. Bit.ly und Co. sind ja ganz schön, für mich aber nach den Kriterien nicht mehr ausreichend.

Wer mir auf Twitter und Facebook folgt, der hat bestimmt mitbekommen, dass ich – bis auf eine kurze Phase kurz nach der Einrichtung – inzwischen kaum mehr URLs mit tobgil.de kürze (und, by the way, auch sonst nicht). Das liegt an mehreren Dingen, auf die ich im Folgenden kurz eingehen möchte:

  • a) Kaum bis gar keine Usability
  • b) Ungenaue Statistiken bei yourls.org
  • c) Keine Rückschlüsse auf Viralität

Kaum bis gar keine Usability

Usability ist leider das Hauptproblem beim eigenen URL-Shortener. Man hat ein Backend, in das man sich einloggen muss, den Link dann dort kürzt, kopiert, das Netzwerk öffnet und dort in einen Post, Tweet oder Whatever einfügt und teilt. Das klingt für mich nicht sonderlich nach großer Benutzerfreundlichkeit – und fühlt sich im Umgang auch nicht so an. Besser wäre, man könnte den eigenen URL-Shortener direkt per API in die Netzwerke einpflegen und Links somit automatisch umwandeln, sobald sie geteilt werden. Ähnliches ging damals zum Beispiel bei TweetDeck, bevor Twitter es übernommen und sich entschlossen hat, einige Schnittstellen dicht zu machen.

Auf den Seiten von Twitter, Facebook und Co. geht das ohnehin nicht mehr. Stattdessen aber mit Apps wie Tweetbot, das ich mir vor Ewigkeiten heruntergeladen habe und extra für den Zweck nun wieder ausgebuddelt habe. Nichts gegen Tweetbot, das Programm ist echt klasse. Nur leider absolut nicht mein Fall. Ich mag meine normale Twitter-App, das Schlichte und Einfache. Das Problem: Einen eigenen URL-Shortener kann ich dort leider nicht einstellen. Somit bin ich in meiner Experimentierphase zweigleisig gefahren: Twitters App für den normalen Gebrauch, Tweetbot zum Teilen von Links. Auch das ist nicht sonderlich Benutzerfreundlich.

Fehler bei den Statistiken

Schon das ist auf Dauer für mich ein Grund, auf meine tobgil.de-Links zu verzichten. Leider gibt es noch zwei weitere. So sind die Statistiken bei yourls.org in meinem Backend alles andere als genau. Ein Link, den ich nur über Twitter an meine 2.270 Follower geteilt habe, soll binnen fünf Minuten über 3.000 Mal angeklickt worden sein? Schön wäre es, aber um das zu glauben, muss man schon arg optimistisch sein. Zudem habe ich über die Einblicke meiner Seiten-Statistiken auch die Gewissheit, dass das definitiv nicht der Fall war.

Bei den meisten Links kommen realistische(re) Angaben heraus, aber wie Glaubhaft sind die, wenn man dem Tool nicht mehr vertraut? Außerdem gibt es bei der Lokalisierung der Klicks Probleme: Die meisten Klicks kommen aus den USA, vermutlich dadurch, dass dort die Server von Twitter und Co. stehen – ich weiß es nicht.

Keine Rückschlüsse auf die Viralität möglich

Das dritte und letzte Problem sind die fehlenden Einblicke in die Viralität hinter den Links. Das Ziel war ja eigentlich, Links im Blick zu behalten und mal zu schauen, was wie gut ankommt. Wenn man einen Link über mehrere Netzwerke teilt, hat man allerdings mit yourls.org absolut keinen Einblick mehr in die Zahlen. Mehr als „Others“ bekommt man aus dem Backend nicht raus, was so viel bedeutet wie: „Keine Ahnung, wo deine Links wann und wie angeklickt wurden, ist mir eigentlich auch egal.“

Was bleibt also übrig? Das Argument der Persönlichkeit. Teile ich Links mit meinem Namen drin, stärkt das irgendwo die Bindung zum Gegenüber und insbesondere das Vertrauen in die Links. Dagegen ist nichts zu sagen, allerdings ist das auch etwas, woran yourls.orgnichts ändern könnte. Ansonsten ist der Dienst für mich leider gefloppt.

Fazit: Mission leider gescheitert

Dennoch: Es war eine hilfreiche Erfahrung, einen eigenen URL-Shortener einzurichten und ich bin froh, mich damals durch die Anleitungen gequält zu haben. Vielleicht versuche ich es bald mal mit einem anderen Dienst, vielleicht beuge ich mich aber auch einfach Twitter und nutze den hauseigenen URL-Shortener. Die Mission „Eigener URL-Shortener“ ist für mich also definitiv erst mal gescheitert.


Image (adapted) „macro pixels url cliche“ by Chris Dlugosz (CC BY 2.0)


Weiterlesen »

Der eigene URL-Shortener: Sinn oder Unsinn?

macro pixels url cliche (adapted) (Image by cubosh [CC BY 2.0], via flickr)

Links bestimmen unser digitales Leben. Wer keinen Link hat, hat meist nichts zu teilen. Denn hinter all den schönen Sachen in diesem Internet steht immer auch ein Link, so wie hinter diesem Artikel auch. Weil diese aber immer komplizierter, länger und kryptischer werden, boomen seit einiger Zeit so genannte Link- oder URL-Shortener. So wird aus einem ellenlangen Buchstaben-, Zahlen- und Zeichensalat ein kurzer, handlicher Link.

Besonders beliebt sind hier bit.ly oder goo.gl. Finde ich gut, wollte ich auch haben. Allerdings nicht von bit.ly und Co.: Wenn ich so etwas mache, dann möchte ich es auf meinem Server und unter meiner Kontrolle haben. Und so habe ich mich auf die Suche nach einem Tool gemacht, um mir etwas Ähnliches einzurichten. Zunächst einmal musste eine kurze URL her. Idealerweise eine, die was mit mir zu tun hat und den Link auch tatsächlich einfacher macht.

Ich entschied mich für tobgil.de, also die ersten drei Buchstaben von Vor- und Nachname. Anschließend musste das Paket von yourls.org auf den Server geladen und installiert werden. Das war zwar komplizierter als gedacht, irgendwann aber war es dann doch geschafft. Seither kann ich Links über ein mehr oder weniger schickes Backend kürzen.

Eine erste Kritik

Einer der Hauptgründe dafür – neben der puren Neugier, es einfach mal einzurichten – war, dass ich gerne ein bisschen den Überblick über die Links behalten wollte, die ich tagtäglich so durch die Netzwerke jage. Die Grundfrage: Welcher Tweet oder Post kommt wie gut an. Und: Warum eigentlich? Über das Backend von yourls.com kann man dem mit kleinen Statistiken und Grafiken zumindest annähernd ein wenig nachgehen.

Doch schon nach dem ersten Test erreichte mich ein Tweet einer Nutzerin, die eben dieses Tracking nicht sonderlich erstrebenswert hielt und sich vor dem Klick auf einen privat gekürzten Link zwei Mal überlege, ob sie die Seite öffne. Zudem wisse sie ja nicht, was sie sich einfange, wenn sie auf den Link klicke.

Guter Punkt, zugegeben. Und genau darum möchte ich diese Fragen an dieser Stelle diskutieren. Klar, in Zeiten von automatischer Link-Kürzung durch Twitter ist ein URL-Shortener nicht mehr zwingend nötig. Im Gegensatz zu bit.ly oder ähnlichen Kandidaten aber bleiben die (anonymen) Statistiken nur bei mir und laufen über deutsche Server. Bei bit.ly ist das anders, schon allein dadurch, dass .ly die lybische Domainendung ist.

Zudem finde ich einen privater Link-Shortener fast noch vertrauenswürdiger als einen externen. Als Beispiel lässt sich hier etwa Richard Gutjahr anbringen, der seine Links über gutja.de kürzt. Bei diesem Link-Syntax regt sich bei mir alles andere als Misstrauen. Aber na klar: Ein URL-Kürzer verschleiert die wahre Internetadresse. Allerdings weiß man auch bei einer unveränderten Adresse nicht immer, was man sich auf der Seite einfängt. Das beweist unter anderem die jüngste Sicherheitslücke bei Yahoo.

Ich sehe ein: Ein Link-Shortener hat seine Vor-, aber auch seine Nachteile. Mich persönlich hat es gereizt, ein bisschen damit herumzuspielen und ihn erst einmal nur einzurichten. Ob und wie ich ihn aber weiter verwenden werde, hängt nun von der Resonanz der Nutzer ab – die bis auf den einen Tweet weitgehend neutral ist. Außerdem hat sich das Klick-Verhalten durch meine eigene URL bislang nicht negativ verändert, eher gegenteilig. Ein Fazit meiner digitalen Neuerrungenschaft kann ich bislang aber noch nicht ziehen, dafür reichen wenige Test-Tage einfach nicht aus.

Wie sehr ihr das? Macht ein eigener URL-Shortener Sinn? Löst er bei euch Misstrauen aus oder vertraut ihr eigens gekürzten Links eher?


Image (adapted) “macro pixels url cliche“ by cubosh (CC BY 2.0)


 

Weiterlesen »

Gabi – eine iPhone-App wertet Facebook-Aktivitäten aus

Gabi LogoEs gibt nicht Wenige auf Facebook, die Ihren Freunden und Followern Links, Filme und Bilder etc. präsentieren und somit die Rolle des Kurators einnehmen. Das ist gewollt. Gerade Menschen, die sich beruflich mit dem Web oder dem Produzieren von Inhalten beschäftigen, können auf diese Weise in aller Munde bleiben und sich stetige Resonanz sichern. Anders, als es bei Facebook-Pages möglich ist, kann man allerdings mit dem privaten Account keine Statistiken anfertigen. Eine App mit dem ungewöhnlichen Namen Gabi soll das jetzt ändern.

Gabi versteht sich darauf eine Nische zu bedienen, die bisher keiner für sich entdeckt hat. Die App, die von den beiden Berlinerinnen Gabriel Palomino und Stefanie Hoffmann entwickelt wurde, wertet die Resonanz auf gepostete Statusmeldungen, Fotos und vieles mehr im persönlichen Freundeskreis aus. Außerdem gibt sie einen Eindruck was dieser gerade so postet und erstellt ein Ranking der am häufigsten geteilten Inhalte aller Buddys. Alles in allem ein sehr umfangreiches Tool, nicht nur für Statistikliebhaber.

Weiterlesen »

Weiterlesen »

Android vs. iOS – Ring frei für eine neue Runde

android vs. iosDas App-Argument war immer zuverlässig für den Apple-ianer, sobald ein Android-User sich mit ihm über die Vor- und Nachteile der Betriebssoftware stritt. iOS ist geschlossen und mit seiner App-Strategie immer ein sicherer Partner im Umgang mit Diensten die via App genutzt werden. Und außerdem gäbe es ja auch viel mehr Apps. Nun ja, zumindest letzteres Argument könnte nach neuesten Fakten vielleicht bald ins Wanken geraten. Der Android App-Market jedenfalls wird öfter genutzt.

Weiterlesen »

Weiterlesen »

23 Prozent der Deutschen auf facebook aktiv

Kaum zu glauben, fast ein Viertel der Deutschen ist auf facebook aktiv. Und das, obwohl hinsichtlich des Themas Breitband schon 10 Kilometer hinter den größeren Städten in Deutschland das Tal der DSL-Ahnungslosen beginnt. Aber vielleicht ist das auch nur ein Hinweis auf die grassierende Landflucht – oder gar ein Grund? In Sachen Facebook Vision Usercontest (FSC) hat sich das Land der Dichter und Denker auf den 10. Platz vorgearbeitet. Seltsam allerdings, dass nur 30 Prozent der Onliner in Deutschland auf facebook sind. Könnte das mit der „german angst“ um die Daten zu tun haben, die Menschen aus der Spackeria gern abtun mit dem Hinweis, dass es sowieso nichts mehr zu retten gibt im Web, was entfernt an die informationelle Selbstbestimmung erinnern könnte…

Und in Sachen Altersverteilung gibt es auch was zu sehen:

Achja, für die Statistik: CPC liegt bei 0,77$ und CPM bei 0,33 $.

Quelle: socialbakers

Weiterlesen »

Soziale Netzwerke 2010 in Zahlen

Soziale Netzwerke gelten bei einigen „Experten“ ja als Social Media. Beim Wort Medien horcht man dann auf und betrachtet Reichweite und TKP. Ergo sind aktuelle Zahlen genau das was der große Manitu namens Controller vorgesetzt bekommt. Was ist schon target marketing, wenn man Millionen aufweisen kann. Compass Heading hat aktuelle Zahlen vorgelegt und Xing ist der ganz große Verlierer mit 25%. LinkedIn kann allerdings nix aufholen und bleibt abgeschlagen im B2B-Netzwerkumfeld. Die vielen Neuerungen bei Xing haben aber genauso wenig Erfolg gebracht wie das tiefe Murmeln bei LinkedIn.

Mit 23 Millionen unique visitors liegt facebook im Dezember vorn, sehr knapp dahinter kommt wer-kennt-wen.de mit 5 Millionen und stayfriends mit fast 4 Millionen. Wenn das so weitergeht, dann kann facebook bald sogar Geld verdienen und muss nicht über den IPO. Aber wann dort ein breakeven in Sicht ist, ist ja egal, weil demnächst alle an der Börse wetten, dass es facebook 2014 nicht so ergeht wie Xing jetzt. Welchen Anlaß sie für diese Wette haben, kann ich nicht ausmachen.

Insgesamt erkennt Compass eine Stagnation des Marktes bei rund 53 Millionen Nutzern. twitter gilt noch immer als soziales Netzwerk. Ähem. Holtzbrinck hat ja gerade angekündigt mehr als 150 Millionen in deutschen bzw. europäischen Startups zu investieren. Es bleibt zu hoffen, dass sie etwas schlauer vorgehen als beim metoo-Netzwerk aus der VZ-Reihe. Denn dort verliert man gern mal fast das Doppelte des Xing-Verlustes an Nutzern. Und anders als die Hoffnungen auf den großen Werbekuchen, die facebook noch zwei bis drei Jahre beatmen, ist bei der VZ-Reihe die Luft raus. Mehr dazu hier bei media-treff.de.

Weiterlesen »

Statistokratie?

Jetzt ist es passiert: CSU-Ministerpräsident Seehofer bekommt von Kanzlerin Merkel für dieselben Thesen Beifall, die Sarrazin in den vergoldeten Rentnerstatus bugsierten. Wohlmeinende Jünger der Sekte der Heiligen Fakten der Letzten Tage betonen demgegenüber die Notwendigkeit der Immigration von Ausländern angesichts der demografischen Entwicklung sowie der katastrophalen Schul- und Ausbildungssituation in Deutschland. Dass Roboter im Maschinenbau oder softwarebasierte Sachbearbeitung bei Versicherungen und Banken auch die gut ausgebildeten Menschen links liegen läßt, scheint unerklärbar und unwichtig. Und bevor ich einen Arbeitslosen in der Zeit schule, nehme ich lieber einen gut ausgebildeten Inder oder Chinesen, denn die haben jedes Jahr soviele Absolventen naturwissenschaftlicher Unis wie wir Langzeitarbeitslose. Außerdem haben deren Kinder dann vielleicht wieder (Sprach)Probleme und man kann in 15 Jahren die Xenophoben (Fremdenfeindlichen) dieser Welt mit den Beispielen der schlechten Integration beglücken. Genauso haben sich alle immer eine offene, aufgeklärte und menschenfreundliche Welt gewünscht, als der Weltkrieg vorbei war, oder…? Weiterlesen »

Weiterlesen »

Social Media Revolution – schlampig gut gemacht

Zugegeben: ein sehr stylisch gemachtes Video auf dem Socialnomic09-Youtube-Channel mit Fat-Boy-Slim-Sound. Den Stil kennt man: Statistiken schick grafisch aufbereitet oder visualisiert in ein Video packen und auf virale Verbreitung hoffen. Ja, es funktioniert. Aber, aber, aber: Die Daten sind in Teilen ziemlich dahingeschlampt, weil ohne Belege oder durch die Verkürzung der Aussage schlichtweg falsch. Insofern bitte auch die Comments auf YouTube beachten. Update: Danke an Wittkewitz für dne Hinweis, dass im Blog des Urhebers alle Quellen aufgelistet sind. Weiterlesen »

Weiterlesen »

Start-up des Jahres – statista wirft mit Zahlen

logostatista.jpgEhre, wem Ehre gebührt: statista wurde vor wenigen Tagen zum Start-up des Jahres gekürt. deutsche-startups.de lobte das Statistik-Portal u.a. für seinen hohen Nutzwert. Nützlich sind vor allem mehr als eine Million Statistiken, die dort kostenlos abrufbar sind. Da lohnt sich doch ein genauerer Blick auf das, was statista noch auszeichnet und um so herauszufinden, was man eigentlich alles damit machen kann… Weiterlesen »

Weiterlesen »

Review: Woopra – mehr als nur Statistik

Lust mit den Besuchern deines Blogs zu chatten? Und das in Echtzeit, während sie sich auf deinem Blog befinden? Das ist nur eines der vielen Features, welche die neue Auswertungs-Software Woopra anbietet. Ähnlich wie Google Analytics wertet Woopra das Geschehen auf der eigenen Webseite aus und liefert Statistiken etwa über jeden einzelnen Zugriff, woher der jeweilige Besucher kommt, welches Suchwort er verwendet hat und so weiter. Im Gegensatz zu Google Analytics handelt es sich bei Woopra jedoch um keine Web-Applikation, sondern um ein Desktop-Tool, das die Aktivitäten auf der Webseite quasi in Echtzeit wiedergeben kann. Damit aber nicht genug, das clevere Programm, das sich derzeit noch in der Beta-Test Phase befindet, könnte mit seinen Zusatzfunktionen die Art und Weise wie wir interaktiv Informationen über unsere Nutzer sammeln revolutionieren. Wie das genau funktionieren soll, lest ihr weiter unten.

Weiterlesen »

Weiterlesen »

Blogpiloten unter den 25 dynamischsten Medienblogs

Benedikt Köhler hat eine interessante Auswertung der deutschsprachigen Medienblogs vorgenommen. Er hat statt der Authority auf Basis von eingehenden und ausgehenden Links die Entwicklungsdynamik betrachtet, bezogen auf die letzten 30 Tage. In der folgenden Tagcloud ist das Ergebnis zusammengefasst.

picture-3.png

Großes Tag = viel Wachstum, kleines Tag = wenig Wachstum. Zum Postings bei Benedikt geht es hier entlang. Besonders freut mich, dass die Blogpiloten „dicke“ mit dabei sind. Eigentlob linkt! ;-)

Weiterlesen »

1.077.000 deutsche Blogger

Die ARD/ZDF-Online-Studie hat Tradition im Netz. In ihr lässt sich nachlesen, was sich wie bewegt im Online-Deutschland.
Nun haben die öffentlich-rechtlichen Sender die aktuellste Version der Studie (für 2007) vorgestellt und haben folgendes gezählt:

  • 40,8 Millionen Deutsche sind online
  • 89 Prozent der Onliner nutzen nie Weblogs
  • 8,36 Prozent der Internetbenutzer lesen Blogs
  • 2,64 Prozent der Internetbenutzer sind Blogger (also von den 1.077.000 Menschen ab 14 Jahren, die für die Statistik berücksichtigt wurden)

Mehr Zahlen bei Mike Schnoor, Alexander Svensson und Hugo E. Martin.
[tags]studie,statistik[/tags]

Weiterlesen »

Risiko für bloggende Angestellte

Leben angestellte Blogger „gefährlich“? Kann bloggen zum Verlust des Arbeitsplatzes führen? Dieser Frage ist das Forrester Research im Auftrag der IT-Sicherheitsfirma Proofpoint nachgegangen.

Heraus kam, dass fast zehn Prozent der befragten 308 US-Unternehmen mit mehr als 1.000 Angestellten bereits einen Mitarbeiter aufgrund der Missachtung der Blogging- oder Message Board-Policy entlassen haben.

Trotz der vielleicht nicht verlässlichen Zahlen der Studie gilt – auch in Deutschland – für Berufsblogger: Vorsicht und aufpassen, was man aus dem Berufs- und Firmenalltag erzählt. Als Firmengeheimnisse ausgelegte Daten plaudert man schnell aus Versehen einmal aus.
[tags]recht,gesetz,beruf,statistik[/tags]

Weiterlesen »

Page Impression vor Ablösung?

Steht die Reichweitenmessung als Messinstrument für die Wichtigkeit von Websites vor einer Ablösung? Bisher galt die Page Impression als absolutes Maß, doch in Zeiten von Social Communities, Weblogs, Ajax-Anwendungen und Video-Nachrichten könnte die Zeit der PI bald vorbei sein. Denn das Web 2.0 braucht eine neue Messmethode.
Zumindest der Marktforscher Nielsen-Netratings bezieht die Verweildauer eines Nutzers jetzt stärker mit in die Gewichtung seiner Reichweitenmessungen mit ein.

Deutschlands höchste Instanz der offiziellen Reichweitenmessung, die IVW, sortiert derweil die von ihr gemessenen Websites in neue Kategorien ein. Ab August sollen Web 2.0-Angebote und Communities wie StudiVz oder XING in eine neue Übersicht aufgenommen werden, um redaktionelle Angebote von solche mit nutzergenerierten Inhalten zu trennen.
[tags]statistik,ivw[/tags]

Weiterlesen »

Blogwüste Deutschland?!

Das US-Amerikanische Magazin „BusinessWeek“ hat gemeinsam mit dem RSS-Serviceanbieter FeedBurner eine Liste der 30 Städte mit den meisten Bloggern zusammengestellt. Wenig überraschend: Keine einzige deutsche Stadt ist dabei.

  • 1-10: New York, Los Angeles, London, Chicago, Rom, Madrid, Toronto, Houston, Washington, Atlanta
  • 11-20: Paris, Seattle, San Diego, Austin, Minneapolis, Denver, San Francisco, Portland, Dallas, Singapore
  • 21-30: St. Louis, Jakarta, Brooklyn (New York; ???), Philadelphia, Mexico City, Montreal, Beijing (Peking), Moskau, Mumbai, Columbus

[tags]statistik,feedburner,welt[/tags]

Weiterlesen »

Ein Weblog sorgt für Wirbel

Philipp Klöckner schreibt ein Weblog. Das machen viele, nur Klöckner widmet sich in dem seinen dem Thema „Deutschland sucht den Superstar“. Und das zieht Fans an. So viele, dass „DSDS News“ das altehrwürdige BILDBlog rein besuchertechnisch überholt hat.
Und das sorgt für Wirbel in der Blog-Welt. Nicht nur, weil man – nachvollziehbar – mit ein wenig Kalkül einen großen Blog-Erfolg erzielen kann, sondern auch, weil man sich nun nach dem „nächsten großen Blog-Ding“ umschaut …
[tags]statistik,erfolg,dsds[/tags]

Weiterlesen »

Edelman und Technorati: Trennung

Die PR-Agentur Edelman und die Weblog-Suchmaschine Technorati verlängern ihre Zusammenarbeit nicht. Edelman war mit seiner ersten lokalen Technorati-Liste in die Kritik geraden, weil die Daten fehlerhaft waren.
Seltsam in dem nun zum Ende der Kooperation veröffentlichten Statement von Edelman-Blogger Steve Rubel ist der Satz: „The partnership was never set to renew.“ Und nicht nur Thomas Knüwer fragt sich nun:

Pardon? Man präsentiert mit viel Tammtamm im Oktober eine Liste, die nach viel Kritik von Rubel selbst als „beta“ bezeichnet wird. Und im Januar ist alles wieder vorbei und man hat nie gedacht, mal eine Entwicklung nachzuvollziehen um zu sehen, wie sich die einflussreichsten Blogs in einzelnen Ländern verändern?

Jens Schröder – der mit seinen Deutschen Blogcharts die Technorati-Daten auf privater Ebene wöchentlich auswertet und eine deutsche Top-Liste erstellt – fühlt sich bestätigt: „Der Versuch [war] von Beginn an zum Scheitern verurteilt, weil Edelman nur sehr halbherzig an die Sache heran gegangen ist„.
[tags]edelman,technorati,statistik[/tags]

Weiterlesen »