All posts under ProPublica

FollowUs – Die Netzpiloten-Tipps aus Blogs & Mags

Follow me
  • YAHOO heise: Yahoo-Gate: Offenbar wurden nicht nur Emails gescannt: Das Yahoo-Gate wird immer größer: Das von der Regierung beauftragte Scanning ist wahrscheinlich viel weitreichender als bislang bekannt geworden ist. Angeblich seien nicht nur E-Mails gescannt worden, sondern das gesamte Yahoo-Netzwerk. Nach Aussagen früherer Mitarbeiter wurde ein Kernel-Modul für Linux eingeschleust, welches alles von dem Unternehmen überwacht hat. Der US-Telekomkonzern Verizon, der Yahoo übernehmen möchte, will nun deutlich weniger für bezahlen.
  • SAMSUNG golem: Produktion des Galaxy Note 7 ist gestoppt: Mittlerweile haben sich sogar die als sicher geltenden Austauschgeräte des Galaxy Note 7 selbst entzündet. Aufgrund dieser Vorfälle wurde die Produktion des Smartphones nun gestoppt. Die ersten Mobilfunknetzbetreiber haben den Verkauf des Modells beendet und bieten auch keine Austauschgeräte mehr an. Seit Ende September sollten laut Samsung nur noch Geräte verfügbar sein, die von diesem Fehler nicht betroffen sind. Doch die nun bekannt gewordenen Fälle lassen Zweifel daran aufkommen.
  • VIRTUAL REALITY wareable: This is what virtual reality will (probably) look like in 2021: „In fünf Jahren wird die VR-Technik von heute prähistorisch anmuten“, eröffnete Chief Scientist Michael Abrash seinen Vortrag bei der Oculus-Connect-Konferenz 2016. Seiner Meinung nach wird die Auflösung höher, das Blickfeld erweitert, die Schärfentiefe variabel. „Wir erschaffen heute eine Plattform, die bestimmt, wie wir in den nächsten Jahrzehnten arbeiten, uns unterhalten und ganz einfach leben werden.“, fügte Abrash hinzu.
  • DATENSPEICHERUNG datenschutzbeauftragter-info: Was weiß Facebook über mich?: Durch die Datenweitergabe von WhatsApp an sein Mutterunternehmen Facebook kam wieder einmal die Frage auf, was Facebook eigentlich alles über einen weiß. Das soziale Netzwerk wertet jeden Klick, Like, Post und jedes hochgeladene Bild aus. All das um die Vorlieben und Interessen der User besser einschätzen und passende Werbeanzeigen einblenden zu können. Die investigativen Journalisten von ProPublica haben nun ein Tool entwickelt, durch das man sich anschauen kann, was Facebook alles an Daten über einen speichert. “What Facebook Thinks You Like“ lautet der Name des Plug-Ins für Chrome.
  • TWITTER bloomberg: Twitter Seeks New Path After Potential Bidders Said to Back Off: Vor einigen Wochen waren mehrere Interessenten für eine Twitter-Übernahme im Gespräch. Nun ist laut Bloomberg nach Disney und Google auch Salesforce abgesprungen und hat kein Angebot gemacht. Das soziale Netzwerk sucht jetzt nach einem Plan B, das Management möchte bis Monatsende eine Lösung finden. Möglich wäre der Verkauf von einzelnen Geschäftsbereichen. Außerdem möchte sich Twitter auf Live-Videos konzentrieren und damit mehr Benutzer ansprechen.
Weiterlesen »

Algorithmen können fairer sein als Menschen

code(image by geralt [CC0 Public Domain] via Pixabay)

Amazon hat kürzlich damit angefangen, Lieferungen am selben Tag in ausgewählten großstädtischen Gegenden anzubieten. Das mag für viele Kunden gut sein, doch die Markteinführung zeigt auch, wie computerisierte Entscheidungsfindung eine hohes Maß an Diskriminierung fördern kann.

Sinnvollerweise begann die Firma mit ihrem Service in Gegenden, in denen die Lieferkosten am niedrigsten waren, indem sie die Postleitzahlen von dicht besiedelten Orten sowie die Anzahl existierender Amazonkunden ermittelten, deren Einkommensniveau hoch genug war, um regelmäßig Produkte, für die Lieferung am selben Tag verfügbar waren, zu erwerben. Die Firma gab eine Internetseite an, auf der Kunden ihre Postleitzahl eingeben konnten, um zu sehen, ob eine Lieferung am selben Tag bei ihnen möglich wäre. Enthüllungsjournalisten bei den Bloomberg News nutzten diese Seite zur Erstellung einer Karte, die die Gegenden mit dem Amazon-Lieferangebot am selben Tag zeigt.

Die Bloomberg-Analyse zeigte, dass viele ärmere, städtische Gegenden von diesem Service ausgeschlossen waren, während in wohlhabenderen Nachbarschaften dieser Service angeboten wurde. Viele dieser ausgeschlossenen armen Gegenden wurden vorwiegend von Minderheiten bewohnt. Beispielsweise wurde in Boston das komplette Stadtgebiet abgedeckt – bis auf den Bezirk Roxbury. Der Service deckte in New York City beinahe sämtliche Bezirke ab, während die Bronx außen vor blieb. In Chicago wurde die verarmte South Side ausgelassen, während die wohlhabenderen nördlichen und westlichen Vorstädte mit einbezogen wurden.

Man ist versucht, zu denken, dass datenbasierte Entscheidungen unvoreingenommen sind. Jedoch zeigen Forschung und wissenschaftliche Diskussionen nach und nach, dass Unfairness und Diskriminierung bestehen bleiben. In meinem Onlinekurs zu Datenethik lernen die Studenten, dass Algorithmen diskriminieren können. Allerdings gibt es einen Silberstreif am Horizont: Wie auch die Bloomberg-Studie zeigt, kann es die Tatsache, die Entscheidungsfindung auf Daten zu gründen, auch einfacher machen, aufkommende Vorurteile zu entdecken.

Voreingenommenheit kann unbeabsichtigt sein

Unfaire Szenarios, wie bei der Lieferpolitik von Amazon, können aus vielen Gründen entstehen, inklusive versteckter Verzerrungen – beispielsweise der Annahme, dass die Bevölkerung einheitlich über die Stadt verteilt ist. Die Entwickler von Algorithmen haben wahrscheinlich nicht die Absicht, zu diskriminieren, und merken es möglicherweise gar nicht, dass sich ein Problem eingeschlichen hat.

Amazon erklärte Bloomberg, dass man keine diskriminierenden Absichten verfolgte, und alles spricht dafür, dass diese Aussage wahr ist. Als Antwort auf den Bloomberg-Bericht haben Stadtbeamte und andere Politiker Amazon dazu aufgerufen, dieses Problem zu beheben. Die Firma reagierte schnell darauf und fügte die ehemals ausgeschlossenen ärmeren städtischen Postleitzahlen zu ihren vom Service abgedeckten Gegenden hinzu.

Eine ähnliche Frage hat sich bei Uber gestellt. Hier sah es zunächst so aus, dass in Gegenden, die eher von einer weißen Bevölkerung bewohnt wurde, ein  besserer Service angeboten wurde. Es ist wahrscheinlich, dass noch mehr Einzelhandel- und Serviceindustriebeispiele in Zukunft gefunden werden, die unabsichtlich durch Algorithmen diskriminieren.

Wird von den Algorithmen zu viel verlangt?

Wir sollten einen Moment innehalten, um zu prüfen, ob wir übermäßige Ansprüche an die Entscheidungen von Algorithmen stellen. Firmen, die stationär arbeiten, treffen ständig standortbezogene Entscheidungen und beziehen dabei Kriterien ein, die sich nicht allzu sehr von denen Amazons unterscheiden. Solche Filialen versuchen, Standorte zu finden, die für eine große Menge potenzieller Kunden mit Geld zum Ausgeben in Frage kommen.

Konsequenterweise entscheiden sich nur wenige Geschäfte dafür, sich in ärmeren innerstädtischen Nachbarschaften niederzulassen. Vor allem im Zusammenhang mit Lebensmittelgeschäften ist dieses Phänomen ausführlich erforscht worden, und der Term „food desert“ („Lebensmittelwüste“) wird benutzt, um städtische Gegenden zu beschreiben, in denen die Einwohner keinen geeigneten Zugang zu frischen Lebensmitteln haben. Diese Standortverzerrung ist weniger gut untersucht, wenn es zu Einzelhandelsgeschäften im Allgemeinen kommt.

Als ein bezeichnendes Beispiel schaute ich mir die 55 Standorte von Target, einer großen Einzelhandelskette, in Michigan an. Als ich jede Postleitzahl in Michigan danach sortierte, ob das Durchschnittseinkommen verglichen mit dem landesweiten Durchschnittseinkommen hier in der unteren oder oberen Hälfte lag, fand ich heraus, dass nur 16 der Targetläden (29 Prozent) in den Gegenden mit Postleitzahlen aus der unteren Einkommenshälfte lokalisiert waren. Mehr als zweimal so viele, 39 Läden, befanden sich in den Gegenden mit den Postleitzahlen der reicheren Hälfte.

Diskriminierung identifizieren

Darüber hinaus findet sich keine einzige Target-Filiale in Detroit, während sich in den reicheren Vorstädten von Detroit diverse Läden befinden. Trotzdem gab es noch keinen öffentlichen Aufschrei mit dem Vorwurf, dass Target durch seine Niederlassungsentscheidungen arme Menschen diskriminiert. Es gibt zwei Hauptgründe, warum die Sorge über Amazon gerechtfertigt ist: Rigidität und Dominanz.

Rigidität hat sowohl mit dem Entscheidungsfindungsprozess des Online-Einzelhändlers als auch mit dem Ergebnis zu tun. Amazon entscheidet, welche Postleitzahlgegenden in das Servicegebiet fallen. Wenn ein Kunde nur eine Straße von der Grenze, die Amazon gesetzt hat, entfernt wohnt, liegt er außerhalb der Servicegegend und kann wenig dagegen tun. Im Gegensatz dazu kann jemand, der in einer Postleitzahlgegend ohne Target-Filiale lebt, dennoch bei Target einkaufen – auch wenn er länger braucht, um dorthin zu kommen.

Es ist außerdem wichtig, wie dominant ein Einzelhändler in den Köpfen der Verbraucher ist. Während Target nur einer von vielen Sportartikelverkäufern ist, genießt Amazon als Interneteinzelhändler Marktdominanz und zieht daher mehr Aufmerksamkeit auf sich. Solch eine Dominanz ist charakteristisch für die heutigen Internetgeschäfte, die nach dem Motto „The Winner takes it all“ funktionieren.

Während ihre Rigidität und Dominanz unsere Sorge über Onlinegeschäfte vergrößern mögen, so helfen sie uns doch auch, ihre Diskrimination besser zu entdecken als bei stationären Geschäften. Bei einer traditionellen Ladenkette müssen wir schätzen, wie lang ein Anfahrtsweg für den Kunden maximal sein darf. Wir müssen uns außerdem des Zeitfaktors bewusst sein: Fünf Meilen zur nächsten Autobahnausfahrt ist nicht das gleiche wie fünf Meilen durch vollgestopfte Straßen in Richtung der anderen Seite der Stadt. Außerdem kann die Anreisezeit selbst in Abhängigkeit von der Tageszeit stark variieren. Nachdem man identifiziert hat, in welchen Gegenden ein Geschäft wahrscheinlich seinen Service anbietet, werden diese Gegenden nicht eins zu eins deckungsgleich mit den geographischen Einheiten sein, für die uns Statistiken über Rasse und Einkommen vorliegen. Zusammengefasst ist die Analyse chaotisch und bedarf eines großen Aufwands.

Im Gegensatz dazu haben Journalisten bei Bloomberg wohl nur wenige Stunden gebraucht, um eine Karte mit der Servicegegend Amazons zu erstellen und diese mit dem Einkommen oder der Rasse in Beziehung zu setzen. Wenn Amazon das betriebsintern vollzogen hätte, hätten sie dieselbe Analyse in nur wenigen Minuten durchführen können – und sie hätten vielleicht die Probleme gesehen und schon vor der Einführung des Services der Lieferung am selben Tag behoben.

Wie vergleichen Menschen?

Lassen Sie uns einen Blick auf ein ganz anderes Beispiel werfen, um zu sehen, wie die gleichen Punkte auf viele Dinge zutreffen. ProPublica hat eine exzellente Analyse von Rassendiskriminierung durch einen Algorithmus, der die Wahrscheinlichkeit, dass ein Krimineller wieder das Gesetz bricht voraussagt, veröffentlicht. Dieser Algorithmus berücksichtigt Dutzende Faktoren und kalkuliert eine Wahrscheinlichkeitseinschätzung. ProPublicas Analyse fand signifikante systematische Rassenverzerrungen, und das, obwohl Rasse nicht einmal unter den spezifischen berücksichtigten Faktoren war.

Ohne den Algorithmus würde ein menschlicher Richter eine ähnliche Einschätzung abgeben, als Teil einer Strafzumessung oder Bewährungsentscheidung. Die menschliche Entscheidung würde vielleicht ein umfassenderes Set von Faktoren berücksichtigen, so wie beispielsweise das Auftreten des Kriminellen vor Gericht. Aber wir wissen aus psychologischen Studien, dass menschliche Entscheidungsfindung voll von Verzerrung und Vorurteilen ist, selbst wenn wir versuchen, möglichst fair zu sein.

Jegliche Fehler, die aus den Verzerrungen in Entscheidungen menschlicher Richter entstehen, sind aber voraussichtlich bei verschiedenen Richtern unterschiedlich bewertet worden – und sogar bei verschiedenen Entscheidungen, die von ein und demselben Richter getroffen werden. Insgesamt mag es Rassendiskriminierung durch unterbewusste Vorurteile geben, dies aber endgültig festzustellen, ist schwierig. Eine amerikanische Studie des Justizministeriums fand deutliche Hinweise darauf, dass bei der Verurteilung weißer und schwarzer Häftlinge Unterschiede bestehen, konnte aber nicht klar bestimmen, ob die Rasse selbst ein Faktor bei diesen Entscheidungen war.

Im Gegensatz dazu wird der Algorithmus, den ProPublica überprüft hat, bei tausenden von Fällen über viele Staaten hinweg genutzt. Seine Rigidität und das hohe Volumen erleichtern die Aufgabe, eine mögliche Diskriminierung festzustellen – und kann Wege bieten, das Problem effizient zu beheben.

Das Nutzen von Informationstechnologie scheint die Unterschiede und Daten deutlicher und leichter verfügbar zu machen. Was gestern noch unter den Teppich gekehrt werden konnte, schreit heute nach Aufmerksamkeit. Während wir immer mehr Nutzen für datengelenkte Algorithmen finden, ist es noch nicht üblich, deren Fairness zu analysieren, vor allem vor der Einführung eines neuen, datenbasierten Services. Um dies zu erreichen, muss ein langer Weg des Messens und Verbesserns der Fairness dieser immer wichtiger werdenden computerisierten Kalkulationen gegangen werden.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image ”Algorithmen” by geralt (CC Public Domain)


The Conversation

Weiterlesen »

5 Lesetipps für den 11. Januar

In unseren Lesetipps geht es heute um die deutsche Rape Culture, Verschlüsselung, Nachrichten fürs Darknet, die Störerhaftung und öffentliches WLAN. Ergänzungen erwünscht.

  • RAPE CULTURE Vice: Rape Culture in Germany Is Not an Imported Phenomenon: Die Debatte um die schlimmen Ereignisse in der Silvesternacht in verschiedenen deutschen Städten, vor allem in Köln, zeigt an sich schon verschiedene gesellschaftliche Probleme auf. Eine vernünftige Trennlinie in der Debatte, die auch gesellschaftliche Ursachen für Sexismus berücksichtigt, ohne dabei nur rassistisch motiviert zu sein, findet sich selten. Dabei ist beides, sowohl Sexismus als auch Rassismus, ein sehr deutsches Problem, das leider tief in unserer Gesellschaft verankert ist. Weder ist Sexismus „importiert“, noch Rassismus überwunden.

  • VERSCHLÜSSELUNG The Dialy Dot: Encryption didn’t save El Chapo: Sicherheitsfanatiker argumentieren gerne, dass man doch lieber auf Bürgerrechte verzichten sollte, um Kriminelle und Terroristen aufzuspüren, die sich hinter Technologien zur Verschlüsselung und Anonymisierung verstecken. Der mexikanische Drogenboss El Chapo kannte und nutzte diese Technologien, ganz wie es von den Sicherheitsfanatikern behauptet wird. Am Ende hat den auf der Flucht befindlichen El Chapo aber nicht die Verletzung der Bürgerrechte überführt, sondern klassische Ermittlungsarbeit, die nicht versucht technische Stärken zu brechen, sondern menschliche Fehler auszunutzen.

  • DARKNET Wired: ProPublica Launches the Dark Web’s First Major News Site: Das Darknet ist im Grunde ein Peer-to-Peer-Overlay-Netzwerk, dessen Teilnehmer anonym untereinander in Verbindungen stehen und sozusagen ein Internetnetz neben dem uns bekannten World Wide Web bilden. Es gibt es, auch wenn nicht unbedingt weiß, wie es genau aussieht oder wie groß es ist. ProPublica bietet jetzt als erstes Medienunternehmen einen Nachrichtendienst für das Darknet an. So können Nutzer anonym Informationen konsumieren und Anonymisierungsdienste zeigen, dass sie mehr machen als Kriminelle zu schützen. Sie wahren auch unser Recht auf anonyme Kommunikation.

  • STÖRERHAFTUNG Süddeutsche.de: Drahtlose Netze – Gestörte Gesetzgebung: Das deutsche Rechtskonstrukt der Störerhaftung, das Anbieter eines WLANs in Anspruch nehmen kann, wenn Störer eine Schutzrechtsverletzung begehen, wird bestimmt kein Exportschlager. Der Sinn dahinter ist auch sehr schwer zu erklären, einfach überall anders sieht man den Nutzen freien Zugang zum Netz zu schaffen. Trotzdem tut sich gerade die deutsche Bundesregierung sehr schwer damit, die Störerhaftung abzuschaffen. Und die gesetzliche Neugestaltung entpuppt sich stets als eine Verschlimmbesserung. Die Leidtragenden sind weiterhin die Bibliotheken, Museen und Cafés.

  • FREE WIFI Upworthy: New York City finally figured out what to do with all its old phone booths: Wenn man keine Störerhaftung hat, kann man sich um wirklich wesentliche Aufgaben kümmern. Besipielsweise die Umsetzung der UN-Erklärung von 2011, die den Zugang zum Internet als Menschenrecht definiert. Die Stadt New York City versucht es und hat 2012 ein Projekt ausgeschrieben, dass die kaum noch genutzten Telefonzellen der Stadt in WLAN-Hotspots umwandelt. Drei Unternehmen installieren bis zum Sommer 2016 rund 500 Hotspots, perspektivisch werden es einmal 7.500, die eine Geschwindigkeit von 1.000 MBit/s anbieten werden.

CHIEF-EDITOR’S NOTE: Wenn Ihnen unsere Arbeit etwas wert ist, zeigen Sie es uns bitte auf Flattr oder indem Sie unsere Reichweite auf Twitter, Facebook, Google+, Soundcloud, Slideshare, YouTube und/oder Instagram erhöhen. Vielen Dank. – Tobias Schwarz

Nutze Netzpiloten 1-Klick: Mit nur einem Klick werden dir bequem alle 40 Sekunden die hier besprochenen Seiten „vorgeblättert“ START.

Weiterlesen »

Stephen Engelberg: „Enthüllungsjournalismus ist ein öffentliches Gut“

Eine Weltreise in die Zukunft der Medien. Sieben Städte. Zwei Reporter. Tolle Geschichten.

Stephen Engelberg: “Enthüllungsjournalismus ist ein öffentliches Gut”

Der klassische Journalismus verlagert sich ins Digitale. Aber was heißt das eigentlich? Wie werden künftig Geschichten erzählt? Wie werden Nachrichten recherchiert? Wie wird in der digitalen Welt mit Journalismus Geld verdient? Diesen Fragen gehen die Hamburger Journalistinnen Amrai Coen und Caterina Lobenstein in einer fünfwöchigen Weltreise nach. Heute besuchen die Beiden Stephen Engelberg von ProPublica in New York.

Weiterlesen »

Weiterlesen »