All posts under Daten

US-Inkubator: Mit Wagniskapital zum Wahlsieg

andriano_cz - adobe stock com

Die Diskussion darüber, welche und wieviele Daten die fragwürdige Firma Cambridge Analytica bei Facebook abgegriffen hat, hat auch die deutsche Öffentlichkeit für das Thema „politisches Microtargeting“ sensibilisiert. Dabei sind sich ernstzunehmende Experten einigermaßen einig, dass durch die psychografischen Verfahren der Daten-Analytiker kaum die Manipulation eines willfährigen Wahlvolks durch Donald Trump ins Werk gesetzt wurde. Doch wie Trumps Digitalkampagne vor allem Facebook für seine Zwecke genutzt hat, ermöglichte insbesondere einen effizienten Einsatz seiner finanziellen Ressourcen.

So gelang es, die seit Obama für den datengestützten Wahlkampf wesentlich besser aufgestellten Demokraten, gewissermaßen auf eigenem Terrain zu schlagen. Diese Schmach sitzt bei liberalen US-Techies nun tief und führte bald zur Forderung, die Vorherrschaft auf diesem Gebiet zurückzuerobern. Die selbstkritische Analyse ist dabei wesentlich weitergehender als eine Konzentration auf den Kandidaten Trump nahelegen würde. Dank der Finanzierung durch wohlhabende Sympathisanten ist ein ganzes Netzwerk von Firmen entstanden. Diese können republikanischen Interessenten für alle Aspekte der Kampagnenführung eigene Tools anbieten. Demgegenüber hat die Demokratische Partei sich auf die Präsidentschaftswahlkämpfe fokussiert und dabei die Wahlen sowohl zwischen als auch unterhalb der nationalen Ebene sträflich vernachlässigt.

Auf höheres Niveau heben

In diese Lücke wollen Veteranen aus den Obama-Kampagnen und der progressiven politischen Startup-Szene mittels Wagniskapital stoßen. Unter dem Titel “Higher Ground Labs” investieren sie in einschlägige Startups, betreiben ein betreffendes Akzelerator-Programm und unterstützen Unternehmer-Persönlichkeiten mit Stipendien. Gerade wurde mit 13 Startups eine zweite Gruppe annonciert, die nun durch das Wagniskapital eine viermonatige Förderung erhält. Damit könnten die hier vertretenen Anbieter sogar noch für die Midterm Elections im November 2018 relevant werden. Bei denen wird ein Drittel der Senatoren und das gesamte Repräsentantenhaus neu gewählt.

Vieles von dem, was in der aktuellen Auswahl präsent ist, hört sich noch nach Zukunftsmusik an. Es wirkt gerade aus der Perspektive der deutschen Parteiendemokratie befremdlich. Einerseits geht es dabei um Werkzeuge für die Ansprache von Wählern durch freiwillige Helfer auf diversen Kanälen. Andererseits aber auch um die Nutzung Künstlicher Intelligenz für die Identifizierung affiner Zielgruppen. Der Datafizierung des politischen Wettbewerbs scheinen dabei keine Grenzen gesetzt zu sein.

Dies hört sich am Beispiel einer Datenbank-Anwendung zur Gegnerbeobachtung dann doch nach dem Kauderwelsch an, mit dem auch Cambridge Analytica seine Kunden ködert: “Factba.se lets you own your opposition and live inside their decision curve. It is a transparency engine, allowing any PAC, campaign, organization, or company efficiently track and search every word a person has ever said, publicly or online, in real time. This lets you immediately identify discrepancies, changes in position, tonal shifts and areas of weakness. Every word spoken by your opponent makes your campaign stronger and the opponent weaker.

In den Schutz der Stimmabgabe investieren

Interessant ist schließlich, dass nicht nur Prozesse von denen Kampagnen direkt profitieren kommerziell professionalisiert werden. Auch andere Aspekte der Wahl, die eigentlich von staatlichen Stellen gewährleistet werden sollten werden professionalisiert. Wähler konkurrierender Kandidaten von der Wahrnehmung des Wahlrechts anzuhalten gehört zum politischen Geschäft. In diesem Umfeld ist aber auch der Schutz der Stimmenabgabe eine Dienstleistung, die für Kampagnen so relevant sein kann, dass eine Aufforderung plausibel erscheint, wie sie die “Voter Protection Partners” formulieren: “Investing in Voters’ Last Mile”.


andriano_cz/stock.adobe.com

Weiterlesen »

FollowUs – Die Netzpiloten-Tipps aus Blogs & Mags

Follow me
  • UKW-RADIO Welt: Am Mittwoch droht das Aus für viele UKW-Sender: Ein Streit zwischen Sendernetzen und Betreibern von UKW-Antennen, könnte dazu führen, dass der Weg zur Arbeit im Auto in Zukunft ziemlich leise verlaufen wird. Am kommenden Mittwoch droht auf Grund der Streitereien zwischen den technischen Dienstleistern die Abschaltung des Sendebetriebs. Anstelle von Nachrichten und Musik würde man dann lediglich ein Rauschen hören. Der Media-Broadcast-Chef Wolfgang Breuer erklärte, dass dann bis zu zehn Millionen Hörer von der Abschaltung der UKW-Radiosender betroffen sein könnten. Die Gründe für die drohende Abschaltung sind unterschiedliche Vorstellungen von Preisen für die Nutzung von UKW-Antennen in Deutschland. Media Broadcast erklärte sich bereit die Verbreitung der Sender bis Ende Juni weiterzuführen, allerdings nur, wenn eine Beauftragung der Radiosender vorliegt. Wer sich bis Montagabend nicht gemeldet hat, wird dann am Mittwoch abgeschaltet.

  • FACEBOOK Heise: Facebook weiß nicht, welche Daten Cambridge Analytica besitzt: Welche Nutzerdaten liegen der umstrittenen Firma Cambridge Analytica eigentlich vor? Selbst Facebook kann dies nach eigenen Angaben nicht einmal genau beantworten. Laut Facebook könnten die Daten weltweit von bis zu 87 Millionen Nutzern betroffen sein. In Deutschland sind darunter knapp 310.000 Facebook-Nutzer. Hierzulande zeigen sich die Nutzer durch den Facebook-Datenskandal ziemlich verunsichert. Eine Umfrage des ARD-DeutschlandTrends zeigt beispielsweise, dass 61 Prozent der Internetnutzer große Sorge vor einem persönlichen Datenmissbrauch haben. Zudem ist laut der Umfrage das Vertrauen in die Plattform gering. Der Kartellamtspräsident Andreas Mundt ist der Meinung, dass Facebook seine Marktmacht bei der Datennutzung missbraucht hat.

  • AUTONOMES FAHREN ngin-mobility: Tech-Konzern ZF bringt selbstfahrenden Autos das Hören bei: Haben unsere Autos bald Ohren? Autonom fahrende Autos begeistern durch ihre Technik, aber da geht sogar noch mehr. Der Automobil-Konzern ZF möchte in einem Pilotprojekt den Autos nun das Hören beibringen. Hinter dieser Technik versteckt sich das Erkennen von Geräuschen wie beispielsweise dem Martinshorn eines Einsatzfahrzeuges. Mit einer Displayanzeige wird der Autofahrer hierbei auf das sich nähernde Fahrzeug aufmerksam gemacht und darüber hinaus darauf hingewiesen, aus welcher Richtung es kommt. Zudem erhält der Fahrer eine Empfehlung dafür, wie er sich im nächsten Schritt verhalten sollte. Unter dem Namen Sound.AI soll die Neuentwicklung des Unternehmens in Zukunft nicht nur diese, sondern alle Geräusche erkennen können.

  • IPHONE Focus: Apple-Pläne durchgesickert: iPhones sollen sich in Zukunft massiv verändern: Neues Konzept für Display und Bedienung – derzeit soll Apple an Neuerungen für die künftige iPhone-Generation arbeiten. Allem Anschein nach wird es ein neues Bedienkonzept geben und das Display könnte künftig gebogen sein. Hiermit möchte sich Apple mit seinen iPhones von anderen Smartphones auf dem Markt abheben. Laut einem Bericht soll die Gestensteuerung es erlauben, das Display ohne Berührung zu bedienen. Hierbei soll der Finger des Nutzers erkannt werden, auch wenn dieser den Display gar nicht berührt, sondern einfach nur darüber schwebt. Sollte es diese Funktion in Zukunft in der neuen iPhone-Generation geben, dann allerdings frühestens in zwei Jahren, ebenso wie die Curved Displays.

  • APPLE Chip: Neue Details zum nächsten Mac Pro: Er kommt nicht mehr in diesem Jahr: 2009 wurde Apples Mac Pro eingeführt aber seitdem nur minimal aktualisiert. Für Profis ist dieser durch die wenigen Erweiterungen und Aufrüstungen eher unbrauchbar geworden. Apple hat schon im vergangenen Jahr bekanntgegeben, dass es endlich einen Nachfolger geben wird. Doch hier wurden die Informationen zum Preis, Veröffentlichung oder andere Pläne eher vage gehalten. Zumindest hat Apple jetzt verraten, dass das neue Mac Pro nicht mehr in diesem, sondern im nächsten Jahr erscheinen wird. Mit weiteren Informationen geht der Tech-Riese nach wie vor sparsam um.

Weiterlesen »

Regulierungskunst im monopolistischen Datenkapitalismus #Techlash

Kolumnen_Gunnar_1

Demokratie, Daten und schmutzige Tricks, so wird derzeitig über die Techkonzerne im Silicon Valley debattiert. „Sie sind keine Opfer. Sie sind Komplizen: Facebook nach Datenleck-Skandal im Kreuzfeuer“, titelt die absatzwirtschaft. „Durcheinander bei Facebook nach den Whistleblower-Enthüllungen: Die belegen, dass das Social Network zwei Jahre lang ein Datenleck ignorierte, das die Donald Trump nahestehende Datenanalysefirma Cambridge Analytica für ihre Zwecke ausnutzte. Facebook sperrt das Konto von Whistleblower Christopher Wylie, während Edward Snowden und andere Internetexperten das Social Network anzählen.

Der Umgang mit der öffentlichen Kritik am Social Network, die seit der US-Wahl von Tag zu Tag größer geworden und inzwischen zu einem Orkan angewachsen ist, trägt längst die Züge eines klassischen Kommunikationsversagens. Und der Gegenwind, den Facebook selbst in der Tech-Szene erntet, wird heftiger. Zu bewundern etwa beim Digitalfestival South by Southwest (SXSW) in Austin. Da wertete man den Auftritt von offiziellen Vertretern des Zuckerberg-Konzerns als lebendig gewordene Pressemitteilungen – man könnte es auch Chatbot-PR nennen.

BlaBla-Kommunikation wird Mark Zuckerberg nicht retten

So entwickelt sich das halt, wenn man eine fast schon stalinistisch anmutende Politik in der Unternehmenskommunikation betreibt. Öffentliche Auftritte im Teleprompter-Modus – fernab von offener und direkter Dialogfähigkeit. Facebook ist ausschließlich als Sender unterwegs und pflegt nicht die Interaktion mit den Nutzern. Das, was Zuckerberg anderen empfiehlt, nämlich maximale Transparenz, praktiziert der Silicon Valley-Gigant intern überhaupt nicht. Die essen nicht ihr eigenes Hundefutter. Wer ausschließlich im weltweit führenden und absolutistisch gesteuerten Blabla-Habitus unterwegs ist, versagt in der Krisenkommunikation – ähnliches gilt übrigens für die Top-Leute von Google.

Kritisches Denken über KI-Systeme

Diese Debatte unter dem Schlagwort #Techlash wird so schnell nicht weggehen. Es geht um die Frage, ob die Netzfirmen eine angemessene Verantwortung für die Folgen ihrer Technologie übernehmen oder im Zuge ihres rigorosen Wachstumskurses die Kontrolle über Bord geworfen haben. So fordert die Zukunftsforscherin Amy Webb einen kritischen Umgang mit Daten, die in Systeme der Künstlichen Intelligenz eingespeist werden. Die seien schon dermaßen vorkategorisiert, dass die Maschinen alles andere als neutral seien.

Sie haben eingebaute Schwächen, die sie anfällig für Fehlentscheidungen machen, ihrem Einsatz Grenzen setzen und uns Menschen in die Pflicht nehmen, ihr algorithmisches Wirken stets kritisch zu hinterfragen. „Verblüffend dabei ist, wie menschlich die Schwächen von KI-Systemen wirken. So tendieren auch neuronale Netze zu Vorurteilen, die nicht vom Entwickler einprogrammiert wurden, sondern sich implizit aus den Trainingsdaten ergeben können. Wenn zum Beispiel eine KI-gestützte Kreditvergabe aufgrund der Trainingsdaten zu erkennen meint, dass eine ethnische Minderheit, Männer über 53,8 Jahre oder Radfahrer mit gelben Helmen und 8-Gang-Schaltung Kredite weniger zuverlässig zurückzahlen, wird sie es bei ihrem Scoring-Modell berücksichtigen. Dabei ist es egal ob dies illegal oder vollkommen unsinnig ist. Das erlernte Vorurteil ist umso gefährlicher, weil die Maschine es nicht offenlegt“, schreibt Thomas Ramge in seinem im Reclam Verlag erschienenen neuen Buch „Mensch und Maschine – Wie Künstliche Intelligenz und Roboter unser Leben verändern“.

Erkennen wir Vorurteile in Maschinen?

Bei Verdacht auf Rassismus wissen wir in der Regel, worauf wir achten müssen und können es bewusst korrigieren. „Dieses Problem wurde bei einem KI-System identiziert, das US-Richter bei ihrer Entscheidung unterstützt, ob sie Strafgefangene vorzeitig aus der Haft entlassen können oder die Rückfallgefahr zu hoch ist. Das System benachteiligt, so der Verdacht, Afro-Amerikaner und Hispanics. So wurde es zu einem Lehrbuchbeispiel für KI-Systeme mit antrainierten Vorurteilen, oder wie Verhaltensökonomen sagen: mit Bias. Viele Richter nutzen es deshalb nicht mehr. Bei vielen künftigen Anwendungen könnten wir Vorurteile von Maschinen zu spät oder gar nicht erkennen“, warnt Ramge.

Es gibt mittlerweile viele Stimmen, die sich bei KI-Systemen eine Art eingebaute Begründungsfunktion wünschen. „Wenn die Maschine eine bestimmte Chemotherapie bei einem bestimmten Patienten empfiehlt, darf es seinen Ratschlag nicht einfach ausspucken wie ein allwissendes Orakel. Es muss dem behandelnden Arzt gegenüber begründen, wie es zu diesem Ergebnis als beste Lösung des Problems gekommen ist“, schreibt Ramge.

Solche Stimmen zur Plausibilität gibt es bereits in Ansätzen, aber sie treffen auf ein grundsätzliches Problem. Die Lernvorgänge in neuronalen Netzwerken sind das Ergebnis von Millionen und Abermillionen Verknüpfungen. Von denen beeinflusst jede ein klein wenig das Ergebnis. Laut Range, sei die Entscheidungsfindung daher so kompliziert, dass die Maschine dem Menschen nicht erklären oder zeigen kann, wie sie zu der Entscheidung „kreditwürdig“ oder „nicht-kreditwürdig“ gekommen ist.

Wo kommen die Daten her?

Wir müssen wohl alles kritisch hinterfragen, was die Maschine uns sagt. Amy Webb fordert daher mehr Transparenz von Firmen, die KI-Systeme einsetzen. Es müsse klar gesagt werden, welche Forscher beteiligt sind, nach welchen Annahmen gearbeitet wird, wo die Daten herkommen und mit welchen Gewichtungen gerechnet wird. Letztlich komme man um eine schärfere Regulierung nicht herum.

Je besser Maschinen Entscheidungen treffen können, desto intensiver müssen wir Menschen uns darüber Gedanken machen, welche Entscheidungen wir an Künstliche Intelligenz delegieren wollen. Denn auch im Zeitalter der Automatisierung von Entscheidungen durch KI gilt: Menschen müssen mit ihren Entscheidungen glücklich werden, Computer nicht“, so Ramge. Und er verweist auf ein weiteres Problem. Die Feedbackschleifen der KI-Systeme, die Facebook und Co. einsetzen, verschärfen den Datenmonopolismus.

Feedback-Daten-Monopolismus

Eine entscheidende und oft übersehene Rolle bei lernenden Computersystemen kommt den Feedback-Daten zu. „Je öfter und genauer ein lernendes System Rückmeldung erhält, ob es die richtige Telefonnummer herausgesucht, tatsächlich die beste Strecke berechnet oder eine Hautkrankheit auf einem Foto korrekt diagnostiziert hat, desto besser und schneller lernt es“, weiß Ramge. Rückkopplung sei der technische Kern jeder automatischen Steuerung von Maschinen. Mit Feedback-Daten optimiere Amazon seine Empfehlungsalgorithmen und Facebook die Zusammenstellung der Posts, die ein Nutzer auf seiner Timeline sieht. Die Summe aller Feedback-Daten erziele im Zeitalter der Künstlichen Intelligenz eine vergleichbare Wirkung, wie der Skaleneffekt für die Massenproduktion des Industriezeitalters und der Netzwerkeffekt für die digitale Wirtschaft der vergangenen 25 Jahre. Der Netzwerkeffekt führte die digitalen Plattformen zu Oligopolgröße.

Netzwerkeffekt heißt: Mit jedem neuen Teilnehmer werde eine Plattform attraktiver für alle, die sie nutzen. Der Feedbackeffekt der Künstlichen Intelligenz wiederum führe dazu, dass Systeme immer smarter werden. Dies hängt allerdings damit zusammen, wie viele Menschen oder Maschinen Feedback-Daten liefern. „Innovative Newcomer werden gegen Platzhirsche der KI-getriebenen Wirtschaft nur noch in Ausnahmefällen eine Chance haben. Sich selbst verbessernde Technologie hebelt Wettbewerb aus“, betont der brandeins-Autor. Menschen müssten eine juristische Antwort auf dieses technische Problem finden.

Pflicht zur Daten-Teilung

Seit Karl Marx wissen wir, dass im Kapitalismus die Tendenz zur Marktkonzentration und Kapitalakkumulation dominiert. Im Zeitalter von Wissen und Information kamen die Netzwerkeffekte immer stärker ins Spiel. In den vergangenen zwanzig Jahren erschufen Microsoft, Apple, Amazon, Google, Facebook auf den digitalen Märkten der westlichen Welt Oligopolstrukturen. Zum Teil sogar Quasimonopole. Das sei bereits heute höchst problematisch. Allerdings wird es dann so richtig brandgefährlich für den Wettbewerb, wenn lernende Maschinen mit Feedback-Daten immer stärker zur Wertschöpfung beitragen.

„Künstliche Intelligenz schaltet der Monopolisierung den Turbo ein, weil sich die Produkte und Dienstleistungen mit eingebauter KI mithilfe von Feedback-Daten selbst verbessern. Je öfter sie genutzt werden, je mehr Marktanteile sie erobern, desto schwerer wird ihr Vorsprung aufzuholen sein. Viktor Mayer-Schönberger, Professor für Internet Governance and Regulation an der Oxford University, und ich haben in unserem Buch ‚Das Digital’ deshalb die Einführung einer progressiven Daten-Sharing-Pflicht für die Goliaths der Datenwirtschaft gefordert“, führt Ramge im lesenswerten Reclam-Band aus. Wenn digitale Unternehmen einen bestimmten Marktanteil überschreiten, müssten sie einen Teil ihrer Daten mit ihren Wettbewerbern teilen. Dies allerdings natürlich unter Beachtung des Datenschutzes und damit meist anonymisiert. Bislang gibt es wettbewerbspolitisch noch nicht viel auf diesem Sektor.

Diskutiert das Bundeskartellamt über einen drohenden Feedback-Daten-Monopolismus? Da ist dem Notiz-Amt nichts bekannt. Selbst bei den Netzwerkeffekten des Plattform-Kapitalismus haben die Wettbewerbshüter ordnungspolitisch bislang wenig zu bieten. Sie haben auch etwas spät mit dem Nachdenken in ihrem 2015 gegründeten Think Tank angefangen.

Kommt zur IHK-Köln – wir reden über #Plattformökonomie #digicgn

Kennt eigentlich einer diese Denkfabrik? Ramge und Mayer-Schönberger haben jedenfalls eine überfällige Debatte angestoßen, die wohl auch in den politischen Schaltzentralen angekommen ist.

So viel hat Ramge dem Notiz-Amt-Schreiber jedenfalls verraten.

Weiterlesen »

Kontext Mensch: datengetriebenes Marketing braucht neue Perspektiven

Image by everythingpossible via adobe_stock_com

Marketiers in nahezu allen deutschen Unternehmen müssen oder wollen neuerdings „datengetrieben“ unterwegs sein und „alle stürzen sich auf die Marketingtechnologie“, wie Pascal Lauscher, Inhaber und Lead Brand Strategy Consultant von Lauscherconsulting so treffend formuliert. Der Münchner Unternehmer berät namhafte Kunden wie Siemens oder Microsoft und wird beim Big Data Marketing Day am 22. Februar 2018 in München darüber berichten, wie Marketiers Daten nutzen können, um kreativer und wirkungsvoller zu kommunizieren.

Meist können sie nämlich schon froh sein, wenn wenigstens eine unternehmensweite Daten-Strategie existiert und schon jemand ein Daten-Audit gemacht hat. Von ihnen wird nun vor allem erwartet, dass sie Metriken und Conversion-Rates im Auge behalten, dass sie Zielgruppendaten, Kundenfeedbacks und Kaufverhalten auswerten, um das Angebot zu optimieren. Doch oft führt selbst das klassische Vorgehen nicht zum gewünschten Ergebnis, wie Pascal Lauscher weiß: „Das datengetriebene Marketing befasst sich sehr stark damit, Menschen schlauer und besser wissen zu lassen, dass es zum Beispiel ein Produkt gibt. Aber das reicht noch nicht. Die Frage ist: Wie bringe ich Menschen dazu, etwas zu tun?“

Also auch tatsächlich etwas zu kaufen, sich zu registrieren, zu sharen, zu liken, oder zu klicken. Lauschers Antwort ist so einfach wie überzeugend: „Ich muss die Menschen verführen, mit meiner Marke zu interagieren. Und dass mache ich mit Kreativität, denn mit Argumenten kann man nicht verführen.“

Daten müssen besser interpretiert werden

Wenn es um Handlungsmotivation geht, liefern Daten allerdings keine Insights. Dennoch steckt ein Teil der Antwort auch in den Daten, vor allem wenn man sie so zu interpretieren weiß, dass der Mensch dahinter wirklich besser sichtbar wird: „Dazu muss man sich hinsetzen, am besten im Team, und die Daten anschauen, drehen, wenden, diskutieren“, so Lauscher. Leider passiere das noch immer sehr selten und man bleibe gerne beim Offensichtlichen. „Doch wenn ich die Daten in den Kontext Mensch stelle, kann ich die Person hinter den Daten entdecken und sie mit all ihren Emotionen, Wertvorstellungen, Ängsten und Träumen adressieren. Der Mensch, den wir auch Kunde nennen, steckt ja da irgendwo hinter den Daten“, fügt er hinzu.

Beim Big Data Marketing Day wird Lauscher dazu sein 4D-Modell vorstellen. Dieses kann bei der Interpretation als Orientierung dienen, indem Marketiers nacheinander jede der vier Perspektiven auf die Daten einnehmen.

4d Modell von Pascal Lauscher (Image by Pascal Lauscher)
4D-Modell von Pascal Lauscher; Image by Pascal Lauscher

Zudem wird er fünf goldene Regeln vorstellen, mit denen Unternehmen ihre Kunden erreichen.

Eine davon verrät uns Pascal Lauscher schon vorab: „Eine meiner Regeln besagt: Wenn man nicht weiter weiß, universelle Motivatoren bedenken. Es gibt universelle Motivatoren, die jeder von uns kennt und die immer funktionieren. Die muss man nicht neu erfinden – sie sind schon in der menschlichen Psyche verankert. Limitation zum Beispiel (sechs Leute interessieren sich auch für dieses Hotel, nur noch drei Zimmer frei). Oder Neugier (25 alltägliche Dinge, von denen Du nicht wusstest, wozu sie gut sind. Nummer vier hätte ich nie erwartet…). Diese Motivatoren lassen sich auf jeden Fall immer abarbeiten und man ist schon ein Stück weiter in Sachen wirksames Marketing. Am besten verknüpft man diese Motivatoren allerdings in einer Kreativitätstechnik mit den Daten. Ich zeige im Vortrag, wie man das macht und wie man damit haufenweise kreative Ideen für Content generieren kann.“

„There are a lot of great technicians in advertising. And unfortunately, they talk the best game. They know all the rules … but there’s one little rub. They forget that advertising is persuasion, and persuasion is not a science, but an art. Advertising is the art of persuasion.“ – William Bernbach

Wichtig sind die Menschen hinter den Daten

Statt sich also im datengetriebenen Marketing immer stärker den predictive Algorithmen, den Tools und Prozessen zu unterwerfen und damit viel mehr Potential zu verschenken als wir es ahnen, sollten wir lernen, die Menschen hinter den Daten zu erkennen und sie auf kreative Weise zu begeistern. Mit den richtigen Methoden ist das durchaus möglich und als Resultat wird unser Marketing freier und gleichzeitig wirkungsvoller.


everythingpossible/stock.adobe.com


Weiterlesen »

Die Papierakte ist weg! Lang lebe die Papierakte!

Woman, man, male and female (adapted) (Image by rawpixel_com [CC0 Public Domain] via Unsplash)

Im Dezember 2017 kann also auch das Freisinger Jobcenter verkünden, man habe jetzt von Papierakten auf die elektronische Aktenführung umgestellt. Eine Nachricht, die ein fahles Licht auf die Digitalisierung der Verwaltung wirft. Das Problem stellt dabei nicht unmittelbar das Jobcenter in Freising dar, sondern der unzureichende Fortschritt der Digitalisierung in der Verwaltung im Allgemeinen.

Die Lebenswelten der Menschen im digitalen Zeitalter haben sich stark gewandelt. Friseur- und Arzttermine lassen sich im Netz buchen. Einkäufe verlagern sich immer mehr ins Internet und die sozialen Kontakte werden über digitale Plattformen gepflegt. Medien- und Bildungsangebote sind mannigfaltig im Internet zu finden. Sollte aber ein Verwaltungsanliegen anstehen, klopft das 20. Jahrhundert wieder an die Tür.

Dabei ist die unzureichende Digitalisierung am sichtbarsten für den Bürger, wenn sie ihn unmittelbar betrifft. Die Studie der Initiative D21 „eGovernance Monitor“ macht dies deutlich. Demnach haben im Jahr 2017 weniger Menschen die digitalen Angebote der Verwaltungen genutzt und auch ihre Zufriedenheit mit den Angeboten lässt deutlich nach. Und das, obwohl die Digitalisierung der Verwaltung viel versprochen hatte: schnellere Behördenbearbeitungen, effizientere Behörden, einen bequemeren Umgang für die Bürger mit ihren Anliegen und auch die Serviceangebote sollten bürgerfreundlicher werden. Mit welchen Problemen kämpft die Verwaltung eigentlich, wenn es um die Digitalisierung der Arbeitsprozesse geht? Ist der Prozess der Digitalisierung der deutschen Behörden zu intellektuellen Küchenwitzen verkommen, oder handelt es sich dabei nur um ein Vorurteil?

Das Problem mit der Usability

Die E-Governance-Angebote werden nur von etwa 41 Prozent der Deutschen genutzt. Das liegt vor allem an der schlechten Auffindbarkeit von Angeboten und dem Zurückfallen in traditionelle Formen der Verwaltung während dem Prozess. „Wenn ich online eine Dienstleitung raussuche und am Ende des Tages wieder Ausdrucken und wieder auf die Seite der Behörde gehen muss, dann ist der Vorteil von online zu gering“, so Cornelia Gottbehüt, Government & Public Sector Advisory Leader und Vorstandsmitglied der Initiative D21. Die Informationen zu Serviceangeboten sind dabei auf mehreren Unterseiten verteilt, so dass die Suche nach Informationen zum Zeitfresser werden kann. Intuitiv geht anders. Ein weiteres Problem liegt laut Cornelia Gottbehüt in der mangelnden Sicht- und Auffindbarkeit der Serviceangebote.

Die Hoffnung, dass durch die Digitalisierung die Informationen schneller und gebündelter zu finden sind und sich Verfahren mit Behörden vereinfachen, haben viele längst verworfen.

Das „Once-Only“-Prinzip beispielsweise, welches in anderen Ländern wie der Schweiz und Österreich genutzt wird, sieht eine einmalige Weitergabe von Informationen des Bürgers an die Behörden vor. Danach werden diese Informationen intern und unter den Behörden, je nach Bedarf, weitergeleitet. Das erspart die meisten zeitintensiven Behördengänge. Dieses Verfahren kann allerdings nur mit transparenten Methoden der Verwaltung und der Einhaltung strenger Datenschutzbestimmungen als positiv betrachtet werden. Immerhin sagen laut Studie 1/3 der Deutschen, dass das „Once-Only“-Prinzip für sie zu einer modernen Verwaltung dazu gehört.

Die Deutschen sind in dieser Hinsicht weitaus skeptischer, was die Weitergabe von privaten Daten der Behörden untereinander angeht als andere europäische Länder. Das Sicherheitsbedenken steht der Digitalisierung an dieser Stelle zwar im Weg, ist aber aus datenschutzrechtlichen Gründen durchaus angebracht.

Digitalisierung first, Sicherheit second?

Bei der Sicherheit der Daten, die durch staatliche Stellen gespeichert werden, liegt ein zudem intransparentes Verhalten vor mit wem sie geteilt werden. Das Bekanntwerden des Dataminings der Geheimdienste hat zumindest nicht die Bereitschaft der Deutschen gefördert, personenbezogene Daten freiwillig unter den Behörden tauschen zu lassen. Aktuell sind laut dem Bericht der Initiative D21 nur 1/3 der Bundesbürger bereit im Rahmen des „Once-Only“-Prinzips, ihre Daten zum Austausch unter den Behörden freizugeben. Dabei ist für die anderen 2/3 vor allem der Datenschutz der Grund, sich gegen eine Weitergabe der Daten auszusprechen.

Der Datenschutz hat dabei mit den Verträgen von Lissabon den Status eines europäischen Grundrechtes bekommen. Das betont Maja Smoltczyk, die Berliner Beauftragte für Datenschutz und Informationsfreiheit, in ihrem Jahresbericht. Somit wäre die einzige Möglichkeit diesen Aspekt der Digitalisierung effektiv und unter Berücksichtigung des Rechtes auf Datenschutz umzusetzen, dem Bürger transparent zu zeigen mit wem und wann seine Daten genutzt und eingesehen worden sind. Der Datenschutz spielt für die Bürger und die europäischen Institutionen eine zentrale Rolle und darf daher nicht zugunsten der überhasteten Digitalisierung geopfert werden.

Auch bei der in den Behörden und Kommunen eingesetzten Software gibt es Probleme hinsichtlich der Sicherheit. So hatte die Software „PC-Wahl“ bei der Bundestagswahl 2018 große Sicherheitsbedenken ausgelöst. Der Chaos Computer Club konnte nämlich nachweisen, wie einfach die Software zu hacken ist. Schaden hätte so nicht entstehen können, so der Bundeswahlleiter Dieter Sarreither, da Veränderungen am Wahlergebnis spätestens im endgültigen Wahlergebnis aufgefallen wären. Des Weiteren würden nur vier von 396 Kommunen die Software einsetzen. Dennoch wirft auch dieser Vorfall ein schlechtes Licht auf die Art der Umsetzung der Digitalisierung der Verwaltung. So kommt es immer wieder zu Fällen, dass eine Software auf die verschiedenen Arbeitsbereiche angepasst werden muss und dabei die Sicherheit eine zweitrangige Rolle spielt. Dies liegt zweifelsfrei auch an der geringen Aufwendung der Mittel für Software mit einem hohen Sicherheitsanspruch.

Der Plan der Digitalisierung der Verwaltung- error 404

Das wohl größte Problem der Digitalisierung der Verwaltung hin zur E-Governance, liegt im Fehlen eines einheitlichen Konzeptes. Die deutsche Verwaltung ist schon seit je her bekannt für die wohlwollend formuliert „behutsame“ Anpassung bei Arbeitsprozessen an modern gewordene Standards. Dies war schon bei der Umstellung von einer inkrementellen Buchhaltung, zu einer modernen Buchhaltung mit einem Doppelhaushalt zu beobachten. In der deutschen Verwaltung werden beinahe alle föderalen Einheiten mehr oder weniger unabhängig voneinander digitalisiert. Besonders bei der Zusammenführung von Arbeitsprozessen, ist ein unterschiedlicher Standard aber hochgradig kontraproduktiv. Der Eindruck erhärtet sich zudem, dass die Digitalisierung einzelner Behörden oder Fachgruppen nur durch das Engagement einzelner Mitarbeiter vorangebracht wird.

Die Bertelsmann Stiftung hat im Mai 2017 einen Aktionsplan zur „Transformation der Verwaltung“ herausgegeben. In diesem lässt sich erkennen, wo eigentlich das Problem liegt, für das schnell Lösungen gefunden werden sollten. Schuld oder nicht Schuld, die Reform ist hier die Frage

Die Kommunen und Behörden sind im Grunde nicht das Problem. Vielmehr fehlen strategische und verbindliche Vorgaben, an denen diese sich orientieren können. Diese hätten den Vorteil, zu einer Vereinheitlichung der Digitalisierung zu führen, so dass nicht 396 Kommunen ebenso viele Konzepte zur Digitalisierung haben. Besonders bei den Entscheidungsstrukturen- und mechanismen gelingt, trotz verstärktem Einsatz von IT-Maßnahmen, zu wenig. Zudem haben die Verwaltungen mit dem massiven Problem zu kämpfen, IT-Techniker und Experten anzuwerben, die für eine Digitalisierung von Arbeitsprozessen nötig sind. So gab die Berliner IT-Staatssekretärin Sabine Smentek in einem Interview im Juni 2017 mit dem RBB an, dass besonders im Bereich der IT-Sicherheit und bei bestimmten Systemadministratoren, adäquates Personal fehlt.

Obwohl sich auf allen bundesstaatlichen Ebenen viele Akteure für das Anliegen der Digitalisierung einsetzen, so fehlt es doch an einer einheitlichen bundestaatlichen Lösung. Hier wäre eine vom Bund vorgegebene Föderale IT Architektur genauso wichtig, wie die gesonderte Bereitstellung finanzieller Mittel zur Digitalisierung der gesamten Verwaltung, von der Bundespolizei, bis zum Freisinger Jobcenter.

In dieser Hinsicht gibt der Bund bei der Digitalisierung von Verwaltung und deren Leistungsfähigkeit seine Verantwortung gerne ab. Das Ergebnis sind dann Meldungen, wie die Umstellung von Papierakten auf die elektronische Aktenführung im Jahr 2017. Dabei finden viele Konferenzen zu dem Thema statt. Viele der Akteure sind im regen Austausch miteinander und haben gute, proaktive Ideen. Es fehlt aber die Bereitschaft des Bundes, sich mit der Digitalisierung auf ein breit angelegtes, durch juristische Rahmenbedingungen gesichertes sowie vor allem gut finanziertes Konzept zu einigen. Der Prozess und dessen Umsetzung könnten zudem von einem Ministerium für Digitalisierung überwacht und auf die Einhaltung vorher festgelegter Standards überprüft werden.

Welche Parteien auch letztendlich Regierungsverantwortung übernehmen sollten, alle sollten ein Interesse an einer zukunftsorientierten, leistungsfähigen und am Bürger orientierten digitalen Verwaltung haben. Eine moderne Verwaltung sollte mit der sich rasant verändernden Lebensrealität seiner Bürger mithalten können. Wenn dafür nicht so schnell wie möglich das Fundament gelegt wird, werden sich die Probleme in der Zukunft exponentiell anstauen und daran kann niemandem gelegen sein.

Dieser Artikel erschien zuerst auf Politik-Digital.de. Mit freundlicher Genehmigung der Redaktion.

CC-Lizenz-630x11011


Image (adapted) „Woman, man, male and female“ by rawpixel_com (CC0 Public Domain)


Weiterlesen »

Die Stereotype der KI: „Gaydar“ und die liberale Gesellschaft

Self-Portrait-photo-adapted-Image-by-Ian-Dooley-CC0-Public-Domain-via-Unsplash

Gemäß dem alten Sprichwort „Wissen ist Macht“ streben Unternehmen immer stärker danach, intime Detailinformationen ihrer Kunden zu sammeln, um einen Wettbewerbsvorteil gegenüber ihren Mitstreitern zu erhalten. Der Anstieg von künstlicher Intelligenz oder auch der KI – also Algorithmen, die von Maschinen dazu verwendet werden, riesige Datenmengen auszuwerten – stellt eine besonders verlockende Möglichkeit dazu dar. Genauer gesagt ist der enorme Fortschritt im Bereich der künstlichen Intelligenz, besonders in der Musterunterscheidung und Kategorisierung, ein führendes Forschungsobjekt, um die Fähigkeiten für zunehmend schwierigere Datengewinnungsaufgaben zu untersuchen.

Diese Technologie ist nicht mehr beschränkt auf die einfache Kategorisierung von direkt nachvollziehbaren Online-Verhaltensweisen wie beispielsweise das Liken von bestimmten Marken oder Bildobjekten. Künstliche Intelligenz wird auch dazu benutzt, intimere Charakteristika wie Persönlichkeit, Geschlecht und Alter durch Sprachgebrauch auf diversen sozialen Medien zu analysieren. Zusätzlich wird eine Gesichtsbildanalyse durchgeführt, um die Wahrscheinlichkeit zu bestimmen, ob jemand ein Verbrechen begehen wird oder ob er ein Terrorist oder pädophiler Verbrecher sein könnte. Erst neulich hat eine Gruppe von Forschern der Universität Stanford künstliche Intelligenz dazu benutzt, die sexuelle Orientierung durch Fotos von unterschiedlichen Gesichtern vorherzusagen. Natürlich hat die Entwicklung solcher Methoden, bei denen persönliche Informationen über die Probanden gewonnen wurden, enorme Auswirkungen für die Privatsphäre.

Noch problematischer wird es, wenn es um die algorithmenbasierte vereinfachte Kategorisierung von Personen geht. Um künstliche Intelligenz für die Kategorisierung von Menschen auszubilden, müssen einzelne, definierte Zielkategorien vorgegeben werden und große Mengen vorklassifizierter Daten. So wird der Mensch auf einzelne sozio-psychologische Klassen reduziert.

Der Maschinen-„Gaydar“

Die kürzlich erfolgte Untersuchung, die basierend auf einem Foto zu bestimmen versuchte, ob eine Person homosexuell oder heterosexuell ist, ist ein klares Beispiel dafür, wie die Wahl von vorklassifizierten Kategorien uns ein binäres Bild von Sexualität auferlegt. Der Zweck der Studie war es, zu zeigen, dass Gesichter subtile Informationen über unsere sexuelle Orientierung enthalten, die von tiefen neuralen Netzwerken – eine Klasse von künstlicher Intelligenz – wahrgenommen und interpretiert werden können.

Um eine ausreichend große Datenmenge für diesen Typ des maschinellen Lernens zu erhalten, sammelten sie 130.741 Portraits von öffentlichen Profilen auf amerikanischen Dating-Webseiten. Der Datensatz enthielt die gleiche Anzahl an Bildern von homosexuellen und heterosexuellen Personen. Die sexuelle Orientierung wurde je nach den Voreinstellungen, welches Geschlecht das Gegenüber haben sollte, das auf den Profilen eingesehen werden kann, bestimmt. 

Auch wenn Dating-Webseiten einen recht eindeutigen Indikator für das sexuelle Interesse einer Person darstellen mag, widerspricht der Einsatz dieser Daten zum Training einer binären Klassifizierung der Realität eines vielfältigeren Spektrums unseres Verständisses von sexuellen Ausrichtungen, die sich von Asexualität bis zu diversen Graden der Bisexualität erstrecken können.

Das Problem ist folgendes: Wenn ein automatisches System erst einmal in der Lage ist, eine solche heruntergebrochene Einteilung mit einem hohen Grad an Verlässlichkeit bereitzustellen, wird es zu einem Werkzeug, dass einfach als Maßstab herangezogen werden kann. Klassifizierungen, die auf diesen vereinfachten sozio-psychologischen Merkmalen basieren, werden zu einem interessanten neuen Wert, mit dem die Personalisierung von Diensten ergänzt werden können. Sollte sich eine solch vereinfachte Perspektive auf Menschen weiter etablieren, haben wir alle ein ernstzunehmendes Problem.

Der Diskussionsteil der Studie zur Kategorisierung von Gesichtern indiziert, dass die Forscher sich den weiteren Konsequenzen dieser Art von Studie bewusst sind. Sie gehen sogar so weit, zu sagen, dass es eine der treibenden Motivationen für diese Arbeit war, die „politischen Entscheidungsträger, die generelle Öffentlichkeit und homosexuelle Gemeinschaften auf das Risiko, dem sie bereits gegenüberstehen könnten, darauf aufmerksam zu machen“. Dies geschehe aufgrund von Tätigkeiten, die „wahrscheinlich hinter verschlossenen Türen in Unternehmen und Regierungsorganisationen durchgeführt werden“.

Feedback beschaffen

Unglücklicherweise folgte die eingesetzte Methode, trotz des sozialen Bewusstseins, der gängigen Praxis in diesem Forschungsbereich, wo alle öffentlich zugänglichen Daten als „Freiwild“ gelten – unabhängig davon, ob die Forschungsobjekte niemals beabsichtigten, diese Daten für Forschungszwecke bereitzustellen. Natürlich wäre es schwierig gewesen die Personen zu kontaktieren, deren Bilder genutzt wurden. Aber zumindest hätte man Vertreter von unterschiedlichen Gemeinschaften für die Rechte Homosexueller konsultieren sollen.

Um ihre Bedenken über den Einfluss dieser Art von Forschung auf die Rechte der Betroffenen auszudrücken, hätten die Forscher der betroffenen LGBT-Gemeinschaften die Möglichkeit geben sollen, ihre Sichtweise im Diskussionsteil der Arbeit preiszugeben. Dies hätte nicht nur deren eigene Reaktion verändert, sondern auch die Art der medialen Berichterstattung. Solch eine Einbeziehung der Interessensgruppen ist eines der Schlüsselprinzipien von verantwortlicher Forschung und Innovation, die Nachhaltigkeit, Zugänglichkeit und Erwünschtheit von Forschungsprozessen und Leistungen zu garantieren versucht.

Um also die Probleme von unkontrolliertem Gebrauch von künstlicher Intelligenz für unternehmerischen Zugewinn zu adressieren, ist es wichtig, eine Kultur zu schaffen, die die Einbeziehung von Interessensgruppen fördert. Sie sollte zudem auch ethische Fragen innerhalb der Bereiche der Forschung und Entwicklung von künstlicher Intelligenz beachten. Die gute Nachricht ist, dass dies bereits durch die Zunahme von ethischen Richtlinien, Initiativen und der Entwicklung von ethisch basierten Industriestandards in Angriff genommen wird. Sie sollen Möglichkeiten bereitstellen, um den ethischen Gebrauch von künstlicher Intelligenz sicherzustellen, ganz ähnlich denen der Lebensmittelsicherheitsstandards.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „Self Portrait photo“ by Ian Dooley (CC0 Public Domain)


The Conversation

Weiterlesen »

FollowUs – Die Netzpiloten-Tipps aus Blogs & Mags

Follow me
  • ANDROID APPS Connect: Diese 1000 Android-Apps belauschen ihre Nutzer: Achtung, eure Apps haben Ohren! Wie die Tageszeitung “The New York Times” jetzt herausgefunden hat, nutzen zahlreiche Spiele-Apps die sogenannte „Automated Content Recognition“-Technologie (ACR). Mit der App soll über die Mikrofone der Smartphones ermittelt werden, was sich deren Nutzer gerade im Fernsehen anschauen. Entwickelt wurden diese Apps von dem Start-up Alphonso Inc., welches die gesammelten Informationen der Nutzer an Werbetreibende verkauft. Der Sinn dahinter ist, dass somit personalisierte Werbung ausgespielt werden soll. Das Smartphone nimmt selbst dann auf, wenn die Apps nicht aktiv genutzt werden, sondern auch nur im Hintergrund laufen. Oftmals stimmen dem sogar die Nutzer zu, denn bei der Installation verlangen diese Apps den Zugriff auf das Mikrofon. Im Nachhinein kann diese Zustimmung allerdings widerrufen werden. Betroffen sind hiervon etwa 1.000 Apps im Google Play Store und im iTunes Store.

  • FACEBOOK Handelsblatt: Zuckerberg will Facebook reparieren: Viele starten mit guten Vorsätzen in das neue Jahr. Auch Mark Zuckerberg hat sich einen ganz besonderen Vorsatz gemacht: Er möchte Facebook reparieren. Dazu zählt vor allem gegen Wahlmanipulationen, Hasskommentare und Beleidigungen vorzugehen. Zuckerberg scheint immer mehr an seinem Unternehmen zu zweifeln und schreibt daher, dass ein Missbrauch der Plattform nie ganz verhindert werden könne, es aber dennoch zu viele Fehler, unter anderem beim Durchsetzen der Richtlinien seitens des Unternehmens, gemacht werden. Seinen Worten ist anzumerken, dass das soziale Netzwerk unter starkem politischen Druck steht. Bleibt abzuwarten, wie ernst Zuckerberg seine guten Vorsätze für dieses Jahr nimmt.

  • GOOGLE Chip: Google Maps für Rache ausgenutzt: Google reagiert mit Verbot: Schaut man sich auf Google Maps nach bestimmten Adressen um, kann man oftmals auch entsprechende Rezensionen dazu finden. Allerdings sind diese nicht immer positiv. Oft stammen diese negativen Bewertungen von Ex-Mitarbeitern, denen gekündigt wurde. Für die Unternehmen ist das durchaus schädlich. In den aktualisierten Geschäftsbedingungen geht Google nun aber gegen negative Bewertungen an. Somit verbietet das Unternehmen schlechte Rezensionen und erklärt diese negativen Inhalte als unzulässig.

  • DATENSCHUTZ Heise: Verbraucherzentralen fordern mehr digitalen Datenschutz: Laut den Verbraucherzentralen steht in der digitalen Welt leider nicht der Kunde im Fokus sondern vielmehr seine Daten. Zu sehr sind die digitalen Angebote an die Bedürfnisse der Werbeindustrie angepasst und das müsse sich ändern, wie Klaus Müller, Chef des Verbraucherzentrale Bundesverbands (vzbv), meint. Hoher Datenschutz sollte daher die Norm sein und nicht nur die Ausnahme. Viel zu häufig geben wir erst unsere Daten preis, um sie anschließend durch eine Vielzahl von Klicks rückgängig zu machen. Laut dem Verbraucherschützer sollte es eher andersherum sein: Wer mehr personalisierte Werbung bekommen möchte, der sollte selbst durch das Setzen von einem Häkchen entscheiden, ob er dies wirklich möchte, oder eben nicht.

  • KREDITKARTEN Spiegel Online: Kreditkarten von Aldi-Kunden mehrfach belastet: Wenn man seinen Einkauf gleich zwei Mal bezahlt – einigen Kunden, die am Dienstag und Mittwoch dieser Woche bei Aldi Süd mit Kreditkarte eingekauft haben, sollten einen genauen Blick auf ihre Kreditkartenabrechnung werfen. Wie die Firma mitteilte sei ein technischer Fehler schuld an den mehrfachen Abbuchungen und bemühe sich eine Rückabwicklung schnellstmöglich in die Gänge zu leiten. Hierbei müssen Kunden nicht selbst tätig werden, das Ganze soll automatisch geschehen. Allerding können die Rückzahlungen ein paar Tage dauern.

Weiterlesen »

Warum ich meine Genomsequenz für die Öffentlichkeit gespendet habe

DNA (adapted) (Image by PublicDomainPictures [CC0 Public Domain] via Pixabay)

Vor ein paar Jahren habe ich mein komplettes Genom sequenzieren lassen – alle sechs Milliarden Basenpaare. Und anstatt es für mich selbst zu behalten, habe ich es als erster Mensch weltweit der Öffentlichkeit zugänglich gemacht, indem ich es dem Personal Genome Project UK, einer von Forschern geleiteten Organisation, gespendet habe. Da jeder auf die Daten zugreifen kann, kann die Öffentlichkeit – in Zusammenarbeit mit professionellen Wissenschaftlern – einen Beitrag zur Datenanalyse leisten.

Meine Spende habe ich unter dem umstrittenen Prinzip der freiwilligen Zustimmung gemacht. Vier andere Leute haben dies seitdem getan. Das bedeutet, dass wir damit einverstanden sind, dass unsere personenbezogenen Daten für jedermann frei zugänglich sind und keinen Anspruch auf Privatsphäre erheben. Das Projekt hört nicht bei der Verbreitung persönlicher Genomsequenzen auf, sondern geht weit darüber hinaus, indem es die Daten mit persönlichen Gesundheitsdaten, Informationen über Merkmale und die Umweltexposition des Einzelnen verknüpft. Gerade diese reichhaltige Informationsvielfalt macht die Initiative zum persönlichen Genomprojekt einzigartig und mächtig.

Daten aufdecken

Die menschliche Genomsequenz kann auch als der ultimative digitale Identifikator angesehen werden – wir alle haben eine einzigartige Sequenz. Derzeit werden die meisten Humangenom-Daten anonym gehalten, und es ist nicht generell möglich, diese Daten mit den persönlichen Daten der Versuchspersonen zu verknüpfen. Aber das reduziert die potenzielle Nutzbarkeit erheblich.

Je mehr Genome wir mit zusätzlichen Informationen verknüpfen können, desto näher rücken wir an die Aufdeckung der genauen Merkmale und Bedingungen heran, die mit welchen Genen verbunden sind. Wenn wir das wissen, werden die Behandlungsmöglichkeiten enorm sein. Es wird eine echte, personalisierte medizinische Behandlung ermöglichen, in der wir Krankheiten vorhersagen können und genau wissen, auf welche Behandlungsmöglichkeiten jeder einzelne Mensch anspricht. Da die wissenschaftliche und medizinische Forschung solche Entdeckungen immer wieder macht, können diese in Zukunft durch aktualisierte Genomberichte mit den Teilnehmern der Projekte geteilt werden.

Viele führende Wissenschaftler sind der Meinung, dass es äußerst schwierig ist, genomische Daten anonym zu halten. Obwohl es Versuche gibt, die Methoden zu verbessern, gab es Fälle in denen anonyme Probanden in Forschungsarbeiten leicht identifiziert werden konnten. Oft anhand von Informationen wie Alter, Geschlecht und Postleitzahl. Vielleicht müssen wir also die Vorstellung aufgeben, dass Daten für alle Ewigkeit vollkommen anonymisiert werden können.

Es gibt Großartiges über den Beitritt zum persönlichen Genomprojekt zu berichten. Man erhält Zugang zu einem Team führender Genforscher und Bioinformatiker und bekommt detaillierte Infos über sein persönliches Genom. Ich fand meinen persönlichen Genombericht sehr hilfreich. Es hat mögliche Gesundheitsrisiken aufgezeigt, von denen ich einige mit meinem Hausarzt besprochen habe.

Eine weitere, sehr nützliche Erkenntnis ist, dass ich mehrere DNA-Varianten habe, die mich daran hindern, viele verschiedene verschreibungspflichtige Medikamente in meinem Körper abzubauen oder zu transportieren. Infolge dessen weiß ich auch, welche Stoffe bei mir funktionieren. Tatsächlich könnte möglicherweise sogar eine bestimmte Art Droge für mich tödlich sein. Gut, dass ich das weiß.

Ich möchte die Menschen auf jeden Fall ermutigen, an dem Programm teilzunehmen. Sobald Hunderttausende oder gar Millionen von Teilnehmern an der Konferenz beteiligt sind, wird das Wissen, das wir über die Auswirkungen unserer Genome auf unsere Gesundheit, unsere Eigenschaften und unser Verhalten gewinnen, einzigartig sein. Obwohl wir nicht genau vorhersagen können, was wir lernen werden, ist es wahrscheinlich, dass wir Einblicke in psychische Gesundheitsbedingungen, den Medikamenten-Stoffwechsel, persönliche menschliche Ernährung, unsere Allergien und Autoimmunerkrankungen gewinnen werden. Wir erfahren mehr über unsere Lebenserwartung, Diabetes, Herz-Kreislauf-Gesundheit und mögliche Krebserkrankungen.

Ein schwieriges Thema

Aber ich bin mir auch bewusst, dass es nicht für jeden infrage käme, sein persönliches Genom sequenziert zu bekommen. Manche Leute wollen es einfach nicht wissen und spüren, dass die Information für sie eine Menge Ängste auslösen könnte. Niemand sollte sich gezwungen fühlen, sein Genom sequenzieren zu lassen.

Ich fand heraus, dass bei meiner Sequenzierung meines Genoms ein erhöhtes Risiko für eine seltene, unangenehme Krankheit festgestellt wurde und begann sofort, Symptome zu entwickeln. Als medizinische Tests schließlich aufdeckten, dass ich nicht die notwendigen Bedingung erfüllte, verschwanden die Symptome. Das zeigt, dass solche Informationen psychosomatische Symptome verursachen können.

Eine weitere Frage, über die sich mancher vielleicht den Kopf zerbricht, ist, wie die Daten von privaten Unternehmen, einschließlich Arbeitgeber oder Versicherungen, genutzt werden können. Obwohl die Forscher sich nicht mit Genen beschäftigt haben, die mit kriminellen Aktivitäten in Verbindung stehen, sind die Rohdaten für jedermann zur Analyse da. Zwar dürfen Versicherungsunternehmen derzeit noch keine Entscheidungen auf der Grundlage genomischer Daten treffen, einige könnten jedoch befürchten, dass sich dies in Zukunft ändern könnte.

Die Familie ist ein weiterer wichtiger Faktor. Schließlich teilen wir unsere Geninformationen mit unseren Eltern und Kindern – und vielleicht möchten wir das Thema vor der Bekanntgabe unseres Genoms mit ihnen besprechen. Eine andere Sache, die man bei der genomischen Prüfung bedenken sollte, ist, dass man unter Umständen herausfinden könnte, dass die eigenen Elternteile vielleicht nicht die sind, mit denen wir aufgewachsen sind. Dies geschieht in bis zu zehn Prozent der Fälle.

Ich verstehe sehr wohl, dass diese Dinge für bestimmte Menschen von Bedeutung sein können. Ich habe sie alle in Betracht gezogen, aber ich habe beschlossen, dass letztendlich eine Vorbereitung auf das Schlimmste die beste Vorbereitung ist. Wenn man weiß, dass man ein erhöhtes Risiko für eine bestimmte Krankheit aufweisen könnte, kann man frühzeitig handeln – zum Beispiel durch eine Ernährungsumstellung oder durch medizinische Spezialbehandlungen. Neben der Spende meiner Gendaten für das Gemeinwohl war dies wohl das Wichtigste für mich.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „DNA“ by PublicDomainPictures (CC0 Public Domain)


The Conversation

Weiterlesen »

Kartellrecht gegen Datenmonopole machtlos

Tower, television tower, blue sky and tall (adapted) (Image by Markus Spiske [CC0 Public Domain] via Unsplash)

In den vergangenen zwanzig Jahren sei es einer neuen Generation von Superstar-Firmen mit digitalen Plattformen gelungen, Quasi-Monopole zu errichten, bemerkt brandeins-Autor Thomas Ramge. Dieser „The-Winner-Takes-It-All-Trend“ werde sich in den kommenden Jahren weiter verstärken durch Daten lernende KI-Systeme und datenreiche Märkte.

„Das Kartellrecht, gemacht gegen Stahlbarone, zeigt sich dagegen schon jetzt als vollkommen machtlos“, meint Ramge. Das Bundeskartellamt hält hingegen das bestehende kartellrechtliche Instrumentarium für die wettbewerbliche Analyse und Beurteilung digitaler Plattformen und Netzwerke grundsätzlich für geeignet.

„Lediglich in wenigen Bereichen erscheint es geboten, die bestehenden kartellrechtlichen Regelungen zu ergänzen oder zu präzisieren. Entsprechende Ergänzungs- und Präzisierungsvorschläge finden sich auch im Grünbuch Digitale Plattformen, das das Bundeswirtschaftsministerium Ende Mai 2016 vorgestellt hat“, teilt das Bundeskartellamt mit.

Ex-ante-Vorschriften im Wettbewerbsrecht formulieren

Das sehen Professor Lutz Becker und Amit Ray von der Hochschule Fresenius in Köln anders. Im Kartellrecht könnte immer nur im Nachgang gehandelt werden. Man müsse einen Marktmissbrauch erst einmal nachweisen.

In der Geschwindigkeit, in der heute Märkte funktionieren, reiche das nicht mehr aus, etwa bei kurzfristigen Preisanpassungen. Erforderlich sei ein neuer Normenkatalog, der im Voraus Dinge regelt.

Pflicht zum Teilen von Daten

Dazu zählen die beiden Wissenschaftler auch die von Ramge ins Spiel gebrachte Pflicht zum Daten-Sharing: Der Staat müsse dafür sorgen, dass die großen Digital-Konzerne keine Oligopole und Quasi-Monopole bilden können, sondern fairer Wettbewerb herrscht, proklamiert Ramge im Interview mit dem CCB-Magazin.

„Zugleich müssen Menschen lernen, Daten und die sogenannte Künstliche Intelligenz zum Wohl des Einzelnen und für Gemeinschaften zu nutzen. Und beides muss in Einklang gebracht werden, das beschreiben wir ja auch in unserem Buch. ‘Das Digital’ möchte ein Beitrag zu der Diskussion sein, wie wir digitale Veränderung so gestalten, dass es Wohlstand und Teilhabe für alle mehrt und nicht nur für Digital-Konzerne und deren Aktionäre“. Ramge und Viktor Mayer-Schönberger schlagen eine regulatorische Innovation wider den Datenmonopol-Kapitalismus vor:

„Eine ‘progressive Daten-Sharing-Pflicht’. Das hört sich kompliziert an, aber das Prinzip ist im Kern einfach. Die Unternehmen mit extremem Datenreichtum müssen ihre Daten mit Wettbewerbern teilen. Konkret kann das so aussehen: Die Pflicht zum Teilen von Daten setzt ein, sobald ein Unternehmen einen bestimmten Marktanteil erreicht, beispielsweise zehn Prozent. Überschreitet ein Unternehmen diese Schwelle, muss es einen Teil seiner Daten mit allen Konkurrenten teilen, die dies wünschen“, so Ramge. Die Daten müssten zufällig gewählt sein, in einigen Fällen können sie auch durch einen neutralen Dritten bestimmt werden.

„Und natürlich muss dabei auch der Datenschutz beachtet werden. In der deutschen Versicherungswirtschaft gibt es so etwas übrigens schon: Die großen Versicherungen müssen den kleinen Hinweise geben, wie sie ihre Tarife sinnvoll schneiden können“, erläutert Ramge.

Offenlegung von Algorithmen greift zu kurz

Eine Offenlegung der Algorithmen, die von vielen Akteuren gefordert wird, würde zu kurz greifen. Als Produkt von in KI-Systemen eingespeisten Daten würden sich die Algorithmen verändern. Ein reiner Zugang zu den Algorithmen gewähre nur einen Blick in die Vergangenheit. Für funktionierenden Wettbewerb sollte der Datenrohstoff zur Verfügung gestellt werden, nicht nur ihre Werkzeuge. Was bislang vom Bundeskartellamt an Vorschlägen zur Bändigung des Datenkapitalismus erarbeitet wurde, hält das Notiz-Amt für unzureichend.

Die Wettbewerbswächter sollten das jetzt nicht mehr in geschlossenen Zirkeln ihrer Denkfabrik debattieren, sondern netzöffentlich verhandeln, dann kommen wir schneller zum Ziel.


Image (adapted) „Tower, television tower, blue sky and tall“ by Markus Spiske (CC0 Public Domain)


Weiterlesen »

Matching-Ökonomie mit Luhmann-Algorithmus – Warum die Kurvendiagramm-VWL ins Abseits gerät

Organisieren-Image-by-myrfa-CC0-Public-Domain-via-Pixabay

Ökonomen betrachten bekanntlich die gehandelte Menge an Gütern und Dienstleistungen als Ergebnis eines Zusammenspiels von Angebot und Nachfrage. Studierende der Wirtschaftswissenschaft werden damit in Kurvendiagramm-Vorlesungen gelangweilt. Problem: In den Modellen arbeitet man mit Interpretationen, die erst im Nachhinein der Öffentlichkeit präsentiert werden. Für Voraussagen sind die Kurvenspielchen völlig ungeeignet. Noch problematischer wird es, wenn man Preiserwartungen in die Rechnungen einbezieht.

Dann gehen die Wirkungen sogar ihren Ursachen voraus. Was in der Realität passiert: „Die Modelle können in nahezu jeder vorhandenen Datenreihe mehr oder weniger passend gemacht werden“, schreibt Tobias Schmidt in einem Beitrag für die Zeitschrift Merkur. Wie belastbar das wissenschaftstheoretisch wirklich ist, überlasse ich jetzt mal der Interpretation. Inwieweit die Preistheorie für das wirtschaftliche Geschehen in aggregierten Ex post-Rechnungen zum Erkenntnisgewinn beiträgt, ist zumindest ein paar kritische Fragen wert. Im digitalen Kontext ist das Zirkelschluss-Gesabbel noch idiotischer.

Wenn der Preis nur eine Nebenrolle spielt

Viktor Mayer-Schönberger und Thomas Ramge erläutern das in ihrem Buch „Das Digital – Markt, Wertschöpfung und Gerechtigkeit im Datenkapitalismus“ am Beispiel des Erfolgs der Firma BlaBlaCar. Bei dieser Plattform spielt nicht der Preis die Hauptrolle, sondern vielfältige Daten. Mitfahrer können die Angebote danach durchsuchen, wie gesprächig der Fahrer ist – daher der Name BlaBlaCar -, welche Musik sie mögen oder ob Haustiere mitfahren dürfen – und somit das für sich perfekt geeignete Angebot auswählen. „Der Preis spiel in dem Modell nur eine untergeordnete Rolle, denn die Fahrer können diesen nur innerhalb einer vorgegebenen Spanne festlegen“, so Mayer-Schönberger und Ramge.

Was sich immer mehr herauskristallisiert ist eine „Matching-Ökonomie“, in der man viel stärker auf die Details und Nuancen von wirtschaftlichen Entscheidungen schauen muss. Damit dieses Matching in der Flut von Informationen überhaupt möglich ist, braucht man Ontologien. Laut Wikipedia dienen sie als Mittel der Strukturierung und zum Datenaustausch,  um bereits bestehende Wissensbestände zusammenzufügen, in bestehenden Wissensbeständen zu suchen und diese zu editieren sowie aus Typen von Wissensbeständen neue Instanzen zu generieren.

Soweit die eher technokratische Definition. Meßbar ist jedenfalls, dass die schlechte Ontologie eines Anbieters oder eines Marktplatzes im Zeitverlauf zu einer Verringerung von Transaktionen führt. Der ökonomische Druck zur Entwicklung von Schlagwort-Strategien steigt, betonen die beiden Buchautoren und verweisen auf die Metadaten-Expertin Madi Solomon. Sie komme aus den Salzminen der Datenarbeit und war für die weitgehend manuelle Verschlagwortung beim Walt-Disney-Konzern verantwortlich. „Später wurde sie Direktorin für Datenarchitektur und semantische Plattformen beim Bildungsverlag Pearson.“

Ohne Meta-Daten kein Matching

Für die Zukunft erhofft sie sich ein besseres Zusammenspiel von Algorithmen und Daten-Ontologien. „Startups und große Datenspieler haben das Thema schon für sich entdeckt – und gehen es immer öfter gemeinsam an. Das ehrgeizige Datenprojekt bei eBay etwa hat genau das Ziel, durch bessere Katalogisierung die Auffindbarkeit der Produkte von 42 auf rund 90 Prozent zu steigern.“

Eine wichtige Rolle spielen dabei mehrere auf Metadaten-Management spezialisierte Startups wie Expertmaker, Corrigon und Alation, die eBay erworben hat oder mit denen die Handelsplattform eng zusammenarbeitet. Sie sollen zur automatischen Kategorisierung beitragen. Prognose von Mayer-Schönberger und Ramge: „Je stärker die Märkte sich vom Preisvergleich ab- und dem datenreichen Matching zuwenden, desto intensiver wird das Wettrennen um leistungsfähigere Algorithmen.“

Kreatives Matching mit Zufallsgenerator

Aktiv abwenden können sich Märkte von „Preisen“ natürlich nicht, denn sie existieren nur in der Fantasie der Zirkelschluss-Ökonomen, die eine Volkswirtschaft in aggregierten Zuständen betrachtet – jedenfalls tun das die Makroökonomen. Aber das Matching-Logiken der Katalysator des Netzes sind, dürfte wohl kaum einer bestreiten. Und wie sorgt das Ganze für Überraschungen jenseits von mechanistisch aufgebauten Algorithmen?

Wie das funktionieren kann, belegt der rein manuell gepflegte Zettelkasten des legendären Soziologen Niklas Luhmann. Der Zettelkasten ist eine Kombination von Unordnung und Ordnung, von Klumpenbildung und unvorhersehbarer, im ad hoc Zugriff realisierter Kombination. Das notierte Luhmann auf dem Zettel 9/8. An dieser Stelle verweist das Notiz-Amt auf die Forschungsarbeit von Johannes F.K. Schmidt, der den Nachlass des Bielefelder Soziologen bearbeitet und die Prinzipien des Luhmannschen Überraschungsgenerators der Öffentlichkeit zugänglich macht.

Ein Punkt ist hier aber wichtig. Die Funktion des Schlagwortverzeichnis im Zettelkasten von Luhmann: „Jede Notiz ist nur ein Element, das seine Qualität erst aus dem Netz der Verweisungen und Rückverweisungen im System erhält. Eine Notiz, die an dieses Netz nicht angeschlossen ist, geht im Zettelkasten verloren, wird vom Zettelkasten vergessen“, schreibt Luhmann.

Damit dieses Matching-Gedankenspiel in Gang kommt, braucht man Meta-Daten – also ein Schlagwortverzeichnis. „Will man sich nicht nur auf den Zufall verlassen, so muss man zumindest einen Punkt identifizieren und ansteuern können, an dem man in das entsprechende Verweisungsnetz einsteigen kann“, so Schmidt. Das Strukturprinzip führe dazu, dass der über das Schlagwortverzeichnis gesteuerte Zugriff auf eine begrifflich einschlägige Stelle die Suche gerade nicht auf diesen Begriff limitiert, sondern im Gegenteil aufgrund der spezifischen Einstellpraxis der Zettel und der Verweisungsstruktur der Sammlung ein schon bald nicht mehr überschaubares Netz von Notizen eröffnet. Was Luhmann analog vollbrachte, ist ein Multiple Storage-Prinzip – also eine Mehrfachablage mit völlig überraschenden Matching-Verläufen. Sein Datenbank-System ist überaus kreativ und bewährt sich als Denkwerkzeug.

Das kann man bislang von den Ontologien, die im Netz herumschwirren, nicht sagen. Wer den Luhmann-Algorithmus ins Netz überträgt, wird das Rennen auch gegen Google und Co. gewinnen. Hier wagt das Notiz-Amt mal eine Prognose, die allerdings völlig willkürlich ist.


Image (adapted) „Organisieren“ by myrfa (CC0 Public Domain)


Weiterlesen »

FollowUs – Die Netzpiloten-Tipps aus Blogs & Mags

Follow me
  • GOOGLE Heise: Google Calendar: Update bringt modernes Design: Endlich gibt es, nachdem Google bereits in den letzten Jahren fast alle Produkte modernisiert hat, auch beim Web-Kalender ein neues Design. Nutzer können sich auf eine schlanke Oberfläche und auf ein dezentes Farbschema freuen. Auch Dateien können bei Termindetails hinterlegt werden, die man später aus dem Termin abrufen kann, was sehr praktisch ist, den so können alle relevanten Dateien und Information bei einer Besprechung zur Verfügung stehen. Bei der Tagesansicht ist es jetzt auch möglich mehrere Kalender nebeneinander zu sichten, um so Terminüberschneidungen zu vermeiden.

  • KRACK Augsburger Allgemeine: KRACK: Das müssen Sie zur Wlan-Sicherheitslücke wissen: Was steckt hinter der sogenannten KRACK-Attacke auf WPA2? Hierbei handelt es sich um eine neu entdeckte Sicherheitslücke. Über diese können verschlüsselte WLAN-Verbindungen unter Umständen ausgespäht werden. Betroffen davon sind alle diejenigen, die mit ihren Geräten über Wlan kommunizieren. Das Bundesamt für Sicherheit in der Informationstechnik rät den Nutzern vor allem, dass sie vorerst von Online-Banking, Online-Shopping und der Übertragen von anderen wichtigen Daten absehen. Allerdings ist die Gefahr durch die Sicherheitslücke eher theoretisch, da sich zum einen der Angreifer zum einen vor Ort befinden muss, um auf das Wlan-Netz zuzugreifen. Erst dann können diese ihre Opfer über KRACK ausspionieren. Somit sind massenhafte Attacken auf mehrere Rechner nicht möglich.

  • AMAZON Focus: Wer macht den Milliarden-Deal? Viele Städte buhlen um Amazons neue Zentrale: Wer bekommt Amazons neue Zentrale? In Nordamerika soll es einen neuen Standort für das zweite Amazon-Hauptquartier geben. Bürgermeister und Gouverneure reiben sich bereits die Hände, den das neue Gebäude verspricht Milliarden-Investitionen und mehr als 50.000 hochbezahlte Arbeitsplätze. Bislang wurden viele kuriose Aktionen von Städten, Gemeinden und Bundesstaaten in Gang gesetzt. Neben einem sechs Meter hohem Kaktus, einer Innenstadt, die sich mit riesigen Paketboxen schmückt oder eine angebotenen Nutzfläche mit dem Namen „City of Amazon“ gab es viele weitere Angebote. Allerdings stellt sich hier die Frage, ob die kleinen Städte und ihre kreativen Bewerbungen wirklich eine Chance gegen ihre großen Mitbewerber wie Chicago, New York oder Toronto haben. Die Bewerbungsfrist endet am heutigen Donnerstag.

Weiterlesen »

Grünflächen für das Wohlbefinden – Wie man städtische Räume planen kann, die uns heilen

Wald(adapted)(Image by 12019 [CC0 Domain] via Pixabay)

Ein Fünftel aller Australier wird dieses Jahr einer psychischen Krankheit zum Opfer fallen – und das Leben in der Stadt, macht es noch wahrscheinlicher, dass es passiert. Im Gegensatz zu Menschen, die auf dem Land leben, entwickeln Stadtbewohner Studien zufolge mit einer 20 Prozent größeren Wahrscheinlichkeit Angstsörungen und unterliegen fast einer 40 Prozent höheren Wahrscheinlichkeit, Depressionen zu entwickeln.

Vielversprechend ist jedoch die Erkenntnis aus der Forschung, dass Menschen aus urbanen Zentren, die in der Nähe von Grünflächen wohnen, weitaus seltener an schlimmen psychischen Krankheiten erkranken. Städteplanern ist somit die wichtige Rolle zugeteilt, die Krankheitsraten von psychischen Krankheiten zu verringern. Dabei steht die Frage, wie die Natur unsere Gehirne beeinflusst, im Mittelpunkt und hat großen Einfluss darauf, wie wir die Stadtplanung in Zukunft verändern sollten. Aufgrund der Tatsache, dass Depressionen weltweit die Hauptursache für Berufsunfähigkeiten darstellen, können wir es uns nicht leisten, die Auswirkungen öffentlicher Bereiche auf psychische Erkrankungen zu ignorieren.

Verschiedene Stressfaktoren, die mit dem Leben in der Stadt zu tun haben, lösen eine Hirnaktivität in den Bereichen aus, die für die Reaktionen für Flucht oder Kampf verantwortlich sind. Wie verringert der Aufenthalt in der Natur diese Stressfaktoren? Dazu gibt es zwei Theorien: Beide basieren auf der Annahme, dass die Natur regenerative Auswirkungen auf kognitive und emotionale Körperfunktionen hat.

Es ist jedoch nicht nur die ruhige Atmosphäre, die hier den gewünschten Effekt bringt. Die Natur hat mit ihrer chaotischen, wilden, lauten und vielfältigen Pracht den größten Einfluss darauf, ob das gestresste Gemüt in einen ruhigen und aufmerksamen Zustand zurückgeführt werden kann. Dies bietet dann ein Gefühl der Flucht aus der urbanen Welt – so kurz es auch sein mag.

Der Gedanke ist kein neuer und ebenso wenig überraschend. Der Mensch strebt nach der Natur, um sein körperliches Wohlbefinden wiederherzustellen. Es wurde bereits mehrfach versucht, diese regenerativen Auswirkungen auf das Gehirn zu messen.

Das Resultat ist eine über 40 Jahre andauernde Forschung, bei der vor allem bestimmte neurologische, emotionale und physiologische Auswirkungen der Naturelemente gemessen wurden. Diese Effekte umfassen die Faktoren Ruhe, Kontemplation, verringerte Unruhe und Aggression sowie einen Anstieg der kognitiven Funktionstüchtigkeit – wie beispielsweise der Konzentration und des Erinnerungsvermögens.

Eine vernachlässigte Quelle für die Stadtplanung

Dieser Reichtum an Daten wurde bisher weitestgehend als eine potenziell treibende Kraft für gute Städteplanung übersehen. Vieles davon kann dem Umstand zugeschrieben werden, dass die Daten in wissenschaftliche Disziplinen – die von Grund auf unterschiedlich sind –  isoliert wurden. Alle benutzen verschiedene Termini und viele Ergebnisse sind oft hinter Paywalls wissenschaftlicher Zeitschriften verborgen.

Ebenso wichtig ist die Komplexität der psychischen Krankheiten. Dies macht es schwierig, Schlussfolgerungen bezüglich Umweltauswirkungen zu ziehen. Um die Daten nutzen zu können, musste zunächst eine Metaanalyse dieser Methoden und Ergebnisse stattfinden. Außerdem musste ich meine eigene Interpretation hinzufügen, wie die Daten spezifisch auf die Städteplanung anzuwenden sind. Dabei wurden einige bemerkenswerte Schlussfolgerungen ersichtlich:

  • Verschiedene natürliche Elemente können unterschiedliche Vorzüge hervorrufen. Das bedeutet, dass die Grünflächenanlagen in der Stadtplanung, wie ästhetisch ansprechend sie auch sein mögen, nicht gezielt die Bekämpfung psychischer Krankheiten zum Ziel hat.

  • Die Zeit spielt eine entscheidende Rolle. Es ist sinnlos, große Grünflächen zu haben, wenn diese nicht dazu verleiten, lange genug zu bleiben, um die wiederherstellenden Effekte auszunutzen.

  • Wie man mit seiner Umgebung umgeht, ist durchaus wichtig. Die Resultate unterscheiden sich dahingehend, ob die Person der Umwelt Beachtung schenkt, ihr zuhört oder in ihr trainiert. Wenn man all diese Kriterien berücksichtigt, ergeben sich vielschichtige Kombinationen verschiedener Planungsszenarien.

Auch wenn viele Studien die heilende Wirkung von Wäldern bereits erforscht haben, sind diese für die meisten Stadtbewohner keine Option, da sie entweder nicht so einfach erreichbar oder schlichtweg nicht vorhanden sind. Stadtparks können eine Alternative sein, denn wenn man mit natürlichen Maßnahmen im städtischen Raum interveniert und die zufällige Interaktion des Individuums mit der Grünfläche fördert, kann man einen zusätzliche Nutzen davontragen.

Viel wurde darüber geschrieben, wie Joggen oder andress Training im Grünen die Effekte der Natur auf das Gehirn zu verstärken vermag. Tatsächlich können schon fünf Minuten Training im Grünen diese Vorteile hervorrufen.

Was ist an den bereits existierenden Grünflächen auszusetzen?

Insbesondere in Wohngebieten sind viele Stadtparks und Grünflächen sehr langweilig und wenig inspirierend gestaltet. Es fehlt hier an Grundlegendem, um ein Gefühl für die Natur hervorzukitzeln. Darüber hinaus fördern sie nicht das Verlangen, draußen laufen zu gehen oder die Natur zu genießen – völlig unabhängig davon, wie lange man sich dort aufhält.

Beispielweise wecken Wege ohne Schattenspender nicht das Bedürfnis, lange genug laufen zu gehen, um von den Vorteilen zu profitieren. Weil es keine abwechslungsreichen Landschaften und kaum interessante Ecken gibt, kommt selten jemand vorbei, um sich hier aufzuhalten – besonders wenn man berücksichtigt, wie sich Parks von ihrer Umgebung unterscheiden könnten.

Mit dem Versuch, Plätze zu schaffen, die einem bestimmten Zweck dienen –  wie beispielsweise das Schaffen von Platz, um Fußball spielen zu können – litt die Artenvielfalt und somit auch die Schönheit, die Geräuschkulisse und die unterschiedlichen Gerüche, die für eine eindringliche, multi-sensorische Erfahrung notwendig sind. Gleiches gilt für viele Fußwege und Wohnstraßen in den Vorstädten.

Wenn es die Stadtplanung richtig macht

Man vergleiche diese Umstände mit anderen Stadtgebieten, die ihre Parks kreativer und fast willkürlich anlegen, um Aufmerksamkeit und eine echte Begegnung hervorzurufen. Hier gibt es Parks und städtische Grünflächen, die so gestaltet wurden, dass sie uns anregen, dort zu verweilen, auszuruhen und länger zu laufen. Im Umkehrschluss führt dies dazu, dass wir uns bestmöglich regenerieren können.

Die Rolle der Städteplaner dreht sich immer weniger um die Gestaltung eines Raumes, vielmehr geht es um die Förderung der Prinzipien, die auf städtische Räume angewendet werden können: Dies kann sich auf einen speziell angepassten Kontext, eine Landschaft, ein Region oder ein Klima beziehen. Dies bedeutet einerseits, dass die Stadtplanung einen tiefgehenden Einfluss auf das geistige Wohlbefinden haben kann. Zudem heißt es, dass wir uns nach Daten außerhalb unseres Wissensumfeldes umschauen müssen, um das Problem auf möglichst effektive Weise zu lösen.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „Wald“ by 12019 [CC0 Public Domain]


The Conversation

Weiterlesen »

Spieleentwickler gegen Fake News

Spiele (adapted) (image by Pexels [CC0] via pixabay)

Was ich toll an dem Spiel finde, ist, dass ich sehr schlecht darin bin und dass andere Leute sehr schlecht darin sind.“ Möchtest du deine eigenen Fake News erstellen? Ja, dafür gibt es eine App. Möchtest du Spaß dabeihaben, wenn du lernst, wie du Fake News von deinem Medienkonsum entfernst? Zum Glück gibt es dafür auch einige Apps.

Die Epidemie von Fake News während und nach der Präsidentschaftswahl in den USA brachte mehrere Spieledesigner und Journalisten dazu, über den Tellerrand hinauszuschauen, um gegen das Problem anzugehen. Sie sagen, dass große Geister ähnlich denken – und drei verschiedene Gruppen haben drei ähnliche Apps entwickelt, um Usern zu helfen, wie sie den Unterschied zwischen marktschreierischen Schlagzeilen und tatsächlichen Fakten erkennen können.

„Es ist heutzutage anstrengend, politisch aufmerksam zu sein”, meint Christopher Cinq-Mars Jarvis, der Entwickler eines Spiels, das auf überprüften Behauptungen von PolitiFact basiert. „Etwas, das es etwas erreichbarer macht und Hilfe anbietet. Dies funktioniert nicht nur mit Politik, sondern mit einer Vielzahl an Dingen.“

Nach der Wahl war Jarvis inspiriert, sich mit PolitiFact zusammenzutun, um das Handyspiel PolitiTruth zu entwickeln. Die Agentur für Digitale Medien ISL mit Sitz in Washington D.C. kreierte ‚Fake News: The Game‘ und veröffentlichte es als eine App und als Handyspiel für Spielautomaten, wie sie in manchen Bars stehen. Und Maggie Farley, ein Mitglied der JoLTan der American University und ehemalige L.A. Times-Korrespondentin, entwickelte das Konzept eines Fake News-Spiels mit Lindsay Grace, der Geschäftsführerin von AU Game Lab, sogar noch vor der Wahl – obwohl das Labor kurz vorher die Version 2.0 von Factitious veröffentlichte. Dabei handelte es sich um ein browserbasiertes Spiel.

Die Spiele haben alle etwa das gleiche Setup: Der Spieler bekommt eine Überschrift, einen Artikel oder eine Behauptung und muss dann den Wahrheitsgrad erraten. Nichts davon ist ausgedacht – alles ist irgendwo online veröffentlicht worden, entweder auf einer Website, die bekannt für Fake News ist, oder auf einer Seite einer wirklich existierenden Organisation. ‚Fake News: The Game‘ zeigt nur eine Überschrift und Facticious bezieht einen kleinen Ausschnitt eines Artikels mit einer Überschrift und einer Quelle ein, wenn man dies auswählt. (Factitious ist ein Open Source-Projekt, das mit der Knight Foundation entwickelt wurde, die für Gaming im Journalismus gewährt wird. Knight unterstützt auch das Nieman Lab.)

PolitiTruth bezieht aus dem Archiv von PolitiFact aus überprüften Behauptungen bestimmte Zitate und den Namen der Person, von der es stammt. Auch wird drn Kontext, der besagt, wann und wo das Zitate entstanden ist, angegeben. Der Spieler muss dann den Wahrheitsgrad der Behauptung des Zitats erraten. Man erhält Punkte für richtige Antworten. Bei manchen Spielen werden die auf einer weltweit einsehbaren Liste angezeigt.

Machen diese Spiele so süchtig wie Pokemon Go oder Candy Crush? Das ist zu hoffen. „Die globale Pandemie von falschen Informationen ist offensichtlich unvermeidbar und wahr und wenn wir auch nur eine winzige Rolle spielen können, um dagegen angehen zu können, dann sind wir erfreut und gespannt, dass wir etwas für die gute Seite tun können“, sagt D.J. Saul, Marketingchef und Geschäftsführer von ISL.

Gaming im Journalismus ist ein Konzept, das zunehmend Erfolg hat. Das bestätigt zumindest Rose Eveleth kürzlich in unsererem Schwestermagazin, den Nieman Reports:

Da die digitale Technologie es ermöglicht, immer mehr aus unserem Leben als Kunden mit einzubringen, zu spielen, Punkte zu sammeln oder gegen andere anzutreten, haben sämtliche Firmen Dinge wie Spiele in ihre Strategien eingebunden. Energielieferanten bewerten deine Energieeffizienz im Vergleich zu anderen Haushalten in deiner Nachbarschaft; Krankenversicherungen motivieren dich, Punkte zu sammeln, indem du Sport machst und aktiv bleibst. Foursquare motiviert seine Nutzer, regelmäßig ihre Lieblingsorte zu besuchen, um zu „gewinnen“ und Bester zu werden.

Für Journalisten bieten diese Art Spiele eine attraktive Möglichkeit, um Geschichten zu erzählen. Sie können komplexe System simulieren, bei denen verschiedene Entscheidungen unterschiedliche Enden bewirken können. Sie können Emotionen und Dringlichkeit in den Spielern hervorrufen. Und sie können die Menschen mit Erfahrungen in Verbindung bringen, die sie womöglich niemals im echten Leben haben werden. „Unser Job als Journalisten ist es, die Öffentlichkeit zu informieren“, sagt der Journalist und Spieledesigner Sisi Wie. „Indem wir Emotionen und Empathie nutzen, wird es durch das Spiel für den Leser möglich, sich auf eine neue Weise zu informieren, die die Leser sofort verstehen und sich auch später noch daran erinnern können.“

Nach links oder rechts zu wischen, um eine Entscheidung zu fällen, iwie es bei Dating Apps wie Tinder und Bumble üblich ist, kann hier genauso hilfreich sein. Ich habe mit Mitgliedern aus jedem Entwicklerteam gesprochen, um zu sehen, was sie wirklich aus ihren Fake News-Spielen gelernt haben. Dies haben sie herausgefunden:

Ein Fake-News-Spiel ist nicht so weit hergeholt

Lindsay Grace, der Geschäftsführer des AU Game Lab, ist fasziniert vom Konzept von Spielen in Nachrichtenproduktion. The Onion ist eine besondere Spieleform. Wo hat dies einen Platz im großen Mediensystem?“ sagt er. „Die Menschen verbinden Unterhaltungsnachrichten, Leute wie Jon Stewart und die vielen Daily Shows mit traditionellen Nachrichten und sie verschmelzen miteinander… Wir haben herausgefunden, dass es innerhalb der Spielewelt ebenfalls Verschmelzungen gibt. Wir haben das Konzept die ernsten Spiele verkauft. Hier glaubt man, dass Spiele uns helfen, uns anders zu entwickeln, Lernmöglichkeiten und Möglichkeiten bieten, um komplexe Systeme zu verstehen. Warum sollte man dies nicht miteinander verbinden?“

Jarvis, der Entwickler von PolitiTruth, ist als Programmierern geboren. Mit dem Journalismus hat er nicht so viel am Hut, obwohl PolitiFact ihm durchaus ein Begriff ist. „Es entstand eine abhängige Beziehung seit der letzten Wahl“, erzählt er. Seine Idee für ein Fake News-Spiel „entstand, als ich sah, dass sie eine offene Programmierschnittstelle haben. Ich dachte, dass dies eine optimale Gelegenheit ist, um etwas zu erschaffen, wo man die Menschen motivieren kann, sich diesem tollen Journalismus zu stellen und sie in gewisser Weise auszutricksen, indem es in einen Wettkampf umwandelt.“

Manchmal braucht man mehrere Versuche, um das richtige Spieledesign zu schaffen

Factitious von AU begann vor der Wahl als Gameshow Spiel. Aber es wurde schnell klar, dass für Personen, die nichts mit Nachrichten zu tun haben, das Spiel zu steuern, erläutert Grace. „Die erste Version dieses Spiels passte nicht wirklich zu dem, was wir über die Aufmerksamkeitsspanne von Menschen wissen, wie die Interaktion Spaß macht und wie man eine schnelle mobile Erfahrung designt. Die zweite Version hat all diese Punkte bereits eingebaut.“ Die Änderung zahlte sich aus: das erste Spiel hatte nur ein paar hundert Spieler, aber Grace meint, dass Factitious mehrere Millionen Mal in den wenigen Monaten gespielt wurde, in denen es live erreichbar ist.

Das Wischen wie bei Tinder funktioniert

Grace gab zu, dass die Einführung vom „Wischen nach links oder nach rechts, um zu sehen, ob ein Artikel echt ist oder unter Fake News fällt“, einen entscheidenden Unterschied für das neue Design machte. Jarvis von PolitiTruth bemerkte einen ähnlichen Erfolg: „Als wir das Spiel bei der E3 [die Electronic Entertainment Expo in Los Angeles] bekanntgaben, nannten die Menschen es gerne ‚Tinder für Fake News‘.“

Informationen wollen aufgesaugt werden

In den ersten drei Tagen von Factitious spielten sich die Teilnehmer laut Grace durch 1,6 Millionen Artikel. Das durchschnittliche Ergebnis für Menschen, die die 15 Artikel des Spiels durchspielten, liegt bei 82 Prozent richtigen Antworten. „Wenn man gut spielen möchte, kann man den Inhalt jedes Artikels überprüfen, bevor man wischt“, sagt er. „Das ist eine Verhaltensänderung, die sonst nur durch Twitter oder Facebook scrollen und nur teilen, ohne zu überprüfen, ob es wahr ist.“

Saul von ISL führt aus, dass die Daten von ‚Fake News: The Game‘ zeigen, dass die Menschen immer akkurater werden, je öfter sie spielen. Die Spieler haben einen Durchschnitt von 65 Prozent in der korrekten Identifizierung von realen oder falschen Überschriften.

Die Nutzer von PolitiTruth haben eine weltweite Erfolgsrate von 70 Prozent, meint Jarvis. „Das Spiel wäre kein nützliches Mittel, wenn man immer 100 Prozent erreichen würde.“ Er merkte an, dass die Ausschnitte in dem Spiel tatsächlich manche Nutzer informieren. „Die Menschen sollen nicht denken, sie müüssen den ganzen Artikel lesen, aber sie können es tun. Wenn etwas merkwürdig erscheint, können sie direkt auf die Nachrichtenseite weitergeleitet werden. Sie können sogar sehen, wie Kommentarschreiber und andere Menschen auf diese journalistische Erhebung geantwortet haben“, sagte er.

Die Menschen sind davon überrascht, wie schlecht sie abschneiden

“Es macht viel Spaß, den Menschen dabei zuzuschauen, wie sie das Spiel spielen. Sie können nicht glauben, dass manche Ergebnisse tatsächlich wahr sind. Sie glauben jedoch auch nicht, dass etwas falsch ist – auch wenn sie die Antwort bereits kennen“ berichtet Saul. (Zusätzlich zur App reist ‚Fake News: The Game‘ durch verschiedene Bars in der Region von D.C. im Stile eines Arcade-Spiels aus den Neunzigrn.)

“Was ich an dem Spiel wirklich toll finde, ist, wie schlecht ich darin bin und wie schlecht andere Menschen darin sind”, schlussfolgert Jarvis über PolitiTruth. „Sogar Menschen, die insgeheim denken, dass sie wissen, was passiert, wischen nach links und liegen komplett falsch. Es ist eine große Herausforderung für das politische Bewusstsein.“

Jedoch kann es Menschen frustrieren, weswegen sie das Spiel schnell verlassen. Grace schloss daraus, dass es einen deutlichen Unterschied zwischen Menschen gibt, die Zeit damit verbringen Factitious durchzuspielen und denen, die das Spiel vorzeitig verlassen. „Die Menschen, die aufgeben, erzielen meistens schlechte Ergebnisse und verlassen das Spiel vor dem vierten ALevel,“ erläutert er und bemerkt, dass diese Gruppe rund 20 bis 30 Prozent der Spieler ausmacht. „Sie sind frustriert und kriegen nicht die Antwort, die sie erwarten.“

Auch die Entwickler lernen – aus den Daten der Spieler

„Wir führen detaillierte Statistiken, die wir hoffentlich demographisch analysieren können, um gezielt zu sehen, woher die Fake News kommen und wer dafür am anfälligsten ist,“ fasst Jarvis zusammen. Aaron Sharockman, Geschäftsführer von PolitiFact, führt aus, dass diese Einblicke in das Verhalten der Nutzer dem zukünftigen Faktencheck behilflich sein können. „Die Menschen spielen das Spiel gerne, aber wir kriegen viele Informationen nebenbei, die wir nutzen können“, sagte er.

„Wir können darüber nachdenken, was wir auf Fakten überprüfen und wie wir das machen.“ Als Teil der Knight Foundation, die die Produktion des Spiels unterstützt, hat das Factitious Team vor, die Daten mit verschiedenen Nachrichtenorganisationen zu teilen. „Wir können es dort auslegen und unsere Zielgruppe das Spieldurchspielen lassen“, erklärt Grace. „Nachrichtenorganisationen können Dinge machen, wie das Bild tauschen… Überschriften bearbeiten, den Haupttext einsehen.“

Diese Spiele sind nicht das Ende

ISL überlegt, seine Sets zu verkaufen, sodass die Menschen die Arcadeversion von ‚Fake News: The Game‘ selbst aufbauen können, aber auch, dass Spieler das Spiel mit Alexa von Amazon mit einem von ISL entwickelten Skill zu nutzen. Saul erklärte, dass ein vorgeladener O-Ton von Donald Trump den Nutzern mitteilt, ob sie richtig oder falsch liegen.

Da Factitious ein Open-Source-Projekt ist, ist AU Game Lab vorsichtig in Bezug auf Fake News-Produzenten, die falsche Versionen des Spiels anbieten. „Wir haben es so gestaltet, dass es leicht erreichbar ist. Die Herausforderung ist, dass wir auch in Bezug auf Branding vorsichtig sein müssen,“ sagt Grace. „Wenn jemand ein Fake News Spiel entwickeln möchte und sämtliches schädliches Material einbauen möchte, müssen wir aufpassen.“ Andererseits ist PolitiFact gespannt PolitiTruth als ein neues Mittel für Reichweite zu haben. “Während wir alles versuchen, um so transparent und objektiv wie möglich zu sein, gibt es Teile in der Bevölkerung, die uns als voreingenommen betrachten,“ sagt Sharockman. „Das Spiel wäre ein neuer Weg, um Leser in einem anderen Format zu erreichen, mit ihnen in einer neuen Weise zu interagieren und langzeitig zu sehen, ob wir das Vertrauen in den Faktencheck und PolitiFact selbst verbessern können.“

Sharockman fügte in diesem Herbst hinzu, dass PolitiFact verschiedene Experimente veröffentlichen wird, um die Verbreitung von Fake News mit der Unterstützung der Knight Foundation zu bekämpfen. Dieses Spiel ist einer dieser Experimente und Sharockman hofft auch, dass das Spiel Einzug in die Schulen halten wird, um für mehr Nachrichtenkompetenz sorgen zu können.

Dieser Artikel erschien zuerst auf „NiemanLab“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „Spiel“ by Pexels (CC0 Public Domain)


Weiterlesen »

Netzpiloten sind Partner der Privacy Conference in Berlin

Partnergrafik_Privacy-Conference

In Berlin wird ausgiebig über das Thema Datenschutz gesprochen und ihr habt die Chance dabei zu sein! Wir verlosen unter unseren Lesern zwei Tickets für die Privacy Conference. Um bei der Verlosung mitzumachen, könnt ihr hier teilnehmen. Zeit dafür habt ihr bis zum 22. August. Wir wünschen euch viel Erfolg!

Teilnahmebedingungen


Am 19. September ist es endlich soweit: die internationale Privacy Conference in Berlin öffnet ihre Tore. Hier teilen Datenschutz-Experten ihre praktischen Erfahrungen aus der digitalen Wirtschaft.

Besucher erhalten von Experten aus Wirtschaft, Behörden und Wissenschaft praxisbezogene Lösungen, wie diese die neue EU- und internationale Datenschutzregelung in ihren Unternehmen integrieren und einhalten können.

Zudem werden in zahlreichen Panels und Diskussionen Themen besprochen wie unter anderem der internationale Datenfluss oder dem Datenschutz Management. Trefft dabei auf namhafte Speaker wie Jan Philipp Albrecht – Abgeordneter des Europäischen Parlaments – oder Marit Hansen, die Landesbeauftragte für Datenschutz Schleswig-Holstein und Diplom-Informatikerin. Mehr zum Ablauf der Konferenz findet ihr hier.

Wer Teil der spannenden Privacy Conference sein möchte, der sollte sich schnell Tickets sichern und sich das Datum auf jeden Fall merken.


Image by Fotolia.de – sora_nus adapted by Netzpiloten

Weiterlesen »

Mikroben haben ihre eigene Version des Internets

Mikroben (adapted) (Image by geralt) (CC0Public Domain) via Pixabay

Die Erschaffung eines großen, weltumspannenden Netzwerks, das Milliarden von Leuten vernetzt, dürfte bis heute eine der größten Errungenschaften der Menschheit sein. Doch Mikroben sind uns da um mehr als drei Milliarden Jahre voraus. Diese winzigen, einzelligen Organismen sind nicht nur für sämtliches Leben auf der Erde verantwortlich. Sie haben darüber hinaus ihre eigenen Versionen des World Wide Web und des Internets der Dinge. Und so funktioniert es:

Ganz so wie unsere eigenen Zellen behandeln Mikroben bestimmte Stücke der DNA wie verschlüsselte Nachrichten. Diese Nachrichten enthalten Informationen, um Proteine zu molekularen Maschinen zusammenzubauen, die spezifische Probleme lösen können, wie beispielsweise Zellen zu reparieren. Doch Mikroben erhalten diese Nachrichten nicht nur von ihrer eigenen DNA. Sie schlucken auch Stücke der DNA ihrer toten Verwandten oder tauschen mit lebenden Freunden.

Diese DNA-Stücke werden dann in ihre eigenen Genome aufgenommen, die wie Computer funktionieren und die Arbeit der gesamten Protein-Maschinerie überwachen. Auf diese Weise ist die winzige Mikrobe eine flexible Lernmaschine, die intelligent nach Ressourcen in ihrer Umwelt sucht. Sollte eine Protein-Maschine nicht funktionieren, testet die Mikrobe eine andere. Versuch macht klug – so werden alle Probleme gelöst.

Doch Mikroben sind zu klein, um ganz allein zu agieren. Stattdessen formen sie Gemeinschaften. Seit Anbeginn ihrer Existenz leben Mikroben in gigantischen Kolonien, die aus mehreren Trillionen von Mitgliedern bestehen. Diese Kolonien haben sogar mineralische Strukturen hinterlassen, die als Stromatolith bekannt sind. Es handelt sich um mikrobielle Metropolen, eingefroren in der Zeit wie Pompeji, die für das Leben vor Milliarden von Jahren Nachweis erbringen.

Mikroben-Kolonien lernen beständig und entwickeln sich stets weiter. Sie entstanden in den Ozeanen und haben allmählich das Land erobert – und das Herzstück ihrer Forschungsstrategie war der Informationsaustausch. Wie wir gesehen haben, kommunizieren individuelle Mitglieder, indem sie chemische Botschaften auf hochgradig koordinierte Art untereinander austauschen. Auf diese Weise erbauen mikrobische Gesellschaften ein kollektives „Bewusstsein“.

Dieses kollektive Bewusstsein schickt Software-Stücke, geschrieben im DNA-Code, zwischen Trillionen von Mikroben hin und her – mit einem einzigen Ziel: die lokale Umgebung vollständig auf Ressourcen hin zu untersuchen, die Protein-Maschinen nutzen.

Wenn die Ressourcen an einem Platz aufgebraucht sind, rücken mikrobielle Expeditionstruppen aus, um neues Land zu finden: Sie übermitteln ihre Funde zurück zur Basis, indem sie verschiedene Arten chemischer Signale einsetzen, und die Mikroben-Gesellschaft aufrufen, sich von Siedlern zu Besiedelten zu wandeln.

Auf diese Weise übernahmen die Mikroben die Erde, indem sie ein weltweites, mikrobielles Netzwerk erschufen, das unserem eigenen World Wide Web ähnelt, aber chemische statt elektrodigitaler Signale benutzt. Theoretisch kann ein Signal, das am Südpol im Wasser ausgesandt wird, rasch rund um den Nordpol wandern.

Das Internet der lebenden Dinge

Die Gemeinsamkeiten mit menschlichen Technologien hören nicht an dieser Stelle auf. Wissenschaftler und Ingenieure arbeiten nun daran, unser eigenes Informationsnetzwerk in ein Internet der Dinge auszubauen, das verschiedene Arten von Geräten integriert, indem diese mit Mikrochips ausgestattet werden, die wahrnehmen und kommunizieren sollen. Unser Kühlschrank wird also fähig sein, uns zu benachrichtigen, wenn die Milch alle ist. Unsere Häuser werden und mitteilen können, wenn eingebrochen wurde.

Mikroben haben ihre eigene Version des Internets der Dinge bereits vor langer Zeit gebaut. Wir nennen es das ‚Internet der lebenden Dinge‘, obwohl es allgemein eher als Biosphäre bekannt ist. Jeder Organismus auf diesem Planeten ist in diesem komplexen Netzwerk verbunden und sein Überleben hängt von Mikroben ab.

Vor mehr als einer Milliarde Jahre hat eine Mikrobe ihren Weg ins Innere einer anderen Mikrobe gefunden, die so ihr Wirt wurde. Diese beiden Mikroben wurden zu einem symbiotischen Hybrid, der uns als eukaryotische Zelle bekannt ist, die Basis fast aller Formen des Lebens, die wir heute kennen. Alle Pflanzen und Tiere sind Nachfahren dieser mikrobiellen Verschmelzung, und beinhalten so die biologische „Plug-in Software“, die sie zum Internet der lebenden Dinge verbindet.

So sind wir Menschen beispielsweise so designt, dass wir ohne die Trillionen von Mikroben im Inneren unseres Körpers, die bei der Verdauung von Essen oder bei der Entwicklung von Immunität gegenüber Keimen helfen, nicht funktionieren können. Wir sind so von Mikroben überhäuft, dass wir persönliche mikrobielle Signaturen auf jeder Oberfläche, die wir anfassen, hinterlassen.

Das Internet der lebenden Dinge ist ein sauberes und wunderschön funktionierendes System. Pflanzen und Tiere leben auf dem von Mikroben erstellten ökologischen Abfall. Für Mikroben sind dagegen alle Pflanzen und Tiere „nunmehr das Vieh, dessen Fleisch sie speisen“, dessen Körper verdaut und eines Tages recycelt werden, wie der Autor Howard Bloom es formuliert hat. Mikroben sind potentielle Weltall-Touristen. Wenn die Menschen in den Weltraum reisen, reisen unsere Mikroben mit uns. Das Internet der lebenden Dinge könnte eine große, kosmische Reichweite bergen.

Das Paradoxe ist, dass wir die Mikroben immer noch als unterlegene Organismen wahrnehmen. Doch es verhält sich in Wirklichkeit so, dass Mikroben die unsichtbaren und intelligenten Anführer der Biosphäre sind. Ihre Biomasse übersteigt die unsere. Sie sind die eigentlichen Erfinder der informationsbasierten Gesellschaft. Unser Internet ist nur ein Nebenprodukt des mikrobiellen Informationsspiels, das bereits vor drei Milliarden Jahren initiiert wurde.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „Bacteria“ by geralt (CC0 Public Domain)


The Conversation

Weiterlesen »

Warum der Gesundheitssektor oft Ziel von Hackern ist

Bildschirm (adapted) (Image by Pexels) (CC0) via Pixabay

Im Jahr 2016 wurden mehr als 16 Millionen Patientenakten von Gesundheitsorganisationen und Behörden gestohlen. In diesem Jahr war der Gesundheitssektor die fünfthäufigste Industrie, die ins Visier genommen wurde. Zu Beginn diesen Jahres wurde Großbritannien National Health Service von einer Ransomware Attacke getroffen, dessen Virus viele Computer, die Patientenakten und Buchungssysteme enthielten, unzugänglich gemacht hat.

Aber es sind nicht nur Gesundheitsdaten und -dienste gefährdet – sondern auch Menschenleben. Der ehemalige US-Vizepräsident Dick Cheney hat bereits im Jahr 2007 seinen Herzschrittmacher modifiziert, um zu verhindern, dass dieser gehackt werden und ihm eventuell schaden könnte. US-Beamte hatten auch kürzlich wieder vor einer solchen Gefahr gewarnt. Jedes medizinische Gerät, das mit einen Netzwerk verbunden ist – von MRT-Geräten bis zum elektrischen Rollstuhl – läuft Gefahr, von Hackern angegriffen zu werden.

Da die vernetzten Technologien immer mehr in den Gesundheitssektor eingebracht werden, wird diese Cyber-Bedrohung wahrscheinlich nur noch zunehmen. Doch wenn wir unser Gesundheitssystem vor Cyberangriffen beschützen wollen, sollten wir keine Angst vor diesen Technologien haben. Stattdessen sollten wir versuchen, sie besser zu verstehen. Wir müssen erkennen, dass diese Bedrohung schlimmer wird, wenn wir Menschen einfache Fehler machen.

Wie hoch ist die Gefahr für den Gesundheitssektor?

Die häufigste Cyberbedrohung für den Gesundheitssektor ist Datendiebstahl. Normalerweise werden diese mit einem Phishing-Angriff eingeleitet. Hat ein Arzt Zugriff zu Patientenakten, sendet der Angreifer ihm möglicherweise eine E-Mail, in der er auf einen Link oder einen Anhang klicken soll und so Malware auf den heimischen Computer herunterlädt. Der Angreifer kann dann diese Software nutzen, um Zugang zu finanziellen, administrativen und klinischen Informationssystem der Organisation zu erhalten. Im Falle des jüngsten „Wannacry“-Angriffs, bei dem auch der NHS betroffen war, hat die Malware – in diesem Fall Ransomware – den Benutzer aus ihren Computern ausgesperrt und Geld gefordert, um sie freizugeben.

Diese Angriffe können sich auch zu „fortgeschrittenen anhaltenden Bedrohungen“ gegen das Gesundheitsnetzwerk entwickeln. Diese treten auf, wenn die Malware in das Gesundheitsnetzwerk gelangt und dort unbemerkt bleibt, während sie mit dem Angreifer in Kontakt bleibt. Von dort aus kann sie sich über das gesamte Netzwerk verteilen, auch wenn der ursprüngliche Download erkannt und entfernt wird. Die Malware kann so Daten stehlen und den Netzwerkverkehr an den Angreifer senden, der dadurch genau sehen kann, was im System in Echtzeit passiert.

Angreifer können auch das Gesundheitsnetzwerk nutzen, um sich in angeschlossene medizinische Geräte und Ausstattungen wie Ventilatoren, Röntgengeräte und medizinische Laser zu hacken. Von dort aus können sie sich eine „Hintertür“ einrichten, durch die sie einen dauerhaften Zugang zu den Geräten erhalten, auch wenn die Software aktualisiert wird, um die Sicherheit zu verbessern.

Es ist auch möglich, dass Angreifer eines Tages künstliche Intelligenz für komplexere Angriffe nutzen. Zum Beispiel könnten Hacker ein intelligentes System verwenden, um Algorithmen im Gesundheitswesen zu blockieren, die Rezepte oder Medikamentenbibliotheken verwalten und diese anschließend durch Fälschungen ersetzen.

Warum ist das Gesundheitswesen so ein interessantes Ziel?

Jede Organisation, die mit Computern arbeitet, läuft Gefahr, Opfer von Cyberangriffen zu werden. Doch wer wirklich Geld erpressen will, findet weitaus interessantere Ziele. Der jüngste Angriff auf die NHS beispielsweise brachte nur sehr wenig Lösegeld.

Ein wesentlicher Grund für die Bedrohung des Gesundheitssektors ist, dass er als kritische Infrastruktur, neben Wasser-, Strom- und Verkehrsnetzen, eingestuft wird. Dies macht es zu einem attraktiven Ziel für Hacker, die Chaos verbreiten wollen, vor allem aus dem feindlichen Ausland. Der Angriff auf eine Gesundheitsorganisation, die Teil einer größeren Infrastruktur ist, könnte auch einen Weg in andere kritische Einrichtungen bieten.

Ein Grund für die riesige Anzahl von Möglichkeiten von Angriffen auf das Gesundheitssystem ist, dass sie sich auf Technologien verlassen. Der Gesundheitssektor macht sich heutzutage massiv von teurer Technik abhängig. Sie nutzen sie nicht nur in Form von Computersystemen und Krankenhausequipment, sondern auch durch die Nutzung von Geräten, die Menschen an oder sogar innerhalb ihres Körpers tragen, wie Fitnessüberwachungsgeräte oder digitale Herzschrittmacher. Es gibt aber auch jede Menge Möglichkeiten für einen Gesundheits-Hacker – von Datennetzen über mobile Anwendungen und sogar nicht-medizinischen Überwachungssystemen wie CCTV.

Insbesondere die Ausbreitung des „Internet of Things“, die mittlerweile fast schon standardmäßige Verbindungen von Geräten und Objekten zum Internet, erhöht die Anzahl von potenziellen Zugriffspunkten für Hacker. Im Gegensatz zu vielen trivialen Anwendungen haben die mit dem Netz verbundenen medizinische Geräte offensichtliche Vorteile, weil sie sofort nützliche Daten oder Anweisungen mit dem medizinischem Personal austauschen können. Hier liegt eine der größten Gefahren, weil die Geräte oft an kritischen Prozeduren oder Behandlungen beteiligt sind. So wäre beispielsweise eine Störung der Signale von einem robotergetriebenen chirurgischen Werkzeug absolut verheerend.

Wie können wir den Gesundheitssektor vor Angriffen schützen?

Die meisten Angriffe gegen den Gesundheitssektor fallen in die Kategorie der Raketenangriffe. Sie können den Angegriffenen nicht nur spontan schaden und begrenzte Spuren hinterlassen, sie können auch erhebliche Schäden verursachen. Dies macht es sehr schwierig, die Angreifer aufzuspüren oder zukünftige Angriffe vorherzusagen.

Die Organisationen des Gesundheitswesens sind sich bereits dieser Gefahr bewusst und beginnen, Maßnahmen zu ergreifen, um sich selbst zu schützen. Dies geschieht beispielsweise durch den Einbau von Cyber-Sicherheit in ihre Strategien zur Informationstechnologie. Auf einen „Delivery level“ können Krankenhäuser neue Sicherheitsstandards etablieren und bessere Wege zur effektiven Integration der verbundenen Systeme finden.

Doch der Gesundheitssektor leidet unter denselben Problemen wie jede andere Technologie. Wenn ein Sicherheitsteam denkt, dass es ein Problem erfasst hat, taucht schon das nächste auf. Wenn ein Problem gelöst ist, gibt es direkt noch mehr. Diese Probleme sind von Menschen für Menschen entworfen – daher lässt sich vermuten, dass sie für menschlichen Fehler anfällig sind.

Obwohl man das Personal so gut wie möglich trainieren kann, braucht nur jemand auf einen Button klicken, um Malware in das System hineinzulassen, die anschließend das ganze System zerstören kann. Desweiteren könnte die Angst vor Rechtskosten und Verantwortlichkeiten dazu führen, dass einige Organisationen bestimmte Vorfälle nicht melden. Sie könnten stattdessen Maßnahmen ergreifen, die die Bedrohung erhöhen könnten, wie beispielsweise Lösegeldzahlungen an Hacker. In Wirklichkeit jedoch hängt der Ruf und das Vertrauen der Gesundheitsorganisationen davon ab, dass sie das wahre Ausmaß der Bedrohung erkennen und ausreichende Maßnahmen ergreifen, um sich dagegen zu schützen.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „Bildschirm“ by Pexels (CC0 Public Domain)


The Conversation

Weiterlesen »

FollowUs – Die Netzpiloten-Tipps aus Blogs & Mags

Follow me
  • 5G t3n: Bund: Deutschlandweites 5G-Netz bis 2025: Das 5G Netz soll bis 2020 in Deutschland Marktreif sein, bis 2025 flächendeckend, das hat das Bundeskabinett diese Woche beschlossen. Alexander Dobrindt, Minister für Verkehr und digitale Infrastruktur betonte, dass Deutschland Leitmarkt werden solle. 5G-Netz soll schnellere Datenverbindungen auch für selbstfahrende und computergesteuerte Autos ermöglichen- Ausgebaut werden soll das Netz mit bestehenden Leitmasten und einem ausbau von einem flächendeckenden Glasfasernetz.

  • WAHLKAMPF sueddeutsche: Können Parteien mit personalisierter Werbung die Wahl manipulieren?: Dass soziale Medien in der Politik eine immer größere Rolle spielen hat schon der Wahlsieg von US-Präsident Trump. Nun fragen sich viele, ob die Daten von Facebook und co. wirklich für Wahlmanipulation genutzt wurden oder genutzt werden können. Werbeanzeigen können gezielt auf bestimmte Zielgruppen aufgespielt werden und sie so manipulieren. Nun stellt sich die Frage ob auch deutsche Parteien in Bezug auf die anstehende Bundestagswahl vermehrt den Weg über Facebook nutzen, um gezielt Werbung über diese so genannten „dark adds“ zu machen.

  • HYPERLOOP wired: Hyperloop’s first real test is a whooshing success: Elon Musk’s Vision des Hochgeschwindigkeits-Transrapids “Hyperloop” könnte wahr warden. Das Unternehmen meldete den ersten erfolgreichen Test in Echtgröße in Nevada. Die Bahn erreichte in der nahezu Vakuumröhre ungefähr 112 km/h. Ein Teilerfolg, da die Bahn eine Höchstgeschwindigkeit von 1120 km/h verspricht. Getestet wurden vorerst nur Antrieb, Bremsen und das freie Schweben auf dem Luftkissen, welches die Bahn fortbewegen soll. Das Unternehmen stellte ebenfalls einen Plan für das Design des Personenzugs vor. Das Nächste Ziel sei nun 400 km/h zu erreichen

  • AUTONOMES FAHREN heise: Kalifornien wird fahrerlose Autos genehmigen: Der amerikanische Staat Kalifornien wird den Regelbetrieb selbstfahrender und sogar fahrerloser Autos ohne unabhängige Sicherheitstests genehmigen. Pläne für die Änderungen der Bestimmungen seien seit Jahren in Arbeit. Die jährliche Testgebühr für Unternehmen solle deutlich angehoben werden, Unfälle müssen dafür nur noch der Behörde gemeldet werden, wenn es zu keiner Kollision gekommen ist. Sollten Passagiere auf den Testfahrten transportiert werden, müssen diese Fahrten kostenlos sein.

  • CROWD-LOGISTIK gruenderszene: Auf dem Weg in den Urlaub noch schnell ein Päckchen ausliefern: Das Berliner Start-Up CoCarrier vermittelt über ein Netzwerk Urlauber und Geschäftsreisende Pakete von anderen Privatpersonen mit an ihr Ziel nehmen. Für Versender soll das günstiger sein, als der lange Weg. Über eine App kann man die Lieferung nachverfolgen und die Lieferungen sind bis zu einem Wert von 500 Euro versichert. Vom Netzwerk wird durch verifizierte Profile und einer verpflichtenden Angabe, was das Paket beinhaltet, gewährleistet, dass keine verbotenen Gegenstände verschickt werden.

Weiterlesen »

FollowUs – Die Netzpiloten-Tipps aus Blogs & Mags

Follow me
  • STAATSTROJANER netzpolitik: Staatstrojaner: Kritik des Bundesrates an der weitgehenden Erlaubnis zum staatlichen Hacken: Das erst kürzlich verabschiedete Staatstrojaner-Gesetz steht wieder in harter Kritik. Grund dafür sind zum einen die Beschneidung der Grundrechte, zum anderen die Risiken für die IT-Sicherheit, sollte ein staatliches Hacken legalisiert werden. Denn die Spähsoftware könnte Schwachstellen, die bei einer solchen Installation nötig sind, auch von Kriminellen genutzt werden könnte. Da der Bundesrat an der Gesetzgebung nicht beteiligt war und im Sinne der Verbraucher sprechen konnte, wird jetzt um einen Vermittlungsausschuss gebeten, um das Gesetz erneut zu überprüfen. Ein Hindernis bei dieser erneuten Revision könnte jedoch der Rechtsausschuss sein, da dieser im Vergleich zu dem Verbraucherausschuss keine Notwendigkeit für einen zusätzlichen Ausschuss sieht.

  • DATENLECK golem: Datenleck bei der Deutschen Post: Die Deutsche Post hat bei der Sicherheit eines ihrer betriebenen Portale deutliche Sicherheitslücken. Das Umzugsportal „umziehen.de“ bietet einen Service an, dass man mittels einer Umzugsmitteilung Banken und Versicherungen automatisch informieren kann. Aufgrund eines Fehlers auf Seiten der Deutschen Post waren die Adressdaten von etwa 200.000 Kunden frei im Internet abrufbar.Die Deutsche Post meldete, dass die durch ein Sicherheitsupdate erstellte Kopie aufgrund „menschlichen Versagens nicht gelöscht wurde“. Für den Zugriff auf die Datenbanken war kein Expertenwissen zugänglich, man musste nur den Dateinamen der Datenbank kennen, der standartmäßig für Datenbankdateiendieses Typs identisch ist.

  • ALGORITHMEN t3n: Algorithmen kontrollieren: Heiko Maas möchte Daten in „gut” und „böse” teilen: Justizminister Heiko Maas fordert eine staatliche Agentur, die ein digitales Antidsikriminierungsgesetz und Transparenz für Algorithmen zur Aufgabe haben soll. Nach der Umsetzung des Netzwerkdurchsetzungsgesetzes könnte die staatliche Unterwerfung von Algorithmen weiterreichende Folgen haben. Nun wird kritisiert, dass es keine Diskriminierung durch Algorithmen gebe, nur Menschen tun es. Hate Speach entsteht nur da, wo Menschen auf andere Menschen treffen. Derzeit gibt es laut Algorithm Watch keine belastbare Studie, die belegt, dass Google über das Ranking von Suchergebnissen die öffentliche Meinung aktiv beeinflusst. Mit der Kontrolle von Algorithmen lässt sich da nicht viel tun, allenfalls mit tiefen Einschnitten in die Meinungsfreiheit.

  • MACHT sueddeutsche: Software frisst die Welt: Viele Anteile unseres Lebens warden immer mehr von Software und Geräten beeinflusst. Große Konzerne wie Google, Apple und Facebook sind schon lange nicht mehr nur Internetkonzerne, sondern auch Autobauer für autonome Fahrzeuge und Städteplaner für Smarte Städte und strecken dadurch die Grenzen des Machbaren. Der Staat gibt so einige Entscheidungen aus der Hand, kritisieren manche. Die Spielregeln für das World Wide Web schreibt heute weitestgehend eine kleine Programmiererelite im Silicon Valley. Die Frage ist, ob der demokratische Rechtsstaat diese zunehmende Machtverschiebung hinnehmen kann oder ob er seine Instrumente „updaten“ muss.

  • AUTONOMES FAHREN t3n: Volvo in Australien: Bewegungsmuster von Kängurus überfordern selbstfahrende Autos: Der Skandinavische Autohersteller Volvo testet seine Autonomen Fahrzeuge momentan in Australien. Bis jetzt konnten die Fahrzeuge den so genannten „Elchtest“ problemlos absolvieren, stellten in Australien jedoch ein anderes Problem fest. Das Nationaltier des Kontinents, das Känguru, überfordert den Tiererkennungs-Algorithmus des Autos. Volvos Technik-Manager in Australien: „Wenn die Tiere in der Luft sind, sieht es aus, als seien sie weiter entfernt, wenn sie am Boden aufkommen, erscheinen sie dagegen näher.”

Weiterlesen »

Ein Tag im Leben eines Smart-City Computers

smartwatch (adapted) (image by Free-Photos [CC0] via pixabay)

Der Alarm deines Smartphones ertönt heute Morgen zehn Minuten früher als sonst. Teile der Stadt sind abgesperrt, für die Vorbereitungen eines beliebten Sommerfestes – die Staubildung wird wohl schlimmer als an anderen Tagen sein. Du musst einen früheren Bus erwischen, um pünktlich auf Arbeit zu sein.

Die Weckerzeit ist deiner Morgenroutine angepasst, die jeden Tag von deinem Smartphone überwacht wird. Es sagt das Wetter vorher (für 7 Uhr wurde Regen angesagt), gibt Auskunft über den Wochentag (es ist Montag und der Verkehrs ist Montags immer schlimm) und sagt dir, dass du gestern spät ins Bett gegangen bist (diesen Morgen wird daher vermutlich alles etwas langsamer ablaufen). Das Telefon summt wieder – es ist Zeit, sich auf den Weg zu machen, wenn du den Bus kriegen willst.

Während du zur Bushaltestelle läufst, schlägt dir dein Smartphone vor einen kleinen Umweg zu machen – aus irgendeinem Grund ist die Straße, die du sonst immer nutzt, heute sehr voll. Du kommst auf dem Weg an deinem Lieblingskaffeeladen vorbei und obwohl dieser heute 20 Prozent Rabatt anbietet, informiert dich dein Telefon nicht – du hast es immerhin eilig.

Nach deinem morgendlichen Spaziergang fühlst du dich frisch und kraftvoll. Du kommst an der mit WLAN und Bluetooth ausgestatten Bushaltestelle an und eine Benachrichtigung wird an den Busfahrer gesendet. Er weiß jetzt, dass 12 Passagiere darauf warten, abgeholt zu werden, weshalb er ein bisschen schneller fahren sollte, wenn er allen genügend Zeit geben will, einzusteigen. Das Busunternehmen ist ebenfalls informiert und schickt bereits einen weiteren Bus los, um dem hohen Personenaufkommen auf deiner Route gerecht zu werden. Während du wartest, fällt dir ein Elternteil mit zwei kleinen Kindern auf, die sich mit dem Touch-Screen der Haltestelle beschäftigen.

Als der Bus ankommt, können alle entspannt einsteigen: fast alle Passagiere nutzten Tickets, die auf ihrem Smartphone gespeichert waren. Nur eine Person musste aufwendig mit Bargeld zahlen. Im Bus holst du ein Tablet aus deiner Tasche, um die Nachrichten und deine E-Mails über das kostenlose WLAN zu checken. Dir fällt plötzlich auf, dass du vergessen hast, dein Telefon zu laden. Du schließt es also an die USB-Buchse neben deinem Sitz an, um es zu laden. Obwohl der Verkehr sehr stockend ist, kannst du fast alle deine Arbeitsmails abarbeiten. Die Zeit im Bus ist also sehr sinnvoll genutzt.

Als der Bus dich vor deinem Büro absetzt, informiert dich dein Chef über einen ungeplanten Besuch. Du buchst daher bei einem Car-Sharing-Dienst wie Co-wheels. Du sicherst dir ein Auto für die Reise, inklusive einem Klapprad im Kofferraum.

Du musst in das Zentrum der Stadt, also parkst du das geliehene Auto in einer nahgelegenen Parkbucht (die eigentlich eine ungenutzte Auffahrt eines anderen Mitglieds ist), sobald du am Stadtrand ankommst. Du nimmst für den Rest des Wegs ein Fahrrad, um Zeit zu sparen und den Verkehr zu umgehen. Deine Reise-App gibt dir Anweisungen über deine Bluetooth-Kopfhörer – es sagt dir, wie du deine Geschwindigkeit auf dem Fahrrad anpassen sollst, je nachdem, wie es um deine Fitness steht. Wegen deines Asthmas schlägt die App dir eine Route vor, die ein Areal umgeht, das starke Luftverschmutzung aufweist.

Nach dem Meeting winkst du ein Taxi heran, um zurück ins Büro zu gelangen. Du kannst auf dem Weg ein paar Mails beantworten. Mit einem Klick auf deinem Smartphone bestellst du das Taxi und in den zwei Minuten, die es bis zu dir braucht, faltest du dein Fahrrad, um es in den Kofferraum eines anderen Autos in der Nähe deines Büros zu packen. Du hast es eilig, also keine grünen Belohnungspunkte fürs Laufen heute. Wenigstens bist du pünktlich beim Meeting gewesen und hast auf dem Weg dorthin zwei Kilogramm CO2 eingespart.

Wach auf

Das mag alles wie Fiktion klingen, aber in Wahrheit werden alle notwendigen Daten dafür bereits auf die eine oder andere Art und Weise gesammelt. Dein Smartphone kann deinen Standort verfolgen, deine Fortbewegungsgeschwindigkeit und sogar die Art von Aktivität, die du ausführst – ob du fährst, läufst oder mit dem Rad unterwegs bist.

In der Zwischenzeit werden Fitness-Tracker immer besser und Smart Watches können deine Herzfrequenz und deine körperlichen Aktivität überwachen. Dein Suchverlauf und dein Verhalten auf den einschlägigen Sozialen Medien können Auskunft über deine Interessen, Geschmäcker und sogar Absichten geben: Zum Beispiel geben die Daten, die generiert werden, wenn du dir Urlaubsangebote ansiehst, nicht nur Auskunft darüber, wo du hinwillst, sondern auch wann und wieviel du bereit bist, zu zahlen.

Neben persönlichen Geräten, ist das Internet of Things mit Netzwerken unzähliger Arten von Sensoren, die von Luftverschmutzung bis Verkehrsaufkommen alles messen können, eine weitere Datenquelle. Ganz abgesehen von dem kontinuierlichen Fluss an Informationen auf Socia- Media-Plattformen zu jedem Thema, das dich interessiert.

Mit so vielen verfügbaren Daten scheint es, als sei die Erfassung unserer Umwelt fast komplett. Doch alle diese Datensätze sind in Systemen gespeichert, die nicht miteinander interagieren und von verschiedenen Entitäten verwaltet werden, die Sharing nicht gerade gut heißen. Obwohl die Technologie also bereits existiert, sind unsere Daten weiterhin bei verschiedenen Organisationen voneinander isoliert und institutionelle Hürden stehen dieser Art von Service im Weg. Ob das gut oder schlecht ist, bleibt dir überlassen.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „smartwatch“by Free-Photos ( CC0 Public Domain)


The Conversation

Weiterlesen »

Chance oder Gefahr? Forscher und Ethiker müssen bei der Schnittstellentechnologie zusammenarbeiten

Brain (Image by HypnoArt [CC0 Public Domain], via Pixabay

In dem 1995 erschienenen Film “Batman Forever” bedient sich der Riddler während seiner Jagd auf die wahre Identität Batmans des 3D-Fernsehens, um sich heimlich Eintritt zu den intimsten Gedanken der Zuschauer zu verschaffen. Im Jahr 2011 übernahm das Marktforschungsunternehmen Nielsen die Firma Neurofocus und erstellt eine Abteilung für die „Neurowissenschaft der Konsumenten“, welche integrierte bewusste und unbewusste Daten nutzt, um das Entscheidungsverhalten von Konsumenten zu dokumentieren. Was einst eine verruchte Intrige eines Hollywood Blockbusters war, scheint auf dem besten Weg zu sein, Realität zu werden.

Die neusten Mitteilungen über die Gehirn-Computer-Schnittstellentechnologie (engl.: brain computer interface, kurz: BCI) von Elon Musk und Facebook sind nur die aktuellsten Schlagzeilen in einer Geschichte, in der Science Fiction real wird.

Die BCI-Technologie benutzt Signale des Gehirns, um Objekte der äußeren Welt zu kontrollieren. Sie sind potentiell eine weltverändernde Innovation – man stelle sich vor, dass es möglich ist, gelähmt, aber dennoch in der Lage zu sein, mit Hilfe einer Armprothese Dinge fassen zu können, in dem man einfach nur daran denkt. Doch die revolutionäre Technologie lässt auch Bedenken aufkommen. Am Center for Sensorimotor Neural Engineering (CSNE) der Universität Washington erforschen wir und unsere Kollegen die BCI-Technologie – und ein zentraler Bestandteil dieser Forschung beinhaltet die Arbeit an Themen wie Neuroethik und Neurosicherheit. Ethiker und Ingenieure arbeiten hier zusammen, um Risiken zu verstehen und zu quantifizieren und um Wege zu finden, um die Öffentlichkeit zu schützen.

P300-Signale aufnehmen

Die gesamte BCI-Technologie basiert auf der Möglichkeit, in der Lage zu sein, Informationen eines Gehirns zu sammeln, die dann von einem Gerät benutzt oder weiterverarbeitet werden können. Es gibt zahlreiche Orte, von denen diese Signale aufgenommen werden können und unendlich viele Wege, diese Daten auszuwerten, sodass es verschiedene Möglichkeiten gibt, das BCI zu benutzen.

Ein paar BCI-Forscher konzentrieren sich auf eine bestimmte Art wiederkehrender Gehirnsignale, die immer dann aufkommen, wenn es zu wichtigen Veränderungen in unserer Umgebung kommt. Neurowissenschaftler nennen diese Signale „Ereignisbezogene Potentiale“. In der Praxis helfen sie uns, auf einen Stimulus die passende Reaktion zu identifizieren.

Examples of event-related potentials (Image by Tamara Bonaci via Theconversation)q
Examples of event-related potentials (Image by Tamara Bonaci via Theconversation)

Genaugenommen aktivieren wir eines dieser spezifischen Signale mit dem Namen P300. Es ist der positive, elektrische Höhepunkt, der im Hinterkopf 300 Millisekunden nach dem Stimulus entsteht. Das P300-Signal alarmiert den Rest unseres Gehirns dass sich hier ein „Sonderling“ befindet, der innerhalb der restlichen Umgebung eindeutig auffällt.

Würden wir in einem Park beispielsweise nach unseren Freunden suchen, würden wir uns nicht auf die Gesichter der einzelnen Personen konzentrieren. Würden wir die Hirnsignale aufnehmen, wenn jemand die Menschenmenge absuchen würde, wäre hier stattdessen eine eindeutig wahrnehmbare Reaktion des P300-Signals, wenn wir jemanden sehen, der unser Freund sein könnte. Das Signal überliefert eine unterbewusste Nachricht, die uns auf etwas Wichtiges hinweist, das Aufmerksamkeit verdient. Diese Signale sind Teil eines bisher noch unbekannten Pfades im Gehirn, der die Wahrnehmung und die Konzentration unterstützt.

Gedankenlesen durch P300-Signale

P300-Signale treten zuverlässig immer dann auf, wenn wir etwas Seltenes oder Fragmentiertes wahrnehmen. Zum Beispiel, wenn das T-Shirt, dass man gesucht hat, im Kleiderschrank sieht oder wenn man eine Parklücke findet. Forscher können das P300-Signal in einer experimentellen Umgebung verwenden, um festzustellen, was uns wichtig ist. Das führt auf Hilfsmittel wie ‚Buchstabierer‘ zurück, die Menschen mit Lähmungen dazu bringen, Kraft ihrer Gedanken einzelne Buchstaben zu tippen.

Es kann auch dazu verwendet werden, festzulegen, was man weiß – dieses Vorgehen wird der „Schlechte-Gewissens-Test“ genannt. Im Labor werden Untersuchungsobjekte dazu aufgefordert, sich eine Sache zum „Stehlen“ oder Verstecken auszusuchen, danach werden ihnen viele Bilder von Dingen mit und ohne Bezug zur ausgesuchten Sache gezeigt. Wählen Subjekte beispielsweise zwischen einer Uhr und einer Halskette und werden ihnen dann typische Objekte einer Schmuckschachtel gezeigt, wird das P300-Signal aufkommen, sobald dem Subjekt das Bild mit der ausgewählten Sache gezeigt wird.

Jedes P300-Signal ist einzigartig. Je nachdem, wonach Forscher suchen, benötigen sie Daten für das „Training“. Diese sind vor allem erhaltene Gehirnsignale, von denen die Forscher überzeugt sind, dass sie P300er enthalten; sie benutzen diese dann, um das System zu kalibrieren. Wenn der Test also ein unterbewusstes Nervensignal misst, von dem man nicht einmal wusste, dass man es hervorbringt, kannst man dieses bewusst verfälschen? Vielleicht, wenn man weiß, dass man untersucht wird und was genau die Stimuli dafür sind.

Techniken wie diese gelten immer noch als unzuverlässig und ungeprüft, deswegen haben US-amerikanische Gerichte die Anerkennung von Daten aus Untersuchungen mit P300 als Beweismaterial nicht zugelassen.

BCI technologie (Image by Mark Stone via Theconversation)
BCI-Technologie (Image by Mark Stone via Theconversation)

Man stelle sich vor, dass das P300-Signal nicht genutzt wird, um das Rätsel der „gestohlenen Sachen“ im Labor zu lösen, sondern dass jemand diese Technologie nutzt, um Informationen über unsere Geburtsdaten oder unsere Hausbank zu extrahieren – ohne sie ihm zuvor mitzuteilen. Unsere Forschungsgruppe hat Daten gesammelt, die aufzeigen, dass genau das möglich ist. Nur durch die Nutzung der Gehirnaktivität eines Individuums – speziell dessen P300-Signale – könnten wir die Vorlieben des Einzelnen für eine Kaffeemarke oder den Lieblingssport feststellen.

Das könnten wir allerdings nur, wenn subjektspezifische Trainingsdaten vorliegen. Was, wenn wir die Vorlieben einer Person ohne Vorwissen über deren Gehirnsignalaktivitäten herausfinden könnten? Ist ein Training nicht notwendig, könnten Benutzer einfach ein Device aufsetzen und losgehen, ohne das persönliche Trainingsprofil laden oder die Kalibrierung abwarten zu müssen. Die Forschung an vorbereiteten und unvorbereiteten Geräten ist Mittelpunkt der stetigen Experimente der Universität in Washington und an anderen Orten.

Spätestens, wenn die Technologie in der Lage ist, die Gedankenwelt einer Person zu lesen, ohne dass diese aktiv kooperiert, kommt es zu einem teilweise akuten ethischen Problem. Alles in Allem veröffentlichen wir bereits die ganze Zeit schon Teile unserer Privatsphäre bewusst – wenn wir den Mund öffnen, um uns zu unterhalten oder wenn wir GPS-Geräte benutzen und in diesem Zuge den Firmen erlauben, Daten über uns zu sammeln. Aber in diesen Fällen sind wir damit einverstanden, das zu teilen, was sich in unseren Köpfen befindet. Der Unterschied zur noch nicht voll entwickelten P300-Technologie zukünftiger Generationen besteht darin, dass der Schutz, den uns die Einverständniserklärung gibt, komplett umgangen werden könnte.

Was, wenn es möglich ist, das, was wir denken und planen, zu dekodieren, ohne dass wir es mitbekommen? Würden wir uns angegriffen fühlen? Würden wir einen Kontrollverlust verspüren? Die Auswirkungen auf die Privatsphäre werden vielfältig sein. Vielleicht könnten Werbeagenturen bereits herauslesen, welche Marken wir bevorzugen und uns personalisierte Werbung schicken, was vielleicht recht angenehm, aber sicherlich auch seltsam sein könnte. Oder bösartige Instanzen könnten unsere Bank und die PIN herausfinden. Das wäre eine eindeutige Warnung.

Aus großer Macht folgt große Verantwortung

Die potentielle Möglichkeit, individuelle Vorlieben und persönliche Informationen anhand der eigenen Hirnsignale festzustellen, hat eine Zahl schwieriger, aber akuter Fragen aufgeworfen: Sollten wir in der Lage sein, unsere Nervensignale zu privatisieren? Wenn ja, sollte dann so etwas wie neurale Sicherheit ein Menschenrecht sein? Wie schützen und bewahren wir all die Daten, die für Forschung und auch bald für Freizeit gesammelt werden, adäquat auf? Woher wissen Konsumenten, ob irgendeine geschützte oder anonymisiere Messung ihrer Nervendaten durchgeführt wird? Bis jetzt sind nervenbezogene Daten, die für die kommerzielle Nutzung gesammelt werden, nicht unter dem gleichen Rechtschutz wie biomedizinische Forschung oder das Gesundheitswesen gefasst. Sollte neurologisches Datenmaterial anders behandelt werden?

Das ist die Art von Rätsel, die sich neurologische Forscher und Ethiker in einer Zusammenarbeit stellen sollten. Ethiker neben Forschern ins Labor zu setzen, so wie wir es in der CSNE gemacht haben, ist eine Möglichkeit, um zu garantieren, dass die Privatsphäre und die Sicherheitsrisiken von Neurotechnologien und andere ethisch wichtige Themen einen aktiven Teil der Forschung darstellen – und nicht nur ein nachträglicher Gedanke sind.

Tim Brown beispielsweise ist ein Ethiker an der CSNE, der in einem Labor der neurologischen Ingenieure „untergebracht“ wurde, was ihm erlaubt, täglich mit den Forschern über ethische Bedenken zu sprechen. Er ist außerdem einfach in der Lage, mit Forschungssubjekten zu interagieren und sie in Bezug auf ihre ethischen Bedenken über Gehirnforschung direkt zu interviewen.

Es gibt immer noch wichtige ethische und rechtliche Lektionen über Technologie und Privatsphäre in anderen Bereichen, wie Genetik oder Neuromarketing. Aber es scheint so, als wäre da etwas anderes Wichtiges, wenn es um das Lesen neurologischer Daten geht. Sie sind intimer mit unserer Gedankenwelt verknüpft und damit, wie wir uns selbst sehen. Damit erlangen ethische Themen, durch BCI-Nachfrage induziert, besondere Aufmerksamkeit.

Ethische Debatten, während die Technologie noch in Kinderschuhen steckt

Während wir damit kämpfen, herauszufinden, wie Privatsphäre und Sicherheit in diesem Zusammenhang am besten in Angriff genommen werden soll, gibt es zwei Faktoren in der aktuellen P300-Technologie, die uns Zeit verschaffen werden.

Erstens benutzen die meisten kommerziellen Geräte trockene Elektroden, deren Fähigkeit, elektronische Signale zu empfangen, auf Hautkontakt beruht. Diese Technik ist anfällig für Störsignale, was bedeutet, dass wir nur relativ grundlegende Formen von Informationen von einem Benutzer aussondern können. Die Hirnsignale, die wir aufnehmen, sind aufgrund Dingen wie der Elektroden-Bewegung und der sich ständig verändernden Natur von Hirnsignalen im höchsten Maße variabel – auch bei ein und derselben Person. Zweitens befinden sich Elektroden nicht immer in einer idealen Lage, um aufgenommen zu werden.

Letztlich bedeutet diese mangelnde Verlässlichkeit, dass BCI-Geräte momentan nicht annähernd so allgegenwärtig sind, wie sie in der Zukunft sein könnten. Da sich Elektroden-Hardware und die Signalverarbeitung ständig verbessern, wird es einfacher sein, diese Geräte weiterhin zu benutzen. Es wird auch einfacher sein, an persönliche Informationen zu einer anonymen Person zu gelangen.

Der sicherste Rat wäre, diese Maschinen überhaupt nicht mehr zu benutzen.
Das Ziel sollte sein, dass ethische Standards und die Technik so zusammenkommen, dass sichergestellt wird, dass zukünftige Benutzer darauf vertrauen, während der Benutzung dieser Geräte die Privatsphäre geschützt zu wissen. Es ist eine seltene Chance der Zusammenarbeit von Wissenschaftlern, Ingenieuren, Ethikern und letztlich auch der Regierungen, um Produkte zu entwickeln, die noch besser sind, als jene, die sich die Science Fiction erträumt hat.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) Brain by HypnoArt (CC0 Public Domain)


The Conversation

Weiterlesen »

Gibt es strukturellen Rassismus im Internet?

Welt (adapted) (image by quicksandala [CC0] via pixabay)

Die rassischen Ungleichheiten, die die Amerikaner und unsere Gesellschaft heute belasten, sind in vielerlei Hinsicht ein Ergebnis der räumlichen Segregation. Weiße Menschen und nichtweiße Menschen leben in der Regel in verschiedenen Vierteln, gehen auf unterschiedliche Schulen und haben – basierend auf ihrer genetischen Herkunft – dramatisch unterschiedliche ökonomische Möglichkeiten. Diese physische Manifestation des strukturellen Rassismus ist eine historische Tatsache in diesem Land – und sie ist auch heute noch vorhanden.

Das Internet ist heute auf einer ähnlichen räumlichen Logik aufgebaut. Auf die gleiche Art und Weise, wie die Menschen von Viertel zu Viertel ziehen, um Dinge zu tun und ihre Zeit mit bestimmten Menschen zu verbringen, surfen sie auch von Website zu Website auf der Suche nach Inhalten. Websites erlangen und steigern ihren Wert, wenn sich Traffic und Sichtbarkeit der Website erhöhen.

Aber es gibt einen entscheidenden Unterschied: Internetnutzer haben – mehr oder weniger – die völlige Freiheit, sich dorthin zu bewegen, wo sie möchten. Websites können die Hautfarbe eines Nutzers nicht sehen und sie können nicht in der gleichen Weise den Einreiseverkehr regeln, wie Menschen in geografischen Räumen in der Lage sind und auch aktiv umsetzen. Deshalb kann man leicht zu der Vorstellung gelangen, dass die tatsächliche Struktur des Internets – die sozialen Milieus, die es produziert, und die neuen Wirtschaftsumfelder, die es erschaffen hat – nicht rassisch getrennt werden können, so wie es in der physischen Welt der Fall ist.

Und dennoch ist das Internet in der Tat nach rassischen Prinzipien aufgeteilt. Meine Forschung zeigt, dass Websites, die sich auf Rassenfragen konzentrieren, seltener besucht werden und in Suchergebnissen weniger sichtbar sind als Websites mit unterschiedlichen oder breiteren Themenspektren. Dieses Phänomen begründet sich nicht auf etwas, das einzelne Websites darstellen, sondern vielmehr scheint es auf der Art und Weise zu basieren, wie die Nutzer selbst Informationen online finden und teilen – ein Prozess, der vor allem von Suchmaschinen und zunehmend auch von Social-Media-Plattformen vermittelt wird.

Erforschung des Online-Rassismus

Wörter wie „Rassist“ und „Rassismus“ sind vorbelastete Begriffe, vor allem weil die Menschen sie fast immer mit individualisiertem moralischem und kognitivem Versagen verbinden. In den letzten Jahren ist sich die amerikanische Öffentlichkeit jedoch zunehmend darüber bewusst geworden, dass Rassismus auch für Kulturen und Gesellschaften im Allgemeinen gelten kann.
Meine Arbeit sucht nach Online-Entsprechungen für diesen systemischen Rassismus, in dem subtile Vorurteile die Gesellschaft und Kultur in einer Weise durchdringen, die überwältigende Vorteile für Weiße auf Kosten von Nicht-Weißen ergibt. Genauer gesagt versuche ich zu ermitteln, ob die Online-Umgebung, die vollständig von Menschen konstruiert wurde, systematisch Vor- und Nachteile in Bezug auf Rasse mit sich bringt – ob nun absichtlich oder unabsichtlich.

Es ist schwierig, sich dieser Frage zu nähern, doch ich beginne mit der Annahme, dass sich die heutigen technologischen Systeme in einer Kultur und Gesellschaft entwickelt haben, die systemisch und strukturell rassistisch ist. Dadurch erscheint es möglich und sogar wahrscheinlich, dass bestehende Tendenzen in ähnlicher Weise online wirken.

Darüber hinaus bieten die historischen geographischen Konfigurationen, die die rassische Ungleichheit hervorgebracht und erhalten haben, einen nützlichen Leitfaden für die Untersuchung, wie systemischer Rassismus online aussehen könnte. Die Landschaft im Netz und die Art und Weise, wie Menschen in ihr surfen, sind beides wichtige Faktoren, um dieses Bild zu verstehen.

Online-Navigation verstehen

Zunächst wollte ich einen Blick auf die Karte werfen – wie das Internet selbst von Website-Produzenten strukturiert wird. Ich nutzte ein Software-Programm namens Voson, um die Websites zu analysieren, die Alexa.com als die Top 56 der afro-amerikanischen Websites im Internet kennzeichnet. Voson durchsucht das Netz, um zu ermitteln, welche weiteren Websites die Quellseiten verlinken und welche Seiten Links zu den Quellseiten bereitstellen.

Dann habe ich versucht, einen eventuellen rassistischen Inhalt, so denn existent, von jeder dieser Tausenden von Websites zu bestimmen, um eventuelle Ungleichheiten zu erfassen, die in der Online-Landschaft existieren könnten. Im echten Leben umfasst die Ermittlung der räumlichen Ungleichheit in der Regel die Messung von Personenzuschreibungen, die in einer bestimmten geographischen Lage leben. Zum Beispiel bezeichnet die Postleitzahl 65035 ein „weißes“ Viertel, weil 99,5 Prozent der dort ansässigen Personen (Freeburg, Missouri) gemäß der US-Volkszählungsdaten weiß sind. Im Gegensatz dazu würde die Postleitzahl 60619, ein Gebiet in Chicago, als „nichtweiß“ betrachtet werden, weil nur 0,7 Prozent ihrer Bewohner weiß sind.

Um diese Art von Unterscheidung zwischen verschiedenen Websites zu machen, verließ ich mich auf Website-Metatags – also Beschreibungen, die der Ersteller der Website dergestalt codiert hatte, dass Suchmaschinen sie möglichst gut erfassen können und die Website dementsprechend in den Suchergebnissen erscheint. Als „rassenbezogene“ Websites habe ich diejenigen bezeichnet, die unter ihren Metatags Begriffe wie „Afroamerikaner“, „Rassismus“, „Hispanisch“, „Modellminderheit“ und „Afro“ hatten. Seiten ohne diese Begriffe in ihren Metatags habe ich als „nichtrassenbezogen“ bezeichnet.

Durch die Verwendung von Website-Metatags konnte ich zwischen rassenbezogenen und nichtrassenbezogenen Seiten (und dem getrennten Verkehr zwischen ihnen) unterscheiden, je nach dem, ob die Ersteller der Websites die Identität der Website selbst mit rassenbezogenen Begriffen definieren.

Online-Navigation verstehen

Sobald ich jede Seite als rassenbezogen oder nichtrassenbezogen eingeordnet hatte, schaute ich auf die Links, die die Website-Ersteller zwischen ihnen eingerichtet haben. Es gab drei mögliche Arten von Links: zwischen zwei rassenbezogenen Seiten, zwischen zwei nichtrassenbezogenen Seiten oder zwischen einer rassenbezogenen Seite und einer nichtrassenbezogenen.
Wie viele Links der jeweiligen Arten die Daten enthalten, würde zeigen, ob die Entscheidungen von Website-Erstellern durch Vorurteile beeinflusst sind. Wenn es keine Vorurteile gibt, wäre die Anzahl der Links gleichmäßig auf die einzelnen Arten von Websites im Datensatz verteilt. Wenn es hingegen Vorurteile gibt, wäre die Anzahl der Links unverhältnismäßig hoch oder niedrig.

Ich fand zwar leichte Unterschiede zwischen den idealen theoretischen Proportionen und der tatsächlichen Anzahl von Links, allerdings waren sie nicht eindeutig genug, um die Vermutung aufkommen zu lassen, dass irgendeine Form der Segregation im Online-Verhalten der Menschen durch Website-Ersteller verursacht wird. Menschen, die im Internet surfen, indem Sie einfach wahllos Links auf Websites anklicken, würden nicht signifikant häufiger oder seltener auf rassenbezogenen oder nichtrassenbezogenen Seiten landen, als es im Hinblick auf die Anzahl der jeweiligen Websites, die vorhanden sind, normal wäre. Aber die Leute folgen nicht nur den Links – auch ihre Vorlieben haben einen Einfluss beim Navigieren im Internet.

Segregation sehen

Bei meiner zweiten Ermittlung wollte ich herausfinden, wie sich die Leute zwischen den Webseiten bewegen. Ich betrachtete die gleichen 56 Seiten wie bei der vorherige Analyse, aber dieses Mal verwendete ich Similarweb, eine bekannte Website zur Messung von Internet-Traffic. Für jede Website produziert Similarweb Daten, aus denen hervorgeht, von welchen Websites die Menschen kamen und auf welche Websites die Leute als nächstes navigierten. Ich charakterisierte diese Seiten ebenfalls als „rassenbezogen“ oder „nichtrassenbezogen“ und identifizierte drei Arten von Verbindungen, die die Menschen beim Anklicken nahmen: zwischen zwei rassenbezogenen Seiten, zwischen zwei nichtrassenbezogenen Seiten oder zwischen einer rassenbezogenen Seite und einer nichtrassenbezogenen.

Hauptaugenmerk auf die Suchmaschinen

Das bringt uns näher an die Wahrheit, wenn es um getrennte Traffic-Muster und potenzielle Ungleichheiten bezüglich der Rasse geht. Meine Daten zeigten auch, dass nichtrassenbezogene Seiten in den Suchergebnissen deutlich höher liegen und daher wahrscheinlich mehr Sichtbarkeit genießen, als rassenbezogene Seiten. Die rassenbezogenen Seiten sind weniger sichtbar, haben weniger Traffic und ziehen daher wahrscheinlich weniger Nutzen aus Sichtbarkeit (wie Werbeeinnahmen oder höhere Suchmaschinen-Rankings).

Es könnte verlockend sein, darauf hinzuweisen, dass dies nur die Benutzerpräferenzen widerspiegelt. Das könnte dann der Wahrheit entsprechen, wenn die Benutzer wissen würden, auf welche Websites sie gehen wollen, und dann direkt zu ihnen navigieren. Aber in der Regel wissen die Nutzer das nicht. Es ist viel wahrscheinlicher, dass die Leute ein Wort oder eine Phrase in eine Suchmaschine wie Google eingeben. Tatsächlich macht der direkte Verkehr nur etwa ein Drittel des Verkehrsflusses zu den Top-Seiten des Internets aus. Um eine Schlussfolgerung der Suchoptimierungsfirma Brightedge zu zitieren: „Die organische Suche übertrumpft andere Traffic-Generatoren auf überwältigende Weise.“

Obwohl natürlich noch mehr Forschung notwendig ist, legt meine Arbeit so weit nahe, dass neben den Vorlieben der Nutzer, nichtrassenbezogene Websites eher zu besuchen als rassenbezogene Websites, auch die Suchmaschinen eine ähnliche Wirkung hervorrufen: Nichtrassenbezogene Websites werden in den Suchergebnissen deutlich weiter oben angezeigt als rassenbezogene Seiten. Das führt zu weniger Traffic und weniger finanzielle Unterstützung in Form von Werbeeinnahmen für rassenbezogene Seiten.
In beiden Fällen beeinflussen Menschen und Suchmaschinen den Traffic in einer Weise, die Vorteile für nichtrassenbezogene Websites und Nachteile für rassenbezogene Seiten bedeuten. Das ähnelt dem, was in der Offline-Welt als systemischer, struktureller Rassismus bezeichnet wird.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „Welt“ by quicksandala (CC0 Public Domain)


The Conversation

Weiterlesen »

Spyware: Wie dich dein Smartphone per Ultraschall ausspioniert

Teaser-Malware-Spyware

Das Smartphone ist unser Alltagsbegleiter Nummer 1. Besonders lukrativ ist das Geschäft mit den Mobilgeräten deshalb für die Werbeindustrie, die ihre Inhalte passgenau in unser tägliches Leben integrieren kann. Dass das die Unternehmen teilweise zu ernst nehmen, haben nun Wissenschaftler der TU Braunschweig aufgedeckt. Den Experten zufolge besitzen über 200 Android-Apps die Spionagesoftware Silverpush. Sie hören so den Nutzer per Ultraschallwellen ab und senden unbemerkt Informationen.

Hochfrequente uBeacons senden Nutzer-Informationen

Immer mehr Apps sind mit der einschlägigen Lauschtechnik des Herstellers Silverpush aus gestattet. Die mindestens 234 Android-Anwendungen sind mittlerweile auf Millionen von Geräten installiert und spionieren ihre Nutzer unwissentlich aus. Das haben Forscher der TU Braunschweig in einem entsprechenden Studienpapier auf einer Pariser Datenschutzkonferenz unlängst vorgestellt. Dafür untersuchten die Wissenschaftler über 1,3 Millionen Mobilanwendungen.

Das Prinzip ist alles andere als laienhaft. Kleine Datenpakete werden in eine von Menschen nicht hörbare Frequenz von 18 bis 20 kHz enkodiert und über die Lautsprecher von PC oder Smart-TVs ausgesendet. Das Smartphone wiederum nimmt diese „Klänge“ über das Mikrofon auf und entschlüsselt diese. Dafür muss die Anwendung nicht einmal gestartet sein, sie fängt die Ultraschallsignale im Hintergrund ab.

Funktionsweise-uBeacons-TU-Braunschweig
Vier Nutzungsszenarien für Spyware haben die Forscher der TU Braunschweig aufgedeckt. Graphic by TU Braunschweig

Beispiel: Nutzt ein Unternehmen in einem Werbespot diese Technologie, so erkennt das Mobiltelefon, dass der Clip geschaut wird. Im nächsten Schritt vervollständigt die Android-App das aufgenommene „Beacon“ mit Zusatzfunktionen des Nutzers wie Kennungen oder Metadaten. Anschließend sendet das Smartphone das Datenpaket per Internetverbindung an den Provider zurück. Dieser verfeinert mit den Informationen das Nutzerprofil und kann angepasste Werbung ausliefern.

Ortsbezogene, nutzerspezifische Werbung per Ultraschall

Mithilfe der Spyware lassen sich zudem Bewegungsdaten auswerten und mit dem Nutzerdaten abgleichen. Das Zauberwort lautet dabei „Location-Based-Marketing“. Beteiligte Händler erreichen durch die Anzeige von Coupons oder Rabattaktionen so potentielle Käufer und verfolgen ihr Verhalten im Laden. Eine perfide, allerdings legitime Art der Werbung. Zumindest wenn die Daten anonymisiert auf dem Server landen. Genau das ist allerdings der springende Punkt, denn den Forschern zufolge ist die De-Anonymisierung unkompliziert möglich.

Ähnliche uBeacons haben die Wissenschaftler bei Anbietern wie Lisnr oder Shopkick gefunden. Dort allerdings in geringerer Anzahl. Die Ultraschallsignale von Shopkick etwa konnten die Braunschweiger Forscher in vier von 35 untersuchten Läden in zwei europäischen Städten aufzeichnen. Der Unterschied zur Silverpush-Software: Der Nutzer öffnet absichtlich die Anwendung, um sich vor Ort Einkaufsvorteile zu verschaffen.

Keine uBeacons bei TV-Streams ausgesendet

Was den Einsatz der Technologie angeht, so kann Entwarnung gegeben werden. Die Forscher zeichneten die TV-Streams übers Internet aus sieben verschiedenen Ländern – darunter auch Deutschland – über mehrere Stunden auf und werteten die Informationen aus. Die Signale der uBeacons konnten dabei nicht ausfindig gemacht werden.

Ein Grund dafür ist die spezielle Komprimierung der Bild- und vor allem Audiodateien, die die Frequenzen von vornherein kappen. Lediglich bei direkten Rundfunkübertragungen über Satellit, Antenne oder neuerdings DVB-T2 können die hochfrequenten Signale ausgesendet werden.

Fazit: Datensammlung durch Spyware geschieht auch passiv

Mit der Studie, die im Rahmen des Projekts Vamos durchgeführt wurde, konnten die Wissenschaftler aufzeigen, dass die Profilerstellung der Nutzer nicht nur aktiv am mobilen Endgerät erfolgt. Längst haben Entwickler die Vorteile der Vernetzung von Informationen aller Art für sich entdeckt und versuchen so uns Nutzer ausnahmslos zu tracken und vor allem zu identifizieren. Eine neue Qualität der Verletzung der eigenen Privatsphäre ist die Folge. Bund und Länder sollten deshalb aktiv werden, um mögliche Auswirkung für Zukunft einzudämmen. Ansonsten könnte der gläserne Nutzer schon bald Realität werden.


Image (adapted) „Hacker“ by typographyimages (CC0 Public Domain)

Graphic by TU Braunschweig


Weiterlesen »

FollowUs – Die Netzpiloten-Tipps aus Blogs & Mags

Follow me

  • GOOGLE süddeutsche zeitung: Warum Google sich wie die Kirche im Mittelalter verhält: Pfingsten bringt die Menschen näher durch den heiligen Geist so heißt es, welcher die Verständigung aller ermöglichte. Und auch heutzutage feiern wir eine neue Art des Pfingsten, das technische Pfingsten. Durch moderne Netzwerke wird die weltweite Verständigung mithilfe von Übersetzungssoftwaren und Glasfaserkabeln ermöglicht. Doch was bedeutet es für uns, wenn mächtige Konzerne wie Google und Facebook nun göttliche Attribute wie Allwissenheit übernehmen? Werden sie unsere neue katholische Kirche, die die Menschheit statt durch Beichten, fortan mithilfe von exzessivem Datensammeln kontrolliert? Ein spannender Artikel über die Frage nach dem Umgang mit Monopolisten und der Notwendigkeit einer erneuten Reformation.

  • FACEBOOK gruenderszene: Warum ich weiter Fox News, Breitbart und Russia Today folge: Der Chef von Facebook möchte für eine sichere Plattform beitragen, Adé also zu Fake News und Hate Speeches. Im Kampf gegen diese Probleme soll hierbei die eigens engagierte Organisation News Integrity Initiative des US-Journalisten Jeff Jarvis helfen. Diese wird zusätzlich von zwei deutschen Instituten unterstützt, das Hans-Bredow-Institut in Hamburg und die Hamburg Media School. Kosten lässt sich Facebook diesen Spaß satte 14 Millionen Dollar. Der Kommentar von Frank Schmiechen setzt sich mit der Frage auseinander, welche Folgen ein solcher Eingriff haben könne und ob es sich hierbei schon um eine konkrete Zensur der Medienberichterstattung handle. Denn besteht nicht gerade in der Vielfältigkeit der Quellen die Stärke des Netzwerkes?

  • ANDROID 7 golem: Das Warten auf Android 7 könnte vergebens sein: Das Update Android 7.0 alias Nougat, darauf warten die Besitzer des Oneplus Two nun schon seit einem Jahr und jetzt angeblich doch keins? Die offizielle Rückmeldung blieb bis jetzt noch aus, doch die Gerüchteküche via Twitter und Co. brodelt. Zu dem Oneplus Five, welches bald erwartet wird, meldete sich der Oneplus-Unternehmenschef dafür schon, demnach soll es Apps schnell verfügbar machen und eine hohe Geschwindigkeit aufweisen. Informationen über den Preis sind noch nicht gegeben, sollte sich aber im vertretbaren Rahmen befinden.

  • ADBLOCKER heise: Verlegerverband warnt vor Googles Adblocker: Google will mit einem eigenem Adblocker in Chrome gegen die störende Werbung vorgehen. Heuchlerisch empfinden das die Mitglieder des Verlegerbandes, denn Googles Adblocker würde gegen die eigene Werbung weniger intensiv vorgehen. Nun stellt sich die Frage nach einem generellen Adblocker-Verbot.

  • DARKNET gruenderszene: Der bekannteste Gründer aus dem Darknet kommt lebenslang hinter Gitter: Der Prozess geht für Ross Ulbricht nicht gut aus. Der Gründer von Silk Road, eine Plattform im Darknet, die sich unter anderem mit dem Verkauf von Drogen befasst, wird nun zu lebenslanger Haft verurteilt. Die Hoffnung auf eine mildere Strafe aufgrund des Umstandes, dass sich zwei seiner im Prozess beteiligten Regierungsmitarbeiter selbst straffällig gemacht haben, empfand das Berufungsgericht Second Circuit als keinen ausreichenden Grund die Strafe zu minimieren.

Weiterlesen »

Es gibt eine mathematische Formel für die Auswahl der schnellsten Warteschlange

Image (adapted) (Image by Paul Dufour) (CC0 Public Domain) via Unsplash

Es scheint offensichtlich zu sein. Man kommt zur Kasse und sieht, dass eine Warteschlange viel länger ist als die andere, also stellt man sich an der kürzeren an. Es dauert jedoch nicht lange, bis die Menschen in der längeren Schlange an einem vorbeisausen, während man sich noch kaum in Richtung Ausgang bewegt hat.

Wenn es um das Thema Schlangestehen geht, ist die instinktive Wahl oft nicht die schnellste. Weshalb fühlt es sich so an, als wenn sich die Schlangen verlangsamen würden, sobald man sich ihnen anschließt? Und gibt es einen Weg, vorab entscheiden zu können, welche Schlange beim Anstellen die richtige ist? Mit diesen Fragen beschäftigen sich Mathematiker seit Jahren. Können sie uns also helfen, weniger Zeit beim Schlangestehen zu verbringen?

Die intuitive Strategie scheint die Wahl der kürzesten Warteschlange zu sein. Immerhin könnte eine kurze Schlange auf einen effizienten Kassierer und eine lange Schlange auf einen unerfahrenen Kassierer oder auf Kunden, die viel Zeit benötigen, hindeuten.

Ohne die richtigen Informationen könnte es sogar nachteilig sein, sich bei der kürzesten Schlange anzustellen. Wenn beispielsweise in der kurzen Schlange im Supermarkt zwei sehr volle Einkaufswagen stehen, während sich in der längeren vier relativ leere Einkaufskörbe befinden, würden sich sogar viele Personen der längeren Schlange anschließen. Falls die Kassierer gleich effektiv sind, ist die wichtige Größe hier nämlich die Anzahl der Artikel und nicht die Anzahl der Kunden. Wenn hingegen die Wagen nicht voll wären, die Körbe hingegen doch, würde es nicht mehr so einfach abzuschätzen sein und die Wahl wäre keine eindeutige.

Dieses einfache Beispiel führt das Konzept der Servicezeitverteilung ein. Dies ist eine Zufallsvariable, die misst, wie lange es dauert, einen Kunden zu betreuen. Sie enthält Informationen über die durchschnittliche Servicezeit und über die Standardabweichung vom Mittelwert, welche wiederum zeigt, wie die Servicezeit, abhängig davon, wie lange verschiedene Kunden brauchen, schwankt.

Die andere wichtige Variable ist, wie oft sich Kunden in der Warteschlange anstellen (Ankunftsrate). Diese hängt von der durchschnittlichen Zeit ab, die zwischen dem Betreten des Ladens zweier aufeinanderfolgender Kunden vergeht. Je mehr Menschen eintreffen, um eine Leistung zu einem bestimmten Zeitpunkt in Anspruch zu nehmen, desto länger werden die Warteschlangen sein.

Je nachdem, wie groß diese Variablen sind, könnte es am besten sein, sich in der kürzeren Schlange anzustellen – oder eben auch nicht. In einem Laden für Fish and Chips könnte es beispielsweise zwei Mitarbeiter geben, die beide Bestellungen aufnehmen und kassieren. Dann ist es meistens besser, sich in der kürzesten Schlange anzustellen, da die Zeit, die die Aufgaben der Servicekräfte in Anspruch nimmt, nicht wirklich variiert.

Leider ist es in der Praxis schwierig, die relevanten Größen genau zu kennen, sobald man ein Geschäft betritt. Man kann also nach wie vor nur raten, welche die schnellste Schlange sein wird, oder man setzt auf psychologische Tricks, wie zum Beispiel dem, sich in der Schlange anzustellen, die sich am weitesten links befindet, da die meisten Rechtshänder dazu tendieren, automatisch nach rechts zu gehen.

War das die richtige Wahl?

Sobald man in der Schlange steht, möchten man wissen, ob man die richtige Entscheidung getroffen hat, wie zum Beispiel die, ob der gewählte Kassierer der schnellste ist. Es ist einfach, die tatsächliche Länge der Warteschlange zu beobachten und anschließend zu versuchen, diese mit dem Durchschnitt zu vergleichen. Dies steht in unmittelbarem Zusammenhang mit dem Mittelwert und der Standardabweichung der Servicezeit mittels der sogenannten Pollaczek-Chintschin-Formel, die erstmals 1930 aufgestellt wurde. Sie verwendet ebenfalls die durchschnittliche Zeit für das Nähertreten der Kunden.

Wer aber versucht, die Zeit zu messen, die die vorderste Person der Schlange beim Kassieren benötigt, wird am Ende womöglich leider glauben, dass er die falsche Warteschlange gewählt hat. Es wird hier von Fellers Paradoxon oder dem Beobachtungsparadoxon gesprochen. Technisch gesehen ist dies eigentlich kein logisches Paradoxon, sondern ist entgegen unserer Intuition. Wenn man beginnt, die Zeit zwischen zwei Kunden zu messen, sobald sie sich in der Schlange anstellen, ist es wahrscheinlicher, dass der erste Kunde, den man sieht, durchschnittlich länger bei der Kasse brauchen wird. Dies wird dem Beobachter das Gefühl geben, dass er Pech hatte und die falsche Schlange gewählt haben.

Das Beobachtungsparadoxon funktioniert so: Angenommen, eine Bank bietet zwei Dienste an. Eine Dienstleistung dauert entweder null oder fünf Minuten, jeweils mit gleicher Wahrscheinlichkeit. Die andere Dienstleistung dauert entweder zehn oder 20 Minuten, wieder jeweils mit gleicher Wahrscheinlichkeit. Es ist gleichermaßen wahrscheinlich für einen Kunden, einen der beiden Diensten zu wählen. Somit beträgt die durchschnittliche Servicezeit der Bank 8,75 Minuten.

Falls man sich also in der Schlange anstellen sollte, während ein Kunde gerade bedient wird, kann deren Servicezeit nicht null Minuten betragen. Diese Schlange muss also entweder den fünf-, zehn-, oder 20-minütigen Dienst nutzen. Dies verschiebt die Zeit, die ein Kunde benötigt, auf über 11 Minuten im Durchschnitt, also mehr als der echte Durchschnittswert von 8,75 Minuten. Tatsächlich begegnet man derselben Situation in zwei von drei Fällen, nämlich, dass der Kunde entweder den 10- oder 20-minütigen Service haben möchte. Dies wird den Anschein machen, als ob sich die Schlange langsamer vorwärtsbewegt, als sie es eigentlich sollte, nur, weil ein Kunde schon dort ist und weil man selbst Zusatzinformationen hatte.

Während wir also die Mathematik nutzen können, um zu versuchen, die schnellste Warteschlange zu ermitteln, sind wir mangels exakter Daten – und zu unserer eigenen Beruhigung – oft besser dran, ein Risiko einzugehen und nicht nach anderen Möglichkeiten auszuprobieren, sobald wir unsere Entscheidung getroffen haben.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) by Paul Dufour (CC0 Public Domain)


The Conversation

Weiterlesen »

Von der Störung zur Desinformation: Der Cyberangriff wird zehn Jahre alt

Hacker (adapted) (Image by Hypnoart) (CC0 Public Domain) via Pixabay

Vor wenigen Tagen jährte sich zum zehnten Mal der Jahrestag des ersten großen, weltweit koordinierten „Cyberangriffs“ auf die Internet-Infrastruktur einer Nation. Dieses kaum bekannte Ereignis stellte die Weichen für die Welle von Cyber-Spionage, Falschmeldungen und Informationskriege, wie wir sie heute kennen.

Im Jahr 2007 nutzten die Betreiber des Angriffs politische Unruhen, um eine Reihe von Cyberangriffen auf Estland auszuüben; sie dienten als eine Form der Vergeltung für die symbolische Ablehnung einer sowjetischen Version der Geschichtsschreibung. Es war ein neuer, koordinierter Ansatz, den es so vorher noch nie gegeben hat.

Heutzutage werden derlei koordinierte digitale Aktivitäten als historisches Ereignis betrachtet, wie etwa die Frage, wie China soziale Medien nutzt, um das Kriegsgedenken zu prägen, und die Live-Tweets von Russia Today zum hundertsten Jahrestag der russischen Revolution.

Im Jahr 2017 und in Zukunft wird es notwendig sein, Erkenntnisse der Geisteswissenschaften, und hier vorr allem die, die die Geschichte betreffen, mit den Analysen von Experten der Informationsverarbeitung zu kombinieren, um die Sicherheit im Netz zu gewährleisten.

Aufruhr in Estland

Ein Streit über einen vergangenen Krieg löste aus, was man den ersten großen „Cyberangriff“ nennen könnte. Am 27. April 2007 beseitigte die Regierung von Estland den „Soldaten von Tallinn“ – eine Bronzestatue, die an die sowjetische Armee des Zweiten Weltkriegs erinnert – aus dem Zentrum der Stadt und brachte sie zu einem Militärfriedhof am Tallinner Stadtrand. Die Aktion fand aufgrund einer umfassenden Debatte über die Interpretation der Geschichte Estlands statt: Ein „Deutungskrieg“ über die Rolle der Sowjetunion in Estland während und nach dem Zweiten Weltkrieg hatte die estnische Gesellschaft gespalten.

Auf die Entfernung der Statue folgte eine mehrere Tage andauernde gewaltsame Konfrontation. Die russischsprachige Bevölkerung randalierte. Die Proteste führten zu 1300 Verhaftungen, 100 Verletzten und einem Todesfall. Der Aufruhr wurde als „Bronzenacht“ bekannt. Eine deutlich ernstere Störung sollte noch folgen, und die Waffen waren dabei nicht Molotow-Cocktails, sondern Tausende von Computern. Über einen Zeitraum von fast drei Wochen wurde Estland Opfer einer Reihe von Hackerangriffen.

Diese Störung erreichte ihren Höhepunkt am 9. Mai, als Moskau den Tag des Sieges der Sowjetunion gegen Nazideutschland feierte. Sie sorgte dafür, dass Banken, Medien, Polizei, Regierungsnetzwerke und Rettungsdienste zusammenarbeiteten. Hierbei wurden Bots, eine gezielt hervorgerufene Nichtverfügbarkeit von Internetdiensten (DDoS) und Spam mit einer nie dagewesenen Raffinesse eingesetzt. Im Endeffekt brachten diese Aktionen eine der technologieabhängigsten Gesellschaften der Welt praktisch zum Stillstand.

Das Tallinn-Handbuch

In der Folge reagierte die NATO mit dem Aufbau des NATO Cooperative Cyber Defense Centre of Excellence in Estland. Ein wichtiger Beitrag des Zentrums war die Veröffentlichung des Tallinn-Handbuchs im Jahr 2013 – eine umfassende Studie darüber, wie das Völkerrecht auf den Cyber-Konflikt angewendet wurde. Das erste Handbuch konzentrierte sich auf die Ausschaltung der Angriffe gegen Staaten, was praktisch eine Kriegshandlung darstellt.

Tallinn 2.0 wurde im Februar 2017 veröffentlicht. Im Vorwort argumentiert der estnische Politiker Toomas Hendrik Ives: „Im Nachhinein betrachtet waren das recht ungefährliche und einfach gestrickte DDoS-Angriffe, weit weniger schädlich als das, was später kam. Doch es war das erste Mal, dass man das Clausewitzsche Diktum anwenden konnte: Der Krieg ist die Fortsetzung der Politik mit anderen Mitteln.“

Der Schwerpunkt des neuen Handbuchs zeigt, wie sehr sich die Welt der Cyberangriffe in den zehn Jahren seit der Bronzenacht verändert hat. Es kündigt eine Zukunft an, in der alle Aspekte der Gesellschaft, nicht nur militärische und staatliche Infrastruktur, einem aktiven Netzbetrieb unterliegen.

Inzwischen ist der Spielraum für das digitale Eindringen einer Nation in eine andere viel größer und weiter verbreitet. Alle persönlichen Daten von Bürgern, die in Regierungsservern in digitalisierten Kulturgut-Sammlungen gespeichert sind, sind für die internationalen Experten für Internetrecht bedeutsam geworden.

Ein Jahrzehnt der Cyberangriffe

In den zehn Jahren seit 2007 haben wir in einer Ära gelebt, in der anhaltende Cyberangriffe mit internationalen bewaffneten Konflikten zusammenfallen. Der Konflikt zwischen Georgien und Russland (2008) und der anhaltende Konflikt in der Ukraine (seit 2014) sind Beispiele dafür. Diese Angriffe haben sich über konventionelle Konfliktzonen hinaus erweitert, sie dringen auch in bürgerliche Bereiche und Regierungsstrukturen ein.

Es wird behauptet, dass nationalstaatliche Akteure im Jahr 2009 aktive Maßnahmen und DDoS-Störungen (ähnlich denen, die im vergangenen Jahr die australischen Volkszählung behindert haben) gegen Kirgisistan und Kasachstan gerichtet haben. Die deutschen Ermittler stellten im Mai 2015 ein Eindringen in den Bundestag fest. Die Niederländer kamen einer Infiltration von Regierungscomputern in Bezug auf MH17-Berichte auf die Schliche.

Inzwischen weiß man, dass zwischen 2015 und 2016 in den USA Computer der demokratischen Partei infiltriert worden sind. Ende April wurde enthüllt, dass Forscher Phishing-Domains für französische politische Kampagnen identifiziert haben. Es gibt sogar Bedenken, dass, wie Professor Greg Austin erklärt hat, digitale Spionage eine Bedrohung für die australische Demokratie sein könnte.

Vor kurzem zeigte die digitale Forensik eines Computers, der 1998 als Teil einer Operation unter dem Namen „Moonlight Maze“ gehackt wurde, dass es möglich ist, dass der gleiche Code- und Bedrohungsakteur seit mindestens dieser Zeit in den Betrieb involviert ist. Möglicherweise ist hier seit 20 Jahren eine kontinuierliche Kampagne zu Netzausspähungen aktiv.

Thomas Rid, Professor für Sicherheitsstudien am King’s College London, hat vor kurzem das US Select Committee on Intelligence über russische Maßnahmen und Einflusskampagnen befragt. Er äußerte seine Meinung, dass das Verständnis der Cyberangriffe im 21. Jahrhundert unmöglich sei, ohne zuerst die Intelligence-Operationen im 20. Jahrhundert zu verstehen. Rid sagte: „Das ist ein Feld, das seine eigene Geschichte nicht versteht. Es ist sonnenklar, dass man zuerst die Vergangenheit verstehen muss, wenn man die Gegenwart oder die Zukunft verstehen will.

Information und Meinungsbildung liegen im Fokus

Die Geschichte der Cyberangriffe zu verstehen, wird für die Entwicklung von Strategien zu ihrer Bekämpfung entscheidend sein. Aber die Anwendung von Modellen aus der Militärgeschichte und Taktik wird nur in sehr speziellen Bereichen der „Strategien für das Informationszeitalter“ Fortschritte bringen.

Die internationale Antwort auf den „Angriff“ auf Estland bestand darin, Kriegsmodelle von Angriff und Verteidigung zu replizieren. Aber die Analyse der letzten zehn Jahre zeigt, dass dies nicht der einzige Weg ist, in dem sich der Konflikt entwickelt hat. Sogar der populäre Begriff „Cyberangriff“ ist jetzt für kleinere Fälle als den Fall in Estland nicht mehr angebracht, da die Risiken des Cyber-Sicherheitsspektrums komplexer und präziser geworden sind.

Seit den Vorfällen in Estland im Jahr 2007 haben sich Internet-basierte Einbrüche und Beeinflussungen massiv auswegeweitet, aber ihre Ziele sind diffuser geworden. Direkte Angriffe auf die Verteidigungskräfte einer Nation sind zwar bedrohlicher, könnten in Zukunft aber seltener auftreten als diejenigen, die auf Information und Meinungsbildung abzielen.

Zu der betreffenden Zeit schien der Angriff auf die nationale Infrastruktur in Estland entscheidend zu sein, aber wenn man jetzt zurückblickt, trieb er nur einen Keil in eine bestehende Polarisierung in der Gesellschaft, was eine zentrale Taktik zu sein scheint. Nationen wie beispielsweise Australien sind anfälliger als je zuvor für Cyber-Bedrohungen, aber ihr öffentlicher Fokus wird immer breiter, und ihr Ziel wird sein, Einstellungen, Meinungen und Überzeugungen zu ändern.

Vor einem Jahrzehnt brach in Estland ein Krieg um das Netz als Folge eines Geschichtsdeutungskrieges aus. Der Zusammenhang zwischen Gedenk- und Informationskrieg ist stärker denn je, und wenn die Nationen sich selbst verteidigen wollen, müssen sie die Kultur so gut verstehen wie die Kodierung.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „Hacker“ by HypnoArt (CC0 Public Domain)


The Conversation

Weiterlesen »

Das kollektive Gedächtnis verstehen: Das Netz macht’s möglich

Mini Wikipedia globe at the Wikimedia Foundation offices (adapted) Image by Lane Hartwell CC3.0 Share Alike via Wikipedia

Das Internet hat sämtliche Bereiche unseres Lebens umgekrempelt. Genauer gesagt hat sich die Art und Weise, wie wir Wissen erwerben, signifikant verändert – zum Teil durch Wissensquellen im Netz wie die Wikipedia. Genau genommen hat es sogar die Art der Wissenschaft verändert. Sozialwissenschaftler verwenden immer häufiger Daten aus dem Netz, um unsere individuellen und kollektiven Verhaltensweisen zu studieren – und das tun sie mit einer Genauigkeit, die man sonst nur aus den Naturwissenschaften kennt.

Sicherlich sind wir immer noch weit davon entfernt, im Internet große experimentelle sozialwissenschaftliche Datensätze vergleichbar zu denen, die im CERN produziert werden, zu finden, doch zumindest haben wir digitale empirische Daten, wie beispielsweise die aufgrund von Beobachtung gewonnenen Daten der Astrophysik. Millionen Menschen nutzen tagtäglich Online-Tools. So wird beispielsweise Wikipedia rund 500.000 Mal am Tag aufgerufen.

Das “Kollektive Gedächtnis”, wie es von Wissenschaftlern genannt wird, ist eines der Schlüsselthemen, um soziales Verhalten zu verstehen: Es verdeutlicht, wie sich Mitglieder einer sozialen Gruppe gemeinsam an ein Event in ihrer Vergangenheit erinnern. Obwohl es sich beim kollektiven Gedächtnis um einen Grundbegriff in der Soziologie handelt, gab es nur ein paar wenige empirische Studien über dieses Thema, hauptsächlich aufgrund fehlender Datensätze. Wissenschaftler, die erforschen, wie das Publikum vergangene Ereignisse abruft, hatten klassischerweise viel Zeit in Interviews und Aufwand in die Datensammlung investiert.

Flugzeugabstürze

Im Rahmen einer aktuellen Studie, die im Science Advances veröffentlicht wurde, verwendete unser Team, bestehend aus einem Soziologen, einem Computeringenieur und zwei Physikern, Daten aus der Wikipedia. Ziel war es, durch die in aller Öffentlichkeit zugänglichen Statistiken der täglichen Seitenabrufe aller Artikel der Enzyklopädie das kollektive Gedächtnis zu studieren.

Wir suchten in unserem Beispiel nach Flugzeugabstürzen in der gesamten Geschichte der Luftfahrt. Dies taten wir, weil solche Vorfälle gut dokumentiert sind und weil bedauerlicherweise einegroße Anzahl solcher Vorfällen existiert, die die statistische Analyse stabil gestalten. Wir unterteilten die Ereignisse in die Zeiträume “vor nicht allzu langer Zeit” (2008-2016) und “früher” (alle Vorfälle vor 2008). Beispiel für die neulich stattgefundenen Vorfälle sind Flug MH370, Flug MH17, Flug AF447 und der Germanwings-Flug 9525. Bei den vorhergehenden Unfällen handelt es sich zum Beispiel um den Flug AF587 und den Flug IR 655.

Um die steigenden Seitenabrufe für Artikel vergangener Ereignisse, eine Woche nachdem ein Ereignis eintrat, zu messen, verwendeten wir statistische Methoden. Wir nannten diesen Anstieg den “Aufmerksamkeits-Strom”. Wir waren daran interessiert, herauszufinden, ob der Anstieg der Aufmerksamkeit bezüglich des vergangenen Ereignisses in Korrelation zu den zeitlichen Abständen und der Ähnlichkeit der neulich stattgefundenen und der vergangenen Ereignissen steht. Darüber hinaus waren wir daran interessiert, herauszufinden, ob wir den Anstieg des “Aufmerksamkeit-Stroms” zu vergangenen Ereignissen verhindern können, indem ein neues Ereignis eintritt.

Wir haben herausgefunden, dass die Menschen nach dem Absturz der Germanwings-Maschine im Jahr 2015 in der Wikipedia Informationen über den American-Airlines-Flug außerhalb von New York City im November 2001 suchten. Tatsächlich gab es einen dreifachen Anstieg der Seitenabrufe in der Woche nach dem Germanwings-Absturz.

Es scheint hier ein Muster zu geben. Wir haben kontinuierlich einen signifikanten Anstieg der Seitenabrufe vergangener Ereignisse als Folge zu Vorfällen, die vor Kurzem geschahen, beobachtet. Im Durchschnitt wurden vergangene Ereignisse 1,4 mal öfter aufgerufen als die Ereignisse aus der vergangenen Woche. Das lässt vermuten, dass die Erinnerung an ein Ereignis mit der Zeit wichtiger werden kann, und auch, dass dem Ereignis mit der Zeit mehr Bedeutung zugetragen wird, als es ursprünglich der Fall gewesen ist.

Wir haben dann versucht, dieses Muster abzubilden. Unter Berücksichtigung aller Faktoren, wie den Einfluss der Ereignisse aus der kürzer zurückliegenden Vergangenheit und derer, die weiter zurück lagen, zudem die Ähnlichkeit zwischen den Ereignissen und ob ein Hyperlink existiert, der die beiden Ereignisse direkt miteinander auf Wikipedia verlinkt.

Was unsere Erinnerung beeinflusst

Beispielsweise lässt sich im Fall der Germanwings- und American-Airlines-Flüge sagen, dass beide Vorfälle im Zusammenhang mit dem Piloten standen. Dieser könnte ein wichtiger Kopplungsfaktor sein. Die Maschine der American Airlines stürzte aufgrund eines Pilotenfehlers ab, während der Germanswings-Pilot das Fluzgeug absichtlich abstürzen ließ. Dies wurde umso interessanter, als wir herausfanden, dass es keinen Hyperlink gab, der diese beiden Artikel auf Wikipedia miteinander verlinkt. Tatsächlich blieben unsere Daten sogar dann stabil, als wir alle Paare entfernten, die durch Hyperlinks in direkter Verbindung zueinander standen.

Der wichtigste Faktor des Musters war die ursprüngliche Auswirkung des vergangenen Ereignisses, die durch ihre durchschnittlichen täglichen Seitenabrufe gemessen wurde, bevor das Ereignis eintrat. Das heißt, dass manche vergangenen Ereignisse einprägsamer sind und unsere Erinnerung daran leichter ausgelöst werden können als andere. Als Beispiel hierfür können die Flugzeugabstürze am 11. Semptember genannt werden.

Statistik Seitenaufrufe Wikipedia
Drei Flugzeugabstürze aus der jüngeren Vergangenheit (genauer: aus dem Jahr 2015) und ihre Auswirkung auf die Seitenaufrufe vergangener Ereignisse. Die Abstürze aus der jüngeren Vergangenheit haben einen Anstieg in Seitenaufrufen bei den Ereignissen, die bereits längere Zeit vergangen sind, verursacht.

Die zeitliche Trennung zwischen zwei Ereignissen spielt ebenso eine wichtige Rolle. Je näher zwei Ereignisse beieinander liegen, desto stärker ist ihre Verbindung. Wenn ein Ereignis mehr als 45 Jahre zurück liegt, ist es unwahrscheinlich, dass es noch eine Erinnerung an ein vergangenes Ereignis auslöst.

Die Ähnlichkeit zwischen zwei Ereignissen hat sich ebenso als einen wichtiger Faktor ergeben. Dies lässt sich am Beispiel der IR 655 erklären. Die Maschine wurde im Jahr 1988 von einem US-Kriegsschiff mittels einer Rakete abgeschossen. Hierbei handelte es sich eigentlich um kein Ereignis, an das sich die Menschen gut erinnern konnten. Allerdings wurde diesem Ereignis wieder große Aufmerksamkeit zugetragen, als im Jahr 2014 der Malaysia-Airlines-Flug 17 von einer Rakete über der Ukraine getroffen wurde. Der Unfall mit der Iran-Air-Maschine hatte vor den Geschehnissen in Malaysia eine durchschnittliche tägliche Quote von 500 Aufrufen und stieg kurz danach auf 120.000 Aufrufe täglich.

Es ist wichtig, festzuhalten, dass wir die tieferliegenden Mechanismen hinter diesen Beobachtungen nicht wirklich verstehen. Die Rolle der Medien, die individuellen Erinnerungen oder die Struktur der Kategorisierung von Artikeln auf Wikipedia können alle ein Teil dessen sein und werden ein Thema in zukünftigen Beobachtungen darstellen.

In traditionelleren Theorien wird vermutet, dass die Medien die zentrale Rolle in der Formung unseres kollektiven Gedächtnisses spielen. Dennoch ist eine wichtige Frage, inwiefern der Wandel zu Onlinemedien und vor allem sozialen Medien diesen Mechanismus verändern wird. Heutzutage erhalten wir oft Neuigkeiten durch unsere Facebook-Freunde. Kann dies erklären, warum Ereignisse, die seit Jahren nicht in den Nachrichten erschienen sind, auf einmal so nah an unserer Gegenwart sind?

Zu wissen, wie diese Fragen zu beantworten sind – und um zu verstehen, wie das kollektive Gedächtnis gebildet wird, ist nicht nur aus der wissenschaftlichen Perspektive heraus interessant. Das Verständnis über das kollektive Gedächtnis könnte darüber hinaus Anwendung im Journalismus, in der Medienentwicklung, in der Politik und sogar in der Werbung finden.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „Wikipedia_mini_globe_handheld“ by Lane Hartwell (CC BY-SA 3.0)


The Conversation

Weiterlesen »

Digitale Akademie des geselligen Diskurses – Störenfriede statt Studiengebühren

Image (adapted) (Image by Redd Angelo) (CC0 Public Domain) via Unsplash

Das Notiz-Amt wollte an dieser Stelle eigentlich auf die vorzüglichen Gedanken des rebellischen Geistes Stefan Holtel und seinen Überlegungen zu den Untiefen der Gläubigkeit an die Heilsversprechen der Künstlichen Intelligenz eingehen. Kann KI irgendetwas besser machen, was Software bislang noch nicht konnte, fragt sich Holtel. Das ist natürlich Unsinn. „Nicht die Algorithmen werden in der KI zu vielen Problemen führen, sondern die Vorurteile, die in den Daten stecken.“ Also Vorurteile, die wir alle in die Daten stecken.

Wenn auf dieser Basis die KI-Systeme ihre unermüdliche Arbeit aufnehmen und Entscheidungen vorbereiten oder sogar selbst treffen, kommt ziemlicher Mist dabei heraus. Kunden, die keinen Kredit mehr bekommen, Versicherte, die Prämienerhöhungen hinnehmen müssen oder gar Netzaktivisten, die als potenzielle Störenfriede der Gesellschaft aussortiert werden. Fast alle Daten, die von Black Box-Maschinen verarbeitet werden, sind von Menschen annotiert worden. „Wir reichern vermeintlich objektive Daten mit unseren Weltmodellen an. Das wird von keinem Algorithmus hinterfragt“, so Holtel im Vorgespräch zu seiner Session auf der re:publica in Berlin beim HR-Festival in der Watson Work Lounge.

Streiten wir über Hausmeister-Maschinen

Konsequenz: Es fällt uns immer schwerer, die Richtigkeit von Datenberechnungen zu erkennen. Das Ganze ist sogar ein paradiesisches Feld für Trickser, Agitatoren, Autokraten und Machtgierige, sich hinter den Ergebnissen der KI-Maschine zu verstecken und die schmutzigen Entscheidungen auf die Algorithmen zu schieben. Etwa beim Scoring aller Bürgerinnen und Bürger in China. Die Führung der Kommunistischen Partei in Peking installiert „korrekte“ Maschinen als Hausmeister für politische Hygiene ein. Sozusagen eine Beseelung von toten Apparaten: KI-Maschinen sind wie wir, nur perfekter und unfehlbarer. Der manipulierende Maschinist bleibt dabei unerkannt. Die Drecksarbeit übernehmen Algorithmen – vergleichbar mit der unsauberen Arbeit von Consulting-Firmen, die als Alibi für den Rausschmiss von Mitarbeitern in Unternehmen engagiert werden.

„Wir müssen unser Konzept von Vertrauen in Maschinen überdenken und neu bewerten. Das ist keine technische Frage, sondern eine techniksoziologische und gesellschaftliche, die keine objektive Antwort haben wird, sondern in einem normativen Diskurs entwickelt werden muss.“ Sonst entsteht so eine Art Maschinen-Paternalismus. Vergleichbar mit der Einführung der Tabellen-Kalkulation. „Wie haben uns den Ergebnissen ausgeliefert, die von Excel und Co. ausgespuckt werden. Dabei gibt es eine Vielzahl von Studien, die die Fehlerhaftigkeit von Excel-Tabellen belegen. Wenn wir die einfache Konstruktion einer Tabelle schon nicht verstehen oder kritiklos darauf reagieren, werden wir erst recht nicht verstehen, was in der Interaktion mit Algorithmen abgeht“, mahnt Holtel.

Das berühmteste Beispiel ist das Excel-Chaos der Harvard-Ökonomen Carmen Reinhart und Kenneth Rogoff, die ein Optimum für die Höhe von Staatsschulden als finanzpolitischen Leitfaden den Staatsregierungen ins Ohr gemauschelt haben. Es sei ein großer Fehler, den Maschinen Fähigkeiten wie Rationalität und Unfehlbarkeit zuzuschreiben, bemerkt Holtel: „Das speist sich aus unseren täglichen Erfahrungen. Niemand rechnet Excel-Tabellen nach. 2007 gab es im Intel-Prozessor einen Hardware-Fehler, der dazu führte, dass Excel falsch rechnete. Es gibt diese systemischen Fehler sehr häufig, aber Menschen sind kaum in der Lage, diese Risiken einzuschätzen.“

Kritischer Diskurs über Künstliche Intelligenz

Der Diskurs über Künstliche Intelligenz müsse differenzierter geführt werden. „Wir sollten durch Aufklärung oder Machteliten-Hacking Verantwortung übernehmen, um diesen Diskurs adäquat zu begleiten“, resümiert Holtel. Und da sind wir direkt beim zweiten Thema, dass nahtlos an die Notwendigkeit von offenen, kontroversen und anschlussfähigen Diskursen anknüpft: Der Rolle der Hochschulen. Kann eine Ökonomisierung den akademischen Betrieb über Studiengebühren beflügeln? Dazu gab es eine ausgiebige Disputation auf Twitter, die ich hier nicht wiederholen möchte.

Studiengebühren
Screenshot by Gunnar Sohn

Disputationsgeist oder Verarmung des Denkens mit Studiengebühren?

Wollen wir wirklich einen universitären Verwaltungsmoloch weiter füttern mit dem Geld von Studierenden, bei dem es um dümmliche Ranglisten und eine Verarmung des Denkens mit Kennzahlen geht? Wie kümmerlich. Als Sekretär des Notiz-Amtes gründe ich als Gegenentwurf heute die „Digitale Thomasius-Akademie für Wissenschaft und Geselligkeit“.

Warum gerade Thomasius? Weil Christian Thomasius Ende des 17. Jahrhunderts die Universität als politisches Experiment vorantrieb. Ja, als politisches Experiment und nicht als Effizienz-Anstalt für die Sammlung von Schleimpunkten – Gebührenfinanzierung hin oder her. Man sollte schlechten Institutionen nicht noch Geld hinterher schmeißen. Durchbrechen wir mit Studiengebühren den bildungspolitischen Teufelskreis, der da heißt: „Herkunft gleich Zukunft“? Untermauern wir nicht den pseudo-elitären Zirkel, wo Müller den Müllerchen nachzieht und akademische Klone in Führungspositionen gelangen – also eine ständische Gemeinschaft, die sich abschottet und gegenseitig Pöstchen zuschiebt?

Digitale Thomasius-Akademie für Wissenschaft und Geselligkeit

Wer über die nötige Finanzzufuhr über Papi und Mami verfügt, soll ruhig ordentlich zur Kasse gebeten werden und an den Lemuren-Anstalten den Kadettengehorsam der Lehrpläne an „Elite-Unis“ aufsaugen. Malen nach Zahlen im Hochschulkostüm. Wer sich der geselligen Disputation an der Digitalen Thomasius-Akademie hingibt, bekommt die universal ausgerichteten Sessions kostenlos. Schließlich unterrichtete Thomasius arme Studenten umsonst – das galt auch für die Nutzung seiner Bibliothek. Die 1694 eingeweihte Universität Halle testete die Innovationsbereitschaft der Gelehrtenrepublik mit der Berufung des Versuchsleiters Thomasius: ein Philosoph, Zeitschriftenmacher und Ratgeber des galanten Lebens.

Akademische Krawalle vonnöten

Seinen Weg dorthin bahnte sich Thomasius mit einer Serie von akademischen Krawallen. Sein politisches Universitätskonzept beruhte auf Weltläufigkeit, Klugheit und Erfahrungsnähe, es sollte die Urteils- und Kritikfähigkeit der Studierenden fördern und Barrieren für den Zugang zu brauchbarem Wissen aus dem Weg räumen. Nachzulesen in dem Opus von Steffen Martus „Auflkärung“, erschienen im Rowohlt-Verlag. Überlieferungen und Traditionen schob er beiseite und empfahl seinen Studenten ein entspanntes Verhältnis gegenüber Wandel und Neuerung. Er inszenierte sich als akademischer Störenfried.

„Thomasius schlug ungewöhnliche Wege ein, um seine Gegner zu düpieren. Einer davon führte ihn zum Bündnis von Universität und Medienbetrieb. Er begann mit einer Zeitschrift, einer damals sehr frischen, wenig etablierten Gattung, in der seine Lieblingsideen noch einmal auftauchten, nun aber so vermengt und so unterhaltsam aufbereitet, dass sie ein breiteres Publikum ansprachen“, schreibt Martus und erwähnt die damalige Publikation mit Kultstatus: die Monatsgespräche – Scherz- und Ernsthafte Vernünftige und Einfältige Gedanken über allerhand Lustige und nützliche Bücher und Fragen. Eine Mischung aus Information und Pöbelei, aus Satire und anspruchsvoller Kritik, die nicht nur unterhaltsam, „sondern noch dazu erfolgreich war“, so Martus.

Social Web im 17. Jahrhundert ohne AGB-Diktatur

Greift man zur Schrift „Das Archiv der Klugheit“ von Leander Scholz, erfährt man noch mehr über Thomasius als Wegbereiter des Social Webs mit analogen Mitteln ohne AGB-Diktatur von Google und Co. Der Einzelne sollte durch die Bemächtigung von praxiologischem Wissen unhintergehbar werden. Sein Augenmerk richtete Thomasius stets auf die Medienrevolutionen, die zu einer Zäsur im Archiv des Wissens führen. „Das Kommunikationsmodell, mit dem er auf die erhöhte Datenmenge im Schriftraum reagiert, ist das des Marktplatzes mit der philosophischen Idealfigur Sokrates“, führt Scholz aus. In seiner Klugheitslehre wollte Thomasius den Wissensempfänger direkt zum Wissensvermittler machen, denn die Wissensproduktion findet mit dem Verlassen des universitären Bereichs vor allem in der täglichen Konversation statt. „Die Demokratisierung des Wissens und der Informationssysteme waren für Thomasius unabdingbare Voraussetzungen für eine demokratische Gesellschaft“, erläutert Scholz. Im Vordergrund seiner Theorie des Denkens stand nicht die Bewältigung eines heterogenen Stoffs nach dem Bulimie-Prinzip (reinschaufeln – auskotzen), sondern die Navigation in der Unübersichtlichkeit von Welt. So lasset uns disputieren in der Digitalen Thomasius-Akademie über diskriminierende Hausmeister-Maschinen, ausgrenzende Studiengebühren, die Neuerfindung einer politischen Universität, über Zukunftsszenarien, Utopien und das Leben. Mäzene wären dabei nicht schlecht – und die hatte Thomasius auch.

Am Donnerstagabend gibt es das erste Thomasius-Seminar als rebellische Formation. Gespräch über Ethik und Bildung jenseits der Stoff-Bulimie.


Image (adapted) by Redd Angelo (CC0 Public Domain)


Weiterlesen »

FollowUs – Die Netzpiloten-Tipps aus Blogs & Mags

Follow me
  • WHATSAPP t3n: Weltweiter Whatsapp-Ausfall während Präsentation der Facebook-Quartalszahlen: Während Facebook am Mittwoch die neuen Quartalszahlen vorstellte und Gründer Mark Zuckerberg unter anderem auch von den Zukunftsplänen für WhatsApp sprach, kam es bei dem Dienst zu einem teilweisen Ausfall. Viele Nutzer, vor allem in Westeuropa und Südamerika, sahen die Fehlermeldung „Verbinde…“ – eine Verbindung konnte allerdings nicht hergestellt werden. Experten vermuten, dass es sich um einen Erpressungsversuch in Form eines DDoS-Angriffs handeln könnte. Demnach wären die Server mit sinnlosen Anfragen überflutet worden, sodass diese unter der Last zusammenbrachen. Gegen 00:40 war WhatsApp nach einem zweistündigen Ausfall wieder erreichbar.

  • WLAN teltarif.de: Telekom und Lufthansa: WLAN im Flugzeug ab 3 Euro pro Flug: Unter dem Namen Lufthansa FlyNet bietet die Fluggesellschaft Lufthansa ihren Kunden ab sofort einen Internetzugang an Bord ihrer Flugzeuge an. Seit Januar dieses Jahres wurden Tests durchgeführt. Kunden können sich mit beliebigen mobilen Geräten im Netzwerk anmelden und lossurfen. Die Technik besteht aus WLAN-Technologie an Bord sowie Satelliten-Antennen und wurde bislang in 19 Flugzeugen des Typ Airbus A320 eingebaut. Außerdem wurden 31 Maschinen von Austrian Airlines und 26 Eurowings-Flugzeuge ausgerüstet. Auch Maschinen von Swiss sollen unter Umständen WLAN an Bord erhalten. Für die Einspeisung des Internets ist die Deutsche Telekom verantwortlich. Ab drei Euro ist das Angebot zu haben, je nachdem, welche Datenmenge man benötigt, muss man draufzahlen.

  • FACEBOOK Zeit: Facebook stellt 3.000 neue Kontrolleure ein: Wie Facebook-Chef Mark Zuckerberg in einem Blogeintrag mitteilte, plant Facebook, 3. 000 neue Mitarbeiter einzustellen, die damit beauftragt sind, Videos mit Gewaltinhalten aufzuspüren und zu sperren. In letzter Zeit stand das soziale Netzwerk häufiger in der Kritik, dass derartige Videos über Stunden abrufbar waren, ohne, dass gehandelt wurde. Bislang kümmern sich weltweit 4. 500 Mitarbeiter darum, den Hinweisen der Nutzer nachzugehen. Facebook verlässt sich größtenteils darauf, dass Nutzer Videos mit missbräuchlichen Inhalten melden. Jede Woche gibt es Millionen Hinweise, die geprüft werden müssen.

  • GOOGLE golem: Bösartige Google-Docs-Einladungen kopieren Kontakte: Eine Phishing-Kampagne macht derzeit die Runde. Von einer bekannten Person erhalten User per Mail die Einladung zu einem Goole Doc. Nehmen sie diese an, werden sie dazu aufgefordert, sich mit ihrem Google-Konto anzumelden. Dadurch können Kriminelle auf die Kontaktdaten des Nutzers zugreifen. Automatisch wird die Nachricht an die Kontakte des Opfers weitergeleitet und kann sich so verbreiten.

  • UMTS heise: Deutsche Bankkonten über UMTS-Sicherheitslücken ausgeräumt: Kriminelle haben mit Zugriff auf das Online-Banking deutscher Bankkunden deren Konten ausgeräumt. Die gelang ihnen wohl, in dem sie Mobil-TANs (mTANs), die für die Geräte der Kunden bestimmt waren, umleiteten und so die Überweisungen autorisieren konnten. Diese Umleitungen wurden offenbar durch seit Jahren bekannte Sicherheitslücken im SS7-Protokoll des UMTS-Netzes ermöglicht. Erst Ende März hatten Experten wieder vor diesen Lücken gewarnt. O2 Deutschland bestätigte gegenüber der Süddeutschen Zeitung, dass im Januar diesen Jahres entsprechenden Angriffe im eigenen Netz stattgefunden haben.

Weiterlesen »

Sensible Daten gehören nicht auf US-Server

Server (adapted) (Image by NeuPaddy [CC0 Public Domain] via pixabay)

Das amerikanische Datenschutzrecht soll dahingehend verändert werden, dass Ausländer von vielen Schutzklauseln, die US-Bürgern zustehen, ausgenommen werden. Die genauen Implikationen der geplanten Veränderungen sind noch unklar. Dennoch steht eines fest: wer sensible Daten in der Cloud speichern will, sollte jetzt noch weniger als zuvor auf US-Dienste zurückgreifen. Obwohl die EU und Deutschland durchaus selbst einige „Baustellen“ im Bereich Datenschutz haben, sind schützenswerte Informationen auf deutschen Servern im Vergleich weitaus besser aufgehoben.

Trump will den Datenschutz (weiter) einschränken

US-Präsident Donald Trump ist nicht gerade als großer Verfechter der Bürgerrechte bekannt. Auch in puncto Datenschutz steht er eher für eine Politik, die die Rechte der Bevölkerung weiter einschränkt. Das hat er am 25. Januar unter Beweis gestellt. Damals erklärte Trump per Dekret seine Absicht, dass bestimmte Datenschutzrechte nur noch für US-Bürger gelten sollen. Für Ausländer sollen sie eingeschränkt oder ganz abgeschafft werden.

Noch ist unklar, wie genau sich Trumps Pläne juristisch auswirken werden und inwieweit er sie umsetzen darf. Selbst für Fachleute sind die juristischen Folgen schwer abzuschätzen. Einig sind sich jedoch viele Rechts- und Datenschutzfachleute, dass das Datenschutzabkommen „Privacy Shield“ zwischen den USA und Europa im Zuge von Trumps neuer Politik wohl abgeschafft werden wird.

Sensible Daten raus aus der US-Cloud!

Schon vor Trumps Entscheidung war die Datenschutzgesetzgebung in den USA im Vergleich zur EU weitaus schwächer. Trumps Pläne – wie auch immer ihr Endergebnis konkret aussehen wird – verstärken diesen Trend noch einmal deutlich.

Unternehmen, die ihre sensiblen Daten externen Dienstleistern anvertrauen wollen, können aus der aktuellen Situation nur einen Schluss ziehen: Sie sollten sich keinesfalls für ein US-Unternehmen als Hoster entscheiden. Das empfehlen auch die Kollegen des IT-Magazins c’t, die fordern: „Raus aus den US-Clouds!“

Daten, die von US-Unternehmen auf amerikanischen Servern gehostet werden, unterliegen der US-Gesetzgebung. Das bedeutet, dass die dort liegenden Daten nur unzureichend vor behördlichen Zugriffen geschützt sind, umso mehr, wenn die Neuregelung den Schutz für die Daten von Nicht-US-Bürgerinnen und -Bürgern weiter einschränkt. Zudem unterstützen einige US-Firmen die Kompetenzüberschreitungen der Behörden, sei es aus falsch verstandenem Patriotismus oder um Schwierigkeiten aus dem Weg zu gehen.

Das sind schlechte Voraussetzungen für eine angemessen sichere Unterbringung sensibler Daten, seien es persönliche Informationen über Kundinnen und Kunden, Geschäfts-Interna oder Sonstiges. Derartige Daten sollten daher nach Möglichkeit immer in der EU, idealerweise in Deutschland mit seinen besonders strengen Datenschutzgesetzen, gehostet werden. Mittlerweile haben einige US-Cloud-Dienstleister, unter anderem Microsoft, eigens Server in Deutschland in ihr Portfolio aufgenommen, um europäische Nutzerinnen und Nutzer, die sich der Datenschutzproblematik zunehmend bewusst werden, nicht zu verlieren. Wer ganz sicher gehen will, sollte aber dennoch Unternehmen mit einem Firmensitz in der EU den Vorzug geben.

All dies gilt umso mehr, als die USA keineswegs nur in lauterer Absicht fremde Kommunikation bespitzeln. Unter dem Deckmantel der Verbrechensbekämpfung wird teilweise auch schlichtweg Wirtschaftsspionage bei ausländischen Konkurrenten von US-Unternehmen betrieben.

Verschlüsselung als zusätzlicher Schutz

Bekanntermaßen allerdings ist auch in der EU und in Deutschland die Datenschutzgesetzgebung nicht perfekt. Zudem umgehen Geheimdienste und Ermittlungsbehörden bei ihren Überwachungsprogrammen häufig geltendes Recht. Das gilt umso mehr für die Kooperation mit den US-Behörden.

Auch, wenn also die europäische Gesetzgebung einen weitaus besseren Schutz bietet als die US-amerikanische – gerade für EU-Bürgerinnen und -Bürger –, sollte, je nach Sensibilität der fraglichen Daten, auf zusätzliche technische Schutzmaßnahmen gesetzt werden. Eine Verschlüsselung der Daten schützt diese zuverlässig vor den Zugriffen Krimineller ebenso wie vor behördlichen Kompetenzüberschreitungen und gehört daher unabdingbar zu einem guten Sicherheitskonzept dazu.


Image (adapted) „Server“ by NeuPaddy (CC0 Public Domain)


 

Weiterlesen »

Künstliche Intelligenz: Verstehen, wie Maschinen lernen

Roboter (adapted) (Image by jens kuu [CC BY 2.0] via flickr)

Von „Jeopardy“-Gewinnern und „Go“-Meistern zur berüchtigten werbebezogenen Rassenprofilierung scheint es, dass wir in eine Ära eingetreten sind, in der sich die Entwicklung von künstlicher Intelligenz rasend beschleunigt. Aber ein vollkommen empfindungsfähiges Wesen, dessen elektronisches „Gehirn“ sich komplett mit komplexen kognitiven Aufgaben beschäftigen kann und dabei faire, moralische Beurteilungen aufrechterhält, ist jetzt noch schwer vorstellbar.

Leider rufen jetzige Entwicklungen eine generelle Angst hervor, wie künstliche Intelligenz in der Zukunft werden könnte. Die Repräsentation künstlicher Intelligenz in der jüngsten Popkultur zeigt, wie vorsichtig – und pessimistisch – wir sind, wenn es um Technologie geht. Das Problem mit Angst ist, dass sie lähmen und Ignoranz fördern kann. Zu lernen, wie künstliche Intelligenz im Inneren funktioniert, kann diese Bedenken lindern und eine verantwortliche und sorgenfreie Beschäftigung ermöglichen.

Künstliche Intelligenz basiert auf Machine Learning als elegantes und leicht zugängliches Werkzeug. Aber um zu verstehen, was Machine Learning bedeutet, müssen wir zunächst untersuchen, wie die positiven Aspekte des Potentials die negativen Aspekte wettmachen.

Daten sind der Schlüssel

Einfach gesagt, bezieht sich Machine Learning darauf, dass Computern beigebracht wird, wie Daten analysiert werden, wie man zum Beispiel einzelne Aufgaben mittels eines Algorithmus‘ löst. So werden für die Handschrifterkennung beispielsweise Algorithmen benutzt, um Buchstaben zu unterscheiden, die auf einer menschlichen Handschrift basieren. Die Datenspeicherungszentren nutzen Regressionsalgorithmen, um in einer quantifizierbaren Weise den Verkaufspreis eines gegebenen Vermögens zu schätzen.

Machine Learning beschäftigt sich letzten Endes mit Daten. Fast jede Gesellschaft generiert Daten so oder so, man denke an Marktforschung, soziale Medien, Schulfragebögen oder automatische Systeme. Die Anwendungen von Machine Learning versuchen, versteckte Muster oder Korrelationen in dem Chaos der großen Datenmengen zu finden, um Modelle zu entwickeln, die Verhalten voraussagen.

Daten haben zwei Kernelemente – Stichproben und Kenndaten. Ersteres repräsentiert individuelle Elemente in einer Gruppe, das zweite die Anzahl der Eigenschaften, die sie teilen. Schauen wir uns zum Beispiel soziale Medien an: Die Nutzer sind Stichproben und ihre Nutzung kann in Kenndaten übersetzt werden. Facebook zum Beispiel gebraucht unterschiedliche Aspekte des „Gefallens“ von Aktivitäten, die sich von Nutzer zu Nutzer ändern kann, als wichtige Kenndaten für nutzerdifferenzierte Werbung.

Facebook-Freunde können ebenfalls als Stichproben verwendet werden, während ihre Verbindung zu anderen Menschen als Kenndaten verstanden werden. So wird ein Netzwerk etabliert, in dem Informationsverbreitung erforscht werden kann. Außerhalb von sozialen Medien nutzen automatisierte Systeme, die in industriellen Prozessen als Überwachungswerkzeug verwendet werden, Momentaufnahmen des gesamten Prozesses als Stichprobe und nehmen Ausmessungen zur gleichen Zeit als Kenndaten auf. Dies erlaubt dem System, Anomalien im Prozess in Echtzeit festzustellen. All diese unterschiedlichen Lösungen basieren darauf, dass Maschinen mit Daten gefüttert werden müssen und auf der Lehre, dass sie ihre eigenen Prognosen feststellen können, wenn sie erst einmal strategisch die gegebenen Informationen beurteilt haben. Und das ist Machine Learning.

Die menschliche Intelligenz als Anfangspunkt

Jegliche Daten können in simple Konzepte übersetzt werden und jede Anwendung von Machine Learning, künstliche Intelligenz eingeschlossen, benutzt diese Konzepte als Basiskomponenten. Wenn Daten erstmal verstanden wurden, ist es Zeit, zu entscheiden, was mit den Informationen geschehen soll. Eine der bekanntesten und intuitivsten Anwendungen von Machine Learning ist die Klassifikation. Das System lernt, wie es Daten in verschiedene Gruppen aufteilt, basierend auf einem Referenzdatensatz.

Dies ist direkt verbunden mit den Arten von Entscheidungen, die wir tagtäglich treffen, wenn es um die Gruppierung von ähnlichen Produkten geht, beispielsweise bei Küchenutensilien, Schönheitsprodukten oder bei der Auswahl von guten Filmen, basierend auf den früheren Erfahrungen. Während diese zwei Beispiel komplett unabhängig voneinander zu sein scheinen, basieren sie auf einer essentiellen Annahme von Klassifikation von Prognosen, durch die sie als gut etablierte Kategorien definiert werden.

Wenn man zum Beispiel ein Tiegel mit Feuchtigkeitscreme nimmt, nutzen wir eine spezielle Liste von Kerndaten – die Form der Verpackung oder der Geruch des Produkts, um korrekt vorherzusagen, dass dies ein Schönheitsprodukt ist. Eine ähnliche Strategie nutzt man, wenn man einen Film auswählt, indem man auf die Kerndatenliste zugreift – beispielsweise der Regisseur oder ein bestimmter Schauspieler – um vorherzusagen, ob dieser Film in eine der beiden Kategorien gehört: Gut oder schlecht.

Indem man die unterschiedlichen Beziehungen zwischen Kerndaten, verbunden mit einer Menge an von Stichproben, festhält, können wir vorhersagen, ob der Film es wert ist, geschaut zu werden, oder besser gesagt, wir können uns ein Programm erstellen, welches dies für uns tut.

Um aber in der Lage zu sein, diese Informationen zu manipulieren, müssten wir schon ein Datenwissenschaftler sein, also erfahren in Mathematik und Statistik und mit einer ausreichenden Programmierfähigkeit, um Alan Turing und Margaret Hamilton stolz zu machen, nicht wahr? Nun ja, nicht ganz.

Wir alle wissen genug über unsere Muttersprache, um im täglichen Leben zurecht zu kommen, selbst wenn sich nur einige Wenige unter uns auf die Felder der Linguistik und der Literatur hinausbegeben. Bei der Mathematik ist es ähnlich: Sie befindet sich immer um uns herum, so dass wir beim Errechnen von Wechselgeld oder beim Abmessen von Zutaten für ein Rezept keine größeren Probleme haben. Ebenso ist für den bewussten und effizienten Umgang kein größeres Wissen in Machine Learning Voraussetzung.

Irgendwo dort draußen befinden sich sehr wahrscheinlich extreme gut qualifizierte und professionelle Datenwissenschaftler – mit ein wenig Anstrengung kann aber auch jeder von uns die Grundlagen erlernen und die Art und Weise, wie sie Vorteile von Informationen sehen und ergreifen, verbessern.

Algorithme dir deinen Weg

Schauen wir uns noch einmal unseren Klassifikationsalgorithmus an und denken wir über eine Möglichkeit nach, mit der die Art und Weise imitiert wird, wie wir Entscheidungen treffen. Wir sind soziale Wesen, wie ist es also um unsere sozialen Interaktionen bestellt? Die ersten Eindrücke sind wichtig und wir haben alle ein internalisiertes Modell, dass innerhalb der ersten paar Minuten, in denen wir jemanden kennen lernen, evaluiert, ob wir ihn mögen oder nicht.

Zwei Folgen sind möglich: ein guter oder ein schlechter Eindruck. Für jede Person sind unterschiedliche Eigenschaften – Kenndaten – wichtig – auch unbewusst – die auf etlichen Begegnungen in der Vergangenheit basieren – Stichproben. Diese könnten alles sein, vom Ton der Stimme zu Extraversion und vor allem die Einstellung zu Höflichkeit. Für jede neue Person, die wir treffen, registriert ein Modell in unserem Kopf diese Eindrücke und erstellt eine Prognose. Wir können dieses Modell zu ein paar wichtigen Sätzen von Eindrücken herunterbrechen, gewichtet nach ihrer Relevanz.

Für einige Menschen ist vielleicht Attraktivität sehr wichtig, wohingegen für andere einen guten Sinn für Humor oder die Tatsache, dass derjenige Hunde mögen sollte, ausschlaggebend ist. Jede Person wird ihr eigenes Modell entwickeln, das komplett auf den Erfahrungen basiert. Unterschiedliche Daten resultieren in unterschiedlichen Modellen, die mit unterschiedlichen Folgen eingeübt werden. Unser Gehirn entwickelt Mechanismen, die, während sie uns nicht ganz klar sind, festschreiben, wie diese Faktoren gewichtet werden.

Was Machine Learning macht, ist folgendes: Sie entwickelt präzise, mathematische Möglichkeiten für Maschinen, um diese Folgen zu errechnen – besonders in Fällen, in denen wir die Masse an Daten nicht einfach handhaben können. Jetzt gerade, und vielleicht mehr denn je, sind Daten riesig und langlebig. Zugang zu einem Werkzeug zu haben, dass aktiv Daten nutzt, um ein besonderes Problem zu lösen, so wie künstliche Intelligenz, meint auch, dass jeder diese erleben und ausnutzen sollte und kann. Wir sollten das nicht nur deshalb tun, damit wir nützliche Anwendungen herstellen, sondern auch, um Machine Learning und künstliche Intelligenz in ein besseres und nicht so negatives Licht zu rücken.

Es gibt noch etliche Ressourcen für Machine Learning, auch wenn sie einiges an Programmierfähigkeit voraussetzen. Einige bekannte Sprachen, die für Machine Learning maßgeschneidert sind, sind schon zugänglich – von Grundlagenkursen bis hin zu vollständigen Lehrgängen. Meist braucht man nicht länger als einen Nachmittag, um einzutauchen und brauchbare Resultate zu erhalten.

All dies bedeutet nicht, dass uns das Konzept von Maschinen mit menschlicher Denkweise nicht beschäftigen sollte. Mehr darüber zu erfahren, wie diese Denkweise funktioniert, wird uns die Macht geben, Vertreter einer positiven Veränderung zu sein – und zwar so, dass wir die Kontrolle über künstliche Intelligenz behalten, und nicht anders herum.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „Roboter“ by jens kuu (CC BY 2.0)


The Conversation

Weiterlesen »