All posts under Information

Verfolgt WikiLeaks eine politische Agenda?

Moscow Rooftops (adapted) (Image by Evgeny) [CC0 Public Domain] via Pixabay

WikiLeaks wird in einem Bericht der Website “Foreign Policy” beschuldigt, Dokumente, die die russische Regierung inkriminieren, abgelehnt zu haben. Es wird spekuliert, dass das politische Gründe haben könnte. In den letzten Jahren häufen sich Indizien dafür, dass WikiLeaks auf Betreiben von Chefredakteur Julian Assange seine politische Neutralität zumindest ein Stück weit aufgegeben hat und nun eine politische Agenda verfolgt. Sollte es so sein, wäre dies höchst problematisch und würde den Idealen, auf die WikiLeaks sich beruft, widersprechen.

Ignorierte WikiLeaks Dokumente aus Russland?

Foreign Policy berichtet, WikiLeaks habe 2016 Dokumente angeboten bekommen, die inkriminierende Interna über die russische Regierung enthüllen. Diese habe die Website jedoch abgelehnt. Foreign Policy beruft sich bei seinem Bericht auf einen der Whistleblower, der der Website gegenüber sagte:

    „Wir sorgten dafür, dass mehrere Leaks, darunter der russische Hack, an WikiLeaks geschickt wurden. Das hätte russische Aktivitäten aufgedeckt und gezeigt, dass WikiLeaks nicht von russischen Sicherheitsbehörden kontrolliert wird.Viele WikiLeaks-Mitarbeiterinnen und -Mitarbeiter und Freiwillige oder ihre Familien haben unter russischer Korruption und Grausamkeit gelitten, wir waren sicher, dass WikiLeaks es veröffentlichen würde. Assange nannte uns Ausrede um Ausrede.“

Zum Beweis legte der Informant Foreign Policy Teile eines Chatlogs vor, die seine Kommunikation mit WikiLeaks dokumentieren sollen. Schließlich wurden die Dokumente auf einer anderen Plattform veröffentlicht. Diese konnte allerdings nicht das gleiche Ausmaß an redaktioneller Aufarbeitung leisten. Auch erhielten die Dokumente dort weniger Aufmerksamkeit, als es wohl bei WikiLeaks der Fall gewesen wäre.

Julian Assange hat bislang weder gegenüber Foreign Policy noch über den offiziellen WikiLeaks-Twitteraccount Stellung zu den Vorwürfen genommen.

Wenig Leaks aus Russland

Zur Begründung für die Ablehnung der Dokumente führte WikiLeaks-Chefredakteur Julian Assange damals unter anderem an, sich auf den US-Wahlkampf konzentrieren zu wollen, da dieser ohnehin die öffentliche Aufmerksamkeit für sich beanspruche.

Auch sonst gibt es einige mögliche legitime Gründe für die Entscheidung von WikiLeaks. So erklärte Assanges ehemaliger Stellvertreter Daniel Domscheit-Berg (der WikiLeaks nach einem spektakulären Streit verließ und ein Enthüllungsbuch schrieb) bereits im März gegenüber dem französischen TV-Sender France 24: „Es sollte mehr Leaks aus Russland geben.“ Der Grund dafür, dass das nicht der Fall ist, liegt jedoch Domscheit-Bergs Meinung nach eher in der Tatsache begründet, dass die Leserschaft von WikiLeaks primär englischsprachig ist. Deswegen gebe es womöglich schlichtweg nicht genug Interesse an Leaks aus Russland, mutmaßt der Aktivist.

Julian Assange und seine politische Agenda

In den letzten Jahren häuften sich Anzeichen dafür, dass Julian Assange – der zunehmend im Alleingang die Vorgehensweise und das öffentliche Auftreten von WikiLeaks vorzugeben scheint – durchaus eine politische Agenda verfolgt. Schon die Tatsache, dass er politisches Asyl ausgerechnet in Ecuador in Anspruch nimmt – einem Land, das im Pressefreiheits-Ranking von Reporter ohne Grenzen aktuell auf Platz 105 (von 180) steht – macht stutzig, lässt sich allerdings noch mit äußeren Notwendigkeiten erklären.

Ohne Zweifel freiwillig allerdings moderierte Julian Assange im Jahr 2012 eine eigene Show beim Kreml-nahen TV-Sender RT (ehemals „Russia Today“) und führte für diesen Interviews durch. Auch war er nach eigener Aussage maßgeblich daran beteiligt, NSA-Whistleblower Edward Snowden nach Russland zu schaffen, wo dieser bis heute im Exil lebt. Zudem gibt es bereits seit Jahren Gerüchte darüber, dass Assange Leaks über russisches Fehlverhalten nicht oder nur sehr schleppend bearbeitet. Zudem warf er der Presse vor, in der Berichterstattung über die sogenannten „Panama Papers“ westliche Politikerinnen und Politiker zu leicht davonkommen zu lassen und sich stattdessen unter anderem auf Russland einzuschießen, obwohl in den Publikationen durchaus reichlich Berichte über fragwürdige Finanztransaktionen westlicher Polit-Größen auftauchten.

Auch im US-Wahlkampf, auf den sich die Website zeitweise konzentrierte, wirkten die Aktivitäten von WikiLeaks deutlich unausgeglichen. Fast im Wochenrythmus wurden kompromittierende Informationen über die demokratische Kandidatin Hillary Clinton und ihre Verbündeten veröffentlicht. Auch Assange selbst äußerte sich häufig sehr negativ über Clinton. Hingegen gab es keinen einzigen Leak über Clintons republikanischen Widersacher Donald Trump (dessen fragwürdiges Geschäftsgebahren spätestens seit der Trump University weithin bekannt ist, so dass es schwer fällt, zu glauben, er habe eine blütenweiße Weste und keinerlei an Leaks interessierte Feinde).

Im August 2016, kurz vor der Wahl, sagte Assange, er habe Material über Trump, dieses sei jedoch keiner Veröffentlichung würdig. Gegenüber „Foreign Policy“ erklärte er später, WikiLeaks habe „keine Original-Dokumente über die Kampagne erhalten, die nicht bereits öffentlich waren.“

Es gibt Spekulationen, dass die zahlreichen Leaks zu Lasten Hillary Clintons von russischen, der Regierung nahe stehenden Hackern stammen. Sie sollten, so die Theorie, dem Russland-freundlicheren Donald Trump einen Vorteil verschaffen. Schlüssig bewiesen wurden diese Mutmaßungen bislang jedoch nicht.

Rückbesinnung auf Gründungswerte erforderlich

Steckt Assange mit dem russischen Regime unter einer Decke? Möglich, aber unwahrscheinlich. Naheliegender ist, dass der WikiLeaks-Chefredakteur sich – wie auch Daniel Domscheit-Berg vermutet – von seinen eigenen politischen Meinungen und Vorurteilen zu kurzsichtigen und der Demokratie nicht zuträglichen Entscheidungen im Namen von WikiLeaks hinreißen lässt.

Es steht außer Frage, dass auch Journalistinnen und Journalisten politische Meinungen haben und diese öffentlich, auch im Rahmen ihrer Arbeit, äußern dürfen. Fakten selektiv auszuwählen, damit sie zur eigenen Agenda passen, ist jedoch etwas ganz anderes. Wer so vorgeht, betreibt keinen guten, die Demokratie fördernden Journalismus. Guter Journalismus präsentiert die Fakten und gibt den Leserinnen und Lesern, Zuschauerinnen und Zuschauern oder Hörerinnen und Hörern die Möglichkeit, sich eine eigene Meinung zu bilden. Das gilt umso mehr, wenn sich eine Publikation politische Neutralität und das kompromisslose Veröffentlichen von Informationen auf die Fahnen geschrieben hat, wie WikiLeaks.

Durch konsequentes Befolgen der eigenen Grundsätze wären die nun erhobenen Vorwürfe leicht zu vermeiden. So hätte WikiLeaks die angeblich nicht relevanten Informationen über Trump durchaus veröffentlichen und der Leserschaft die Entscheidung, ob diese Informationen einen wertvollen Beitrag zur Diskussion darstellen, überlassen können. Dergleichen wurde in der Vergangenheit oft getan. Von dieser Linie ausgerechnet an einer derart ideologisch aufgeladenen Stelle abzuweichen, ist zumindest taktisch unklug.

Es steht außer Frage, dass eine angebliche Komplizenschaft mit den ‚Bösen Russen‘ seit jeher ein gerne gegen politisch missliebige Personen, insbesondere Aktivistinnen und Aktivisten, erhobener Vorwurf ist. Alle kritischen Nachfragen in diese Richtung jedoch als „neo-McCarthyistische Propaganda“ abzutun, wie es Assange tut, ist angesichts seiner Äußerungen der letzten Jahre ein wenig zu billig. Bekanntermaßen neigt der Australier dazu, in jeder Kritik an seinen Handlungen eine Verschwörung der Mächtigen zu sehen. Dies mag in Einzelfällen zutreffen, jedoch sollte Assange durchaus dazu übergehen, sich zu fragen, ob die Kritik nicht in Einzelfällen doch zumindest teilweise berechtigt ist.

WikiLeaks kann einen wichtigen und wertvollen Beitrag zur Demokratie leisten, auch und gerade in diesen turbulenten Zeiten. Dazu muss es sich jedoch auf seine Gründungswerte besinnen Zu diesen zählt auch politische Unabhängigkeit. Steht diese in Zweifel, muss auch WikiLeaks als Quelle und einflussreiche journalistische Publikation hinterfragt werden. Das jedoch wäre sehr schade. So bleibt zu hoffen, dass bei WikiLeaks doch noch ein Umdenken, hin zu mehr Transparenz und politischer Unabhängigkeit, stattfindet.


Image (adapted) „Moscow Rooftops“ by Evgeny (CC0 Public Domain)


Weiterlesen »

CIOs als Avantgarde der Digitalisierung

Geschaeftsmann (adapted) (Image by Visual Hunt) (CC0 Public Domain) via Pexels

Während knapp zwei Drittel (63 Prozent) der Unternehmen ihre Technologiestrategie aufgrund der globalen Unsicherheit angepasst haben, halten 86 Prozent ihre Investitionen in Innovation aufrecht oder steigern sie, auch solche in digitale Arbeitskräfte. Fast ein Drittel (30 Prozent) investieren in flinkere Technologieplattformen, um ihre Organisation in Innovation und Erneuerung zu unterstützen. Das sind die Ergebnisse der diesjährigen internationalen Studie zu CIOs von Harvey Nash und KPMG.

Der Anteil der befragten Organisationen, die unternehmensweite digitale Strategien verfolgen, stieg in nur zwei Jahren um 36 Prozent, und die Anzahl der Organisationen, die einen Chief Digital Officer als Verantwortlichen für ihre IT-Infrastruktur haben, hat sich im vergangenen Jahr um 32 Prozent erhöht. „IT-Führungskräfte werden immer wichtiger, da CEOs und andere Führungsorgane sich an sie wenden, um bei der Navigation durch die Komplexität, die Bedrohungen und die Chancen in der digitalen Welt Unterstützung zu erfahren“, so Mark Hayes, Country Manager bei Harvey Nash.

Packt man Aufgaben hinzu, die sich aus der Erfahrungswelt der sozialen Netze speisen, aus Open Source-Projekten, Co-Kreation, freie Entwickler, Cloud-Belegschaften, dezentrale Szenarien, Data Science, Big Data-Analysen, maschinelles Lernen, Data Mining oder Computer Vision, merkt man sehr schnell, dass CIOs interdisziplinäre Fähigkeiten mitbringen müssen.

Brauchen Unternehmen neue CIOs?

„Unternehmen brauchen neue CIOs“, proklamiert daher Johannes Wiele in einem Fachbeitrag für den Sammelband „Führungsmanagement“, erschienen im Symposion-Verlag: „Externe Berater für Unternehmensanwendungen, Kommunikation und Sicherheit wissen in der Mehrzahl von CIOs zu berichten, die auf Trends lediglich reagieren und ihnen inzwischen geradezu nachlaufen. Ihre Anforderungen erhalten sie von den Fachabteilungen und dem Top-Management, die ihrerseits teils auf wirtschaftlichen, teils auf kulturellen Wandel reagieren oder die Veränderungen kreativ begleiten wollen, ohne dabei alle Implikationen für die Informationstechnik im Haus zu verstehen.“

Der rasante, meist vom Marketing getriebene Einstieg in die sozialen Netzwerke sei ein Paradebeispiel dafür, wie entkoppelt die CIOs und ihre IT-Abteilungen inzwischen von der realen Nutzung der IT-gestützten Kommunikationsmittel sind. Wiele fordert daher eine andere Einstellungspraxis: „Rein technisch ausgebildete IT-Fachleute können den Anforderungen nur genügen, wenn sie sich soziokulturell, medienwissenschaftlich und psychologisch weitergebildet haben. Quereinsteiger aus anderen Disziplinen als der Informatik verdienen Vertrauen, wenn sie sich ihrerseits technisches Wissen erarbeitet haben und mit Technikern zusammenarbeiten können.“

Warum steigen CIOs nicht in den Vorstand auf?

Es sei nicht verwunderlich, warum klassische CIOs in Unternehmen nur selten Vorstandsrang bekommen, meint der IT-Experte Lutz Martiny: „Der CIO versteht nur in Ausnahmefällen das Geschäft des Unternehmens und der CFO und die Vertreter der Eigentümer, die den CEO bestellen, verstehen in der Regel nicht genug von IT, Vernetzung, Social Media und ihren Möglichkeiten für das Geschäft.“

Aufgrund der Schnelllebigkeit des Marktes müsse der CIO in der Lage sein, sich abzeichnende Trends genauso wie Technologien, die keine Zukunft mehr haben, einstufen und beurteilen zu können. „Daneben sind stete Beobachtung des relevanten Marktes und die Fähigkeit zur Einschätzung langfristiger Entwicklungslinien für Investitionsentscheidungen, mit denen hohe Beträge auf lange Zeit festgelegt werden, unerlässlich. Der CIO muss die Möglichkeiten, die die Technologien eröffnen, nicht nur ahnen und beurteilen, er muss sie auch aktiv im Unternehmen umsetzen“, erläutert Martiny. Er benötige bereichsübergreifende Kompetenzen und sollte sich als Generalist positionieren. „Das bekräftigt die Forderung nach der Position eines CIO, der die technologische mit der betriebswirtschaftlich-unternehmerischen Seite verbindet.“

AI first-Strategien gefragt

Damit Unternehmen und CIOs zur Avantgarde der Digitalisierung aufsteigen, reicht es nach Ansicht von Axel Oppermann nicht mehr aus, „Cloud first, Mobile first“ zu proklamieren. „AI first“ ist gefragt. Heute müsse es um eine erweiternde Intelligenz gehen. Cloud und Mobile seien dann nur noch unterstützende Aktivitäten: „Automatisierung, Beschleunigung, Co-Existenz von Algorithmus und Mensch. Das Zusammenspiel von Mensch und Maschine, die Kompensation von Mensch durch Maschine. Substitutionseffekte durch neue Maschinen. Das sind die Themen, mit denen sich Unternehmenslenker, CIOs, Betriebsräte, aber auch IT-Pros beschäftigen müssen. Auf dieser Basis werden neue Geschäftsmodelle geboren; das ist die DNA der Zukunft“, schreibt Oppermann in einem CIO-Kurator-Beitrag. Der CIO stehe in der Pflicht, ein Umfeld für sich und das Unternehmen zu schaffen, das diese Anforderungen erfüllt. Das Notiz-Amt sieht hier einen gewaltigen Qualifizierungsbedarf.


Image (adapted) „Geschäftsmann“ by Virtual Hunt (CC0 Public Domain)


Weiterlesen »

Autokraten können mit Tools wie Slack & Co. nicht viel anfangen

Break (adapted) Image by rawpixel (CC0 Public Domain) via Pixabay

McKinsey hat eine neue Studie zum Thema ‚Advanced social technologies and the future of collaboration‘ veröffentlicht. Fazit: Unternehmen, die Messaging-Plattformen einsetzen, haben den Eindruck, dass sie öfter kommunizieren und ihre Teams sich besser selbst organisieren. Arbeit werde mehr projekt- statt team- oder funktionsbasiert. „Um aber die Kirche im Dorf zu lassen: Rund Dreiviertel der Befragten bauen am Arbeitsplatz noch auf ältere Technologien wie E-Mail, Telefonate oder Textnachrichten“, schreibt Stefan Pfeiffer vom CIO-Kuratorium.

Einseitige Technologie-Sicht

Aber – so die Umfrage – soziale Technologien sind trotzdem mehr denn je in den Arbeitsalltag integriert. Und dafür seien gerade besagte Messaging-Plattformen verantwortlich. In diesen Unternehmen verlasse man sich nicht mehr so stark auf E-Mail und Telefon. „Na ja, der Unterschied beträgt wenige Prozentpunkte, aber jeder kleine Fortschritt in der Verwendung sozialer Technologien hilft, wenn dadurch unter dem Strich für Unternehmen und Mitarbeiter etwas rauskommt“, kommentiert Pfeiffer. Ihm fehlt die kritische Betrachtung in solchen Erhebungen. Das Ganze sei einseitig auf Technologie ausgerichtet: „Messaging Platforms werden sehr naiv als Allheilsbringer positioniert. Aber überfordern wir eventuell die Anwender? Die Mehrheit – die Generation E-Mail – arbeitet noch in ihrem traditionellen Posteingang. Dort sitzt die Information, isoliert und nicht von anderen nutzbar.“

Generation E-Mail

Das passt zu den Erfahrungen des Livestreaming-Experten Sebastian Greiner: „Ich habe versucht, mich in einem Team von drei Leuten mit Slack zu organisieren. Nach einer Woche habe ich nix mehr gefunden, war ständig am Suchen. Die E-Mail ist immer noch der Kanal, wo ich meine Kommunikation wiederfinde und aufbewahrt habe. Daneben laufen diverse Messenger sowie Twitter und Facebook. Sie tragen zwar zur schnellen Kommunikation bei, zerfasern diese aber leider auch gehörig.“ Und Oliver Marquardt kommt zu der Schlussfolgerung, dass die technologischen Werkzeuge immer nur so intelligent seien wie seine Benutzer.

Ole Wintermann von der Bertelsmann-Stiftung wertet die McKinsey-Ergebnisse positiv: „Es klingt vielleicht technokratisch. Jedoch: Slack fördert Kommunikation, wohingegen die Standardware SharePoint sie eher behindert. Auch das technokratische Tool hat eine innewohnende soziale Implikation.“

Tools und die kommunikative Vertrauensbasis

Schaut man sich aber die Arbeitsweise der Führungskräfte in vielen Unternehmen an, so kann von einer kollaborativen Organisationskultur nicht gesprochen werden. „Wenn der Kern der Kommunikation nicht vorhanden ist, also Vertrauensbasis, Bindung etc., dann sind Tools so oder so ungeeignet. Vor allem Textkommunikation ist bei mangelnder Beziehungsebene schwierig, weil immens viel Interpretationsraum vorhanden ist. Slack & Co. sind Tools von vielen. Manchmal ist es weitaus einfacher zum Telefonhörer zu greifen, als immensen Text reinzukloppen. Für konkrete Arbeitsschritte, wie Korrekturen oder als internes soziales Netzwerk sind Slack & Co wiederum sehr gut“, sagt Patrick Breitenbach, Head of Brand Consulting & Strategic Innovation bei ZDF Digital.

Ellenbogen und Hierarchie

Wer offline nicht zusammenarbeitet, werde das online auch nicht tun, meint der Berater Alexander Kluge. Wenn im Top-Management Ellenbogen und Hierarchie den Alltag beherrschen, könne auch ein Tool nicht weiterhelfen. Organisationen neigen nach Auffassung von Professor Lutz Becker dazu, neue Dinge oben drauf zu setzen, ohne den Mut zu haben, das Alte abzuschaffen. „Jedes Problem braucht in einer idealen Welt sein eigenes Format. Gut wäre ein System, dass die unterschiedlichen Formate bündelt und auf das jeweilige Problem übersetzt“, so der Studiendekan der Hochschule Fresenius in Köln. „Die Herausforderungen fangen schon bei unterschiedlichen Archivierungs- und Suchstrategien an. Manchmal braucht man eine Volltextsuche, manchmal eine hierarchische, manchmal eine assoziative Suche“, sagt Becker.

Nach Ansicht des Schweizer Bildungsethikers Christoph Schmitt ergehen sich viele Firmen in einem Toolbox-Fetischismus. Das habe viel mit der Bauchladenmentalität klassischer Organisationen zu tun. Der Shitstorm-Analytiker Tim Ebner fragt sich, ob solche Systeme überhaupt eine gute Orga der Kommunikation ersetzen können. Dem Ganzen werde meist viel zu viel Bedeutung zugemessen, bevor die eigentlichen Hausaufgaben erledigt sind. Und das Notiz-Amt fragt sich, welche Freiheitsgrade in Unternehmen überhaupt zugelassen werden, um mit kollaborativen Tools zu experimentieren.

Am Ende versinken offene Konzepte in der Firmenautokratie von CEOs mit Generaldirektoren-Habitus. Selbstorganisation, Autonomie, Individualität, Partizipation, die Ökonomie des Gebens und Nehmens sind mit den Kontrollsehnsüchten vieler Chefs nicht gerade kompatibel. Welche Erfahrungen habt Ihr gemacht?


Image (adapted) „Break“ by rawpixel (CC0 Public Domain)


Weiterlesen »

Du bist der neue Gatekeeper der Nachrichten

strategy (adapted) (Image by PDPics [CC0 Public Domain] via Pixabay)

Als Nachrichtenkonsument sieht man sich heutzutage mit einer Flut sogenannter Fake News und falscher Informationen konfrontiert. Zwischen Fakten und Fiktion zu unterscheiden, wird dabei zunehmend schwieriger.

Früher durchsiebten Nachrichtenagenturen die Nachrichten und versuchten, deren Stichhaltigkeit und Wahrheitsgehalt zu ermitteln. Vertrauen in die von ihnen berichteten Inhalte wurde ein wichtiger Teil der Reputation eines Journalisten. Aber das war einmal.

Du bist Teil des Problems

Die Rolle des Gatekeepers, die die traditionellen Zeitungs- und Fernsehnachrichten einst innehatten, fällt heute uns allen zu. Heutzutage nimmt jeder die Position eines Herausgebers ein. Neue Technologien haben den Prozess des Nachrichtenverbreitens oder -ausdenkens demokratisiert. Es entscheiden nicht länger die Journalisten, was publik gemacht wird. Informationen fließen ungehindert und unkontrolliert durch das Internet. Dabei füllen sie eine Vielzahl von Webseiten, Blogs und Tweets.

Das alles gelangt über soziale Netzwerke auf unsere Laptops, Tablets und Smartphones. Jeder, der auf Facebook eine Nachrichtenmeldung postet, teilt oder auf Twitter einen Link retweetet,  nimmt eine Rolle ein, die früher nur mächtige Medienmitarbeiter innehatten. Das heutige Problem liegt darin, dass die meisten „Herausgeber“ in sozialen Netzwerken ihre Verantwortung für das, was sie posten, nicht bedenken.

Fake News sind allerdings nichts Neues. Thomas Jefferson klagte schon 1807: „Nichts, das in einer Zeitung steht, kann heute noch geglaubt werden.“ Jeffersons Kommentar zeigt nur eine von vielen Sichtweisen bezüglich Nachrichten, nicht nur in den USA, sondern auch in Europa. Fake News gab es bereits im Jahr 1475 in Italien, als ein Priester falsche Behauptungen über das Verschwinden eines Kindes verbreitete. Sogar in der politische Schlacht zwischen Marcus Antonius und Octavian um die Nachfolge des ermordeten Julius Cäsar wurden Fake News genutzt: Octavian nutzte Fake News, um Cäsars Nachfolge anzutreten.

Es ist nicht so, dass die früheren Gatekeeper unfehlbar oder konsequent unpolitisch waren. Aber in der heutigen digitalisierten Welt befinden wir uns in Hinblick auf Informationen in einer Verkettung unglücklicher Umstände. Die Gleichung, die ich dafür anstellen würde, wäre: Geschwindigkeit + Menge = Unbeständigkeit. All die Nachrichten im Internet verbreiten sich so schnell und überrennen uns mit so viel, dass das Ergebnis unberechenbar gefährlich wird.

Einige Leute, die soziale Netzwerke nutzen, überprüfen, was sie veröffentlichen. Andere retweeten oder leiten Informationen einfach weiter, ohne sie genau zu lesen oder sie gar mit angemessener Sorgfalt auf Richtigkeit zu überprüfen. Das spielt denjenigen in die Karten, die Fake News produzieren. Während einige glauben, dass es ihr Ziel sei, den Leuten etwas vorzumachen, erklärt der Pressekritiker Tom Rosenstiel: „Das Ziel von Fake News ist nicht, dass die Leute sie glauben sollen. Es geht darum, sie alle Nachrichten anzweifeln zu lassen.“

Manche mögen glauben, dass junge Menschen mit ihrem Verständnis für soziale Medien besser in der Lage sein könnten, die Informationen, die sie konsumieren, zu bewerten. Eine Studie der Universität Stanford kam zu dem schockierenden Ergebnis, dass viele von ihnen nicht in der Lage waren, „die Glaubwürdigkeit solcher Informationen zu beurteilen“. Die Studie stellte heraus, dass mehr als 80 Prozent der Schüler der sechsten bis achten Klasse gesponsorte Inhalte als tatsächliche Nachrichten wahrnahm. Oberstufenschüler überprüften Bilder nicht. Die meisten Hochschulstudenten erwarteten keine Voreingenommenheit in Tweets von Aktivistengruppen.

Verbessere deine Fähigkeiten

Was sollen Nachrichtenkonsumenten also machen? Wie können sie als ihre eigenen Gatekeeper handeln und Wachsamkeit und Prüfung walten lassen wie die besten Herausgeber und Journalisten der alten Schule?

So kann es klappen:

  1. Überprüfe die Quelle. Das scheint vielleicht sehr grundlegend, aber es ist leicht, nur die Überschrift zu lesen, ohne darauf zu achten, wer der Verfasser ist. Autoren und Webseiten nutzen ihre eigenen Sichtweisen. Manche wollen einen ausgeglichenen Einblick geben, manche vertreten eine bestimmte Meinung, wieder andere wollen dich täuschen.

Informiere dich über Autor und Inhalt. Kennst du die Quelle, den Twitter-Account oder den Blog? Hast du dort schon einmal etwas gelesen? Lies andere Werke von ihnen. Schau, ob Autoren, denen du vertraust, auch darauf verweisen.

  1. Überprüfe die Informationen. Bestätigen andere Quellen, was du liest, siehst oder hörst? Hast du Überprüfungsseiten wie Snopes, Politifact oder FactCheck.org benutzt?

Snopes berichtete beispielsweise, dass  ein paar der vertwitterten Bilder der Amtseinführung von Donald Trump im Januar 2017 bereits Wochen oder Jahre früher aufgenommen wurden. Eines war ein Bild vom Treffen des Kansas Royal-Baseball-Teams. Politifact wies darauf hin, dass die Behauptung von Trumps Pressesprecher, die Amtseinführung hätte das größte Publikum gehabt – und hier durfte es keine Widerrede geben – von anderen Messungen wiederlegt wurde. FactCheck.org stellte fest, dass der frühere Präsident Barack Obama „fälschlicherweise behauptet hat, dass ein Vertrag, den er 2011 mit Russland unterzeichnet hat‚ ‚unsere nuklearen Bestände wesentlich reduziert hat, sowohl die von Russland als auch die der USA.'“

Dick Grefe, Bibliothekar an der Washington und der Lee University, wies mich darauf hin, dass zwei Professoren an der University of Washington beabsichtigen, einen Kurs mit dem Titel „So sieht Blödsinn aus: Im Zeitalter von Big Data“ anzubieten. Der Kurs hätte „den Schwerpunkt, den Bullshit, der verkleidet als wissenschaftlicher Diskurs daherkommt“. Fakes beschränken sich nicht auf Nachrichten.

  1. Hüte dich vor deiner eigenen Voreingenommenheit. Denke daran, dass wir dazu neigen, Nachrichten mit unseren eigenen vorhandenen Vorurteilen zu lesen, zu hören und anzusehen. Wir bewerten Informationen danach, ob sie das unterstützen, was wir bereits glauben. Es kann leicht sein, das abzuwerten, was unser Weltbild durcheinanderbringt oder in Frage stellt. Berichte über den Confirmation Bias sind reichlich vorhanden. Wie Studien und Autoren festgestellt haben, glauben wir hauptsächlich das, was wir glauben wollen.

Die Sorge darüber, wie irreführend und verwirrend Nachrichten sein können, hat einige Journalisten dazu veranlasst, ihre eigenen Richtlinien zum Umgang mit Fake News anzubieten. Journalistin und Medienexpertin Alice Shepard hat mehrere Vorschläge, um zu vermeiden, auf Fakes hereinzufallen. Alan Miller, Pulitzer-Preis-Gewinner und Gründer des News Literacy Projekts, geht den Confirmation Bias frontal an. Steve Inskeep vom öffentlichen Hörfunk in den USA bietet eine Anleitung für Fakten an.

Bekämpfe deine eigenen Confirmation Bias damit, dass du deine Quellen ausweitest. Sei offen gegenüber verschiedenen Standpunkten. Lies viel und viel unterschiedliches. Lies auch Gegendarstellungen. Sieh dich nach Medieninnovationen um. Eine kürzlich veröffentlichte Studie auf MarketWatch platziert zum Beispiel verschiedene Nachrichtenquellen auf einer „Wahrheits“-Skala. Ein anderer, älterer Beitrag auf businessinsider.com könnte dir helfen, die gedankliche Richtung, die deiner Lieblings-Nachrichtenquelle zu Grunde liegt, zu identifizieren.

Es gibt keinen Grund, den Zugang zu den Nachrichten zu verschließen, aber man sollte sicherstellen, dass man weiß, was dort hineingelangt. Das ist wirklich wichtig.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „strategy“ by PDPics (CC0 Public Domain)


The Conversation

Weiterlesen »

FollowUs – Die Netzpiloten-Tipps aus Blogs & Mags

Follow me
  • WIKIPEDIA heise: IP-Sperre: Wikipedia blockiert zehntausende „anonyme“ Österreicher: „Deine IP-Adresse befindet sich in einem Bereich, der auf allen Wikis gesperrt ist.“ Diese Mitteilung haben in den letzten Tagen mehrere österreichische User erhalten, wenn sie an der Wikipedia oder verwandten Wikis mitarbeiten wollten, ohne sich einzuloggen (unscharf als „anonyme Edits“ bezeichnet). Manchmal war ihnen aber auch das Einloggen unter Verweis auf ihre IP-Adresse nicht möglich. Dabei haben sie sich nichts zuschulden kommen lassen. Ein langjähriger Berliner Wikimedia-Aktivist und Wikipedia-Administrator hat am 12. März eine dreimonatige Sperre für die gesamte IP-Range 178.190.0.0/16 verhängt. Begründung: „longterm abuse“ (langwährender Missbrauch). Der Admin zählt zu den Hundert fleißigsten Bearbeitern der deutschen Wikipedia und den überhaupt am häufigsten sperrenden Admins.

  • CEBIT t3n: Wie die Deutsche Bahn vom Berliner Startup Holoplot profitieren kann:Der Mensch nimmt hauptsächlich den Klang wahr, der vom Raum zurückkommt. Obwohl die Ausgangsqualität gut ist, ist das Ergebnis oft von bescheidener Qualität. Holoplot, ein junges Startup aus Berlin, erklärt die „akustische Veränderbarkeit von Räumen“. Laut Roman Sick, COO des Startups, sind Bahnhöfe ein akustischer Albtraum. Befragungen von Passanten und auch technische Messungen haben ergeben, dass sich die Sprachverständlichkeit wesentlich verbessert hat, nachdem in zwei Bahnhöfen ein System von Holoplot installiert wurde. Ziel ist es, Ansagen nur in Bereichen abzuspielen, für die diese auch relevant sind. Außerdem sollen die Ansagen von angrenzenden Bahnsteigen die Verständlichkeit nicht mehr beeinträchtigen.

  • AMAZON golem: Amazon plant Fire TV mit 4K- und HDR-Unterstützung: Amazon arbeitet derzeit an einem neuen Fire-TV-Gerät, das nicht direkt als Nachfolger der Fire TV Sticks oder der Fire-TV-Boxen gedacht ist, sondern diese noch ergänzen soll, berichtet AFTVNews. Der Blog zitiert aus einem aktuellen Benchmark und bezieht sich auf vertrauliche Informationen aus dem Amazon-Umfeld. Das neue Fire-TV-Modell ist gemäß den Benchmarks von der Leistung her zwischen den Fire-TV-Boxen und den Fire TV Sticks angesiedelt. Demnach ist auch das neue Modell weniger für Spielenutzung geeignet, es sollte aber zügiger als die bisherigen Fire TV Sticks sein. Vor allem bei der Navigation in der Fire-TV-Oberfläche könnte es weniger Wartesekunden und Hänger geben.

  • SOCIAL MEDIA Zeit: Richter fordern Auskunft über anonyme Hetzer: Der Deutsche Richterbund beklagt Schwierigkeiten, Auskünfte von den Netzwerken über die Identität anonymer Hetzer zu bekommen. „Es braucht verbindliche Auskunftsstellen von Facebook und Co. im Inland, die schnell und verlässlich auf Anfragen der Strafverfolger reagieren“, sagte der Geschäftsführer Sven Rebehn dem Redaktionsnetzwerk Deutschland. Bundesjustizminister Heiko Maas (SPD) hatte Unternehmen wie Facebook und Twitter harte Strafen angekündigt für den Fall, dass sie offensichtlich strafbare Postings nicht binnen bestimmter Fristen löschen. Der Richterbund kritisiert, Maas‘ Gesetzentwurf sehe zwar Auskunftsstellen vor – sie blieben aber freiwillig, da keine Sanktion drohe, wenn sie nicht eingerichtet würden.

  • DATENSCHUTZ NETZPOLITIK:ORG: EU-Datenschutzbeauftragter: Persönliche Informationen sind keine Ware: Datengetriebene Ökonomie hin oder her: Persönliche Informationen sind grundrechtlich geschützt und keine bloße Ware. Diese klare Botschaft hat der Europäische Datenschutzbeauftragte Giovanni Buttarelli für die EU-Kommission. In einem vom Europäischen Rat erbetenen Positionspapier [PDF] nahm Buttarelli vergangene Woche Stellung zum Vorschlag der EU-Kommission für eine Richtlinie über bestimmte vertragsrechtliche Aspekte der Bereitstellung digitaler Inhalte [PDF]. Auch wenn er das Ziel der Initiative unterstütze, befürchte er negative Konsequenzen für das Grundrecht auf Datenschutz und die Wirksamkeit der mühsam verhandelten Datenschutzgrundverordnung.

Weiterlesen »

Das Darknet: Festung der Meinungsfreiheit?

network (adapted) (Image by Unsplash [CC0 Public Domain] via Pixabay)

Das Internet ist viel mehr als die öffentlich zugänglichen, ergooglebaren Webservices, die die meisten Nutzer aufsuchen – und das ist gut für die Meinungsfreiheit. Firmen erstellen häufig private Netzwerke, die es ihren Angestellten beispielsweise ermöglichen, sichere Firmenserver zu benutzen. Und freie Software ermöglicht es jedem Einzelnen, ein „Peer-to-Peer“-Netzwerk zu schaffen, das ein Gerät direkt mit einem anderen verbindet.

Da sie von gegenwärtigen Suchmaschinen nicht indizert werden können und daher für die breite Öffentlichkeit weniger sichtbar sind, werden solche Subnetzwerke oft „Darknets“ genannt oder als Sammelbegriff im Singular „Darknet“. Typischerweise benutzen diese Netzwerke eine Software wie Tor, die die Geräte anonymisieren, die zu ihnen Verbindung aufnehmen und die Daten verschlüsseln, die durch die Verbindungen gehen.

Manches von dem, was man im Darknet findet, ist alarmierend. Eine Story von Fox News aus dem Jahr 2015 liest sich wie folgt:

„Eine genaue Prüfung des Darknet stellt sich als erschütternder Ausflug durch eine Verderbtheit dar, die einem den Mund offen stehen lässt: Bildergalerien voller Kinderpornographie, Videos von Menschen, die Sex mit Tieren haben, Verkaufsangebote für illegale Drogen, Waffen, gestohlene Kreditkartennummern und gefälschte Identitäten. Sogar menschliche Organe, die angeblich von chinesischen Hinrichtungsopfern stammen, stehen im Darknet zum Verkauf.“

Aber das ist nicht die ganze Geschichte – und auch nicht der einzige Inhalt und Zusammenhang des Darknet. Eine Beschreibung des Darknet als in erster – oder sogar in einziger – Linie einem Ort für Kriminelle lässt die gesellschaftlichen Kräfte außer Acht, die die Leute in diese anonymen Netzwerke treibt. Unsere Recherche bezüglich Inhalt und Aktivität eines größeren Darknets namens Freenet zeigt, dass das Darknet nicht als vom Verbrechen regierter „Wilder Westen“ gesehen werden sollte, sondern eher als „unberührtes Gebiet“, das durch sein Design so angelegt ist, dass es unbehelligt von kulturellen Institutionen wie Strafverfolgungsbehörden, Regierungen und Firmen bleibt, die inzwischen das Internet beherrschen.

Definitiv gibt es im Darknet illegale Aktivitäten, genau so wie im offenen Internet. Dennoch haben die meisten Darknet-Nutzer ein breites Spektrum an Motivationen und Aktivitäten, die durch den gemeinsamen Wunsch nach dem vereint werden, was sie als die größten Vorteile der Technologie sehen: Vertraulichkeit und freie Meinungsäußerung.

Eine Beschreibung von Freenet

Wir haben uns bei unserer Recherche Freenet angeschaut, ein anonymes Peer-to-Peer-Netzwerk, auf das mit Hilfe einer kostenlosen Anwendung zum Herunterladen zugegriffen wird. In dieser Art Netzwerk gibt es keine zentralisierten Server, die Informationen speichern oder Daten weiterleiten. Stattdessen übernimmt jeder Rechner, der dem Netzwerk beitritt, einige der Aufgaben zum Teilen von Informationen.

Wenn ein Nutzer Freenet installiert, stellt der Rechner eine Verbindung zu einer kleinen Gruppe existierender Freenet-Nutzer her. Jeder dieser Rechner verbindet sich wiederum mit den Computern anderer Freenet-Nutzer. Durch diese Verbindungen steht der gesamte Inhalt des Netzwerks jedem beliebigen Nutzer zur Verfügung. Dieses Design erlaubt es Freenet, dezentralisiert, anonym und widerstandsfähig gegen Überwachung und Zensur zu sein.

Die Software von Freenet verlangt von den Nutzern, einen Teil ihres Festplattenplatzes für die Lagerung von Freenet-Material zu „spenden“. Diese Information wird automatisch verschlüsselt, sodass der Besitzer des Computers weder weiß, welche Dateien auf seinem Rechner liegen, noch den Inhalt dieser Dateien kennt. Dateien, die im Netzwerk geteilt werden, sind auf einer Vielzahl von Computern gespeichert, was sicherstellt, dass sie auch erreichbar sind, wenn einige Leute ihre Rechner ausschalten.

Dem Netzwerk beitreten

Während unserer Recherche übernahmen wir die Rolle eines neuen Freenet-Nutzers. Das Netzwerk bietet eine Menge verschiedener Interaktionsarten, inklusive sozialer Netzwerke und sogar die Möglichkeit, direkte Beziehungen zu anderen Nutzern herzustellen. Aber unser Hauptziel war es, zu verstehen, was das Netzwerk einem neuen Nutzer bieten kann, der gerade erst anfängt, das System zu erkunden.

Es gibt einige Freenet-Seiten, die Webcrawler benutzt haben, um das Netzwerk zu indizieren, und so eine Art Inhaltsverzeichnis dessen bieten, was zur Verfügung steht. Wir besuchten eine dieser Seiten, um ihre Liste herunterzuladen. Von den insgesamt 4286 Seiten im Index wählten wir eine Zufallsprobe von 427 Seiten aus, um sie zu besuchen und genauer zu untersuchen. Die Seiten mit diesen Indices sind ein Teil des Freenet-Netzwerkes und können daher nur von Nutzern besucht werden, die die Software heruntergeladen haben. Standardsuchmaschinen können nicht benutzt werden, um Seiten im Freenet zu finden.

Die Entdeckung einer „Hacker-Ethik“

Was wir gefunden haben, lässt darauf schließen, dass Freenet von etwas dominiert wird, das Wissenschaftler „Hacker-Ethik“ nennen. Dieser Begriff fasst eine Gruppe von fortschrittlichen und freidenkenden Überzeugungen zusammen, die oft von Hackern unterstützt werden. Diese Gruppe wird vorrangig mit diesen Idealen in Verbindung gebracht:

  • Der Zugang zu Informationen sollte frei sein;
  • Technologie kann und soll das Leben der Menschen verbessern;
  • Bürokratie und Autorität kann nicht vertraut werden;
  • Widerstand gegen konventionelle und „Mainstream“-Lebensweisen

Einiges mag damit zusammenhängen, dass die Nutzung von Darknet-Technologie oft zusätzliches technisches Verständnis erfordert. Außerdem könnten Menschen mit technischen Fähigkeiten dazu neigen, Services zu finden, zu nutzen und sogar zu schaffen, die technische Schutzmaßnahmen gegen Überwachung bieten.

Unsere Lektüre der Hacker-Literatur legt nahe, dass die philosophischen und ideologischen Überzeugungen, die Darknet-Nutzer antreiben, weitestgehend unbekannt sind. Ohne diesen Kontext jedoch wäre es schwer, dem einen Sinn zu geben, was wir in Freenet beobachtet haben. Es gab Freenet-Seiten zum Teilen von Musik, E-Books und Filmen. Viele Seiten legten ihren Schwerpunkt auf Selbstdarstellung, wie normale Internetblogs. Andere waren der Verbreitung einer bestimmten Ideologie verschrieben. Beispielsweise waren sozialistische und freidenkende Inhalte häufig vorhanden. Wieder andere Seiten teilten die Informationen von Whistleblowern oder Regierungsdokumente, inklusive einer Kopie der Daten der Webseite von Wikileaks, komplett mit seinem „Tagebuch des Afghanistankriegs“ voller Geheimdokumente über die militärische Invasion der Vereinigten Staaten in Afghanistan, die auf die Terroranschläge vom 11. September 2001 folgte.

Mit der Hacker-Ethik als Vorlage können wir verstehen, dass der Großteil dieses Inhalts von Menschen stammt, die tiefes Misstrauen gegenüber Autoritäten haben, Materialismus und Angepasstheit ablehnen und sich davon abgestoßen fühlen und ihr digitales Leben frei von Überwachung leben wollen.

Was ist mit Verbrechen?

Es gibt kriminelle Aktivitäten im Freenet. Etwa ein Viertel der Seiten, die wir besuchten, stellte entweder Kinderpornographie zur Verfügung oder verlinkte darauf. Das ist alarmierend, muss aber in einem angemessenen Kontext gesehen werden. Rechtliche und ethische Grenzen für Forscher machen es sehr schwer, das Ausmaß von pornographischen Aktivitäten online zu bestimmen, was insbesondere für Kinderpornographie gilt.

Sobald wir auf eine Seite stießen, die behauptete, Kinderpornographie bereitzuhalten, verließen wir diese Seite unverzüglich, ohne weiter zu recherchieren. Beispielweise ermittelten wir nicht eingehender, ob lediglich ein Bild, eine gesamte Bibliothek oder gar ein riesiger Marktplatz zum Verkauf pornographischer Inhalte vorhanden war. Aus der Perspektive von Recht und Ethik gesehen war das eine gute Entscheidung. Unser Vorgehen hat uns jedoch dadurch nicht ermöglicht, vergleichbare Daten darüber zu sammeln, wie viel Pornographie tatsächlich vorhanden war.

Andere Untersuchungen legen nahe, dass die Anwesenheit von Kinderpornographie nicht nur ein Problem von Darknets oder Freenet ist, sondern ein generelles Problem, das im Internet auftritt. Eine Arbeit der Association for Sites Advocating Child Protection (ASACP) zeigt die allgemeine Verbreitung von Kinderpornographie weit über Freenet oder sogar größerer Darknets hinaus. Die Beurteilung des Darknets sollte nicht durch die Anwesenheit von illegalem Material gestoppt, sondern erst Recht auf seinen gesamten Inhalt und Kontext ausgedehnt werden.

Mit dieser neuen Information können wir uns das Darknet sorgfältiger anschauen. Es beinhaltet eine Menge verschiedener Orte, die ein breites Spektrum an Aktivitäten von beeindruckenden bis abstoßenden Inhalten bieten. In diesem Sinn ist das Darknet nicht gefährlicher als der Rest des Internets. Und die Darknet-Services bieten Anonymität, Vertraulichkeit, Meinungsfreiheit und Sicherheit, sogar im Angesicht eines wachsenden Überwachungsstaates.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „network“ by Unsplash (CC0 Public Domain)


Weiterlesen »

Datenverantwortung: Ein neues soziales Gut für das Informationszeitalter

ruins (adapted) (Image by choukyin [CC0 Public Domain] via Pixabay)

Während der Klimawandel zunimmt, wirken die zerstörerischen, rekordverdächtigen Naturkatastrophen fast wie die neue Normalität — von Hurrikan Matthew, der im vergangenen September mehr als 1.300 Opfer forderte bis zum Taifun Lionrock, der vor Kurzem in Nordkorea tobte und eine Flut verursachte, die 138 Menschen getötet und gut 100.000 Menschen obdachlos zurückgelassen hat.

Was können wir tun, um die Zerstörung durch Naturkatastrophen zu verringern? Man könnte möglicherweise die Hilfsaktionen mithilfe von Daten verbessern. Sehen wir uns einmal die Folgen des Erdbebens im nepalesischen Gorkha im April 2015 an, eine der schlimmsten Katastrophen seit mehr als 80 Jahren. Fast 9000 Menschen wurden getötet, etwa 22.000 wurden verletzt und mehrere hunderttausend sind nun obdachlos, nachdem ganze Dörfer dem Erdboden gleichgemacht wurden.

Trotz der umfassenden Zerstörung muss gesagt werden: es hätte schlimmer kommen können. Ohne die Katastrophe beschönigen zu wollen, die Nepal an diesem Tag traf, möchte ich dafür plädieren, dass Daten — und hier ist insbesondere ein neuer Typ von sozialer Verantwortung gemeint — den Nepalesen dabei geholfen haben, größeres Unheil zu vermeiden. Dies könnte für spätere Notfälle hilfreich sein.

Infolge der Katastrophe in Nepal sind viele verschiedene Akteure zusammen gekommen, um diese humanitäre Krise anzusprechen: die Regierung, die Bürger und privat engagierte Helfer. Als besonders herausragend hat sich dabei Nepals größter mobiler Netzwerkbetreiber Ncell gezeigt. Kurz nach dem Erdbeben entschied sich Ncell dazu, seine gesammelten mobilen Daten in unidentifizierbarer Form mit der gemeinnützigen schwedischen Organisation Flowminder zu teilen.

Flowminder hat diese Daten genutzt, um die Menschenströme zu kartographieren. Diese Echtzeit-Karten haben es der Regierung und humanitären Organisationen ermöglicht, Hilfe und Entlastungen besser zuzuschneiden und damit ihren Einfluss optimal auszunutzen. Diese Initiative hat sich als Modell der Datenzusammenarbeit als sehr positiv herausgestellt. Flowminder hat dafür im Jahr 2016 sogar den Mobile in Emergency or Humanitarian Situations-Award bei der GSM Association’s Global Mobile in Barcelona gewonnen

Was ist Datenverantwortung?

Mich beeindruckt am meisten die Art und Weise der Datennutzung bei der Initiative von Flowminder und Ncell – besonders, wenn man bedenkt, wie die privat gesammelten Daten für öffentliche Dienste genutzt wurden. Dies war ein Akt der Datenverantwortung. Diese Datenverantwortung und das genossenschaftliche Teilen der Daten ist ein noch junges Konzept und wird gerade entwickelt. Dennoch ist schon jetzt aufgefallen, dass es eine zentrale Rolle einnimmt, wenn es darum geht, verschiedene öffentliche Dienste zu fördern, wie zum Beispiel bei der Frage, wie wir an Naturkatastrophen und andere Notfälle herangehen.

Datenverantwortung könnte auch eine größere Rolle dabei spielen, um die für die Jahre 2015 bis 2030 gesetzten Nachhaltigkeitsziele zu fördern. Dazu sagt Jeffrey Sachs: „Die Datenrevolution kann die Nachhaltigkeitsrevolution antreiben, und den Prozess der Armut zu beenden, soziale Inklusion zu fördern und die Umwelt zu schützen.“ Nach jüngsten Schätzungen werden täglich etwa 2,5 Billionen Bytes an Daten erstellt. Neun Zehntel unserer heutigen Daten wurden in den Jahren 2013 und 2014 erstellt.

Dieser massive Anstieg der Datenverfügbarkeit hat einigen Enthusiasmus hervorgerufen, da man sie für potentielle ökonomische, kulturelle und politische Vorteile nutzen kann. Der Economist schrieb dazu, man wolle „Dreck in Gold verwandeln“, indem man große Ströme an „Daten-Müll“ abbaut, der oft unbeabsichtigt von permanent vernetzten Nutzern der sozialen Medien und mobilen Geräte hinterlassen werde.

Was jedoch seltener diskutiert wird, ist die Tatsache, dass diese Daten nicht zugänglich und damit geheim sind. Sie sind das Eigentum von Firmen, Regierungen und anderen Organisationen. Das schränkt die öffentlichen Vorteile ein. Datenverantwortlichkeit kann Organisationen dabei helfen, diese privaten Grenzen zu überwinden und diese Daten für das öffentliche Gut zu teilen. Besonders im Privatbereich  stellt dies ein Beispiel an gemeinsamer sozialer Verantwortung für das 21. Jahrhundert dar.

Heutzutage ist Datenverantwortlichkeit relativ ungewöhnlich. Das nepalesische Telekommunikationsunternehmen Ncell ist eines der wenigen, das seinen Datenfundus geöffnet hat. Aber es gibt auch einige ermutigende Anzeichen. Beispielsweise hat Twitter in Jakarta einige Daten mit australischen Forschern geteilt, mit deren Hilfe sie die Webseite PetaJakarta.org erstellten. Die Seite bietet Live-Informationen zu Überschwemmungen und ermöglicht vor allem während der Monsun-Saison eine verbesserte Einschätzung der Lage.

Im Senegal stieß die Orange Group eine Aktion für Entwicklungsdaten an und teilte ihre Daten mit verschiedenen Forschungsteams, um Muster und Lösungen zu identifizieren und damit die Gesundheit, die Landwirtschaft, die Stadtplanung und der Umgebung und landesweite Statistiken zu verbessern. Das Gewinnerteam benutzte Handydaten, um den Energieverbrauch nachzustellen und so Lösungen für veränderliche Energieanforderungen zu finden.

Die drei Säulen der Datenverantwortung

Solche Beispiele zeigen uns, dass Daten Leben verbessern oder sogar retten können. Aber um das volle Potential zu nutzen, müssen drei Bedingungen erfüllt werden. Diese kommen als die drei Säulen der Datenverantwortung zusammen:

  1. Die Pflicht zu teilen

    Dabei handelt es sich wohl um die offensichtlichste Pflicht: private Daten zu teilen, falls diese dem öffentlichen Gut dienen. Eine sekundäre Nutzung ist nicht immer beliebt unter den Nutzern (oft aus guten Gründen), aber wenn man es richtig anstellt, kann das Teilen starke, soziale Vorteile beinhalten, wie oben aufgezeigt.

  2. Die Pflicht zu schützen

    Teilen geht mit Risiken einher, besonders, was die Privatsphäre, die Sicherheit und andere individuelle Rechte angeht. Deshalb ist es unerlässlich, dass Organisationen ihre Daten auf verantwortliche Weise teilen, und dabei versuchen, die Daten selber zu schützen, aber auch die Individuen, die ihre Daten aufgeben (auch wenn dies oft unabsichtlich geschieht).

    Die Konsequenzen aus dem fehlenden Schutz der Daten wurden bereits gut dokumentiert. Die offensichtlichen Probleme treten auf, wenn Daten nicht genügend anonymisiert werden, bevor man sie teilt, oder wenn nicht anonyme Daten anderweitig an die Öffentlichkeit gelangen. Scheinbar anonymisierte Daten könnten selbst für eine Entschlüsselung anfällig sein. Informationen, die für das öffentliche Gut geteilt wurden, können auch Einzelpersonen Schaden zufügen.

    Im Jahr 2013 in New York folgten die ‚Taxi and Limousine Commission‘ einem öffentlichen Ersuchen und veröffentlichten vermeintlich anonymisierte Daten zur Abholungs- und Ankunftszeiten, Standorten, Preise und Trinkgelder, die von verschiedenen Taxifirmen und Mitfahrerorganisationen gesammelt wurden. Innerhalb weniger Tage jedoch hatten private Hacker die relevanten Taxi-Lizenzen und Nummernschilder identifiziert. Die Konsequenzen waren besorgniserregend und vielleicht sogar justiziabel: Die Daten konnten beispielsweise dazu genutzt werden, das Einkommen eines Fahrers zu berechnen und die Fahrten der Kunden sowie ihre Ausgaben zu identifizieren. Unter ihnen waren auch Prominente, was die Gefahr des Stalkings noch erhöht hat.

    Aus Gründen wie diesen muss das gut gemeointe Vorhaben, die Daten zu teilen, mit einem erhöhten Verantwortungsbewusstsein einhergehen, und zwar an jedem einzelnen Informationsknotenpunkt, von der Sammlung, über die Verarbeitung und Analyse bis hin zum Teilen und der Datennutzung.

  3. Die Pflicht zu handeln

    Damit veröffentlichte Daten dem öffentlichen Gut helfen können, müssen Beamte und andere auch Strategien und Vermittlungen annehmen, die Einblicke in die Veröffentlichung geben. Ohne eine Handlungsaufforderung bleiben die Möglichkeiten nur eben diese: Möglichkeiten, kleine Fakten.

    Die Pflicht zu Handeln ist im dem Kampf gegen die Korruption besonders offensichtlich. Weltweit haben Daten, die von den Regierungen oder anderen Organisationen und Individuen veröffentlichtu wurden, eine wichtige Rolle dabei gespielt, Betrugsfälle offenzulegen und die Transparenz zu erhöhen.

Das brasilianische Transparenzportal wurde im Jahr 2004 vom Büro des Rechnungsprüfers gegründet, um die steuerliche Transparenz zu erhöhen, indem sie Regierungsdaten geteilt haben. Diese Organisation ist nun eines der wichtigsten Werkzeuge dieses Landes, um Korruptionen zu identifizieren und dokumentieren. Monatlich registrieren sie um die 900 000 Besucher. In Mexiko bietet die Onlineplattform Mejora Tu Escuela Bürgern Informationen über Schulleistungen, damit Eltern die beste Bildung für ihre Kinder wählen können und besser in deren Ausbildung eingebunden werden.

Für Schuladministratoren, politische Entscheidungsträger und Nichtregierungsorganisationen bietet diese Plattform allerdings einen Weg, Korruptionsfälle von Lehrern, die nicht oder nicht mehr existieren und dennoch auf einer Regierungsgehaltsliste stehen, und Lehrern, die zu viel Lohn erhalten, aufzudecken.

Dennoch muss man handeln, um aus den Erkenntnissen auch Resultate zu schöpfen. Das beruht oft auf eilig herbeigeführten und schwierigen Veränderungen angesichts bestimmter Interessensverbindungen  und institutioneller Hindernisse.

Die Notwendigkeit einer kulturellen Veränderung

Die Schwierigkeit, Erkenntnisse in Ergebnisse zu übersetzen, deutet auf einige größere soziale, politische und institutionelle Veränderungen hin, die man erreichen muss, um eine wirkliche Datenverantwortung zu erreichen. Für Datenverantwortung muss man eine oft unbekannte Verpflichtung zur Transparenz und Rechenschaft eingehen. Man muss von den gewohnten Pfaden des Datenschutzes zu einer Sharingkultur gelangen und von einem traditionellen Strategiedenken zu einer von Daten getriebenen Steuerung. Daraus folgt eine kulturelle Veränderung, die die Herangehensweise bestimmt, wie Firmen, Regierungen und andere Akteure ihre Daten behandeln.

Die folgenden drei Wege sollte man bedenken, um die benötigte Entwicklung in einer kurzen Zeit zur erreichen:

Als Erstes sollten öffentliche und private Dateninhaber eine öffentliche Verpflichtung (oder Zusage) zur Datenverantwortung herausgeben, sodass eine solche in Unternehmen zur Normalität wird.

Zweitens sollten in öffentlichen und privaten Unternehmen „Datenverwalter“ eingestellt werden. Sie werden die Veränderungen erkennen und leiten und bestimmen, was man wann teilt, wie man die Inhalte schützt und wie man mit verfügbaren Daten umgeht.

Und schlussendlich muss es eine Bewegung geben: es ist an der Zeit, eine Gemeinschaft für Informationsrecht zu erweitern und mehr „Datenverantwortung“ zu fordern. Damit könnte man das Leben vieler Menschen besser machen — und somit auch unser eigenes.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image „ruins“ (adapted) by choukyin (CC0 Public Domain)


Weiterlesen »

Acht (oder mehr) Geschäftsmodelle für E-Mail Newsletter

mail-newsletter-home-mailbox (adapted) (Image by Anne-Onyme [CC0 Public Domain], via pixabay

Als ich vor einigen Jahren begann, die redaktionellen E-Mail-Newsletter der Financial Times zu überarbeiten, wurde ich schnell mit positiver Bestätigung, technischer Frustration und Quellen tiefer Zufriedenheit konfrontiert.

Die gute Nachricht war, dass wir am Höhepunkt eines wiedererstarkten Interesses für E-Mails von Medienfirmen waren, das gerade wieder angestiegen ist. Dies legte nahe, dass wir auf dem richtigen Weg waren. Von legendären Printunternehmen wie der New York Times bis hin zu digitalen Unternehmen wie BuzzFeed – fast jeder erkennt den Wert des Mediums.

Das Frustrierende war, dass E-Mails und das kommerzielle System, in das sie eingebunden waren, nur wenig an die Bedürfnisse von Journalisten und Lesern angepasst waren. Das Senden von E-Mails bedarf einer Navigation durch ein komplexes Labyrinth aus technischen Systemen und vermehrten regulatorischen Anforderungen. Es bedeutet, Systeme anzupassen, die hauptsächlich auf die Bedürfnisse von Spezialisten abgestimmt sind, die in Marketingabteilungen mit Programmierfähigkeiten für verschiedene Anwendungsfälle von Journalisten mit engen Deadlines sitzen.

Trotz dessen waren wir mit den Antworten, die wir erhielten, zufrieden: Viele gaben an, sich durchgängig für E-Mail-Newsletter einzutragen, diese dann auch zu öffnen und auf Artikel zu klicken. Viele gaben sogar ein regelmäßiges, positives Feedback. Das, was wir taten, hatte Ähnlichkeit mit einer „Heilung“: Wir durften die besten Stücke aus den Nachrichten und Analysen auswählen. Entwickelt werden sollte ein Narrativ für Leser, die unter Zeitdruck standen und geradezu in Informationen ertranken. Wir konnten so außerdem eine direkte Beziehung zu unseren Lesern herstellen.

Dan Oshinsky, Leiter der Newsletter-Abeilung bei BuzzFeed, berichtete mir: „Uns geht es darum, Geschichte zu erzählen, die die Leute teilen möchten. Deshalb ist die E-Mail so ein natürlicher Startpunkt. Es ist sicherlich nicht die schillerndste oder neueste Plattform. Aber sie hat eine gewisse Reichweite, bringt Leute zurück auf die Seite und verteilt unsere Inhalte.“

Wie bei so vielem in den Redaktionen sind auch die Ressourcen stark begrenzt und Medienunternehmen suchen immer noch den besten Weg, um E-Mails als Teil eines größeren Engagements zu monetarisieren. Dies brachte mich dazu, mit Kollegen von anderen Medienorganisationen zu sprechen – in Nachrichtenabteilungen und kommerziellen Abteilungen – um die Trends zu verstehen, die ich in einem neuen Bericht für das Reuters Institute for the Study of Journalism an der Universität Oxford hervorhob.

Es werden zurzeit mindestens acht verschiedene Geschäftsmodelle getestet:

  1. Internetraffic generieren oder konvertieren. Die Klicks, die durch die E-Mail-Newletter hereinkommen, können die Gesamtzahl der Pageviews erhöhen. Dies unterstützt das breitere Geschäftsmodell und erhöht Anmeldungen und Werbeumsätze. Die Washington Post, die mehr als 70 redaktionelle E-Mails betreut, nennt dies eine „Zugbrücke“. Sie erhöht die Reichweite und zieht eine größere Zahl potentieller Leser an. Der New Yorker sagt, dass die Antwortquote höher ist als in den sozialen Medien. Für kleinere und jüngere Organisationen ist es eine wertvolle Möglichkeit, um Aufmerksamkeit zu bekommen und Lesegewohnheiten bei den Nutzern aufzubauen. Blendle generiert so ein Drittel des Traffics. Die Firma hat ein Mikrozahlungsmodell adaptiert, das nach dem Prinzip „Pay as you go“ funktioniert. Man zahlt, wenn ein Link von einer teilnehmenden Mediengruppe angeklickt wird.
  2. Einzelabonnement: Der Espresso (und die App) von The Economist, The Browser und Brief.me in Frankreich rechnen alle für die E-Mail selbst ab und bieten einen einzigartigen Inhalt oder die Entdeckung von anderen Artikeln auf Grundlage eines starken Urteilsvermögens und einer besonderen Schreibqualität. Laurent Mauriac, Gründer von Brief.me sagt: „Der beste Weg, eine starke Beziehung mit dem Leser aufzubauen, ist, sie dszu zu bringen, zu zahlen.“ In Großbritannien überlegt die „Red Box“ der Times, die die aktuelle Politik behandelt, ein solches Modell einzuführen.“
  3. Spenden oder verschiedene Beiträge: Eine bestimmte Anzahl Newsletter wird umsonst gesendet, aber verlangt regelmäßig Beiträge, wie beispielsweise Johnson’s Russia List. Diese aggregiert Medien und akademische Artikel über Russland und die ehemalige Sowjetunion. Genauso ProMed, die Krankheitsausbrüche mit ansteckendem Charakter abbildet. Manche werden umsonst an Privatpersonen und Akademiker ausgegeben, aber an Geschäftskunden und gewerbliche Abonnenten verkauft.
  4. Zusatz zu Abonnement: Free Lunch, Brexit Briefing und andere spezielle Newsletter werden gratis an Standard oder Premium-Abonnenten versandt. Sie stellen einen alternativen Weg für Leser dar, um Inhalte zu konsumieren. Sie helfen auch dabei, Artikel von der Financial Times im Netz zu verbreiten und das Engagement zu erhöhen, indem mehr Artikel gelesen werden. Auf diese Weise bindet man seine Leser oder kann sie zu Upgrades bewegen.
  5. Werbung: Viele Newsletter enthalten Werbung oder Banner wie Red Box. Immer mehr beinhalten auch native Werbung oder gesponserten Inhalt, wie beispielsweise Quartz’s Daily Brief, The Monocle Minute und TTSO (Time to Sign Off) in Frankreich.
  6. Querverkauf: E-Mails enthalten oft eine Leseprobe, um die Reichweite durch neue Leser zu erhöhen. Man bekommt ungewohnte Inhalte präsentiert und generiert Loyalität und Klicks zu einem Abonnement oder einer Abo-Paywall. Manche tun dies mit ihren eigenen Seiten in Kopperation mit kommerziellen Seiten. Beispielsweise haben die Washington Post und BuzzFeed sich mit Amazon zusammengeschlossen. Andere bewerben Bezahl-Events oder bauen Adresslisten auf, mit denen man verschiedene Zielgruppen adressieren kann.
  7. Markenwahrnehmung: Kostenlose Newsletter sollen größeres Interesse an einer Nachrichtenorganisation oder einem Produkt auslösen. Auch kann das Wissen über die Organisation oder ihren Inhalt vergrößert werden, genau wie die Wahrnehmung von neuen Inhalten oder Services.
  8. Gemeinschaftsbildung: Newsletter, die bestimmte Interessen, Themen oder Leute in bestimmten Regionen ansprechen, bieten eine Möglichkeit, um eine tiefergehende Vernetzung zu speziellen Gruppen herzustellen und eine direkte Beziehung aufzubauen. Auch die Loyalität wird vergrößert und Mitgliedschaften und Eventteilnahmen werden angeboten.

Nicht jedes dieser Modelle funktioniert für jeden – und diejenigen ohne starkes, redaktionelles Urteilsvermögen, eigenen Inhalt oder andere Arten der Abgrenzung werden an dem zunehmend umkämpften Newslettermarkt sehr zu leiden haben. Der Newsletter closure of This, bei dem Leseempfehlungen erteilt werden, ist eines dieser Beispiele.

Neben größerer Experimentierfreude mit diesen Modellen müssen auch andere Zukunftsthemen für redaktionelle E-Mails berücksichtigt werden, wenn es um die Entwicklung von journalistenfreundlicheren Plattformen geht: die Veränderung der Regulierung (vor allem in Europa) und die Rolle der Algorithmen, die bei der Entdeckung von Inhalten eine Rolle spielt.

E-Mails sind ein Hybridmedium, das weit davon entfernt ist, perfekt zu sein. Zur Zeit füllen sie aber eine Lücke für Nachrichtenabteilungen. Ihre Einschränkungen bieten eine wichtige Plattform für Experimente, deren Eigenschaften auch in anderen Medienformen tragen können, die sie vielleicht eines Tages ersetzen.

Dieser Artikel erschien zuerst auf „NiemanLab” unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image “mail-newsletter-home-mailbox” (adapted) by Anne-Onyme (CC0 Public Domain)


Weiterlesen »

Was Fachärzte in Zeiten von Wikipedia wissen müssen

Computer, Mac, MacBook, iPhone, Tastatur, Arzt, Doktor, Schreibtisch, Stock

Fachleute im Gesundheitswesen haben die Aufgabe, die zahlreichen medizinischen Einträge auf Wikipedia zu verbessern – zumindest, wenn man nach einem Brief der Lancet Global Health geht, der heute veröffentlicht wurde. Das liegt vor allem daran, dass die Wikipedia eine der ersten Quellen ist, die aufgerufen wird, wenn man nach medizinischen Begriffen sucht.

In unserer Korrespondenz habe ich mich mit einer Gruppe internationaler Studenten an verschiedene medizinische Fachzeitschriften gewendet, um ihnen klarzumachen, dass man mehr tun muss, damit Experten die Wikipedia nützlicher und präziser machen können. Zudem sollte die medizinische Community diese Verbesserungen zu einem ihrer wichtigsten Punkte erklären.

Rund um die Welt in Benutzung

Wikipedia steht auf Platz Fünf der am meisten besuchten Webseiten der Welt und ist auch die am häufigsten gelesene Quelle, wenn es um medizinische Informationen geht. Zudem greifen auch viele Ärzte, Medizinstudenten, Gesetzgeber und Professoren auf sie zu. Das Aufrufen der Seite ist kostenfrei und läuft über das Programm Wikipedia Zero. In Entwicklungsländern ist die Seite damit zu einer der am meisten benutzten Quellen für Gesundheitsthemen geworden. Während des Ebola-Ausbruchs im Jahr 2014 wurde die Seite über das Ebola-Virus täglich über 2,5 Millionen Mal aufgerufen.

Anfang des Jahres startete die Seite die kostenlose Medical Wikipedia Offline-App in sieben Sprachen. Die Android-App hatte fast 100.000 Downloads in den ersten Monaten und ist in Ländern mit sehr knappem und mittlerem Einkommen, wo der Internetzugang meistens langsam und vergleichsweise teuer ist, extrem nützlich.

Wegen all dieser Punkte müssen die Einträge in die Wikipedia sehr präzise formuliert sein, denn jeder Eintrag kann potentiell zu gesundheitlichen Konsequenzen in der wirklichen Welt führen.

Eine Frage der Prioritäten

Obwohl die Wikipedia es jedem ermöglicht, die Einträge zu bearbeiten, ist die Genauigkeit erstaunlich und konkurriert sogar mit der Encyclopedia Britannica. Aber obwohl sich die Enzyklopädie weiterentwickelt, ist die Genauigkeit der medizinischen Inhalte nicht stetig. Die Plattform hatte schon immer Schwierigkeiten damit, Expertenmeinungen von Forschern einzuarbeiten. Bei den Ärzten und anderen Experten im Gesundheitswesen hatte eine Aufarbeitung der Themen in der Wikipedia bisher einen eher unwichtigen Stellenwert.

Das unbezahlte Schreiben in einem unbekannten Format verliert leider schnell an Reiz, wenn man es unmittelbaren Karriereentscheidungen entgegenstellt. Die Ärzte haben oft mehrere Stunden täglich mit Patienten zu tun und die Forscher sind oft noch zusätzlich damit beschäftigt, sich für Stipendien zu bewerben oder in akademischen Fachzeitschriften zu veröffentlichen. Der Eintrag zu Stillgeburten zeigt deutlich, warum Wikipedia mehr Experten beim Erstellen der Artikel braucht. Jeden Tag gibt es auf der ganzen Welt 7000 Stillgeburten, aber bevor meine Kollegen und ich die Wikipedia-Seite aktualisiert hatten, haben dort noch einige wichtige Informationen gefehlt.

Wichtige Faktoren, wie beispielsweise Malaria als Krankheitsauslöser, waren nicht aufgelistet, aber auch häufige Komplikationen wie Depressionen fehlten. Man benötigt das gesamte Bild einer Erkrankung, um eine wirksame Behandlung angehen zu können. Und für die Patienten ist es ebenso wichtig, zu wissen, dass Depressionen eine normale Nebenwirkung der Totgeburt ist. Wenn sie sich dessen bewusst sind, können sie mit dem Gefühlschaos einer Stillgeburt besser umgehen lernen.

Vergleichbar ist dies mit detaillierteren Informationen über die medikamentöse Behandlung, die ärztliche Verschreibung derer, den Wünschen des Patienten und dem Wissen der angehenden Medizinstudenten – solche wichtigen Themen verlangen einfach nach Genauigkeit.

Mögliche Lösungen

Während man relativ einfach sagen kann, woran es mangelt, ist es umso schwieriger, die Probleme auch vollends zu lösen. Der Einsatz vieler mit verschiedenen Stärken ist hier vonnöten. Ärzte und Fachleute bringen ein enormes Wissen über komplexe Themen mit, medizinische Fachzeitschriften können ihre Infrastruktur für starke Kollegenkontrolle und Indizes aushebeln. Wikipedianer können ihr Wissen über Enzyklopädisches Schreiben und ihre technische Expertise einbringen und medizinische Lehranstalten können ihre Studenten dazu auffordern, mitzuhelfen.

Das gleichzeitige Veröffentlichen von überprüften Arbeiten auf Wikipedia und in akademischen Journalen würde eine Verbesserung für alle bedeuten. Das heißt, dass man bereits existierende Einträge überprüfen, aber auch passende Einträge aus Fachzeitschriften in Wikipedia-Einträge umwandeln muss. Die offizielle Anerkennung für die Mühen des Autors durch zitierfähige Veröffentlichungen in wissenschaftlichen Fachzeitschriften ist eine wichtige Belohnung für die Community-Mitglieder, die unter Zeitdruck stehen. Kontrollen durch die Peer Group würden die Qualität entsprechend sicherstellen. Die Wikipedia ist zudem ein wunderbares Werkzeug für Fachzeitschriften, die einen Einfluss auf die öffentliche Gesundheit nehmen wollen.

Mehrere wissenschaftliche Fachzeitschriften haben sich in die akademische Kontrollvariante der Wiki-Einträge eingearbeitet, andere wollen bald dazu stoßen. Beispiele für diese gemeinsamen Veröffentlichungen sind die Einträge über das Dengue-Fieber und das Kleinhirn, die von den Zeitschriften Open Medicine und WikiJournal of Medicine überprüft und veröffentlicht wurden.

Um mehr Einfluss zu nehmen, folgte PLOS Computational Biology diesem Beispiel und hat auch gemeinsam erstellte Artikel in ihrem Journal und auf Wikipedia veröffentlicht. Die Fachzeitschrift RNA Biology verlangt von den Forschern, die eine neue RNA-Gruppe beschrieben, einen zusätzlichen Wikipedia-Eintrag dazu.

Die neue Herangehensweise verankern

Der Fortschritt kommt nur langsam voran, aber mehrere unabhängige Projekte zeigen, wie sich die Einstellungen von wichtigen Akteuren im biomedizinischen Bereich nach und nach verschieben und wie sie beginnen, Wikipedia ernster zu nehmen. Cochrane erstellt medizinische Richtlinien nach Forschungsdaten und nutzt nun Partner der Wikipedia für ihre Review-Gruppen, um ihre Informationen auf Wikipedia zu verbreiten.

Medizinische Lehranstalten beteiligen sich jetzt auch daran, die Wikipedia-Einträge zu verbessern. Medizinstudenten der University of California in San Francisco können Creditpunkte erlangen, indem sie vernachlässigte Wikipedia-Einträge unter Aufsicht verbessern.

Solche und ähnliche Pläne können die Bearbeitung der Wikipedia in der medizinischen Community der Zukunft hoffentlich selbstverständlicher werden lassen. Von diesen Umständen werden vor allem die Patienten profitieren, denn wenn es um gesundheitliche Inhalte geht, kann die Deadline nicht früh genug gesetzt werden.

Dieser Artikel erschien zuerst auf „The Conversation” unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image „Computer“ by Unsplash (CC0 Public Domain)


Weiterlesen »

Superschnelle „Quantencomputer“ – Das Ende der sicheren Verschlüsselung?

Coding (image by negativespace.co [CC0 Public Domain] via Pexels

Es bahnt sich eine Computer-Revolution an, auch wenn niemand weiß, wann sie genau stattfinden wird. Was als „Quantencomputer“ bekannt ist, wird wesentlich leistungsfähiger sein als die Geräte, die wir heute benutzen. Diese Maschinen werden in der Lage sein, viele Arten der Berechnung vorzunehmen, die auf modernen Geräten unmöglich sind. Aber während schnellere Computer in der Regel mit Freuden erwartet werden, gibt es einige Rechenoperationen, bei denen wir uns darauf verlassen, dass sie nur mühsam (oder langsam) ausgeführt werden.

Im Besonderen vertrauen wir darauf, dass es einige Codes gibt, die Computer nicht knacken können – oder zumindest würde es zu lange dauern, sie zu knacken, um uns von Nutzen zu sein. Verschlüsselungsalgorithmen bringen Daten in eine Form, die sie für jeden unbrauchbar machen, der nicht den entsprechenden Codes zur Entschlüsselung besitzt – in der Regel sind dies lange Abfolgen von zufälligen Zahlen. Mit deren Hilfe können wir Informationen sicher über das Internet versenden. Aber könnten Quantencomputer dazu führen, dass wir nicht länger Verschlüsselungstechniken entwickeln können, die nicht geknackt werden können?

Für ein System, bekannt als symmetrische Verschlüsselung, stellen Quantencomputer keine besonders große Bedrohung dar. Um eine symmetrische Verschlüsselung zu brechen, muss man herausfinden, welcher von vielen möglichen Schlüsseln benutzt wurde. Alle denkbaren Kombinationen auszuprobieren, würde eine unvorstellbare Menge Zeit kosten. Es zeigt sich, dass Quantencomputer all diese Schlüssel in einem Viertel der Zeit testen könnten, die von heutigen Computern benötigt wird – oder anders gesagt, in etwas weniger Zeit, aber nicht so dramatisch viel, als dass dies uns Kopfzerbrechen bereiten müsste.

Für einen anderen Typ der Verschlüsselung hingegen, die asymmetrische oder Public-Key-Verschlüsselung, sieht es nicht so gut aus. Public-Key-Systeme werden benutzt, um beispielsweise die Daten zu sichern, die durch unseren Webbrowser geschickt werden. Diese verschlüsseln Daten, indem sie einen Schlüssel nutzen, der für jeden verfügbar ist, aber zur Entschlüsselung einen anderen, persönlichen Schlüssel benötigt.

Der persönliche Schlüssel ist mit dem Public Key verwandt, also muss man zur Entschlüsselung eine sehr komplizierte Berechnung durchführen, um den persönlichen Schlüssel zu erhalten. Einen herkömmlichen Computer würde dies eine enorme Menge Zeit kosten. Aber was die beiden am weitesten verbreiteten Arten der Public-Key-Verschlüsselung betrifft, die heute Verwendung finden, wäre ein Quantencomputer in der Lage, die Berechnungen schnell genug durchzuführen, um sie fast völlig unsicher werden zu lassen.

Glücklicherweise haben wir dieses drohende Desaster bereits vorausgesehen. Forscher aus Hochschulen, Regierungen und der Industrie arbeiten im Moment hart daran, neue Public-Key-Verschlüsselungstechniken zu entwickeln, welche auf anderen, schwierigeren Berechnungen beruhen, welche gegen die Rechenleistung der Quantencomputer immun sind. Ich bin sicher, dass diese Bemühungen erfolgreich sein werden – insbesondere, da wir bereits einige Verfahren kennen, die zu funktionieren scheinen. Wenn die Zeit der Quantencomputer kommt, werden wir bereit sein.

Quantencomputer stehen für eine neue Arbeitsumgebung, in der viele fantastische Dinge möglich sein werden. Aber wenn es um Verschlüsselung geht, wird sich nicht viel verändern. Die Entwicklung neuer Verschlüsselungstechniken wird keine ungewöhnliche Quantenspielerei benötigen, sondern lediglich ein Bewusstsein dafür, was mit Quantencomputern alles möglich ist. Wahrscheinlich wird es auch eine lange Übergangsphase geben, in der sie nur einigen spezialisierten Organisationen zur Verfügung stehen. Das bedeutet, dass quantensichere Verschlüsselungstechniken auf den zeitgenössischen Computern funktionieren müssen, die der Rest von uns weiter benutzen wird.

Neues Schloss, neues Haus

Ich vermute, dass wir in einer zukünftigen Welt der Quantencomputer sicherlich neue Verschlüsselungstechniken nutzen werden, aber dass die Sicherheit dieser Methoden weitestgehend mit der heutigen Sicherheit vergleichbar sein wird. Der Hauptgrund, warum ich mit dessen sicher bin, liegt darin, dass die Schwachstellen, die mit Verschlüsselung in Verbindung gebracht werden, höchstwahrscheinlich dieselben sein werden wie heute. Der Grund dafür ist folgender:

Verschlüsselung ist im Kern ein Verriegelungsmechanismus. Ein Schloss benötigt einen Schlüssel. Wenn Sie das beste Schloss, das für Geld zu haben ist, an der Tür eines Hauses anbringen, können Sie sicher sein, dass das Schloss selbst nicht aufgebrochen werden wird. Quantencomputer stehen für eine neue Art von Haus, quantensichere Verschlüsselung für eine neue Art Schloss, die zu diesem Haus passt.

Aber wenn jemand in Ihr Haus einbrechen will, und er weiß, dass das Schloss gut ist, wird er nicht versuchen, das Schloss überhaupt aufzubrechen. Stattdessen wird er nach anderen Möglichkeiten suchen. Beispielsweise könnte er den Schlüssel stehlen oder einen Ziegelstein durch das Fenster werfen. Allgemein gesagt ist das genau das, was heute bei den meisten Sicherheitsvorfällen im Internet geschieht. Moderne Verschlüsselung ist hervorragend, aber wir sind weniger kompetent, wenn es um den Schutz der Schlüssel zur Entschlüsselung geht, und noch schlechter beim angemessenen Integrieren von Verschlüsselung in größere Systeme. Ich glaube nicht, dass sich das in einer Welt der Quantencomputer, wie wunderbar sie auch immer sein mag, ändern wird – wann auch immer das sein wird.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image „Coding“ by negativespace.co (CC0 Public Domain)


Weiterlesen »

Schlau, aber abgehängt: Smartphones sorgen für eine digitale Zwei-Klassen-Gesellschaft

mobile (Image by cicwdn [CC0 Public Domain] via Pixabay)

Manch einer würde behaupten, dass der rasche Aufstieg des mobilen Zugriffs in der Theorie keine gute Idee für Einzelpersonen und die Gesellschaft war. Eine Öffentlichkeit, die verknüpfter ist, ist auch informierter. Ein gesteigertes mobiles Vordringen bedeutet, dass sich mehr Menschen öfter als jemals zuvor miteinander verbinden können.

Aber einem neuen Bericht des Shorenstein Center on Media, Politics and Public Policy aus Harvard zufolge gibt es eine dunkle Seite der mobilen Revolution, die befürchten lässt, dass eine weniger beteiligte, „zweitklassige“ Nutzerschaft entsteht, die nicht so sehr von der mobilen Übernahme profitieren wie man annehmen könnte. Eine mobilere Öffentlichkeit könnte, paradoxerweise, eine weniger informierte werden.

Johanna Dunaway, ein ehemaliges Mitglied von Shorenstein und Verantwortliche für den Report, macht die Smartphones selbst für diese Entwicklung verantwortlich. Dank der Kombination von kleineren Bildschirmen, langsamerer Verbindungsgeschwindigkeit und unterschiedlichen Datenpreise sind mobile Geräte in vielerlei Hinsicht keine geeigneten Überträger der Nachrichtennutzung.

Mithilfe einer Eye-Tracking-Software konnten Dunaway und ihre Kollegen beobachten, wie sich Menschen mit Nachrichten auf ihren Handys beschäftigen. Ihr Ergebnis: „Wir fanden heraus, dass im Vergleich zu Computernutzern die Handynutzer weniger Zeit mit dem Lesen von Nachrichteninhalten verbrachten. Sie haben die Links auch nach längerer Nutzung seltener bemerkt und verfolgt.“ sagt Dunaway.

Ihre Befunde wurden von vorherigen Daten von Pew Research unterstützt, die herausfanden, dass, während die meisten Seiten mehr Besucher per Smartphones als über PCs kriegen, die Leser dazu tendieren, weniger Zeit mit dem Lesen als an mobilen Geräten zu verbringen.

Image via Nieman Lab
Image via Nieman Lab

In Anbetracht dessen, dass voraussichtlich bis 2020 zwei Drittel der Onlineaktivität auf mobilen Geräten geschehen wird, sind die Auswirkungen einer mobil dominierten Öffentlichkeit laut dem Bericht recht finster.

Dunaway sieht eine Verbindung zwischen den Risiken von Handys zu vielen anderen Herausforderungen der Nachrichtenagenturen. Diese haben Probleme, die Menschen in einem Medienökosystem zu informieren, das von Auswahl, Fragmentierung und der Anziehung von Nachrichtennutzern zu Quellen, die ihre Ansichten beweisen und Neigungen durchsetzen, dominiert wird.

Letztendlich bedeutet dies, dass Smartphones zwar den Nachrichtenagenturen helfen, mehr Menschen als je zuvor zu erreichen, das Problem jedoch darin besteht, dass diese mobilen Nachrichtennutzer weniger beschäftigt und weniger informiert sind. Sie werden wahrscheinlich mehr Aufmerksamkeit den Sport- und Unterhaltungsnachrichten als der politischen Berichterstattung widmen. Des Weiteren ist die Übernahme des Handys am deutlichsten in Kreisen von Latinos, Schwarzen und Amerikanern mit geringem Einkommen, was noch einmal eigene Herausforderungen hervorbringt, zeigt Dunaway auf:

    „Es könnte richtig sein, daraus zu schließen, dass wir ein Zeitalter einer zweitklassigen digitalen Bürgerschaft betreten, geführt von einer ausschließlich mobilen digitalen Unterschicht.
    Ein denkbares Ergebnis ist eine größer werdende Lücke zwischen denen, die politisch interessiert und informiert sind und denen, die es nicht sind. Setzt man voraus, dass diese Lücke entlang der Einkommens-, Rassen-, Ethik- und Berufsgruppen entsteht, könnte der Effekt eine Beschleunigung der Kluft zwischen Reich und Arm in Amerika nach sich ziehen – und dies zu einer Zeit, in der diese Schwelle bereits der Grund für politische Sorgen und Unruhen sind.“

Dieser Artikel erschien zuerst auf “Nieman Journalism Lab” unter CC BY-NC-SA 3.0 US. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image „Mobile“ by cicwdn (CC0 Public Domain)


Weiterlesen »

Von lebenden Computern zu Nanorobotern: Wie wir uns die DNA über die Genetik hinaus zu Nutze machen.

DNA (Image by PublicDomainPictures [CC0Public Domain]) via Pixarbay

Die DNA ist eines der faszinierendsten Moleküle, die die Natur zu bieten hat. Sie allein beinhaltet die Möglichkeit, all die Information zu tragen, die nötig ist, um nahezu jede Art von Leben auf der Erde zu erschaffen, und das in mikroskopischer Form. Gerade jetzt finden Forscher Möglichkeiten, DNA darüber hinaus zu verwenden, indem sie sie nicht nur als Informationsspeicher, sondern auch um physische Komponenten in einer Reihe biologischer Maschinen zu erschaffen, nutzen.

Desoxyribonukleinsäure oder „DNS“ (Englisch: DNA, von Deoxyribonucleic acid) trägt die genetische Information, die wir und alle lebenden Organismen zum Leben und Funktionieren brauchen. Normalerweise kommt sie in der berühmten Doppelhelix-Form vor, also zwei Einzelstrang-DNA-Molekülen, die zu einer Spirale gefaltet sind. Jeder dieser Stränge besteht seinerseits aus vier verschiedenen molekularen Komponenten: Adenin (A), Guanin (G), Thymin (T) und Cytosin (C).

Gene entstehen aus bestimmten Sequenzabfolgen dieser Bausteine. Die genetische Information ist codiert durch die Reihenfolge, in der die Bausteine in einem DNA-Strang aufgebaut sind. Durch das präzise Erstellen verschiedener Sequenzen aus A, G, T und C konnten Forscher zuletzt neue Faltmöglichkeiten der DNA entwickeln, zum Beispiel verschiedene Origami-Formen, also weit über die gewöhnliche Doppelhelix hinaus.

Dieser Ansatz hat neue Möglichkeiten eröffnet, DNA über ihren genetischen und biologischen Nutzen hinaus zu verwenden, sie wie Lego-ähnliches Material zum Bauen von Objekten zu verwenden, deren Durchmesser im Nanobereich nur einige wenige Milliardstel eines Meters misst. DNA-basiertes Material wird nun für eine Vielzahl verschiedener Anwendungen verwendet, die von Schablonen für elektronische Nanotechnologiegeräte zu Möglichkeiten, wie Medikamente genau zu erkrankten Zellen gebracht werden können, reichen.

DNA-basierte Nanothermometer

Technische Geräte zu entwerfen, die nur einige Nanometer groß sind, ermöglicht eine Vielzahl von Anwendungen, macht es aber auch schwerer, Mängel zu erkennen. Um dies zu umgehen, haben sich Forscher der Universität Montreal DNA zu Nutze gemacht, um ultrasensitive Thermometer im Nanoskalenbereich zu entwerfen, die dabei helfen könnten, winzige Hotpots in Nano-Geräten zu finden (die auf einen Mangel hinweisen könnten). Sie könnten außerdem genutzt werden, um die Temperatur innerhalb lebender Zellen zu beobachten.

Die Nano-Thermometer sind aus DNA-Schleifen gemacht, die als Schalter fungieren, sich also als Antwort auf Temperaturänderungen falten oder entfalten. Diese Bewegung kann sichtbar gemacht werden, indem optische Sonden an die DNA angehängt werden. Die Forscher wollen diese Nano-Thermometer nun in größere DNA Geräte einbauen, die im menschlichen Körper funktionieren können.

Biologische Nanoroboter

Forscher der Harvard Medical School nutzten DNA, um einen Roboter in Nanogröße zu erstellen und zu bauen, der als Medikamententransportmittel zu spezifischen Zielzellen fungiert. Der Nanoroboter ist aus einem Zylinder aus DNA gemacht, dessen zwei Hälften über ein Scharnier verbunden sind, das durch spezielle DNA-Bügel geschlossen gehalten wird. Diese Bügel können Kombinationen spezifischer Proteine auf der Oberfläche von Zellen erkennen, inklusive solcher, die mit Krankheiten assoziiert sind.

Wenn der Roboter mit den richtigen Zellen in Kontakt kommt, wird der „Behälter“ geöffnet und die Ladung abgeliefert. Als die Roboter zu einer Mischung aus gesunden und krebsbefallenen menschlichen Zellen gegeben wurden, zeigten sie die Fähigkeit, die Hälfte der Krebszellen zu finden und zu zerstören, während die gesunden Zellen unversehrt blieben.

Bio-Computer bei lebenden Tieren

Weil DNA-Strukturen als Schalter fungieren können, die sich von einer in eine andere Position bewegen, können diese genutzt werden, um logische Operationen auszuführen, die Computerkalkulationen möglich machen. Forscher an der Harvard und der Bar-Ilan-Universität in Israel nutzten diesen Prinzip, um verschiedene Roboter in Nanogröße zu bauen, die miteinander interagieren können, indem sie ihre DNA Schalter zum Reagieren auf und Produzieren von verschiedenen Signalen nutzen.

Darüber hinaus pflanzten die Wissenschaftler die Roboter in lebende Tiere ein, in diesem Fall in eine Küchenschabe. Dies erlaubte ihnen, eine neue Art biologischen Computer zu entwickeln, der die Abgabe von therapeutischen Molekülen in der Küchenschabe kontrollieren kann, indem Elemente seiner Struktur auf „An“ oder „Aus“ geschaltet werden. Nun wird eine Studie geplant, die diese DNA Nanoroboter bei Menschen testen soll.

Licht einfangende Antennen

Wie die DNA dafür genutzt werden kann, winzige Maschinen zu bauen, kann sie auch eine Möglichkeit für uns bieten, natürliche Prozesse im Nanobereich zu kopieren. Die Natur kann zum Beispiel Energie aus der Sonne gewinnen, indem die durch Photosynthese Licht in chemische Energie umsetzt, die als Treibstoff für Pflanzen und andere Organismen fungiert (und die Tiere, die diese essen). Forscher an der Arizona State Universität und der Universität der British Columbia haben nun eine dreiarmige DNA Struktur erschaffen, die Licht fangen und übertragen kann und damit diesen Prozess imitiert.

Photosynthese funktioniert in lebenden Organismen aufgrund von winzigen Antennen, die von einer großen Anzahl an Pigmentmolekülen in bestimmter Ausrichtung und Abstand zueinander gebildet werden und die die Fähigkeit besitzen, sichtbares Licht zu absorbieren. Die künstliche DNA-basierte Struktur arbeitet ähnlich wie diese Antennen, indem sie die Position spezifischer Farbstoffmoleküle kontrolliert, die die Lichtenergie absorbieren und zu einem Reaktionszentrum leiten, wo sie in chemische Energie umgewandelt wird. Diese Arbeit könnte den Weg ebnen für Geräte, die es schaffen, diejenige Energiequelle, die wir am reichlichsten frei zur Verfügung haben, effizienter zu nutzen: das Sonnenlicht.

Was kommt also als nächstes in der DNA-Nanotechnologie? Das ist schwer zu sagen, aber mit der DNA hat uns die Natur ein sehr vielseitiges Werkzeug zur Verfügung gestellt. Es liegt nun an uns, daraus das Beste zu machen.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image „DNA“ by PublicDomainPictures (CC0 Public Domain).


Weiterlesen »

Über Leerformeln in digitalen Erzählungen – Netzdiskursen fehlt die theoretische Fundierung

DTO-GOV-AU_Misc-8 (adapted) (Image by adrian yee [CC BY 2.0] via flickr)

Der Kölner Soziologe Klaus Janowitz hat sich der Herkules-Aufgabe gewidmet, in der vernetzten Welt für etwas mehr Klarheit zu sorgen. Erinnert sei an seine Überlegungen zur Hashtag-Ökonomie als als Gegenentwurf zur durchorganisierten Gesellschaft. Es geht dabei um Verbindungen von Neigungen und Interessen. Es geht um vernetzten Individualismus fernab von Reports, Indikatoren, Kennzahlen und Excel-Tabellen, die nur Ausdruck der Hilflosigkeit in einer vernetzten Welt sind. Jetzt versucht sich Janowitz an der Einordnung des Begriffes der Digitalen Transformation, der seit einigen Jahren den Diskurs im Netz beherrscht und Veränderungen in Unternehmen und Organisationen beschreibt.

Die heiße Luft der Digital-Darwinisten

Dabei findet er eine Menge heiße Luft, etwa im jüngsten Buch der so genannten Digital-Darwinisten Karl-Heinz Land und Ralf Kreuzer: „Mit dem Begriff digitale Transformation wird der zielgerichtete Einsatz von digitalen Technologien bezeichnet, um die eigenen Wertscho?pfungsprozesse unter Einsatz von digitalen Technologien neu- oder umzugestalten.“ Zerpflückt man diesen Satz in seine Einzelteile, bleibt wenig Substanz übrig. Was heißt denn „zielgerichteter Einsatz“? Was sind eigene Wertschöpfungsprozesse? Als Antipoden zitiert Janowitz den Kolumnisten Alain Veuve: „Transformation impliziert einen Prozess, der einen Anfang und ein Ende hat.“ Unternehmen machen sich fit für die digitale Transformation. Veränderungen sind nicht nur von den Informationstechnologien getrieben, auch anderswo gibt es Fortschritt.

Eingaben ohne Ziel

Das Notiz-Amt sieht sich näher bei der Position von Alain Veuve und verweist auf das Schrifttum des Systemtheoretikers Niklas Luhmann. Wie kann überhaupt noch etwas zielgerichtet laufen, wenn die Eingabe von Daten und das Abrufen von Informationen soweit getrennt werden, dass keinerlei Identität mehr besteht. Wer etwas eingibt, weiß nicht, was auf der anderen Seite entnommen wird. Die Autorität der Quelle wird entbehrlich, sie wird durch Technik annulliert. Ebenso entfällt die Möglichkeit, die Absicht einer Mitteilung zu erkennen und daraus Verdacht zu nähren oder sonstige Schlüsse zu ziehen, die zur Annahme oder Ablehnung der Kommunikation führen könnten. Die moderne Computertechnik greift die Autorität der so genannten Experten an. Fast jeder hat mittlerweile die Möglichkeit, die Aussagen von Wissenschaftlern, Journalisten, Unternehmern oder Politikern am eigenen Computer zu überprüfen.

Die Tautologien der digitalen Avantgarde

Was bedeutet das für die Tautologien, die uns von Digitalen Darwinisten oder sonstigen Digitalen Evangelisten inflationär um die Ohren gehauen werden? Solche Internet-Erklärer, die die Konferenzbühnen beherrschen, stellen sich nicht einer kritischen Überprüfbarkeit ihrer Erzählungen. Wo bleibt die theoretische Fundierung im Diskurs über die Wirkungen der Digitalisierung für Wirtschaft, Gesellschaft und Staat? Die vorherrschenden Erzählungen in Netz-Debatten, die sich mit Digitaler Transformation, Content Marketing, Storytelling, Plattformen oder Industrie 4.0 beschäftigen, bestehen aus „ganzheitlicher“ Phrasendrescherei. Das gilt für die Beraterzunft und auch für die betriebswirtschaftlich ausgebildeten Stichwortgebern.

Selbstkonstruierter Unsinn

Der Wissenschaftstheoretiker Hans Albert würde das Keynote-Gemurmel als selbstkonstruierten Unsinn abtun. Belastbar seien nur Aussagen, die sich anhand einer Auseinandersetzung mit uns umgebenden realen Welt überprüfen lassen. Es dominieren hypothesenlose Leerformeln, die ihre empirische Gehaltlosigkeit verschleiern. Man könnte sogar von Dogmen sprechen, da uns von vielen digitalen Vordenkern absolute Gewissheiten verkauft werden, ohne auch nur in Ansätzen empirische Einsichten zu vermitteln. Man fahndet nur nach Bestätigungen der eigenen Sichtweise und schließt von Einzelphänomenen auf die Allgemeinheit. Vermeintliche Wahrheiten wurden und werden von gläubigen Anhängern ohne Überprüfung der Fehlerhaftigkeit verteidigt. Wer nicht an sie glaubt, gilt als verstockt und rückwärtsgewandt. Eine kritische Urteilsfähigkeit kann so nicht entstehen. Selbst eine noch so oft wiederholte Beobachtung der regelmäßigen Verbindungen von Dingen oder Ereignissen rechtfertigt es nicht, daraus eine logisch zwingende Schlussfolgerung auf eine Gesetzmäßigkeit zu ziehen.

Die Überprüfbarkeit von Hypothesen

Jeder sollte daher immer kritische Widerlegungsversuche von Hypothesen anstellen, statt nur nach Bestätigungen des eigenen Gedankengebäudes zu suchen. Beim jüngsten netzökonomischen Diskurs im Kölner Startplatz wurden Ideen verhandelt, wie man den dominierenden digitalen Plattformen des Silicon Valley Paroli bieten könnte. Zur Sprache kamen Open Source-Ideen, die zu einer Dezentralisierung des Netzes taugen. Kann man sich überhaupt aus der häufig zu beobachtenden Pareto-Verteilung befreien, die in den meisten Netzwerken vorherrscht? 20 Prozent derer, die Einkommen haben, zahlen 80 Prozent der Einkommenssteuer; 20 Prozent der Produkte eines Supermarktes machen 80 Prozent des Umsatzes aus; 20 Prozent der Wissenschaftler bekommen 80 Prozent der Zitate ab; 20 Prozent der Wissenschaftler schreiben 80 Prozent der wissenschaftlichen Texte. Selbst für Wikipedia gilt: 20 Prozent der Autoren liefern 80 Prozent der Beiträge. Wie kommt man aus diesen Machtstrukturen raus?

Raiffeisen für die Netzökonomie

Letztlich plädierte die netzökonomische Fachrunde für einen stärkeren Schulterschluss, den vor allem kleine und mittelständische Unternehmen leisten müssen. Etwa über die Raiffeisen-Idee, die im 19. Jahrhundert begründet wurde: Solche Genossenschaften seien Netzwerke, die helfen, wenn eine Branche im Wandel und im Wachsen ist, erläutert die Volkswirtin Theresia Theurl von der Uni Münster gegenüber der Wirtschaftswoche: „Bist Du nicht groß oder besonders stark, musst du besonders schlau sein. Man kann sich Größe auch organisieren, ohne sich abhängig zu machen.“ Um das Problem der schlechten Bonität zu lösen, setzte der Sozialreformer Friedrich Wilhelm Raiffeisen auf das Prinzip „Hilfe zur Selbsthilfe„. Man könnte es auch nach dem Motto der „Vier Musketiere“ formulieren: „Einer für alle, alle für einen„.

Eine Gruppe Kreditbedürftiger schließt sich zusammen und stattet ihre Genossenschaften mit Haftungskapital aus. Für den Einzelnen ist die Einlage bezahlbar, doch unter dem Strich kommt ein ordentliches Kapitalpolster zusammen. Dadurch entsteht eine privat finanzierte Bank, die Geld an ihre Mitglieder verleihen kann, ohne bei Ausfällen einzelner Schuldner pleitezugehen.

Dies erläuterte die Wirtschaftswoche. Gleiches gilt für die Digitalisierung der Wirtschaft, etwa bei Investitionen in 3D-Drucker, beim Einkauf, bei der Vermarktung über Plattformen und beim Wissenstransfer. Bringt die Raiffeisen-Idee nun Impulse für die Netzökonomie in Deutschland? Das muss nun empirisch überprüft werden mit Rückgriffen auf die Wirtschaftsgeschichte und auf heutige Phänomene. Es steht eine Hypothese zur Disposition, die mit Daten aus dem 19. Jahrhundert und mit aktuellen Daten abgeklopft werden kann – ohne esoterische Quatschereien.


Image (adapted) „DTO-GOV-AU Misc-8“ by adrian yee (CC BY 2.0)


Weiterlesen »

Bots: Warum wir bald mit Künstlicher Intelligenz chatten werden

Tomy Chatbot (adapted) (Image by ?? Michele M. F. [CC BY-SA 2.0] via Flickr)

“Bist du Mann oder Frau?” “Wie alt bist du?” “Kannst du mir deine Position schicken?” Wer mal mit einem Bot plaudern will, der braucht sich dazu nur die Messaging-App Telegram installieren und mit dem @HotOrBot einen Chat anfangen. Sein Versprechen: Er sucht relevante Flirtpartner in der Umgebung, die den eigenen Vorstellungen entsprechen. Noch ist das natürlich eine ziemlich abgespeckte Version einer künstlichen Intelligenz, aber sie lässt den Nutzer zumindest erahnen, in welche Richtung sich die Angelegenheit entwickeln kann.

Telegram sieht sich als Vorreiter bei Bot-Technologie. Bereits im Sommer 2015 haben die Macher der App mit 100 Millionen monatlichen Nutzern eine Bot-Plattform gestartet, über die Entwickler ähnlich einem App-Store ihre Bots (die abgekürzte Version von “Robot”) anbieten können. So gibt es auch einen @ImageBot, der sich auf die Suche nach gewünschten Bildern (z.B. “happy dog”) machen kann, einen @PollBot, mit dessen Hilfe man Umfragen erstellen kann, oder gar einen @StoreBot, der andere Bots empfiehlt. Telegram erlaubt diesen Bots mittlerweile auch, in die Chats der Menschen hineinzufunken. Über die Befehle @gif, @vid, @pic, @bing, @wiki, @imdb und @bold kann man sie kleine Aufgaben verrichten lassen, während man weiter mit Freunden chattet.

Auch Facebook will Bots

Bots wie bei Telegram wird man bald auch in anderen Messaging-Apps sehen. Am 12. und 13. April hält Facebook seine F8-Entwicklerkonferenz ab und Gerüchten zufolge will man dort eine eigene Bot-Plattform für die Messenger-App vorstellen. Diese automatisierten Chat-Kontakte gibt es in den USA testweise bereits jetzt: Über den Messenger kann man etwa ein Uber-Taxi rufen oder bei Flügen der KLM einchecken. Künftig sollen Unternehmen und Software-Entwickler wie in einem App-Store eine ganze Reihe weiterer nützlicher Bot-Gehilfen anbieten können.

Auch Microsoft will im Bot-Geschäft mitmischen: Für seine VoIP/Chat-Software Skype werden ebenfalls Bots getestet, die über die “Skype Bot Platform” angeboten werden sollen. Wie schlecht das noch funktioniert, zeigt das Beispiel des Chatbots Tay. Eigentlich hätte Tay von Nutzern lernen sollen, wie junge Menschen sprechen. Doch die User fütterten ihn mit rassistischen Inhalten, die Tay wiederholte – nein, Künstliche Intelligenz ist das noch nicht.

Google ist gefordert

Für Facebook und Microsoft stellen ihre Kommunikations-Plattformen Messenger, Skype oder WhatsApp aber auf jeden Fall das Vehikel für ihre Künstlichen Intelligenzen dar. Microsofts “Cortana” und Facebooks “M” sollen die Dolmetscher zwischen Mensch und Maschine sein, also die KIs, die den User verstehen, seine Anfragen an Software und Datenbanken weitergeben und die Ergebnisse in einfach verstehbarer Form zurückliefern – und zwar im Chatfenster der Messaging-App.

Ob die Nutzer der Messaging-Apps auf diesen Zug aufspringen, bleibt erst einmal abzuwarten. Läuft die Sache groß an, dann ist vor allem Google gefordert. Denn wer in einer Messaging-App nach allem fragen kann und Antworten von Bots bekommt, muss (zumindest mobil) nicht mehr die Google-Suche anwerfen. Für Facebook und Microsoft wiederum sollen die Bots Geld abwerfen: Denn jedes Mal, wenn einer der Bots dem Nutzer etwas verkauft (z.B. eine Taxifahrt, eine Pizza-Lieferung oder eine Hotelbuchung), könnten sich die IT-Riesen am Umsatz beteiligen lassen.


Image (adapted) “Tomy Chatbot” by ?? Michele M. F. (CC BY-SA 2.0)


Weiterlesen »

Worin liegt der Sinn in Bildung, wenn uns Google alles sagen kann?

Google Education Summit 2013 (adapted) (Image by txnetstars [CC BY-SA 2.0] via flickr)

Erinnern sie sich auch nicht mehr an die Namen der zwei Elemente, die Marie Curie entdeckt hat? Oder daran, wer 1945 die Nationalratswahl in Großbritannien gewann? Oder wie viele Lichtjahre die Sonne von der Erde entfernt ist? Fragen Sie einfach Google.

Der konstante Zugang, der nur ein Klick oder eine Smartphone-Berührung entfernt ist, um am Überfluss an Online-Informationen teilzuhaben, hat die Art und Weise, wie wir uns sozialisieren und die Art und Weise, wie wir uns über die Welt um uns herum informieren und unser Leben organisieren, radikal verändert. Wenn alle Fakten sofort online abrufbar sind, welchen Sinn ergibt es noch, die selben Fakten an der Schule und der Universität zu erlernen? Die Zukunft könnte so aussehen, dass junge Menschen, nachdem sie sich die Grundlagen des Lesens und Schreibens angeeignet haben, ihre gesamte Bildung über Suchmaschinen wie Google aus dem Internet erhalten –  wann und wo auch immer sie etwas wissen wollen.

Einige Pädagogen streiten sich darüber, ob Lehrkräfte, Klassenräume, Bücher und Unterricht zu ersetzen seien, indem Schüler auf sich selbst gestellt sind und sich einfach online zu bestimmten Themen Informationen suchen. Derartige Ideen stellen den Wert eines traditionellen Bildungssystems, in dem Lehrer ihr Wissen an Schüler weitergeben, infrage. Natürlich warnen andere auch vor dieser Denkweise und betonen die Relevanz des persönlichen Kontakts zwischen dem Schüler und dem Lehrpersonal.

Diese Debatten über den Sinn und Zweck von Online-Suchen im Rahmen von Bildung und Bewertungen sind keineswegs neu. Statt nach neuen Wegen zu suchen, die Schüler abzuhalten, in ihren Hausarbeiten zu schummeln oder zu plagiieren, sollten wir unserer Besessenheit nach “Authentizität” ihrer Hausarbeiten Einhalt gebieten. Möglicherweise werden dann erst andere wichtige Aspekte der Bildung sichtbar, die zuvor nicht beachtet wurden.

Digitaler Inhaltsverwalter

In meinen jüngsten Recherchen, in denen ich die Methoden analysiert habe, mit denen Schüler ihre Aufgaben bewältigen, habe ich herausgefunden, dass sie zunehmend Arbeiten abgeben, die nicht wirklich “authentisch” sind. Allerdings ist diese Erkenntnis gar nicht so bedeutend, wie man annehmen könnte. Viel wichtiger ist es, dass sich die Schüler durch die erfolgreiche Internetnutzung darin üben, nach bereits existierenden Inhalten zu suchen. Gleichzeitig werden diese Inhalte im Lernprozess überprüft, kritisch beurteilt und neu präsentiert. Dank einer genauen Untersuchung der Vorgehensweise, wie Schüler ihre Aufgaben bearbeiten, konnte ich erkennen, dass alle geschriebenen Texte von ihnen Elemente fremder Texte beinhalten. Diese Vorgänge müssen besser verstanden und untersucht werden. Abschließend können eben diese neue Formen der Wissensbeschaffung in die Ausbildung und Beurteilung integriert werden.

Bei dieser Vorgehensweise handelt es sich um das Ausnutzen eines Überflusses an Informationen von einer Vielzahl an Quellen, inklusive Suchmaschinen wie Google, was ich als eine Form der “digitalen Inhaltsverwaltung” bezeichnen würde. Inhaltsverwaltung in diesem Sinne beschreibt, wie Lernende bestehende Inhalte verwenden, um im Rahmen von Problemlösungen und intellektueller Arbeit neue Inhalte erstellen. Somit entsteht eine neue Erfahrung für den Leser.

Ein Teil dessen ist die Entwicklung eines kritischen Urteilsvermögens, der wie ein “Schwachsinns-Detektor” fungiert, während man sich einen Weg durch die Flut an verfügbaren Informationen bahnt. Dieser Punkt ist im Bildungsprozess für jede Form der Inhaltsverwaltung entscheidend, weil Lernende das Internet beim Suchen nach Informationen mehr und mehr als Erweiterung ihres eigenen Gedächtnisses verwenden.

Schüler müssen zunächst einmal verstehen, dass die meisten Inhalte im Netz von Suchmaschinen wie Google mithilfe des PageRank-Algorithmus und weiteren Algorithmen verwaltet werden. Diese Form der Inhaltsverwaltung dient somit als eine Art von Verwaltung über die Arbeiten anderer Menschen, und setzt eine Aufarbeitung mit den Autoren dieser Texte voraus. Es ist ein wesentlicher Bestandteil “digitaler Bildung”.

Aufgrund der weit verbreiteten Konnektivität hat die Verwaltung von digitalen Inhalten ihren Weg in das Bildungssystem gefunden. Dadurch entsteht das Verlangen , die Nutzungsart der Onlinesuche und die Art und Weise des Schreibens, die aus der Verwaltung von Inhalten entsteht, in die Art und Weise wie wir Studenten beurteilen, einzupflegen.

Wie können diese neuen Fähigkeiten  in der Bildung beurteilt werden?

Während sich das prüfungsbezogene Schreiben tendenziell auf die eigene, “authentische” Arbeit des Schülers bezieht, könnte es genauso gut auf der Inhaltsverwaltung aufbauen. Nehmen wir als Beispiel ein Projekt, das ein Teil eines digitalen Portfolios ist. Das könnte von Schülern erfordern, Informationen zu einer bestimmten Fragestellung herauszusuchen, bestehende Auszüge aus dem Netz anzuordnen, sodass sie lesbar sind und die Quellen anzugeben. Abschließend kann aus den Ergebnissen eine Abschlussarbeit präsentiert werden.

Die Kernkompetenzen der informationsgestützten Wirtschaft des 21. Jahrhunderts bestehen daraus, Probleme durch das Zusammenfassen größerer Mengen an Informationen zu lösen, die vordergründig darauf basieren, Zusammenhänge zu erforschen und deren Probleme zu analysieren (anstatt lediglich Fakten und Daten auswendig zu lernen). Wie die Londoner Handelskammer betont, müssen wir sicherstellen, dass junge Menschen mit diesen Kernkompetenzen ins Berufsleben starten.

Meine eigene Forschung hat ergeben, dass junge Menschen zum Teil bereits Experten in Sachen Inhaltsverwaltung sind, als Folge ihrer tagtäglichen Interneterfahrung und ihrer heimlichen Schreibstrategien. Lehrer und Dozenten müssen diese Praktiken besser verstehen und erforschen, sowie Gelegenheiten zum Lernen und Beurteilen dieser “schwer zu bewertenden” Fähigkeiten.

Im Zeitalter des Informationsüberflusses müssen Endprodukte der Bildung – also die Klausuren oder die Hausarbeiten – weniger daran geknüpft sein, dass ein Schüler einen “authentischen” Text schreiben kann, sondern an eine digitale Bildung, die sich das Wissen des Netzwerks an Informationen zu Nutze macht, das auf Knopfdruck verfügbar ist.

Dieser Artikel erschien zuerst auf “The Conversation”unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „Google Education Summit 2013“ by txnetstars (CC BY-SA 2.0)


The Conversation

Weiterlesen »

Kann der analoge Bürger durch Digitalisierung noch mündig sein?

Phone (Image: DariuszSankowski [CC0 Public Domain], via Pixabay).jpg

Erst die Digitalisierung ermöglicht den Ausgang aus der selbstverschuldeten Unmündigkeit, von dem Kant vor 200 Jahren geträumt hat. Leider scheinen wir das aufklärerische Potenzial des Netzes im Alltag zu übersehen.

Immer wieder bekomme ich bei meiner Arbeit, bei der es um die Auswirkungen der Digitalisierung auf verschiedene Lebensbereiche geht, von Menschen, die sich als “intellektuell” bezeichnen würden, zu hören, dass neben all den Büchern, Nachrichten und Sitzungen keine Zeit mehr bestünde, um sich auch noch mit diesen sogenannten sozialen Medien zu beschäftigen und dort aktiv zu werden (Deutschland ist das einzige “entwickelte” Land, in dem höher Qualifizierte diese Medien eindeutig weniger stark nutzen als geringer Qualifizierte).

Wenn ich dann erwidere, dass es mir mitnichten um das Posten von Belangslosigkeiten bei Facebook & Co. gehe, sondern um das tägliche Informieren mit Hilfe der im Netz befindlichen Inhalte, blicke ich meist in überraschte oder verständnislose Gesichter. Die Idee, dass das Netz der eigenen Information diene und damit über die Interpretation durch tradierte Gatekeeper hinausgehe, scheint immer noch nicht in den Köpfen angekommen zu sein.

Der Glaube – vielleicht an dieser Stelle ein Spezifikum der Generation jenseits der 40 Lebensjahre – dass das “echte” Wissen nur in den Büchern des Wohnzimmerregals zu finden sei, dass nur dann eine ausreichende Informationsbasis für einen Diskurs vorliege, wenn ich mich durch die 500 Seiten eines gerade angesagten (Sach-) Buches gearbeitet habe, dass erst die Tagesschau ihren “Stempel” auf eine Nachricht gedrückt haben müsse, damit sie akzeptiert werde, dass nur in gedruckten Zeitungen (die ja systembedingt eigentlich immer über das Vergangene berichten) das wahre Leben abgebildet sei, ja dass nur traditionelle informationelle Autoritäten (Forschungsinstitute, Lehrer, Unternehmensleitungen, Minister, Ärzte, Verlage) in der Lage seien, eine (politische, wirtschaftliche, soziale, medizinische) Situation ausreichend kompetent beurteilen könne, ist in der analogen Bundesrepublik noch sehr stark ausgeprägt. So wurde ich im Rahmen einer Session bei der Vorstellung des Mappingprojekts der Wikimedia Deutschland zu Offenen Bildungsressourcen als erstes gefragt, welche Autorität denn die Qualität “überwache” (sic!).

Für eines der tradierten Rituale der analogen Republik steht beispielhaft das Format im Rahmen des ARD/ZDF-Morgenmagazins, in dem nahezu jeden Tag Journalisten eines Papiermediums die Titelblätter der anderen Papiermedien dieses Tages kommentieren. Als wenn der Titel eines Papiermediums stellvertretend für die Meinung jedes einzelnen Mitarbeiters dieser Zeitung stehe, als wenn die fünf bis sechs zitierten Zeitungen auch nur ansatzweise die Vielfalt dieser Republik abbilden könnten.

Hier wirken die pädagogischen Selbstverständnisse insbesondere der Öffentlichen Rechtlichen, die damit ganz einfach die Rituale der Bonner Nachkriegsrepublik nicht abzulegen scheinen wollen, in der es für die politischen Akteure noch maßgeblich gewesen ist, was Redakteur Müller in seinem General-Anzeiger zu einem Punkt der politischen Agenda kommentiert hat. Dieser pädagogische Medienansatz trifft auf passive Mediennutzer, die auf der anderen Seite des Bildschirms aber auch froh darüber zu sein scheinen, dass sie eine vorgefertigte Interpretation frei Haus geliefert bekommen, für die sie keine weitere Arbeit aufwenden müssen.

Dabei würde die regelmäßige Lektüre ausländischer Online-Medien, Themenblogs, Reddit & Co. oder den sozialen Medien schnell zu der Erkenntnis führen, dass die uns vorgesetzten Mainstream-Informationen darüber, wie wir die Welt zu interpretieren haben, weder aktuell, noch nachhaltig oder noch wertfrei sind. Hierbei geht es jetzt nicht darum, den Medien (im weiteren Sinne als Träger von Informationen) eine bewusste Irreführung zu unterstellen. Es geht vielmehr darum, sowohl auf Seiten der Nutzer von Informationen und Medien wie auch auf Seiten der Medienanbieter endlich zu verstehen, dass es einer anderen Form der Vermittlung und des Suchens von Informationen bedarf.

Die Debatte über die zukünftige Rolle von Journalisten und Medien ist dabei ja gar nicht neu. So hatte Glenn Greenwald auf dem Chaos Computer Congress  im Jahre 2013 bereits auf diese veränderte Funktion der Vermittler von Informationen und Interpretationen hingewiesen und ist dafür auch von den tradierten Medien (Die ZEIT sprach davon, dass Greenwald eine “Grenze überschritten habe”. Zum Glück war es nicht der Rubikon.) sogleich gescholten worden. Hauptvorwurf an Greenwald war, dass sich Journalisten an der Maxime der “Objektivität” orientieren müssten und nicht zu “Aktivisten” werden dürften, während Greenwald sehr viel ehrlicher argumentierte, dass es eine solche Objektivität nicht geben könne und dem Leser direkt vermittelt werden müsste, dass der Journalist und Blogger sehr wohl für Werte einstehe und dies auch der Behandlung des Themas einfließen lasse.

Immanuel Kant hatte bereits 1784 mit Blick auf die Aufklärung sein Paradigma des aufgeklärten Menschen formuliert:

“Aufklärung ist der Ausgang des Menschen aus seiner selbst verschuldeten Unmündigkeit. Unmündigkeit ist das Unvermögen, sich seines Verstandes ohne Leitung eines anderen zu bedienen.”

Wird es demnach nach 230 Jahren nicht endlich Zeit, sich seines Verstandes ohne Anleitung eines anderen zu bedienen? Wie soll aber der Gang aus der selbstverschuldeten Unmündigkeit vonstatten gehen, wenn ich mich als Bürger einer Demokratie weiter nur nach den Tagesschau-Nachrichten, den immergleichen Teilnehmern der unsäglichen Talkshow-Formate, der einen lokalen Papierzeitung, der Bestsellerliste des Spiegel, dem seit 20 Jahren gleichen und einzigen Hausarzt, zwei großen Volksparteien, dem seit 10 Jahren regierenden Bürgermeister meiner kleinen Stadt richte? Provokant gefragt: Kann ein solcher analoger Bürger mündig sein?

Erst die Digitalisierung ermöglicht uns seit Jahren Informationen jenseits unseres kleinen nationalen Erkenntnishorizonts; das Angebot, sich jenseits der eigenen Kultur- und Sprachkreisen, der immer gleichen Logik der Volksparteien, der überschaubaren Nachbarschaft der eigenen Kleinstadt, der Wissenshorizonte der eigenen Lehrer an den Schulen zu informieren, wird aber nach wie vor kaum genutzt.

Dabei wird es höchste Zeit, dass sich der Bürger nach alternativen Formen der Informationsvermittlung (eine Meinung kann er sich schließlich selbst bilden) umschaut. Seit Jahren schrumpfen die Auflagen der bekannten medialen Gatekeeper, im englischsprachigen und skandinavischen Ausland sind bereits bekannte Zeitungen als Print-Ausgaben eingestellt worden. Aktuell stehen die TV-Sender am Beginn des Einbruchs ihrer Reichweiten, da der Trend zum Ausweichen auf Netflix & Co. immer stärker an Fahrt aufnimmt.

Readly.de und Blendle.de sind die nächste Schritte dahingehend, dass, wie ehedem die Abschaffung des Konzepts der “Alben” in Folge des iTunes-Modells, auch im Printbereich zukünftig komplette Zeitungen ebenfalls keinen Wert mehr haben werden, sondern der Nutzer aus einem Abo-Paket die für ihn relevanten Inhalte wird ziehen können. Die Schritte von medium.com, LinkedInPulse und Facebook zum Marketplace für News zu werden, sind nur weiterer Ausdruck dieses Umbruchs.

Das in seiner analogen Vergangenheit beständig gefangene Deutschland scheint aber weder auf Nutzer/Leser-Seite noch von Seiten der traditionellen Anbieter von Informationen auf diese Herausforderungen eingestellt zu sein. Was hätte Kant dazu gesagt?

Was kann nun aber getan werden, um die digital beförderte Aufklärung im Kant’schen Sinne weiter zu befördern? Ich persönlich habe gute Erfahrungen damit gemacht, die vermeintliche Informiertheit nach Nutzung der heimischen Traditionsmedien dadurch infrage zu stellen, dass ich auf sehr viel breitere Perspektive nach Lektüre von Online-Medien und sozialen Medien hingewiesen habe. Dass hiermit die Notwendigkeit einer sehr viel stärker eigenverantwortlichen Nutzung von Medien einhergeht ist selbstredend. Ich kann Medien nicht mehr passiv konsumieren, sondern muss mir Gedanken über die Qualität der Informationen, über deren Ausgewogenheit und Ursprung machen. Davon sind wir zur Zeit noch weit entfernt.


Teaser & Image “Phone” by DariuszSankowski (CC0 Public Domain)


Weiterlesen »

Industrie 4.0: Die Informatisierung des Alltags

Activate the world (or what mobile really means) (adapted) (Image by Mike [CC BY 2.0] via flickr)

Die USA und Asien diktieren die Informatisierung des Alltags – in Deutschland redet man lieber über Industrie 4.0. Für Professor Friedemann Mattern von der ETH Zürich war schon im Jahr 2007 klar, dass wir mit der Informatisierung des Alltags einen fundamentalen Wandel in Wirtschaft und Gesellschaft erleben werden. Dahinter steht die Vision von intelligenten Umgebungen und smarten Alltagsgegenständen, die mit digitaler Logik, Sensorik und der Möglichkeit zur drahtlosen Vernetzung ausgestattet ein “Internet der Dinge” bilden, in dem der Computer als eigenständiges Gerät verschwindet und in den Objekten der physischen Welt aufgeht. Neue Technologien ermöglichen eine allgegenwärtige Verfügbarkeit von Informationen und Diensten, in deren Zentrum nicht mehr die Maschine mit ihren technischen Möglichkeiten und Grenzen, sondern der Mensch mit seinen individuellen Anforderungen und Wünschen steht. Der Rechner wirkt nur noch im Hintergrund als unaufdringliche, aber stets verfügbare elektronische Assistenz.


Dieser Beitrag ist Teil einer Artikelserie, die sich im Vorfeld der Konferenz MSFT Explained mit Fragen der Digitalisierung unserer Gesellschaft auseinandersetzt.


Smarte Alltagsgegenstände

Computer waren anfangs raumfüllende Geräte, die viele Millionen kosteten. Erst vor gut 30 Jahren wurden sie so klein und billig, dass sich auch Privatleute einen “persönlichen” Computer leisten konnten. Heute geht es nicht mehr um stationäre PCs oder Laptops, sondern um allgegenwärtige Mikroprozessoren, die wertvolle Dienste in Smartphones, Maschinen und Haushaltsgeräten leisten. Das satellitenbasierte GPS war anfangs nicht für den zivilen oder gar “populären” Einsatz gedacht. Inzwischen stecken Lokalisierungsfunktionen in fast jedem Gegenstand – vom Trekking bis zur Navigation oder der Mitteilung über Reiserouten, Jogging-Strecken und Social Web-Ortsmitteilungen.

Viele Alltagsgegenstände sind ‚smart’, indem sie mit Informationstechnologie zum Sammeln, Speichern, Verarbeiten und Kommunizieren von Daten ausgestattet werden. Sie erhalten so eine gegenüber ihrem ursprünglichen Zweck erweiterte Funktion und damit eine neue, zusätzliche Qualität. Etwa Autoreifen, die den Fahrer benachrichtigen, wenn der Luftdruck abnimmt oder Medikamente, die sich rechtzeitig bemerkbar machen, bevor ihr Haltbarkeitsdatum abläuft. Idealerweise können smarte Dinge nicht nur mit Menschen und anderen smarten Gegenständen kommunizieren, sondern auch erfahren, wo sie sich befinden, welche anderen Gegenstände in der Nähe sind, was in ihrer Umgebung los ist sowie drahtlos auf externe Datenbanken zugreifen und passende Internet-basierte Services nutzen.

Rasensprinkler konsultiert Wetterprognose

Selbst banale Gegenstände erfahren eine Aufwertung. So gewinnt ein automatischer Rasensprinkler nicht nur durch eine Vernetzung mit Feuchtigkeitssensoren im Boden an Effizienz, sondern auch durch die Konsultation der Wetterprognose im Internet.

“Die Lokalisierung von Dingen wird immer einfacher, billiger und genauer machbar. Das ist ein mächtiges Paradigma”, so Mattern. Durch die bessere Beobachtung kann man Probleme früher erkennen und bei Mensch sowie Maschine vorbeugend eingreifen.

Beim “wearable computing” geht es weniger darum, medienwirksame Cyborg-Phantasien oder Jacken mit eingebautem MP3-Player zu realisieren. Viel mehr darum, durch unaufdringliche, ständig verfügbare Sensorik und Kommunikationstechnik dem einzelnen Menschen in persönlicher Weise zu dienen, ihn jederzeit an informationsverarbeitende Dienste im Hintergrund anzubinden, seine Sinne zu schärfen und ihn mit aktuellen Informationen zu versorgen; ihn also sicherer und mächtiger zu machen. “Das sind zwei bedeutende Triebkräfte, die zur Durchsetzung der neuen Technologien führen”, erklärt Mattern. Soweit die theoretischen Erörterungen. Es sind keine Hirngespinste, sondern Tendenzen, die unser Alltags- und Wirtschaftsleben verändern.

4.0-Begriffsgeklingel statt Taten

Deutschland spielt bei diesem Paradigmenwechsel auf der Anbieterseite eine Nebenrolle. Inflationäres 4.0-Begriffsgeklingel und Konferenz-Gerede können nicht darüber hinwegtäuschen, dass wir kaum Unternehmen wahrnehmen, die international in der ersten Liga der Netzökonomie spielen. Deutschland braucht eine Digitalisierungsstrategie, die über die Förderung der produktionsbezogenen Industrie 4.0 hinausgeht und die öffentliche Verwaltung ebenso einschließt wie das Gesundheitswesen, die Bildung und die private Nutzung des Internets der Dinge. So das Credo des “Jahresgutachtens der Expertenkommission Forschung und Innovation”, das ihr Vorsitzender Dietmar Harhoff vom Münchener Max-Planck-Institut für Innovation und Wettbewerb der Regierungschefin Angela Merkel überreicht hat. Die starke Fokussierung der Bundesregierung auf einen relativ kleinen Bereich der Digitalisierung sei nicht zielführend. So werde mit Industrie 4.0 einseitig auf Effizienzsteigerungen bei der Produktionstechnik abgehoben. “Hier bedarf es dringend einer überzeugenden Gesamtstrategie. Die ‚Digitale Agenda‘ erfüllt diesen Anspruch nicht, auch wenn sie eine hilfreiche Sammlung von Analysen und Handlungsnotwendigkeiten liefert”, schreiben die Wissenschaftler.

Start-ups, die mit ambitionierten Geschäftsmodell-Innovationen neue Quellen der Wertschöpfung aufbauen, haben in Deutschland derzeit keinen ausreichenden Zugang zu Wagniskapital und Wachstumsfinanzierung. Die Expertenkommission erneuert ihre Empfehlung, auf die Verbesserung der Rahmenbedingungen für Wagniskapital und die Einrichtung eines Börsensegments für Wachstumsunternehmen hinzuwirken. “Kompetenzen im Umgang mit digitalen Technologien und Geschäftsmodellen sind in der Breite zu fördern – in allen Ausbildungs- und Weiterbildungssegmenten.

Selbst bei Firmenübernahmen spielen Deutschland und Europa keine Rolle

Kritisch sehen die Studienautoren auch die deutsche Informatik, die in weiten Teilen zu abstrakt aufgebaut sei und sich nur mühsam der praktischen Anwendung nähere. Dringend raten die Autoren der Politik, der internetbasierten Wirtschaft sehr viel mehr Aufmerksamkeit zukommen zu lassen. Deutschland habe seine Förderung bisher zu defensiv auf die Erhaltung und Weiterentwicklung seiner klassischen Industrien wie Autoproduktion und Maschinenbau konzentriert: “Die derzeitige Situation ist alarmierend. Deutschland hat nicht nur in den klassischen Informations- und Kommunikationstechnologien in den letzten Jahrzehnten an Boden verloren. Viel gravierender ist, dass deutsche Unternehmen in den neuen Bereichen der digitalen Wirtschaft, in denen Kompetenzen bei der Verwendung IT-basierter Prozesse ausschlaggebend sind, bisher keine Stärken aufbauen konnten. Es sind US-Unternehmen, die die Aktivitäten in der internationalen Internetwirtschaft dominieren.

Allein die Marktkapitalisierung von Alphabet übertrifft die aller deutschen Unternehmen in der gesamten digitalen Wirtschaft. Zu den kapitalstärksten Unternehmen der Internetwirtschaft zählen hierzulande Zalando, United Internet und etablierte Unternehmen wie Axel Springer. Selbst deren Marktkapitalisierung ist im Vergleich zur Gruppe Silicon Valley-Konzerne nur sehr langsam gewachsen. Zu den Anwendungsfeldern, die zur weiteren Expansion der digitalen Wirtschaft führen, zählen Smart Home, Internet der Dinge, neue Formen der Kommunikation wie WhatsApp, Robotik, durch Computer und Datenbrillen erweiterte Realitätswahrnehmung (augmented reality), virtuelle Realität, sowie Mobilität oder Sicherheit. Also alles Aktivitäten, die von kapitalstarken Konzernen der Internetwirtschaft in Asien und USA beherrscht werden. Und selbst bei den Übernahmen, die von diesen Unternehmen ausgehen, spielen Deutschland und Europa eine untergeordnete Rolle.

Bei der Informatisierung des Alltags über das Internet der Dinge spielen wir nur noch in der Kreisliga.


Image (adapted) „„Activate the world“ (or: what „mobile“ really means)“ by Mike (CC BY 2.0)


Weiterlesen »

Digitale Industriegesellschaft – Pfadabhängigkeiten für Aktenknechte

Insturial Building (Image by Unsplash [CC0 Public Domain] via pixabay

Die Software-Industrie hat sich in den vergangenen Jahrzehnten einseitig den Prinzipien des Industriekapitalismus unterworfen und Unternehmen auf Effizienz getrimmt. Das hat sich bis heute nicht wesentlich geändert, kritisiert Wolf Lotter in seinem Vortrag “Arbeiten in der Ablenkungsgesellschaft” auf der IBM Bussiness Connect in Köln. “Wir kommen aus der Fabrikgesellschaft, aus der Industriegesellschaft und denken die Digitalisierung immer noch falsch. Wir organisieren uns in den Routinen der Industrialisierung.”

Aus der industriellen Informationsgesellschaft wurde keine Wissensgesellschaft

Seit den sechziger Jahren verliert die Massenproduktion, die nach den Regeln von Hamsterrad-Taktungen funktioniert, an Relevanz. Eine Antwort, wie wir in der postindustriellen Ära arbeiten werden, sucht das Notiz-Amt vergebens.

Die Industriegesellschaft würde, das stand für die meisten Vordenker dieser Zeit fest, durch die sogenannte Informationsgesellschaft abgelöst werden, die eine Art Übergangsregierung zur Wissensgesellschaft werden sollte, bemerkt Lotter. “Die Informationsgesellschaft war also stets nur als Provisorium gedacht, an dem man lernen sollte, wie man mit der großen Komplexität umgeht, um sie dann, im nächsten Schritt, richtig und gewinnbringend für alle zu nutzen. Was dabei herauskommen sollte, die Wissensgesellschaft, würde viel smarter sein als die Welt der Industrie.”

Daraus wurde aber nichts. Man baut Computer, so wie man schon immer Maschinen baute. Sie verarbeiten Daten schneller und steigern die Komplexität der Anwendungen.

Zwang zur Anpassung an Maschinen

“Man zwingt die Benutzer in einen Zustand kontinuierlicher Anpassung. Heute leiden die meisten unter der antiquierten Idee von Dateien und Verzeichnissen. Viele Benutzer finden die Information nicht wieder, die einmal digital abgelegt worden ist. Aber Paradigmen, die dieses Problem beheben könnten, konnten sich nicht durchsetzen”, moniert Brightone-Analyst Stefan Holtel. “Wir wandeln als Aktenknechte in Pfadabhängigkeiten. Während die Hardware immer besser wurde, blieb das Grundprinzip der Software – die Benutzeroberfläche – in den 1970er-Jahren stehen: Hierarchisches Filesystem, Icons, Desktop-Interface, die Maus, all das wurde in den späten 1970ern von Xerox und Bell erfunden“, so der Informatiker David Gelernter.

Dateinamen für 10.000 Schafe

Wolf Lotter

Das Desktop-Interface wurde nach dem Vorbild des Büroschreibtischs entwickelt: Man sitzt an einem Tisch mit Akten, und es gibt Schubladen und Ordner, in die man sie ablegt. “Die Idee, dass wir jedem Dokument einen Namen geben sollen, ist schlicht lachhaft. Wenn Sie drei Hunde haben, ist das sinnvoll. Besitzen Sie aber 10.000 Schafe, ist es Irrsinn”, bemängelt Gelernter.

Die Informationsgesellschaft sei nach Auffassung von Lotter nicht das Verbindungsglied zwischen Industrie- und Wissensgesellschaft, sondern nur jener “Superindustrialismus”, den der Zukunftsforscher Alvin Toffler in den Siebzigerjahren vorhersah.

“Organisationen, Kultur und Gesellschaft bleiben dabei in den alten Bahnen des Fabrikzeitalters.” Es geht um die Routine-Dressur in den Maßstäben der Industriearbeit. Die Digitalisierung müsste uns aber die Zeit freischießen, um geistig arbeiten zu können. Das komme im öffentlichen Diskurs zu kurz, resümiert Lotter.

Versteht mich die Software?

Um den Status der vernetzten Arbeit festzustellen, reiche eine einfache Frage, so Holtel. “Frage einfach, ob ein Wissensarbeiter sich von seiner Software ‘verstanden’ fühlt. Das ist ein ziemlich zuverlässiger Indikator.”

Eine Maschine darf nicht im Takt interner Regeln und im eigenen Tempo arbeiten – das macht den Anwender zum Befehlsempfänger. Sie müsste im Gleichklang mit den Denk- und Aktivitätsrhythmen eines Menschen ticken. “Dann tritt der Wissensarbeiter in einen wertschöpfenden, kognitiven Dialog mit seiner Denkmaschine und es entsteht auf wundersame Weise eine Symbiose zwischen wissendem Mensch und Wissensmaschine”, erläutert Holtel.

Programmierer sollten sich von liebgewonnen Grundsätzen verabschieden und Software nicht mehr nach den Maßstäben der technischen Machbarkeit konzipieren. Wichtiger sei der gelingende Mensch-Maschine-Dialog. “Das ist, ich gebe es zu, komplizierter zu planen als 10.000 Zeilen Code. Was auch der Grund ist, weshalb es so selten versucht wird”, sagt Holtel.

Kann das jetzt einfach so weitergehen mit der heutigen Art der Computer-Interaktion? Sieht so der Arbeitsplatz aus, an dem Wissensarbeiter bald den Großteil ihres Arbeitslebens verbringen sollten?

Die organisationale und psychosoziale Dynamik von Software müsse von der ersten Sekunde an bedacht werden, fordert Holtel, der auf der Next Economy Open in Bonn am 9. und 10. November über das “Machen uns digitale Assistenten klüger? Spagat zwischen natürlicher Dummheit und künstlicher Intelligenz.


Image „Industrial Building“ by Unsplash (CC0 Public Domain)

Weiterlesen »

World Wide Wahnsinn?

EU Privacy Directive / Changes to UK Internet Cookie Privacy Law (adapted) (Image by Surian Soosay [CC BY 2.0] via Flickr)

Hoffnung oder Unheil? Wenn es ums Informieren im Internet geht, fallen die Urteile stets unterschiedlich aus. Aber einfach nur schimpfen, wie „FAZ“-Mann Mathias Müller von Blumencron, ist auf jeden Fall falsch. Mathias Müller von Blumencron, der „FAZ“-Mann für das digitale Geschäft, sorgt sich in einem Leitartikel seiner Zeitung um die Wahrheit. Eine Wahrheit habe sich in den vergangenen Jahrtausenden wohl durchgesetzt. „Wirklich ist, wo man gerade steht„, so die Blumencron-Erkenntnis. Aber dann kam die digitale Revolution und erschütterte diesen Geist des Pragmatismus. Die unendliche Erreichbarkeit von Wissen mündet nicht automatisch in Wissen – eine simple Wahrheit, die schon beim Besuch einer analogen Bibliothek den Gelehrten klar wurde.

Das Internet als Empörungsmaschine

Das Internet hat aber nach Meinung des FAZlers noch viel mehr bewirkt. Es mutierte in den vergangenen Jahren zu einer gewaltigen Empörungsmaschine, einer Gerüchteschleuder, zu einem Propagandavehikel für jede noch so obskure Theorie: „Die eingebildete Wahrheit verdrängt die Fakten, eine scheinbare Welt die Realität.

Aus einem Medium der Information werde ein Vehikel der Desinformation. Wer suche, der finde für jede noch so abwegige Ansicht eine Theorie. „Es gibt Zehntausende, die glauben, dass die Mondlandung inszeniert worden sei. Es gibt Zehntausende, die glauben, dass die klaffenden Einschlaglöcher im World Trade Center zu schmal für die Flugzeuge gewesen seien, die sie aufgerissen haben. Und es gibt Zehntausende, die glauben, dass die Täter von Paris nicht radikale Islamisten gewesen seien, sondern westliche Islam-Hasser„, schreibt Blumencron. Dieser Glaube sei der Feind von nüchternen Fakten.

Facebook als unüberprüfbare Gerüchteküche

Ausgerechnet in einer Zeit, in der es das Publikum besser wissen müsste, gewinnen allerorten Bewegungen der Unvernunft an Einfluss, die ohne ihre eigenen Informationskanäle im Netz kaum denkbar wären.

Über Jahrhunderte sei es üblich gewesen, dass Informationen einen Absender hatten. Die griechische Agora, der Marktplatz, später die Zeitung, die Radiosender, das Fernsehen, die Website oder ein Blogger „waren“ eindeutig identifizierbare Orte der Information. Mit Facebook als Betriebssystem des Internets sei das nun nicht mehr so, glaubt Blumencron.

Ein Drittel der Amerikaner informiere sich primär über soziale Medien und auch Deutschland würde sich dorthin entwickeln. „Infofetzen fliegen heute vor den Netznutzern entlang wie Herbstlaub im Sturm. Woher sie eigentlich kommen, von welchem Baum sie stammen, ob sie authentisch oder manipuliert sind, ob sie sauber recherchiert oder mehr oder weniger geschickte Propaganda sind, lässt sich immer weniger feststellen. Und es scheint auch eine immer geringere Rolle zu spielen.“ Wichtiger sei der Empfehlende oder der virtuelle Kurator – also der Facebook-Freund, dieser flüchtige Geselle.

Die Algorithmen der Social Web-Plattformen würden das noch über die Filterbubble-Effekte befördern. Man lande mit mathematischen Formeln im Schwarm der Weltverschwörer. Das Internet schütze nicht die Freiheit und gebäre auch nicht die Wahrheit. Aber welche Wahrheit ist nicht konstruierte Realität – egal, ob sie von Profijournalisten, Experten oder Laien kommuniziert wird? Was der besorgte „FAZ“-Mitarbeiter geschrieben hat, klingt wie die vornehme Variante der Klagerufe von Verlegern, die das Mitmach-Web als Toilettenwand des 21. Jahrhunderts deklassieren wollten.

Nach Einschätzung des Soziologen Dirk Baecker ist Blumencron nur darum bemüht, seine eigenen Thesen zu beweisen. Er schleudere Gerüchte (über das Internet), produziere Desinformation (über das Internet) und beweise, dass noch lange nicht jedes Wissen (etwa die Artikel-Weisheiten des FAZlers) der Wahrheit entsprächen. „Alle Formen der ebenso produktiven wie kritischen Vernetzung unter Wissenschaftlern, Familienmitgliedern, Politkern und politisch Bewegten, Gläubigen und Predigern, Käufern und Verkäufern (Endkonsumenten wie Geschäftsleuten) entgehen dem geschätzten Autor„, so Baecker.

Die nicht überprüfbaren Gerüchte des analogen Zeitalters

Das Problem sind nach Meinung des Soziopod-Bloggers Partrick Breitenbach nicht die zirkulierenden Gerüchte und Verschwörungstheorien, denn die gab es vermutlich schon seit Beginn der menschlichen Aufzeichnungen:

Man denke nur an die berühmten ‚Protokolle der Weisen von Zion‘, die gerade durch eine monolithische Medienkultur der gedruckten Wahrheit für eine breite Akzeptanz einer kruden Weltverschwörungstheorie damals bis heute wirkte. Ein Buch hatte entsprechendes Gewicht. Das gedruckte Wort galt zunächst als unantastbar, genoss als Medium hohe Reputation und war natürlich relativ schwer und sehr spät korrigierbar. Die Herausforderungen heute liegen ganz woanders. Gibt es so etwas wie die einzige objektive Wahrheit überhaupt? Kann die Stimme eines einzelnen Experten oder Journalisten die komplexe Wirklichkeit, die wir in Summe als solche wahrnehmen, überhaupt abbilden? Genau diese Erwartungen haben die meisten Leser an ‚ihr Medium‘. Es gibt einen Paradigmenwechsel, den die neue Technologie der Kommunikationsvernetzung angestoßen hat, nämlich die Frage nach der einzig wahren Wahrheit selbst.

Genauso relevant sei die Frage, wie viel Desinformation in der Zeit vor dem Internet unerkannt durchgeschlüpft ist. Schließlich würden sich besonders die aktuellen Verschwörungstheorien auf „alte“ Buch-Quellen berufen.

Die Kunstfertigkeit der gezielten Wirklichkeitsverformung existiert spätestens seit Edward Bernays WerkPropaganda. Auch sie wurde Schwarz auf Weiß im Jahre 1928 gedruckt. Darin beschreibt Bernays als erster namhafter PR-Experte ausgiebig die aus seiner Sicht notwendigen Machenschaften von findigen Public Relation Experten zur aktiven Steuerung einer Demokratie im Sinne von damals herrschenden Eliten in Politik und Wirtschaft.“ Und dabei spielte immer auch die Kriegspropaganda eine große Rolle.

Wenn wir uns das bewusst machen, so sollten wir uns täglich aufs Neue die Frage stellen, ob das Internet, als neue Informationsinfrastruktur, tatsächlich ein Fluch der freien offenen Gesellschaft ist oder vielmehr zugleich auch die Chance beinhaltet, durch ein permanentes Aushandeln, Abgleichen und Korrigieren den Nährboden für totalitäre Machenschaften einiger weniger Mächtigen zu entziehen. Richtig ist jedoch, dass das Tempo und die Dynamik zugenommen haben, in der sich offensichtlich bereits eindeutig falsifizierte Informationen verbreiten. Schließlich besteht auch die traurige Einsicht, dass Menschen schon immer nur das gelesen haben, was sie im Grunde ihres Herzens und aufgrund ihrer Sozialisation am Ende lesen wollten„, erläutert Breitenbach gegenüber The European. Oder in den Worten von Albert Einstein: „Es ist einfacher ein Atom zu spalten als ein Vorurteil.

Journalismus im permanenten Korrektur-Modus

Wir sollten uns eher an den neuen Zustand einer unsicheren Unwirklichkeit gewöhnen und offen sein für einen neuen Journalismus, der nie vollständig abgeschlossen sein wird und stärker denn je auf die Wirkmächtigkeit der Korrektur setzen muss. „Das gedruckte Wort ließ damals weder eine nachträgliche Korrektur noch den Raum für zusätzlich hinzugefügten Kontext zu. Das Internet hingegen hat technologisch jede Menge Raum für genau das. Gerade ältere Artikel müssen kontinuierlich revidiert werden, denn sie sind die Quellen für morgen. Das Korrektiv ist zum Teil der Leser selbst, sie müssen nur einerseits mit glaubwürdigen und vertrauensvollen Quellen und Links versorgt werden und andererseits sicher sein, dass veraltete Artikel immer wieder auch auf Richtigkeit überprüft werden, um gerade den Diskurs im Ganzen entsprechend auszubalancieren“, fordert Breitenbach.

Die konspirativen Facebook-Freunde seien nicht die Ursache für die zirkulierenden Gerüchte und Desinformationen: „Das Vertrauen bröckelt deshalb, weil unterbezahlte und unter Zeitdruck handelnde Profi-Journalisten zunehmend unter den ökonomischen Druck geraten und gezwungen werden, Nachrichten aus Quellen unreflektiert abzuschreiben, um mit dem erhöhten Takt der täglichen ‚News‘ Schritt halten zu können. Zeit für Gründlichkeit ist somit zum wichtigsten Vertrauensgut geworden“, sagt Breitenbach.

Überschätzte Medienkompetenz

Auch der Internet-Berater Christoph Kappes ist umzingelt von Bekannten, die den größten Unsinn und an Verschwörungstheorien glauben. Blumencron verwechsele Ursache und Wirkung, sagt er: „Das Internet ist als Medium oder Container eben der Turbo der Kritik. Kritik wird Standard-Modus und stellt so alles in Frage, was bisher unhinterfragt festzustehen schien. Zusätzlich sind die Barrieren gesunken, so dass das Feld der Anbieter unübersichtlich geworden ist. An Google liegt es jedenfalls nicht, es spiegelt nur die Suchanfragen. Wir haben eben anders als früher nicht nur seriöse Medien, sondern zusätzlich noch Zugang zu den abseitigsten Quellen dieser Welt. Das und der Kritikmodus kann uns den Boden unter den Füßen wegziehen, unser konzeptionelles Fundament.

Aus seiner Sicht sind die Inkompetenz-Phänomene ein Zeichen dafür, dass wir die Medienkompetenz der Menschen überschätzt haben. Für Kappes ist klar, dass es auf diesen sozialen Bedarf auch eine soziale Reaktion geben wird, nämlich die Entwicklung von technischen Lösungen zur Messung und Filterung der Qualitätssignale. „Vielleicht gibt es Reviews, Sterne, neue Aggregatoren, vielleicht stellt Facebook einfach nur seinen Algorithmus um – ich habe da keine Sorge. Klar ist aber, dass die Ansprüche an alle steigen und viele Menschen ihrer eigenen ‚Filteraufgabe‘ nicht gewachsen sind„, resümiert Kappes.

Das gilt wohl auch für die Wahrnehmungen des liebwertesten Gichtlings der „FAZ“. Vielleicht sollte er der digitalen Arbeitsweise des „SZ“-Kollegen Dirk von Gehlen folgen und eine neue Version seines Traktats erstellen.

 Dieser Beitrag erschien zuerst auf The European.


Image (adapted) „EU Privacy Directive / Changes to UK Internet Cookie Privacy Law“ by Surian Soosay (CC BY 2.0)


Weiterlesen »

Die Trends des Monats – Dezember

Tastatur, keyboard, hand, produktivität, trend

Gemeinsam mit der Standortinitiatve der Hamburger Medien- und Digitalwirtschaft, nextMedia.Hamburg, stellen wir euch ausgewählte Trends des Monats vor. // von Lukas Menzel

Tastatur, keyboard, hand, produktivität, trend

Die Medien- und Digitalbranche ist ständig in Bewegung. Fast im Tagesrhythmus gibt es ein neues, innovatives Medienprojekt, ein praktisches Gadget oder ein neues digitales Geschäftsmodell. Wir stellen euch dieses Mal Google Contributor, den intelligenten Homepagebaukasten The Grid, Journalismus auf Plakaten mit Tonic, Informations-Snacks via Vine und Product Placements in E-Books vor.

Weiterlesen »

Weiterlesen »

Was bieten Bing und Google zu den Midterms-Wahlen?

Internet (adapted) (Image by Photo-Mix [CC0 Public Domain] via Pixabay)

In den USA wird Anfang November bei den Midterm Elections gewählt. Dabei konkurrieren nicht nur die Kandidaten, sondern auch die Suchmaschinen um die Gunst der Wähler. Die Vereinigten Staaten gelten als Musterland der politischen Online-Kommunikation. Im Mittelpunkt stehen die Kampagnen, mit denen um Stimmen geworben wird. Da nun keine Präsidentschaftswahlen anstehen, dürfte es aber noch schwieriger werden, die Wähler an die Urne zu bekommen. Dieser Aufgabe widmen sich unabhängig von politischen Präferenzen auch die Suchmaschinen: Mit personalisierten Angeboten wollen sie das Wählen so nutzerfreundlich wie möglich machen. Doch könnte sich gerade die Echzeitberichterstattung über Prognosen zu einzelnen Kandidaten negativ auf die Wahlbeteiligung auswirken.

Auch wenn es in Deutschland kaum wahrgenommen wird: In den USA wird in wenigen Wochen gewählt. Dabei stehen auf nationaler Ebene ein Drittel der Senatoren und das gesamte Repräsentantenhaus zur Wahl. Die Relevanz der sogenannten Halbzeitwahlen resultiert aus der Konstellation der Gewaltenteilung: Einem Präsidenten der Demokraten wird von republikanischen Mehrheiten im Kongress natürlich das Leben schwer gemacht (und umgekehrt). Die Bedeutung des Wahlausgangs für die jeweilige Präsidentschaft dürfte neben den Politprofis inzwischen auch den Zuschauern der Serie „House of Cards“ geläufig sein. Hier bilden die Midterms den Hintergrund der zweiten Staffel und sorgen für Stress bei den Protagonisten im Weißen Haus. Im Mittelpunkt steht dort die Figur des von Kevin Spacey verkörperten Vizepräsidenten Frank Underwood. Die Position des Stellvertreters ist dramaturgisch klug gewählt. Nicht nur steht damit die Möglichkeit einer kurzfristigen Übernahme des Amtes im Raum, sondern bei einem Patt im Senat hat der Vizepräsident dort eine ausschlaggebende Stimme. Eine Konstruktion, die die Gewaltenteilung an einem Punkt des politischen Systems aufhebt und auch das Ergebnis der anstehenden Wahl sowohl in der nächsten Staffel der Serie als auch im wirklichen Leben sein könnte.

Trotz dieser Umstände ist die Wahlbeteiligung bei den Midterms noch geringer als bei den Präsidentschaftswahlen. Dies kann generell mit den Widrigkeiten des Wahlsystems in Verbindung gebracht werden: Es ist notwendig sich registrieren zu lassen um das Wahlrecht auszuüben. Und es muss kommuniziert werden, wer überhaupt mit welchen Postulaten für welche Ämter kandidiert. Eine Antwort auf diese Ausgangslage ist verstärkte Information, und in diesem Bereich haben sich auch die Suchmaschinenbetreiber mit Angeboten aufgestellt.

Ok Google, how do I vote?

Bereits diese Überschrift aus dem Politics & Elections Blog der Marktbeherrscher aus Mountain View zeigt die Marschrichtung an: Es geht um die Suche auf mobilen Geräten. Mit der Ansage “OK Google” wird dort ein Sprachbefehl initialisiert, mit den in diesem Fall standortabhängige Informationen zu den im jeweiligen Bundesstaat geltenden Regelungen erfragt werden. Die Ausgabe erfolgt dann direkt in der Google-Suche-App. Auf einen eigenen Hub, der wahlspezifische Informationen aggregiert, wird verzichtet: Die Adresse „google.com/elections“ führt zu einem Profil des Anbieters in seinem eigenen sozialen Netzwerk Google+. Dort werden vor allem Infografiken, die interessante Konstellationen aus der Nutzung der Google-Suche visualisieren, geposted. Einen weiteren Anlaufpunkt gibt es auf der Google-Plattform YouTube, wo die von Nutzern publizierten Clips in formal (z.B. Wahlspots) und thematisch (z.B. Einwanderungsreform) definierten Playlisten eingeordnet sowie die Video-Kanäle von Medienpartnern wie der New York Times präsentiert werden.

Cutting the Clutter

Unter diesem Claim stellt sich der Konkurrent Bing als „One-Stop-Shop for Comprehensive Election Information“ auf. Die Suche nach Inhalten, die mit den Wahlen assoziiert werden, soll dort in einer eigenen Spalte rechts von den eigentlichen Suchergebnissen einen standortspezifischen “Voter Guide” hervorbringen.

Introducing Bing’s Voter Guide from Bing on Vimeo.

Neben statischen Inhalten akzentuieren die Ingenieure das Erbe des Vorgängers von Bing, der Microsoft-Suchmaschine Live Search. Interaktive Karten sollen den Zugriff auf aktuelle Umfrage-Ergebnisse ermöglichen und am Wahltag exit polls in Echtzeit liefern. Durch die Integration dieser Inhalte in den Voter Guide wird die Personalisierung der Wählerinformation noch weiter getrieben. Nutzern wird nicht nur der Weg zum nächsten Wahllokal gewiesen, sondern gleichzeitig auch vermittelt, ob es auf ihre Stimme überhaupt ankommt. Was, wenn ich bei der Suche nach dem Weg zu Urne direkt angezeigt bekomme, dass mein Favorit haushoch unterlegen ist? In diesem Fall könnte das Angebot sogar negative Auswirkungen auf die Wahlbeteiligung haben und den Wahlakt nicht befördern, sondern die Unterstützer vermutlich unterlegener Kandidaten demotivieren. Ein derart weitgehendes Angebot, das Wähler noch in der Wahlkabine konsultieren können, wirft deshalb auch jenseits simpler Szenarien von algorithmischer Einflussnahme und digitaler Manipulation kritische Fragen auf.

Disclosure: Der Autor hat für politik-digital redaktionell am Google Election Hub für die Bundestagswahl 2013 mitgearbeitet.


Image (adapted) „Internet“ by Photo-Mix (CC0 Public Domain)

Weiterlesen »

Das Zwischenreich

Bisher galten die Natur und die Kultur als unversöhnliche Geschwister der Schöpfung höherer Wesen. Aber in dem vermeintlichen Abgrund lebt eine Subkultur: Die Komplexität und die Emergenz.

Als Kain und Abel ihre Bruderzwistigkeiten ins dramatische Fach verlegten, hatten sie noch keine Vorstellung davon, dass ihre Urenkel Tausende Jahre später den alten Streit noch immer ausfechten müssen. Je nach Bedürfnislage kriegen sich die Streithähne über Ackerland, Vieh, Frauen und seit einigen Jahrhunderten sogar wegen ihrer Götter in die Haare. Und dass, obwohl bis zum heutigen Tag noch niemand einem Gott begegnet ist. Aber auch der Natur und der Kultur hat bis heute noch keiner die Hand geküsst oder ein Haar gekrümmt. Und doch ist das Tischtuch zwischen Geistes- und Naturwissenschaftlern zerschnitten – und zwar mit Gründen…

Weiterlesen »

Weiterlesen »

Was uns wirklich dumm macht

Es ist mal wieder soweit. Die Mahner treten gegen die Wünscher an. Fast wäre ich vor Ermüdung eingeschlafen als ich in der FAZ (wo sonst?) den kritischen Artikel vom eigentlich geschätzten Geert Lovink zum Thema Zeit und Informationsüberflutung via Web las. Da ist die Rede von einem externen Zwang zu Echtzeitplattformen wie twitter und facebook. Da ist auch die Rede von all den Informationen, die zwar nicht das Hirn, aber unsere Zeit vermanschen. Auf die andere Seite der Wünscher haben sich Leute wie Clay Shirky und Jeff Jarvis gestellt und werfen mit ihrer Zuversicht und Hoffnung um sich, dass es nur so Feenstaub regnet…

Weiterlesen »

Weiterlesen »

Studie: Information overload ist Einbildung

Wer die Agitation der Verlagshäuser gegen Anbieter beobachtet hat, die im Netz mit Werbung Geld verdienen, dem ist klar geworden, dass es heutzutage nicht mehr reicht, 30 Journalisten mit den Texten aus sechs Newsagenturen einzuschließen, um jeden Monat Abermillionen in die Schweiz oder auf die Caymans zu schicken. Aber ihr Schlachtruf „Information Overload“, der ertönt noch immer, wenn es darum geht, das Internet als Ganzes zu diskreditieren. In Zeiten, wo Verlage ihre Druckwerke am Flughafen wegschenken, um die Auflage für die Werbekunden künstlich zu beatmen, ist es sinnvoll, einfach mal ein paar Hundert Leute nach ihrem Eindruck zu befragen, wo sie Informationen her bekommen und welche Einstellungen sie sowohl zu den Quellen als auch zu den Informationen selbst gewinnen. Weber Shandwick, eine PR-Agentur, hat so eine Befragung durchgeführt und gleich noch ein paar mehr von den ewigen Wahrheiten zumindest statistisch widerlegen können. Da wäre zum Beispiel die Beeinflussung der Meinungen durch externe Informationsquellen, die bei den jungen Leuten deutlich geringer ist als bei den Baby Boomers. Ein Studie, die in keinem Ordner fehlen sollte!

Weiterlesen »