Wie man „digitale Lauffeuer“ in sozialen Medien überwacht

Am 29. Oktober 2012 wurde New York vom Hurrikan Sandy getroffen. Es war eine Zeit großer Sorge und viele Leute wandten sich an Social Media-Plattformen wie Twitter und Facebook, um Neuigkeiten über Überschwemmungen, Stromausfällen, Schäden und mehr zu teilen und zu sammeln. Während dieser Zeit postete ein Twitter-Nutzer namens @ComfortablySmug eine Reihe von Kurzmeldungen über die Auswirkungen des Hurrikans. Diese beinhalteten Berichte, dass die Börse überflutet war, Manhattan einen kompletten Stromausfall erleben würde, und dass das U-Bahn-System für eine Woche geschlossen sei. Diese Meldungen waren sicherlich erschreckend – aber sie waren schlichtweg falsch.

Trotz fehlender Beweise zu den Behauptungen von ComfortablySmug wurden die Posts bald als Retweets weiterverbreitet und manche wurden als Fakten im Fernsehen aufgezählt. Es dauerte einige Zeit, bis die Behauptungen von den Organisationen widerlegt wurden. Die Verbreitung dieses Inhalts führte zweifellos zu mehr Angst während des Hurrikans.

 

In einem Bericht aus dem Jahr 2013 beschrieb das World Economic Forum die Posts von ComfortablySmug während des Hurrikans als bedrohliches „digitales Lauffeuer“. Diese brechen aus, wenn sich Inhalt, der entweder beabsichtigt oder unbeabsichtigt irreführt oder provokativ ist, schnell ausbreitet und ernste Konsequenzen nach sich zieht. Laut dem WEF-Bericht entsteht das Potenzial digitaler Lauffeuer häufig durch die gegenwärtige Beliebtheit sozialer Medien und durch die Art, wie die Plattformen die Verbreitung und das Teilen von Inhalten ermöglichen. Sie breiten sich besonders in Zeiten von Spannungen rasch aus – zum Beispiel gab es zahlreiche Fälle von nicht verifizierten aufrührerischen Inhalten, die sich nach den jüngsten Terrorereignissen rasch verbreiteten. Ein manipuliertes Bild des Journalisten Veerender Jubbal, ein Kanadier indischer Abstammung, brachte ihn fälschlicherweise mit verschiedenen Terrorakten in Verbindung – sein Bild schwappte nach den Anschlägen in Paris im November 2015 und nach dem Amoklauf in Nizza im Juli 2016 durch das Netz. Die Verbreitung weiterer falscher Gerüchte in Folge des Anschlags in Nizza – zum Beispiel, dass der Eiffelturm brannte, und dass einige Stadtbewohner als Geiseln genommen wurden – veranlasste die französische Regierung dazu, an Nutzer sozialer Medien zu appellieren, dass diese nur Informationen von offiziellen Quellen teilen sollten.  

Es ist offensichtlich, dass digitale Lauffeuer verheerende Konsequenzen für den Ruf von Einzelpersonen, Gruppen, Gemeinschaften und sogar ganzen Bevölkerungen nach sich ziehen können. Inzwischen macht das Tempo, mit dem sich Inhalte verbreiten, es für offizielle Agenturen sehr schwierig, auf diese rechtzeitig zu reagieren: Zu dem Zeitpunkt, an dem die Verbreitung der Inhalte sich verlangsamt oder endet, ist möglicherweise bereits großer Schaden entstanden. Aber was kann getan werden, um die Verbreitung von Fehlinformationen zu begrenzen oder zu verhindern?

Wenn wir akzeptieren, dass digitale Lauffeuer durch die schnelle Verbreitung von irreführenden oder provokativen Inhalte in sozialen Medien massive Schäden anrichten können, können wir ebenso fragen, wie sie verwaltet und gesteuert werden können. Die Auswirkungen dieser „globalen Risikofaktoren“, wie das WEF sie beschreibt, können theoretisch begrenzt werden – die Frage ist nur, wie das geschehen soll.

Eine Antwort darauf ist für einige Gruppen von Belang: Politische Entscheidungsträger, Social Media-Plattformen, Strafvollzugssorganisationen, Erzieher, ganz normale Bürger, Organisationen, die sich gegen sexuelle Belästigung einsetzen und die Nutzer sozialer Medien selbst. Es ist auf alle Fälle ein enorm komplexes Thema.

Zunächst kann es schwierig sein, praktische Lösungen zu identifizieren. Zum Beispiel könnten wir legale Mechanismen in Betracht ziehen, um Individuen für unangemessene Posts zu bestrafen. Jedoch erschwert die weltweite Nutzung des Internets die Rechtsprechung und in jedem Fall würden die legalen Strafen rückwirkend angewandt, was nicht sonderlich dazu beiträgt, die digitalen Lauffeuer in Echtzeit zu bewältigen.

Zudem müssen wir uns mit ethischen Fragen zur Redefreiheit auseinandersetzen. Jeder Versuch, Einzelpersonen davon abzuhalten, Inhalte zu posten oder zu teilen oder ganz extreme Formen zu verbieten, würde wahrscheinlich von vielen Gruppen, auch von der Mehrheit der Social Media Plattformen, als eine nicht akzeptable Begrenzung der freien Meinungsäußerung angesehen werden.

In unserem Forschungsprojekt versuchen wir, Möglichkeiten für verantwortliche Regierungsmechanismen zu identifizieren, die die Schäden aufgrund irreführender oder provokativer Inhalte bewältigen können und zugleich die Redefreiheit schützen.

Seit Beginn der Untersuchungen im Jahr 2014 konzentrierten wir uns auf Selbststeuerung als ein potenziell verantwortliches und effektives Mittel zur Regulierung von Inhalten. Nutzer sozialer Medien würden ihr eigenes und das Onlineverhalten anderer verwalten – zum Beispiel durch Postings, um falsche Informationen zu korrigieren, die Verbreitung von Gerüchten zu verhindern, Hassreden entgegenzustehen und vieles mehr. All das könnte durch weitere technische Mechanismen unterstützt werden. Obwohl es unwahrscheinlich ist, dass Selbststeuerung jemals alleine vollständig effektiv sein wird, und auch ein Risiko des Anprangerns und digitaler Selbstjustiz in sich birgt, kann es in Echtzeit wirken und Massenverbreitung von Posts verhindern, die zu digitalen Lauffeuern führen könnten.

Im Laufe unseres Projektes unternehmen wir rechnerbasierte Modellierungsarbeit, um die Auswirkung selbstregulierender Praktiken auf die Verbreitung von Inhalten zu untersuchen. Wir beschäftigen uns auch mit relevanten Akteuren, um weitere Maßnahmen wie Bildungsprogramme zu beurteilen. Eine Gemeinschaftsbildung im Netz könnte die Selbststeuerung in sozialen Medien fördern, festigen und verbessern, um Bedrohungen durch digitale Lauffeuer zu begrenzen.

Dieser Artikel wurde von Marina Jirotka verfasst, die dabei von ihren Kollegen des Digital Wildfire Projekt Teams unterstützt wurde: Helena Webb, William Housley, Rob Procter, Adam Edwards, Bernd Stahl, Pete Burnap, Omer Rana und Matthew Williams. Obwohl Twitter eine öffentliche Plattform ist, gibt es unter Forscher die Debatte, ob es ethisch vertretbar sei, Tweets in Veröffentlichungen zu benutzen und für ein größeres Publikum bereitzustellen. Die Tweets dieses Artikels wurden nach folgenden Bedingungen ausgesucht: Sie kommen entweder von institutionellen Accouncts, oder sind von Usern, die schon länger als Personen des öffentlichen Lebens zu definieren sind.

Dieser Artikel erschien zuerst auf “The Conversation” unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „Smartphone“ by Christian Hornick (CC BY-SA 2.0)


The Conversation

Schlagwörter: , , , , , , , , ,
Helena Webb

Helena Webb

ist Sozialwissenschaftlerin und erforscht die Interaktion, die Zusammenarbeit und die Organisation in institutionellen Einrichtungen. Sie ist an vielen verschiedenen Projekten beteiligt und benutzt verschiedene qualitative Methoden als Grundlage für die Forschung. In ihrem Doktorstudium an der Universität von Nottingham erforscht sie die Arzt-Patienten-Kommunikation in Adipositas-Kliniken.

More Posts

Prof. Marina Jirotka

Prof. Marina Jirotka

ist Professorin in der Entwicklung von künstlicher Intelligenz, stellvertretende Direktorin des Oxford e-Forschungscenters und wissenschaftliche Mitarbeiterin des Oxford Internet-Instituts.

More Posts - Website - Twitter