Facebooks Algorithmen sorgen für mehr redaktionelle Verantwortung

Die kürzliche Kritik an Facebook für das Entfernen eines Posts, das ein ikonisches Bild eines nackten Mädchens während des Vietnamkrieges zeigte, war nicht das erste Mal, dass Facebook mit dem Vorwurf der Zensur beschuldigt wurde. Und zugleich wird es dafür getadelt, hasserfüllte, illegale oder unangebrachtes Material, zuletzt von der deutschen Regierung, nicht schnell genug entfernt zu haben.

Die schwierige Aufgabe, zu entscheiden, ob man etwas veröffentlicht oder zurückzieht, oblag früher menschlichen Redakteuren für Print-Publikationen, Sendern oder Webseiten. Da heute so viele von uns durch die Seiten sozialer Medien, wie beispielsweise Facebook, Zugriff auf Neuigkeiten und Unterhaltung haben, haben sich die Verhältnisse, die kontrollieren, was wir sehen und was nicht, verschoben. Aber Facebooks zunehmender Einsatz von Computer-Algorithmen bedeutet, dass es mehr redaktionelle Verantwortung erhält und nicht weniger – egal, was das Unternehmen uns glauben machen will.

Facebook ist darauf erpicht, eine Titulierung als Herausgeber zu vermeiden. Das würde dazu führen, dass man durch die Medien und durch die Verleumdungsgesetze verunglimpft werden könnte. Der Gründer und CEO Mark Zuckerberg machte dies kürzlich deutlich, als er Berichten zufolge sagte: „Wir sind eine Technikfirma, wir sind keine Medienfirma [Wir bauten] die Werkzeuge, wir produzieren keinen Inhalt.

Die Betreiber der Sozialen Medien argumentieren damit, dass die Algorithmen, die sie benutzen, um festzustellen, was ein Benutzer sieht, nur Empfehlungen liefern, statt Inhalte zu publizieren, zu entfernen oder zu verändern. Aber wie stark die Seite den Inhalt sichtbar macht, hat einen immensen Einfluss darauf, wie weit dieser sich über die Grenzen des Kontos des eigentlichen Beitragenden hinaus verbreitet. Die Art und Weise, wie Algorithem arbeiten, kann einen ähnlichen Effekt haben wie bei einem Herausgeber einer Zeitung, der einen Artikel für die Titelseite auswählt.

Die Torwächter

Ein Bericht des Reuters-Institut für Journalismus hat herausgefunden, dass soziale Medien und Suchmaschinen als editorische Torwächter agieren, die die Natur und die Bandbreite der Nachrichten verändern, zu denen Nutzer Zugriff haben.

Es gibt keine exakten Parallelen für die neuen, hier identifizierten digitalen Mittelsmänner – die meisten sind keine neutralen „Rohre“ wie ISPs, durch die alle Inhalte des Internets fließen (obwohl Twitter dem nahe kommt); ebenso sind sie keine reinen Medienkonzerne, wie zum Beispiel Sender oder Zeitungen, die stark in kreative und redaktionelle Entscheidungen involviert sind. Aber sie spielen dennoch wichtige Rollen dabei, Informationen auszuwählen und zu verbreiten, was auf ein rechtmäßiges öffentliches Interesse an dem, was sie tun, schließen lässt.

Soziale Netzwerke entgegnen, dass die aussortierten und empfohlenen Inhalte nur wie redaktionelle Urteile erscheinen. Weil es durch Computer-Software und nicht durch Menschen erfolgt, ist das Aussortieren rein objektiv. Die Algorithmen wählen die Resultate lediglich auf eine Art und Weise aus, die darauf abzielt, den Nutzern hilfreiche und nützliche Informationen zu liefern.

Es gibt zwei Hauptprobleme bezüglich dieses Arguments. Erstens sind die Algorithmen oftmals noch nicht komplex genug, um gänzlich ohne die Einbeziehung von Menschen arbeiten zu können. Nach der Anschuldigung der politischen Voreingekommenheit hat Facebook sich kürzlich dazu entschieden, die menschlichen Redakteure seiner „neuen“ Nachrichten-Sektion zu feuern und sie gänzlich durch Algorithmen zu ersetzen. Dennoch war diese Software nicht perfekt und die Facebook-Ingenieure kontrollieren nun die automatisch kalkulierten aufkommenden Neuigkeiten, nachdem verschiedene falsche und sexuell eindeutige Posts beworben wurden.

Zweitens ist die Annahme, dass Algorithmen „neutral“ sind und sich auf logische Entscheidungen verlassen, die völlig frei von Vorurteilen sind, äußerst fehlerhaft. Die Software macht „rationale“ Entscheidungen über relative Vorteile verschiedener Posts, welche auf einer Menge an Werten basieren und welche entscheiden, welche Posts beim Nutzer beworben werden sollen.

Diese Werte müssen von einem Entwickler festgelegt werden oder aus seinen Daten ausgewählt werden, und dies gilt auch für die Art der menschlichen Vorurteile, die in das System miteingebaut wurden. Das bedeutet, dass die Verantwortung für redaktionelle Entscheidungen, die durch ein algorithmisches Werkzeug getroffen werden, noch immer auf den Urheber zurückfallen und auch auf die, die für die Festsetzung der Werte verantwortlich sind (in der Regel die Chefs der Firma).

Die Macht, die mit dem redaktionellen Einfluss, den die Sozialen Medien entwickelt haben, einhergeht, bedeutet, dass die Seiten auch eine öffentliche Verantwortung dafür tragen, was sie ihre Nutzer sehen lassen und was nicht. Wie der Reuter-Report sagt, brauchen wir nun Regulatorien, um die Öffentlichkeit vor einem unzulässigen Einfluss oder Manipulation der sozialen Medien zu schützen. Zum Teil bedeutet das Transparenz. Firmen, die sich mit sozialen Medien beschäftigen, sollten die Kritierien, nach denen sie ihre Neuigkeiten für die Bewerbung auswählen, öffentlich machen. Allgemein gesagt bedeutet das, dass Facebook und andere, ähnliche Seiten die redaktionelle Verantwortung, die sie jetzt haben, ernst nehmen müssen.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image „Facebook“ by Simon (CC0 Public Domain)


Schlagwörter: , , , , , , , , , ,
Ansgar Koene

Ansgar Koene

ist Forschungsbeauftragter an der Universität in Nottingham. Zu seinem Forschungshintergrund gehört biologisch inspirierte Robertertechnik, künstliche Intelligenz und Computer-Neurowissenschaften bis hin zu experimentellen Studien zu menschlichem Verhalten und Wahrnehmungen.

More Posts - Twitter