Maschinen polarisieren unseren Informationskonsum – Genau so wollen wir das!

Ein Artikel, der vor kurzem im American Journal of Political Science veröffentlicht wurde, behauptet, den Beweis dafür gefunden zu haben, dass das Internet eine ständige Polarisation antreibt. Der Artikel basiert auf Daten von 2004 bis 2008, die zeigen sollen, dass Menschen mit besserem Internetzugang größere Mengen an parteiischen Medien konsumieren. Weiterhin geht aus ihnen hervor, dass Menschen, die tendenziell eher voreingenommene Nachrichtenquellen konsumieren, genauso geneigt sind, sich schneller feindlichen politischen Ansichten zu widersetzen.

Die Autoren schließen daraus, dass eine solche Animation, parteiische Medien zu konsumieren, etwa zwei Prozentpunkte höher wäre, wenn alle US-Staaten Richtlinien umsetzen würden, die zu größeren Bandbreiten führen würde. Aber macht uns Internetzugang intoleranter? Sind wir nicht ohne ihn besser dran?

Es gibt gute Gründe, über Veränderungen der Verteilung von Medien für Nachrichten oder deren Unparteilichkeit besorgt zu sein. Allerdings ist eine digitale Ungleichheit nicht die beste Art, sie zu verstehen oder zu messen.

Polarisation und die menschliche Natur

In den Jahren 2004 bis 2008, als die Daten gesammelt wurden, haben US- Amerikaner bewusst die Medien, die sie konsumieren wollten, über Online-Nachrichten-Seiten oder über Suchmaschinen ausgewählt. Es ist also genauso denkbar, dass diejenigen, die ihre Medien in Papierform bevorzugen, die gleiche Verstärkung ihrer Ansichten erlebt haben, wenn sie mehr von den Medien, die sie tagtäglich konsumieren,  erworben haben.

Was diese Untersuchungen uns also zeigen, ist, dass wir gerne mit solchen Dingen konfrontiert werden, durch die wir uns selbstsicherer fühlen. Wie es der Moralpsychologe Jonathan Haidt gezeigt hat, folgt die Polarisierung aus unserer evolutionären Veranlagung – unserem Wunsch, Selbsterzählungen zu schaffen, die größeren politischen Erzählungen entsprechen, um uns gegenüber anderen zu verpflichten: „Die Besessenheit von der moralischen Gerechtigkeit (die zwingend zu Selbstgerechtigkeit führt) entspringt der menschlichen Natur. Sie ist eine Eigenschaft unseres evolutiven Designs, kein Fehler, der sich in den menschlichen Verstand eingeschlichen hat, der sonst objektiv und rational wäre.“

Das Internet ist ein Mittel, durch das wir Selbstgerechtigkeit schaffen. Mit anderen Worten: Es ermöglicht uns nicht, jemand zu sein, aber es ermöglicht uns, sein zu dürfen, wer auch immer wir sind oder wer wir sein wollen. Studien, die sich mit der digitalen Spaltung beschäftigen, zeigen, dass nicht nur die digitale Integration entlang sozioökonomischen Linien verläuft, sondern auch, dass diejenigen mit niedrigerem sozioökonomischem Status weniger wahrscheinlich im Netz nach Chancen suchen, ihre Lebensumstände zu verbessern, wie etwa nach einer Arbeitsstelle oder entsprechender Bildungsangebote im Netz.

Zu erwarten, dass eine stärkere Nutzung des Internets zu einer gleichberechtigteren und toleranteren Gesellschaft führt, widerspricht dem, was wir über die Nutzung des Internets wissen: die Art und Weise wie wir mit dem Internet umgehen entspricht unserer sozialen Welt und unseren Kapazitäten.

Was ist also die genaue Beziehung zwischen einem Internetzugang und einer derartigen Parteifeindlichkeit gegenüber den Medien, wie wir sie gerade erleben? Das Problem, das wir genauer untersuchen sollten, ist nicht unsere eigene Auswahl von Medien oder unsere Parteilichkeit, sondern das, was durch Maschinen dargestellt wird.

Medienethik und Auswahl durch Algorithmen

Heutzutage beziehen vier von zehn US-Amerikanern ihre Medien unter anderem von Facebook. Der Zugang zu Nachrichten über soziale Netzwerke basiert auf einem Geschäftsmodell, das dasselbe Bedürfnis nach Selbstbestätigung ausnutzt, das von Haidt beschrieben wurde.

Um mit dem Getöse des Internets und der Informationsflut umzugehen, hat Facebook Algorithmen entwickelt, die dabei helfen sollen, Informationen auszuwählen und zu ordnen und zwar auf der Grundlage von Likes, Lesezeit, Kommentaren und darauf, wie häufig bestimmte Inhalte geteilt wurden. Im Juni hat Facebook bekanntgegeben, es würde stärker die Inhalte hervorheben, die von Freunden und Familie geteilt wurden. Das bedeutet, Nutzer erhalten eher Informationen direkt aus ihrem eigenen Netzwerk, als direkt von den Nachrichtenportalen.

Nachdem daraus hervorging, dass der einzelne Nutzer solche Medien schneller verbreiten kann, die später auch für andere als beliebt angezeigt werden, hat Facebook betont, es werde den Nutzer aus einem solchen Prozess auskoppeln und das Vorgehen stärker durch die Einbindung von Algorithmen unterstützen. Das Problem ist jedoch, dass so auch gefälschte Artikel zum Verbraucher durchdringen und diejenigen, die große Beliebtheit erreichen, oft genug aus dubiosen Quellen stammen, die eher dazu dienen sollen, Klickzahlen zu generieren, als tatsächlich zu informieren.

Eine Möglichkeit, dieses Problem zu begreifen, besteht darin, die Medienethik derjenigen, die solche Artikel produzieren, zu hinterfragen und neu aufzustellen – nicht die Ethik der Medienkonsumenten. Facebook hat, möglicherweise genau aus diesem Grund, betont, es werde Inhalte weniger priorisieren, deren Überschriften Informationen zurückhalten und beispielsweise auf folgende Weise enden: „…Du wirst nicht glauben, was als nächstes passiert ist.“

Den Algorithmus einfach anzupassen, ist für Facebook natürlich eine einfache Möglichkeit, um auf solche Umstände zu reagieren. Es ist kein Nachrichtenportal, sondern ein soziales Netzwerk und daher vergleichsweise einfach aus dem Schneider.

Wie Tarleton Gillespie von Microsoft Research bereits betont hat, haben Social-Media-Plattformen lange um ihre eigene Unabhängigkeit gekämpft – vor allem, wenn es um ihre rechtliche Verantwortung ging. Allerdings werden sie sich genau wie öffentliche Institutionen verhalten, wenn es ihnen passt, zum Beispiel indem sie Hassreden, fundamentalistische Videos oder Obszönität überwachen. 

Die ideale Interaktion zwischen Mensch und Maschine?

Facebook hat unser eigenes Verhalten – unseren unersättlichen Appetit dafür, was wir bereits selbst glauben, genommen und automatisiert. In dem Buch „Our Robots, Ourselves“ hat der KI-Experte David A. Mindell beobachtet, dass die am weitesten entwickelte Technologie nicht diejenige ist, denen die Menschen am entferntesten gegenüberstehen, sondern solche, die gerade dazu entworfen ist, uns zu helfen,  gerade weil sie in unsere menschlichen Netzwerke besser eingebunden ist und demensprechend viel empfänglicher für menschliche Interaktion ist.

Mindell behauptet, wir sollten unsere Ansichten gegenüber Maschinen ändern: man sollte eher versuchen, zu verstehen, wie man mit ihnen arbeiten kann, als sich vor der Automatisierung zu fürchten. Möglicherweise bedarf es einer Plattform, die es gerade darauf anlegt, unsere bestehenden Ansichten herauszufordern, auf der wir aktiv die entsprechenden Algorithmen kontrollieren können – und zwar in eine Richtung, wenn wir durch transparente aussagekräftige Informationen herausgefordert werden wollen und in die andere Richtung, wenn wir uns selbst eher in Sicherheit wiegen wollen.

Statt aber nostalgisch einer Zeit nachzutrauern, in der die Nachrichtenportale die Auswahl von Informationen für uns vorgenommen haben, könnte die Lösung eher sein, Algorithmen zu entwickeln, die uns dabei helfen, skeptisch zu sein und besser auf andere Auslegungen zu achten.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image „Man“ by Karolina Grabowska (CC0 Public Domain)


Schlagwörter: , , , , , , , , , ,
Ellie Rennie

Ellie Rennie

ist stellvertretende Direktorin am Swinburne Institut für Sozialforschung. Sie beschäftigt sich vor allem mit Medienpolitik und der gemeinschaftlichen Kommunikation mit einem Fokus auf digitale Integration. Außerdem hat sie drei Bücher veröffentlicht.

More Posts - Twitter