Algorithmen und Journalisten: Zusammenarbeit ist Pflicht

Seit die Nachrichten- und Presseagentur Associated Press die Produktion und Publikation von Quartalsberichten im Jahr 2014 automatisiert hat, haben Algorithmen, die automatisch Berichte aus strukturierten, maschinenlesbaren Daten generieren, die Nachrichtenindustrie aufgerüttelt. Die Versprechen dieser Technologie – die oft auch als automatisierter Journalismus bezeichnet wird – sind verlockend: Einmal entwickelt, können solche Algorithmen eine unbegrenzte Anzahl an Berichten zu einem spezifischen Thema und zu geringen Kosten hervorbringen. Und sie schaffen dies schneller, günstiger, mit weniger Fehlern und in mehr Sprachen als es menschliche Journalisten je tun könnten.

Diese Technik bietet die Möglichkeit, mit der Erstellung von Inhalten für sehr kleine Zielgruppen Geld zu verdienen – und vielleicht sogar mit personalisierten Newsfeeds für nur eine Person. Und wenn dies gut funktioniert, nehmen die Leser die Qualität der automatischen News als gleichwertig mit den von Journalisten erstellten Nachrichten wahr.

Als Forscher und Erzeuger von automatisiertem Journalismus habe ich herausgefunden, dass computergestützte Nachrichtenberichterstattung einige wesentliche Stärken zu bieten hat. Ich habe allerdings auch deutliche Schwächen identifiziert, die die Wichtigkeit von Menschen im Journalismus hervorheben.

Die Möglichkeiten der Automatisierung identifizieren

Im Januar 2016 habe ich das „Handbuch zum automatisierten Journalismus“ veröffentlicht, das den Stand der Technik zu dieser Zeit untersuchte. Darin wurden auch Schlüsselfragen für die zukünftige Forschung aufgestellt und potentielle Implikationen für Journalisten, Nachrichtenkonsumenten, Medienkanäle und die Gesellschaft im Ganzen diskutiert. Ich kam zu dem Ergebnis, dass der automatisierte Journalismus sich trotz seines Potentials noch in den Kinderschuhen befindet.

Zum jetzigen Zeitpunkt versorgen Systeme des automatisierten Journalismus vor allem spezielle Zielgruppen unterschiedlicher Größe mit sehr spezifischen Informationen, indem sie beispielsweise Zusammenfassungen von Sportveranstaltungen in unteren Ligen, Finanznachrichten, Kriminalitätsberichte oder Erdbebenwarnungen bereitstellen. Die Technologie ist auf diese Aufgabentypen beschränkt, weil die Informationsarten, die die Systeme aufnehmen und in Texte verwandeln können, die dann für Menschen tatsächlich lesbar und verständlich sind, begrenzt sind.

Am besten funktioniert die Verarbeitung von Daten, die genauso akkurat strukturiert sind wie Aktienkurse. Hinzu kommt, dass Algorithmen nur beschreiben können, was passiert ist – und nicht warum, weswegen sie am besten geeignet sind für routinebasierte Berichte, die auf Fakten beruhen, und entsprechend wenig Spielraum für Unsicherheiten oder Interpretationen bieten, wie beispielsweise Informationen darüber, wo und wann sich ein Erdbeben ereignet hat. Der entscheidende Vorteil von computergestützter Berichterstattung ist, dass sie wiederholte Abläufe schnell und einfach erledigen kann. Daher wird sie am besten eingesetzt, um sich wiederholende Ereignisse abzudecken, für die es erforderlich ist, immer wieder eine hohe Anzahl an ähnlichen Berichten zu produzieren. Dies gilt beispielsweise für Sportveranstaltungen.

Wahlberichterstattung

Ein anderer sinnvoller Bereich für automatisierte Nachrichtenberichterstattung sind Wahlen – im Speziellen im Hinblick auf Ergebnisse der zahlreichen Umfragen, die während der Hauptwahlkampfzeit fast täglich herausgegeben werden. Ende 2016 tat ich mich mit Kollegen aus der Forschung und dem deutschen Unternehmen AX Semantics zusammen, um auf der Grundlage von Prognosen für die US-amerikanische Präsidentschaftswahl in diesem Jahr eine automatisierte Nachrichtenberichterstattung zu entwickeln.

Die Prognosedaten wurden vom PollyVote-Forschungsprojekt bereitgestellt, das ebenfalls die Plattform für die Publikation der produzierten Texte darstellte. Wir etablierten einen vollständig automatisierten Prozess, vom Sammeln und Zusammenführen der Prognosedaten über den Austausch der Daten mit AX Semantics bis hin zur Texterstellung und Publikation dieser Texte.

Im Laufe der Wahlsaison veröffentlichten wir fast 22.000 automatisierte Nachrichtenberichte in englischer und deutscher Sprache. Da diese einem vollautomatisierten Prozess entstammten, gab es in den finalen Texten oft Tippfehler oder fehlende Worte. Wir mussten außerdem deutlich mehr Zeit als angenommen für die Fehlerbehebung aufwenden. Die meisten Schwierigkeiten entstanden auf Grundlage von Fehlern in den Quelldaten. Sie waren also nicht durch den Algorithmus begründet – was eine weitere, wesentliche Herausforderung für den automatisierten Journalismus unterstreicht.

Die Grenzen identifizieren

Der Entwicklungsprozess unserer eigenen textgenerierenden Algorithmen hat uns aus erster Hand die Potentiale und Grenzen von automatisiertem Journalismus aufgezeigt. Es ist unerlässlich, sicherzustellen, dass die Daten so akkurat wie möglich sind. Es ist einfach einen Prozess zu automatisieren, der aus einer singulären Sammlung von Daten einen Text erzeugt, wie beispielsweise die Ergebnisse einer einzigen Umfrage. Aber Einblicke zu liefern, wie zum Beispiel eine Umfrage mit Ergebnissen einer anderen Umfrage zu vergleichen, ist deutlich schwerer.

Die vielleicht wichtigste Lektion, die wir gelernt haben, war, wie schnell wir die Grenzen der Automatisierung erreicht hatten. Als wir die Regeln entwickelten, aufgrund derer der Algorithmus Daten in Text verwandeln sollte, mussten wir Entscheidungen treffen, die auf den ersten Blick einfach erscheinen mögen – zum Beispiel, ob die Strategie eines Kandidaten als „groß“ oder „klein“ beschrieben werden soll, und welche Signale nahelegen, dass ein Kandidat in einer Umfrage an Boden gewinnt.

Die Arten der subjektiven Entscheidungen waren sehr schwierig in vordefinierte Regeln umzuformulieren, die auf alle Situationen, die in der Vergangenheit aufgetreten waren, anwendbar sein sollten – geschweige denn auf Situationen in der Zukunft. Ein Grund ist, dass der Kontext relevant ist: Ein Vier-Punkte-Vorsprung für Clinton im Vorfeld der Wahl beispielsweise war normal, während eine Vier-Punkte-Führung für Trump eine große Nachricht gewesen wäre. Die Fähigkeit, diesen Unterschied zu verstehen und die Zahlen entsprechend für die Leser zu interpretieren, ist unabdingbar. Es bleibt eine Hürde, die Algorithmen nur schwer überwinden können.

Hingegen werden es menschliche Journalisten schwer haben, die Automatisierung zu übertreffen, wenn es um wiederholte und routinebasierte Nachrichten geht, die auf Fakten beruhen, die lediglich einer Überführung der rohen Daten ins Schriftliche bedürfen, so wie Sportveranstaltungen oder die Quartalsberichte eines Unternehmens. Algorithmen werden schneller Anomalien in den Daten feststellen und zumindest erste Entwürfe für viele Berichte generieren können.

Doch für die Menschen ist nicht alles verloren. Journalisten haben eine Menge Möglichkeiten, Aufgaben zu übernehmen, die Algorithmen nicht bearbeiten können, wie beispielsweise die Zahlen im Kontext zu betrachten – sowie die Bereitstellung detaillierter Analysen, Hintergrundberichte und Interviews mit wichtigen Persönlichkeiten. Diese zwei Typen der Berichterstattung werden zukünftig wahrscheinlich eng integriert sein – mit den Computern, die ihre Stärken nutzen, und uns Menschen, die wir uns auf unsere Stärken konzentrieren.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „Apple“ by Pexels (CC0 Public Domain)


The Conversation

ist Stiftungsprofessor an der Macromedia Universität in München. Er studierte Wirtschaftswissenschaften und Informatik an den Universitäten Regensburg und Zürich und promovierte in Wirtschaftswissenschaften an der Universität in Karlsruhe.


Artikel per E-Mail verschicken
Schlagwörter: , , , , , , , , , , ,

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert