Publiziere oder stirb!

In den Wissenschaften wird das Problem schon lange diskutiert: Wer nicht publiziert, hat keine Chance etwas vom schrumpfenden Kuchen der akademischen Existenzsicherung in Universitäten und Forschungseinrichtungen abzubekommen. Also werden die Fachzeitungen mit Artikeln geradezu bombardiert. Peer Review, das fachlich versierte Drübersehen von Kollegen zur Qualitätssicherung, ist weder in der Lage, die Mengen angemessen zu beurteilen noch gibt es überhaupt objektivierbare Gründe, eine Veröffentlichung gutzuheißen oder zu verneinen – abgesehen von offensichtlich falschen Annahmen oder Ergebnissen bzw. lächerlichen Forschungsmethodiken.

Aber da liegt der Hase schon im Pfeffer: Was heute lächerlich sein mag, kann morgen zum traditionellen Kanon eines Fachbereichs gehören. Und wo liegen die Perlen in der inflationären Forschungsproduktion? Analog dazu verhält es sich mit Texten im Netz. Immer mehr beruflich oder privat ambitionierte Schreiber verfassen immer mehr Buchstabensalat. Aber wer soll das alles essen und vor allem – warum? Ist Google ein gelungenes Werkzeug Peer Review zu simulieren?

Bei jeder größeren Konferenz wird klar, dass die Besucher nur noch kommen, um sich selbst zu feiern. Die meisten Vorträge sind nur noch Anlass und nicht mehr Ziel eines Besuchs. Diese narzisstische Art von Inhaltekonsum hat den tiefsten Niederschlag bei sozialen Netzwerken aller Art. Wert erhält dort die viel gerühmte Resonanz eines Texts. Inhaltliche Diskussionen finden vielleicht noch bei Google+ statt, aber schon bei Facebook ist zu beobachten, dass meistens nur noch ein Abdrücken des eigenen Senfs stattfindet. Mehr kann man auch gar nicht mehr schaffen.

Bevor also die Schirrmachersche Gehirnvermanschung eingetreten ist, sind bereits jetzt allerorten Ermüdungserscheinungen sichtbar. Im Bereich der Wissenschaften ist das Hamsterrad so schnell geworden, dass oft nur noch zerhäckselter Dung in der Gemeinschaft der Forscher ankommt. Kleinstelemente aus den abstracts. So als würde man ein umfassendes White Paper nur noch in der Art lesen, dass man nur den allerletzten Absatz der executive summary an seine grauen Zellen lässt.

Hier von einem Zeitproblem oder Vereinfachung zu sprechen, greift zu kurz. Denn genauso wie beim wissenschaftlichen Publizieren ein falscher abstract-Text eine akademische Karriere ruinieren kann, so kann auch im Netz die Geschmeidigkeit eines Texts über innere Schwächen hinweg täuschen. Dass im Gegenzug die Qualitätsmedien gern einen verquasten Stil pflegen, um Bildung und damit Seriösität zu simulieren, kann nicht zufrieden stellen.

Denn es geht gar nicht darum, dem Leser Zucker um den Mund zu schmieren. Es geht darum, eine Aussage zu formulieren, die vorher gar nicht oder noch nicht mit dieser Perpektive formuliert wurde. Dann übrigens findet auch Google den Text irgendwann toll. Zumindest wenn er im Web besprochen und verlinkt wird. Den Search Engine Optimization heißt eigentlich Human Attraction Optimization. Der Algorithmus von Google basiert nämlich auf Soziometrie. Es geht dort um die Darstellung der Beziehungen zwischen Menschen und wie gut sie in einer Gruppe integriert sind. Gute Texte erkennen Menschen wie auch Algorithmen daran, dass sie breit diskutiert werden. Google bewertet sogar die Autoren, die sich auf einen Text beziehen. Wenn man noch einen Schritt weiter geht, dann wird die Güte eines Autors daran gemessen, welchen Einfluss er auf andere Texte ausübt. Und da hilft einem Text eben nur Originalität der Gedanken. Ein Herumschrauben an Schlüsselwörtern im Netz, ein Aufpolieren von Texten mit Elementen der humanistischen Bildung auf Papier helfen da rein gar nichts. Sie sind Schmuck am Nachthemd, oder um es mit den Worten des berühmten Philosophen Jörg Wittkewitz zu sagen: Es sind eingebildete Geländer an einer sehr steilen Treppe.


 


Jörg Wittkewitz

  ist seit 1999 als Freier Autor und Freier Journalist tätig für nationale und internationale Zeitungen und Magazine, Online-Publikationen sowie Radio- und TV-Sender. (Redaktionsleiter Netzpiloten.de von 2009 bis 2012)


Artikel per E-Mail verschicken
Schlagwörter: ,

3 comments

  1. „Gute Texte erkennen Menschen wie auch Algorithmen daran, dass sie breit diskutiert werden.“

    Diese Formulierung lässt darauf schließen, dass die Textüberprüfung, der Test auf Originalität, Individualität und Attraktvität, zunehmend maschinell geschieht, weil die Textmengen keiner mehr im Detail lesen kann. Könnte das auf die Paradoxie hinauslaufen, dass maschinenlesbare Texte dann am besten sind, wenn ein Mensch, will er sie verstehen, sich von der Maschine Vorschläge, Hinweise, Interpretations- und Orientierungshilfen geben lassen muss, um selbst Texte zu schreiben, die so geschrieben sein müssen, dass sie wiederum für eine Maschine gut lesbar sind? Menschen schreiben dann nicht für Menschen, sondern für Maschinen, welche dann wieder darüber Auskunft geben, ob die Texte den Test auf Attraktvität bestanden haben.
    Warum dann nicht gleich dazu übergehen, Texte maschinell zu schreiben und sie von Maschinen lesen zu lassen? Die Wissenschaft hätte dann nur Aufgabe, entsprechende Algorithmen zu schreiben, damit das gut gelingen kann. Das Werk wäre dann der Algorithmus und der Text nur die Referenz. Heißt das nicht, dass eigentlich nicht die Texte urheberechtlich geschützt werden müssten, sondern die Algorithmen?

    1. Naja, Algorithmen tun nix Anderes als das zu kalkulieren, was deren Schöpfer als Entscheidungsbaum in einem menschlichen Gehirn imaginieren. Wenn also mittels Soziometrie die Verbindungen zwischen Menschen und ihren Handlungen übertragen wird auf Autoren und ihre mentale Exkrementik, dann haben wir ein funktionierendes Analgon. Das Werten von Text ist eine hinreichende Bedingung, um Text zu qualifizieren. Digital vorliegender Text ist immer maschinenlesbar. Die Frage ist, wann der maschinenverstehbar wird. Denn ohne Lernmenge kann kein Algorithmus sinnvoll klassifizieren. Am Anfang steht also noch immer der MEnsch. Diese Anfangsbedingungen bestimmen fast alles. Natürlich werden Algorithmen in Software maskiert, damit sie nicht per reverse engineering nachgebaut werden können. Manche sind offen und bekannt. Aber der von Google ist praktisch deren Cola-Rezept. Wenn das entweicht, dann ist Google ein „pin in the air“. Das Problem an wissenschaftlichen Texten ist ja vielmehr der Prozess vor der Erstellung: Das Experiment oder die Umfrage und deren Analyse. Wenn man will, kann man bestimmte Experimentaufbauten als Algorithmus bezeichnen und den Text eben als Metadaten dazu, damit Menschen den Prozess beschreiben können. Dann ist die Referenz, also as Bezugssystem jedoch die nächsthöhere Instanz. Und die ist seit Descartes die Dualität von Subjekt und Objekt. An der kranken seit dieser Zeit alle fortfolgenden Versuche Natur zu beschreiben. Aber das ist eine ander Geschichte. Mein Buch dazu würde heißen: „Als den Menschen der Gott der Objektivät verloren ging, erschlugen sie das blind umher irrende Subjekt aus Mitleid.“

  2. „das zu kalkulieren, was deren Schöpfer als Entscheidungsbaum in einem menschlichen Gehirn imaginieren“, welch ein Unsinn aus dem Vorstudium für Informatiker.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.