David Gelernter: Das Web als Strom


Da schau her, eben noch als Counterpart zu Schirrmachers Thesen auf der DLD im Panel “informavore”, heute schon assimiliert in der FAZ bzw. der FAS, der Boulevardausgabe der Frankfurter. Die Verdauung der Ansichten scheint eher einem Schlingen denn genüßlichem Kauen zu ähneln. Worum geht es? In seinem Buch versuchte Schirrmacher das Verhältnis des Menschen zu den digitalisierbaren Informationen, die aus ihm entweichen und in ihn eindringen, zu dokumentieren. Er fokussiert dabei auf die Organisation dieser Informationen, die sich seit Jahr und Tag die Informatiker quasi per Berufsbezeichnung auf die Fahnen geschreiben haben. Schirrmacher folgt ihnen darin und erweitert dieses Feld auf das Internet als Marktplatz und Informationsmaschinengewehr. Im Grunde fordert er einen Waffenschein für diese automatischen Buchstabenwaffen und stößt dabei oft auf Zustimmung manchmal aber auch auf Ablehnung.

Nun, Schutz der Privatsphäre ist für das Informations- und Wissenszeitalter, was Umweltschutz für das Industriezeitalter war. Es stört die Firmen beim Ausbeuten der (fast) kostenfreien Ressourcen, die zur Verfügung stehen. Es müsste sowohl Gelernter als auch Schirrmacher klar sein, dass allein die Wissenschaft täglich ganze Fantastillionen Informationseinheiten mehr produziert als gespeichert werden – die Naturwissenschaften mit ihren massiven Messapparaten sind an dieser Flut von Daten, die täglich ins Nirwana gekippt werden, nicht ganz unschuldig. Wer entscheidet also, welche Daten es wert sind, aufgehoben zu werden? Algorithmen? Wohl kaum.

Wenn dies das Informationszeitalter ist, worüber sind wir dann so gut informiert? Was wissen unsere Kinder, das unsere Eltern nicht wussten? Natürlich wissen sie mit ihren Computern umzugehen, aber das ist eine leichte Übung etwa im Vergleich damit, Auto zu fahren. David Gelernter

Diese Frage beinhaltet denselben Kategorienfehler, dem auch schon Schirrmacher erlegen ist. Es geht um ethische und ästhetische Fragen wie “gute” oder “erhabene” Datenakkumulation als Mehrwert einer Technologieplattform namens Internet. Sie glauben beide, dass das Netz den Überschuß produziere und dazu sei laut Schirrmacher so etwas wie Aufmerksamkeit das agens. Dabei war der Computer das Hilfsmittel, dass man erfand, um den enormen Anstieg an Daten, der durch die Arbeitsteilung in der Industrie entstand (Planung und Verwaltung der Ressourcen) irgendwie zu bändigen, ohne mehr Verwaltungsangestellte als Produktionsmitarbeiter zu haben. Dann folgte die Inflation der Physikdaten in den Experimenten durch neue Messgeräte, die ihrerseits wieder durch Speichermaschinen, die aus der Geschäftswelt kamen, beherrscht wurden.

Das Neue am Internet ist also vielmehr die Tatsache, dass man den Computer nicht einfach nutzt, um Datenberge abzuspeichern und per Datenbank zu katalogisieren, sondern man nutzt mit dem Web den PC als Mittel, eigene Daten aus dem persönlichen Umfeld ins Netz und damit der Welt zur Verfügung zu stellen. Man schreibt selbst und teilt es umgehend allen mit, die es mitlesen wollen. Diese kommunkative Seite wird weder bei Gelernter noch bei Schirrmacher als Chance gesehen, sondern als Informationsflut zweiter Ordnung, weil sie ja keinen offiziellen Grund hat. Man kann also nicht wie beim Large Hadron Collider in der Schweiz täglich Petabyte an Daten in der Orkus schicken, weil keiner einen Überblick hat, was alles an Daten entsteht – außer Google und Microsoft/Yahoo Bing.

Es schwingt also immer ein leichtes Unbehagen am Kontrollverlust mit, wenn man solche intellektuell gemeinten Texte über das Netz und das Informationszeitalter liest. Sie erklären nicht, warum die Gefahren des Internet so breit verteilt sind und gleichzeitig die Gewinne so derart stark konzentriert werden.

Und so verfährt auch Gelernter in dem alten Schema des Oberlehrers, dass wir via Textverarbeitung mehr schreiben aber nicht besser. Auf den ersten Blick fällt auf, dass hinter diesem Allgemeinplatz entweder eine sehr dumme Erwartungshaltung steht (fahre ich mit dem neuen Auto besser?) oder aber eine grundsätzliche Angst einfach nur eine Rationalisierung gefunden hat (Alle fahren so neue Autos – ob die wirklich besser sind als mein altes, die haben doch auch nur 4 Reifen und ein Lenkrad?). Übrigens glaube ich nicht, dass Textverarbeitungen dazu geführt haben, dass wir mehr schreiben (Belege fehlen). Wenn überhaupt, lag das an der Einführung von E-Mail als schnellem und unkompliziertem Postwesen.

Und dann wird der Kategorienfehler von Schirrmacher und Gelernter offen angesprochen:

Aber es war immer schon schwieriger, die passende Person zu finden als die passende Tatsache. Die wertvollste Ressource, die im Internet zur Verfügung steht, ist die Erfahrung und das Wissen von Menschen. Selbst heute, wo uns das Schreiben leicht gemacht wird, wissen die Experten so viel mehr, als sie jemals schriftlich festhalten. David Gelernter

Ich erinnere mich noch an den unseligen Titel einer brandeins Ausgabe zum Thema Wissen (Wissen ist der erste Rohstoff, der sich bei Gebrauch vermehrt). Wissen oder gar Erfahrung sind keine Ressourcen. Letztere werden in Einheiten eingekauft, gelagert und dann dem Wertschöpfungsprozess zugeführt, wo sie unter Anwendung von manueller oder geistiger Arbeit zu einem Produkt veredelt werden. Genau dieses Veredeln der Ressourcen ist unter anderem im handwerklichen Geschick, im Wissen selbst und in der Erfahrung begründet. Im Internet aber steht davon nichts. Das Wissen entsteht im Menschen aktuell und individuell angesichts von Herausforderungen, Gelerntem und Erinnertem. Wer Wissen speichern will kann das tun: Er muss einfach nur Feuer kochen und Fische anhalten können. Wenn man das beherrscht kann man sich an höhere Aufgaben wie das Hören hören oder das Denken denken machen. Erst dann kann man versuchen individuelle und einmalige Zustände, die nur in der Zeit stattfinden, aus ihr heraus zu lösen und in einer weiteren Komplexitätsstufe, diese dann in einem universalen Medium zu speichern.

Das Internet ist voller gesammelter Daten, die eine Beobachtung dokumentieren und voller Meinungen der Nutzer. Google war nach Kenneth Culkier (s.u. das Interview vom economist) die erste Firma, die aus den Daten über die Datennutzung (Logdaten der Suchvorgänge) und mittels einer Mustererkennung über diese Suchgewohnheiten neue Einsichten erreichten. Culkier nennt das Beispiel der Falschschreibungen bei der Sucheingabe, die über die Zeit eine enorme gute Fehlerkorrektur ermöglichte, sodass man auf dieser Basis die bestmögliche Rechtschreibkorrektur für Dutzende Sprachen verkaufen könnte. Oder das Loggen der Seiten, die man aufgrund eines bestimmten Suchbegriffs aufsucht bzw. eben nicht aufsucht. All dies ist eine Information zweiter Ordnung, die vorher nicht möglich war, da Firmen und Nutzer das Verhalten der Menschen beim Umgang mit Dokumenten und enthaltenen Informationen nicht speichern wollten oder konnten – außer Firmen, die schon immer alles über ihre Kunden wussten wie Direktvertrieb oder der Versandhandel, der aber selten und nur extensiv Gebrauch davon machte und nicht ein ganzes Geschäftsmodell darauf aufbaute. Kurz: Google ist seine eigene Marktforschung ohne Probanden – dafür mit dem echten Leben und in direkter Abbildung aller aktuellen Trends. Klar, das Verlage so ein Herrschaftwissen verachten, es basiert nicht auf copytests sondern auf dem echten Verhalten echter Kunden.

Gelernter erkennt auf eine ebenso falsche wie einseitige Weise die Informationsflut. Er nutzt das übliche Modell aus der Nachrichten/Informationstheorie, das eigentlich den ganz jungen Studenten und Elektrikerazubis den Strom erklären soll, der von der Quelle zum Ozean fließt. So erklärt man den Unterschied zwischen Spannung und Stromstärke durch Rohre aus denen Wasser schießt, wobei dann die Stärke, die maximale Menge des Wassers ist, das pro Sekunde durch einen Teil des Rohrs fließt, also sozusagen der Rohrdurchmesser, und die Spannung enspricht dann dem Gefälle.
Wenn man nun bei Information oder gar Wissen von Quellen und Mündungen spricht, muss man das Bild zu Ende führen. Dann wären die Konsumenten und Leser aber genau das, was man als Verwässerungseffekt bezeichnen könnte. Denn im Ozean verdünnt sich die Information recht schnell, genau wie irgendwelche Dinge, die man in einen Bach kippt. Das von Schirrmacher so ausführlich beschriebene Syndrom der Informationsflut und der einhergehenden Übermacht an Aufmerksamkeitsräubern wäre auf diese Weise nicht erklärbar. Tatsächlich ist das Bild also irreführend. Denn jede Information verändert nur dann den Menschen, wenn sie eine Differenz darstellt. Was keinen ausreichend großen Unterschied ausmacht, ist auch keine Information und wird als solche einfach nicht erkennt bzw. verarbeitet. Und die erhöhte Schlagzahl an Mitteilungen per twitter, Blogs oder Kommentare ist einfach nur ein Zeichen der breiteren Teilhabe an öffentlich geführten Gespräche, die aber zum geringsten Teil für die Öffentlichkeit bestimmt sind. Oft sind sie so privat, dass sie nur von wenigen überhaupt als Differenz erkannt und eingeordnet werden können.

Maschinentheoretiker und die Adepten der mechanisierten Welt bezeichnen diese Indifferenz als Rauschen. Offenbar ist ihnen nicht klar, dass Relevanz ein Dreisprung aus persönlicher Geschichte, persönlicher Erwartung und dem externen Angebot darstellt. Die Flut ist also nur für den eine Flut, der alle im Netz verteilte Information in einer Hyperneurose auf sich selbst bezieht. Dies ist wahrlich krankhaftes Verhalten. Aber die Ursache liegt weder im Netz, noch bei Google oder anderen Beteiligten im großen Prozess des ewigen Umherschaufelns von Information. Und dann kommt noch mehr Naivität oder gar fahrlässiger Unsinn ins Spiel:

Virtuelle Universitäten sind eine gute Sache, virtuelle Nationen nicht. Virtuelle Nationen, deren Angehörige irgendwo leben können, solange sie übers Internet miteinander verbunden sind, drohen die Menschheit wie eine Glaskugel in tausend tödliche Splitter zu zerbrechen. Von virtuellen Nationen haben wir bereits eine erste Vorstellung bekommen: Al Qaida hat sie uns vermittelt. David Gelernter

Was für ein Unsinn ist das? Es gibt Lesungen und Seminare, die als Kommunikationsmittel und gemeinsame Plattform des mündlichen und schriftlichen Erarbeitens das Web in derselben Weise nutzen wie die mittlerweile völlig überfüllten Hörsäle mit der Ergänzung einer speicherbaren Kommunikation. Man kann so thematisch und in einem überschaubaren Kreis ein Seminar effektiv und übersichtlich zu einem Ende bringen, wobei offline-Treffen eigentlich unabdingbar sind. Auch Videokonferenzen sind nicht das Allheimittel für nonverbales Einschätzen und Kennenlernen. Es gibt also nur virtuelle Seminare, die sogenannten virtuellen Unis haben sehr wohl manifeste Verwaltungen und normale Einstellungsgespräche oder Inkassoverfahren für das Eintreiben der Gebühren. Es ist also sehr wohl möglich, die Elemente der demokratischen Organisation von Bürgerbeteiligung aus den Parteien in bestimmte Onlineverfahren zu überführen. Dadurch werden die Ministerien und Botschaften nicht obsolet oder gar 100% virtuell. Gelernter verwechselt hier die Kontakt- und Austauschplattform mit den Institutionen. Al Qaida hat ohne lokale Institutionen vor Ort wie Finanzverwalter, lokale Organisatoren und Meetings gar keine Chance zu existieren. Das Netz ist nur einer der Wege um gemeinsames Handeln zu koordinieren. Früher hatte man eben nur die gseprochene Sprache per Funk oder Telefon sowie die langsamen Briefe, heute findet alles in einer Plattform statt und heißt Kollaboration. Der französische Widerstand im zweiten Weltkrieg ist genauso Schuld an Al Qiada wie das Web. Dezentrale Strukturen sind eben den zentralisierten überlegen, das war schon vor dem Siegeszug des Web klar. Diese Dinge zu vermischen ist schlicht einfältig.

Und kaum hat Gelernter diesen Aspekt des Web, also den Austausch von Meinungen zu einem gemeinsamen Handeln kurz gestreift, wendet er sich wieder der Speicherebene zu und singt eine Hohelied auf die Wolke (Cloud) als tollstem aller Speicherverfahren. Er kennt offenbar nicht die Problematik, dass bei virtuellen Maschinen der Datenaustausch nicht mehr über das Netzwerk läuft (das überwacht wird) sondern direkt vom virtualisierten Webserver auf die virtualisierte Datenbank stattfindet und daher nur mit sehr wenigen Anbietern überhaupt absicherbar und kontrollierbar ist. Denn und das schreibt Gelernter auch nicht, das Mitloggen jedes Zugriffs auf eine Datenbank kann sich außer Google keiner leisten. Die Firmen verbieten den Datenbankherstellern sogar diese Sicherheitsmaßnahme, da sie die Datenbanken extrem langsam macht. Die Probleme liegen also keineswegs in einem virtuosen Können der Informatiker sondern viel eher in deren bescheidenen Künsten bzw. den Sachzwängen der Fachabteilungen.
Und dann stößt Gelernter im FAZ-Text wieder in das Horn des Informationsflusses (Quelle-Mündung)

Alle diese Ströme oder Flüsse sind Spezialfälle jener digitalen Struktur, die wir Mitte der 1990er Jahre als „Lebensstrom“ bezeichneten: ein Strom von digitalen Dokumenten jeglicher Art, die nach ihrer Erstellungszeit oder nach ihrem Eingang sortiert sind und sich in Echtzeit verändern; ein Strom, den man durchsuchen oder „fokussieren“ kann. David Gelernter

Das Kategorisieren anhand der Zeitleiste funktionierte schon bei E-Mails als probates Mittel der Ordnung – auch und gerade mit Filterbegriffen, die eine thematische Ordnung oder ein Trennen von privatem und beruflichem erlauben. Warum soll das also im modernen Echtzeitweb anders sein. Waren E-Mails nicht Echtzeit? Das Thema ist doch eher, das das alte Echtzeitweb nur an einen oder einige Empfänger gerichtet war und moderne Tools, wie twitter, tumblr oder posterous viele Leute und viele Meinungen untereinander vernetzen ohne Ansicht der starken oder schwachen Bindungen die sie haben könnten. In den sozialen Netzwerken sind die Statusmeldungen ja nicht monopolisiert.

Das Bild des Stroms der Informationen mithilfe des Organisationsprinzips der Chronologie reduziert das Web. Gelernter mißachtet offenbar Kairos als andere Seite des Zeitbegriffs – was aus Sicht der Strommetapher verständlich ist. Aber auch wenn man nur Chronos χρόνος beachtet, dann zeigt uns dieser alte griechische
Mythos, dass es hier um den Lebenslauf geht, also den Ablauf eines Menschenlebens – darin schwingt unweigerlich auch die Vergänglichkeit mit. Genau das aber ist im supranaturalen Gedächtnis Internet zum Teil außer Kraft. Anders ist es bei dem Begriff, ohne den Chronos keinen wahren Sinn macht: Kairos. Er ist der Begriff für den rechten Moment – neudeutsch Timing. Hier könnte man dann an Immanuel Wallersteins unthinking social science anknüpfen, wenn einer der Herren Experten der modernen Soziologie mächtig wäre. Man könnte dann die Dependenztheorie Wallersteins auf das Web anwenden und daraus neue Erkenntnisse schöpfen für eine Relevanzdebatte oder das Thema Wissen und Web.

So erhält man bei den Protagonisten der aktuellen Debatte den Eindruck, das unfertige Gedanken ohne klare Abgrenzung zu Gemeinplätzen mit quasiwissenschaftlichen Erkenntnissen vermengt werden um persönliche Antipathien oder Sympathien zu rationalisieren. Das ist schick aus Sicht des Herausgebers einer Zeitung aber weitgehend ohne Belang für einen öffentlichen oder ernsthaften Diskurs über das eigentliche Thema: Emanzipation des menschlichen Verstandes und der Vernunft mit anderen im öffentlichen Raum, damit das Zusammenleben friedlicher, sinnvoller oder gar freundlicher gestaltet werden kann.

Aber zum Schluß erkennt auch Gelernter, dass das Netz nur ein Vehikel ist. Ein Glück. Man möchte ihm und Schirrmacher zurufen: “Die Landkarte ist nicht das Gelände.” So sagt es der Erfinder der Allgemeinen Semantik Graf Alfred Władysław Augustyn Korzybski in seinem lesenwerten Werk Science and Sanity.

Bildnachweis: unter Verwendung eines Fotos von alvimann

Bild: xandert

Jörg Wittkewitz

Jörg Wittkewitz

  ist seit 1999 als Freier Autor und Freier Journalist tätig für nationale und internationale Zeitungen und Magazine, Online-Publikationen sowie Radio- und TV-Sender. (Redaktionsleiter Netzpiloten.de von 2009 bis 2012)

More Posts