Das Zwischenreich

Bisher galten die Natur und die Kultur als unversöhnliche Geschwister der Schöpfung höherer Wesen. Aber in dem vermeintlichen Abgrund lebt eine Subkultur: Die Komplexität und die Emergenz.

Als Kain und Abel ihre Bruderzwistigkeiten ins dramatische Fach verlegten, hatten sie noch keine Vorstellung davon, dass ihre Urenkel Tausende Jahre später den alten Streit noch immer ausfechten müssen. Je nach Bedürfnislage kriegen sich die Streithähne über Ackerland, Vieh, Frauen und seit einigen Jahrhunderten sogar wegen ihrer Götter in die Haare. Und dass, obwohl bis zum heutigen Tag noch niemand einem Gott begegnet ist. Aber auch der Natur und der Kultur hat bis heute noch keiner die Hand geküsst oder ein Haar gekrümmt. Und doch ist das Tischtuch zwischen Geistes- und Naturwissenschaftlern zerschnitten – und zwar mit Gründen…

Im Vordergrund liegen genau auf den möglichen Begegnungstätten unverrückbare Steine wie der naturwissenschaftliche Glaube an die strikte Trennung zwischen Erkenntnissubjekt und dem Erkenntnisobjekt, also dem Beobachter und seinem Untersuchungsgegenstand. Aber schon der Atomforscher Heisenberg konnte nachweisen, dass der Experimentator keinen kleinen Einfluss auf seine Untersuchung hat. Das war Wasser auf die Mühlen des ungeliebten Bruders. Denn dem Geisteswissenschaftler genügen die Erkenntnisse über grundlegende Gesetze der Natur nicht. Er hält der anderen Fraktion vor, nur Beziehungen zwischen den Sachen zu betrachten. Das Verstehen der Sache selbst, das soll die wahre Aufgabe sein. Außerdem sei es schlicht unmöglich, den Beobachter vom Objekt zu trennen, da man nur die Inhalte der Wahrnehmung zur Verfügung habe. Wie die Sachen wirklich seien, könne man doch sowieso nicht von außen erkennen. Und fortan vertrieb man sich die Zeit mit allerlei Interpretationen und Auslegungen des Menschen. Die Naturwissenschaftler kümmerten sich um den beträchtlichen Rest der Schöpfung.

Doch als man dann langsam aber sicher auf die letzten Fragen stieß, wurde es unruhig im Staat der Naturbetrachter: Was ist unser Ursprung? Und wer denkt ihn uns?

Im Rahmen des anhaltenden Siegeszuges der Biologie wurde kurzerhand alles, was zuviele Daten im Labor produzieren würde, um sie sinnvoll zu analysieren in große Beutel gepackt. Dort klebte man dann Etiketten wie“Komplexität“ drauf. Diese Beutel enthielten alles, was sehr viel war. Auf anderen Beuteln kam das Etikett “Emergenz“. Das waren die Sammel-Beutel, in die man die einzelnen Komplexitätssäcke gepackt hatte. Denn es zeigte sich, dass vor allem dort wo sehr viel zu beobachten war, auch ganz neue Wirkungen auftauchten, die man im Labor weder vorhergesagt noch erzeugt hatte. Diese Inflation an möglichen Untersuchungsgegenständen packte man in geräumige Keller. Jede Kellertür bekam ein Türschild mit einem zusammengesetztem Wort, das mit dem Grundwort System endete. Damit waren alle Gesetze der Welt erkannt und benannt. Und der Rest, wir kennen das alle von der Division, den könnte man zwar nochmal genau aufdröseln. Aber was nützt schon die sechste Zahl nach dem Komma, wenn man das große Ganze im Blick hat.

Die Geisteswissenschaftler waren eine zeitlang perplex. Gerade aus der Biologie, die als besonders strenge und präzise Disziplin bekannt war, kam nun die neue Kunde, alles was eine enorme Fülle an Daten und damit potenzieller Information zu produzieren drohte , wurde nun einfach beachränkt, in der Fachsprache: normalisiert. Normalisieren ist ein Vorgang, den die Biologie aus der Mutterwissenschaft aller Naturwissenschaften entlehnt hatte. In der Mathematik und Statistik bedeutet die Skalierung eines Wertebereichs einer Variablen auf einen bestimmten Bereich zu beschränken. Auf diese Weise kann man Ergebnisse vergleichen, deren Vergleich sonst seltsam erscheinen würde – also etwas das Bruttosozialprodukt eines Landes pro Kopf und die Geburtenrate. Denn wenn man vergleichen kann, ob das Bruttosozialprodukt eines Landes pro Kopf steigt und gleichzeitig die Geburtenrate sinkt, dann kann jeder Leser oder Zuschauer prima erkennen, dass auf einer Zeitleiste beide Zahlen eine gegenläufig Entwicklung durchmachen. Vor allem wenn gar kein kausaler Zusammenhang anderweitig erklärbar wäre, könnte man allein durch die beiden Zahlenreihen den Menschen sonstwas damit plausibel machen. Zum Beispiel die Tatsache, dass westliche Länder wegend es hohen Pro-Kopf-Einkommens so wenig Kinder bekommen. Schlichten Gemütern kann man mit solchen Intuitionspumpen eine Menge “Information“ einflößen. Politiker tun das gern. Sie lieben Statistik. Geht das Einkommen gegen eins, geht die Geburtenrate gegen null. Ist natürlich Quatsch, ist ja auch nur ein Beispiel. Ähnliches könnte man – rein theoretisch – mit dem Bildungsgrad von Frauen und ihrer Kinderzahl durchführen.

In der Mathematik bedeutet dieser Vorgang das Ausblenden von sogenannten Skaleneffekten. Mit dem müssen sich vor allem Physiker rumschlagen, denn Metalle und elektrische Ströme verhalten sich auf Mikroebene ganz anders als auf Makroebene. Die Wissenschaftler, die sich um System kümmern, haben angesichts dieser Effekte allerdings keine bedenken. Das hat seinen Grund. Denn in den Achtziger Jahren, als die Systemtheorie ihren ersten Aufschwung erlebte, da gab es noch gar keine Untersuchungsgeräte für die kleinste Mikro- oder gar Nanoebene, die einen zeitlichen Prozess darstellen konnte. Das heutige Problem der Skalierung gab es so noch nicht. Dass die Schwerkraft in dieser Welt des kleinsten praktisch zu vernachlässigen ist, war damals nicht von Belang.

Und so entstand aus der biologischen Systemtheorie in der ersten Hälfte des 2o. Jahrhunderts die Theorie der Systeme aus der Betrachtung des Lebens. Ludwig von Bertalanffy konzipierte seine Systemtheorie als übergreifende Methode, die gemeinsame Gesetzmäßigkeiten in physikalischen, biologischen und sozialen Systemen finden und formalisieren sollte. Wichtige Prinzipien aus seinem Erklärungsmodell sind vor allem das Gleichgewicht die Selbstorganisation, Rückkopplungen und Komplexität. Ging es hier noch darum, einfach die anwesende Kräfte der Natur im Organismus zu betrachten in Bezug auf einen angenommenen idealen Zustand, kam später eine übergeordnete steuernde Ebene dazu. Es wurde sozusagen der Wille ins Spiel gebracht: Denn die Kybernetik als Theorie des Steuerns von Kreisläufe erweiterte die reine Naturbetrachtung in Richtung auf Motive, denn sowohl Organismen wie auch Maschinen sollten in Handlungen oder Prozessen beschrieben werden. Und an dieser Stelle kommt der Lieblingsbegriff des letzten Jahrhunderts ins Rennen: die Information. Die mathematische Informationstheorie bringt nun einen besondere Idee mit, die Entropie, dass ist ein Maß an universaler Unordnung, die man zuerst erkannt hat bei der Betrachtung von Wärmeenergie, die unwiederbringlich frei wird. Es ist also eine Energieform, die man nicht mehr nutzen kann im Rahmen eines Systems. So wie der heiße Atem im Winter, der noch als nutzloser Dampf verpufft, der aber in England bereits in Bahnhöfen genutzt wird, um Heizkosten zu sparen.

Information ist demgegenüber der Wert an Ordnung oder Dichte in einem Strom von Zeichen. Dabei geht es nicht um Bedeutung sondern um die Anzahl der Zeichen in Bezug zu ihrer Wahrscheinlichkeit des Auftretens. Zufällige Zahlenfolgen sind als Entropie bekannt, im gebildeten Volksmund nennt man es eher Rauschen. Es kann von weitem wie Komplexität aussehen. Auch das ist ein Skaleneffekt. Eines Tages könnte man vielleicht sogar die Ordnung des Zufälligen als absichtsvoll und informativ erkennen. Bis dahin müssen wir noch mehr Werte als wahr und unwahr erarbeiten, wenn wir einen sinnvollen Kontext zwischen Realität und Wirklichkeit herstellen wollen.

Foto: Rick Lamesa

  ist seit 1999 als Freier Autor und Freier Journalist tätig für nationale und internationale Zeitungen und Magazine, Online-Publikationen sowie Radio- und TV-Sender. (Redaktionsleiter Netzpiloten.de von 2009 bis 2012)


Artikel per E-Mail verschicken
Schlagwörter: , , ,

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert