All posts under Wissenschaft

Wie YouTube die Erde flach macht

Dass die Erde keine Scheibe ist, gehört eigentlich längst zur Selbstverständlichkeit. Schon Aristoteles erkannte vor rund 2.300 Jahren, dass von Schiffen stets erst die Mastspitze zu sehen war und leitete daraus die Kugelgestalt der Erde ab. Auch Unterschiede in Sternenbildern trugen zu dieser Erkenntnis bei. Trotzdem gibt es sie noch: Die Verfechter einer Erde in Scheibenform – und nicht einmal von vier Elefanten getragen, die ihrerseits auf einer durchs All schwimmenden Schildkröte stehen, wie in Terry Pratchetts humorstrotzenden Scheibenwelt-Romanen.

Die Verfechter der Flat Earth-Bewegung vermehren sich derzeit sogar, oder treten zumindest präsenter auf den Plan. Schuld daran: Ausgerechnet die digitale Videoplattform YouTube. So zumindest eine Studie der Texas Tech University.

Durch YouTube zum Flat Earther

Grundlage der Studie sind Interviews mit 30 Teilnehmern der Flat Earth Conference, der größten Konferenz der Flat Earth-Bewegung. Zugegeben, 30 Interviews sind keine stichhaltige Basis, trotzdem sind die Erkenntnisse aus den Interviews sehr interessant. So gaben 29 der 30 Befragten an, durch YouTube-Videos überzeugt worden zu sein. „Die einzige Person, die das nicht behauptete, war mit seiner Tochter und seinem Schwiegersohn da, die es auf YouTube gesehen und ihm davon erzählt haben“, sagt Asheley Landrum, Leiterin der Studie, an der Texas Tech University. Die Videovorschläge tauchten neben Videos zu anderen Verschwörungstheorien, wie etwa zum 11. September oder einer inszenierten Mondlandung, auf.

Hier greifen die Videos also genau die Personen auf, die ohnehin schon eine Skepsis bezüglich offizieller Darstellungen haben. Einige gaben aber auch an, die Videos angeschaut zu haben, um die Theorien widerlegen zu wollen. Schließlich konnten die Videos sie aber doch überzeugen.

Auch YouTube sieht Handlungsbedarf

Das Problem ist dem Videoportal jedoch nicht fremd. Bereits vor Veröffentlichung der Studienergebnisse sprach YouTube das Thema selbst im Rahmen ihres Blogs an. YouTube kündigte Änderungen in den Empfehlungen an, um extremen Inhalten entgegen zu wirken. Dabei werden sogar explizit auch die Flat Earth-Videos erwähnt. „Zu diesem Zweck werden wir beginnen, die Empfehlung grenzwertiger Inhalte und Inhalte, die den Nutzer auf schädliche Art falsch informieren – wie Videos, die eine erfundene Wunderheilung bewerben, die Erde als flach bekennen oder unverhohlen falsche Aussagen über historische Ereignisse wie 9/11 machen – zu reduzieren.“

Die Inhalte verbieten möchte YouTube trotzdem nicht. Man möchte weiterhin eine Plattform für freie Meinungsäußerung bleiben, extreme Inhalte aber nicht noch befeuern. Die Änderung soll über eine Kombination aus maschinellem Lernen und der Zusammenarbeit mit menschlichen Experten erreicht werden. Die Änderungen betreffen vorerst nur eine kleine Auswahl amerikanischer Videos. Sobald das System zuverlässig funktioniert, soll es aber auch auf andere Länder ausgeweitet werden.

Wir brauchen auch andere Videos

Landrum sieht YouTube übrigens nicht explizit als schädlich an. „Es gibt viele nützliche Informationen auf YouTube, aber eben auch viele Fehlinformationen“, erklärt sie gegenüber TheGuardian. „An eine flache Erde zu glauben ist an sich nichts Schlimmes, aber es kommt zusammen mit einem allgemeinen Misstrauen gegenüber Institutionen und Experten. Wir möchten, dass die Menschen Informationen kritisch hinterfragen, aber eben ausgewogen.“ Auch die Wissenschaft sieht sie in der Pflicht. „Wir wollen kein YouTube, voll mit Videos, die begründen die Erde sei flach. Wir brauchen auch andere Videos, die beweisen, warum diese Gründe falsch sind und Wege zeigen, wie man es selbst herausfinden kann.“

Auch die Scheibenwelt-Romane bieten eine flache Welt – mit einer Prise Humor und Gesellschaftskritik (Provisionslink)


Image by Kevin Carden via stock.adobe.com

Weiterlesen »

MagicScroll: Das erste aufrollbare Tablet

Sieht so die Zukunft des Tablets aus? Forscher aus Kanada haben in einem Pilotprojekt mit Namen „MagicScroll“ das erste vollfunktionsfähige Tablet erfunden, welches man aufrollen kann. Im Moment ist der Entwurf noch etwas klobig und unhandlich, doch er ist ein Schritt in die richtige Richtung.

Das Smartphone einfach aufrollen und in Stift-Größe in die Hosentasche schieben; klingt nach Zukunftsmusik? Dank des Fortschrittes an der Queen’s University in Kanada könnte das schon bald Realität werden! In einem ersten Versuchsprojekt aus dem Human Media Lab haben die Forscher nun ein Tablet entwickelt, welches man einfach aufrollen kann. Es kann auch im aufgerollten Modus normal verwendet werden. Somit beweist es, dass gebogene Bildschirme nicht nur existieren, sondern dass sie auch real einsetzbar sind.

Die Forscher orientieren sich beim Design an einer Papyrus-Rolle aus der Antike, um ein möglichst natürliches Erlebnis zu haben, wie sie auf ihrer Website betonen. An der Seite des Geräts befinden sich jeweils Rollen, mit denen man auf Internetseiten oder durch Chats scrollen kann. Doch auch die Erfinder des Gerätes geben zu, dass die Technik noch nicht zu 100 Prozent ausgereift ist. So fehlt zum Beispiel noch die Stabilität des geöffneten Bildschirmes, wie man sie von Smartphones gewöhnt ist. Das Modell ist zu groß und zu unhandlich, als dass es etablierten Tablets oder Smartphones in seiner derzeitigen Form Konkurrenz machen könnte.

Hier seht ihr wie das MagicScroll funktioniert:

Das MagicScroll-Tablet als Innovation

Dabei könnte diese Art von gebogenem Bildschirm nicht nur für mobile Endgeräte verwendet werden. Die in dem MagicScroll-Tablet verwendete Technik könnte zum Beispiel auch auf wiederverwendbaren Kaffeetassen Einsatz finden . Man stelle sich vor, man könnte von der Kaffeetasse aus bereits vor Betreten des Lieblingscafés sein Getränk bestellen und gleich auf der Kaffeetasse bezahlen. Den Forschern geht es vor allem darum, die Idee voranzutreiben, jegliche Oberfläche als Bildschirm benutzen zu können. Dazu integrierten sie bei ihrem derzeitigen Forschungsprojekt MagicScroll auch eine spezielle Kamera, welche Gestensteuerung erkennen soll.

Technische Daten und Zukunftsaussichten

Bisher gibt es das MagicScroll nur als Prototypen, mit dem jedoch bereits erste Tests zum Nutzerverhalten durchgeführt werden. Der Bildschirm selbst hat eine Größe von 7,5 ‘‘ und immerhin bereits einen 2k-Bildschirm . Die Forscher wollen weiter an den biegsamen Bildschirmen basteln und hoffen, ihn bald noch handlicher und in variablen Größen zu entwickeln. Dann könnte die Technik in absehbarer Zukunft auch im Alltag Verwendung finden. Unzählige Sci-Fi-Titel warteten schon mit der Idee auf, in der gesamten Umgebung interaktive Bildschirme zu haben, welche mit Gesten gesteuert werden können. Mit diesem Prototypen kommen wir dem ein bedeutendes Stück näher. Allerdings betonten die Forscher, dass dieses Produkt auch von den Nutzern angenommen werden müsste, damit es sich in der breiten Masse durchsetzt.


Image by human media lab

Weiterlesen »

Netzpiloten @DDV-Kongress

Alle diejenigen, die sich für Dialogmarketing interessieren, sollten sich den 26. September 2018 unbedingt freihalten. An diesem Tag findet an der FOM Hochschule für Oekonomie & Management in Hamburg der 13. wissenschaftliche interdisziplinäre Kongress für Dialogmarketing statt. Bereits seit 2006 bietet der wissenschaftliche Kongress des DDV spannende Einblicke in aktuelle Forschungsergebnisse zum Dialogmarketing. Auch in diesem Jahr wird es daher viele hilfreiche Antworten auf die Frage geben, welchen Nutzen Marketingverantwortliche aus diesen Erkenntnissen mit nach Hause nehmen können.

Eine Vielfalt an Themen

An diesem Tag wird es eine breite Palette voller spannender Themen geben, die von Wissenschaftler unterschiedlicher Disziplinen an alle Teilnehmer in angenehmer Atmosphäre weitergegeben werden. Erhaltet Einblicke in die aktuellen Forschungsthemen wie unter anderem:

  • Künstliche Intelligenz im Kundendialog
  • ROPO-Effekt bei Produkten der Unterhaltungselektronik
  • Connected Cars als Instrument des CRM
  • Dialog Excellence – Erfolgsbeitrag von Dialogmarketing für Unternehmen
  • Zur zielgrößenabhängigen Bestimmung der (Erfolgs-)Faktoren im Targeting

Ein Höhepunkt der Veranstaltung wird mit unter die Verleihung des Alfred Gerardi Gedächtnispreises sein, welcher an den Nachwuchs aus der Wissenschaft verliehen wird. Hier können sich Teilnehmer auf eine Kurzpräsentation der drei Preisträger freuen, bevor es dann in eine gemütliche Mittagspause übergeht.

Viele Möglichkeiten für die Teilnehmer

Neben den Vorträgen, bietet die Veranstaltung darüber hinaus einiges mehr. Nutzt die Chance euch untereinander und mit den Top-Referenten zu vernetzen. Knüpft Kontakte, sammelt Eindrücke und beteiligt euch an anregenden Diskussionen.

Wer Teil dieses Tages sein möchte, der kann sich hier schon einmal Anmelden und Tickets ergattern.

Weiterlesen »

Die Debatte um Geo-Engineering geht uns alle an

White and Blue (adapted) (Image by Willian Justen de Vasconcellos [CC0 Public Domain] via Unsplash)

Es besteht die Möglichkeit, dass wir ein System entwickeln müssen, um gegen die globale Erwärmung anzugehen – und zwar schnell. Das mag wie eine verrückte Idee erscheinen. Allerdings sind mehr als 250 andere Wissenschaftler, Politiker und Interessenvertreter aus aller Welt, unter ihnen auch ich, kürzlich nach Berlin gekommen. Hier wurde über die Versprechungen und Gefahren des Geo-Engineerings diskutiert.

Es gibt viele mögliche Methoden, um das Klima zu gestalten. Ein paar frühe, jedoch eher absurde Ideen waren die Installation eines „Space Sunshade“: ein massiver Spiegel, der die Erde umkreist, um Sonnenlicht zu reflektieren. Die Ideen, die heute am meisten diskutiert werden, sind vielleicht nicht viel realistischer. Partikel in die Stratosphäre sprühen, um Sonnenlicht zu reflektieren, oder die Ozeane mit Eisen befruchten, um Algenwachstum und Kohlendioxidbindung durch Photosynthese zu fördern.

Doch seit dem Pariser Abkommen ist die Aussicht auf Geo-Engineering wesentlich realistischer geworden. Das Pariser Abkommen von 2015 verpflichtete sich nahezu universell und rechtlich verbindlich, den Anstieg der globalen Temperatur auf deutlich unter 2 Grad Celsius über dem vorindustriellen Niveau zu halten und sogar den Anstieg auf 1,5 Grad Celsius zu begrenzen. Das Intergovernmental Panel on Climate Change (IPCC) kommt zu dem Schluss, dass diese Ziele erreicht werden können. Doch fast alle Szenarien stützen sich auf den umfassenden Einsatz von Geo-Engineering bis zum Ende des Jahrhunderts.

Das Klima gestalten

Geo-Engineering gibt es in zwei verschiedenen Ausformungen. Die erste ist die Beseitigung von Treibhausgasen. Jene Ideen, die darauf abzielen, Kohlendioxid und andere Treibhausgase aus der Atmosphäre zu entfernen und zu speichern. Die zweite ist die Beeinflussung der Sonneneinstrahlung. Die Idee dahinter ist, dass man versuchen würde, eine gewisse Menge an Sonnenlicht von der Erde wegzureflektieren.

Die Beeinflussung der Sonneneinstrahlung ist umstritten. Hier wird bisher nichts unternommen, um die Ursache des Klimawandels – die Treibhausgasemissionen – zu bekämpfen. Außerdem wirft es eine ganze Menge Bedenken über unerwünschte Nebenwirkungen wie Veränderungen des regionalen Wetterverhaltens auf.

Und dann gibt es noch das so genannte „Beendigungsproblem“. Wenn wir das Klima irgendwann nicht mehr beeinflussen würden, würde die Temperatur weltweit plötzlich wieder auf das Level zurückkehren, wo sie ohne diese Beeinflussung gewesen wäre. Und wenn wir nicht gleichzeitig die Emissionen verringert hätten, würde dies einen starken und plötzlichen Anstieg bedeuten.

Die meisten Klimamodelle, die die Ziele des Pariser Abkommens erreichen, gehen davon aus, dass die Beseitigung von Treibhausgasen, insbesondere Bioenergie und CO2-Abtrennung und -Lagerungstechnologie, genutzt werden. Wie die jüngste Konferenz jedoch gezeigt hat, gibt es trotz der Tatsache, dass die Forschung auf diesem Gebiet immer mehr an Boden gewinnt, eine gefährliche Kluft zwischen dem derzeitigen Stand der Technik und der Durchführbarkeit des Pariser Abkommens über den Klimawandel.

Das Pariser Abkommen – und seine implizite Abhängigkeit von der Beseitigung von Treibhausgasen – ist zweifellos eine der bedeutendsten Entwicklungen auf dem Gebiet des Geo-Engineering seit der letzten Konferenz seiner Art im Jahr 2014. Damit verlagerte sich der Schwerpunkt der Konferenz weg von der umstrittenen und aufmerksamkeitsstarken Beeinflussung der Sonneneinstrahlung hin zu einer banaleren, aber politisch relevanteren Treibhausgasentsorgung.

Umstrittene Experimente

Aber es gab Momente, in denen die Sonnenlicht reflektierende Methoden noch immer allen die Show stahlen. Ein Kernstück der Konferenz war ein Talk, bei dem David Keith und seine Kollegen vom Harvard University Solar Geoengineering Research Programme ihre Experimentierpläne vorstellten. Ziel ist es, ein Instrumentenpaket mit einem Höhenballon auf eine Höhe von 20 Kilometer zu heben und eine kleine Menge reflektierender Partikel in die Atmosphäre abzugeben.

Dies wäre nicht das erste Geo-Engineering-Experiment. Wissenschaftler, Ingenieure und Unternehmer experimentieren bereits mit verschiedenen Ideen, von denen einige in der Öffentlichkeit auf großes Interesse gestoßen sind. Es hat aber auch Kontroversen gegeben. Ein besonders bemerkenswerter Fall war ein britisches Projekt, bei dem im Jahr 2013 aufgrund von Bedenken über das geistige Eigentum die Ausführung gestrichen wurden. Der Plan war, in einer Höhe von einem Kilometer über dem Boden eine kleine Menge Wasser in die Atmosphäre abzugeben, indem man ein Rohr benutzt, das mit einem Ballon verbunden ist.

Solche Experimente sind unerlässlich, wenn Geo-Engineering-Ideen jemals zu technisch tragfähigen Beiträgen beitragen sollen, mit denen die Ziele des Pariser Abkommens erreicht werden sollen. Aber es ist die Steuerung von Experimenten, nicht ihre technischen Qualifikationen, die immer schon das umstrittenste Feld der Geo-Engineering-Debatte war und ist.

Kritiker warnten, dass das Harvard-Experiment ein Dammbruchargument in Richtung eines unerwünschten Aufmarsches sein könnte. Deshalb müsse es zurückgehalten werden. Die Befürworter argumentierten jedoch, dass die Technologie erst entwickelt werden müsse, bevor wir wissen könnten, was wir zu regieren versuchen.

Die Herausforderung für die Governance besteht nicht darin, eines dieser beiden Extreme zu unterstützen. Vielmehr muss ein verantwortungsvoller Weg zwischen ihnen gefunden werden.

Wie regieren?

Der Schlüssel zu einer verantwortungsbewussten Steuerung von Geo-Engineering-Experimenten liegt in der Berücksichtigung öffentlicher Interessen und Anliegen. Geo-Engineering-Experimentatoren, oder jene, die es gerne wären, einschließlich jener in Harvard, versuchen routinemäßig, diese Interessen zu erklären. Hier appelieren sie an ihre Experimente, die von einem kleinen Maßstab und einem begrenzten Umfang sind. Doch wie ich bereits auf der Konferenz argumentiert habe, war in öffentlichen Diskussionen über den Umfang und das Ausmaß von Geo-Engineering-Experimenten ihre Bedeutung immer subjektiv und durch andere Anliegen qualifiziert.

Meine Kollegen und ich haben festgestellt, dass die Öffentlichkeit mindestens vier Hauptanliegen an Geo-Engineering-Experimenten hat. Ihren Grad der Eindämmung, die Unsicherheit darüber, was die Ergebnisse sein würden, die Rückführbarkeit der Auswirkungen und die Absicht dahinter. Ein Versuch, der sich nur in Innenräumen abspielt, könnte daher als unannehmbar angesehen werden, zum Beispiel, wenn er Bedenken in Bezug auf private Interessen hervorruft. Andererseits könnte ein Großversuch im Freien akzeptabel sein, wenn er keine Stoffe in die Umwelt freisetzt.

Unter bestimmten Bedingungen konnten die vier Dimensionen ausgerichtet werden. Die Herausforderung für die Governance besteht darin, diese und wahrscheinlich auch andere Dimensionen der Beherrschbarkeit zu berücksichtigen. Das bedeutet, dass die Beteiligung der Öffentlichkeit an der Gestaltung der Governance selbst im Mittelpunkt der Entwicklung von Geo-Engineering-Experimenten stehen muss.

Es stehen eine ganze Reihe von Methoden des wechselseitigen Dialogs zur Verfügung – Fokusgruppen, Bürgerjurys, Beratungsworkshops und viele andere mehr. Und für diejenigen, die außerhalb der formalen Einbindung in solche Prozesse stehen: Lesen und sprechen Sie viel mehr über Geo-Engineering. Wir müssen einen gesellschaftlichen Dialog darüber beginnen, wie wir solche umstrittenen Technologien beherrschen können.

Die öffentlichen Interessen und Anliegen müssen schon im Vorfeld eines Experiments herausgearbeitet werden. Die Ergebnisse müssen dazu genutzt werden, die Art und Weise, wie wir es regeln, sinnvoll zu gestalten. Dadurch wird das Experiment nicht nur legitimer, sondern auch wesentlich besser.

Sie sollten nicht in die Falle tappen. Es werden Experimente nötig sein, wenn wir den Ideenwert von Geo-Engineering erlernen wollen. Aber dies kann nur geschehen, wenn im Kern die öffentlichen Werte enthalten sind.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „White and Blue…“ by Willian Justen de Vasconcellos (CC0 Public Domain)


The Conversation

Weiterlesen »

Von der Bullshit-Ökonomik zur narrativen Netzökonomie

Kolumnen_Gunnar_1

Birger P. Priddat, Professor für Wirtschaft und Philosophie, hat einen genialen Weg gefunden, das Lehrgebäude der Ökonomik in seinen Grundfesten zu zerlegen. Die Wirtschaftswissenschaftler betrachten ihre akademische Disziplin bekanntlich wie eine soziale Physik, weil sie so genau, präzise und logisch sei. Problem: Dieser Glaube existiert nur in den Köpfen der Ökonomen. „Nichtökonomen können das nicht prüfen, da sie die Sprache der Ökonomie, insbesondere ihre Algebra, weder kennen noch verstehen“, so Priddat in einem Beitrag für die Zeitschrift „Kursbuch“ mit dem Schwerpunkt Bullshit.Sprech.

Nun ist das mit dem Nichtverstehen nicht so dramatisch. Von Quantenphysik haben die meisten Menschen auch keinen blassen Schimmer. Dennoch gilt die Wirkmächtigkeit dieser Forschungsrichtung. Beim wirtschaftlichen Handeln sieht das aber anders aus. Hier geht es um eine soziale und politische Ökonomie. Die meisten Akteure der Wirtschaft können mit der Sprache der Ökonomen nichts anfangen.

Die Sprache der Ökonomik hat mit dem Wirtschaftsgeschehen nichts zu tun

Sie nehmen sie nicht zur Kenntnis oder ignorieren sie in ihrem täglichen Schaffen. Das Verhalten der Wirtschaftsakteure ist irrationaler, emotionaler, moralischer, amoralischer, stimmungsabhängiger, kultureller geprägt, sozialer, konventionaler, als es der Normenkatalog der Rationalitäten der Ökonomik zulässt. „Die Wirtschaft funktioniert wunderbar, ohne dass die Akteure etwas von Ökonomie verstehen – jedenfalls nicht so, wie Ökonomen Ökonomie verstehen“, erläutert Priddat. Wenn das so ist, was leistet dann die Ökonomik überhaupt für die Analyse der Wirtschaft? Wenn viele nicht verstehen, was Ökonomen sagen: „Mit wem reden Ökonomen dann – außer mit sich selber? Wem erklären sie was? Und – wie funktioniert Wirtschaft dann tatsächlich?“, fragt sich der Wissenschaftler der Universität Witten-Herdecke. Vieles passt einfach nicht rein in die simplen mathematischen Modellwelten. Was algebraisch nicht abgebildet werden kann, bleibt links liegen. Oder man flüchtet sich in kleine Experimente mit völlig irrelevanten Forschungsfragen.

Es zählen hoch gerankte Journals und Berufungen

Was die Ökonomen in Ekstase versetzt, sind nicht wirkmächtige Erklärungen des Wirtschaftsgeschehens, sondern Veröffentlichungen in hoch gerankten Fachpublikationen. Ökonometrie und das experimentelle Design gelten als Ausdruck hoher Wissenschaftlichkeit, führen zu Berufungen an die universitären Lehrstühle, öffnen die Kassen der Deutschen Forschungsgemeinschaft (DFG) und bringen Steuergelder in die Drittfinanzierung – etwa über die Blaue Liste des Bundesfinanzministers. Ohne diese 40 bis 50 Millionen Euro, die jedes Jahr im Bundeshaushalt eingestellt werden, könnten die Wirtschaftsforschungsinstitute wohl nicht überleben.

Es fehlen mittlerweile Wissenschaftlerinnen und Wissenschaftler, die mit ihrer Form der Wissenschaft relevante gesellschaftliche und politische Debatten anstoßen, moniert Professor Uwe Schneidewind, Präsident des Wuppertal-Instituts, in einem Beitrag für den Sammelband „Transformative Wirtschaftswissenschaft im Kontext nachhaltiger Entwicklung“.

Dem Vorbild Kittler folgen

Für neue Forschungsansätze sind das doch ideale Bedingungen. Wir erschaffen eine neue Wissenschaft und verabschieden uns von BWL und VWL. Wie das geht, hat Friedrich Kittler mit der Erfindung der Medientheorie unter Beweis gestellt – in einem antiakademischen Gestus übrigens.

Auf Basis der Untersuchungen von Priddat könnten wir das auch mit einer neuen Theorie für das Ökonomische versuchen. Nennen wir das Ganze einfach „Netzökonomie“ – da sind wir doch in der Next Economy Open-Community schon Trendsetter. Letztlich geht es im wirtschaftlichen Kontext um Kommunikation – also um Netzwerke: Familie, Verwandte, Freunde, Kollegen, Bekannte, Vereinsmitglieder, Stammtische, Nachbarn. „Kommunizieren ist gemeinsames Interpretieren“, schreibt Priddat. „Vertraut man bestimmten Netzwerken, kann diese Kommunikation entscheiden, welche Informationen informativ sind und welche nicht.“ Dabei spielen nach Ansicht von Priddat andere Dinge eine Rolle als rein ökonomische: Information, Kommunikation, Netzwerke, Vertrauen – hier befinden wir uns vollständig in der sprachlichen Dimension.

Der unterschätzte narrative Faktor

Die meisten ökonomischen Aktivitäten bestehen aus Überzeugungsarbeit. Realitäten werden über Dynamiken in Netzwerken erzeugt. Das kann man in tradierten Modellen nicht präzise abbilden und vorhersagen. Die Berechnungen der Ökonomik sind systematisch ungenau, weil die Methoden den narrativen Faktor mehr oder weniger ignorieren. Auf dieser Grundlage könne man ermessen, welchen Bullshit die Ökonomik erzählt, wenn sie uns suggerieren möchte, dass in die Zukunft hineingerechnet werden kann. Einbildungen – also Imaginationen – werden für die Entwicklung der Wirtschaft unterschätzt. „Die Wirkung der Imagination beruht auf der Plausibilität ihrer Erzählung, so dass der Rezipient guten Glaubens werden kann, fortan die Welt aus der Perspektive der Erzählung neu zu betrachten“, so Priddat. Das Wirkliche sei letztlich nichts anderes als das, was verwirklicht wird. Die Poesie der Ökonomie sei eine Produktion von Bedeutungen. Das kann positive und auch negative Wirkungen erzielen.

Meinungen über Tatsachen bestimmen das Handeln

So zählte der Ökonom Wilhelm Röpke zu den Ursachen für die Verschärfung der Weltwirtschaftskrise von 1929 psychologische Faktoren: Selbst bei einigermaßen feststehenden Tatsachen würde das Wort eines griechischen Philosophen gelten, dass nicht die Tatsachen die Handlungen der Menschen bestimmen, sondern die Meinungen über die Tatsachen.

Im digitalen Kontext geht das noch schneller als in den 1920er und 1930er Jahren. Wir brauchen dafür neue Beschreibungen und Erklärungen, wir brauchen andere Bilder und Konzepte der Ökonomie. Der methodologische Bullshit der Mainstream-Ökonomik läuft da ins Leere. Der Ausschluss von Ereignissen und Relationen, die Ignoranz kommunikativer Welten und die selbstbezüglichen Modellwelten demontieren die Wirtschaftswissenschaft. Wir brauchen etwas Neues: Narrative Netzökonomie. Die neu gegründete Kölner #Gruppe17 – sie ist in Anlehnung an die legendäre Gruppe 47 noch im Dezember 2017 aus der Taufe gehoben worden – arbeitet an einer neuen Denkschule. Das Notiz-Amt wird das medial begleiten.


Image by hywards/stock.adobe.com


Weiterlesen »

Künstliche Intelligenz und die Angst vor ihr

Orb of power (adapted) (Image by Ramón Salinero [CC0 Public Domain] via Unsplash)

Die Künstliche Intelligenz hat in der deutschen Diskurslandschaft keinen guten Ruf. Sie bevormundet Menschen, entscheidet intransparent und gehört meist nur den Silicon Valley-Konzernen. Sollten wir Menschen, die wir den Planeten gegen die Wand fahren, nicht offener dieser Form von Intelligenz gegenüber auftreten? Bietet sie nicht auch sehr viele Chancen?

Jährlich sterben allein in Deutschland 100.000 – 200.000 Menschen am plötzlichen Herztod. Das Risiko steigt mit dem Alter. Männer sind fast doppelt so häufig betroffen. Auch intensiver Sport führt – bei fehlendem Wissen um eine unentdeckte Herzerkrankung – zu einer Verdoppelung des Risikos, daran zu sterben. Die wenigsten potenziellen Opfer gehen vorab zum Kardiologen, da sie zumeist keine Beschwerden verspüren. Wenn sie dann doch aufgrund temporärer Beschwerden zum Kardiologen gehen, ist die Wahrscheinlichkeit, das Problem im Rahmen eines 24-Stunden-EKGs zu entdecken, sehr gering.

Apple hat dieses Problem erkannt und wird wohl beim Nachfolgemodell der Apple Watch 3 einen Sensor für ein erweitertes EKG in die Uhren einbauen. Durch einen Abgleich der gemessenen EKG-Daten und möglicher enthaltener auffälliger Muster mit standardisierten beispielhaften „kranken“ Mustern, können unentdeckte Herzerkrankungen oder Anomalien erkannt werden.

Apple wird mit dieser Funktion und der Auswertung der Daten (indirekt) wahrscheinlich viel Geld verdienen. Wie sehen die Menschen, die schon um ihr erhöhtes Sterberisiko in Folge einer Vorerkrankung wissen, ein solches Device? Und wie sehen sie die Möglichkeiten der Diagnose infolge der Auswertung großer Datenmengen? Würden sie bemängeln, dass die oftmals so deklarierten „Internet-Riesen“ trotz ungeklärter Fragen des Datenschutzes Geld mit diesen Devices verdienen? Würden sie nach der Wirkungsweise des Algorithmus fragen? Und würden sie sich mit dessen Anwendung nur dann einverstanden erklären, wenn man ihnen den Programm-Code erklärt? Oder wenn eine deutsche Behörde diesen einen speziellen Algorithmus überprüft hat? Wohl eher nicht.

Wer sollte über die Anwendung einer Künstlichen Intelligenz (KI) entscheiden: Die betroffenen Menschen oder eine Kommission?

Umso weltfremder und an den Gesundheitsbedürfnissen der betroffenen Menschen vorbei scheinen daher momentane Beiträge in bekannten Medien. Diese fordern ein, dass es Experten geben müsste, die die Wirkungsweise jeder KI verstehen. Die sie kontrollieren und über deren Nutzung urteilen sollten. Obgleich sie nicht von einer tödlichen Bedrohung wie dem plötzlichen Herztod bedroht sind. Mit welchem Recht wird dann aber den betroffenen Menschen die Entscheidung zur Anwendung der Technik aus der Hand genommen? Wollte man aus dieser Situation eine steile These generieren, so könnte man sagen, dass die Debatte und die Verschleppung der Einführung von KI täglich unverantwortlicher Weise Menschenleben kostet.

Während diskutiert wird, welche Menschen eine KI in einem autonom fahrenden Auto am ehesten im Notfall „umfahren“ soll, sterben täglich in Deutschland ca. neun Menschen im Verkehr. Meist wurden diese Unfälle verursacht durch zu hohe Geschwindigkeit oder Fahren unter Alkoholeinfluss ihrer Mitmenschen. Warum wird also nicht die Frage nach der moralischen Verträglichkeit menschengelenkter Autos gefragt? Hat es eine solche Ethik-Debatte jemals gegeben, um zu überprüfen, ob der Vorstand von Volkswagen vor Bekanntwerden von Dieselgate „ethisch richtig handelt“? Wieso legen wir an KI solch hohe Maßstäbe an, die die Menschen bisher selbst meist nicht erfüllt haben?

Dürfen wir KI unsere menschliche Moral aufzwingen?

Sally Davies hat sich in ihrem Beitrag daher auch die Frage gestellt, mit welchem Recht wir versuchen, einer zukünftigen KI unser Verständnis von Moral aufzuzwingen. Viele technische KI-Experten werden einwenden, dass diese Form der KI noch lange nicht erreicht sei (worüber es zu Recht aber sehr unterschiedliche Auffassungen gibt). Nichtsdestotrotz ist damit zu rechnen, dass wir uns eines Tages diese Fragen stellen müssen. Wird sich die KI einsichtig zeigen, dass unser Wertmaßstab auch der ihrige sein soll? Was wäre, wenn die KI „Verbesserungsvorschläge“ für unser Wertesystem liefert?

Im Bereich strategischer Spiele sind wir bereits an diesem Punkt der KI-Entwicklung angekommen. In einem aktuellen Beitrag auf The Atlantik zu den neuen Fortschritten bei der KI-Entwicklung im Zuge der AlphaGo Zero-Entwicklung formulieren die Autoren, was im Kern die Botschaft aus den gegenwärtigen Entwicklungssprüngen ist. Die (genannte) KI benötigt keinen Menschen mehr, um in einem Gebiet „übermenschliche“ Fähigkeiten in kürzester Zeit zu entwickeln. Das ist insbesondere dann spannend, wenn die Erkenntnisse der KI-Entwickler auf die Bekämpfung von Krankheiten oder den Klimawandel angewendet werden, wie diese es selbst in ihrem Blog weitsichtig beschreiben.

Eine leidige kurzsichtige Diskussion über die vermeintliche Sinnhaftigkeit luftverdreckender Diesel-Pkw wäre unter diesen Umständen schnell obsolet. Sie könnte, im Gegensatz zu den derzeit beschlossenen politischen Maßnahmen, täglich Menschenleben retten. Ist es vielleicht an der Zeit, dass wir den Versuch aufgeben, eine höhere Intelligenz verstehen zu wollen?

Die Syntheist-Bewegung greift diese Überlegungen auf. Der schwedische Cyber-Philosoph Alexander Bard als einer der bekanntesten Vertreter begreift das Internet als „Gehirn“ der Menschheit. Laut ihm ist es ausgestattet mit Netzknoten, Netzwerken und Datenbanken. Sie alle zusammen sind mehr als die Summe der einzelnen Wissensbestandteile der Menschheit. Das Silicon Valley „Wunderkind“ Anthony Levandowski geht in dieselbe Richtung. Er versteht die internetbasierte Wissensgenerierung als Schritt hin zu einer übergeordneten Weisheit, infolgedessen er auch die „First Church of AI“ ausgerufen hat.

Können Androiden menschliche Reaktionen auslösen?

Die Fähigkeiten gerade von Robotern, in den zwischenmenschlichen Bereich vorzudringen, wurde bisher ebenfalls sehr zurückhaltend gesehen. Seien es doch die wahren menschlichen Eigenschaften der Kreativität, der Interaktion, der Empathie, die menschliche Reaktionen hervorriefen und durch Maschinen nie ersetzt werden könnten. Ist dem wirklich so? In einem aktuellen Beitrag stellt sich die Autorin Alex Mar die Frage, ob es diese angeblich genuinen Eigenschaften wirklich nur bei Menschen gibt.

Bei einem Besuch des Android-Forschers Hiroshi Ishi­guro wird sie an die Grenze des scheinbar intuitiv Menschlichen gebracht, als sie von den Erfahrungen des Forschers mit seinen Androiden hört. Indem Androiden basale menschliche Verhaltensweisen übernehmen, die einen Menschen positiv und emotional triggern, können sie bei Menschen echte mitmenschliche Emotionen erzeugen. In einem wissenschaftlichen Experiment konnten Forscher der Universität Calgary vor Jahren zeigen, dass selbst ein Stück Balsaholz bei Menschen Gefühle auslösen kann. Die positiven Gefühle Maschinen gegenüber können noch weiter befördert werden, wenn man sie ab und an „menschliche“ Fehler machen lässt und sie dadurch nicht unerreichbar perfekt erscheinen.

Spätestens mit der Nutzung der replika-App kann jeder Nutzer selbst überprüfen, ob der Dialog mit einer auf sich selbst trainierten KI wirklich immer nur als bewusster Dialog mit einem Code erfolgt. Und nicht mit einem „gefühlten“ realen Gegenüber. Die Gründerin des Startups hatte ihren besten Freund auf tragische Weise verloren. Daraufhin sammelte sie nach seinem Tod alle Chats, die sie mit ihm geführt hatte. Sie kreierte eine erste KI, die ihren toten Freund simulierte. Inzwischen können Nutzer weltweit eine eigene KI nach diesem Muster „erstellen“. Auch wenn das etwas seltsam klingt, haben Außenstehende kein Recht, der Gründerin oder Nutzern von „replika“ daraus einen Vorwurf zu machen.

Wäre es daher nicht an der Zeit, an der Einmaligkeit des Menschlichen zu zweifeln? Fand man in der Neurowissenschaft bereits vor Jahren heraus, dass der vorgebliche freie Wille der Menschen gar nicht so frei ist, ist es jetzt an der Zeit zu erkennen, dass auch unsere Gefühle nicht nur an Menschen gebunden sind.

Digitaler Darwinismus ist schon heute Realität

Man muss sicherlich nicht ganz so weit gehen, wenn es um das Mimikry menschlichen Verhaltens durch eine KI geht. Schon weiter vorangeschritten ist die Angleichung an menschliche Verhaltensweisen bei der Ausübung von beruflichen Tätigkeiten. So zeigt Miranda Katz anhand von Beispielen aus der Übersetzerbranche, der Juristerei und der Filmbranche, dass schon heute impliziter digitaler Darwinismus auf dem Arbeitsmarkt durch den Einsatz von KI ausgelöst worden ist. So ist es nach Meinung der dort zitierten ScriptBook CEO Nadira Azermai nicht die KI, die Menschen arbeitslos werden lässt. Es ist vielmehr die Verweigerungshaltung, KI für die eigene Tätigkeit einzusetzen. Auch wenn dies an vielen Stellen schon möglich ist.

“You’ll lose your job to people who have learned how to cooperate with machines. You will lose your job if you keep turning your head the other direction and pretending it doesn’t exist“, so Azermai.

Wenn aber KI zunehmend Tätigkeiten übernehmen, die Bestandteil menschlicher Berufe (Arzt, Drehbuchautor, Polizist) sind, muss die Frage gestellt werden, in welcher Weise sich Ausbildungsgänge nicht eigentlich sehr viel schneller anpassen müssten. Jon Marcus beschreibt in seinem Beitrag die erkennbaren Folgen für das bestehende Bildungssystem. So beginnen die ersten großen Unternehmen aus der IT-Branche, eigene Ausbildungsgänge aufzubauen. Hier erfolgt nämlich die Anpassung der bestehenden zu langsam und bürokratisch. KI, die Berufe verändert, hat demnach auch Auswirkungen auf das Bildungssystem. Sicher könnte man die ethische Frage anschließen, was denn mit dem Kompetenzaufbau in den Bereichen der Ausbildung geschieht, in denen die KI Menschen ersetzen.

Mit wissenschaftlichen Methoden des 20. Jahrhunderts lösen wir nicht die Probleme des 21. Jahrhunderts

Der Umgang der Wissenschaft und der Politik mit dieser Herausforderung zeigt sehr anschaulich das Dilemma, auf diese neue Herausforderung (KI, Roboter) mit tradierten Methoden und Sichtweisen zu reagieren. Seit der Veröffentlichung der allseits bekannten Frey/Osborne-Studie hat es viele volkswirtschaftliche Folge-Studien gegeben (so z.B. durch das ZEW). Diese waren am Ende stets zu dem Ergebnis gelangt, dass wir mit einem Abbau menschlicher Beschäftigung – in einem ungeklärten Umfang – rechnen müssen. Zeigt sich aber nicht zuletzt an der Methodik dieser Studien, dass wir inzwischen mit menschlicher Intelligenz allein die Komplexität, die uns zunehmend umgibt, nicht mehr bewältigen können? Wie kann es sein, dass Studien ernsthaft als politische Entscheidungsgrundlage dienen, die vorgeben, die Wahrscheinlichkeit einer digitalen Disruption in einer bestimmten Branche ex ante berechnen und daraus ableitend Arbeitsmarktprognosen abgeben zu können? Wir hinterfragen aber nicht diese wissenschaftlichen Methoden. Wir hinterfragen vielmehr die Entscheidungslogiken der KI und bezeichnen sie nur zu gern und schnell als diskriminierend.

Nicht die Künstliche Intelligenz sondern der Mensch diskriminiert

Eva Wolfangel zeigt in ihrem spannenden NZZ-Beitrag, warum es aber nicht die Algorithmen – auch nicht die selbst lernenden KIs – sind, die sexistisch, rassistisch oder diskriminierend sind. Es liegt vielmehr an dem, was wir der KI „vorleben“ und als Input zum Lernen zur Verfügung stellen. Ein Herausbrechen von Diskriminierung aus Algorithmen hingegen ist als Lösung des Problems in keiner Weise geeignet, da es keine übergeordnete Wahrheit und keinen absoluten Maßstab gibt, an dem sich diese Programmierer ausrichten können. Zudem kommt das Problem hinzu, so Wolfangel, dass Menschen allzuhäufig Korrelationen mit Kausalitäten gleichsetzen. Im Kern heißt dies also erneut, dass die KI nichts vom Menschen lernen kann, da er selbst nicht das passende Vorbild abliefert.

Hängt der Quanten-Computer die Menschen endgültig ab?

KI ist Bestandteil sehr vieler alltäglicher Lebensbereiche des Menschen. Sie unterstützt diesen, hilft dort aus, wo sie mehr leisten kann als ein Mensch, kann kreativ sein. Der nächste Entwicklungsschritt hin zur Intuition und einem menschenähnlichen Bewusstsein wird eventuell die Anwendung der Quantentechnik für KI sein. So wird bereits in den nächsten Monaten die „Quantum Supremacy“ gegenüber den uns bekannten Computern eintreten.

Wir sollten daher vielleicht nicht vergessen, die Probleme der Politik, der gesellschaftlichen Debatte und der Wissenschaft zu thematisieren. Gerade wenn es darum geht, mit dieser technischen Entwicklung Schritt zu halten. Experten sprechen von der exponentiellen Dynamik der KI-Entwicklung: „There will be an acceleration of pace as ever more people are put out of work “by technology” when artificial intelligence masters vision – and how to learn. (…) Unlike in the Industrial Revolution, we cannot expect a plateau of development here that will allow people to ‘catch up’”. Die Frage ist, wie wir als Menschen damit umgehen wollen.

Die Diskussion um die Gesundheitskarte zeigt es exemplarisch. Während in Deutschland über Fragen des Datenschutzes diskutiert wird, werden anderswo mit IBM Watson bereits Leben gerettet. Wird irgendwann der moralische Druck, die Entwicklung der KI einfach zu akzeptieren, nicht so groß werden, dass jahrelange politischen Debatten über neue Regulären zunehmend utopisch erscheinen? Was ist, wenn die durch eine Smart City induzierte Einsparung natürlicher Ressourcen den persönlichen Vorstellungen über Datenschutz gegenüber steht?

Benötigen wir nicht einen „politischen“ Algorithmus im Sinne einer Entscheidungslogik, der uns beim Umgang mit diesen strittigen Fragen Orientierung gibt und der zwischen individuellen und gesellschaftlichen Interessen abzuwägen hilft? Oder liegt es, wie der genannte provokante Beitrag auf AEON vorschlägt, am Ende gar nicht mehr im Ermessensspielraum des Menschen, über die Moral eines Algorithmus zu entscheiden, weil wir die sich daraus ergebende moralischen Regeln nicht mehr verstehen, wir aber davon ausgehen müssen, dass uns diese weiterhelfen als die Regeln und Verhaltensweisen, die uns seit Jahrtausenden Umweltzerstörung und Krieg bringen?

Wenn ihr mehr zu dem Thema „Angst vor der Künstlichen Intelligenz“ erfahren möchtet, dann gibt es hier von Arend Hintze einen spannenden Artikel mit dem Titel „Künstliche Intelligenz: Wovor die Forscher sich fürchten„.


Image (adapted) „Orb of power“ by Ramón Salinero (CC0 Public Domain)

Weiterlesen »

Wie man Daten auf Magneten der Größe eines Atoms speichert

(Data by [Markus Spiske] [CC0 Public Domain] via Unsplash)

Es gibt ein Sprichwort, welches besagt, dass die Datenmenge solange wächst, bis jeder verfügbare Platz aufgebraucht ist. Vor zehn oder 20 Jahren war es üblich, Software, MP3 Musik, Filme und andere Daten, die über eine lange Zeit hinweg gesammelt wurden, zu lagern. In Zeiten als Festplatten nur einige Gigabyte an Speicher leisten konnten, war es fast unmöglich, genügend Speicherplatz zur Verfügung zu haben.

Wenn wir heute Breitband-Internet nutzen und DVDs mit 4,7 Gigabyte ohne nachzudenken herunterladen können, lassen sich Daten noch viel schneller anhäufen. Schätzungen zufolge soll die Menge aller weltweit gespeicherten Daten von 4,4 Billionen Gigabyte im Jahr 2013 auf 44 Billionen Gigabyte im Jahr 2020 ansteigen. Das bedeutet, wir generieren durchschnittlich 15 Millionen Gigabyte am Tag. Auch wenn Festplattenspeicher mittlerweile tausende von Gigabytes umfassen und nicht mehr nur einige wenige, so reicht dieser immer noch nicht aus.

Forschung und Entwicklung konzentrieren sich auf den Ausbau neuer Methoden der Datenspeicherung. Durch höhere Speicherdichte sollen mehr Informationen auch energieeffizienter abgespeichert werden können. Dies erfordert zuweilen auch Änderungen bereits etablierter Methoden. Erst kürzlich kündigte IBM eine neue Magnetbandtechnologie an, die knapp vier Gigabyte pro Quadratzentimeter speichern kann. Für die mittlerweile 60 Jahre alte Technologie ist das ein neuer Rekord. Obwohl magnetische Laufwerke oder SSDs eine höhere Speicherdichte von etwa 31 Gigabyte pro Quadratzentimeter bieten, werden Magnetbänder noch häufig zur Sicherung von Back-Ups benutzt.

Der neueste Stand der Forschung bewegt sich bereits auf der atomaren Ebene, der technologisch größtmöglichen Miniaturisierung.

Die Suche nach atomaren Magneten

Aktuelle Magnetspeichertechnologien – wie sie in herkömmlichen Festplatten mit Drehscheiben benutzt werden, der Standard bis vor einigen Jahren und immer noch sehr gebräuchlich – benutzen sogenannte „top-down“-Methoden. Es werden viele dünne Schichten aus ferromagnetischem Material hergestellt, wobei jeder dieser Schichten viele magnetische Bereiche enthält, welche die Daten speichern können. Jeder dieser Bereiche enthält eine Vielzahl magnetisierter Atome, deren Polarisierung durch den Lese-/Schreibkopf der Festplatte gesetzt werden kann, wodurch die binären Einheiten Null und Eins repräsentiert werden.

Bei einer alternativen „bottom-up“-Methode würde jede Speichereinheit durch Platzierung der einzelnen Atome oder Moleküle entstehen, die jeweils genau ein Bit an Information tragen. Die magnetischen Bereiche erhalten ihren Magnetspeicher aufgrund der Interaktion von benachbarten magnetisierten Atomen.

Einatomige oder einmolekulare Magnete benötigen keine derartige Kommunikation mit benachbarten Einheiten, um ihre Informationen zu erhalten. Ihre Speicherfähigkeit hingegen resultiert aus der Quantenmechanik. Gerade weil Atome und Moleküle sehr viel kleiner sind als die aktuell genutzten Magnetfelder und sie auch individuell verwendbar sind, können sie sehr viel dichter angeordnet werden, was eine enorme Erhöhung der Speicherdichte bedeuten könnte.

Auf molekularer und atomarer Ebene zu arbeiten, ist keine Science Fiction. Die Magnetspeicherfähigkeit einmolekularer Magnete (engl. single-molecule magnets SMMs) wurde erstmals 1993 demonstriert. Ähnliche Effekte wurden 2016 für einatomige Magnetspeicher gezeigt.

Die Erhöhung der Temperatur

Das größte Problem diese noch Labortechnologie auf den Markt zu bringen, ist, dass diese Technologie noch nicht bei Raumtemperatur funktioniert. Sowohl einatomige Speicher als auch die SMMs erfordern eine Kühlung mit flüssigem Helium (eine Temperatur von -269 Grad Celsius), das nur begrenzt verfügbar und zudem auch sehr teuer ist. Daher befasst sich die Forschung der letzten 25 Jahre damit, die Temperatur zu erhöhen, bei der die magnetische Hysterese – als Nachweis der magnetischen Speicherung – zu beobachten ist. Ein wichtiges Ziel sind -196 Grad, da diese Temperatur durch flüssigen Stickstoff erreicht werden kann, welcher reichlich vorhanden und günstig ist.

Es dauerte 18 Jahre bis zum ersten bedeutenden Schritt bei der Erhöhung der Temperatur, die die Magnetspeicherung mit SMMs ermöglicht. Eine Gruppe von Wissenschaftlern in Kalifornien erreichte eine Erhöhung um zehn Grad. Doch jetzt hat unser Forschungsteam der University of Manchester’s School of Chemistry eine magnetische Hysterese mit SSMs bei -213 Grad Celsius, basierend auf dem Seltenerdenelement Dysprosocenium, erreicht, wie in einem Brief an die Fachzeitschrift Nature berichtet wurde. Mit diesem Sprung um 56 Grad Celsius fehlen nur noch 17 Grad zur Temperatur von flüssigem Stickstoff.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „Data“ by Markus Spiske (CC0 Public Domain)


The Conversation

Weiterlesen »

Routine-Unternehmer sind Moralzehrer

The Boss (adapted) (Image by Hunters Race [CC0 Public Domain] via Unsplash)

Joseph Schumpeter war ein großer Sozialwissenschaftler und ist es immer noch in dem Sinn, dass seine Persönlichkeit und seine Arbeiten weiter wirken, schreibt Heinz D. Kurz in seinem Opus „Joseph Alois Schumpeter – Ein Sozialökonom zwischen Marx und Walras“. Vor allem über seine Bücher und Aufsätze, die als Referenzwerke und als Quellen von Ideen nicht an Anziehungskraft verloren haben. „Seinen Namen führen mehrere Gesellschaften in ihrer Bezeichnung, darunter die International Joseph A. Schumpeter Society, die Wiener Schumpeter Gesellschaft und die Grazer Schumpeter Gesellschaft.“

Schumpeter: Der VWL-Star in Bonn

Eine Bonner Gesellschaft sucht man vergeblich, obwohl Bonn eine wichtige Station im Wissenschaftsleben von Schumpeter repräsentierte. Er war vor der Bonner Zeit privat insolvent, als Geschäftsmann und Politiker gescheitert. Durch Freunde, Gönner und Weggefährten wie Arthur Spiethoff, der Professor in Bonn war, kommt er wieder auf die Beine. Spiethoff gelingt es, Schumpeter im Oktober 1925 auf den Lehrstuhl für wirtschaftliche Staatswissenschaft zu holen. „Schumpeter wird deutscher Staatsbürger. Spiethoff, Schüler von Schmoller, aber aufgeklärter Historizist, ersucht Schumpeter, alles zu lehren, was dieser wolle, nur nicht Theorie. Schumpeter hält sich anfangs an die Vorgabe. Er hat großen Erfolg bei den Studierenden, die von nah und fern nach Bonn strömen. Wie kaum ein anderer zieht er die Hörer in seinen Bann. Einem seiner Schüler, Erich Schneider, zufolge sei es alleine Schumpeter zu verdanken, dass sich Bonn in wenigen Jahren zu einem ‚Mekka‘ der Volkswirtschaftslehre entwickelt habe“, so Kurz.

Macht und die Kaste der Manager

Schumpeter schöpft in dieser Lebensphase neuen Mut und veröffentlicht binnen kurzer Zeit mehrere einflußreiche Aufsätze. Dazu zählt die 1928 im Economic Journal veröffentlichte Abhandlung „The Instability of Capitalism“. In ihm beschreibt er die dem Kapitalismus seiner Ansicht nach innewohnenden selbstzerstörerischen und diesen letztlich transzendierenden Kräfte, und nimmt damit eine Hauptidee seines knapp anderthalb Jahrzehnte später veröffentlichten Buches Capitalism, Socialism and Democracy (1942) vorweg. „Schumpeter trägt in seinem Aufsatz dem Umstand Rechnung, dass es die von ihm verherrlichte Gestalt des ‚Unternehmers‘ immer seltener gibt. An die Stelle des Wettbewerbs-Kapitalismus sei der in Trusts vermachtete Kapitalismus getreten. Dieser ist gekennzeichnet durch eine Trennung von Eigentum und Kontrolle sowie die wachsende Bedeutung der neu entstehenden Kaste der Manager“, erläutert Kurz.

Niedergang der Mannigfaltigkeit

Die Aufsteiger-und Absteigertypen in einer vertrusteten Gesellschaft seien völlig andere als in einer Konkurrenzgesellschaft und der Unterschied überträgt sich schnell auf Motive, Stimuli und Lebensstile, führt Schumpeter aus. Es wirkt sich negativ für die ökonomische Wohlfahrt aus. Oder in den Worten von Wilhelm Röpke, der zu den Architekten der Sozialen Markwirtschaft gehörte: Es leidet die Mannigfaltigkeit – nachzulesen im Buch „Wilhelm Röpke – Wissenschaftler und Homo politicus zwischen Marburg, Exil und Nachkriegszeit“, erschienen im Metropolis-Verlag. In Märkten, die von ungesunden Machtstrukturen dominiert werden, leiden mittelständische Unternehmen und die Kundschaft.

Wohin das beispielsweise auf dem Entsorgungsmarkt führt, dokumentiert ein Schreiben des Milchindustrieverbandes, das Anfang des Jahres veröffentlicht wurde. Es geht um Verträge, um die Pflichten des Gesetzgebers beim Verpackungsrecycling über Gelbe Tonnen und Säcke zu erfüllen. „Schon jetzt betrifft die Handelslizenzierung rund 50 Prozent des Marktes. Sie stellt keinen Ausnahmetatbestand mehr dar und stellt den Markt für die Verpackungsentsorgung vor umfangreiche wettbewerbliche Probleme, da im Rahmen der Handelslizenzierung nur einige wenige Handelsunternehmen die Verpackungsentsorgung nachfragen und dies auch nur bei einigen wenigen Dualen Systemen. Regelmäßig erfolgt die Handelslizenzierung derzeit zu überhöhten Preisen.“ Klingt nicht spektakulär.

Am Beispiel des Kunststoffverwertung sind das aber enorme Beträge. Da werden 1.296 Euro pro Tonne als Entsorgungspreis verlangt. Ein entsprechender Vertrag wurde dem Notiz-Amt aus der Konsumgüterindustrie zugespielt. Der Marktpreis durch technologische Innovationen liegt aber mittlerweile beim Plastikrecycling unter 600 Euro. Wie kann es sein, dass ein Handelskonzern von seinen Lieferanten mehr als doppelt so viel verlangt? Was passiert mit den rund 700 Euro pro Tonne, die in der Kasse des beauftragten Dualen Systems landen? Der Gesetzgeber fürchtet wohl Kickback-Absprachen zu Gunsten der fünf Handelsgiganten und will das ab 2019 durch das Verpackungsgesetz unterbinden. Siehe auch den NRWision-TV-Beitrag

Das Märchen vom ehrbaren Kaufmann

Das Bild des ehrbaren Kaufmanns ist wohl nur eine Chimäre, genauso wie die Segnungen der unsichtbaren Hand,  führen Professor Lutz Becker und Amit Ray in einem Beitrag für das Fachbuch „CSR und Marketing“ aus. Wenn sich ökonomisch, ökologische und soziale Dysfunktionalitäten ergeben, stellt sich die Frage nach den Regulativen.

Solche Moralzehrer findet man vor allem bei den Routineunternehmen, bei den Platzhirschen, bei den verkrusteten Konzernen sowie bei jenen Protagonisten, die sich über Kartelle organisieren und absichern. Atypisch-verantwortungsvolle Unternehmer findet man vor allem bei neuen Akteuren, die sich von alten Routinen, Absprachen und Ritualen abgrenzen. Es sind Unternehmer, die Anstand und Gemeinwohl als mindestens genauso wichtig erachten, wie Gewinn und Verlust. „Unternehmer, die mit den Regeln des Marktes, die sie unanständig finden, brechen – wie etwa Viva con Agua, eine sich als Social Business verstehende Mineralwassermarke, die sich der Sicherung der Trinkwasserversorgung in den so genannten Entwicklungsländern verschrieben hat“, schreiben Becker und Ray.

Routineunternehmer lieben die Wahrung des Status quo und nutzen Situationen, um Vorteile zu erschleichen. Diese Logik zwingt den Gesetzgeber dauerhaft zum Nachziehen. Ein Katz-und-Maus-Spiel, bei dem die Handlungsethik auf der Strecke bleibt. Neue Schumpeter-Unternehmer braucht das Land.


Image (adapted) „The Boss“ by Hunters Race (CC0 Public Domain)


Weiterlesen »

Wie Merkel die VWL-Pseudorechnungen weglächelt: Mainstream-Ökonomen und Politik

Wissenschaft (adapted) (Image by Giammarco Boscaro [CC0 Public Domain] via Unsplash)

Obwohl vielen Vertretern der so genannten Mainstream-Ökonomie klar ist, dass man politisch nicht im luftleeren Raum operiert und es auch immer um normative Fragen geht, sehen sich die Mainstream-Ökonomen dennoch als politisch neutral. Es gibt nach Ansicht von Rüdiger Bachmann, Professor für Wirtschaftswissenschaften an der University of Notre Dame im US-Bundesstaat Indiana, keinen monolithischen Block von Marktliberalen oder Libertären.

Man würde eher das komplette parteipolitische Spektrum auch bei den Ökonomie-Professoren finden. „Der akademische Mainstream ist bei normativen Fragen zurückhaltender. Man kann Modelle oder Daten erst einmal sprechen lassen ohne direkt abzutesten, welche politischen Implikationen das nach sich zieht“, so Bachmann in einem Streitgespräch mit dem Autor der Notiz-Amt-Kolumne.

Auf meine Intervention, ob das nicht pharisäerhaft sei, sich hinter Modellen zu verstecken, antwortete Bachmann, das habe mit Pharisäertum nichts zu tun, das ist wissenschaftlich. „Ich habe da keine politische Agenda.“ Man könne Ökonomik betreiben mit einem Minimum an normativer Ausrichtung. Protagonisten, die sich von der herrschenden Lehre abwenden, werden aber nicht als Methoden-Kritiker gewertet, sondern vom Mainstream abgewatscht. Bachmann sprach von politischer Agitation. Der Vorsitzende des Vereins für Socialpolitik, Professor Achim Wambach, sieht das ähnlich. „Der pluralen Ökonomenbewegung geht es vielfach mehr um Politik als um Wissenschaft, da schwingt oft eine markt- und kapitalismuskritische Agenda mit.

Wer ist nun links und wer ist rechts in der Ökonomik?

Sind dann die Mainstream-Ökonomen rechts und reaktionär, wenn das andere Lager doch angeblich links ist? Diese Stigmatisierungen führen zu nichts. So wertet Professor Lutz Becker, Studiendekan der Hochschule Fresenius in Köln, die Disputation mit Bachmann:

„Da wird, wenn es um die Pluralen geht, in politischen Kategorien wie rechts und links argumentiert, die in meinen Augen – trotz einer aktuellen Renaissance – historisch obsolet sind.“ Dann gehe es in den Antworten des Mainstream-Ökonomen direkt wieder auf eine empiristische Argumentationslinie. Das sei auch nicht schlüssig, weil beispielsweise mit der Gewichtung von Faktoren riesige Hintertüren offen bleiben. „Oder anders: Man beruft sich auf Daten, verfolgt aber de facto und durch die Hintertür interpretative Zugänge, die aber dann ausgeblendet oder gar scharf zurückgewiesen werden.“

Becker fehlen in den Aussagen von Bachmann sowohl die Verortung der Mainstream-Ökonomik als auch der schlüssige rote Faden in der Argumentation. Bleibt das Argument von Wambach und Co. übrig, dass es ja mit der Verhaltensökonomie in Kombination mit neurowissenschaftlicher Kleckskunde, mit Institutionenlehre, Spieltheorie und finanzwissenschaftlichen Modellen genügend Ansatzpunkte für Methodenvielfalt im Mainstream gibt.

Rechtfertigungserzählungen der herrschenden Lehre

Aber auch das ist eine dürftige Replik. Es sind Rechtfertigungserzählungen. Bei den verhaltensökonomischen Laborexperimenten denkt man, den homo oeconomicus besser zu verstehen. Man hat ein wichtiges Defizit im klassischen Ansatz gekittet und alles ist wieder in bester Ordnung.

Die Ökonomie hat ihr Standardmodell, dann wirft man ihr irgendetwas vor: Kein Problem, das kriegen wir gefixt. Jetzt machen wir Experimente, jetzt haben wir doch einen sehr viel differenzierteren homo oeconomicus. Aber was sie eben nicht leistet in einer Zeit des massiven Umbruchs, ist Orientierung.  Diese Welt, in der wir heute leben, ist ja in einer ganz massiven Form durch die Ökonomie geprägt. Jetzt merken wir, dass ganz viele Dinge auf uns zukommen, die eine gewaltige neue Herausforderung darstellen“, so Professor Uwe Schneidewind in der Diskursreihe der D2030-Initiative. 

„Die ökonomischen Dynamiken treiben die ökologische Sache immer noch in die falsche Richtung. Aber auch Fragen wie die Digitalisierung. Plötzlich haben wir mit Null-Grenzkosten-Produkten zu tun, wir haben mit Produktivitätssprüngen zu tun, die vermutlich das Maß vorangegangener technologischer Wenden noch mal überwinden. Jetzt würde man sich ja eine Ökonomie wünschen, die vor denkt. Was heißt das? Auch so etwas wie Grundeinkommen, wie organisieren wir unseren Sozialstaat? Das sind ganz neue Formen. Was ist denn eigentlich mit der Geldwirtschaft in einem Zeitalter von Bitcoin? Also wenn es vielleicht gar keine Zentralbanken mehr gibt und braucht. Also ganz viele Fragen.“

Experimente in Boxen

Mainstream-Ökonomen wirken nicht als öffentliche Intellektuelle. Sie versagen als Orientierungskompass und verkriechen sich mit ihren teilweise irrelevanten Experimenten in Boxen und kanzeln Kritiker als linke Spinner ab, die mit statistischen Verfahren und Mathematik auf Kriegsfuß stehen. Wenn man tradierte Ökonomen mit empirischen Methoden in ihrem Modellplatonismus zerlegt, reden sie sich mit Rechenfehlern heraus oder verweisen auf notwendige Vereinfachungen in den Berechnungen.

Dahinter stecken Immunisierungsstrategien, um sich einer  wissenschaftstheoretisch sauberen Überprüfung zu entziehen. Hans Albert hat das in seiner Schrift „Nationalökonomie als Soziologie der kommerziellen Beziehungen“ ausführlich dargelegt: „Eines der beliebtesten Mittel, ökonomische Aussagen zu tautologisieren und sie damit empirischer Überprüfung zu entziehen, ist die Verwendung der so genannten ceteris-paribus-Klausel. Wenn ein ökonomisches ‚Gesetz‘ unter Anwendung dieser Klausel formuliert wird, dann ist der mehr oder weniger offenkundige Zweck dieser Einschränkung der, dieses Gesetz vor Falsifikation zu schützen. Wenn ein dem ‚Gesetz‘ widersprechender Fall aufgezeigt werden kann, dient die Klausel sozusagen seiner ‚Rettung‘ durch Aufweis eines Faktors, der nicht konstant geblieben ist.“

Wann stellt die Wirtschaftswissenschaft wieder spannende Fragen?

Man kann normativ, plural oder heterodox unterwegs sein und gleichzeitig etwa in der Bewertung von Szenarien mit statistischen Verfahren arbeiten. Was generell fehlt, ist nach Meinung von Schneidewind eine Ökonomie, die spannende und richtige Fragen stellt. „Das ist der Grund, warum ich gerne an die Uni gehe, weil ich merke: Wow, die behandeln da genau die richtigen Themen, die gesellschaftlich relevant sind. Von dorther wird man dann sehen, dass die Ökonomie automatisch pluraler und sehr viel interdisziplinärer sein muss. Etwa beim digitalen Wandel. Das bekommt man nur in den Griff, wenn ich auch ein technologisches Verständnis habe, wenn ich mich mit den sozialen, gesellschaftlichen, kulturellen Dynamiken auseinandersetze. Dadurch wird das also sehr viel multidisziplinärer und es findet idealerweise auch ein ganz intensiver Austausch mit Leuten statt, die diese Prozesse gestalten. Plötzlich kommen auch Unternehmen und Unternehmer gerne in Unis, um mitzudiskutieren, weil sie merken: Das hilft ihnen.“ Das sei heute alles nicht gegeben, weil sich das Fach nur über seine Methode definiert.

„Du kannst heute Karriere in dem Fach machen, wenn du die irrelevantesten Fragen ökonomisch sauber behandelst“, kritisiert der Präsident des Wuppertal-Instituts. Da gebe es keine Inspiration – beispielsweise für die Politik. „Wenn die Merkel den Sachverständigenrat weglächelt, weil sie sagt: Hey, das kann ich sowieso gleich in die Kiste schmeißen, weil es mir für meine Wirtschaftspolitik keine Orientierung gibt. Und wenn du einen Management-Praktiker fragst, wann er zum letzten Mal aus der Management-Lehre der BWL-Fakultäten einen Impuls bekommen hat, dann muss der ganz lange überlegen, wenn ihm überhaupt irgendetwas einfällt. Diese komplette Inspirationslosigkeit des Faches kann ich nur dadurch drehen, indem ich wieder die richtigen Fragen stelle. Dann ergibt sich der Rest von selbst“, sagt Schneidewind.

Private Hochschulen sorgen für frischen Wind

Es sei ja schon fast eine paradoxe Situation, dass die kritische Ökonomie, die das bestehende System hinterfragt, heute eher an privaten Hochschulgründungen gedeiht als an den staatlichen. Das sollte so nicht sein, moniert Schneidewind. Was wir ökonomisch erleben, müsse kritisch hinterfragt werden. „Dafür hat man staatliche Universitäten gegründet, damit es Wissenschaftlerinnen und Wissenschaftler gibt, die frei von ökonomischen Zwängen das System in Frage stellen können. Es ist eine verkehrte Welt: Die staatlichen Häuser legitimieren das weiter und die kritischen Impulse kommen aus privaten Uni-Gründungen.“

Die Ursache sieht Schneidewind im Reproduktionsmodus des akademischen Systems. Nach den Reformwellen in den 60er und 70er Jahren, die sehr stark sozialwissenschaftlich und kritisch geprägt waren, kam eine Gegenbewegung mit einem naturwissenschaftlichen Paradigma. Am Ende verödet halt die Mainstream-Ökonomik an Monotonie. Das Notiz-Amt hält es für Zeitverschwendung, an eine Reformfähigkeit der etablierten Lehre zu glauben. Eher sollten private Institutsgründungen für neuen Geist sorgen.


Image (adapted) „Wissenschaft“ by Giammarco Boscaro [CC0 Public Domain]


Weiterlesen »

Warum Menschen an Verschwörungstheorien glauben und wie man ihre Meinung ändert

Ich sitze im Zug, als seine Gruppe Fußballfans hereinströmt. Direkt vom Spiel – ihr Team hat offenbar gewonnen – besetzen sie die leeren Sitze um mich herum. Eine Frau nimmt eine weggeworfene Zeitung und kichert hämisch, als sie über die neuesten „alternativen Fakten“ liest, die von Donald Trump verbreitet wurden.

Die anderen mischen sich schon bald mit ihren Gedanken über die Vorliebe des US-Präsidenten für Verschwörungstheorien ein. Das Gespräch geht bald in andere Verschwörungen über und ich höre gerne zu, als die Gruppe sich erbarmungslos über Klimaleugner, Chemtrails Mems und die neueste Erleuchtung von Gwyneth Paltrow lustig macht.

Dann herrscht Stille und einer nutzt dies als Möglichkeit, Folgendes anzuführen:

Dieses Zeug mag Unsinn sein, aber versucht nicht, mir zu erzählen, dass man allem vertrauen kann, was einem von der breiten Masse zugeführt wird! Denkt an die Mondlandung. Sie waren offensichtlich gefälscht – und das nicht einmal gut. Ich habe vor ein paar Tagen diesen Blog gelesen, in dem stand, dass nicht einmal Sterne auf den Bildern zu sehen waren!

Zu meinem Erstaunen führt die Gruppe weitere „Beweise“ an, die die Falschmeldung über die Mondlandung unterstützen: Widersprüchliche Schatten auf Fotos, eine wehende Fahne, obwohl es auf dem Mond doch keine Atmosphäre gibt oder wie Neil Armstrong gefilmt wurde, als er auf der Mondoberfläche herumstapfte, wenn doch keiner da war, der die Kamera gehalten hatte.

Noch eine Minute zuvor schienen sie rational denkende Menschen zu sein, die fähig waren, Beweise zu beurteilen und eine logische Schlussfolgerung zu ziehen. Aber nun gehen die Dinge den Bach hinunter. Also atme ich tief durch und entscheide mich dazu, mich einzumischen: „Eigentlich kann das alles recht einfach erklärt werden…“

Sie drehen sich zu mir, entsetzt, dass ein Fremder es wagt, sich in ihr Gespräch einzumischen. Ich mache unbeirrt weiter und konfrontiere sie mit einem Schwall von Fakten und rationalen Erklärungen.

„Die Flagge flatterte nicht im Wind, sie bewegte sich nur, als Buzz Aldrin sie in den Boden gesteckt hatte! Die Bilder wurden zur Tageszeit auf dem Mond gemacht – und natürlich kann man tagsüber die Sterne nicht sehen. Die komischen Schatten sind da wegen der sehr weitwinkligen Linsen, die die Fotos ein wenig verzerren. Und es hat niemand das Bildmaterial genutzt, auf dem Neil die Leiter hinuntersteigt. Eine Kamera war außen an der Mondfähre angebracht. Die hat gefilmt, wie er seinen gigantischen Sprung gewagt hat. Wenn das noch nicht reicht, liefern die Fotos vom Landeplatz des Lunar Reconnaissance Orbiter den letzten entscheidende Beweis, auf denen man ganz deutlich die Spuren sehen kann, die die Astronauten hinterlassen haben, als sie über die Mondoberfläche gingen.“

So, jetzt habe ich es ihnen gezeigt, denke ich bei mir. Aber es scheint, als wären meine Zuhörer noch lange nicht überzeugt. Sie wenden sich von mir ab und geben jede Menge seltsame Behauptungen ab. Stanley Kubrick hat alles gefilmt, Mitwissende sind auf geheimnisvolle Weise gestorben, und so weiter…

Der Zug hält. Es ist nicht meine Station, aber ich steige trotzdem aus. Als ich etwas verschüchtert auf die Lücke zwischen Zug und Bahnsteigkante starre, frage ich mich, warum es meine dargelegten Tatsachen absolut nicht geschafft haben, ihre Meinung zu ändern.

Die einfache Antwort ist, dass Fakten und rationale Argumente nicht wirklich so gut dafür geeignet sind, die Überzeugungen der Leute zu ändern. Das kommt daher, dass unsere rational denkenden Hirne sich an unsere nicht so weit entwickelte, evolutionär bedingte Verbindungen in unserer Wahrnehmung angepasst haben. Ein Grund, warum Verschwörungstheorien so oft auftauchen, ist unser Wunsch, der Welt eine Struktur zu geben. Wir sind außerdem bestrebt, in allem, was uns begegnet, bestimmte Muster zu erkennen. Tatsächlich zeigte eine kürzlich durchgeführte Studie einen Zusammenhang zwischen dem Verlangen nach Struktur und der Tendenz, an eine Verschwörungstheorie zu glauben.

Schauen Sie sich beispielsweise diese Sequenz an:
00110010010011

Können Sie ein Muster erkennen? Sehr wahrscheinlich – und Sie sind nicht alleine. Eine kurze Twitter-Umfrage (die einer weitaus strengern kontrollierten Studie nachempfand) behauptete, dass 56 Prozent der Leute mit Ihnen übereinstimmen, obwohl die Sequenz nur entstanden ist, weil ich eine Münze geworfen habe.

Es scheint, als wäre unser Wunsch nach Struktur und unsere Fähigkeit, Muster zu erkennen, lebhaft ausgeprägt, was eine Tendenz herbeiführt, Muster zu erkennen – wie Konstellationen, Wolken, die wie Hunde aussehen und Impfstoffe, die Autismus herbeiführen – wenn eigentlich gar keine da sind.

Die Fähigkeit, Muster zu sehen, war für das Überleben unserer Ahnen wahrscheinlich sehr nützlich – es war wohl besser, fälschlicherweise Anzeichen eines Raubtieres zu vermuten, als eine echte große hungrige Katze zu übersehen. Aber wirft man dieselbe Tendenz in unsere informationsreiche Welt hinein, sehen wir nichtexistente Verbindungen zwischen Ursachen und Effekten – also Verschwörungstheorien – einfach überall.

Gruppenzwang

Ein weiterer Grund, warum wir so erpicht darauf sind, an Verschwörungstheorien zu glauben, ist der, dass wir soziale Wesen sind. Unser Status in der Gesellschaft ist von einem evolutionären Standpunkt aus weitaus wichtiger, als Recht zu haben. Daher vergleichen wir unsere Handlungen und Vorstellungen immer mit denen unserer Mitmenschen und passen sie an, um dazuzugehören. Das bedeutet, dass wir sehr wahrscheinlich dem folgen, was die Gruppe glaubt, der wir uns zugehörig fühlen.

Der Effekt sozialer Beeinflussung auf unser Verhalten wurde gut im Jahr 1961 durch das Straßenecken-Experiment demonstriert, das von dem US-Psychologen Stanley Milgram, der wegen seiner Untersuchungen, wie man Gehorsam gegenüber Autoritäten einfordert, berühmt geworden ist, und seinen Kollegen durchgeführt wurde. Das Experiment war einfach und unterhaltsam genug, um es nachzumachen. Entscheiden Sie sich einfach für eine belebte Straßenecke und starren Sie 60 Sekunden lang in den Himmel.

Mit großer Wahrscheinlichkeit werden nur ein paar Menschen stehen bleiben und schauen, was Sie sich ansehen – in dieser Situation fand Milgram heraus, dass nur etwa vier Prozent der Passanten mitmachten. Nun bringen Sie einige Freunde mit und probieren Sie es noch einmal. Wenn die Gruppe wächst, werden immer mehr Fremde stehen bleiben und nach oben starren. Hat die Gruppe erst einmal eine Größe von 15 Leuten erreicht, die in den Himmel starren, werden um die 40 Prozent der Passanten stehen bleiben und ihr Gesicht zusammen mit Ihnen in die Höhe strecken. Sicherlich hat jeder von uns Erlebnisse dieser Art schon einmal in Kaufhäusern bemerkt, wenn man sich zu den Ständen hingezogen fühlt, um die eine ganze Menschentraube steht.

Das Prinzip gilt genauso für Gedanken. Wenn mehrere Leute etwas glauben, ist es wahrscheinlicher, dass wir dies als wahr akzeptieren. Und wenn wir durch unsere soziale Gruppe einer bestimmten Idee extrem ausgesetzt sind, wird diese in unsere Weltanschauung eingebettet. Kurz gesagt ist der soziale Beleg eine weitaus effektivere Überzeugungstechnik als ein Beleg, der rein auf Fakten basiert. Das ist auch der Grund, weshalb diese Art von Beleg in der Werbung so beliebt ist („80 Prozent der Mütter stimmen zu“).

Der soziale Beweis ist nur einer aus einer Menge logischer Täuschungen, die ebenfalls dazu führen, dass wir Beweise übersehen. Ein verwandtes Problem ist der omnipräsente Bestätigungsfehler. Hier tendieren viele Leute dazu, jenen Daten zu glauben, die ihre Ideen unterstützen und die Beweise zu ignorieren, die sie nicht bestätigen. Wir alle leiden daran. Denken Sie einfach an das letzte Mal zurück, als im Fernsehen oder im Radio eine Debatte lief. Wie überzeugend war das Argument, das gegen unsere Ansichten war im Vergleich zu jenem, das mit unserer Überzeugung übereinstimmte?

Aller Wahrscheinlichkeit nach haben wir, ganz egal, wie rational die jeweilige Seite war, die Gegenargumente hauptsächlich ausgeblendet, während wir uns auf die Seite derer schlagen wollten, die mit unserer Auffassung übereinstimmten. Bestätigungsfehler manifestieren sich auch als eine Tendenz, Information aus Quellen zu wählen, die bereits mit unseren Anschauungen übereinstimmen (die wahrscheinlich aus dem sozialen Umfeld stammen, aus der wir kommen). Daher bestimmten Ihre politischen Anschauungen wahrscheinlich ihren Nachrichtenkonsum.

Natürlich gibt es ein Glaubenssystem, das logische Täuschungen wie Bestätigungsfehler erkennt und versucht, sie aus dem Weg zu räumen. Die Wissenschaft macht durch Wiederholungen von Beobachtungen aus Anekdoten reine Daten, reduziert Bestätigungsfehler und akzeptiert, dass Theorien durch neue Beweise aktualisiert werden können. Das heißt, sie ist offen genug, ihre Kerntexte zu bearbeiten. Trotzdem werden wir alle von Bestätigungsfehlern geplagt. Der Starphysiker Richard Feynman beschrieb ein Beispiel, das in einer der schlüssigsten Gebiete der Wissenschaft auftrat: Der Elementarteilchenphysik.

„Millikan hat die Ladung eines Elektrons durch ein Experiment mit fallenden Öltropfen gemessen und bekam eine Antwort, von der wir nun wissen, dass sie nicht ganz richtig ist. Sie weicht ein wenig ab, weil er den falschen Wert für die Viskosität der Luft hatte. Es ist interessant, sich die Geschichte der Messungen der Ladungen von Elektronen nach Millikan anzusehen. Wenn man sie als eine Funktion der Zeit darstellt, kommt man darauf, dass eines etwas größer ist als die Millikans und das nächste etwas größer als dieses und das nächste wiederum größer, bis sie letztendlich auf eine höhere Zahl kommen.“

„Warum kamen sie nicht gleich darauf, dass die neue Zahl höher war? Für Geschichten wie diese schämen sich Wissenschaftler. Wenn sie eine Angabe erhielten, die die Millikans überstieg, dachten sie, sie hätten eine Fehler gemachtsuchten und fanden eine Lösung, warum etwas eventuell falsch war. Wenn sie eine Zahl hatten, die näher an Millikans Wert war, suchten sie nicht so gründlich.“

Mythos-erweiternde Pannen

Manch einer mag sich nach den populären Medien richten und Irrglauben und Verschwörungstheorien durch den Mythos-erweiternden Zugang zu bewältigen. Den Mythos neben der Realität zu nennen scheint eine gute Möglichkeit zu sein, um die Tatsachen und die Lügen zu vergleichen, sodass die Wahrheit ans Licht kommen wird. Aber wieder stellt sich heraus, dass dies ein schlechter Zugang ist. Es scheint einen Fehlschlageffekt hervorzurufen. Hierbei ist der Mythos letztendlich das, was im Kopf bleibt – und nicht die Tatsache selbst.

Eines der hervorragendsten Beispiele dazu hat eine Studie gezeigt, die Flyer zu Mythen und Fakten über Grippeimpfstoffe bewertete. Direkt nach dem Lesen erinnerten sich die Teilnehmer genau an die Fakten als Fakten und die Mythen als Mythen. Doch nur 30 Minuten später schien dies völlig auf den Kopf gestellt worden zu sein, da man sich an die Mythen viel eher als „Fakten“ erinnerte.

Man glaubt, dass das reine Erwähnen der Mythen hilft, diese zu untermauern. Wenn dann die Zeit vergeht, vergisst man den Kontext, in dem man den Mythos gehört hat – in diesem Fall während einer Erklärung – und erinnert sich nur mehr an den Mythos selbst.

Was noch schlimmer ist: Führt man einer Gruppe mit einem sehr festgesetzten Anschauungskatalog neues Wissen vor, kann dies ihre Anschauungen noch bestärken, obwohl die neue Information diese eigentlich schwächen sollte. Neue Beweise führen zu Widersprüchlichkeiten in unserem Weltbild und zu einem damit assoziierten emotionalen Unwohlsein. Aber anstatt unsere Anschauungen zu modifizieren, tendieren wir dazu, sie vor uns selbst zu rechtfertigen und anderslautende Theorien umso mehr abzulehnen, was uns noch mehr in unserem Weltbild bestärkt. Diese Tatsache kennt man als „Bumerang-Effekt“. Tatsächlich ist dieser Effekt ein großes Problem, wenn man versucht, Menschen zu besserem Verhalten umzupolen.

Beispielsweise haben Studien gezeigt, dass öffentliche Informationsanzeigen, die dazu dienen sollten Rauchen, Alkohol- und Drogenkonsum zu reduzieren, alle den gegenteiligen Effekt erzielten.

Freundschaften können helfen

Wenn wir uns also nicht auf die Fakten verlassen können, wie bringen wir Leute dann dazu, ihre Verschwörungstheorien oder andere irrationale Ideen zu verwerfen? Wahrscheinlich kann hier nur Bildung langfristig helfen. Damit meine ich nicht eine Vertrautheit mit wissenschaftlichen Fakten, Zahlen und Techniken. Was tatsächlich notwendig ist, ist Bildung in der wissenschaftlichen Methode, wie beispielsweise analytisches Denken. Tatsächlich zeigen Studien, dass das Verwerfen von Verschwörungstheorien mit mehr analytischem Denken verbunden ist. Viele Leute werden nie in der Wissenschaft tätig sein, aber wir nutzen sie oft genug. Daher brauchen die Bürger die Fähigkeiten, wissenschaftliche Behauptungen kritisch zu beurteilen.

Natürlich würde es mir bei der Situation im Zug nicht helfen, den Lehrplan eines Landes zu ändern. Für einen direkteren Zugang ist es wichtig, zu verstehen, dass es sehr hilft, Teil einer Gemeinschaft zu sein. Bevor man beginnt, jemanden bekehren zu wollen, sollte man erst einmal gemeinsame Werte feststellen.

Um den Fehlschlageffekt zu vermeiden, sollte man die Mythen ignorieren. Man sollte sie gar nicht erwähnen. Wichtig sind nur die Kernpunkte: Impfstoffe sind sicher und reduzieren die Chance, Grippe zu bekommen, um 50 bis 60 Prozent. Und das reicht. Man sollte keine Missverständnisse benennen, da man sich an diese oft besser erinnert.

Man sollte seine Gegner auch nicht provozieren, indem man deren Weltbild in Frage stellt. Stattdessen sollte man Erklärungen anbieten, die mit den bereits existierenden Vorstellungen harmonieren. Beispielsweise verändern konservative Klimawandel-Leugner ihre Meinung eher, wenn man ihnen auch die Geschäftsmöglichkeiten für die Umwelt präsentiert.

Ein weiterer Vorschlag: Nutzen Sie Anekdoten, um ihren Argumente zu präsentieren. Menschen engagieren sich mit Hilfe von persönlichen Erzählungen weitaus mehr als durch Diskussionen oder Situationsbeschreibungen. Erzählungen verbinden Ursache und Effekt. So werden die Schlussfolgerungen, die präsentiert werden sollen, unvermeidlich mit abgespeichert.

All das soll natürlich nicht heißen, dass die Fakten und wissenschaftlicher Konsens nicht wichtig sind. Sie sind es sogar sehr. Aber wenn man sich der Makel in unserem Denken bewusst ist, ist es einfacher, seinen Standpunkt auf überzeugendere Weise zu präsentieren.

Es ist unverzichtbar, dass wir Lehrsätze herausfordern. Aber statt willkürliche Punkte miteinander zu verbinden oder eine Verschwörungstheorie zu erschaffen, müssen wir von den Entscheidungsmachern die entsprechenden Beweise verlangen. Fragen Sie nach den Daten, die eventuell eine Anschauung untermauern und suchen Sie nach Informationen, die sie auf die Probe stellen. Ein Teil dieses Prozesses bedeutet, unsere eigenen voreingenommenen Instinkte, Begrenzungen und logische Täuschungen zu erkennen.

Wie wäre also mein Gespräch im Zug verlaufen, hätte ich meine eigenen Ratschläge beherzigt? Gehen wir zu dem Moment zurück, als ich begriff, dass die Dinge den Bach runtergingen. Dieses Mal atme ich tief durch und mische mich ein. „Hey, tolles Ergebnis beim Spiel. Eine Schande, dass ich kein Ticket bekommen konnte.“ Bald sind wir vertieft ins Gespräch und diskutieren über die Chancen des Teams in dieser Saison. Nach ein paar Minuten des Gesprächs, wende ich mich an den Verschwörungstheoretiker. „Hey, ich dachte gerade an diese Sache, die du über die Mondlandung gesagt hast. War nicht auf einigen Fotos auch die Sonne zu sehen?“ Er nickt. „Was bedeutet, dass es am Mond Tag war. Würdest du denken, dass man dort, wie hier auf der Erde, Sterne sehen kann?“„Hm, wahrscheinlich nicht, daran habe ich nicht gedacht. Vielleicht war in diesem Blog nicht alles richtig.“

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „Arbeitsplatz“ by Free-Photos (CC0 Public Domain)


The Conversation

Weiterlesen »

Die Netzpiloten sind Partner der OMK 2017

Partnergrafik_OMK

Es ist bereits das sechste Mal, dass die Online-Agentur web-netz und die Leuphana Universität die „OMK 2017 – Online Marketing Konferenz Lüneburg“ veranstalten. Hier dreht sich alles um das Thema Online-Marketing mit spannenden Speakern aus der Wirtschaft und Wissenschaft, die ihre Erfahrungen mit rund 600 Besuchern teilen.

Am 28. September könnt ihr auf dem Leuphana Campus in Lüneburg mit Referenten wie unter anderem Marcell Jansen – Ex Nationalspieler – oder Luana Theodoro da Silva – Instagram Star und Influencer – über die neuen Herausforderungen des Online-Marketings diskutieren und spannende Einblicke im Bereich E-Commerce sammeln. Den ganzen Tag über erhaltet ihr bei einem vielfältigen Programm anregende 30-Minuten Slots von über 20 Speakern. Dabei dreht sich alles um die aktuellen Trends im Online-Marketing. Erhaltet aufschlussreiche Forschungsergebnisse und wertvolle Insights von großen Unternehmen wie beispielsweise Xing AG, Google, Tom Tailor oder Facebook.

Das Ganze wird untermauert mit einem gemütlichen Warm-up am Abend vor der Konferenz im Old Dubliner Irish Pub, Foodtrucks – die den Tag über für die Verpflegung sorgen – und einer After-Show Party.

Die OMK in Lüneburg ist eine Non-Profit-Veranstaltung, bei der der Erlös des Events in ein Forschungsprojekt der Leuphana Universität fließt.

Wer Teil dieser spannenden Konferenz sein möchte, der sollte sich schnellstens Tickets sichern!

Weiterlesen »

Die Herausforderungen einer effektiven Führungskraft

Führungskraft (adapted) (Image by Rawpixel) (CC0 Public Domain) via pixabay

Weil die Menschen mehr denn je auf ihre Entscheidungsträger im sozialen, politischen und organisatorischen Bereich schauen, steht eine ordentliche Führungskraft wie nie zuvor im Mittelpunkt. Statt zu helfen, erscheinen Entscheidungsträger allerdings oft als ein Teil des Problems. Wenn es um Politiker geht, wird den Anführern von politischen Parteien oft die Schuld zugesprochen, weil sie daran gescheitert sind, ihren Wählern eine klare Vision zu bieten und für ihre eigenen moralischen Fehler oder ihrer Unfähigkeit, Wahlversprechen einzuhalten, einzustehen.

Theresa May, die britische Premierministerin, wurde weitestgehend für das schlechte Abschneiden der konservativen Partei bei den Parlamentswahlen des Landes im Jahr 2017 verantwortlich gemacht. Ihr roboterhaft herübergebrachtes Motto, dass man „stark und stabil“ bleiben müsse, erhielt viel Kritik.

Währenddessen scheint ein nie endender Nachrichtenfluss die vermeintlichen Lügen des US-Präsidenten Donald Trump aufzudecken und darüber hinaus seine Geeignetheit für das Amt in Frage zu stellen. Andererseits scheint es einen steigenden Trend unter den Politikern auf der ganzen Welt zu geben, Gesetzesvorschläge aufgrund moralischer anstatt ökonomischer Standpunkte zu unterstützen oder sie abzulehnen.

In organisatorischer Hinsicht kriegen wir oft zu hören, dass sich das Vertrauen in Führungskräfte im Zuge der Finanzkrise, einer Reihe von Unternehmensskandalen sowie den fortwährenden Herausforderungen eines Mitarbeiters, eine „gute Arbeitsstelle“ zu sichern, auf einem Rekordtief befindet. Auch wenn man die aufsehenerregendsten Versagensfälle nicht übersehen kann, ist Führung nicht bloß ein Prozess, der sich auf der höchsten Stufe der Hierarchie abspielt. Wenn wir etwas über Führung, und wie sie in einem organisatorischem Umfeld funktioniert, erfahren wollen, müssen wir uns ebenso anschauen, wie Führungsverhalten und Einstellungen innerhalb der gesamten Organisation verbreitet werden.

Was die Forschung sagt

In unserer Forschung machen wir es uns zum Ziel, herauszufinden, was eine effektive Führungskraft ausmacht. Wir waren besonders interessiert an „zielgerichteter Führung“, weil ein rücksichtsvoller und zielgerichteter Ansatz oft als ein Gegenmittel für erzielte Misserfolge, herbeigeführt von einem rücksichtslosen Fokus auf kurzfristige finanzielle Erfordernisse, bejubelt wurde.

Zielgerichtete Führungskräfte sind Personen mit einer starken Überzeugung ihres persönlichen moralischen Kompasses, einer überzeugenden Vision für ihr Team und einer Berücksichtigung der Bedürfnisse des breiten Spektrums an Bedürfnissen der Stakeholder, wenn es um die Entscheidungsfindung geht. Es gibt viele weitere Führungstypen wie beispielsweise die charismatische Führungskraft, die auf die Stärke der Persönlichkeit und auf eine Vision vertraut, um die Leistungsfähigkeit ihrer Anhänger zu fördern. Dennoch kann die charismatische Führung, wie auch andere Führungsformen, eine dunkle Seite haben, die die Anhänger auf den falschen Pfad führen kann.

Zielgerichtete Führungspersonen sind jedoch vergleichsweise selten. Als wir eine Auswahl verschiedener Manager im Vereinigten Königreich befragten, bewerteten sich lediglich 21 Prozent als sehr zielgerichtet. Als wir diese Zahl noch weiter herunterbrachen fanden wir heraus, dass 35 Prozent aller Anführer aussagten, dass sie eine starke Vision für ihr Team haben und sich einem breiten Spektrum von Stakeholdern gegenüber verpflichtet fühlen. Nur acht Prozent sagten aus, dass sie einen starken moralischen Kompass besitzen. Als wir die Mitarbeiter fragten, sagten 40 Prozent aus, dass ihr Manager sich ethisch korrekt verhält.

Dies ist wichtig, weil die Befragung herausfand, dass zielgerichtete Führungskräfte von ihren Anhängern als moralisch vorbildlich angesehen werden. Dadurch sind die Mitarbeiter zufriedener, leisten mehr, kündigen nicht so schnell und sind eher zu Mehrarbeit bereit.

Zielgerichtete Anführer entstehen aber nicht im luftleeren Raum; einige Organisationen sind geeigneter als andere, wenn es darum geht, ein Arbeitsumfeld zu entwickeln, in der eine Führungskraft sich zielgerichtet verhalten kann. Als wir uns sowohl öffentliche, private und gemeinnützige Sektoren in Fallstudien angeschaut haben, tauchten hier einige interessante Abweichungen auf.

In Organisationen, bei denen die oberste Führung ein positives Beispiel darstellte, war die umfassende Verbreitung zielgerichteter Führung innerhalb der Organisation wahrscheinlicher. Eine Person, mit der wir in einem Handelsunternehmen sprachen, erläuterte: „Unser Vorstandsvorsitzender ist sehr, sehr visionär und absolut jeder hat die Vision geglaubt, die er wegen der Umwandlung des Unternehmens kommen sah. Ich glaube, dass es einen hohen Bewusstseinsgrad auf allen Mitarbeiterebenen gibt.“

Genauso wichtig ist eine starke Sammlung authentischer Unternehmenswerte. Bei einer Stiftung wussten und teilten die Leute dieselben Werte und ethischen Überzeugungen, was sie dazu ermutigt, sich übermäßigen Forderungen entgegenzustellen. Wir fanden auch heraus, dass klare und bekannte Richtlinien zum Whistleblowing viele Menschen von einer Organisation überzeugt hatte, die die Fragen der Ethik ernst nimmt. Auch wenn nicht alle Leute sich mit der spezifischen, religiösen Tradition der Stiftung identifizierten, waren sie dennoch begeistert vom ethischen Kodex, der von der Führungskraft vorgegeben wird.

Befreie deine Leute

Was sich aus der Studie ebenso ergab, war der schädigende Effekt, der die verborgene Arbeit in einer eingeengten Umwelt aufweist. Wo immer den Menschen entweder die Zeit oder die Ressourcen fehlten, war das erste Opfer meistens die Fokussierung auf Zielgerichtetheit und die ethischen Fragen. Wie es ein Anführer der Abteilung der Zentralregierung sagte: „Wenn Du sehr sehr hart arbeitest und die Dinge stressig werden, konzentrierst Du Dich auf die Aufgabe anstelle der Person.“

Eine andere Einschränkung von Organisationen ist die Schwierigkeit und Einbettung einer einzigen, klaren und konsequenten Vision, speziell in großen diversen Organisationen, die bereits eine Reihe von Neuorganisationen, Zusammenschlüssen und Übernahmen durchgemacht haben. Dies wurde von einem Teilnehmer zusammengefasst, der kommentierte, dass seine Organisation „eine Unmenge an Visionen hat“, die die Mitarbeiter verwirrte und im unklaren darüber ließ, wo die Prioritäten liegen.

Es gibt eine Reihe an Möglichkeiten für Führungskräfte, um zu zeigen, dass sie „zielgerichtet führen“. Die erste ist es, sicherzustellen, dass man weiß, wie die Vision der Organisation aussieht. Wer sich in einer leitenden Funktion befindet, sollte eine eine bedeutungsvolle und weit verbreitete Vision erarbeitet haben. Jede Führungskraft wird dann darüber nachdenken müssen, wie diese Vision für sein Team relevant werden kann. Regelmäßige Diskussionen über Visionen und Werte sind wichtig, damit die Menschen sehen, wir ihre Arbeit der Organisation nutzt und welchen Beitrag sie leistet.

Zweitens sollten sich Anführer Gedanken über ihren persönlichen moralischen Kodex machen: Welches sind die Kernwerte, die für Dich selber als Individuum am meisten zählen? Die Leute lassen ihre Werte nicht an der Eingangstür zurück, wenn sie ihre Arbeitsstelle betreten, also sollte man darüber nachdenken, wie die Werte in die eigene Arbeit integriert werden können. Schlussendlich sollte man sich im Entscheidungsfindungsprozess nicht auf kurzfristige Leistungsergebnisse konzentrieren, sondern ebenso darüber nachdenken, wie die verschiedenen Stakeholder davon beeinträchtigt werden.

Angesichts des momentan vorherrschenden Arbeitsklimas und der langen Zeit der Instabilität und Veränderung im Vereinigten Königreich während der Vorbereitungen auf den Brexit ist es wahrscheinlich, dass diese Belastungen nur größer werden. Dies wird Führungskräfte aus allen Bereichen vor weitere Herausforderungen stellen, „zielgerichtet“ zu handeln, obwohl die Notwendigkeit dieses Handelns noch nie wichtiger war.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „Teamwork“ by rawpixel (CC0 Public Domain)


 

Weiterlesen »

Die Netzpiloten sind Partner des Digital Transformation Summit

Partnergrafik_DTS-2017

In Berlin findet am 26. und 27. September der Digital Transformation Summit statt. Im Zentrum stehen dabei die Durchbrüche, vor denen Unternehmen stehen, die unsere Welt revolutionieren werden und die Digitalisierung der Wirtschaft, die viele Marktteilnehmer zur Neuausrichtung ihrer Geschäftsmodelle zwingt. Beim Wandel in das digitale Zeitalter können dem deutschen Unternehmertum die Disruption, Innovation und die Etablierung einer digitalen Führungskultur helfen, um nur einige Schlagwörter zu nennen.

Der Digital Transformation Summit, ins Leben gerufen durch die WirtschaftsWoche, begleitet Unternehmer auf dem spannenden Digitalisierungsweg mit inspirierenden Praxisbeispielen und Best Cases, die die digitale Transformation beispielhaft vorangetrieben haben, ergänzt durch frische Energie der „jungen Wilden“.

Abwechslungsreiches Programm

Auf dem zweitägigen Programm stehe Vorträge, Panel-Talks, Fishbowl-Talks, Workshops und ein Digital
Playground. Die Redaktion der Wirtschaftswoche ist vor Ort und moderiert die Veranstaltung, außerdem könnt ihr das Geschehen live in Social Media verfolgen. Vor Ort sein werden Vorstände, Geschäftsführer und Inhaber bekannter Großunternehmen, marktführender Mittelständler und inspirierender Startups sowie Spitzenpolitiker und Experten aus Wissenschaft und Gesellschaft, die für den Blick über den Tellerrand sorgen.

Spannende Speaker und interessante Themen

Zu den Speakern, auf die ihr euch beim Digital Transformation Summit freuen könnt, gehören:

Die Location ist das zentral gelegene Microsoft Atrium in Berlin-Mitte. Hier kommt ihr zur Anmeldung.

Weiterlesen »

Internet immer, Schlafen nimmer: Die Menschheit im Jahr 2167

uge (adapted) (image by geralt [CC0] via pixabay)

Wir leben in einer von Technologie geformten Welt. In den kommenden 150 Jahren des Fortschritts und der Entdeckung wird sie sich noch mehr verändern. Das Leben im Jahr 2167 wird erstaunlich, aufregend, praktisch – und ist trotzdem noch vorstellbar für jemanden aus dem Jahr 2017.

Jede konkrete Vorhersage darüber wie das 22. Jahrhundert wohl aussehen wird, wird fast mit Sicherheit falsch sein. Dennoch könnten bahnbrechende Entwicklungen in der Wissenschaft und reine Annahmen aufzeigen, was die Zukunft bereithalten könnte. Es ist unausweichlich, dass wir mit unseren eigenen Körpern experimentieren werden. Die Wohlhabenden werden routinemäßig ihre Gene überarbeiten und ihre Babys designen. Ob reich oder arm, fast jeder wird einen implantierten Internet-Chip tragen, sodass wir innerhalb eines Wimpernschlags online sein können. Und nachdem wir die Notwendigkeit zu schlafen beseitigt haben, werden wir sowohl sehr viel produktiver sein als auch weit mehr Zeit für Freizeit haben.

Menschlichkeit

Wir werden sicherlich länger leben als jetzt und wir werden größtenteils gesund bleiben, bis wir unser Ende erreichen. Allerdings werden frühere Versprechen von Verjüngung oder Unsterblichkeit niemals verwirklicht werden. Und was ist mit den kryogenisch eingefrorenen Köpfen? Sie werden immer noch gelagert werden.

Mehr verwegene Experimente werden versuchen, die eigentliche Definition von Bewusstsein zu verändern: Computer werden ein Bewusstsein erlangen und viele (aber nicht alle) von uns werden akzeptieren, dass Maschinen die gleichen Rechte haben werden wie wir Menschen. Einige werden sogar damit beginnen, sich in die gegenteilige Richtung zu bewegen, indem sie ihr Bewusstsein auf Software überspielen, um sich selbst von den Einschränkungen des verfallenden menschlichen Körpers zu befreien. Kernfusionen oder andere Energiequellen werden unbegrenzte, billige Energie hervorbringen. Demzufolge kann das fliegende Auto wirklich existieren.

Keine Wunder

Kanada wird jedoch auch nach 300 Jahren kein Land der Wunder sein. Unser Leben findet mitten im permanenten Klimawandel statt – der Schaden wird dann bereits angerichtet sein. Kriege sind ausgefochten, Regierungen gefallen und die Schere zwischen arm und reich dramatisch auseinandergegangen. Aber in den großen Städten Nordamerikas, die wir dem Meer abgetrotzt haben werden, sieht die schonungslose Wirklichkeit so aus, dass Menschen sich anpassen werden und das Leben weitergehen wird.

Über den Tellerrand hinaus betrachtet, deutet die atemberaubende Anzahl an Sternen in unserer Galaxie, der Milchstraße, darauf hin, dass wir Kontakt mit anderem intelligenten Leben hergestellt haben werden – und wir werden mit den Konsequenzen ringen. Tatsächlich könnten wir in jenen Tagen damit begonnen haben, selbst mit langsamen, schwerfälligen Schiffen eine ewig lange Reise zu den Sternen zu machen.

Realitäts-Check

So futuristisch all das auch klingen mag – die utopische Zukunft im Star-Trek-Stil, wie sie viele von uns erhoffen, wird Fiktion bleiben. Teleporter könnten theoretisch möglich sein, sind aber absolut unpraktisch. Und egal ob Warp-Antrieb oder Wurmlöcher, wir werden nicht mit Überlichtgeschwindigkeit durch die Galaxie schwirren. Wir werden noch keine Post-Mangelgesellschaft erreicht haben, in der Geld nicht mehr länger existiert.

Und was ist abschließend mit dem besten aller Science-Fiction-Träume, dem Zeitreisen? Nun ja, es gibt einen Grund, warum jede Geschichte über Zeitreisen voll mit Widersprüchen ist: Weil es traurigerweise etwas ist, das (zumindest meiner Meinung nach) niemals in der echten Welt passieren wird.

Auch im Jahr 2167 wird es nur einen Weg geben, durch die Zeit zu reisen: Jahr für Jahr und mit allen zusammen – hinein in eine ungewisse Zukunft.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „Auge“ by geralt (CC0 Public Domain)


The Conversation

Weiterlesen »

So klingt DNA: Wie Musik den genetischen Code knacken kann

dna-1811955 (adapted) (Image by qimono) (CC0 Public Domain) via Pixabay

Seit einigen Jahren beschäftige ich mich in meinen Forschungen mit Molekularbiologie. Außerdem interessiere ich mich für Musik und habe mit den Hummingbirds, einer Pop-Band aus Sydney, gespielt. Normalerweise ist die Schnittmenge zwischen diesen beiden Interessen nicht besonders groß. Aber kürzlich habe ich erfahren, dass man mit der DNA sogar Musik machen kann.
Dieses Phänomen nennt man Sonifikation. Hier werden DNA-Sequenzen wie zufällige Muster genutzt, um harmonische Musik zu komponieren. Aber was geschieht, wenn wir die Töne benutzen würden, etwas Nützliches über DNA-Sequenzen herauszufinden – beispielsweise bei Mutationen?

Ich habe daher meine Programmierkenntnisse genutzt und ein Werkzeug entwickelt, mit der DNA-Sequenzen in Audio-Streams konvertiert werden können. Die Ergebnisse wurden vor Kurzem in dem Magazin BMC Bioinformatics veröffentlicht.

Den Unterschied hören

Die DNA dient in unserem Körper als Vorlage für die Herstellung von Proteinen. Eine DNA-Sequenz ist eine lange, ununterbrochene Kette, die aus vier chemischen Basen besteht, die G, A, T oder C genannt werden. Diese wiederholen sich in vielen bestimmten Mustern, die dann ein Gen ausmachen. Viele Gene haben identische Sequenzen innerhalb einer Spezies; also gleichen sich diese von Person zu Person oder von Virus zu Virus.

Manchmal allerdings unterscheidet sich eine der chemischen Basen in einer Sequenz von dem üblichen Muster – eine Mutation entsteht. Diese kann auf einen Fehler, der der betroffenen Person oder dem betroffenem Mikroorganismus Probleme bereiten könnte, hinweisen. In meinem Online-Audio-Programm verursachen Veränderungen in einer sich wiederholenden DNA-Sequenz sehr auffällige Veränderungen des Klangs.

Um einen Eindruck davon zu vermitteln, habe ich hier eine künstliche DNA-Testsequenz in meinem Online-Audio-Programm vorbereitet, das aus einer Reihe von G-Sequenzen besteht:

Zum Vergleich eine DNA-Sequenz mit einer Mutation:

Die natürliche DNA-Sequenz verdeutlicht eine Veränderung des sich wiederholenden Klangs mit einem ungefähren Wert von 0,13. Hier findet eine subtile Veränderung (eine Mutation) der Sequenz statt:

 

Die Codone verschlüsseln

Im wirklichen Leben sind DNA-Abfolgen natürlich komplexer als das. Zunächst beinhalten echte DNA-Abfolgen Codone. Ein Codon ist eine Abfolge von drei Basen, die zu einer Gruppe von DNA-Information zusammengefasst werden. Ein Codon lenkt eine Baueinheit in einem Protein, auch unter dem Namen “Aminosäure” bekannt. In der Natur zeigen spezielle Codone die Start- und Endpunkte von Genen an. In meinem Ansatz werden diese Codone dazu verwendet, die Audiodatei zu starten und zu beenden.

Es ist nicht beabsichtigt, dass man einen Ton hören und sie einem bestimmten Codon zuordnen kann, auch wenn die Umgebung der Audiodatei charakteristisch für die zugrundeliegende Sequenz ist (wie man in den Beispielen hören kann).

Wie klingt es also, wenn man mein Sonifikationssystem auf ein echtes Stück DNA anwendet, das ein Protein ausmacht? Man nehme beispielsweise eine menschliche DNA-Abfolge, die ein Protein verschlüsselt (für die Experten unter den Lesern handelt es sich dabei um das RAS-Protein, das teilweise für eine Krebserkrankung verantwortlich ist). So würde es in der traditionellen geschriebenen Form aussehen:

Image The sound of DNA by Mark Temple via The Conversation
Eine Menschliche RAS-Seqzenz. DNASonification/Mark Temple

Und so klingt es in meinem Online-Audio-Programm:

In der obigen Kodierungssequenz spielt immer ein Instrument (dasjenige, das tatsächlich das Protein verschlüsselt). Als ich einige Sequenzen “sonifiziert” habe, die wichtige RNA-Bestandteile von Zellen (keine Proteine) entschlüsseln, sind zum Teil nur Abschnitte zu hören, in denen man nichts hört. Oft sind hier Klopfgeräusche zu hören, die anzeigen, an welcher Stelle ein Codon entdet:

Normalerweise vertrauen wir Wissenschaftler stark auf die optische Kontrolle der DNA-Abfolgen, um ihre Geheimnisse zu entschlüsseln. Die Sonifikation allein ist nicht dafür gedacht, die optische Kontrolle zu ersetzen, sondern eher, um sie zu erweitern, genau wie Farben genutzt werden, um die Eigenschaften von DNA-Abfolgen hervorzuheben.

Neben der Genauigkeit der DNA-Forschung gibt es ein starkes Interesse innerhalb der Gesellschaft, besser zu verstehen, wie DNA-Abfolgen unsere physische Gestalt festlegen und Mutationen, die sich in unserer DNA ansammeln, unsere Gesundheit auf lange Sicht beeinflussen. Es ist zu hoffen, dass das Anhören von DNA-Audiodateien der Forschung dabei hilft, besser zu verstehen, wie Zellbiologie funktioniert.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „dna-1811955“ by qimono (CC0 Public Domain)


The Conversation

Weiterlesen »

Arbeitsgedächtnis: Wie man die Dinge auf kurze Zeit „im Hinterkopf“ behält

Schreiben (adapted) (image by picjumbo_com [CC09 via pixabay)

Mal angenommen, wir müssen uns eine Telefonnummer, eine Einkaufsliste oder eine Reihe von Anweisungen merken. Dabei verlassen wir uns auf das, was Psychologen und Neurologen als Arbeitsgedächtnis (auch: Kurzzeitgedächtnis) bezeichnen. Es ist die Fähigkeit, Informationen über einen kurzen Zeitraum festzuhalten und sich dieser zu bedienen. Das betrifft jene Dinge, die jetzt im Moment wichtig für uns sind, in 20 Jahren aber keine Relevanz mehr haben.

Forscher sind der Meinung, dass das Arbeitsgedächtnis von zentraler Bedeutung für einen funktionsfähigen Verstand ist. Es wird vielen anderen, grundlegenderen Fähigkeiten und Ergebnissen zugeordnet – unter anderem der Intelligenz und dem akademischem Abschluss – und es ist mit fundamentalen sensorischen Prozessen verbunden.

In Anbetracht dieser zentralen Rolle, die das Arbeitsgedächtnis in unserer Mentalität einnimmt, und der Tatsache, dass wir uns zumindest Teilen dessen Inhalts bewusst sind, könnte das Arbeitsgedächtnis ein wichtiger Faktor in unserem Bemühen, das Bewusstsein selbst zu verstehen, werden. Psychologen und Neurowissenschaftler forschen jeweils an verschiedenen Aspekten des Arbeitsgedächtnisses. Die Psychologie versucht, die Funktionen des Systems herauszuarbeiten, während die Neurowissenschaft ihren Fokus auf die neuronalen Grundlagen legt. Hier ist ein kurzer Einblick in den derzeitigen Stand der Wissenschaft.

Wie groß ist unser Arbeitsgedächtnis?

Die Kapazität ist eingeschränkt – wir können zu jedem Zeitpunkt nur eine bestimmte Anzahl an Informationen „im Hinterkopf“ behalten. Die Art dieses Limits wird von Wissenschaftlern jedoch noch debattiert.

Viele Forscher sind der Meinung, dass unser Arbeitsgedächtnis eine begrenzte Anzahl an einzelnen Begriffen („items“) oder zusammenhängenden Informationen („chunks“) speichern kann. Dabei kann es sich um Zahlen, Buchstaben, Wörter oder andere Einheiten handeln. Forschungen haben gezeigt, dass die Anzahl an Informationen, die im Arbeitsgedächtnis zwischengespeichert werden können, von der Art der Information abhängig ist – wie beispielsweise von Geschmacksrichtungen verschiedener Eissorten oder die Nachkommastellen von Pi.

Eine weitere Theorie schlägt vor, dass das Arbeitsgedächtnis als kontinuierliche Ressource agiert, die auf sämtliche gespeicherten Informationen aufgeteilt wird. Das bedeutet, dass je nachdem wie unsere persönlichen Ziele aussehen, unterschiedliche Informationen eine unterschiedliche Menge an Ressourcen zugeteilt wird. Neurowissenschaftler schlagen vor, dass diese Ressourcen der neuralen Aktivität entsprechen könnten. Dementsprechend widmen sich also unterschiedliche Aktivitätsmengen den unterschiedlich gespeicherten Informationen, abhängig von der aktuellen Priorität. Im Gegensatz dazu argumentiert ein anderer theoretischer Ansatz, dass die Ursache für die Kapazitätsgrenze unseres Arbeitsgedächtnisses durch Interferenzen zwischen den verschiedenen Informationen entsteht, die sich sozusagen gegenseitig behindern.

Natürlich schwinden Erinnerungen mit der Zeit. Jedoch kann dieser Prozess durch Wiederholung der Informationen, die sich im Arbeitsgedächtnis befindet, abgeschwächt werden. Das erhaltende Wiederholen (engl. ‚maintenance rehearsal‘), wie es von Wissenschaftlern genannt wird, beinhaltet die gedankliche Wiederholung der Informationen ohne Bezug zu ihrer Bedeutung – zum Beispiel die gedankliche Wiederholung einer Einkaufsliste und das Nachdenken über die darauf aufgelisteten Zutaten als einzelne Worte, ohne dabei an das Gericht zu denken, dass daraus gekocht werden soll.

Im Gegensatz dazu geht es bei der elaborierten Wiederholung von Informationen darum, den Informationen eine Bedeutung zu geben, und sie mit anderen Informationen in Verbindung zu bringen. Beispielsweise erleichtern Eselsbrücken das elaborierte Wiederholen von Informationen, indem sie den ersten Buchstaben jedes „items“ einer Liste mit einer bereits im Gedächtnis vorhandenen Information verknüpfen. Es scheint, als könnte nur die elaborierte Wiederholung Informationen aus dem Arbeitsgedächtnis festigen, und so in eine langlebigere Form umwandeln – das entspricht der Definition des Langzeitgedächtnisses.

Was die visuelle Domäne betrifft, kann Wiederholung unter anderem Bewegungen der Augen beinhalten, die visuelle Informationen einem bestimmten Ort zuordnen. Anders ausgedrückt, schauen Menschen möglicherweise an den Ort der ins Gedächtnis gerufenen Information, nachdem diese schon verschwunden ist, um sich wieder zu erinnern, wo sich die Information befunden hat.

Arbeitsgedächtnis versus Langzeitgedächtnis

Das Langzeitgedächtnis wird durch eine sehr viel größere Speicherkapazität charakterisiert. Außerdem sind die gespeicherten Informationen langlebiger und stabiler. Erinnerungen aus dem Langzeitgedächtnis können sowohl Informationen aus Lebensabschnitten einer Person beinhalten, Semantik oder anderweitiges Wissen, als auch implizite Informationen wie zum Beispiel die Verwendung bestimmter Objekte oder bestimmte Körperbewegungen (motorische Fähigkeiten).

Wissenschaftler betrachteten das Arbeitsgedächtnis lange als das Tor zum Langzeitgedächtnis. Wiederholt man Inhalte des Arbeitsgedächtnisses oft genug, können diese zu längerfristig abrufbaren Informationen werden.

Die Neurowissenschaft zieht eine klare Trennlinie zwischen diesen beiden. Das Arbeitsgedächtnis führt zu einer temporären Aktivierung von Neuronen im Gehirn. Im Gegensatz dazu wird vermutet, dass das Langzeitgedächtnis auf physischen Veränderungen von Neuronen und deren Verbindungen basiert. Dieses Modell kann sowohl die kurzfristige Natur des Arbeitsgedächtnisses als auch die größere Anfälligkeit auf Unterbrechungen oder Erschütterungen erklären.

Wie verändert sich das Arbeitsgedächtnis im Laufe des Lebens?

Die Leistungsfähigkeit bei Tests, die das Arbeitsgedächtnis beurteilen, steigt während der gesamten Kindheit an. Die Kapazität des Arbeitsgedächtnisses ist eine wesentliche Antriebskraft für die kognitive Entwicklung. Die Leistung bei Überprüfungen steigt kontinuierlich während der Kindheit und Jugendzeit und erreicht ihren Höhepunkt im jungen Erwachsenenalter. Auf der Kehrseite ist das Arbeitsgedächtnis eine der sensibelsten kognitiven Fähigkeiten im Bezug auf den Alterungsprozess. Die Leistung bei entsprechenden Tests sinkt demzufolge im fortgeschrittenen Alter.

Es wird angenommen, dass das Auf und Ab der Kapazität des Arbeitsgedächtnisses im Laufe des Lebens mit der normalen Entwicklung und dem Abbau des präfrontalen Kortex des Gehirns in Verbindung steht. Dieser ist ein Gehirnareal, das für höhere kognitive Funktionen zuständig ist.

Wir wissen, dass Schäden am präfrontalen Kortex zum Verlust des Arbeitsgedächtnisses (und vielen anderen Veränderungen) führen. Aufzeichnungen der neuralen Aktivität des präfrontalen Kortex zeigen, dass dieses Areal während der Verschleppungszeit (engl. delay period) aktiv ist. Das ist die Zeit zwischen einem Stimulus und der Antwort des Beobachters – also die Zeit, in der man versucht, sich an eine Information zu erinnern.

Verschiedenste psychische Erkrankungen, wie beispielsweise Schizophrenie und Depressionen, werden mit einer erniedrigten Funktion des präfrontalen Kortex in Verbindung gebracht, die durch ein Phänomen namens „Neuroimaging“ bildlich aufgezeigt werden kann. Aus demselben Grund sind diese Krankheiten auch mit einer reduzierten Leistung des Arbeitsgedächtnisses assoziiert. Interessanterweise ist dieses Defizit bei schizophrenen Patienten in visuellen Prozessen deutlicher ausgeprägt als in verbalen Aufgaben des Arbeitsgedächtnisses. In der Kindheit stehen Defizite des Arbeitsgedächtnisses mit Konzentrationsschwierigkeiten und Problemen bei Lese- und Sprachfertigkeiten in Verbindung.

Das Arbeitsgedächtnis und andere kognitive Funktionen

Der präfrontale Kortex wird mit einem breiten Spektrum an anderen wichtigen Funktionen assoziiert. Darunter fallen zum Beispiel Persönlichkeit, Planung und Entscheidungsfindung. Jeglicher Funktionsverlust dieses Areals führt mit großer Wahrscheinlichkeit zu Auswirkungen in verschiedensten Aspekten von Kognition, Emotion und Verhalten.

Entscheidend ist, dass viele dieser präfrontalen Funktionen als eng verbunden oder möglicherweise sogar abhängig vom Arbeitsgedächtnis angesehen werden. Beispielsweise ist es für Planung und Entscheidungsfindung notwendig, dass wir bereits alle relevanten Informationen „im Hinterkopf“ haben, um eine Vorgehensweise zu formulieren.

Eine Theorie der kognitiven Struktur, genannt die Theorie des globalen Arbeitsraums (engl. Global Workspace Theory), beruht auf dem Arbeitsgedächtnis. Diese Theorie nimmt an, dass die temporäre Speicherung von Informationen „im Hinterkopf“ Teil eines „globalen Arbeitsraums“ im Gehirn ist. Dieser verbindet viele verschiedene kognitive Prozesse und entscheidet darüber hinaus, welche Aspekte uns zu jedem Zeitpunkt bewusst sind. Angesichts der Tatsache, dass diese Theorie das Arbeitsgedächtnis als zentralen Entscheidungsträger unserer bewussten Wahrnehmung einsetzt, ist ein besseres Verständnis der Theorie möglicherweise ein wichtiger Teil in der Lösung um das Mysterium des Bewusstseins.

Wie man das Arbeitsgedächtnis verbessert

Es gibt Hinweise darauf, dass es möglich ist, das Arbeitsgedächtnis durch interaktive Aufgaben, beispielsweise durch einfache Spiele für Kinder zur Verbesserung der Merkfähigkeit, zu trainieren und zu verbessern. Auch eine verbesserte Leistung bei anderen Testarten, wie zum Beispiel Vokabel- oder Mathematiktests wird als möglich betrachtet. Zusätzlich gibt es Hinweise, dass Training des Arbeitsgedächtnissesdie Leistung von Kindern mit bestimmten Krankheiten wie ADHS verbessern kann. Allerdings zeigen viele Forschungsarbeiten, dass die Vorteile von kurzfristigem Erfolg und spezifisch für die trainierte Aufgabe sind.
Des Weiteren ist es möglich, dass die Verbesserungen, die in manchen Studien gefunden wurden, darauf zurückzuführen sind, dass die Testteilnehmer gelernt haben, ihr Arbeitsgedächtnis effizienter einzusetzen. Es handelt sich in diesem Fall also nicht um eine erhöhte Kapazität, sondern um eine effizientere Verwendung. Die Hoffnung in diesem Bereich des Trainings liegt darin, relativ einfache Aufgaben zu finden, die nicht nur die Leistungsfähigkeit der spezifischen Aufgabe verbessern, sondern auch auf ein breiteres Einsatzgebiet anwendbar sind.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „Schreiben“ by picjumbo_com (CC0 Public Domain)


The Conversation

Weiterlesen »

Inokulationstheorie: Fehlinformationen benutzen, um Fehlinformationen zu bekämpfen

Tablet (adapted)(image by Kaboompics -Karolina [C00]via pexels)

Als Psychologe, der zum Themenbereich der Fehlinformation forscht, konzentriere ich mich darauf, den Einfluss dieser zu verringern. Im Wesentlichen ist es mein Ziel, meinen eigenen Job irgendwann abzuschaffen. Die neuesten Entwicklungen zeigen, dass ich damit wohl keine gute Arbeit geleistet habe. Fehlinformation, falsche Nachrichten und „alternative Fakten“ sind beliebter denn je. Das Oxford Dictionary benannte „post-truth“ (dt.: „postfaktisch“) als das Wort des Jahres 2016. Wissenschaft und wissenschaftliche Beweise werden gerade massiv attackiert.

Glücklicherweise hat die Wissenschaft einen Weg gefunden, sich selbst zu schützen. Dieser stammt von einem Zweig der psychologischen Forschung, die als Inokulationstheorie bekannt ist. Diese Logik ist abgeleitet von der Impfungen: Eine kleine Dosis von etwas Schlechtem hilft, eine ausgewachsene Krankheit zu verhindern. In meine kürzlich veröffentlichten Forschungsbericht habe ich versucht, Leute einer schwachen Form der Fehlinformation auszusetzen, um sie auf den echten Fall vorzubereiten – die Resultate waren vielversprechend.

Zwei Möglichkeiten, bei denen Fehlinformation schaden kann

Fehlinformation wird schnell generiert und verbreitet. Eine aktuelle Studie, die Argumente gegen Klimawissenschaft mit Argumenten bezüglich Richtlinien gegen Klima-Maßnahmen vergleicht, fand heraus, dass die Verweigerung der wissenschaftlichen Untersuchungen relativ ansteigt. Aktuelle Forschung indiziert, dass diese Art der Anstrengung einen Einfluss auf die Wahrnehmung und auch auf die wissenschaftliche Kompetenz der Menschen hat.

Eine aktuelle Studie, die der Psychologe Sander van der Linden leitete, hat ergeben, dass Fehlinformationen zur Klimawissenschaft einen wesentlichen Einfluss auf die öffentliche Wahrnehmung haben. Die Fehlinformation, die genutzt wurde, ist der am meisten geteilte Klimaartikel des Jahres 2016. Es handelt sich um eine Petition über globale Erwärmung und der Grundthese, dass die Menschen das Klima nicht zerstören, die von 31.000 Leuten mit einem Abschluss in Bachelor of Science oder höher unterstützt wurde. Dieser eine Artikel verringerte die Wahrnehmung der Leute zum wissenschaftlichen Konsens. Dabei akzeptieren die meisten Menschen einen gewissen wissenschaftlichen Konsens. Dieser Zugang ist bei Wissenschaftlern bekannt als „Zugangsglaube“, der die Einstellung zum Klimawandel und der Unterstützung der Aktionen gegen Klimazerstörung stützt.

Zum selben Zeitpunkt, als van der Linden seine Forschung in den USA durchgeführt hat, war ich in Australien mit der Ausführung meiner eigenen Forschung betreffend des Einflusses von Fehlinformationen beschäftigt. Per Zufall habe ich denselben Mythos benutzt und den gleichen Text des Petitionsprojektes genommen. Nachdem ich die Fehlinformation aufgezeigt hatte, habe ich die Leute gebeten, den wissenschaftlichen Konsens der von Menschen verursachten globalen Erwärmung einzuschätzen. Ziel war es, den Effekt zu messen. Ich fand vergleichbare Resultate, dass Fehlinformation die Wahrnehmung der Leute betreffend des wissenschaftlichen Konsens‘ verringert. Weiterhin fand ich heraus, dass Fehlinformation manche Menschen mehr betraf. Je konservativer eine Person war, desto größer der Einfluss der Fehlinformation.

Dies passte gut mit den anderen Forschungsergebnissen zusammen, die herausstellten, dass Menschen Nachrichten gemäß ihren bereits existierenden Überzeugungen interpretieren – völlig egal, ob es nun Informationen oder Fehlinformationen waren. Wenn wir etwas sehen, das wir mögen, ist es wahrscheinlicher, zu denken, dass es wahr ist und es unsere Überzeugungen stärkt. Wenn wir stattdessen Informationen dazu finden, die im Konflikt zu unseren Überzeugungen stehen, ist es wahrscheinlicher, dass wir die Quelle diskreditieren.

Allerdings geht das noch tiefer. Jenseits der fehleraften Information, mit denen der Mensch zu tun hat, besitzt die Fehlinformation einen noch hinterlistigeren und gefährlicheren Einfluss. In der Studie von van der Linden stellte sich heraus, dass die Menschen ihre Meinung nicht änderten, wenn sie sowohl mit den Fakten als auch den Fehlinformationen konfrontiert wurden. Die zwei gegensätzlichen Informationen heben sich also gegenseitig auf.

Fakten und „alternative Fakten“ sind wie Materie und Antimaterie. Wenn diese aufeinandertreffen, gibt es eine Hitzeexplosion, auf die dann nichts mehr folgt. So kann auf subtile Weise gezeigt werden, wie Fehlinformationen Schaden anrichten. Sie geben nicht nur die falschen Informationen preis, sondern hindern die Menschen daran, an Fakten zu glauben. Oder, wie Garry Kasporov es eloquent ausdrückte: Fehlinformationen „vernichten die Wahrheit“.

Die wissenschaftliche Antwort auf Klimaverweigerung

Der Angriff auf die Wissenschaft ist beeindruckend und, wie die Forschung indiziert, ebenso imstande, deutlich zu effektiv zu sein. Passenderweise besitzt die Wissenschaft die Antwort auf Klimaverweigerung. Die Inokulationstheorie bedient sich des Konzeptes des Impfens, bei dem wir einer schwachen Form eines Virus ausgesetzt sind, um gegenüber dem echten Virus eine Immunität aufzubauen. Dies wird auf unser Wissen angewandt.Ein halbes Jahrhundert der Forschung hat nun ergeben, dass wir, wenn wir einer „schwachen Form der Fehlinformation“ ausgesetzt sind, eine Abwehr aufbauen, sodass wir nicht von echter Information beeinflusst werden.

Der sogenannte „Impf-Text“ beinhaltet zwei Elemente. Zuerst enthält er eine explizite Warnung über die Gefahr, von Fehlinformation fehlgeleitet zu werden. Zweitens muss man zusätzlich Gegenargumente bieten, um die Fehler der Fehlinformation aufzuzeigen. Bei der Herangehensweise von van der Linden zeigt er, dass viele Unterzeichner eine gefälschte Identität besaßen (beispielsweise war (beispielsweise war fälschlicherweise eines der Spice Girls auf der Unterschriftenliste aufgeführt), so dass 31.000 Beteiligte nur ein winziger Teil (weniger als 0,3 Prozent) aller US-Wissenschaftsabsolventen seit 1970 darstellen, und dass insgesamt weniger als ein Prozent der Unterzeichner eine Expertise in der Klimawissenschaft aufweisen konnten.

In meinen neulich veröffentlichen Untersuchungen testete ich die Impf-These mit einem anderen Ansatz. Während ich Patienten gegen das Petitionsprojekt geimpft habe, habe ich es überhaupt nicht angesprochen. Stattdessen sprach ich mit ihnen über die Fehlinformationstechnik der Nutzung von „falschen Experten“ – Leute, die gegenüber der Masse den Eindruck erwecken, dass sie Erfahrung besitzen, wobei dies jedoch nicht der Fall ist.

Ich fand heraus, dass die Erklärung der Fehlinformationstechnik den Einfluss der Fehlinformation ohne die spezifische Nennung der Fehlinformation komplett gegeneinaner aufhob. Nachdem ich beispielsweise erklärte, wie falsche Experten in der Vergangenheit für frühere Fehlinformationsprojekte benutzt wurden, waren die Teilnehmer nicht überzeugt, wenn sie von falschen Experten des Petitionsprojektes konfrontiert wurden. Weiterhin wurde die Fehlinformation über das politische Spektrum hinweg neutralisiert. Ob man nun also konservativ oder liberal ist, ist egal – niemand will von irreführenden Techniken getäuscht werden.

Die Inokulation zur Anwendung bringen.

Die Inokulation ist eine mächtige und vielseitige Form der wissenschaftlichen Kommunikation, die unterschiedlich genutzt werden kann. Mein Ansatz war es, meine Erkenntnissse zur Inokulation mit der kognitiven Psychologie der Widerlegung zusammenzutun, um einen Trugschluss aus Fakten und Mythen zu schaffen.

Diese Strategie beinhaltet die Erklärung der Fakten, gefolgt von der Einführung eines Mythos, der in Verbindung zu diesen Fakten steht. An diesem Punkt werden den Menschen zwei gegenseitige Informationen präsentiert. Der Konflikt wird damit in Einklang gebracht, dass erklärt wird, wie die Technik funktioniert, die einen Mythos benutzt, um den Fakt zu verzerren.

Wir haben den Ansatz in größerem Umfang in einem kostenfreien Onlinekurs über Fehlinformation zum Klima benutzt, um die Klimaverweigerung zu erklären. Jede Vorlesung nahm die Struktur einees Trugschlusses aus Fakten und Mythen an. Wir begannen damit, eine Tatsache zum Klima zu erklären und führten dann einen verwandten Mythos ein, daraufhin folgte eine Erklärung des Trugschlusses, auf dem die Annahme basierte. Auf diesem Weg bereiteten wir unsere Studenten gegen die 50 häufigsten Klimamythen vor, während wir zugleich die Grundlagen der Klimaveränderung erklärten.

Wir wissen beispielsweise, dass wir Menschen die globale Erwärmung verursachen, weil wir in der Klimaveränderung viele Muster beobachten, die typisch für Treibhauseffekte sind. Anders ausgedrückt kann der menschliche Faktor beim Klima beobachtet werden. Jedoch besagt einer der Mythen, dass das Klima sich in der Vergangenheit auf natürliche Weise verändert hat, bevor es die Menschen gab; deswegen muss das, was nun passiert, auch natürlich sein. Dieser Mythos geht dem Irrtum nach, dass man in vielen Fällen (unlogische) Schlüsse zieht, in denen die Prämisse nicht zur Schlussfolgerung führt. Es ist, als ob man eine Leiche mit einem Messer im Rücken findet und argumentiert, dass Menschen bereits zuvor an natürlichen Effekten in der Vergangenheit gestorben sind, also muss dieser Tot ebenso von natürlichen Ursachen herbeigeführt worden sein.

Die Wissenschaft hat uns darüber aufgeklärt, dass die Antwort auf die Klimaverweigerung der Menschen nicht sein kann, diese Menschen mit Wissen zu bombardieren. Die Fehlinformationen stellen eine Realität dar, deren Ignoranz wir uns nicht leisten können – wir können die Verleugnung der Wissenschaft nicht verleugnen. Wir sollten es stattdessen als eine Möglichkeit der Bildung betrachten. Fehleinschätzungen im Klassenzimmer znzusprechen, ist eines der mächtigsten Werkzeuge, um Wissenschaft zu lehren. Es stellt sich heraus, dass der Schlüssel zur Beendigung der Wissenschaftsverleugnung darin liegt, die Leute nur ein bisschen der Wissenschaftsverleugnung auszusetzen.


Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.

Image (adapted)„Tablet“ by Kaboompics-Karolina (CC0 Public Domain)


The Conversation

Weiterlesen »

Es gibt eine mathematische Formel für die Auswahl der schnellsten Warteschlange

Image (adapted) (Image by Paul Dufour) (CC0 Public Domain) via Unsplash

Es scheint offensichtlich zu sein. Man kommt zur Kasse und sieht, dass eine Warteschlange viel länger ist als die andere, also stellt man sich an der kürzeren an. Es dauert jedoch nicht lange, bis die Menschen in der längeren Schlange an einem vorbeisausen, während man sich noch kaum in Richtung Ausgang bewegt hat.

Wenn es um das Thema Schlangestehen geht, ist die instinktive Wahl oft nicht die schnellste. Weshalb fühlt es sich so an, als wenn sich die Schlangen verlangsamen würden, sobald man sich ihnen anschließt? Und gibt es einen Weg, vorab entscheiden zu können, welche Schlange beim Anstellen die richtige ist? Mit diesen Fragen beschäftigen sich Mathematiker seit Jahren. Können sie uns also helfen, weniger Zeit beim Schlangestehen zu verbringen?

Die intuitive Strategie scheint die Wahl der kürzesten Warteschlange zu sein. Immerhin könnte eine kurze Schlange auf einen effizienten Kassierer und eine lange Schlange auf einen unerfahrenen Kassierer oder auf Kunden, die viel Zeit benötigen, hindeuten.

Ohne die richtigen Informationen könnte es sogar nachteilig sein, sich bei der kürzesten Schlange anzustellen. Wenn beispielsweise in der kurzen Schlange im Supermarkt zwei sehr volle Einkaufswagen stehen, während sich in der längeren vier relativ leere Einkaufskörbe befinden, würden sich sogar viele Personen der längeren Schlange anschließen. Falls die Kassierer gleich effektiv sind, ist die wichtige Größe hier nämlich die Anzahl der Artikel und nicht die Anzahl der Kunden. Wenn hingegen die Wagen nicht voll wären, die Körbe hingegen doch, würde es nicht mehr so einfach abzuschätzen sein und die Wahl wäre keine eindeutige.

Dieses einfache Beispiel führt das Konzept der Servicezeitverteilung ein. Dies ist eine Zufallsvariable, die misst, wie lange es dauert, einen Kunden zu betreuen. Sie enthält Informationen über die durchschnittliche Servicezeit und über die Standardabweichung vom Mittelwert, welche wiederum zeigt, wie die Servicezeit, abhängig davon, wie lange verschiedene Kunden brauchen, schwankt.

Die andere wichtige Variable ist, wie oft sich Kunden in der Warteschlange anstellen (Ankunftsrate). Diese hängt von der durchschnittlichen Zeit ab, die zwischen dem Betreten des Ladens zweier aufeinanderfolgender Kunden vergeht. Je mehr Menschen eintreffen, um eine Leistung zu einem bestimmten Zeitpunkt in Anspruch zu nehmen, desto länger werden die Warteschlangen sein.

Je nachdem, wie groß diese Variablen sind, könnte es am besten sein, sich in der kürzeren Schlange anzustellen – oder eben auch nicht. In einem Laden für Fish and Chips könnte es beispielsweise zwei Mitarbeiter geben, die beide Bestellungen aufnehmen und kassieren. Dann ist es meistens besser, sich in der kürzesten Schlange anzustellen, da die Zeit, die die Aufgaben der Servicekräfte in Anspruch nimmt, nicht wirklich variiert.

Leider ist es in der Praxis schwierig, die relevanten Größen genau zu kennen, sobald man ein Geschäft betritt. Man kann also nach wie vor nur raten, welche die schnellste Schlange sein wird, oder man setzt auf psychologische Tricks, wie zum Beispiel dem, sich in der Schlange anzustellen, die sich am weitesten links befindet, da die meisten Rechtshänder dazu tendieren, automatisch nach rechts zu gehen.

War das die richtige Wahl?

Sobald man in der Schlange steht, möchten man wissen, ob man die richtige Entscheidung getroffen hat, wie zum Beispiel die, ob der gewählte Kassierer der schnellste ist. Es ist einfach, die tatsächliche Länge der Warteschlange zu beobachten und anschließend zu versuchen, diese mit dem Durchschnitt zu vergleichen. Dies steht in unmittelbarem Zusammenhang mit dem Mittelwert und der Standardabweichung der Servicezeit mittels der sogenannten Pollaczek-Chintschin-Formel, die erstmals 1930 aufgestellt wurde. Sie verwendet ebenfalls die durchschnittliche Zeit für das Nähertreten der Kunden.

Wer aber versucht, die Zeit zu messen, die die vorderste Person der Schlange beim Kassieren benötigt, wird am Ende womöglich leider glauben, dass er die falsche Warteschlange gewählt hat. Es wird hier von Fellers Paradoxon oder dem Beobachtungsparadoxon gesprochen. Technisch gesehen ist dies eigentlich kein logisches Paradoxon, sondern ist entgegen unserer Intuition. Wenn man beginnt, die Zeit zwischen zwei Kunden zu messen, sobald sie sich in der Schlange anstellen, ist es wahrscheinlicher, dass der erste Kunde, den man sieht, durchschnittlich länger bei der Kasse brauchen wird. Dies wird dem Beobachter das Gefühl geben, dass er Pech hatte und die falsche Schlange gewählt haben.

Das Beobachtungsparadoxon funktioniert so: Angenommen, eine Bank bietet zwei Dienste an. Eine Dienstleistung dauert entweder null oder fünf Minuten, jeweils mit gleicher Wahrscheinlichkeit. Die andere Dienstleistung dauert entweder zehn oder 20 Minuten, wieder jeweils mit gleicher Wahrscheinlichkeit. Es ist gleichermaßen wahrscheinlich für einen Kunden, einen der beiden Diensten zu wählen. Somit beträgt die durchschnittliche Servicezeit der Bank 8,75 Minuten.

Falls man sich also in der Schlange anstellen sollte, während ein Kunde gerade bedient wird, kann deren Servicezeit nicht null Minuten betragen. Diese Schlange muss also entweder den fünf-, zehn-, oder 20-minütigen Dienst nutzen. Dies verschiebt die Zeit, die ein Kunde benötigt, auf über 11 Minuten im Durchschnitt, also mehr als der echte Durchschnittswert von 8,75 Minuten. Tatsächlich begegnet man derselben Situation in zwei von drei Fällen, nämlich, dass der Kunde entweder den 10- oder 20-minütigen Service haben möchte. Dies wird den Anschein machen, als ob sich die Schlange langsamer vorwärtsbewegt, als sie es eigentlich sollte, nur, weil ein Kunde schon dort ist und weil man selbst Zusatzinformationen hatte.

Während wir also die Mathematik nutzen können, um zu versuchen, die schnellste Warteschlange zu ermitteln, sind wir mangels exakter Daten – und zu unserer eigenen Beruhigung – oft besser dran, ein Risiko einzugehen und nicht nach anderen Möglichkeiten auszuprobieren, sobald wir unsere Entscheidung getroffen haben.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) by Paul Dufour (CC0 Public Domain)


The Conversation

Weiterlesen »

Was Sie schon immer über Hypnose wissen wollten

Pendulum (adapted) (Image by innerwhispers [CC0 Public Domain], via Pixabay)

Manch einer behauptet, dass Hypnose nur ein Trick sei. Andere verorten sie am Rande des Übersinnlichen – eine mysteriöse Verwandlung von Menschen in hirnlose Roboter. Nun deckt eine Neubetrachtung einiger Studien zum Thema auf, dass es tatsächlich nichts von beidem ist. Hypnose ist möglicherweise lediglich ein Aspekt normalen menschlichen Verhaltens.

Hypnose weist auf eine Reihe an Vorgängen hin, die eine Einweisung beinhalten – man kann sich auf ein Objekt fixieren, sich besonders entspannen oder sich etwas Bestimmtes ganz aktiv vorstellen – gefolgt von einem oder mehreren Vorschlägen, wie beispielsweise „Du wirst nicht in der Lage sein, deinen Arm zu bewegen“. Das Ziel der Induktion ist es, im Inneren der Teilnehmer einen Geisteszustand herbeizuführen, in dem sich diese auf die Instruktionen eines Experimentleiters oder Therapeuten konzentrieren und nicht von alltäglichen Sachen abgelenkt sind. Teilnehmer berichten oft davon, dass ihre Antworten automatisch folgen und sie keine Kontrolle über sich zu haben scheinen. Das ist ein Grund, wieso Hypnose für Wissenschaftler so interessant ist.

Die meisten Induktionen produzieren gleichwertige Effekte. Aber Induktionen sind tatsächlich nicht wirklich wichtig. Überraschenderweise hängt der Erfolg der Hypnose nicht von speziellen Fähigkeiten des Hypnotiseurs ab – auch wenn die Bildung eines harmonischen Verhältnisses in einem therapeutischen Zusammenhang sicherlich wertvoll ist. Vielmehr liegt der Hauptfaktor für eine erfolgreiche Hypnose in dem Grad der „hypnotischen Beeinflussbarkeit“. Dies ist der Begriff, der beschreibt, wie beeinflussbar wir in Bezug auf Vorschläge sind. Wir wissen, dass die hypnotische Beeinflussbarkeit sich über die Zeit hinweg nicht verändert und vererbbar ist. Wissenschaftler haben sogar herausgefunden, dass Menschen mit bestimmten Gen-Varianten eher beeinflussbar sind als andere.

Die meisten Menschen sind nur mittelmäßig für Hypnose empfänglich. Das bedeutet, dass sie als Reaktion auf hypnotische Beeinflussungen deutliche Verhaltensänderungen durchleben. Dagegen ist ein kleiner Prozentsatz (etwa 10 bis 15 Prozent) der Menschen überwiegend nicht beeinflussbar. Der Großteil der Forschung im Bereich der Hypnose konzentriert sich jedoch auf die kleine Gruppe (10 bis15 Prozent), die am ehesten beeinflussbar sind.

Innerhalb dieser Gruppe kann Hypnose dafür genutzt werden, um Gefühle des Schmerzes zu unterbinden oder um Halluzinationen und Amnesie herbeizuführen. Untersuchungen von Gehirnscans haben aufgedeckt, dass diese Menschen die Reaktion nicht nur vorspielen. Das Gehirn reagiert anders auf Beeinflussung durch Hypnose als wenn sie dieselben Reaktionen nur vorspielen oder sich vorstellen.

Eines der spärlichen Forschungsergebnisse hat gezeigt, dass der präfrontale Cortex der höchst beeinflussbaren Menschen sehr ungewöhnlich funktioniert und reagiert. Hierbei handelt es sich um eine Hirnregion, die bezüglich psychologischen Funktionen, wie der Handlungsfähigkeit und der Überwachung des Geisteszustands, eine wesentliche Rolle spielt.

Es gibt ebenso Hinweise darauf, dass höchst beeinflussbare Menschen bei kognitiven Aufgaben, die vom präfrontalen Cortex abhängen, wie beispielsweise das Erinnerungsvermögen schlechter abschneiden. Diese Ergebnisse werden jedoch aufgrund der Möglichkeit, dass es möglicherweise verschiedene Subtypen innerhalb der hoch beeinflussbaren Menschen gibt, verkompliziert. Diese neurokognitiven Differenzen mögen uns einen Einblick darin bieten, wie die besonders beeinflussbaren Menschen auf Vorschläge reagieren: Sie sind vielleicht reaktiver, weil sie sich weniger über die zugrunde liegenden Absichten ihrer Reaktionen bewusst sind.

Wenn beispielsweise der Vorschlag gemacht wird, keinen Schmerz zu spüren, können sie den Schmerz unterdrücken – sie sind sich jedoch über ihre Absicht, dass sie hierzu in der Lage sind, nicht bewusst. Dies mag ebenso erklären warum die Erfahrungen außerhalb ihrer Kontrolle stattfinden. Studien zu Neuroimaging haben diese Hypothese noch nicht verifiziert, jedoch scheint die Veränderung der Hirnregionen, die in der Überwachung des Geisteszustandes, der Selbstwahrnehmung und verwandten Funktionen verwickelt sind, innerhalb des Hypnosezustands zu geschehen.

Auch wenn die Effekte der Hypnose zunächst unmöglich klingen, wird der dramatische Einfluss von Überzeugungen und Erwartungen auf die menschliche Wahrnehmung nun weitestgehend akzeptiert. Tatsächlich ähnelt dies sehr dem Placebo-Effekt, bei dem ein Medikament ohne Wirkstoff oder eine therapeutische Behandlung nur deswegen angewandt wird, weil der Patient an die Wirkung glaubt. Vor diesem Hintergrund scheint Hypnose vielleicht doch nicht so bizarr zu sein. Scheinbar sensationelle Reaktionen auf Hypnose mögen nur markante Vorfälle der Kräfte von Beeinflussbarkeit und Überzeugungen sein und das Ziel haben, unsere Wahrnehmung und unser Verhalten zu steuern. Unsere Erwartungen, was passieren wird, werden letztlich genau dem entsprechen, was wir erleben.

Für eine Hypnose benötigt man die Zustimmung des Teilnehmers oder Patienten. Im Gegensatz zu Vermutung der Popkultur kann niemand gegen seinen Willen hypnotisiert werden – und es gibt keine Hinweise darauf, dass man dazu gebracht werden kann, unmoralische Handlungen gegen den eigenen Willen auszuführen.

Hypnose als medizinische Behandlung

Meta-Analysen sowie Studien, die Daten vieler Untersuchungen zu einem bestimmten Thema zusammengetragen haben, haben gezeigt, dass Hypnose sehr gut funktioniert, wenn es um die Behandlung verschiedener Krankheiten geht. Hierzu zählen beispielsweise das Reizdarmsyndrom oder chronische Schmerzen. Geht es um andere Probleme, denen man sich entledigen will, wie Rauchen, Angstzustände oder auch einer posttraumatische Belastungsstörung, gibt es weniger eindeutige Ergebnisse – vor allem, weil hier zuverlässige Daten fehlen.

Auch wenn Hypnose bezüglich verschiedener Krankheiten und Symptome einen wertvollen Beitrag leisten kann, ist sie kein Allheilmittel. Wer dennoch über Hypnotherapie nachdenkt, sollte dies nur in Verbindung mit einer geschulten Fachkraft tun. Leider kann in manchen Ländern, wie beispielsweise in Großbritannien, jeder als Hypnotherapeut arbeiten. Allerdings sollte jeder, der Hypnose in einem klinischen oder therapeutischen Zusammenhang verwendet, eine Ausbildung in der jeweiligen Disziplin, wie beispielsweise klinische Psychologie, Medizin oder Zahnmedizin erhalten, um sicherzustellen, dass man über ausreichende Kenntnisse auf dem Gebiet verfügt.

Wir glauben, dass Hypnose wahrscheinlich durch eine komplexe Interaktion zwischen neuropsychologischen und psychologischen Faktoren zustande kommt – manche wirken, wie hier beschrieben, andere sind eher unbekannt. Es scheint, dass diese von Mensch zu Mensch unterschiedlich sind.

Während die Wissenschaft in ihren Erkenntnissen voranschreitet, wird zugleich immer deutlicher, dass dieses faszinierende Phänomen das Potential besitzt, uns einzigartige Einsichten zu geben, wie das menschliche Hirn funktioniert. Dies beinhaltet grundlegende Aspekte der menschlichen Natur, beispielsweise wie unsere Glaubensvorstellungen unsere Wahrnehmung der Welt beeinflussen, und wie wir die Kontrolle über unsere Handlungen erleben.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „Pendulum“ by innerwhispers (CC0 Public Domain)


Weiterlesen »

Warum in naher Zukunft spielende Science-Fiction so beängstigend ist

Binär (adapted) (Image by geralt [CC0 Public Domain] via pixabay)

Von Humans bis Westworld, von Her bis Ex Machina, und von Agents of S.H.I.E.L.D bis Black Mirror – Science-Fiction, die in der nahen Zukunft spielt, gab dem Publikum in den letzten Jahren einige unangenehme und prophetische Visionen der Zukunft. Laut diesen alternativen oder ausgedachten Zukunftsszenarien steht uns eine posthumane Realität bevor, in der die eigenen Geschöpfe gegen die Menschen ankämpfen oder sie gar ersetzen. Diese Geschichten zeigen eine Zukunft, in der unsere Leben durch Wissenschaft und Technologie verändert werden, sodass der Mensch neu definiert wird.

Das Teilgenre der Science-Fiction in naher Zukunft umfasst eine Zukunft, die sich nicht weit vom Zeitpunkt der Entstehung der Geschichten befindet.

Die Serie Humans von Channel 4 AMC stellt sich eine nahe Zukunft oder alternative Welt vor, in der fortgeschrittene Technologie zur Entwicklung von anthropomorphischen Robotern geführt hat, die Syths genannt werden und schließlich ein Bewusstsein erlangen. Als die Syths immer weniger von den Menschen unterschieden werden können, ergründet die Serie Standpunkte darüber, was den Menschen ausmacht, und zwar gesellschaftlich, kulturell und psychologisch.

Die zweite Staffel beschäftigte sich vor allem mit den Rechten in Bezug auf die Fähigkeit, zu denken und zu fühlen – und das Recht auf ein faires Gerichtsverfahren. Odi, ein Syth des längst überholten NHS-Pflegesystems aus Großbritannien, der in beiden Staffeln mitspielt, wählt eine Form von Suizid (indem er in seine Werkseinstellungen zurückkehrt und ein Bewusstsein ablehnt), da er mit seinem neuen Leben nicht zurechtkommt.

Die Roboter, die den Zukunftsthemenpark in Westworld bewohnen, werden auch als Spielzeug der Superreichen vorgestellt. In beiden Fällen kreieren die fiktionalen Wissenschaftler David Elster (in Humans) und Robert Ford (bei Westworld), die diese Androiden geschaffen haben, Möglichkeiten für ihre Kreationen, so dass diese „menschlich werden“, und tun dies mit einer Vielzahl an Beweggründen und sowohl utopischen als auch schrecklichen Möglichkeiten. Beide Serien stellen die Unterscheidung zwischen „realem“ und „künstlichem“ Bewusstsein und die Schwierigkeiten einer Kreation, die zum Leben erwacht, in Frage.

Zu glaubwürdig

Die Herausforderung für Science-Fiction der nahen Zukunft liegt darin, dass sie sich nach den neuesten Entwicklungen in Wissenschaft und Technologie richten muss, um glaubwürdig zu sein. Dies bedeutet, dass es passieren kann, dass die Geschichte obsolet wird oder sich sogar zu Lebzeiten des Erschaffers abspielen kann. Nachrichtenübertragungen und Kommentare von Wissenschaftlern wie Stephen Hawking über die Gefahren von künstlicher Intelligenz und Bedenken, dass „die Menschheit der Architekt ihrer eigenen Zerstörung ist, wenn es eine Superintelligenz mit eigenem Willen schafft“, machen die Ängste in Filmen und Serien noch realistischer und furchteinflößender.

Einige der beliebtesten Werke der Science-Fiction heutzutage nehmen die Wissenschaftler der echten Welt als Grundlage und führen diese bis zu einem möglichen Ausgang weiter, was zeigt, dass sie einen direkten Einfluss auf unser Leben haben kann und nicht nur auf globale und intergalaktische Ereignisse in ferner Zukunft. Geschichten über die nahe Zukunft haben deutlich zugenommen, da sie beim Publikum und bei Filmemachern gleichermaßen beliebt sind. Sie bieten Raum für Diskussionen über die Auswirkungen von glaubwürdigen Veränderungen wie dem Betriebssystem mit künstlicher Intelligenz Samantha (gesprochen von Scarlett Johansson) im Film Her oder den Kontaktlinsen, die durch Gedanken gesteuert sind, die in verschiedenen Formen in Folgen von Charlie Brookers Black Mirror vorkommen.

Diese Fiktion in der nahen Zukunft bietet vorhersehende Alternativen zu anderer Science-Fiction, die in ferner Zukunft spielt. Man denke nur an die beängstigende Bedeutsamkeit von ‚The Handmaid’s Tale‘ (zu deutsch: ‚Der Report der Magd‘). Der Roman von Margaret Atwood wurde für das Fernsehen verfilmt und wird Ende April ausgestrahlt. Es spielt in einer getrenntgeschlechtlichen, theokratischen Republik, die auf Wohlstand und Klasse fixiert ist. Frauen werden nach ihrer Fähigkeit, zu gebären bewertet, in einer nahen Zukunft, in der Umweltkatastrophen und zahllose Geschlechtskrankheiten die Mehrheit der Bevölkerung unfruchtbar gemacht haben.

Inmitten von wachsender Angst vor religiösem Konservatismus in Amerika im Trump-Zeitalter bemerkt Samira Wiley, einer der Stars der neuen Verfilmung, dass es “uns die Atmosphäre zeigt, in der wir leben und besonders in Bezug auf Frauen und ihre Körper und wer darüber die Kontrolle hat“.

Die alternativen Welten und ausgedachte Zukunft von Science-Fiction, egal ob schrecklich oder utopisch, zwingt das Publikum, seine eigene Realität zu betrachten und zu bedenken, wie Veränderungen unserer Gesellschaften, Technologien und sogar unserer eigenen Körper aussehen und unsere eigene Zukunft direkt beeinflussen könnten. Ob sie eine positive oder negative Zukunft zeigt, Science-Fiction zielt auf eine Reaktion und betont Themen, die jeden einzelnen betreffen – nicht nur Wissenschaftler und Regierungen.

Vergangenheitsschock

In gewisser Wiese hat die Science-Fiction uns eingeholt. Die Idee, dass wir Androide als Diener oder eine persönliche Beziehung zu unseren Computern haben, hat sich durch den persönlichen Assistenten Siri von Apple herausgestellt. Die Forschung von selbstheilenden Implantaten hat die Aussicht eröffnet, dass unsere Körper übermenschliche Fähigkeiten annehmen.

Die Zukunft ist nicht so weit hergeholt, wie sie es einmal war – und oft fühlen sich Zukunftsszenarien, die wir auf den Bildschirmen sehen, so an, als müssten sie bereits da sein oder als seien sie bereits da, obwohl sie es nicht sind. Wir wechseln womöglich von einem „Zukunftsschock“, wie es der Futurologe Alvin Toffer nennt, zu einer Art „Vergangenheitsschock“.

Toffler definiert den Zukunftsschock als “zu viel Veränderung in einem zu kurzen Zeitraum“ – ein überwältigender psychologischer Zustand, der sowohl Gesellschaften als auch Individuen betrifft, die mit der Geschwindigkeit von technologischen Veränderungen, die scheinbar stetig die Auffassungen von sich selbst und der Gesellschaft verändern, nicht mithalten oder diese nicht verstehen können. Wir betreten nun aber möglicherweise ein Zeitalter des ‚Vergangenheitsschocks‘, in dem wir uns technologische Veränderungen vorstellen und diese akzeptieren können, bevor sie entwickelt oder gar patentiert wurden. Der Schock besteht nicht mehr aufgrund der Geschwindigkeit des technologischen Wandels, sondern eher aufgrund der scheinbaren Verlangsamung, da Wissenschaftler nicht mit unseren vorgestellten Zukunftsszenarien mithalten können. Wenn die Grenze zwischen der realen Welt und Science-Fiction schwammiger wird, fühlt sich die Zukunft näher an als je zuvor.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „Binär“ by geralt (CC0 Public Domain)


The Conversation

Weiterlesen »

Was uns Schachspieler über Intelligenz und Sachkompetenz beibringen können

Dame (adapted) (Image by PIRO4D [CC0 Public Domain] via pixabay)

Sind Experten intelligenter als Nicht-Experten – oder arbeiten sie nur härter?  Und warum erreichen manche Leute ein hohes Kompetenz-Niveau, wohingegen andere nur auf dem Stand von Amateuren bleiben? Das sind einige der Fragen, die Wissenschaftler im Bereich der Kognitionswissenschaft schon seit über einem Jahrhundert zu beantworten versuchen. Jetzt haben unsere Forschungen über Schachspieler bei der Entwirrung dieses Problems Pionierarbeit geleistet.

Einige Wissenschaftler sind der Ansicht, der Weg zum Experten in Fachbereichen wie Musik und wissenschaftlicher Forschung sei lediglich eine Sache des „furchtbar großen … Arbeitsaufwands“, um den amerikanischen Gewinner einer olympischen Goldmedaille Jesse Owens zu zitieren. Die anmutende Idee, ein jeder von uns könne durch geflissentliche Übung, Engagement und Entsagung großartige Ergebnisse erzielen, ist tief in unserer Kultur verwurzelt. Malcolm Gladwell stellt in seiner berühmten Fachmonographie „Outliers“ die These auf, dass man mit 10.000 Stunden Übung auf geradezu jedem Gebiet Expertise erlangen kann. Schließlich brachte auch Rocky, die Persönlichkeit aus den berühmten Boxfilmen, Stunden über Stunden mit Training zu, um furchteinflößende Gegner niederzuringen – schlussendlich mit Erfolg.

Andere Wissenschaftler sind hingegen davon überzeugt, dass die Menge an Übung allein individuelle Unterschiede bezüglich der Fachkompetenz nicht aufwiegen kann. Sie sind der Auffassung, dass übergeordnete kognitive Fähigkeiten wie etwa grundlegende Intelligenz oder Erinnerungsvermögen eine fundamentale Rolle spielen, wenn man in seinem Fachgebiet ein Höchstmaß an Expertise erlangen möchte.

Um die Bedeutung von kognitiven Fähigkeiten für Fachkompetenz auszuwerten, haben wir kürzlich zwei Reviews der wissenschaftlichen Fachliteratur über die Bedeutung von kognitiven Fähigkeiten zur Erlangung von Perfektion im Schachspiel durchgeführt. Wir haben das Schachspiel deshalb dafür ausgewählt, weil es eines von wenigen Bereichen ist, das eine quantitative und zuverlässige Maßeinheit für die Leistungsfähigkeit hat (nämlich das Elo-Rating). Aus diesem Grund ist es ein individuelles Areal zur Untersuchung der Aneignung von Fachkompetenz und Expertise.

Tatsächlich hat die Untersuchung der Merkfähigkeit und Situationseinschätzung von Schachspielern zu unserem Verständnis von Expertise auf vielen Gebieten beigetragen, wie etwa Musik und Computerprogrammieren. Laut dem Nobelpreisträger Herbert Simon ist die Tragweite des Schachspiels für die Kognitionswissenschaft vergleichbar mit der Tragweite der Drosophila (Obstfliege) im Fachbereich der Genetik durchaus vergleichbar.

Eindeutige Ergebnisse

Wir haben den Versuch unternommen, zwei einfache Fragen im Bereich des Schachspiels zu beantworten. Erstens: Ist intensives Üben die einzige Voraussetzung dafür, um ein Schach-Profi zu werden? Oder muss man überdurchschnittlich intelligent sein, um dorthin zu gelangen? Zweitens: Sind Schachspieler intelligenter als Nicht-Schachspieler? Die Antworten sind über das Schachspiel hinaus von Bedeutung und befassen sich mit fundamentalen Fragestellungen der Psychologie und Pädagogik.

Das erste Review, in der Zeitschrift Intelligence publiziert, umfasst 19 Studien mit über 1.700 Teilnehmern. Für diesen Zeitschriftenartikel sind wir der Frage nach sämtlichen Resultaten in puncto Erledigung kognitiver Aufgaben durch einen Schachspieler nachgegangen.

Wir berechneten die Gesamtheit an Wechselbeziehungen zwischen Schachfähigkeiten und vier kognitiven Fähigkeiten: Transfervermögen (die Fähigkeit, neue Probleme zu lösen und sich an neue Situationen anzupassen), Ausführungsgeschwindigkeit (beispielsweise die Reaktionszeit), Kurzzeitgedächtnis und Auffassungsvermögen (Anpassung von Sachkenntnis und Fähigkeiten durch die Erfahrung, wie etwa Vokabelverständnis und Leseverstehen). Die Ergebnisse machten deutlich, dass Schachfähigkeiten in signifikantem Zusammenhang mit sämtlichen Maßstäben von kognitiven Fähigkeiten stehen. Kurzum: Je ‚intelligenter‘ der Spieler, desto höher ist sein Niveau im Schachspiel.

Im zweiten Review  (unter Beteiligung von fast 500 Teilnehmern), ebenfalls in der Zeitschrift Intelligence publiziert, haben wir sämtliche Studien miteinbezogen, in denen ein Vergleich der Fähigkeiten, kognitive Aufgaben zu lösen, von Schachspielern und Nicht-Schachspielern vorgenommen werden. Daraufhin haben wir den Gesamtunterschied zwischen Schachspielern und Nicht-Schachspielern berechnet. Schachspieler schnitten bezüglich der kognitiven Fähigkeiten, wie etwa Ausführungsgeschwindigkeit, Planung, Transfervermögen und Erinnerungsvermögen gegenüber Studienteilnehmer, die kein Schach spielten, überdurchschnittlich gut ab.

Anlage vs. Umfeld?

Unsere Ergebnisse sprechen für die Hypothese, dass kognitive Fähigkeiten eine bedeutende Voraussetzung für die Erlangung von Schachspielfertigkeiten sind. Natürlich müssen wir bezüglich der Ausrichtung des Kausalzusammenhangs Vorsicht walten lassen. Es wäre denkbar, dass sich intelligente Menschen mehr zu intelligenten Aktivitäten wie dem Schachspiel hingezogen fühlen, als dies bei der Durchschnittsbevölkerung der Fall ist, oder dass sie schlichtweg schneller lernen.

Aber es ist ebenso möglich, dass die Übung von kognitiv fordernden Aufgaben Leute intelligenter macht. Jedoch erscheint diese letzte Möglichkeit unwahrscheinlicher, zumal neuere Forschungen keinen Kausalzusammenhang zwischen dem Schachunterricht und kognitiven Fähigkeiten ergeben haben. Interessanterweise wurde dasselbe Fehlen eines Zusammenhangs auch in Bezug auf Musikunterricht konstatiert.

Während Übung eine notwendige Komponente für ein erfolgreiches Abschneiden im Schachspiel und auf anderen Gebieten bleibt, ist es schlichtweg nicht ausreichend, um an die Spitze zu kommen. Wenn Individuen mit überdurchschnittlichen kognitiven Fähigkeiten bessere Chancen haben, Schachprofi zu werden, ist es naheliegend, dass selbiges auch für andere Gebiete wie etwa Musik, Berufe und Wissenschaft gilt. Übung hilft uns dabei, besser zu werden, aber unsere Verbesserungen sind strengstens an unsere kognitiven Fähigkeiten gebunden. Traurigerweise reicht der gute Wille nicht aus.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „Dame“ by PIRO4D (CC0 Public Domain)


The Conversation

Weiterlesen »

Wissen, wann man abwirft: KI schlägt weltbesten Pokerspieler

Poker (adapted) (Image by Images Money [CC BY 2.0] via flickr)

Wer gerade dabei ist, eine Runde Online-Poker zu spielen, denke besser noch einmal darüber nach. Die Menschheit wurde nämlich schon wieder bei einem Spiel geschlagen, dieses Mal beim Heads-Up No-Limit Texas Hold’em Poker. Dieser Sieg stellt einen Meilenstein für die Künstliche Intelligenz dar.

Das erste Spiel, bei dem Menschen gegen die Maschinen verloren haben, war Backgammon. Im Jahr 1979 wurde der Backgammon-Weltmeister von BKG 9.8, einer Erfindung von Hans Berliner, geschlagen. Im Jahr 1997 verlor Garri Kasparow, der amtierende Schachweltmeister, gegen Deep Blue von IBM. Kasparow merkte an, dass er eine neue Form der Intelligenz vom Tisch gegenüber „riechen“ konnte.

Auch andere Spiele wurden seitdem von Maschinen gewonnen: Checkers (eine Variante von Dame), Othello, Scrabble, das Wissensquiz Jeopardy! und sogar Pong, die Mutter aller Arcade-Spiele. Der letzte Sieg der Maschinen wurde beim antiken chinesischen Brettspiel Go errungen. Im März letzten Jahres wurde Lee Sedol, einer der weltweit führendend Go-Spieler, von Googles AlphaGo Programm mit 4:1 geschlagen. Und um es uns weiter unter die Nase zu reiben, trat AlphaGo während der Weihnachtsferien anonym gegen Dutzende der weltbesten Go-Spieler im Netz an – und gewann überzeugend.

Warum gerade Poker?

Go wurde als der Mount Everest der Brettspiele bezeichnet. Es ist viel komplexer als Schach oder viele andere Spiele. Dennoch ist es nicht so herausfordernd wie Poker. Genau wie im echten Leben ist Poker ein unsicheres Spiel. Die Spieler wissen nicht, welches Blatt der Gegner hat oder welche Karten in Zukunft aufgedeckt werden. Im Vergleich dazu können alle Spieler beim Schach oder Go das Spielfeld sehen und verfügen über alle Informationen. Dieser Umstand macht Schach oder Go einfacher zu programmieren als Poker.

Poker setzt auch voraus, die Spielweise der anderen Spieler zu verstehen. Bluffen sie? Sollte man das Handtuch werfen? Oder selbst bluffen? Letztlich geht man beim Poker auch ab und zu eine Wette ein. Wann sollte man wetten? Unf worauf? Auch diese Fragen kommen zur Herausforderung hinzu, ein Poker Programm zu schreiben, das genauso gut oder besser als Menschen spielt.

Drei Wochen lang waren vier der besten Poker-Spieler im Rivers Casino in Pittsburgh in ein kräftezehrendes Spiel eingebunden, das insgesamt 120.000 Teilnehmer hatte. Ihr Gegner war das Programm Libratus der Carnegie Mellon-Universität, das von meinem Kollegen Professor Tuomas Sandholm und seinem Doktoranten Noam Brown geschrieben wurde. Libratus sollte das Turnier später gewinnen und das Preisausschreiben von mehr als einer Million US-Dollar gewinnen. Die Profis hingegen könnten sich zusammentun und den Preis von 200.000 US-Dollar pro Person untereinander teilen.

Um den Einfluss des reinen Zufalls zu minimieren, wurde bei dem Turnier ein doppeltes Blatt eingesetzt. Dies bedeutet, dass mit zwei identisch gemischten Decks an zwei separaten Tischen gespielt wurde. An einem Tisch wird dem menschlichen Spieler ein Blatt gegeben (Blatt A), der KI wurde Blatt B ausgeteilt. An dem anderen Tisch (in einem anderen Raum), spielt die KI mit Blatt A und der menschliche Spieler mit Blatt B.

Dies bedeutet, dass, selbst wenn ein Spieler eine ungewöhnliche Reihe guter Karten ausgeteilt bekommt, dies für den anderen Spieler im duplizierten Spiel gespiegelt wird. Dies erklärt auch, warum so viele Runden gespielt worden sind. Das Endergebnis ist, dass wir behaupten können, dass Libratus mit statistischem Vertrauen besser als menschliche Spieler ist.

Wie man Poker gewinnt

Die Details darüber, wie Libratus spielt, sind noch geheim. Dennoch können wir wohl Vermutungen anstellen, die auf vorherige Arbeiten der Carnegie Mellon Universität basieren. Der vielleicht bemerkenswerteste Fakt ist, dass der Sieg mehr von der altmodischen Künstlichen Intelligenz abhängt als von den neuerdings erforschten Prozessen des Deep-Learnings.

Genauso wie Deep Blue beim Schach nutzt nun Libratus viele Brute-Force-Berechnungen, die anzeigen, wie man am besten spielt. Wir wissen, dass es sich auf das Supercomputing Center in Pittsburgh beruft, um jedes Spiel zu absolvieren. Abend für Abend nutzte Libratus diesen Supercomputer, um seine Strategie zu verfeinern. Falls jemand der Meinung sein sollte, dass diese Praxis den Menschen gegenüber unfair ist – die Profis setzen sich ebenso nach jedem Spiel zusammen, vergleichen Ihre Leistungen und stellen Strategien für den nächsten Tag auf.

Libratus zieht auch Vorteile aus der Spieltheorie – ein mathematisches Denkmodell, das durch den Film „A Beautiful Mind“ berühmt wurde. Libratus setzt darauf, strategische Züge zu spielen, die nicht geschlagen werden könnenn – ganz gleich was sein Gegner tut.

Was kommt danach?

Das Poker-Beispiel ist noch nicht das Ende der Fahnenstange. Libratus spielt nur die Version mit zwei Spielern von Heads-Up No-Limit Texas Hold’em Poker. Fügt man mehr Spieler hinzu, vergrößert sich die Komplexität weitgehend. Daher wird es noch einige Jahre dauern, bis Computer gut genug sind, um gegen vier oder mehr Spieler antreten zu können.

Dennoch ist dies ein weiteres Beispiel dafür, wie bekannte Themenfelder der KI langsam aber sicher beginnen, den Menschen einzuholen. Mittlerweile können sie beispielsweise Mammogramme lesen, Chinesisch transkribieren, menschliche Piloten in Hundekämpfe schlagen… und die Liste verlängert sich fast wöchentlich.

So mancher fragt sich nun, wo dies alles endet. Werden Computer möglicherweise all unsere Jobs übernehmen? Eine Studie der Oxford Universität aus dem Jahr 2013 hat geschätzt, dass innerhalb der nächsten zwei Jahrzente etwa 47 Prozent aller Arbeitsplätze in den USA durch die Automatisierung gefährdet sind.

Es gab jedoch einige Einschränkungen bei der erwähnten Studie. Ironischerweise ergab die Studie, dass der Job, vorauszusagen welche Arbeitsplätze gefährdet sind, mit zu den bedrohten Jobs gehört. In der Studie wurde Machine-Learning und kleinere Trainingseinheiten von 70 handwerklichen Berufen genutzt, um vorauszusagen, welche der 700 eingetragenen Berufe gefährdet sind.

Und genau hier kommen Sie ins Spiel. Ich berufe mich auf die Schwarmintelligenz, um zu sehen, ob wir eine bessere Vorhersage machen können. Bitte nehmen Sie sich ein paar Minuten Zeit, um an der Umfrage teilzunehmen. Am Ende können Sie eine Hilfsorganisation auswählen, die als Anerkennung Ihrer aufgebrachten Mühen und Zeit eine Spende erhält.

Noch bevor das Resultat unserer Umfrage feststeht, ist klar, dass einige Jobs, so wie Taxifahrer, LKW-Fahrer, Röntgenassistenten und nun wohl auch professionelle Poker-Spieler bedroht sind. Natürlich erschafft die Technologie andere, neue Berufe. Dennoch bleibt die Frage offen, wie viel geschaffen und wie viel zerstört werden wird.

Um den Maschinen einen Schritt voraus zu bleiben, müssen Menschen ihre Stärken einsetzen, wie beispielsweise Kreativität und emotionale Intelligenz. Wir müssen auch darauf bauen, die Menschen zu stärken und nicht, sie zu ersetzen. Zusammen können Menschen und Maschinen den einzelnen Menschen oder die einzelne Maschine übertreffen. Heutzutage ist der beste Schachspieler ein Mensch, der mit einer Maschine arbeitet. Und zusammen können wir super-menschlich sein.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „Poker“ by Images Money (CC BY 2.0)


Weiterlesen »

Medikamente aus Insekten – Auf sechs Beinen zur medizinischen Revolution?

caterpillar (adapted) (Image by Josch13 [CC0 Public Domain] via Pixabay)

Seit Tausenden von Jahren wenden sich die Menschen an die Natur, wenn es darum geht, Krankheiten zu lindern und zu heilen. Die moderne Wissenschaft baut auf diese altbewährten Grundlagen auf. Diese „Naturprodukt-Entdeckungsprogramme“ von Pharmaunternehmen versorgen uns mit Medikamenten, die Krebs, Infektionen und anderes behandeln könnten.

Aber natürlich vorkommende Medikamente zu entdecken, ist bei weitem nicht unkompliziert. Es ist schwierig genug, ausreichend nützliche Organismen zu finden, sei es eine Baumwurzel oder eine Giftschlange, und es ist noch weitaus schwerer, die exakte medizinische Komponente zu extrahieren und in großen Mengen zu produzieren.

Mit all diesen Stolpersteinen ist es kein Wunder, dass Pharmaunternehmen ihren Schwerpunkt von der Natur ins Labor verschoben und damit begonnen haben, massenhaft Wirkstoffe von Grund auf zu entwickeln, die dann auf vielversprechende Effekte getestet wurden. Seit den 1990ern stellten die Pharmaunternehmen ihre Entedeckungsprogramme ordnungsgemäß ein und die riesige Palette von Testextrakten, die sie gesammelt hatten, wurden verkauft oder verworfen.

Trotzdem haben neuste Genetik-Entwicklungen eine Rückkehr zu den Naturprodukten ausgelöst. Wissenschaftler können inzwischen die gesamte DNS eines Organismus durchforsten, um nach nützlichen Komponenten zu suchen. Es hat sich herausgestellt, dass wir kaum erst an der Oberfläche der natürlichen Molekulardiversität gekratzt haben, die durch mehr als drei Milliarden Jahre ds Ausprobierens verfeinert wurde. Und es gibt noch viele weitere unentdeckte Medikamente, die in Pflanzen, Tieren, Pilzen und Bakterien schlummern. Diese Erkenntnis – und sich anbahnende Gesundheitskrisen wie beispielsweise die Resistenz gegen Antibiotika – haben das Interesse in die Suche nach nützlichen natürlichen Wirkstoffen erneuert, auch Biosprospecting genannt.

Die meisten natürlich gewonnenen Medikamente kommen heutzutage von Pflanzen, Pilzen und Bakterien. Diese Medikamente auf Tierbasis stammen größtenteils aus ein paar wenigen Quellen: giftige Wirbeltiere wie die Gila-Krustenechse oder der Jararaca-Lanzenotter, dem Speichel von Blutegeln oder die Gifte und Sekrete von Organismen wie Schwämmen und Weichtieren. Aber Tiere sind extrem vielseitig und wir haben kaum das pharmazeutische Potential der vielseitigsten Gruppe angetastet: den Insekten.

Insekten stecken voller nützlicher Wirkstoffe

Insekten bewohnen auf der Erde jede erdenkliche Nische im Wasser und zu Land. Daher gibt es eine verblüffende Vielfalt des Zusammenspiels mit anderen Organismen, was bedeutet, dass sie eine enorme Bandbreite an Wirkstoffen entwickelt haben, um sich selbst zu schützen oder andere zu jagen.

Bei dem geringen Anteil der Insekten, der untersucht wurde, wurden eine Menge interessanter Wirkstoffe identifiziert. Zum Beispiel wird Toxiferin, ein antimikrobieller Wirkstoff, der von Schmeißfliegenlarven produziert wird, in Südkorea und Russland als Mittel gegen Viren eingesetzt und soll Tumoren vorbeugen. Die Larven einiger anderer Insektenarten werden auf potente antimikrobielle Stoffe untersucht. Im Gift der Wespe Polybia paulista wurde darüberhinaus ein Wirkstoff gefunden, der Krebszellen tötet, ohne die gesunden Zellen zu beschädigen.

Wieso haben die Medikamentenforscher den Insekten relativ wenig Aufmerksamkeit geschenkt? Teilweise ist die schiere Vielfalt daran Schuld – bei den Millionen von zu untersuchenden Arten ist die erfolgreiche Suche nach einem nützlichen Insekt wie die Suche nach der Nadel im Heuhaufen. Und obwohl wir überall Insekten vermuten, ist der Großteil dieser gigantischen Menge auf ein paar gewöhnliche Arten zurückzuführen. Die meisten Insekten sind schwierig zu finden und nur unter aufwändigen Bedingungen in Gefangenschaft zu züchten.

Und selbst wenn eine nützliche Spezies identifiziert und erfolgreich gezüchtet wurde, ist es noch immer unglaublich schwierig, eine ausreichende Menge des relevanten Materials zu gewinnen. Insekten sind in der Regel sehr klein und ihre Drüsen, die die für die Forschung interessanten, potentiell nützlichen Wirkstoffe produzieren, sind noch viel kleiner.

Die Suche nach freundlichen Insekten

Die gute Neuigkeit ist, dass wir manche dieser Probleme überwinden können, indem wir unsere Erkenntnisse aus der Naturkunde anwenden. David Wilcockson von der Aberystwyth Universität und ich nennen diese Vorgehensweise „ökologiegeführte Entdeckung von Medikamenten“.

Viele Insekten zeigen die Produktion von potentiell nützlichen Wirkstoffen in der Art und Weise auf, wie und wo sie leben. Manche produzieren potente, komplexe Gifte, um ihre Beute zu bändigen und für ihre Nachkömmlinge frisch zu halten. Andere sind Meister darin, schmutzige Mikrohabitate wie Fäkalieren und Kadaver auszunutzen, in denen sie regelmäßig von unzähligen Mikroorganismen herausgefordert werden. Die Insekten in diesen beiden Beispielen haben eine Reihe antimikrobieller Wirkstoffe, um mit krankheitserregenden Bakterien und Pilzen zurechtzukommen, die eventuell als neue Antibiotika für Menschen dienen könnten.

Obwohl unsere Kenntnisse der Naturkunde uns in die richtige Richtung weist, löst es nicht die Probleme, die mit der geringen Größe von Insekten und den winzigen Mengen der produzierten Wirkstoffe zusammenhängen. Glücklicherweise ist es jetzt möglich, die DNS-Stränge zu identifizieren und diejenigen auszusondern, die die Informationen für die interessanten Wirkstoffe tragen. Die betreffenden Stränge werden in Zellen hingegeben, die dafür sorgen, dass größere Mengen produziert werden können.

So gern ich auch an der Entwicklung einer neuen Trendmedizin auf Insektenbasis teilhaben würde, ist meine Hauptmotivation, die Konservierung zu untersuchen, die Insekten betreiben. Ich möchte Wirkstoffe aus den Insekten als Mittel für die Grundforschung, Artenentdeckung und Naturgeschichte gewinnen. Alle Arten, egal wie klein und scheinbar unwichtig, haben ein Recht darauf, um ihrer selbst Willen zu existieren.

Aber diesem Empfinden fehlt die politische Schlagkraft, die man braucht, um für den dringenden Schutz der Natur zu kämpfen. Wir brauchen etwas, das man anfassen kann, etwas, das direkten Nutzen für die Menschen hat. Es ist schwierig, etwas zu finden, das so viel Gewicht hat wie unsere Gesundheit.

Wenn wir die Untiefen des Medizinschränkchens der Natur beleuchten können, wenn wir also die durchaus nützliche Zusammensetzung der facettenreichsten Tiere dieses Planets erforschen können, glaube ich, dass wir die Denkweise der Menschen über den Wert der Natur verändern könnten.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-NC-SA 3.0 US. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „caterpillar“ by Josch13 (CC0 Public Domain)


Weiterlesen »

Codewort Introspektion – Wie Veränderungen im Körper unsere Entscheidungen beeinflussen

Wie werden wir uns unserer eigenen Gedanken und Gefühle bewusst? Und was lässt uns wissen, wann wir eine gute oder schlechte Entscheidung getroffen haben? Jeden Tag sind wir mit vielschichtigen Situationen konfrontiert. Wenn wir aus unseren Fehlern lernen wollen, ist es wichtig, dass wir ab und zu über unsere gefällten Entscheidungen nachdenken. Habe ich die richtige Entscheidung getroffen, als ich mit der Hypothek meines Hauses gegen den Markt spekulierte? War die Ampel gerade noch grün oder doch schon rot? Habe ich wirklich Schritte auf dem Dachboden gehört oder war es nur der Wind?

Wenn wir es mit ungewissen Ereignissen zu tun haben, wenn beispielsweise die Windschutzscheibe unseres Wagens während der Fahrt beschlägt, sind wir nicht mehr so sicher, ob wir in dem Moment richtig hingeschaut und uns für die beste Lösung entschieden haben. Wir gehen davon aus, dass die Fähigkeit, unsere eigenen Erfahrungen bewusst zu untersuchen, davon abhängt, als wie zuverlässig oder „verschwommen“ unser Gehirn die Informationen beurteilt, die diese Erfahrungen bewirken. Dieses Erlebnis wird auch Introspektion genannt. Einige Wissenschaftler und Philosophen glauben, dass diese Fähigkeit zur Introspektion ein notwendiges Merkmal des Bewusstseins ist und das entscheidende Bindeglied zwischen Sinneseindruck und Bewusstsein bildet.

Man nimmt an, dass das Gehirn eine Art Statistik aufstellt, die Möglichkeiten gemäß ihrer Verlässlichkeit gewichtet, um ein Gefühl des Vertrauens zu erzeugen. Dieses Gefühl befindet sich mehr oder weniger im Einklang mit dem, was wir tatsächlich gesehen, gefühlt oder getan haben. Und obwohl diese Theorie einen vernünftigen Ansatz bietet, um unser Vertrauen angesichts einer breiten Palette von Situationen zu erklären, vernachlässigt sie eine wichtige Tatsache über unser Gehirn – es befindet sich in unserem Körper. Sogar jetzt, während Sie diese Worte lesen, werden Sie wahrscheinlich zumindest ein vages Bewusstsein davon haben, wie sich Ihre Socken anfühlen, wie schnell Ihr Herz schlägt oder ob der Raum, indem Sie sich befinden, eine angenehme Temperatur hat.

Auch wenn wir uns dieser Dinge nicht immer bewusst sind, gibt der Körper immer wieder vor, wie wir uns und die Welt um uns herum erleben. Das heißt, die Erfahrung ist immer von einem bestimmten Ort aus, in einer bestimmten Perspektive verkörpert. Tatsächlich legen die jüngsten Forschungen nahe, dass unser Bewusstsein von der Welt sehr stark von exakt diesen internen Körperzuständen abhängt. Aber was ist mit Vertrauen? Ist es möglich, dass, wenn wir über das nachdenken, was wir gerade gesehen oder gefühlt haben, unser Körper im Hintergrund die Fäden zieht?

Einrichten des Experiments

Um diese Möglichkeit experimentell zu testen, entwickelten wir ein Szenario, in dem wir subtile, unbewusste Veränderungen in der physiologischen Erregung der 29 Teilnehmer – wie Herzschlag und Pupillenerweiterung – nachvollziehen konnten. Wir wollten herausfinden, wie sich dies auf ihre bewussten Entscheidungen und ihr Vertrauen auf eines einfachen visuellen Reiz hin auswirken würde. Da wir wissen, dass wir Menschen im Allgemeinen unser Vertrauen gemäß der Verlässlichkeit eines Erlebnisses gewichten, wollten wir herausfinden, ob diesem Prozess durch eine plötzliche, unbewusste Veränderung des Erregungszustandes entgegengewirkt werden oder ob er sogar umgekehrt werden könnte.

Dies erforderte einen experimentellen Reiz, bei dem die Präzision oder die sunsicherheit eines visuellen Erlebnisses manipuliert werden konnte. Um dies zu erreichen, mussten Freiwillige auf einem Bildschirm eine Wolke aus sich bewegenden Punkten betrachten und entscheiden, ob diese nach links oder rechts zogen. Sie mussten auch ihr Vertrauen in diese Entscheidung bewerten. Unsere Punktreize wurden insbesondere dahingehend entworfen, dass sie entweder eine hohe oder eine niedrige Wahrnehmungspräzision zulassen.

Auf der linken Seite des Bildschirms bewegten sich die Punkte klar und relativ eindeutig nach rechts. Die rechten Punkte bewegten sich jedoch und verteilten sich über die ganze Fläche. In statistischer Hinsicht ist die Varianz ihrer Bewegung also höher. Wie erwartet, waren die Aussagen der Teilnehmer, die den den rechten Teil mit den verschwommeneren Punkten betrachteten, weniger genau. Die Teilnehmer hatten ein geringeres Vertrauen. Das Gehirn wirkt wie eine Art Statistiker. Ohne, dass unsere Freiwilligen zuvor darüber Bescheid wussten, intergrierten wir bei etwa der Hälfte der Testpersonen eine Abbildung eines angewidertschauenden Gesichtes. Dies wurde jedoch nur so kurz eingeblendet, dass es nicht bewusst wahrgenommen werden konnte.

Diese subtile Manipulation sorgte für einen erhöhten Herzschlag und erweiterte Pupillen bei den entsprechenden Teilnehmern. Dies hat evolutionäre Gründe, denn Gefühle wie Ekel stellen einen starken Reizfaktor für Situationen dar, in denen etwas in unserem Körper schief gegangen sein könnte. Wenn jemand in unserer Nähe also angewidert schaut und sich zu erbrechen beginnt, wird oftmals eine ähnliche Reaktion in unserem eigenen Körper ausgelöst. Durch eine kurze Reizung bei allen Teilnehmern, die dieses Signal erhielten, konnten wir eine Art „introzeptiven Vorhersagefehler“ bewirken – wir konnten ihr Gehirn dazu bringen, zu denken, dass in ihrem Körper gerade etwas Unerwartetes passiert sei. Dadurch konnten wir nicht nur untersuchen, ob ein vom Hirn gesteuertes Vertrauen mit Reaktionen vom Herzen und der Pupille korrelieren, sondern auch sehen, ob die Störung der Abbildung die Art und Weise verändert, wie die Menschen von ihren Erlebnissen berichteten.

Tatsächlich haben wir festgestellt, dass diese überraschenden Veränderungen in der Erregung des Freiwilligen den Auswirkungen der veschwommenen Punkte auf ihr Vertrauen entgegenwirkten, was das Vertrauen für die einfacheren Punkte leicht verringerte und es für die schwierigeren stärkte. Darüber hinaus konnte diese Umkehrung in den Reaktionen von Pupille und Herz selbst beobachtet werden. Je mehr ein Körper eines Freiwilligen auf den unsichtbaren Ekel reagierte, desto deutlicher ging das Vertrauen bei dem jeweiligen Test verloren. Obwohl sich das Bewusstsein wie eine Art Statistiker verhielt, nutzte es auch Informationen des Körpers, um zu beeinflussen, wie sich die Teilnehmer fühlten.

Diese Ergebnisse, die in der Zeitschrift eLife veröffentlicht wurden, deuten darauf hin, dass sich unsere visuellen Erfahrungen auf mehr als nur das beziehen, was das Auge sieht. In der Tat hängt es auch von dem inneren Zustand unseres Körpers ab – von unserem Herzen und unserer physiologischen Erregung. Wenn wir unsere Erfahrung beurteilen und das Auge des Geistes gleichsam nach innen wenden, scheint es, dass der Körper beeinflusst, was wir vorfinden.

Dies ist ein wichtiger erster Schritt zum Verständnis, wie der Körper den Geist beeinflusst, auch wenn wir uns dessen nicht bewusst sind. Angesichts dieser Erkenntnisse ist unsere Forschergruppe gespannt darauf, aufwändige Computermodelle für diesen Prozess zu entwickeln. Unsere Hoffnung ist es, dass solche Modelle es uns ermöglichen, eine Vielzahl von psychiatrischen und medizinischen Zuständen, wie Angst und Psychose, besser zu verstehen, da Veränderungen der körperlichen Signale und des Selbstbewusstseins des Patienten möglicherweise in eine unrealistische, weil besonders sichere oder unsichere Welt einschließen könnten. Dies kann letztlich zu neuen Behandlungen führen, die auf die Auswirkungen der kardiovaskulären Erregung auf gestörtes Vertrauen und Selbstbewusstsein setzen.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image “eye” (adapted) by BreaW (CC0 Public Domain)


Weiterlesen »

Wie wir verletzte Gelenke mit Stammzellen reparieren

Ein Meniskusriss ist eine der häufigsten Knieverletzungen, vor allem bei jungen, aktiven Menschen. Mehr als eine Million neuer Fälle werden jährlich nur in Europa und den USA diagnostiziert und auch Profisportler kann es treffen – Fußballer Luis Suarez, Tennisprofi Roger Federer und die olympische Schwimmerin Sharon Davies stellen ein paar große Namen unter den vielen Eliteathleten dar, die einen Meniskusriss erleiden mussten. Leider gibt es keine effektive Therapie für diese Verletzung, aber ich und mein Team glauben, dass wir einen Schritt näher an eine Behandlung herangerückt sind. Unser „lebender Verband“ benutzt Stammzellen und Kollagen, um die verletzten Meniskusknorpel, die als eine Art Stoßdämpferwirken, nachwachsen zu lassen.

Wir finden Knie toll – sie sind hochklassige Ingenieurskunst, entstanden über Jahrtausende im Zuge der Evolution. Jeden Tag werden gewaltige Kräfte auf die Knie ausgeübt, wenn wir aufstehen, gehen oder laufen. Im normalen Alltag wird drei bis fünf mal die Gewichtskraft unseres Körpers damit belastet. Diese Extrembedingungen müssen sie jeden Tag überstehen, während sie uns die Flexibilität gewähren, die wir bei jeder Bewegung genießen. Wenn die Knie einwandfrei funktionieren, bemerken wir sie kaum. Wenn sie aber verletzt sind, dann erleiden wir furchtbare Schmerzen und verlieren die Freiheit, ein normales, aktives Leben zu leben.

Einer der Gründe, aus dem unsere Knie so gut funktionieren, sind die Menisukusknorpel, die zwischen den Knochenenden liegen wie harte Kissen. Es gibt in jedem Knie zwei Menisken und diese sind extrem wichtig, um die Knochen im Gelenk zu schützen. Wenn sie verletzt sind, haben wir ein Problem. Ein Meniskusriss ist aber eine typische Sportverletzung, denn die Menisken können bei einem Schlag aufs Knie leicht reißen.

Die meisten Risse heilen nicht, weil es keine Blutzufuhr gibt und so die natürlichen Heilmechanismen nicht einsetzen können. Normalerweise behandelt man so eine Verletzung, indem man den verletzten Teil des Meniskus herausoperiert. Am Anfang funktioniert das noch sehr gut, aber auf lange Sicht funktionieren unsere Knie nicht ohne vollständigen Meniskus. Zum Beispiel kommt es zu Reibung der Knochenenden aneinander und das kann zu frühzeitiger Osteoarthritis führen. Sobald die Arthritis einsetzt, führt sie unaufhaltsam zu chronischem Schmerz und letztlich zu einem Gelenkersatz. Weil Meniskusrisse oft junge, sportliche Menschen betreffen, kann dies viele Jahre der Einschränkung durch Arthritis und einen großen Kostenaufwand für das Gesundheitssystem bedeuten.

Der lange Weg zu einem Heilmittel

Mein Forschungsteam hat vor etwa 13 Jahren begonnen, sich auf dieses Problem zu konzentrieren. Ziel war es, lebende Zellen mit Heilfähigkeiten in den Riss einzusetzen und so eine Heilung von innen zu initiieren. Damals studierten wir die Eigenschaften eines speziellen Zellentyps, der mesenchymalen Stammzelle, die in kleiner Anzahl im Knochenmark zu finden ist und eine essenzielle Rolle bei natürlichen Heilprozessen im Körper einnimmt.

Allerdings war eine einfache Einsetzung der Stammzellen in den Riss nicht genug, da die Zellen nicht am richtigen Platz ankamen.Wir mussten einen Weg finden, die Stammzellen nah an den zwei verletzten Oberflächen des Risses zu halten, sodass sie sich an das verletzte Gewebe anfügen und ihre molekularen Signale auszusenden und eine Reparatur anzufordern. Letztendlich erreichten wir dies, indem wir eine der Stammzellen in eine Kollagen-Membran einfügten und diese in den Riss einführten. Über den Verlauf mehrerer Wochen gehen die Stammzellen auf den Meniskus über und das Kollagen löst sich langsam auf, sodass eine Heilung erfolgen kann.

Wir veröffentlichten unsere Resultate, ließen unsere Entdeckung patentieren und machten uns dann daran, die Wissenschaft auf die Medizin anzuwenden, indem wir ein Produkt namens „Zellenverband“ entwickelten und an Patienten testen ließen. Bisher wurde das Verfahren auf fünf Patienten angewendet, und auch wenn zwei dieser fünf einen erneuten Riss erlitten, so sind doch die anderen drei auch mehr als drei Jahre später noch völlig wohlauf.

Die äußersten Ränder des Meniskus können zwar auch ohne Stammzellen geheilt werden, da hier eine Blutzufuhr vorliegt, der größte Teil des Meniskus ist aber irreparabel und so ist ein neuer Riss innerhalb von einem Jahr bei allen Betroffenen zu erwarten. Demzufolge ist die Erfolgsquote von 60 Prozent in der ersten Patientengruppe durchaus ermutigend und macht den Weg frei für größere Versuche in der Zukunft. Knie sind wirklich wundervoll – und Stammzellen stehen ihnen in nichts nach.

Dieser Artikel erschien zuerst auf „The Conversation” unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image „doctor“ by Andersonvr (CC0 Public Domain)


Weiterlesen »

Fünf Arten, wie Pflanzen neue Technologien geschaffen haben

blaetter-image-by-glady-via-pixabay

Spinat als Sprengstoffdetektor

Wissenschaftler haben sich eine neue Methode einfallen lassen, um Sprengstoff zu erkennen: sie verwenden Spinat. Die Pflanzen sind mit fluoreszierenden bionischen Nanoröhrchen imprägniert, die Infrarot-Licht ausstrahlen. In der Gegenwart von besonderen Chemikalien hört das Leuchten auf – was bedeutet, dass Sprengstoffe vorhanden sind. Die Veränderung in der Fluoreszenz kann sogar durch den Einsatz von modifizierten Handys erkannt werden.

Aber warum sollte man veränderten Spinat anstelle der Nanoröhrchen verwenden? Der Grund ist vor allem, dass Pflanzen eine große Menge Wasser durch ihre Wurzeln auf- und hoch zu den Blättern saugen, ohne viel Energie zu verbrauchen. Daher wird in diesem Fall der Spinat als ein automatisches Wasserkontrollsystem für die Nanoröhrchen, die Sprengstoffe erkennen, verwendet.

Diese beeindruckende Fähigkeit ist einer von vielen Gründen, warum Pflanzen oft nicht nur als Nahrungsmittel und Kleidung sondern auch als Teil komplexer Technologien verwendet werden. Hier sind ein paar weitere Möglichkeiten, wie wir die Pflanzenwelt nutzen können.

Dekontamination

Die Fähigkeit von Pflanzen Wasser zu verarbeiten kann auch für die sogenannte „Phytoremediation“ eingesetzt werden. Schadstoffe, die aus der Erde im Wasser gelöst und von den Pflanzen aufgenommen werden, zu den Blättern transportiert und sammeln sich dort an, weil das Wasser verdunstet. Die Pflanzen können anschließend geerntet und entfernt werden und nehmen so die Schadstoffe mit. Dies wird angewandt, um Böden von Arsen und Blei zu entgiften. Wertvolle Verunreinigungen, wie beispielsweise Kadmium und Nickel, können in einem Verfahren namens „Phytomining“ wiederaufbereitet werden.

In einer neuerlichen, überraschenden Wendung wurden bestimmte Pflanzen genetisch verändert, um ihre Fähigkeiten zu kombinieren, große Wassermengen mit Merkmalen von Bakterienarten zu verarbeiten, die die Sprengstoffarten TNT und RDX zersetzen. Dies bedeutet, wir können veränderte Pflanzen herstellen, die sowohl Sprengstoff erkennen als auch entschärfen können.

Sprengstoff

Aber Pflanzen werden nicht nur für friedliche Absichten verwendet. Im Jahr 1846 führte Christian Schönbein ein Experiment in seiner Küche durch – entgegen der ausdrücklichen Wünsche seiner Frau. Er verschüttete eine Mischung aus konzentrierten Säuren und schnappte sich die nächst gelegene Sache, die zur Hand war, um sie aufzuwischen und bemerkte erst später, dass er die Schürze seiner Frau verwendet hatte. Nachdem er sie in Eile gewaschen und über den Ofen zum Trocknen gehangen hatte, sah sie bemerkenswert gut aus. Die Krise wurde abgewendet – zumindest bis die Schürze explodierte.

Schönbein hatte unbeabsichtigt die Baumwolle der Schürze in Nitrocellulose, oder Schießwolle, umgewandelt, einen stärkeren Sprengstoff als TNT. Diese Cellulose, die die Grundlage der Schießwolle bildet, ist der strukturelle Hauptbestandteil von Pflanzen – und das biologisch am meisten vorkommende Molekül auf der Erde. Cellulose ist leicht zu gewinnen, Nitrocellulose ist stärker als Schießpulver und daher wurde Schießpulver von Schießwolle für viele Aufgaben im 19.Jahrhundert ersetzt.

In dem Roman „Von der Erde zum Mond“ befördert Jules Verne seine Entdecker in den Weltraum, indem er eine riesige Kanone benutzt, die mit Nitrocellulose abgefeuert wurde. In der Realität hätten sich die Raumfahrer von Verne durch die Beschleunigung in Püree verwandelt. Aber er lag nicht vollständig daneben, da heutzutage Nitrocellulose immer noch in den Treibmitteln von Feststoffraketen – besonders für militärische Anwendungsmöglichkeiten – verwendet wird, da es keinen Rauch erzeugt, der die Position der Abschussvorrichtung verraten würde, weil sie einfach verbrennt.

Kunststoffverband

Nitrocellulose und andere nitrierte Pflanzenpolysaccharide befanden sich auch unter den ersten „Kunstoffen“. Ihre Anwendungen schlossen den Film, der in frühen Kameras verwendet wurde, ein, der auf Nitrocellulose basierte und sich entzünden oder sogar explodieren konnte, wenn der Projektor zu heiß wurde. Diese instabilen Substanzen wurden weitgehend durch sicherere Kunststoffe ersetzt, aber eine Flüssigkeit, die gelöste Nitrocellulose enthält, wird immer noch in der Medizin verwendet. Es wird über die Schnitte gestrichen und versiegelt sie mit einem feinen Film aus Nitrocellulose.

Pflanzen produzieren zahlreiche Biopolymere und da wir nach umweltfreundlicheren und nachhaltigen Ersatz für Öl-basierende Kunststoffe suchen, ist es Zeit für diese natürlichen Alternativen, einen Ertrag zu bringen.

Vegetarisches Fleisch

Natürlich bilden Pflanzen die Grundlage der meisten Nahrungsmittel, aber Wissenschaftler haben jüngst einen Burger entworfen, der riecht, schmeckt und sogar wie Fleisch zubereitet wird – auch wenn er vollständig aus pflanzlichen Stoffen hergestellt wurde. Hierfür mussten verschiedene Herausforderungen gelöst werden. Zum Beispiel muss der neue Burger, um bei der Zubereitung möglichst rindfleischähnlich zu sein, pflanzliche Fette enthalten, die bei Raumtemperatur fest sind, aber schmelzen, sobald sie erhitzt werden. Das Fett, das in diesem Fall verwendet wurde, kam von Kokosnüssen.

Pflanzen bestehen nicht aus den Proteinen Hämoglobin und Myoglobin, die dem roten Fleisch seine Farbe und seinen Eisengehalt verleihen. Aber einige beinhalten eine sehr ähnliche Substanz mit dem Namen Leghomoglobin, die wie Hämoglobin und Myoglobin Sauerstoff absorbiert. Dies kommt von Pflanzenarten wie Erbsen und Bohnen, die Wurzelknötchen haben, die Bakterien beinhalten, die Nitrogen aus der Luft in Pflanzendünger umwandeln.

Sauerstoff greift dieses Nitrogen-Umwandlungssystem so aggressiv an, dass einige seiner Bestandteile 99 Prozent seiner Leistung in weniger als sechs Minuten verlieren können. Und daher wird Leghämoglobin verwendet, um es zu schützen, indem es Sauerstoff in die Knötchen aufsaugt. Die Knötchen, welche das Nitrogen festhalten, sind innen wortwörtlich blutrot, da Leghämolglobin die gleiche Farbe wie Hämoglobin besitzt.

Davon abgesehen wird Leghämoglobin verwendet, um den Pflanzenburger sein Aussehen zu verleihen. Der Eisengehalt wird nicht aus den Pflanzen gewonnen, da dies zu ineffizient wäre. Daher wird es mit Hilfe von veränderter Hefe in Wannen mit blutrot gefärbter Flüssigkeit hergestellt – ganz wie in einer Szene aus der Serie True Blood.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC0 Public Domain. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image „Blätter“ by GLady (CC0 Public Domain)


Weiterlesen »

Von Mikroben und Maschinen: Wie Kunst und Wissenschaft zu „Bio-Art“ verschmelzen.

Es gibt Wissenschaft in der Kunst – die Alchemie der Farbe, die Binärcodes, die in der Kamera rechnen, die ausdrucksvolle Anatomie in Portraits und Skulpturen.

Es gibt Kunst in der Wissenschaft – die künstlerische Präzision des Skalpells, die kühle Ästhetik des Labors und die Beobachtungen, die von Wissenschaftlern durchgeführt werden, um neue Materialien und Mikroben zu entdecken, die bisher unentdeckt existieren.

„Bio-Art“, ein künstlerisches Genre, das sich in den 1980er Jahren durchsetzte, verfestigt und erweitert diese organische Beziehung. Laut dem Künstler und Schriftsteller Frances Stracey stellt „Bio-Art“ eine Kreuzung aus Kunst und Biologie mit lebender Materie wie Genen, Zellen oder Tieren als ihr neues Medium dar.

Bio-Künstler nutzen Abbildungstechnologien, abgestorbene oder lebendige Materialien und integrieren sie in ihre Kunst. Damit ziehen sie Metaphern aus der Biologie, um ihre Kunstwerke mit verletzenden oder heilenden Tendenzen anzureichern.

Bei der BioCouture zum Beispiel werden die Themen Mode, Kunst und Biologie miteinander verwoben, neue Materialien werden in den Vordergrund gestellt. Wie die Autorin Suzanna Anker bemerkte, haben Donna Franklin und Gary Cass Kleider aus Zellstoff hergestellt, der durch Bakterien aus Rotwein generiert wurde. Suzanne Lee setzt „wachsende“ Textilien zu Sakkos und Kimonos zusammen, die ausä Zucker, Tee und Bakterien produziert werden.

Bio-Art beinhaltet die Haut und die Zellen von Zelluloid und digitalem Film, die Klangmembranen und die Flüssigkeiten von Körperteilen und Augäpfeln. Um ein anderes Beispiel zu nehmen: In Christian Böks „The Xenotext“ wird ein „chemisches Alphabet“ genutzt, um Poesie in DNA-Sequenzen zu übersetzen, damit hinterher die Genome eines Bakteriums implementiert werden können.

Wenn diese Poesie in ein Gen übersetzt und in eine Zelle integriert wird, legt sie eine Reihe von Anweisungen fest, die alle dazu führen, dass der Organismus daraufhin ein lebensfähiges, gutartiges Protein herstellt. Bök schreibt dazu: „Ich schaffe eine Lebensform, die nicht nur ein haltbares Archiv zur Aufbewahrung eines Gedichtes ist, sondern auch einen wirksamen Apparat zum Schreiben eines Gedichtes darstellt – einen, der auf diesem Planeten bestehen bleibt, bis Welt untergeht.“

Wissenschaftler und Künstler arbeiten zusammen an den entstehenden Bereichen der Mitschöpfung. Sie setzen „Bio-Art“ in aktuelle Debatten zu Fragen ein, wie Beispielsweise, was das Leben ausmacht, was als empfindungsfähiges Wesen gilt und wer entscheidet, welche Leben gerettet oder zerstört werden.

Die „Bio-Art“ bringt Hoffnungen und Sorgen von Wissenschaftlern in einer Zeit zusammen, in der menschliches Leben und der Alltag radikalen und teilweise gefährlichen Veränderungen unterworfen zu sein scheint. Wie Autor Sheel Patel in Anlehnung an Böks Arbeit andeutet: „Wenn eine lebende Zelle dazu gezüchtet werden kann, neue Poesie zu produzieren, könnten wir dann irgendwann in einer Gesellschaft leben, in der Menschen nicht mehr gebraucht werden, um neue Gedanken und Literatur zu produzieren?“

Kunst und Krankheit

Auf der interaktiven Kunstausstellung mit dem Titel Morbus Artis: Disease of the Arts werden tatsächliche und metaphorische Kommunikationskrankheiten genutzt, um das oftmals toxische Verhältnis zwischen menschlichem und nicht-menschlichem Leben zu erforschen.

Die Ausstellung untersucht den schmalen Grat, der zwischen Leben und Tod in einer verwirrenden Zeit der Zerstörung von Arten und Lebensräumen existiert und erforscht, wie das Gewebe der heutigen Körper zunehmend durchlässig wird.

Besonders der wissenschaftliche Diskurs bringt uns dazu, überall Krankheiten zu sehen und danach zu suchen. Die mikroskopischen und biotechnologischen Möglichkeiten reichen bis ins jede Atom hinein.

Selbstverständlich heißt es in der vorherrschende Diskussion auch, dass manche Räume, Dinge und Objekte stärker erkrankt sind als andere. Uns wird beigebracht, Krankheiten bei Außenstehenden, in den Nestern von Insekten, im Gefüge von Paria-Staaten und im Gewebe bestimmter Religionen und Philosophien zu erkennen.

Zur gleichen Zeit hinterfragen der neue Materialismus und die Tierphilosophie, was genau das Leben eigentlich ist und wo man es entdecken kann. Die neuen Denkweisen lenken die Krankheitsfrage auf die Menschheit, deren Handeln alles verdirbt, was sie berührt. Daraus folgt ein angsteinflößendes Aufeinandertreffen der Möglichkeiten und Grenzen des menschlichen und nicht-menschlichen Lebens, ist wie zwischen Albtraum und Traum gefangen.

‚Morbus Artis: Desease of the Arts‘ besteht aus elf Kunstwerken, wobei jedes Werk ein unterschiedliches Medium oder eine andere Kunstform nutzt, um das Chaos der Welt zu entdecken. Jeder Künstler stellt sich Krankheiten anders vor – und doch ist mitten im Schrecken ihrer Vorstellungen Schönheit und Hoffnung zu finden.

In der Videoprojektion von Drew Berry werden ansteckende Zellen „freigelassen“, sodass das Bindegewebe des Ausstellungsraumes vor Leben und Tod nur so strotzt. Herpes, Grippe, HIV, Polio und Pockenerreger werden auf die Galeriewand projiziert, als könnten sie fliegen. Die Darstellumg isr enorm vergrößert und so chaotisch, dass jeder, der den Raum betritt, von ihrem Ausmaß und ihrer Größe erschlagen zu werden droht.

Lienors Torres multimediale Darstellung zu degenerierter Sicht veranschaulicht, wie sich unser Blick auf die Welt durch digitale Technologien begrenzt und verfärbt. An ihrer Illustration kann man zwei große Augäpfel aus Glas, eine flüssige Animation und einen Glasschrank voller Marmeladengläser, gefüllt mit Wasser unterschiedlicher Trübheit, erkennen. Jedes Glas unterscheidet sich durch eingravierte Bilder von Augen. Diese Augen werden zu Regentropfen, während das Blickfeld zu flüssigem Leben gebracht wird. Tränen und Narben werden in den Augen dieses Kunstwerks reflektiert.

In dem von Alison Bennett erschaffenen Werk, das mit einem Touchscreen betrieben wird, wird der Betrachter mit einem hochauflösenden Scan von zerstörter Haut konfrontiert. Betrachter können den Touchscreen nutzen, um das weiche und kaputte Gewebe direkt vor sich zu verändern. Ihre Augen werden zu Fühlorganen: Wie fühlt es sich an, einen blauen Fleck anzufassen und selbst eine Prellung zu haben?

Die Galerie ist also beides – Labor und Studio. In all ihren verschiedenen Formen und mit einem Skalpell und einem Pinsel zur Hand formt „Bio-Art“ die Welt neu.

Dieser Artikel erschien zuerst auf „The Conversation” unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image „organism“ by PeteLinforth (CC0 Public Domain)


Weiterlesen »

Eltern und Roboter-Babys: Neues über die Eltern-Kind-Bindung

Angeregt durch die schrumpfende Bevölkerung hat sich in Japan ein neuer Trend entwickelt, bei dem mechanische Babys dazu genutzt werden, Paare dazu zu ermutigen, sozusagen „Eltern“ zu werden. Die verschiedenen Herangehensweisen unterscheiden sich sehr voneinander und werden durch unterschiedliche Geisteshaltungen angetrieben, die auch einige Fragen aufwerfen – wie nicht zuletzt, ob diese Roboter-Babys das Ziel erreichen, für das ihre Entwickler sie konstruiert haben.

Um all dies zu verstehen, lohnt es sich, die Gründe hinter dem so dringend beworbenen  Bevölkerungswachstum in Japan zu erforschen. Das Problem stellt die unverhältnismäßige Zahl alter Menschen dar. Laut Prognosen der UN sollen im Jahr 2050 mehr als doppelt so viele Japaner über 70 Jahre alt sein als es 15- bis 30jährige geben wird.  Dies wird auf eine Reihe von Faktoren zurückgeführt, unter Anderem auf die sogenannten Parasiten-Singles, außerdem auf immer mehr unverheiratete Frauen sowie auf einen Mangel an Einwanderung.

Was sind also die verschiedenen Herangehensweisen, um mehr Menschen die Elternschaft schmackhaft zu machen? Man preschte mit verschiedenen Lösungen vor: Angefangen bei Robotern, die ein Baby oder dessen Verhaltensweisen nachahmen bis zu Robotern, die ziemlich lebensecht aussehen. Bei Toyota haben die Ingenieure kürzlich den Kirobo Mini auf den Markt gebracht. Der Roboter soll eine Maßnahme sein, die emotionale Reaktion des Menschen hervorzuheben. Der Roboter sieht nicht aus wie ein Baby, aber er verhält sich so „hilflos“ wie ein baby. Beispielsweise erkennt und reagiert er auf Menschen in einer hohen Tonlage und bewegt sich tapsig und unsicher, eben wie ein echtes Baby.

Am anderen Ende des Spektrums steht Yotaro, ein motorgetriebener Baby-Simulator, der eine Projektionsfläche für den Gesichtsbereich hat, sodass Emotionen und Gesichtsausdrücke angezeigt werden können. Der Simulator reagiert, wenn er berührt wird und kann verschiedene Stimmungen darstellen. Mithilfe einer Schniefnase kann er sogar so tun, als sei er krank.

Ermutigend oder abschreckend?

Die Befunde der Vergangenheit suggerieren möglicherweise, dass man das Bevölkerungswachstum fördern könnte, wenn man Paaren mechanische Baby-Simulatoren gibt. Vor kurzem wurden Experimente mit Roboter-Babys und Jugendlichen durchgeführt. In den USA und in Australien hat man unter anderem herausgefunden, dass sie trotz der Überprüfung der Babys getestet wurden, um vor Schwangerschaften in der Jugend zu warnen. Die Roboter haben diese Umstände in der Gruppe, der die mechanischen Babys zugeteilt wurden, im Vergleich zur Kontrollgruppe erhöht. Dennoch wäre es zu einfach, zu sagen, dass es bei allen Nutzern von Roboter-Babys dasselbe Ergebnis wäre. Sowohl das Alter als auch kulturelle Unterschiede spielen beim Ausgang eine wichtige Rolle.

Genauso wie darauf abgezielt wird, ein Bevölkerungswachstum zu bewerben, zielen Forscher auch darauf ab, junge Paare auf die längerfristigen Bedürfnisse eines heranwachsenden Babys vorzubereiten. Man entwickelte eigens Roboter, die Kinder in verschiedenen Altersgruppen repräsentieren sollten, vom „neun Monate alten Noby“ zum „zwei Jahre alten“ Kleinkindern, wie des CB2 (obwohl letzterer das Ergebnis einer Forschung ist, die die Entwicklung eines biometrischen Körpers erforschte).

Während ein deutlicher Fokus darauf gelegt wurde, was in einen Baby-Roboter gelangt, gibt es potenzielle emotionale Probleme für die „Eltern“. Es gab eine nicht geringe Anzahl an Studien, die die Beziehung zwischen Mensch und Roboter untersuchten. Forscher haben entdeckt, dass ein hoher Grad an Bindung zwischen beiden entstehen kann, wenn die Maschine ein sozialer Roboter ist, der über ein menschenähnliches Aussehen verfügt oder menschenähnliche Verhaltensweisen an den Tag legt.

Es gibt einige interessante Vorsichtsmaßnahmen zu dieser Faustregel, wie zum Beispiel das sogenannte verblüffende Tal, das Mashiro Mori ermittelt hat. Es zeigt auf, dass es eine Reihe an realistischen menschlichen Eigenschaften gibt, die Menschen eher abstoßend als anziehend finden.

Momentan ist die Entwicklung recht einseitig, wenn man schlichtweg menschliche Eigenschaften auf den Roboter projiziert. Aber es gibt zurzeit einige Projekte, bei denen Roboter entwickelt werden, die sich die Techniken der künstlichen Intelligenz zu Nutze machen, sodass sie ihre eigene Beziehung zu den Menschen formen können.

Dies führt dann zu den ethischen Fragen nach der angebrachten Verwendung von Robotern. Moralisten fragen sich und uns, ob der Einsatz eines Roboters innerhalb eines speziellen Gebiets akzeptabel ist und auch, ob sich der Roboter selbst moralisch korrekt verhält. Die Roboter-Babys betreffend, sind bereits jetzt eine Reihe an Problemen aufgetaucht. Sollte es den „Eltern“ beispielsweise gestattet sein, sich die Eigenschaften ihres Roboters auszusuchen? Sollten Eltern vielleicht therapiert werden, wenn sie ihr Roboter-Baby abgeben? Und soll das „Baby“ später auf die gleiche Weise von jemand anderem verwendet werden?

Diese Probleme werden möglicherweise während der gesamten Lebensspanne des „Kindes“ immer wieder auftauchen. Wenn ein Punkt erreicht wird, an dem Eltern ihr Roboter-Baby aufgrund von Defekten gegen ein anderes austauschen müssen oder weil sie zum Beispiel ein älteres „Kind“ möchten, wie wird dann die emotionale Bindung zum ersten „Kind“ auf den Ersatz übergehen, wenn man bedenkt, dass diese Maschine dieselbe „Person“ darstellen soll?

In praktischer Hinsicht wäre dies vielleicht durch Software-Updates möglich, ähnlich wie die heutigen Updates bei Smartphones – oder indem man Komponenten verpflanzt, um zu ermöglichen, dass das sich entwickelnde „Kind“ Charakteristiken und Erinnerungen beibehält, ähnlich wie beim Austausch einer Festplatte in einem Computer.

Doch selbst wenn man Asimovs drei Gesetze der Robotik berücksichtigt, wird es problematisch, abhängig von der Interpretation dieser Gesetze. Zum Beispiel sagt das erste Gesetz aus, dass ein Roboter einem menschlichen Wesen nicht schaden soll. Was ist, wenn man Schaden auf emotionaler oder psychologischer Ebene betrachtet? Man könnte argumentieren, dass einem Menschen möglicherweise als ein Resultat der Aktionen des Roboters Schaden zugefügt wird, wenn er eine Bindung zu einem Roboter-Baby aufbaut .

Im Allgemeinen wirft die Nutzung sozialer Roboter viele Probleme auf, sowohl in ethischer als auch in technischer Hinsicht. Die sinkenden Geburtenraten sind tatsächlich ein echtes Problem, das zudem immer mehr zunimmt. Roboter-Babys werden vielleicht auch nicht die Lösung sein, aber eventuell könnten sie zu Forschungen führen, die ein besseres Verständnis und einen Einblick in das Problem der sinkenden Geburtenrate ermöglichen.

 

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image „partner“ by ThomasWolter (CCO Public Domain)


Weiterlesen »

Die sinnlosen Bullet-Point-Plantagen des Managements – Leere in Wissenschaft und Wirtschaft

Erleben wir im Augenblick beim VW-Verwesungsprozess nicht nur die Götterdämmerung des Verbrennungsmotors, sondern auch den Niedergang einer rückwärtsgewandten Firmen-Autokratie, die der ehemalige DAX-Vorstand Thomas Sattelberger an der Hochschule Fresenius in Köln skizzierte?

Folgt man der herrschenden BWL-Lehre an deutschen Universitäten, ist davon nichts zu spüren. Große Teile der Betriebswirtschaftslehre sind in den 1960er Jahren stecken geblieben. „Das war die Zeit, als Großkonzerne die Organisationsform à la mode waren“, schreibt Axel Gloger in seinem Buch „Betriebswirtschaftsleere – Wem nützt die BWL noch?“. Die meisten Fakultäten züchten Nachwuchs für Konzerne, Staat und Unternehmensberatungen. Der legendäre und stinklangweilige Wöhe, die Bibel der Betriebswirte, ist nicht nur schlecht geschrieben, er vermittelt in technokratischen Darstellungen Binsenweisheiten („Unternehmen erzielen in guten Jahren Gewinne, in schlechten Jahren Verluste“), erzeugt Scheinsicherheiten, produziert Planungsillusionen und  vermittelt ein „Alles-im-Griff-Denken“.

Mechanischer Jargon der BWL

Das BWLisierte Management glänzt mit mechanischem und gestanztem Jargon. Die Sprache und das Denken verkümmern: „Die Herrschaft der Zahlen hat dazu geführt, dass sich Buchstaben nicht mehr wie Buchstaben verhalten, sondern wie Zahlen“, zitiert Gloger den Philosophen Jürgen Werner. Die Folgen illustrierte Sattelberger in empirischen Befunden:„Bestnoten gibt es für Deutschlands Manager von ihren Mitarbeitern vor allem für die Fachkompetenz sowie für die Fähigkeit zur Kostenkontrolle. Bei der Führungskompetenz schneiden sie in allen Punkten erheblich schlechter ab als Führungskräfte, sowohl in der EMEA-Region als auch weltweit. Gerade das Vermitteln von Visionen und Inspiration gelingt deutschen Führungskräften im Vergleich zu ihren Kollegen weltweit weniger“.

Sattelberger spricht von einer Herrschaft der Klone in den Top-Etagen der Konzerne und großen mittelständischen Unternehmen. Und die wird eben auch schon im universitären Standardwerk Wöhe angelegt. „Wenn wir unseren BWL-Klassiker aufschlagen, wissen wir, warum die Welt verbulletpointet ist. Das ganze Buch ist so, eine riesige, nicht enden wollende Bullet-Point-Plantage,“ meint Gloger.

Das ist auch für das Management stilprägend. In Lehre und Praxis dominieren Aufzählungs-Friedhöfe. „Erst mal einen Business-Plan machen, Best Practice-Folien vorbereiten und Perfomance messen“ – fertig ist das Tunnel-Denken im Management. Je stärker das Kästchendenken die Regentschaft in Organisationen prägt, desto geistloser funktioniert das System. In diesem Sperrgut der Leerformeln gedeihen Kontroll-Biotope, Misstrauen, ermüdende Rechtfertigungs-Meetings und gefälschte Erfolgsmeldungen.

Querköpfe werden demoralisiert

Aus dieser ökonomistischen Wagenburg müsse man ausbrechen, fordert Sattelberger in seinem Kölner Vortrag vor über 200 Studierenden. Das fange bei den systemstabilisierenden Mechanismen der Rekrutierung und Beförderung von Gleichartigkeit an. In Schaufenster-Reden fordern Top-Manager Unternehmertypen und Querköpfe. „Nur 20 Prozent der Firmen rekrutieren sie schließlich. Wenn ‚die Typen‘ dann da sind, gibt es ‚Demoralisierung‘ durch süße Verlockung, Daumenschrauben oder Gruppendruck“, konstatiert Sattelberger.

Man sollte nach seiner Ansicht Disruptoren in die Chefetagen schicken und nicht Böcke zu Gärtnern machen wie bei VW, RWE, EON oder der Deutschen Bank. Die Forderungen des Personalexperten: „Gründen und soziale Innovation in entstehende Unternehmens-DNA integrieren. ‚Reinfräsen‘ innovationsfördernder Kulturinseln in alte Arbeitskultur: Social Labs und Experimentierfelder für ‚New Work‘ schaffen. Abspaltung aus alter Unternehmensstruktur heraus (OldCo & NewCo) oder Diversifikation unter Beteiligungsholding. Auf- und Ausbau kreativer Ökologien. Der Nukleus hierfür muss an Hochschulen entstehen. Zudem benötigen wir ‚Digitale Freiheits-Wirtschaftszonen’„.

Homer statt Wöhe

Wir brauchen auch mehr Freiheitsgeist in der Ökonomik. Gloger bringt in seinem Opus die klassische Bildung ins Spiel. Das Notiz-Amt betrachtet den Lehrplan des St. John’s College in Santa Fe als Vademekum gegen die Stoff-Huberei in BWL und VWL. In der Leseliste findet man Homers „Odyssee“, die „Nikomachische Ethik von Aristoteles“, Machiavellis „Fürst“ und Thomas Hobbes’ „Leviathan“. Dante, Molière, Leibniz, Kafka, Kant, Goethe, Plato und Einstein sind die Wegbegleiter der Studierenden und nicht die technokratischen Schwurbeleien eines Wöhe.

Zur Next Economy Open #NEO16x am 2. Dezember um 14 Uhr werden wir den Diskurs zur Managementleere fortsetzen. Da hört, sieht und streamt man sich hoffentlich :)


Image “update” by geralt (CC BY 2.0)


Weiterlesen »

FollowUs – Die Netzpiloten-Tipps aus Blogs & Mags

Follow me
  • MICROSOFT t3n: Microsoft plant Smartphone-Comeback: Die vergangenen Monate hat Microsoft offenbar dazu genutzt, eine neue Ausrichtung für den Mobile-Markt zu finden. In einem Interview mit dem Australian Financial Review erklärt CEO Satya Nadella: „Wir werden am Smartphone-Markt nicht so weitermachen wie die heutigen Marktführer ihn definieren, sondern so wie wir einzigartig das ultimative Mobilgerät schaffen können.“ Für die nächste Generation der Microsoft-Smartphones stellt sich Nadella die Frage, welchen Mehrwert Microsoft schaffen kann. Eine Komponente könnte dafür auch Artificial Intelligence sein. In diesem Bereich glaubt der Geschäftsführer, Konkurrenten wie Google, Amazon oder IBM voraus zu sein. Bei der Sprach- und Bilderkennung sei Microsoft „State of the Art“.

  • AMAZON golem: China hält mit Linglong Dingdong dagegen: Amazon Echo bekommt mit Linglong Dingdong Konkurrenz aus China. Noch muss Amazon das Assistenzsystem aber nicht fürchten. Das chinesische Unternehmen Beijing Linglong will laut einem Bericht von Wired zusammen mit dem chinesischen Onlineshop JD.com ein digitales Assistenzsystem namens Dingdong auf den Markt bringen. Dieses lehnt sich optisch an Amazons Echo an und wird wie das Vorbild per Sprache gesteuert. Unterstützt werden Mandarin und Kantonesisch, allerdings kann der Nutzer die Sprache nicht wechseln, er muss sich beim Kauf für eine entscheiden. Die verbaute Technik soll nur zur Erkennung einer Sprache ausreichen.

  • TECHNOLOGIE heise: Autonomere Drohnen dank besserer Umgebungserkennung: Die meisten heute auf dem Markt befindlichen Drohnen sind weitgehend blind: Hier und da haben sie zwar Kameras zur Objekterkennung und fürs Ausweichen vor Hindernissen, einen Rundumblick haben die kleinen Fluggeräte aber normalerweise nicht. Wenn es nach dem Start-up Echodyne geht, ändert sich das in absehbarer Zeit, berichtet Technology Review in seiner Online-Ausgabe („Kleine Drohne mit großem Radar“). Die Firma hat eine Prototypdrohne gezeigt, bei der ein neuartiges Kompaktradar mitfliegt, das ähnlich genau arbeiten soll wie Systeme, die bislang nur für Militäranwendungen gedacht sind. Darüber wird ständig die Umgebung beobachtet und es kann auch andere Flugobjekte identifizieren.

  • SUPERCOMPUTER lanline: Weltweit erster solarbetriebener Supercomputer: Besucher des Texas Advanced Computing Centers (TACC) an der University of Texas bemerken als erstes die großen Solar-Panels über dem Parkplatz. Diese liefern die Energie für Hikari, den weltweit ersten solarbetriebenen Supercomputer, der dieser Tage biologische Verfahren zur Lösung der Probleme rund um den Zika-Virus berechnet, wie aus einer aktuellen Meldung von HPE hervorgeht. Supercomputer haben das Potenzial, Wissenschaft und Innovation entscheidend voranzubringen. Ihr Energiebedarf war jedoch laut HPE lange ein limitierender Faktor für einen weitreichenden Einsatz. Da traditionelle Supercomputer große Mengen an Energie verbrauchen und dabei viel Hitze produzieren, sind große Kühleinrichtungen erforderlich, um den laufenden Betrieb sicherzustellen.

  • WHATSAPP digitaltrends: You can now watch a video on WhatsApp before it finishes downloading: You will no longer need to download videos on WhatsApp to watch them — the app is rolling out with a handy new feature that will let you stream videos while the video is downloading to your device. One of the main issues with WhatsApp has long been how it handles video and the new feature should help make watching videos on WhatsApp a lot more convenient and knock a few seconds off the waiting time between being sent a video and being able to watch that video. The new streaming feature works in multiple ways. If you have your app set up to automatically download media when you get it, the message will start downloading to your device when it arrives and you will see the progress meter in the bottom left of the display, as usual. Now, however, even before that video has downloaded, you will be able to start watching it.

Weiterlesen »