All posts under Gehirn

Drei Gründe, zweimal über die Hirnkartierung nachzudenken

Kopf 1 (adapted) (image by geralt [CC0] via pixabay)

Das Gehirn hat eine wichtige Geografie. Die Großhirnrinde (die graue, äußere Schicht des Gehirns) ist in unserem Schädel so gefaltet, dass die Verbindungswege zwischen unseren Neuronen abgekürzt und die kognitiven Funktionen verbessert werden können. Und natürlich sind diese Faltungen äußerst kompliziert gestaltet. Um die Struktur des Gehirns zu verstehen, nutzen Neurowissenschaftler Orientierungspläne, um dessen Komplexität abzubilden. Auf einer Landkarte werden typischerweise Städte, Ortschaften, Länder und Kontinente abgebildet. Ganz ähnlich werden auch die Bereiche des Gehirns durch einen Mappingprozess räumlich definiert, gekennzeichnet und verständlich gemacht.

Die Hirnkartierung ist der Schlüssel, um unser Hirn zu verstehen. Die Bevölkerung wird immer älter – einer von drei Senioren wird voraussichtlich mit Anzeichen von Alzheimer oder Demenz sterben. Das Abbilden von verschiedenen Bereichen des Gehirns kann zu einer früheren Identifizierung degenerativer Erkrankungen führen. Wir sind besser als je zuvor in der Lage, den entsprechenden Volumenverlust im Gehirn aufgrund des fortschreitendem Alter aufzuzeichnen. Das wiederum könnte Menschen mit möglichen kognitiven Behinderungen helfen. Wir versuchen, herauszufinden, ob das Hirn sich altersgerecht verhält. Hierfür nutzen wir eine Art „Body Mass Index” für das Hirn.

Und wir versuchen sogar, kranke Menschen durch die Stimulation von spezifischen abweichenden Bereichen des Gehirns zu therapieren, zu bilden und medizinisch zu behandeln. In dieser Hinsicht spielt die Hirnkartierung eine wichtige Rolle bei der Strukturierung des Gehirns – vor allem, wenn es darum geht, degenerative Erkrankungen zu erkennen.

Die “Neurokartografie” ist eine neuartige Möglichkeit, um die Komplexität des Gehirns zu prüfen und verstehen. Doch sie wurde von Wissenschaftler, die sich mit der Dekonstruktion dieser Hirnschaltpläne beschäftigen, nur wenig beachtet. Dabei gibt es durchaus Gründe, um die Hirnkartierung kritisch zu betrachten.

Karten sind nicht neutral

Karten bilden unsere Welt nicht neutral ab, sondern sie sind soziale und politische Konstruktionen. Ländergrenzen betonen und bewahren die Autorität des Landes. Dies hat eine enorme Wirkung auf die geografische Vorstellung des Bürgers, der eine solche Karte benutzen.

Die Art und Weise, wie die dreidimensionale Geografie der Erde auf eine zweidimensionale Karte abgeflacht wird, ist auch oft politisch gefärbt. Die Mercator-Projektion, die meistbenutzte Karte der Welt, pumpt die Größe der Länder im Norden auf – ein schiefes Bild. Es existiert einfach keine perfekte Weltkarte.

Karten sind nützlich, um eine komplexe Welt mit ihren vielen Details begreifbar zu machen und zu vereinfachen. Sie stellen ein Mittel dar, um Grenzen zu ziehen und bewahren, um Argumente für sich zu gewinnen und um die Agenda weiterzuverfolgen. Sie sollen Geschichten erzählen, inkomplette Wahrheiten darstellen und als ästhetische Objekte fungieren. In dieser Funktion sind in alle Karten soziale und politische Mächte eingebettet. Das ist besonders zu berücksichtigen, wenn die Karten als Mittel der wissenschaftlichen Autorität herangezogen werden.

Alle Karten – egal, ob es sich hierbei um geografische oder neurologische Darstellungen handelt – müssen kritisch bewertet werden. Sie haben eine inhärente Kraft, für ein gewisses Bewusstsein zu sorgen. In die nun beginnende Phase der Hirn-Kartierung muss uns bewusst werden, wie sehr wir ähnliche Vorstellungen in diesem Bereich beeinflussen oder beschmutzen können. Wir müssen prüfen, wie, warum und wo diese Art der Kartierung produziert und benutzt wird.

Es gibt keine Einheitsgröße

Die Hirnkartierung wird als Mittel der wissenschaftlichen Autorität herumgereicht und gilt damit als seriös. Doch das perfekte Gehirn gibt es nicht – und auch nicht die perfekte Hirnkartierung. Die Verschiedenheit der einzelnen Hirnvolumen, Formen und Dichten ist enorm. Globale und regionale Hirnvolumen spiegeln den lebenslangen zusätzlichen und interaktiven Einfluss mehrfacher genetischer, ökologischer und empirischer Faktoren.

Die Einheitsgröße der Karte spiegelt nicht die Vielfalt der Gehirne, auch wenn diese manchmal wichtig ist, um die Denkweise größerer Menschenmassen zu verstehen. Kritik ist also wichtig. Dank unserer Erfahrung wissen wir, dass die wissenschaftliche Repräsentation des Gewisses uns zu Orten führen kann, an denen die Autorität der Karte nicht hinterfragt wird und andere mögliche Interpretationen offenlässt.

Es gibt auch kein perfektes Beispiel für ein schizophrenes Gehirn. Jeder Patient ist einzigartig und die Gesundheit des Gehirns muss im Zusammenhang mit anderen Faktoren bewertet werden. Der Plan muss mit einem Arztbesuch und umfangreiche Untersuchungen beginnen. Unter anderen ist die Familien- und die individuelle Krankheitsgeschichte wichtig. Auch können eine Blutuntersuchung, eine kognitive Prüfungen und ein MRI wichtige Hinweise geben. Hier kann eine Hirnkartierung eher ablenken, weil sie einen personalisierten Ansatz einer individuellen Person liefert.

Im digitalen Zeitalter hat sich die Idee des Eigentums verändert

Ebenso wichtig ist es, die Fortschritte in der digitalen Technologie zu überprüfen. Dies dient dazu, um zu verstehen, wie das Gehirn in eine Karte umgewandelt wird. Die Hirnkartierung hat innerhalb des technologischen Fortschrittes in den letzten 30 Jahren, wie die MRI-Scanner, einen massiven Wandel durchgemacht. Heute ist es möglich, die Karten einfacher zu verteilen und produzieren. Dass ermöglicht eine positive Interaktivität zwischen Wissenschaftler und einem großen Publikum. Projekte wie ENIGMA, das Human Brain Project (HBP) und die BRAIN Initiative bieten bereits eine Plattform für Beiträge und für eine umfassendere Zusammenarbeit auf dem Feld der Hirnkartierung.

Wie die Karte selbst, hat auch die Technologie implizite soziale und kulturelle Vorurteile, die dargelegt werden sollen, um richtig zu verstehen, wie, warum und wo Gehirn-Karten produziert und benutzt werden.

Die wissenschaftliche Gemeinschaft ist rigoroser denn je, aber Gehirn-Karten haben noch nicht unser komplettes Leben verändert. Google Earth und Google Maps haben die Art verändert, wie wir ihnen unserer Umgebung umgehen – als die Technik eingeführt wurde, hätten wir uns eine Nutzung, wie sie heute stattfindet, nicht einmal träumen lassen. Wenn wir also ein wenig spekulieren – was wäre, wenn wir uns mit unserem Bewusstsein durch die Städte bewegen könnten, so wie wir uns jetzt durch die Städte bewegen, in denen wir leben oder die wir besuchen?

Denkt man ein paar Schritte weiter, kommt man unweigerlich zu der Frage, wie die möglichen Vor- oder Nachteile der VR-Technologie für die Hirnkartierung aussehen könnte. Wie können wir Gehirn-Karten in Zukunft visualisieren und erleben? Und sind wir in der Lage, die Hirnkartierung in Hinblick auf Eigentum und Urheberschaft besser sicherzustellen, als Laien dies tun würden?

Diese und anderen Fragen müssen bedacht werden. Die Hirnkartierung entwickelt sich schnell und es ist wichtig, dass wir eine kritischere Vorgehensweise anwenden, um diese Vorgänge zu verstehen.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „Kopf “by geralt (CC0 Public Domain)


The Conversation

Weiterlesen »

Wie Kinder Humor entwickeln

Child (adapted) (image by Bellezza87 [CC0] via pixabay)

Wer einmal versucht hat, sein Kleinkind mit Sarkasmus oder einem Wortwitz zu unterhalten, hat vermutlich nur einen entgeisterten Blick geerntet. Babys sind sogar noch schwieriger zu beeindrucken – sie ignorieren gekonnt unsere Clownsnummern und fangen stattdessen bei völlig zufälligen Ereignissen an, herzhaft zu lachen. Natürlich haben auch Kinder schon ein bisschen Humor. Aber was finden sie in verschiedenen Altersstufen lustig und ab wann können wir davon ausgehen, dass sie Dinge wie Sarkasmus und Ironie verstehen?

Mein zweijähriger Sohn hat vor kurzem damit begonnen, meine Nase zu packen und hysterisch lachend so zu tun, als würde er sie in den Mülleimer in der Küche schmeißen. Das ist zwar kein Scherz, den ich beim nächsten Abendessen mit Gästen zum Besten geben würde, aber zumindest sieht man hier, dass mein Jüngster einen gewissen Sinn für Humor entwickelt.

Die wesentliche Grundlage, die Kinder für die Entwicklung von Humor brauchen, ist die Sozialisierung. Kinder müssen verstehen, dass sie eine Erfahrung mit einem anderen Menschen teilen, bevor sie einen Sinn für Humor entwickeln können. Wir machen das üblicherweise, indem wir gemeinsam lachen und gemeinsam Reaktion teilen – ein Prozess, der bereits beim ersten Augenkontakt und Lachen eines Neugeborenen beginnt. Der Psychologe Lev Vygotsky nahm an, dass humorvolle soziale Interaktionen dieser Art die kognitive Entwicklung eines Kindes unterstützen können.

Trotzdem braucht ein Kind auch ein paar grundlegende kognitive Fähigkeiten, um überhaupt Witze machen zu können, und zwar jenseits von der Fähigkeit, lustige Grimassen zu schneiden. Die wichtigsten Fähigkeiten sind eine gewisse Vorstellungskraft, die Fähigkeit, andere Sichtweisen anzunehmen und die Sprache. Diese Fähigkeiten entwickeln sich bei jedem Kind unterschiedlich schnell und wachsen und verändern sich auch noch im Jugend- und Erwachsenenalter. Deswegen existiert kein fixes Schema, um die Humorentwicklung anhand spezifischer, altersbezogener Stadien festzulegen.

Sprache

Fast alle Arten von Humor beinhalten eine gewisse Erkenntnis von Inkongruenzen zwischen einem Konzept und einer Situation. Anders ausgedrückt: wir lachen wenn wir überrascht werden, weil wir den Eindruck haben, dass die Dinge nicht zusammenpassen. Nehmen wir als Beispiel folgenden Witz: „Ein Pferd geht in eine Bar. Der Barmensch fragt: „Warum macht du so ein langes Gesicht?“ Zum Einen ist dieser Witz amüsant, weil Pferde normalerweise nicht in eine Bar traben. Zum Anderen ist die Pointe „Warum macht du so ein langes Gesicht?“ witzig, weil wir zuerst gar nicht verstehen, warum das Pferd traurig ist. Dann erst macht es in unserem Gehirn „Klick“ und wir begreifen, dass Pferde ja buchstäblich ein „langes Gesicht“ haben.

Es scheint also, als wäre die Sprache eine Voraussetzung für Humor. Babys, die natürlich noch nicht sprechen können und Kleinkinder, die erst geringe Sprachkenntnisse besitzen, haben normalerweise mehr Spaß mit Dingen, die einen physischen Bezug haben – zum Beispiel bei einer Runde Verstecken. Trotzdem haben auch einfache Witze, die im Vergleich mit sprachbasierten Witzen weniger kognitive Fähigkeiten benötigen, mit dem Erkennen von Inkongruenzen zu tun. Hierbei geht es meist um einen gewissen Überraschungsmoment – plötzlich erschient jemand wie aus dem Nichts. Viele Forscher behaupten, dass die Kommunikation der springende Punkt ist – und in Wahrheit der Humor den Spracherwerb fördert.

Vorstellungskraft

Die Vorstellungkraft spielt im Erkennen von Inkongruenzen eine große Rolle. Sie hilft den Kindern, eine andere Sichtweise anzunehmen und verschiedene soziale Rollen zu inszenieren, und sogar so zu tun, als würde sich die eigene Nase vom Körper entfernen.

Die Entwicklung der Vorstellungskraft beginnt bei Kindern ungefähr zwischen dem 12.bis zum 18. Monat. Interessanterweise ist das der exakt gleiche Zeitraum, in dem Kinder beginnen, die Witze der Eltern nachzumachen . So werden die Eltern angespornt, ihren eigenen Humor zu entwickeln. Tatsächlich können Kinder bereits im Alter von sieben Monaten willkürlich jedes Verhalten nachmachen, das Gelächter erzeugt, wie zum Beispiel ein lustiges Gesicht oder eine Runde Verstecken.

Vorstellungskraft zu entwickeln, ist für ein Kind essentiell, um später eigene Witze zu erfinden. Dieser Prozess beginnt ab einem Alter von etwa zwei Jahren, oft mit objektbasierten Witzen, etwa wenn sich ein Kind die Unterhose auf den Kopf setzt, oder konzeptuell, zum Beispiel mit der Aussage „Das Schwein macht Muuuh“.

Die Inspiration für eigene Witze bekommen Kinder meist von jenen Dingen, die sie gerade selber lernen. Darüber hinaus hilft ihnen das, um gesellschaftliche Regeln zu verstehen. Beispielsweise witzelt mein Sohn oft darüber, dass seine Freundin Lilly „auf den Fußboden gemacht hat“. Das kommt daher, weil bei ihm gerade das Töpfchentraining und Trockenwerden und Exkremente an erster Reihe stehen. Witze darüber zu machen ist eine gute Möglichkeit, die gesellschaftlichen Rituale und Gefühle zu erlernen, die mit diesem Prozess einhergehen – vor allem im Umgang mit Missgeschicken.

Perspektiven und Täuschungen

Kindern können außerdem ihr Humorverständnis entwickeln, wenn sie verstehen, wie unser Verstand funktioniert. Es ist wichtig, zu wissen, dass verschiedene Menschen einen unterschiedlichen Wissensstand oder eine unterschiedliche psychische Verfassung haben. Manche gehen auch von falschen tatsachen aus oder liegen schlichtweg auch mal falsch. Beispielsweise erkennt ein Kind, das das Konzept der Täuschung verstanden hat, wenn die Eltern nur so tun, als wären sie ahnungslos, während sich das Kind hinter ihnen anschleicht, um sie zu erschrecken.

Tatsächlich zeigen auch einige Forschungsergebnisse, dass dieses Wissen für Kinder entscheidend ist, um kompliziertere Witze mit Sarkasmus und Ironie zu verstehen. Eine Studie hat gezeigt, dass manche Kinder bereits im Alter von drei Jahren (normalerweise ungefähr fünf) in der Lage sind, einige Spielweisen der Ironie zu verstehen. In diesem Experiment wurde Kindern ein Puppentheaterstück vorgeführt. Dann wurden den Kindern Fragen gestellt, was sie denn gerade gesehen hatten. Ein Beispiel für Ironie ist eine Szene, in der eine Puppe ein Teller zerbrach. Eine zweite Puppe sagte daraufhin: „Deine Mutter wird sich aber freuen.“ Manche Kinder fingen zu lachen an und verstanden, dass der Satz nicht wörtlich gemeint war und die Mutter natürlich nicht glücklich sein würde.

Andere Wissenschaftler argumentieren, dass sich das Verständnis von Ironie erst durch die Erfahrung mit Humor an sich entwickelt, anstatt durch das Wissen um Täuschung und die Entwicklung von Vorstellungskraft. Witze sind gesellschaftlich und kulturell geprägt, ein Teil des Lernprozesses besteht daher aus sozialen Interaktionen.

Sobald Kinder Vorstellungsvermögen und ein grundlegendes Verständnis für andere entwickelt haben, können sie mit ihrem Humor tatsächliche und mögliche Emotionen erkunden. Beispielsweise können sie unsichtbares Essen herumschleudern und voll Freude herumschreien, dass sie sich bekleckert haben. Die Elternsollen dann so tun, als seinen sie verärgert. Dadurch können Kinder in einem sicheren Umfeld die Emotion Ärger erforschen.

Wenn es zum kindlichen Humor kommt, müssen wir also geduldig sein. Gott sei Dank, denn sonst wären Disney- und Pixar-Filme wohl um einiges anstrengender abzusitzen, wenn Kinder nicht über all die versteckten und teilweise recht gewagten Witze hinweggehen würden. Für’s Erste lachen wir einfach weiter über gestohlene Nasen.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „Child“ by Bellezza87 (CC0 Public Domain)


The Conversation

Weiterlesen »

Gefühle, Hoffnungen und Rechte für Roboter und KI: Worauf müssen wir vorbereitet sein?

Menschenmenge (adapted) (Image by mwewering [CC0 Public Domain] via pixabay)

Wir sollten uns daran gewöhnen, demnächst deutlich mehr über Künstliche Intelligenz zu hören. Selbst, wenn man die utopische und dystopische Übertreibung weglässt, wird das 21. Jahrhundert in breitem Maße nicht nur durch die Fortschritte im Bereich Künstlicher Intelligenz, Robotik, Rechentechnik und kognitiver Neurowissenschaften bestimmt sein, sondern dadurch, wie man selbige bewältigt. Für viele stützt sich die Frage, ob die menschliche Rasse ein 22. Jahrhundert erleben wird, auf diese letzte Berücksichtigung. Während die Vorhersage der drohenden Gefahr einer auf KI zentrierten Zukunft Gegenstand einer intensiven Debatte bleibt, müssen wir uns mit dieser Tatsache arrangieren. Aktuell gibt es mehr Fragen als Antworten.

Grundlegend ist, dass das Europäische Parlament drastisch hin zu einer durch KI bestimmten Zukunft vorprescht. Vor wenigen Wochen beschloss das Komitee für Rechtsfragen innerhalb des Parlamentes in einer Abstimmung mit dem Ergebnis von 17:2 Stimmen, den Beginn eines Gesetzentwurfes für die Regulierung von Entwicklung und Nutzung Künstlicher Intelligenz und Robotik. In diesem Gesetzentwurf enthalten ist eine vorläufige Richtlinie darüber, was unter „elektronischem Menschsein“ zu verstehen ist – diese würde übereinstimmende Rechte und Verpflichtungen für die hochentwickeltsten Künstlichen Intelligenzen absichern. Das ist ein Anfang, aber nicht mehr.

Wer die Debatte über „elektronische“ oder „robotische“ Menschlichkeit verfolgt hat, versteht vermutlich, wie deprimierend diese Themen sind und wie instinktiv geleitet die Reaktionen darauf sein können. Für alle, die sich damit bisher nicht beschäftigt haben, ist genau jetzt ein guter Zeitpunkt, damit anzufangen.

Die Idee einer Roboter-Persönlichkeit ist ähnlich zum Konzept einer Person mit körperschaftlichen Eigenschaften, die es Unternehmen erlaubt, in Rechtsfällen sowohl als Kläger oder Beklagter auftreten zu können – also zu klagen und auch verklagt zu werden. Der Bericht identifiziert etliche Bereiche mit potentieller Aufsicht, wie beispielsweise die Formierung eines europäischen Büros für Künstliche Intelligenz und Robotik, einer bindenden Definition von „intelligent-autonomen Robotern“ , ein Registrierungssystem für die Höchstentwickelten unter ihnen, sowie ein Konzept zur Pflichtversicherung für Unternehmen, um durch Roboter verursachte Schäden und Verletzungen abzudecken.

Der Bericht adressiert zudem die Möglichkeit, dass Künstliche Intelligenz und Robotik eine zentrale Verursacherrolle hinsichtlich massiver Jobverluste sein können und verlangt nach einer „ernsten“ Auseinandersetzung mit der Umsetzbarkeit, ein umfassendes Grundeinkommen als Strategie zur Minimierung der ökonomischen Auswirkungen von Massenautomatisierung gesamter Wirtschaftsbereiche einzusetzen.

Wir sind die Roboter

Diese Herausforderungen mögen entmutigend sein – und sie werden definitiv nicht schmackhafter in Anbetracht der zunehmend beklagenswerten geopolitischen Situation: Gesetzgeber, Politiker und Gerichte kratzen aktuell gerade erst an der Oberfläche dessen, welche Probleme und tatsächlich auch Möglichkeiten Künstliche Intelligenz und Robotik bieten. Ja, fahrerlose Autos sind problematisch, aber nur in einer Welt, in der herkömmliche Autos existieren. Verzichtet man auf diese, wird jede Straße und Stadt, jeder Staat, jede Nation und jeder Kontinent, die ausschließlich von fahrerlosen Autos befahren werden, im Grunde zu einem sehr ausgeprägten Netzwerk aus Eisenbahn-Signalen.

Ich kann hier die Umsetzbarkeit von Dingen wie genereller Künstlicher Intelligenz oder sogar der Büchse der Pandora – die Simulation des kompletten Gehirns, bei der eine künstliche, Software-basierte Kopie eines menschlichen Gehirns abgebildet wird, die identisch zu ihrem Vorbild funktioniert, nicht bewerten. Nehmen wir also einfach die grundlegende technische Umsetzbarkeit an und stellen uns eine Welt vor, in der maßgeschneiderte, fühlende Roboter und robotische Versionen von uns selbst, ausgestattet mit perfekten Kopien unserer Gehirne, zur Arbeit gehen und mit uns „Netflix and chill“ treiben.

Dass die bloße Idee, separate, austausch- und bearbeitbare und in Robotern eingebettete Kopien von Menschen zu erschaffen, sowohl konzeptionelle als auch praktische und juristische Herausforderungen eröffnet, muss hier nicht erwähnt werden. Zum Beispiel müssten grundlegende Prinzipien im Vertragsrecht neu aufgesetzt werden für Verträge, in denen eine der Parteien eine digitale Kopie eines biologischen Menschen ist.

Würde also ein Vertrag im Namen von Jane Smith sowohl für die biologische Jane Smith als auch ihre Kopie gelten? Dieselbe Frage muss auch hinsichtlich Ehe, Elternschaft, im Bereich Wirtschafts- und Besitzrecht und so weiter gelten. Wenn eine elektronische Kopie im Wesentlichen eine verkörperte Version eines biologischen Bewusstseins ihres Vorbildes ist, mit denselben Erfahrungen, Gefühlen, Hoffnungen, Träumen, Schwächen – auf welcher Grundlage sollten wir da für Menschen gültige Rechte verweigern? Das klingt absurd, aber ist dennoch eine Absurdität, die bald Realität werden könnte. Somit können wir uns es nicht leisten, sie wegzulachen oder übersehen zu wollen.

Weiterhin stellt sich die Frage, welche fundamentalen Rechte eine Kopie des biologischen Originals haben sollte. Wie sollten demokratische Wahlen also beispielsweise betrachtet werden, wenn das Kopieren von menschlichen Identitäten in künstliche Körper und Maschinen so günstig wird, dass Wahlbetrug durch die Schaffung von Kopien ein und desselben Wählers zu einer ernstzunehmenden Möglichkeit wird?

Sollte jede Kopie eine solitäre Stimme bekommen, oder nur einen rechnerischen Anteil in Abhängigkeit von der Anzahl der Kopien, die von einer Person bereits existieren? Wenn ein Roboter das Eigentum seines „Besitzers“ ist, sollten sie dann einen größeren moralischen Anspruch an die Wahl haben als, sagen wir, eure Katze? Wären Rechte übertragbar auf Back-up-Kopien für den Fall, dass das biologische Vorbild stirbt? Was, wenn das Kopieren so günstig, schnell und effizient wird, dass eine komplette Wählerbasis nach Gutdünken eines gut betuchten Kandidaten geschaffen werden kann und jeder mit einem eigenen, moralischen Anspruch an eine demokratische Wahl ausgestattet wird?

Wie fühlt ihr euch bei dem Gedanken an eine Wählerbasis, die aus einer Million Roboterkopien von Milo Yiannopolous besteht? Erinnert sich noch jemand an die Diskussion in den Vereinigten Staaten über den Betrug mit sogenannten Phantomwählern? Man stelle sich das Ganze nun einmal auf Steroiden vor. Welchen demokratischen Interessen obliegen nicht-biologische Personen, die keine Anfälligkeit für Alter, Gebrechen oder Tod besitzen. Wer jetzt noch beruhigt einschlafen kann, hat Glück gehabt.

In die Gedankenwelt hineingetaucht

Das alles sind faszinierende Spekulationen. Sie werden sicherlich zu großflächigen sozialen, politischen, wirtschaftlichen und philosophischen Veränderungen führen, sofern sie Bestandteil des Alltagslebens werden. Aber gerade weil sie in steigendem Maße zu Lebensinhalten werden, sollten wir damit beginnen, tiefgreifend über Künstliche Intelligenz und Robotik nachzudenken, statt nur über selbstfahrende Autos und die daraus folgenden Jobproblematiken. Wenn man ein beliebiges liberales und auf Menschenrechte aufgebautes System als Nennwert nimmt, führt dies fast immer zu der Schlussfolgerung, dass fortgeschrittenen Künstlichen Intelligenzen Menschenrechte gewährt werden sollten, sofern wir strikt die konzeptionellen und philosophischen Fundamente interpretieren, auf denen diese beruhen.

Warum ist es also so schwer, diese Schlussfolgerung zu akzeptieren? Was daran lässt uns so unbehaglich, unbequem oder bedroht empfinden? Menschen haben einen exklusiven Anspruch an biologische Intelligenz genossen und wir benutzen uns selbst als Maßstab für die Bewertung jeglicher anderer Intelligenz. Auf einer Ebene fühlen sich Menschen unbehaglich in Bezug auf die Idee des robotischen Menschseins, weil das Einräumen von Rechten für nicht biologische Personen bedeutet, dass wir Menschen bedeutend weniger besonders werden.

Tatsächlich beruhen unsere am tiefsten verwurzelten religiösen und philosophischen Traditionen auf der Vorstellung, dass wir im Grunde wunderschöne und einzigartige Wesen sind, die mit dem Funken des Lebens und Fähigkeiten durchdrungen sind, die uns andere Spezies übersteigen lassen. Das ist verständlich, auch wenn man zahlreiche Wege finden würde, dem zu widersprechen.

Auf einer anderen Ebene erzeugt die Vorstellung des robotischen Menschseins – im Besonderen in Bezug auf das Wahlrecht – bei uns Unbehagen, weil es uns die Belastbarkeit und Anwendbarkeit unserer heiligsten Werte hinterfragen lässt. Das trifft vor allem in Zeiten von Fake News, „alternativen Fakten“ und die fortschreitende Erosion am einst stolzen Bauwerk des liberalen, demokratischen Staates zu. Mit jedem neuen Fortschritt im Sektor der Künstlichen Intelligenz und Robotik gelangen wir stetig näher an den Moment der Abrechnung – nicht nur mit uns selbst, sondern darüber, ob unsere Gesetze, rechtlichen Konzepte und die historischen, kulturellen, sozialen und wirtschaftlichen Fundamente, auf denen sie beruhen, wirklich dazu geeignet sind, die Welt zu adressieren, wie sie sein wird, und nicht, wie sie einst war.

Die Entscheidungen und Taten, die wir heute in Bezug auf Künstliche Intelligenz und Robotik tätigen, weisen pfadabhängige Implikationen für unsere Entscheidungen von morgen auf. Es obliegt allen von uns, sich damit zu beschäftigen, was passiert, um die Auswirkungen zu verstehen und zu reflektieren, ob Bestrebungen, wie die des Europäischen Parlamentes nicht mehr sind als neuer Wein in alten Schläuchen. Es gibt keine Zukunftsforschung, aber wir können besser in die Zukunft schauen und das Ende des Weges verstehen, wenn wir uns aufmerksam auf die Gegenwart und die Entscheidung, die wir als Gesellschaft hinsichtlich der Technologie getroffen haben, konzentrieren.

Wenn man das tut, erkennt man, dass wir als Gesellschaft keine wirklich demokratischen Entscheidungen über Technologie getroffen haben. Mehr oder weniger wurden wir gezwungen zu akzeptieren, dass gewisse Dinge in unsere Welt eindringen und wir entweder lernen, ihre Vorteile zu nutzen oder aber zurückzufallen und natürlich auch mit ihren Auswirkungen klarzukommen. Vermutlich ist der erste Schritt, Gesetze und politische Vorschläge nicht als Ausgangspunkt dafür zu betrachten, wie man mit Künstlicher Intelligenz „umgeht“, sondern dass man anfängt, die demokratischen Defizite zu korrigieren – sei es als Gesellschaft oder sogar als die ganze Welt.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „Menschenmenge“ by mwewering (CC0 Public Domain)


The Conversation

Weiterlesen »

Brains vs. Robots: Der Aufstieg der Roboter ist nicht aufzuhalten

Arzt (adapted) (Image by tmeier1964 [CC0 Public Domain] via pixabay)

Elon Musk, der Tesla-Boss und Gründer von OpelAl, schlug vor ein paar Tagen vor, dass die Menschheit ihre eigene Irrelevanz hinauszögern könnte, indem sie sich selbst mit ihnen verbindet und zu Cyborgs werden möge. Jedoch lassen aktuelle Trends in der Software künstlicher Intelligenz und tiefergehender Lerntechnologie, vor allem auf lange Sicht gesehen ernsthafte Zweifel über die Plausibilität dieser Aussage entstehen. Diese Zweifel lassen sich nicht nur auf Einschränkungen in der Hardware zurückführen, sie haben auch damit zu tun, welche Rolle das menschliche Gehirn bei dem Zuordnungsprozess spielt.

Musks Theorie ist einfach und direkt: Ausreichend entwickelte Schnittstellen zwischen dem Gehirn und dem Computer soll es den Menschen ermöglichen, ihre Fähigkeiten durch besseres Verständnis über den Einsatz von Technologien wie maschinelles Lernen und tiefergehende Lernerfahrungen massiv zu erweitern. Aber der Austausch verläuft in beide Richtungen. Durch den Menschen als „Lückenfüller“ in der Verbindung zwischen Hirn und Maschine könnte die Leistung maschineller Lernalgorithmen verbessert werden, vor allem in Bereichen wie differenzierten kontextabhängigen Entscheidungen, in denen die Algorithmen noch nicht ausgereift genug sind.

Die Idee an sich ist nicht neu. So spekulierte beispielsweise unter anderem J. C. R. Licklider bereits Mitte des 20. Jahrhunderts über die Möglichkeit und Implikation der „Mensch-Computer Symbiose“. Allerdings entwickelte sich der Prozess seitdem nur langsam. Ein Grund hierfür ist die Entwicklung der Hardware. „Es gibt einen Grund, wieso sie ‚Hardware‘ genannt wird – sie ist ziemlich kompliziert“ (engl.: hard), sagte Tony Fadell, der Entwickler des iPods. Die Schaffung der Hardware, die sich mit organischen Systemen verbindet, sei noch schwieriger. Aktuelle Techniken sind primitiv im Vergleich zu der Vorstellung einer Verbindung von Gehirn und Maschine, wie sie uns in Science-Fiction-Filmen wie Matrix verkauft wird.

Macken der tiefgehenden Lernerfahrung

Angenommen, das Hardware-Problem würde letztendlich gelöst, gibt es noch weitaus größere Probleme. Das vergangene Jahrzehnt der enormen Fortschritte in der Forschung des Deep Learning hat aufgedeckt, dass weiterhin grundlegende Herausforderungen bezwungen werden müssen. Eine davon ist die Problematik, die Funktionsweise komplexer neuronaler Netzwerksysteme zu verstehen und zu charakterisieren. Wir vertrauen in einfache Technologien wie einen Taschenrechner, weil wir wissen, dass er immer genau das tun wird, was wir von ihm erwarten. Fehler lassen sich fast ausschließlich auf menschliche Eingabefehler zurückführen.

Eine Vorstellung der Verschmelzung von Gehirn und Maschine ist es, uns zu Supermenschen mit unfassbaren Rechenfähigkeiten zu machen. Statt einen Taschenrechner oder das Smartphone zu zücken, könnten wir die Rechnung einfach denken und sofort die richtige Antwort der „assistierenden“ Maschine erhalten. Besonders knifflig wird es bei dem Versuch, tiefer in die fortgeschrittenen Funktionen der maschinellen Lerntechniken zu gehen, wie beispielsweise bei Deep Learning.

Angenommen, Sie arbeiten in am Flughafen in der Sicherheitsabteilung und verfügen über eine Verschmelzung von Gehirn und Maschine, die jeden Tag automatisch tausende Gesichter scannt und über mögliche Sicherheitsrisiken alarmiert. Die meisten maschinellen Lernsysteme leiden unter einem Problem, bei dem eine kleine Veränderung in der äußeren Erscheinung einer Person oder eines Objekts dazu führen kann, dass katastrophale Fehler in der Klassifizierung entstehen. Verändern Sie das Bild einer Person um weniger als ein Prozent, kann es vorkommen, dass das maschinelle System denkt, es sähe ein Fahrrad statt eines Menschen.

Terroristen oder Verbrecher würden die verschiedenen Schwachstellen der Maschine ausnutzen, um Sicherheitskontrollen zu umgehen – solcherlei Probleme bestehen bereits bei der Online-Sicherheit. Auch wenn Menschen auf andere Weise eingeschränkt sind, bestünde diese Verwechslungsgefahr bei ihnen zumindest nicht.

Ungeachtet seiner Reputation als nicht emotionale Technologie leiden maschinelle Lerntechnologien wie Menschen unter Voreingenommenheit und können mit entsprechender Dateneingabe sogar rassistisches Verhalten aufweisen. Diese Unvorhersehbarkeit hat grundlegende Auswirkungen darauf, was passiert, wenn ein Mensch sich in die Maschine einklinkt und, wichtiger noch, dieser auch vertraut.

Vertraue mir, ich bin Roboter

Vertrauen ist ebenfalls eine beidseitige Angelegenheit. Menschliches Denken ist eine komplexe, höchst dynamische Angelegenheit. Schaut man sich dasselbe Sicherheitsszenario mit einer ausreichend entwickelten Verbindung von Gehirn und Maschine an, stellt sich die Frage: Woher soll die Maschine wissen, welche menschlichen Neigungen sie zu ignorieren hat? Schließlich sind unbewusste Neigungen eine Herausforderung, von der jeder betroffen ist. Was, wenn die Technologie bei der Befragung möglicher Bewerber hilft?

Wir können in bestimmtem Ausmaß die Vertrauensprobleme einer Hirn-Maschine-Verbindung vorhersehen, wenn wir auf die weltweiten Verteidigungskräfte blicken, die versuchen, das Vertrauen in menschliche Maschinen in einem stetig wachsenden menschlich-autonom gemischten Schlachtfeld anzusprechen. Die Forschung beschäftigt sich mit beiden Fällen: Bekannte autonome Systeme, bei denen Menschen den Maschinen vertrauen und Maschinen sich wiederum auf die Menschen verlassen.

Es existiert eine Parallele zwischen einem Roboter-Krieger, der die ethische Entscheidung trifft, eine rechtswidrige Anweisung des Menschen zu ignorieren und dem, was im Interface zwischen Gehirn und Maschine passieren muss. Dies sind Interpretationen der menschlichen Gedanken durch die Maschine, während flüchtige Gedanken und tiefe unbewusste Neigungen gefiltert werden.

In Verteidigungssituationen übernimmt die logische Rolle für ein menschliches Hirn die Prüfung, ob Entscheidungen ethisch vertretbar sind. Doch wie wird das funktionieren, wenn das menschliche Gehirn an eine Maschine angeschlossen ist, die Schlussfolgerungen aus Daten zieht, die kein Hirn begreifen kann? Auf lange Sicht ist das Problem, ob und wie Menschen in Prozesse involviert sein müssen, die zunehmend von Maschinen bestimmt werden. Bald werden Maschinen vielleicht sogar medizinische Entscheidungen übernehmen, die kein menschliches Team ausloten kann. Welche Rolle kann und sollte das menschliche Gehirn in diesem Prozess spielen?

In manchen Fällen vermehrt die Kombination aus Automatisierung und menschlicher Arbeitskraft die Jobaussichten, jedoch dürfte dieser Effekt demnächst verschwunden sein. Die gleichen Roboter und automatische Systeme werden allerdings weiterhin verbessert und schlussendlich die von ihnen geschaffenen Jobs ersetzen. Während Menschen zunächst eine „nützliche“ Rolle in Gehirn-Maschine-Systemen spielen könnten, entwickelt sich die Technologie weiter und es wird dementsprechend weniger Gründe geben, Menschen überhaupt in den Prozess zu integrieren.

Der Gedanke, die Relevanz der Menschheit mit der Verbindung von menschlichen und künstlichen Gehirnen aufrechtzuerhalten, scheint verlockend. Abzuwarten bleibt auch, welchen Beitrag das menschliche Gehirn hier beitragen wird – besonders, weil die technologische Entwicklung die des menschlichen Gehirns um eine Million zu eins überbietet.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „Arzt“ by tmeier1964 (CC0 Public Domain)


The Conversation

Weiterlesen »

Warum Gefahr aufregend ist – allerdings nur für manche Leute

Fallschirmspringen (image by skeeze [CC0] via Pixabay)

Der letzte Sommer war der bislang tödlichste für Wingsuit-Flieger. Aber was bringt manche Leute dazu, von einer Klippe basejumpen zu wollen, sich bis zur Besinnungslosigkeit zu betrinken oder bei Fremden per Anhalter mitzufahren, während andere nicht mal an einer Achterbahnfahrt Freude haben? Gibt es so etwas wie ein Angsthasen-Gen oder eine Draufgänger-Hirnstruktur? Oder ist der Grad, in dem wir uns von Gefahr angezogen fühlen, davon abhängig wie beschützerisch unsere Eltern waren?

Ob unsere Schwächen nun Extremsport, zu schnelles Fahren, Drogen oder andere gefährliche Verhaltensweisen sind, es ist typischerweise eine Mischung aus Risiko und neuen Erfahrungen, die uns zu etwas antreibt. Was Psychologen „novelty seeking“ nennen, ist die Vorliebe für das Unerwartete oder Neue. Leute mit dieser Eigenschaft sind oft impulsiv und schnell gelangweilt – aber neue Erfahrungen setzen eine Welle von Chemikalien im Gehirn frei, die bei ihnen ein Lustempfinden auslösen.

Für eine Ratte oder ein Menschen mit einer Vorliebe für das Neue besteht eine höhere Wahrscheinlichkeit, Drogen zu nehmen und bis zur Besinnungslosigkeit zu trinken. Die Konzepte von Risiko und Neuem sind in gewissem Maß miteinander verknüpft: Ein neuer Reiz ist grundsätzlich riskanter im Hinblick darauf, dass irgendeine damit verbundene Konsequenz unbekannt ist. Allerdings können wir diese beiden Aspekte im Labor voneinander trennen.

Es geht immer um Dopamin

Dopamin, von Neuronen dazu verwendet, Nachrichten an andere Neuronen zu übermitteln, wird oft als das „Glückshormon“ des Gehirns beschrieben. Dopaminzellen befinden sich im Mittelhirn, tief im Stammhirn, und senden „Projektionen“ an Hirnregionen wo das Dopaminmolekül freigesetzt wird – wie zum Beispiel jene, die bei der Kontrolle des Handelns, der Wahrnehmung und Belohnung beteiligt sind.

Studien haben gezeigt, dass das Dopaminsystem von lohnenden Erfahrungen wie der Nahrungsaufnahme, Sex oder der Einnahme von Drogen aktiviert werden kann. In einer Studie mit Parkinson-Patienten, die Medikamente einnahmen, die die Dopaminrezeptoren stimulieren, um deren motorische Symptome zu behandeln, entwickelten 17 Prozent höchst unerwartet ein Suchtverhalten im Bezug auf Glücksspiel oder zwanghaftes sexuelles Verhalten sowie das Kauf- und Essverhalten. Diese Patienten suchten außerdem eher das Risikound zeigten in den Labortests eine Vorliebe für Neues. Es hat also den Anschein, dass ein aktives Dopaminsystem uns dazu bringt, mehr Risiken einzugehen. Eine Studie zur Risikoeinschätzung hat gezeigt, dass ein erwarteter Sieg mit einem Anstieg an Hirnaktivität in Dopaminregionen verbunden ist, wohingegen eine erwartete Niederlage mit einer Abnahme solcher Aktivität verbunden ist. Beide treiben uns dazu, Risiken einzugehen.

Wingsuit-Fliegen oder Achterbahnfahren sind aus einer Belohnung heraus motiviert – ein Nervenkitzel – aber Wingsuit-Fliegen könnte auch von einem Drang getrieben sein, einen Verlust zu vermeiden (in diesem Fall den Tod). Die Wahrscheinlichkeit eines Nervenkitzels durch Base Jumping oder eine Achterbahn liegt nahezu bei 100 Prozent.

Aber während die Wahrscheinlichkeit, bei einer Achterbahnfahrt umzukommen, bei nahezu Null Prozent liegt, ist die Chance, beim Base Jumping zu sterben, erheblich höher. Je näher die Extreme zusammenliegen, bei null Prozent oder bei den vollen Hundert, desto sicherer, aber je näher sie bei den 50 Prozent lagen, desto unsicherer. Viele, aber nicht alle Studien haben gezeigt, dass Leute mit einem bestimmten Dopaminrezeptor wahrscheinlicher den Nervenkitzel suchen. Diese Genvariante steht auch in Verbindung mit einem größeren Ansprechen auf unerwartete Belohnung im Gehirn, was den unerwarteten Nervenkitzel noch prickelnder macht. Die genetische Verdrahtung könnte deshalb auch die Tendenz zum Base Jumping erklären in Verbindung mit der Vorliebe für Neues und möglicherweise auch für Risiko und Belohnung.

Wie wir aufgezogen werden, hat allerdings auch einen Einfluss. Jugendliche sind im Allgemeinen risikofreudiger, teilweise auch deshalb, weil sich ihr Gehirn noch in der Entwicklung befindet und sie anfälliger für Gruppenzwang sind. Und es gibt natürlich auch weitere Gründe, warum wir uns an Bungee Jumping oder Alkoholexzessen erfreuen, als die Affinität zum Risiko und dem Reiz des Neuen. Zum Beispiel kann das in gesellschaftlichen Situationen eintreten, in denen wir einem Gruppenzwang gerecht werden müssen oder wenn wir uns niedergeschlagen oder gestresst fühlen.

Warum sind wir inkonsistent?

Wenn unsere Gene beeinflussen können, ob wir mutig oder ängstlich sind, wie kommt es dann dazu, dass wir so ein wechselhaftes Verhalten zeigen? Zum Beispiel gehen wir im Urlaub skydiven, schließen aber eine Reiseversicherung ab. Wir verhalten uns unterschiedlich, abhängig davon, ob das Risiko als das Erlangen einer Belohnung oder das Vermeiden eines Verlusts wahrgenommen wird – ein Effekt, der als Framing bekannt ist.

Die meisten von uns tendieren dazu, riskante Belohnungen zu vermeiden. Wir gehen dann wohl eher nicht skydiven, aber im Fall eines unwahrscheinlichen Ereignisses mit hohem Gewinn – wie einem Lotterieticket – sind wir gerne bereit, das Risiko einzugehen. Außerdem suchen wir normalerweise das Risiko, um große Verluste zu vermeiden. Dies ist davon abhängig, wie wahrscheinlich es ist, dass eine Folge eintritt. Im Fall eines unwahrscheinlichen, aber möglicherweise besonders schlechten Ausgangs wie dem Risiko, in massive Schulden zu geraten, während man im Ausland in einer medizinischen Einrichtung versorgt wird, wollen wir kein Risiko eingehen und schließen eine Reiseversicherung ab. Menschen, die sich an Gefahr erfreuen, oder die an Suchtstörungen leiden, haben andere Risikotendenzen. Pathologische Konsumenten illegaler Drogen, Alkohol oder Lebensmittel suchen alle das Risiko im Angesicht einer Belohnung – indem sie nach dem Rausch streben. Aber die Konsumenten illegaler Drogen werden von riskanteren, höheren Belohnungen getrieben, wohingegen pathologisch von Alkohol oder Lebensmitteln Abhängige von weniger riskanten, geringeren Belohnungen getrieben sind.

Wie wahrscheinlich es ist, dass wir ein Risiko eingehen, kann auch beeinflusst werden. Eine Studie mit Ratten hat gezeigt, dass Risikobereitschaft reduziert werden kann, indem das Dopaminsignal nachgeahmt wird, welches die Informationen über vorherige negative Auswirkungen früherer riskanter Entscheidungen liefert – wie einen Schlag auf den Fuß oder wie es ist, keine Nahrung zu erhalten. Die Risikobereitschaft bei exzessiven Trinkern kann auch reduziert werden, wenn sie explizit einem Verlustergebnis ausgesetzt sind – wie die Erfahrung, Geld zu verlieren, anstatt dies nur zu erwarten. Eine Nacht in einer Notaufnahme könnte deshalb schon ausreichen um deren Verhalten zu ändern. Außerdem kann ein neuer und unerwarteter Kontext risikobereites Verhalten steigern, was erklären könnte, warum wir im Urlaub mit höherer Wahrscheinlichkeit Risiken eingehen. In einer kürzlich erfolgten Studie haben meine Kollegen und ich Teilnehmern eine Reihe bekannter und unbekannter Gesichter gezeigt und sie gebeten, zwischen einem riskanten Wagnis und einer sicheren Entscheidung zu wählen. Wenn den Versuchspersonen ein neues Gesicht gezeigt wurde, waren sie eher bereit, das riskante Wagnis einzugehen.

Die Studie zeigte, dass Teilnehmer mit höherer Hirnaktivität im Striatum, einer Region, die an der Freisetzung von Dopamin beteiligt ist, im Kontext des unbekannten Gesichts Entscheidungen mit höherem Risiko trafen. Diese Ergebnisse weisen darauf hin, dass Neues die Ausschüttung von Dopamin in dieser Hirnregion erhöht, was dann möglicherweise die Erwartung einer Belohnung steigert.

Von Gefahr angezogen zu werden, ist allerdings nicht unbedingt etwas Schlechtes. Unsere Gesellschaft benötigt sowohl Risikoträger als auch Risikovermeider, um zu funktionieren. Wir brauchen Leute, die Grenzen sprengen, um eine Station auf dem Mars zu errichten oder Leute aus einem Feuer zu retten und wir brauchen die, die Regeln festschreiben und Vorschriften durchsetzen, um unsere Gesellschaft funktionsfähig zu halten.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image „Fallschirmspringen“ by skeeze (CCO Public Domain)


Weiterlesen »

Wie kooperatives Verhalten künstliche Intelligenz menschlicher machen könnte

binary (Image by geralt [CC0 Public Domain] via Pixabay)

Kooperation ist eines der Markenzeichen des Menschseins. Wir sind, im Vergleich mit anderen Spezies, extrem sozial. Regelmäßig helfen wir anderen bei kleinen, aber wichtigen Dingen – ob wir nun jemanden beim Autofahren die Vorfahrt lassen oder Trinkgeld geben, wenn die Bedienung gut war.

Wir machen das ohne eine Garantie, etwas zurück zu bekommen. Spenden werden mit nur kleinen persönlichen Kosten, aber haben einen großen Nutzen für den Empfänger getätigt. Die Form der Kooperation, oder Spenden an Andere, wird indirekte Reziprozität genannt und hilft der menschlichen Gesellschaft zu gedeihen.

Gruppenbasiertes Verhalten beim Menschen hatte sich ursprünglich entwickelt, um der Bedrohung durch größere Raubtiere zu begegnen. Dies führte zu unserem hochentwickelten Gehirn mit sozialen Fähigkeiten, das überproportional größer ist als das anderer Spezies. Die Hypothese des sozialen Gehirns fängt diese Idee auf. Es wird davon ausgegangen, dass das große menschliche Hirn eine Folge der menschlichen Evolution innerhalb komplexer sozialer Gefüge ist, in denen Kooperation eine markante Komponente darstellt.

Indirekte Reziprozität ist wichtig, weil wir sehen, dass es eine Spendenbereitschaft in der Gesellschaft gibt – trotz des bestehenden Risikos von Trittbrettfahrern. Das sind die, die mit offenen Armen nehmen, aber nicht geben. Diese Vorstellung stellt ein komplexes interdisziplinäres Rätsel dar: Was sind die Bedingungen in der Natur, die Spenden über Trittbrettfahrerei begünstigen?

Ökonomen, Biologen, Mathematiker, Soziologen, Psychologen und andere haben alle dazu beigetragen, das Spendenverhalten zu untersuchen. Dazu zu forschen, ist dennoch eine Herausforderung, da es bedeutet, die Evolution zu beobachten. Hierbei kann Informatik einen wichtigen Anteil leisten.

Indem wir Software benutzen, können vereinfachte Gefüge von Menschen simuliert werden, in denen die Individuen sich dazu entscheiden einander zu helfen mit jeweils verschiedenen Spendenstrategien. Das gibt uns die Möglichkeit, die Evolution des Spenderverhaltens zu erforschen, indem wir nachfolgende Generationen dieser vereinfachten Gruppe kreieren. Evolution kann so beobachtbar werden, indem den erfolgreicheren Spendenstrategien eine größere Wahrscheinlichkeit zum Überleben in der nächsten Generation der Gruppe gegeben wird.

In der heutigen Zeit wird Kooperation immer wichtiger für Ingenieure und die Technologie. Viele intelligente und autonome Geräte, wie beispielsweise fahrerlose Autos, Drohnen und Smartphones treten in Erscheinung – und während diese „Roboter“ immer ausgefeilter werden, müssen wir uns mit kooperativer Entscheidungsfindung beschäftigen, für den Fall, dass diese in Kontakt mit anderen Geräten oder Menschen kommen.

Wie sollten diese Geräte sich entscheiden, einander zu helfen? Wie kann Ausnutzung durch Trittbrettfahrer verhindert werden? Durch die Überschreitung der Grenzen traditioneller akademischer Disziplinen können unsere Forschungsergebnisse hilfreiche neue Einblicke für aufstrebende Technologien bereitstellen. Das kann die Entwicklung von Intelligenz ermöglichen, die wiederum der autonomen Technologie bei der Frage, wie großzügig man in allen möglichen Situationen sein sollte, helfen kann.

Evolution modellieren

Um zu verstehen, wie sich Kooperation in sozialen Gruppen entwickeln kann, haben wir hunderttausende computersimulierte „Spendenspiele“ zwischen zufällig ausgewählten Paarspielern durchgeführt. Der erste Spieler in jedem Paar trifft die Entscheidung, ob dem anderen Spieler etwas gespendet wird – basierend auf der Einschätzung des jeweiligen Ansehens. Wenn der Spieler sich entschied, zu spenden, entstanden ihm Unkosten und der Empfänger erhielt eine Leistung. Das Ansehen jedes Spielers wurde dann, je nachdem, wie sie sich entschieden hatten, neu kalkuliert und ein weiteres Spiel wurde eingeleitet. Dies ermöglicht es uns, zu beobachten, welche sozialen Vergleichsentscheidungen mehr Erfolg ergeben.

Der soziale Vergleich ist ein weiterer Grundpfeiler menschlichen Verhaltens, den wir versucht haben, mit einzubeziehen. Durch die Entwicklung in Gruppen wurden wir routinierter darin, uns mit anderen zu vergleichen – und das ist erheblich wichtig, um sachkundige Spendenentscheidungen zu treffen. Das ist eine beträchtliche kognitive Herausforderung, wenn Gruppen groß sind, also könnte Andere dabei geholfen haben, die Evolution unserer größeren menschlichen Gehirne zu fördern.

Das spezifische Spendenverhalten, das wir in unserer Forschung genutzt haben, basierte darauf, dass Spieler Eigenvergleiche zum Ansehen machen. Das führt zu einer kleinen Anzahl an möglichen Resultaten. In Relation zu mir könnte beispielsweise das Ansehen meines Gegenübers entweder als ungefähr gleich eingeschätzt werden, alternativ auch als höher oder niedriger. Die Hauptdenkleistung ist also, das Ansehen von jemanden auf eine aussagekräftige Weise einzuschätzen.

Unsere Ergebnisse zeigten, dass die Evolution die Spendenstrategie bevorzugt, bei denen gegeben wird, die wenigstens so viel Ansehen genießen wie man selbst. Wir nennen dies „angestrebte Homophilie“. Dies bindet zwei Hauptelemente ein. Erstens: großzügig sein unterstützt ein hohes Ansehen; Zweitens: nicht an Spieler zu spenden, die ein niedrigeres Ansehen als man selbst hat, verhindert Trittbrettfahrer.

Es ist wichtig zu beachten, dass unsere Resultate aus einem vereinfachten Modell  stammen: Die Spendenentscheidungen beinhalteten keine Ausnahmen, die vielleicht im wahren Leben auftreten können. So wird angenommen, dass wirtschaftliche Ressourcen das Verhalten lenken können, mehr also emotionale oder kulturelle Faktoren. Nichtsdestoweniger erlauben uns solche Vereinfachung, nützliche Klarheit zu erlangen.

Am wichtigsten ist, dass die Theorie des sozialen Gehirns durch unsere Forschungsergebnisse unterstützt wird: das große Menschengehirn ist eine Folge der menschlichen Entwicklung in sozialen Gefügen in denen Kooperation eine ausgeprägte Komponente ist. Dies durch EDV zu verstehen, öffnet neue Gedankengänge zur Entwicklung von ausgefeilter sozialer Intelligenz für autonome Systeme.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image „Binary“ by Geralt (CC0 Public Domain)


Weiterlesen »

Brainjacking – eine neue Bedrohung der Cybersicherheit

binary (image by geralt [CC0 Public Domain] via Pixabay)

Wir leben in einem vernetzten Zeitalter, in dem drahtlos gesteuerte EDV-Geräte so gut wie jeden Aspekt unseres Lebens einfacher machen, aber sie machen uns auch angreifbar für Attacken auf die Cybersicherheit. Heutzutage kann beinahe alles, vom Auto bis zur Glühbirne, gehackt werden. Aber die wahrscheinlich beunruhigendste Bedrohung ist die, die durch implantierte Medizinprodukte hervorgerufen wird. Experten haben die Leichtigkeit, mit der die Sicherheitsschranke von Schrittmachern oder Insulinpumpen durchbrochen werden kann, demonstriert, woraus vermutlich tödliche Konsequenzen entstehen können.

In einer neueren Studie, die ich und einige meiner Kollegen an der Abteilung für funktionelle Neurochirurgie in Oxford geschrieben haben, haben wir eine neue Barriere der Sicherheitsbedrohung diskutiert: Gehirnimplantate. Unautorisierte Kontrolle von Gehirnimplantaten, auch „Brainjacking“ genannt, wurde schon seit Jahrzehnten in der Science Fiction beschrieben, aber mit dem Fortschritt der Implantationstechnologie eröffnen sich uns jetzt ganz neue Möglichkeiten.

Tiefe Hirnstimulaion

Die gängigste Art der Gehirnimplantate ist das System der tiefen Hirnstimulation (DBS – deep brain stimulation). Es besteht aus implantierten Elektroden, die tief im Gehirn positioniert werden und mit Kabeln unter der Haut, die Signale von einem implantierten Stimulator senden, verbunden sind. Der Stimulator besteht aus einer Batterie, einem kleinen Prozessor und einer drahtlosen Kommunikationsantenne, die es Ärzten erlaubt, das System zu programmieren. Im Wesentlichen funktioniert es wie ein Herzschrittmacher mit dem Hauptunterschied, dass es direkt mit dem Gehirn interagiert.

DBS ist ein fantastisches Werkzeug, um eine große Anzahl an Krankheiten und Störungen zu behandeln. Am meisten wird es in der Behandlung von Morbus Parkinson verwendet, oft mit dramatischen Ergebnissen (s. Video unten), aber es wird auch in der Behandlung von Dystonie (Muskelspasmen), essentiellem Tremor und starken chronischen Schmerzen verwendet. Auch wird es für Erkrankungen wie Depressionen oder dem Tourette Syndrom ausprobiert.

Indem sie auf verschiedene Gehirnregionen mit verschiedenen Stimulationsparametern abzielen, wird der Neurochirurgen eine immer präzisere Kontrolle über das menschliche Gehirn gestattet, die es ihnen ermöglicht, quälende Symptome zu mildern. Allerdings eröffnet diese präzise Kontrolle des Gehirns, gepaart mit der drahtlosen Kontrolle des Stimulators, auch die Möglichkeit für bösartige Angreifer über die überschaubareren Schäden, die mit der Kontrolle von Insulinpumpen oder Herzimplantaten aufkommen könnten, in einen Bereich zutiefst beunruhigender Angriffe zu dringen.

Fernsteuerung

Beispiele potentieller Angriffe beinhalten veränderte Stimulationseinstellungen, sodass Patienten mit chronischen Schmerzen sogar stärkere Schmerzen empfinden könnten als sie sie ganz ohne Stimulation hätten. Oder die Fähigkeit eines Parkinson-Patienten, sich zu bewegen, wäre gehemmt. Ein erfahrener Angreifer könnte eventuell sogar Verhaltensänderungen wie vermehrte Sexualität oder krankhafte Spielsucht induzieren, oder sogar eine eingeschränkte Form von Verhaltenskontrolle des Patienten ausüben, indem er Teile des Gehirns, die ins Lern- und Belohnungssystem involviert sind, stimuliert, um bestimmte Handlungen zu verstärken. Obwohl diese Hacks schwer zu bewerkstelligen wären, weil sie ein hohes Maß an technologischem Verständnis und die Möglichkeit, das Opfer zu überwachen, brauchen, könnte es ein ausreichend entschlossener Angreifer schaffen.

Es gibt Lösungsvorschläge, wie Implantate gegenüber Cyber-Angriffe resistenter gemacht werden könnten, aber die Hersteller solcher Geräte sind in einer schwierigen Position, wenn es um die Verwirklichung von Sicherheitsfunktionen geht. Es gibt die Abwägung zwischen dem Entwurf eines Systems mit einer perfekten Sicherheit und einem System, das in der echten Welt sinnvoll benutzbar ist.

Implantate sind stark in ihrer physischen Größe und Batteriekapazität eingeschränkt, was viele Entwürfe unmöglich macht. Diese Geräte müssen für medizinisches Personal in einem Notfall leicht zugänglich sein, was bedeutet, dass eine Art Schalter zur „Kontrolle“ („Backdoor-Control“) fast eine Notwendigkeit darstellt. Um neue und aufregende Features wie etwa Implantate über das Smartphone oder das Internet kontrollieren zu können, müssen auf das erhöhte Risiko, das solche Funktionen beinhalten könnten, abgestimmt sein.

Gehirnimplantate werden immer gängiger. Wenn sie für die Behandlung von mehr Krankheiten bewilligt und billiger werden und mehr Funktionen bekommen, wird eine größere Anzahl von Menschen diese implantiert bekommen. Insgesamt ist das eine gute Sache, aber so wie ein komplexeres und dichter vernetztes Internet in erhöhten Cybersicherheitsrisiken mündete, werden fortschrittlichere und verbreitetere Gehirnimplantate verlockende Ziele für Kriminelle darstellen. Man stelle sich nur einmal vor, was ein Terrorist mit dem Zugriff auf den Verstand eines Politikers machen könnte – oder wie viel belastender ein Erpressungsfall wäre, wenn jemand beeinflussen könnte, wie wir denken und handeln. Dies alles sind Szenarien, die vielleicht nicht sehr viel länger ausschließlich im Bereich der Science Fiction auftreten.

Es ist wichtig, anzumerken, dass es weder ein Anzeichen gibt, dass irgendeines dieser Implantate einer Cyber-Attacke in der echten Welt unterzogen wurde, noch dass Patienten, die diese derzeit implantiert haben, konkret Angst vor solch einem Fall haben müssten. Dennoch ist das ein Thema, das Gerätehersteller, Behörden, Wissenschaftler, Ingenieure und Kliniker berücksichtigen sollten, bevor es umgesetzt wird. Den neurologischen Implantaten steht eine leuchtende Zukunft bevor. Zugleich könnte bereits ein einziger Vorfall das Vertrauen der Leute in die Sicherheit dieser Geräte irreparabel schädigen – also sollte das Risiko des ‚Brainjacking‘ ernst genommen werden bevor es zu spät ist.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image „Binary“ by Geralt (CC0 Public Domain)


Weiterlesen »

Asoziales Verhalten – Es ist alles in deinem Kopf

Punch (adapted) (Image by Edgar Languren [CC0 Public Domain] via flickr)

Viele Jahre lang haben Wissenschaftler geglaubt, dass es eine Verbindung zwischen gravierendem asozialem Verhalten und verhaltensauffälliger Entwicklung gibt. Jedoch gab es sehr wenig Forschung, die sich mit dieser Theorie beschäftigt. In einer kürzlich durchgeführten Studie nutzten wir MRT-Scans, um die Hirne von Teenagern zu untersuchen, bei denen eine Verhaltensstörung diagnostiziert wurde; also eine psychiatrische Erkrankung, die starkes asoziales Verhalten und Aggression mit sich bringt. Diese Scans lieferten weitere Belege dafür, dass Verhaltensstörungen echte psychiatrische Störungen sind, und nicht, wie manche Experten behaupten, eine übertriebene Form von jugendlicher Rebellion. Wir untersuchten die Hirne von 58 jungen Teilnehmern im Alter von 16 bis 21 mit Verhaltensstörung und von 25 gesunden Kontrollpersonen in der selben Altersgruppe. Wir benutzten die Scans, um die Dicke von 68 unterschiedlichen Teilen der äußeren Hirnrinde zu messen – diese hat unter Anderem Einfluss auf Bereiche wie Bewusstsein, Wahrnehmung, Aufmerksamkeit, Erinnerung und Sprache. Anschließend maßen wir den Grad der Ähnlichkeit zwischen diesen verschiedenen Regionen der Rinde. Diese Ähnlichkeitsmessung sagt etwas darüber aus, ob unterschiedliche Bereiche der Hirnrinde sich in einem vergleichbaren Verhältnis entwickeln. Dies wäre ein Hinweis darauf, dass sie „zusammen wachsen“ – das würde wiederum bedeuten, dass sie zusammenarbeiten und funktional verbunden sind. Man kann zudem messen, ob sie sich in einem sehr unterschiedlichen Verhältnis entwickeln. Dies würde nahelegen, dass sie unterschiedliche Funktionen haben. Wir rechneten damit, herauszufinden, dass die jungen Leute mit der Verhaltensstörung Letzteres aufweisen würden, also weniger Ähnlichkeit zwischen der Dicke verschiedener Teile der Hirnrinde als die gesunden Kontrollpersonen. Wir wurden von den Ergebnissen überrascht. Sie zeigten klare Unterschiede zwischen den jungen Leuten, deren Verhaltensprobleme bereits früh im Leben begonnen hatten, und denen, derer Verhaltensprobleme in der Pubertät begannen. Allerdings unterschieden sich beide Gruppen von der gesunden Kontrollgruppe. Wir stellten fest, dass diverse Teile der Hirnrinde sich in Bezug auf die Dicke der Hirnrinde bei den Teenagern, die bereits in jungen Jahren Verhaltensprobleme entwickelt hatten, deutlich mehr ähnelten, als bei den gesunden Kontrollpersonen. Dies legt den Schluss nahe, dass die Entwicklung des Gehirns bei Kindern, die früh an Verhaltensproblemen leiden, viel synchroner vonstatten geht. Es könnte bedeuten, dass ihre Gehirne weniger speziell geprägt sind. Im Gegensatz dazu entwickeln sich bei normal entwickelten Kindern typischerweise die Teile der Rinde, die nahe beieinander liegen, mit ähnlicher Geschwindigkeit, während andere, die weiter voneinander entfernt liegen oder die unterschiedliche Funktionen haben, sich mit unterschiedlicher Geschwindigkeit entwickeln. Das bedeutet, dass die Hirne normal entwickelter Kinder strenger in verschiedene Netzwerke unterteilt sind, die unterschiedliche Funktionen erfüllen. Doch wir wissen nicht, in welcher Verbindung diese Spezialisierung zu asozialem Verhalten steht. Dieses Muster der verstärkten Ähnlichkeit zwischen verschiedenen Bereichen der Hirnrinde bei Jugendlichen mit frühen Verhaltensproblemen könnte durch die verzögerte Entwicklung der Regionen erklärt werden, die sich normalerweise in der frühen Kindheit entwickeln. Oder es könnte daran liegen, dass die Regionen, die normalerweise später im Leben reifen, sich hier früher entwickeln. Eine andere Feststellung, die uns überraschte, war das Ausmaß dieser strukturellen Veränderungen. Statt Unterschiede zwischen den Gruppen in spezifischen Teilen des Hirns zu finden, die zuvor bereits mit asozialem Verhalten in Verbindung gebracht wurden – beispielsweise im Frontalkortex – fanden wir weitgehende Veränderungen quasi über die gesamte Hirnrinde verteilt. Jedoch fanden wir auch ein völlig anderes Veränderungsmuster der Rindendicke bei den Teenagern, deren Verhaltensprobleme sich in der Jugend entwickelten (die „Spätzünder“). Unterschiedliche Bereiche ihrer Hirnrinde wiesen im Vergleich mit den normal entwickelten Jugendlichen sogar noch weniger Ähnlichkeit miteinander auf. Dies war ebenfalls ein weit verbreitetes Muster, das viele verschiedene Bereiche des Hirns betraf, nicht nur ein oder zwei spezifische Regionen. Dieses Ergebnis könnte Veränderungen der Gehirnentwicklung widerspiegeln, die insbesondere in der Jugend auftreten. Beispielsweise entwickeln sich bei dieser Gruppe Hirnregionen, deren Entwicklung normalerweise in der späten Kindheit oder Jugend stattfindet, langsamer als bei gesunden Personen.

Neue Wege öffnen

Diese Ergebnisse liefern einige der stärksten Belege dafür, dass Anomalien in der Entwicklung des Gehirns möglicherweise zur Entwicklung ernsthaften asozialen Verhaltens in der Kindheit oder der Jugend beitragen. Sie legen außerdem den Schluss nahe, dass es wichtige Unterschiede zwischen den Gehirnstrukturen der Leute, die bereits früh Verhaltensprobleme entwickeln, und denen solcher Personen, die in ihrer Jugend „auf die schiefe Bahn geraten“ sind, gibt. Studien, die die Veränderungen in der Gehirnentwicklung und asoziales Verhalten über längere Zeiträume hinweg verfolgen, sind notwendig, um herauszufinden, ob das Verhalten einer Person sich verbessert, wenn die Entwicklung ihres Gehirns sich normalisiert. Und die Methode, die wir nutzten, um den „Schaltplan“ des Gehirns zu studieren, könnte in Zukunft auch genutzt werden, um den Einfluss von Psychotherapien oder Medikamenten zu untersuchen, oder um bei Kindern mit hohem Risiko – wie beispielsweise die jüngeren Geschwister jugendlicher Straftäter – intervenieren zu können, bevor sie ernsthafte Verhaltensprobleme entwickeln. Es wird außerdem wichtig sein, herauszufinden, ob die Veränderungen, die wir in den Hirnen der Teenager mit Verhaltensproblemen feststellten, von umweltbedingten Risikofaktoren verursacht werden; beispielsweise Missbrauch, Vernachlässigung oder Alkohol- und Tabakkonsum der Mutter während der Schwangerschaft. Weiterhin gilt es, herauszufinden, ob die Veränderungen zum Teil auch von genetischen Unterschieden zwischen den Personen mit Verhaltensproblemen und den normal entwickelten Jugendlichen verursacht werden könnten. Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „Punch“ by Edgar Languren (CC0 Public Domain)


Weiterlesen »

Die Entschlüsselung des Nervensystems: Der nächste medizinische Durchbruch steht bevor

Image by geralt [CC0] via pixabay

Das Nervensystem, das Ihren Körper kontrolliert und steuert, ist faszinierend aufgebaut, doch manchmal läuft etwas schief. Defekte in unserer DNA können eine Reihe von Störungen hervorrufen. Unfälle, hohes Alter und sogar eine falsche Ernährung können gleichermaßen ein Chaos auslösen. Die pharmazeutische Therapie kann manchmal helfen, aber nicht alle Zustände können behandelt werden. In der Regel ist eine solche Therapie bei einer neurologischen Störung allgemein weniger effektiv als bei anderen Krankheiten.

Eine alternative Behandlung, die die elektronische Stimulation des Nervensystems beinhaltet, wurde über Jahrhunderte praktiziert. Einige der ersten römischen Ärzte haben Zitteraale verwendet, um die Schocktherapie zur Schmerzlinderung einzusetzen. Fast 2000 Jahre später verwenden wir eine ähnliche Technik mit elektronischen Geräten, welche TENS (trans-cutaneous electrical nerve stimulation) genannt wird.

Modernere Behandlungen setzen Neuroprothesen ein, welche direkt mit dem Nervensystem verbunden werden, um verlorengegangene Funktionen zu ersetzen. Dazu gehören Herzschrittmacher und sensorische Prothesen, welche visuelle und auditive Sinne für Blinde und Gehörlose ersetzen. Zukünftige Technologien werden möglicherweise direkt in das autonome Nervensystem eingebunden, um eine Reihe von chronischen Krankheiten wie Diabetes zu behandeln.

Es gibt bereits Herzschrittmacher, die nicht nur elektronische Stimulationen bewirken, sondern auch mit dem autonomen Nervensystem verbunden sind, um unterbewusste Emotionen abzuhören. Closed loop stimulation (CLS) Herzschrittmacher und Defibrillatoren verwenden diese Technik, um das Herz schneller schlagen zu lassen, wenn ein Patient Angst oder Aufregung verspürt. Dies erlaubt ihnen, gruselige Filme zu genießen und aufregende Momente im Leben intensiver wahrzunehmen.

Das Licht sehen

Visuelle Prothesen für Blinde haben noch mehr Potential, das Leben zu verändern. Nach vielen Jahrzehnten der Entwicklung sind die Geräte heute in der Lage, einen Chip im Auge drahtlos mit einer externen Videokamera und Prozessoren zu verbinden. Für Menschen, die unter Retinitis Pigmentosa leiden, eine Krankheit, die ein allmähliches Absterben der lichtsensitiven Retinazellen bewirkt, übertragen diese Geräte visuelle Informationen an die verbleibenden Retinazellen durch elektrische Stimulation. Bis heute kann jedoch nur ein grobes Bild reproduziert werden, dass wie eine Handvoll blitzender Punkte aussieht.

Die neueste Revolution der Neuroprothesen könnte noch viel weiter gehen. Im Gegensatz zu anderen Fortschritten auf diesem Gebiet, die aus der Elektronik entwickelt wurden, kommt diese neue Entwicklung aus der biologischen Forschung. Im Jahr 2003 haben deutsche Wissenschaftler beim Erforschen von Algen ein Protein entdeckt, das Nervenzellen lichtsensitiv machen könnte. Daraus wurde eine neue Technologie, die Optogenetik, entwickelt, die mittels Gentherapie die Zellen lichtempfindlich machen soll. Diese neue Technik ist wesentlich stärker und präziser als ältere Techniken und ermöglicht eine hochauflösende Kommunikation mit dem Nervensystem.

Im Falle der Retinitis Pigmentosa ermöglicht die Optogenetik es, die Fähigkeit zur Wahrnehmung von Licht der verbleibenden Zellen wiederherzustellen, statt die Zellen der Retina durch einen Chip zu ersetzen. Spezielle elektronische Brillen können dann genutzt werden, um optische Informationen in einer Form weiterzugeben, die die neu sensibilisierten Zellen verstehen können.

In den USA wurden bereits die ersten menschlichen Patienten mit dieser Gentherapie behandelt. Falls die Methode wie erwartet wirkt, wird sich das Lebend der Patienten grundlegend verändern. Einige Forschunsgruppen gehen davon aus, dass eine Rückkehr zur annähernd normalen visuelle Wahrnehmung möglich ist. Andere, zu denen auch meine Gruppe gehört, sind etwas vorsichtiger, glauben jedoch, dass es Patienten ermöglicht werden kann, ohne einen Blindenstock zu laufen und mittelbar sogar Gesichter zu erkennen. Wir hoffen weiterhin, in der Lage zu sein, die Anwendung auf eine größere Gruppe einschließlich Patienten, die unter Glaukomen und Traumata leiden, ausweiten zu können.

Auf einen ähnlichen Prozess wird im Bereich der Hörimplantate gehofft, die derzeit ermöglichen, dass Patienten in kleinen Gruppen Konversationen zu folgen, jedoch Musik klingen lassen wie eine Art unter Wasser gespielter Death-Metal. Forschergruppen aus den USA und Deutschland hoffen darauf, die Optogenetik, verglichen mit konventionellen elektrischen Implantaten, als einen genaueren Weg zur Stimulation der zum Hören benötigten Nervenzellen nutzen zu können. Dadurch erhofft man sich, dass Geräte hergestellt werden können, die eine nahezu normale Wahrnehmung von Musik ermöglichen.

Unterhaltungen mit dem Gehirn

Die Optogenetik besitzt außerdem das Potential, Millionen von Menschen mit Epilepsie und anderen Störungen zu behandeln. Eines der Probleme der traditionellen Neuroprothesen ist, dass es schwierig ist, das Nervensystem elektrisch zu stimulieren und gleichzeitig elektronische neuronale Aktivitäten zu messen. Das ist, als würde man versuchen, jemanden flüstern zu hören, während man selbst aus vollem Halse schreit. Mit der Optogenetik jedoch ist es möglich, Licht zur Stimulation zu nutzen, ohne die elektronische Messung zu beeinträchtigen. Das heißt, dass es jetzt effektiv möglich ist, eine Kommunikation mit dem Gehirn durch Stimulation und Messung gleichermaßen zu ermöglichen.

Eines der wichtigsten Anwendungsgebiete ist die Epilepsie. Wir beabsichtigen, Signale an Bereiche des Gehirns zu senden, welche das Anfall-ähnliche Verhalten auslösen, um selbige zu beruhigen. Im weltweit führenden Projekt CANDO hoffen wir darauf, als erstes Team diese neue Technik an Patienten mit Epilepsie im Jahr 2021 zu testen. Falls es funktioniert, wäre dies eine Behandlung, die das Leben der Menschen, deren Medikamente sich als unbrauchbar herausgestellt haben, grundlegend verändern würde.

In den kommenden Jahrzehnten werden wir sehen, wie Neuroprothesen zunehmend mit Gentherapien wie Optogenetik und möglicherweise der Stammzellentherapie kombiniert werden. Sogar traditionelle Unternehmen der Pharmaindustrie beginnen damit, die Möglichkeiten der bioelektrischen Medizin zu erforschen, um die körpereigenen Organe zur Produktion von therapeutischen biochemischen Stoffen zu stimulieren. Das bringt den Vorteil, dass Ärzte zumindest für einige Krankheiten die Behandlung zunehmend individueller gestalten können.

Die unter uns, die mit Filmen wie “Blade Runner” groß geworden sind, könnten erwarten, dass alle Menschen heutzutage durch bionische Implantate erweitert und ergänzt werden. In der Realität sind wir noch weit von dieser Vision der Zukunft entfernt. Andererseits beginnen Science-Fiction-Autoren gerade erst damit, die Realität der genetisch fortschrittlichen Bionik zu erfassen. Schliesslich bleibt es schwierig, die Natur zu überwinden. Sollten wir den Beeinträchtigten aber annähernd normale Umstände zurückgeben können, könnte diese ihr Leben drastisch verbessern.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image by geralt (CC0 Public Domain)


Weiterlesen »

Von Medikamenten zu Hirn-OPs: Die Bewusstseins-Technologien der Zukunft

Thinking (adapted) (Image by Floyd-out [CC BY 2.0] via Flickr)

Unser kompliziertes Gefühlsleben kann sich oft wie ein Gefängnis anfühlen. Unsicherheiten, depressive Phasen und Angst können uns im Leben zurückhalten. Aber was wäre, wenn wir die psychischen Gegebenheiten, die uns nicht gefallen, einfach verdrängen könnten? Oder ganz einfach unsere Laune verbessern könnten? Es gibt genügend Gründe zur Annahme, dass dies in Zukunft alltäglich sein wird. Tatsächlich existieren viele der Technologien, die dies bewirken könnten, bereits. Mehr als die Hälfte von uns hat im Laufe ihres Lebens bereits eine längere Phase der Trauer durchlebt oder an extremer Niedergeschlagenheit gelitten und ungefähr einem Fünftel von uns ist eine ernsthafte Depression diagnostiziert worden, wobei diese Zahlen stark davon abhängen, in welcher Kultur man lebt. Die Tatsache, dass Störungen des Gemütszustandes so häufig auftreten – und auch so schwer zu behandeln sind – bedeutet, dass die Forschung sich auf dem Gebiet der Stimmungsregulierung stetig weiterentwickelt. Wenn man heutzutage in Großbritannien mit dem Verdacht auf Depression einen Arzt aufsucht, beginnt man, den Weg der Fürsorge zu beschreiten, welcher „Rede-Heilverfahren“, wie zum Beispiel kognitive Verhaltens-Therapien oder die Behandlung durch Medikamente, welche die Einnahme von Serotonin-Hemmern wie Prozac beinhaltet. Diejenigen, bei denen diese Behandlungsmethode keine Wirkung zeigt, müssen härtere Maßnahmen über sich ergehen lassen oder diverse Medikamente in Kombination einnehmen. Da die meisten Behandlungsmethoden mit psychoaktiven Drogen mit Nebeneffekten in Verbindung gebracht werden, existiert ein enormer Druck, der Anlass gibt, nach neuen Behandlungsweisen zu suchen, die durch die meisten Menschen mehr toleriert werden. Welche anderen Optionen könnte es möglicherweise noch geben? In der nahen Zukunft ist es wahrscheinlich, dass wir eine vermehrte Nutzung von nicht-invasiven Gehirn-Stimulationen beobachten werden können. Diese Technik nutzt magnetische oder elektrische Energie, um das Hirn zu durchwandern und um somit die Aktivität des Gehirns zu verändern. Da Menschen, die an Depressionen leiden, oftmals eine ungleiche Aktivität der rechten und der linken Gehirnhälfte aufweisen, wäre eine mögliche und sehr vielversprechende Behandlungsmethode, die Balance zwischen den Gehirnhälften durch Stimulation wiederherzustellen. Die Methode erscheint dabei vergleichsweise sicher und frei von den Nebeneffekten einer Behandlung mit Medikamenten. Außerdem handelt es sich hierbei um eine günstige Technologie, welche sogar zu Hause angewandt werden kann (auch wenn ich dies nicht unbedingt empfehlen würde). Leider kann diese Stimulation nur die äußerste Oberfläche der Hirnrinde erreichen. Nicht alle Regionen des Gehirns, auf die Depressionen Einfluss nehmen, können so bequem erreicht werden. In diesen Fällen kann ein operativer Eingriff namens Tiefen-Stimulation möglicherweise dabei helfen, die Funktion bei Menschen mit Stimmungsstörungen wiederherzustellen. Tiefen-Stimulationen beinhalten das Bohren eines kleinen Loches in den Schädel und das Einsetzen feiner Elektroden in die Zielregion des Hirns. Die Methode wurde mit einem gewissen Maß an Erfolg bei der Behandlung von Parkinson angewandt und wird nun als Behandlungsmethode für weitere Krankheiten getestet. Dennoch handelt es sich bei dieser Prozedur um einen risikoreichen operativen Eingriff und die Nebeneffekte können unter anderem Schlaganfälle oder Krampfanfälle sein. Ein andere Möglichkeit zur Verbesserung der Hirnfunktion könnte das Neurofeedback sein. In einer typischen Neurofeedback-Sitzung kann der Patient die eigene Gehirnaktivität auf einem Bildschirm betrachten und lernt dabei, durch Training diese Aktivität zu steigern oder zu mindern. Bei der Behandlung von ADHS wurde Neurofeedback dazu verwendet, die Anzahl der Theta-Wellen mit niedriger Frequenz zugunsten von Beta-Wellen mit einer hohen Frequenz zu verändern. Obwohl Neurofeedback bei der Behandlung von Depressionen getestet wurde, ist der Nutzen dieser Methode noch nicht eindeutig.

Behandlung gegen Verbesserung

Bisher haben wir gesehen, was passiert oder vielleicht passiert, wenn einer Person eine klinische Depression diagnostiziert wird. Aber was ist, wenn man sich nur ein wenig niedergeschlagen fühlt? Oder vielleicht fühlt man sich gut, aber man möchte sich noch besser fühlen – können diese Techniken für eine solche, nennen wir es einmal „kosmetische Verbesserung der Stimmung„, verwendet werden? Wir haben kürzlich gezeigt, dass nicht-invasive Stimulationen des Gehirns zu einer Verbesserung der Stimmung bei ansonsten gesunden und nicht-depressiven Menschen verhelfen können. Die Technologie, die wir verwendeten – hier war es die transkranielle Gleichstrom-Stimulation – ist recht günstig und für viele Menschen zugänglich. Könnte diese Methode also die eigene Stimmung erheblich verbessern, wann immer man dies nach einem harten Tag benötigt? Es sind bereits Produkte erhältlich, die behaupten, sie würden nicht-invasive Techniken der Gehirn-Stimulation verwenden, um den Gemütszustand zu regulieren. In ähnlicher Weise bieten so Privatkliniken kostenpflichtige Neurofeedback-Trainingskurse an. Momentan gibt es relativ wenige Beweise dafür, dass die Techniken die Fähigkeit besitzen, die Stimmung von nicht depressiven Menschen zu verbessern und sind oft nicht besser als Placebo. Damit soll nicht gesagt werden, dass neue Behandlungsmethoden nicht angeboten werden sollten, schließlich wollen manche Menschen gern homöopathische Behandlungen zahlen, obwohl es keine Beweise gibt, dass eine solche Behandlungsweise überhaupt wirkt. Dennoch wirft das Schlagwort der kosmetischen Verbesserung der Stimmung mögliche ethische Fragen auf: Sind wir in der Lage, die Schäden, die im Zusammenhang mit der anpassenden Stimmungs-Technologie stehen, völlig zu verstehen und stehen diese Risiken im Gleichgewicht mit den potentiellen Vorteilen? Könnte eine Person beispielsweise von der Stimulation des Gehirns in gleicher Weise abhängig werden wie man auch von Alkohol oder Drogen abhängig werden kann? Welche Rolle spielen die Hersteller und die Privatkliniken bei der Kommunikation und Überwachung solcher Gefahren? Und ist es gerecht, dass manche (wohlhabenden) Menschen Zugang zu einer Stimmungs-Anpassung haben – und andere nicht?

Stimmungs-Anpassung in der Zukunft

Wir sind gerade erst dabei, zu verstehen, wie sich die Stimmung mit Hilfe von neurowissenschaftlicher Technologien anpassen lässt. Es wäre einfach, sich in Science-Fiction-artigen Spekulationen über „Glücks-Chips“ im Hirn, in die Idee der verpflichtenden Stimmungsverbesserungen zur Erhöhung der Effizienz am Arbeitsplatz oder sogar in noch weitergehende Verbesserungen, die den schlimmsten Häftling für seine kriminellen Taten leiden lassen, zu verrennen. Aber mit einer vernünftigen Entwicklung dieser Technologie besitzen wir das Potential, das Leben von zahlreichen Menschen zu verbessern. Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „Thinking“ by Floyd-out (CC BY 2.0)


Weiterlesen »

Wie Hirnimplantate gelähmten Menschen helfen können

chip (adapted) (Image by Sebastian [CC BY-SA 2.0] via Flickr)

Etwas so Einfaches wie eine Tasse hochzuheben, verlangt unserem Körper eine Menge ab. Die Armmuskeln arbeiten, um den Arm zur Tasse zu bewegen, während die Fingermuskeln es ebenso machen, um die Finger dazu zu bringen, sich um den Griff zu legen. Eure Schultermuskeln sorgen dafür, dass der Arm nicht aus der Schulter bricht und alle inneren Muskeln arbeiten daran, dass der Körper nicht nach vorne fällt, herbeigeführt durch das zusätzliche Gewicht der Tasse. Alle diese Muskeln arbeiten präzise und koordiniert zusammen, während euer eigentlicher und bewusster Gedanke lautet: „Aha, das ist also Tee!“.

Genau deshalb ist es so schwierig, gelähmte Gliedmaßen wieder dazu zu bringen, sich zu bewegen. Die meisten gelähmten Muskeln können noch arbeiten, aber die Kommunikation mit dem Gehirn funktioniert nicht mehr, demnach gibt es keine Anweisung, zu arbeiten. Noch können wir die Beschädigungen am Rückenmark nicht beheben. Daher muss man dieses Problem umgehen und die Anweisungen an die Muskeln anderweitig, also künstlich, geben. Dank der Entwicklung von Technik, die Gehirnaktivitäten lesen und interpretieren kann, könnten diese Anweisungen irgendwann direkt vom Hirn eines Patienten kommen. Wir können gelähmte Muskeln dazu bringen, sich zu bewegen, indem wir sie mit Elektroden stimulieren, die man in den Muskeln oder um die Nerven anbringt, die diese versorgen. Diese Technik nennt man funktionelle Elektrostimulation (FES). Sie wird einerseits benutzt, um gelähmten Menschen dabei zu helfen, sich zu bewegen, aber auch, um die Blasenfunktion wiederherzustellen, effektives Husten zu erreichen oder Schmerzlosigkeit zu erzielen. Es handelt sich dabei um eine faszinierende Technik, die einen großen Unterschied in den Leben der Menschen mit einer Knochenmarkverletzung machen kann.

Dimitra Blana und ihre Kollegen arbeiten daran, wie man diese Technologie damit verbinden kann, einen Arm zu bewegen. Hierbei handelt es sich um eine komplexe Anzahl von Anweisungen. Welche Muskeln müssen aktiviert werden, wenn man die Tasse anheben will? Wann geschieht dies, wie viel Kraft muss dafür angewandt werden? Die Anweisungen sind kompliziert – nicht nur, weil verschiedene innere Schultern-, Arm- und Fingermuskeln dabei involviert sind. Während der Tee getrunken wird, ändern sich diese Anweisungen, weil sich auch das Gewicht der Teetasse verändert. Will man etwas anderes machen, sich beispielsweise an der Nase kratzen, werden ganz andere Anweisungen benötigt. Statt einfach nur verschiedene Anweisungen an gelähmten Muskeln auszuprobieren und dabei darauf zu hoffen, diejenigen zu finden, die funktionieren, kann man Computermodelle des Bewegungsapparates nutzen, um diese zu berechnen. Diese Systeme sind mathematische Beschreibungen von Muskeln, Knochen und Gelenken und können nachbilden, wie diese agieren und miteinander arbeiten, während man sich bewegt. In diesen Simulationen kann man Muskeln stärker oder schwächer machen, lähmen oder von außen stimulieren. Man kann verschiedene Anweisungsmuster schnell und sicher testen, die Modelle können ihre Teetasse wieder und wieder anheben – mal mehr, mal weniger erfolgreich.

Die Muskeln modellieren

Um diese Technologie zu testen, arbeitet das Team in Keele mit dem Cleveland FES Center in den USA zusammen, wo bis zu 24 Elektroden in Muskeln und Nerven von Teilnehmern an einer Forschungsstudie implantiert werden. Sie nutzen Modellierungen, um zu entscheiden, wo man die Elektroden platzieren muss, da es mehr gelähmte Muskeln als Elektroden in dem aktuellen FES-System gibt. Wenn man sich entscheiden müsste, was wäre also besser? Sollte man eher den unteren Schulterblattmuskel oder den Obergrätenmuskel stimulieren? Wenn man den Achselnerv stimuliert, muss man dann die Elektroden vor oder hinter die Zweigstelle des Teres Minor setzen? Um diese schwierigen Fragen zu beantworten, lassen die Wissenschaftler viele Simulationen mit verschiedenen Elektrodensets durchlaufen und suchen dasjenige, das den Comuptermodellen erlaubt, die effektivste Muskelbewegung auszuführen. Im Moment arbeitet das Team an der Schulter, die durch eine Gruppe von Muskeln stabilisiert wird, die man Muskel-Sehnen-Kappe nennt. Wenn man die Anweisungen an den Arm falsch eingibt, greift dieser eventuell nach dem Suppenlöffel statt nach dem Buttermesser. Wenn man die Anweisungen an die Muskel-Sehnen-Kappe falsch eingibt, springt der Arm möglicherweise aus der Schulter heraus. Dies sieht schon an Computermodellen nicht sehr verträglich aus – aber die beschweren sich immerhin nicht, während Studienteilnehmer so etwas sicherlich nicht so einfach vergeben würden. Zu wissen, wie man gelähmte Muskeln wieder aktiviert, um sinnvolle Bewegungen zu produzieren, etwa Greifbewegungen, ist jedoch nur ein Teil des Problems. Wir müssen auch herausfinden, wann man die Muskeln aktivieren muss, wie beispeilsweise, wenn der Nutzer ein Objekt aufheben will. Eine Möglichkeit ist es diese Information direkt aus dem Gehirn zu lesen. Erst kürzlich haben Wissenschaftler in den USA ein Implantat genutzt, um einzelnen Gehirnzellen eines behinderten Menschen zuzuhören. Verschiedene Bewegungen sind mit verschiedenen Mustern an Gehirnaktivitäten verbunden, dadurch war es dem Teilnehmer möglich eine von sechs zuvor programmierten Bewegungen zu wählen, welche dann erzeugt wurden, indem Handmuskeln stimuliert wurden.

Das Gehirn lesen

Hierbei handelte es sich um einen spannenden Schritt in das Themenfeld der neuralen Prothesen, doch es bleiben noch viele Herausforderungen. Idealerweise sollten Hirnimplantate mehrere Jahre durchhalten – heutzutage ist es jedoch schwierig, das selbe Signal über mehrere Wochen aufzunehmen, sodass diese Systeme regelmäßig neu kalibriert werden müssen. Neuere Implantatdesigns oder verschiedene Gehirnsignale könnten die Langzeitstabilität verbessern. Außerdem können Implantate nur auf eine kleine Menge der Millionen Zellen hören, die unsere Gliedmaßen kontrollieren. Demnach ist der Bewegungsumfang, der mittlerweile ausgelesen werden kann, noch sehr eingeschränkt. Dennoch sind mit per Gehirn kontrollierter, roboterhafter Gliedmaßen mit relativ viel Freiheit ausgestattet (Bewegung, Rotation und Greifen) – immerhin, die Möglichkeiten dieser Technologien entwickeln sich stetig. Schlussendlich kann man sagen, dass gerade, mühelose Bewegungen, die wir normalerweise als selbstverständlich ansehen, von einer großen, sensorischen Rückmeldung gelenkt werden, die uns sagt, wo unsere Arme sind und wann unsere Fingerspitzen Objekte berühren. Trotzdem können diese Signale auch nach einer Verletzung verloren gehen, deshalb arbeiten Wissenschaftler an Gehirnimplantaten, die vielleicht eines Tages diese Empfindungen wiederherstellen, ebenso wie Bewegungen. Es gibt Wissenschaftler, die darüber spekulieren, dass Technologien, die das Hirn auslesen können, auch dabei helfen können, körperlich gesunde Individuen besser mit Computern, Handys oder sogar anderen Gehirnen kommunizieren zu lassen. Allerdings bleibt das wohl eher Science Fiction – wohingegen Gehirnkontrolle für medizinische Zwecke immer rascher eine klinische Realität wird.

Dieser Artikel erschien zuerst auf “The Conversation” unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „chip“ by Sebastian (CC BY-SA 2.0)


Weiterlesen »

Könnten wir ein Gehirn hochladen – und sollten wir es überhaupt versuchen?

Nervenbahnen (image by geralt [CC0] via Pixabay)

Die Menschen träumten schon immer davon, über die Grenzen ihres Körpers hinauszugehen: die Schmerzen, die Krankheit und allen voran der Tod wollen überwunden werden. Jetzt weitet eine neue Bewegung dieses ursprüngliche Bedürfnis aus. Unter der Bezeichnung Transhumanismus will die Forschung einen Weg bereitstellen, der es uns ermöglicht, über unsere jetzigen physischen Verfassungen hinauszuwachsen und so unseren  Traum von Überlegenheit wahrzumachen.

Die möglicherweise schlimmste Art, wie die Technologie aus Sicht der Transhumanisten die menschliche Verfassung verändert, ist die Idee, dass der Verstand einer Person in digitale Daten konvertiert und in einen unglaublich leistungsfähigen Computer „hochgeladen“ werden könnten. Das würde es erlauben, in einer Welt der grenzenlosen virtuellen Erfahrungen zu leben und tatsächlich unsterblich zu sein – solange jemand daran denkt, Backups zu erstellen und den Computer nicht abschaltet.

Bisher scheint es, als würden die Transhumanisten die Tatsache ignorieren, dass dieser Upload des Bewusstseins einige unüberwindbare Hindernisse aufweist. Die praktischen Schwierigkeiten zeigen, dass es in der näheren Zukunft nicht umsetzbar ist – doch es gibt auch einige weitere fundamentale Probleme des gesamten Konzepts.

Die Idee des Hochladens des Hirns basiert auf Science Fiction. Ray Kurzweil, Autor und technischer Leiter bei Google, hat vermutlich am Meisten dazu beigetragen, den Eindruck zu erwecken, dass die Idee Realität werden könnte – eventuell schon ab dem Jahr 2045. Zuletzt hatte der Ökonom Robin Hanson die Konsequenzen eines solchen Szenarios für die Gesellschaft und Wirtschaft im Detail erforscht. Er hat eine Welt vor Augen, in der alle Arbeit auf körperlose Nachbildungen des menschlichen Geistes ausgeführt wird, die Simulationen einer virtuellen Realität durchlaufen, die Rechneranlagen nutzt, die so groß wie eine ganze Stadt sind.

Es ist nur ein kleiner Schritt von der Idee, dass unser Bewusstsein hochgeladen werden könnte bis hin zu der Vorstellung, dass dies bereits geschehen ist und wir in einer Computersimulation im Matrix-Stil leben. Der Unternehmer Elon Musk hatte diese Diskussion wieder aufblühen lassen, indem er argumentierte, dass die Chance, nicht in einer Computersimulation zu leben, nur etwa eins zu einer Milliarde wäre. Natürlich ist das nur eine technische Wiederbelebung der Ansicht, dass die Realität eine Illusion ist, eine Idee, die von Philosophen und Mystikern seit hunderten von Jahren diskutiert wird.

Aber es gibt einige ernste Probleme mit der Idee, dass wir unsere Gedanken auf einen Computer hochladen können. Zunächst das praktische Problem: Unsere Gehirne haben jeweils Billionen von Verbindungen zwischen etwa 86 Milliarden Neuronen. Um das Gehirn digital zu replizieren, müsste jede dieser Verbindungen zugeordnet werden, was weit über unseren jetzigen Möglichkeiten liegt. Mit der jetzigen Entwicklungsgeschwindigkeit von Computern und darstellender Technologien könnte uns dies erst in einigen Jahrzehnten möglich sein. Dies würde jedoch nur für ein totes und zerlegtes Gehirn gelten.

Mehr als nur Moleküle

Auch wenn wir solch ein „Verbindungsdiagramm“ für ein lebendes Gehirn erstellen könnten, wäre das noch nicht genug, um zu verstehen, wie es funktioniert. Dafür müssten wir exakt beziffern, wie die Neuronen an jeder Verbindungsstelle interagieren. Das ist eine Detailangelegenheit auf molekularer Ebene. Wir wissen nicht einmal, wie viele Moleküle im Gehirn vorhanden sind, geschweige denn wie viele notwendig für dessen Funktionen sind. Was immer die Antwort sein mag, es ist zu viel, um es mit einem Computer zu replizieren.

Das bringt uns in die Richtung einer tiefergehenden konzeptionellen Schwierigkeit. Nur weil wir einige Aspekte davon simulieren können, wie das Gehirn funktioniert, bedeutet das nicht unbedingt, dass wir ein komplettes echtes  Gehirn nachbauen könnten – oder sogar ein Bewusstsein erschaffen. Kein denkbarer Zuwachs an Rechenleistung wird es uns erlauben, das Gehirn auf der Ebene einzelner Moleküle zu simulieren. Gehirn-Nachahmung wäre als nur möglich, wenn wir seine digitalen und logischen Abläufe von der chaotischen Molekularebene abstrahieren könnten.

Um die Abläufe eines menschengemachten Computers zu verstehen, müssen wir nicht die Ströme und Spannungen in jedem seiner Komponenten verfolgen und noch weniger verstehen, was jedes einzelne Elektron macht. Wir entwickelten den Schaltvorgang der Transistoren, so dass eine unmissverständliche Zuordnung der Stellung der Kreisläufe auf die einfache Logik von Einsen und Nullen erfolgt. Aber niemand hat ein Gehirn designed, sondern es hat sich entwickelt, also gibt es keinen Grund, eine einfache Zuordnung seiner Abläufe auf eine digitale Logik zu erwarten.

Gefährliche Idee

Auch wenn das Hochladen des Geistes ein unerreichbarer Traum ist, werden einige sagen, dass es niemandem schadet, von solchen Möglichkeiten zu träumen. Jeder muss an einem bestimmten Punkt seine eigene Sterblichkeit fürchten. Ich maße mir nicht an, darüber zu diskutieren, wie die Menschen mit diesen Ängsten umzugehen haben.

Das Verschmelzen des Transhumanismus mit grundsätzlichen religiösen Vorstellungen und wissenschaftlicher Sprache ist jedoch durchaus von Bedeutung, denn dies verzerrt die Art, wie wir über Technologie nachdenken. Transhumanismus tendiert dazu, die Technologie als Lösung zu verstehen, die alle unsere Wünsche erfüllen soll. Dies ist oft durch das Argument gerechtfertigt, dass Technologie die menschliche Entwicklung ausnahmslos in eine positive Richtung treiben wird.

Diese Annahme verfälscht unsere wissenschaftlichen Prioritäten und behindert uns dabei, bezüglich der Entwicklung der Technologien, die wir brauchen, um unsere derzeitig bestehenden Probleme zu lösen, vernünftige Entscheidungen zu treffen. Das Hochladen eines Gehirns ist eine wichtige Voraussetzung der spekulativen Fiktion, aber ist nicht als eine Basis für Diskussionen über die Zukunft geeignet.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image „Nervenbahnen“ by Geralt (CC0)


Weiterlesen »

Objekte mit Gedanken kontrollieren – bald kein SciFi mehr?

13365 you're like a rubik's cube (adapted) (Image by Jin [CC BY 2.0] via flickr)

Es ist ein spannender Schritt nach vorn für die Wissenschaft und Medizin, wenn berichtet wird, dass der querschnittsgelähmte Ian Burkhart aus Ohio in den USA es geschafft hat, die Kontrolle über seine Finger wiederzuerlangen, nachdem ein Chip in sein Gehirn implantiert wurde. In der Tat kann es sein, dass Sie sich jetzt wundern, wie lange es dauern wird, bis wir eine Tür entriegeln, den Wasserkocher einschalten oder sogar eine E-Mail senden können, indem wir lediglich daran denken. Der Durchbruch in Ohio beruhte auf einer Technik, die funktionelle Magnetresonanztomographie (fMRT) genannt wird, um das Muster der elektrischen Impulse in dem Teil des Gehirns zu identifizieren, der Bewegungen kontrolliert – dem motorischen Kortex – die erzeugt wurden, als Burkhart daran dachte, seine Finger zu benutzen. Das System hat gelernt, dieses Muster zu erkennen, wenn es in seinem Gehirn auftauchte und dann die Empfänger anzuleiten, seine Armmuskulatur zu stimulieren, um die richtigen Bewegungen auszuführen. Diese Technologie könnte lebensverändernde Ergebnisse für Menschen mit Behinderungen hervorbringen, aber sie hat auch nur ein eingeschränktes Potenzial außerhalb des Körpers. Es geht darum, Bewegungsanleitungen an jene Körperteile zu schicken, die auf die übliche Weise nicht erreicht werden können. Wir könnten in der Lage sein, sie zu verwenden, damit ein Roboter unsere Bewegungen reproduziert – aber da könnte auch schon Schluss sein. Andererseits haben wir schon Wege entdeckt, um fremde Objekte zu beeinflussen. Vor drei Jahren habe ich ein modifiziertes Scalextric Set auf dem Lancashire Science Festival vorgeführt, welches es Menschen ermöglichte, Autos schneller auf der Piste zu bewegen, indem sie sich einfach stärker auf diese konzentrierten. Hunderte von Leuten konnten es ausprobieren, indem sie ein Bluetooth-Headset, das „Neurosky Mindwave„, verwendeten, welches lediglich mit einem Laptop und einem einfachen Microcontroller verbunden war. Die Technologie hinter dem Schritt von der Telekinese aus Science-Fiction-Filmen oder Comicbüchern hin zur realen Welt ist die Elektroenzephalographie oder EEG. Sie überwacht durch Nutzung von auf dem Schädel platzierten Elektroden die elektrischen Aktivitäten des Gehirns. Die Daten werden dann ausgewertet, um die den Impulsen zugrunde liegenden Frequenzen zu sehen, die mit den verschiedenen Gehirnaktivitäten verbunden sind. Das Alpha-Frequenzband gehört beispielsweise zu einer wachsamen Entspannung mit geschlossenen Augen, während die Beta-Frequenz mit dem normalen wachen Bewusstsein verbunden ist. Die Headsets in meiner Vorführung haben diese Informationen auf das Laptop übertragen, welches Algorithmen verwendete, die die Konzentration als Kombination verschiedener Impulse erkannten: auf mehreren Frequenzen steigend und gleichzeitig auf anderen Frequenzen fallend. Als es diese erkannte, wies es den Microcontroller an, die Energie zu steigern, die zum Scalextric ging. Es gibt einen Kniff, damit dieses System gut funktioniert: Manchmal stellten Leute fest, dass die Autos schneller fuhren, obwohl sie dachten, dass sie sich nicht konzentrieren würden. Ich habe herausgefunden, dass ich die Autos beschleunigte, indem ich das Alphabet in meinem Kopf aufsagte; und konnte sie abbremsen, indem ich auf eine weiße Wand schaute. Jeder ist ein wenig anders. Nun gibt es Spielzeuge zu kaufen, die auf derselben Technologie basieren. Ein Beispiel ist der Star Wars Force Trainer, bei dem EEG, und nicht Jedi-Power es den Nutzern ermöglicht, einen Tischtennisball zu heben, indem man nur seine Gedanken verwendet. Es gibt auch ernsthaftere Anwendungsmöglichkeiten. Um beispielsweise die Nutzung von Computerprogrammen zu vereinfachen, haben Forscher EEGs untersucht, um das Ausmaß an kognitiver Anstrengung zu erkennen, die jemand für verschiedene Elemente eines Programms aufwendet. Ich habe die Gehirnaktivitäten von erfahrenen Bogenschützen erforscht und einen Unterschied zwischen Impulsen von „guten“ und „schlechten“ Schüssen entdeckt. Dies könnte es Trainern ermöglichen, den Sportlern mitzuteilen, wann sie sich im richtigen Geisteszustand befinden, während die Sportler in der Lage sein könnten, ihre Gedanken zu trainieren, um bessere Ergebnisse zu erzielen.

Die Schwierigkeiten mit Gedanken

Dies sind vielversprechende Entwicklungen, aber sie befassen sich mehr mit den „globalen“ Aktivitäten des Gehirns, anstatt mit jemandes Gedanken. Es gibt einen sehr großen Unterschied. Zum Beispiel haben Forscher einen EEG-betriebenen elektrischen Rollstuhl gebaut, jedoch kommt er in Schwierigkeiten, sobald ein Hindernis auftaucht. Der Nutzer neigt dazu, sich auf das Hindernis zu konzentrieren und da das System nicht in der Lage ist, einen Moment der Konzentration von dem anderen zu unterscheiden, bewegt sich der Rollstuhl weiter fort und die Person könnte in Gefahr geraten. Um dieses Problem zu lösen, haben Forscher ein sekundäres Kontrollsystem hinzugefügt, das es dem Nutzer erlaubt, ein Pad zu berühren, damit sich der Rollstuhl bewegt und es noch einmal zu berühren, um dies zu unterbinden – mit mäßigem Erfolg. Das Hirn ist ein sehr komplexes Organ mit vielen Bereichen, die für viele verschiedene Aktivitäten zuständig sind. Es ist eine große Herausforderung, alles voneinander zu trennen und „Gedanken“ in den Daten zu isolieren. Die Grenze der aktuellen Technologie ist es, eine Vielzahl von Elektroden auf dem Schädel zu befestigen und die Aktivitäten in den verschiedenen Bereichen des Gehirns gleichzeitig zu messen. Da unterschiedliche Bereiche unterschiedliche Handlungen steuern, ermöglicht es die Verwendung von Algorithmen. Man will damit herausfinden, ob eine Person etwa daran denkt, den linken oder rechten Arm zu bewegen. Dies könnte zum Beispiel eine etwas ausgefeiltere Art der gedankengesteuerten Kontrolle des Rollstuhls ermöglichen. Aber obwohl es sich leicht der Gedankenkontrolle annähert, ist es immer noch ziemlich allgemein und muss an das Individuum angepasst werden, da die exakten Gehirnaktivitätsmuster von Person zu Person variieren. In Zukunft werden wir die Struktur und die Funktionsweise des Gehirns besser verstehen lernen. Zusammen mit sensibleren Elektroden und einer besseren Rechenleistung der Computer könnte dies ermöglichen, die Hirn-Computer-Verbindung in ein präziseres System weiterzuentwickeln, das sich den Unterschieden zwischen einer Person und der nächsten anpassen kann. Dies würde es einer Person, die mit einer Behinderung leben muss, vereinfachen, ein Gerät zu steuern oder zu kommunizieren. Und sogar dann wäre es noch ein ziemlicher Weg hin zu echter „Gedanken“-kontrolle. Es ist bereits möglich, einen Wasserkocher durch Konzentration und durch Nutzung der EEG-Technologie einzuschalten, aber wir sind noch immer ziemlich weit weg davon, verschiedene Anweisungen an verschiedene Objekte, die an ein einziges System angebunden sind, zu erdenken. Was E-Mails betrifft, sieht es zumindest so aus, dass wir die nächste Zeit weiter tippen werden. Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „13/365: You’re like a Rubik’s Cube“ by Jin (CC BY 2.0)


Weiterlesen »

Warum uns das Internet nicht klüger macht

Volunteer Duty Psychology Testing (adapted) (Image by Tim Sheerman-Chase [CC BY 2.0] via flickr)

In dem Zeitraum , in dem ich mich das erste Mal hingesetzt habe, um diesen Text zu schreiben, teilte mir mein Laptop mit, dass die NBA dementieren musste, sie hätte damit gedroht, ihr 2017 All-Star-Spiel wegen eines neuen LGBT-Gesetzes in North Carolina abzusagen – eine Geschichte, die von vielen Nachrichtenquellen wiederholt wurde, einschließlich der amerikanischen Nachrichtenagentur. Die Echtheit des viralen Videos, in dem ein Bär eine weibliche Snowboarderin in Japan jagt, wurde infrage gestellt. Und nein, Ted Cruz ist nicht mit seiner Cousine dritten Grades verheiratet. Es ist nur eine von vielen auf uns einstürmenden Halbwahrheiten und sogar Lügen der Sorte „Wer einmal lügt, dem glaubt man nicht“, die auftauchen, während wir uns für das amerikanische Wahljahr 2016 aufwärmen.

Je länger ich die menschliche Psyche studiere, desto beeindruckter bin ich von der reichhaltigen Wissensschatz, über das jeder einzelne von uns verfügt. Wir alle verfügen über ein intelligentes Webmuster aus Fakten, Zahlen, Regeln und Geschichten, die es uns erlauben, einen erstaunlichen Umfang an täglichen Herausforderungen anzugehen. Aktuelle Studien bewundern gerade, wie enorm, organisiert, ineinandergreifend und beständig diese Basis an Wissen ist.

Das ist die gute Nachricht. Die schlechte Nachricht ist, dass unsere Gehirne es übertreiben. Sie speichern nicht nur hilfreiches und notwendiges Wissen, sie sind ebenso empfänglich für falsche Ansichten und Fehlinformationen.

Alleine was den Bereich der Biologie angeht, glauben viele Menschen, dass Spinat eine gute Eisenquelle ist (tut mir leid, Popeye), dass wir weniger als zehn Prozent unseres Gehirns nutzen (nein, es wäre zu energieaufwändig, das zuzulassen) und dass manche Menschen an einer Überempfindlichkeit gegenüber elektromagnetischer Strahlung leiden (wofür es keinen wissenschaftlichen Beweis gibt).

Hier kommt jedoch die besorgniserregendere Nachricht: Unser Zugang zu Informationen – seien es gute oder schlechte – hat sich nur noch erweitert, seit unsere Finger ins Spiel gekommen sind. Mit Computertastaturen und Smartphones haben wir nun Zugang zu einem Internet, das einen enormen Vorrat an Informationen beinhaltet, der das Maß dessen, was ein einzelnes Gehirn fassen kann, bei Weitem übersteigt – und das ist nicht immer etwas Gutes.

Ein besserer Internetzugang bedeutet nicht bessere Informationen

Dieser Zugang zu der großen Reichweite des Internets sollte es uns ermöglichen, klüger und besser informiert zu sein. Die Menschen nehmen das zumindest an. Eine aktuelle Yale-Studie zeigt, dass Internetzugang Menschen dazu bringt, einen allzu überzogenen, trügerischen Eindruck davon zu bekommen, wie klug und gut informiert sie doch seien.

Jedoch gibt es ein zweifaches Problem mit dem Internet, und dieses beeinträchtigt sein grenzenloses Versprechen.

Zunächst einmal ist es – genau wie unser Gehirn – empfänglich für Fehlinformationen. Tatsächlich sieht das Weltwirtschaftsforum die „massive digitale Fehlinformation“ als eine Hauptbedrohung für die Gesellschaft. Eine Untersuchung von 50 Seiten über „Gewichtsreduktion“ ergab, dass nur drei davon gesunde Diät-Ratschläge lieferten. Eine andere von ungefähr 150 YouTube-Videos über Impfung ergab, dass nur die Hälfte davon die Maßnahme ausdrücklich unterstützt.

Gerüchtemacher, Politiker, persönliche Interessen, eine sensationsgierige Presse und Menschen mit dem intellektuellen Beil, das alles zu zermahlen, bringen falsche Informationen ins Internet.

Das Gleiche tun viele Menschen, die zwar gute Absichten hegen, aber falsch informiert sind. Tatsächlich hat eine Studie, die in der Januar-Ausgabe 2016 des Wissenschaftsmagazins „Proceedings of National Academy of Science“ veröffentlicht wurde, dargelegt, wie schnell sich dubiose Verschwörungstheorien über das Internet verbreiten. Im Einzelnen haben die Forscher verglichen, wie schnell sich diese Gerüchte im Verhältnis zu Geschichten über wissenschaftliche Entdeckungen über Facebook verbreiteten. Sowohl Verschwörungstheorien als auch wissenschaftliche Nachrichten verbreiteten sich schnell, wobei sich der Großteil der Ausbreitung beider Arten von Geschichten über Facebook innerhalb eines Tages abspielte.

Was die Sache noch schlimmer macht, ist, dass es schwer ist, falsche Informationen von echten Tatsachen zu trennen. Sie sehen oft genauso aus und fühlen sich genauso an wie die Wahrheit. In einer Reihe von Studien, die Elanor Williams, Justin Kruger und ich 2013 im „Journal of Personality and Social Psychology“ veröffentlichten, baten wir Studenten, Problemstellungen in intuitiver Physik, Logik und im Finanzwesen zu lösen. Diejenigen, die sich durchweg auf falsche Fakten oder Grundlagen verlassen haben – und somit genau die gleiche falsche Antwort zu jeder Fragestellung gaben – äußerten genau so viel Zuversicht in Bezug auf ihre Schlussfolgerungen wie diejenigen, die jedes einzelne Problem richtig lösten.

Zum Beispiel waren diejenigen, die immer dachten, ein Ball würde einer kurvenreichen Strecke immer weiter folgen, nachdem er aus einer gebogenen Röhre gerollt war (nicht korrekt), nahezu genauso sicher wie diejenigen, die die richtige Antwort wussten (der Ball folgt einer geraden Strecke).

Verteidigen Sie sich

Also, wie trennen wir im Internet Wahres von Falschem?

Zuallererst: Nehmen Sie nicht an, dass Falschinformationen deutlich von richtigen Informationen zu trennen sind. Seien Sie vorsichtig. Falls die Angelegenheit wichtig ist, können Sie Ihre Suche vielleicht mit dem Internet beginnen,  beenden Sie sie nur nicht dort. Erwägen und berücksichtigen Sie andere Kompetenzquellen. Es gibt einen Grund dafür, dass Ihr Arzt das Medizinstudium über sich ergehen ließ, oder dafür, dass Ihr Finanzberater studiert hat, um diese Lizenz zu erwerben.

Zweitens, tun Sie nicht das, was Verschwörungstheoretiker in der Facebook-Studie getan haben. Sie verbreiten bereitwillig Geschichten, die sowieso schon zu ihrer Weltanschauung passen. Als solche praktizieren sie einen Hang zur Bestätigung, indem sie Beweisen Glauben schenken, die unterstützen, was sie schon vorher geglaubt haben. Als Folge haben sich die Verschwörungstheorien, die sie unterstützt haben, in Facebook-Gemeinschaften mit Gleichgesinnten eingegraben, die kaum ihren Wahrheitsgehalt in Frage gestellt haben.

Seien Sie stattdessen skeptisch. Psychologische Forschungen zeigen, dass Gruppen, die einen oder zwei ihrer Mitglieder dazu bestimmen, den Provokateur zu spielen – indem sie jegliche Schlussfolgerung infrage stellen, zu der die Gruppe neigt – zu besser durchdachten Entscheidungen von besserer Qualität beitragen.

Wenn sonst niemand da ist, zahlt es sich aus, Ihr eigener Provokateur zu sein. Glauben Sie nicht einfach, was das Internet zu sagen hat, sondern stellen Sie es infrage. Praktizieren Sie einen Hang zur Widerlegung. Falls Sie nach Informationen zu einem medizinischen Problem suchen, hören sie nicht bei der ersten Diagnose, die Ihnen richtig erscheint, auf. Suchen Sie nach alternativen Möglichkeiten.

Nach Gegenbeweisen suchen

Suchen Sie zusätzlich nach Möglichkeiten, nach denen diese Diagnose falsch sein könnte. Forschungen zeigen, dass „das Gegenteil annehmen“ – das aktive Nachfragen, auf welche Weise eine Schlussfolgerung falsch sein könnte – eine nützliche Übung dafür ist, unberechtigtes Vertrauen in eine Schlussfolgerung zu verringern.

Schließlich sollten Sie auf Mark Twain hören, der uns, laut dutzender verschiedener Websites gewarnt hat: „Seien Sie vorsichtig beim Lesen von Büchern über Gesundheit. Sie könnten wegen eines Tippfehlers sterben.“

Weise Worte, bis auf die Tatsache, dass eine etwas genauere Nachforschung genauere und besser recherchierte Quellen mit dem Beweis auftut, dass es nicht Mark Twain, sondern der deutsche Physiker Markus Herz war, der das sagte. Ich bin nicht überrascht; nach meiner Internet-Erfahrung habe ich gelernt, misstrauisch gegenüber Twain-Zitaten zu sein (bei Will Rogers ebenso). Er war ein brillanter Geist, aber er bekommt viel zu viel Anerkennung für gern zitierte geistreiche Bemerkungen.

Falsche und richtige Informationen ähneln sich oft furchtbar. Der Schlüssel zu einem informierten Leben mag es nicht so sehr erfordern, Informationen zu sammeln, als die Einfälle, die Sie bereits haben oder auf die Sie kürzlich gestoßen sind, zu hinterfragen. Das mag eine unangenehme Aufgabe sein und eine nicht endende obendrein, aber es ist die beste Art, sicherzustellen, dass ihr kluger geistiges Webmuster nur wahrer Farben zur Schau stellt.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „“Volunteer Duty“ Psychology Testing“ by Tim Sheerman-Chase (CC BY 2.0)


The Conversation

Weiterlesen »

Cybathlon: Was Bionik für Millionen von Menschen bedeuten könnte

Cybathlon 2016 (Screenshot by Cybathlon)

Nach den Olympischen Spielen und den Paralympics erleben wir dieses Jahr die Weltpremiere des Cybathlon, des weltweit ersten Wettkampfes für Parathleten und Personen mit schweren Behinderungen, die mit Hilfe von bionischen Implantaten, Prothesen und anderen unterstützenden Technologien antreten.

Der Cybathlon beinhaltet sechs Disziplinen, jede auf die speziellen körperlichen Bedürfnisse der Wettkämpfer zugeschnitten. Beweglichkeitsläufe testen Menschen mit bionischen Armen und Beinen, während bei Rennen mit elektrisch angetriebenen Rollstühlen und Exoskeletten Hindernisse wie Treppen überwunden werden müssen. Es gibt auch ein Fahrradrennen für Wettkämpfer, die ihre Beine mithilfe von elektronischer Muskelstimulation bewegen. Für die, die ihren Körper nicht mehr eigenständig steuern können und ihn mit einer Schnittstelle zwischen Hirn und Computer kontrollieren, gibt es ebenfalls Wettkämpfe.

Es stimmt, dass der Cybathlon nicht das gleiche athletische Können wie die Olympischen oder Paralympischen Spiele bieten kann. Aber er wird aufzeigen, wozu Technologie fähig ist, anstatt dass sie in Forschungslaboren versteckt bleibt. Alle Anstrengung und jeglicher Enthusiasmus werden darauf ausgerichtet, das Leben von Menschen mit schwerwiegenden Behinderungen und lebensverändernden Verletzungen zu revolutionieren. Der Organisator ETH Zürich, die Eidgenössische Technische Hochschule, wird 80 Teams von Anwendern, Wissenschaftlern und der Technikindustrie zum nachdenken anregen, was benötigt wird, um Technologien zu schaffen, die die alltäglichen Probleme, denen Menschen mit Behinderungen tagtäglich ausgesetzt sind, lösen zu können.

Der Schwerpunkt liegt auf den praktischen Problemen, die das Design der Wettbewerbe bestimmen. Zum Beispiel beinhaltet das Rennen für Teilnehmer mit Armprothesen eine Station, bei der eine Scheibe Brot geschnitten und eine Tasse Kaffee eingegossen werden muss. Bei einer weiteren Station müssen die Parathleten durch eine Tür gehen, während sie ein Tablett mit Gegenständen tragen. Dies sind alltägliche Aktivitäten, die die meisten von uns für selbstverständlich halten, aber die für die von der WHO auf 15 Millionen geschätzten Menschen mit Behinderungen schwer oder sogar unmöglich sind.

Während viele mit Technologien wie bionischen Armen vertraut sind, wird der Hirn-Computer-Schnittstelle-Wettkampf für die Meisten wohl etwas Neues sein. Eine Hirn-Computer-Schnittstelle ist ein System, das die Gehirnaktivität eines Menschen verschieden interpretiert und in mögliche Befehle für die Ausrüstung des Anwenders umformt. Dies gibt schwer behinderten Menschen, deren kognitive und sensitive Fähigkeiten dennoch funktional sind, die Kontrolle über ihre Ausrüstung zu behalten und sich mit ihrer Hilfe zu bewegen oder zu kommunizieren.

Es kommt selten vor, dass solche Interface-Systeme außerhalb des Forschungslabors Anwendung finden. Viele existieren nur in der Theorie oder auf den Seiten von Wissenschaftsjournalen. Sie erscheinen wie Requisiten aus Science-Fiction-Filmen und dennoch existieren sie in verschiedenen Formen bereits seit Jahrzehnten.

Das Gehirn als Steuergerät

Eine Hirn-Computer-Schnittstelle beinhaltet verschiedene Komponenten. Die Erste ist natürlich das Gehirn der Person. Dort entstehende elektrische Impulse werden durch EEG-Sensoren (Elektroenzephalogramm) registriert. Diese Sensoren werden non-invasiv auf der Kopfhaut befestigt, ähnlich wie in Krankenhäusern üblich. Die Signale beinhalten oft Interferenzen von muskulären Bewegungen, wie zum Beispiel der Augen. Deshalb ist der erste Schritt, das brauchbare Signal von Störsignalen zu isolieren.

Die Signale werden anschließend mit Hilfe der Merkmalsextraktion verarbeitet. Es gibt hier verschiedene Ansätze, aber eine verbreitete Technik ist die, dass sich der Anwender eine bestimmte Bewegung vorstellt, beispielsweise das Öffnen und Schließen der Hand. Dieses geistige Bild erschafft ein bestimmtes Muster im Motorcortex des Gehirns, welches wiederum als ein EEG-Signal erkannt und von der Hintergrund-EEG-Aktivität abgegrenzt werden kann.

Die EEG-Signale werden während der Merkmalsextraktion verarbeitet, um sie für die nächste Komponente, den Klassifikator, leichter verständlich zu machen. Ein Klassifikator identifiziert, wie sich Signalmuster unterscheiden, abhängig davon, ob der Anwender beispielsweise an eine Bewegung seiner linken oder rechten Hand denkt oder wie diese Signale sich verändern, wenn der Anwender Berechnungen im Kopf durchführt. Ein guter Klassifikator erlernt diese Unterschiede und identifiziert die wahrscheinlichste Intention, die der Anwender hatte. Dies wird durch Muster-Erkennung und maschinelle Lernalgorithmen erreicht.

Der Cybathlon wird die Wettkämpfer des Hirn-Compter-Schnittstelle-Rennens mit Hilfe eines Videospiels testen. In diesem zeichnen die Teilnehmer bis zu vier verschiedene Aktionen des Gehirns, welche von dem Klassifikator des Systems verstanden werden müssen. Sie müssen die richtigen Entscheidungen zum richtigen Zeitpunkt senden, um mit ihren Avataren, die sie im Spiel repräsentieren, vorwärts zu kommen. Das beste System ist das, welches am schnellsten und genauesten auf die Gehirnaktivität des Nutzers reagieren und gleichzeitig die richtigen Kommandos auswählen kann.

Der Auftritt des Gehirn-Computer-Schnittstelle im Rahmen des Cybathlon ist ein seltenes Ereignis außerhalb des Labors. Es fordert von ihren Entwicklern eine beträchtliche Verbesserung ihrer Systeme. Im Vergleich zu denen, die nur in einem Labor funktionieren müssen, werden sie zum Beispiel verlässlicher und können besser auf eine eventuelle Ablenkung des Anwenders reagieren.

Die momentanen Systeme sind noch nicht ausgereift genug für die Menschen, deren Leben sie so entscheidend verändern könnten. Dennoch werden die neuen Entwicklungen der letzten Jahre, welche der Cybathlon unterstützt, Technologien nicht nur verbessern, sondern diese auch dem Gebrauch außerhalb des Labors besser anpassen – um endlich eine Technologie zu vollenden, deren Entwicklung schon über 20 Jahre andauert.

Dieser Artikel erschien zuerst auf “The Conversation”unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image Screenshot (adapted) by Cybathlon


The Conversation

Weiterlesen »

Sind Selfies die neuen Sicherheitspasswörter?

Selfie (image by JudaM [CC0 Public Domain] via Pixabay)

Bei dem nächsten Online-Einkauf oder Anruf bei der Bank könnte es schon sein, dass man nicht mehr versuchen muss, sich an sein Passwort zu erinnern. Immer mehr Banken bevorzugen Spracherkennungstechnologien, um die Identität von Kunden zu überprüfen. Mastercard kündigte sogar an, Fingerabdrücke oder Selfies als Identitätsnachweis bei Online-Einkäufen zu akzeptieren.

Aber heißt das automatisch, dass man bald alle seine Passwörter vergessen kann? Noch lautet die Antwort: “Nein”. Banken führen Spracherkennungstechnologien (in der Forschungsliteratur oft bekannt als “Sprecher-Identifikation”) und Gesichtserkennung primär zur Verifizierung durch, nicht zur alleinigen Identifikation. Diese Technologien sind ein sinnvolles Werkzeug zur Überprüfung, ob eine Person diejenige ist, für die sie sich ausgibt, denn Maschinen können lernen, wie eine Person in Normalfall aussieht oder spricht. Aber um einen einzelnen Kunden aus einer großen Gruppe von möglichen Stimmen oder Gesichtern in der Datenbank einer Bank zu identifizieren, stellen sie noch keine gute Methode dar.

Damit Spracherkennung funktionieren kann, muss der Unterschied zwischen der eigenen und anderen Stimmen (Inter-Sprecher-Varianz) immer größer sein als der Unterschied zwischen der eigenen Stimme jetzt und zu einem anderen Zeitpunkt (Intra-Sprecher-Varianz). Dasselbe gilt für die “Selfie-Erkennung”: Man muss dem normalen Ich mehr ähneln als irgendwer anders. In der Praxis ist das nicht immer der Fall. Je mehr Stimmen oder Gesichter ein System miteinander vergleicht, desto wahrscheinlicher ist es, dass es zwei Beispiele findet, die sich sehr ähnlich sind.

Man denke nur an all das, was die Stimme beim Gespräch am Telefon verändern kann: ein verdecktes oder kaputtes Mikrofon, Müdigkeit, Schmerzen in Mund oder Hals, wenn man Alkohol getrunken hat, wenn man gerade etwas isst, ein schlecht sitzendes Gebiss – all diese Faktoren lassen die Intra-Sprecher-Varianz riesig werden. Bei der Gesichtserkennung verändern Bartwuchs, Hautveränderungen, Make Up, Brillen, Beleuchtung oder Kopfbedeckungen das Erscheinungsbild.

Daraus ergibt sich, dass Banken mit einer relativ großen Wahrscheinlichkeit die Identität des Anrufers oder Selfie-Knipsers “überprüfen”, aber keine unbekannte Stimme oder Fotografie “identifizieren” können. Daher muss es auch in naher Zukunft noch Mittel geben, seine Identität zu beweisen – und die beste Methode bleibt nach wie vor eine  geheime PIN oder ein Passwort.

In Malaysia musste ein Fahrer, der die Fingerabdruck-Authentifizierung in seine neue Mercedes S-Klasse einbauen ließ, musste im Jahr 2005 auf sehr schmerzhafte Weise erfahren, dass biometrische Daten durchaus gestohlen werden können. Als Diebe entdeckten, dass sein Wagen nur mit einem Fingerabdruck gestartet werden kann, raubten sie nicht nur sein Auto, sondern auch seinen Finger.

Ein “Stimmabdruck” kann auf die gleiche Art gestohlen werden. Alles was man dazu braucht, ist eine gute Sprachaufnahme der Person. Dasselbe gilt auch für Systeme, die den Benutzer auffordern, einen bestimmten Ausdruck oder PIN auszusprechen. Interaktive Systeme, die Challenge-Response-Protokolle (die den Benutzer beispielsweise bitten, einen ungewöhnlichen Ausdruck zu wiederholen) verwenden, erhöhen die Schwierigkeitsstufe für den Angreifer, können aber bereits mit aktuellster Technik überwunden werden.

Gesichtserkennung (wie die, die dazu benutzt wird, um Selfies zu identifizieren), Lippen lesen und Iris-Scanner sind alles visuelle Methoden, die gestohlen oder mit Bildern und Videos vorgetäuscht werden können.

Mehr biometrische Daten

Die Lösung scheint entweder aus zusätzlichen,geheimen Informationen zu bestehen (was allerdings bedeutet, sich an noch mehr erinnern zu müssen), oder verschiedene Arten von biometrischen Informationen miteinander zu kombinieren. Leider sind Methoden, die eine Kamera benötigen, nur bedingt nützlich: der Nutzer muss zum Beispiel in eine Kamera schauen, er darf keine Brille tragen und auch keine Kleidung, die Gesicht und Augen verdecken könnten, man benötigt ausreichend Beleuchtung – und das System sollte wohl eher nicht in Badezimmern benutzt werden.

Andere Forscher untersuchen zurzeit das biometrische Potential, die individuellen und einmaligen Gehirnströme einer Person mit einem Headset oder Kopfhörern aufzunehmen. Diese Technologie steckt allerdings noch in den Kinderschuhen.

Eine für mobile Geräte entwickelte Technologie ist ein Ultraschall-Scanner, der Teile der Gesichtsform einer sprechenden Person aufzeichnet. Das beinhaltet nicht einfach nur eine Aufnahme des Gesichts, sondern eine Aufnahme der Mundbewegungen, während die Person redet. Der biometrische Aspekt ist nicht nur an den Klang der Stimme gebunden, sondern beinhaltet auch die Art, wie sich der Mund bei der Stimmerzeugung verändert. Die benötigte Hardware ist in den meisten Smartphones bereits integriert.

Man stelle sich vor, man kommt in eine Bäckerei und will ein knuspriges Bauernbrot erstehen. Man könnte es mit zur Theke nehmen und sagen: “Das würde ich gerne kaufen.” Der Bäcker würde antworten: “Das macht dann zwei Pfund. Möchten Sie mit dem Einkauf fortfahren?” – “Ja, bitte”, würde man antworten und auf das “Okay” warten, bevor man mit seinem neu erstandenen Brot aus dem Laden spaziert. Kein Bargeld, keine Zahlungskarte und keine persönlichen Details müssen preisgegeben werden.

Die Szene mag anmuten wie aus der guten alten Zeit, als man seinen Dorfbäcker noch persönlich kannte und alles anschreiben lassen konnte. Aber ambitionierte Forscher arbeiten hart an der Umsetzung, damit genau diese Zukunft möglich wird. Das Smartphone wird Sprachauthentifizierungs- und Spracherkennungs-Technologien verwenden, um die Bank zu bevollmächtigen, dass sie Zahlungen durchführen kann. Die Bank wird dem Bäcker elektronisch die Transaktion bestätigen. Währenddessen wird eine Videoaufnahme von dem Verkauf bei der Bank und dem Bäcker hinterlegt. Obwohl man sein Passwort noch nicht frühzeitig entsorgen sollte, kann man hier in den nächsten Jahren spannende Entwicklungen erwarten.

Dieser Artikel erschien zuerst auf “The Conversation” unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image „Selfie“ by JudaM (CC0 Public Domain)


The Conversation

Weiterlesen »

Mit den eigenen Gedanken Maschinen steuern

Gehirn (image by geralt [CC0 Public Domain] via pixabay)1-1

Die direkte Verbindung zwischen Gehirn und Computer bietet in naher Zukunft Menschen neuartige Hilfen. Patienten, die teilweise oder vollständig gelähmt sind, die ihre Sehfähigkeit verloren haben oder denen Gliedmaßen fehlen, können mit dieser Technologie einen Teil ihrer alten Leistungsfähigkeit zurückerlangen. In Berlin sucht das “Berlin Brain Computer Interface” (BCCI) nach effektiveren Methoden zum Erkennen und Entschlüsseln der elektrischen Impulse im Gehirn. Hier arbeiten Neurologen der Berliner Charité mit Experten anderer Forschungseinrichtungen wie der TU Berlin aus den Bereichen maschinelles Lernen, Neurotechnologie und anderer Disziplinen zusammen.

Der direkte Draht zwischen Mensch und Maschine

Ein “Brain Computer Interface” (BCI) arbeitet mit Sensoren auf der Kopfhaut, die die elektrischen Ströme in der Hirnrinde aufzeichnen und sie an einen Computer übermitteln. Je mehr Sensoren auf der Kopfhaut sitzen, desto genauer können Forscher das Gehirn erfassen. So entsteht eine Art Landkarte der verschiedenen Gehirnzentren und ihrer Verbindungen untereinander. Diese Technik ist als Elektro-Enzephalogramm oder EEG seit langem Teil der neurologischen Diagnostik. Ein BCI funktioniert, indem der Computer die Signale interpretiert und in Befehle für ein Gerät übersetzt. Das kann ein PC sein, ein Kleinflugzeug, eine Prothese oder eben ein ganzes Exoskelett. Denn die elektrischen Impulse stellen unsere Gedanken dar, also etwa die Vorstellung, einen Arm zu bewegen oder einen Text zu schreiben.

Dabei lernt nicht der Mensch, sondern der Computer. Der Mensch muss sich bestimmte Dinge vorstellen, etwa die Bewegung einer Hand. Ein Lernalgorithmus sagt dem Computer, wann das Kommando für Handbewegung erfolgt. Nach 60 bis 80 Durchläufen kann der Computer dann erkennen, welche Signale zu welcher Bewegung gehören.

Neue Wege in der Medizin

Für die Verantwortlichen des BCCI stehen zukünftige Anwendungen in der Neuromedizin im Vordergrund: „Hier sind in naher Zukunft wichtige Innovationen für Patienten mit Querschnittslähmung, Schlaganfall oder Locked-In-Syndrom zu erwarten“, erklärt der Neurologe Professor Gabriel Curio, Leiter der Arbeitsgruppe Neurophysik der Klinik für Neurologie an der Charité Berlin.

Insbesondere schwerstgelähmte Patienten, die vom Hals abwärts gelähmt sind, würden von BCIs profitieren. Auch für Opfer des Locked-In-Syndroms böten sich Heilungschancen. Das Syndrom entsteht als Folge eines Hirnstamm-Infarktes oder eines Unfalls und bewirkt, dass die Patienten vollständig gelähmt sind. Das Bewusstsein ist intakt, aber sie können nur noch die Augenlider bewegen. Durch eine Gehirn-Computer-Schnittstelle könnten sie wieder kommunizieren und sich bewegen.

Auch Neuroprothesen sind möglich. So ließen sich ein Arm, ein Bein oder aber ein ganzes Exoskelett, eine Art motorbetriebenen Anzug, steuern. Gelähmte können sich so wieder auf zwei Beinen bewegen, wie etwa der Querschnittsgelähmte, der bei der Fußball-WM 2014 in Brasilien symbolisch den Anstoß gab. Außerdem interessieren sich die Berliner Forscher für die sogenannte Neurorehabilitation von Schlaganfallpatienten. Ein BCI könnte nicht nur fehlerhafte Gehirnimpulse, die zu Schlaganfällen führen können, entdecken, sondern auch durch Neurofeedback helfen, diese Impulsmuster zu korrigieren. Für die Vorsorge bei Schlaganfällen bieten sich hier neue Möglichkeiten. Denn ein BCI ist auch fähig, die ersten Anzeichen eines Schlaganfalls zu erkennen. Der koreanische IT-Konzern Samsung hat eine Kombination aus Headset und App entwickelt. Das Headset übermittelt die Daten an die App, die wiederum das Schlaganfall-Risiko berechnet.

Neue Art des Fliegens und Spielen über Bande

Zu den spektakulären Anwendungen außerhalb der Medizin gehört “Brainflight”. Das ist eine Drohnen-Fernsteuerung, die vom portugiesischen Luft- und Raumfahrtunternehmen Tekver zusammen mit der ebenfalls in Portugal ansässigen Champalimaud Foundation, der niederländischen Eagle Science und der Technischen Universität München entwickelt wurde. Erstmals demonstriert wurde “Brainflight” bereits 2014. Der Pilot steuerte zunächst Flugkörper im Simulator, später auch echte Klein-Drohnen. Außerdem testeten die Entwickler “Brainflight” auch mit dem Simulator einer DA 42, eines zweimotorigen Leichtflugzeuges.

Sogar die Kommunikation zwischen menschlichen Gehirnen wird möglich. An der Washington-Universität in Seattle hat ein Forscherteam zwei Probanden so miteinander verbunden, dass einer die rechte Hand des anderen steuern und so ein Computerspiel spielen konnte. Der Informatiker Rajesh Rao saß vor einem Monitor und steuerte über ein BCI die Hand des Psychologen Andrea Rocco. Das Experiment fand vor zwei Jahren statt; inzwischen arbeiten die beiden daran, komplexe Informationen zu übermitteln.

Aber wirklich marktreif ist die Technologie der Computer-Hirn-Schnittstellen noch nicht. Für Menschen, die an Lähmungen leiden oder Gliedmaßen verloren haben, sind Neuroprothesen ein echter Durchbruch. Trotzdem ist die Steuerung einer computergesteuerten Kunsthand nicht mit einer organisch gewachsenen Hand vergleichbar. Auch ist die Technik noch nicht weit genug entwickelt. So brauchen die Elektroden auf der Kopfhaut immer noch große Mengen leitfähiges Gel, kleinere Sensoren, die ohne Gel auskommen, fehlen bislang. „BCI-Systeme gibt es nicht auf Krankenschein, sie werden derzeit nur im Rahmen kontrollierter Studien getestet. Es wird noch etliche Jahre dauern, bis wir ein System haben, das die Patienten im Alltag verwenden können“, so Professor Gabriel Curio.

Hinzu kommen ethische Fragen: Wie weit soll der Ersatz von Gliedmaßen gehen? Und wie weit, wenn er denn möglich wird, dürfte der Zugriff auf gedankliche Inhalte gehen? Oder müsste man ihn mit Blick auf die Persönlichkeitsrechte verbieten?


Image “Gehirn” by geralt (CC0 Public Domain)


Weiterlesen »

Über den Antrieb der Künstlichen Intelligenz von Google und Facebook

artificial neural network (Image Akritasa (CC BY-SA 4.0) via Wikimedia Commons)

Das Gerüst der Künstlichen Intelligenz von Facebook und Google sieht anders aus als man sich vorstellt. Die Frage ist, warum sie nicht aus typischen Computerprozessoren aufgebaut sind. Sowohl Google als auch Facebook haben die Designs der Computerhardware, die die Künstliche Intelligenz (KI) und Logik in ihren Produkten mit Energie versorgt, in Form von Open Source öffentlich zur Verfügung gestellt. Diese intelligenten Algorithmen treiben sowohl Googles Such- und Empfehlungsfunktionen als auch den digitalen Assistenten M an, der für den Facebook-Messenger verwendet wird – und natürlich wird auch die gezielte Werbung beider Unternehmen davon gespeist.

Facebooks maßgeschneiderte Computerserver, auch bekannt unter dem Namen Big Sur, sind voller Grafikprozessoren (GPU) – Grafikkarten, die in PCs verwendet werden, um die neuesten Videospiele mit 3D-Grafik spielen zu können. Ähnlich sieht es auch bei der Hardware von Googles TensorFlow aus. Aus welchem Grund also sind die Künstlichen Intelligenzen aus Grafikprozessoren aufgebaut und nicht aus typischen Computerprozessoren?

Ursprünglich wurden GPUs als Coprozessor entwickelt, um den Hauptprozessor (CPU) des Computers dabei zu unterstützen, anspruchsvolle Grafikaufgaben zu bewältigen. Szenen in 3D-Grafik zu rendern ist eine verfängliche, parallel ablaufende Aufgabe; ohne eine Verbindung oder Abhängigkeit eines Bildbereichs vom nächsten, kann der Vorgang leicht in einzelne Aufgaben aufgeteilt und parallel und konkurrierend bearbeitet werden – also zeitgleich, was es möglich macht, die Rechenleistung deutlich schneller zu vollführen.

Diese Gleichzeitigkeit hat GPU-Hersteller dazu verleitet, ihre Hardware zu gänzlich anderen Zwecken einzusetzen. Aufgrund ihrer Optimierung für maximalen Datendurchsatz ausschließlich bei stark parallelen Aufgaben, können GPUs zu Spezialprozessoren umgewandelt werden, die jeden parallelisierten Programmcode verarbeiten können, unabhängig davon, ob er graphischen Zwecken dient. CPUs hingegen sind darauf ausgelegt, einzelne, nicht parallel laufende (“single-threaded”) Aufgaben schnell zu erledigen, da die hauptsächlich genutzten Softwares (sprich, Programme etc.) nach wie vor mit nichtparallelen Aufgaben arbeitet.

Im Gegensatz zu CPUs mit einem, zwei, vier und acht Prozesskernen haben moderne CPUs jetzt Tausende: Der NVIDIA Tesla M40, den Facebook für seine Server nutzt, hat beispielsweise 3.072 sogenannte CUDA-Prozessoren. Und diese Parallelität hat ihren Preis: Es muss eine gesonderte Software geschrieben werden, um die Technologie ausnutzen zu können, und GPUs sind nicht besonders einfach zu programmieren.

Warum sind GPU wichtig für KI-Anwendungen?

Einer der Gründe, aus denen sich GPUs als die Supercomputer-Hardware der Wahl herauskristallisieren, ist die Tatsache, dass die anspruchsvolleren Computeraufgaben meist gut für eine parallele Bearbeitung geeignet sind.

Ein gutes Beispiel dafür ist das Tiefenlernen (deep learning), eine der Spitzenentwicklungen im Bereich der Künstlichen Intelligenz. Das Konzept des neuralen Netzwerks, das diese leistungsfähige Herangehensweise untermauert (man stelle es sich wie großmaschig miteinander verbundene Knoten vor), wurde in den Neunzigern als Fehlschlag abgetan. Jetzt aber, da uns die Technologie den Bau von deutlich größeren und tiefgründigeren neuralen Netzwerken erlaubt, erzielt dieser Ansatz dramatisch verbesserte Ergebnisse. Diese neuralen Netzwerke treiben die Spracherkennungs- und Übersetzungsfunktionen wie auch die semantische Suche an, die Google, Facebook und viele Apps heutzutage nutzen.

Ein neurales Netzwerk darauf zu trainieren, dass es “lernt”, funktioniert auf ähnliche Weise wie das Erstellen und Verstärken von Verbindungen zwischen Neuronen im Gehirn. Aus Computersicht kann dieser Lernprozess gleichgeschaltet und entsprechend mit der Nutzung von GPU-Hardware beschleunigt werden. Die Maschine braucht Beispiele, von denen das System lernen kann, was ebenfalls zu einer simplen Beschleunigung des Prozesses durch die Nutzung von paralleler Bearbeitung führt. Durch Open-Source-Hilfsmittel, wie beispielsweise die Torch Codebibliothek und GPU-basierte Server, kann das Training der neuralen Netzwerke in Bruchteilen der Zeit durchgeführt werden, die es auf CPU-basierten Systemen benötigen würde.

Sind GPUs die Zukunft der Rechner?

Über Jahrzehnte haben wir uns an die Variante des Mooreschen Gesetzes gewöhnt, die besagt, dass die Rechenleistung von Computern sich circa alle zwei Jahre verdoppeln wird. Das wurde hauptsächlich durch eine Verkleinerung erreicht, die wiederum zu einer geringeren Wärmeentwicklung führt, welche den CPUs erlaubt, schneller zu laufen. Nun stößt man allerdings an die Grenzen dieses praktischen Ansatzes, da die Halbleiter zwischenzeitlich auf ein Niveau nahe der theoretischen, elementaren Grenzen des Siliciums miniaturisiert wurden. Der einzige glaubwürdige Weg zu höheren Geschwindigkeiten führt daher über eine größere Parallelisierung, was bereits eindrucksvoll von dem Aufstieg von Mehrkernprozessoren in den vergangenen zehn Jahren demonstriert wurde. Dennoch haben GPUs hier einen deutlichen Vorsprung.

Neben Künstliche Intelligenz gehören auch Simulationen von Flüssigkeiten und aerodynamischen Prozessen wie auch physikalische Antriebe und Gehirnsimulationen zu den GPU-Anwendungen, um nur ein paar Beispiele zu nennen. Manche der weltweit stärksten Computer, wie beispielsweise der Titan Supercomputer im Oak Ridge National Laboratory, der aktuell der weltweit zweitschnellste Supercomputer ist, sind auf der Basis von Nvidias GPU-Beschleunigern aufgebaut, während die Mitbewerber Intels parallele Coprozessoren Phi nutzen, der unter anderem den weltschnellsten Supercomputer Tianhe-2 antreibt. Jedoch sind nicht alle Schwierigkeiten so einfach nebeneinander zu stellen und das Programmieren gestaltet sich in diesem Bereich sehr schwierig und anspruchsvoll.

Möglicherweise liegt zumindest die Zukunft der Künstlichen Intelligenz in neuromorphen Computern, die sogar noch radikalere Änderungen darstellen. IBMs True Northchip ist dafür ein Beispiel, ein anderer wird aktuell von dem eine Milliarde Euro teuren Human Brain Project entwickelt. In diesem Modell werden neurale Netzwerke nicht von einem Netzwerk von vielen Prozessoren simuliert; stattdessen wird der Chip selbst zum neuralen Netzwerk: Die einzelnen Siliciumtransistoren auf dem Chip erzeugen Stromkreise, die mit Hilfe von elektrischen Signalen Daten verarbeiten und untereinander kommunizieren – ganz ähnlich wie Neuronen in biologischen Gehirnen.

Befürworter erhoffen sich von diesen Systemen, dass neurale Netzwerke endlich auf die Größe und Komplexität des menschlichen Gehirns ausgedehnt werden könnten; dies werde die Künstliche Intelligenz an den Punkt bringen, an dem sie mit der menschlichen Intelligenz konkurrieren könnte. Andere, vor allem Hirnforscher, sind hier zurückhaltender – sie sagen, es sei durchaus möglich, dass hinter dem menschlichen Gehirn mehr steckt als einfach nur eine besonders hohe Anzahl an auffällig dicht beeinanderliegenden Neuronen.

So oder so: Es ist wahrscheinlich, dass die Dinge, die wir in Zukunft über das Gehirn lernen werden, durch Supercomputer ans Licht gebracht werden, die darauf ausgelegt wurden, eben jenes Hirn zu imitieren.

Dieser Artikel erschien zuerst auf “The Conversation” unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Teaser & Image “artificial neural network” (adapted) by Akritasa (CC BY-SA 4.0).


The Conversation

Weiterlesen »

5 Lesetipps für den 21. Januar

In unseren Lesetipps geht es heute um Jack Dorsey, den Medienwandel, das Ende des Kapitalismus, Technologie und Mensch, sowie Freunde auf Social Media. Ergänzungen erwünscht.

  • JACK DORSEY Mashable: Twitter CEO Jack Dorsey is no longer a billionaire as of today: Persönlich habe ich keine große Meinung von Jack Dorsey als Geschäftsführer und seine Ideen sind mir bei Square eigentlich egal, tun bei Twitter aber natürlich weh. Mehr als 140 Zeichen, wirklich? Die zurzeit viel diskutierten Kurseinbrüche beider Firmen an den Aktienmärkten sind ihm aber wahrscheinlich egal, denn ich glaube, dass Geld ihm nicht so wichtig sind. Spannender ist der Hinweis von Seth Fiegerman, warum Dorsey sich den doppelten Stress antut: er selbst sieht sich in einer Reihe mit Steve Jobs und Elon Musk.

  • MEDIENWANDEL Medium: Untangling the Web: Papier gab schon immer die Grenzen einer Zeitung vor, denn nur eine bestimmte Menge an Nachrichten kann in einer Ausagbe gedruckt werden. Das Internet hat diese physische Begrenzung aufgehoben, viele Medien sind aber noch sehr printorientiert fokussiert. João Paulo macht sich in seinem Blogpost auf Medium.com am Beispiel der New York Times Gedanken, wie eine Zeitung in Zukunft organisiert werden kann.

  • KAPITALISMUS ABC Radio National: The threat Uber poses to competition and productive capitalism: Das Taxi-Gewerbe meckert ja gerne über Uber, das die traditionellen Ideen von Personenbeförderung mächtig durcheinander wirbelt. Antony Funnell geht der Frage nach, ober die Disruption predigenden Technologiefirmen vielleicht mehr als nur ein Gewerbe verändern, sondern Kapitalismus an sich verändern (bis zerstören). Denn die Regulierung umgehenden bzw. einfach überrollenden Firmen greifen den Kern des Kapitalismus an, die Existenz von funktionierenden Märkten. Ein spannender Gedanken, wieviel Disruption und Monopole der Kapitalismus vertragen kann.

  • TECHNOLOGIE CBS News: The mobile phone of the future will be implanted in your head: Erik Brynjolfsson vom MIT nennt es das zweite Maschinenzeitalter. Computer sind immer mehr dazu in der Lage, auch mit uns als menschliche Maschine zusammenzuarbeiten. Im Kopf eingebaute Smartphones, so dass wir per Gedankensteuerung ein Telefonat beginnen können, sind nur eine Idee. Wesentlich wichtiger, denn wer telefoniert heute schon, sind beispielsweise mit dem 3D-Drucker gemachte Ersatzorgane.

  • SOCIAL MEDIA ABC News: 150 is the limit of real friends on social media: Was im Analogen gilt, dass man nicht mehr als 150 bis 200 Freunde haben kann bzw. Kontakte, die man regelmäßig trifft, gilt auch fürs Digitale. Und Freunde sollte man auch mal persönlich treffen, trotz Facebook und Twitter. Trotzdem haben wir oft mehr Kontakte, Leute die man einmal getroffen hat, die einem folgen, weil man den gleichen Beruf nach geht oder Freunde von Freunde (oft auch nur Kontakte von Kontakten). Als eine bekannte oder öffentliche Person bzw. Organisation folgen einem natürlich auch Fans, die man natürlich auch nicht mit Freunden verwechseln sollte. Aber jetzt mal zur grundlegenden Frage: Wer von euren Facebook-Kontakten sind auch eure Freunde?

CHIEF-EDITOR’S NOTE: Wenn Ihnen unsere Arbeit etwas wert ist, zeigen Sie es uns bitte auf Flattr oder indem Sie unsere Reichweite auf Twitter, Facebook, Google+, Soundcloud, Slideshare, YouTube und/oder Instagram erhöhen. Vielen Dank. – Tobias Schwarz

Nutze Netzpiloten 1-Klick: Mit nur einem Klick werden dir bequem alle 40 Sekunden die hier besprochenen Seiten „vorgeblättert“ START.

Weiterlesen »

Warum man nie ein Gehirn in die Cloud hochladen kann

Exercise Plays Vital Role Maintaining Brain Health (adapted) (Image by A Health Blog [CC BY-SA 2.0] via flickr)

Um die Frage zu klären, ob man ein Gehirn in die Cloud hochladen kann, müsste erst ein wichtiger erkenntnistheoretischer Durchbruch geschehen. In dem ersten Artikel dieser Serie haben wir gesehen, dass man den Verstand und den Körper nicht voneinander trennen kann und auch, warum die Robotertechnik es nicht schafft, beide Sachen nachzuahmen. Die Wissenschaft stellte sich schon immer die Frage, ob es möglich ist, Verstand und Körper zu trennen. Rein technisch ist dies nicht möglich. Doch nehmen wir mal an, dass wir irgendwann vielleicht doch alle körperlichen Probleme mit Sensoren, Muskeln und so weiter gelöst haben und akzeptieren, dass das hochzuladende Hirn nicht wirklich unser individuelles Wesen widerspiegelt. Nun kommt die eigentliche Herausforderung: Wir wollen das Gehirn hochladen.

Aber was genau ist ein Gehirn? Der Begriff bezieht sich meistens auf den Cortex (Hirnrinde) und wahrscheinlich einige subkortikale Strukturen, einschließlich der Amygdala, dem Hippokampus und der Basalganglien. Das zentrale Nervensystem ist aber zusätzlich aus mehreren und anderen Strukturen gemacht, die nicht weniger wichtig sind, wie das Kleinhirn, der Thalamus, der Hypothalamus, das Rückenmark und das Stammhirn.

Verbindungen schaffen

Wenn wir uns nun das gesamte zentrale Nervensystem ansehen, dann sind wir mit ca. 86 Milliarden Neuronen konfrontiert und jeder dieser Nervenzellen kontaktiert im Durchschnitt 10.000 andere Nervenzellen, was ungefähr 860 Millionen Verbindungen darstellt. Das ist ganz schön viel. Also was genau müssen wir nun im Computer hochladen? Den Typen, die Größe und die Geometrie einer jeden Nervenzelle? Das aktuelle Membranpotential der Zelle? Die Größe und Position des Axon und dessen Status in der Myelinisation? Die komplette Geometrie des Dendritenasts? Die Lage der verschiedenen Ionen-Pumpen? Die Anzahl, Position und den Status der verschiedenen Neurotransmitter?

Jede dieser Überlegungen könnte entscheidend sein und diese können nur mit einem hochmodernen Computer in die Tat umgesetzt werden (und dies gilt auch nur für ein paar Neuronen). Das Problem ist, dass wir nicht genau wissen, was genau uns zu dem macht, was wir sind und uns von anderen unterscheidet – und ich rede hier nicht einmal vom Lernen.

Überlegen wir einmal – wenn wir nur die richtigen Mittel hätten, um jede dieser Rahmenbedingungen einmal aufzunehmen, könnten wir versuchen, alles zu übertragen. Dies würde allerdings möglicherweise Tausende oder sogar Millionen Informationen für ein einzelnes Neutron erfordern. Wenn man nur die Neuronenanzahl betrachtet, würde dies eine Zahl im Zettabereich bedeuten (wie beim Speicherplatz: Die Reihenfolge lautet auch hier Kilo, Mega, Giga, Peta, Exa und Zetta, jedes mal mit 1.000 multipliziert). Diese Zahl ist so groß, dass selbst die Computerwissenschaft sie noch nicht händeln kann – und wir reden hier nur über den Speicher des Gehirns, wir müssten zudem sicherstellen, dass dieses Modell zusätzlich in Echtzeit läuft, da niemand einen künstlichen Verstand akzeptieren würde, wenn er dazu noch mit gedrosselter Geschwindigkeit arbeitet.

Von einer rein technischen Perspektive lässt sich sagen, dass wir deshalb ziemlich weit (sogar sehr, sehr weit) davon entfernt sind, tatsächlich so etwas zu erschaffen. Schlimmer noch, die Forschung weist darauf hin, dass das Mooresche Gesetz, welches besagt, dass sich der Speicherplatz und die Geschwindigkeit etwa alle 18 Monate verdoppelt, sein Limit erreicht, was bedeutet, dass wir vielleicht niemals das benötigte Technologielevel erreichen. Das Human Brain-Project hat dieses Problem schon geahnt und von Anfang an geplant, nur simple Neuronen- und Synapsenmodelle zu benutzen.

Falls Sie an noch detaillierteren Modellen interessiert sind, hilft ein Blick auf ein Projekt namens OpenWorm. Hier werden nicht mehr als nur ein paar einfache Neuronen simuliert.

Der Vogel in der Maschine

Die Idee, das eigene Gehirn in eine Maschine einzubauen, ist in der Literatur und im Kino weit verbreitet. Durch die neuesten Entdeckungen in der künstlichen Intelligenz wurde das Interesse an diesem Thema wiedererweckt. Dennoch kann es hier zu ein paar Missverständnissen kommen, vor allem bei der Frage was Künstliche Intelligenz (KI) eigentlich ist und um welches Ziel es dabei geht.

Sobald die Medien über Künstliche Intelligenz berichten, beziehen sie sich meist auf Machine Learning und Robotertechnik. Beides jedoch ist nicht dazu angelegt, das Gehirn oder die Wahrnehmung zu verstehen (mit einigen nennenswerten Ausnahmen, wie die Arbeit von Pierre-Yves Oudeyer). Diese Missverständnisse stammen wahrscheinlich daher, dass neue Algorithmen erschaffen wurden, die exzellente Performances bieten und die Dinge können, die wir bisher nur dem menschlichen Wesen zugeschrieben haben – wie beispielsweise Bilder wiederzuerkennen, Autofahren und so weiter.

Aber auch wenn sich maschinelles Lernen und Robotertechnik in einem derart raschen Tempo entwickelt, sagt uns dies nichts darüber, wie das biologische Gehirn eigentlich funktioniert – oder zumindest nicht direkt. Wenn wir das erfahren wollen, müssen wir uns der Neurowissenschaft, oder genauer gesagt, der rechnergestützten Neurowissenschaft zuwenden. Eine Parallele kann gezogen werden zwischen der Aeronautik (AI) und der Ornithologie (Neurowissenschaft).

Obwohl die ersten Flugversuche vom Prinzip des Vogelflugs abgeleitet war, wurden diese Flugmodelle schon vor langer Zeit beiseite gelegt, um bessere Flugzeuge zu designen (Schnelligkeit, Traglast, usw.). Dabei wurde Technik genutzt, die sich speziell auf die Aeronautik bezieht. Um Vögel besser zu verstehen, muss man sich mit Ornithologie und Biologie beschäftigen. Daher kann man festhalten, dass die Idee, ein Gehirn in einen Computer hochzuladen, wegen des Fortschritts der Künstlichen Intelligenz genauso sinnvoll ist, wie Federn an ein Flugzeug zu kleben und so zu tun, als sei es ein künstlicher Vogel.

Niemand wird je wissen, ob es möglich ist, ein Gehirn “in einen Computer hochzuladen”. Aber es ist sicherlich so, dass dieser Gedanke beim heutigen Forschungsstand wenig Sinn ergibt – und so wird es auch bleiben, solange nicht ein wichtiger erkenntnistheoretischer Durchbruch geschieht, mit dem wir das Gehirn und seine Funktionsweise gänzlich verstehen.

Dieser Artikel erschien zuerst auf “The Conversation” unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) “Exercise Plays Vital Role Maintaining Brain Health” by A Health Blog (CC BY-SA 2.0)


The Conversation

Weiterlesen »

Was mit uns passiert, wenn wir betrunken sind

Alkohol (Teaser by jarmoluk (CC0 Public Domain), via Pixabay)

Es gibt immer einen Grund, zu feiern – und dabei lehnt man meist das eine oder andere Gläschen nicht ab. Dass Alkohol nicht ungefährlich ist, weiß man längst. Aber was im Hirn und mit dem Körper genau passiert, wenn wir betrunken sind, wirkt individueller als bisher vermutet.

Die Beziehung zum Alkohol ist kompliziert. Es ist wie ein kompliziertes Muster, das in unserem Bewusstsein gesellschaftlich verwoben ist. Betrachtet man die reine Chemikalie, ist Alkohol ein einfach gestricktes Molekül, seine Effekte auf das Gehirn sind jedoch sehr komplex. Unterschiedliche Menschen reagieren in unterschiedlichen Situationen auf unterschiedliche Arten und Weisen auf Alkohol.

Nimmt man ihn oral zu sich, gelangt der Alkohol über den Magen-Darm-Trakt in den Blutkreislauf. Die Menge, die absorbiert wird, variiert hierbei von Mensch zu Mensch. Das ist abhängig von seinen Erbanlagen und seinem Gesundheitszustand. Zudem kommt es darauf an, ob sich bereits etwas zu Essen im Magen befindet, da dies die Absorption in den Blutkreislauf reduziert.

Die Größe der Person und das Verhältnis von Muskeln und Fett beeinflussen darüber hinaus, wie stark die Konzentration des Blutalkohols mit dem Konsum steigt. Da Alkohol wasserlöslich ist, wird bei zwei gleich schweren Personen die Person mit mehr Muskeln und weniger Fett eine geringere Blutalkoholkonzentration aufweisen als die Person mit mehr Fett und weniger Muskeln, – immer vorausgesetzt, die gleiche Menge an Alkohol wurde konsumiert.

Einmal in den Blutkreislauf gelangt, beeinträchtigt Alkohol viele unserer Organe, jedoch ist nur das Nervensystem (einschließlich des Gehirns) der Schlüssel in Bezug auf die verhaltenstechnischen Auswirkungen. Alkohol agiert als Beruhigungsmittel im Nervensystem. Das heißt, es senkt die Frequenz, mit der die Gehirnzellen und andere Nerven im Körper miteinander kommunizieren.

Einige Leser wird es überraschen, dass Alkohol ein Beruhigungsmittel im zentralen Nervensystem ist, da eine geringe Dosis oft stimmungserhellend wirkt und als eine Art soziales Schmiermittel verwendet wird.

Geringe Dosen

Der Grund, warum Alkohol als soziales Schmiermittel dient, ist, dass er die Funktionsfähigkeit des limbischen Systems im Gehirn herabsetzt. Das limbische System ist für die Produktion von Gefühlen wie Unruhe und Angst verantwortlich. Daher denken wir nach ein paar Drinks, dass wir sozial ungeschickt erscheinen.

Zusätzlich schränkt Alkohol die Funktion des präfrontalen Kortex ein – einem Teil des Gehirns, der für höhere kognitive Verarbeitung zuständig ist (einschließlich der Argumentations- und Urteilsfähigkeit). Das kann dazu führen, dass Menschen nach einigen Drinks weniger gehemmt und impulsiver sind. Eine weitere Gefahr der reduzierten Hemmschwelle und des eingeschränkten Urteilsvermögens ist, dass die Menschen manchmal mehr Alkohol konsumieren als sie ursprünglich beabsichtigt hatten.

Höhere Dosen

Mit steigender Alkoholdosis steigen die Auswirkungen auf das Gehirn. Die Funktion des präfrontalen Kortex wird zunehmend eingeschränkt, sodass das menschliche Verhalten noch weniger gehemmt und das Urteilsvermögen weiter geschwächt wird. Folglich wird unser Verhalten zunehmend von primitiveren Teilen des Gehirns gesteuert. Daher steigt das Aggressionspotenzial und der sexuelle Trieb.

Alkohol wirkt sich zudem auf das Kleinhirn aus – die Region im Hinterkopf, die die Muskelaktivitäten koordiniert. Die Koordination des Bewegungsapparats fällt zunehmend schwer, je höher die Alkoholdosis ist. Dies geht mit Schwindelgefühlen einher, die Übelkeit und Erbrechen zur Folge haben können.

Hohe Dosen Alkohol können zusätzlich die Geschwindigkeit reduzieren, mit der Nervenzellen in den Gehirnregionen kommunizieren, die essentiell für die Kontrolle der vitalen Funktionen wie Herzschlag und Atmung sind (die Brücke – ein Teil des Hirnstamms, der Nachrichten an das Kleinhirn übermittelt). Im Falle einer Alkoholüberdosis wird die Person vollständig aufhören zu atmen, was schließlich zum Tode führt.

Verfassung und Umfeld

Während die Pharmakologie des Alkohols in den subjektiven Auswirkungen eine bedeutende Rolle spielt, sollte der Einfluss des Umfeldes, in dem eine Person trinkt, und der psychischen Verfassung vor dem Konsum ebenfalls nicht unterschätzt werden.

Hinsichtlich des Umfelds kann man sich den Unterschied zwischen dem Alkoholkonsum auf einer Hochzeit und dem nach einer Beerdigung vorstellen. Die Wirkung der Droge bleibt die gleiche, das Umfeld hat jedoch einen großen Einfluss auf die Art und Weise, wie wir diesen Effekt wahrnehmen.

Alkohol kann negative Stimmungen verschlimmern. Daher sollten Sie das Trinken in einer schlechten seelischen Verfassung vermeiden. Die Kraft der Gedanken ist hier enorm wichtig. Die Menschen zeigen erste Anzeichen einer Alkoholvergiftung, sogar wenn sie ein Placebo erhalten.

In Studien, in denen Probanden unter dem Vorwand, es sei Alkohol, mit einem Placebo versorgt wurden, legten diese ein genauso risikobereites und sensationslüsternes Verhalten an den Tag, fühlen sich sexuell erregt und zugleich beruhigt. Dies kann teilweise durch die Konditionierung erklärt werden, in der der Körper gelernt hat, eine chemische Reaktion auf einen bestimmten Stimulus zu zeigen.

Die Erwartung des Menschen an die Art des Getränks beeinflusst also auch die subjektive Erfahrung. Sie haben eventuell gehört, dass Gin depressiv macht – also fühlen Sie sich deprimierter, wenn Sie Gin trinken. Zum Jahresende sollten Sie also nur etwas trinken, wenn Sie in Feierlaune sind – und den Gin vielleicht gegen einen Eierlikör tauschen.

Dieser Artikel erschien zuerst auf “The Conversation” unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image “Alkohol” by jarmoluk (CC0 Public Domain)


Weiterlesen »

Wie Witze helfen, die Bedeutung in Sprachen zu entschlüsseln

india laughing (adapted) (Image by anthony kelly [CC BY 2.0] via flickr)

Wieso funktionieren Witze? Die Sprachwissenschaft war sich lange uneins darüber, was in unseren Hirnen jenseits der reinen Verständnisebene passiert. Jetzt gibt es neue Erkenntnisse.

Was bekommt man, wenn man ein Känguru mit einem Elefanten kreuzt? Sie werden bis zur Pointe warten müssen, aber in Ihrem Kopf dürften bereits Bedeutungsfragmente herumfliegen. Nun, Witze müssen natürlich nicht wirklich witzig sein, aber wenn sie überhaupt funktionieren sollen, dann müssen sie hinter ihren schlichten Wörtern etwas konstruieren.

Sprache ist der Stoff, der uns in unserem täglichen Sozialleben verbindet. Wir verwenden Sprache, um zu tratschen, um uns zu bewerben und um jemanden zu feuern. Wir verwenden sie, um zu verführen und zu streiten, um einen Heiratsantrag zu machen und um sich zu scheiden und ja, auch um merkwürdige Witze zu machen. In Ermangelung von Telepathie lässt die Sprache uns mit unseren Nächsten und Liebsten interagieren und in unserer virtuellen Welt der digitalen Kommunikation auch mit Hunderten von Menschen, die wir sonst vielleicht nie getroffen hätten.

Aber während wir über eine Menge an detailliertem Wissen über die grammatischen Systeme der etwa 7.000 Sprachen dieser Welt verfügen, biss sich die Wissenschaft am geheimnisvollen Elixier der Kommunikation – der Bedeutung – bisher die Zähne aus.

Konzeptionelle Entwicklung

Wie erschaffen Menschen die alltäglichen Bedeutungen, die Dinge bewegen, uns zu Tränen rühren, zu Tode langweilen oder die uns vor Freude ganz schwindlig werden lassen? Die Frage, wie wir Bedeutung erschaffen, ist der heilige Gral vieler Disziplinen der Verhaltens- und Kognitionswissenschaft sowie der Sozialwissenschaften. Außerdem ist diese Frage für diejenigen unter uns, die nach einer Antwort suchen, eines der letzten großen Hindernisse bei der Kartierung des menschlichen Geistes.

Es ist Konsens, dass Bedeutung aus dem Zusammenfluss von Sprache und den Gedanken, die wir in unseren Köpfen umhertragen, entsteht. Aber wie genau? Eine frühe Theorie zur Konstruktion von Bedeutung besagt, dass wir von Geburt an über eine Reihe von Konzepten verfügen. Beim Erlernen unserer Muttersprache fungieren Wörter lediglich als Verweise auf diese Konzepte.

Nun wissen wir aber, unter anderem dank der Forschungen der Entwicklungspsychologin Jean Mandler, dass Konzepte, beginnend im frühen Kindesalter, aus Erfahrungen entstehen. Dabei werden ähnliche Lernmechanismen wie beim Spracherwerb genutzt. Für Kinder in der vorsprachlichen Phase bedeutet Konzeptualisierung Grundlegendes wie die Unterscheidung zwischen belebten und unbelebten Objekten. Diese Konzepte sind die Vorläufer der komplexen und abstrakten Ideen, die in unserem späteren Leben entstehen.

Die Baustelle der Bedeutung

Eine weitere Herausforderung bei der Erforschung der Bedeutungskonstruktion war es, herauszufinden, was Konzepte und Sprache zur Konstruktion von Bedeutung beitragen. Erwägen Sie zum Beispiel die Bedeutung des Wortes “Rot” in den folgenden Sätzen:

Für mich bedeutet Schönheit, sich in seiner eigenen Haut wohlzufühlen. Das, oder ein verdammt guter roter Lippenstift. – (Gwyneth Paltrow)

Der rote Fuchs… ist der größte unter den echten Füchsen und das am häufigsten vorkommende, wildlebende Raubtier. – (Wikipedia-Eintrag)

In jedem Satz bedeutet das Wort “Rot” etwas Anderes: Für die meisten Menschen ist das Rot im Paltrow-Zitat ein richtig starkes Rot, das Rot im zweiten Satz hingegen matt und bräunlich. Das rührt daher, dass die Bedeutung nicht in dem Wort selbst liegt. Sprache gibt uns Anweisungen, verschiedene Teile unseres konzeptuellen Wissens in unserem Kopf zu aktivieren, woraufhin wir den richtigen Rotton von der Farbpalette nehmen.

Bedeutung dirigieren

Der Mensch braucht Konzepte zum Lernen, zum Kategorisieren und für vorsorgende Überlebensplanung. Kommunikation ist nicht der primäre Zweck von Konzepten. Anders als bei anderen Spezies, gab uns die evolutionäre Herausbildung der Sprache ein System, das mit unserem Repertoire an Konzepten interagiert und diese dahingehend umfunktioniert, dass wir im Alltag mit anderen kommunizieren können.

Es ist wie eine Symphonie, aufgeführt von einem Orchester. Das Orchester gibt das “Was” vor, der Dirigent steuert das “Wie” bei, welches die Musik zum Leben erweckt und uns mit seiner klangvollen Pracht bewegt. Konzepte, entstanden aus der Erfahrung der täglichen Interaktion, sind der Inhalt der Bedeutungskonstruktion. Sprache hingegen liefert das Know-how und ermöglicht uns, Gedanken zum Zweck der Kommunikation zu verpacken und zu verschicken.

Dies bringt uns zurück zur entscheidenden Frage, die zu Beginn gestellt wurde, und wirft Licht auf den wohl heikelsten Aspekt der Frage nach der Bedeutungskonstruktion beim Menschen: Die Natur der Vorstellungskraft und der linguistischen Kreativität. Also, was bekommt man, wenn man ein Känguru mit einem Elefanten kreuzt? Die Antwort: Tiefe Löcher in ganz Australien. Wenn Sie aufgehört haben zu lachen, bedenken Sie, was dieses profane Zeugnis menschlicher Kreativität über den Einfluss von Sprache und Konzepten offenbart.

Die Pointe inspiriert uns dazu, unsere Konzepte von Kängurus und Elefanten gezielt zu kombinieren. Ein Elefant ist riesig, während Kängurus herumspringen und in Australien leben. Indem wir diese Aspekte beider Wesen verbinden, erschaffen wir ein Fantasiebild: Ein Organismus in der Größe eines Elefanten, der herumspringt und in Australien lebt. Es wäre unausweichlich, dass eine solche Kreatur tiefe Löcher hinterlässt.

Ob der Witz lustig ist oder nicht; um ihn zu verstehen, müssen wir Sprache so einsetzen, dass nur die relevanten Teile unseres Wissens abgerufen werden. Sprache steuert den Prozess der Bedeutungskonstruktion, indem sie festlegt, auf welche Weise Konzepte verbunden werden sollten. Diese Einsicht ist eine der aufregendsten und revolutionärsten Erkenntnisse der Kognitionswissenschaft des 21. Jahrhunderts. Darüber hinaus bietet diese Einsicht wohl zum ersten Mal einen spannenden Blick darauf, wie menschliche Vorstellungskraft funktioniert und wie Sprache sich mit Konzepten verbindet, um in unseren banalen Akten täglicher Kreativität das außerordentlich vielschichtige Kunststück der Bedeutung entstehen zu lassen.

Dieser Artikel erschien zuerst auf “The Conversation” unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) “India Laughing” by Anthony Kelly (CC BY 2.0)


 

Weiterlesen »

Das Internet verschlingt unser Gedächtnis

Loading... (adapted) (Image by Toms Baugis [CC BY 2.0] via Flickr)

Seitdem die Welt immer digitaler wird, ist eine der größten Veränderungen, dass sich unser Gedächtnis nicht mehr viel selbst merken müssen. Wieso sollte man das Risiko eingehen und den Geburtstag des Partners vergessen, oder eine Verabredung zum Abendessen mit einem guten Freund, wenn man die Details auch in seinem Computer, Laptop, Smartphone oder Tablet eingeben und sich davon erinnern lassen kann? Paul McCartney hat uns hierzu in einem Interview eine nützliche Einsicht gegeben. Er sagte, die Beatles haben in den 1960ern sicherlich Dutzende Songs geschrieben, die nie veröffentlicht wurden, weil er und John Lennon die Songs bereits am nächsten Morgen vergessen hatten.

Wir schrieben die Songs und mussten sie uns merken. Es bestand aber immer die Gefahr, dass wir sie einfach vergaßen. Wenn man sich am nächsten Morgen nicht mehr erinnern konnte, waren sie einfach weg. – Paul McCartney

Die Art und Weise, wie er Songs aufnimmt, ist heute völlig anders. Er kann “eine Sache erschaffen, sie zu Ende bringen, sich an alles erinnern, schnell wieder reinkommen und alles aufnehmen”.

Seit die Technik in unser Leben getreten ist, haben Forscher untersucht, welchen Einfluss sie darauf hat, wie wir lernen und uns Dinge merken. Einige Untersuchungen haben angedeutet, dass das Vertrauen in die Technik und das Internet zu einer “digitalen Amnesie” führen könnte, bei der Individuen nicht mehr in der Lage sind, Informationen zu behalten, die sie auf einem Gerät abgespeichert hatten.

In einer anderen Studie wurden 1.000 Verbraucher ab 16 Jahren gefragt, wie sie Technik nutzen – man fand heraus, dass 91 Prozent vom Internet und anderen Geräten, als Erinnerungshilfe, abhängig waren. In einer weiteren Untersuchung befragte man 6.000 Menschen und fand heraus, dass 71 Prozent dieser Menschen nicht in der Lage waren, die Telefonnummern ihrer Kinder aufzusagen. 57 Prozent konnten sich nicht an die Telefonnummern ihres Arbeitsplatzes erinnern. Dies weist darauf hin, dass etwas mit unserer eigenen Fähigkeit, sich an Dinge zu erinnern, passiert, sobald man sich auf externe Speichergeräte verlässt.

Das Upgrade

Bevor wir jedoch anfangen um diesen Verlust zu trauern, sollten wir uns neuere Studien anschauen, die besagen, dass wir uns dem langsam anpassen. In einer Untersuchung aus dem Jahr 2011 wurde eine Reihe von Experimenten durchgeführt, die herausfinden sollten, wie sehr sich unser Gedächtnis auf Computer verlässt. In einer dieser Experimente wurden die Teilnehmer gebeten, eine Reihe von Aussagen einzugeben wie beispielsweise “Das Auge eines Straußen ist größer als sein Hirn”.

Die eine Hälfte bekam mitgeteilt, dass das Dokument gespeichert wurde und der anderen Hälfte wurde gesagt, dass es nicht gespeichert wurde. Danach wurden alle getestet, um herauszufinden, ob sie sich noch an das Getippte erinnern können. Diejenigen, die davon ausgingen, dass ihr Dokument gespeichert wurde, schlossen bedeutend schlechter darin ab, die Informationen noch einmal aufzurufen.

In einem weiteren Experiment wurden die Teilnehmer gebeten, ein paar Aussagen in bestimmten Ordnern abzuspeichern. Danach fragte man sie nach den Aussagen und der Ordnerstruktur. Sie waren grundsätzlich besser im Erinnern des Speicherortes, als darin, sich an die Aussagen zu erinnern. Was schließen wir aus den beiden Experimenten? Die Technik hat die Art, wie wir Informationen anordnen, verändert. Daher erinnern wir uns oft an Details, die nicht mehr aufrufbar sind und stellen den Ort der Information über den Inhalt.

Gruppengedächtnis

Die Idee, dass man sich zuerst daran erinnert, wo eine Information auffindbar ist, hat ein paar Forscher dazu gebracht, vorauszusagen, dass die digitalen Speicherorte und das Internet eine Art transaktive Erinnerung darstellen. Diese Vorstellung reicht bis in die 1980er Jahre und bezieht sich auf ein Gruppengedächtnis, das besser als das jedes Einzelnen funktioniert.

Laut dieser Rechnung können Individuen zusammen einen gemeinsamen Pool an Wissen und Informationen aufnehmen und bereitstellen. Dies bedeutet, dass Einzelne auf Details zugreifen können, die sie selbst nicht wissen, sich aber jemand anders daran erinnert und dadurch die verfügbaren Informationen aufwertet, wenn er mit anderen kommuniziert. Auf die gleiche Weise entwickeln Individuen, zusammen mit dem Internet, ein transaktives Gedächtnis und verlassen sich auf die bereitgestellten Informationen, indem sie sich darauf konzentrieren, wo die Details zu finden waren, statt sich an die Details selbst zu erinnern.

In neueren Untersuchungen hat man dies noch erweitert und herausgefunden, dass nicht nur unsere Gehirne verändert werden, wenn eine Info auf einem PC gespeichert wird, sondern man auch leichter an neue Infos herankommt. In einer Studie aus dem vergangenen Jahr wurden die Teilnehmer vor eine Datei gesetzt, die eine Wörterliste beinhaltete. Man bat sie darum, sich beide Listen zu merken. Die Hälfte der Teilnehmer wurde gebeten, die Liste zu speichern, bevor sie sich der zweiten zuwandten, die Anderen mussten sie ohne zu speichern schließen.

Das Experiment zeigte, dass die Teilnehmer bedeutend mehr Informationen aus der zweiten Datei aufnahmen, wenn sie die vorherige Datei gespeichert haben. Dies zeigt, dass mit dem Speicherprozess ein “Abladen” auf den Computer geschieht, mit dem wir kognitive Reserven freimachen, die uns dabei helfen, uns zu erinnern und neue Infos aufzunehmen.

Alles in Allem ist es so, dass sich jeder, der die Sorge hat, dass die Technik uns in einer unserer wertvollsten Fähigkeit zerstört, sich lieber rückversichern sollte. Das bedeutet nicht, dass es keinen Grund zur Sorge gibt: beispielsweise sagte McCartney im gleichen Interview, dass die Songs, die es bis ins Studio in den 60ern geschafft hatten, am einfachsten zu merken waren. So kann es also durchaus möglich sein, dass die mangelnde Technik aus den Beatles die besseren Songwriter gemacht hat.

Es kann aber auch so gewesen sein, wie damals, als die Erzählungen von dem geschriebenen Wort verdrängt wurden, dass die Anwesenheit der Speichermedien, die unsere Erinnerung outsourcen, bedeutet, dass wir uns nicht länger alles merken müssen. Und wenn wir uns jetzt noch ein bisschen mehr mit der Hilfe unserer technischen Freunde merken können, ist das auf jeden Fall ein riesiger Schritt nach vorn. Statt also darüber zu trauern, was wir verloren haben, müssen wir uns vielleicht darauf konzentrieren, was wir dafür erhalten haben.

Dieser Artikel erschien zuerst auf “The Conversation” und steht unter CC BY-ND 4.0. Übersetzung von Anne Jerratsch.


Image (adapted) “Loading…” by Toms Baugis (CC BY 2.0)


 

Weiterlesen »

Internetnutzung und das Gehirn: Digitaler Alarm

Was macht das Internet mit unserem Kopf? Zumindest nicht das, was viele glauben. Im Neuro-Psycho-Zeitalter sind wir scheinbar umgeben von pathologischen Phänomenen. Wer sich durch unbedachte Einkäufe verschuldet, leidet unter Kaufsucht. Wer nicht an Verhütung denkt, unterliegt der Sexsucht. Wer an Gesprächen nicht teilnimmt, krankt an sozialen Phobien. Ständige Grübeleien über Nichtigkeiten weisen auf Angststörungen hin. Und folgt man der monokausalen Analyse von Autoren wie Manfred Spitzer, produziert der übermäßige Konsum von digitalen Medien Heerscharen von Internetsüchtigen mit der Tendenz zur Hirnschrumpfung. Vielleicht leiden die selbsternannten Neuro-Experten selbst unter einer speziellen Form von pathologischer Schnappatmung im Verbund mit interneuronal-molekularer Dysbalance.

Natürlich beeinflusst die Internetnutzung das Gehirn – genauso wie Fahrradfahren und alle anderen menschlichen Tätigkeiten und Erfahrungen auch. Die kulturpessimistischen Ableitungen entstehen in der Regel in einem spekulativen Hirn-Biotop.

Die Wrestling-Events der Hirnforscher

Ob sich unser Bewusstsein verändert und wir zu Abziehbildern von Computerprogrammen degradiert werden, ist ein höchst unterhaltsamer Ansatz für Debatten auf „Bild“-Niveau. Das hat eher den Charakter eines „Wrestling-Events“, wie es der Soziologe Gerhard Schulze ausdrückte. Statt Inhalte werden nur Etikettierungen ausgetauscht. Die einen sind Panikmacher, die anderen Zyniker. Man geht zur Tagesordnung über und sucht sich einen neuen Spielplatz, um „Alarm“ zu brüllen. „Es ist ja nicht zu bestreiten, dass die Maschinen in vielen Teildisziplinen stärker und besser sind als Menschen. Angefangen bei der Muskelkraft. Heute käme niemand auf den Gedanken, mit einem Industrie-Roboter sich im Armdrücken zu messen“, erläutert Systemingenieur Bernd Stahl von Nash Technologies. Beim Schach oder bei Quizsendungen würde es ähnlich aussehen. Gegen IBM-Watson sei kein Kraut gewachsen. Ob das Internet vergesslich oder dumm macht, hänge nicht mit dem Internet zusammen, sondern liegt an dem, der es benutzt. Hier wabert viel Spekulatives und man begibt sich auf wackeligen Grund“, so Stahl. Ob nun Dinge analog oder digital vorliegen, ist in erster Linie nur eine Zustandsbeschreibung. Und Internetnutzer nach höchst fragwürdigen Kriterien als krankhaft abzustempeln, ist diskriminierend und anmaßend. „Wir haben eine sehr starke Fokussierung auf die vermeintlichen Gefahren der digitalen Welt. Solange man aber in diesem Gedankengebäude verharrt und nicht weiter darüber nachdenkt, ist man gefangen in der ‚Spitzer-Ideologie‘“, sagt der Gaming-Experte Christoph Deeg.

Vernetztes Lernen statt Strukturdebatten in der Bildungspolitik

Dabei wäre es wichtig, sich besonders in der Bildungspolitik mit den Vorzügen des vernetzten Lernens auseinanderzusetzen. Stattdessen vergeuden die Kultusminister von Bund und Ländern wertvolle Zeit für Strukturdiskussionen. An den wirklichen Schwächen der Wissensvermittlung mogeln sich die meisten vorbei. „Besonders im Schulunterricht werden Dinge gemacht, die eher schädlich sind als nützlich. Ein Lehrer muss sich mit 30, 60 oder 90 Schülern beschäftigen; er hat ja nicht nur eine Klasse und muss das große Ganze im Blick haben, aber nicht den Einzelnen“, sagt der Wiener Naturwissenschaftler und Science-Fiction-Autor Professor Herbert W. Franke. Eine individuelle Förderung sei unter diesen Umständen nicht möglich. Beim Einsatz von digitalen Lernautomaten würde das anders aussehen. Wenn man ein analytisches System zur Verfügung habe, ist eine Bestandsaufnahme für jeden einzelnen Schüler möglich. Zudem könne der Unterricht variabler gestaltet werden. „Zwei- oder dreidimensionale Zusammenhänge lassen sich mit Bildern besser ausdrücken als mit Worten. So könnte man in Schulen in den ersten Jahren völlig ohne Formeln auskommen. Eine Visualisierung der Mathematik bringt sehr viel bessere Lernergebnisse“, sagt Franke. So sei es heute mit Computerhilfe möglich, komplizierteste Gebilde in Bruchteilen von Sekunden auf den Schirm zu zaubern – wenn gewünscht, bewegt oder interaktiv veränderlich. „Der größte Teil aller mathematischen Zusammenhänge lässt sich in Bildern ausdrücken und erspart in den meisten Fällen die Mühe einer umständlichen Interpretation“, weiß Franke. Visualisierte Formen würden zudem einen ästhetischen Reiz ausüben und die übliche Abneigung gegen Mathematik reduzieren. „Diese Erkenntnis gilt generell für Naturwissenschaften – selbst für Quantenphysik und Molekularchemie“, sagt Franke.

Aufklärung statt Kulturpessimismus

Vielleicht übertragen die omnipräsenten Internetskeptiker auch nur ihre eigenen Ängste auf die ganze Gesellschaft. Nicht unüblich für eine Zeitenwende, wie die Autoren Ossi Urchs und Tim Cole in ihrem neuen Buch „Digitale Aufklärung – Warum uns das Internet klüger macht“ konstatieren. Was die liebwertesten Gichtlinge der Neo-Phobie in die Welt blasen, sagt mehr über das Weltbild der Kritiker als über die Wirklichkeit. Sie betrachten die Informationsgesellschaft eher mechanistisch. „Sie sehen die Menschen als Vieh, das nur stumm wiederkäuen und sich ansonsten von medialen Hirten wie ihnen vorantreiben lassen muss in eine ungewisse, fremdgesteuerte Zukunft“, so Urchs und Cole. In Wahrheit geht es beim kollektiven Gejammere um Machtverschiebungen oder um enttäuschte Erwartungen, wie bei Jaron Lanier, der mittlerweile das Internet für Maoismus hält und dabei wohl nur seine eigenen gescheiterten Projekte als Risikokapital-Unternehmer kompensiert. Er sollte weniger in der Mao-Bibel blättern und mehr Kant lesen: „Jederzeit selbst zu denken, ist die Aufklärung.“ Vor der gleichen Aufgabe stehen wir heute mit der digitalen Aufklärung, resümieren Urchs und Cole in ihrem Opus. Stimmt!


Dieser Beitrag erschien zuerst bei The European.


 

Weiterlesen »

Allzweckwaffe Hirnforschung: Monokausale Kleckskunde

Allzweckwaffe Hirnforschung : Monokausale Kleckskunde

Apple-Kunden ticken anders: Das soll eine repräsentative Stichprobe mit ganzen 25 Probanden beweisen. Wie uns neuronale Schlaumeier die Welt erklären.

Allzweckwaffe Hirnforschung : Monokausale Kleckskunde

Wie erkennt man, ob jemand ein iPhone besitzt? Er sagt es dir. Diesen Comedy-Kalauer hat das Redaktionsteam der ARD-Sendung „Markencheck“ noch um eine weitere Facette bereichert. Apple-Kunden sind nicht nur Angeber, sie fallen auch auf die Versprechungen des Anbieters leichter herein. Ihr Gehirn tickt einfach anders. Sie lassen sich von Emotionen steuern und blenden Fakten eher aus als Kunden, die stärker auf das Preis-Leistungs-Verhältnis achten und somit rationaler entscheiden. Wie lässt sich diese These beweisen?

Weiterlesen »

Weiterlesen »

Wir Netz-Zombies – Emanzipation des Menschen von den Maschinen

Das Leben im Internet ist eine seltsame Sache: Auf-dem-Bildschirm-Starren, digitale „Kontakte“, Kommunikationsfragmenten und eine durch Links verbundene unendliche Abfolge von Dokumenten.

Anders als Fernsehen erfordert Online-Sein Aktivität: permanente Entscheidungen und sogar soziale Interaktionen. Doch nach der Arbeit vor dem Rechner kann sich das eigene Gehirn so weich anfühlen, als hätte man sich genau so lange durch‘s private Nachmittagsprogramm gezappt…

Weiterlesen »

Weiterlesen »

Handys wirken aufs Gehirn

In der Nähe der Antenne eines Mobiltelefons kann man nach einem einstündigen Gespräch ein Zunahme der physiologischen Tätigkeit um 7 Prozent nachweisen, haben die amerikanischen Wissenschaftler um Dr. Nora Volkow jetzt in einer Studie publiziert. Wie immer bei den bildgebenden Verfahren in den Neurowissenschaften kann man außer einem erhöhten Stoffwechsel eigentlich nichts darüber hinaus sagen. Auch Dr. Volkow hält sich gegenüber HealthDay zurück mit positiven oder negativen Deutungen dieser Befunde.

In der Studie wurden 47 Probanden ein Jahr untersucht auf die Auswirkungen der Handynutzung. Mit einem Positronenemissionsgerät und einem Kontrastmittel wurde der Glukosehaushalt an den Stellen der Handy-Exposition an den Ohren gemessen. Man könnte sich dazu versteigen und sagen, dass dieser erhöhte Zuckerstoffwechsel positiv für eventuelles Tumorwachstum sei. Allerdings schießt man damit höchstwahrscheinlich über das Ziel hinaus, denn das Gehirn verstoffwechselt eben nur Glukose. Und dass Tumoren auch Zucker brauchen, sagt in diesem Kontext noch gar nichts. Zucker schadet aber auch nicht bei mutierten Zellen.

Insofern bleibt alles beim Alten. Headsets sind immer anzuraten, damit das Gerät vom Kopf wegkommt beim telefonieren. Wenn man sich nicht sicher ist, dann ist ein Blick auf die SAR-Werte der Handys sicher hilfreich. Wie viele bereits wissen, führen hier noch immer die neuen Geräte von Samsung mit niedrigen bis mittleren Werten (zwischen 0,4 und 0,7). Anders sieht es bei Apples iPhone, Sony, RIM und diversen HTC-Modellen aus – mit teilweise weit über 1,0 W/kg. Mehr dazu auf handywerte.de

Weiterlesen »

Was soll nur aus unseren Experten werden?

Gestern gab es in der FAZ einen Text „Was soll nur aus unseren Gehirnen werden?“, der die Schirrmachersche These vom schädlichen Buchdruck, Radio, Fernsehen, Walkman, Internet bestätigen wollte. Ein Neurobiologe der TU Braunschweig namens Martin Korte sollte es richten. Wir erinnern uns: War die Leitwissenschaft in den Siebzigern die Physik, kam in den Achtzigern mit dem Siegeszug der Biologie auch die Psychologie zum Zuge. Sie wollte sich schnell eingliedern in die Reihe der harten Faktenwissenschaften, die aus dem Positivismus hervorgegangen sind. Doch in den Neunzigern wurde klar, dass keiner an der Mathematik und ihren Trivialformen wie Rechnungswesen oder Informatik vorbeikommen konnte. Die Psychologie wurde immer mehr zur Hilfswissenschaft der Neurowissenschaftler aus der Medizin und der Biologie und die Physik bekam grundlegende Probleme über ihren eigentlichen Untersuchungsgegenstand, der sich zunehmend aus der Welt des Messbaren entfernte. Umso angestrengter versuchte man in den Neurowissenschaften mithilfe bildgebender Verfahren das Loch der Messbarkeit von Intelligenz, Wissen oder Lernen durch physiologische Vorgänge in den Bereich des Faktischen als Beweismittel zu erheben. Die dort angewandten Deutungsmethoden der Bildchen bleiben intransparent. Korrelationen zwischen Gedankentätigkeiten und beobachtbaren Stoffwechselvorgängen werden über Nacht in den Stand der Kausalität erhoben.
Da verwundert es nicht, wenn so ein Deutungspriester uns das Neueste über das Monster „Multitasking“ nahezubringen versucht. Er muss kognitive Dissonanzen (Unterschiede zwischen Überzeugung und Alltag) abbauen und das kann man am besten via Medien. Die Psychologisierung des Alltags erlebt fröhliche Urständ auf der Basis von Schädelbildern in Echtzeit. Begeben wir uns in die Text-Exegese: Weiterlesen »

Weiterlesen »