All posts under Forschung

Forschendes Lernen fördert Startup-Kultur

An der  Zeppelin Universität in Friedrichhafen am Bodensee beschäftigen sich Studierende ungewöhnlich früh mit Forschungsfragen. Dies ist auch im deutschlandweiten Vergleich ungewöhnlich. Denn es ist hierzulande eben durchaus nicht üblich, dass studentische Forschung ein doch sehr hoher Stellenwert eingeräumt wird. Die mithin dazu führen kann und soll, dass die Studierenden sich wie im PioneerPort, dem Gründerzentrum der ZU, im Laufe ihres Studiums engagieren können und sollen.

Forschendes Lernen im Studium – einzigartig in der deutschen Universitätslandschaft

In diesem Zusammenhang weist Sascha Schmidt, Sprecher des Leitungsteams PioneerPort – sozusagen die ZU-Startup-Schmiede – auf „das hochschuldidaktische Konzept des forschenden Lernens im Studium“ hin. Und wie die ZU dieses besondere Lernen entwickelt und vertieft hat, dürfte in der deutschen Universitätslandschaft tatsächlich unique sein. Denn dadurch wird mithin ein Unternehmertum gefördert, „das Lösungen für gesellschaftliche Problemstellungen unter marktwirtschaftlichen Bedingungen bereitstellt“, so Sascha Schmidt weiter.

Sascha Schmidt – Image by Samuel Groesch

Denn plötzlich steht eine soziale, kulturelle oder eine ökologische Wertschöpfung im Vordergrund. Dass die Prämisse eines sich tragenden Businessplanes eine Rolle dabei spielt, versteht sich von selbst. Professor Josef Wieland – der den ZU-Lehrstuhl für Institutional Economics inne hat fühlt sich sehr nachhaltigen Entwicklungen in Wirtschaft und Gesellschaft verpflichtet. Er sieht die ZU dem Leitbild der Liberal Arts verpflichtet. Aus der Komplementarität von Lehre/Forschung folge, dass das Lehrangebot sowohl an die Forschungstätigkeit der Lehrenden anknüpfe als auch die unabhängige Forschungstätigkeit der Studierenden nachdrücklich fördere.

Schon Humboldt lebte die Einheit von Forschung und Lehre

Das passt alles gut zum Humboldtjahr – in 2019 jährt sich der 250. Geburtstag des großen Naturforschers und Universalgelehrten Alexander von Humboldt, der die Einheit von Forschung und Lehre stets (vor-) lebte. Das Spannende am forschenden Studium an der ZU: Die Studierenden sollen eben vor dem Hintergrund eines eigenen Erkenntnisinteresses den ganzen Forschungsprozess durchlaufen. Angefangen bei der Formulierung der Fragestellung, über die Ausarbeitung des Forschungsdesigns, bis zur Anwendung wissenschaftlicher Methoden und der Interpretation der Ergebnisse

Dadurch profitieren die Studierenden in diverser Hinsicht. So wird etwa die Entwicklung eigener Forschungsideen ebenso befördert wie die Realisierung des individuellen Projekts. Präsentiert wird auf dem jährlichen Student Research Day, auf dem auch externe Gäste willkommen sind.

Zu unterscheiden gilt es zwei verschiedene Ansätze des forschenden Lernens an der ZU: Zum einen gibt es das Zeppelin-Projekt, das sich an Studierende im 1. und 2. Semester richtet und immer unter einem Rahmenthema steht – etwa „Region und Globalisierung“ oder „Social Media“. Die Projektgruppe „Selbstdarstellung von Parteien in den Medien“ hat z.B. recherchiert, ob die AfD sich in ihrem medialen Auftritt von anderen Parteien unterscheidet. Dabei ergaben sich sowohl Gemeinsamkeiten wie Unterschiede mit Blick etwa auf Emotionalität und das allgemeine Sprachniveau. Oder das Zeppelin Projekt mit der Headline „Verantwortung“ – jeweils unter einer soziologischen, politikwissenschaftlichen, einer ökonomischen oder einer kulturwissenschaftlichen Perspektive betrachtet.

Zum anderen das Humboldt-Projekt, das im 6. und 7. Semester läuft – mit Themen wie etwa die mit dem Student Research Award ausgezeichneten Arbeit „Podcast – vom Trend zum Qualitätsmedium“. Oder eine seinerzeit hochaktuelle Fragestellung: „Wie können netzpolitische Themen in das Agenda-Setting der Bundesrepublik Deutschland einfließen und die Gesetzgebung nachhaltig beeinflussen?“, anlässlich der Berichterstattung über den NSA-Skandal. Oder ein Stoff, der derzeit unmittelbar viele Menschen bewegt: „New Work – Zwischen Selbsterfüllung und Risiko, Einblick in ein berufliches Entscheidungskalkül“.

Der PioneerPort – das Gründerzentrum der ZU

Die Themenbandbreite ist mithin besonders breit gefächert – ebenso wie beim PioneerPort, dem Gründerzentrum der ZU, sozusagen der praktische Arm des forschenden Lernens und einer modernen, universtitären Startup-Kultur. Die Dauer der Förderung durch die Universität beträgt zwölf Monate. Anschließend können „die Gründerteams ihre Ideen bei Kooperationspartnern und Innovationszentren in der Bodensee-Region weiterverfolgen“, erläutert Sascha Schmidt. (Mehr zum Konzept des PioneerPort hier im Interview mit Insa Sjurts). Diesmal sind etwa folgende Startups im PioneerPort: Das Projekt Wohnraum, eine Mehrgenerationen-Wohnraumvermittlung, das Management-Tool Lean & Green für die Fischerei,  die NePals, ein Sozialunternehmen für Entwicklungsarbeit in Nepal und Sightscan die Bilderkennungs-App für Tourismusanbieter.

So ergibt die spezielle Unterstützung der ZU-Studierenden in Form von Beratung, forschender Lehre, Netzwerken, Veranstaltungen oder Workshops einen Mix kontemporärer Forschung und Lehre, die Hochschüler mit Gründerimpuls für sich nutzen können. Oder wie Phil Libin, CEO von Evernote, es einer jeder Gründerin und einem jeden Gründer ins Stammbuch schreibt: „There’s lots of bad reasons to start a company. But there’s only one good, legitimate reason, and I think you know what it is: it’s to change the world.”


Images by Samuel Groesch

Weiterlesen »

#HSCamp19 – Mehr digitale Experimente in Hochschulen wagen!

Beim diesjährigen HochschulCamp #HSCamp19 in Essen ist eine Lust am Experimentieren mit digitalen Formaten zum Vorschein gekommen, die man in den offiziellen Stellen von Universitäten und Hochschulen mit der Lupe suchen kann. Besonders auf Leitungsebene dominieren eher die Bedenkenträger, die sich hinter den Rechtsabteilungen oder Datenschutzbeauftragten ihrer Institutionen verstecken.

Bei den Barcamp-Teilnehmern sieht das anders aus. Von Instagram-Storytelling über virtuelle Konzepte in Forschung und Lehre bis zum Einsatz von datenschutzkonformen Balkenbrillen reichte der Reigen der Sessions und Aktionen an den beiden Tagen des HochschulCamps.

In meiner Session stellte ich die aktuellen Zahlen aus dem Gutachten der Expertenkommission Forschung und Innovation (EFI) vor. Und die sprechen eine andere Sprache.

Die deutschen Hochschulen messen gemäß einer von der Expertenkommission in Auftrag gegebenen Befragung ihrer Digitalisierung eine sehr hohe Bedeutung bei. 83 Prozent der teilnehmenden Hochschulen geben zu Protokoll, dass das Thema für sie einen hohen bis sehr hohen Stellenwert einnimmt. Das spiegelt sich im bisher erreichten Digitalisierungsstand von Forschung, Lehre und Verwaltung jedoch nicht wider.

„Eine wichtige Möglichkeit, auf die Herausforderungen der Digitalisierung zu reagieren, ist die Ausarbeitung einer Strategie, die sich am Profil der Hochschule, an ihren Zielgruppen und an ihren Entwicklungszielen orientiert“, so das EFI-Gutachten. 14 Prozent der Hochschulen verfügen über eine Strategie. 41 Prozent der teilnehmenden Hochschulen geben an, eine Digitalisierungsstrategie zu erarbeiten, während 31 Prozent eine solche planen.

Strategie für die Digitalisierung? Fragt doch mal die Teilnehmer des Barcamps

Zu den am häufigsten genannten Zielen, die mit einer Digitalisierungsstrategie verfolgt werden, zählen die Verbesserung der Qualität und der Effizienz in der Hochschulverwaltung sowie die Steigerung der Qualität der Lehre. Die Expertenkommission sieht es als ein positives Signal, dass die deutschen Hochschulen mehrheitlich die Entwicklung einer Digitalisierungsstrategie planen. Sie empfiehlt, in den Strategien klare Verantwortlichkeiten für Digitalisierungsprozesse zu definieren. Das wird nicht zielführend sein. Sie sollten eher die Teilnehmer-Liste des HochschulCamps und die Themen der Sessions studieren, um die richtigen Leute für die Entwicklung von Strategien zu identifizieren. In den Dekanaten, Präsidien und sonstigen Gremien dominiert eher eine Lehmschicht. Oder besser ausgedrückt: Eine lähmende und lahme Schicht. Auch die angeblich so tollen IT-Servicezentren und die Infrastruktur sollte man mal von den Akteuren beurteilen lassen, die mit Eigeninitiative die Digitalisierung in Hochschulen und Universitäten vorantreiben. Die singen ein anderes Lied, wenn es etwa um die Schnelligkeit des Netzes geht.

Sessiongeber des #HSCamp19 sind viel weiter 

Insgesamt bleibt die Nutzung und Entwicklung digitaler Lehr- und Lernformate hinter den Möglichkeiten jener Protagonisten, die man in Essen erleben konnte. Die EFI-Befragung zeigt, dass mobiles Lernen an 25 Prozent und soziale Medien an 19 Prozent der Hochschulen häufig zum Einsatz kommen. Inverted Classroom-Formate werden lediglich an 13 Prozent der Hochschulen stark oder sehr stark genutzt. Der Anteil der teilnehmenden Hochschulen, die angeben, adaptives Lernen, Augmented oder Virtual Reality und Digital Game-based Learning in ihren Lehrveranstaltungen häufig oder sehr häufig einzusetzen, liegt bei 6 bis 7 Prozent. Diese Ergebnisse werden durch eine Erhebung zur digitalen Lehre an Hochschulen aus dem Jahr 2017 gestützt.

Um Lehrende zur Ergänzung und Weiterentwicklung der Lehre durch digitale Instrumente zu motivieren, werden laut der von der Expertenkommission in Auftrag gegebenen Befragung von 62 Prozent der teilnehmenden Hochschulen konkrete Anreize gesetzt.

Als Anreize nennen die Hochschulen die Bereitstellung zusätzlicher Personalkapazitäten etwa in Form von Ersatzlehrkräften und studentischen Mitarbeitenden (64 Prozent). Weitere Mittel sind das Herausstellen von digitalen Lehrformaten als Beispiele guter Praxis (53 Prozent), die Auszeichnung der Lehrenden mit Preisen oder Prämien (50 Prozent) sowie die Reduzierung der Lehrverpflichtung (39 Prozent). Da sind die Sessiongeber auf dem HochschulCamp schon weiter.


Image by Gunnar Sohn

Weiterlesen »

Neuer VR-Handschuh ermöglicht es virtuelle Objekte „anzufassen“

Forschern der Eidgenössischen Technischen Hochschule (ETH) Zürich ist es in Zusammenarbeit mit der École polytechnique fédérale de Lausanne (EPFL) gelungen, einen besonderen Handschuh zu entwickeln. Mit diesem soll es möglich sein in Virtual-Reality-Simulationen Objekte auch zu „ertasten“. Die meisten Handschuhe, die man bisher für virtuelle Simulationen entwickelte, waren oftmals zu schwer oder nicht feinfühlig genug. Damit macht der DextrES nun Schluss.

Deutliche Verbesserungen in Gewicht und Bewegung

Der DextrES wiegt nur beeindruckende 8 Gramm und soll sich somit so anfühlen, als würde man gar kein Gerät tragen. Zudem setzen die Entwickler auf ein 2mm dünnes Baumwollgewebe, das die Finger umgibt. Ansonsten ist der Handschuh ausgestattet mit ultradünnen Metallbändern, die von jedem Finger zur „Zentrale“ des Handschuhs am Handgelenk gehen. Die Technik hinter dem DextrES ist so genial wie einfach. Sobald man in der Simulation virtuelle Objekte berührt, ziehen sich die Metallbänder zusammen. Damit ist es den Fingern im Handschuh unmöglich, sich zu bewegen.

In Zusammenspiel mit entsprechenden Bildern aus einer VR-Brille, denkt das Gehirn, man fasse gerade einen realen Gegenstand an. Der größte Vorteil des DextrES besteht wohl aber darin, dass der Handschuh ganz ohne lästiges Exoskelett oder dicke Kabel auskommt. Bei anderen Modellen schränkt genau das die Bewegungsfreiheit ein. Aber ganz ohne Kabel für die Stromversorgung kommt der neue Handschuh auch noch nicht aus. In einem zukünftigen verbesserten Model des DextrES soll es möglich sein, ihn mittels einer kleinen Batterie zu betreiben. Damit ist die komplette Bewegungsfreiheit gewährleistet.

Einsatzmöglichkeiten gehen weit über Videospiele hinaus

Im Moment sei die Nachfrage nach diesen Handschuhen bei den Gamern am größten, so Otmar Hilliges, Leiter des Advanced Interactive Technologies Lab der ETH Zürich. In Zukunft könne man sich auch vorstellen, den Handschuh in ganz anderen Bereichen einzusetzen. Durch den DextrES könnte es zum Beispiel möglich sein, komplizierte Operationen im Vorhinein zu üben. Oder Medizinstudenten bessere Lernmöglichkeiten zu geben. Aber auch in der Technik, zum Beispiel im Ingenieurwesen, gäbe es somit die Möglichkeit der Erstellung von realitätsnahen Simulationen. Der Leiter des Soft Transducers Laboratory vom EPFL Herbert Shea merkte an, dass diese Technik auch auf Augmented Reality übertragen werden könnte.

Die Einsatzmöglichkeiten des DextrES sind also mehr als vielseitig. Es bleibt spannend um die Entwicklungen in der VR- und AR-Welt. Wir halten euch natürlich weiterhin auf dem Laufenden!


Image by Gorodenkoff / stock.adobe.com

Weiterlesen »

MagicScroll: Das erste aufrollbare Tablet

Sieht so die Zukunft des Tablets aus? Forscher aus Kanada haben in einem Pilotprojekt mit Namen „MagicScroll“ das erste vollfunktionsfähige Tablet erfunden, welches man aufrollen kann. Im Moment ist der Entwurf noch etwas klobig und unhandlich, doch er ist ein Schritt in die richtige Richtung.

Das Smartphone einfach aufrollen und in Stift-Größe in die Hosentasche schieben; klingt nach Zukunftsmusik? Dank des Fortschrittes an der Queen’s University in Kanada könnte das schon bald Realität werden! In einem ersten Versuchsprojekt aus dem Human Media Lab haben die Forscher nun ein Tablet entwickelt, welches man einfach aufrollen kann. Es kann auch im aufgerollten Modus normal verwendet werden. Somit beweist es, dass gebogene Bildschirme nicht nur existieren, sondern dass sie auch real einsetzbar sind.

Die Forscher orientieren sich beim Design an einer Papyrus-Rolle aus der Antike, um ein möglichst natürliches Erlebnis zu haben, wie sie auf ihrer Website betonen. An der Seite des Geräts befinden sich jeweils Rollen, mit denen man auf Internetseiten oder durch Chats scrollen kann. Doch auch die Erfinder des Gerätes geben zu, dass die Technik noch nicht zu 100 Prozent ausgereift ist. So fehlt zum Beispiel noch die Stabilität des geöffneten Bildschirmes, wie man sie von Smartphones gewöhnt ist. Das Modell ist zu groß und zu unhandlich, als dass es etablierten Tablets oder Smartphones in seiner derzeitigen Form Konkurrenz machen könnte.

Hier seht ihr wie das MagicScroll funktioniert:

Das MagicScroll-Tablet als Innovation

Dabei könnte diese Art von gebogenem Bildschirm nicht nur für mobile Endgeräte verwendet werden. Die in dem MagicScroll-Tablet verwendete Technik könnte zum Beispiel auch auf wiederverwendbaren Kaffeetassen Einsatz finden . Man stelle sich vor, man könnte von der Kaffeetasse aus bereits vor Betreten des Lieblingscafés sein Getränk bestellen und gleich auf der Kaffeetasse bezahlen. Den Forschern geht es vor allem darum, die Idee voranzutreiben, jegliche Oberfläche als Bildschirm benutzen zu können. Dazu integrierten sie bei ihrem derzeitigen Forschungsprojekt MagicScroll auch eine spezielle Kamera, welche Gestensteuerung erkennen soll.

Technische Daten und Zukunftsaussichten

Bisher gibt es das MagicScroll nur als Prototypen, mit dem jedoch bereits erste Tests zum Nutzerverhalten durchgeführt werden. Der Bildschirm selbst hat eine Größe von 7,5 ‘‘ und immerhin bereits einen 2k-Bildschirm . Die Forscher wollen weiter an den biegsamen Bildschirmen basteln und hoffen, ihn bald noch handlicher und in variablen Größen zu entwickeln. Dann könnte die Technik in absehbarer Zukunft auch im Alltag Verwendung finden. Unzählige Sci-Fi-Titel warteten schon mit der Idee auf, in der gesamten Umgebung interaktive Bildschirme zu haben, welche mit Gesten gesteuert werden können. Mit diesem Prototypen kommen wir dem ein bedeutendes Stück näher. Allerdings betonten die Forscher, dass dieses Produkt auch von den Nutzern angenommen werden müsste, damit es sich in der breiten Masse durchsetzt.


Image by human media lab

Weiterlesen »

Netzpiloten @DDV-Kongress

Alle diejenigen, die sich für Dialogmarketing interessieren, sollten sich den 26. September 2018 unbedingt freihalten. An diesem Tag findet an der FOM Hochschule für Oekonomie & Management in Hamburg der 13. wissenschaftliche interdisziplinäre Kongress für Dialogmarketing statt. Bereits seit 2006 bietet der wissenschaftliche Kongress des DDV spannende Einblicke in aktuelle Forschungsergebnisse zum Dialogmarketing. Auch in diesem Jahr wird es daher viele hilfreiche Antworten auf die Frage geben, welchen Nutzen Marketingverantwortliche aus diesen Erkenntnissen mit nach Hause nehmen können.

Eine Vielfalt an Themen

An diesem Tag wird es eine breite Palette voller spannender Themen geben, die von Wissenschaftler unterschiedlicher Disziplinen an alle Teilnehmer in angenehmer Atmosphäre weitergegeben werden. Erhaltet Einblicke in die aktuellen Forschungsthemen wie unter anderem:

  • Künstliche Intelligenz im Kundendialog
  • ROPO-Effekt bei Produkten der Unterhaltungselektronik
  • Connected Cars als Instrument des CRM
  • Dialog Excellence – Erfolgsbeitrag von Dialogmarketing für Unternehmen
  • Zur zielgrößenabhängigen Bestimmung der (Erfolgs-)Faktoren im Targeting

Ein Höhepunkt der Veranstaltung wird mit unter die Verleihung des Alfred Gerardi Gedächtnispreises sein, welcher an den Nachwuchs aus der Wissenschaft verliehen wird. Hier können sich Teilnehmer auf eine Kurzpräsentation der drei Preisträger freuen, bevor es dann in eine gemütliche Mittagspause übergeht.

Viele Möglichkeiten für die Teilnehmer

Neben den Vorträgen, bietet die Veranstaltung darüber hinaus einiges mehr. Nutzt die Chance euch untereinander und mit den Top-Referenten zu vernetzen. Knüpft Kontakte, sammelt Eindrücke und beteiligt euch an anregenden Diskussionen.

Wer Teil dieses Tages sein möchte, der kann sich hier schon einmal Anmelden und Tickets ergattern.

Weiterlesen »

Neue Provinz: Forschungsprojekt CoWorkLand

Tobias Kremkau

Warum Neue Provinz? Die erste Ausgabe der neuen Kolumne erklärt die Titelwahl.


Ich glaube fest daran, dass Coworking Spaces auch auf dem Land funktionieren können. Genau genommen weiß ich es sogar, denn ich habe solche Coworking Spaces schon besucht und inzwischen von noch mehr gehört und gelesen. Vor fast drei Jahren besuchte ich auf einer Reise durch Frankreich die ersten Coworking Spaces im ländlichen Raum. Schon damals berichtete ich über diese Beobachtung auf Netzpiloten, genau wie in der ersten Ausgabe dieser Kolumne über die Entwicklung des ländlichen Raumes hin zu einer Neuen Provinz.

Inzwischen sind auch in Deutschland Coworking Spaces im ländlichen Raum entstanden. Das wohl berühmteste ist vermutlich das „Coconat“ bei Bad Belzig. Doch inzwischen gibt es allein in Brandenburg mit dem „Alte Schule“ in Letschin, dem „Havelprater“ in Briest und „Dein Arbeitszimmer“ in Finsterwalde weitere besuchenswerte Beispiele. Diese Entwicklung ist bundesweit zu beobachten: vom „Alter Heuboden“ in Felde im hohen Norden bis hin zum „Denkerhaus“ am Ammersee in Bayern gibt es schon Coworking Spaces auf dem Land.

Das Geschäftsmodell eines Coworking Spaces halte ich aber, mit der Erfahrung aus dem St. Oberholz, nur für sehr schwer auf dem Land umzusetzen. Die oben genannten Beispiele sind entweder mit einem städtischen Coworking Space und damit einer Community verbunden, an ein anderes Geschäftsmodell angeschlossen, wie zum Beispiel einer Agentur, oder solidarisch als Genossenschaft organisiert, oder durch staatliche Fördergelder unterstützt. Coworking klappt auf dem Land, aber kann das auch ein Coworking Space?

HBS-Forschungsprojekt in Schleswig-Holstein: CoWorkLand

Heinrich-Böll-Stiftung Schleswig-Holstein
Heinrich-Böll-Stiftung Schleswig-Holstein

Die Heinrich-Böll-Stiftung Schleswig-Holstein hat dazu mit „CoWorkLand“ ein sehr spannendes Forschungsprojekt initiiert, das letzte Woche in Gettorf, einer Gemeinde mit rund 6.700 Menschen zwischen Kiel und Eckernförde, startete. Vom 18. Mai bis zum 10. Juni wird die Böll-Stiftung den mobilen CoWorkLand-Space hier aufstellen. Dieser aus detailliert umgebauten Container bestehende Space bietet im Inneren Platz für 6-8 Arbeitsplätze und noch einmal 4 Arbeitsplätze auf der Terrasse. Danach zieht der CoWorkLand-Space weiter.

Bis zum 2. November wird der CoWorkLand-Space an 8 weiteren Standorten zum Einsatz gekommen sein und das Coworking-Konzept an wechselnden Umgebungen getestet haben. Dadurch werden Menschen, nach dem Pendlerhafen Gettorf, auch am Becken des Kreishafen Rendsburg, am Strand Grönwohld, am Strand Brasilien und dem Kieler Waterkant-Festival arbeiten, sowie auch landeinwärts an abgelegeneren Orten wie Schloss Bredeneek, dem Resthof Papenwohld, dem Gut Panker und dem Resthof Großharrie.

coworkland_waterkant
Der Prototyp des CoWorkLand auf dem Waterkant 2017

Dadurch wird Coworking mit verschiedenen Thematiken wie Mobilität, Tourismus und Dritten Orten in einen Zusammenhang gebracht, der weit über die Klischees von im Berliner St. Oberholz am Rosenthaler Platz Kaffee trinkenden Startups hinausgeht. Es zeigt, dass ortsunabhängiges und selbstbestimmtes Arbeiten in Gemeinschaft ein stillbares Bedürfnis ist, das Menschen sowohl in der Stadt als auch auf dem Land teilen. Wie dies wirtschaftlich möglich ist und ob, wird uns das CoWorkLand-Projekt in den nächsten Monaten zeigen.

Wie kann Coworking auf dem Land klappen?

Heinrich-Böll-Stiftung Schleswig-Holstein
Heinrich-Böll-Stiftung Schleswig-Holstein

Das Forschungsprojekt „CoWorkLand“ der Heinrich-Böll-Stiftung Schleswig-Holstein kommt zu einer Zeit, in der das Thema Coworking, vor dem Kontext der Entwicklung des ländlichen Raumes, immer öfters diskutiert wird. Beinahe jeden Monat gibt es eine Konferenz oder Tagung dazu in Deutschland. Neben den bereits existierenden Coworking Spaces ist das Projekt hierzulande der erste von der Forschung begleitete Versuch, zu ergründen, wie Coworking Spaces auf dem Land funktionieren könnten. Und vor allem für wen.

Am 15. Juni wird es im Rahmen eines lokalen Startup-Festivals ein Rural Coworking Barcamp am Ammersee geben, zu dem u.a. praxiserfahrene Expert*innen wie Matthias Zeitler vom bulgarischen „Coworking Bansko“, Annika Sass vom „schreibtisch in prüm“ in der Eifel und Doris Schuppe vom „Rayaworx“ auf Mallorca zu Gast sein werden. Dies ist eine sehr gute Gelegenheit, sich dieses bisher kaum erforschte Thema im persönlichen Gespräch mit den Coworking-Pionieren in ländlichen Räumen einmal zu nähern.

Momentan ist viel in Bewegung. Die Politik fragt sich, wie können Orte im Rahmen der nationalen Entwicklungspolitik gefördert werden, Kommunen suchen neue Lösungen für leerstehende Gebäude und gegen die Landflucht der Jugend, während Unternehmen sich durch den Wandel der Arbeitswelt mit neuen Organisationsformen und Incentives für begehrte Talente auseinandersetzen. Zeitgleich passiert schon viel auf dem Land. Manchmal muss man sich nur aus der Stadt auf den Weg machen, beispielsweise in die Altmark.

Weiterlesen »

Warum ich meine Genomsequenz für die Öffentlichkeit gespendet habe

DNA (adapted) (Image by PublicDomainPictures [CC0 Public Domain] via Pixabay)

Vor ein paar Jahren habe ich mein komplettes Genom sequenzieren lassen – alle sechs Milliarden Basenpaare. Und anstatt es für mich selbst zu behalten, habe ich es als erster Mensch weltweit der Öffentlichkeit zugänglich gemacht, indem ich es dem Personal Genome Project UK, einer von Forschern geleiteten Organisation, gespendet habe. Da jeder auf die Daten zugreifen kann, kann die Öffentlichkeit – in Zusammenarbeit mit professionellen Wissenschaftlern – einen Beitrag zur Datenanalyse leisten.

Meine Spende habe ich unter dem umstrittenen Prinzip der freiwilligen Zustimmung gemacht. Vier andere Leute haben dies seitdem getan. Das bedeutet, dass wir damit einverstanden sind, dass unsere personenbezogenen Daten für jedermann frei zugänglich sind und keinen Anspruch auf Privatsphäre erheben. Das Projekt hört nicht bei der Verbreitung persönlicher Genomsequenzen auf, sondern geht weit darüber hinaus, indem es die Daten mit persönlichen Gesundheitsdaten, Informationen über Merkmale und die Umweltexposition des Einzelnen verknüpft. Gerade diese reichhaltige Informationsvielfalt macht die Initiative zum persönlichen Genomprojekt einzigartig und mächtig.

Daten aufdecken

Die menschliche Genomsequenz kann auch als der ultimative digitale Identifikator angesehen werden – wir alle haben eine einzigartige Sequenz. Derzeit werden die meisten Humangenom-Daten anonym gehalten, und es ist nicht generell möglich, diese Daten mit den persönlichen Daten der Versuchspersonen zu verknüpfen. Aber das reduziert die potenzielle Nutzbarkeit erheblich.

Je mehr Genome wir mit zusätzlichen Informationen verknüpfen können, desto näher rücken wir an die Aufdeckung der genauen Merkmale und Bedingungen heran, die mit welchen Genen verbunden sind. Wenn wir das wissen, werden die Behandlungsmöglichkeiten enorm sein. Es wird eine echte, personalisierte medizinische Behandlung ermöglichen, in der wir Krankheiten vorhersagen können und genau wissen, auf welche Behandlungsmöglichkeiten jeder einzelne Mensch anspricht. Da die wissenschaftliche und medizinische Forschung solche Entdeckungen immer wieder macht, können diese in Zukunft durch aktualisierte Genomberichte mit den Teilnehmern der Projekte geteilt werden.

Viele führende Wissenschaftler sind der Meinung, dass es äußerst schwierig ist, genomische Daten anonym zu halten. Obwohl es Versuche gibt, die Methoden zu verbessern, gab es Fälle in denen anonyme Probanden in Forschungsarbeiten leicht identifiziert werden konnten. Oft anhand von Informationen wie Alter, Geschlecht und Postleitzahl. Vielleicht müssen wir also die Vorstellung aufgeben, dass Daten für alle Ewigkeit vollkommen anonymisiert werden können.

Es gibt Großartiges über den Beitritt zum persönlichen Genomprojekt zu berichten. Man erhält Zugang zu einem Team führender Genforscher und Bioinformatiker und bekommt detaillierte Infos über sein persönliches Genom. Ich fand meinen persönlichen Genombericht sehr hilfreich. Es hat mögliche Gesundheitsrisiken aufgezeigt, von denen ich einige mit meinem Hausarzt besprochen habe.

Eine weitere, sehr nützliche Erkenntnis ist, dass ich mehrere DNA-Varianten habe, die mich daran hindern, viele verschiedene verschreibungspflichtige Medikamente in meinem Körper abzubauen oder zu transportieren. Infolge dessen weiß ich auch, welche Stoffe bei mir funktionieren. Tatsächlich könnte möglicherweise sogar eine bestimmte Art Droge für mich tödlich sein. Gut, dass ich das weiß.

Ich möchte die Menschen auf jeden Fall ermutigen, an dem Programm teilzunehmen. Sobald Hunderttausende oder gar Millionen von Teilnehmern an der Konferenz beteiligt sind, wird das Wissen, das wir über die Auswirkungen unserer Genome auf unsere Gesundheit, unsere Eigenschaften und unser Verhalten gewinnen, einzigartig sein. Obwohl wir nicht genau vorhersagen können, was wir lernen werden, ist es wahrscheinlich, dass wir Einblicke in psychische Gesundheitsbedingungen, den Medikamenten-Stoffwechsel, persönliche menschliche Ernährung, unsere Allergien und Autoimmunerkrankungen gewinnen werden. Wir erfahren mehr über unsere Lebenserwartung, Diabetes, Herz-Kreislauf-Gesundheit und mögliche Krebserkrankungen.

Ein schwieriges Thema

Aber ich bin mir auch bewusst, dass es nicht für jeden infrage käme, sein persönliches Genom sequenziert zu bekommen. Manche Leute wollen es einfach nicht wissen und spüren, dass die Information für sie eine Menge Ängste auslösen könnte. Niemand sollte sich gezwungen fühlen, sein Genom sequenzieren zu lassen.

Ich fand heraus, dass bei meiner Sequenzierung meines Genoms ein erhöhtes Risiko für eine seltene, unangenehme Krankheit festgestellt wurde und begann sofort, Symptome zu entwickeln. Als medizinische Tests schließlich aufdeckten, dass ich nicht die notwendigen Bedingung erfüllte, verschwanden die Symptome. Das zeigt, dass solche Informationen psychosomatische Symptome verursachen können.

Eine weitere Frage, über die sich mancher vielleicht den Kopf zerbricht, ist, wie die Daten von privaten Unternehmen, einschließlich Arbeitgeber oder Versicherungen, genutzt werden können. Obwohl die Forscher sich nicht mit Genen beschäftigt haben, die mit kriminellen Aktivitäten in Verbindung stehen, sind die Rohdaten für jedermann zur Analyse da. Zwar dürfen Versicherungsunternehmen derzeit noch keine Entscheidungen auf der Grundlage genomischer Daten treffen, einige könnten jedoch befürchten, dass sich dies in Zukunft ändern könnte.

Die Familie ist ein weiterer wichtiger Faktor. Schließlich teilen wir unsere Geninformationen mit unseren Eltern und Kindern – und vielleicht möchten wir das Thema vor der Bekanntgabe unseres Genoms mit ihnen besprechen. Eine andere Sache, die man bei der genomischen Prüfung bedenken sollte, ist, dass man unter Umständen herausfinden könnte, dass die eigenen Elternteile vielleicht nicht die sind, mit denen wir aufgewachsen sind. Dies geschieht in bis zu zehn Prozent der Fälle.

Ich verstehe sehr wohl, dass diese Dinge für bestimmte Menschen von Bedeutung sein können. Ich habe sie alle in Betracht gezogen, aber ich habe beschlossen, dass letztendlich eine Vorbereitung auf das Schlimmste die beste Vorbereitung ist. Wenn man weiß, dass man ein erhöhtes Risiko für eine bestimmte Krankheit aufweisen könnte, kann man frühzeitig handeln – zum Beispiel durch eine Ernährungsumstellung oder durch medizinische Spezialbehandlungen. Neben der Spende meiner Gendaten für das Gemeinwohl war dies wohl das Wichtigste für mich.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „DNA“ by PublicDomainPictures (CC0 Public Domain)


The Conversation

Weiterlesen »

Sind selbstfahrende Autos die Zukunft der Mobilität für Behinderte?

Rollstuhl (adapted) (Image by Pixabay) [CC0 Public Domain]

Selbstfahrende Autos könnten die Mobilität behinderter Menschen innerhalb und außerhalb ihrer Umgebung revolutionieren. Menschen, die nicht gut sehen können oder körperlich sowie geistig herausgefordert sind, so dass sie nicht sicher fahren können, sind oft auf andere Menschen sowie örtliche Behörden oder gemeinnützige Organisationen angewiesen. Sie helfen ihnen dabei sich fortzubewegen.

Die autonome Fahrzeugtechnologie allein reicht nicht aus, um diesen Menschen zu helfen unabhängiger zu werden. Jedoch können gleichzeitige Fortschritte beim maschinellen Lernen sowie der künstlichen Intelligenz dafür sorgen, dass die Fahrzeuge lernen Anweisungen zu verstehen. Zudem lernen sie auf die Umgebung zu achten und mit Menschen zu kommunizieren. Gemeinsam können diese Technologien eine unabhängige Mobilität mit praktischer Hilfe bieten. Diese können sich vor allem den Fähigkeiten und Bedürfnissen jedes einzelnen Nutzers anpassen.

Ein Großteil der benötigten Technik existiert bereits, zumindest in vorläufiger Form. Google hat einen Blinden gebeten, ihre autonomen Fahrzeuge zu testen. Microsoft hat zudem vor Kurzem die App „Seeing AI“ herausgebracht, die sehbehinderten Menschen dabei hilft, die Welt um sie herum besser wahrzunehmen und zu verstehen. „Seeing AI“ verwendet maschinelles Lernen, natürliche Sprachverarbeitung und eine maschinengesteuerte Visualisierung, um die Welt zu verstehen und sie für den Nutzer in Worte zu verfassen.

Im Labor, das ich zusammen mit dem Texas A & M Transportation Institute betreibe, entwickeln wir Protokolle und Algorithmen für Menschen mit und ohne Behinderungen und autonome Fahrzeuge, um miteinander in Worten, Geräuschen und mittels elektronischer Displays zu kommunizieren. Unser selbstfahrender Shuttlebus hat bereits 124 Teilnehmer transportiert und dabei insgesamt 60 Meilen zurückgelegt. Wir stellen fest, dass diese Art von Dienst hilfreicher ist als derzeitige Transportmöglichkeiten für behinderte Menschen.

Paratransit heute

Gemäß der Bestimmungen des American with Disabilities Act von 1990 müssen alle öffentlichen Verkehrsbetriebe Transportdienstleistungen für Personen mit körperlichen Behinderungen und visuellen oder geistigen Einschränkungen, die sie am Fahren hindern, anbieten. In den meisten Gemeinden wird diese Art des Transports „Paratransit“ genannt und entspricht dabei einem Taxi mit zusätzlicher Ausstattung, das von dem öffentlichen Nahverkehr betrieben wird. Die Kunden reservieren dabei im Voraus Fahrten zu Lebensmittelgeschäften oder zum Arzt. Die Fahrzeuge sind in der Regel rollstuhlgängig. Sie werden von ausgebildetem Personal gefahren, die dem Fahrgast beim Einstieg und bei der Platzsuche helfen. Zudem achten sie darauf, an der richtigen Haltestelle anzuhalten.

Genau wie Taxis können auch Paratransits kostspielig sein. Ein Bericht des US-Bundesrechnungshof aus dem Jahr 2012 bietet die einzige zuverlässige landesweite Schätzung. Diese Zahlen deuten darauf hin, dass pro Fahrt dabei das drei- bis vierfache im Vergleich zu Massenverkehrsmitteln bezahlt wird. Und die Kosten steigen, ebenso wie die Anzahl der Personen, die auf die Paratransits angewiesen sind. Gleichzeitig stagnierten Bundes-, Landes- und Kommunalfinanzierungen für Transitbehörden.

In einem Versuch, einen Teil der Nachfrage zu decken, haben viele Gemeinden die Gebiete, in denen der Paratransit verfügbar ist, reduziert und Menschen mit Behinderungen aufgefordert, den Nahverkehr zu nutzen, wenn dies möglich ist. Andere Orte haben mit Abruf-Mitfahrgelegenheiten wie Uber und Lyft experimentiert. In vielen Fällen sind die Fahrer jedoch nicht dafür ausgebildet, behinderten Menschen zu helfen. Außerdem sind die Fahrzeuge normalerweise nicht rollstuhlgängig oder für bestimmte Fahrgäste geeignet.

Eine mögliche Lösung

Selbstfahrende Shuttles, wie wir sie auf dem Texas A & M-Campus testen, können eine Lösung für die Probleme den Zugang und die Finanzierung betreffend, sein. Wir stellen uns ein voll integriertes System vor, in dem sich Benutzer mit dem Versand-System verbinden. Sie erstellen Profile. Diese können die Informationen über ihre Behinderungen und Kommunikationspräferenzen sowie spezielle Reiseziele (wie eine Hausanschrift oder eine Arztpraxis) enthalten.

Immer, wenn die Person einen Shuttle anfordert, würde das System ein Fahrzeug schicken, das eine bestimmte Ausrüstung hat, die der Fahrer benötigt, wie eine Rollstuhlrampe oder ein zusätzlicher Bereich, um beispielsweise die Mitreise eines Servicehunds zu ermöglichen. Wenn der Shuttle ankommt, um die Person abzuholen, könnte er den Bereich mittels Laser, Kameras und Radar scannen, um eine 3-D-Karte des Bereichs zu erstellen und diese Daten mit Verkehr und geografischen Informationen aus verschiedenen Online-Quellen wie Google Maps und Waze zusammenzuführen.

Basierend auf all diesen Daten würde der Shuttle einen geeigneten Einstiegsplatz bestimmen und Haltebuchten, an denen die Rollstühle und Fußgänger einfach passieren können. Außerdem würde es potenzielle Hindernisse wie Mülleimer erkennen. Das Fahrzeug könnte sogar eine Nachricht an das eigene Smartphone senden, um anzuzeigen, wo man für den Einstieg warten soll. Zudem kann auch eine Gesichtserkennungs-Software eingesetzt werden, um der richtigen Person den Zutritt zu gewähren.

Während des Einstiegs, während der Fahrt und wenn der Fahrer das Ziel erreicht hat, könnte das Fahrzeug alle relevanten Informationen – wie etwa die geschätzte Ankunftszeit oder Details über Umwege zur Verfügung stellen. Dies würde bei Bedarf per Interaktion mit dem Fahrtgast geschehen. Entweder würde das System auf Fragen antworten oder die Informationen per Text auf dem Display anzeigen sowie auf Eingaben reagieren. Dadurch könnte der Fahrgast mit dem Shuttle unabhängig seiner Fähigkeiten und Einschränkungen kommunizieren.

Die richtigen Algorithmen zum menschlichen Verhalten

In unserem Labor untersuchen wir verschiedene Elemente von Fahrerassistenzsystemen, einschließlich automatisierter Rollstuhlrampen und verbesserter Sitzmöglichkeiten für mehrere Fahrgäste mit Rollstuhl. Wir untersuchen auch Elemente, die die Sicherheit sowie das Vertrauen der Fahrgäste in die Fahrzeuge erhöhen können. Zum Beispiel entwickeln wir derzeit Algorithmen zum maschinellen Lernen, die sich wie gute menschliche Fahrer verhalten und die Reaktion von Menschen auf unvorhergesehene Umstände nachstellen.

Selbstfahrende Autos bieten grundlegend neue Möglichkeiten, um über Transport und Zugänglichkeit nachzudenken. Sie haben das Potenzial, das Leben von Nachbarschaften und den einzelnen Menschen zu verändern – einschließlich Menschen, die behindert sind und oft buchstäblich und im übertragenen Sinne zurückbleiben. Mit der richtigen Planung und Forschung können selbstfahrende Autos noch mehr Menschen in ihrem Leben wesentlich unabhängiger machen.

Dieser Artikel erschien zuerst auf The Conversation unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „Rollstuhl“ by Pixabay (CC0 Public Domain)


The Conversation

Weiterlesen »

FollowUs – Die Netzpiloten-Tipps aus Blogs & Mags

Follow me
  • INTERNET Täglich zweieinhalb Stunden Internet: Internetnutzer in Deutschland verbringen durchschnittlich zweieinhalb Stunden pro Tag mit dem Medium. Zu diesem Schluss kommt eine Onlinestudie von ARD und ZDF (PDF). Dabei bestehen Unterschiede zwischen den Geschlechtern und Altersgruppen. Männer nutzen das Internet der Studie zufolge im Durchschnitt drei Stunden am Tag, Frauen etwa zwei Stunden. Bei den 14- bis 29-Jährigen sind es viereinhalb Stunden. Die über 70-Jährigen verbringen durchschnittlich immerhin noch eine halbe Stunde pro Tag im Internet. Die Daten geben auch Aufschluss darüber, wie die Zeit zugebracht wird. Demnach wird täglich im Durchschnitt etwa eine Dreiviertelstunde für die Mediennutzung aufgewendet. Rund eine Stunde entfällt auf die persönliche Kommunikation. Noch etwas mehr Raum nimmt zeitlich aber die „sonstige Internetnutzung“ ein, die laut Studie etwa Spielen und Onlineeinkäufe beinhaltet.

  • FORSCHUNG Die Haut als Sensor: Mäuse-Hautzellen zeigen Glukose-Spiegel: Forscher um Xiaoyang Wu an der University of Chicago haben Hautzellen von Mäusen genetisch so verändert, dass sie mit optischen Signalen auf Glukose reagieren, und sie wieder auf die Tiere transplantiert. Dadurch ließ sich mit einem Mikroskop genau feststellen, wie hoch der Glukose-Spiegel in ihrem Blut ist. Das Konzept könnte eine nicht-invasive Hilfe für Diabetiker sein. Laut Wu wäre sogar denkbar, die genetisch veränderten Zellen auch gleich die benötigten Medikamente produzieren zu lassen. Das berichtet Technology Review online in „Die Haut als Sensor“. Für ihre biologische Erfindung entnahmen Wu und sein Team den Mäusen zunächst Stammzellen, die für die Herstellung neuer Haut zuständig sind. Als Nächstes fügten sie in diese Zellen mit Hilfe der Gen-Editiermethode CRISPR ein Gen von E. Coli-Bakterien ein, dessen Produkt ein Protein ist, das an Zucker-Molekülen haften bleibt. Hinzu kam DNA, die zwei fluoreszierende Moleküle produziert. Wenn das E. Coli-Protein an Zucker haftet und seine Form verändert, werden die fluoreszierenden Moleküle näher zusammen gebracht oder weiter voneinander entfernt. Dadurch entsteht ein Signal, das Wus Team unter dem Mikroskop beobachten konnte.

  • PORNHUB golem: Machine-Learning-System ordnet Videos Pornodarstellern zu: Von Pornos lernen, heißt siegen lernen. Oder so ähnlich. Die Onlineplattform für pornografische Inhalte Pornhub will einen Machine-Learning-Algorithmus zur Katalogisierung seiner Videodatenbank verwenden. Die erste Betaversion ist bereits im Einsatz. Es sollen mehr als 10.000 Pornostars automatisch erkannt werden. Das System soll parallel zu bereits vorhandenen Mechanismen wie dem Taggen der Videos durch die Community laufen. Für die Bilderkennung von Darstellern nutzt Pornhub sowohl offizielle Referenzbilder als auch Videomaterial und trainiert anhand dieser Daten ein Machine-Learning-Modell. Dieses läuft dann über die gesamte Online-Datenbank und taggt Pornodarsteller nach ihrem Namen beziehungsweise Künstlernamen. Nutzer sollen die vergebenen Tags positiv oder negativ bewerten können. Dadurch erkennt das Modell dessen Korrektheit und stellt sich entsprechend darauf ein.

Weiterlesen »

Algorithmen und Journalisten: Zusammenarbeit ist Pflicht

Apple (adapted) (Image by Pexels [CC0 Public Domain] via Pixabay)

Seit die Nachrichten- und Presseagentur Associated Press die Produktion und Publikation von Quartalsberichten im Jahr 2014 automatisiert hat, haben Algorithmen, die automatisch Berichte aus strukturierten, maschinenlesbaren Daten generieren, die Nachrichtenindustrie aufgerüttelt. Die Versprechen dieser Technologie – die oft auch als automatisierter Journalismus bezeichnet wird – sind verlockend: Einmal entwickelt, können solche Algorithmen eine unbegrenzte Anzahl an Berichten zu einem spezifischen Thema und zu geringen Kosten hervorbringen. Und sie schaffen dies schneller, günstiger, mit weniger Fehlern und in mehr Sprachen als es menschliche Journalisten je tun könnten.

Diese Technik bietet die Möglichkeit, mit der Erstellung von Inhalten für sehr kleine Zielgruppen Geld zu verdienen – und vielleicht sogar mit personalisierten Newsfeeds für nur eine Person. Und wenn dies gut funktioniert, nehmen die Leser die Qualität der automatischen News als gleichwertig mit den von Journalisten erstellten Nachrichten wahr.

Als Forscher und Erzeuger von automatisiertem Journalismus habe ich herausgefunden, dass computergestützte Nachrichtenberichterstattung einige wesentliche Stärken zu bieten hat. Ich habe allerdings auch deutliche Schwächen identifiziert, die die Wichtigkeit von Menschen im Journalismus hervorheben.

Die Möglichkeiten der Automatisierung identifizieren

Im Januar 2016 habe ich das „Handbuch zum automatisierten Journalismus“ veröffentlicht, das den Stand der Technik zu dieser Zeit untersuchte. Darin wurden auch Schlüsselfragen für die zukünftige Forschung aufgestellt und potentielle Implikationen für Journalisten, Nachrichtenkonsumenten, Medienkanäle und die Gesellschaft im Ganzen diskutiert. Ich kam zu dem Ergebnis, dass der automatisierte Journalismus sich trotz seines Potentials noch in den Kinderschuhen befindet.

Zum jetzigen Zeitpunkt versorgen Systeme des automatisierten Journalismus vor allem spezielle Zielgruppen unterschiedlicher Größe mit sehr spezifischen Informationen, indem sie beispielsweise Zusammenfassungen von Sportveranstaltungen in unteren Ligen, Finanznachrichten, Kriminalitätsberichte oder Erdbebenwarnungen bereitstellen. Die Technologie ist auf diese Aufgabentypen beschränkt, weil die Informationsarten, die die Systeme aufnehmen und in Texte verwandeln können, die dann für Menschen tatsächlich lesbar und verständlich sind, begrenzt sind.

Am besten funktioniert die Verarbeitung von Daten, die genauso akkurat strukturiert sind wie Aktienkurse. Hinzu kommt, dass Algorithmen nur beschreiben können, was passiert ist – und nicht warum, weswegen sie am besten geeignet sind für routinebasierte Berichte, die auf Fakten beruhen, und entsprechend wenig Spielraum für Unsicherheiten oder Interpretationen bieten, wie beispielsweise Informationen darüber, wo und wann sich ein Erdbeben ereignet hat. Der entscheidende Vorteil von computergestützter Berichterstattung ist, dass sie wiederholte Abläufe schnell und einfach erledigen kann. Daher wird sie am besten eingesetzt, um sich wiederholende Ereignisse abzudecken, für die es erforderlich ist, immer wieder eine hohe Anzahl an ähnlichen Berichten zu produzieren. Dies gilt beispielsweise für Sportveranstaltungen.

Wahlberichterstattung

Ein anderer sinnvoller Bereich für automatisierte Nachrichtenberichterstattung sind Wahlen – im Speziellen im Hinblick auf Ergebnisse der zahlreichen Umfragen, die während der Hauptwahlkampfzeit fast täglich herausgegeben werden. Ende 2016 tat ich mich mit Kollegen aus der Forschung und dem deutschen Unternehmen AX Semantics zusammen, um auf der Grundlage von Prognosen für die US-amerikanische Präsidentschaftswahl in diesem Jahr eine automatisierte Nachrichtenberichterstattung zu entwickeln.

Die Prognosedaten wurden vom PollyVote-Forschungsprojekt bereitgestellt, das ebenfalls die Plattform für die Publikation der produzierten Texte darstellte. Wir etablierten einen vollständig automatisierten Prozess, vom Sammeln und Zusammenführen der Prognosedaten über den Austausch der Daten mit AX Semantics bis hin zur Texterstellung und Publikation dieser Texte.

Im Laufe der Wahlsaison veröffentlichten wir fast 22.000 automatisierte Nachrichtenberichte in englischer und deutscher Sprache. Da diese einem vollautomatisierten Prozess entstammten, gab es in den finalen Texten oft Tippfehler oder fehlende Worte. Wir mussten außerdem deutlich mehr Zeit als angenommen für die Fehlerbehebung aufwenden. Die meisten Schwierigkeiten entstanden auf Grundlage von Fehlern in den Quelldaten. Sie waren also nicht durch den Algorithmus begründet – was eine weitere, wesentliche Herausforderung für den automatisierten Journalismus unterstreicht.

Die Grenzen identifizieren

Der Entwicklungsprozess unserer eigenen textgenerierenden Algorithmen hat uns aus erster Hand die Potentiale und Grenzen von automatisiertem Journalismus aufgezeigt. Es ist unerlässlich, sicherzustellen, dass die Daten so akkurat wie möglich sind. Es ist einfach einen Prozess zu automatisieren, der aus einer singulären Sammlung von Daten einen Text erzeugt, wie beispielsweise die Ergebnisse einer einzigen Umfrage. Aber Einblicke zu liefern, wie zum Beispiel eine Umfrage mit Ergebnissen einer anderen Umfrage zu vergleichen, ist deutlich schwerer.

Die vielleicht wichtigste Lektion, die wir gelernt haben, war, wie schnell wir die Grenzen der Automatisierung erreicht hatten. Als wir die Regeln entwickelten, aufgrund derer der Algorithmus Daten in Text verwandeln sollte, mussten wir Entscheidungen treffen, die auf den ersten Blick einfach erscheinen mögen – zum Beispiel, ob die Strategie eines Kandidaten als „groß“ oder „klein“ beschrieben werden soll, und welche Signale nahelegen, dass ein Kandidat in einer Umfrage an Boden gewinnt.

Die Arten der subjektiven Entscheidungen waren sehr schwierig in vordefinierte Regeln umzuformulieren, die auf alle Situationen, die in der Vergangenheit aufgetreten waren, anwendbar sein sollten – geschweige denn auf Situationen in der Zukunft. Ein Grund ist, dass der Kontext relevant ist: Ein Vier-Punkte-Vorsprung für Clinton im Vorfeld der Wahl beispielsweise war normal, während eine Vier-Punkte-Führung für Trump eine große Nachricht gewesen wäre. Die Fähigkeit, diesen Unterschied zu verstehen und die Zahlen entsprechend für die Leser zu interpretieren, ist unabdingbar. Es bleibt eine Hürde, die Algorithmen nur schwer überwinden können.

Hingegen werden es menschliche Journalisten schwer haben, die Automatisierung zu übertreffen, wenn es um wiederholte und routinebasierte Nachrichten geht, die auf Fakten beruhen, die lediglich einer Überführung der rohen Daten ins Schriftliche bedürfen, so wie Sportveranstaltungen oder die Quartalsberichte eines Unternehmens. Algorithmen werden schneller Anomalien in den Daten feststellen und zumindest erste Entwürfe für viele Berichte generieren können.

Doch für die Menschen ist nicht alles verloren. Journalisten haben eine Menge Möglichkeiten, Aufgaben zu übernehmen, die Algorithmen nicht bearbeiten können, wie beispielsweise die Zahlen im Kontext zu betrachten – sowie die Bereitstellung detaillierter Analysen, Hintergrundberichte und Interviews mit wichtigen Persönlichkeiten. Diese zwei Typen der Berichterstattung werden zukünftig wahrscheinlich eng integriert sein – mit den Computern, die ihre Stärken nutzen, und uns Menschen, die wir uns auf unsere Stärken konzentrieren.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „Apple“ by Pexels (CC0 Public Domain)


The Conversation

Weiterlesen »

Check-Up Ireland: Irland forscht

Microskop (adapted) (Image by PublicDomainPictures[CC0] via pixabay)

Seit 1997 lebe ich nun schon in der irischen Hauptstadt Dublin. Mein erster Job bei AOL hatte auch ein wenig mit Tech zu tun – wenn man die berüchtigten Freistunden-CDs als „Tech“ ansieht oder das Verbinden an die technische Hotline durchgehen lässt. Im November habe ich damit begonnen, die „Tech-Insel“ ein Jahr lang aus verschiedenen Blickwinkeln zu betrachten. Mein Blick nach vorn was die Förderung von Forschung anbetrifft geht hier in gleich vier Richtungen.

114 Millionen Euro, 650 Forscher und 80 Projekte in gleich 4 neuen Forschungszentren – beeindruckende Zahlen, die gerade die Science Foundation Ireland bei der Vorstellung eben jener vier neuen Forschungszentren genannt hat. Das Geld kommt sowohl vom Staat als auch von der Industrie. Die € 114 Millionen sollen helfen, so Ministerpräsident Leo Varadkar, sich die Welt der Zukunft vorzustellen.

Der ambitionierte Plan, den der junge Politiker vorstellte, dem man eher abnimmt, dass ihn neue Ideen faszinieren, sieht vor, dass irische und internationale Forscher in Kollaboration mit Privatfirmen helfen, hochkarätige Jobs und stetes Wachstum zu generieren.

Die Forschungszentren werden Universitäten angegliedert sein und die 650 Forscher werden in den nächsten 6 Jahren an über 80 Projekten arbeiten. Was die Fördergelder anbetrifft, die über die 6 Jahre Laufzeit des ambitionierten Plans zur Verfügung stehen, so kommen diese sowohl von der Industrie (€ 40 Millionen) als auch vom Wirtschaftsministerium (€ 74 Millionen). Die SFI-Zentren repräsentieren laut Leo Varadkar ein bemerkenswertes Dreieck aus Regierung, Industrie und Höherer Bildung: „Die Zentren beweisen, was alles möglich ist, wenn es eine gemeinsame Vision über die Art von Ambition gibt, die wir realisieren können.“

    Die vier neuen Forschungszentren sind:

  • CONFIRM – UL (University of Limerick) – hat das Ziel, die irische Industrie zu transformieren. Irland soll zu einer der führenden Nationen im Bereich „Smart Manufacturing“ (inklusive Robotics) werden. Schon jetzt generiert der Sektor 110 Milliarden Euro an Exporten, aber AI & stets verbesserte IT-Lösungen sollen helfen, dass die Industrie noch „smarter“ wird und für stetes Wachstum gesorgt ist.

  • BEACON – UCD (University College Dublin) – das Bioeconomy Research Centre reagiert auf schwindende fossile Energiequellen mit der Entwicklung von alternativen Technologien, die auf biologisch-wiederverwertbaren Resourcen basieren. Hier kommen Irland die Massen von (glücklichen) Kühen zugute, deren reine, weisse „Ausscheidungen“ zu Butter verarbeitet nach Deutschland oder zu Milchpulver verarbeitet nach China exportiert werden. Was die „anderen“ Ausscheidungen und Abgase anbetrifft, die Irland zurecht Sorgen bereiten, was die Klimaziele des Landes anbetrifft, so kann jetzt damit begonnen werden, in der Herausforderung auch Chancen zu sehen.

  • I-FORM – ebenfalls UCD – wird im Industriesektor vor allem im Bereich 3D-Druck aktiv sein und Firmen mit maßgeschneiderten Komponenten unterstützen.

  • FutureNeuro – RCSI (Royal College of Surgeons Dublin) – wird sich schwerpunktmässig mit der sozio-ökonomischen Belastung durch neurologische Erkrankungen beschäftigen, mit denen in Irland 700,000 Menschen zu leben haben. Ganz abgesehen von der Last an Schmerzen, die die Erkrankungen mit sich bringen, werden die Kosten (Gesundheits- & Wirtschafts-Kosten) jährlich auf 3 Milliarden Euro beziffert.

Die vier Forschungszentren werden zudem mit zahlreichen Partnern in den Bereichen Höhere Bildung (vor allem die ITs = Institutes of Technology = Fachhochschulen) und Krankenhäuser (Beaumont Hospital, Mater Hospital, Temple Street Childrens Hospital) kollaborieren. Sie sind somit eine willkommene Erweiterung zu den bereits bestehenden, Dutzenden von Forschungszentren, die landesweit 4.200 Forscher unterstützen. Eine Investition, die laut Frances Fitzgerald, der Ministerin für Wirtschaft, Jobs und Innovation, ein höchst wichtiger Teil der langfristigen Planung der Regierung bis 2020 darstellt. „Die vier neuen Zentren werden ihren wichtigen Platz neben ihren Schwester-Institutionen einnehmen und unserem Land in Zukunft zahlreiche Jobs, enorme wirtschaftliche Vorteile und auch kaum messbare, aber dennoch wichtige soziale Vorteile bringen“, so die Ministerin.

Die 114 Millionen Euro seien gut angelegt, ergänzte am Schluss noch ihr Stellvertreter Staatsminister John Halligan. Der internationale Wettbewerb um innovative Unternehmen und um die besten Wissenschaftler werde immer härter – man müsse sich nur die jüngsten Entwicklungen in den USA anschauen, wo Trump mit der Karotte niedrigerer Steuern wedelt, und über die irische See und vor allem hoch nach Nordirland blicken, wo das Vereinigte Königreich mit dem Knüppel rumfuchtelt – BANG! BREXIT!


Image (adapted) „Microscop“ by PublicDomainPictures (CC0 Public Domain)


Weiterlesen »

Die Netzpiloten sind Partner der OMK 2017

Partnergrafik_OMK

Es ist bereits das sechste Mal, dass die Online-Agentur web-netz und die Leuphana Universität die „OMK 2017 – Online Marketing Konferenz Lüneburg“ veranstalten. Hier dreht sich alles um das Thema Online-Marketing mit spannenden Speakern aus der Wirtschaft und Wissenschaft, die ihre Erfahrungen mit rund 600 Besuchern teilen.

Am 28. September könnt ihr auf dem Leuphana Campus in Lüneburg mit Referenten wie unter anderem Marcell Jansen – Ex Nationalspieler – oder Luana Theodoro da Silva – Instagram Star und Influencer – über die neuen Herausforderungen des Online-Marketings diskutieren und spannende Einblicke im Bereich E-Commerce sammeln. Den ganzen Tag über erhaltet ihr bei einem vielfältigen Programm anregende 30-Minuten Slots von über 20 Speakern. Dabei dreht sich alles um die aktuellen Trends im Online-Marketing. Erhaltet aufschlussreiche Forschungsergebnisse und wertvolle Insights von großen Unternehmen wie beispielsweise Xing AG, Google, Tom Tailor oder Facebook.

Das Ganze wird untermauert mit einem gemütlichen Warm-up am Abend vor der Konferenz im Old Dubliner Irish Pub, Foodtrucks – die den Tag über für die Verpflegung sorgen – und einer After-Show Party.

Die OMK in Lüneburg ist eine Non-Profit-Veranstaltung, bei der der Erlös des Events in ein Forschungsprojekt der Leuphana Universität fließt.

Wer Teil dieser spannenden Konferenz sein möchte, der sollte sich schnellstens Tickets sichern!

Weiterlesen »

Die Herausforderungen einer effektiven Führungskraft

Führungskraft (adapted) (Image by Rawpixel) (CC0 Public Domain) via pixabay

Weil die Menschen mehr denn je auf ihre Entscheidungsträger im sozialen, politischen und organisatorischen Bereich schauen, steht eine ordentliche Führungskraft wie nie zuvor im Mittelpunkt. Statt zu helfen, erscheinen Entscheidungsträger allerdings oft als ein Teil des Problems. Wenn es um Politiker geht, wird den Anführern von politischen Parteien oft die Schuld zugesprochen, weil sie daran gescheitert sind, ihren Wählern eine klare Vision zu bieten und für ihre eigenen moralischen Fehler oder ihrer Unfähigkeit, Wahlversprechen einzuhalten, einzustehen.

Theresa May, die britische Premierministerin, wurde weitestgehend für das schlechte Abschneiden der konservativen Partei bei den Parlamentswahlen des Landes im Jahr 2017 verantwortlich gemacht. Ihr roboterhaft herübergebrachtes Motto, dass man „stark und stabil“ bleiben müsse, erhielt viel Kritik.

Währenddessen scheint ein nie endender Nachrichtenfluss die vermeintlichen Lügen des US-Präsidenten Donald Trump aufzudecken und darüber hinaus seine Geeignetheit für das Amt in Frage zu stellen. Andererseits scheint es einen steigenden Trend unter den Politikern auf der ganzen Welt zu geben, Gesetzesvorschläge aufgrund moralischer anstatt ökonomischer Standpunkte zu unterstützen oder sie abzulehnen.

In organisatorischer Hinsicht kriegen wir oft zu hören, dass sich das Vertrauen in Führungskräfte im Zuge der Finanzkrise, einer Reihe von Unternehmensskandalen sowie den fortwährenden Herausforderungen eines Mitarbeiters, eine „gute Arbeitsstelle“ zu sichern, auf einem Rekordtief befindet. Auch wenn man die aufsehenerregendsten Versagensfälle nicht übersehen kann, ist Führung nicht bloß ein Prozess, der sich auf der höchsten Stufe der Hierarchie abspielt. Wenn wir etwas über Führung, und wie sie in einem organisatorischem Umfeld funktioniert, erfahren wollen, müssen wir uns ebenso anschauen, wie Führungsverhalten und Einstellungen innerhalb der gesamten Organisation verbreitet werden.

Was die Forschung sagt

In unserer Forschung machen wir es uns zum Ziel, herauszufinden, was eine effektive Führungskraft ausmacht. Wir waren besonders interessiert an „zielgerichteter Führung“, weil ein rücksichtsvoller und zielgerichteter Ansatz oft als ein Gegenmittel für erzielte Misserfolge, herbeigeführt von einem rücksichtslosen Fokus auf kurzfristige finanzielle Erfordernisse, bejubelt wurde.

Zielgerichtete Führungskräfte sind Personen mit einer starken Überzeugung ihres persönlichen moralischen Kompasses, einer überzeugenden Vision für ihr Team und einer Berücksichtigung der Bedürfnisse des breiten Spektrums an Bedürfnissen der Stakeholder, wenn es um die Entscheidungsfindung geht. Es gibt viele weitere Führungstypen wie beispielsweise die charismatische Führungskraft, die auf die Stärke der Persönlichkeit und auf eine Vision vertraut, um die Leistungsfähigkeit ihrer Anhänger zu fördern. Dennoch kann die charismatische Führung, wie auch andere Führungsformen, eine dunkle Seite haben, die die Anhänger auf den falschen Pfad führen kann.

Zielgerichtete Führungspersonen sind jedoch vergleichsweise selten. Als wir eine Auswahl verschiedener Manager im Vereinigten Königreich befragten, bewerteten sich lediglich 21 Prozent als sehr zielgerichtet. Als wir diese Zahl noch weiter herunterbrachen fanden wir heraus, dass 35 Prozent aller Anführer aussagten, dass sie eine starke Vision für ihr Team haben und sich einem breiten Spektrum von Stakeholdern gegenüber verpflichtet fühlen. Nur acht Prozent sagten aus, dass sie einen starken moralischen Kompass besitzen. Als wir die Mitarbeiter fragten, sagten 40 Prozent aus, dass ihr Manager sich ethisch korrekt verhält.

Dies ist wichtig, weil die Befragung herausfand, dass zielgerichtete Führungskräfte von ihren Anhängern als moralisch vorbildlich angesehen werden. Dadurch sind die Mitarbeiter zufriedener, leisten mehr, kündigen nicht so schnell und sind eher zu Mehrarbeit bereit.

Zielgerichtete Anführer entstehen aber nicht im luftleeren Raum; einige Organisationen sind geeigneter als andere, wenn es darum geht, ein Arbeitsumfeld zu entwickeln, in der eine Führungskraft sich zielgerichtet verhalten kann. Als wir uns sowohl öffentliche, private und gemeinnützige Sektoren in Fallstudien angeschaut haben, tauchten hier einige interessante Abweichungen auf.

In Organisationen, bei denen die oberste Führung ein positives Beispiel darstellte, war die umfassende Verbreitung zielgerichteter Führung innerhalb der Organisation wahrscheinlicher. Eine Person, mit der wir in einem Handelsunternehmen sprachen, erläuterte: „Unser Vorstandsvorsitzender ist sehr, sehr visionär und absolut jeder hat die Vision geglaubt, die er wegen der Umwandlung des Unternehmens kommen sah. Ich glaube, dass es einen hohen Bewusstseinsgrad auf allen Mitarbeiterebenen gibt.“

Genauso wichtig ist eine starke Sammlung authentischer Unternehmenswerte. Bei einer Stiftung wussten und teilten die Leute dieselben Werte und ethischen Überzeugungen, was sie dazu ermutigt, sich übermäßigen Forderungen entgegenzustellen. Wir fanden auch heraus, dass klare und bekannte Richtlinien zum Whistleblowing viele Menschen von einer Organisation überzeugt hatte, die die Fragen der Ethik ernst nimmt. Auch wenn nicht alle Leute sich mit der spezifischen, religiösen Tradition der Stiftung identifizierten, waren sie dennoch begeistert vom ethischen Kodex, der von der Führungskraft vorgegeben wird.

Befreie deine Leute

Was sich aus der Studie ebenso ergab, war der schädigende Effekt, der die verborgene Arbeit in einer eingeengten Umwelt aufweist. Wo immer den Menschen entweder die Zeit oder die Ressourcen fehlten, war das erste Opfer meistens die Fokussierung auf Zielgerichtetheit und die ethischen Fragen. Wie es ein Anführer der Abteilung der Zentralregierung sagte: „Wenn Du sehr sehr hart arbeitest und die Dinge stressig werden, konzentrierst Du Dich auf die Aufgabe anstelle der Person.“

Eine andere Einschränkung von Organisationen ist die Schwierigkeit und Einbettung einer einzigen, klaren und konsequenten Vision, speziell in großen diversen Organisationen, die bereits eine Reihe von Neuorganisationen, Zusammenschlüssen und Übernahmen durchgemacht haben. Dies wurde von einem Teilnehmer zusammengefasst, der kommentierte, dass seine Organisation „eine Unmenge an Visionen hat“, die die Mitarbeiter verwirrte und im unklaren darüber ließ, wo die Prioritäten liegen.

Es gibt eine Reihe an Möglichkeiten für Führungskräfte, um zu zeigen, dass sie „zielgerichtet führen“. Die erste ist es, sicherzustellen, dass man weiß, wie die Vision der Organisation aussieht. Wer sich in einer leitenden Funktion befindet, sollte eine eine bedeutungsvolle und weit verbreitete Vision erarbeitet haben. Jede Führungskraft wird dann darüber nachdenken müssen, wie diese Vision für sein Team relevant werden kann. Regelmäßige Diskussionen über Visionen und Werte sind wichtig, damit die Menschen sehen, wir ihre Arbeit der Organisation nutzt und welchen Beitrag sie leistet.

Zweitens sollten sich Anführer Gedanken über ihren persönlichen moralischen Kodex machen: Welches sind die Kernwerte, die für Dich selber als Individuum am meisten zählen? Die Leute lassen ihre Werte nicht an der Eingangstür zurück, wenn sie ihre Arbeitsstelle betreten, also sollte man darüber nachdenken, wie die Werte in die eigene Arbeit integriert werden können. Schlussendlich sollte man sich im Entscheidungsfindungsprozess nicht auf kurzfristige Leistungsergebnisse konzentrieren, sondern ebenso darüber nachdenken, wie die verschiedenen Stakeholder davon beeinträchtigt werden.

Angesichts des momentan vorherrschenden Arbeitsklimas und der langen Zeit der Instabilität und Veränderung im Vereinigten Königreich während der Vorbereitungen auf den Brexit ist es wahrscheinlich, dass diese Belastungen nur größer werden. Dies wird Führungskräfte aus allen Bereichen vor weitere Herausforderungen stellen, „zielgerichtet“ zu handeln, obwohl die Notwendigkeit dieses Handelns noch nie wichtiger war.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „Teamwork“ by rawpixel (CC0 Public Domain)


 

Weiterlesen »

Die Netzpiloten sind Partner der DCX Digital Content Expo

Partnergrafik_DCX

In Berlin trifft die internationale Nachrichtenbranche aufeinander und ihr könnt dabei sein! Wir verlosen unter unseren Lesern fünf 3-Tages-Tickets für die Digital Content Expo . Um dabei zu sein könnt ihr hier an unserer Verlosung teilnehmen. Zeit dafür habt ihr bis zum 25. September. Wir wünschen euch viel Erfolg!

Teilnahmebedingungen


Vom 10 – 12. Oktober trifft sich die weltweite Nachrichtenbranche zur DCX Digital Content und IFRA World Publishing Expo auf dem Messegelände Berlin. Dieses Jahr werden neben den Verlegern der Zeitungsbranche auch Unternehmen angesprochen. Hauptthema wird dieses Mal die Frage, wie digitale Tools und Geschäftsmodelle für Nachrichtenmedien weiterhin Qualität garantieren und finanzieren können. Neben den messebegleitenden Konferenzen „Digital Media World“ und „Print World“ sind 150 Aussteller vor Ort und präsentieren ihre Produkte. Besucher erwartet ein vielseitiges Proramm mit Diskussionen und Vorträgen zu Best Practice, Trendreports und neuste Forschungen.

Hochkarätiges Programm aus aller Welt

Qualitätsjournalismus aus aller Welt erlebt momentan in der digitalen Welt viele Herausforderungen durch andauernde Veränderung. Deswegen wurden Internationale Medienvertreter eingeladen, die ihre Strategien und Perspektiven in verschiedenen Formaten präsentieren werden. Mit dabei sind unter anderem:

  • Michael Golden, der stellvertretender Vorsitzende der New York Times, wird die Eröffnungskeynote halten über anstehenden Aufgaben der Nachrichtenmedien in Zeiten des Internets.
  • Mathhias Döpfner, CEO der Axel Springer SE, über die wichtige Rolle der Medien in einer Demokratie
  • Rajiv C. Lochan, CEO von Kasturi & Sons Ltd., die mit The Hindu eine der größten englischsprachigen Tageszeitungen Indiens herausgeben, über Leserzentrierte Inhalte und aus der perspektive eines wachsenden Marktes.

Außerdem sind in diesem Jahr zwei „Content Stages“ neu in die Konferenz eingebunden, unter anderem mit Präsentationen von Michael Jaschke, Managing Director von ProSiebenSat.1 Digital, warum Video aus seiner Sicht das Medium der Zukunft ist. Auch die Debatte um den richtigen Umgang mit Fake News bleibt nicht aus. Zeitlich befristetes Problem oder Dauerkrise? Darüber referiert der russisch-amerikanische Medienanalyst und Forscher Vasily V. Gatov.

Themen der Podiumsdisskussionen sind ebenfalls weit gefächert. Zum einen geht um Facebook und die Stärken von Printmedien gegenüber diesen neuen Medienformen, zum anderen über die Zukunft von Roboterjounralismus und neue Bezahlmethoden für Online-Journalismus.

Gute Gründe dabei zu sein

Die DCX und die IFRA bieten für Besucher die Möglichkeit mit vielen internationalen Medienunternehmen und Kontakt zu treten und Netzwerke zu knüpfen. Über 6000 Besucher aus vielen Ländern kommen zusammen, viele Unternehemen informieren über aktuelle Trends der Branche. Die Trends sind vielseitig, der Diskussionsstoff wird definitiv nicht ausgehen. Weitere Informationen zu Tickets sind auf der Webseite der Expo zu finden.

Weiterlesen »

Klanglandschaften der Vergangenheit: Wie antike Kulturen eine neue Dimension bekommen

Heiligtum (adapted) (image by dimitrisvetsikas1969 [CC0]via pixabay)

Stellen wir uns eine archäologische Grabstätte vor – was geht uns durch den Kopf? Sandsteinwände in der Wüstenhitze? Stonehenge in einem grasbedeckten Feld? Wenn wir an archäologische Stätten denken, neigen wir dazu, sie uns in völliger Stille vorzustellen – leere Ruinen, verlassen von vergangenen Kulturen. Aber so haben sie die Leute, die an diesen Plätzen gelebt und sie genutzt haben, nicht erlebt. Die Bewohner hören, wie geredet und gelacht wird, Babys weinen, Menschen arbeiten, Hunde bellen und die unterschiedlichste Musik ist zu hören. Diese Klänge kommen aus der Nähe oder aus weiterer Entfernung.

Geräusche in Klanglandschaften einzuordnen, ist ein wichtiger Schritt, um zu verstehen, wie die Menschen gelebt haben, was sie schätzten, wie sie ihre Identitäten formten und wie sie die Welt und ihren Platz in ihr erlebt haben. Dieser wachsende Fachbereich heißt Akustische Archäologie oder Archäoakustik. Wenn wir den Geräuschen, die die umherstreifenden Menschen hörten, etwas Aufmerksamkeit schenken, sind wir besser in der Lage, ihre Kultur zu verstehen und uns mit ihnen als Menschen verbunden fühlen.

Kürzlich haben wir zum ersten Mal eine altertümliche Klanglandschaft erstellt. Was können uns unsere Ohren darüber sagen, wie die Anasazi, die Pueblo-Vorfahren, in New Mexicos Chaco Canyon vor mehr als tausend Jahren gelebt haben?

Altertümliche Geräusche modellieren

Der Chaco Canyon war das Zentrum der Pueblo-Vorfahren. Er ist bekannt für seine großartigen Häuser – groß, mehrstöckig, manche in der Größe eines Fußballfeldes – gebaut und bewohnt etwa von 850 bis 1150 nach Christus. Archäologen haben untersucht, wie die Pueblo-Vorfahren diese Strukturen des Chaco Canyons erbaut und in Verbindung zueinander und zur astronomischen Ausrichtung gesetzt haben.

Um unserem Verständnis dieser Zeit und dieser Plätze eine neue Dimension hinzuzufügen, haben wir untersucht, wie Geräusche an diesen Orten wahrgenommen wurden. Wir wollten wissen, wie ein Zuhörer die Klänge von einer bestimmten Entfernung – von wo auch immer sie herkamen – wahrnahm.

Um die Physik der Klänge und ihre Anwendung in der Archäologie zu erforschen, haben wir zuerst einmal eine Excel-Tabelle erstellt. Unsere Berechnungen beschrieben lineare Geräuschprofile, ähnlich einer Sichtlinienanalyse – diese berücksichtigte einen geraden Weg zwischen der Person oder des Instruments, das das Geräusch machte und der Person, die es hörte. Jedoch war diese Annäherung stark begrenzt, da die Ergebnisse nur auf einen einzigen Zuhörer an einem ganz bestimmten Ort angewendet werden konnten.

Unsere Forschung entsponn sich erst so richtig, als wir uns gefragt haben, ob wir dieselben klangphysikalischen Berechnungen an einer ganzen Landschaft gleichzeitig anwenden könnten. Wir verwenden ein Computerprogramm namens „Geographic Information System“ (GIS), das es uns ermöglichte, die Welt in drei Dimension darzustellen.

Das Software-Paket ArcGIS von ESRI, das wir verwendet haben, bietet jedem die Möglichkeit, mit Werkzeugen wie dem Soundshed Analyse-Werkzeug zu arbeiten, das wir kreiert haben, um Berechnungen anzustellen oder geographische Daten und Bilder zu erstellen. Das Soundshed Analyse-Werkzeug wurde abgeleitet von dem früheren Modellierungsskript „SpreAD-GIS“, das von der Umweltwissenschaftlerin Sarah Reed entwickelt wurde, um den Einfluss von Geräuschen auf die Umwelt, wie beispielsweise Nationalpark, zu messen. Dieses Werkzeug selbst wurde von SPreAD (System for the Prediction of Acoustic Detectability) adaptiert, einer Methode, die der U.S. Forest Service um 1980 entwickelt hat, um den Einfluss von Geräuschen auf die Erholung im Freien vorherzusagen.

Das Soundshed Analyse-Werkzeug benötigt sieben Eingangsvariablen, einen Forschungsort und Höhendaten. Die Variablen beinhalten die Höhe und Frequenz der Geräuschquelle, den Schalldruck, die gemessene Distanz von der Quelle, Lufttemperaturen, die relative Feuchtigkeit und den Umgebungsschalldruck. Wir trugen diese Informationen aus einer Auswahl an Quellen zusammen: öffentliche Höhendaten, archäologische Forschungen, paläoklimatologischen Forschungen und historischen Klimadaten. Aus einschlägiger Literatur erfassten wir außerdem die Tonhöhe von ganzen Menschenmengen, Einzelpersonen und einer speziellen Art von Trompeten, die die Pueblo-Vorfahren verwendeten.

Sobald die Eingangsvariablen eingegeben wurden, braucht das Soundshed Analyse-Werkzeug weniger als 10 Minuten, um durch diese komplexen Berechnungen zu jedem Punkt der Landschaft innerhalb von zwei Meilen von dem Ausgangsort zu gelangen. Unser Modell konstruiert dann Bilder, die zeigen, wo und wie sich der Klang in der Landschaft ausbreitet. Das ermöglicht uns, die Geräusche, die die Menschen beim Durchstreifen dieser Landschaften erlebt haben könnten, zu visualisieren.

Wer hörte was – und wo?

Wir haben uns bisher auf kulturell relevante Geräusche konzentriert und versucht, herauszufinden, wie sich diesen über die Landschaft ausgebreitet haben könnten. Diese sind zum Beispiel die Stimmen von Menschen, die Geräusche von Haustieren wie Hunden und Truthähnen, die Erstellung von Steinwerkzeugen oder der Klang von Musikinstrumenten. Im amerikanischen Südwesten gehörten zu diesen Instrumenten Flöten aus Knochen, Pfeifen, Fußtrommeln, Kupferglocken und Trompeten.

Soundshed zeigte, dass zwei Menschen, die vor zwei Nachbarhäusern wie Pueblo Alto und New Alto etwa 400 Meter voneinander entfernt standen, den anderen hören konnten, während er etwas rief oder zu einer Gruppe sprach. Das Modell unterschied sich geographisch, denn das Gelände zwischen zwei Orten unterschied sich enorm voneinander und die Gebäude blockten selbst auch Geräusche ab.

Eine dritte Karte stellt nach, dass jemand bei Sonnenuntergang bei der Sommersonnenwende nördlich von Casa Rinconada, einem großen Zeremoniegebäude, in eine Trompete bläst.

Der Klang verbreitet sich über den Canyon, wandert zu Schreinen, die heilige Stätten markierten und die oft in der Landschaft hoch oben angesiedelt waren. Vielleicht beeinflusste die Hörbarkeit die Auswahl der Position der Schreine, sodass die rituellen Ereignisse im Casa Rinconada hörbar gemacht werden konnten?

Die Erforschung der Interaktion von Klängen mit der von Menschenhand geschaffenen Umgebung verdeutlicht Details über die Wichtigkeit der Rituale. Es zeigt uns, dass Klänge von den Pueblo-Vorfahren geschätzt wurden, und besonders, dass die Schreine immer an Orten gefunden wurden, wo die Leute die Rituale, die weit entfernt durchgeführt wurden, noch hören konnten.

Die Zukunft der Archäoakustik

Unsere Forschung ist ein erster Schritt in die archäoakustischen Studien der Landschaften. Jetzt hoffen wir, dass wir unsere Forschungen ausbauen können, indem wir den Chaco Canyon besuchen, um Klangstudien durchzuführen und Messungen vorzunehmen. Wir können außerdem unser Modell auf andere Kulturen, geographische Gegenden und Zeitperioden anwenden.

Akustische Studien mit archäologischen Forschungen zu verbinden, trägt zu einem ganzheitlichen Verständnis der vergangenen Kulturen bei. Das Feld ist gewachsen, weil immer mehr Forscher ihr multidisziplinäres Streben, kombiniert mit anderen Fachbereichen, ausweiten wollen. Zum Beispiel machten der geographische, der physikalische, der psychologische und der technische Fortschritt so wie andere Fachbereiche unsere Akustikstudien erst möglich. Davor waren archäoakustische Forschungen aufgrund technischer Einschränkungen und den fehlenden Werkzeugen nicht möglich. Erst jetzt hat die Computerverarbeitungsleistung unsere Träume eingeholt.

Werkzeuge wie diese zu entwickeln, bietet außerdem den Vorteil, an jedem Ort zu jeder Zeit herauszufinden, was Menschen in einer Gegend hörten, ohne an diese Orte reisen zu müssen. Stattdessen können Forscher bereits existierende Daten, die sie durch literarische Recherchen gefunden haben, anwenden oder die Lautstärke von Geräuschen oder Musikinstrumenten messen und als beispielhafte Inputs verwenden. Das eröffnet neue Bereiche, die erkundigt und erforscht werden können.
Klangmodellierung kann Forschern dabei helfen, Fragen zu stellen, und hilft jedem dabei, zu verstehen und nachzuvollziehen, was andere Menschen in ihrer Welt erlebt haben. Ein Klangmodel öffnet eine neue Tür für unser Verständnis der Vergangenheit.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „Heiligtum“ by geralt (CC0 Public Domain)


The Conversation

Weiterlesen »

FollowUs – Die Netzpiloten-Tipps aus Blogs & Mags

Follow me

  • MOZILLA golem: Mozillas Send erlaubt einfachen Datentausch: Mit Send wagt Mozilla jetzt etwas Neues. Der Austausch von größeren Daten (bis zu ein GByte) sollte somit zukünftig kein Problem mehr sein. Momentan ist Send jedoch noch in der Testphase. Trotz der Funktion, dass die Daten nach einmaligem Herunterladen bzw. nach spätestens 24 Stunden gelöscht werden, gibt es noch Bedenken im Bereich des Datenschutzes, da die gelöschte Datei eventuell auch wiederhergestellt werden kann und somit an eine Drittperson weitergereicht werden könnte.

  • DIGITAL t3n: Digitales Zeitalter: So verschieben sich jetzt die Machtverhältnisse: Wo wollen und können deutsche Unternehmen mit ihrer Innovationsfähigkeit noch hin im Zeitalter von internationaler Konkurrenz wie China und Co.? Eine Frage, die sich mehr denn je gestellt wird. In Zusammenarbeit mit der TU München wurde daher eine Studie durchgeführt um wesentliche Hinderungsgründe aus zu arbeiten. „Das Streben nach Perfektion“ und die fehlende Risikobereitschaft seien unter anderem dafür verantwortlich, dass sich deutsche Unternehmen nicht in der Schnelligkeit entfalten wie ihre Konkurrenz.

  • APPLE horizont: Apple: Erste Details zu neuen Produkten: Apple hat in den letzten Tagen seine neu geplanten Artikel vorgestellt, unter ihnen auch die neue Apple Watch. Direkt in das Mobilfunknetz könnte sie dann auch ohne iPhone Kurznachrichten verschicken, Musik streamen und Anrufe machen. Genauere Informationen wie genau diese Funktion dann auch umgesetzt werden kann, gab es bisweilen noch nicht von Apple. Ein weiteres Produkt ist selbstverständlich das iPhone 8, mit 1.000 US-Dollar das wohl teuerste bis dato. Eine Innovation sei die Gesichtserkennung, die es dem Nutzer ermöglicht via eigenem Gesicht das Smartphone zu entsperren.

  • KLIMAWANDEL heise: Geo-Engineering: China betreibt eines der größten Forschungs-Programme weltweit: Der Klimawandel ist ein akutes Problem unserer Gesellschaft, was behoben bzw. Aufgehalten werden muss. China ist eines der Länder, dass sich diesem Problem annimmt und in Forschung für Maßnahmen gegen den Klimawandel investiert. Seit drei Jahren unterstützt China das weltweite Geo-Engineering-Forschungsprogramme, welches nach Lösungen und Strategien sucht. Diese Forschungsrichtung wirft jedoch auch unter anderem die Frage wieder auf, ob ein technischer Eingriff in das Klima Rettung oder eine erneute Herausforderung heißt.

  • AMAZON gruenderszene: Amazon will mobile Drohnen-Stationen für Züge und Lastwagen entwickeln: Der Plan, dass Waren zukünftig mit Drohnen verschickt werden sollen, hat Amazon schon etwas länger, doch jetzt stehen die Pläne, was ein Patent Amazons nun gezeigt hat. Damit das auch reibungslos funktioniert, gibt es jetzt sogar schon geplante Wartungsstationen für Drohnen, in denen beispielsweise ihre Batterien aufgeladen werden können oder sie gänzlich repariert werden. Extra Container sorgen für den nötigen Raum.

Weiterlesen »

So klingt DNA: Wie Musik den genetischen Code knacken kann

dna-1811955 (adapted) (Image by qimono) (CC0 Public Domain) via Pixabay

Seit einigen Jahren beschäftige ich mich in meinen Forschungen mit Molekularbiologie. Außerdem interessiere ich mich für Musik und habe mit den Hummingbirds, einer Pop-Band aus Sydney, gespielt. Normalerweise ist die Schnittmenge zwischen diesen beiden Interessen nicht besonders groß. Aber kürzlich habe ich erfahren, dass man mit der DNA sogar Musik machen kann.
Dieses Phänomen nennt man Sonifikation. Hier werden DNA-Sequenzen wie zufällige Muster genutzt, um harmonische Musik zu komponieren. Aber was geschieht, wenn wir die Töne benutzen würden, etwas Nützliches über DNA-Sequenzen herauszufinden – beispielsweise bei Mutationen?

Ich habe daher meine Programmierkenntnisse genutzt und ein Werkzeug entwickelt, mit der DNA-Sequenzen in Audio-Streams konvertiert werden können. Die Ergebnisse wurden vor Kurzem in dem Magazin BMC Bioinformatics veröffentlicht.

Den Unterschied hören

Die DNA dient in unserem Körper als Vorlage für die Herstellung von Proteinen. Eine DNA-Sequenz ist eine lange, ununterbrochene Kette, die aus vier chemischen Basen besteht, die G, A, T oder C genannt werden. Diese wiederholen sich in vielen bestimmten Mustern, die dann ein Gen ausmachen. Viele Gene haben identische Sequenzen innerhalb einer Spezies; also gleichen sich diese von Person zu Person oder von Virus zu Virus.

Manchmal allerdings unterscheidet sich eine der chemischen Basen in einer Sequenz von dem üblichen Muster – eine Mutation entsteht. Diese kann auf einen Fehler, der der betroffenen Person oder dem betroffenem Mikroorganismus Probleme bereiten könnte, hinweisen. In meinem Online-Audio-Programm verursachen Veränderungen in einer sich wiederholenden DNA-Sequenz sehr auffällige Veränderungen des Klangs.

Um einen Eindruck davon zu vermitteln, habe ich hier eine künstliche DNA-Testsequenz in meinem Online-Audio-Programm vorbereitet, das aus einer Reihe von G-Sequenzen besteht:

Zum Vergleich eine DNA-Sequenz mit einer Mutation:

Die natürliche DNA-Sequenz verdeutlicht eine Veränderung des sich wiederholenden Klangs mit einem ungefähren Wert von 0,13. Hier findet eine subtile Veränderung (eine Mutation) der Sequenz statt:

 

Die Codone verschlüsseln

Im wirklichen Leben sind DNA-Abfolgen natürlich komplexer als das. Zunächst beinhalten echte DNA-Abfolgen Codone. Ein Codon ist eine Abfolge von drei Basen, die zu einer Gruppe von DNA-Information zusammengefasst werden. Ein Codon lenkt eine Baueinheit in einem Protein, auch unter dem Namen “Aminosäure” bekannt. In der Natur zeigen spezielle Codone die Start- und Endpunkte von Genen an. In meinem Ansatz werden diese Codone dazu verwendet, die Audiodatei zu starten und zu beenden.

Es ist nicht beabsichtigt, dass man einen Ton hören und sie einem bestimmten Codon zuordnen kann, auch wenn die Umgebung der Audiodatei charakteristisch für die zugrundeliegende Sequenz ist (wie man in den Beispielen hören kann).

Wie klingt es also, wenn man mein Sonifikationssystem auf ein echtes Stück DNA anwendet, das ein Protein ausmacht? Man nehme beispielsweise eine menschliche DNA-Abfolge, die ein Protein verschlüsselt (für die Experten unter den Lesern handelt es sich dabei um das RAS-Protein, das teilweise für eine Krebserkrankung verantwortlich ist). So würde es in der traditionellen geschriebenen Form aussehen:

Image The sound of DNA by Mark Temple via The Conversation
Eine Menschliche RAS-Seqzenz. DNASonification/Mark Temple

Und so klingt es in meinem Online-Audio-Programm:

In der obigen Kodierungssequenz spielt immer ein Instrument (dasjenige, das tatsächlich das Protein verschlüsselt). Als ich einige Sequenzen “sonifiziert” habe, die wichtige RNA-Bestandteile von Zellen (keine Proteine) entschlüsseln, sind zum Teil nur Abschnitte zu hören, in denen man nichts hört. Oft sind hier Klopfgeräusche zu hören, die anzeigen, an welcher Stelle ein Codon entdet:

Normalerweise vertrauen wir Wissenschaftler stark auf die optische Kontrolle der DNA-Abfolgen, um ihre Geheimnisse zu entschlüsseln. Die Sonifikation allein ist nicht dafür gedacht, die optische Kontrolle zu ersetzen, sondern eher, um sie zu erweitern, genau wie Farben genutzt werden, um die Eigenschaften von DNA-Abfolgen hervorzuheben.

Neben der Genauigkeit der DNA-Forschung gibt es ein starkes Interesse innerhalb der Gesellschaft, besser zu verstehen, wie DNA-Abfolgen unsere physische Gestalt festlegen und Mutationen, die sich in unserer DNA ansammeln, unsere Gesundheit auf lange Sicht beeinflussen. Es ist zu hoffen, dass das Anhören von DNA-Audiodateien der Forschung dabei hilft, besser zu verstehen, wie Zellbiologie funktioniert.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „dna-1811955“ by qimono (CC0 Public Domain)


The Conversation

Weiterlesen »

Wie man der Desorganisation der Gesellschaft entgegenwirken kann – Neubelebung der Agora

Bundestag (Image by LoboStudioHamburg) (CC0 Public Domain) via Pixabay

Die vornehmste Aufgabe der Libertären besteht nach Ansicht des Vulgärkapitalisten und Trump-Freundes Peter Thiel darin, einen „Ausstieg aus der Politik in allen Formen zu finden“.

„Was nach hehrem Ideal klingt, ist bei Lichte betrachtet nichts anderes als ein Freibrief für Steuerflucht und Verantwortungslosigkeit. Auch der konstruierte Antagonismus zwischen Politik und Technologie, der suggeriert, im Internet herrsche die große Freiheit, trägt zur Verkennung der Lage bei. Die Kommunikationsströme im Netz sind vermachtet, und die großen Player Google, Amazon, Facebook und Apple bestellen das Feld, sie schränken genau jene Wahlfreiheit ein, die Thiel beschwört. Er redet letztlich der Demontage der Demokratie das Wort, die Trump auf seine Weise bearbeitet: Für Gewaltenteilung hat er nichts übrig, die Presse betrachtet er als Feind, er spricht per Twitter zu seiner Gefolgschaft. In Peter Thiel hat er offenbar einen Geistesverwandten gefunden“, resümiert die FAZ.

Die Politik sollte da nicht zur Tagesordnung übergehen.

„Sie muss die Banker und Manager mit der politischen Macht konfrontieren, muss sie als scheinbar Allmächtige entzaubern. Sie muss sie entlarven als jämmerliche Söldner“, fordert der Schweizer Publizist Frank A. Meyer.

Aber wird das reichen? Professor Reinhard Pfriem hat das im Utopie-Podcast #KönigvonDeutschland verneint.

Veränderungen über Basisbewegungen

Die Ökonomie sei ein Ausdruck kultureller Verhältnisse, auch was in ihr für wichtig gehalten und wertgeschätzt wird:

„Die gleichen kulturellen Strömungen wirken auch auf die Konstellationen der politischen Kräfte ein. Gerade in einem repräsentativen Parteiensystem. Es war die Vorstellung schon immer naiv, daran zu glauben, dass auf dem Weg des Politischen die Akteure zu Maßnahmen gezwungen werden, die sie selbst nicht machen wollen. Das funktioniert nicht. Wenn man sich das Parteiensystem anschaut sowie das Wahlverhalten der Bürgerinnen und Bürger.“

Man sei vielleicht gattungsgeschichtlich überfordert, die Gratwanderung zwischen Einheit und gemeinsamen Vorgehen sowie Konflikt- und Streitkultur zu bewältigen. Pfriem ist sehr angetan von den theoretischen Arbeiten der belgischen Wissenschaftlerin Chantal Mouffe. „Sie hat den Begriff der Agonistik geprägt – Sprechen ist Kämpfen im Sinne des Spielens. Damit meint Mouffe, dass es möglich sein muss, in der Gesellschaft Streitkultur zu pflegen und sich vom politischen Einheitsbrei zu verabschieden. Konflikte sollten Konflikte zwischen Kontrahenten bleiben und nicht Gegenstand von feindlichen Auseinandersetzungen sein. Das scheint extrem schwierig zu sein.“

Staatliche Regelungen bewirken nach Ansicht von Pfriem nur dann positive Veränderungen, wenn es sozial- und gesellschaftspolitischen Druck gibt. Ohne Basisbewegungen hätte es in den 70er und 80er Jahren keinen Fortschritt in der Umweltpolitik gegeben, die letztlich zum Atomausstieg und zur Einführung des Erneuerbaren-Energien-Gesetzes geführt haben. Auf anderen Feldern funktioniere das nicht. „Denken Sie an die Mobilität, wo der Lobbyismus von Alexander Dobrindt sich ausleben kann und es in dem Autofahrerland Deutschland nach wie vor nicht möglich ist, auch nur Geschwindigkeitsbegrenzungen durchzusetzen.“

Wie sich Eliten abschotten

Liegt es an der Atomisierung oder Entsolidarisierung der Gesellschaft? Pfriem bejaht das.

Der Netzwerkforscher Manuel Castells hat das gut analysiert: Die alten und neuen Eliten (etwa Vulgärkapitalisten wie Thiel – er zählt gar zu den Protagonisten, die sich mit den alten Eliten koppeln) verbinden sich zur Absicherung ihrer Herrschaft bei gleichzeitiger Desorganisation der Gesellschaft.

Je stärker das Internet die Vernetzung vorantreibt und jeder nicht nur Empfänger von Botschaften ist, sondern auch Sender, desto stärker versuchen sich die alten Eliten abzusetzen, damit es nicht zu einem übermäßigen Vordringen von „gewöhnlichen“ Leuten in die innere Welt der Cliquen und Klüngel kommt. Der Zugang zu den Netzwerken der Herrschenden bleibt versperrt. Nachzulesen im Standardwerk von Castells „Das Informationszeitalter I – Der Aufstieg der Netzwerkgesellschaft“.

Quartiersräte als Bindeglied

Die Zersplitterung der Gesellschaft und der Separatismus elitärer Gruppen ist auch nach Meinung von Pfriem ein großes Problem.

„Es gibt ein grundlegendes Defizit an der Möglichkeit politischer Artikulation“, mahnt der Ökonom Reinhard Pfriem und plädiert für die Entwicklung von institutionellen Formen, die tatsächlich wieder radikale Demokratie ermöglicht: „Es gibt in Berlin in einigen sozialen Brennpunkten der Stadt so genannte Quartiersräte, wo die heterogenen und zukunftsorientiert tätigen Akteure zusammengebracht und mit der darüber liegenden Ebene verkoppelt werden.“

Also ein Bindeglied zu den kommunalen und landespolitischen Instanzen. In der Hauptstadt sind es die Bezirksverordneten-Versammlungen und das Abgeordnetenhaus. Die gegenwärtige Form von repräsentativer Parlamentsdemokratie schwebe schon institutionell über dem, was Menschen wirklich bewegt. Pfriem bringt den Begriff der Agora ins Spiel, also den Ort öffentlichen Verständigung und Kommunikation in der griechischen Antike. Das gilt nach seiner Auffassung auch für die Wissenschaft, die sich transparent zu zeigen und zu rechtfertigen hat sowie ihre von der Gesellschaft alimentierte Funktion unter Beweis stellen muss. Das Notiz-Amt sieht hier eine Nahtstelle zu den Diskussionen dem Future Hub-Diskurs mit der Bundeszentrale für politische Bildung und mit den Vorschlägen von D2030-Beiratsmitglied Professor Dirk Helbing für eine vernetzte Demokratie – analog und digital.


Image (adapted) „Bundestag“ by LoboStudioHamburg (CC0 Public Domain)


Weiterlesen »

Inokulationstheorie: Fehlinformationen benutzen, um Fehlinformationen zu bekämpfen

Tablet (adapted)(image by Kaboompics -Karolina [C00]via pexels)

Als Psychologe, der zum Themenbereich der Fehlinformation forscht, konzentriere ich mich darauf, den Einfluss dieser zu verringern. Im Wesentlichen ist es mein Ziel, meinen eigenen Job irgendwann abzuschaffen. Die neuesten Entwicklungen zeigen, dass ich damit wohl keine gute Arbeit geleistet habe. Fehlinformation, falsche Nachrichten und „alternative Fakten“ sind beliebter denn je. Das Oxford Dictionary benannte „post-truth“ (dt.: „postfaktisch“) als das Wort des Jahres 2016. Wissenschaft und wissenschaftliche Beweise werden gerade massiv attackiert.

Glücklicherweise hat die Wissenschaft einen Weg gefunden, sich selbst zu schützen. Dieser stammt von einem Zweig der psychologischen Forschung, die als Inokulationstheorie bekannt ist. Diese Logik ist abgeleitet von der Impfungen: Eine kleine Dosis von etwas Schlechtem hilft, eine ausgewachsene Krankheit zu verhindern. In meine kürzlich veröffentlichten Forschungsbericht habe ich versucht, Leute einer schwachen Form der Fehlinformation auszusetzen, um sie auf den echten Fall vorzubereiten – die Resultate waren vielversprechend.

Zwei Möglichkeiten, bei denen Fehlinformation schaden kann

Fehlinformation wird schnell generiert und verbreitet. Eine aktuelle Studie, die Argumente gegen Klimawissenschaft mit Argumenten bezüglich Richtlinien gegen Klima-Maßnahmen vergleicht, fand heraus, dass die Verweigerung der wissenschaftlichen Untersuchungen relativ ansteigt. Aktuelle Forschung indiziert, dass diese Art der Anstrengung einen Einfluss auf die Wahrnehmung und auch auf die wissenschaftliche Kompetenz der Menschen hat.

Eine aktuelle Studie, die der Psychologe Sander van der Linden leitete, hat ergeben, dass Fehlinformationen zur Klimawissenschaft einen wesentlichen Einfluss auf die öffentliche Wahrnehmung haben. Die Fehlinformation, die genutzt wurde, ist der am meisten geteilte Klimaartikel des Jahres 2016. Es handelt sich um eine Petition über globale Erwärmung und der Grundthese, dass die Menschen das Klima nicht zerstören, die von 31.000 Leuten mit einem Abschluss in Bachelor of Science oder höher unterstützt wurde. Dieser eine Artikel verringerte die Wahrnehmung der Leute zum wissenschaftlichen Konsens. Dabei akzeptieren die meisten Menschen einen gewissen wissenschaftlichen Konsens. Dieser Zugang ist bei Wissenschaftlern bekannt als „Zugangsglaube“, der die Einstellung zum Klimawandel und der Unterstützung der Aktionen gegen Klimazerstörung stützt.

Zum selben Zeitpunkt, als van der Linden seine Forschung in den USA durchgeführt hat, war ich in Australien mit der Ausführung meiner eigenen Forschung betreffend des Einflusses von Fehlinformationen beschäftigt. Per Zufall habe ich denselben Mythos benutzt und den gleichen Text des Petitionsprojektes genommen. Nachdem ich die Fehlinformation aufgezeigt hatte, habe ich die Leute gebeten, den wissenschaftlichen Konsens der von Menschen verursachten globalen Erwärmung einzuschätzen. Ziel war es, den Effekt zu messen. Ich fand vergleichbare Resultate, dass Fehlinformation die Wahrnehmung der Leute betreffend des wissenschaftlichen Konsens‘ verringert. Weiterhin fand ich heraus, dass Fehlinformation manche Menschen mehr betraf. Je konservativer eine Person war, desto größer der Einfluss der Fehlinformation.

Dies passte gut mit den anderen Forschungsergebnissen zusammen, die herausstellten, dass Menschen Nachrichten gemäß ihren bereits existierenden Überzeugungen interpretieren – völlig egal, ob es nun Informationen oder Fehlinformationen waren. Wenn wir etwas sehen, das wir mögen, ist es wahrscheinlicher, zu denken, dass es wahr ist und es unsere Überzeugungen stärkt. Wenn wir stattdessen Informationen dazu finden, die im Konflikt zu unseren Überzeugungen stehen, ist es wahrscheinlicher, dass wir die Quelle diskreditieren.

Allerdings geht das noch tiefer. Jenseits der fehleraften Information, mit denen der Mensch zu tun hat, besitzt die Fehlinformation einen noch hinterlistigeren und gefährlicheren Einfluss. In der Studie von van der Linden stellte sich heraus, dass die Menschen ihre Meinung nicht änderten, wenn sie sowohl mit den Fakten als auch den Fehlinformationen konfrontiert wurden. Die zwei gegensätzlichen Informationen heben sich also gegenseitig auf.

Fakten und „alternative Fakten“ sind wie Materie und Antimaterie. Wenn diese aufeinandertreffen, gibt es eine Hitzeexplosion, auf die dann nichts mehr folgt. So kann auf subtile Weise gezeigt werden, wie Fehlinformationen Schaden anrichten. Sie geben nicht nur die falschen Informationen preis, sondern hindern die Menschen daran, an Fakten zu glauben. Oder, wie Garry Kasporov es eloquent ausdrückte: Fehlinformationen „vernichten die Wahrheit“.

Die wissenschaftliche Antwort auf Klimaverweigerung

Der Angriff auf die Wissenschaft ist beeindruckend und, wie die Forschung indiziert, ebenso imstande, deutlich zu effektiv zu sein. Passenderweise besitzt die Wissenschaft die Antwort auf Klimaverweigerung. Die Inokulationstheorie bedient sich des Konzeptes des Impfens, bei dem wir einer schwachen Form eines Virus ausgesetzt sind, um gegenüber dem echten Virus eine Immunität aufzubauen. Dies wird auf unser Wissen angewandt.Ein halbes Jahrhundert der Forschung hat nun ergeben, dass wir, wenn wir einer „schwachen Form der Fehlinformation“ ausgesetzt sind, eine Abwehr aufbauen, sodass wir nicht von echter Information beeinflusst werden.

Der sogenannte „Impf-Text“ beinhaltet zwei Elemente. Zuerst enthält er eine explizite Warnung über die Gefahr, von Fehlinformation fehlgeleitet zu werden. Zweitens muss man zusätzlich Gegenargumente bieten, um die Fehler der Fehlinformation aufzuzeigen. Bei der Herangehensweise von van der Linden zeigt er, dass viele Unterzeichner eine gefälschte Identität besaßen (beispielsweise war (beispielsweise war fälschlicherweise eines der Spice Girls auf der Unterschriftenliste aufgeführt), so dass 31.000 Beteiligte nur ein winziger Teil (weniger als 0,3 Prozent) aller US-Wissenschaftsabsolventen seit 1970 darstellen, und dass insgesamt weniger als ein Prozent der Unterzeichner eine Expertise in der Klimawissenschaft aufweisen konnten.

In meinen neulich veröffentlichen Untersuchungen testete ich die Impf-These mit einem anderen Ansatz. Während ich Patienten gegen das Petitionsprojekt geimpft habe, habe ich es überhaupt nicht angesprochen. Stattdessen sprach ich mit ihnen über die Fehlinformationstechnik der Nutzung von „falschen Experten“ – Leute, die gegenüber der Masse den Eindruck erwecken, dass sie Erfahrung besitzen, wobei dies jedoch nicht der Fall ist.

Ich fand heraus, dass die Erklärung der Fehlinformationstechnik den Einfluss der Fehlinformation ohne die spezifische Nennung der Fehlinformation komplett gegeneinaner aufhob. Nachdem ich beispielsweise erklärte, wie falsche Experten in der Vergangenheit für frühere Fehlinformationsprojekte benutzt wurden, waren die Teilnehmer nicht überzeugt, wenn sie von falschen Experten des Petitionsprojektes konfrontiert wurden. Weiterhin wurde die Fehlinformation über das politische Spektrum hinweg neutralisiert. Ob man nun also konservativ oder liberal ist, ist egal – niemand will von irreführenden Techniken getäuscht werden.

Die Inokulation zur Anwendung bringen.

Die Inokulation ist eine mächtige und vielseitige Form der wissenschaftlichen Kommunikation, die unterschiedlich genutzt werden kann. Mein Ansatz war es, meine Erkenntnissse zur Inokulation mit der kognitiven Psychologie der Widerlegung zusammenzutun, um einen Trugschluss aus Fakten und Mythen zu schaffen.

Diese Strategie beinhaltet die Erklärung der Fakten, gefolgt von der Einführung eines Mythos, der in Verbindung zu diesen Fakten steht. An diesem Punkt werden den Menschen zwei gegenseitige Informationen präsentiert. Der Konflikt wird damit in Einklang gebracht, dass erklärt wird, wie die Technik funktioniert, die einen Mythos benutzt, um den Fakt zu verzerren.

Wir haben den Ansatz in größerem Umfang in einem kostenfreien Onlinekurs über Fehlinformation zum Klima benutzt, um die Klimaverweigerung zu erklären. Jede Vorlesung nahm die Struktur einees Trugschlusses aus Fakten und Mythen an. Wir begannen damit, eine Tatsache zum Klima zu erklären und führten dann einen verwandten Mythos ein, daraufhin folgte eine Erklärung des Trugschlusses, auf dem die Annahme basierte. Auf diesem Weg bereiteten wir unsere Studenten gegen die 50 häufigsten Klimamythen vor, während wir zugleich die Grundlagen der Klimaveränderung erklärten.

Wir wissen beispielsweise, dass wir Menschen die globale Erwärmung verursachen, weil wir in der Klimaveränderung viele Muster beobachten, die typisch für Treibhauseffekte sind. Anders ausgedrückt kann der menschliche Faktor beim Klima beobachtet werden. Jedoch besagt einer der Mythen, dass das Klima sich in der Vergangenheit auf natürliche Weise verändert hat, bevor es die Menschen gab; deswegen muss das, was nun passiert, auch natürlich sein. Dieser Mythos geht dem Irrtum nach, dass man in vielen Fällen (unlogische) Schlüsse zieht, in denen die Prämisse nicht zur Schlussfolgerung führt. Es ist, als ob man eine Leiche mit einem Messer im Rücken findet und argumentiert, dass Menschen bereits zuvor an natürlichen Effekten in der Vergangenheit gestorben sind, also muss dieser Tot ebenso von natürlichen Ursachen herbeigeführt worden sein.

Die Wissenschaft hat uns darüber aufgeklärt, dass die Antwort auf die Klimaverweigerung der Menschen nicht sein kann, diese Menschen mit Wissen zu bombardieren. Die Fehlinformationen stellen eine Realität dar, deren Ignoranz wir uns nicht leisten können – wir können die Verleugnung der Wissenschaft nicht verleugnen. Wir sollten es stattdessen als eine Möglichkeit der Bildung betrachten. Fehleinschätzungen im Klassenzimmer znzusprechen, ist eines der mächtigsten Werkzeuge, um Wissenschaft zu lehren. Es stellt sich heraus, dass der Schlüssel zur Beendigung der Wissenschaftsverleugnung darin liegt, die Leute nur ein bisschen der Wissenschaftsverleugnung auszusetzen.


Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.

Image (adapted)„Tablet“ by Kaboompics-Karolina (CC0 Public Domain)


The Conversation

Weiterlesen »

Das kollektive Gedächtnis verstehen: Das Netz macht’s möglich

Mini Wikipedia globe at the Wikimedia Foundation offices (adapted) Image by Lane Hartwell CC3.0 Share Alike via Wikipedia

Das Internet hat sämtliche Bereiche unseres Lebens umgekrempelt. Genauer gesagt hat sich die Art und Weise, wie wir Wissen erwerben, signifikant verändert – zum Teil durch Wissensquellen im Netz wie die Wikipedia. Genau genommen hat es sogar die Art der Wissenschaft verändert. Sozialwissenschaftler verwenden immer häufiger Daten aus dem Netz, um unsere individuellen und kollektiven Verhaltensweisen zu studieren – und das tun sie mit einer Genauigkeit, die man sonst nur aus den Naturwissenschaften kennt.

Sicherlich sind wir immer noch weit davon entfernt, im Internet große experimentelle sozialwissenschaftliche Datensätze vergleichbar zu denen, die im CERN produziert werden, zu finden, doch zumindest haben wir digitale empirische Daten, wie beispielsweise die aufgrund von Beobachtung gewonnenen Daten der Astrophysik. Millionen Menschen nutzen tagtäglich Online-Tools. So wird beispielsweise Wikipedia rund 500.000 Mal am Tag aufgerufen.

Das “Kollektive Gedächtnis”, wie es von Wissenschaftlern genannt wird, ist eines der Schlüsselthemen, um soziales Verhalten zu verstehen: Es verdeutlicht, wie sich Mitglieder einer sozialen Gruppe gemeinsam an ein Event in ihrer Vergangenheit erinnern. Obwohl es sich beim kollektiven Gedächtnis um einen Grundbegriff in der Soziologie handelt, gab es nur ein paar wenige empirische Studien über dieses Thema, hauptsächlich aufgrund fehlender Datensätze. Wissenschaftler, die erforschen, wie das Publikum vergangene Ereignisse abruft, hatten klassischerweise viel Zeit in Interviews und Aufwand in die Datensammlung investiert.

Flugzeugabstürze

Im Rahmen einer aktuellen Studie, die im Science Advances veröffentlicht wurde, verwendete unser Team, bestehend aus einem Soziologen, einem Computeringenieur und zwei Physikern, Daten aus der Wikipedia. Ziel war es, durch die in aller Öffentlichkeit zugänglichen Statistiken der täglichen Seitenabrufe aller Artikel der Enzyklopädie das kollektive Gedächtnis zu studieren.

Wir suchten in unserem Beispiel nach Flugzeugabstürzen in der gesamten Geschichte der Luftfahrt. Dies taten wir, weil solche Vorfälle gut dokumentiert sind und weil bedauerlicherweise einegroße Anzahl solcher Vorfällen existiert, die die statistische Analyse stabil gestalten. Wir unterteilten die Ereignisse in die Zeiträume “vor nicht allzu langer Zeit” (2008-2016) und “früher” (alle Vorfälle vor 2008). Beispiel für die neulich stattgefundenen Vorfälle sind Flug MH370, Flug MH17, Flug AF447 und der Germanwings-Flug 9525. Bei den vorhergehenden Unfällen handelt es sich zum Beispiel um den Flug AF587 und den Flug IR 655.

Um die steigenden Seitenabrufe für Artikel vergangener Ereignisse, eine Woche nachdem ein Ereignis eintrat, zu messen, verwendeten wir statistische Methoden. Wir nannten diesen Anstieg den “Aufmerksamkeits-Strom”. Wir waren daran interessiert, herauszufinden, ob der Anstieg der Aufmerksamkeit bezüglich des vergangenen Ereignisses in Korrelation zu den zeitlichen Abständen und der Ähnlichkeit der neulich stattgefundenen und der vergangenen Ereignissen steht. Darüber hinaus waren wir daran interessiert, herauszufinden, ob wir den Anstieg des “Aufmerksamkeit-Stroms” zu vergangenen Ereignissen verhindern können, indem ein neues Ereignis eintritt.

Wir haben herausgefunden, dass die Menschen nach dem Absturz der Germanwings-Maschine im Jahr 2015 in der Wikipedia Informationen über den American-Airlines-Flug außerhalb von New York City im November 2001 suchten. Tatsächlich gab es einen dreifachen Anstieg der Seitenabrufe in der Woche nach dem Germanwings-Absturz.

Es scheint hier ein Muster zu geben. Wir haben kontinuierlich einen signifikanten Anstieg der Seitenabrufe vergangener Ereignisse als Folge zu Vorfällen, die vor Kurzem geschahen, beobachtet. Im Durchschnitt wurden vergangene Ereignisse 1,4 mal öfter aufgerufen als die Ereignisse aus der vergangenen Woche. Das lässt vermuten, dass die Erinnerung an ein Ereignis mit der Zeit wichtiger werden kann, und auch, dass dem Ereignis mit der Zeit mehr Bedeutung zugetragen wird, als es ursprünglich der Fall gewesen ist.

Wir haben dann versucht, dieses Muster abzubilden. Unter Berücksichtigung aller Faktoren, wie den Einfluss der Ereignisse aus der kürzer zurückliegenden Vergangenheit und derer, die weiter zurück lagen, zudem die Ähnlichkeit zwischen den Ereignissen und ob ein Hyperlink existiert, der die beiden Ereignisse direkt miteinander auf Wikipedia verlinkt.

Was unsere Erinnerung beeinflusst

Beispielsweise lässt sich im Fall der Germanwings- und American-Airlines-Flüge sagen, dass beide Vorfälle im Zusammenhang mit dem Piloten standen. Dieser könnte ein wichtiger Kopplungsfaktor sein. Die Maschine der American Airlines stürzte aufgrund eines Pilotenfehlers ab, während der Germanswings-Pilot das Fluzgeug absichtlich abstürzen ließ. Dies wurde umso interessanter, als wir herausfanden, dass es keinen Hyperlink gab, der diese beiden Artikel auf Wikipedia miteinander verlinkt. Tatsächlich blieben unsere Daten sogar dann stabil, als wir alle Paare entfernten, die durch Hyperlinks in direkter Verbindung zueinander standen.

Der wichtigste Faktor des Musters war die ursprüngliche Auswirkung des vergangenen Ereignisses, die durch ihre durchschnittlichen täglichen Seitenabrufe gemessen wurde, bevor das Ereignis eintrat. Das heißt, dass manche vergangenen Ereignisse einprägsamer sind und unsere Erinnerung daran leichter ausgelöst werden können als andere. Als Beispiel hierfür können die Flugzeugabstürze am 11. Semptember genannt werden.

Statistik Seitenaufrufe Wikipedia
Drei Flugzeugabstürze aus der jüngeren Vergangenheit (genauer: aus dem Jahr 2015) und ihre Auswirkung auf die Seitenaufrufe vergangener Ereignisse. Die Abstürze aus der jüngeren Vergangenheit haben einen Anstieg in Seitenaufrufen bei den Ereignissen, die bereits längere Zeit vergangen sind, verursacht.

Die zeitliche Trennung zwischen zwei Ereignissen spielt ebenso eine wichtige Rolle. Je näher zwei Ereignisse beieinander liegen, desto stärker ist ihre Verbindung. Wenn ein Ereignis mehr als 45 Jahre zurück liegt, ist es unwahrscheinlich, dass es noch eine Erinnerung an ein vergangenes Ereignis auslöst.

Die Ähnlichkeit zwischen zwei Ereignissen hat sich ebenso als einen wichtiger Faktor ergeben. Dies lässt sich am Beispiel der IR 655 erklären. Die Maschine wurde im Jahr 1988 von einem US-Kriegsschiff mittels einer Rakete abgeschossen. Hierbei handelte es sich eigentlich um kein Ereignis, an das sich die Menschen gut erinnern konnten. Allerdings wurde diesem Ereignis wieder große Aufmerksamkeit zugetragen, als im Jahr 2014 der Malaysia-Airlines-Flug 17 von einer Rakete über der Ukraine getroffen wurde. Der Unfall mit der Iran-Air-Maschine hatte vor den Geschehnissen in Malaysia eine durchschnittliche tägliche Quote von 500 Aufrufen und stieg kurz danach auf 120.000 Aufrufe täglich.

Es ist wichtig, festzuhalten, dass wir die tieferliegenden Mechanismen hinter diesen Beobachtungen nicht wirklich verstehen. Die Rolle der Medien, die individuellen Erinnerungen oder die Struktur der Kategorisierung von Artikeln auf Wikipedia können alle ein Teil dessen sein und werden ein Thema in zukünftigen Beobachtungen darstellen.

In traditionelleren Theorien wird vermutet, dass die Medien die zentrale Rolle in der Formung unseres kollektiven Gedächtnisses spielen. Dennoch ist eine wichtige Frage, inwiefern der Wandel zu Onlinemedien und vor allem sozialen Medien diesen Mechanismus verändern wird. Heutzutage erhalten wir oft Neuigkeiten durch unsere Facebook-Freunde. Kann dies erklären, warum Ereignisse, die seit Jahren nicht in den Nachrichten erschienen sind, auf einmal so nah an unserer Gegenwart sind?

Zu wissen, wie diese Fragen zu beantworten sind – und um zu verstehen, wie das kollektive Gedächtnis gebildet wird, ist nicht nur aus der wissenschaftlichen Perspektive heraus interessant. Das Verständnis über das kollektive Gedächtnis könnte darüber hinaus Anwendung im Journalismus, in der Medienentwicklung, in der Politik und sogar in der Werbung finden.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „Wikipedia_mini_globe_handheld“ by Lane Hartwell (CC BY-SA 3.0)


The Conversation

Weiterlesen »

Was Sie schon immer über Hypnose wissen wollten

Pendulum (adapted) (Image by innerwhispers [CC0 Public Domain], via Pixabay)

Manch einer behauptet, dass Hypnose nur ein Trick sei. Andere verorten sie am Rande des Übersinnlichen – eine mysteriöse Verwandlung von Menschen in hirnlose Roboter. Nun deckt eine Neubetrachtung einiger Studien zum Thema auf, dass es tatsächlich nichts von beidem ist. Hypnose ist möglicherweise lediglich ein Aspekt normalen menschlichen Verhaltens.

Hypnose weist auf eine Reihe an Vorgängen hin, die eine Einweisung beinhalten – man kann sich auf ein Objekt fixieren, sich besonders entspannen oder sich etwas Bestimmtes ganz aktiv vorstellen – gefolgt von einem oder mehreren Vorschlägen, wie beispielsweise „Du wirst nicht in der Lage sein, deinen Arm zu bewegen“. Das Ziel der Induktion ist es, im Inneren der Teilnehmer einen Geisteszustand herbeizuführen, in dem sich diese auf die Instruktionen eines Experimentleiters oder Therapeuten konzentrieren und nicht von alltäglichen Sachen abgelenkt sind. Teilnehmer berichten oft davon, dass ihre Antworten automatisch folgen und sie keine Kontrolle über sich zu haben scheinen. Das ist ein Grund, wieso Hypnose für Wissenschaftler so interessant ist.

Die meisten Induktionen produzieren gleichwertige Effekte. Aber Induktionen sind tatsächlich nicht wirklich wichtig. Überraschenderweise hängt der Erfolg der Hypnose nicht von speziellen Fähigkeiten des Hypnotiseurs ab – auch wenn die Bildung eines harmonischen Verhältnisses in einem therapeutischen Zusammenhang sicherlich wertvoll ist. Vielmehr liegt der Hauptfaktor für eine erfolgreiche Hypnose in dem Grad der „hypnotischen Beeinflussbarkeit“. Dies ist der Begriff, der beschreibt, wie beeinflussbar wir in Bezug auf Vorschläge sind. Wir wissen, dass die hypnotische Beeinflussbarkeit sich über die Zeit hinweg nicht verändert und vererbbar ist. Wissenschaftler haben sogar herausgefunden, dass Menschen mit bestimmten Gen-Varianten eher beeinflussbar sind als andere.

Die meisten Menschen sind nur mittelmäßig für Hypnose empfänglich. Das bedeutet, dass sie als Reaktion auf hypnotische Beeinflussungen deutliche Verhaltensänderungen durchleben. Dagegen ist ein kleiner Prozentsatz (etwa 10 bis 15 Prozent) der Menschen überwiegend nicht beeinflussbar. Der Großteil der Forschung im Bereich der Hypnose konzentriert sich jedoch auf die kleine Gruppe (10 bis15 Prozent), die am ehesten beeinflussbar sind.

Innerhalb dieser Gruppe kann Hypnose dafür genutzt werden, um Gefühle des Schmerzes zu unterbinden oder um Halluzinationen und Amnesie herbeizuführen. Untersuchungen von Gehirnscans haben aufgedeckt, dass diese Menschen die Reaktion nicht nur vorspielen. Das Gehirn reagiert anders auf Beeinflussung durch Hypnose als wenn sie dieselben Reaktionen nur vorspielen oder sich vorstellen.

Eines der spärlichen Forschungsergebnisse hat gezeigt, dass der präfrontale Cortex der höchst beeinflussbaren Menschen sehr ungewöhnlich funktioniert und reagiert. Hierbei handelt es sich um eine Hirnregion, die bezüglich psychologischen Funktionen, wie der Handlungsfähigkeit und der Überwachung des Geisteszustands, eine wesentliche Rolle spielt.

Es gibt ebenso Hinweise darauf, dass höchst beeinflussbare Menschen bei kognitiven Aufgaben, die vom präfrontalen Cortex abhängen, wie beispielsweise das Erinnerungsvermögen schlechter abschneiden. Diese Ergebnisse werden jedoch aufgrund der Möglichkeit, dass es möglicherweise verschiedene Subtypen innerhalb der hoch beeinflussbaren Menschen gibt, verkompliziert. Diese neurokognitiven Differenzen mögen uns einen Einblick darin bieten, wie die besonders beeinflussbaren Menschen auf Vorschläge reagieren: Sie sind vielleicht reaktiver, weil sie sich weniger über die zugrunde liegenden Absichten ihrer Reaktionen bewusst sind.

Wenn beispielsweise der Vorschlag gemacht wird, keinen Schmerz zu spüren, können sie den Schmerz unterdrücken – sie sind sich jedoch über ihre Absicht, dass sie hierzu in der Lage sind, nicht bewusst. Dies mag ebenso erklären warum die Erfahrungen außerhalb ihrer Kontrolle stattfinden. Studien zu Neuroimaging haben diese Hypothese noch nicht verifiziert, jedoch scheint die Veränderung der Hirnregionen, die in der Überwachung des Geisteszustandes, der Selbstwahrnehmung und verwandten Funktionen verwickelt sind, innerhalb des Hypnosezustands zu geschehen.

Auch wenn die Effekte der Hypnose zunächst unmöglich klingen, wird der dramatische Einfluss von Überzeugungen und Erwartungen auf die menschliche Wahrnehmung nun weitestgehend akzeptiert. Tatsächlich ähnelt dies sehr dem Placebo-Effekt, bei dem ein Medikament ohne Wirkstoff oder eine therapeutische Behandlung nur deswegen angewandt wird, weil der Patient an die Wirkung glaubt. Vor diesem Hintergrund scheint Hypnose vielleicht doch nicht so bizarr zu sein. Scheinbar sensationelle Reaktionen auf Hypnose mögen nur markante Vorfälle der Kräfte von Beeinflussbarkeit und Überzeugungen sein und das Ziel haben, unsere Wahrnehmung und unser Verhalten zu steuern. Unsere Erwartungen, was passieren wird, werden letztlich genau dem entsprechen, was wir erleben.

Für eine Hypnose benötigt man die Zustimmung des Teilnehmers oder Patienten. Im Gegensatz zu Vermutung der Popkultur kann niemand gegen seinen Willen hypnotisiert werden – und es gibt keine Hinweise darauf, dass man dazu gebracht werden kann, unmoralische Handlungen gegen den eigenen Willen auszuführen.

Hypnose als medizinische Behandlung

Meta-Analysen sowie Studien, die Daten vieler Untersuchungen zu einem bestimmten Thema zusammengetragen haben, haben gezeigt, dass Hypnose sehr gut funktioniert, wenn es um die Behandlung verschiedener Krankheiten geht. Hierzu zählen beispielsweise das Reizdarmsyndrom oder chronische Schmerzen. Geht es um andere Probleme, denen man sich entledigen will, wie Rauchen, Angstzustände oder auch einer posttraumatische Belastungsstörung, gibt es weniger eindeutige Ergebnisse – vor allem, weil hier zuverlässige Daten fehlen.

Auch wenn Hypnose bezüglich verschiedener Krankheiten und Symptome einen wertvollen Beitrag leisten kann, ist sie kein Allheilmittel. Wer dennoch über Hypnotherapie nachdenkt, sollte dies nur in Verbindung mit einer geschulten Fachkraft tun. Leider kann in manchen Ländern, wie beispielsweise in Großbritannien, jeder als Hypnotherapeut arbeiten. Allerdings sollte jeder, der Hypnose in einem klinischen oder therapeutischen Zusammenhang verwendet, eine Ausbildung in der jeweiligen Disziplin, wie beispielsweise klinische Psychologie, Medizin oder Zahnmedizin erhalten, um sicherzustellen, dass man über ausreichende Kenntnisse auf dem Gebiet verfügt.

Wir glauben, dass Hypnose wahrscheinlich durch eine komplexe Interaktion zwischen neuropsychologischen und psychologischen Faktoren zustande kommt – manche wirken, wie hier beschrieben, andere sind eher unbekannt. Es scheint, dass diese von Mensch zu Mensch unterschiedlich sind.

Während die Wissenschaft in ihren Erkenntnissen voranschreitet, wird zugleich immer deutlicher, dass dieses faszinierende Phänomen das Potential besitzt, uns einzigartige Einsichten zu geben, wie das menschliche Hirn funktioniert. Dies beinhaltet grundlegende Aspekte der menschlichen Natur, beispielsweise wie unsere Glaubensvorstellungen unsere Wahrnehmung der Welt beeinflussen, und wie wir die Kontrolle über unsere Handlungen erleben.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „Pendulum“ by innerwhispers (CC0 Public Domain)


Weiterlesen »

Brains vs. Robots: Der Aufstieg der Roboter ist nicht aufzuhalten

Arzt (adapted) (Image by tmeier1964 [CC0 Public Domain] via pixabay)

Elon Musk, der Tesla-Boss und Gründer von OpelAl, schlug vor ein paar Tagen vor, dass die Menschheit ihre eigene Irrelevanz hinauszögern könnte, indem sie sich selbst mit ihnen verbindet und zu Cyborgs werden möge. Jedoch lassen aktuelle Trends in der Software künstlicher Intelligenz und tiefergehender Lerntechnologie, vor allem auf lange Sicht gesehen ernsthafte Zweifel über die Plausibilität dieser Aussage entstehen. Diese Zweifel lassen sich nicht nur auf Einschränkungen in der Hardware zurückführen, sie haben auch damit zu tun, welche Rolle das menschliche Gehirn bei dem Zuordnungsprozess spielt.

Musks Theorie ist einfach und direkt: Ausreichend entwickelte Schnittstellen zwischen dem Gehirn und dem Computer soll es den Menschen ermöglichen, ihre Fähigkeiten durch besseres Verständnis über den Einsatz von Technologien wie maschinelles Lernen und tiefergehende Lernerfahrungen massiv zu erweitern. Aber der Austausch verläuft in beide Richtungen. Durch den Menschen als „Lückenfüller“ in der Verbindung zwischen Hirn und Maschine könnte die Leistung maschineller Lernalgorithmen verbessert werden, vor allem in Bereichen wie differenzierten kontextabhängigen Entscheidungen, in denen die Algorithmen noch nicht ausgereift genug sind.

Die Idee an sich ist nicht neu. So spekulierte beispielsweise unter anderem J. C. R. Licklider bereits Mitte des 20. Jahrhunderts über die Möglichkeit und Implikation der „Mensch-Computer Symbiose“. Allerdings entwickelte sich der Prozess seitdem nur langsam. Ein Grund hierfür ist die Entwicklung der Hardware. „Es gibt einen Grund, wieso sie ‚Hardware‘ genannt wird – sie ist ziemlich kompliziert“ (engl.: hard), sagte Tony Fadell, der Entwickler des iPods. Die Schaffung der Hardware, die sich mit organischen Systemen verbindet, sei noch schwieriger. Aktuelle Techniken sind primitiv im Vergleich zu der Vorstellung einer Verbindung von Gehirn und Maschine, wie sie uns in Science-Fiction-Filmen wie Matrix verkauft wird.

Macken der tiefgehenden Lernerfahrung

Angenommen, das Hardware-Problem würde letztendlich gelöst, gibt es noch weitaus größere Probleme. Das vergangene Jahrzehnt der enormen Fortschritte in der Forschung des Deep Learning hat aufgedeckt, dass weiterhin grundlegende Herausforderungen bezwungen werden müssen. Eine davon ist die Problematik, die Funktionsweise komplexer neuronaler Netzwerksysteme zu verstehen und zu charakterisieren. Wir vertrauen in einfache Technologien wie einen Taschenrechner, weil wir wissen, dass er immer genau das tun wird, was wir von ihm erwarten. Fehler lassen sich fast ausschließlich auf menschliche Eingabefehler zurückführen.

Eine Vorstellung der Verschmelzung von Gehirn und Maschine ist es, uns zu Supermenschen mit unfassbaren Rechenfähigkeiten zu machen. Statt einen Taschenrechner oder das Smartphone zu zücken, könnten wir die Rechnung einfach denken und sofort die richtige Antwort der „assistierenden“ Maschine erhalten. Besonders knifflig wird es bei dem Versuch, tiefer in die fortgeschrittenen Funktionen der maschinellen Lerntechniken zu gehen, wie beispielsweise bei Deep Learning.

Angenommen, Sie arbeiten in am Flughafen in der Sicherheitsabteilung und verfügen über eine Verschmelzung von Gehirn und Maschine, die jeden Tag automatisch tausende Gesichter scannt und über mögliche Sicherheitsrisiken alarmiert. Die meisten maschinellen Lernsysteme leiden unter einem Problem, bei dem eine kleine Veränderung in der äußeren Erscheinung einer Person oder eines Objekts dazu führen kann, dass katastrophale Fehler in der Klassifizierung entstehen. Verändern Sie das Bild einer Person um weniger als ein Prozent, kann es vorkommen, dass das maschinelle System denkt, es sähe ein Fahrrad statt eines Menschen.

Terroristen oder Verbrecher würden die verschiedenen Schwachstellen der Maschine ausnutzen, um Sicherheitskontrollen zu umgehen – solcherlei Probleme bestehen bereits bei der Online-Sicherheit. Auch wenn Menschen auf andere Weise eingeschränkt sind, bestünde diese Verwechslungsgefahr bei ihnen zumindest nicht.

Ungeachtet seiner Reputation als nicht emotionale Technologie leiden maschinelle Lerntechnologien wie Menschen unter Voreingenommenheit und können mit entsprechender Dateneingabe sogar rassistisches Verhalten aufweisen. Diese Unvorhersehbarkeit hat grundlegende Auswirkungen darauf, was passiert, wenn ein Mensch sich in die Maschine einklinkt und, wichtiger noch, dieser auch vertraut.

Vertraue mir, ich bin Roboter

Vertrauen ist ebenfalls eine beidseitige Angelegenheit. Menschliches Denken ist eine komplexe, höchst dynamische Angelegenheit. Schaut man sich dasselbe Sicherheitsszenario mit einer ausreichend entwickelten Verbindung von Gehirn und Maschine an, stellt sich die Frage: Woher soll die Maschine wissen, welche menschlichen Neigungen sie zu ignorieren hat? Schließlich sind unbewusste Neigungen eine Herausforderung, von der jeder betroffen ist. Was, wenn die Technologie bei der Befragung möglicher Bewerber hilft?

Wir können in bestimmtem Ausmaß die Vertrauensprobleme einer Hirn-Maschine-Verbindung vorhersehen, wenn wir auf die weltweiten Verteidigungskräfte blicken, die versuchen, das Vertrauen in menschliche Maschinen in einem stetig wachsenden menschlich-autonom gemischten Schlachtfeld anzusprechen. Die Forschung beschäftigt sich mit beiden Fällen: Bekannte autonome Systeme, bei denen Menschen den Maschinen vertrauen und Maschinen sich wiederum auf die Menschen verlassen.

Es existiert eine Parallele zwischen einem Roboter-Krieger, der die ethische Entscheidung trifft, eine rechtswidrige Anweisung des Menschen zu ignorieren und dem, was im Interface zwischen Gehirn und Maschine passieren muss. Dies sind Interpretationen der menschlichen Gedanken durch die Maschine, während flüchtige Gedanken und tiefe unbewusste Neigungen gefiltert werden.

In Verteidigungssituationen übernimmt die logische Rolle für ein menschliches Hirn die Prüfung, ob Entscheidungen ethisch vertretbar sind. Doch wie wird das funktionieren, wenn das menschliche Gehirn an eine Maschine angeschlossen ist, die Schlussfolgerungen aus Daten zieht, die kein Hirn begreifen kann? Auf lange Sicht ist das Problem, ob und wie Menschen in Prozesse involviert sein müssen, die zunehmend von Maschinen bestimmt werden. Bald werden Maschinen vielleicht sogar medizinische Entscheidungen übernehmen, die kein menschliches Team ausloten kann. Welche Rolle kann und sollte das menschliche Gehirn in diesem Prozess spielen?

In manchen Fällen vermehrt die Kombination aus Automatisierung und menschlicher Arbeitskraft die Jobaussichten, jedoch dürfte dieser Effekt demnächst verschwunden sein. Die gleichen Roboter und automatische Systeme werden allerdings weiterhin verbessert und schlussendlich die von ihnen geschaffenen Jobs ersetzen. Während Menschen zunächst eine „nützliche“ Rolle in Gehirn-Maschine-Systemen spielen könnten, entwickelt sich die Technologie weiter und es wird dementsprechend weniger Gründe geben, Menschen überhaupt in den Prozess zu integrieren.

Der Gedanke, die Relevanz der Menschheit mit der Verbindung von menschlichen und künstlichen Gehirnen aufrechtzuerhalten, scheint verlockend. Abzuwarten bleibt auch, welchen Beitrag das menschliche Gehirn hier beitragen wird – besonders, weil die technologische Entwicklung die des menschlichen Gehirns um eine Million zu eins überbietet.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „Arzt“ by tmeier1964 (CC0 Public Domain)


The Conversation

Weiterlesen »

Fabian Westerheide über Künstliche Intelligenz

Neural (adapted) (Image by geralt [CC0 Public Domain] via pixabay)

Dieser Beitrag ist Teil einer Artikelreihe im Vorfeld der Digitalkonferenz EXPLAINED von Microsoft Deutschland. Die Konferenz findet am 23. März 2017 in Berlin statt.


Künstliche Intelligenz (KI) und die Frage, was den Menschen und die Maschine zusammenbringt, treibt den Unternehmer, Venture Capitalist, Autor und Redner Fabian Westerheide um. Nachdem er in verschiedene Unternehmen investierte, ist er seit 2014 Geschäftsführer von Asgard – human VC for AI und leitet die KI-Konferenz Rise of AI. Außerdem ist er Koordinator für Künstliche Intelligenz beim Bundesverband Deutscher Startups. Ich habe mich mit ihm im Vorfeld zur Digitalkonferenz EXPLAINED von Microsoft Deutschland, bei der er als Speaker auftreten wird, zum Interview getroffen.

Was fasziniert Sie an Künstlicher Intelligenz?

Das war ein Prozess. Ich komme vom Land und habe schon immer an Computern herumgebastelt und mich für die Auswirkungen zwischen Mensch und Maschine interessiert. Dann bin ich Unternehmer geworden und habe in insgesamt 35 Firmen investiert, von denen die meisten aus dem Softwarebereich stammen. Irgendwann wusste ich, dass das Thema Künstliche Intelligenz, was mich durch Science-Fiction-Literatur schon seit den Achtzigern beschäftigt hat, endlich greifbar wurde. Mich fasziniert vor allem, dass es so ein komplexes Thema ist und wirtschaftliche, gesellschaftliche, militärische und politische Konsequenzen hat. Es betrifft sowohl Unternehmen als auch den einzelnen Menschen, es betrifft letztlich die ganze Menschheit. Das ist ein Thema, bei dem ich meine ganze Begeisterung für Politik und Gesellschaft einfließen lassen kann. Und ich fühle mich sehr wohl damit, weil es um mehr als Geldverdienen geht. Künstliche Intelligenz kann wirklich die Menschheit verändern – in die eine oder in die andere Richtung.

Was ist der nächste Entwicklungsschritt für die Künstliche Intelligenz?

Die Maschine muss noch besser lernen zu lernen. Das bedeutet, dass sie mit wenige Daten zurecht kommt und mit weniger Transferwissen arbeiten kann. Zum Beispiel kann man derzeit eine KI, die ein bestimmtes Auto fährt, nicht einfach in ein anderes selbstfahrendes Auto verpflanzen. Man kann sie auch nicht benutzen, um mit ihr mit Aktien zu handeln oder ein Flugzeug zu fliegen. Sie ist eigentlich ziemlich idiotisch angelegt und genau auf ihre Hardware programmiert. Innerhalb dieser Grenzen kann sie aber jederzeit weiterlernen. Wir müssen also den Schritt schaffen, dass die Software Hardware-unabhängig wird und Vorwissen aufbauen kann. Vor ein paar Wochen hat Google Deep Mind ein sehr interessantes Paper veröffentlicht, wo sie mit einer KI ein Spiel gespielt haben. Dieselbe KI wurde verwendet, um ein neues Spiel zu lernen. Die KI wurde also deutlich besser, weil sie über das Wissen verfügt, wie man so ein Spiel spielt. Sie konnte es auf ein anderes Spiel übertragen und dadurch besser werden als eine KI, die nur auf dieses eine Spiel hin programmiert wurde.

Ist das der Schritt zwischen einem gut funktionierenden Algorithmus und einem denkenden Wesen? Ich gebe zu, ich scheue mich etwas, diesen Prozess schon als Denken zu bezeichnen. Ich würde eher sagen, es ist eher ein Weiterverarbeiten. Oder fängt das Denken hier schon an?

Das ist schwierig zu sagen, hier fängt eigentlich eher die nächste Diskussion an: Denkt der Mensch wirklich, oder sind wir nicht viel eher hormon- und instinktgetrieben? Wie viel davon ist durch unser Unterbewusstsein bestimmt? Die meisten Menschen treffen Entscheidungen im Bruchteil einer Sekunde. Wir nennen das Bauchgefühl oder Instinkt. Eigentlich ist es aber eine Erfahrungskurve. Wir brechen unsere Erfahrungen herunter und denken nicht darüber nach, sondern handeln. So ist es bei der Maschine auch. Sie können noch nicht auf 20 Jahre Berufserfahrung zurückgreifen oder auf eine jahrelange Erziehung. Wir als Menschen hingegen haben ungeheuer viel Input verarbeitet und sind biologisch dafür ausgelegt, alles abzuspeichern. Seit es im Jahr 2012 den großen Durchbruch mit den neuronalen Netzen gegeben hat, haben die Maschinen auch ein Kurzzeitgedächtnis. Was noch fehlt ist ein Langzeitgedächtnis und das Abstraktionslevel. Und genau das passiert gerade: Wir bauen Schritt für Schritt ein kollektives Gedächtnis auf, eine Art Schwarmintelligenz. Wir müssen also noch nicht einmal eine menschenähnliche KI haben, um zu erreichen, dass sie denkt, sondern wir brauchen eine KI, die untereinander kommuniziert und kollektiv Wissen verarbeitet. Wenn ein Auto beispielsweise einen fatalen Fehler macht, wie es bei dem Tesla-Unfall mit dem LKW geschehen ist, dann passiert ihm das ein einziges Mal. Seit diesem Vorfall können alle hunderttausende Teslas da draußen LKWs erkennnen. Das ist eine Intelligenzleistung, die mehr schafft als ein einzelner Mensch.

Image by Fabian Westerheide
Image by Fabian Westerheide

Wir müssen die KI also nicht nur schulen, sondern auch erziehen?

Genau das. Der Hirnforscher Danko Nikolic sagt, wir brauchen einen KI-Kindergarten, eine Art DNA für künstliche Intelligenz. Ich finde diese These sehr interessant. Wir müssen es schaffen, diese Lernalgorithmen einer KI beizubringen. Sie muss lernen zu lernen, damit sie weiß, wie man selbst Wissen generiert. Das können wir Menschen besonders gut. Die KI kann das noch nicht, also wird der Durchbruch im Lernalgorithmus die nächste Stufe sein. Dann muss man sie trainieren, ausbilden und erziehen, wie man Kinder erzieht. Wenn das passiert, wird das, was wir jetzt haben, schneller und auch deutlich interessanter. Eine KI hat noch keine Eigenmotivation, ich weiß aber, dass Teams bereits daran arbeiten.

Welche Jobs sind bisher immer noch nicht vollständig durch Maschinen ersetzbar? Wo geht hier die Entwicklung hin?

Momentan sind es zwei: Menschen und Komplexität. Wir sind Menschen und wollen deshalb natürlich weiterhin menschliche Interaktion. Ich behaupte, dass ‚Made by Humans‘ irgendwann bei Produkten ein Qualitätsmerkmal sein wird, für das die Leute mehr bezahlen werden. Bei der Interaktion kann es zu einer Mischung kommen: In der Pflege werden wir Pflegeroboter haben, die uns beispielsweise dabei helfen, den schweren alten Mann zu wenden, aber die menschliche Komponente muss erhalten bleiben. Eine KI nimmt dich nicht in den Arm, sie kann aber konkrete Ergebnisse liefern. Das dauert wohl aber noch gut 10 bis 15 Jahre. Eine KI kann erkennen, wie Prozesse am besten durchzuführen sind, aber bei emotionaler Intelligenz muss sie eben passen. Wir brauchen keinen menschlichen Maler, aber einen menschlichen Innenarchitekten. Je einfacher der Job ist, desto eher können wir ihn durch die Maschinen erledigen lassen. Sie hat aber noch immer ein Problem mit der Motorik, das haben wir noch nicht gelöst. Softwaretechnisch hingegen ist sie uns natürlich haushoch überlegen, jeder Taschenrechner kann besser rechnen als du und ich.

Wir müssen der KI auch Kontext beibringen, damit sie uns wirklich helfen kann.

Bei Service-KIs funktioniert das sogar schon. Die KI kann erkennen, ob der Kunde gut oder schlecht gelaunt ist, ob er etwas umtauschen will und ob sie ihm noch mehr Angebote machen soll oder nicht. Das würde ich schon als Kontext bezeichnen. Jeder, der schon einmal Kundensupport gemacht hat, wird das kennen – man muss Zweideutigkeit erkennen und das kriegen schon wir Menschen manchmal nicht ordentlich hin. Wie wollen wir da erwarten, dass die KI es besser macht? Der erste Schritt ist also: Sie muss lernen, es zumindest schon einmal besser zu machen als der Schlechteste von uns.

Wenn man manche Artikel liest, werden die Maschinen oft sehr dystopisch als unser Untergang beschrieben, sowohl gesellschaftlich als auch arbeitstechnisch. Wie gehen Sie mit dieser Angst der Menschen um?

Ich erlebe es ab und zu, dass die Menschen bei einem gewissen Level fast schon technologiefeindlich sind und regelrecht Angst vor der KI haben. Aber ich finde, dass Probleme wie die globale Erwärmung, der Terrorismus oder auch nur zu viel Zucker im Blut viel gefährlicher für die Menschheit sind. Wir sollten wirklich versuchen, etwas unaufgeregter an das Thema KI heranzugehen. Ja, die Digitalisierung frisst eine Menge Jobs. Aber das ist doch super! Niemand muss mehr langweilige Jobs machen, wir haben viel mehr freie Zeit. Wir können die KI benutzen, um in unserer Tätigkeit noch produktiver zu sein. Wir können so sogar mehr Jobs nach Europa holen, weil es günstiger und effektiver ist, die Handgriffe an eine KI outzusourcen als an irgendwelche ausgebeuteten Clickworker in Indien. Das Ganze bringt einen enormen strukturellen Wandel mit sich, weil wir uns von der Industriegesellschaft zur Servicegesellschaft und auch zu einer Wissensgesellschaft wandeln.

Die Großkonzerne von heute haben bereits begriffen, dass sie sich entwickeln müssen, sie tun sich damit aber noch etwas schwer. Das sind reine Industrieunternehmen, die aus einer ganz anderen Hierarchie und einer anderen kulturellen Epoche kommen. Künstliche Intelligenz ist hier nur die Spitze des Eisberges, denn unsere Industrie ist nicht für digitale Umbrüche gerüstet. Wir sind an dieser Stelle in kultureller Hinsicht noch komplett falsch aufgestellt.

Wie steht es um die Entwicklung von Künstlicher Intelligenz in Deutschland?

Das deutsche Problem daran ist, dass wir mal wieder den Trend verschlafen. Es gibt kaum KI-Unternehmen hierzulande – wir sind eher auf den abgeschlagenen Plätzen zu finden. Im Moment sind die US-amerikanischen KI-Unternehmen besser finanziert und es gibt viel mehr Firmen als hier, obwohl der Markt nicht so groß ist wie unserer. Es geht auch nicht darum, noch etwas zu entwickeln, dass uns unser Essen schneller liefert, sondern darum, dass uns eine strategische Entwicklung entgeht. Wir brauchen endlich mehr Forschung, mehr Kapital und mehr Unternehmen in Deutschland und Europa, um eine strategisches, wirtschaftliches und politisches Gegengewicht herstellen zu können. Nur dann können wir auf Augenhöhe miteinaner verhandeln.


Image (adpated) „Neural“ by geralt (CC0 Public Domain)


Weiterlesen »

Warum wir Künstliche Intelligenz demokratisieren sollten… ja müssen!

Brain (adapted) (Image by PeteLinforth [CC0 Public Domain] via pixabay)

Dieser Beitrag ist Teil einer Artikelreihe im Vorfeld der Digitalkonferenz EXPLAINED von Microsoft Deutschland. Die Konferenz findet am 23. März 2017 in Berlin statt.


Unser Bild von Künstlicher Intelligenz ist wahrscheinlich zu sehr von Science-Fiction geprägt. Es wirkt beinahe so, als ob das Thema Künstliche Intelligenz noch in den Kinderschuhen steckt. Mit einem chattende Bots oder unsere spielerische Auslotung der Fähigkeiten von Apples Siri oder Microsofts Cortana lassen das zwar vermuten, in Wahrheit werden aber bereits jetzt die Weichen für die Zukunft gestellt. Es gibt dabei nur ein Problem: bisher werden diese Weichen beinahe nur von einigen wenigen Technologie-Unternehmen gestellt.

Wir als Gesellschaft sind an den Entscheidungen nicht beteiligt und die von uns mit öffentlichen Mitteln geförderte Forschung ist im Vergleich nicht konkurrenzfähig. Das von der Europäischen Union und verschiedenen Bundesministerien geförderte Deutsche Forschungszentrum fu?r Künstliche Intelligenz (DFKI) gilt als eines der weltweit führenden und größten Forschungseinrichtungen zum Thema Künstliche Intelligenz. Rund 42,5 Millionen Euro standen dem DFKI dafür im Jahr 2015 zur Verfügung.

Die Summe ist ein Bruchteil von dem, was Unternehmen wie Google, Microsoft, IBM, Intel, Apple, Baidu und Salesforce in den letzten Jahren für Akquisen und Forschung ausgegeben haben. Seit 2011 wurden rund 140 Firmen für Künstliche Intelligenz von ihnen aufgekauft, davon allein 40 im Jahr 2016. Und Google hat in den letzten Jahren bereits mehr als 4 Milliarden US-Dollar in strategische Projekte für Maschinelles Lernen und vernetzte Geräte investiert. Die Lücke zwischen öffentlichem und unternehmerischem Wissen ist schon jetzt riesig.

Doch wer die Grundlagen in diesem Bereich setzt, wird auch die Zukunft nach seinen Vorstellungen gestalten können. Maschinelles Lernen und Künstliche Intelligenz werden wesentlich für die wirtschaftliche Wertschöpfung in unserer Gesellschaft werden. Dieses Potential nur in die Hände weniger Unternehmen zu geben, so sympathisch ihr Engagement heutzutage erscheint, ist gefährlich. Es könnte dazu führen, dass nach Gewinn strebende Firmen Entscheidungen zum eigenen Wohl und nicht dem unserer Gesellschaft treffen.

Demokratisierung von Künstlicher Intelligenz zum Wohle aller

Die Möglichkeiten von Maschinellem Lernen und Künstlicher Intelligenz allen Menschen zur Verfügung stellen, welche Innovationen dadurch entdeckt werden können, wenn nicht nur Unternehmen darüber nachdenken, sondern alle forschenden und nach Veränderungen sowie Weiterentwicklungen strebende Menschen, ist kaum zu erahnen. Künstliche Intelligenz als vielleicht das wichtigste Produktionsmittel der Zukunft muss zum Wohle aller Menschen – und das weltweit – demokratisch gestaltet werden und zugänglich sein.

Diese Verteilung von Macht ist unserem politischen Demokratiesystem zu eigen, wir kennen die Vorteile von Dezentralität aber auch vom Internet. Dass sich heutzutage Menschen für ein offenes und freies Internet einsetzen, liegt daran, dass diese Ideen zwischen der akademischen Nutzung des Internets bis Ende der 1970er Jahre und der kommerziellen Nutzung ab 1990 entwickelten. Diese wilden Jahre des Internets prägten unser Verständnis davon. Künstliche Intelligenz scheint von Beginn an nur kommerziell zu sein.

Die Demokratisierung von Künstlicher Intelligenz ist aber keine weitere politische Forderung, voller die Realität ignorierender Ideale, sondern auch im Interesse der Unternehmen und deshalb der Hebel unserer Gesellschaft, um eine Veränderung zu erzielen. Denn damit eine Künstliche Intelligenz entstehen kann, braucht es Unmengen an Daten für Maschinelles Lernen von biologischer Intelligenz, also uns Menschen. Damit etwas wie beispielsweise Microsofts Cortana sich entwickeln kann, muss es von uns sehr viel noch lernen.

Vermutlich werden wir Künstliche Intelligenz als eine weitere technische Annehmlichkeit empfinden. Wollen wir aber, dass die Programme alles über uns wissen, nur damit sie bessere Vorhersagen treffen können? Und wenn ja, wollen wir das auch, wenn ein gewinnstrebendes Unternehmen dahintersteht – und auch dann noch, wenn wir als Gesellschaft keinen wirklichen Vorteil außer ein paar mehr Online-Dienste haben? Unsere Informationen sind wichtig für die Entwicklung Künstlicher Intelligenzen. Wir als Gesellschaft sollten davon profitieren.

Was meinen Sie, Peter Jaeger?

Dies alles kann man am 23. März 2017 auf der nächsten EXPLAINED-Digitalkonferenz von Microsoft Berlin mit Peter Jaeger besprechen. Das Mitglied der Geschäftsleitung von Microsoft Deutschland spricht dort über das Thema Demokratisierung von Künstlicher Intelligenz. Ich bin schon auf seine Antworten gespannt. Mit Cortana entwickelt Microsoft ein Anwendungsbeispiel, wie wir wohl in wenigen Jahren schon Künstliche Intelligenz im Alltag benutzen. An Cortana können wir erkunden, wer von Künstlicher Intelligenz profitiert.


Image (adapted) „Brain“ by PeteLinforth (CC0 Public Domain)


 

Weiterlesen »

Daten und Organe: Warum Spenden nach dem Tod sinnvoll ist

Ehr (adapted) (Image by mcmurryjulie [CC0 Public Domain] via pixabay)

Den meisten Menschen ist bewusst, dass sie ihre Organe spenden können, wenn sie sterben. Das zu tun, ist sehr wichtig: Jeder verstorbene Spender kann damit Leben retten, wenn er seine Organe und sein Gewebe spendet und diese für Transplantationen genutzt werden. Die Unterstützung der Organspende durch die Bevölkerung ist sehr groß – in manchen Ländern beträgt sie mehr als 80 Prozent, auch wenn viele Menschen es noch nicht geschafft haben, sich als Organspender registrieren zu lassen. Aber Organe sind nicht das Einzige, was ihr spenden könnt, wenn ihr tot seid. Wie wäre es mit einer Spende eurer medizinischen Daten?

Daten scheinen nicht auf dieselbe Art wichtig zu sein wie Organe. Menschen brauchen Organe, um am Leben zu bleiben, um nicht für mehrere Stunden am Tag an der Dialyse angeschlossen sein zu müssen. Medizinische Daten sind ebenfalls sehr wertvoll – auch wenn sie nicht unmittelbar jemandem das Leben retten. Warum? Weil medizinische Forschung nicht ohne medizinische Daten erfolgen kann. Ungünstigerweise sind die Behandlungsunterlagen der meisten Menschen nach ihrem Tod für die Forschung nicht zugänglich.

Beispielweise kann Schichtarbeit den Tagesrhythmus stören. Dies wird inzwischen als eine mögliche Ursache für Krebs angesehen. Eine große Kohortenstudie mit bis zu hunderttausenden Individuen könnte uns helfen, verschiedene Aspekte der Schichtarbeit zu betrachten, inklusive Chronobiologie, Schlafstörungen, Krebsanzeichen und vorzeitigem Altern. Die Ergebnisse einer solchen Studie könnten für die Krebsvorsorge sehr wichtig sein. Aber momentan könnte jede dieser Studien durch die Unmöglichkeit, Daten von Teilnehmern einzusehen und zu analysieren, wenn diese gestorben sind, lahmgelegt werden.

Datenrechte

Während ihrer Lebenszeit haben Menschen bestimmte Rechte, die es ihnen ermöglichen, zu kontrollieren, was mit den sie betreffenden Daten geschieht. Beispielsweise können wir kontrollieren, ob unsere Telefonnummern und Adressen öffentlich zugänglich sind. Wir können Kopien der Daten erfragen, die bei jeglichen öffentlichen Körperschaften von uns gespeichert sind und kontrollieren, was Facebook über uns anzeigt. Wenn wir tot sind, können wir dies alles natürlich nicht mehr. Die Kontrolle unserer digitalen Identität nach dem Tod ist ein kontroverses Thema. Beispielsweise können Familien oftmals nicht auf die iTunes-Käufe oder auf die Facebookseite eines verstorbenen Verwandten zugreifen, um anzuzeigen, dass er oder sie verstorben ist.

Sobald es um medizinische Aufzeichnungen geht, wird es noch komplizierter. Während sie am Leben sind, stimmen viele Menschen einer Teilnahme an medizinischer Forschung zu, sei es ein klinischer Versuch mit einem neuen Medikament oder eine Längsschnittstudie mit medizinischen Aufzeichnungen. Ohne ihre Einwilligungserklärung kann eine Studie normalerweise nicht stattfinden. Medizinische Vertraulichkeit wird allgemein als extrem wichtig angesehen und kann nur durch die Zustimmung des Patienten aufgehoben werden.

In den meisten Rechtsprechungen gilt dies auch, wenn eine Person tot ist – mit dem zusätzlichen Problem, dass von ihr zu diesem Zeitpunkt keine Zustimmung mehr eingeholt werden kann. Aber es wäre falsch, anzunehmen, dass jeder eine solche strenge Datenvertraulichkeit über den Tod hinaus wünscht. Genau wie im Leben würden manche Menschen ihre Daten der medizinischen Forschung zur Verfügung stellen, um neue Behandlungsmöglichkeiten zu entwickeln, die Menschenleben retten könnten.

In Anerkennung dieser Tatsache wurde Forschern in einigen Ländern gestattet, die Daten verstorbener Personen zu nutzen. In Großbritannien werden Behandlungsunterlagen nach dem Tod des Patienten für 100 Jahre als vertrauliche Verschlusssache behandelt. Man kann jedoch die Erlaubnis des Public Records Office einholen, um die Daten des Verstorbenen für die Forschung zu nutzen.

Allerdings hat das Vereinigte Königreich eines der tolerantesten Systeme weltweit, wenn es um die Datennutzung nach dem Tod geht. Im Gegensatz dazu müssen deutsche Forscher einige Hürden meistern. Erstens müssen sie nachweisen, dass das Recht des Einzelnen auf Privatsphäre weniger wichtig ist als der potentielle gesellschaftliche Nutzen durch die Studie – was schwierig zu beweisen ist, da kein Forscher vor Durchführung einer Studie weiß, was deren letztendlicher Nutzen sein wird. Zweitens müssen sie immer, wenn es machbar ist, anonymisierte Daten nutzen. Das heißt, viele wertvolle Hintergrundinformationen über Patienten könnten nicht verfügbar sein, weil alle potenziell identifizierenden Daten entfernt wurden. Drittens müssen die Forscher belegen, dass es keinen anderen Weg gibt, um die Forschungsfrage zu beantworten. Und viertens müssen sie nachweisen, dass die Person nicht um ihre Zustimmung gebeten werden konnte.

In den USA werden Forscher dazu ermutigt, Daten nach dem America COMPETES Act zu teilen. Aber dieses Gesetz bezieht sich auf Daten, die bereits von Forschern genutzt werden, statt ihnen Zugang zu den Behandlungsunterlagen Verstorbener zu geben, welche im Normalfall nach dem Tod vertraulich bleiben.

Unser Vorschlag

Die Forscher müssen sich hier mit riesigen Hürden auseinandersetzen. Auch wenn sie diese irgendwann überwinden können, wird in jedem Fall Zeit und Geld verschwendet. Wäre es nicht einfacher, wenn die Menschen sich als Datenspender melden könnten, genau wie sie sich als Organspender registrieren lassen können? Auf diese Weise läge den Forschern die Zustimmung vor, die Daten postum zu nutzen. Leider gibt es nirgendwo ein existierendes System, um das auch zu leisten.

Als Forscher für Medizin und Ethik empfinden wir die Regelungen, die den Datenaustausch in einigen Ländern abdecken, als unangemessen. Wir meinen, dass Länder nationale Datenbanken von Datenspendern einrichten sollten, die von Patienten genutzt werden könnten, um zu kontrollieren, wie ihre medizinischen Daten genutzt und geteilt werden. Die Patienten sollten mit diesen Datenbanken aber auch die Möglichkeit haben, anzuzeigen, ob sie eine weitere Verwendung ihrer Daten nach dem Tod wünschen.

Die Menschen sollten angeben können, mit welcher Art Projekten sie ihre Daten teilen wollen, welche Teile ihrer Behandlungsunterlagen sie zur Verfügung stellen, und ob sie bereit sind, Daten auch nichtanonymisiert bereitzustellen. Sie sollten ebenfalls eine „allgemeine Zustimmung“ zur zukünftigen Datennutzung erteilen können, wenn sie das möchten. Eine Datenspende nach dem Tod sollte diskutiert werden, um zu vermeiden, dass die Daten mit den Patienten sterben, was wiederum zu weiteren Todesfällen führt, denn es behindert die medizinische Forschung.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „Ehr“ by mcmurryjulie (CC0 Public Domain)


Weiterlesen »

Codewort Introspektion – Wie Veränderungen im Körper unsere Entscheidungen beeinflussen

Wie werden wir uns unserer eigenen Gedanken und Gefühle bewusst? Und was lässt uns wissen, wann wir eine gute oder schlechte Entscheidung getroffen haben? Jeden Tag sind wir mit vielschichtigen Situationen konfrontiert. Wenn wir aus unseren Fehlern lernen wollen, ist es wichtig, dass wir ab und zu über unsere gefällten Entscheidungen nachdenken. Habe ich die richtige Entscheidung getroffen, als ich mit der Hypothek meines Hauses gegen den Markt spekulierte? War die Ampel gerade noch grün oder doch schon rot? Habe ich wirklich Schritte auf dem Dachboden gehört oder war es nur der Wind?

Wenn wir es mit ungewissen Ereignissen zu tun haben, wenn beispielsweise die Windschutzscheibe unseres Wagens während der Fahrt beschlägt, sind wir nicht mehr so sicher, ob wir in dem Moment richtig hingeschaut und uns für die beste Lösung entschieden haben. Wir gehen davon aus, dass die Fähigkeit, unsere eigenen Erfahrungen bewusst zu untersuchen, davon abhängt, als wie zuverlässig oder „verschwommen“ unser Gehirn die Informationen beurteilt, die diese Erfahrungen bewirken. Dieses Erlebnis wird auch Introspektion genannt. Einige Wissenschaftler und Philosophen glauben, dass diese Fähigkeit zur Introspektion ein notwendiges Merkmal des Bewusstseins ist und das entscheidende Bindeglied zwischen Sinneseindruck und Bewusstsein bildet.

Man nimmt an, dass das Gehirn eine Art Statistik aufstellt, die Möglichkeiten gemäß ihrer Verlässlichkeit gewichtet, um ein Gefühl des Vertrauens zu erzeugen. Dieses Gefühl befindet sich mehr oder weniger im Einklang mit dem, was wir tatsächlich gesehen, gefühlt oder getan haben. Und obwohl diese Theorie einen vernünftigen Ansatz bietet, um unser Vertrauen angesichts einer breiten Palette von Situationen zu erklären, vernachlässigt sie eine wichtige Tatsache über unser Gehirn – es befindet sich in unserem Körper. Sogar jetzt, während Sie diese Worte lesen, werden Sie wahrscheinlich zumindest ein vages Bewusstsein davon haben, wie sich Ihre Socken anfühlen, wie schnell Ihr Herz schlägt oder ob der Raum, indem Sie sich befinden, eine angenehme Temperatur hat.

Auch wenn wir uns dieser Dinge nicht immer bewusst sind, gibt der Körper immer wieder vor, wie wir uns und die Welt um uns herum erleben. Das heißt, die Erfahrung ist immer von einem bestimmten Ort aus, in einer bestimmten Perspektive verkörpert. Tatsächlich legen die jüngsten Forschungen nahe, dass unser Bewusstsein von der Welt sehr stark von exakt diesen internen Körperzuständen abhängt. Aber was ist mit Vertrauen? Ist es möglich, dass, wenn wir über das nachdenken, was wir gerade gesehen oder gefühlt haben, unser Körper im Hintergrund die Fäden zieht?

Einrichten des Experiments

Um diese Möglichkeit experimentell zu testen, entwickelten wir ein Szenario, in dem wir subtile, unbewusste Veränderungen in der physiologischen Erregung der 29 Teilnehmer – wie Herzschlag und Pupillenerweiterung – nachvollziehen konnten. Wir wollten herausfinden, wie sich dies auf ihre bewussten Entscheidungen und ihr Vertrauen auf eines einfachen visuellen Reiz hin auswirken würde. Da wir wissen, dass wir Menschen im Allgemeinen unser Vertrauen gemäß der Verlässlichkeit eines Erlebnisses gewichten, wollten wir herausfinden, ob diesem Prozess durch eine plötzliche, unbewusste Veränderung des Erregungszustandes entgegengewirkt werden oder ob er sogar umgekehrt werden könnte.

Dies erforderte einen experimentellen Reiz, bei dem die Präzision oder die sunsicherheit eines visuellen Erlebnisses manipuliert werden konnte. Um dies zu erreichen, mussten Freiwillige auf einem Bildschirm eine Wolke aus sich bewegenden Punkten betrachten und entscheiden, ob diese nach links oder rechts zogen. Sie mussten auch ihr Vertrauen in diese Entscheidung bewerten. Unsere Punktreize wurden insbesondere dahingehend entworfen, dass sie entweder eine hohe oder eine niedrige Wahrnehmungspräzision zulassen.

Auf der linken Seite des Bildschirms bewegten sich die Punkte klar und relativ eindeutig nach rechts. Die rechten Punkte bewegten sich jedoch und verteilten sich über die ganze Fläche. In statistischer Hinsicht ist die Varianz ihrer Bewegung also höher. Wie erwartet, waren die Aussagen der Teilnehmer, die den den rechten Teil mit den verschwommeneren Punkten betrachteten, weniger genau. Die Teilnehmer hatten ein geringeres Vertrauen. Das Gehirn wirkt wie eine Art Statistiker. Ohne, dass unsere Freiwilligen zuvor darüber Bescheid wussten, intergrierten wir bei etwa der Hälfte der Testpersonen eine Abbildung eines angewidertschauenden Gesichtes. Dies wurde jedoch nur so kurz eingeblendet, dass es nicht bewusst wahrgenommen werden konnte.

Diese subtile Manipulation sorgte für einen erhöhten Herzschlag und erweiterte Pupillen bei den entsprechenden Teilnehmern. Dies hat evolutionäre Gründe, denn Gefühle wie Ekel stellen einen starken Reizfaktor für Situationen dar, in denen etwas in unserem Körper schief gegangen sein könnte. Wenn jemand in unserer Nähe also angewidert schaut und sich zu erbrechen beginnt, wird oftmals eine ähnliche Reaktion in unserem eigenen Körper ausgelöst. Durch eine kurze Reizung bei allen Teilnehmern, die dieses Signal erhielten, konnten wir eine Art „introzeptiven Vorhersagefehler“ bewirken – wir konnten ihr Gehirn dazu bringen, zu denken, dass in ihrem Körper gerade etwas Unerwartetes passiert sei. Dadurch konnten wir nicht nur untersuchen, ob ein vom Hirn gesteuertes Vertrauen mit Reaktionen vom Herzen und der Pupille korrelieren, sondern auch sehen, ob die Störung der Abbildung die Art und Weise verändert, wie die Menschen von ihren Erlebnissen berichteten.

Tatsächlich haben wir festgestellt, dass diese überraschenden Veränderungen in der Erregung des Freiwilligen den Auswirkungen der veschwommenen Punkte auf ihr Vertrauen entgegenwirkten, was das Vertrauen für die einfacheren Punkte leicht verringerte und es für die schwierigeren stärkte. Darüber hinaus konnte diese Umkehrung in den Reaktionen von Pupille und Herz selbst beobachtet werden. Je mehr ein Körper eines Freiwilligen auf den unsichtbaren Ekel reagierte, desto deutlicher ging das Vertrauen bei dem jeweiligen Test verloren. Obwohl sich das Bewusstsein wie eine Art Statistiker verhielt, nutzte es auch Informationen des Körpers, um zu beeinflussen, wie sich die Teilnehmer fühlten.

Diese Ergebnisse, die in der Zeitschrift eLife veröffentlicht wurden, deuten darauf hin, dass sich unsere visuellen Erfahrungen auf mehr als nur das beziehen, was das Auge sieht. In der Tat hängt es auch von dem inneren Zustand unseres Körpers ab – von unserem Herzen und unserer physiologischen Erregung. Wenn wir unsere Erfahrung beurteilen und das Auge des Geistes gleichsam nach innen wenden, scheint es, dass der Körper beeinflusst, was wir vorfinden.

Dies ist ein wichtiger erster Schritt zum Verständnis, wie der Körper den Geist beeinflusst, auch wenn wir uns dessen nicht bewusst sind. Angesichts dieser Erkenntnisse ist unsere Forschergruppe gespannt darauf, aufwändige Computermodelle für diesen Prozess zu entwickeln. Unsere Hoffnung ist es, dass solche Modelle es uns ermöglichen, eine Vielzahl von psychiatrischen und medizinischen Zuständen, wie Angst und Psychose, besser zu verstehen, da Veränderungen der körperlichen Signale und des Selbstbewusstseins des Patienten möglicherweise in eine unrealistische, weil besonders sichere oder unsichere Welt einschließen könnten. Dies kann letztlich zu neuen Behandlungen führen, die auf die Auswirkungen der kardiovaskulären Erregung auf gestörtes Vertrauen und Selbstbewusstsein setzen.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image “eye” (adapted) by BreaW (CC0 Public Domain)


Weiterlesen »

Wie wir verletzte Gelenke mit Stammzellen reparieren

Ein Meniskusriss ist eine der häufigsten Knieverletzungen, vor allem bei jungen, aktiven Menschen. Mehr als eine Million neuer Fälle werden jährlich nur in Europa und den USA diagnostiziert und auch Profisportler kann es treffen – Fußballer Luis Suarez, Tennisprofi Roger Federer und die olympische Schwimmerin Sharon Davies stellen ein paar große Namen unter den vielen Eliteathleten dar, die einen Meniskusriss erleiden mussten. Leider gibt es keine effektive Therapie für diese Verletzung, aber ich und mein Team glauben, dass wir einen Schritt näher an eine Behandlung herangerückt sind. Unser „lebender Verband“ benutzt Stammzellen und Kollagen, um die verletzten Meniskusknorpel, die als eine Art Stoßdämpferwirken, nachwachsen zu lassen.

Wir finden Knie toll – sie sind hochklassige Ingenieurskunst, entstanden über Jahrtausende im Zuge der Evolution. Jeden Tag werden gewaltige Kräfte auf die Knie ausgeübt, wenn wir aufstehen, gehen oder laufen. Im normalen Alltag wird drei bis fünf mal die Gewichtskraft unseres Körpers damit belastet. Diese Extrembedingungen müssen sie jeden Tag überstehen, während sie uns die Flexibilität gewähren, die wir bei jeder Bewegung genießen. Wenn die Knie einwandfrei funktionieren, bemerken wir sie kaum. Wenn sie aber verletzt sind, dann erleiden wir furchtbare Schmerzen und verlieren die Freiheit, ein normales, aktives Leben zu leben.

Einer der Gründe, aus dem unsere Knie so gut funktionieren, sind die Menisukusknorpel, die zwischen den Knochenenden liegen wie harte Kissen. Es gibt in jedem Knie zwei Menisken und diese sind extrem wichtig, um die Knochen im Gelenk zu schützen. Wenn sie verletzt sind, haben wir ein Problem. Ein Meniskusriss ist aber eine typische Sportverletzung, denn die Menisken können bei einem Schlag aufs Knie leicht reißen.

Die meisten Risse heilen nicht, weil es keine Blutzufuhr gibt und so die natürlichen Heilmechanismen nicht einsetzen können. Normalerweise behandelt man so eine Verletzung, indem man den verletzten Teil des Meniskus herausoperiert. Am Anfang funktioniert das noch sehr gut, aber auf lange Sicht funktionieren unsere Knie nicht ohne vollständigen Meniskus. Zum Beispiel kommt es zu Reibung der Knochenenden aneinander und das kann zu frühzeitiger Osteoarthritis führen. Sobald die Arthritis einsetzt, führt sie unaufhaltsam zu chronischem Schmerz und letztlich zu einem Gelenkersatz. Weil Meniskusrisse oft junge, sportliche Menschen betreffen, kann dies viele Jahre der Einschränkung durch Arthritis und einen großen Kostenaufwand für das Gesundheitssystem bedeuten.

Der lange Weg zu einem Heilmittel

Mein Forschungsteam hat vor etwa 13 Jahren begonnen, sich auf dieses Problem zu konzentrieren. Ziel war es, lebende Zellen mit Heilfähigkeiten in den Riss einzusetzen und so eine Heilung von innen zu initiieren. Damals studierten wir die Eigenschaften eines speziellen Zellentyps, der mesenchymalen Stammzelle, die in kleiner Anzahl im Knochenmark zu finden ist und eine essenzielle Rolle bei natürlichen Heilprozessen im Körper einnimmt.

Allerdings war eine einfache Einsetzung der Stammzellen in den Riss nicht genug, da die Zellen nicht am richtigen Platz ankamen.Wir mussten einen Weg finden, die Stammzellen nah an den zwei verletzten Oberflächen des Risses zu halten, sodass sie sich an das verletzte Gewebe anfügen und ihre molekularen Signale auszusenden und eine Reparatur anzufordern. Letztendlich erreichten wir dies, indem wir eine der Stammzellen in eine Kollagen-Membran einfügten und diese in den Riss einführten. Über den Verlauf mehrerer Wochen gehen die Stammzellen auf den Meniskus über und das Kollagen löst sich langsam auf, sodass eine Heilung erfolgen kann.

Wir veröffentlichten unsere Resultate, ließen unsere Entdeckung patentieren und machten uns dann daran, die Wissenschaft auf die Medizin anzuwenden, indem wir ein Produkt namens „Zellenverband“ entwickelten und an Patienten testen ließen. Bisher wurde das Verfahren auf fünf Patienten angewendet, und auch wenn zwei dieser fünf einen erneuten Riss erlitten, so sind doch die anderen drei auch mehr als drei Jahre später noch völlig wohlauf.

Die äußersten Ränder des Meniskus können zwar auch ohne Stammzellen geheilt werden, da hier eine Blutzufuhr vorliegt, der größte Teil des Meniskus ist aber irreparabel und so ist ein neuer Riss innerhalb von einem Jahr bei allen Betroffenen zu erwarten. Demzufolge ist die Erfolgsquote von 60 Prozent in der ersten Patientengruppe durchaus ermutigend und macht den Weg frei für größere Versuche in der Zukunft. Knie sind wirklich wundervoll – und Stammzellen stehen ihnen in nichts nach.

Dieser Artikel erschien zuerst auf „The Conversation” unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image „doctor“ by Andersonvr (CC0 Public Domain)


Weiterlesen »

Warum wir Fremden in der Sharing Economy mehr trauen als unseren Kollegen

Vertrauen ist ein wichtiges Element in jeder Beziehung, vor allem jedoch, wenn es sich um Finanzielles dreht. Der Aufstieg von Sharing Economy-Plattformen wie Airbnb und Uber – auf denen man einen Fremden für einen bestimmten Service entlohnt – ist besonders von Vertrauen abhängig. Sind sie wirklich, was sie vorgeben, zu sein? Werden sie erfüllen, was sie versprochen haben?

Mit digitaler Hilfe wird Vertrauen zwischen Personen aufgebaut, die sich noch nie getroffen haben. Tatsächlich zeigen meine Untersuchungen, dass, wenn diese Funktionen gut konzipiert sind, die Dienste der Sharing Economy mehr Vertrauen zwischen Fremden aufbauen als man zwischen zwei  Kollegen erwarten würde.

Das waren die Erkenntnisse der jüngsten Forschung über die Nutzer von BlaBlaCar, einer Plattform für Mitfahrgelegenheiten. Dieser Dienst wird weltweit für Fahrten von einer Stadt in die andere benutzt. Er verbindet Fahrer mit Menschen, die eine Mitfahrgelegenheit brauchen und bringt so das Trampen ins digitale Zeitalter.

Die Studie wurde zusammen mit Arun Sundararajan, einem Professor der New York University, Frédéric Mazzella, CEO von BlaBlaCar, und Verena Butt D’Espous, Kommunikationschefin von BlaBlaCar, publiziert. Wir führten eine Umfrage von 18.289 BlaBlaCar-Mitgliedern in elf europäischen Ländern durch und fanden heraus, dass 88 Prozent der Befragten einem Mitglied mit einem kompletten digitalen Profil besonders vertrauen würden.

Überraschenderweise ist dieser Wert höher als das Vertrauensniveau der Menschen in ihre Kollegen und Nachbarn. Tatsächlich sagten bei Nutzung des gleichen Maßstabs nur 58 Prozent der Befragten, dass sie einem Kollegen ‚vertrauen‘ würden und 42 Prozent würden einem Nachbarn ’sehr vertrauen‘. Beim Vertrauen zu vollständig ausgefüllten Profilen von Fremden auf der Seite für Mitfahrgelegenheiten lagen die Level fast genauso hoch wie für Familienmitglieder (94 Prozent) und Freunde (92 Prozent).

Dieses Vertrauen in Fremde hängt davon ab, wie sie sich online präsentieren. Die Strategie von BlaBlaCar, um Vertrauen aufzubauen, ist eine Kombination verschiedener Faktoren. Unter anderem gehören dazu kurze Biografien in Form von Selbstbeschreibungen und die Möglichkeit, persönliche Informationen wie die Telefonnummer und eine E-Mail-Adresse auf dem Profil zu hinterlegen. Außerdem sind die Profile oft mit anderen Online-Profilen der Mitglieder auf Facebook oder LinkedIn  verbunden.

Der Schlüssel zum Erfolg

Ein anderer Weg, wie Vertrauen in der Sharing Economy aufgebaut wird, liegt darin, das Vertrauen der Nutzer in die Plattform selbst zu stärken. Wenn sie dem Unternehmen dahinter oder der Marke selbst vertrauen, wirkt sich das auf die aktiven Nutzer der Plattform

Ein Faktor gilt auch als verlässlich: Der Airbnb-Versicherungsschutz (bis zu 1 Million US-Dollar) greift automatisch bei jeder Transaktion. Ein Versicherungsschutz ist demnach wohl extrem relevant. Die Vermietung der eigenen Wohnung mit dem persönlichen Hab und Gut an einen Fremden scheint extrem risikoreich, der Versicherungsschutz jedoch gibt den Nutzern das Gefühl, dass sie auf alle  Eventualitäten vorbereitet wären.

Eine weitere wichtige Eigenschaft ist der Review-Prozess, bei dem sich Gastgeber und Gast gegenseitig bewerten. Das funktioniert ähnlich wie bei anderen elektronischen Marktplätzen, wie beispielsweise Ebay. Der Unterschied bei Unternehmen wie Airbnb ist, dass die Plattform sicherstellt, dass Bewertungen nur öffentlich werden, nachdem beide Seiten diese auch eingereicht haben. Das hindert Nutzer daran, sich gegenseitig positiv zu bewerten, nur weil sie Angst haben, für eine negative Bewertung bestraft zu werden. Die Bewertungen sind somit ehrlicher und verlässlicher.

Die Plattform bietet zudem Zimmer überall auf der Welt. Das führt zu einem Netzwerk-Effekt – weil viele andere diesen Dienst weltweit nutzen, muss er zwangsläufig sicher sein. Dem Nutzer ist das bewusst, wenn er auf der Plattform ist – und es hilft, Vertrauen aufzubauen.

Mit der steigenden Zahl an Menschen, die das Internet nutzen, werden Sharing Economy-Plattformen wie Airbnb und BlaBlaCar zur Norm. Die Überlebensfähigkeit dieser Neulinge hängt an ihrem Vermögen, Vertrauen zwischen ihren Dienstleistern und den Nutzern zu sichern. Ihre Seiten müssen also digital so konzipiert sein, dass diese Vertrauen zwischen Fremden aufbauen – dieser Faktor ist unwahrscheinlich wichtig.

Dieser Artikel erschien zuerst auf „The Conversation” unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image „hitchhiker“ by Unsplash (CC0 Public Domain)


Weiterlesen »

Fünf Gründe, warum wir die Klimaforschung der NASA brauchen

Comet landing - Kometenlandung (adapted) (Imag by DLR German Aerospace Center [CC BY 20] via flickr)

Würde Präsident Trump tatsächlich die finanzielle Unterstützung der NASA kürzen? Das Thema wurde bereits angesprochen, jedoch nicht von den führenden Wissenschaftlern. Schuld daran sind die Lobbygruppen der fossilen Brennstoffindustrien und die Politiker, die bereits seit mehr als zwei Jahrzehnten Zweifel säten, Fakten verschleierten oder mit Lügen argumentierten, dass die Menschen nicht der Grund für die signifikanten Klimaveränderungen seien.

Dieser Umstand wird das Trump-Team, das für PR aus Skeptikerkreisen verantwortlich ist, sicherlich ärgern. NASA-Organisationen wie das Goddard Institute for Space Studies und das Jet Propulsion Laboratory haben grundlegende Beiträge zu unserem Verständnis, wie Menschen das Erdklima verändern, erbracht. Und der US-Steuerzahlern hat es bezahlt. Würde man aufhören, die Forschung der Klimaveränderungen der NASA zu finanzieren, wäre, als würde man sich die Finger in die Ohren stopfen und sich ein Liedchen pfeifen. Dem Klima ist die Politik egal, denn es wird weiterhin auf den Ausstoß von Treibausgasen reagieren. Das Einzige, was sich verändern würde, wäre die führende Position der USA in diesem Forschungsbereich, mit dem Risiko, dass nicht nur Amerika, sondern die gesamte Menschheit am Ende als Verlierer dastünde.

Daher sind hier fünf Gründe, weshalb die Kürzung (oder auch die mutwillige Zerstörung) der Mittel für die Klimaforschung der NASA eine außergewöhnliche Dummheit wäre.

1. NASA-Satelliten sind unsere Augen auf unsere Welt

Zurzeit arbeitet die NASA mit mehr als einem Dutzend Satelliten im Erd-Orbit und überwacht die Veränderungen der Ozeane, des Festlands und der Atmosphäre. Ihre Forschungen umfassen die Solaraktivitäten, den Anstieg des Meeresspiegels, die Temperatur der Atmosphäre und der Ozeane, die Ozonschicht, die Luftverschmutzung und Veränderungen im Meer sowie der Eismassen.

Alle diese Faktoren haben einen direkten Einfluss auf den Klimawandel, aber sie stellen auch wichtige Erkenntnisse der verschiedenen Komponenten der Erde selbst dar. Es wurden Milliarden in diese Programme investiert, die Daten produziert haben, die von einer internationalen Wissenschaftsgemeinschaft genutzt werden, um verschiedene erdbezogene Themen zu studieren.

2. Klimaforschung ist ein Schlüsselbereich der Mission der NASA

Wir können die Satelliten vielleicht nicht abstellen, aber wir können die Regierung dazu bringen, die Daten nicht mehr zu nutzen, um die Forschung um den Klimawandel voranzutreiben. Die NASA wurde mit dem „National Aeronautics and Space Act“ von 1958 mit dem Auftrag gegründet, Technologien für die Weltraumbeobachtung zu entwickeln, nicht jedoch für die Geowissenschaften – das war die Aufgabe anderer Bundesbehörden.

Das Model der querfinanzierten Forschung scheiterte allerdings in den 1970er Jahren aufgrund des Finanzierungsmangels. Die Budgets wurden gekürzt und schließlich konnte die die NASA ein paar wisseschaftliche Untersuchungen anhand der Daten durchführen, die sie vorher erstellt hatten. Außerdem wurde angekündigt, dass die Forschung auf „nationale Bedürfnisse“ wie Energieeffizienz, Umweltverschmutzung, Ozonabbau und, ja, auch den Klimawandel ausgerichtet würde. So ist die Erd- und Klimaforschung zu einer zentralen Aufgabe der Behörde geworden, die auch eine weltweit führende Position innerhalb der Problematik innehat.

3. Die NASA hat die Besten der Besten

Die NASA kennt man auf der ganzen Welt – besonders wegen Programmen wie Apollo, das Menschen zum Mond gebracht hat. Aber ihr Ruhm geht weit über das generelle Interesse an der Weltraumfahrt hinaus. Die NASA kann einige der besten Erd- und Klimaforschung vorweisen, weil ihre Programme einzigartige Möglichkeiten der Forschung in enormer Bandbreite bieten. Und sagen zu können, dass man für die NASA arbeitet, ist immer noch ziemlich cool.

Die Klimaforschung nicht weiter zu finanzieren, würde bedeuten, dass viele Forscher, von denen manche gerade am Anfang ihrer Karriere stehen, aus ihren Jobs gedrängt werden würden. Manche würden wohl rasch und mit offenen Armen von Einrichtungen in anderen Ländern empfangen werden – tatsächlich bin ich ziemlich sicher, dass einige Jobangebote bereits auf dem Postweg zu den Wissenschaftlern sind. Für die USA wäre das jedoch ein ziemlicher Verlust.

4. Die NASA hat das Image des Klimawandels verändert

Ein Besuch auf der Klima-Homepage der NASA macht sofort klar, wie viel Einfluss die NASA im Forschunsgbereich zum Thema Erde genommen hat. Das Thema Klimaforschung ist komplex. Die NASA hat zusammen mit anderen US-Agenturen wie der National Oceanic and Atmospheric Administration einzigartige Darstellungen des Klimawandels veröffentlicht. Diese werden von anderen Agenturen und Kommunikatoren auf der ganzen Welt genutzt. Auf diese Weise werden das Profil und die Reputation der NASA und den USA als führende Wissenschaftler gestärkt.

5. Die Klimaforschung könnte das nächste große Vermächtnis der NASA werden

Es ist recht leicht, die NASA-Missionen zu verklären. Die Apollo-Mission war definitiv eine beeindruckende Leistung. Doch während US-Astronauten den Mond ‚für die gesamte Menschheit‘ besuchten, sollten wir uns daran erinnern, dass der Wettlauf ins All im Kalten Krieg durch die UdSSR mit vorangetrieben wurde. Die Tatsache, dass die Menschen danach nie wieder zum Mond zurückkehrten, sollte uns verdeutlichen, dass dort bei gelegentlichen Besuchen wohl einfach nicht sonderlich viel zu holen ist.

In Bezug auf das Vermächtnis denke ich, dass Eugene Cernan, der Leiter der Apollo 17-Mission und somit der letzte Mensch, der auf dem Mond war, es am besten zusammenfasste: „Wir sind aufgebrochen, den Mond zu erforschen, und tatsächlich entdeckten wir die Erde.“

Ein Besatzungsmitglied der Apollo 17 war es, das das Foto mit der Kenung AS17-148-22727 machte, als sie am 7. Dezember 1972 den Orbit verließen. Dies war das Foto, das später unter dem Namen „Blue Marble“ bekannt wurde. Das Bild wurde zu einem der meistkopierten Fotos der Geschichte. Seit das Bild aufgenommen wurde, fanden auf der Erde enorme Veränderungen statt. Mittlerweile leben dort doppelt so viele Menschen, die Zahl der Wildtiere hat sich halbiert. Der CO2-Gehalt in der Atmosphäre ist höher als in den tausenden Jahren zuvor. Und tatsächlich haben sich die Erdoberfläche und die Ozeane erwärmt, die Gletscher schmelzen und der Meeresspiegel steigt.

Wie alle anderen Bilder der NASA wurde auch „Blue Marble“ für die Öffentlichkeit zur freien Nutzung herausgegeben. Die Forschungsergebnisse, die die NASA errungen hat, werden auf die selbe Weise weltweit geteilt. Die Ergebnisse der Erd- und Klimaforschung repräsentiert nicht nur die Höhepunkte der US-Geschichte, sondern die der kompletten Menschheit. Wir brauchen sie jetzt mehr denn je.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „Comet landing / Kometenlandung“ by DLR German Aerospace Center (CC BY 2.0)


Weiterlesen »

Was Fachärzte in Zeiten von Wikipedia wissen müssen

Computer, Mac, MacBook, iPhone, Tastatur, Arzt, Doktor, Schreibtisch, Stock

Fachleute im Gesundheitswesen haben die Aufgabe, die zahlreichen medizinischen Einträge auf Wikipedia zu verbessern – zumindest, wenn man nach einem Brief der Lancet Global Health geht, der heute veröffentlicht wurde. Das liegt vor allem daran, dass die Wikipedia eine der ersten Quellen ist, die aufgerufen wird, wenn man nach medizinischen Begriffen sucht.

In unserer Korrespondenz habe ich mich mit einer Gruppe internationaler Studenten an verschiedene medizinische Fachzeitschriften gewendet, um ihnen klarzumachen, dass man mehr tun muss, damit Experten die Wikipedia nützlicher und präziser machen können. Zudem sollte die medizinische Community diese Verbesserungen zu einem ihrer wichtigsten Punkte erklären.

Rund um die Welt in Benutzung

Wikipedia steht auf Platz Fünf der am meisten besuchten Webseiten der Welt und ist auch die am häufigsten gelesene Quelle, wenn es um medizinische Informationen geht. Zudem greifen auch viele Ärzte, Medizinstudenten, Gesetzgeber und Professoren auf sie zu. Das Aufrufen der Seite ist kostenfrei und läuft über das Programm Wikipedia Zero. In Entwicklungsländern ist die Seite damit zu einer der am meisten benutzten Quellen für Gesundheitsthemen geworden. Während des Ebola-Ausbruchs im Jahr 2014 wurde die Seite über das Ebola-Virus täglich über 2,5 Millionen Mal aufgerufen.

Anfang des Jahres startete die Seite die kostenlose Medical Wikipedia Offline-App in sieben Sprachen. Die Android-App hatte fast 100.000 Downloads in den ersten Monaten und ist in Ländern mit sehr knappem und mittlerem Einkommen, wo der Internetzugang meistens langsam und vergleichsweise teuer ist, extrem nützlich.

Wegen all dieser Punkte müssen die Einträge in die Wikipedia sehr präzise formuliert sein, denn jeder Eintrag kann potentiell zu gesundheitlichen Konsequenzen in der wirklichen Welt führen.

Eine Frage der Prioritäten

Obwohl die Wikipedia es jedem ermöglicht, die Einträge zu bearbeiten, ist die Genauigkeit erstaunlich und konkurriert sogar mit der Encyclopedia Britannica. Aber obwohl sich die Enzyklopädie weiterentwickelt, ist die Genauigkeit der medizinischen Inhalte nicht stetig. Die Plattform hatte schon immer Schwierigkeiten damit, Expertenmeinungen von Forschern einzuarbeiten. Bei den Ärzten und anderen Experten im Gesundheitswesen hatte eine Aufarbeitung der Themen in der Wikipedia bisher einen eher unwichtigen Stellenwert.

Das unbezahlte Schreiben in einem unbekannten Format verliert leider schnell an Reiz, wenn man es unmittelbaren Karriereentscheidungen entgegenstellt. Die Ärzte haben oft mehrere Stunden täglich mit Patienten zu tun und die Forscher sind oft noch zusätzlich damit beschäftigt, sich für Stipendien zu bewerben oder in akademischen Fachzeitschriften zu veröffentlichen. Der Eintrag zu Stillgeburten zeigt deutlich, warum Wikipedia mehr Experten beim Erstellen der Artikel braucht. Jeden Tag gibt es auf der ganzen Welt 7000 Stillgeburten, aber bevor meine Kollegen und ich die Wikipedia-Seite aktualisiert hatten, haben dort noch einige wichtige Informationen gefehlt.

Wichtige Faktoren, wie beispielsweise Malaria als Krankheitsauslöser, waren nicht aufgelistet, aber auch häufige Komplikationen wie Depressionen fehlten. Man benötigt das gesamte Bild einer Erkrankung, um eine wirksame Behandlung angehen zu können. Und für die Patienten ist es ebenso wichtig, zu wissen, dass Depressionen eine normale Nebenwirkung der Totgeburt ist. Wenn sie sich dessen bewusst sind, können sie mit dem Gefühlschaos einer Stillgeburt besser umgehen lernen.

Vergleichbar ist dies mit detaillierteren Informationen über die medikamentöse Behandlung, die ärztliche Verschreibung derer, den Wünschen des Patienten und dem Wissen der angehenden Medizinstudenten – solche wichtigen Themen verlangen einfach nach Genauigkeit.

Mögliche Lösungen

Während man relativ einfach sagen kann, woran es mangelt, ist es umso schwieriger, die Probleme auch vollends zu lösen. Der Einsatz vieler mit verschiedenen Stärken ist hier vonnöten. Ärzte und Fachleute bringen ein enormes Wissen über komplexe Themen mit, medizinische Fachzeitschriften können ihre Infrastruktur für starke Kollegenkontrolle und Indizes aushebeln. Wikipedianer können ihr Wissen über Enzyklopädisches Schreiben und ihre technische Expertise einbringen und medizinische Lehranstalten können ihre Studenten dazu auffordern, mitzuhelfen.

Das gleichzeitige Veröffentlichen von überprüften Arbeiten auf Wikipedia und in akademischen Journalen würde eine Verbesserung für alle bedeuten. Das heißt, dass man bereits existierende Einträge überprüfen, aber auch passende Einträge aus Fachzeitschriften in Wikipedia-Einträge umwandeln muss. Die offizielle Anerkennung für die Mühen des Autors durch zitierfähige Veröffentlichungen in wissenschaftlichen Fachzeitschriften ist eine wichtige Belohnung für die Community-Mitglieder, die unter Zeitdruck stehen. Kontrollen durch die Peer Group würden die Qualität entsprechend sicherstellen. Die Wikipedia ist zudem ein wunderbares Werkzeug für Fachzeitschriften, die einen Einfluss auf die öffentliche Gesundheit nehmen wollen.

Mehrere wissenschaftliche Fachzeitschriften haben sich in die akademische Kontrollvariante der Wiki-Einträge eingearbeitet, andere wollen bald dazu stoßen. Beispiele für diese gemeinsamen Veröffentlichungen sind die Einträge über das Dengue-Fieber und das Kleinhirn, die von den Zeitschriften Open Medicine und WikiJournal of Medicine überprüft und veröffentlicht wurden.

Um mehr Einfluss zu nehmen, folgte PLOS Computational Biology diesem Beispiel und hat auch gemeinsam erstellte Artikel in ihrem Journal und auf Wikipedia veröffentlicht. Die Fachzeitschrift RNA Biology verlangt von den Forschern, die eine neue RNA-Gruppe beschrieben, einen zusätzlichen Wikipedia-Eintrag dazu.

Die neue Herangehensweise verankern

Der Fortschritt kommt nur langsam voran, aber mehrere unabhängige Projekte zeigen, wie sich die Einstellungen von wichtigen Akteuren im biomedizinischen Bereich nach und nach verschieben und wie sie beginnen, Wikipedia ernster zu nehmen. Cochrane erstellt medizinische Richtlinien nach Forschungsdaten und nutzt nun Partner der Wikipedia für ihre Review-Gruppen, um ihre Informationen auf Wikipedia zu verbreiten.

Medizinische Lehranstalten beteiligen sich jetzt auch daran, die Wikipedia-Einträge zu verbessern. Medizinstudenten der University of California in San Francisco können Creditpunkte erlangen, indem sie vernachlässigte Wikipedia-Einträge unter Aufsicht verbessern.

Solche und ähnliche Pläne können die Bearbeitung der Wikipedia in der medizinischen Community der Zukunft hoffentlich selbstverständlicher werden lassen. Von diesen Umständen werden vor allem die Patienten profitieren, denn wenn es um gesundheitliche Inhalte geht, kann die Deadline nicht früh genug gesetzt werden.

Dieser Artikel erschien zuerst auf „The Conversation” unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image „Computer“ by Unsplash (CC0 Public Domain)


Weiterlesen »