All posts under computer

Die Computer-Maus bekommt eine Ablöse

Unsere Geräte, seien es Haushaltsgeräte oder die, mit denen wir täglich arbeiten, werden zusehends smarter. So wurde nun auch auf der CES 2019 eine ganz besondere Computer-Maus vorgestellt. Eine Maus, die gar nichts mehr mit der herkömmlichen Maus, wie wir sie kennen, gemein hat. Padrone soll die Funktionen einer Computer-Maus ersetzen und verwandelt jede Oberfläche in ein Touchpad. Bei Padrone handelt es sich auf dem ersten Blick lediglich um einen klobig ausschauenden Ring für den Zeigefinger. Auf der CES 2019 stellte das Schweizer Startup Padrone seine gleichnamige Mausalternative vor, die per Crowdfunding-Projekt auf Indigogo realisiert werden soll.

Die klassische Maus durch einen Ring ersetzt

Padrone nutzt man ganz einfach mit dem Zeigefinger. Die Oberflächen, die der Nutzer mit Padrone benutzt, verwandeln sich so automatisch in ein Touchpad. Die alternative Maus ist mit einer Kamera und verschiedenen Sensoren ausgestattet. Mit ihnen zieht Padrone die Bewegung der Finger nach und steuert so außerdem den Mauszeiger. Dieser Mauszeiger bewegt sich auf der Oberfläche durch das Hin- und Herwischen des Fingers.

Die Steuerung gleicht vollkommen der einer klassischen Maus. Scrollen kann man mit zwei Fingern, indem man über eine Oberfläche streicht. Mit einem Tippen des Mittelfingers wird der Rechtsklick ausgeführt. Für den Linksklick tippt man lediglich mit dem Zeigefinger auf die Oberfläche. Soll ein Element via Drang-and-Drop verschoben werden, so muss der Nutzer den Zeigefinger an den Daumen legen und den Inhalt bewegen.

Das Schöne an der alternativen Maus ist, dass man sie überall nutzen kann. Dabei ist es egal, ob sich der Nutzer auf der Couch befindet und die Maus auf seinem Oberschenkel benutzt. Sogar das Händewaschen macht dem Ring nichts aus, da dieser keinen Schaden davon trägt. Weniger beeindruckend ist hier die Akkulaufzeit, die sich lediglich auf einen Tag beschränkt. Laut dem Hersteller benötige die vollständige Ladezeit für Padrone etwa drei Stunden.

Der Ring kommt in zwölf verschiedenen Größen daher. Ab Juni 2019 sollen Nutzer, die das Padrone-Projekt mit 200 US-Dollar unterstützen, einen Ring erhalten.

Eine Logitech Marathon M705 kabellose Computer-Maus bei Amazon kaufen (Provisionslink).


Image by sibashouse via stock.adobe.com

Weiterlesen »

Künstliche Intelligenz und die Angst vor ihr

Orb of power (adapted) (Image by Ramón Salinero [CC0 Public Domain] via Unsplash)

Die Künstliche Intelligenz hat in der deutschen Diskurslandschaft keinen guten Ruf. Sie bevormundet Menschen, entscheidet intransparent und gehört meist nur den Silicon Valley-Konzernen. Sollten wir Menschen, die wir den Planeten gegen die Wand fahren, nicht offener dieser Form von Intelligenz gegenüber auftreten? Bietet sie nicht auch sehr viele Chancen?

Jährlich sterben allein in Deutschland 100.000 – 200.000 Menschen am plötzlichen Herztod. Das Risiko steigt mit dem Alter. Männer sind fast doppelt so häufig betroffen. Auch intensiver Sport führt – bei fehlendem Wissen um eine unentdeckte Herzerkrankung – zu einer Verdoppelung des Risikos, daran zu sterben. Die wenigsten potenziellen Opfer gehen vorab zum Kardiologen, da sie zumeist keine Beschwerden verspüren. Wenn sie dann doch aufgrund temporärer Beschwerden zum Kardiologen gehen, ist die Wahrscheinlichkeit, das Problem im Rahmen eines 24-Stunden-EKGs zu entdecken, sehr gering.

Apple hat dieses Problem erkannt und wird wohl beim Nachfolgemodell der Apple Watch 3 einen Sensor für ein erweitertes EKG in die Uhren einbauen. Durch einen Abgleich der gemessenen EKG-Daten und möglicher enthaltener auffälliger Muster mit standardisierten beispielhaften „kranken“ Mustern, können unentdeckte Herzerkrankungen oder Anomalien erkannt werden.

Apple wird mit dieser Funktion und der Auswertung der Daten (indirekt) wahrscheinlich viel Geld verdienen. Wie sehen die Menschen, die schon um ihr erhöhtes Sterberisiko in Folge einer Vorerkrankung wissen, ein solches Device? Und wie sehen sie die Möglichkeiten der Diagnose infolge der Auswertung großer Datenmengen? Würden sie bemängeln, dass die oftmals so deklarierten „Internet-Riesen“ trotz ungeklärter Fragen des Datenschutzes Geld mit diesen Devices verdienen? Würden sie nach der Wirkungsweise des Algorithmus fragen? Und würden sie sich mit dessen Anwendung nur dann einverstanden erklären, wenn man ihnen den Programm-Code erklärt? Oder wenn eine deutsche Behörde diesen einen speziellen Algorithmus überprüft hat? Wohl eher nicht.

Wer sollte über die Anwendung einer Künstlichen Intelligenz (KI) entscheiden: Die betroffenen Menschen oder eine Kommission?

Umso weltfremder und an den Gesundheitsbedürfnissen der betroffenen Menschen vorbei scheinen daher momentane Beiträge in bekannten Medien. Diese fordern ein, dass es Experten geben müsste, die die Wirkungsweise jeder KI verstehen. Die sie kontrollieren und über deren Nutzung urteilen sollten. Obgleich sie nicht von einer tödlichen Bedrohung wie dem plötzlichen Herztod bedroht sind. Mit welchem Recht wird dann aber den betroffenen Menschen die Entscheidung zur Anwendung der Technik aus der Hand genommen? Wollte man aus dieser Situation eine steile These generieren, so könnte man sagen, dass die Debatte und die Verschleppung der Einführung von KI täglich unverantwortlicher Weise Menschenleben kostet.

Während diskutiert wird, welche Menschen eine KI in einem autonom fahrenden Auto am ehesten im Notfall „umfahren“ soll, sterben täglich in Deutschland ca. neun Menschen im Verkehr. Meist wurden diese Unfälle verursacht durch zu hohe Geschwindigkeit oder Fahren unter Alkoholeinfluss ihrer Mitmenschen. Warum wird also nicht die Frage nach der moralischen Verträglichkeit menschengelenkter Autos gefragt? Hat es eine solche Ethik-Debatte jemals gegeben, um zu überprüfen, ob der Vorstand von Volkswagen vor Bekanntwerden von Dieselgate „ethisch richtig handelt“? Wieso legen wir an KI solch hohe Maßstäbe an, die die Menschen bisher selbst meist nicht erfüllt haben?

Dürfen wir KI unsere menschliche Moral aufzwingen?

Sally Davies hat sich in ihrem Beitrag daher auch die Frage gestellt, mit welchem Recht wir versuchen, einer zukünftigen KI unser Verständnis von Moral aufzuzwingen. Viele technische KI-Experten werden einwenden, dass diese Form der KI noch lange nicht erreicht sei (worüber es zu Recht aber sehr unterschiedliche Auffassungen gibt). Nichtsdestotrotz ist damit zu rechnen, dass wir uns eines Tages diese Fragen stellen müssen. Wird sich die KI einsichtig zeigen, dass unser Wertmaßstab auch der ihrige sein soll? Was wäre, wenn die KI „Verbesserungsvorschläge“ für unser Wertesystem liefert?

Im Bereich strategischer Spiele sind wir bereits an diesem Punkt der KI-Entwicklung angekommen. In einem aktuellen Beitrag auf The Atlantik zu den neuen Fortschritten bei der KI-Entwicklung im Zuge der AlphaGo Zero-Entwicklung formulieren die Autoren, was im Kern die Botschaft aus den gegenwärtigen Entwicklungssprüngen ist. Die (genannte) KI benötigt keinen Menschen mehr, um in einem Gebiet „übermenschliche“ Fähigkeiten in kürzester Zeit zu entwickeln. Das ist insbesondere dann spannend, wenn die Erkenntnisse der KI-Entwickler auf die Bekämpfung von Krankheiten oder den Klimawandel angewendet werden, wie diese es selbst in ihrem Blog weitsichtig beschreiben.

Eine leidige kurzsichtige Diskussion über die vermeintliche Sinnhaftigkeit luftverdreckender Diesel-Pkw wäre unter diesen Umständen schnell obsolet. Sie könnte, im Gegensatz zu den derzeit beschlossenen politischen Maßnahmen, täglich Menschenleben retten. Ist es vielleicht an der Zeit, dass wir den Versuch aufgeben, eine höhere Intelligenz verstehen zu wollen?

Die Syntheist-Bewegung greift diese Überlegungen auf. Der schwedische Cyber-Philosoph Alexander Bard als einer der bekanntesten Vertreter begreift das Internet als „Gehirn“ der Menschheit. Laut ihm ist es ausgestattet mit Netzknoten, Netzwerken und Datenbanken. Sie alle zusammen sind mehr als die Summe der einzelnen Wissensbestandteile der Menschheit. Das Silicon Valley „Wunderkind“ Anthony Levandowski geht in dieselbe Richtung. Er versteht die internetbasierte Wissensgenerierung als Schritt hin zu einer übergeordneten Weisheit, infolgedessen er auch die „First Church of AI“ ausgerufen hat.

Können Androiden menschliche Reaktionen auslösen?

Die Fähigkeiten gerade von Robotern, in den zwischenmenschlichen Bereich vorzudringen, wurde bisher ebenfalls sehr zurückhaltend gesehen. Seien es doch die wahren menschlichen Eigenschaften der Kreativität, der Interaktion, der Empathie, die menschliche Reaktionen hervorriefen und durch Maschinen nie ersetzt werden könnten. Ist dem wirklich so? In einem aktuellen Beitrag stellt sich die Autorin Alex Mar die Frage, ob es diese angeblich genuinen Eigenschaften wirklich nur bei Menschen gibt.

Bei einem Besuch des Android-Forschers Hiroshi Ishi­guro wird sie an die Grenze des scheinbar intuitiv Menschlichen gebracht, als sie von den Erfahrungen des Forschers mit seinen Androiden hört. Indem Androiden basale menschliche Verhaltensweisen übernehmen, die einen Menschen positiv und emotional triggern, können sie bei Menschen echte mitmenschliche Emotionen erzeugen. In einem wissenschaftlichen Experiment konnten Forscher der Universität Calgary vor Jahren zeigen, dass selbst ein Stück Balsaholz bei Menschen Gefühle auslösen kann. Die positiven Gefühle Maschinen gegenüber können noch weiter befördert werden, wenn man sie ab und an „menschliche“ Fehler machen lässt und sie dadurch nicht unerreichbar perfekt erscheinen.

Spätestens mit der Nutzung der replika-App kann jeder Nutzer selbst überprüfen, ob der Dialog mit einer auf sich selbst trainierten KI wirklich immer nur als bewusster Dialog mit einem Code erfolgt. Und nicht mit einem „gefühlten“ realen Gegenüber. Die Gründerin des Startups hatte ihren besten Freund auf tragische Weise verloren. Daraufhin sammelte sie nach seinem Tod alle Chats, die sie mit ihm geführt hatte. Sie kreierte eine erste KI, die ihren toten Freund simulierte. Inzwischen können Nutzer weltweit eine eigene KI nach diesem Muster „erstellen“. Auch wenn das etwas seltsam klingt, haben Außenstehende kein Recht, der Gründerin oder Nutzern von „replika“ daraus einen Vorwurf zu machen.

Wäre es daher nicht an der Zeit, an der Einmaligkeit des Menschlichen zu zweifeln? Fand man in der Neurowissenschaft bereits vor Jahren heraus, dass der vorgebliche freie Wille der Menschen gar nicht so frei ist, ist es jetzt an der Zeit zu erkennen, dass auch unsere Gefühle nicht nur an Menschen gebunden sind.

Digitaler Darwinismus ist schon heute Realität

Man muss sicherlich nicht ganz so weit gehen, wenn es um das Mimikry menschlichen Verhaltens durch eine KI geht. Schon weiter vorangeschritten ist die Angleichung an menschliche Verhaltensweisen bei der Ausübung von beruflichen Tätigkeiten. So zeigt Miranda Katz anhand von Beispielen aus der Übersetzerbranche, der Juristerei und der Filmbranche, dass schon heute impliziter digitaler Darwinismus auf dem Arbeitsmarkt durch den Einsatz von KI ausgelöst worden ist. So ist es nach Meinung der dort zitierten ScriptBook CEO Nadira Azermai nicht die KI, die Menschen arbeitslos werden lässt. Es ist vielmehr die Verweigerungshaltung, KI für die eigene Tätigkeit einzusetzen. Auch wenn dies an vielen Stellen schon möglich ist.

“You’ll lose your job to people who have learned how to cooperate with machines. You will lose your job if you keep turning your head the other direction and pretending it doesn’t exist“, so Azermai.

Wenn aber KI zunehmend Tätigkeiten übernehmen, die Bestandteil menschlicher Berufe (Arzt, Drehbuchautor, Polizist) sind, muss die Frage gestellt werden, in welcher Weise sich Ausbildungsgänge nicht eigentlich sehr viel schneller anpassen müssten. Jon Marcus beschreibt in seinem Beitrag die erkennbaren Folgen für das bestehende Bildungssystem. So beginnen die ersten großen Unternehmen aus der IT-Branche, eigene Ausbildungsgänge aufzubauen. Hier erfolgt nämlich die Anpassung der bestehenden zu langsam und bürokratisch. KI, die Berufe verändert, hat demnach auch Auswirkungen auf das Bildungssystem. Sicher könnte man die ethische Frage anschließen, was denn mit dem Kompetenzaufbau in den Bereichen der Ausbildung geschieht, in denen die KI Menschen ersetzen.

Mit wissenschaftlichen Methoden des 20. Jahrhunderts lösen wir nicht die Probleme des 21. Jahrhunderts

Der Umgang der Wissenschaft und der Politik mit dieser Herausforderung zeigt sehr anschaulich das Dilemma, auf diese neue Herausforderung (KI, Roboter) mit tradierten Methoden und Sichtweisen zu reagieren. Seit der Veröffentlichung der allseits bekannten Frey/Osborne-Studie hat es viele volkswirtschaftliche Folge-Studien gegeben (so z.B. durch das ZEW). Diese waren am Ende stets zu dem Ergebnis gelangt, dass wir mit einem Abbau menschlicher Beschäftigung – in einem ungeklärten Umfang – rechnen müssen. Zeigt sich aber nicht zuletzt an der Methodik dieser Studien, dass wir inzwischen mit menschlicher Intelligenz allein die Komplexität, die uns zunehmend umgibt, nicht mehr bewältigen können? Wie kann es sein, dass Studien ernsthaft als politische Entscheidungsgrundlage dienen, die vorgeben, die Wahrscheinlichkeit einer digitalen Disruption in einer bestimmten Branche ex ante berechnen und daraus ableitend Arbeitsmarktprognosen abgeben zu können? Wir hinterfragen aber nicht diese wissenschaftlichen Methoden. Wir hinterfragen vielmehr die Entscheidungslogiken der KI und bezeichnen sie nur zu gern und schnell als diskriminierend.

Nicht die Künstliche Intelligenz sondern der Mensch diskriminiert

Eva Wolfangel zeigt in ihrem spannenden NZZ-Beitrag, warum es aber nicht die Algorithmen – auch nicht die selbst lernenden KIs – sind, die sexistisch, rassistisch oder diskriminierend sind. Es liegt vielmehr an dem, was wir der KI „vorleben“ und als Input zum Lernen zur Verfügung stellen. Ein Herausbrechen von Diskriminierung aus Algorithmen hingegen ist als Lösung des Problems in keiner Weise geeignet, da es keine übergeordnete Wahrheit und keinen absoluten Maßstab gibt, an dem sich diese Programmierer ausrichten können. Zudem kommt das Problem hinzu, so Wolfangel, dass Menschen allzuhäufig Korrelationen mit Kausalitäten gleichsetzen. Im Kern heißt dies also erneut, dass die KI nichts vom Menschen lernen kann, da er selbst nicht das passende Vorbild abliefert.

Hängt der Quanten-Computer die Menschen endgültig ab?

KI ist Bestandteil sehr vieler alltäglicher Lebensbereiche des Menschen. Sie unterstützt diesen, hilft dort aus, wo sie mehr leisten kann als ein Mensch, kann kreativ sein. Der nächste Entwicklungsschritt hin zur Intuition und einem menschenähnlichen Bewusstsein wird eventuell die Anwendung der Quantentechnik für KI sein. So wird bereits in den nächsten Monaten die „Quantum Supremacy“ gegenüber den uns bekannten Computern eintreten.

Wir sollten daher vielleicht nicht vergessen, die Probleme der Politik, der gesellschaftlichen Debatte und der Wissenschaft zu thematisieren. Gerade wenn es darum geht, mit dieser technischen Entwicklung Schritt zu halten. Experten sprechen von der exponentiellen Dynamik der KI-Entwicklung: „There will be an acceleration of pace as ever more people are put out of work “by technology” when artificial intelligence masters vision – and how to learn. (…) Unlike in the Industrial Revolution, we cannot expect a plateau of development here that will allow people to ‘catch up’”. Die Frage ist, wie wir als Menschen damit umgehen wollen.

Die Diskussion um die Gesundheitskarte zeigt es exemplarisch. Während in Deutschland über Fragen des Datenschutzes diskutiert wird, werden anderswo mit IBM Watson bereits Leben gerettet. Wird irgendwann der moralische Druck, die Entwicklung der KI einfach zu akzeptieren, nicht so groß werden, dass jahrelange politischen Debatten über neue Regulären zunehmend utopisch erscheinen? Was ist, wenn die durch eine Smart City induzierte Einsparung natürlicher Ressourcen den persönlichen Vorstellungen über Datenschutz gegenüber steht?

Benötigen wir nicht einen „politischen“ Algorithmus im Sinne einer Entscheidungslogik, der uns beim Umgang mit diesen strittigen Fragen Orientierung gibt und der zwischen individuellen und gesellschaftlichen Interessen abzuwägen hilft? Oder liegt es, wie der genannte provokante Beitrag auf AEON vorschlägt, am Ende gar nicht mehr im Ermessensspielraum des Menschen, über die Moral eines Algorithmus zu entscheiden, weil wir die sich daraus ergebende moralischen Regeln nicht mehr verstehen, wir aber davon ausgehen müssen, dass uns diese weiterhelfen als die Regeln und Verhaltensweisen, die uns seit Jahrtausenden Umweltzerstörung und Krieg bringen?

Wenn ihr mehr zu dem Thema „Angst vor der Künstlichen Intelligenz“ erfahren möchtet, dann gibt es hier von Arend Hintze einen spannenden Artikel mit dem Titel „Künstliche Intelligenz: Wovor die Forscher sich fürchten„.


Image (adapted) „Orb of power“ by Ramón Salinero (CC0 Public Domain)

Weiterlesen »

Alpha Go & Co.: So schnell lernt die Google-KI

P2121011 (adapted) (Image by Strelban [CC0 Public Domain] via flickr)

Erst im vergangenen Jahr schlug AlphaGo von Google DeepMind große Wellen in der Welt der Künstlichen Intelligenz, indem es zeigte, dass ein Computerprogramm die besten menschlichen Go-Spieler der Welt schlagen kann.

Wie rasend schnell der Fortschritt in der modernen KI-Forschung voranschreitet, zeigen Details, die die Fachzeitschrift Nature vor wenigen Wochen veröffentlicht hatte. Hier wurde eine verbesserte Version des Programms namens AlphaGo Zero präsentiert. Mit weniger Rechenleistung und nur drei Tagen Trainingszeit schlug AlphaGo Zero das originale AlphaGo in einem 100-Satz Spiel mit 100 zu Null. Eine menschliche Aufsicht war dafür nicht vonnöten.

Das Go-Spielen erlernen

Go ist ein Strategiespiel, in dem zwei Spieler abwechselnd Steine auf ein Spielbrett mit 19 x 19 Feldern platzieren. Das Ziel des Spiels ist es, einen größeren Bereich des Bretts zu umringen als der Gegenspieler.

Go zu meistern, hat sich für Computer als eine bedeutend größere Herausforderung erwiesen als Schach. So gibt es deutlich mehr mögliche Züge in den einzelnen Positionen bei Go als bei Schach. Ebenso wie es deutlich mehr mögliche Spielvarianten gibt.

Das originale AlphaGo erlernte die KI dadurch, dass sie mehr als 30 Millionen Züge von menschlichen Experten studierte. Sie verbesserte sich anschließend auch außerhalb der menschlichen Expertise, indem sie über einen Zeitraum von mehreren Monaten unzählige Spiele gegen sich selbst spielte.

Im Gegensatz dazu sah AlphaGo Zero niemals Menschen beim Spielen zu. Stattdessen begann das Nachfolgeprogramm das Training, indem es lediglich die Spielregeln lernte. Durch eine verhältnismäßig geringe Anzahl von fünf Millionen Spielen gegen sich selbst, für die das Programm nur drei Tage auf einem schwächeren Computer als das originale AlphaGo benötigte, brachte es sich anschließend eine Leistungsfähigkeit jenseits von AlphaGo bei.

Faszinierend ist, dass der Lernprozess des Programms grob einige der Stationen des menschlichen Fortschrittsprozesses beim Meistern des Go-Spielens imitierte. AlphaGo Zero lernte zügig, allzu kurzsichtige Züge zu ignorieren, und entwickelte stattdessen strategischere Denkweisen, durch die es viele der Schemata und Spielzüge generierte, derer sich auch menschliche Weltklasse-Experten häufig bedienen. Bemerkenswerterweise begann es dann, einige dieser Schemata abzulegen und durch neue Strategien zu ersetzen. Die waren so noch nie zuvor in menschlichen Spielen zu sehen.

Jenseits des menschlichen Spiels

Dieses Kunststück gelang AlphaGo Zero dadurch, dass es das Problem anders anging als das originale AlphaGo. Beide Versionen verwenden eine Kombination aus den beiden aktuell leistungsfähigsten KI-Algorithmen: Deep Learning und Bestärkendes Lernen.

Um ein Spiel wie Go zu spielen, muss das Programm zunächst zwei grundlegende Dinge lernen. Das erste ist ein Grundsatz: die Wahrscheinlichkeit, jeden der möglichen Züge in einer gegebenen Position zu machen. Das zweite ist eine Wertigkeit: die Wahrscheinlichkeit, von jeder gegebenen Position aus zu gewinnen.

In dem ausschließlich auf Abwehr basierendem Ansatz von AlphaGo Zero war die einzige Information, die zum Erlernen von Grundsätzen und Wertigkeiten zur Verfügung stand, eine Vorab-Voraussage darüber, wer letztendlich gewinnen wird. Die Grundlage für diese Voraussage bildeten jeweils die aktuellen Grundsätze und Wertigkeiten, wobei diese zu Beginn noch willkürlich gesetzt waren.

Dieser Ansatz ist zwar zunächst deutlich herausfordernder als der des originalen AlphaGo, das sich durch das Beobachten menschlicher Experten-Züge einen Startvorteil für den eigenen Lernprozess verschaffte. Dafür erlernte die frühere Version jedoch Grundsätze und Wertigkeiten auf der Basis separater neuraler Netzwerke.

Der algorithmische Durchbruch bei AlphaGo Zero bestand schließlich daraus, herauszufinden, wie diese zu einem einzigen Netzwerk kombiniert werden können. Dies eröffnete die Möglichkeit, den Trainingsprozess durch das Spielen mit sich selbst deutlich zu vereinfachen. So ermöglichte die KI einen unbeschwerten Neubeginn ihrer Taktiken – frei von den Strategien menschlicher Experten.

Wie AlphaGo Zero das Go-Spiel zu meistern lernte

Beim Elo-Rating handelt es sich um ein weit verbreitetes Messinstrument für die Leistungsstärke von Go- oder Schach-Spielern. Der bisher beste menschliche Go-Spieler namens Ke Jie hat momentan ein Elo-Rating von ca. 3.700. Alpha Go Zero trainierte drei Tage lang und erreichte ein Elo-Rating von mehr als 4.000. Eine erweiterte Version desselben Algorithmus trainierte 40 Tage lang und erzielte ein Rating von beinahe 5.200.

Dies ist ein erstaunlich großer Leistungsunterschied im Vergleich zum besten menschlichen Spieler – deutlich größer als der zwischen dem besten menschlichen Schach-Spieler Magnus Carlsen (ca. 2.800) und dem momentan leistungsstärksten Schach-Programm (ca. 3.400).

Die nächste Herausforderung

Für die Künstliche Intelligenz markiert AlphaGo Zero einen wichtigen Schritt nach vorne, weil es die Umsetzbarkeit eines einzig auf Bewehrung basierenden Lernens demonstriert, das völlig befreit von jeglicher menschlichen Lenkung ist. Auf diese Weise erübrigt sich eine große Ansammlung von menschlichem Expertenwissen, das oft nur schwer zugänglich sein kann, um die KI in Gang zu bringen.

Es bedeutet außerdem, dass der Algorithmus in der Lage ist, völlig neue Ansätze zu entwickeln, die möglicherweise deutlich schwerer zu finden gewesen wären, solange er von Vornherein in einer menschlichen Denkweise verankert sein musste. Bemerkenswerterweise erweist sich diese Strategie auch noch als effizienter im Hinblick auf die benötigte Rechenleistung.

Go ist jedoch ein anspruchsvolles Spiel, das auf perfekter Information basiert. Es kommt ohne die Unordnung aus, die die meisten Probleme in der echten Welt auszeichnet. Das Training von AlphaGo Zero benötigte die akkurate Simulation von Millionen von Spielen, die den Regeln des Go-Spiels folgten. Für viele praktische Probleme sind derlei Simulationen entweder rechnerisch nicht umzusetzen oder die Regeln selbst sind weniger klar definiert.

Bevor eine KI kreiert werden kann, die allgemeinen Zwecken dient, die ein weites Feld an praktischen Problemen ohne bereich-spezifische menschliche Intervention in Angriff nehmen kann, müssen noch viele weitere Probleme gelöst werden.

Doch auch wenn die Menschheit für den Moment den Kampf gegen die Go-Algorithmen verloren hat: Künstliche Intelligenz ist – im Gegensatz zu Go – kein Nullsummen-Spiel. Viele Spiele von AlphaGo Zero wurden jetzt veröffentlicht und bieten eine ganze Lebenszeit inspirierender Studien für menschliche Go-Spieler.

Wichtiger ist allerdings, dass AlphaGo Zero einen Schritt in Richtung einer Welt repräsentiert, in der Menschen leistungsstarke KIs zu Rate ziehen können, um für Menschen unvorstellbare kreative Lösungen für komplizierte Probleme zu finden. In der Welt der Künstlichen Intelligenz gab es niemals eine bessere Zeit, um es einfach einmal zu versuchen.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „P2121011“ by Strelban (CC0 Public Domain)


The Conversation

Weiterlesen »

Kann man Trojaner impfen, um Cyber-Attacken zu verhindern?

Neourban, Laptop, Hardware (adapted) (Image by markusspiske [CC0 Public Domain] via pixabay)

Laut einem Bericht aus dem Forbes Magazine gab es im Jahr 2016 insgesamt 638 Millionen Cyber-Attacken durch sogenannte Schadprogramme oder Trojaner. Orientiert man sich an der Anzahl bekannter, weitgreifender Attacken, die dieses Jahr bereits ausgeführt wurden, könnten es im Jahr 2017 noch mehr werden. Vielleicht ist es also an der Zeit, auf neue Lösungsansätze gegen solche Angriffe zu setzen; und zwar auf solche, die sich nicht bloß gegen Angriffe zu verteidigen versuchen, sondern sie von Haus aus verhindern.

Einige Netzsicherheits-Experten arbeiten bereits an sogenannten „Impfungen“, die Angriffe auf unsere Rechner oder Daten verhindern sollen. Doch diese Art der Vorbeugung soll nur der Anfang sein. Wenn wir damit aufhören, unsere Rechner durch Metaphern als etwas Schutzbedürftiges darzustellen, und stattdessen Begriffe verwenden, die keine Angriffsmöglichkeiten suggerieren, könnten wir noch viel effektivere Wege zur Verhinderung von Angriffen entwickeln.

Im Falle des neuesten Trojaners Petya, bei dem Lösegeld gefordert wurde, entwickelten Forscher einen Impfstoff in Form einer Datei, die einen bestimmten Virustypus umgehend deaktiviert und Schaden am Rechner verhindert, sobald der Computer mit der Datei in Kontakt kommt. Damit unterscheidet sie sich von traditionellen Anti-Viren-Programmen, die Schadprogramme erst aufzuspüren und zu beseitigen versuchen, nachdem der Virus bereits in den Rechner eingedrungen ist.

Diese Herangehensweise ist bisher nicht nur selten, sondern bietet zumindest kurzfristig auch einen völlig neuen Blick auf die Netzsicherheit. Trotzdem halten auch Impfungen die Viren erst nach ihrem Download auf. Und auch Firewalls versuchen Viren erst bei einem unmittelbaren Angriff abzuwehren, statt vorzubeugen. Wenn wir also Cyber-Attacken verhindern wollen, müssen wir zuerst das ändern, was unser Denken über die Technologie grundlegend beeinflusst – und zwar, wie wir sie beschreiben.

Seit dem Anbeginn des Computerzeitalters nutzen wir physische Metaphern, um diese fremde, digitale Welt zugänglicher und verständlicher für uns zu machen. Der Vorteil ist, dass wir Begriffe wie Arbeitsplatz, Ordner und Notizen bereits aus dem Büroleben und dem Alltag kennen. Der Nachteil: Wir haben auf diese Weise Probleme mit in den Cyberspace genommen, die eigentlich durch die Rechner überhaupt erst hätten gelöst werden sollen.

So sind unsere „Posteingänge“ überfüllter, als es ihre physischen Gegenstücke jemals sein konnten, unsere Dokumentenordner sind chaotisch und unorganisiert und wir empfangen und senden mehr Nachrichten und Emails als je zuvor. Kein Wunder also, dass wir heute kaum produktiver als vor dem Computerzeitalter sein sollen. Und auch unser virtuelles Zuhause ist nicht viel mehr vor Einbrüchen geschützt als unser physisches.

Angriffe durch Erpressungs-Trojaner, wie sie Anfang des Jahres sehr prominent ausgeführt wurden, bedienen sich ebenso Begriffen aus der physischen Welt; so „friert“ der Computer ein oder wird sogar beschädigt, und wenig später sollen wir „blechen“. Das sind Begriffe aus dem  klassischen Raubüberfall-Szenario, bei nach dem „Lösegeld“ verlangt wird. Her mit der Kohle! Geld oder – virtuelles – Leben. Mit der Zeit werden die Angreifer immer besser bei dem, was sie tun, und erreichen zunehmend den Status eines Dick Turpin der Cyber-Kriminalität.

Auch beim Schutz unserer Rechner bedienen wir uns Konzepten aus der physischen Welt. Unsere Rechner ähneln in ihrer Ausstattung Ritterburgen, die durch dicke Mauern und Wachmännern geschützt sind. Allzeit bereit für einen Angriff von allen Seiten. Windows-Rechner sind sogar standardmäßig mit einem eigenen Programm namens „Defender“ ausgestattet. Und trotzdem: Die Firewall wehrt in ihrer Eigenschaft als Mauer zwar gewisse Angreifer ab, dennoch schaffen es manchmal „Würmer“, sie unbemerkt zu überwinden.

Eine neue Sprache

Eine Möglichkeit ist es, neue Wörter und Bilder für die digitale Welt erfinden. Das kann zum einen problematisch sein, zum anderen neue Chancen eröffnen. Nehmen wir als Beispiel die Technologie hinter Blockchain – ein System, das eine sichere Verwaltung von Online-Transaktionen ermöglicht.

Ob die Blockchain tatsächlich ein so sicheres System ist, teilt die Meinungen. Unter Experten ist man sich aber einig, dass es zumindest sicherer als herkömmliche Systeme für Business-Transaktionen ist, wie etwa das traditionelle Online-Banking-System. Der Grund dafür liegt zum Teil darin, dass das Wort Blockchain selbst kaum Assoziationen mit der physischen Welt erweckt. Wir werden also weder an Geld noch an Online-Banking erinnert.

Ein weiteres Beispiel ist der Begriff „Entschlüsselung“. Viele Experten sind sich einig, dass die Entschlüsselung einen sicheren Weg darstellt, Datenklau aus Nachrichten, geteilten Dateien und Transaktionen zu verhindern. Durch sie werden Daten besser geschützt als durch einen reinen Passwortschutz – wenn auch nicht völlig risikofrei.

Auch „Ethereum“ ist ein Positivbeispiel und bedient sich der oben genannten Blockchain-Technologie. Vereinfacht ausgedrückt arbeiten durch Ethereum Programme nicht mithilfe eines einzelnen Servers, sondern mit einem ganzen Netzwerk. Erst kürzlich wurde es zu einem der sichersten und beliebtesten Blockchain-Systeme ernannt.

Und auch hier stammt der Begriff „Ethereum“ nicht aus unserer physischen Welt. Er ist vielmehr der ohnehin schwer fassbaren Metapher des Äthers nachempfunden. Wie fordert man Lösegeld von einem Äther? Wir assoziieren damit nicht einmal etwas direkt Definierbares.

Vielleicht ist es also wirklich an der Zeit, den unkreativen, physischen Begriffen Lebewohl zu sagen und stattdessen kreativ zu werden. Machen wir die digitale Welt zu einem abstrakteren Ort! Sie würde dadurch vielleicht weniger verständlicher und intuitiv werden, aber vielleicht eben auch um einiges schwieriger zu hacken.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „Neourban, Laptop, Hardware“ by markusspiske (CC0 Public Domain)


The Conversation

Weiterlesen »

Chance oder Gefahr? Forscher und Ethiker müssen bei der Schnittstellentechnologie zusammenarbeiten

Brain (Image by HypnoArt [CC0 Public Domain], via Pixabay

In dem 1995 erschienenen Film “Batman Forever” bedient sich der Riddler während seiner Jagd auf die wahre Identität Batmans des 3D-Fernsehens, um sich heimlich Eintritt zu den intimsten Gedanken der Zuschauer zu verschaffen. Im Jahr 2011 übernahm das Marktforschungsunternehmen Nielsen die Firma Neurofocus und erstellt eine Abteilung für die „Neurowissenschaft der Konsumenten“, welche integrierte bewusste und unbewusste Daten nutzt, um das Entscheidungsverhalten von Konsumenten zu dokumentieren. Was einst eine verruchte Intrige eines Hollywood Blockbusters war, scheint auf dem besten Weg zu sein, Realität zu werden.

Die neusten Mitteilungen über die Gehirn-Computer-Schnittstellentechnologie (engl.: brain computer interface, kurz: BCI) von Elon Musk und Facebook sind nur die aktuellsten Schlagzeilen in einer Geschichte, in der Science Fiction real wird.

Die BCI-Technologie benutzt Signale des Gehirns, um Objekte der äußeren Welt zu kontrollieren. Sie sind potentiell eine weltverändernde Innovation – man stelle sich vor, dass es möglich ist, gelähmt, aber dennoch in der Lage zu sein, mit Hilfe einer Armprothese Dinge fassen zu können, in dem man einfach nur daran denkt. Doch die revolutionäre Technologie lässt auch Bedenken aufkommen. Am Center for Sensorimotor Neural Engineering (CSNE) der Universität Washington erforschen wir und unsere Kollegen die BCI-Technologie – und ein zentraler Bestandteil dieser Forschung beinhaltet die Arbeit an Themen wie Neuroethik und Neurosicherheit. Ethiker und Ingenieure arbeiten hier zusammen, um Risiken zu verstehen und zu quantifizieren und um Wege zu finden, um die Öffentlichkeit zu schützen.

P300-Signale aufnehmen

Die gesamte BCI-Technologie basiert auf der Möglichkeit, in der Lage zu sein, Informationen eines Gehirns zu sammeln, die dann von einem Gerät benutzt oder weiterverarbeitet werden können. Es gibt zahlreiche Orte, von denen diese Signale aufgenommen werden können und unendlich viele Wege, diese Daten auszuwerten, sodass es verschiedene Möglichkeiten gibt, das BCI zu benutzen.

Ein paar BCI-Forscher konzentrieren sich auf eine bestimmte Art wiederkehrender Gehirnsignale, die immer dann aufkommen, wenn es zu wichtigen Veränderungen in unserer Umgebung kommt. Neurowissenschaftler nennen diese Signale „Ereignisbezogene Potentiale“. In der Praxis helfen sie uns, auf einen Stimulus die passende Reaktion zu identifizieren.

Examples of event-related potentials (Image by Tamara Bonaci via Theconversation)q
Examples of event-related potentials (Image by Tamara Bonaci via Theconversation)

Genaugenommen aktivieren wir eines dieser spezifischen Signale mit dem Namen P300. Es ist der positive, elektrische Höhepunkt, der im Hinterkopf 300 Millisekunden nach dem Stimulus entsteht. Das P300-Signal alarmiert den Rest unseres Gehirns dass sich hier ein „Sonderling“ befindet, der innerhalb der restlichen Umgebung eindeutig auffällt.

Würden wir in einem Park beispielsweise nach unseren Freunden suchen, würden wir uns nicht auf die Gesichter der einzelnen Personen konzentrieren. Würden wir die Hirnsignale aufnehmen, wenn jemand die Menschenmenge absuchen würde, wäre hier stattdessen eine eindeutig wahrnehmbare Reaktion des P300-Signals, wenn wir jemanden sehen, der unser Freund sein könnte. Das Signal überliefert eine unterbewusste Nachricht, die uns auf etwas Wichtiges hinweist, das Aufmerksamkeit verdient. Diese Signale sind Teil eines bisher noch unbekannten Pfades im Gehirn, der die Wahrnehmung und die Konzentration unterstützt.

Gedankenlesen durch P300-Signale

P300-Signale treten zuverlässig immer dann auf, wenn wir etwas Seltenes oder Fragmentiertes wahrnehmen. Zum Beispiel, wenn das T-Shirt, dass man gesucht hat, im Kleiderschrank sieht oder wenn man eine Parklücke findet. Forscher können das P300-Signal in einer experimentellen Umgebung verwenden, um festzustellen, was uns wichtig ist. Das führt auf Hilfsmittel wie ‚Buchstabierer‘ zurück, die Menschen mit Lähmungen dazu bringen, Kraft ihrer Gedanken einzelne Buchstaben zu tippen.

Es kann auch dazu verwendet werden, festzulegen, was man weiß – dieses Vorgehen wird der „Schlechte-Gewissens-Test“ genannt. Im Labor werden Untersuchungsobjekte dazu aufgefordert, sich eine Sache zum „Stehlen“ oder Verstecken auszusuchen, danach werden ihnen viele Bilder von Dingen mit und ohne Bezug zur ausgesuchten Sache gezeigt. Wählen Subjekte beispielsweise zwischen einer Uhr und einer Halskette und werden ihnen dann typische Objekte einer Schmuckschachtel gezeigt, wird das P300-Signal aufkommen, sobald dem Subjekt das Bild mit der ausgewählten Sache gezeigt wird.

Jedes P300-Signal ist einzigartig. Je nachdem, wonach Forscher suchen, benötigen sie Daten für das „Training“. Diese sind vor allem erhaltene Gehirnsignale, von denen die Forscher überzeugt sind, dass sie P300er enthalten; sie benutzen diese dann, um das System zu kalibrieren. Wenn der Test also ein unterbewusstes Nervensignal misst, von dem man nicht einmal wusste, dass man es hervorbringt, kannst man dieses bewusst verfälschen? Vielleicht, wenn man weiß, dass man untersucht wird und was genau die Stimuli dafür sind.

Techniken wie diese gelten immer noch als unzuverlässig und ungeprüft, deswegen haben US-amerikanische Gerichte die Anerkennung von Daten aus Untersuchungen mit P300 als Beweismaterial nicht zugelassen.

BCI technologie (Image by Mark Stone via Theconversation)
BCI-Technologie (Image by Mark Stone via Theconversation)

Man stelle sich vor, dass das P300-Signal nicht genutzt wird, um das Rätsel der „gestohlenen Sachen“ im Labor zu lösen, sondern dass jemand diese Technologie nutzt, um Informationen über unsere Geburtsdaten oder unsere Hausbank zu extrahieren – ohne sie ihm zuvor mitzuteilen. Unsere Forschungsgruppe hat Daten gesammelt, die aufzeigen, dass genau das möglich ist. Nur durch die Nutzung der Gehirnaktivität eines Individuums – speziell dessen P300-Signale – könnten wir die Vorlieben des Einzelnen für eine Kaffeemarke oder den Lieblingssport feststellen.

Das könnten wir allerdings nur, wenn subjektspezifische Trainingsdaten vorliegen. Was, wenn wir die Vorlieben einer Person ohne Vorwissen über deren Gehirnsignalaktivitäten herausfinden könnten? Ist ein Training nicht notwendig, könnten Benutzer einfach ein Device aufsetzen und losgehen, ohne das persönliche Trainingsprofil laden oder die Kalibrierung abwarten zu müssen. Die Forschung an vorbereiteten und unvorbereiteten Geräten ist Mittelpunkt der stetigen Experimente der Universität in Washington und an anderen Orten.

Spätestens, wenn die Technologie in der Lage ist, die Gedankenwelt einer Person zu lesen, ohne dass diese aktiv kooperiert, kommt es zu einem teilweise akuten ethischen Problem. Alles in Allem veröffentlichen wir bereits die ganze Zeit schon Teile unserer Privatsphäre bewusst – wenn wir den Mund öffnen, um uns zu unterhalten oder wenn wir GPS-Geräte benutzen und in diesem Zuge den Firmen erlauben, Daten über uns zu sammeln. Aber in diesen Fällen sind wir damit einverstanden, das zu teilen, was sich in unseren Köpfen befindet. Der Unterschied zur noch nicht voll entwickelten P300-Technologie zukünftiger Generationen besteht darin, dass der Schutz, den uns die Einverständniserklärung gibt, komplett umgangen werden könnte.

Was, wenn es möglich ist, das, was wir denken und planen, zu dekodieren, ohne dass wir es mitbekommen? Würden wir uns angegriffen fühlen? Würden wir einen Kontrollverlust verspüren? Die Auswirkungen auf die Privatsphäre werden vielfältig sein. Vielleicht könnten Werbeagenturen bereits herauslesen, welche Marken wir bevorzugen und uns personalisierte Werbung schicken, was vielleicht recht angenehm, aber sicherlich auch seltsam sein könnte. Oder bösartige Instanzen könnten unsere Bank und die PIN herausfinden. Das wäre eine eindeutige Warnung.

Aus großer Macht folgt große Verantwortung

Die potentielle Möglichkeit, individuelle Vorlieben und persönliche Informationen anhand der eigenen Hirnsignale festzustellen, hat eine Zahl schwieriger, aber akuter Fragen aufgeworfen: Sollten wir in der Lage sein, unsere Nervensignale zu privatisieren? Wenn ja, sollte dann so etwas wie neurale Sicherheit ein Menschenrecht sein? Wie schützen und bewahren wir all die Daten, die für Forschung und auch bald für Freizeit gesammelt werden, adäquat auf? Woher wissen Konsumenten, ob irgendeine geschützte oder anonymisiere Messung ihrer Nervendaten durchgeführt wird? Bis jetzt sind nervenbezogene Daten, die für die kommerzielle Nutzung gesammelt werden, nicht unter dem gleichen Rechtschutz wie biomedizinische Forschung oder das Gesundheitswesen gefasst. Sollte neurologisches Datenmaterial anders behandelt werden?

Das ist die Art von Rätsel, die sich neurologische Forscher und Ethiker in einer Zusammenarbeit stellen sollten. Ethiker neben Forschern ins Labor zu setzen, so wie wir es in der CSNE gemacht haben, ist eine Möglichkeit, um zu garantieren, dass die Privatsphäre und die Sicherheitsrisiken von Neurotechnologien und andere ethisch wichtige Themen einen aktiven Teil der Forschung darstellen – und nicht nur ein nachträglicher Gedanke sind.

Tim Brown beispielsweise ist ein Ethiker an der CSNE, der in einem Labor der neurologischen Ingenieure „untergebracht“ wurde, was ihm erlaubt, täglich mit den Forschern über ethische Bedenken zu sprechen. Er ist außerdem einfach in der Lage, mit Forschungssubjekten zu interagieren und sie in Bezug auf ihre ethischen Bedenken über Gehirnforschung direkt zu interviewen.

Es gibt immer noch wichtige ethische und rechtliche Lektionen über Technologie und Privatsphäre in anderen Bereichen, wie Genetik oder Neuromarketing. Aber es scheint so, als wäre da etwas anderes Wichtiges, wenn es um das Lesen neurologischer Daten geht. Sie sind intimer mit unserer Gedankenwelt verknüpft und damit, wie wir uns selbst sehen. Damit erlangen ethische Themen, durch BCI-Nachfrage induziert, besondere Aufmerksamkeit.

Ethische Debatten, während die Technologie noch in Kinderschuhen steckt

Während wir damit kämpfen, herauszufinden, wie Privatsphäre und Sicherheit in diesem Zusammenhang am besten in Angriff genommen werden soll, gibt es zwei Faktoren in der aktuellen P300-Technologie, die uns Zeit verschaffen werden.

Erstens benutzen die meisten kommerziellen Geräte trockene Elektroden, deren Fähigkeit, elektronische Signale zu empfangen, auf Hautkontakt beruht. Diese Technik ist anfällig für Störsignale, was bedeutet, dass wir nur relativ grundlegende Formen von Informationen von einem Benutzer aussondern können. Die Hirnsignale, die wir aufnehmen, sind aufgrund Dingen wie der Elektroden-Bewegung und der sich ständig verändernden Natur von Hirnsignalen im höchsten Maße variabel – auch bei ein und derselben Person. Zweitens befinden sich Elektroden nicht immer in einer idealen Lage, um aufgenommen zu werden.

Letztlich bedeutet diese mangelnde Verlässlichkeit, dass BCI-Geräte momentan nicht annähernd so allgegenwärtig sind, wie sie in der Zukunft sein könnten. Da sich Elektroden-Hardware und die Signalverarbeitung ständig verbessern, wird es einfacher sein, diese Geräte weiterhin zu benutzen. Es wird auch einfacher sein, an persönliche Informationen zu einer anonymen Person zu gelangen.

Der sicherste Rat wäre, diese Maschinen überhaupt nicht mehr zu benutzen.
Das Ziel sollte sein, dass ethische Standards und die Technik so zusammenkommen, dass sichergestellt wird, dass zukünftige Benutzer darauf vertrauen, während der Benutzung dieser Geräte die Privatsphäre geschützt zu wissen. Es ist eine seltene Chance der Zusammenarbeit von Wissenschaftlern, Ingenieuren, Ethikern und letztlich auch der Regierungen, um Produkte zu entwickeln, die noch besser sind, als jene, die sich die Science Fiction erträumt hat.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) Brain by HypnoArt (CC0 Public Domain)


The Conversation

Weiterlesen »

Alte Besen kehren schlecht: Wie gefährdet sind veraltete Computersysteme im öffentlichen Dienst?

PC (adapted) Image by Fifaliana (CC0) via Pixabay

Der kürzlich durchgeführte Cyber-Angriff via eines Verschlüsselungstrojaners (auch: Ransomware), der Krankenhäuser in ganz Großbritannien lahmgelegt hat, macht den nationalen Gesundheitssektor (NHS) zu einem der bekanntesten Opfer dieses globalen Vorfalls. Die Regierung stand in der Kritik, Unterstützungen im IT-Bereich des Gesundheitssektors gekürzt zu haben und veraltete Computersysteme nicht zu ersetzen. Unterdessen schlugen die Minister scharf zurück und warfen dem Management des NHS vor, ihre Cybersicherheit nicht zu verbessern – obwohl zur gleichen Zeit bekannt wurde, dass eine technische Weiterentwicklung, die den Angriff hätte verhindern können, einen Monat vor der Attacke fertiggestellt wurde.

Diese Geschichte ist nicht sonderlich überraschend. Jeder, der selbst regelmäßig mit dem öffentlichen Sektor zu tun hat, wird erlebt haben, dass Regierungsangestellte mit technisch veralteten Computersystemen kämpfen müssen. Sicher – auch andere bedeutende staatliche Organisationen, wie etwa die Deutsche Bahn oder das US-amerikanische Ministerium für Innere Sicherheit, waren von der Ransomware betroffen. Aber hängt der öffentliche Bereich wirklich hinterher, wenn es darum geht, die IT-Sicherheit auf dem neusten Stand zu halten, um Internetkriminalität zu verhindern?

Die neuste „WannaCry“-Attacke konnte aufgrund eines Defekts innerhalb des 15 Jahre alten Betriebssystems Windows XP ihr Ausmaß entfalten. Serviceanbieter erstellen und verkaufen Upgrades und Korrekturen für solche Fehler meist nachdem diese entdeckt werden. Damit soll verhindert werden, dass die Schwachstellen durch Internetkriminalität ausgenutzt werden. Nichtsdestotrotz hat Microsoft die regelmäßige Weiterentwicklung dieses Betriebssystems im Jahr 2014 eingestellt, sodass alle, die es noch nutzen, für Korrekturen einen Serviceaufschlag bezahlen müssen.

Sobald die Firma den WannaCry-Defekt bemerkte, war eine Fehlerkorrektur im März auch schnell auf dem Markt. Da viele Kunden jedoch immer noch veraltete Betriebssysteme in Benutzung hatten, verbreite sich der Trojaner binnen kürzester Zeit auf eine Vielzahl von Geräten, als er im Mai erstmals auftauchte. Microsoft stellte die Fehlerkorrektur dann schnell allen Betriebssystemen zur Verfügung. Viele von ihnen, die das Update nicht unverzüglich installiert hatten, waren aufgeschmissen. Das ist genau das, was dem NHS passierte. 

Die Regierung hat die Notwendigkeit einer grundlegenden Erneuerung des internen IT-Systems schon lange zugegeben. Als der Support für Windows XP im Jahr 2014 eingestellt wurde, habe die Regierung mit einem Update der meisten Geräte innerhalb eines Jahres gerechnet. Berichten zu Folge endete es damit, dass NHS für benutzerdefinierten XP-Service draufzahlte, in dem Versuch, die Chefs des Gesundheitssektors dazu zu ermutigen, ihre Computersysteme auf dem neusten Stand zu halten.  Ein Bericht Ende 2016 deckte jedoch auf, dass 90 Prozent der NHS-Konzerne noch mindestens einen Computer mit Windows XP verwenden.

Der wahrscheinlichste Grund dafür, dass veraltete Systeme weiter genutzt werden, liegt darin, dass ein Update dieser sehr kostspielig ist. In den meisten Fällen verlangt eine neue Version eines Windows-Betriebssystems auch einen neuen, leistungsstärkeren Computer. Damit einher geht oftmals auch die individuelle Abstimmung von Hard- und Software der Firma auf das neue System, damit der alltägliche Betrieb fortgeführt werden kann. Die Röntgenabteilung eines Krankenhauses zum Beispiel, die bisher mit XP gearbeitet hat, benötigt mit einem neuen Computersystem möglicherweise auch eine neue Software, um die Röntgengeräte zu steuern.

Institutionen der öffentlichen Hand haben außerdem den Luxus, direkt auf Regierungsexperten der nationalen Internetsicherheit zurückgreifen zu können. Diese sind in der Lage sicherzustellen, dass entscheidende Dienste wie die des NHS in Betrieb bleiben. Auch wenn dieser jüngste Trojaner-Angriff die Szene notwendigerweise wachrüttelt, gibt es doch ein erkennbares Sicherheitsnetzwerk.

Ein privates Problem

Der WannaCry-Angriff traf jedoch nicht nur den öffentlichen Bereich. Um die 200.000 Opfer in über 150 Ländern waren davon betroffen – nach Angaben der europäischen Polizei Europol sogar bedeutende Großunternehmen wie Nissan, FedEx und Hitachi. Eine Quelle gibt an, dass mehr als 10 Prozent aller Desktop-Computer mit XP laufen und ein Großteil der oben genannten Opfer aller Wahrscheinlichkeit nach kleine Betriebe sind. Allgemein gibt es keinen Hinweis darauf, dass Organisationen des öffentlichen Bereichs überdurchschnittlich unter Cyber-Attacken leiden.

Obwohl das NHS engen finanziellen Rahmenbedingungen unterliegt, haben staatliche Institutionen ein großes Spektrum an Möglichkeiten, Cyber-Attacken auf ein Minimum zu reduzieren und können an signifikante Geldmengen gelangen, wenn die Politiker zustimmen. Allein in Großbritannien hat das Zentrum für nationale Internetsicherheit 1,9 Milliarden Euro zur Verfügung

Für kleine Betriebe, die keinen einfachen Zugang zu finanzieller Unterstützung für Systemupgrades haben und schwer an Regierungsexperten oder sogar IT-Abteilungen rankommen, sieht es dagegen ganz anders aus. Oftmals fehlt es hier schon an der Erkenntnis, dass es überhaupt ein Problem gibt. Es existieren einige staatlich unterstützte Initiativen, wie zum Beispiel die „British Cyber Essentials“, die kleinen Betrieben im Bereich der Internetsicherheit helfen. Diese haben meist jedoch weder die Reichweite noch die Möglichkeit, alle Firmen flächendeckend zu erreichen und denen zu helfen, die in Not sind. Man kann sich sicherlich fragen, ob sie einen großen Einfluss auf den Umfang des jüngsten Cyber-Angriffes hatten.

Cyber-Attacken in der Größenordnung des WannaCry-Angriffs erinnern Organisationen vielleicht daran, ihre IT-Systeme stets auf dem neusten Stand zu halten. Den Beteiligten nahezulegen, wie genau das geht, ist und bleibt eine ernsthafte Herausforderung. Organisationen der öffentlichen Hand vertrauen in vielen Fällen vielleicht zu oft auf veraltete Computersysteme – schlussendlich jedoch haben sie im Gegensatz zum privaten Sektor weit einfachere Möglichkeiten, etwas dagegen zu tun. 

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „PC“ by Fifaliana (CC0 Public Domain)


The Conversation

Weiterlesen »

FollowUs – Die Netzpiloten-Tipps aus Blogs & Mags

Follow me
  • MICROSOFT techradar: Build 2017: Microsoft Build 2017: the biggest highlights and news: Auf ihrer größten Entwicklerkonferenz des Jahres stellt Microsoft Mitarbeitern und Anhängern neuste Technologien und Ideen vor – und die Entwickler haben große Ziele. Microsoft wird mehr in Cloud Systeme investieren, ebenso wie in KI-Entwicklung. Eine der ersten Ankündigungen aus der Eröffnungskeynote von CEO Satya Nadella: Windows 10 hat jetzt 500 Millionen Nutzer, das Cloud-basierte Office 365 Paket hat nun 100 Millionen. Ebenso angekündigt: Microsoft Cortana soll eine Konkurrenz für Amazons Alexa und Google Home werden. Weitere Zusammenfassungen und was wir noch erwarten können lesen Sie im Artikel.

  • FACEBOOK golem: Machine Learning: Facebook übersetzt schneller und besser als Google: Facebook stellt nun kurz nach Google eine neue Möglichkeit der maschinellen Übersetzung vor und übertrifft seinen Konkurrenten sowohl in Schnelligekeit und Variabilität. Und im Gegensatz zu Google ist Facebook offener mit dem Teilen seiner Entwicklercodes und Modelle – der Code sowie schon trainierte Modelle sind unter einer Open Source Lizenz frei verfügbar. Ob das Facebook Modell weiterhin mit Googles Übersetzungsprogramm mithalten kann werden zukünftige Analysen zeigen.

  • SNAPCHAT meedia: Snap-Bilanz: Die Snapchat-Mutter steigert ihre Umsätze im ersten Quartal um 286 Prozent, verliert aber 2,2 Milliarden Dollar:Im März feierte die Mutterfirma von Snapchat ihr Debüt an der Wall Street. Nun wurden die ersten Quartalszahlen bekannt – mit Milliarden Verlusten. Ist der Hype um die App doch vergänglicher als vorerst gedacht? Leichte Vorwürfe gab es gegenüber Facebook, die mit Konkurrenzprogrammen den Markt erschließen. Gerade erst hatte Snapchat sich diesen neuen Bedingungen angepasst und neue Funktionen eingeführt, die man auch bei der Konkurrzenz nutzen kann.

  • REPUBLICA t3n: So weiblich wie 2017 war die Republica noch nie: Die Republica 2017 ist vorbei und viele ziehen ihre ersten Fazite. Ein erneuter Besucherrekord und eine hohe Frauenquote tragen zu der sehr positiven Bilanz bei. Auch das Motto habe den Zeitgeist getroffen und habe Menschen aus der ganzen Welt erreicht. Neben dem netzpolitischen Dialog mit Bundesinnenminister Thomas de Maizière und Arbeitsministerin Andrea Nahles fehlte ausgerechnet der Internetminister Alexander Doberindt. Themen dieses Jahr waren neben der Hate Speech und Fake News Debatte auch KI, Algorithmen, Datenschutz und Virtuelle Realität.

  • SUPERCOMPUTER spiegel online: EU strebt bei Supercomputern in die erste Liga: Die derzeit schnellsten Rechner stehen in China und den USA. Europa kann momentan noch nicht mithalten und sind auf internationale Partner angewiesen. Die EU-Kommission möchte das jetzt ändern. Bis Ende des Jahres soll ein Vorschlag zum Aufbau dieser Hochleistungsrechenstruktur vorgelegt werden. Helfen können solche Supercomputer in der Effizienz von Strom und Wasserversorgung, Medizin oder der Vorhersagung von Erdbeben. Gleichzeitig mit den Plänen für einen neuen Supercomputer kündigte die EU-Kommission neue Initiativen zur Cybersicherheit an.

Weiterlesen »

FollowUs – Die Netzpiloten-Tipps aus Blogs & Mags

Follow me
  • DATENSCHUTZ heise: Test zur Gesichtserkennung laut Datenschützerin am Bahnhof akzeptabel: Der von den Sicherheitsbehörden geplante Test biometrischer Gesichtserkennung am Berliner Bahnhof Südkreuz geht aus Sicht der Bundesbeauftragen für Datenschutz in Ordnung. Das Projekt sei „für sich genommen noch nicht als schwerwiegender Eingriff zu sehen“, erklärte Andrea Voßhoff auf Anfrage. Das ändere allerdings nichts an „grundsätzlichen Bedenken“ gegen diese Technologie. „Sollten derartige Systeme später einmal in den Echtbetrieb gehen, wäre dies ein erheblicher Grundrechtseingriff“, so Voßhoff.

  • TECHNOLOGIE golem: Dells OLED-Monitor UltraSharp UP3017Q kommt doch: Der US-amerikanische Hardware-Hersteller hat hingegen anders lautender Aussagen nun doch angekündigt, den OLED-Monitor UltraSharp UP3017Q auf den Markt zu bringen. Zwischenzeitlich hieß es, das Modell würde eingestellt aufgrund von Blickwinkelproblemen. Für den Bereich der USA können Kunden das Gerät ab sofort bestellen, es ist mit einer Lieferzeit von ein bis zwei Wochen zu rechnen. Bisher hat sich OLED-Technik im IT-Bereich nur bei Wearables, Smartphones und Zusatzdisplays wie beim Macbook Pro 2016 verbreitet. Bei größeren Bildschirmdiagonalen sind vor allem Fernseher-Hersteller Panel-Abnehmer.

  • E-COMMERCE t3n: Die Zukunft von Magento: Das kommt auf Shopbetreiber zu: Nach gut einem Jahr Eigenständigkeit als Magento Inc. und mit Permira hat sich Magento im letzten Jahr sehr weiterentwickelt – und steht durch den neuen Investor besser da denn je. Die E-Commerce-Plattform wickelt inzwischen insgesamt ein Bestellvolumen von weltweit mehr als 100 Milliarden Dollar ab, das von mehr als 260.000 Kunden (davon gut 3.500 Enterprise-Kunden) generiert wird.

  • KI Welt: So stellt sich künstliche Intelligenz Menschen vor: Der Fernsehmaler und Unternehmer Bob Ross, leicht zu erkennen an seiner auffälligen Frisur, hat in einem neuen Kunstwerk dargestellt, wie es für eine künstliche Intelligenz unter Einfluss von LSD erscheinen muss, einen Menschen wahrzunehmen. Die Software, die zu dieser Wahrnehmung führt, sind Deep-Dream-Algorithmen von Google sowie der WaveNet Machine Learning Algorithm. Das Video zeige, so der Künstler, „wie sich ein Computer die Stimme von Bob Ross vorstellt und wie ein Computer ,halluziniert‘, was er in den einzelnen Videobildern sieht“, erklärt Alexander Reben, Künstler und Programmierer aus dem Silicon Valley.

  • HACKING Süddeutsche Zeitung: Mysteriöse Gruppe offenbart mutmaßliche Hacking-Angriffe der NSA: Eine mysteriöse Hackergruppe hat mehrere Datensätze veröffentlicht, aus denen hervorgehen soll, dass der US-Geheimdienst NSA Teile des globalen Geldverkehrs ausspioniert hat. Ebenfalls enthalten sind Werkzeuge, mit denen die Elite-Hacker der NSA wohl Windows-Betriebssysteme übernehmen konnten. Die Hacker nennen sich Shadowbrokers – in Anlehnung an das Computerspiel Mass Effect – und sind seit August 2016 unter diesem Namen aktiv. Ob und von wem sie Befehle erhalten, ist unklar. Sicher ist nur: Jede Veröffentlichung hat das Potenzial, die US-Beziehungen sowohl zur internationalen Gemeinschaft als auch zu amerikanischen Technik-Konzernen massiv zu beschädigen.

Weiterlesen »

Leben wir in der Matrix? Was Elon Musk glaubt – und was wirklich dran sein könnte

In einem Interview im vergangenen Jahr hat der Technikunternehmer Elon Musk darauf hingewiesen, dass wir inmitten einer Computersimulation leben. Hört man das zum ersten Mal, scheint diese Behauptung weit hergeholt. Als Gründer von mehreren namhaften Unternehmen wie Tesla und Space X liegen die Interessen von Musks Geschäft eindeutig in führenden Technologien.

Der Schlüssel zu seiner Behauptung ist, dass sich Computerspiele in den letzten 40 Jahren rapide bis zu dem Punkt weiterentwickelt haben, dass sie innerhalb der nächsten paar Jahre so gestaltet sein werden, dass man vollkommen in ihnen verloren gehen kann. Dies geschieht mittels einer computergenerierten und kontrollierten Welt, die nahtlos mit der physischen Welt verschmolzen sein wird. Anders gesagt, wir sind kurz davor, eine Art erweiterte Realität (AR) zu erleben, die mit künstlicher Intelligenz einhergeht. Letztlich könnten die realen Erlebnisse und die Simulationen voneinander nicht mehr zu unterscheiden sein.

Musk sagt dazu folgendes: „Wenn Sie ein beliebiges Maß an Veränderung annehmen, werden die Spiele von der Realität nicht mehr zu unterscheiden sein. Das kann sogar dann passieren, wenn dieses Maß an Fortschritt im Vergleich zu dem jetzigen Standpunkt massiv abfallen würde. Dann sagen Sie einfach, okay, stellen wir uns vor, es sind 10.000 Jahre in der Zukunft. Auf der Evolutionsskala ist das noch gar nichts.

Also angenommen, wir bewegen uns dorthin, wo Spiele von der Realität nicht mehr unterscheidbar sind und diese Spiele könnten auf jedem digitalen Gerät oder einem PC oder wo auch immer gespielt werden und da wären vermutlich Billionen von diesen Computern und digitalen Geräten, dann wäre die logische Konsequenz, dass die Chance dafür, dass wir uns in der Basisrealität befinden, etwa eins zu einer Milliarde.“

Die Idee, dass Menschen in einer Realität leben, die von außenstehenden Institutionen wie Computern oder anderen Entitäten kontrolliert werden, geht schon seit einer Weile um. Dies ist eine Frage, die Philosophen und sogar Physikern über die Jahrhunderte hinweg erforscht haben. Der Philosoph Nick Bostrom kam schon 2003 zum gleichen Entschluss.

Die Ähnlichkeiten zwischen den Argumenten, die von Musk und Bostrom hervorgebracht wurden, gehen allerdings weiter als nur anzunehmen, dass wir ein Teil einer größeren Computersimulation sind. Beide betrachten die Entwicklung der künstlichen Intelligenz (KI) als einen gefährlichen Technikbereich. Laut Musk wird das Ergebnis des Fortschritts der KI-Forschung und ihrer Entwicklung das Ende der Zivilisation darstellen. Bostrom vertritt einen ähnlichen Standpunkt, sollte eine angemessene Risiko-Beurteilung während den Entwicklungsprojekten nicht durchgeführt werden.

Fakt oder Fiktion?

Aber ist das nur Paranoia? Die Behauptungen beinhalten mehr als seine bestehende Ähnlichkeit zu Science-Fiction-Filmen, wie Matrix und Odyssee im Weltraum, aber sind die von Musk und Bostrom geäußerten Ansichten wirklich Grund zur Sorge?

Die Möglichkeit, dass wir nicht in einer Simulation leben, wird stark durch wissenschaftliche Argumente unterstützt. Man bedenke die unglaubliche Rechenkraft der Computer, die benötigt würde, um eine solche Simulation zu erstellen. Ein Simulationssystem müsste all die Einheiten der Welt und deren Interaktionen managen. Dies würde eine riesige Menge an Verarbeitung erfordern. Weitere Unterstützung kann in Argumenten hinsichtlich der Quantenmechanik gefunden werden – eine wahrhafte lebensechte Simulation einer Stadt zu betreiben, mit all ihren Milliarden an Interaktionsbeispielen, würde einen Rechner erfordern, der ebenso groß wie eine Stadt ist. Das macht die Möglichkeit, dass wir in einer Simulation leben, höchst unwahrscheinlich.

Gesetzt dem Fall, eine Maschine würde existieren, die unsere Existenz simulieren könnte, wäre die Wahrscheinlichkeit recht hoch, dass wir sogenannte “Realitätsmängel“ erleben würden. Diese Fehler in der Simulation würden durch Pannen im Modell gesehen oder gehört werden.  Beispielsweise würden Sterne entweder existieren oder nicht, wenn sie durch Teleskope verschiedener Größen betrachtet werden. Solche Fehler wären in einer Simulation von diesem Ausmaß unausweichlich, aber bisher hat kein Mensch solcherlei Fehler bemerken können.

Maschinen, die mittels Selbstlernfunktion arbeiten oder eine Art superintelligenter Softwares sind immer noch sehr weit entfernt von dem momentanen Entwicklungsstand entfernt, außerdem können Systeme, die KI nutzen, diese nur in sehr eingeschränkt definierten Bereichen verwenden. Gegenwärtige Systeme lernen es, ihre Leistung in spezifischen Arbeitsbereichen zu optimieren – und gerade nicht die Welt zu übernehmen.

Neuronale Netzwerke, die manchmal auch als elektronisches Modell des Gehirns betrachtet werden, werden beispielsweise verwendet, um Veränderungen in Aktienmärkten vorauszusagen. Mithilfe der Nutzung von vorhandenen Aktiendaten können diese Systeme darauf trainiert werden, Gewohnheiten in Live-Datenübertragungen zu identifizieren, die darauf hinweisen könnten, dass etwas passieren wird. So können Händler rechtzeitig etwas tun, um negative Auswirkungen abzuschwächen.

Zudem gibt es Systeme, die eigens entwickelt wurden, um KI-Technik zu verwenden. Sie sollen die Arbeitsbelastung abmildern, indem sie voreingestellte Regeln und Fakten anwenden. Diese kennt man als wissensbasierte Systeme. Während die menschlichen Nutzer dieser Systeme nicht mitbekommen, dass sie mit einer Maschine interagieren – so wie Jill, der KI-Online-Tutor, der in einem KI-Kurs Fragen von Studenten beantwortet und ihnen Feedback gibt, sind sie auch entwickelt worden, um an oder mit klar definierten Problemen oder Bereichen zu arbeiten. 

Nimmt man die eingeschränkten Bereiche, in denen KI-Systeme entwickelte werden, erscheint die Gefahr, dass es zu einem Ende der Zivilisation durch die Erschaffung einer KI kommt, sehr gering. Tatsächlich wird die KI hauptsächlich dazu verwendet, um menschliche Entscheidungen und Handlungen zu unterstützen, statt sie zu ersetzen.

Alternative Realität

Allerdings scheint Musk in einem gewissen Teil seiner Theorie davon auszugehen, dass bestimmte Dinge in der nahen Zukunft auftreten werden. Eines davon ist die Entwicklung von Technologien, die die Schnittstelle zwischen Mensch und Maschine unterstützen sollen. Während wir im Alltag immer abhängiger von technischen Geräten werden, verändert sich die Art und Weise, wie wir sie nutzen, permanent. Unser Verlangen, auf Daten zuzugreifen und zu kommunizieren, hat zu einer Weiterentwicklung im Bereich der Wearables geführt. 

Musk behauptet, dass wir für die KI zu einer Art Haustier werden, sollten wir keine effektive Schnittstellen zwischen Hirn und Maschine entwickeln. Allerdings setzt sich Steve Mann, der Begründer der Wearables und der erweiterten Realität, dafür ein, beide Technologien zu kombinieren, damit die Gesellschaft davon profitiert. Diese Idee hat Hand und Fuß, da viel Arbeit auf unterstützende medizinische Systeme ausgelegt ist. Forscher entwickeln beispielsweise Hirnimplantate, um elektronische Signale im Gehirn zu nutzen und die Bewegung von beeinträchtigten Gliedmaßen zu stimulieren.

Es ist anzunehmen, dass wir eher nicht in einer Computersimulation leben und die Behauptungen von Musk haarsträubend sind. Dennoch denkt er in die richtige Richtung, denn wir werden in Zukunft noch viel mehr technische Entwicklungen erleben.

Künftige Entwicklungen innerhalb der AR und mit ihr verwandte Technologien werden uns in einer Welt leben lassen, die zunehmend miteinander verbunden ist. In diesen erweiterten Realitäten werden wir nahtlosen Zugang zu Daten und digitalen Darstellungen haben, die in die physische Welt projiziert werden. KI-Technik hilft uns dabei, die Daten zu verstehen und Entscheidungen zu treffen, die von Computern aufgestellt worden sind. Aber auch wenn sie in ihren Funktionen erweitert sind, werden diese Realitäten immer noch auf und in der echten Welt geschaffen sein.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „sea-landscape-nature-sky“ by Bradley Hook (CC0 Public Domain)


The Conversation

Weiterlesen »

Von Zelluloid zu Gigabyte – Digitalisierung im Kino

projektor-image-by-lisa-kneidl

Dieser Beitrag ist Teil einer Artikelserie in Kooperation mit Microsoft, die sich mit der Digitalisierung in kleinen und mittleren Unternehmen auseinandersetzt:


In meiner kleinen Heimatstadt gab es jahrelang ein charmantes kleines Kino, das Ring Theater, das noch bis zuletzt den großen Kinoketten trotzte. Reserviert hat man noch mit dem Telefon, beworben wurden vor dem Film nur regionale Gewerbe und Produkte (die Naabecker Werbung ist in der Region nahezu legendär) und die Kinokarte hat noch die etwa 90-jährige Großmutter des Familienbetriebs abgerissen. Doch die Digitalsierung hält in allen Branchen Einzug, so natürlich auch im Film und Kinobetrieb. So musste auch das Ring Theater einer großen Kinokette weichen, die sich als Betonklotz direkt ins Herzen der Stadt niedergelassen hat.

Schneller, besser, weiter ist die Digitalisierungs-Devise. Prozesse sollen vereinfacht werden, Kommunikation erleichtert und alles möglichst gewinnfördernd und nah am Kunden vermarktet werden. Aber wie viel Digitalsierung ist gut? Was sind Chancen und was eher Probleme? Will man Digitalisierung auch in allen Bereichen oder geht dadurch etwas verloren? Solche und ähnliche Fragen stellen wir uns bei den Netzpiloten in unserer Artikelreihe zum Thema „Digitalisierung in kleinen, mittelständischen Unternehmen“ (KMUs). Zuhause sind wir in der Schanze, dem charismatischen Szene-Herzen Hamburgs, weswegen es auch unser Anliegen ist, die kleinen sympathischen Unternehmen zu portraitieren.

Die Nähe zum Kino soll nicht verloren gehen

Ein Schanzen-Urgestein ist das 3001 Kino. Im Herzen der Schanze liegt das kleine Ein-Saal-Kino beinahe verborgen in einem Hinterhof nicht weit von der U-Bahn-Station Sternschanze entfernt. Seit 1991 hält es im Schanzenhof die Stellung und hat auch nicht so schnell vor, den großen Kinoketten klein bei zu geben.

Das 3001 Kino im Schanzenhof

„Was unser Kino von vielen andern Kinos unterscheidet ist zum Beispiel, dass wir noch selbst auf „Start“ drücken, dass wir den Vorhang noch selber fahren, da haben wir halt nicht komplett digitalisiert, sondern die Projektion starten wir tatsächlich noch selbst. Bei uns muss man noch vorführen können und es wird nicht alles vom Computer gesteuert.“

Das 3001 Kino fährt bewusst einen Gang zurück. Digitalisierung kann in vielen Anwendungsbereichen nützlich sein, aber sie ist auch nicht in allen Bereichen notwendig. Ramona Rodriguez, die gute Seele des Kinos und ihre Kollegen schätzen den Film, lieben Kino und ihren Beruf des Filmvorführers – und dieser soll nicht aussterben.

Ramona beschreibt sich selbst als „Mädchen für Alles“ im 3001

Ja zur Digitalisierung… mit Vorbehalt!

Wie digital kann ein kleines, charmantes Programmkino also sein, ohne diesen Charme zu verlieren? Das 3001 Kino scheint sich noch gegen Digitalisierungsprozesse zu wehren, sie sind eben „Querköpfe“, wie Ramona sagt. Die Kassen, Reservierungen und das Ticketsystem sind alle noch ganz analog auf Papier.

Seit vier Jahren laufen Filme statt auf Zelluloid jetzt über spezielle Server, mit bis zu drei Gigabyte pro Filmminute. Das erleichtert vor allem das Vorführen von Filmen mit Untertiteln, denn das 3001 zeichnet sich vor allem durch sein weitläufig internationales und nicht-englischsprachiges Programm von Filmen im Originalton aus. „Das ist alles mehr oder weniger bundeseinheitlich passiert, weil die Verleiher irgendwann angefangen haben die Filme nicht mehr auf 35mm herauszugeben, sondern nur noch digital und dann mussten wir mitspielen sozusagen. Wir sind da aber trotzdem ein bisschen ein besonderes Kino, weil wir nicht die klassische Server-Lösung haben.“

Gemeint sind die beinahe bundeseinheitlichen Sony-Server, das 3001 hat sogenannte Ropa Server, an denen sie noch „selbst herumschrauben können“. Sony schickt ihnen deswegen auch keine Filme, was aber auch kein Defizit für das ausgewählte Programmkino darstellt.

Das klassische Ticket-System
Reperatur einer altern 35mm Zelluloid-Filmrolle

Chancen sehen sie vor allem auch im Bereich der Social-Media-Präsenz und dem Kundenmanagement. Seit einem Monat hat das Lichtspielhaus deswegen auch eine hauseigene „Social-Media-Beauftragte“, die das Engagement mit den Kunden steigern soll und so mehr Traffic und Aufmerksamkeit für das Kino generieren soll. Auch durch die Umstellung von der Monats- zur Wochen- und Tagesplanung des Filmprogramms haben sich die Seiten-Zugriffe innerhalb eines Monats verdoppelt. In Zeiten von täglichem Informationsfluss brauchen die Nutzer die Infos eben tagesaktuell, je schneller und vereinfachter, desto besser. Auf dem Digitalisierungs-Schirm haben die Cineasten jetzt deswegen vor allem die Optimierung und Smartphone-Tauglichkeit der Website und zielgruppenorientierter auf ihren Social-Media-Plattformen zu arbeiten.


Images by Lisa Kneidl


Weiterlesen »

Wissen, wann man abwirft: KI schlägt weltbesten Pokerspieler

Poker (adapted) (Image by Images Money [CC BY 2.0] via flickr)

Wer gerade dabei ist, eine Runde Online-Poker zu spielen, denke besser noch einmal darüber nach. Die Menschheit wurde nämlich schon wieder bei einem Spiel geschlagen, dieses Mal beim Heads-Up No-Limit Texas Hold’em Poker. Dieser Sieg stellt einen Meilenstein für die Künstliche Intelligenz dar.

Das erste Spiel, bei dem Menschen gegen die Maschinen verloren haben, war Backgammon. Im Jahr 1979 wurde der Backgammon-Weltmeister von BKG 9.8, einer Erfindung von Hans Berliner, geschlagen. Im Jahr 1997 verlor Garri Kasparow, der amtierende Schachweltmeister, gegen Deep Blue von IBM. Kasparow merkte an, dass er eine neue Form der Intelligenz vom Tisch gegenüber „riechen“ konnte.

Auch andere Spiele wurden seitdem von Maschinen gewonnen: Checkers (eine Variante von Dame), Othello, Scrabble, das Wissensquiz Jeopardy! und sogar Pong, die Mutter aller Arcade-Spiele. Der letzte Sieg der Maschinen wurde beim antiken chinesischen Brettspiel Go errungen. Im März letzten Jahres wurde Lee Sedol, einer der weltweit führendend Go-Spieler, von Googles AlphaGo Programm mit 4:1 geschlagen. Und um es uns weiter unter die Nase zu reiben, trat AlphaGo während der Weihnachtsferien anonym gegen Dutzende der weltbesten Go-Spieler im Netz an – und gewann überzeugend.

Warum gerade Poker?

Go wurde als der Mount Everest der Brettspiele bezeichnet. Es ist viel komplexer als Schach oder viele andere Spiele. Dennoch ist es nicht so herausfordernd wie Poker. Genau wie im echten Leben ist Poker ein unsicheres Spiel. Die Spieler wissen nicht, welches Blatt der Gegner hat oder welche Karten in Zukunft aufgedeckt werden. Im Vergleich dazu können alle Spieler beim Schach oder Go das Spielfeld sehen und verfügen über alle Informationen. Dieser Umstand macht Schach oder Go einfacher zu programmieren als Poker.

Poker setzt auch voraus, die Spielweise der anderen Spieler zu verstehen. Bluffen sie? Sollte man das Handtuch werfen? Oder selbst bluffen? Letztlich geht man beim Poker auch ab und zu eine Wette ein. Wann sollte man wetten? Unf worauf? Auch diese Fragen kommen zur Herausforderung hinzu, ein Poker Programm zu schreiben, das genauso gut oder besser als Menschen spielt.

Drei Wochen lang waren vier der besten Poker-Spieler im Rivers Casino in Pittsburgh in ein kräftezehrendes Spiel eingebunden, das insgesamt 120.000 Teilnehmer hatte. Ihr Gegner war das Programm Libratus der Carnegie Mellon-Universität, das von meinem Kollegen Professor Tuomas Sandholm und seinem Doktoranten Noam Brown geschrieben wurde. Libratus sollte das Turnier später gewinnen und das Preisausschreiben von mehr als einer Million US-Dollar gewinnen. Die Profis hingegen könnten sich zusammentun und den Preis von 200.000 US-Dollar pro Person untereinander teilen.

Um den Einfluss des reinen Zufalls zu minimieren, wurde bei dem Turnier ein doppeltes Blatt eingesetzt. Dies bedeutet, dass mit zwei identisch gemischten Decks an zwei separaten Tischen gespielt wurde. An einem Tisch wird dem menschlichen Spieler ein Blatt gegeben (Blatt A), der KI wurde Blatt B ausgeteilt. An dem anderen Tisch (in einem anderen Raum), spielt die KI mit Blatt A und der menschliche Spieler mit Blatt B.

Dies bedeutet, dass, selbst wenn ein Spieler eine ungewöhnliche Reihe guter Karten ausgeteilt bekommt, dies für den anderen Spieler im duplizierten Spiel gespiegelt wird. Dies erklärt auch, warum so viele Runden gespielt worden sind. Das Endergebnis ist, dass wir behaupten können, dass Libratus mit statistischem Vertrauen besser als menschliche Spieler ist.

Wie man Poker gewinnt

Die Details darüber, wie Libratus spielt, sind noch geheim. Dennoch können wir wohl Vermutungen anstellen, die auf vorherige Arbeiten der Carnegie Mellon Universität basieren. Der vielleicht bemerkenswerteste Fakt ist, dass der Sieg mehr von der altmodischen Künstlichen Intelligenz abhängt als von den neuerdings erforschten Prozessen des Deep-Learnings.

Genauso wie Deep Blue beim Schach nutzt nun Libratus viele Brute-Force-Berechnungen, die anzeigen, wie man am besten spielt. Wir wissen, dass es sich auf das Supercomputing Center in Pittsburgh beruft, um jedes Spiel zu absolvieren. Abend für Abend nutzte Libratus diesen Supercomputer, um seine Strategie zu verfeinern. Falls jemand der Meinung sein sollte, dass diese Praxis den Menschen gegenüber unfair ist – die Profis setzen sich ebenso nach jedem Spiel zusammen, vergleichen Ihre Leistungen und stellen Strategien für den nächsten Tag auf.

Libratus zieht auch Vorteile aus der Spieltheorie – ein mathematisches Denkmodell, das durch den Film „A Beautiful Mind“ berühmt wurde. Libratus setzt darauf, strategische Züge zu spielen, die nicht geschlagen werden könnenn – ganz gleich was sein Gegner tut.

Was kommt danach?

Das Poker-Beispiel ist noch nicht das Ende der Fahnenstange. Libratus spielt nur die Version mit zwei Spielern von Heads-Up No-Limit Texas Hold’em Poker. Fügt man mehr Spieler hinzu, vergrößert sich die Komplexität weitgehend. Daher wird es noch einige Jahre dauern, bis Computer gut genug sind, um gegen vier oder mehr Spieler antreten zu können.

Dennoch ist dies ein weiteres Beispiel dafür, wie bekannte Themenfelder der KI langsam aber sicher beginnen, den Menschen einzuholen. Mittlerweile können sie beispielsweise Mammogramme lesen, Chinesisch transkribieren, menschliche Piloten in Hundekämpfe schlagen… und die Liste verlängert sich fast wöchentlich.

So mancher fragt sich nun, wo dies alles endet. Werden Computer möglicherweise all unsere Jobs übernehmen? Eine Studie der Oxford Universität aus dem Jahr 2013 hat geschätzt, dass innerhalb der nächsten zwei Jahrzente etwa 47 Prozent aller Arbeitsplätze in den USA durch die Automatisierung gefährdet sind.

Es gab jedoch einige Einschränkungen bei der erwähnten Studie. Ironischerweise ergab die Studie, dass der Job, vorauszusagen welche Arbeitsplätze gefährdet sind, mit zu den bedrohten Jobs gehört. In der Studie wurde Machine-Learning und kleinere Trainingseinheiten von 70 handwerklichen Berufen genutzt, um vorauszusagen, welche der 700 eingetragenen Berufe gefährdet sind.

Und genau hier kommen Sie ins Spiel. Ich berufe mich auf die Schwarmintelligenz, um zu sehen, ob wir eine bessere Vorhersage machen können. Bitte nehmen Sie sich ein paar Minuten Zeit, um an der Umfrage teilzunehmen. Am Ende können Sie eine Hilfsorganisation auswählen, die als Anerkennung Ihrer aufgebrachten Mühen und Zeit eine Spende erhält.

Noch bevor das Resultat unserer Umfrage feststeht, ist klar, dass einige Jobs, so wie Taxifahrer, LKW-Fahrer, Röntgenassistenten und nun wohl auch professionelle Poker-Spieler bedroht sind. Natürlich erschafft die Technologie andere, neue Berufe. Dennoch bleibt die Frage offen, wie viel geschaffen und wie viel zerstört werden wird.

Um den Maschinen einen Schritt voraus zu bleiben, müssen Menschen ihre Stärken einsetzen, wie beispielsweise Kreativität und emotionale Intelligenz. Wir müssen auch darauf bauen, die Menschen zu stärken und nicht, sie zu ersetzen. Zusammen können Menschen und Maschinen den einzelnen Menschen oder die einzelne Maschine übertreffen. Heutzutage ist der beste Schachspieler ein Mensch, der mit einer Maschine arbeitet. Und zusammen können wir super-menschlich sein.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „Poker“ by Images Money (CC BY 2.0)


Weiterlesen »

Die neue Phase der Cybersicherheit: Cyberabschreckung

Cyberangreifer stellen Bedrohungen für viele verschiedene potenzielle Ziele dar. Russland wurde beispielsweise vorgeworfen, die Computer der US-Demokraten gehackt und so in die US-Präsidentenwahl eingegriffen zu haben. Dann gab es noch den unbekannten Angreifer, der es geschafft hatte, durch Tausende mit dem Internet verbundene Geräte, die durch die Mirai-Schadsoftware kompromittiert waren, einige hochkarätige Websites, einschließlich Twitter, vom Netz zu nehmen.

Von 2005 bis 2015 haben US-Bundesanstalten einen sprunghaften Anstieg von 1300 Prozent von Cybersicherheitsvorfällen festgestellt. Es ist deutlich geworden, dass wir bessere Methoden brauchen, um dieser Art von Gefahren zu begegnen. Manche Experten im Bereich der Cybersicherheit fragen sich nun, ob Cyberabschreckung helfen könnte.

Abschreckung richtet sich darauf, potenzielle Angreifer dazu zu bringen, es sich gut zu überlegen, bevor sie angreifen. Sie sollen dazu gezwungen werden, die Auswirkungen dieser Taten zu sehen und auch die Konsequenzen zu verstehen, die durch einen Gegenangriff auf sie zukommen könnten. Es gibt zwei Hauptprinzipien von Abschreckung: Das erste, die Leugnung, beinhaltet, dass man mögliche Angreifer davon überzeugt, dass sie es nicht schaffen werden – zumindest nicht ohne enorme Anstrengungen und höhere Kosten, als sie investieren wollen würden. Das zweite ist die Bestrafung: Man muss sicherstellen, dass die Gegner wissen, dass es ernsthafte Konsequenzen nach sich zieht, die vielleicht mehr Schaden bringen, als sie riskieren wollen.

Für Jahrzehnte hat das Prinzip der Abschreckung effektiv vor einer Bedrohung durch Nuklearwaffen geschützt. Können wir nun ähnliche Ergebnisse gegen Cyberwaffen erreichen?

Warum Abschreckung schwer ist

Nukleare Abschreckung funktioniert, weil nur einige wenige Länder Nuklearwaffen oder die wichtigen Ressourcen, die benötigt werden, um in sie zu investieren, besitzen. Sie erkennen, dass ein Erstschlag das Risiko einer verheerenden atomaren Antwort birgt. Weiterhin hat die internationale Gemeinschaft Institutionen wie die Internationale Atomenergiebehörde und Abkommen wie den Atomwaffensperrvertrag ins Leben gerufen, um der katastrophalen Bedrohung von Atomwaffen entgegenzuwirken.

Cyberwaffen sind überhaupt nicht mit Atomwaffen vergleichbar. Sie werden von Einzelpersonen und kleinen Gruppierungen und auch von Staaten entwickelt und eingesetzt. Sie können einfach nachgebildet und über Netzwerke verteilt werden, was die Hoffnung auf eine „Nichtweitergabe von Cyberwaffen“ schier unmöglich macht. Cyberwaffen werden oft unter einem Deckmantel der Anonymität eingesetzt, wodurch es schwierig wird, den eigentlichen Verantwortlichen zu ermitteln. Cyberangriffe können eine große Bandbreite an Wirkungen haben, wovon viele zerstörend und kostspielig sind, aber nicht katastrophal. Das heißt nicht, dass Cyberabschreckung zum Scheitern verurteilt ist. Das schiere Ausmaß von Cyberattacken verlangt, dass wir uns besser gegen sie verteidigen.

Es gibt drei Dinge, die wir tun können, um Cyberabschreckung zu stärken: Die Cybersicherheit verbessern, aktive Schutzmaßnahmen einsetzen und internationale Normen für das Netz einrichten. Die ersten zwei Maßnahmen werden unsere Cyberabwehr signifikant verbessern, damit – auch wenn ein Angreifer nicht abgeschreckt wurde – der Angriff wenigstens nicht erfolgreich durchgeführt werden kann.

Schutz verstärken

Die Cybersicherheit unterstützt die Abschreckung hauptsächlich durch das Prinzip der Leugnung. Sie stoppt die Angriffe, bevor sie ihre Ziele erreichen. Das beinhaltet, dass die Login-Sicherheit gestärkt wird, dass man Daten und Kommunikation vorschlüsseln muss, dass man Viren und andere Schadsoftware bekämpfen und Software auf dem aktuellsten Stand halten muss, um Schwachstellen zu schließen, bevor sie gefunden werden.

Aber noch wichtiger ist es, Produkte zu entwickeln, die wenige, oder besser noch, überhaupt keine Schwachstellen haben, wenn sie versendet oder installiert werden. Der Mirai-Botnet, der in der Lage ist, riesige Datenfluten zu generieren, die wiederum Internetserver überladen, übernimmt Geräte, die klaffende Sicherheitslücken haben – wie beispielsweise Standardpasswörter, die fest in der Gerätefirmware verankert sind und die die Nutzer nicht verändern können. Während einige Firmen wie Microsoft stark in Produktsicherheit investieren, gibt es andere, darunter auch einige Händler aus dem Internet of Things, die eben das nicht tun.

Der Cybersicherheitsguru Bruce Schneier kritisiert das Vorherrschen unsicherer IoT-Geräte als Marktversagen, das einer Verschmutzung gleichkommt. Einfacher gesagt, der Markt bevorzugt billige, unsichere Geräte gegenüber kostspieligeren, aber sicheren Varianten. Schneier schlägt einheitliche Regelungen vor – entweder durch die Einführung grundlegender Sicherheitsstandards für Hersteller oder indem die Hersteller zur Verantwortung gezogen werden, wenn ihre Produkte bei derlei Angriffen benutzt werden.

Aktive Schutzmaßnahmen

Wenn es darum geht, gegen Angreifer vorzugehen, gibt es viele Möglichkeiten, um feindliche Cyber-Attacken zu überwachen, zu identifizieren und daraf zu reagieren. Diese aktiven Cyberschutzmaßnahmen sind ähnlich einem Luftabwehrsystem, das den Himmel auf feindliche Flugzeuge absucht und bei einem Fremdangriff deren Raketen zerstört. Netzwerküberwacher, die nach feindlichen Datenpaketen Ausschau halten und diese blockieren („abschießen“), wären ein Beispiel dafür. Genauso die sogenannten Honigtöpfe, die gegnerische Datenpakete anziehen oder in sichere Bereiche lenken. Dort können sie das Zielnetzwerk nicht verletzen und sogar untersucht werden, um das Handwerkszeug des Angreifers offenzulegen.

Andere aktive Schutzmaßnahmen drehen sich um das Sammeln, Analysieren und Teilen von Informationen über potenzielle Bedrohungen, sodass Netzwerkbetreiber auf die aktuellsten Entwicklungen reagieren können. Beispielsweise könnten Betreiber regelmäßig ihre Systeme scannen, um sich auf die Suche nach Geräten zu machen, die anfällig für oder kompromittiert durch den Mirai-Botnet oder andere Schadsoftware sind. Falls sie welche finden, könnten sie die Geräte vom Netzwerk nehmen und den Gerätebesitzer auf die Gefahr hinweisen.

Aktiver Cyberschutz ist mehr als dass nur die Möglichkeiten des Angriffs verwehrt werden. Oft können dadurch die Menschen hinter dem Angriff enttarnt und verhaftet werden. Nichtstaatliche Angreifer können stillgelegt, verhaftet und bestraft werden. Staaten, die eine Cyberkriegsführung vorgeben oder unterstützen, können durch die internationale Gemeinschaft sanktioniert werden.

Gegenwärtig jedoch ist der Privatsektor nicht willens, viele aktiven Schutzmaßnahmen aufgrund rechtlicher Unsicherheiten zu ergreifen. Das Zentrum für Cyber and Homeland Security an der George Washington-Universität empfiehlt verschiedene Maßnahmen, die Regierungen und der Privatsektor umsetzen können, um die weit verbreitete Nutzung von aktivem Schutz und die Klärung von Regelungen eingeschlossen, zu ermöglichen.

Internationale Normen festlegen

Abschließend können internationale Normen für das Netz bei der Abschreckung helfen –  insbesondere, wenn nationale Regierungen  innerhalb der internationalen Gemeinschaft glauben, dass sie für das Durchführen eines Cyberangriffs beim Namen genannt und angeprangert werden. Die USA haben 2014 fünf chinesische Militär-Hacker angeklagt, weil sie amerikanische Firmen anvisierten. Ein Jahr später einigten sich die USA und China darauf, ihre Wirtschaftsgeheimnisse weder zu stehlen noch für kommerzielle Vorteile auszunutzen. Als Folge dieser Ereignisse ist die Cyberspionage aus China rapide zurückgegangen.

Auch im Jahr 2015 empfahl eine UN-Expertengruppe, Cyberangriffen gegen kritische Infrastruktur, einschließlich des Computer-Notfalleinsatz-Teams eines Landes, zu verbieten. Später haben die G20-Staaten ein Statement veröffentlicht, das gegen den Diebstahl von geistigem Eigentum zum Nutzen von gewerblichen Einrichtungen vorgeht. Diese Normen könnten Regierungen von der Durchführung solcher Angriffe abbringen.

Das Netz wird niemals immun gegen Angriffe sein – ebensowenig wie wir uns vor Kriminalität in den Straßen schützen können. Aber mit stärkerer Cybersicherheit, der erhöhten Nutzung von Cyberschutzmaßnahmen und internationalen Cybernormen können wir zumindest hoffen, dass wir das Problem abfedern können.

Dieser Artikel erschien zuerst auf „The Conversation” unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image „scarecrow“ (adapted) by Screamenteagle (CC0 Public Domain)


Weiterlesen »

10 Jahre danach: Wo uns das iPhone weitergebracht hat – und wo nicht.

Der zehnte Geburtstag des iPhone von Apple erinnert uns daran, dass es das erste Smartphone war – wenn auch nicht das Allererste, das am Massenmarkt Anklang fand – obwohl es nicht das Allererste war. Seitdem definierte das iPhone den Ansatz, den andere Smartphone-Hersteller wählten.

Smartphones haben unser Leben verändert, in dem sie uns im Wesentlichen einen an das Internet angeschlossenen Computer für die Hosentasche gegeben haben. Aber wir verlieren auch Freiheiten, während wir von Candy Crush oder Pokémon Go abgelenkt werden. Wir verlieren die Kontrolle über unsere eigenen Geräte und wir verlieren Zugang zu den Informationen, die sie beinhalten – in genau den gleichen Geräten, die zunehmend wichtiger in unserem Leben sind.

Um erkennen zu können, wie weit wir gekommen sind, müssen wir bedenken, dass der Desktop-Computer nur mit dem IBM-PC weiterverbreitet wurde. Indem der PC mit einer offenen Architektur konzipiert wurde, entstand eine gewaltige Industrie an PC-kompatiblen Produkten von anderen Herstellern. Das Gleiche passiert heute: Wenn ihr einen Computer erwerbt, werdet ihr immer (wenn ihr wollt) die Möglichkeit und das Recht haben, jedes Element der System-Hardware hinzuzufügen, zu entfernen, zu tauschen oder aufzurüsten, jede gewünschte Software zu installieren oder zu entfernen, einschließlich des Betriebssystems und des Zugangs zu jeder Information, die darauf gespeichert ist.

Aber heutzutage hat das Smartphone oder das Tablet im Endeffekt in vielen Fällen den Desktop-Computer oder den Laptop ersetzt. In Teilen der Entwicklungsländer sind Smartphones die erste Erfahrung, die viele mit Informatik und dem Internetzugang haben. Die Tatsache, dass sie klein und tragbar sind und ohne Kabel funktionieren, bedeutet, dass sie auch für viele andere Anwendungen ausgelegt sind. Beispielsweise kann das Navigationssystem eine Orientierungshilfe geben, wir hören Musik während des Trainings oder spielen Spiele im Wartezimmer.

Noch ist es unmöglich, auf dem iPhone etwas zu tun, das bei einem Computer sehr einfach ist – wie etwa, unsere Dateien aufzulisten. iPhone-Nutzer können ihr Hintergrundbild, ihren Klingelton und die Alarmzeit ändern. Aber das iPhone überwacht sorgfältig, welche Dateien es beinhaltet. Unser Telefon, das überall mitgenommen wird, das unseren genauen Standort kennt, das die Webseiten aufzeichnet, die wir besuchen, bewahrt alle seine Dateien vollständig unzugänglich für uns auf. Wenn wir uns über unsere Privatsphäre Sorgen machen, sollte uns das beunruhigen.

Wir hatten immer die Herrschaft über unsere eigenen Computer und die Möglichkeit, mit ihnen zu tun, was wir wollen. Aber die Smartphones und Tablets, die wir heute kaufen, werden ohne Administratorrechte genutzt. Wir sind lediglich Nutzer in den Händen der großen Technologie-Unternehmen und diese Firmen beherrschen im Endeffekt die Maschinen, mit denen wir leben.

Informationen und Freiheit

Natürlich erlaubt das iPhone den Zugriff zu einigen Informationen wie beispielsweise Fotos, Emails oder unseren Dokumenten. Aber oft ist es schwierig, Daten von dem Telefon zu entfernen. Die Art, mit der das iPhone mit unserem Computer kommuniziert, ist ein geschlossenes, urheberrechtlich geschütztes Protokoll. Apple ändert das Protokoll zudem jedes Mal, wenn es das Telefon updatet. Daher werden wir Schwierigkeiten haben, unsere eigenen Fotos aus unserem Telefon zu bekommen, wenn wir einen Windows-PC oder einen Apple-Computer verwenden.

Apple schränkt auch ein, welche Informationen auf dem Gerät abgespeichert werden können. Zum Beispiel sind die iPhone-Nutzer gezwungen, jede Musikdatei auf das Telefon mit der Apple iTunes-Software zu überspielen. Wenn man iTunes nicht starten kann oder will, gibt es eben keine Musik. Zudem wird iTunes automatisch alle Musiktitel auf dem Telefon löschen, wenn man versucht, Daten von mehr als einem Computer zu übertragen. Dies geschieht aufgrund der digitalen Rechtemanagement-Software, die annimmt, dass der Zugriff von mehr als einem Computer bedeutet, dass die Datei illegal geteilt worden ist. Es ist ein bisschen so, als würde man eine Brille kaufen, die die Bedingungen überwacht, unter denen wir Bücher lesen dürfen. Oder einen Rucksack, der seinen ganzen Inhalt zerstört,  wenn man versuchen würde, Gegenstände zu tragen, die  aus unterschiedlichen Geschäften stammen.

Das gleiche Problem wirkt sich auch darauf aus, welche Anwendungen installiert werden können. Wer lernt, wie man Code schreibt, kann auch seine eigenen Anwendungen entwickeln, um seine spezifischen Probleme zu lösen. Aber das iPhone gestattet nicht, diese Programme auszuführen:  Nur Software, die von Apple autorisiert und mit Hilfe des Apple Stores vertrieben wurde, ist erlaubt.

Offene Alternativen

Warum wird so engmaschig überwacht, was wir mit unseren Geräten tun können? Manch einer mag argumentieren, dass diese Einschränkungen für unsere Sicherheit notwendig sind. Wenn wir jedoch einen genaueren Blick auf unterschiedliche Betriebssysteme werfen, stellen wir fest, dass Linux – ein nicht-kommerzielles, quelloffenes Betriebssystem – auch vergleichsweise am sichersten ist. Es stimmt, dass das quelloffene Android-Betriebssystem für Mobiltelefone nicht im gleichen Maße sicher ist wie das iOS-Betriebssystem, mit dem das iPhone von Apple betrieben wird. Aber es zeigt auch, dass es möglich ist, ein System zu nutzen, das sowohl sicher als auch offen ist.

In der Tat wird iOS um einige quelloffene Softwareprojekte herum aufgebaut – das sind jede, deren interne Funktionsweisen für alle gratis zugänglich sind, um sie anzuschauen und zu modifizieren. Aber während Elemente von iOS offen sind, werden sie als ein Teil des fest geschlossenen Systems verwendet. Android, ein offenes Betriebssystem für Mobiltelefone, das ursprünglich von Google entworfen wurde, ist die erste Alternative zum iPhone. Doch Android-Telefone haben auch viele geschlossene Source-Komponenten. Auch ersetzt Google laufend offene Vorgänge mit geschlossenen Source-Komponenten.

Eine andere Alternative kommt in Form von Ubuntu Touch, eine neue Version des beliebten Ubuntu Linux für Telefone und Tablets, jedoch wird es noch nicht weitläufig verwendet. Als Tatsache bleibt, dass uns die mobile Revolution, die vom iPhone losgetreten wurde, zehn Jahre später einige Schritte nach vorne und einige Schritte zurück gebracht hat: Sie lässt uns im Unklaren, ob wir eines Tages unsere Geräte eigentlich vollständig besitzen werden.

Dieser Artikel erschien zuerst auf „The Conversation” unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image „iphone“ by JEESHOTS (CC0 Public Domain)


Weiterlesen »

Wie man mit Spieletechnologie Tatorte hacken kann

konsole(image by quakeboy[CC0 Public Domain] via Pixabay)

Sherlock Holmes konnte einen Tatort mithilfe seiner ausgezeichneten Kombinationsgabe (und manchmal auch einer Lupe) untersuchen. Doch die heutigen Ermittler haben sehr viel komplexere Technologien zur Hand, um wichtige Arbeiten wie das Dokumentieren und Analysieren eines Tatorts festzuhalten. Zum Beispiel können die Ermittler mithilfe von 3D-Laserscans schnell ein detailliertes und sehr akkurates Modell des Tatorts erstellen.

Das Problem hierbei ist, dass diese Gerätschaften sehr teuer sind, oft im Bereich von mehreren tausend US-Dollar, was sie für kleinere Polizeiwachen praktisch unerreichbar macht. Handscanner sind billiger zu kriegen, aber sie sind eher für kleinere Objekte oder einen Menschen gemacht, statt dass man damit einen gesamten Tatort erfassen könnte. Allerdings könnten diese dreidimensionale Scans einfacher gemacht werden. Die Lösung kommt von eher ungewöhnlicher Seite – von der Spieleindustrie.

Die Xbox Kinect von Microsoft ist ein Gerät mit Bewegungssensor, bei dem die Spieler bestimmte Gesten und Körperbewegungen einsetzen, um zu spielen. Die ursprüngliche 360er-Konsole wurde in den ersten beiden Jahren nach ihrer Veröffentlichung im Jahr 2010 über 24 Millionen Mal verkauft. Microsoft veröffentlichte danach noch ein Addon-Paket, mit dem sich Programmierer in die Bewegungssensorik der Kinect einhacken und diese mit ihrer eigenen Software kontrollieren konnten. Mit dem Addon eröffneten sich viele neue Möglichkeiten.

Entwickler nutzen es, um die Routinefunktionen eines Computers zu kontrollieren. Sie nutzen es auch, um spezielle Gerätschaften wie Operationsrobotor zu bewegen, statt mit Systemen zu arbeiten, die sonst um die 50.000 US-Dollar kosten würden. Allerdings ist die vielleicht beste Kinect-Funktion die, mit der man Landschaften und Objekte in 3D einfangen kann, inklusive akkurater Farbgebung und Textur.
Im letzten Jahr haben Forscher der Universität Vigo in Spanien vorgeschlagen, dass man die alte 360er Kinect-Konsole nutzen könnte, um Tatorte in 3D zu modellieren. Ihre Ergebnisse zeigten, dass die 360 Kinect zu laut ist, um akkurate Messungen zu produzieren, da eine visuelle Verfälschung durch zu geringes Licht verursacht wird. Eine Messung gelang nur dann, wenn man sie sehr nah an das zu scannende Objekt hielt. In einer Entfernung von nur drei Metern produzierte die Kinect Messfehler zwischen zwei bis zu zehn Prozent. Das scheint nicht viel zu sein, doch bei der Aufnahme von Tatorten muss alles akkurat ablaufen.

Die aktualisierte Xbox-One-Version der Kinect kommt mit einer Kamera mit einer Pixeltiefe von 512×424 Pixeln, während die Originalversion noch 320×240 Pixel aufwies. Das bedeutet, dass sie Bilder mit einem besseren Fokus aufnehmen kann, sogar bei einer geringen Lichtstärke. Die Software-, und Hardwareverbesserung führt dazu, dass nun zwei Gigabits an Daten pro Sekunde übermittelt werden können. Wenn man den Sensor schwenkt und kippt, um Räume in 3D aufzunehmen, kann dies nun bei einer schnelleren Aufnahmezeit geschehen. Zudem werden weniger weniger Geräusche und Ungenauigkeiten produziert.

Die Verbesserungen bei der Kinect waren so bedeutend, dass das Jet Propulsion Labor der NASA sich beim Entwicklerprogramm im November 2013 eingeschrieben hat. Die NASA-Techniker benutzten die neue Kinect in Verbindung mit dem Oculus Rift-VR-Headset, um ein System zu entwickeln, das es Astronauten ermöglicht, einen Roboterarm mithilfe des eigenen Armes zu bewegen. Sie nannten es „die umfassendste Schnittstelle“, die sie jemals gebaut haben.

Den eigenen 3D Scanner bauen

Um einen gesamten Tatort abscannen zu können, könnte der Sensor der Xbox One Kinect (Kosten: etwa um die 89 britische Pfund) mit einem günstigen Computer (Kosten: etwa 30 Pfund) wie dem Arduino Leonardo, einem Raspberry Pi, einem Rotationsbausatz (etwa 60 Pfund) und Neigungsbausatz (etwa 25 Pfund) kombiniert werden. Dies würde es Ermittlern ermöglichen, einen gesamten Schauplatz automatisch in 360-Grad-Sicht einzufangen. Ein Laptop mit ordentlicher Rechenleistung (für etwa 1000 Pfund) und einem Windows-Adapter (etwa 40 Pfund) bräuchte man ebenso, um das System laufen zu lassen. Die gesamten Kosten für die notwendige Ausstattung läge somit unter 1500 Pfund. Damit wäre man etwa 43Mal günstiger als die bereits bestehenden, kommerziellen Systeme, die es auf dem Markt gibt.

Der Aufbau und de Benutzung wäre vergleichsweise einfach und die meisten Komponenten arbeiten sofort, ohne dass man erst umständlich an ihnen herumschrauben muss. Open-Source Software ist zudem frei erhältlich, es gibt auch einige kommerzielle Angebote für unter als 150 Pfund. Andere spezialisierte Softwaresysteme kann man nur zusammen mit Hardware zu einem Preis von etwa 150.000 britische Pfun bekommen.

Obwohl mehr Tatortsoftware auf den Markt gekommen ist, ist der Preis nicht merklich gesunken. Die Technologie ist daher für viele Polizeiwachen noch immer nicht erschwinglich. Die Möglichkeiten der Kinect könnten dazu führen, dass Polizeikräfte einen Schritt zur Verbesserung der eigenen Technologien mit einem Hack herbeiführen können. Ein Kinect-basiertes System wäre eine einfache, kosteneffektive Methode, die bei Ermittlungen helfen und Gerechtigkeit herbeiführen könnte.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image „Konsole“ by quakeboy (CCO Public Domain)


Weiterlesen »

Wenn Roboter fühlen lernen

human-face-image-by-kuloser-cc0-public-domain-via-flickr

Roboter sind nicht mehr aus unserem Leben wegzudenken. Die 24-Stunden-Hilfskräfte, die für uns stellvertretend schrauben, löten, Botengänge erledigen, Fragen beantworten und zu unserer Unterhaltung und Zerstreuung bereitstehen, sind rund um die Uhr mit nimmermüder Geschäftigkeit für uns da.

Schöne neue Welt, wenn auch vielleicht ein bisschen gruselig. Denn die maschinellen Helfer sind günstiger und verlässlicher als so mancher Mensch: ein Arzt-Bot wird nie selbst krank, eine selbstdenkende Roboter-Hebemaschine kriegt keinen Bandscheibenvorfall. Ob sie unsere Arbeitskraft irgendwann vollständig ersetzen sollen und ob wir das überhaupt wollen, wird noch immer heiß diskutiert.

Von Androiden und geheimen Wünschen

So weit, so gut. Der reine Nutzen der Helfer steht ohnehin nicht infrage. Wie weit unsere Faszination bezüglich der maschinellen Gehirne und Lernprozesse geht, kann seit Jahrzehnten in der Literatur- und Filmwelt untersucht werden.

So prägt der polnische Philosoph und Autor Stanislaw Lem seit mehr als 60 Jahren die Science-Fiction-Szene eingehend mit seinen Ideen von virtueller Realität, neuralen Netzen und künstlicher Intelligenz. Oft nahm er dabei die scheinbar uneingeschränkte Zukunftsgläubigkeit der Menschen aufs Korn, um ihnen, ähnlich wie in Ray Bradburys „Mars-Chroniken“ (absolute Leseempfehlung für den Herbst!), den Spiegel des Menschen als rücksichtsloses Raubtier an seiner Umwelt vorzuhalten.

Der Autor Philip K. Dick entwickelte die Idee der menschenähnlichen Androiden mit seinem Roman „Träumen Androiden von elektrischen Schafen“ weiter, der später in der bekannteren Dystopie „Blade Runner“ mit Harrison Ford verarbeitet wurde. Hier treffen wir auf eine künstliche Intelligenz, die nicht nur unsterblich und geradezu übermenschlich stark ist, sondern auch fühlen kann und will. Sehr ähnlich wird dieser Gedanke auch gerade mit dem gerade erschienenen Westworld-Remake erzählt, der sich gerade in den Serien-Charts nach oben arbeitet.

Ähnlich aufgebaut ist auch die Figur des Data im Star-Trek-Universum (TNG), die nach einem Roboter aus dem 50er-Jahre-Film „Alarm im Weltall“ geschaffen wurde. Datas innigster Wunsch ist es, so menschlich und emotional wie möglich zu werden. Dank eines eigens für ihn entwickelten Emotions-Chips gelingt ihm das in einigen Folgen von „Raumschiff Enterprise“ zunehmend, jedoch unterscheidet er sich noch immer von den Menschen: Zwar hat er ein ausgeprägtes Selbstbewusstsein, was man den heute existierenden KIs höchsten als einprogrammierte Widerborstigkeit anrechnen kann, aber er versteht beispielsweise keine Witze. Humor ist eine allzu menschliche Eigenschaft, und diese Hürde kann Data nicht überspringen.

Kommen zwei Roboter in eine Bar…

Auch Humorversuche von Computern aus dem echten Leben scheitern hier, oder sind zumindest Geschmackssache. Wer jemals versucht hat, eine sinnvolle oder gar erheiternde Diskussionen mit Bots wie Apples Siri zu führen, wird ihr wohl zumindest keinen Sendeplatz für die nächste Late-Night-Show anbieten wollen – Computer sind einfach nicht witzig.

Von Marvin, dem depressiven Roboter aus „Per Anhalter durch die Galaxis“ über GERTY, der dem Mondeinsiedler Sam Bell in „Moon“ die Einsamkeit erleichtern soll bis hin zu der fantastischen Liebesgeschichte zwischen Mensch und Interface: Wir wollen von dem Gedanken nicht ablassen, unsere Roboter zu emotionalisieren. Vielleicht ist das auch verständlich – schließlich rücken sie immer näher an uns heran.

Braucht Pflege Emotionen?

Die neue Generation der Roboter soll nach diesen Ideen vielleicht nicht den menschlichen Humor, aber doch eine gewisse Emotionalität und Empathie lernen. Ob das klappt, testen wir gerade unter anderem in Pflegeheimen, wo die neuen Pflegeroboter zum Einsatz kommen, denn wie vieles andere auch, wird derzeit bei Robotern die Emotionen noch stark infrage gestellt. Allerdings verstehen viele Forscher, Wissenschaftler und Psychologen unter dem Wort Emotionen jeder etwas anderes. Wie soll auch ein Roboter das gleiche menschliche Lächeln und Empathie imitieren, wie es nur ein Mensch von Natur aus kann?

In Japan wird in der Pflege schon recht viel Technologie eingesetzt, so gab es hier den einen oder anderen Extremfall: der oft beunruhigende Einsatz der Technik – wie die Anti-Weglauf-Halskette oder Bewegungssensoren – gehen vielen Menschen dann doch deutlich zu weit. Mit solchen Maßnahmen wird hierzulande wohl eher nicht zu rechnen sein. Dezent eingesetzte Technik in den Pflegeheimen oder Wohnungen, wie das Heben aus dem Bett oder in die Badewanne kann eine gute Lösung sein, ist aber derzeit leider noch sehr teuer. Dabei müssen Roboter weder Emotionen zeigen noch mit uns sprechen. Hier geht es ausschließlich um die körperliche Entlastung der Pflegekräfte. Alles andere, wie freundliche Bedienung, Hilfsbereitschaft oder ein herzliches “Guten Morgen”, beherrschen wir Menschen selbst wahrscheinlich am besten.

Bots, die mit uns sprechen

Die Technik entwickelt sich immer weiter. So scheint es mittlerweile fast normal zu sein, sich statt eines Haustiers einen eigenen sprechenden Roboter zuzulegen. Der Roboter Kirobo Mini, der im nächsten Jahr auf den Markt kommen soll, tanzt auf dem schmalen Grat zwischen Spielzeug und Helferlein. Vielleicht taugt er auch als Begleiter für ältere Menschen oder als Beifahrer für lange Autofahrten?

Mal abgesehen von den eher wenigen Emotionen und den vorprogrammierten Sätzen der Roboter, die ja scheinbar irgendwann zum alltäglichen Leben der Menschheit dazugehören werden, gibt es immer wieder kuriose Geschichten über Roboter, die auf ganz andere Art und Weise mit uns sprechen, wie beispielsweise in der Geschichte von Eugenia Kuyda und Roman Mazurenko beschrieben wird.

Nach einem Verkehrsunfall starb Roman Mazurenko mit nur 34 Jahren. Seine beste Freundin Eugenia kam auf eine ganz ausgefallene Idee: Sie sammelte sämtliche SMS und Kurznachrichten von Roman zusammen und schrieb daraus ein Programm – das ganze klingt ein bisschen wie der Film “Transcendence” mit Johnny Depp. Anhand dieses Programms war es ihr möglich, virtuelle Gespräche mit Roman zu führen.

screenshot-by-zeit-online
Screenshot by Zeit Online Blog – Wie ein Toter als Chatbot weiterlebt

Auf diese Weise möchte ein australisches Startup die Menschheit unsterblich machen. Bislang halten sie sich bezüglich der konkreten Umsetzung sehr bedeckt, aber dennoch kann verraten werden, dass Daten der Menschen, ihre Verhaltensweisen, Kommunikationsarten und Denkweisen gesammelt werden, um daraus eine künstliche Intelligenz zu schaffen. Des Weiteren wird verraten, dass das menschliche Gehirn eines Verstorbenen eingefroren und in einen künstlichen Körper eingesetzt werden soll. Ziemlich kurios wirkt das Ganze definitiv – und abgesehen von der grundsätzlichen Frage danach, ob das überhaupt möglich sein wird, bleibt auch die Frage nach ethischen Bedenken bestehen.

Eine Frage der Ethik

Die Frage, wie man das Thema Roboter und Emotionen und ein mögliches, digitales Weiterleben nach dem Tod – was ja eigentlich auch kein richtiges Leben ist, sondern lediglich eine Sammlung von Daten, die einen echten Menschen imitieren soll – ethisch einordnen soll und kann, ist schwer zu beantworten. Für den einen mag es sehr sinnvoll sein und vielleicht auch ein Stück weit über die Trauer eines Verstorbenen hinweg helfen. Wenn man noch ein paar Worte an jemanden richten, der nicht mehr wieder kommen kann, dann kann das für manche Menschen eine große Hilfe sein.

Auf der anderen Seite ist es aber auch vorstellbar, dass die Menschen sich in die Vorstellung eines digitalen Abbilds eines Menschen verrennen und eventuell nicht in der Lage sind, die Endlichkeit und den Tod zu akzeptieren. Dieser Gedanke wird in einer Folge der britischen Science-Fiction-Serie „Black Mirror“ behandelt. Hier wird deutlich: Wenn wir den Tod tabuisieren oder sogar vollkommen verlernen, mit ihm umzugehen, sondern uns ein Substitut suchen, werden wir niemals loslassen können.

Wenn Roboter in unser Leben eingreifen und uns einen Vorteil bieten, indem sie uns schwere Arbeiten abnehmen oder uns den Alltag erleichtern, dann ist das schön und gut. Aber sie sollten nicht zu sehr in unser Menschsein eingreifen. Menschlichkeit und Einzigartigkeit macht uns aus. Wir sollten sie uns in der Zeit der Digitalisierung umso dringender bewahren.


Image „Human Face“ by Kuloser (CC0 Public Domain)


Weiterlesen »

Superschnelle „Quantencomputer“ – Das Ende der sicheren Verschlüsselung?

Coding (image by negativespace.co [CC0 Public Domain] via Pexels

Es bahnt sich eine Computer-Revolution an, auch wenn niemand weiß, wann sie genau stattfinden wird. Was als „Quantencomputer“ bekannt ist, wird wesentlich leistungsfähiger sein als die Geräte, die wir heute benutzen. Diese Maschinen werden in der Lage sein, viele Arten der Berechnung vorzunehmen, die auf modernen Geräten unmöglich sind. Aber während schnellere Computer in der Regel mit Freuden erwartet werden, gibt es einige Rechenoperationen, bei denen wir uns darauf verlassen, dass sie nur mühsam (oder langsam) ausgeführt werden.

Im Besonderen vertrauen wir darauf, dass es einige Codes gibt, die Computer nicht knacken können – oder zumindest würde es zu lange dauern, sie zu knacken, um uns von Nutzen zu sein. Verschlüsselungsalgorithmen bringen Daten in eine Form, die sie für jeden unbrauchbar machen, der nicht den entsprechenden Codes zur Entschlüsselung besitzt – in der Regel sind dies lange Abfolgen von zufälligen Zahlen. Mit deren Hilfe können wir Informationen sicher über das Internet versenden. Aber könnten Quantencomputer dazu führen, dass wir nicht länger Verschlüsselungstechniken entwickeln können, die nicht geknackt werden können?

Für ein System, bekannt als symmetrische Verschlüsselung, stellen Quantencomputer keine besonders große Bedrohung dar. Um eine symmetrische Verschlüsselung zu brechen, muss man herausfinden, welcher von vielen möglichen Schlüsseln benutzt wurde. Alle denkbaren Kombinationen auszuprobieren, würde eine unvorstellbare Menge Zeit kosten. Es zeigt sich, dass Quantencomputer all diese Schlüssel in einem Viertel der Zeit testen könnten, die von heutigen Computern benötigt wird – oder anders gesagt, in etwas weniger Zeit, aber nicht so dramatisch viel, als dass dies uns Kopfzerbrechen bereiten müsste.

Für einen anderen Typ der Verschlüsselung hingegen, die asymmetrische oder Public-Key-Verschlüsselung, sieht es nicht so gut aus. Public-Key-Systeme werden benutzt, um beispielsweise die Daten zu sichern, die durch unseren Webbrowser geschickt werden. Diese verschlüsseln Daten, indem sie einen Schlüssel nutzen, der für jeden verfügbar ist, aber zur Entschlüsselung einen anderen, persönlichen Schlüssel benötigt.

Der persönliche Schlüssel ist mit dem Public Key verwandt, also muss man zur Entschlüsselung eine sehr komplizierte Berechnung durchführen, um den persönlichen Schlüssel zu erhalten. Einen herkömmlichen Computer würde dies eine enorme Menge Zeit kosten. Aber was die beiden am weitesten verbreiteten Arten der Public-Key-Verschlüsselung betrifft, die heute Verwendung finden, wäre ein Quantencomputer in der Lage, die Berechnungen schnell genug durchzuführen, um sie fast völlig unsicher werden zu lassen.

Glücklicherweise haben wir dieses drohende Desaster bereits vorausgesehen. Forscher aus Hochschulen, Regierungen und der Industrie arbeiten im Moment hart daran, neue Public-Key-Verschlüsselungstechniken zu entwickeln, welche auf anderen, schwierigeren Berechnungen beruhen, welche gegen die Rechenleistung der Quantencomputer immun sind. Ich bin sicher, dass diese Bemühungen erfolgreich sein werden – insbesondere, da wir bereits einige Verfahren kennen, die zu funktionieren scheinen. Wenn die Zeit der Quantencomputer kommt, werden wir bereit sein.

Quantencomputer stehen für eine neue Arbeitsumgebung, in der viele fantastische Dinge möglich sein werden. Aber wenn es um Verschlüsselung geht, wird sich nicht viel verändern. Die Entwicklung neuer Verschlüsselungstechniken wird keine ungewöhnliche Quantenspielerei benötigen, sondern lediglich ein Bewusstsein dafür, was mit Quantencomputern alles möglich ist. Wahrscheinlich wird es auch eine lange Übergangsphase geben, in der sie nur einigen spezialisierten Organisationen zur Verfügung stehen. Das bedeutet, dass quantensichere Verschlüsselungstechniken auf den zeitgenössischen Computern funktionieren müssen, die der Rest von uns weiter benutzen wird.

Neues Schloss, neues Haus

Ich vermute, dass wir in einer zukünftigen Welt der Quantencomputer sicherlich neue Verschlüsselungstechniken nutzen werden, aber dass die Sicherheit dieser Methoden weitestgehend mit der heutigen Sicherheit vergleichbar sein wird. Der Hauptgrund, warum ich mit dessen sicher bin, liegt darin, dass die Schwachstellen, die mit Verschlüsselung in Verbindung gebracht werden, höchstwahrscheinlich dieselben sein werden wie heute. Der Grund dafür ist folgender:

Verschlüsselung ist im Kern ein Verriegelungsmechanismus. Ein Schloss benötigt einen Schlüssel. Wenn Sie das beste Schloss, das für Geld zu haben ist, an der Tür eines Hauses anbringen, können Sie sicher sein, dass das Schloss selbst nicht aufgebrochen werden wird. Quantencomputer stehen für eine neue Art von Haus, quantensichere Verschlüsselung für eine neue Art Schloss, die zu diesem Haus passt.

Aber wenn jemand in Ihr Haus einbrechen will, und er weiß, dass das Schloss gut ist, wird er nicht versuchen, das Schloss überhaupt aufzubrechen. Stattdessen wird er nach anderen Möglichkeiten suchen. Beispielsweise könnte er den Schlüssel stehlen oder einen Ziegelstein durch das Fenster werfen. Allgemein gesagt ist das genau das, was heute bei den meisten Sicherheitsvorfällen im Internet geschieht. Moderne Verschlüsselung ist hervorragend, aber wir sind weniger kompetent, wenn es um den Schutz der Schlüssel zur Entschlüsselung geht, und noch schlechter beim angemessenen Integrieren von Verschlüsselung in größere Systeme. Ich glaube nicht, dass sich das in einer Welt der Quantencomputer, wie wunderbar sie auch immer sein mag, ändern wird – wann auch immer das sein wird.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image „Coding“ by negativespace.co (CC0 Public Domain)


Weiterlesen »

Das sehen Hunde, wenn sie fernsehen

hund(image by lightstargod[CC0 Public Domain] via Pixabay)

Hundebesitzer bemerken oft, wie ihre Tiere fernsehen oder auf Computerbildschirme und Tablets schauen. Aber was geht in ihrem Hundekopf vor? Tatsächlich konnten Studien durch eine Rückverfolgung ihres Sehvermögens mithilfe ähnlicher Methoden, wie sie beim Menschen verwendet wurden, feststellen, dass Haushunde bestimmte Bilder und Videos bevorzugen.

Diese Studie deutet darauf hin, dass Hunde bevorzugt andere echte Hunde sehen – aber unsere Studien haben auch herausgefunden, dass es zunächst die Geräusche sind, die Hunde zum Fernseher oder zu anderen Geräten locken.

Die beliebtesten Geräusche umfassen dabei das Bellen von Hunden sowie deren Winseln, aber auch die Laute, die Menschen erzeugen, wenn sie Hunde loben und ihnen freundlich Befehle erteilen und das Quietschen von Spielzeug.

Dennoch schauen Hunde ganz anders fern als es Menschen tun. Statt still zu sitzen, nähern sich die Tiere oft dem Bildschirm, um genauer hinschauen zu können und laufen wiederholt zwischen ihrem Besitzer und dem Fernseher hin und her. Sie sind sehr zappelige, interaktive Zuschauer.

Hunde sehen auf dem Bildschirm auch andere Dinge als Menschen. Hunde sehen zweifarbig – sie haben zwei Arten von Farbrezeptor-Zellen und sehen Farben innerhalb zweier Farbspektren: blau und gelb. Die Farbverwendung in den Medien ist sehr wichtig für Hunde und erklärt, warum der Hunde-Fernsehsender DogTV diese Farben bei seinen Programmen bevorzugt verwendet. Hundeaugen sind außerdem viel sensibler gegenüber Bewegungen und Tierärzte vermuten, dass das verbesserte, flimmerfreie Fernsehen, das aus dem Wechsel von normalem zu hoch auflösendem Fernsehen resultiert, Hunden ermöglicht hat, die Medienprogramme im Fernsehen besser wahrzunehmen.

Mögen Hunde das TV-Programm

In Studien wurden auch mehrere Bildschirme verwendet, um zu sehen, ob Hunde aussuchen können, was sie anschauen. Frühe Forschungen haben ergeben, dass Hunde unfähig sind, sich zu entscheiden, wenn sie mit drei Bildschirmen konfrontiert werden und sich stattdessen nur einen Bildschirm anschauen, ganz egal, was auf diesem gezeigt wird. Dies muss noch mit zwei Bildschirmen getestet werden und möglicherweise auch noch einmal mit mehr als dreien.

Während die Wissenschaft gezeigt hat, dass Hunde sich auf Fernsehprogramme einlassen können und dass sie bestimmte Programme bevorzugen, muss sie noch komplexere Fragestellungen erforschen, wie beispielsweise die Frage, ob ihnen Fernsehen eigentlich tatsächlich gefällt. Wir Menschen schauen oft anstrengendes Bildmaterial oder Videos, die uns eine Vielzahl an Emotionen durchleben lassen, von Erschütterung zu Wut und Schrecken. Wir schauen auch nicht nur deshalb fern, um uns wohlzufühlen. Wir wissen jedoch nicht, ob ähnliche Faktoren Hunde dazu motivieren, fernzusehen.

Worauf sich ein Hund einlässt, variiert jedoch von Hund zu Hund und hängt von seiner Persönlichkeit, Erfahrung und von seinen Vorlieben ab. Es wird spekuliert, ob dies davon beeinflusst wird, was ihre Herrchen schauen, da Hunde dem Blick der Menschen und anderen Kommunikationssignalen, wie zum Beispiel Gesten und Kopfschütteln, folgen.

Anders als bei Menschen gibt es bei Hunden sehr kurze Interaktionen mit den Medien mit einer Zeitspanne von meist unter drei Sekunden, wobei die Tiere bevorzugt kurze Blicke auf den Fernseher werfen, anstatt sich auf diesen zu fokussieren, wie es die Menschen tun. Studien haben herausgefunden, dass selbst Medienprogramme, die speziell für Hunde konzipiert wurden, zum Großteil von diesen nicht geschaut werden. Das ideale Fernsehprogramm für Hunde sollte daher viele Bildausschnitte beinhalten und keine Szenarios mit langen Geschichten.

Aber während Hunde ihren eigenen Fernsehsender haben und eine Vorliebe dafür gezeigt haben, andere Hunde zwischen kurzen Interaktionsphasen im Rahmen spezieller Programme in bestimmten Farben zu sehen, bleiben noch viele Dinge unklar. Dennoch besitzt die Technologie das Potential, für Unterhaltung für den Haushund zu sorgen, wodurch das Wohlergehen der allein im Zwinger und zu Hause gelassenen Hunde gesteigert wird. Man sollte allerdings noch keine Hundeversion der Nachrichten erwarten.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image „Hund“ by lightstargod (CC0 Public Domain)


Weiterlesen »

Augmented Reality: Woher weiß ein Computer, wo wir hinschauen?

view-ar-butlers-screenshot-image-by-mximex-via-wikimedia-commons

Man stelle sich folgendes Szenario einmal vor: Sie fahren ein Auto und benutzen eine Head-up-Display-Projektion auf der Windschutzscheibe, um sich durch eine Ihnen unbekannte Stadt navigieren zu lassen. Es handelt sich um ‚Erweiterte Realität‘ (Augmented Reality). Die Informationen werden nicht nur verwendet, um Sie entlang einer Route zu führen, sondern auch, um Sie auf hervorstechende Informationen in Ihrer Umgebung aufmerksam zu machen, wie beispielsweise Fahrradfahrer oder Fußgänger. Die korrekte Platzierung der virtuellen Inhalte ist nicht nur äußerst wichtig, sondern vielleicht eine Frage von Leben und Tod.

Die Information sollte keine anderen Materialien verdecken und lange genug angezeigt werden, so dass Sie verstehen, worum es geht, aber nicht sehr viel länger als das. Computersysteme müssen diese Entschlüsse in Echtzeit treffen, ohne von der Informationen abgelenkt oder gestört zu werden. Auf keinen Fall soll eine Warnung vor einem kreuzenden Fahrradfahrer den Fahrradfahrer selbst verdecken.

Als Forscher im AR-Bereich verbringe ich eine Menge Zeit damit, herauszufinden, wie man die richtige Information am richtigen Platz und im richtigen Moment auf den Bildschirm des Nutzers bekommt. Ich habe gelernt, dass das Anzeigen zu vieler Information den Nutzer verwirren kann, doch zu wenig anzuzeigen, kann die Applikation unnütz machen. Wir müssen die goldene Mitte finden.

Dabei ist es wichtig, zu wissen, wo die Benutzer hinschauen. Erst dann können wir die Informationen, die benötigt werden, an eine Stelle positioniert werden, an dem sie verarbeitet werden können. Ein Teil unserer Forschung beinhaltet also, zu messen, wohin der Benutzer in der Echtzeitszene schaut. Dies hilft uns dabei, zu entscheiden, wo wir den virtuellen Inhalt platzieren. Im Hinblick auf die Tatsache, dass AR bereit ist viele Bereiche unseres Lebens zu infiltrieren – von der Fahrt zur Arbeit bis hin zur Freizeitbeschäftigung – müssen wir dieses Problem lösen, bevor wir uns drauf verlassen können, dass die AR uns in schwierigen oder kritischen Situationen Hilfe bietet.

Die Positionierung der Informationen

Dabei ist es sinnvoll, Informationen dort anzeigen zu lassen, wo der Nutzer hinschaut. Beim Fahren könnte der Benutzer ein Gebäude, eine Straße oder bestimmte Objekte anschauen, um die entsprechenden virtuellen Informationen abzurufen. Das System verbirgt an dieser Stelle alle anderen Anzeigen, um die Szene nicht zu verdecken.

Doch wie wissen wir, wo jemand hinschaut? Es zeigte sich, dass die Nuancen menschlicher Sicht uns erlauben, die Augen einer Person zu untersuchen und zu berechnen, wo sie hinschaut. Indem wir diese Daten mit Kameras kombinieren, die das Sichtfeld einer Person anzeigen, können wir bestimmen, was die Person sieht und wo er oder sie hinschaut.

Eye-Tracking-Systeme entstanden im 19. Jahrhundert. Ursprünglich wurden sie hauptsächlich zur Untersuchung von Leseverhalten eingesetzt und einige konnten für den Leser ziemlich störend sein. In der jüngeren Vergangenheit hat das Echtzeit-Eye-Tracking sich aber weiterentwickelt und ist nun erschwinglicher, einfacher auszuführen und kleiner.

the-spectacles-for-eye-tracking-image-by-anatolich1-cc-by-sa-3-0-via-wikimedia
Eye-Tracking Spectacles; Image by Anatolich1 (CC BY-SA 3.0)

Eye-Tracker können an einen Bildschirm angebracht oder in eine Brille oder in ein auf dem Kopf getragenes, visuelles Ausgabegerät integriert werden. Die Augenbewegung wird verfolgt, indem eine Kombination aus Kameras, Projektionen und Bilderkennungsalgorithmen eingesetzt wird, um die Position der Augen und den Blickpunkt auf dem Monitor zu kalkulieren.

Wenn wir Eye-Tracking-Daten untersuchen, schauen wir generell auf zwei Messgrößen. Die erste ist die Fixierung und beschreibt das Innehalten unseres Blicks, häufig an einer interessanten Stelle, die unsere Aufmerksamkeit erregt. Die zweite ist eine Sakkade, eine schnelle Augenbewegung, um unseren Blick zu positionieren. Grundsätzlich bewegen sich unsere Augen schnell vom einen Punkt zum anderen und nehmen Informationen über Teile der Szene auf. Unsere Gehirne bringen die Informationen der einzelnen Fixationen anschließend zusammen, um vor unserem geistigen Auge ein Bild zu formen.

Eye-Tracking und AR kombinieren

Oft sind AR-Inhalte mit einem Objekt oder Ort in der realen Welt verankert. Zum Beispiel sollte ein virtuelles Schild mit einem Straßennahmen auf der entsprechenden Straße angezeigt werden. Ideal wäre es, wenn das AR-Schild direkt bei dem Objekt angezeigt wird, mit dem es assoziiert ist. Doch wir müssen auch darauf achten, dass nicht eine Vielzahl von AR-Schildern sich überlappen und so unleserlich werden. Es gibt viele Herangehensweisen, um das Platzieren von Schildern zu managen. Wir befassen uns mit einer Möglichkeit: man berechnet, wo die Person in der realen Szene hinschaut, und zeigt die AR-Schilder nur an dieser Stelle an.

Nehmen wir beispielsweise an, dass ein Benutzer mit einer mobilen Applikation interagiert, die ihm hilft, ein Müsli mit wenig Kalorien im Supermarkt zu finden. In der AR-Applikation ist jedes Müsli mit Kalorien-Informationen verbunden. Statt nun physisch jede Müslischachtel hochheben und die Nährwertangaben lesen zu müssen, kann der Benutzer sein mobiles Endgerät hochhalten und es auf eine bestimmte Müslischachtel richten, um die relevanten Informationen abzurufen.

Doch denken Sie einmal daran, wie vollgestopft mit unterschiedlichen Sorten das Müsliregal eines Supermarkts häufig ist. Ohne eine Möglichkeit, die Anzeige der AR-Etiketten irgendwie zu managen, würden die Kalorieninformationen für sämtliche Müslisorten angezeigt werden. Es wäre für den Benutzer unmöglich, die Kalorienangabe für das Müsli zu identifizieren, für das er sich interessiert.

Indem wir der Bewegung seiner Augen folgen, können wir genau bestimmen, welche Schachtel der Benutzer ansieht. Dann zeigen wir die Kalorieninformationen für dieses bestimmte Produkt an. Wenn er seinen Blick auf eine andere Schachtel richtet, dann zeigen wir die Angaben für die nächste Schachtel an. Sein Bildschirm ist übersichtlich, die Information, die er benötigt, ist direkt verfügbar und wenn er Zusatzinformationen benötigt, können wir auch diese anzeigen.

Diese Entwicklungen machen die jetzige Zeit für die AR-Forschung besonders spannend. Unsere Möglichkeiten, Szenen aus der realen Welt mit Computergrafiken auf mobilen Displays zu integrieren, machen Fortschritte. Dies befeuert die Aussicht darauf, fantastische neue Applikationen zu entwickeln, die unsere Möglichkeit, mit der Welt um uns herum zu interagieren, von ihr zu lernen und von ihr unterhalten zu werden, erweitern.

Dieser Artikel erschien zuerst auf “The Conversation” unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image „View AR BUTLERS Screenshot““ by Meximex (CC BY 3.0)


The Conversation

Weiterlesen »

FollowUs – Die Netzpiloten-Tipps aus Blogs & Mags

Follow me

  • KI faz: Computer bluffen nicht: Da hörte selbst für Dong Kim, Jason Les, Bjorn Li und Doug Polk der Spaß auf: Knapp zwei Wochen lang täglich bis zu elf Stunden absolvierten die vier amerikanischen Poker-Profis im Frühjahr vergangenen Jahres jeweils 20.000 Runden der Poker-Variante „Face-Up No Limit Texas Hold’em“. „Erschöpfung und Langeweile“ nannte Bjorn Li anschließend als größte Herausforderung des Kartenmarathons, der in einem Spielkasino in Pittsburgh, Pennsylvania ausgetragen wurde. Allerdings können solche Matches nun auch anderweitig ausgetragen werden. Mittels Künstlicher Intelligenz nämlich.

  • POLITIK netzpolitik: Gerichtsurteil: Online-Nachrichten in Italien haben ein Ablaufdatum: Der oberste italienische Gerichtshof für Zivil- und Strafsachen hat mit einem Urteil die Presse- und Meinungsfreiheit in Italien eingeschränkt. Demnach können Medien dazu gezwungen werden, ältere Artikel aus ihren Online-Archiven zu löschen, um das Recht auf Privatsphäre zu schützen. Hintergrund war die Berichterstattung des Online-Mediums PrimaDaNoi über ein Gerichtsverfahren gegen einen Restaurantbesitzer. Da dem Betroffenen ein kritischer Artikel nicht genehm war, forderte er PrimaDaNoi auf, diesen zu entfernen.

  • ÜBERWACHUNG heise: Schweizer erlauben Geheimdienst umfangreiches Überwachungsarsenal: Mit einer deutlichen Mehrheit von 65,5 Prozent Ja-Stimmen nahmen die Schweizer Stimmberechtigten das neue Nachrichtendienstgesetz (NDG) an, mit dem der Schweizer Nachrichtendienst des Bundes (NDB) ein Bündel weitreichender Kompetenzen übertragen erhält. „Das ist sehr schade“, sagte Balthasar Glättli, Nationalrat der Grünen in einer Stellungnahme. „Wir haben engagiert versucht, der Angstkampagne der Gegenseite mit griffigen Argumenten entgegenzutreten, aber leider hat es nicht gereicht.“ Das Gesetz wurde bereits von beiden Häusern des Schweizer Parlaments beschlossen.

  • SNAPCHAT golem: Snapchat stellt Sonnenbrille mit Kamera vor: Snapchat benennt sich in Snap um und bringt mit den Snap Spectacles Sonnenbrillen mit einer Kamera im Bügel auf den Markt, mit der kurze Videos aus der Perspektive des Trägers aufgenommen werden können. Diese werden über WLAN oder Bluetooth mit dem Smartphone (Android/iOS) synchronisiert und in der Rubrik Snapchat Memories der Snapchat-App gespeichert. Von dort aus können sie auch manuell online gestellt werden.

  • EVENT horizont: „Oktoberfest ist nur eine deutsche Ausrede, um Unmengen Alkohol trinken zu dürfen“: Kevin Spacey hat gestern in München die Gründer- und Tech-Konferenz „Bits & Pretzels“ eröffnet. In seiner Keynote sprach der Schauspieler (u.a. „House of Cards“) und Investor über modernes Storytelling, forderte von Start-ups mehr Mut für Innovationen und zeigte sich als großer Verfechter von VR. HORIZONT Online hat die besten Zitate seiner Rede zusammengetragen

Weiterlesen »

Law and Order and Robots: Wie Geschworene den Tatort virtuell besichtigen können

polizei-image-by-bykstcc0-via-pixabay

Geschworene dürfen nur selten Tatorte besichtigen. Es gibt Ausnahmen, meist in schwierigen, namhaften Fällen wie die O.J. Simpson-Verhandlung im Jahr 1995 in den USA und der Fall Jill Dando im Jahr 2001 in Großbritannien. Doch Geschworene zu bitten, zu Ermittlern zu werden, birgt eine Vielzahl an Problemen – von möglicher Voreingenommenheit bis hin zu logistischen und sicherheitstechnischen Herausforderungen des Transports an den Tatort. Eine Ortsbesichtigung der Geschworenen im Fall Dando erforderte einen Konvoi von fünf Fahrzeugen, um die Geschworenen, die Anwälte, den Richter und die dazugehörige Polizeieskorte vorbei an Polizeibarrikaden und Nachbarn, Journalisten sowie anderen Schaulustigen an den Tatort zu transportieren. Es wurde ein regelrechtes Medienspektakel daraus. Doch die sich rapide weiterentwickelnde Technologie in den Bereichen Bildgebung, Robotik und künstlicher Intelligenz kann diese Problematik möglicherweise vermeiden, indem sie die Richter und Geschworenen virtuell an den Tatort teleportiert, ohne dass sie den Gerichtssaal dafür verlassen müssen. Diese Besichtigungen können den Geschworenen dabei helfen, die Strafverfolgung und die Verteidigung zu beurteilen. Im Mordprozess des Musikproduzenten Phil Spector im Jahr 2007 argumentierte die Verteidigung beispielsweise, dass ein großer Springbrunnen am Ort des Geschehens die Ursache dafür sei, dass ein Zeuge, der gehört haben wollte, wie Spector sich des Verbrechens bekannte, sich ebensogut verhört haben könne. Indem sie den Ort besuchten, konnten die Geschworenen beurteilen, wie wahrscheinlich dies war, und außerdem ein besseres Verständnis dafür gewinnen, wie die Abfolge der Ereignisse gewesen sein muss. Doch wenn die Geschworenen einen Tatort besuchen, dann kann es sein, dass dieser nicht in demselben Zustand ist wie am Tag des Verbrechens. Im Simpson-Prozess gab es zum Beispiel schwerwiegende Beschwerden, dass die Szenerie inszeniert und Gegenstände neu arrangiert worden seien. Und je länger ein Verbrechen her ist, desto größer ist die Wahrscheinlichkeit, dass die Gegebenheiten am Tatort sich verändert haben. Die Gerichte haben sich traditionell auf kriminaltechnische Abteilungen verlassen, um visuelle Beweise im Gericht zu erbringen. Eine Alternative wäre, die Tatorte selbst zu besuchen. Ermittler der Spurensicherung sammeln und benutzen Beweise, um die präzise Abfolge der Ereignisse, die sich während eines Verbrechens abspielten, nachzubilden. Teile dieses Rekonstruktionsprozesses sind Fotografien und Skizzen, letztere hauptsächlich handgefertigt. Fotos vermitteln ein eingeschränktes Bild des Tatorts und bewegen sich innerhalb des Sichtfelds des Fotografen und unterliegen seiner Interpretation des Schauplatzes und der Wichtigkeit, die er verschiedenen Beweismitteln zuschreibt. Videos können mehr Details des Schauplatzes wiedergeben, sie liefern aber ebenso ein eingeschränktes Sichtfeld für den Betrachter. Zeichnungen und Lagepläne legen die Szenerie in einer Art und Weise dar, wie es weder Fotos noch Videos vermögen. Sie bieten einen generellen Überblick des Schauplatzes sowie der präzisen Lage der Beweisstücke. Doch auch sie vermitteln naturgemäß ein weniger realistisches Bild des Tatorts, da sie sogar noch stärker der Interpretation des Zeichners unterliegen. Gleichzeitig können Fotos und Videos in 3D-Computer-Animationen verwandelt werden, aber dennoch bleiben sie subjektiv und können – je nachdem, durch welche Seite sie präsentiert werden – sogar für den spezifischen Fall angepasst worden sein.

Immersive Beweise

Wie dem auch sei, es gibt aufkeimende neue Technologien, die es Tatortermittlern ermöglichen können, ein deutlich umfassenderes und repräsentativeres Bild des Tatorts einzufangen und zu übermitteln, indem sie 3D-Bildverarbeitung, Panorama-Videos, Robotik und virtuelle Realität einsetzen. Beispielsweise nutzen Forscher der Universität Staffordshire unter der Leitung von Caroline Sturdy Colls Greenscreens, Videospiel-Software und die neuesten Virtual-Reality (VR)-Headsets (unter anderem Oculus Rift und HTC Vive), um digital virtuelle Tatorte abzubilden. Die Geschworenen könnten durch die 3D-Welten spazieren und unverzichtbare Details der Szenerie untersuchen. Anders als ein bearbeitetes Video, das produziert wird, um die Geschworenen zu überzeugen, ist diese Form des Beweises eine einfache Dokumentation des Schauplatzes. Natürlich erfordert dies, dass diejenigen, die die Daten sammeln, objektiv das Geschehen dokumentieren und es weder inszenieren noch verfälschen. Eine Problematik der 3D-Abbildungen und computergenerierten Simulationen auf Basis virtueller Realität ist, dass sie teure Headsets und hochspezifische Computer benötigen. Die VR-Systeme der ersten Generation wie HTC Vive (759 britische Pfund), PlayStation VR (350 britische Pfund) und Oculus Rift (549 britische Pfund) haben einen sehr hohen Anschaffungspreis gemein – und keines von ihnen funktioniert ohne einen entsprechenden VR-fähigen Computer oder eine Konsole. Um dieses Problem zu lösen, entwickeln meine Kollegen und ich an der Universität Durham ein Robotersystem, das vom Mars Rover der NASA inspiriert ist, und das umfassendes Videomaterial von Tatorten sammeln kann. Dieser MABMAT nimmt 360 Grad-Videos und -Fotos auf, die auf jedem Computer oder Smartphone mit einer passenden App abgespielt werden können. Mit einem einfachen Adapter-Headset wie dem Google Cardboard für 10 britische britische Pfund kann eine ähnliche VR-Erfahrung kreiert werden wie es die oben genannten Technologien können – jedoch zu einem Bruchteil der Kosten. Es ist kein Rendern der 3D Grafiken nötig, auch keine leistungsstarken Computer, und dennoch fängt es die akkuratesten Bilder des Tatorts aus jeder Perspektive ein. Die Benutzer können ihren Kopf drehen, nach oben und unten schauen, sowie hinein- und herauszoomen. Nicht nur, dass diese Systeme den Geschworenen im Gerichtssaal behilflich sein können, sie können darüber hinaus den Ermittlern ermöglichen, den Tatort jederzeit wieder in dem Zustand zu besuchen, in dem er zum Zeitpunkt der ersten forensischen Untersuchung war. Die Informationen können auf drei verschiedene Arten gesammelt werden: Ein Tatortermittler könnte einen vordefinierten Pfad für den Roboter vorgeben, der von dort aus HD-Bilder und-Videos aus einer 360 Grad-Perspektive aufnimmt. Er könnte auch durch eine Fernbedienung, ein Smartphone oder ein Tablet via Bluetooth gesteuert werden. Der Roboter könnte ebenso mithilfe von Ultraschall, Bewegungs- und Infrarot-Sensoren ganz alleine innerhalb des Tatorts navigieren und Bilder sowie Videos aufnehmen. Das komplette Setup kommt auf einen Gesamtpreis von nur 299 britische Pfund – und die Kosten dürften künftig sogar noch sinken, wenn erschwingliche Open Source Roboter-Kits rund um günstige Computersysteme wie Raspberry Pi und Arduino gebaut werden. Eine andere Entwicklung könnte der Einsatz von Googles Tango-Projekt sein, das 3D-Bilder von Schauplätzen und Umgebungen in Echtzeit rendern kann, und somit Tatort-Skizzen ersetzen könnte. Auf diese Weise könnte eine umfassende Erfahrung mit Bewegungsverfolgung kreiert werden, die die präzise Distanz zwischen Objekten und Positionen der Beweismittel am Tatort hervorhebt. Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image „polizei“ by bykst (CC0)


Weiterlesen »

FollowUs – Die Netzpiloten-Tipps aus Blogs & Mags

Follow me
  • APPLE Süddeutsche Zeitung: Auch Mac-Nutzer sollten jetzt dringend ihr Betriebssystem aktualisieren: Eine Woche nachdem Apple eine Sicherheitslücke gestopft hat, die der Spionage-Software „Pegasus“ Zugang zu iPhones verschaffen konnte, warnt Apple nun erneut, dass die Spionage-Software auch Mac-Desktop-Computer und Macbooks angreifen könnte und rät Mac Nutzer nun sofort das Betriebssystem zu aktualisieren. Die Software kann alles mitlesen, Passwörter abgreifen und Anrufen verfolgen.
  • IRAN heise online: Iran stellte erste Phase seines nationalen Internets vor: Iran möchte ein eigenes nationales Internet haben. Am Sonntag wurde die erste Phase eines rein nationalen Datennetzwerks vorgestellt. Es gibt zurzeit nur lokale Webseiten und Online-Dienste von Behörden und Regierungsstellen, die Nutzer aufrufen können. Im Februar 2017 soll bereits Videostreaming möglich sein. Und im März 2017 beginnt die dritte Phase, wo weitere Dienste hinzugefügt werden sollen.
  • SPOTIFY t3n: Spotify: Warum einige Nutzer ihr Passwort ändern müssen: Einige Kunden von Spotify müssen ihr Kennwort ändern, der Hintergrund bleibt aber noch unklar. Noch ist nicht bekannt, nach welchen Kriterien die Nutzer ausgewählt wurden und wie viele betroffen sind. Nach eigenen Angaben reagiert das Unternehmen damit auf die Veröffentlichung großer Datensätze mit Passwörtern, etwa aus dem Dropbox-Hack aus dem Jahr 2012. Doch Passwörter als reine Vorsichtsmaßnahme zu wechseln, ist umstritten. Und wenn Nutzer zum regelmäßiges Wechseln von Passwörtern gezwungen werden erhöht nicht die Qualität und Sicherheit.
  • SCHUFA Spiegel Online: Identitätsdiebstahl: Schufa startet Angebot für Opfer: Die Schufa führt einen neuen Dienst für Opfer von Identitätsdiebstahl im Internet ein. Wenn man Opfer von Datenmissbrauch geworden ist, kann man sich dort bei der Auskunft melden und damit den weiteren Datenmissbrauch vorbeugen. Der Grund für die neuen Angebote sind die steigenden Zahlen von Identitätsdiebstahl. Händler, aber auch Telekommunikationsanbieter nutzen Schufa um die Identität ihrer Kunden zu überprüfen.
  • YOUTUBE Handelsblatt: Youtube kämpft gegen harte Konkurrenz: Youtube ist der unangefochtene Marktführer wenn es um vorproduzierte Videos geht. Doch bei Live-Angeboten versucht Youtube verzweifelt, gegen Facebook und Snapchat anzukommen, die beiden erfolgreichen Streaming Dienste haben den Fokus auf Smartphones und Tablets. Jetzt werden die Arbeiten am Backstage-Bereich noch mehr vorangetrieben um den Nutzer alles, von Text über Fotos bis zu Videos und natürlich Livestreams zu ermöglichen.
Weiterlesen »

Nach dem NSA-Hack: Cyber-Sicherheit in einer verletzlicheren Welt

Binary code (adapted) (Image by Christiaan Colen [CC BY-SA 2.0] via flickr)

Es sieht immer mehr danach aus, dass Hacker tatsächlich den Dienst attackiert haben, der als die Krönung der Cyber-Sicherheit galt – den US-Geheimdienst NSA. Vor ein paar Tagen kamen Berichte auf, dass eine Hackergruppe namens ‚Shadow Brokers‘ in das Netzwerk eingebrochen sei und Zugang zu kritischem Inhalt der Computer der ‚Equation Group‘ erlangt habe. Dies erregte mehr als das gewöhnliche Maß an Aufmerksamkeit, da die Equation Group weitestgehend als Spionage-Element der NSA gesehen wird. Es ist möglich – vielleicht sogar wahrscheinlich – dass Shadow Brokers eine Hackergruppe ist, die mit der russischen Regierung in Verbindung steht. Shadow Brokers stellten einige Beispiele der Daten online, von denen sie behaupten, sie gestohlen zu haben, einschließlich Skripte und Anleitungen, um Firewalls zu knacken. Sicherheitsexperten, die die Informationen gesichtet haben, sind überzeugt, dass es sich tatsächlich um Material der Equation Group handelt. Diese Nachricht führt zu einer weiteren Frage: Was folgt daraus, wenn die Equation Group – und weiterführend dann auch die NSA – tatsächlich gehackt wurde?

Was wurde gestohlen?

Die NSA besitzt eine riesige Menge von Daten, unter anderem Informationen über US-Bürger, Telefongesprächen von Ausländern, sozialen Verbindungen, E-Mails, Browser-Historien, Suchanfragen und anderen Kommunikationen. Wie viel Daten? Allein das Daten-Zentrum der NSA in Utah gibt an, eine Speicherkapazität von fünf Zetabyte zu haben – das sind eine Billion Gigabytes. Anhand des veröffentlichten Inhalts, der durch Shadow Brokers gestohlen wurde, wird geschätzt, dass diese riesige Datenfundgrube nicht gehackt wurde. Aber die anderen digitalen Hauptresourcen der NSA sind Sammlungen von sehr raffinierter, oft spezifischer Hacking-, Analyse- und Überwachungssoftware. Der Geheimdienst nutzt diese Werkzeuge, um in Computernetzwerke in Amerika und im Ausland einzudringen und spezielle Ziele und großflächig die Allgemeinheit zu überwachen. Die Shadow Brokers haben behauptet, sie hätten Kopien dieser Software die, die NSA für seine Attacken benutzt, und Informationen über Sicherheitslücken, inklusive Anleitungen um in Computernetzwerke einzudringen. Falls das stimmt, wäre dies von höchstem strategischem Wert für jemanden, der sich gegen Cyber-Attacken schützen will oder seine eigenen durchführen will.

Was ist die Equation Group?

Die Equation Group wurde genau durch die Sicherheitsforscher von der russischen Sicherheitsfirma Kaspersky Lab seit der Aufdeckung ihrer Existenz im Frühjahr 2015 beobachtet. Cyber-Attacken mit den charakteristischen Methoden der Equation Group wurden seit 2001 durchgeführt, mit extrem spezifisch modifizierten Techniken. Zusätzlich zu den geplanten Angriffen, um das Risiko zu verringern, erkannt zu werden, behalten sie ihre Ziele genau im Blick, um dafür zu sorgen, dass ihre Überwachung tatsächlich unentdeckt bleibt. Und die Anzahl der Ziele, die sie wählen, ist sehr gering – gerade mal Zehntausende Computer im Vergleich zu den hundert-, tausend- oder sogar millionenfachen Maschinen, die in Hauptattacken gehackt werden. Die Ziele der Equation Group beinhalteten Regierungen und diplomatische Strukturen, Unternehmen in diversen Bereichen und auch Einzelpersonen in mehr als 30 Ländern. Kaspersky Lab berichtet, dass China und Russland unter den Ländern sind, die am meisten durch die Hacker-Programme der Equation Group infiziert sind. Unter den vermeintlichen Zielen seien die russische Gasfirma Gazprom und die Fluggesellschaft Aeroflot. Ebenfalls seien die großen chinesischen Mobilfunkkonzerne und Universitäten Opfer der NSA.

Wer hackt wen?

Cyber-Waffen und deren Möglichkeiten werden ein wachsender Teil internationaler Beziehungen, tragen zu ausländischen politischen Entscheidungen bei und lösen sogar etwas aus, das „Cyber-Wettrüsten“ genannt wird. Die Attacke der Shadow Brokers könnte Teil dieses globalen Spiels sein. Die US-Regierung erwägt wirtschaftliche Sanktionen gegen Russland, als Reaktion auf die angeblichen Cyber-Attacken auf Computer des Democratic National Committee durch zwei russische Geheimdienste. Dieselben Angreifer werden verdächtigt, hinter den Cyber-Attacken von 2015 auf das Weiße Haus, das State Department und den Staatschef zu stehen. Falls die Shadow Brokers durch das gestohlene Material Cyber-Attacken auf Gazprom, Aeroflot und andere russische Ziele mit der NSA in Verbindung bringen kann, kann Russland vor der internationalen Gemeinschaft erklären, dass die USA kein unschuldiges Opfer sind, wie sie behaupten. Das könnte die erwogenen Sanktionen abschwächen. Russland und China haben neben anderen Gegnern in der Vergangenheit bereits ähnliche Beweise genutzt. Die Enthüllungen von Edward Snowden bezüglich des PRISM-Überwachungsprogramms, das große Mengen von Internetdaten überwacht, wurden zu einem wichtigen Wendepunkt in den Cyber-Beziehungen zwischen China und den USA. Als Kommentar auf die angeblichen Attacken der NSA auf chinesische Mobilfunkkonzerne und Universitäten gab ein Leitartikel der staatlich-organisierten Nachrichtenagentur Xinhua folgendes an: „Dies sind, zusammen mit vorherigen Vorwürfen, eindeutig beunruhigende Signale. Sie zeigen, dass die Vereinigten Staaten, die sich lange als unschuldiges Opfer von Cyber-Attacken darstellten, sich als größter Schurke unserer Zeit herausgestellt haben.“ Allgemein war die gegenseitige Beschuldigungen ständig Thema in den chinesisch-amerikanischen Beziehungen bezüglich Cyber-Verbrechen und Cyber-Sicherheit. Chinas Ansatz bewegte sich mehr in Richtung offensiver Strategien, die auf Snowdens Veröffentlichungen über das PRISM-Überwachungsprogramm folgten. Es ist wahrscheinlich, dass dieser Hack von Cyber-Waffen China und andere Gegner der USA mit stärkeren Beweisen versorgen könnte, die zeigen, dass Amerika in viele Cyber-Attacken gegen ausländische Ziele involviert war.

Werkzeuge für Cyber-Attacken jetzt breiter zugänglich

Es gibt auch andere Gefahren. Hacker haben jetzt Zugang zu extrem ausgeklügelten Werkzeugen und Informationen, um Cyber-Attacken gegen weltweite militärische, politische und wirtschaftliche Ziele zu fahren. Der NSA-Hack könnte also zu mehr Unsicherheit im Cyberspace führen. Die Attacke ist außerdem ein weiterer Beweis für das Axiom der Industrie der Cyber-Sicherheit über sehr asymmetrische Wahrscheinlichkeiten von erfolgreicher Attacke und erfolgreicher Verteidigung: Angreifer müssen nur ein einziges Mal Erfolg haben, während Verteidiger immer perfekt gerüstet sein müssen. So raffiniert das Sicherheitsnetzwerk der NSA auch ist, der Geheimdienst kann sich nicht immer komplett vor Cyber-Attacken schützen. Entweder sind die Angreifer schon hinein gelangt oder eine andere Gruppe wird dies in der Zukunft schaffen. Akteure mit geringeren finanziellen und technischen Ressourcen können wertvolle Ziele angreifen. Was nach dieser Attacke folgt, bleibt abzuwarten, aber das Potenzial für tiefergehende und weitreichende, weltweite Effekte ist eindeutig vorhanden. Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „Binary code“ by Christiaan Colen (CC BY-SA 2.0)


Weiterlesen »

Macht die Arbeit am Computer krank?

startup (image by StartupStockPhotos[CC BY 1.0] via Pixabay

Sie folgen uns ins Büro, begleiten uns in den Feierabend und leisten uns Gesellschaft im Schlafzimmer: Computer, Laptops, Tablets und Smartphones sind unsere ständigen Begleiter. Egal ob im Job oder in der Freizeit, diese Geräte sind einfach nicht mehr aus unserem Alltag wegzudenken. Doch so hilfreich diese technischen Helfer für uns auch sein mögen, so schädlich sind sie auf Dauer für unseren Körper. Vielen ist gar nicht bewusst, wie sehr sie ihren Körper durch die Dauernutzung von Laptops & Co. belasten.

Augen zu und durch?

Wir verbringen einen Großteil unseres Tages damit auf einen Bildschirm zu starren. Das geht morgens bei der Arbeit los und hört oft erst abends beim Lesen von Artikeln auf dem Tablet auf. Doch da lauert schon die erste Gefahr: Das LED-Licht der Displays stört unsere Augen. Rötungen, Augenschmerzen getrübte oder doppelte Sicht sowie Kopfschmerzen – oft als Computer-Vision-Syndrom zusammengefasst – sind die Folge.

Risiko Augenkrankheiten

Das Risiko auf Augenkrankheiten hängt dabei nicht nur von der Dauer am Bildschirm, sondern auch von dessen Eigenschaften ab. Drei Faktoren beeinflussen, wie sehr unsere Augen vom Display belastetet werden

  1. Die Auflösung

Je nachdem, wie scharf das Bild am Display ist, müssen unsere Augen sich mehr oder weniger anstrengen, um es zu erkennen.

  1. Der Kontrast

Damit ist der Kontrast zwischen den Buchstaben und dem Vergleich im Hintergrund gemeint. Je schwammiger der Unterschied, desto schwieriger ist es für unsere Augen etwas zu erkennen.

  1. Die Helligkeit

Die Stärke des Lichts, das vom Display ausgeht, beeinflusst ebenfalls unsere Augen. Zu grelles Licht kann schmerzen, zu dumpfes Licht strengt an.

Daneben ist auch noch die Schriftgröße wichtig: Je kleiner etwas auf dem Bildschirm erscheint, umso mehr müssen sich unsere Augen anstrengen, um es zu lesen. Auch starke Spiegelungen auf dem Display, besonders intensiv bei Smartphones, belasten die Augen.

Wer seinen Augen mal eine Ruhepause vom Monitorstarren gönnen möchte, dem empfehlen Experten spezielle Augenübungen. Dazu gehört häufigeres Blinzeln. Denn die Augen trocknen durch das konzentrierte Schauen auf den Monitor schneller aus. Blinzeln sorgt dafür, dass sie mehr Flüssigkeit bekommen. Es kann auch gut tun, die Augen eine Weile komplett zu schließen oder die Hände einige Minuten davor zu halten. So können sich die Augen vom Flimmerlicht erholen.

LED-Licht wirkt wie Koffein

Neben dem erhöhten Risiko auf Augenkrankheiten, haben Wissenschaftler noch eine weitere Gefahr in den Displays entdeckt: Sie stören unseren natürlichen Schlafrhythmus. Gerade wenn wir vor dem Schlafengehen noch kurz auf das Smartphone schauen und hier lesen oder chatten, sorgt das LED-Licht am Display dafür, dass unsere Müdigkeit verfliegt. Grund dafür sind möglicherweise die blauen Wellenlängen, die Smartphones oder Tablets ausstrahlen. Unsere Netzhaut scheint besonders empfindlich auf blaue Wellenlängen um 480 Nanometer zu reagieren. Sie signalisieren dem Körper Wachsamkeit. „Eine solche ‚Blaudusche‘ macht uns sehr schnell wach“, erklärt der Leiter des Zentrums für Chronobiologie an der Universität Basel, Christian Cajochen. „Das ist wie ein Koffeineffekt.“

Studien belegen darüber hinaus, dass das häufige Nutzen von Computern am Abend auslaugt. Wissenschaftler der belgischen Universität Leuven befragten über 1600 Schüler zwischen 13 und 17 Jahren zu ihren Smartphone-Gewohnheiten vor dem Zubettgehen. Das Ergebnis: Wer das Handy öfter als einmal pro Woche nutzte, nachdem er das Licht bereits ausgeschaltet hatte, bei dem war die Wahrscheinlichkeit fünfmal so hoch, dass er am nächsten Tag müde war.

Wer also seinen Augen etwas Gutes tun möchte, der sollte vor dem Schlafengehen nicht mehr zum Smartphone greifen. Es gibt zudem Applikationen, die das aggressive LED-Licht speziell für unsere Augen in angenehmere Wellenlängen bringen, und sie so schonen.

Kleines Gerät, große Wirkung: Die Arbeit am Bildschirm belastet uns vom Nacken bis zum Handgelenk

Doch die Augen sind längst nicht der einzige Körperteil, der unter der häufigen Nutzung von Computern, Laptops, Tablets und Smartphones leiden muss. Auch unsere Gelenke, Muskeln und Knochen werden in Mitleidenschaft gezogen.

Repetitive Bewegungen belasten die Gelenke

Das liegt zum einen daran, dass wir vor dem Bildschirm immer wieder die gleichen Bewegungen machen, sei es das Klicken mit der Maus oder das Tippen auf der Tastatur. Doch solche wiederkehrenden Bewegungen belasten unsere Gelenke, Muskeln, Sehnen und Nerven und können im schlimmsten Fall zu den sogenannten Repetitive Stress Injuries (RSI) führen. Der qualvolle Schmerz, den wir im Daumen durch zu häufiges SMS-Tippen verspüren, hat sogar seinen eigenen Namen – De Quervain’s Syndrom. Andere bekannte Folgen sind Sehnenscheidenentzündungen und das Karpaltunnelsyndrom, oft ausgelöst durch Dauertippen sowie die ungesunde Haltung unserer Handgelenke am Laptop.

Wer daher häufig am PC tippt, sollte etwa alle 30 Minuten innehalten und seine Handgelenke kreisförmig drehen. Eine weitere Entspannungsübung ist das breite Ausstrecken aller Finger während die Handgelenke gerade gehalten werden.

Laptop-Nutzer, die häufig in die Tasten hauen, sollten darüber hinaus versuchen, die Tastatur vom Bildschirm zu entkoppeln, zum Beispiel durch einen externen Monitor. Denn die Haltung, die wir beim Tippen am Laptop einnehmen ist durch die Form des Geräts besonders schädlich für unsere Handgelenke.

Touchscreen-User haben zudem noch ein ganz anderes Problem. Studien zeigen, dass wir bis zu achtmal so heftig auf Touchscreens einhauen als auf taktile Tastaturen, weil wir eben kein fühlbares Feedback dafür bekommen, wenn wir eine Taste gedrückt haben. Das belastet die Sehnen und Handgelenke zusätzlich. Wer also viel am Tablet mit einem Touchscreen arbeitet, kann Klickgeräusche als Drück-Bestätigung einstellen oder sein Gerät an eine externe Tastatur anschließen

Nackenschmerzen sind vorprogrammiert

Das Arbeiten am Bildschirm strapaziert schließlich auch unseren Nacken, bis hin zum gesamten Rücken. Denn eine gekrümmte Position über Stunden einzuhalten, ist alles andere als natürlich. Wer am PC vom Schreibtisch aus arbeitet kann diese Haltung immerhin noch körpergerecht gestalten. Schreibtische können heutzutage verstellt werden, genau so wie Stühle – von ergonomischen Sitzgelegenheiten einmal ganz abgesehen.

Wer aber bei flexibleren Geräten wie Laptops, Tablets oder Smartphones eine genau so flexible Haltung einnimmt (beispielsweise auf dem Bauch), tut weder seinem Nacken noch seinem Rücken etwas Gutes. Denn je mehr wir uns verbiegen, um auf den Bildschirm zu schauen, desto stärker beansprucht das unsere Nackenmuskulatur und den Rücken. Tablet-Nutzern wird deshalb geraten das Gerät horizontal zu halten, um so den Nacken zu entlasten. Wer gerne vom Sofa aus arbeitet, sollte immer wieder zurück zum Schreibtisch wechseln. Kurze Sportübungen zwischendurch helfen ebenfalls dabei, die Muskulatur zu entspannen. Das kann von der einfachen Streckung bis hin zum Laptop-Yoga reichen.

Klar ist, wir können uns in den seltensten Fällen weigern, Computer und Smartphones zu benutzen  – selbst wenn wir es wollten. Die beste Vorbeugung gegen die davon ausgehenden Gesundheitsrisiken sind daher wiederholte Arbeitspausen, eine ergonomische Haltung vor dem Bildschirm und Sport.


Image „Startup“ by StartupStockphotos (CC BY 1.0)


Weiterlesen »

Von lebenden Computern zu Nanorobotern: Wie wir uns die DNA über die Genetik hinaus zu Nutze machen.

DNA (Image by PublicDomainPictures [CC0Public Domain]) via Pixarbay

Die DNA ist eines der faszinierendsten Moleküle, die die Natur zu bieten hat. Sie allein beinhaltet die Möglichkeit, all die Information zu tragen, die nötig ist, um nahezu jede Art von Leben auf der Erde zu erschaffen, und das in mikroskopischer Form. Gerade jetzt finden Forscher Möglichkeiten, DNA darüber hinaus zu verwenden, indem sie sie nicht nur als Informationsspeicher, sondern auch um physische Komponenten in einer Reihe biologischer Maschinen zu erschaffen, nutzen.

Desoxyribonukleinsäure oder „DNS“ (Englisch: DNA, von Deoxyribonucleic acid) trägt die genetische Information, die wir und alle lebenden Organismen zum Leben und Funktionieren brauchen. Normalerweise kommt sie in der berühmten Doppelhelix-Form vor, also zwei Einzelstrang-DNA-Molekülen, die zu einer Spirale gefaltet sind. Jeder dieser Stränge besteht seinerseits aus vier verschiedenen molekularen Komponenten: Adenin (A), Guanin (G), Thymin (T) und Cytosin (C).

Gene entstehen aus bestimmten Sequenzabfolgen dieser Bausteine. Die genetische Information ist codiert durch die Reihenfolge, in der die Bausteine in einem DNA-Strang aufgebaut sind. Durch das präzise Erstellen verschiedener Sequenzen aus A, G, T und C konnten Forscher zuletzt neue Faltmöglichkeiten der DNA entwickeln, zum Beispiel verschiedene Origami-Formen, also weit über die gewöhnliche Doppelhelix hinaus.

Dieser Ansatz hat neue Möglichkeiten eröffnet, DNA über ihren genetischen und biologischen Nutzen hinaus zu verwenden, sie wie Lego-ähnliches Material zum Bauen von Objekten zu verwenden, deren Durchmesser im Nanobereich nur einige wenige Milliardstel eines Meters misst. DNA-basiertes Material wird nun für eine Vielzahl verschiedener Anwendungen verwendet, die von Schablonen für elektronische Nanotechnologiegeräte zu Möglichkeiten, wie Medikamente genau zu erkrankten Zellen gebracht werden können, reichen.

DNA-basierte Nanothermometer

Technische Geräte zu entwerfen, die nur einige Nanometer groß sind, ermöglicht eine Vielzahl von Anwendungen, macht es aber auch schwerer, Mängel zu erkennen. Um dies zu umgehen, haben sich Forscher der Universität Montreal DNA zu Nutze gemacht, um ultrasensitive Thermometer im Nanoskalenbereich zu entwerfen, die dabei helfen könnten, winzige Hotpots in Nano-Geräten zu finden (die auf einen Mangel hinweisen könnten). Sie könnten außerdem genutzt werden, um die Temperatur innerhalb lebender Zellen zu beobachten.

Die Nano-Thermometer sind aus DNA-Schleifen gemacht, die als Schalter fungieren, sich also als Antwort auf Temperaturänderungen falten oder entfalten. Diese Bewegung kann sichtbar gemacht werden, indem optische Sonden an die DNA angehängt werden. Die Forscher wollen diese Nano-Thermometer nun in größere DNA Geräte einbauen, die im menschlichen Körper funktionieren können.

Biologische Nanoroboter

Forscher der Harvard Medical School nutzten DNA, um einen Roboter in Nanogröße zu erstellen und zu bauen, der als Medikamententransportmittel zu spezifischen Zielzellen fungiert. Der Nanoroboter ist aus einem Zylinder aus DNA gemacht, dessen zwei Hälften über ein Scharnier verbunden sind, das durch spezielle DNA-Bügel geschlossen gehalten wird. Diese Bügel können Kombinationen spezifischer Proteine auf der Oberfläche von Zellen erkennen, inklusive solcher, die mit Krankheiten assoziiert sind.

Wenn der Roboter mit den richtigen Zellen in Kontakt kommt, wird der „Behälter“ geöffnet und die Ladung abgeliefert. Als die Roboter zu einer Mischung aus gesunden und krebsbefallenen menschlichen Zellen gegeben wurden, zeigten sie die Fähigkeit, die Hälfte der Krebszellen zu finden und zu zerstören, während die gesunden Zellen unversehrt blieben.

Bio-Computer bei lebenden Tieren

Weil DNA-Strukturen als Schalter fungieren können, die sich von einer in eine andere Position bewegen, können diese genutzt werden, um logische Operationen auszuführen, die Computerkalkulationen möglich machen. Forscher an der Harvard und der Bar-Ilan-Universität in Israel nutzten diesen Prinzip, um verschiedene Roboter in Nanogröße zu bauen, die miteinander interagieren können, indem sie ihre DNA Schalter zum Reagieren auf und Produzieren von verschiedenen Signalen nutzen.

Darüber hinaus pflanzten die Wissenschaftler die Roboter in lebende Tiere ein, in diesem Fall in eine Küchenschabe. Dies erlaubte ihnen, eine neue Art biologischen Computer zu entwickeln, der die Abgabe von therapeutischen Molekülen in der Küchenschabe kontrollieren kann, indem Elemente seiner Struktur auf „An“ oder „Aus“ geschaltet werden. Nun wird eine Studie geplant, die diese DNA Nanoroboter bei Menschen testen soll.

Licht einfangende Antennen

Wie die DNA dafür genutzt werden kann, winzige Maschinen zu bauen, kann sie auch eine Möglichkeit für uns bieten, natürliche Prozesse im Nanobereich zu kopieren. Die Natur kann zum Beispiel Energie aus der Sonne gewinnen, indem die durch Photosynthese Licht in chemische Energie umsetzt, die als Treibstoff für Pflanzen und andere Organismen fungiert (und die Tiere, die diese essen). Forscher an der Arizona State Universität und der Universität der British Columbia haben nun eine dreiarmige DNA Struktur erschaffen, die Licht fangen und übertragen kann und damit diesen Prozess imitiert.

Photosynthese funktioniert in lebenden Organismen aufgrund von winzigen Antennen, die von einer großen Anzahl an Pigmentmolekülen in bestimmter Ausrichtung und Abstand zueinander gebildet werden und die die Fähigkeit besitzen, sichtbares Licht zu absorbieren. Die künstliche DNA-basierte Struktur arbeitet ähnlich wie diese Antennen, indem sie die Position spezifischer Farbstoffmoleküle kontrolliert, die die Lichtenergie absorbieren und zu einem Reaktionszentrum leiten, wo sie in chemische Energie umgewandelt wird. Diese Arbeit könnte den Weg ebnen für Geräte, die es schaffen, diejenige Energiequelle, die wir am reichlichsten frei zur Verfügung haben, effizienter zu nutzen: das Sonnenlicht.

Was kommt also als nächstes in der DNA-Nanotechnologie? Das ist schwer zu sagen, aber mit der DNA hat uns die Natur ein sehr vielseitiges Werkzeug zur Verfügung gestellt. Es liegt nun an uns, daraus das Beste zu machen.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image „DNA“ by PublicDomainPictures (CC0 Public Domain).


Weiterlesen »

FollowUs – Die Netzpiloten-Tipps aus Blogs & Mags

Follow me
  • TECHNOLOGIE sueddeutsche: China schockt die Konkurrenz mit extrem schnellen Supercomputern: In der digitalen Aufrüstung scheint die Volksrepublik China den anderen Großmächten einen ordentlichen Schritt voraus zu sein. Auf der International Supercomputing Conference (ISC), die in Frankfurt stattfand, kündigte die chinesische Delegation einen Fortschritt in ihrer Entwicklung an, der wohl über den Globus verteilt einige Unterkiefer Richtung Boden fallen ließ. Der neue Supercomputer aus China hört auf den Namen „Sonnenweg“ und erreicht eine theoretische Maximalleistung von 93 Billiarden Rechenoperationen pro Sekunde.
  • DIGITALISIERUNG gruenderszene: „Wir sind Europäer. Aus anderem Holz geschnitzt.“: Claus Kleber war für eine Reportage im Silicon Valley in Kalifornien unterwegs. Er hat mit einigen der klügsten Köpfe gesprochen, die gerade versuchen, durch digitale Innovationen die Welt zu verändern. Themen wie „selbstfahrende Autos“ und die Möglichkeit mit ihnen die Anzahl an Unfalltoten drastisch zu senken werden angesprochen. Man kriegt viele interessante Gedanken zu hören und Klebers Beitrag scheint von der „deutschen Angst“ befreit zu sein. Doch dann kommt sein Schluss-Statement: „Müssen wir mitgehen? Auf diesen Trip? Nein! Wir sind Europäer. Aus anderem Holz geschnitzt. Wir vergöttern Veränderungen nicht so. Das ist nicht unser Trip.“
  • TWITTER techcrunch: Twitter pays up to $150M for Magic Pony Technology, which uses neural networks to improve images: Nachdem Twitter 70 Millionen Dollar in den Musikdienst SoundCloud investierte, folgt nun die nächste Investition. Mit einer Summe von 150 Millionen Dollar wird das Londoner Unternehmen „Magic Pony Technology“ unterstützt, das Techniken entwickelt, um von Mensch geschossene Bilder durch selbstständiges Lernen zu verbessern. Twitter will so die Performance seiner Smartphone-App verbessern, weil vor allem damit viele Bilder hochgeladen werden.
  • SMARTBOY t3n: Vom Aprilscherz zum echten Produkt: Hyperkin Smart Boy bringt Game-Boy-Spiele aufs Smartphone: Game Boy Fans aufgepasst! Eigentlich war die Ankündigung des Herstellers Hyperskin über einen SmartBoy, mit dem Game Boy-Spiele auf dem Smartphone gespielt werden können, für das iPhone 6 Plus nur ein Aprilscherz aus dem letzten Jahr. Aufgrund der positiven Resonanz entschied sich das Unternehmen im Nachhinein doch für eine Umsetzung des SmartBoy. Im Juni letzten Jahres wurde dann tatsächlich eine Alpha-Version, jedoch nicht für iPhone-Besitzer sondern ausschließlich für Android -Smartphones, vorgestellt. Auf der E3 in Las Vegas zeigt sich der SmartBoy, vorerst als Developement-Kit, mit echter Game Boy-Optik. Bis Dezember 2016 muss man voraussichtlich noch ausharren, um das kultige Gadget dann für das Smartphone nutzen zu können.
  • LIFESTYLE-APPS Welt: Können diese Apps wirklich die Seele optimieren?: Können Apps dabei helfen, dass Seelenleben wieder in Einklang zu bringen? Das Berliner Startup Humly will dies ab dem 1. Juli, voerst mit einer Website und ab Herbst dann mit einer App, testen. Dies ist keine neue Idee, die Apps Selfapy und Arya sind bereits auf dem Markt und richten sich speziell an Personen mit Depressionen. Die Apps, wie auch die in den USA erfolgreichen Namen Lantern und Ginger, fungieren als eine Art Stimmungs-Tagebuch und sind natürlich kein Ersatz für die klassische psychische Therapie. Inwieweit die Apps eine reele und wirksame Hilfe für Betroffene darstellen ist umstritten. Dennoch könnten diese als Begleitung im Alltag und zur eigentlichen Therapie von Nutzen sein.
Weiterlesen »

Unternehmen öffnen sich der Idee des Deep Learning

Exercise Plays Vital Role Maintaining Brain Health (adapted) (Image by A Health Blog [CC by 2.0] via flickr)

In dem Film Transcendence spielt Johnny Depp Dr. Will Caster, einen Forscher im Bereich der künstlichen Intelligenz an der University of California, Berkeley, der versucht, einen empfindungsfähigen Computer zu bauen. Stuart Russel ist sozusagen der Will Caster im echten Leben. Er arbeitet wie sein filmisches Abbild im KI- Bereich in Berkeley und ist Co-Autor des maßgeblichen Fachbuchs über künstliche Intelligenz. Zudem äußerte er sich eindringlich zu den Risiken, dass Forschung im Bereich der künstlichen Intelligenz Erfolg hat. Zu Beginn des Jahres brachte DeepMind von Google einem Computerprogramm innerhalb weniger Stunden bei, eine große Auswahl an Atari-Spielen auf einem enorm hohen Niveau zu spielen. Dem Programm wurde kein Hintergrundwissen gegeben, es lernte jedes Spiel von Grund auf. Stuart stellte fest: „Wenn das ein Neugeborenes getan hätte, würde man denken, es wäre besessen“. Sollten wir beeindruckt oder besorgt über solch einen Fortschritt sein?

Die Geheimzutat

Das Geheimnis hinter dem Erfolg von DeepMind ist Deep Learning, ein aufregender und sehr lebendiger Teil des maschinellen Lernens. Maschinelles Lernen treibt die nächste Revolution in Datenverarbeitung an. Statt einen Computer mühsam per Hand zu programmieren, eine Aufgabe auszuführen, bringen wir den Computer einfach dazu, zu lernen, die Aufgabe zu lösen. Spiele sind ein besonders guter Bereich, in dem man maschinelles Lernen anwenden kann. Es gibt sehr genaue Regeln, die man einhalten muss. Es ist einfach, herauszuarbeiten, wer gewinnt und der Computer kann seine Leistung selbständig laden, indem er sich selbst millionenfach spielt. Deep Learning ist jedoch zu viel mehr gut als zu lernen, wie man Spiele spielt. Es wandelt um, wie Computer eine Rede in einen Text übertragen, Bilder erkennen, Suchergebnisse einordnen, und viele andere Aufgaben durchführen, die Intelligenz erfordern. Deep Learning benutzt ein „tiefes“ neurales Netzwerk, welches lose am Beispiel des menschlichen Hirns modelliert ist. Es ist „tief“, weil es ein halbes Dutzend Schichten besitzt. Diese Schichten sind entscheidend für den Erfolg. Sie erlauben dem neuralen Netzwerk, bestimmte Merkmale auszuwählen. Bei der Bilderkennung können die Schichten bestimmte Merkmale wie Ecken und Kanten ausmachen. Ebenfalls entscheidend für den Erfolg sind die Datenmenge und die Rechenleistung. Deep Learning braucht viele Beispiele, von denen es lernen kann. Und das Lernen selbst wird oft auf mehreren spezialisierten Grafikprozessoren ausgeübt (GPUs).

Für was ist es nicht geeignet?

Deep Learning ist dem Anschein nach eine wichtige Komponente für die künstliche Intelligenz. Jedoch ist es unwahrscheinlich, dass es alle Belange der künstlichen Intelligenz lösen können wird. Deep Learning hat vor allem bei tiefergehenden Aufgaben wie der Sprach- und Bildverarbeitung seine Stärken. Bei komplexeren Aufgaben oder bei Aufgaben, die strategisches Denken erfordern, stellt die Anwendung eine Herausforderung dar. Man denke nur an die Planung des Baus einer Fabrik oder daran, ein komplexes mathematisches Problem zu lösen. Das Programm von DeepMind hat gelernt, einfache reaktive Spiele wie „Pong“ und „Space Invaders“ zu spielen. Aber es hat sich bei „PacMan“ nicht besonders gut angestellt, da hier im Umgang mit den Gegnern in Gespensterformat vorausschauend gedacht werden muss. Hier sind weitere Herausforderungen zu nennen. Deep Learning erfordert beispielsweise eine Menge an Daten. Menschen hingegen lernen im Vergleich dazu bereits anhand einiger weniger Beispiele. Es gibt viele Bereiche, in denen Lernen schwierig, schmerzlich oder tödlich enden kann. Wir brauchen daher auch Methoden, welche schnell er durchzuführen sind. Deep Learning ist weitestgehend eine Blackbox. Es gibt viele Bereiche, in denen wir vom Computer eine Begründung für seine Schlussfolgerungen haben wollen oder er seine Antwort rechtfertigen muss. Schließlich gibt es auch viele Bereiche, in denen wir eine Garantie brauchen: Das Programm für die Luftsicherung sollte auf keinen Fall den gleichen Luftraum für zwei Flugzeuge freigeben. Das selbstfahrende Auto sollte immer an einer roten Ampel halten. Deep Learning bietet von Hause aus keine solche Garantie. Nichtsdestotrotz gibt es immer mehr Firmen, die mit der Idee spielen, neue Dienstleistungen mit Hilfe von Deep Learning aufzubauen. Es spielt sicher eine kritische Rolle bei selbstfahrenden Autos, wenn man Suchergebnisse einstufen möchte oder Produkte empfehlen, Spam-Mails identifizieren, mit Aktien handeln oder medizinische Aufnahmen interpretieren will.

Wohin wird das alles führen?

Deep Learning verwendet tausende von Neuronen und Millionen an Verbindungen. Doch das menschliche Gehirn verfügt über Milliarden Neuronen und viele Billionen Verbindungen. Es bleibt eine große wissenschaftliche und technische Herausforderung, wenn man auf die Größe des menschlichen Gehirns kommen möchte. Nach allem, was wir bisher kennen, ist das menschliche Gehirn das komplexeste System im ganzen Universum. Außerdem gibt es noch einen Haufen Probleme zu lösen, wie beispielsweise Bewusstsein oder Emotionen und sie scheinen unmittelbar mit unserer Intelligenz verbunden zu sein. Wir müssen diese nun verstehen oder sie als Silikonmodell nachbilden. Wir sind noch ein gutes Stück von dem Vorbild aus Transcendence entfernt: Der technischen Singularität, also dem Moment, in dem Computer anfangen, sich selbst zu verbessern, in einem merklichen Tempo Intelligenz entwickeln und schon bald menschliche Grenzen übersteigen. Viele Wissenschaftler im KI-Bereich zweifeln momentan, ob wir diesen Moment überhaupt erreichen. Sie vermuten eher, dass wir recht bald an unsere wissenschaftlichen, technischen oder andere Grenzen stoßen, was uns daran hindert, der Intelligenz der Maschinen zu entkommen. All das wird uns trotzdem nicht aufhalten, Maschinen zu bauen, die unser Leben verändern werden. Wir müssen jetzt damit anfangen, für die Zukunft zu planen und uns auf die Zeiten vorzubereiten, in der viele Aufgaben automatisiert sein werden. Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „Exercise Plays Vital Role Maintaining Brain Health“ by A Health Blog (CC BY 2.0)


Weiterlesen »

Würden Sie Ihre Atomraketen einer Diskette anvertrauen?

Isolated Discs (Image by PublicDomainPictures [CC0 Public Domain], via Pixabay)_

Was kann man mit einer Diskette heutzutage noch anfangen? Apple hat Diskettenlaufwerke bei der ersten Version des 1998er iMac zurückgezogen, der PC-Hersteller Dell ist einer Klage aus dem Jahr 2003 gefolgt und jetzt sind sie nur mehr ein blasse Erinnerung. Doch gemäß eines neuen öffentlichen US-Regierungsrechnungsprüfungsberichtes werden veraltete Computer mit Diskettenlaufwerk noch heute verwendet, um einen Teil der US-Nuklearzentren zu kontrollieren.

Früher war ein „Erbe“ etwas Wertvolles, das einem hinterlassen wurde, wenn eine Großtante verstorben war. In der Welt der Computer ist das aber weniger angenehm: Ein „geerbtes“ Computersystem ist eines, das veraltet ist, vielleicht sogar überholt, aber es ist das, bei dem man hängen bleibt, weil es seine Arbeit zuverlässig erledigt und weil das Ersetzen durch neue Technik zu aufwändig, zu schwierig oder zu teuer ist – oder sogar alles zusammen.

Man könnte denken, dass solche Systeme heutzutage schon recht selten sind, aber Tatsache ist: wann immer Sie etwas mit der Kreditkarte kaufen oder Ihre Bankkarte belasten, EC-Transaktionen durchführen oder einen Flug buchen, sind unter anderem solche seit Jahrzehnten veraltete Computersysteme ein integraler Bestandteil des Prozesses. Banken, Flugsicherungssysteme und viele militärische oder zivile Kernfunktionen verlassen sich auf die Technologie, die ihr Haltbarkeitsdatum schon lange überschritten hat.

Um das zu verknüpfen, ist das fragliche System, der Strategische Automatisierte Befehl des Pentagons und Regelsystem, ein Teil eines 53-jährigen alten Computernetzwerkes rund um den Minicomputer der Series/1 von IBM. Wurde beim Start 1979 noch zwischen US$ 10,000-100,000 bezahlt, hat es die selbe Rechenleistung wie heutige Mikrokontroller von Arduino, beispielsweise für Projekte für selbstgebraute Biere, die für wenige Pfund gekauft werden können. Die riesigen 8-Zoll- Disketten konnten 500 Kilobyte (0,5 Megabyte) an Datenvolumen speichern. Sie würden ungefähr vier dieser Platten benötigen, um gerade eine einzige MP3 eines durchschnittlich langen Songs zu sichern.

Aber es ist erstaunlich, wie veraltet sich so etwas wie dieser Minicomputer der Series/1 anhört, zeigt der Bericht, dass er funktionstüchtig ist und funktional in den Tiefen des Pentagons verwurzelt ist, um Funktionen „zu händeln, die mit interkontinentalen Raketengeschossen, Atomboben und Flugzeugträgern zusammenhängen“. Man hofft, dass es noch gut arbeitet, und dass es einen ganzen Schrank voll originaler Ersatzsysteme, Chips und Energieversorgung gibt, um es am Laufen zu halten.

Aber veraltete Systeme sind nicht nur Hardware. Es gibt eine alte Software, die heute noch in Gebrauch ist. Beispielsweise wurde die Programmiersprache COBOL in den 1950er Jahren erfunden. Diese wurde verwendet, um viele der Systeme zu erschaffen, die moderne Geschäfte unterstützen. Dies trifft auch auf FORTRAN zu, das seit mehr als sechzig Jahren ein Hauptpfeiler der wissenschaftlichen Programmierung ist.

Müsste ich einem jungen Entwickler einen guten Rat für seine Karriere geben, der hofft, seine Spuren zu hinterlassen, würde ich ihm empfehlen, eine gewisse Zeit mit diesen Dinosauriern der Computerwissenschaft zu verbringen. Die Spezialisten von früher werden immer älter und ziehen sich zurück. Die Systeme, die sie geschaffen und Instand gehalten haben, scheinen nicht derlei Anzeichen nicht zu zeigen. Die Gutachten, die entscheiden, ob man die Systeme behalten solle, laufen aus und Expertenwissen hat heute eine hohe Nachfrage.

Eingebaut für ein langes Leben

Die Altersfrage dieser Systeme sehe ich sehr entspannt. Software, die seit 40 Jahren gut arbeitet, wird das wahrscheinlich auch weiter tun. Solange wir die Hardware behalten können, die genauso weiter funktioniert, gibt es keinen Grund, anzunehmen, dass sie nicht für weitere 40 Jahre funktionieren können. Ich bin ein großer Fan von platzsparender und einfacher Technik, bei der wenig schiefgehen kann. Moderne Hardware und Software sind zu erstaunlichen Dingen fähig, aber die Kompliziertheit die in heutigen Systemen auftauchenden Korrelation können massive Probleme mit sich bringen, da wir kürzlich gesehen haben, wie ein Entwickler es geschafft hat, tausende von Programmen in einem Wutanfall zu knacken.

Warum sollte man etwas, das funktioniert, mit etwas ersetzen, das eine ganze neue Riege von Problemen mit sich bringt? Software nutzt sich nicht ab, und so lange der Zusammenhang, in dem sie verwendet wird und die Voraussetzungen, die wir für sie haben, sich nicht ändert, gibt es keine drängende Notwendigkeit, sie zu ändern. Wie Pentagonsprecherin Oberstleutnant Valerie Henderson zur Nachrichtenagentur AFP gesagt hat: „Dieses System bleibt im Gebrauch, weil es noch funktioniert.

Ich glaube, die beste Lösung unserer Probleme mit „geerbten“ Rechnern beinhaltet, dass sich Computer äußerst gut wie andere Computer verhalten können. Es hat sich herausgestellt, dass es vergleichsweise einfach ist, ein Programm zu schreiben, das sich wie jemand anders benehmen kann, oder mit anderen Prozessoren wetteifern kann. Fans von verbreiteteren veralteten Computern wie dem Sinclair ZX Spektrum, dem Commodore 64 oder BBC Micro können die Wiederauferstehung miterleben, die durch die riesige Anzahl von Emulatoren stattfindet, die Software für alte Computer auf aktuellen PCs oder sogar Smartphones laufen lassen kann.

Wir müssen nur einen Software-Emulator der Series/1 von IBM erschaffen, der vollständig auf der Standard-PC-Hardware läuft, diese komplizierten, unordentlichen und wahrscheinlich für ein veraltetes System bestimmte Programmierung kann und in Zukunft mit einem Code läuft, der fast unsterblich ist.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image „Isolated Discs“ by PublicDomainPictures [CC0 Public Domain] via Flickr


Weiterlesen »

Können wir Politiker durch Roboter ersetzen?

Roboter (Image by geralt [CC0 Public Domain] via pixabay)

Wenn Sie die Möglichkeit hätten, einen Politiker zu wählen, dem sie voll und ganz vertrauen, der keine versteckten Absichten hat und der wirklich die Ansichten der Wähler repräsentiert – sie würden diesen dann wohl wählen, richtig?

Was, wenn dieser Politiker ein Roboter wäre? Kein Mensch mit einer roboterhaften Persönlichkeit, sondern ein echter, ein mit künstlicher Intelligenz ausgestatteter Roboter.

Eine Zukunft wie diese war jahrzehntelang Gegenstand von Science Fiction. Kann das aber Wirklichkeit werden? Und wenn ja, sollten wir auch diesen Weg beschreiten?

Verlorenes Vertrauen

Die jüngsten Meinungsumfragen zeigen, dass das Vertrauen in Politiker in den westlichen Gesellschaften rapide abgenommen hat und dass Wähler zunehmend Wahlen dazu nutzen, um eine Proteststimme abzugeben.

Dies soll nicht bedeuten, dass die Menschen das Interesse an der Politik und der politischen Mitgestaltung verloren haben. Vielmehr gibt es Hinweise auf ein zunehmendes Engagement in die nicht-traditionelle Politik, die nahelegen, dass die Menschen politisch engagiert bleiben, jedoch das Vertrauen in die traditionelle Parteipolitik verloren haben.

Insbesondere verspüren die Wähler zunehmend, dass sich die bestehenden politischen Parteien zu ähnlich sind und dass sich die Politiker hauptsächlich mit politischem Punktesammeln und politischem Aktionismus beschäftigen. Verärgerte Wähler empfinden, dass die großen Parteien typischerweise mit den mächtigen Partikularinteressen verbunden sind, mit Großunternehmen oder Gewerkschaften gemeinsame Sache machen und dass demzufolge deren Stimmen keinen Unterschied machen werden.

Ein weiteres Anzeichen für ein sich veränderndes politisches Engagement (zumindest ist dies eher wahrscheinlich als eine vollkommene Loslösung) ist der Aufschwung populistischer Parteien mit einer radikalen und systemkritischen Agenda und dem wachsenden Interesse an Verschwörungstheorien – Theorien, die die Ahnungen von Menschen bestätigen, dass das System manipuliert ist.

Die Idee der eigennützigen Politiker und Beamten ist nicht neu. Diese zynische Ansicht wurde durch Fernsehserien wie „BBC’s Yes Minister“ und die neuere US Serie „House of Cards“ (sowie die originale BBC Serie) bekannt gemacht.

Wir mögen das Vertrauen in die traditionelle Politik verloren haben, doch welchen Alternativen haben wir? Können wir Politiker durch etwas Besseres ersetzen?

Das Denken von Maschinen

Eine Alternative wäre, politische Systeme so zu designen, dass politische Entscheidungsträger vor unzulässiger Fremdeinwirkung geschützt sind. Auf diese Weise, so wird argumentiert, wird ein Raum erschaffen, in dem objektive wissenschaftliche Beweise die politische Mitgestaltung beeinflussen können, anstelle von Partikularinteressen.

Auf den ersten Blick sieht dies wie etwas Erstrebenswertes aus. Doch was ist mit den vielen politischen Fragen wie etwa die, bei denen sich die politischen Meinungen deutlich unterscheiden – wie etwa beim Klimawandel, der  gleichgeschlechtlichen Ehe oder der Asylpolitik?

Die Politikgestaltung ist und bleibt naturgemäß politisch und die Vorgehensweisen sind bestenfalls auf evidenzinformiert statt evidenzbasiert. So können jedoch einige Themen entpolitisiert werden – sollten wir also darüber nachdenken, Roboter einzusetzen, um diese Aufgabe zu erledigen?

Diejenigen, die sich auf die technologischen Fortschritte konzentrieren, würden diese Frage wohl bejahen. Immerhin können komplexe Berechnungen, die Jahre gebraucht hätten, wenn sie händisch berechnet worden wären, nun in Sekundenschnelle gelöst werden – indem die neuesten Entwicklungen in der Informationstechnologie genutzt werden.

Solche Innovationen haben sich in bestimmten Politikbereichen als extrem wertvoll erwiesen. Beispielsweise nutzen Stadtplaner, die die Durchführbarkeit neuer Infrastrukturprojekte untersuchen, nun eine leistungsstarke Verkehrsmodellierungssoftware, um zukünftige Verkehrsströme zu prognostizieren.

Diejenigen, die sich andererseits auf soziale und ethische Aspekte konzentrieren, werden wahrscheinlich gewisse Vorbehalte haben. Technologische Fortschritte sind von begrenztem Nutzen in Hinblick auf politische Fragen, die konkurrierende Überzeugungen und Werturteile involvieren.

Ein passendes Beispiel hierfür wäre die Legalisierung der Sterbehilfe, welche von Natur aus eng mit religiösen Ansichten und der Frage der Selbstbestimmung verbunden ist. Wir könnten dazu neigen, dieses Thema als ungewöhnlich abzutun, doch dies wäre eine Nichtberücksichtigung davon, dass die meisten politischen Fragen konkurrierende Überzeugungen und Werturteile mit einbeziehen. Daher wäre diese Perspektive aus der Sicht eines maschinellen Politikers eher von geringerem Nutzen.

Moralvorstellungen

Ein Supercomputer wäre vielleicht dazu in der Lage, präzise Vorhersagen über die Anzahl von Verkehrsteilnehmern auf einer geplanten Ringstraße zu treffen. Was würde der Supercomputer jedoch tun, wenn er mit einem moralischen Dilemma konfrontiert wird?

Die meisten Menschen werden zustimmen, dass es unsere Fähigkeit ist, Werturteile zu fällen, die uns von Maschinen unterscheiden und uns überlegen macht. Was jedoch, wenn wir bestehende ethische Grundsätze in Roboter einprogrammieren könnten? Somit könnten diese Entscheidungen basierend auf vorgegebenen normativen Richtlinien und Konsequenzen, welche aus diesen Entscheidungen hervorgehen, getroffen werden.

Wenn dies möglich wäre, und manche glauben, dass dem so ist, könnten wir schließlich unsere fehlbaren Politiker durch unfehlbare künstlich intelligente Roboter ersetzen?

Die Idee klingt möglicherweise etwas weit hergeholt – aber ist sie das wirklich?

Roboter könnten durchaus schneller ein Teil unseres alltäglichen Lebens werden, als wir denken. Beispielsweise könnten Roboter bald dafür genutzt werden, um Routineaufgaben in Altenpflegeeinrichtungen zu erledigen, um älteren Menschen oder Menschen mit Behinderungen Gesellschaft zu leisten. Vereinzelt wurde auch vorgeschlagen, Roboter zur Prostitution zu verwenden. Welche Meinung wir auch immer von Roboterpolitikern haben, die Basis dafür wurden bereits gelegt.

Eine kürzlich erschienene Publikation präsentierte ein System, das automatisch politische Reden schreibt. Einige dieser Reden sind durchaus glaubwürdig und es wäre für die meisten von uns sehr schwer zu sagen, ob diese von einem Menschen oder einer Maschine geschrieben wurden.

Politiker ziehen bereits menschliche Redenschreiber heran, also wäre es nur noch ein kleiner Schritt für sie, auf einen maschinellen Redenschreiber umzusteigen.

Dasselbe gilt für politische Entscheidungsträger, die etwa für die Stadtplanung oder den Hochwasserschutz verantwortlich sind und die Gebrauch von hoch entwickelten Modellierungssoftwares machen. Wir könnten bald sogar die Menschen vollkommen beseitigen und sie durch Roboter ersetzen, die diese Modellierungssoftware bereits eingebaut haben.

Wir könnten uns noch viel mehr Szenarien ausdenken, aber das zugrunde liegende Problem wird dasselbe bleiben: der Roboter müsste zuerst mit einer beschlossenen Reihe an ethischen Standards programmiert werden, die es ihm erlauben, auf der Basis von vereinbarten Moralvorstellungen zu urteilen.

Der Beitrag der Menschen

Selbst wenn wir also ein Parlament voller Roboter hätten, bräuchten wir noch immer eine Einrichtung mit Menschen als Mitarbeitern, deren Aufgabe es ist, die ethischen Grundsätze zu definieren, nach denen die Roboter programmiert werden sollen. Wer darf über diese ethischen Grundsätze entscheiden? Nun ja, dies müssten wir wahrscheinlich zur Abstimmung zwischen verschiedensten interessierten und konkurrierenden Parteien stellen.

Dies führt uns wieder an den Ausgangspunkt zurück – zurück zu dem Problem, wie unzulässige Beeinflussung verhindert werden könnte. Befürworter der abwägenden Demokratie, die meinen, dass Demokratie mehr sein sollte als ein gelegentlicher Spaziergang zu einer Wahlkabine, werden angesichts der Aussicht auf maschinelle Politiker wohl  erschaudern.

Fürsprecher des freien Marktes hingegen, die sich mehr für einen schlanken Staat, Sparmaßnahmen und den Abbau von Bürokratie interessieren, mögen verstärkt dazu tendieren, es auszuprobieren. Die letzteren scheinen die Oberhand gewonnen zu haben. Versuchen Sie sich also daran zu erinnern, wenn Sie das nächste Mal einen Berichterstatter einen Politiker als Roboter bezeichnen hören, dass vielleicht eines Tages einige von ihnen wirkliche Roboter sein werden!

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image „Roboter“ by geralt (CC0 Public Domain)


The Conversation

Weiterlesen »

Warum uns das Internet nicht klüger macht

Volunteer Duty Psychology Testing (adapted) (Image by Tim Sheerman-Chase [CC BY 2.0] via flickr)

In dem Zeitraum , in dem ich mich das erste Mal hingesetzt habe, um diesen Text zu schreiben, teilte mir mein Laptop mit, dass die NBA dementieren musste, sie hätte damit gedroht, ihr 2017 All-Star-Spiel wegen eines neuen LGBT-Gesetzes in North Carolina abzusagen – eine Geschichte, die von vielen Nachrichtenquellen wiederholt wurde, einschließlich der amerikanischen Nachrichtenagentur. Die Echtheit des viralen Videos, in dem ein Bär eine weibliche Snowboarderin in Japan jagt, wurde infrage gestellt. Und nein, Ted Cruz ist nicht mit seiner Cousine dritten Grades verheiratet. Es ist nur eine von vielen auf uns einstürmenden Halbwahrheiten und sogar Lügen der Sorte „Wer einmal lügt, dem glaubt man nicht“, die auftauchen, während wir uns für das amerikanische Wahljahr 2016 aufwärmen.

Je länger ich die menschliche Psyche studiere, desto beeindruckter bin ich von der reichhaltigen Wissensschatz, über das jeder einzelne von uns verfügt. Wir alle verfügen über ein intelligentes Webmuster aus Fakten, Zahlen, Regeln und Geschichten, die es uns erlauben, einen erstaunlichen Umfang an täglichen Herausforderungen anzugehen. Aktuelle Studien bewundern gerade, wie enorm, organisiert, ineinandergreifend und beständig diese Basis an Wissen ist.

Das ist die gute Nachricht. Die schlechte Nachricht ist, dass unsere Gehirne es übertreiben. Sie speichern nicht nur hilfreiches und notwendiges Wissen, sie sind ebenso empfänglich für falsche Ansichten und Fehlinformationen.

Alleine was den Bereich der Biologie angeht, glauben viele Menschen, dass Spinat eine gute Eisenquelle ist (tut mir leid, Popeye), dass wir weniger als zehn Prozent unseres Gehirns nutzen (nein, es wäre zu energieaufwändig, das zuzulassen) und dass manche Menschen an einer Überempfindlichkeit gegenüber elektromagnetischer Strahlung leiden (wofür es keinen wissenschaftlichen Beweis gibt).

Hier kommt jedoch die besorgniserregendere Nachricht: Unser Zugang zu Informationen – seien es gute oder schlechte – hat sich nur noch erweitert, seit unsere Finger ins Spiel gekommen sind. Mit Computertastaturen und Smartphones haben wir nun Zugang zu einem Internet, das einen enormen Vorrat an Informationen beinhaltet, der das Maß dessen, was ein einzelnes Gehirn fassen kann, bei Weitem übersteigt – und das ist nicht immer etwas Gutes.

Ein besserer Internetzugang bedeutet nicht bessere Informationen

Dieser Zugang zu der großen Reichweite des Internets sollte es uns ermöglichen, klüger und besser informiert zu sein. Die Menschen nehmen das zumindest an. Eine aktuelle Yale-Studie zeigt, dass Internetzugang Menschen dazu bringt, einen allzu überzogenen, trügerischen Eindruck davon zu bekommen, wie klug und gut informiert sie doch seien.

Jedoch gibt es ein zweifaches Problem mit dem Internet, und dieses beeinträchtigt sein grenzenloses Versprechen.

Zunächst einmal ist es – genau wie unser Gehirn – empfänglich für Fehlinformationen. Tatsächlich sieht das Weltwirtschaftsforum die „massive digitale Fehlinformation“ als eine Hauptbedrohung für die Gesellschaft. Eine Untersuchung von 50 Seiten über „Gewichtsreduktion“ ergab, dass nur drei davon gesunde Diät-Ratschläge lieferten. Eine andere von ungefähr 150 YouTube-Videos über Impfung ergab, dass nur die Hälfte davon die Maßnahme ausdrücklich unterstützt.

Gerüchtemacher, Politiker, persönliche Interessen, eine sensationsgierige Presse und Menschen mit dem intellektuellen Beil, das alles zu zermahlen, bringen falsche Informationen ins Internet.

Das Gleiche tun viele Menschen, die zwar gute Absichten hegen, aber falsch informiert sind. Tatsächlich hat eine Studie, die in der Januar-Ausgabe 2016 des Wissenschaftsmagazins „Proceedings of National Academy of Science“ veröffentlicht wurde, dargelegt, wie schnell sich dubiose Verschwörungstheorien über das Internet verbreiten. Im Einzelnen haben die Forscher verglichen, wie schnell sich diese Gerüchte im Verhältnis zu Geschichten über wissenschaftliche Entdeckungen über Facebook verbreiteten. Sowohl Verschwörungstheorien als auch wissenschaftliche Nachrichten verbreiteten sich schnell, wobei sich der Großteil der Ausbreitung beider Arten von Geschichten über Facebook innerhalb eines Tages abspielte.

Was die Sache noch schlimmer macht, ist, dass es schwer ist, falsche Informationen von echten Tatsachen zu trennen. Sie sehen oft genauso aus und fühlen sich genauso an wie die Wahrheit. In einer Reihe von Studien, die Elanor Williams, Justin Kruger und ich 2013 im „Journal of Personality and Social Psychology“ veröffentlichten, baten wir Studenten, Problemstellungen in intuitiver Physik, Logik und im Finanzwesen zu lösen. Diejenigen, die sich durchweg auf falsche Fakten oder Grundlagen verlassen haben – und somit genau die gleiche falsche Antwort zu jeder Fragestellung gaben – äußerten genau so viel Zuversicht in Bezug auf ihre Schlussfolgerungen wie diejenigen, die jedes einzelne Problem richtig lösten.

Zum Beispiel waren diejenigen, die immer dachten, ein Ball würde einer kurvenreichen Strecke immer weiter folgen, nachdem er aus einer gebogenen Röhre gerollt war (nicht korrekt), nahezu genauso sicher wie diejenigen, die die richtige Antwort wussten (der Ball folgt einer geraden Strecke).

Verteidigen Sie sich

Also, wie trennen wir im Internet Wahres von Falschem?

Zuallererst: Nehmen Sie nicht an, dass Falschinformationen deutlich von richtigen Informationen zu trennen sind. Seien Sie vorsichtig. Falls die Angelegenheit wichtig ist, können Sie Ihre Suche vielleicht mit dem Internet beginnen,  beenden Sie sie nur nicht dort. Erwägen und berücksichtigen Sie andere Kompetenzquellen. Es gibt einen Grund dafür, dass Ihr Arzt das Medizinstudium über sich ergehen ließ, oder dafür, dass Ihr Finanzberater studiert hat, um diese Lizenz zu erwerben.

Zweitens, tun Sie nicht das, was Verschwörungstheoretiker in der Facebook-Studie getan haben. Sie verbreiten bereitwillig Geschichten, die sowieso schon zu ihrer Weltanschauung passen. Als solche praktizieren sie einen Hang zur Bestätigung, indem sie Beweisen Glauben schenken, die unterstützen, was sie schon vorher geglaubt haben. Als Folge haben sich die Verschwörungstheorien, die sie unterstützt haben, in Facebook-Gemeinschaften mit Gleichgesinnten eingegraben, die kaum ihren Wahrheitsgehalt in Frage gestellt haben.

Seien Sie stattdessen skeptisch. Psychologische Forschungen zeigen, dass Gruppen, die einen oder zwei ihrer Mitglieder dazu bestimmen, den Provokateur zu spielen – indem sie jegliche Schlussfolgerung infrage stellen, zu der die Gruppe neigt – zu besser durchdachten Entscheidungen von besserer Qualität beitragen.

Wenn sonst niemand da ist, zahlt es sich aus, Ihr eigener Provokateur zu sein. Glauben Sie nicht einfach, was das Internet zu sagen hat, sondern stellen Sie es infrage. Praktizieren Sie einen Hang zur Widerlegung. Falls Sie nach Informationen zu einem medizinischen Problem suchen, hören sie nicht bei der ersten Diagnose, die Ihnen richtig erscheint, auf. Suchen Sie nach alternativen Möglichkeiten.

Nach Gegenbeweisen suchen

Suchen Sie zusätzlich nach Möglichkeiten, nach denen diese Diagnose falsch sein könnte. Forschungen zeigen, dass „das Gegenteil annehmen“ – das aktive Nachfragen, auf welche Weise eine Schlussfolgerung falsch sein könnte – eine nützliche Übung dafür ist, unberechtigtes Vertrauen in eine Schlussfolgerung zu verringern.

Schließlich sollten Sie auf Mark Twain hören, der uns, laut dutzender verschiedener Websites gewarnt hat: „Seien Sie vorsichtig beim Lesen von Büchern über Gesundheit. Sie könnten wegen eines Tippfehlers sterben.“

Weise Worte, bis auf die Tatsache, dass eine etwas genauere Nachforschung genauere und besser recherchierte Quellen mit dem Beweis auftut, dass es nicht Mark Twain, sondern der deutsche Physiker Markus Herz war, der das sagte. Ich bin nicht überrascht; nach meiner Internet-Erfahrung habe ich gelernt, misstrauisch gegenüber Twain-Zitaten zu sein (bei Will Rogers ebenso). Er war ein brillanter Geist, aber er bekommt viel zu viel Anerkennung für gern zitierte geistreiche Bemerkungen.

Falsche und richtige Informationen ähneln sich oft furchtbar. Der Schlüssel zu einem informierten Leben mag es nicht so sehr erfordern, Informationen zu sammeln, als die Einfälle, die Sie bereits haben oder auf die Sie kürzlich gestoßen sind, zu hinterfragen. Das mag eine unangenehme Aufgabe sein und eine nicht endende obendrein, aber es ist die beste Art, sicherzustellen, dass ihr kluger geistiges Webmuster nur wahrer Farben zur Schau stellt.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „“Volunteer Duty“ Psychology Testing“ by Tim Sheerman-Chase (CC BY 2.0)


The Conversation

Weiterlesen »