All posts under Deep Learning

Netzpiloten @Rise of AI

Egal ob Autonomes Fahren, Smart Home oder Journalismus – Künstliche Intelligenz wird immer mehr zu einer der beherrschenden Kräfte unseres Lebens. Seit fünf Jahren findet zu diesem Thema nun schon die Rise of AI-Konferenz statt. Am 15. und 16. Mai werden in Berlin wieder rund 800 Teilnehmer, 100 KI-Unternehmen, sowie 60 Speaker erwartet. Die Netzpiloten sind wieder als Medienpartner mit dabei, wenn sich zwei Tage lang alles um die Maschinenintelligenz dreht.

Welche Speaker werden da sein?

Die Eröffnungskeynote zum aktuellen Stand der künstlicher Intelligenz hält Fabian Westerheide von Asgard. Zu den mehr als 60 Speakern zählt auch Telekom CCO Manuela Mackert, die über den ethischen Rahmen für KI referiert. Einblicke aus dem Bundestag zur deutschen KI-Strategie gibt es von Andreas Steier (CDU). Prof. Dr. Moritz Helmstaedter stellt künstliche und natürliche Intelligenz gegenüber. Kann das Gehirn uns besseres Machine Learning beibringen? Und schließlich erklärt uns  Aleksandar Stojanovic wie er mit Deep Data die Welt sicherer machen will.

Welche Themen erwarten euch?

Auf vier Bühnen erwartet euch ein starkes Programm mit diesen Schwerpunkten:

  • Was ist KI und wie bringen wir ihr Moral und Ethik bei?
  • Sollten Regierungen Maschinenintelligenz regulieren?
  • Welchen Einfluss übt sie auf die Gesellschaft und unser Leben aus?
  • Wie schaut das Zusammenleben von Mensch und Maschine auf lange Sicht aus?
  • Finanzen, Versicherung und Banking
  • Fahrzeuge, Logistik und Fabrikation
  • Marketing, Verkauf und Telekommunikation

Und sonst noch?

Die AI World Exhibition, der Ausstellungs-Teil der Rise of AI, lädt zum Netzwerken ein. Mit der Networking App könnt ihr euch an einem der speziellen Meeting-Points treffen. Mehr als 20 Unternehmen warten auf euren Besuch an ihren Ständen. Wer die Rise of AI besuchen möchte, sollte sich schnell ein Ticket sichern. In den vergangenen Jahren waren die Tickets schnell ausverkauft. Ein begrenztes Kontingent vergünstigter Tickets gibt es für Studenten und Wissenschaftler. Wir wünschen euch viel Spaß!

Weiterlesen »

Roboter und die nächste Industrielle Revolution: Kommt das Ende der Arbeitsplätze?

Arbeit (adapted) (image by MarkoLovric [CC0] via pixabay)

Roboter übernehmen unsere Arbeit seit den 1960ern. Aber warum sind gerade jetzt unsere Politiker und Geschäftsführer so besorgt darüber, dass Roboter Massenarbeitslosigkeit verursachen?

Es kommt darauf an, wie man einen Roboter definiert. In Science-Fiction-Filmen werden Roboter häufig als Androide dargestellt, die die ihnen auferlegten Aufgaben genau wie Menschen durchführen. In der Wirklichkeit nehmen die Roboter viel spezifischere Formen an. Traditionell begegnen wir Robotern im 20. Jahrhundert in Form von automatisierten Maschinen und Roboterarmen, die Autos in Fabriken zusammenbauen. Im 21. Jahrhundert sind kommerzielle Roboter Selbstbedienungskassen, automatisch geführte Lagerfahrzeuge oder gar Maschinen, die den Burger im Fast-Food-Restaurant belegen.

Doch grundsätzlich sind wir Menschen nicht komplett überflüssig geworden. Die Roboter können zwar sehr effizient sein, aber sie sind auch irgendwie stumm und seelenlos. Sie denken nicht, sie handeln bloß, und tun dies sehr exakt, aber auch mit Einschränkungen. Menschen werden immer noch gebraucht, um Dinge zu tun, die der Roboter nicht kann und ihm zu helfen, wenn dieser ein Problem hat. Aber all dies wird sich ändern – Dank einer neuen Welle von klügeren, besseren Maschinen, die sich an verschiedene Aufgaben anpassen können. Diese Änderung wird so signifikant sein, dass daraus eine neue industrielle Revolution erwachsen wird.

Industrie 4.0

Diese Ära der „Industrie 4.0“ wird von den gleichen technologischen Fortschritten angetrieben, die die Leistungsfähigkeit unserer Smartphones möglich machten. Es ist eine Mischung aus geringen Kosten und leistungsstarken Computern, Hochgeschwindigkeitskommunikation und künstlicher Intelligenz. Dies wird intelligentere Roboter mit besseren Erfassungs- und Kommunikationsfähigkeiten hervorbringen, die sich an verschiedene Aufgaben anpassen und sogar ihre geforderte Arbeit ohne Eingabe des Menschen koordinieren können. In der Fertigungsindustrie, wo Roboter wohl den meisten Fortschritt aller Bereiche machen, wird dies zu einer dramatischen Verschiebung von zentraler zu dezentraler Gemeinschaftsproduktion führen.

Traditionelle Roboter konzentrieren sich auf einen singulären und festgeschriebenen Hochgeschwindigkeitsbetrieb und benötigen hochqualifiziertes Personal zur Betreibung und Wartung. Industrie 4.0-Maschinen sind flexibel, teamfähig und arbeiten unabhängiger, wodurch letztlich die Notwendigkeit hochqualifizierten Personals entfällt.

Für Großhersteller bedeutet Industrie 4.0, dass Roboter ihre Umgebung erfassen und mit ihr kommunizieren können, in einem Industrienetzwerk, das fernüberwacht werden kann. Jede Maschine wird eine Vielzahl an Daten produzieren, die kollektiv ausgewertet werden können. Dieses Phänomen ist uns bereits unter dem Namen Big Data-Analyse ein Begriff. Dies wird dabei helfen, Möglichkeiten zu finden, Betriebsleistungen und Produktionsqualität in der ganzen Anlage zu verbessern. So kann man beispielsweise vorhersagen, wann Wartungsarbeiten anfallen und diese automatisch einplanen.

Für kleine bis mittelgroße Fertigungsunternehmen wird es durch Industrie 4.0 günstiger und einfacher, Roboter zu nutzen. Es werden Maschinen entstehen, die rekonfiguriert und angepasst werden können, um mehrere Aufträge durchzuführen und um an verschiedenen Produktpaletten und unterschiedlichen Produktionsmengen zu arbeiten. Dieser Sektor beginnt bereits von rekonfigurierbaren Robotern zu profitieren, die entworfen worden sind, um mit Personal zusammenzuarbeiten. Sie sollen zudem ihre eigene Arbeit analysieren und verbessern, wie es bereits bei BAXTER, SR-TEX and CareSelect geschieht.

Während diese Maschinen immer intelligenter werden, sind sie noch lange nicht so schlau wie wir. Heutige industrielle, künstliche Intelligenz arbeitet auf einem geringen Niveau, welches den Anschein menschlicher Intelligenz von Maschinen vorzeigt, aber von Menschen kreiert wurde.

Was als nächstes kommt, ist als „Deep Learning“ bekannt. Ähnlich der Big Data-Analyse geht es darum, große Datenmengen in Echtzeit zu verarbeiten, um eine Entscheidung darüber zu treffen, welche Maßnahme am besten ergriffen werden sollten. Der Unterschied besteht darin, dass die Maschinen mit den Daten lernen und so ihre Entscheidungsfindung verbessern. Ein perfektes Beispiel für Deep Learning wurde von der Google-Software AlphaGo-Software demonstriert. Sie hat sich selbst beigebracht, den weltbesten Go-Spieler zu schlagen.

Der Wendepunkt in der Anwendung künstlicher Intelligenz in der Fertigung könnte mit der Verwendung von speziellen Mikrochips, den sogenannten Graphical Processing Units (GPUs), kommen. Doch auch hier ist es noch ein weiter Weg, bis die Technologie soweit ist. Viele große Unternehmen stellen derzeit massenweise Wissenschaftler ein, die hier beim Entwickeln helfen sollen.

Einfluss auf die Industrie

Sobald Industrie 4.0 – Technologien intelligenter und weit verbreiteter verfügbar sein werden, werden Unternehmer beliebiger Größe in der Lage sein kosteneffiziente, vielseitig einsetzbare und zusammenarbeitende Maschinen als Standard einzusetzen. Dies führt zu industriellem Wachstum und Wettbewerb auf dem Markt, durch größeres Verständnis für die Produktionsprozesse, die wiederum zu neuen hochwertigen Produkten und digitalen Dienstleistungen führen.

Wie der tatsächliche Einfluss von intelligenteren Roboterarbeitskräften, mit dem Potential selbstständig zu arbeiten, auf die Fertigungsindustrie haben wird, ist stark umstritten. Künstliche Intelligenz, wie wir sie aus Science-Fiction-Filmen kennen, steckt noch in den Kinderschuhen. Es könnte wohl bis zum 22. Jahrhundert dauern, bis Roboter das Potential haben, menschliche Arbeit überflüssig zu machen – nicht nur durch die Entwicklung von Deep Learning, sondern durch ein tatsächlich existierendes künstliches Verständnis, dass das menschliche Denken nachahmen kann.

Im Idealfall wird die Industrie 4.0 es der menschlichen Arbeitskraft ermöglichen, mehr in ihrem Job zu erreichen, in dem bestimmte, gleichförmige Tätigkeiten abgegeben werden und bessere Roboterwerkzeuge zur Verfügung gestellt werden können. In der Theorie würden wir uns gestatten, den Fokus auf Geschäftsentwicklung, Kreativität und Wissenschaft zu legen. Für einen Roboter wäre dies um einiges schwieriger. Technologie, die uns in der Vergangenheit überflüssig gemacht hat, zwang uns, uns anzupassen – hauptsächlich durch mehr Bildung.

Doch weil gerade Industrie 4.0-Roboter in der Lage sein werden, eigenständig zu handeln, wirken auf uns die Arbeitsplätze in der Produktion überflüssig. Dies geschieht, ohne dass andere Sektoren in der Lage sein werden, neue Arbeitsplätze zu schaffen. So könnten wir auch politische Bewegungen deutlicher erkennen, die die menschliche Arbeit beispielsweise durch Besteuerung von Robotern schützen.

Kurz: In einem idealen Szenario werden Menschen in der Lage sein, sich auf die Dinge zu konzentrieren, die sie zu Menschen machen – vielleicht sogar durch ein Grundeinkommen aus Roboterarbeit. Letzten Endes wird es von uns abhängen, ob die Roboterarbeitskraft für uns, mit uns oder gegen uns arbeiten wird.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „Arbeit“ by MarkoLovric (CC0 Public Domain)


Weiterlesen »

Mehr als nur iPhone: Apples 4 wichtigste Zukunftsthemen der WWDC 2017

wwdc_sj_keynote_tim-cook

Eingelullt vom anhaltenden Verkaufserfolg des iPhones hat sich Apple schon seit einer Weile bequem zurückgelehnt. Bei den großen Tech-Trends gaben zuletzt Google, Facebook, Amazon und Microsoft den Takt vor. Nun ist Apple offenbar aus seiner Duldungsstarre hochgeschreckt. Auf der viel beachteten Entwicklerkonferenz WWDC 2017 hat der Konzern jede Menge Neuerungen in Sachen Künstliche Intelligenz (KI), Virtual Reality (VR) und Augmented Reality (AR), Mobile Computing sowie Heimvernetzung vorgestellt.

Apple erscheint damit spät zur Party und sieht sich dem Vorwurf ausgesetzt, in blindem Aktionismus lauter „Me too“-Produkte rauszufeuern. Doch die Neuerungen sind für meinen Geschmack klug und gezielt gewählt. Und angesichts der Sogwirkung von Apples Ökosystem und den Finanzreserven des Unternehmens könnte es Apple abermals gelingen, zum richtigen Zeitpunkt diffuse Trends reif für den Massenmarkt zu machen. Meine Einschätzung zu den Neuerungen der WWDC 2017.

Zukunftsthema 1 – HomePod und Siri: Künstliche Intelligenz, die gut klingt

Wie von der Gerüchteküche vor der WWDC 2017 erwartet, betritt jetzt auch Apple die Bühne der vernetzten Lautsprecher. Mit dem HomePod erscheint zum Jahresende ein Soundsystem, dass nicht nur auf Sprachbefehle reagiert, sondern auch gut klingen soll. Dabei legt Apple viel Wert auf hochwertigen Sound, der sich wie bei den populären Sonos-Lautsprechern auch noch automatisch an die Raumverhältnisse anpasst. Ganz im Gegensatz zu Amazon, dessen Echo-Lautsprecher Musikliebhaber bisher nicht überzeugt.

wwdc_sj_keynote_homepod_hoa
Image by Apple

Gleichzeitig soll der HomePod nicht weniger smart als die Konkurrenz sein. In Verbindung mit Apples Sprachassistent Siri sowie einem Abo bei Apple Music können Nutzer dem Lautsprecher ihren Musikgeschmack beibringen, News und Sportergebnisse abfragen sowie vernetzte Heim- und Haushaltsgeräte steuern.

Mit 350 US-Dollar ruft Apple einen deutlich höheren Preis als die smarten Lautsprecher-Wettbewerber auf. Wenn der HomePod so gut klingt und so intelligent funktioniert, wie Apple verspricht, dürfte er jedoch eine Marktlücke schließen und viele Käufer finden. Während Amazon mit seiner KI namens Alexa durch Lizenzpartner auf Breitenwirkung setzt, könnte ein Verkaufserfolg von Apples Siri-Lautsprecher HomePod hingegen den Qualitätswettbewerb bei smarten Lautsprechern vorantreiben.

Siri lernt und lernt

Um von Apples Fortschritten bei Künstlicher Intelligenz zu profitieren, müssen viele Nutzer von Apple-Geräten keinen Eurocent ausgeben. Wenn im Herbst die neue Version von Apples mobilen Betriebssystem iOS 11 als kostenloses Update erscheint, sind auch diverse neue Fähigkeiten von Siri an Board. So soll Apples KI dank maschinellen Lernverfahren die Interessen der Nutzer automatisch immer besser verstehen und die Bedienung zum Beispiel in den Apple eigenen Programmen Safari, Mail und Nachrichten durch passende Vorschläge beschleunigen.

Insofern verfolgt Apple einen breiteren Ansatz als etwa Google, das KI-Technologie bisher vor allem im Foto-Bereich anwendet. Angesichts der großen Nutzerbasis von iOS dürfte Apples Vorstoß den Einsatz von Künstlicher Intelligenz stärker im Alltag einer breiten Masse verankern. Bewusst wahrnehmen wird diese das jedoch vermutlich nicht. Ob nun KI-Algorithmen oder andere Rechenoperationen zum gewünschten Ergebnis führen, dürfte den Nutzer herzlich egal sein.

Zukunftsthema 2 – Augmented oder Virtual Reality? Apple macht einfach beides

Mit dem Erfolg von Pokémon Go ist Augmented Reality schlagartig zu einem Hype-Thema geworden. Trotzdem ist die durch computergenierte Objekte erweiterte Realität bisher ein Nischenthema geblieben. Es gibt viel zu wenige AR-Apps und eine große, einheitliche Technologie-Plattform, die App-Entwicklern das Thema schmackhaft macht, fehlte bislang ebenfalls. Aus dem Nichts könnte Apple AR-Anwendungen nun massentauglich machen.

Mit der Entwicklersoftware namens ARKit sollen es Programmierer nun einfacher haben, AR-Apps fürs iPhone und iPad zu entwickeln. Den Präsentationen auf der WWDC 2017 nach zu urteilen, wird es dabei weiterhin vorrangig um Spiele und Möbel-Apps gehen.

wwdc_sj_keynote_hoa_crowd_ipads
Image by Apple

Was die Art der Inhalte angeht, sind von Apple keine unwiderstehlich neuartigen Inspirationen zu erwarten. Der Zauber liegt vielmehr abermals in der großen Nutzerbasis von iOS. Das bestehende iPhone oder iPad ließe sich ganz einfach weiterhin nutzen, neue Hardware müsste niemand kaufen. Zumal bisher weit und breit keine sozial akzeptablen AR-Brillen verfügbar sind. Wer will schon den ganzen Tag mit einer Microsoft HoloLens herumlaufen. Und anders als bei Googles Project Tango müssten iOS-Entwickler ihre Apps auch nicht für dutzende verschiedene Smartphone-Modelle anpassen. Die Chancen für eine weitere Verbreitung von AR-Anwendungen auf iPhone und iPad stehen daher gut.

Virtual Reality kommt auf den Mac

Alles spricht dafür, dass Apple in Augmented Reality größeres Potenzial sieht als in Virtual Reality. Trotzdem setzt das Unternehmen nicht alles auf eine Karte. Während VR-Brillen bisher nur mit Windows-Rechnern und Spielekonsolen kompatibel waren, arbeitet das neue Mac-Betriebssystem macOS High Sierra ab Herbst mindestens auch mit einer HTC Vive zusammen. Zudem sollen überarbeitete Grafikschnittstellen und bessere Mac-Hardware die Programmierung von VR-Anwendungen erleichtern.

wwdc_sj_keynote_john_knoll_demo_vr
Image by Apple

Apples später VR-Vorstoß ist ein Schritt in die richtige Richtung und stärkt die generelle Bedeutung des Mac als Anwendungsplattform. Dennoch scheint mir die Prognose hier nicht so günstig wie bei AR. Die Anschaffungskosten für VR-fähige Macs und -Brillen bleiben hoch. Und viele Nutzer tauschen die langlebigen Mac-Rechner nur in größeren Intervallen aus. Den Mac als VR-Spielwiese mit großem App-Angebot kann ich mir daher frühestens mittelfristig vorstellen. Hier dürften Windows, Xbox und PlayStation weiterhin die Nase vorn behalten.

Zukunftsthema 3 – Das iPad Pro wird ein immer besserer mobiler Computer

Mit den Surface-Geräten hat Microsoft klug auf den „New Work“-Trend hin zu ortsunabhängigen Arbeiten und zur Vermischung von Arbeit und Freizeit aufgesattelt. Wie Microsoft mit Windows 10 ein Desktop-Betriebssystem in einen Tablet-Formfaktor integriert hat, ist schon clever. So lassen sich im Windows-Lager praktische 2-in-1 Geräte konzipieren, während Apple weiterhin noch zwischen MacBook und iPad trennt.

Das rechenstarke iPad Pro mit passendem Digitalstift Apple Pencil war eine sinnvolle Annäherung an aktuelle Nutzungsszenarien. Aber einen Desktop-Computer kann das Apple-Tablet trotz aller PR-Prosa nicht ersetzen. Das lag vor allem am mobilen Betriebssystem iOS, das seine Wurzeln in der minimalistischen Touch-Bedienung hat. Unter Windows alltägliche Arbeitsfunktionen gingen lange Zeit einfach nicht. Bisher. Mit iOS 11 reicht Apple diese Features endlich nach.

ipad-pro-retina-thin
Image by Apple

Drag-and-Drop, ein Dateibrowser, ein individualisierbares App-Dock für häufig genutzte Apps – das sind für sich genommen sehr subtile Neuerungen, die das iPad Pro (nicht nur das neue mit 10,5-Zoll-Diagonale) zu einem einfach zu bedienenden Arbeits- und Kreativrechner machen. Diese Verbesserungen halte ich für bedeutender als die aufgebohrte Hardware, die Apple ebenfalls dem iPad Pro spendiert.

Wie sehr die speziellen Arbeitsfeatures in iOS 11 auf dem iPad Pro die eigene Produktivität in der Praxis wirklich steigern, wird ein Test zeigen müssen. Zumindest auf dem Papier ist die Entscheidung zwischen einem iPad Pro und einem Surface Pro wieder ein Stück ausgeglichener und damit schwieriger geworden.

Zukunftsthema 4 – Wieder ein wenig mehr Liebe für die Profis

Nicht alles, wo Pro draufsteht, macht einen Profi richtig glücklich. Der Ärger der Community über das leistungsmäßig nicht sehr imposante MacBook Pro 2016 war groß. Entwickler und Filmemacher mit sehr großem Hardware-Hunger stört auch, dass das Mac Pro seit 2013 nicht erneuert wurde. Endlich scheint Apple diese Kundengruppe erhört zu haben. Mit dem ab Jahresende erhältlichen iMac Pro präsentiert Apple einen sehr leistungsstarken und ausbaufähigen Rechner für High-End-Ansprüche, für den rund 5.000 US-Dollar fällig werden. Auch die iMacs ohne „Pro“-Namenszusatz werden gehörig aufgebohrt.

new_2017_imac_pro_editing
Image by Apple

Dass Apple sich endlich wieder nicht nur mehr auf die lukrative Mobil-Sparte konzentriert, betrachte ich als ein vielversprechendes Signal. Nach wie vor schätzen viele Anwender den Mac in erster Linie als stabile und verlässliche Plattform für produktives und kreatives Arbeiten. Würden diese enttäuscht zu Windows wechseln, könnte darunter die Beliebtheit der gesamten Apple Produktpalette leiden. Schließlich sind Macs eine starke Säule in Apples Ökosystem. Fällt diese weg, würde auch die Nutzung von iPhones und iPads weniger Mehrwert bieten. Schließlich ist die gute Verzahnung doch ein wichtiger Vorteil gegenüber anderen Betriebssystemen.

Fazit WWDC 2017: Apples Zukunft ist vernetzt, virtuell und künstlich intelligent

Auf der WWDC 2017 hat Apple richtig abgeliefert. In der inhaltlich vollgepackten Keynote hat das Unternehmen bewiesen, dass es doch noch kluge Ideen hat, wenn es einmal nicht um den größten Umsatzbringer, das iPhone geht.

Ein Konzept, wie Apple auf AR und VR zu setzen plant, war überfällig. Insbesondere die AR-Plattform ARKit könnte sich als Coup erweisen. Der vernetzte Lautsprecher HomePod klingt auf dem Papier unverschämt teuer, aber auch richtig vielversprechend. Die neuen KI-Funktionen wirken deutlich praxisrelevanter als das, was viele andere Software-Entwickler derzeit mit dem Buzzword KI verknüpfen. Dass Apple professionelle Kreativanwender nicht nur mit Tablets, sondern auch wieder mit hochgerüsteten iMacs ansprechen möchte, ist ebenfalls begrüßenswert. Mit den Neuerungen in iOS 11 und dem überarbeiteten iPad Pro scheint Apple auch im Bereich Mobile Computing sehr gut aufgestellt.

Keine einzelne Neuerung auf der WWDC 2017 ist im engeren Sinn revolutionär. Apple knüpft an Trends an, die andere aufgestellt haben. Verwerflich finde ich das nicht. Ein wesentlicher Faktor für Apples Beliebtheit, ist die Fähigkeit, ausgereifte und stabile Produkte zu liefern. Behutsame Produktpflege (über viele praktische Detailneuerungen bei macOS und iOS habe ich hier noch gar nicht geschrieben) ist vor diesem Hintergrund viel wichtiger als hastig aufgegriffene Hypes. Sinnvoll ins Ökosystem integriert, könnten gerade Augmented Reality und der HomePod echte Knaller werden. Dass Apple spät auf der Party erscheint, ist nicht schlimm. Hauptsache, es ist endlich von seinem iPhone-Rausch aufgewacht.

Dieser Artikel erschien zuerst auf Applepiloten.


Images by Apple


Weiterlesen »

FollowUs – Die Netzpiloten-Tipps aus Blogs & Mags

Follow me
  • DATENSCHUTZ heise: Test zur Gesichtserkennung laut Datenschützerin am Bahnhof akzeptabel: Der von den Sicherheitsbehörden geplante Test biometrischer Gesichtserkennung am Berliner Bahnhof Südkreuz geht aus Sicht der Bundesbeauftragen für Datenschutz in Ordnung. Das Projekt sei „für sich genommen noch nicht als schwerwiegender Eingriff zu sehen“, erklärte Andrea Voßhoff auf Anfrage. Das ändere allerdings nichts an „grundsätzlichen Bedenken“ gegen diese Technologie. „Sollten derartige Systeme später einmal in den Echtbetrieb gehen, wäre dies ein erheblicher Grundrechtseingriff“, so Voßhoff.

  • TECHNOLOGIE golem: Dells OLED-Monitor UltraSharp UP3017Q kommt doch: Der US-amerikanische Hardware-Hersteller hat hingegen anders lautender Aussagen nun doch angekündigt, den OLED-Monitor UltraSharp UP3017Q auf den Markt zu bringen. Zwischenzeitlich hieß es, das Modell würde eingestellt aufgrund von Blickwinkelproblemen. Für den Bereich der USA können Kunden das Gerät ab sofort bestellen, es ist mit einer Lieferzeit von ein bis zwei Wochen zu rechnen. Bisher hat sich OLED-Technik im IT-Bereich nur bei Wearables, Smartphones und Zusatzdisplays wie beim Macbook Pro 2016 verbreitet. Bei größeren Bildschirmdiagonalen sind vor allem Fernseher-Hersteller Panel-Abnehmer.

  • E-COMMERCE t3n: Die Zukunft von Magento: Das kommt auf Shopbetreiber zu: Nach gut einem Jahr Eigenständigkeit als Magento Inc. und mit Permira hat sich Magento im letzten Jahr sehr weiterentwickelt – und steht durch den neuen Investor besser da denn je. Die E-Commerce-Plattform wickelt inzwischen insgesamt ein Bestellvolumen von weltweit mehr als 100 Milliarden Dollar ab, das von mehr als 260.000 Kunden (davon gut 3.500 Enterprise-Kunden) generiert wird.

  • KI Welt: So stellt sich künstliche Intelligenz Menschen vor: Der Fernsehmaler und Unternehmer Bob Ross, leicht zu erkennen an seiner auffälligen Frisur, hat in einem neuen Kunstwerk dargestellt, wie es für eine künstliche Intelligenz unter Einfluss von LSD erscheinen muss, einen Menschen wahrzunehmen. Die Software, die zu dieser Wahrnehmung führt, sind Deep-Dream-Algorithmen von Google sowie der WaveNet Machine Learning Algorithm. Das Video zeige, so der Künstler, „wie sich ein Computer die Stimme von Bob Ross vorstellt und wie ein Computer ,halluziniert‘, was er in den einzelnen Videobildern sieht“, erklärt Alexander Reben, Künstler und Programmierer aus dem Silicon Valley.

  • HACKING Süddeutsche Zeitung: Mysteriöse Gruppe offenbart mutmaßliche Hacking-Angriffe der NSA: Eine mysteriöse Hackergruppe hat mehrere Datensätze veröffentlicht, aus denen hervorgehen soll, dass der US-Geheimdienst NSA Teile des globalen Geldverkehrs ausspioniert hat. Ebenfalls enthalten sind Werkzeuge, mit denen die Elite-Hacker der NSA wohl Windows-Betriebssysteme übernehmen konnten. Die Hacker nennen sich Shadowbrokers – in Anlehnung an das Computerspiel Mass Effect – und sind seit August 2016 unter diesem Namen aktiv. Ob und von wem sie Befehle erhalten, ist unklar. Sicher ist nur: Jede Veröffentlichung hat das Potenzial, die US-Beziehungen sowohl zur internationalen Gemeinschaft als auch zu amerikanischen Technik-Konzernen massiv zu beschädigen.

Weiterlesen »

Brains vs. Robots: Der Aufstieg der Roboter ist nicht aufzuhalten

Arzt (adapted) (Image by tmeier1964 [CC0 Public Domain] via pixabay)

Elon Musk, der Tesla-Boss und Gründer von OpelAl, schlug vor ein paar Tagen vor, dass die Menschheit ihre eigene Irrelevanz hinauszögern könnte, indem sie sich selbst mit ihnen verbindet und zu Cyborgs werden möge. Jedoch lassen aktuelle Trends in der Software künstlicher Intelligenz und tiefergehender Lerntechnologie, vor allem auf lange Sicht gesehen ernsthafte Zweifel über die Plausibilität dieser Aussage entstehen. Diese Zweifel lassen sich nicht nur auf Einschränkungen in der Hardware zurückführen, sie haben auch damit zu tun, welche Rolle das menschliche Gehirn bei dem Zuordnungsprozess spielt.

Musks Theorie ist einfach und direkt: Ausreichend entwickelte Schnittstellen zwischen dem Gehirn und dem Computer soll es den Menschen ermöglichen, ihre Fähigkeiten durch besseres Verständnis über den Einsatz von Technologien wie maschinelles Lernen und tiefergehende Lernerfahrungen massiv zu erweitern. Aber der Austausch verläuft in beide Richtungen. Durch den Menschen als „Lückenfüller“ in der Verbindung zwischen Hirn und Maschine könnte die Leistung maschineller Lernalgorithmen verbessert werden, vor allem in Bereichen wie differenzierten kontextabhängigen Entscheidungen, in denen die Algorithmen noch nicht ausgereift genug sind.

Die Idee an sich ist nicht neu. So spekulierte beispielsweise unter anderem J. C. R. Licklider bereits Mitte des 20. Jahrhunderts über die Möglichkeit und Implikation der „Mensch-Computer Symbiose“. Allerdings entwickelte sich der Prozess seitdem nur langsam. Ein Grund hierfür ist die Entwicklung der Hardware. „Es gibt einen Grund, wieso sie ‚Hardware‘ genannt wird – sie ist ziemlich kompliziert“ (engl.: hard), sagte Tony Fadell, der Entwickler des iPods. Die Schaffung der Hardware, die sich mit organischen Systemen verbindet, sei noch schwieriger. Aktuelle Techniken sind primitiv im Vergleich zu der Vorstellung einer Verbindung von Gehirn und Maschine, wie sie uns in Science-Fiction-Filmen wie Matrix verkauft wird.

Macken der tiefgehenden Lernerfahrung

Angenommen, das Hardware-Problem würde letztendlich gelöst, gibt es noch weitaus größere Probleme. Das vergangene Jahrzehnt der enormen Fortschritte in der Forschung des Deep Learning hat aufgedeckt, dass weiterhin grundlegende Herausforderungen bezwungen werden müssen. Eine davon ist die Problematik, die Funktionsweise komplexer neuronaler Netzwerksysteme zu verstehen und zu charakterisieren. Wir vertrauen in einfache Technologien wie einen Taschenrechner, weil wir wissen, dass er immer genau das tun wird, was wir von ihm erwarten. Fehler lassen sich fast ausschließlich auf menschliche Eingabefehler zurückführen.

Eine Vorstellung der Verschmelzung von Gehirn und Maschine ist es, uns zu Supermenschen mit unfassbaren Rechenfähigkeiten zu machen. Statt einen Taschenrechner oder das Smartphone zu zücken, könnten wir die Rechnung einfach denken und sofort die richtige Antwort der „assistierenden“ Maschine erhalten. Besonders knifflig wird es bei dem Versuch, tiefer in die fortgeschrittenen Funktionen der maschinellen Lerntechniken zu gehen, wie beispielsweise bei Deep Learning.

Angenommen, Sie arbeiten in am Flughafen in der Sicherheitsabteilung und verfügen über eine Verschmelzung von Gehirn und Maschine, die jeden Tag automatisch tausende Gesichter scannt und über mögliche Sicherheitsrisiken alarmiert. Die meisten maschinellen Lernsysteme leiden unter einem Problem, bei dem eine kleine Veränderung in der äußeren Erscheinung einer Person oder eines Objekts dazu führen kann, dass katastrophale Fehler in der Klassifizierung entstehen. Verändern Sie das Bild einer Person um weniger als ein Prozent, kann es vorkommen, dass das maschinelle System denkt, es sähe ein Fahrrad statt eines Menschen.

Terroristen oder Verbrecher würden die verschiedenen Schwachstellen der Maschine ausnutzen, um Sicherheitskontrollen zu umgehen – solcherlei Probleme bestehen bereits bei der Online-Sicherheit. Auch wenn Menschen auf andere Weise eingeschränkt sind, bestünde diese Verwechslungsgefahr bei ihnen zumindest nicht.

Ungeachtet seiner Reputation als nicht emotionale Technologie leiden maschinelle Lerntechnologien wie Menschen unter Voreingenommenheit und können mit entsprechender Dateneingabe sogar rassistisches Verhalten aufweisen. Diese Unvorhersehbarkeit hat grundlegende Auswirkungen darauf, was passiert, wenn ein Mensch sich in die Maschine einklinkt und, wichtiger noch, dieser auch vertraut.

Vertraue mir, ich bin Roboter

Vertrauen ist ebenfalls eine beidseitige Angelegenheit. Menschliches Denken ist eine komplexe, höchst dynamische Angelegenheit. Schaut man sich dasselbe Sicherheitsszenario mit einer ausreichend entwickelten Verbindung von Gehirn und Maschine an, stellt sich die Frage: Woher soll die Maschine wissen, welche menschlichen Neigungen sie zu ignorieren hat? Schließlich sind unbewusste Neigungen eine Herausforderung, von der jeder betroffen ist. Was, wenn die Technologie bei der Befragung möglicher Bewerber hilft?

Wir können in bestimmtem Ausmaß die Vertrauensprobleme einer Hirn-Maschine-Verbindung vorhersehen, wenn wir auf die weltweiten Verteidigungskräfte blicken, die versuchen, das Vertrauen in menschliche Maschinen in einem stetig wachsenden menschlich-autonom gemischten Schlachtfeld anzusprechen. Die Forschung beschäftigt sich mit beiden Fällen: Bekannte autonome Systeme, bei denen Menschen den Maschinen vertrauen und Maschinen sich wiederum auf die Menschen verlassen.

Es existiert eine Parallele zwischen einem Roboter-Krieger, der die ethische Entscheidung trifft, eine rechtswidrige Anweisung des Menschen zu ignorieren und dem, was im Interface zwischen Gehirn und Maschine passieren muss. Dies sind Interpretationen der menschlichen Gedanken durch die Maschine, während flüchtige Gedanken und tiefe unbewusste Neigungen gefiltert werden.

In Verteidigungssituationen übernimmt die logische Rolle für ein menschliches Hirn die Prüfung, ob Entscheidungen ethisch vertretbar sind. Doch wie wird das funktionieren, wenn das menschliche Gehirn an eine Maschine angeschlossen ist, die Schlussfolgerungen aus Daten zieht, die kein Hirn begreifen kann? Auf lange Sicht ist das Problem, ob und wie Menschen in Prozesse involviert sein müssen, die zunehmend von Maschinen bestimmt werden. Bald werden Maschinen vielleicht sogar medizinische Entscheidungen übernehmen, die kein menschliches Team ausloten kann. Welche Rolle kann und sollte das menschliche Gehirn in diesem Prozess spielen?

In manchen Fällen vermehrt die Kombination aus Automatisierung und menschlicher Arbeitskraft die Jobaussichten, jedoch dürfte dieser Effekt demnächst verschwunden sein. Die gleichen Roboter und automatische Systeme werden allerdings weiterhin verbessert und schlussendlich die von ihnen geschaffenen Jobs ersetzen. Während Menschen zunächst eine „nützliche“ Rolle in Gehirn-Maschine-Systemen spielen könnten, entwickelt sich die Technologie weiter und es wird dementsprechend weniger Gründe geben, Menschen überhaupt in den Prozess zu integrieren.

Der Gedanke, die Relevanz der Menschheit mit der Verbindung von menschlichen und künstlichen Gehirnen aufrechtzuerhalten, scheint verlockend. Abzuwarten bleibt auch, welchen Beitrag das menschliche Gehirn hier beitragen wird – besonders, weil die technologische Entwicklung die des menschlichen Gehirns um eine Million zu eins überbietet.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „Arzt“ by tmeier1964 (CC0 Public Domain)


The Conversation

Weiterlesen »

Fabian Westerheide über Künstliche Intelligenz

Neural (adapted) (Image by geralt [CC0 Public Domain] via pixabay)

Dieser Beitrag ist Teil einer Artikelreihe im Vorfeld der Digitalkonferenz EXPLAINED von Microsoft Deutschland. Die Konferenz findet am 23. März 2017 in Berlin statt.


Künstliche Intelligenz (KI) und die Frage, was den Menschen und die Maschine zusammenbringt, treibt den Unternehmer, Venture Capitalist, Autor und Redner Fabian Westerheide um. Nachdem er in verschiedene Unternehmen investierte, ist er seit 2014 Geschäftsführer von Asgard – human VC for AI und leitet die KI-Konferenz Rise of AI. Außerdem ist er Koordinator für Künstliche Intelligenz beim Bundesverband Deutscher Startups. Ich habe mich mit ihm im Vorfeld zur Digitalkonferenz EXPLAINED von Microsoft Deutschland, bei der er als Speaker auftreten wird, zum Interview getroffen.

Was fasziniert Sie an Künstlicher Intelligenz?

Das war ein Prozess. Ich komme vom Land und habe schon immer an Computern herumgebastelt und mich für die Auswirkungen zwischen Mensch und Maschine interessiert. Dann bin ich Unternehmer geworden und habe in insgesamt 35 Firmen investiert, von denen die meisten aus dem Softwarebereich stammen. Irgendwann wusste ich, dass das Thema Künstliche Intelligenz, was mich durch Science-Fiction-Literatur schon seit den Achtzigern beschäftigt hat, endlich greifbar wurde. Mich fasziniert vor allem, dass es so ein komplexes Thema ist und wirtschaftliche, gesellschaftliche, militärische und politische Konsequenzen hat. Es betrifft sowohl Unternehmen als auch den einzelnen Menschen, es betrifft letztlich die ganze Menschheit. Das ist ein Thema, bei dem ich meine ganze Begeisterung für Politik und Gesellschaft einfließen lassen kann. Und ich fühle mich sehr wohl damit, weil es um mehr als Geldverdienen geht. Künstliche Intelligenz kann wirklich die Menschheit verändern – in die eine oder in die andere Richtung.

Was ist der nächste Entwicklungsschritt für die Künstliche Intelligenz?

Die Maschine muss noch besser lernen zu lernen. Das bedeutet, dass sie mit wenige Daten zurecht kommt und mit weniger Transferwissen arbeiten kann. Zum Beispiel kann man derzeit eine KI, die ein bestimmtes Auto fährt, nicht einfach in ein anderes selbstfahrendes Auto verpflanzen. Man kann sie auch nicht benutzen, um mit ihr mit Aktien zu handeln oder ein Flugzeug zu fliegen. Sie ist eigentlich ziemlich idiotisch angelegt und genau auf ihre Hardware programmiert. Innerhalb dieser Grenzen kann sie aber jederzeit weiterlernen. Wir müssen also den Schritt schaffen, dass die Software Hardware-unabhängig wird und Vorwissen aufbauen kann. Vor ein paar Wochen hat Google Deep Mind ein sehr interessantes Paper veröffentlicht, wo sie mit einer KI ein Spiel gespielt haben. Dieselbe KI wurde verwendet, um ein neues Spiel zu lernen. Die KI wurde also deutlich besser, weil sie über das Wissen verfügt, wie man so ein Spiel spielt. Sie konnte es auf ein anderes Spiel übertragen und dadurch besser werden als eine KI, die nur auf dieses eine Spiel hin programmiert wurde.

Ist das der Schritt zwischen einem gut funktionierenden Algorithmus und einem denkenden Wesen? Ich gebe zu, ich scheue mich etwas, diesen Prozess schon als Denken zu bezeichnen. Ich würde eher sagen, es ist eher ein Weiterverarbeiten. Oder fängt das Denken hier schon an?

Das ist schwierig zu sagen, hier fängt eigentlich eher die nächste Diskussion an: Denkt der Mensch wirklich, oder sind wir nicht viel eher hormon- und instinktgetrieben? Wie viel davon ist durch unser Unterbewusstsein bestimmt? Die meisten Menschen treffen Entscheidungen im Bruchteil einer Sekunde. Wir nennen das Bauchgefühl oder Instinkt. Eigentlich ist es aber eine Erfahrungskurve. Wir brechen unsere Erfahrungen herunter und denken nicht darüber nach, sondern handeln. So ist es bei der Maschine auch. Sie können noch nicht auf 20 Jahre Berufserfahrung zurückgreifen oder auf eine jahrelange Erziehung. Wir als Menschen hingegen haben ungeheuer viel Input verarbeitet und sind biologisch dafür ausgelegt, alles abzuspeichern. Seit es im Jahr 2012 den großen Durchbruch mit den neuronalen Netzen gegeben hat, haben die Maschinen auch ein Kurzzeitgedächtnis. Was noch fehlt ist ein Langzeitgedächtnis und das Abstraktionslevel. Und genau das passiert gerade: Wir bauen Schritt für Schritt ein kollektives Gedächtnis auf, eine Art Schwarmintelligenz. Wir müssen also noch nicht einmal eine menschenähnliche KI haben, um zu erreichen, dass sie denkt, sondern wir brauchen eine KI, die untereinander kommuniziert und kollektiv Wissen verarbeitet. Wenn ein Auto beispielsweise einen fatalen Fehler macht, wie es bei dem Tesla-Unfall mit dem LKW geschehen ist, dann passiert ihm das ein einziges Mal. Seit diesem Vorfall können alle hunderttausende Teslas da draußen LKWs erkennnen. Das ist eine Intelligenzleistung, die mehr schafft als ein einzelner Mensch.

Image by Fabian Westerheide
Image by Fabian Westerheide

Wir müssen die KI also nicht nur schulen, sondern auch erziehen?

Genau das. Der Hirnforscher Danko Nikolic sagt, wir brauchen einen KI-Kindergarten, eine Art DNA für künstliche Intelligenz. Ich finde diese These sehr interessant. Wir müssen es schaffen, diese Lernalgorithmen einer KI beizubringen. Sie muss lernen zu lernen, damit sie weiß, wie man selbst Wissen generiert. Das können wir Menschen besonders gut. Die KI kann das noch nicht, also wird der Durchbruch im Lernalgorithmus die nächste Stufe sein. Dann muss man sie trainieren, ausbilden und erziehen, wie man Kinder erzieht. Wenn das passiert, wird das, was wir jetzt haben, schneller und auch deutlich interessanter. Eine KI hat noch keine Eigenmotivation, ich weiß aber, dass Teams bereits daran arbeiten.

Welche Jobs sind bisher immer noch nicht vollständig durch Maschinen ersetzbar? Wo geht hier die Entwicklung hin?

Momentan sind es zwei: Menschen und Komplexität. Wir sind Menschen und wollen deshalb natürlich weiterhin menschliche Interaktion. Ich behaupte, dass ‚Made by Humans‘ irgendwann bei Produkten ein Qualitätsmerkmal sein wird, für das die Leute mehr bezahlen werden. Bei der Interaktion kann es zu einer Mischung kommen: In der Pflege werden wir Pflegeroboter haben, die uns beispielsweise dabei helfen, den schweren alten Mann zu wenden, aber die menschliche Komponente muss erhalten bleiben. Eine KI nimmt dich nicht in den Arm, sie kann aber konkrete Ergebnisse liefern. Das dauert wohl aber noch gut 10 bis 15 Jahre. Eine KI kann erkennen, wie Prozesse am besten durchzuführen sind, aber bei emotionaler Intelligenz muss sie eben passen. Wir brauchen keinen menschlichen Maler, aber einen menschlichen Innenarchitekten. Je einfacher der Job ist, desto eher können wir ihn durch die Maschinen erledigen lassen. Sie hat aber noch immer ein Problem mit der Motorik, das haben wir noch nicht gelöst. Softwaretechnisch hingegen ist sie uns natürlich haushoch überlegen, jeder Taschenrechner kann besser rechnen als du und ich.

Wir müssen der KI auch Kontext beibringen, damit sie uns wirklich helfen kann.

Bei Service-KIs funktioniert das sogar schon. Die KI kann erkennen, ob der Kunde gut oder schlecht gelaunt ist, ob er etwas umtauschen will und ob sie ihm noch mehr Angebote machen soll oder nicht. Das würde ich schon als Kontext bezeichnen. Jeder, der schon einmal Kundensupport gemacht hat, wird das kennen – man muss Zweideutigkeit erkennen und das kriegen schon wir Menschen manchmal nicht ordentlich hin. Wie wollen wir da erwarten, dass die KI es besser macht? Der erste Schritt ist also: Sie muss lernen, es zumindest schon einmal besser zu machen als der Schlechteste von uns.

Wenn man manche Artikel liest, werden die Maschinen oft sehr dystopisch als unser Untergang beschrieben, sowohl gesellschaftlich als auch arbeitstechnisch. Wie gehen Sie mit dieser Angst der Menschen um?

Ich erlebe es ab und zu, dass die Menschen bei einem gewissen Level fast schon technologiefeindlich sind und regelrecht Angst vor der KI haben. Aber ich finde, dass Probleme wie die globale Erwärmung, der Terrorismus oder auch nur zu viel Zucker im Blut viel gefährlicher für die Menschheit sind. Wir sollten wirklich versuchen, etwas unaufgeregter an das Thema KI heranzugehen. Ja, die Digitalisierung frisst eine Menge Jobs. Aber das ist doch super! Niemand muss mehr langweilige Jobs machen, wir haben viel mehr freie Zeit. Wir können die KI benutzen, um in unserer Tätigkeit noch produktiver zu sein. Wir können so sogar mehr Jobs nach Europa holen, weil es günstiger und effektiver ist, die Handgriffe an eine KI outzusourcen als an irgendwelche ausgebeuteten Clickworker in Indien. Das Ganze bringt einen enormen strukturellen Wandel mit sich, weil wir uns von der Industriegesellschaft zur Servicegesellschaft und auch zu einer Wissensgesellschaft wandeln.

Die Großkonzerne von heute haben bereits begriffen, dass sie sich entwickeln müssen, sie tun sich damit aber noch etwas schwer. Das sind reine Industrieunternehmen, die aus einer ganz anderen Hierarchie und einer anderen kulturellen Epoche kommen. Künstliche Intelligenz ist hier nur die Spitze des Eisberges, denn unsere Industrie ist nicht für digitale Umbrüche gerüstet. Wir sind an dieser Stelle in kultureller Hinsicht noch komplett falsch aufgestellt.

Wie steht es um die Entwicklung von Künstlicher Intelligenz in Deutschland?

Das deutsche Problem daran ist, dass wir mal wieder den Trend verschlafen. Es gibt kaum KI-Unternehmen hierzulande – wir sind eher auf den abgeschlagenen Plätzen zu finden. Im Moment sind die US-amerikanischen KI-Unternehmen besser finanziert und es gibt viel mehr Firmen als hier, obwohl der Markt nicht so groß ist wie unserer. Es geht auch nicht darum, noch etwas zu entwickeln, dass uns unser Essen schneller liefert, sondern darum, dass uns eine strategische Entwicklung entgeht. Wir brauchen endlich mehr Forschung, mehr Kapital und mehr Unternehmen in Deutschland und Europa, um eine strategisches, wirtschaftliches und politisches Gegengewicht herstellen zu können. Nur dann können wir auf Augenhöhe miteinaner verhandeln.


Image (adpated) „Neural“ by geralt (CC0 Public Domain)


Weiterlesen »

Über Verbrecher, Emotionen und Künstliche Intelligenz: Verstehen ist nicht programmierbar

tabletop assistant (adapted) (Image by Matthew Hurst [CC BY SA 2,0], via flickr)

Wie fänden Sie es, sich von einem Roboter therapieren zu lassen? Emotional intelligente Maschinen sind vielleicht nicht so weit weg, wie es scheint. In den letzten Jahrzehnten hat sich die künstliche Intelligenz zunehmend darin verbessert, emotionale Reaktionen beim Menschen zu lesen.

Jedoch ist lesen ist nicht damit vergleichbar, sie wirklich zu verstehen. Wenn die KI selbst keine Emotionen erleben kann, kann sie uns dann jemals wirklich verstehen? Und wenn nicht, gibt es ein Risiko, dass wir Robotern Eigenschaften zuschreiben, die sie nicht haben?

Die jüngste Generation von KIs ist dank größer erreichbaren Datenmengen, mit denen die KIs ihre Fähigkeiten schulen, und ihrer verbesserten Rechenleistung entstanden. Diese Maschinen werden zunehmend wettbewerbsfähiger in Bereichen, die immer als menschlich wahrgenommen wurden. Die KI kann nun unter anderem Gesichter erkennen, Gesichtskizzen in Fotos verwandeln, Sprache erkennen und Go spielen.

Identifizierung von Kriminellen

Vor kurzem haben Forscher eine KI entwickelt, die nur durch Analyse der Gesichtszüge in der Lage ist, zu sagen, ob eine Person kriminell sein könnte. Das System wurde mithilfe von Ausweisbildern aus einer chinesischen Datenbank getestet und die Ergebnisse sind erstaunlich. Nur in etwa 6 Prozent der Fälle kategorisierte die KI Unschuldige fälschlicherweise als Kriminelle, gleichzeitig war sie in der Lage, etwa 83 Prozent der Kriminellen erfolgreich zu identifizieren. Dies führte zu einer erstaunlichen Gesamtgenauigkeit von fast 90 Prozent.

Das System basiert auf einem Ansatz, der als ‚Deep Learning‘ bezeichnet wird und bei Wahrnehmungsaufgaben wie Gesichtserkennung erfolgreich war. In Kombination mit einem ‚Gesichtsdrehungsmodell‘ ermöglicht das Deep Learning der KI, zu verifizieren, ob zwei verschiedene Aufnahmen eines Gesichts dieselbe Person repräsentieren, selbst wenn die Beleuchtung oder der Winkel zwischen den Fotos sich ändert.

Deep Learning baut ein ’neuronales Netzwerk‘, das sich grob am menschlichen Gehirn orientiert. Dieses besteht aus Hunderttausenden von Neuronen, die in verschiedenen Schichten organisiert sind. Jede Schicht wandelt die Daten, beispielsweise ein Bild eines Gesichts, in eine höhere Abstraktionsstufe, etwa einen Satz von Kanten an bestimmten Ausrichtungen und Stellen. Dies unterstreicht automatisch die Merkmale, die für die Durchführung einer bestimmten Aufgabe am relevantesten sind.

Angesichts des Erfolges des Deep Learning ist es nicht verwunderlich, dass künstliche neuronale Netze Kriminelle von Nicht-Kriminellen unterscheiden können – wenn es wirklich Gesichtszüge gibt, mit denen zwischen ihnen unterschieden werden kann. Die Forschung deutet darauf hin, dass man dies an drei Merkmalen erkennen kann. Eines ist der Winkel zwischen der Nasenspitze und den Mundwinkeln, der bei Kriminellen im Durchschnitt 19,6 Prozent kleiner war als bei Nicht-Kriminellen. Die Krümmung der oberen Lippe war für Kriminelle ebenfalls durchschnittlich um 23,4 Prozent größer, während der Abstand zwischen den inneren Winkeln der Augen durchschnittlich 5,6 Prozent schmaler war.

Auf den ersten Blick scheint diese Analyse darauf hinzudeuten, dass veraltete Ansichten, dass Kriminelle durch physikalische Attribute identifiziert werden können, nicht völlig falsch sind. Allerdings ist das womöglich nicht die ganze Wahrheit. Es ist interessant, dass sich zwei der wichtigsten Merkmale auf die Lippen beziehen, die unsere ausdrucksstärksten Gesichtszüge sind. Für Ausweisbilder, wie sie in der Studie verwendet wurden, muss der Gesichtsausdruck neutral sein. Es könnte jedoch sein, dass es der KI gelungen ist, versteckte Emotionen in diesen Fotos zu finden. Diese könnten so gering sein, dass die Menschen sie möglicherweise nicht einmal selbst bemerken.

Es ist schwierig, der Versuchung zu widerstehen, auf die Beispielfotos zu schauen, die in dem Dokument enthalten sind, das noch begutachtet werden muss. Tatsächlich offenbart ein sorgfältiger Blick ein kleines Lächeln auf den Fotos derenigen ohne kriminelle Vergangenheit – sehen Sie selbst. Es sind jedoch nur wenige Musterfotos verfügbar, sodass wir unsere Schlussfolgerungen nicht auf die gesamte Datenbank verallgemeinern können.

Die Stärken der affektiven Datenverarbeitung

Das war nicht das erste Mal, dass ein Computer menschliche Emotionen erkennen konnte. Das sogenannte Feld der „affektiven Datenverarbeitung“ gibt es schon seit mehreren Jahren. Es wird argumentiert, dass, wenn wir in einer uns angenehmen Art und Weise mit Robotern leben und interagieren wollen, diese Maschinen in der Lage sein sollten, die menschlichen Emotionen zu verstehen und angemessen darauf zu reagieren. Es liegt auf diesem Gebiet noch viel Arbeit vor uns und die Möglichkeiten sind riesig.

Zum Beispiel haben Forscher die Gesichtsanalyse verwendet, um Studenten, die sich in computergesteuerten Nachhilfeseminaren schwer taten, herauszufiltern. Die KI wurde ausgebildet, um verschiedene Ebenen von Engagement und Frustration zu erkennen, sodass das System wissen konnte, wann die Schüler die Arbeit zu einfach oder zu schwierig fanden. Diese Technologie könnte nützlich sein, um die Lernerfahrung auf Online-Plattformen zu verbessern.

Das Unternehmen BeyondVerbal nutzte die KI auch, um Emotionen auf Grundlage des Klanges unserer Stimme zu erkennen. Sie haben Software produziert, die die Sprachmodulation analysiert und in der Art und Weise, wie Menschen sprechen, spezifische Muster sucht. Das Unternehmen gibt an, in der Lage zu sein, Emotionen mit einer 80prozentigen Genauigkeit zu identifizieren. In Zukunft könnte diese Art von Technologie zum Beispiel Autisten helfen, Emotionen zu identifizieren.

Sony versucht sogar, einen Roboter zu entwickeln, der in der Lage ist, emotionale Bindungen mit Menschen einzugehen. Es gibt nicht viele Informationen darüber, wie sie das erreichen wollen, oder was genau der Roboter tun wird. Sie erwähnen jedoch, dass sie versuchen, „Hardware und Dienstleistungen zu verbinden, um emotional anregende Erfahrungen zu liefern“.

Eine emotional intelligente KI hat mehrere potenzielle Vorteile, sei es, jemandem ein Freund zu sein oder uns zu helfen, bestimmte Aufgaben durchzuführen – vom Verhören Krimineller bis zur Gesprächstherapie. Doch es gibt auch ethische Probleme und Risiken. Ist es richtig, einen Patienten mit Demenz einem KI-Begleiter anzuvertrauen und zu glauben, dass dieser ein emotionales Eigenleben hat, obwohl das nicht der Fall ist? Und könnte man eine Person auf der Grundlage einer KI, die sie als schuldig klassifiziert, verurteilen? Natürlich nicht. Aber es könnte, wenn ein solches System weiter verbessert und vollständig ausgewertet wird, auf eine weniger schädliche, vielleicht sogar hilfreiche Weise verwendet werden, wenn Personen, die von der KI als „verdächtig“ angesehen werden, fortan genauer überprüft werden.

Was können wir also von der KI erwarten? Subjektive Dinge wie Emotionen und Gefühle sind für die KI immer noch schwer zu erlernen, zum Teil deshalb, weil die KI keinen Zugang zu ausreichend guten Daten hat, um sie objektiv zu analysieren. Wird eine KI beispielsweise jeso etwas wie Sarkasmus verstehen? Ein Satz kann sarkastisch sein, wenn er in einem bestimmten Kontext gesagt wird, aber in einem anderen Kontext ist er es nicht.

Doch die Menge an Daten und Rechenleistung wächst weiter. Mit wenigen Ausnahmen könnte die KI deshalb in den nächsten Jahrzehnten durchaus in der Lage sein, verschiedene Arten von Emotionen genauso gut zu erkennen, wie Menschen das können. Aber ob eine KI jemals Emotionen erleben kann, ist ein kontroverses Thema. Selbst wenn sie es könnten, würde es sicherlich Emotionen geben, die sie niemals durchleben können wird – und das macht es ihnen schwierig, sie tatsächlich zu verstehen.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-NC-SA 3.0 US. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) tabletop assistant by Matthew Hurst (CC BY-SA 2.0)


Weiterlesen »

FollowUs – Die Netzpiloten-Tipps aus Blogs & Mags

Follow me

  • TRUMP sueddeutsche: So reagiert Twitter auf Trumps Kommentar zum Waffenbesitz: Ausfallende Provokationen und falsche Fakten stehen in Donald Trumps Wahlkampf auf der Tagesordnung. Doch nun scheint er zu weit gegangen zu sein. Bei einer Rede am Montag in Detroit ging er auf das Second Amendment der US-Verfassung ein – das Recht auf Waffenbesitz. Da Clinton den Zusatzartikel abschaffen wolle, benutzte er eine bewusste zweideutige Aussage, die als Mordaufruf an Clinton zu sehen ist. Über Twitter teilten viele US-Bürger ihre Bestürzung mit. Es sei kein politischer Fehltritt sondern ein Aufruf zum Attentat. Man müsse gegen Trump ein Strafverfahren eröffnen. Trump scheint sich immer mehr ins Aus zu befördern.

  • FACEBOOK fortune: Facebook Goes to War With Ad Blockers: Ad-Blocker sind vielen Internetseiten ein Dorn im Auge. Auch bei Facebook ist das so. Nun hat der Konzern einen Weg gefunden, trotz Ad-Blockern seine Werbung in den Feeds der Nutzer anzuzeigen. Über eine neue Funktion sollen allerdings nur Werbeschaltungen angezeigt werden, die den Nutzer auch wirklich interessieren könnten. Durch das individuelle Verhalten auf Facebook wird ein Algorithmus die treffenden Werbungen filtern und dann im Feed anzeigen.

  • MONSTER bloomberg: Randstad to Buy U.S. Jobs Site Monster for $429 Million: Das Unternehmen Monster war die erste Online-Jobplattform an der Börse und war zum Millennium vor 16 Jahren rund 8,4 Milliarden Dollar wert. Nun wird das Unternehmen von der niederländischen Firma Randstad Holding übernommen. 429 Millionen Dollar wird der Preis für Monster sein.

  • DEEP-LEARNING recode: Intel is paying more than $400 million to buy deep-learning startup Nervana Systems: Der Chip Gigant Intel investiert in die Deep-Learning Sparte. Das Startup Nervana Systems konnte die Aufmerksamkeit von Intel erlangen und hat es geschafft, dass sie für mehr als 400 Millionen Dollar übernommen werden. Die genaue Summe ist unbekannt. Der Kauf durch Intel zeigt eine steigende Interesse der Big Data Unternehmen am KI basierenden Deep Learning.

  • APPLE mashable: Apple slams Australian bank ‚cartel‘ in Apple Pay fight: Die australischen Banken „Bendigo and Adelaide Bank“, „Commonwealth Bank of Australia“, „National Australia Bank“ und „Westpac“ beschwerten sich bei der Verbraucherzentrale über das Bezahlttool von Tech-Gigant Apple. Man ließe keine anderen Banking-Apps zu, was eine enorme Sicherheitslücke aufweisen würde. Apple hat sich nun zu Wort gemeldet und zeigt sich wenig beeindruckt. Da Apple Pay auf einer einzigartigen Bezahlmöglichkeit durch Token basiere, muss der Nutzer nicht digital seine Kreditkarteninformationen benutzen. Dies mache Apple Pay sicherer als die Apps, die von den Banken benutzt werden.

Weiterlesen »

5 Lesetipps für den 31. Januar

In unseren Lesetipps geht es heute um Deep Learning, Facebooks Zukunft, Propaganda in der Türkei, Hackerangriff auf Yahoo und Googles Quartalszahlen. Ergänzungen erwünscht.

  • DEEP LEARNING Hyperland: Google erkennt Katzen und weiß nicht, warum: Machine Learning Conference, San Francisco: Google-Mitarbeiter Quoc V. Le hält einen Vortrag über “Deep Learning”: Ein künstliches neuronales Netz bringt sich selbst bei, Gesichter auf Fotos zu erkennen. Doch beim Sortieren der Fotos erzeugt es selbstständig eine neue Kategorie – Katzenbilder. Und die Informatiker bei Google wissen nicht so recht, wie ihre Software das gemacht hat.
  • FACEBOOK Cnet News: Zuckerberg outlines Facebook’s ambitious 10-year plan: In wenigen Tagen feiert Facebook seinen zehnten Geburtstag und steht mit gigantischen Umsätzen durch Online-Werbung und mehr als eine Milliarde Mitglieder gut dar. Auf Cnet schreibt Dan Farber aber weniger über die letzte Dekade, sondern gibt einen Ausblick, worauf wir uns in der nächsten Dekade gefasst machen können. Ein lesenswerter Blick in die Glaskugel auf Facebooks Zukunft.
  • TÜRKEI Techdirt: Turkish Government Says Online Freedom Is Like Violence Against Women: Dieser Lesetipp ist nicht unbedingt lesenswert, aber sollte nicht übersehen der Türkei wird gerade viel über ein Zensurgesetz diskutiert, mit dem die türkische Regierung versucht Kontrolle über die andauernden Proteste im Land zurückzugewinnen. Vor diesem Hintergrund wurde eine „Too much Freedom“-Kampagne gestartet, in dem die freie Meinungsäußerung im Internet als ein Verbrechen dargestellt wird, dass mit Gewalt gegen Frauen gleichgesetzt wird.
  • YAHOO t3n: Nutzernamen und Passwörter von Yahoo-Konten gestohlen: Yahoo hat in der Nacht zum Freitag einen Hackerangriff auf die E-Mail-Konten seiner Nutzer bekanntgegeben. Kunden sollten ihre Anmeldedaten auch auf anderen Seiten erneuern, wie Andreas Weck auf t3n berichtet.
  • GOOGLE Zeit Online: Google übertrifft mit seinem Quartalsbericht alle Erwartungen: Wie schon Facebook konnte auch Google im aktuellen Quartalsbericht über enorme Umsätze durch das florierende Werbegeschäft im Internet berichten. Mehr als 3,4 Milliarden US-Dollar wurden umgesetzt, ganze 17 Prozent mehr als im Vorjahr. Im Gegensatz zu Facebook, dass sein Geld vor allem mobil verdient, ist Googles Standbein die klassische Textanzeige auf der Suchmaschine.

Nutze Netzpiloten 1-Klick: Mit nur einem Klick werden dir bequem alle 40 Sekunden die hier besprochenen Seiten „vorgeblättert“ START.

Weiterlesen »