All posts under Programm

Alpha Go & Co.: So schnell lernt die Google-KI

P2121011 (adapted) (Image by Strelban [CC0 Public Domain] via flickr)

Erst im vergangenen Jahr schlug AlphaGo von Google DeepMind große Wellen in der Welt der Künstlichen Intelligenz, indem es zeigte, dass ein Computerprogramm die besten menschlichen Go-Spieler der Welt schlagen kann.

Wie rasend schnell der Fortschritt in der modernen KI-Forschung voranschreitet, zeigen Details, die die Fachzeitschrift Nature vor wenigen Wochen veröffentlicht hatte. Hier wurde eine verbesserte Version des Programms namens AlphaGo Zero präsentiert. Mit weniger Rechenleistung und nur drei Tagen Trainingszeit schlug AlphaGo Zero das originale AlphaGo in einem 100-Satz Spiel mit 100 zu Null. Eine menschliche Aufsicht war dafür nicht vonnöten.

Das Go-Spielen erlernen

Go ist ein Strategiespiel, in dem zwei Spieler abwechselnd Steine auf ein Spielbrett mit 19 x 19 Feldern platzieren. Das Ziel des Spiels ist es, einen größeren Bereich des Bretts zu umringen als der Gegenspieler.

Go zu meistern, hat sich für Computer als eine bedeutend größere Herausforderung erwiesen als Schach. So gibt es deutlich mehr mögliche Züge in den einzelnen Positionen bei Go als bei Schach. Ebenso wie es deutlich mehr mögliche Spielvarianten gibt.

Das originale AlphaGo erlernte die KI dadurch, dass sie mehr als 30 Millionen Züge von menschlichen Experten studierte. Sie verbesserte sich anschließend auch außerhalb der menschlichen Expertise, indem sie über einen Zeitraum von mehreren Monaten unzählige Spiele gegen sich selbst spielte.

Im Gegensatz dazu sah AlphaGo Zero niemals Menschen beim Spielen zu. Stattdessen begann das Nachfolgeprogramm das Training, indem es lediglich die Spielregeln lernte. Durch eine verhältnismäßig geringe Anzahl von fünf Millionen Spielen gegen sich selbst, für die das Programm nur drei Tage auf einem schwächeren Computer als das originale AlphaGo benötigte, brachte es sich anschließend eine Leistungsfähigkeit jenseits von AlphaGo bei.

Faszinierend ist, dass der Lernprozess des Programms grob einige der Stationen des menschlichen Fortschrittsprozesses beim Meistern des Go-Spielens imitierte. AlphaGo Zero lernte zügig, allzu kurzsichtige Züge zu ignorieren, und entwickelte stattdessen strategischere Denkweisen, durch die es viele der Schemata und Spielzüge generierte, derer sich auch menschliche Weltklasse-Experten häufig bedienen. Bemerkenswerterweise begann es dann, einige dieser Schemata abzulegen und durch neue Strategien zu ersetzen. Die waren so noch nie zuvor in menschlichen Spielen zu sehen.

Jenseits des menschlichen Spiels

Dieses Kunststück gelang AlphaGo Zero dadurch, dass es das Problem anders anging als das originale AlphaGo. Beide Versionen verwenden eine Kombination aus den beiden aktuell leistungsfähigsten KI-Algorithmen: Deep Learning und Bestärkendes Lernen.

Um ein Spiel wie Go zu spielen, muss das Programm zunächst zwei grundlegende Dinge lernen. Das erste ist ein Grundsatz: die Wahrscheinlichkeit, jeden der möglichen Züge in einer gegebenen Position zu machen. Das zweite ist eine Wertigkeit: die Wahrscheinlichkeit, von jeder gegebenen Position aus zu gewinnen.

In dem ausschließlich auf Abwehr basierendem Ansatz von AlphaGo Zero war die einzige Information, die zum Erlernen von Grundsätzen und Wertigkeiten zur Verfügung stand, eine Vorab-Voraussage darüber, wer letztendlich gewinnen wird. Die Grundlage für diese Voraussage bildeten jeweils die aktuellen Grundsätze und Wertigkeiten, wobei diese zu Beginn noch willkürlich gesetzt waren.

Dieser Ansatz ist zwar zunächst deutlich herausfordernder als der des originalen AlphaGo, das sich durch das Beobachten menschlicher Experten-Züge einen Startvorteil für den eigenen Lernprozess verschaffte. Dafür erlernte die frühere Version jedoch Grundsätze und Wertigkeiten auf der Basis separater neuraler Netzwerke.

Der algorithmische Durchbruch bei AlphaGo Zero bestand schließlich daraus, herauszufinden, wie diese zu einem einzigen Netzwerk kombiniert werden können. Dies eröffnete die Möglichkeit, den Trainingsprozess durch das Spielen mit sich selbst deutlich zu vereinfachen. So ermöglichte die KI einen unbeschwerten Neubeginn ihrer Taktiken – frei von den Strategien menschlicher Experten.

Wie AlphaGo Zero das Go-Spiel zu meistern lernte

Beim Elo-Rating handelt es sich um ein weit verbreitetes Messinstrument für die Leistungsstärke von Go- oder Schach-Spielern. Der bisher beste menschliche Go-Spieler namens Ke Jie hat momentan ein Elo-Rating von ca. 3.700. Alpha Go Zero trainierte drei Tage lang und erreichte ein Elo-Rating von mehr als 4.000. Eine erweiterte Version desselben Algorithmus trainierte 40 Tage lang und erzielte ein Rating von beinahe 5.200.

Dies ist ein erstaunlich großer Leistungsunterschied im Vergleich zum besten menschlichen Spieler – deutlich größer als der zwischen dem besten menschlichen Schach-Spieler Magnus Carlsen (ca. 2.800) und dem momentan leistungsstärksten Schach-Programm (ca. 3.400).

Die nächste Herausforderung

Für die Künstliche Intelligenz markiert AlphaGo Zero einen wichtigen Schritt nach vorne, weil es die Umsetzbarkeit eines einzig auf Bewehrung basierenden Lernens demonstriert, das völlig befreit von jeglicher menschlichen Lenkung ist. Auf diese Weise erübrigt sich eine große Ansammlung von menschlichem Expertenwissen, das oft nur schwer zugänglich sein kann, um die KI in Gang zu bringen.

Es bedeutet außerdem, dass der Algorithmus in der Lage ist, völlig neue Ansätze zu entwickeln, die möglicherweise deutlich schwerer zu finden gewesen wären, solange er von Vornherein in einer menschlichen Denkweise verankert sein musste. Bemerkenswerterweise erweist sich diese Strategie auch noch als effizienter im Hinblick auf die benötigte Rechenleistung.

Go ist jedoch ein anspruchsvolles Spiel, das auf perfekter Information basiert. Es kommt ohne die Unordnung aus, die die meisten Probleme in der echten Welt auszeichnet. Das Training von AlphaGo Zero benötigte die akkurate Simulation von Millionen von Spielen, die den Regeln des Go-Spiels folgten. Für viele praktische Probleme sind derlei Simulationen entweder rechnerisch nicht umzusetzen oder die Regeln selbst sind weniger klar definiert.

Bevor eine KI kreiert werden kann, die allgemeinen Zwecken dient, die ein weites Feld an praktischen Problemen ohne bereich-spezifische menschliche Intervention in Angriff nehmen kann, müssen noch viele weitere Probleme gelöst werden.

Doch auch wenn die Menschheit für den Moment den Kampf gegen die Go-Algorithmen verloren hat: Künstliche Intelligenz ist – im Gegensatz zu Go – kein Nullsummen-Spiel. Viele Spiele von AlphaGo Zero wurden jetzt veröffentlicht und bieten eine ganze Lebenszeit inspirierender Studien für menschliche Go-Spieler.

Wichtiger ist allerdings, dass AlphaGo Zero einen Schritt in Richtung einer Welt repräsentiert, in der Menschen leistungsstarke KIs zu Rate ziehen können, um für Menschen unvorstellbare kreative Lösungen für komplizierte Probleme zu finden. In der Welt der Künstlichen Intelligenz gab es niemals eine bessere Zeit, um es einfach einmal zu versuchen.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „P2121011“ by Strelban (CC0 Public Domain)


The Conversation

Weiterlesen »

Judge KI? Warum es gefährlich ist, Künstliche Intelligenz für die Urteilsfindung zu nutzen

Richter (adapted) (image by Daniel_B_Photos (CCO) via pixabay

Künstliche Intelligenz hilft uns, unsere Zukunft zu bestimmen – seien es unsere Sehgewohnheiten bei Netflix, unsere Kreditwürdigkeit oder wie gut wir zu einem potenziellen Arbeitgeber passen. Doch wir sind uns sicherlich einig, dass es – zumindest noch – einen Schritt zu weit geht, wenn die KI unsere Schuld oder Unschuld feststellen soll.

Besorgniserregend ist, dass dies längst der Fall sein kann. Als John Roberts, das Oberhaupt des obersten Gerichtshofs in den USA, kürzlich an einer Veranstaltung teilnahm, wurde er gefragt, ob er einen Tag kommen sähe, „an dem smarte Maschinen, angetrieben von künstlicher Intelligenz, im Gerichtssaal bei der Erbringung von Indizien helfen oder, sogar noch brisanter, Gerichtsurteile selbst fällen würden“. Er antwortete: „Dieser Tag wird kommen und es ist eine enorme Belastung in Bezug auf die Vorgehensweise der Justiz“.

Roberts bezog sich vermutlich auf den aktuellen Fall von Eric Loomis, der zu sechs Jahren Gefängnis verurteilt wurde und das zumindest zum Teil auf die Empfehlung einer proprietären Software eines Privatunternehmens hin. Loomis, der eine kriminelle Vergangenheit hat und wegen Flucht vor der Polizei in einem gestohlenen Wagen verurteilt wurde, behauptet nun, dass sein Recht auf einen fairen Prozess verletzt wurde, da weder er noch seine Vertreter in der Lage waren, den Algorithmus hinter der Empfehlung zu prüfen oder in Frage zu stellen.

Der Bericht wurde von einem Softwareprodukt mit dem Namen Compas erstellt, welches von der Nortpointe Inc an Gerichte vertrieben und verkauft wird. Das Programm ist eine Verkörperung eines neuen Trends innerhalb der KI Forschung: Es wurde entworfen, um Richtern dabei zu helfen, „bessere“ – oder zumindest besser fundierte – Entscheidungen im Gerichtssaal zu treffen.

Obwohl die spezifischeren Details zu Loomis‘ Bericht versiegelt bleiben, ist es wahrscheinlich, dass das Dokument eine Reihe von Tabellen und Diagrammen enthält, die Loomis‘ Leben, sein Verhalten und die Wahrscheinlichkeit der Rückfälligkeit quantifizieren. Vermutlich enthält es auch Informationen wie Alter, Herkunft, Geschlecht, Surfgewohnheiten und möglicherweise sogar die Maße seines Schädels. Der Punkt ist, dass wir es nicht wissen.

Was wir wissen ist, dass der Kläger in diesem Fall dem Richter erzählte, dass Loomis vor dem Prozess „ein hohes Risiko zur Gewaltausübung, ein enormes Rückfallrisiko“ zeigte. Das ist Standard, wenn es um Verurteilungen geht. Der Richter stimmte zu und teilte Loomis mit, dass er „durch die Compas-Einschätzung als ein Individuum identifiziert wurde, das ein großes Risiko für die Gesellschaft darstellt“.

Das oberste Gericht von Wisconsin sprach Loomis schuldig und fügte hinzu, dass der Compas-Bericht wertvolle Informationen für die Entscheidung eingebracht hat, schränkte dies allerdings sofort durch die Aussage, dass er ohne den Bericht die gleiche Strafe erhalten hätte, ein. Aber wie können wir das sicher wissen? Welche Art von Wahrnehmungsverzerrungen sind beteiligt, wenn ein allmächtiges, “smartes” System wie Compas vorschlägt, was ein Richter tun sollte?

Unbekannte Nutzung

Um eins klarzustellen, an dem, was das Gericht von Wisconsin gemacht hat, ist nichts ‚illegal‘ – es ist unter diesen Umständen nur eine schlechte Idee. Andere Gerichte können genau das Gleiche tun.

Beunruhigend ist, dass wir tatsächlich nicht wissen, in welchem Ausmaß KI und andere Algorithmen für Verurteilungen genutzt werden. Meine eigenen Nachforschungen zeigen, dass mehrere Gerichtsbezirke Systeme wie Compas in geschlossenen Verhandlungen “ausprobieren”, aber sie die Details der Partnerschaft oder wann und wo die Systeme genutzt werden, nicht veröffentlichen können. Wir wissen auch, dass es eine Zahl von KI-Startups gibt, die darum konkurrieren, ähnliche Systeme zu bauen.

Allerdings beginnt und endet die Benutzung von KI beim Gericht nicht bei der Verurteilung, sie beginnt bei den Ermittlungen. Ein System namens VALCRI wurde bereits entwickelt, um die arbeitsintensiven Aufgaben eines Kriminalanalysten innerhalb von Sekunden zu erledigen – das beinhaltet die Durchsuchung von Unmengen von Daten wie Texten, Laborberichten und Polizeidokumenten, um die Dinge hervorzuheben, die weitere Ermittlungen gewährleisten.

Die Polizei der britischen West Midlands wird VALCRI in den nächsten drei Jahren mit anonymisierten Daten austesten. Der Umfang beträgt 6,5 Millionen Dokumente. Eine ähnliche Testphase hat die Polizei im belgischen Abisher als problematisch eingestuft.

Vorteile für Wenige?

Die Gerichte haben aus der Technil bereits viele Vorteile gezogen – von Fotokopien über DNA-Fingerabrücke bis hin zu hochentwickelten Überwachungstechniken. Doch das bedeutet nicht, dass die Technologie an sich eine Verbesserung darstellt.

Obwohl die Nutzung von KI in Ermittlungen und Verurteilungen potenziell dabei helfen könnte, Zeit und Geld zu sparen, beinhaltet dies auch einige schwerwiegende Probleme. Ein Bericht über Compas von ProPublica stellte klar, dass es im Broward County in Florida für dunkelhäutige Angeklagte „viel wahrscheinlicher als für weiße Angeklagte war, fälschlicherweise mit einer zu hohen Rückfallwahrscheinlichkeit eingestuft zu werden”.

Die aktuelle Arbeit von Joanna Bryson, einer Professorin für Computerwissenschaft an der Universiät Bath, hebt hervor, dass sogar die “hochentwickeltsten” KIs die ethnischen und geschlechtsbezogenen Vorurteile derjenigen, die sie entworfen haben, erben können.

Worin liegt darüber hinaus der Sinn, die Entscheidungsfindung in Angelegenheiten, die besonders menschlich sind, (zumindest teilweise) auf einen Algorithmus abzuwälzen? Warum machen wir uns die Mühe, eine Jury aus Unseresgleichen auszusuchen? Der richterliche Standard war niemals perfekt, sondern eher das Beste, was unsere Fähigkeiten uns Menschen erlaubt. Wir alle machen Fehler, doch im Laufe der Zeit und mit Übung werden wir besser darin, diese nicht wieder zu begehen – und dabei entwickeln wir das System fortwährend weiter.

Was Compas und ähnliche Systeme vertreten, ist das ‚Black Boxing‘ des Rechtssystems. Diesem muss sich konsequent widersetzt werden. Rechtssysteme hängen von Informationskontinuität, Transparenz und Kritikfähigkeit ab. Was wir nicht als Gesellschaft wollen, ist ein Rechtssystem, das in eine Abwärtsspirale für KI-Startups führt, um die Produkte so schnell, günstig und exklusiv wie möglich abzuliefern. Während einige Beobachter für KI-Themen dies bereits seit Jahren haben kommen sehen, ist es jetzt hier – und es ist eine schreckliche Idee.

Eine nachprüfbare Open-Source-Version von Compas wäre ein Fortschritt. Trotzdem müssen wir sicher gehen, dass wir zuerst die Standards im Rechtssystem steigern, bevor wir damit beginnen, Verantwortlichkeiten auf Algorithmen abzuwälzen. KIs sollten nicht nur ein Grund sein, nicht zu ermitteln.

Während viel Geld mit KI gemacht werden kann, gibt es auch eine Menge echter Chancen. Sie kann vieles zum Besseren verändern, wenn wir es richtig machen und sicherstellen, dass die Vorzüge jedem zu Gute kommen und nicht nur die Macht an der Spitze der Pyramide zementieren.

Ich habe zu diesem Zeitpunkt keine perfekte Lösung für all diese Probleme. Aber ich weiß, dass wir in Bezug auf die Rolle der KI in der Rechtsprechung fragen müssen, in welchem Zusammenhang, zu welchem Zweck und mit welcher Aufsichtsführung sie eingesetzt wird. Bis diese Fragen mit Sicherheit beantwortet werden können, ist äußerste Skepsis gefragt. Oder zumindest der Kontakt zu ein paar sehr guten Anwälten.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „Richter“ by Daniel_B_Photos (CCO Public Domain)


The Conversation

Weiterlesen »

Die Netzpiloten sind Partner der ADTRADER CONFERENCE 2017

Partnergrafik_ADT

In Berlin findet am 18. Mai die ADTRADER CONFERENCE 2017 statt. Bei der Fachkonferenz für Programmatic Media geht es um die Themen Programmatic Buying und Real-Time Advertising, außerdem stehen Programmatic Advertising und Media Automation im Vordergrund. Seit 2011 werden bei der ADTRADER CONFERENCE 2017 tiefgreifende Veränderungen besprochen, die sich durch vernetzte Plattformen und den zunehmenden Einsatz von Audience Data in Marketing und Media ergeben.

Ihr seid genau richtig auf der ADTRADER CONFERENCE als Werbungtreibende, Mediaeinkäufer, Technologie- Anbieter und –Anwender, Datenspezialisten, Anbieter und wenn ihr in den Medien arbeitet. Die Konferenz zeichnet sich besonders dadurch aus, dass ihr dort Networking und Wissensaustausch auf höchstem Niveau betreiben könnt und dass sämtliche Key-Player des Marktes und die wichtigsten Entscheider der Programmatic-Szene anwesend sind.

Spannenden Themen

Das sind die wichtigsten Themen auf der diesjährigen Konferenz:

  • Qualität, Transparenz und Kontrolle – Voraussetzung für nachhaltiges Wachstum im Programmatic Media Segment
  • The Cost of „Programmatic“ – Wie beurteilt man Preis und Leistung von Programmatic Media?
  • ‚Walled Gardens‘ – die Grenzen von Programmatic – Auswirkungen für Markt und Operations u.v.m.
  • Programmatic Mobile – Wie sehen skalierbare Formate und Solutions aus?

Hier geht’s zum vollständigen Programm. Zu den Speakern, die dieses Jahr auf der ADTRADER CONFERENCE 2017 sind, gehören:

Die Location ist das Kosmos in Berlin. Hier könnt ihr euch Tickets für die Veranstaltung sichern.

Weiterlesen »

Fabian Westerheide über Künstliche Intelligenz

Neural (adapted) (Image by geralt [CC0 Public Domain] via pixabay)

Dieser Beitrag ist Teil einer Artikelreihe im Vorfeld der Digitalkonferenz EXPLAINED von Microsoft Deutschland. Die Konferenz findet am 23. März 2017 in Berlin statt.


Künstliche Intelligenz (KI) und die Frage, was den Menschen und die Maschine zusammenbringt, treibt den Unternehmer, Venture Capitalist, Autor und Redner Fabian Westerheide um. Nachdem er in verschiedene Unternehmen investierte, ist er seit 2014 Geschäftsführer von Asgard – human VC for AI und leitet die KI-Konferenz Rise of AI. Außerdem ist er Koordinator für Künstliche Intelligenz beim Bundesverband Deutscher Startups. Ich habe mich mit ihm im Vorfeld zur Digitalkonferenz EXPLAINED von Microsoft Deutschland, bei der er als Speaker auftreten wird, zum Interview getroffen.

Was fasziniert Sie an Künstlicher Intelligenz?

Das war ein Prozess. Ich komme vom Land und habe schon immer an Computern herumgebastelt und mich für die Auswirkungen zwischen Mensch und Maschine interessiert. Dann bin ich Unternehmer geworden und habe in insgesamt 35 Firmen investiert, von denen die meisten aus dem Softwarebereich stammen. Irgendwann wusste ich, dass das Thema Künstliche Intelligenz, was mich durch Science-Fiction-Literatur schon seit den Achtzigern beschäftigt hat, endlich greifbar wurde. Mich fasziniert vor allem, dass es so ein komplexes Thema ist und wirtschaftliche, gesellschaftliche, militärische und politische Konsequenzen hat. Es betrifft sowohl Unternehmen als auch den einzelnen Menschen, es betrifft letztlich die ganze Menschheit. Das ist ein Thema, bei dem ich meine ganze Begeisterung für Politik und Gesellschaft einfließen lassen kann. Und ich fühle mich sehr wohl damit, weil es um mehr als Geldverdienen geht. Künstliche Intelligenz kann wirklich die Menschheit verändern – in die eine oder in die andere Richtung.

Was ist der nächste Entwicklungsschritt für die Künstliche Intelligenz?

Die Maschine muss noch besser lernen zu lernen. Das bedeutet, dass sie mit wenige Daten zurecht kommt und mit weniger Transferwissen arbeiten kann. Zum Beispiel kann man derzeit eine KI, die ein bestimmtes Auto fährt, nicht einfach in ein anderes selbstfahrendes Auto verpflanzen. Man kann sie auch nicht benutzen, um mit ihr mit Aktien zu handeln oder ein Flugzeug zu fliegen. Sie ist eigentlich ziemlich idiotisch angelegt und genau auf ihre Hardware programmiert. Innerhalb dieser Grenzen kann sie aber jederzeit weiterlernen. Wir müssen also den Schritt schaffen, dass die Software Hardware-unabhängig wird und Vorwissen aufbauen kann. Vor ein paar Wochen hat Google Deep Mind ein sehr interessantes Paper veröffentlicht, wo sie mit einer KI ein Spiel gespielt haben. Dieselbe KI wurde verwendet, um ein neues Spiel zu lernen. Die KI wurde also deutlich besser, weil sie über das Wissen verfügt, wie man so ein Spiel spielt. Sie konnte es auf ein anderes Spiel übertragen und dadurch besser werden als eine KI, die nur auf dieses eine Spiel hin programmiert wurde.

Ist das der Schritt zwischen einem gut funktionierenden Algorithmus und einem denkenden Wesen? Ich gebe zu, ich scheue mich etwas, diesen Prozess schon als Denken zu bezeichnen. Ich würde eher sagen, es ist eher ein Weiterverarbeiten. Oder fängt das Denken hier schon an?

Das ist schwierig zu sagen, hier fängt eigentlich eher die nächste Diskussion an: Denkt der Mensch wirklich, oder sind wir nicht viel eher hormon- und instinktgetrieben? Wie viel davon ist durch unser Unterbewusstsein bestimmt? Die meisten Menschen treffen Entscheidungen im Bruchteil einer Sekunde. Wir nennen das Bauchgefühl oder Instinkt. Eigentlich ist es aber eine Erfahrungskurve. Wir brechen unsere Erfahrungen herunter und denken nicht darüber nach, sondern handeln. So ist es bei der Maschine auch. Sie können noch nicht auf 20 Jahre Berufserfahrung zurückgreifen oder auf eine jahrelange Erziehung. Wir als Menschen hingegen haben ungeheuer viel Input verarbeitet und sind biologisch dafür ausgelegt, alles abzuspeichern. Seit es im Jahr 2012 den großen Durchbruch mit den neuronalen Netzen gegeben hat, haben die Maschinen auch ein Kurzzeitgedächtnis. Was noch fehlt ist ein Langzeitgedächtnis und das Abstraktionslevel. Und genau das passiert gerade: Wir bauen Schritt für Schritt ein kollektives Gedächtnis auf, eine Art Schwarmintelligenz. Wir müssen also noch nicht einmal eine menschenähnliche KI haben, um zu erreichen, dass sie denkt, sondern wir brauchen eine KI, die untereinander kommuniziert und kollektiv Wissen verarbeitet. Wenn ein Auto beispielsweise einen fatalen Fehler macht, wie es bei dem Tesla-Unfall mit dem LKW geschehen ist, dann passiert ihm das ein einziges Mal. Seit diesem Vorfall können alle hunderttausende Teslas da draußen LKWs erkennnen. Das ist eine Intelligenzleistung, die mehr schafft als ein einzelner Mensch.

Image by Fabian Westerheide
Image by Fabian Westerheide

Wir müssen die KI also nicht nur schulen, sondern auch erziehen?

Genau das. Der Hirnforscher Danko Nikolic sagt, wir brauchen einen KI-Kindergarten, eine Art DNA für künstliche Intelligenz. Ich finde diese These sehr interessant. Wir müssen es schaffen, diese Lernalgorithmen einer KI beizubringen. Sie muss lernen zu lernen, damit sie weiß, wie man selbst Wissen generiert. Das können wir Menschen besonders gut. Die KI kann das noch nicht, also wird der Durchbruch im Lernalgorithmus die nächste Stufe sein. Dann muss man sie trainieren, ausbilden und erziehen, wie man Kinder erzieht. Wenn das passiert, wird das, was wir jetzt haben, schneller und auch deutlich interessanter. Eine KI hat noch keine Eigenmotivation, ich weiß aber, dass Teams bereits daran arbeiten.

Welche Jobs sind bisher immer noch nicht vollständig durch Maschinen ersetzbar? Wo geht hier die Entwicklung hin?

Momentan sind es zwei: Menschen und Komplexität. Wir sind Menschen und wollen deshalb natürlich weiterhin menschliche Interaktion. Ich behaupte, dass ‚Made by Humans‘ irgendwann bei Produkten ein Qualitätsmerkmal sein wird, für das die Leute mehr bezahlen werden. Bei der Interaktion kann es zu einer Mischung kommen: In der Pflege werden wir Pflegeroboter haben, die uns beispielsweise dabei helfen, den schweren alten Mann zu wenden, aber die menschliche Komponente muss erhalten bleiben. Eine KI nimmt dich nicht in den Arm, sie kann aber konkrete Ergebnisse liefern. Das dauert wohl aber noch gut 10 bis 15 Jahre. Eine KI kann erkennen, wie Prozesse am besten durchzuführen sind, aber bei emotionaler Intelligenz muss sie eben passen. Wir brauchen keinen menschlichen Maler, aber einen menschlichen Innenarchitekten. Je einfacher der Job ist, desto eher können wir ihn durch die Maschinen erledigen lassen. Sie hat aber noch immer ein Problem mit der Motorik, das haben wir noch nicht gelöst. Softwaretechnisch hingegen ist sie uns natürlich haushoch überlegen, jeder Taschenrechner kann besser rechnen als du und ich.

Wir müssen der KI auch Kontext beibringen, damit sie uns wirklich helfen kann.

Bei Service-KIs funktioniert das sogar schon. Die KI kann erkennen, ob der Kunde gut oder schlecht gelaunt ist, ob er etwas umtauschen will und ob sie ihm noch mehr Angebote machen soll oder nicht. Das würde ich schon als Kontext bezeichnen. Jeder, der schon einmal Kundensupport gemacht hat, wird das kennen – man muss Zweideutigkeit erkennen und das kriegen schon wir Menschen manchmal nicht ordentlich hin. Wie wollen wir da erwarten, dass die KI es besser macht? Der erste Schritt ist also: Sie muss lernen, es zumindest schon einmal besser zu machen als der Schlechteste von uns.

Wenn man manche Artikel liest, werden die Maschinen oft sehr dystopisch als unser Untergang beschrieben, sowohl gesellschaftlich als auch arbeitstechnisch. Wie gehen Sie mit dieser Angst der Menschen um?

Ich erlebe es ab und zu, dass die Menschen bei einem gewissen Level fast schon technologiefeindlich sind und regelrecht Angst vor der KI haben. Aber ich finde, dass Probleme wie die globale Erwärmung, der Terrorismus oder auch nur zu viel Zucker im Blut viel gefährlicher für die Menschheit sind. Wir sollten wirklich versuchen, etwas unaufgeregter an das Thema KI heranzugehen. Ja, die Digitalisierung frisst eine Menge Jobs. Aber das ist doch super! Niemand muss mehr langweilige Jobs machen, wir haben viel mehr freie Zeit. Wir können die KI benutzen, um in unserer Tätigkeit noch produktiver zu sein. Wir können so sogar mehr Jobs nach Europa holen, weil es günstiger und effektiver ist, die Handgriffe an eine KI outzusourcen als an irgendwelche ausgebeuteten Clickworker in Indien. Das Ganze bringt einen enormen strukturellen Wandel mit sich, weil wir uns von der Industriegesellschaft zur Servicegesellschaft und auch zu einer Wissensgesellschaft wandeln.

Die Großkonzerne von heute haben bereits begriffen, dass sie sich entwickeln müssen, sie tun sich damit aber noch etwas schwer. Das sind reine Industrieunternehmen, die aus einer ganz anderen Hierarchie und einer anderen kulturellen Epoche kommen. Künstliche Intelligenz ist hier nur die Spitze des Eisberges, denn unsere Industrie ist nicht für digitale Umbrüche gerüstet. Wir sind an dieser Stelle in kultureller Hinsicht noch komplett falsch aufgestellt.

Wie steht es um die Entwicklung von Künstlicher Intelligenz in Deutschland?

Das deutsche Problem daran ist, dass wir mal wieder den Trend verschlafen. Es gibt kaum KI-Unternehmen hierzulande – wir sind eher auf den abgeschlagenen Plätzen zu finden. Im Moment sind die US-amerikanischen KI-Unternehmen besser finanziert und es gibt viel mehr Firmen als hier, obwohl der Markt nicht so groß ist wie unserer. Es geht auch nicht darum, noch etwas zu entwickeln, dass uns unser Essen schneller liefert, sondern darum, dass uns eine strategische Entwicklung entgeht. Wir brauchen endlich mehr Forschung, mehr Kapital und mehr Unternehmen in Deutschland und Europa, um eine strategisches, wirtschaftliches und politisches Gegengewicht herstellen zu können. Nur dann können wir auf Augenhöhe miteinaner verhandeln.


Image (adpated) „Neural“ by geralt (CC0 Public Domain)


Weiterlesen »

Netzpiloten sind Partner des Kindermedienkongress 2016

Am 14.11.2016 von ca. 10.00 – 18.00 Uhr veranstaltet die Akademie der Deutschen Medien wieder einmal einen Kindermedienkongress im Literaturhaus München. Das diesjährige Thema ist „Snapchatter, Pokémon GO-Jäger und … Leser? Wie Content Kids auch morgen noch überzeugt“.

Heutzutage starten Kinder immer früher mit Social Media, mobile Games und anderen digitalen Medien auf Smartphone und Tablet. Gleichzeitig geht in manchen Kindermediensparten der Trend wieder stärker Richtung Print. Was bedeutet das konkret für Verlage und Medienhäuser? Was macht erfolgreiche kanalübergreifende, multimediale Produkt- und Markenwelten für Kinder aus? Was sind die bisherigen Learnings der Medienhäuser aus dem Digitalbusiness und welche Konzepte haben neben Candy Crush und Co. überhaupt eine Chance? Welche Möglichkeiten bieten Snapchat, Youtube, Instagram und Co., um Kinder und Eltern besser zu erreichen? Und wie werden Printmedien heute erfolgreich? Das sind Fragen, die auf dem Kindermedienkongress geklärt werden.

Das Programm gestaltet sich kreativ: Unter anderem redet Axel Dammler, geschäftsführender Gesellschafter von iconkids & youth über das Thema „Alles Smartphone oder was? Mediennutzung von Kindern und Jugendlichen“. Axel Dammler ist dieses Jahr auch Moderator des Kindermedienkongresses. Außerdem dabei: Daniel Zoll, Redaktionsleiter von JAM FM, das RTL Radio Center Berlin sowie Snapchat – Fakten, Trends und Nutzungspotenzial für Medienunternehmen. 

Mehr Infos zu den anderen Beiträgen erhaltet ihr auf der Seite des Events.

Weiterlesen »

FollowUs – Die Netzpiloten-Tipps aus Blogs & Mags

Follow me
  • APPLE t3n: 200.000 Dollar Belohnung: Apple startet sein erstes Bug-Bounty-Programm: Apple startet erstmals ein Bug-Bounty-Programm. Security-Chef Ivan Krstic verkündete das Programm am Donnerstag offiziell in einer Konferenz. Im Gegensatz zu Google, Facebook und Microsoft lässt Apple aber nicht alle Interessierten mitmachen, sondern nur eingeladene Personen. Eine Einladung bekommen laut TechCrunch nur Sicherheitsforscher, die den Konzern bereits auf Bugs hingewiesen haben.
  • FACEBOOK theverge: Facebook is stepping up its war on clickbait in the News Feed: Wenn Medienseiten in Zukunft versuchen, über reißerische Überschriften mehr Klicks zu erlangen, dann wird das der neue Algorithmus von Facebook erkennen. Auch das Fehlen von Informationen oder generell falsche Aussagen hat laut dem Konzern bald schwerwiegende Konsequenzen in der Reichweite. Damit will Facebook gegen Accounts vorgehen, die bewusst Leser durch falsche Überschriften zu einem Klick bringen. Vielleicht trägt Facebook damit zu einer besseren Medienqualität auf der Plattform bei.
  • DATENSCHUTZ sueddeutsche: Warum es keine gute Idee ist, Passwörter regelmäßig zu ändern: Häufige Änderungen der Passwörter ist das Beste, was man machen kann, um seine digitalen Accounts zu schützen. Das dachten zumindest viele Menschen und selbst Twitter predigte seinen Nutzer, Passwörter oft zu wechseln. Das Tech-Blog Ars Technica hat nun im Rahmen eines Projektes mehrere Studien zusammengefasst, die sich mit dem Thema Passwort und Sicherheit auseinandersetzen. Dabei ist herausgekommen, dass eine häufige Änderung kaum Sicherheit bringt. Es sind lange und einzigartige Passwörter, die es Hackern fast unmöglich machen an Account-Informationen zu gelangen. In einer weiteren Untersuchung kam erschreckenderweise heraus, das „123456“ und „password“ die beliebtesten Passwörter seien.
  • HERMES golem: Hermes lässt Pakete per Roboter zustellen: Der Paketdienst Hermes testet mit kleinen Robotern die Paketzustellung in Hamburg. Die Roboter stammen von Starship, fahren auf sechs Rädern und sind mit einer Alarmanlage ausgestattet. Ab Ende August 2016 soll der Testbetrieb aufgenommen werden. Das System wurde von Starship nach eigenen Angaben schon in London, Washington und Tallinn in Estland erprobt.
  • DROPBOX PAPER t3n: Dropbox Paper: Textbearbeitung für Teams soll Google Docs und Slack Konkurrenz machen: Dropbox Paper ist nun als offenene Beta erhältlich. Diese App für iOS und Android soll die Textbearbeitung im Team erleichtern. Ähnlich wie bei Google Docs und Slack sollen Mitarbeiter von unterschiedlichen Orten aus auf Dokumente oder Projekte zugreifen und diese synchron bearbeiten können. Nach einem Jahr interner Tests ist Dropbox Paper nun als offene Beta zugänglich.
Weiterlesen »

#rp13: Unsere Sessiontipps für den zweiten Tag

Gestern begann die Digitalkonferenz re:publica und auch in diesem Jahr erwartet die Besucher ein riesiges Programm. Wir sagen euch, was ihr am zweiten Tag nicht verpassen dürft.

rp13-Schlange (Bild: Tobias Schwarz, CC BY-SA)

Aus den über 450 Sprecherinnen und Sprechern, 263 Vorträgen, Diskussionen und Workshops, verteilt auf 11 Bühnen, haben wir für euch die heutigen Höhepunkt der Sessions aus dem Bereich ?Business & Innovation? heraus gesucht. Am zweiten Tag stehen das Thema Mobilität und Digitalisierung im Mittelpunkt des Geschehens.

Weiterlesen »

Weiterlesen »

#rp13: Unsere Sessiontipps für den ersten Tag

Heute beginnt die Digitalkonferenz re:publica und auch in diesem Jahr erwartet die Besucher ein riesiges Programm. Wir sagen euch, was ihr am ersten Tag nicht verpassen dürft.

Leere rp13-Halle (Bild: Tobias Schwarz, CC BY-SA 3.0)

Aus den über 450 Sprecherinnen und Sprechern, 263 Vorträgen, Diskussionen und Workshops, verteilt auf 11 Bühnen, haben wir für euch die heutigen Höhepunkt der Sessions aus dem Bereich ?Business & Innovation? heraus gesucht. Am ersten Tag stehen das Thema Innovation und Kapitalismus im Mittelpunkt des Geschehens.

Weiterlesen »

Weiterlesen »

Das Programm für die NEXT Berlin 2012 ist ab sofort online

2012

„Das Internet transformiert die Wirtschaft weit stärker als weithin gedacht. Die NEXT richtet den Blick auf die aktuellen Trends und die signifikanten Themen der kommenden 12 bis 24 Monate und liefert ungefilterte Inspiration“ (NEXT-Chairman Matthias Schrader).

Digitale Technologien haben Märkte, Medien und Menschen radikal verändert. Auf der NEXT Berlin werden über 100 Top-Referenten aus Wirtschaft, Politik und Gesellschaft diesen Wandel kommentieren, ihre Strategien und Innovationen präsentieren und einen Blick in die Zukunft wagen.

Das Ganze wird vom 8. & 9. Mai im Rahmen der Berlin Web Week stattfinden und nachdem vor einigen Tagen ein paar der wichtigsten Sprecher bekannt wurden, ist nun auch die erste Version des Programms der Konferenz online einsehbar.

NEXT-Gründer Matthias Schrader (CEO SinnerSchrader) und Martin Enderle (Senior VP Digital Services der Telekom) werden die Konferenz als Chairman leiten, die dieses Jahr unter dem Motto “Post-Digital” steht.

Digitale Pioniere wie Russel Davies (R/GA), Alexandra Deschamps-Sonsino (Designswarm), Ulla-Maaria Engeström (ThingLink), Jeremy Abbett(Truth Dare Double Dare) und Chris Heathcote (Dentsu London) werden in die Zukunft unserer vernetzten Welt blicken und erklären, was auf die Digitalisierung folgt. Viele Vorträge und anschauliche Beispiele greifen auf der NEXT futuristische Themen auf: Roboter, 3D-Drucker, mobile Gadgets von morgen, die DIY-Erfindungen von Vertretern des Maker Movements und weitere technologische Innovationen werden zu sehen sein.

Wer sein eigenes Start-up noch ein wenig mehr in die Wahrnehmung der Branche bringen möchte, hat die Chance, sich beim Start-up-Pitch zu bewerben. Seit zwei Tagen kann die NEXT-Community für ihre Favoriten abstimmen. Die Kandidaten mit den meisten Stimmen können es dann unter die 12 Kandidaten schaffen, die die NEXT-Jury dazu auswählt, sich im Live-Wettbewerb auf der Konferenz messen zu dürfen.

Die Fachjury wird die Präsentationen der Start-ups dann beurteilen und dem Gewinner am Abend des 8. Mai ein Start-up-Pitch Package im Wert von 10.000 Euro überreichen. In der hochkarätig besetzten Jury sind: Stefan Glänzer (White Bear Yard), Jörg Rheinboldt (M10), Nate Elliott (Forrester), Charlie O’Donnell (Brooklyn Bridge Ventures), Peter Borchers (Head of Entrepreneurs Program, Telekom), Patrick Meisberger (T-Venture) und Mike Butcher (TechCrunch).

Weiterlesen »