All posts under AlphaGo

Alpha Go & Co.: So schnell lernt die Google-KI

P2121011 (adapted) (Image by Strelban [CC0 Public Domain] via flickr)

Erst im vergangenen Jahr schlug AlphaGo von Google DeepMind große Wellen in der Welt der Künstlichen Intelligenz, indem es zeigte, dass ein Computerprogramm die besten menschlichen Go-Spieler der Welt schlagen kann.

Wie rasend schnell der Fortschritt in der modernen KI-Forschung voranschreitet, zeigen Details, die die Fachzeitschrift Nature vor wenigen Wochen veröffentlicht hatte. Hier wurde eine verbesserte Version des Programms namens AlphaGo Zero präsentiert. Mit weniger Rechenleistung und nur drei Tagen Trainingszeit schlug AlphaGo Zero das originale AlphaGo in einem 100-Satz Spiel mit 100 zu Null. Eine menschliche Aufsicht war dafür nicht vonnöten.

Das Go-Spielen erlernen

Go ist ein Strategiespiel, in dem zwei Spieler abwechselnd Steine auf ein Spielbrett mit 19 x 19 Feldern platzieren. Das Ziel des Spiels ist es, einen größeren Bereich des Bretts zu umringen als der Gegenspieler.

Go zu meistern, hat sich für Computer als eine bedeutend größere Herausforderung erwiesen als Schach. So gibt es deutlich mehr mögliche Züge in den einzelnen Positionen bei Go als bei Schach. Ebenso wie es deutlich mehr mögliche Spielvarianten gibt.

Das originale AlphaGo erlernte die KI dadurch, dass sie mehr als 30 Millionen Züge von menschlichen Experten studierte. Sie verbesserte sich anschließend auch außerhalb der menschlichen Expertise, indem sie über einen Zeitraum von mehreren Monaten unzählige Spiele gegen sich selbst spielte.

Im Gegensatz dazu sah AlphaGo Zero niemals Menschen beim Spielen zu. Stattdessen begann das Nachfolgeprogramm das Training, indem es lediglich die Spielregeln lernte. Durch eine verhältnismäßig geringe Anzahl von fünf Millionen Spielen gegen sich selbst, für die das Programm nur drei Tage auf einem schwächeren Computer als das originale AlphaGo benötigte, brachte es sich anschließend eine Leistungsfähigkeit jenseits von AlphaGo bei.

Faszinierend ist, dass der Lernprozess des Programms grob einige der Stationen des menschlichen Fortschrittsprozesses beim Meistern des Go-Spielens imitierte. AlphaGo Zero lernte zügig, allzu kurzsichtige Züge zu ignorieren, und entwickelte stattdessen strategischere Denkweisen, durch die es viele der Schemata und Spielzüge generierte, derer sich auch menschliche Weltklasse-Experten häufig bedienen. Bemerkenswerterweise begann es dann, einige dieser Schemata abzulegen und durch neue Strategien zu ersetzen. Die waren so noch nie zuvor in menschlichen Spielen zu sehen.

Jenseits des menschlichen Spiels

Dieses Kunststück gelang AlphaGo Zero dadurch, dass es das Problem anders anging als das originale AlphaGo. Beide Versionen verwenden eine Kombination aus den beiden aktuell leistungsfähigsten KI-Algorithmen: Deep Learning und Bestärkendes Lernen.

Um ein Spiel wie Go zu spielen, muss das Programm zunächst zwei grundlegende Dinge lernen. Das erste ist ein Grundsatz: die Wahrscheinlichkeit, jeden der möglichen Züge in einer gegebenen Position zu machen. Das zweite ist eine Wertigkeit: die Wahrscheinlichkeit, von jeder gegebenen Position aus zu gewinnen.

In dem ausschließlich auf Abwehr basierendem Ansatz von AlphaGo Zero war die einzige Information, die zum Erlernen von Grundsätzen und Wertigkeiten zur Verfügung stand, eine Vorab-Voraussage darüber, wer letztendlich gewinnen wird. Die Grundlage für diese Voraussage bildeten jeweils die aktuellen Grundsätze und Wertigkeiten, wobei diese zu Beginn noch willkürlich gesetzt waren.

Dieser Ansatz ist zwar zunächst deutlich herausfordernder als der des originalen AlphaGo, das sich durch das Beobachten menschlicher Experten-Züge einen Startvorteil für den eigenen Lernprozess verschaffte. Dafür erlernte die frühere Version jedoch Grundsätze und Wertigkeiten auf der Basis separater neuraler Netzwerke.

Der algorithmische Durchbruch bei AlphaGo Zero bestand schließlich daraus, herauszufinden, wie diese zu einem einzigen Netzwerk kombiniert werden können. Dies eröffnete die Möglichkeit, den Trainingsprozess durch das Spielen mit sich selbst deutlich zu vereinfachen. So ermöglichte die KI einen unbeschwerten Neubeginn ihrer Taktiken – frei von den Strategien menschlicher Experten.

Wie AlphaGo Zero das Go-Spiel zu meistern lernte

Beim Elo-Rating handelt es sich um ein weit verbreitetes Messinstrument für die Leistungsstärke von Go- oder Schach-Spielern. Der bisher beste menschliche Go-Spieler namens Ke Jie hat momentan ein Elo-Rating von ca. 3.700. Alpha Go Zero trainierte drei Tage lang und erreichte ein Elo-Rating von mehr als 4.000. Eine erweiterte Version desselben Algorithmus trainierte 40 Tage lang und erzielte ein Rating von beinahe 5.200.

Dies ist ein erstaunlich großer Leistungsunterschied im Vergleich zum besten menschlichen Spieler – deutlich größer als der zwischen dem besten menschlichen Schach-Spieler Magnus Carlsen (ca. 2.800) und dem momentan leistungsstärksten Schach-Programm (ca. 3.400).

Die nächste Herausforderung

Für die Künstliche Intelligenz markiert AlphaGo Zero einen wichtigen Schritt nach vorne, weil es die Umsetzbarkeit eines einzig auf Bewehrung basierenden Lernens demonstriert, das völlig befreit von jeglicher menschlichen Lenkung ist. Auf diese Weise erübrigt sich eine große Ansammlung von menschlichem Expertenwissen, das oft nur schwer zugänglich sein kann, um die KI in Gang zu bringen.

Es bedeutet außerdem, dass der Algorithmus in der Lage ist, völlig neue Ansätze zu entwickeln, die möglicherweise deutlich schwerer zu finden gewesen wären, solange er von Vornherein in einer menschlichen Denkweise verankert sein musste. Bemerkenswerterweise erweist sich diese Strategie auch noch als effizienter im Hinblick auf die benötigte Rechenleistung.

Go ist jedoch ein anspruchsvolles Spiel, das auf perfekter Information basiert. Es kommt ohne die Unordnung aus, die die meisten Probleme in der echten Welt auszeichnet. Das Training von AlphaGo Zero benötigte die akkurate Simulation von Millionen von Spielen, die den Regeln des Go-Spiels folgten. Für viele praktische Probleme sind derlei Simulationen entweder rechnerisch nicht umzusetzen oder die Regeln selbst sind weniger klar definiert.

Bevor eine KI kreiert werden kann, die allgemeinen Zwecken dient, die ein weites Feld an praktischen Problemen ohne bereich-spezifische menschliche Intervention in Angriff nehmen kann, müssen noch viele weitere Probleme gelöst werden.

Doch auch wenn die Menschheit für den Moment den Kampf gegen die Go-Algorithmen verloren hat: Künstliche Intelligenz ist – im Gegensatz zu Go – kein Nullsummen-Spiel. Viele Spiele von AlphaGo Zero wurden jetzt veröffentlicht und bieten eine ganze Lebenszeit inspirierender Studien für menschliche Go-Spieler.

Wichtiger ist allerdings, dass AlphaGo Zero einen Schritt in Richtung einer Welt repräsentiert, in der Menschen leistungsstarke KIs zu Rate ziehen können, um für Menschen unvorstellbare kreative Lösungen für komplizierte Probleme zu finden. In der Welt der Künstlichen Intelligenz gab es niemals eine bessere Zeit, um es einfach einmal zu versuchen.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „P2121011“ by Strelban (CC0 Public Domain)


The Conversation

Weiterlesen »

Kann uns AlphaGo bei der Bewältigung des Klimawandels helfen?

Künstliche Intelligenz (image by 849356 [CC0 Public Domain] via Pixabay)new

Anfang März hat zum ersten Mal überhaupt ein Computer (Genauer: Das Computer-Programm AlphaGo) gegen einen Menschen das asiatische Brettspiel Go gewinnen können. Bereits früher haben Computer gegen Menschen in verschiedenen Spielen gewinnen können. So gewann 1997 der IBM-Computer Deep Blue gegen den damaligen Schach-Weltmeister Garri Kasparow, 2011 gewann der IBM-Computer Watson zum ersten Mal in der US-TV-Show Jeopardy! gegen die menschlichen Mitspieler.

Beim Brettspiel Go ist das besondere jedoch, dass die übliche Logik der Programmierung der Maschine durch bloßes Eingeben aller denkbaren Züge, um aus jeder Situation heraus die relativ optimale Entscheidung zum nächsten Zug treffen zu können, nicht mehr ausreicht, um den Spielablauf bewältigen zu können.

Bereits nach dem Legen des zweiten Steins im Spiel Go gibt es theoretisch über 100.000 denkbare Spiel-Konstellationen. Die Gesamtzahl der in einem Spiel theoretisch denkbaren Züge liegt über der Zahl der Atome im gesamten Universum. Da ist es nachvollziehbar, dass dieser Möglichkeitsraum mit einer händisch konfigurierten Entscheidungslogik nicht mehr abbildbar ist.

Somit ist die zu Google gehörende Firma DeepMind andere Wege gegangen und hat begonnen, die Methode des Deep Learning anzuwenden. Beim Deep Learning lernen Computer ebenso wie ihre menschlichen neuronalen Pendants mit Hilfe künstlicher Neuronen, die in Layern nacheinander geschaltet sind und von Layer zu Layer (daher der Begriff “Deep” Learning) zu einer akkurateren Aussage (Output) bezüglich des zu analysierenden Inputs (Bilder, sonstige Daten) kommen (eine sehr gute Beschreibung des gesamten Lernprozesses findet sich auf der verlinkten Golem-Seite).

Durch “Trainieren” der Neuronen ist es möglich, im Laufe der Zeit zu immer besseren Ergebnissen in der Analyse des Inputs zu kommen. Erst dadurch ist es AlphaGo möglich geworden, die im Spiel Go geforderte Intuition angesichts der schier unendlichen Zahl von Entscheidungsmöglichkeiten händelbar zu machen.

AlphaGo als letzter Schritt zur Erreichung der technischen Singularität?

Das Spannende an dieser Methode ist, dass irgendwann selbst die Projektverantwortlichen nicht mehr erklären konnten, warum der Algorithmus in der Weise entscheidet wie er entscheidet. Übertragen auf den Go-Wettbewerb, wurde immer wieder betont, dass AlphaGo Züge gemacht habe, die nach menschlichem Ermessen keinen Sinn machten.

Dass der menschliche Sinn an dieser Stelle vielleicht nicht mehr ausreicht, um die Maschine zu verstehen, wird deutlich, wenn man die Vorhersagen des neuronalen Netzwerkes betrachtet. Dieses war speziell mit der Berechnung der Gewinnwahrscheinlichkeit von AlphaGo befasst und hatte in den meisten Fällen die Niederlage des Menschen bereits richtig vorhergesehen, als alle anderen anwesenden Menschen dies überhaupt noch nicht erkannten. Damit aber hat der Computer ein Maß an Intuition und Urteilsfähigkeit bewiesen, wie man es vor noch nicht einmal 2 Jahren in der Fach-Community allenfalls und frühestens für das Jahr 2024 vorhergesehen hatte.

Erreichen wir damit das Zeitalter der technischen Singularität schneller als vorhergesagt? Das Zeitalter, in dem sich Maschinen schneller selbst weiter entwickeln als es der menschliche Experten nachzuvollziehen im Stande ist? Nicht umsonst ist im Jahre 2012 einer der prominentesten Vertreter der Vorstellung von der technologischen Singularität – Raymond Kurzweil – ausgerechnet zu Google gewechselt.

Der Mensch als hybrides Wesen?

Vor einiger Zeit hatte Kurzweil seine These bekräftigt, nach der Menschen spätestens ab 2030 als hybride Lebenwesen mit einer Schnittstelle ins Internet existieren würden.

Betrachtet man die Forschung um AlphaGo und die Thesen von Kurzweil gemeinsam, so wird automatisch ein weitergehendes offensichtliches Ziel der Google Projekte sichtbar. Technologische Singulartität wird als der Zeitpunkt in der Zukunft beschrieben, ab dem sich Maschinen mittels Künstlicher Intelligenz selbst weiterentwickeln und sich damit dem Verständnis der Menschen entziehen; wird dies kombiniert mit Künstlicher Intelligenz, die zunehmend intuitiv entscheiden kann, so ist die Selbständigkeit der Maschinen plötzlich in zeitlich absehbarer Zeit denkbar:

And it’s different from a program you’ve hand-crafted where you know all the nuances of what you can do: here it has picked up things for itself

Menschliche versus algorithmische Erkenntnis?

Die eine Möglichkeit, auf diese sich anbahnenden Entwicklungen einzugehen, wäre diese zu kritisieren und ein Schreckensszenario zu skizzieren, das stark an die kulturpessimistischen Terminator-Filme des letzten Jahrhunderts erinnert. Ganz in Tradition eines deutschen Kulturpessimismus konnte mit Blick auf das Go-Experiment schnell festgestellt werden:

Das birgt eine Gefahr: Wenn wir uns auf die Vorhersagen der Rechenmaschinen verlassen, ohne zu begreifen, wie diese Vorhersagen zustandekommen, verabschieden wir uns vom Grundprinzip wissenschaftlicher Erkenntnis

Dieses Mal beschränkt sich allerdings die Sicht auf die Künstliche Intelligenz und AlphaGo nicht nur auf deutsche Medien. Auch Elon Musk, Bill Gates und Stephen Hawking haben in den letzten beiden Jahren immer wieder vor der Vernichtung des Menschen durch eine künstliche Intelligenz gewarnt. So stellte Hawking vor 2 Jahren in einem BBC-Interview fest:

“The development of full artificial intelligence could spell the end of the human race.”

Sind denn Atomwaffen und Klimawandel moralisch und rational?

Anfang diesen Jahres betonte er dann aber auch, dass es vor allem die menschengemachten globalen Krisen seien – Atomwaffenproduktion, Klimawandel und genetisch modifizierte Viren – die langfristig die Existenz des Menschen gefährden würden. Spannnend ist dann an dieser Stelle, die aktuellen Einlassungen von Hawking mit dem Statement von Google in Hinblick auf das Go-Experiment in Einklang zu bringen. Denn Google schreibt im Google Blog zur weiteren Zielsetzung des AlphaGo-Experiments:

Ultimately we want to apply these techniques to important real-world problems. Because the methods we’ve used are general-purpose, our hope is that one day they could be extended to help us address some of society’s toughest and most pressing problems, from climate modelling to complex disease analysis.

Künstliche Intelligenz oder auch Superintelligenz müssen also nicht zwangsläufig in einer Apokalypse enden. Vielleicht ist es gerade der Schritt hin zur extensiven Nutzung der Künstlichen Intelligenz, der uns vor den Folgen unserer eigenen Fehler bewahren kann?

Künstliche Intelligenz als Ausweg aus globaler Komplexität?

In einer Zeit, in der globale und gesellschaftliche Komplexität mit den nicht mehr absehbaren direkten und indirekten Folgen interdependenter Handlungen und Akteure immer mehr an Dynamik gewinnt, wäre es doch hilfreich, eine Künstliche Intelligenz an seiner Seite zu wissen, von der zumindest glaubhaft vermutet werden kann, dass sie Muster und Logiken in der menschlich nicht mehr nachvollziehbaren Komplexität erkennt:

Neural networks can be used in all sorts of settings that demand the human-like capacity to evaluate various strategies under conditions of uncertainty.

Dass sich hingegen ausgerechnet der Mensch mit seiner jahrtausendealten Tradition der Kriege und der in der Neuzeit erworbenen Fähigkeit, sich seiner eigenen Lebensgrundlagen auf globaler Ebene zu berauben, herausnimmt, Maschinen oder Künstliche Intelligenz für deren – für den Menschen nicht mehr nachvollziehbare Entscheidungslogik – zu kritisieren, mutet dann doch etwas überheblich und kurzsichtig – also menschlich – an. Sich wider besseren Wissens mit der Nutzung von Autos und nicht nachhaltigen Energien die eigene Lebensgrundlage beständig aufzuheizen und zu vernichten, zeugt jedenfalls in keiner Weise von der Intelligenz und moralischen Integrität, wie wir sie doch gleichzeitig von Algorithmen und Robotern einfordern.

Künstliche Intelligenz rettet schon heute Leben

Die bereits jetzt erkennbaren Gewinne, die die Nutzung von AI erzielt, sind zudem auch nicht wegzudiskutieren und sollten bei moralischen Einordnungen der Ethik von Algorithmen (solange sie vom Menschen entwickelt worden sind?) berücksichtigt werden. Bereits eine kleine Auswahl der positiven Beispiele spricht eine deutliche Sprache:

  • Nach Selbstauskunft von Google könnten 94% aller Autounfälle in den USA durch autonom fahrende Autos zukünftig verhindert werden. Dies wäre im Idealfall eine Reduzierung der Unfalltoten um 30.000/Jahr allein in den USA.

  • Permanent laufende Analysen der Vitaldaten von Frühgeborenen erkennen bereits 24h vor Ausbruch einer Infektion die vom Menschen noch nicht identifizierbare Gefahr und ermöglichen rechtzeitige Medikamentengabe.

  • Das technisch mögliche ständige Tracken von Umwelt- und Gefahrgut-Daten könnte Katastrophen wie die Chemieunfall in Tianjin/China im letzten Jahr verhindern helfen.

  • Die AppleWatch steht einem EKG in der Genauigkeit nicht nach. Der Tod infolge eines Kreislaufzusammenbruchs in die häufigste Todesursache bei älteren Menschen. Die permanente Überwachung durch ein solches Device könnte unzählige Menschenleben retten.

Sicher kann all die Technik auch genutzt werden, um Waffen entsprechend intelligent auszugestalten. Der halb-automatische Waffenroboter an der innerkoreanischen Grenze ist sicher ein abschreckendes Beispiel – entwickelt von der Konsumelektronikfirma Samsung. Die aktuellen Videos vom Atlas Roboter der zu Alphabet gehörenden Firma Boston Dynamics muten durchaus unheimlich an und eine Nähe von Google zur CIA ist ja auch schon lange bekannt.

Es wäre aus meiner Sicht aber gegenüber diesen Frühgeborenen und den älteren Menschen mehr als rücksichtslos, die Beantwortung der vielen offenen ethischen Fragen im Kontext der Künstlichen Intelligenz vor die Rettung ihres eigenen Lebens zu stellen. Würde denn dann nicht genau der Mensch Gott spielen, so wie es der deutsche Kulturpessimismus der Künstlichen Intelligenz ja vorhält? Wieso sollten wir den Anspruch haben, eine Technik bis in alle Zukunft bis ins Letzte durchdringen zu können, bevor wir sie abertausende Menschen zugute kommen lassen? Wäre nicht gerade dieses Vorgehen Ausdruck ebenjener menschlichen Moral, die uns Kriege und die schleichende Selbstvernichtung gebracht hat und die wir deshalb gerade mit Hilfe der Algorithmen auch mal in Frage stellen sollten statt jeden Fortschritt proaktiv zu verbieten, wenn man schreibt:

Ist die Superintelligenz gottgleich, weil sie scheinbar übermächtig intelligent ist und dabei nicht mehr durch Menschen zu verstehen ist?

Der Autor scheint in die richtige Fragerichtung zu streben, bleibt aber auf halber Strecke stehen. Was die Superintelligenz und das Internet als neuronaler Backbone der Menschheit mit Gott zu tun haben könnte, kann man gut beim schwedischen Internetvordenker Alexander Bard nachlesen.

Was wäre, wenn ein Algorithmus nicht imstande wäre, den menschlichen Widersinn, der hinter Klimawandel und Ausbeutung der Biosphäre steckt, rational nachzuvollziehen? Welch Moral wäre denn dann dem Menschen dienlicher; die menschliche oder die Moral des sich irgendwann selbst weiterentwickelnden Algorithmus?


Teaser & Image “Künstliche Intelligenz” by 849356 (CC0 Public Domain)


Weiterlesen »