Künstliche Intelligenz und die Angst vor ihr

Die Künstliche Intelligenz hat in der deutschen Diskurslandschaft keinen guten Ruf. Sie bevormundet Menschen, entscheidet intransparent und gehört meist nur den Silicon Valley-Konzernen. Sollten wir Menschen, die wir den Planeten gegen die Wand fahren, nicht offener dieser Form von Intelligenz gegenüber auftreten? Bietet sie nicht auch sehr viele Chancen?

Jährlich sterben allein in Deutschland 100.000 – 200.000 Menschen am plötzlichen Herztod. Das Risiko steigt mit dem Alter. Männer sind fast doppelt so häufig betroffen. Auch intensiver Sport führt – bei fehlendem Wissen um eine unentdeckte Herzerkrankung – zu einer Verdoppelung des Risikos, daran zu sterben. Die wenigsten potenziellen Opfer gehen vorab zum Kardiologen, da sie zumeist keine Beschwerden verspüren. Wenn sie dann doch aufgrund temporärer Beschwerden zum Kardiologen gehen, ist die Wahrscheinlichkeit, das Problem im Rahmen eines 24-Stunden-EKGs zu entdecken, sehr gering.

Apple hat dieses Problem erkannt und wird wohl beim Nachfolgemodell der Apple Watch 3 einen Sensor für ein erweitertes EKG in die Uhren einbauen. Durch einen Abgleich der gemessenen EKG-Daten und möglicher enthaltener auffälliger Muster mit standardisierten beispielhaften „kranken“ Mustern, können unentdeckte Herzerkrankungen oder Anomalien erkannt werden.

Apple wird mit dieser Funktion und der Auswertung der Daten (indirekt) wahrscheinlich viel Geld verdienen. Wie sehen die Menschen, die schon um ihr erhöhtes Sterberisiko in Folge einer Vorerkrankung wissen, ein solches Device? Und wie sehen sie die Möglichkeiten der Diagnose infolge der Auswertung großer Datenmengen? Würden sie bemängeln, dass die oftmals so deklarierten „Internet-Riesen“ trotz ungeklärter Fragen des Datenschutzes Geld mit diesen Devices verdienen? Würden sie nach der Wirkungsweise des Algorithmus fragen? Und würden sie sich mit dessen Anwendung nur dann einverstanden erklären, wenn man ihnen den Programm-Code erklärt? Oder wenn eine deutsche Behörde diesen einen speziellen Algorithmus überprüft hat? Wohl eher nicht.

Wer sollte über die Anwendung einer Künstlichen Intelligenz (KI) entscheiden: Die betroffenen Menschen oder eine Kommission?

Umso weltfremder und an den Gesundheitsbedürfnissen der betroffenen Menschen vorbei scheinen daher momentane Beiträge in bekannten Medien. Diese fordern ein, dass es Experten geben müsste, die die Wirkungsweise jeder KI verstehen. Die sie kontrollieren und über deren Nutzung urteilen sollten. Obgleich sie nicht von einer tödlichen Bedrohung wie dem plötzlichen Herztod bedroht sind. Mit welchem Recht wird dann aber den betroffenen Menschen die Entscheidung zur Anwendung der Technik aus der Hand genommen? Wollte man aus dieser Situation eine steile These generieren, so könnte man sagen, dass die Debatte und die Verschleppung der Einführung von KI täglich unverantwortlicher Weise Menschenleben kostet.

Während diskutiert wird, welche Menschen eine KI in einem autonom fahrenden Auto am ehesten im Notfall „umfahren“ soll, sterben täglich in Deutschland ca. neun Menschen im Verkehr. Meist wurden diese Unfälle verursacht durch zu hohe Geschwindigkeit oder Fahren unter Alkoholeinfluss ihrer Mitmenschen. Warum wird also nicht die Frage nach der moralischen Verträglichkeit menschengelenkter Autos gefragt? Hat es eine solche Ethik-Debatte jemals gegeben, um zu überprüfen, ob der Vorstand von Volkswagen vor Bekanntwerden von Dieselgate „ethisch richtig handelt“? Wieso legen wir an KI solch hohe Maßstäbe an, die die Menschen bisher selbst meist nicht erfüllt haben?

Dürfen wir KI unsere menschliche Moral aufzwingen?

Sally Davies hat sich in ihrem Beitrag daher auch die Frage gestellt, mit welchem Recht wir versuchen, einer zukünftigen KI unser Verständnis von Moral aufzuzwingen. Viele technische KI-Experten werden einwenden, dass diese Form der KI noch lange nicht erreicht sei (worüber es zu Recht aber sehr unterschiedliche Auffassungen gibt). Nichtsdestotrotz ist damit zu rechnen, dass wir uns eines Tages diese Fragen stellen müssen. Wird sich die KI einsichtig zeigen, dass unser Wertmaßstab auch der ihrige sein soll? Was wäre, wenn die KI „Verbesserungsvorschläge“ für unser Wertesystem liefert?

Im Bereich strategischer Spiele sind wir bereits an diesem Punkt der KI-Entwicklung angekommen. In einem aktuellen Beitrag auf The Atlantik zu den neuen Fortschritten bei der KI-Entwicklung im Zuge der AlphaGo Zero-Entwicklung formulieren die Autoren, was im Kern die Botschaft aus den gegenwärtigen Entwicklungssprüngen ist. Die (genannte) KI benötigt keinen Menschen mehr, um in einem Gebiet „übermenschliche“ Fähigkeiten in kürzester Zeit zu entwickeln. Das ist insbesondere dann spannend, wenn die Erkenntnisse der KI-Entwickler auf die Bekämpfung von Krankheiten oder den Klimawandel angewendet werden, wie diese es selbst in ihrem Blog weitsichtig beschreiben.

Eine leidige kurzsichtige Diskussion über die vermeintliche Sinnhaftigkeit luftverdreckender Diesel-Pkw wäre unter diesen Umständen schnell obsolet. Sie könnte, im Gegensatz zu den derzeit beschlossenen politischen Maßnahmen, täglich Menschenleben retten. Ist es vielleicht an der Zeit, dass wir den Versuch aufgeben, eine höhere Intelligenz verstehen zu wollen?

Die Syntheist-Bewegung greift diese Überlegungen auf. Der schwedische Cyber-Philosoph Alexander Bard als einer der bekanntesten Vertreter begreift das Internet als „Gehirn“ der Menschheit. Laut ihm ist es ausgestattet mit Netzknoten, Netzwerken und Datenbanken. Sie alle zusammen sind mehr als die Summe der einzelnen Wissensbestandteile der Menschheit. Das Silicon Valley „Wunderkind“ Anthony Levandowski geht in dieselbe Richtung. Er versteht die internetbasierte Wissensgenerierung als Schritt hin zu einer übergeordneten Weisheit, infolgedessen er auch die „First Church of AI“ ausgerufen hat.

Können Androiden menschliche Reaktionen auslösen?

Die Fähigkeiten gerade von Robotern, in den zwischenmenschlichen Bereich vorzudringen, wurde bisher ebenfalls sehr zurückhaltend gesehen. Seien es doch die wahren menschlichen Eigenschaften der Kreativität, der Interaktion, der Empathie, die menschliche Reaktionen hervorriefen und durch Maschinen nie ersetzt werden könnten. Ist dem wirklich so? In einem aktuellen Beitrag stellt sich die Autorin Alex Mar die Frage, ob es diese angeblich genuinen Eigenschaften wirklich nur bei Menschen gibt.

Bei einem Besuch des Android-Forschers Hiroshi Ishi­guro wird sie an die Grenze des scheinbar intuitiv Menschlichen gebracht, als sie von den Erfahrungen des Forschers mit seinen Androiden hört. Indem Androiden basale menschliche Verhaltensweisen übernehmen, die einen Menschen positiv und emotional triggern, können sie bei Menschen echte mitmenschliche Emotionen erzeugen. In einem wissenschaftlichen Experiment konnten Forscher der Universität Calgary vor Jahren zeigen, dass selbst ein Stück Balsaholz bei Menschen Gefühle auslösen kann. Die positiven Gefühle Maschinen gegenüber können noch weiter befördert werden, wenn man sie ab und an „menschliche“ Fehler machen lässt und sie dadurch nicht unerreichbar perfekt erscheinen.

Spätestens mit der Nutzung der replika-App kann jeder Nutzer selbst überprüfen, ob der Dialog mit einer auf sich selbst trainierten KI wirklich immer nur als bewusster Dialog mit einem Code erfolgt. Und nicht mit einem „gefühlten“ realen Gegenüber. Die Gründerin des Startups hatte ihren besten Freund auf tragische Weise verloren. Daraufhin sammelte sie nach seinem Tod alle Chats, die sie mit ihm geführt hatte. Sie kreierte eine erste KI, die ihren toten Freund simulierte. Inzwischen können Nutzer weltweit eine eigene KI nach diesem Muster „erstellen“. Auch wenn das etwas seltsam klingt, haben Außenstehende kein Recht, der Gründerin oder Nutzern von „replika“ daraus einen Vorwurf zu machen.

Wäre es daher nicht an der Zeit, an der Einmaligkeit des Menschlichen zu zweifeln? Fand man in der Neurowissenschaft bereits vor Jahren heraus, dass der vorgebliche freie Wille der Menschen gar nicht so frei ist, ist es jetzt an der Zeit zu erkennen, dass auch unsere Gefühle nicht nur an Menschen gebunden sind.

Digitaler Darwinismus ist schon heute Realität

Man muss sicherlich nicht ganz so weit gehen, wenn es um das Mimikry menschlichen Verhaltens durch eine KI geht. Schon weiter vorangeschritten ist die Angleichung an menschliche Verhaltensweisen bei der Ausübung von beruflichen Tätigkeiten. So zeigt Miranda Katz anhand von Beispielen aus der Übersetzerbranche, der Juristerei und der Filmbranche, dass schon heute impliziter digitaler Darwinismus auf dem Arbeitsmarkt durch den Einsatz von KI ausgelöst worden ist. So ist es nach Meinung der dort zitierten ScriptBook CEO Nadira Azermai nicht die KI, die Menschen arbeitslos werden lässt. Es ist vielmehr die Verweigerungshaltung, KI für die eigene Tätigkeit einzusetzen. Auch wenn dies an vielen Stellen schon möglich ist.

“You’ll lose your job to people who have learned how to cooperate with machines. You will lose your job if you keep turning your head the other direction and pretending it doesn’t exist“, so Azermai.

Wenn aber KI zunehmend Tätigkeiten übernehmen, die Bestandteil menschlicher Berufe (Arzt, Drehbuchautor, Polizist) sind, muss die Frage gestellt werden, in welcher Weise sich Ausbildungsgänge nicht eigentlich sehr viel schneller anpassen müssten. Jon Marcus beschreibt in seinem Beitrag die erkennbaren Folgen für das bestehende Bildungssystem. So beginnen die ersten großen Unternehmen aus der IT-Branche, eigene Ausbildungsgänge aufzubauen. Hier erfolgt nämlich die Anpassung der bestehenden zu langsam und bürokratisch. KI, die Berufe verändert, hat demnach auch Auswirkungen auf das Bildungssystem. Sicher könnte man die ethische Frage anschließen, was denn mit dem Kompetenzaufbau in den Bereichen der Ausbildung geschieht, in denen die KI Menschen ersetzen.

Mit wissenschaftlichen Methoden des 20. Jahrhunderts lösen wir nicht die Probleme des 21. Jahrhunderts

Der Umgang der Wissenschaft und der Politik mit dieser Herausforderung zeigt sehr anschaulich das Dilemma, auf diese neue Herausforderung (KI, Roboter) mit tradierten Methoden und Sichtweisen zu reagieren. Seit der Veröffentlichung der allseits bekannten Frey/Osborne-Studie hat es viele volkswirtschaftliche Folge-Studien gegeben (so z.B. durch das ZEW). Diese waren am Ende stets zu dem Ergebnis gelangt, dass wir mit einem Abbau menschlicher Beschäftigung – in einem ungeklärten Umfang – rechnen müssen. Zeigt sich aber nicht zuletzt an der Methodik dieser Studien, dass wir inzwischen mit menschlicher Intelligenz allein die Komplexität, die uns zunehmend umgibt, nicht mehr bewältigen können? Wie kann es sein, dass Studien ernsthaft als politische Entscheidungsgrundlage dienen, die vorgeben, die Wahrscheinlichkeit einer digitalen Disruption in einer bestimmten Branche ex ante berechnen und daraus ableitend Arbeitsmarktprognosen abgeben zu können? Wir hinterfragen aber nicht diese wissenschaftlichen Methoden. Wir hinterfragen vielmehr die Entscheidungslogiken der KI und bezeichnen sie nur zu gern und schnell als diskriminierend.

Nicht die Künstliche Intelligenz sondern der Mensch diskriminiert

Eva Wolfangel zeigt in ihrem spannenden NZZ-Beitrag, warum es aber nicht die Algorithmen – auch nicht die selbst lernenden KIs – sind, die sexistisch, rassistisch oder diskriminierend sind. Es liegt vielmehr an dem, was wir der KI „vorleben“ und als Input zum Lernen zur Verfügung stellen. Ein Herausbrechen von Diskriminierung aus Algorithmen hingegen ist als Lösung des Problems in keiner Weise geeignet, da es keine übergeordnete Wahrheit und keinen absoluten Maßstab gibt, an dem sich diese Programmierer ausrichten können. Zudem kommt das Problem hinzu, so Wolfangel, dass Menschen allzuhäufig Korrelationen mit Kausalitäten gleichsetzen. Im Kern heißt dies also erneut, dass die KI nichts vom Menschen lernen kann, da er selbst nicht das passende Vorbild abliefert.

Hängt der Quanten-Computer die Menschen endgültig ab?

KI ist Bestandteil sehr vieler alltäglicher Lebensbereiche des Menschen. Sie unterstützt diesen, hilft dort aus, wo sie mehr leisten kann als ein Mensch, kann kreativ sein. Der nächste Entwicklungsschritt hin zur Intuition und einem menschenähnlichen Bewusstsein wird eventuell die Anwendung der Quantentechnik für KI sein. So wird bereits in den nächsten Monaten die „Quantum Supremacy“ gegenüber den uns bekannten Computern eintreten.

Wir sollten daher vielleicht nicht vergessen, die Probleme der Politik, der gesellschaftlichen Debatte und der Wissenschaft zu thematisieren. Gerade wenn es darum geht, mit dieser technischen Entwicklung Schritt zu halten. Experten sprechen von der exponentiellen Dynamik der KI-Entwicklung: „There will be an acceleration of pace as ever more people are put out of work “by technology” when artificial intelligence masters vision – and how to learn. (…) Unlike in the Industrial Revolution, we cannot expect a plateau of development here that will allow people to ‘catch up’”. Die Frage ist, wie wir als Menschen damit umgehen wollen.

Die Diskussion um die Gesundheitskarte zeigt es exemplarisch. Während in Deutschland über Fragen des Datenschutzes diskutiert wird, werden anderswo mit IBM Watson bereits Leben gerettet. Wird irgendwann der moralische Druck, die Entwicklung der KI einfach zu akzeptieren, nicht so groß werden, dass jahrelange politischen Debatten über neue Regulären zunehmend utopisch erscheinen? Was ist, wenn die durch eine Smart City induzierte Einsparung natürlicher Ressourcen den persönlichen Vorstellungen über Datenschutz gegenüber steht?

Benötigen wir nicht einen „politischen“ Algorithmus im Sinne einer Entscheidungslogik, der uns beim Umgang mit diesen strittigen Fragen Orientierung gibt und der zwischen individuellen und gesellschaftlichen Interessen abzuwägen hilft? Oder liegt es, wie der genannte provokante Beitrag auf AEON vorschlägt, am Ende gar nicht mehr im Ermessensspielraum des Menschen, über die Moral eines Algorithmus zu entscheiden, weil wir die sich daraus ergebende moralischen Regeln nicht mehr verstehen, wir aber davon ausgehen müssen, dass uns diese weiterhelfen als die Regeln und Verhaltensweisen, die uns seit Jahrtausenden Umweltzerstörung und Krieg bringen?

Wenn ihr mehr zu dem Thema „Angst vor der Künstlichen Intelligenz“ erfahren möchtet, dann gibt es hier von Arend Hintze einen spannenden Artikel mit dem Titel „Künstliche Intelligenz: Wovor die Forscher sich fürchten„.


Image (adapted) „Orb of power“ by Ramón Salinero (CC0 Public Domain)


Artikel per E-Mail verschicken
Schlagwörter: , , , , , , , , , ,
Ole Wintermann

Ole Wintermann

arbeitet seit 2002 bei der Bertelsmann Stiftung. Zuvor war er an den Universitäten Kiel und Göteborg und bei der Gewerkschaft ver.di tätig. Er baute in den letzten Jahren die internationale Bloggerplattform Futurechallenges.org auf, bloggt privat auf Globaler-Wandel.eu, ist Co-Founder der Menschenrechtsplattform Irrepressiblevoices.org (http://irrepressiblevoices.org/) und engagiert sich im virtuellen Think Tank Collaboratory. Mitglied des Netzpiloten Blogger Networks.

More Posts - Website - Twitter - Facebook - Google Plus

6 comments

  1. Ich glaube es ist sehr schwer, alles in der Tiefe der Problematik zu überblicken. Mein Gefühl sagt mir, Vorsicht und Arbeiten mit viel Übersicht an der KI ist geboten.

    1. Hallo Peter, ich stimme dir vollkommen zu; wir müssen uns ausreichend Gedanken machen über die Risiken der Nutzung von AI. Die Hinweise von Musk und Hawking sind da ja auch eindeutig. Ich finde nur, dass wir hierzulande zu wenig über die gleichzeitig vorhandenen Potenziale sprechen. Vielleicht trägt der Beitrag ja etwas dazu bei, dass wir – auch im Interesse der von den o.g. Gesundheitsproblemen Betroffenen – demnächst etwas mehr über die Chancen sprechen. VG, Ole

  2. Lieber Ole,
    ein sehr gelungener Überblick, danke Dir dafür. Du stellst wichtige Fragen, die beantworten müssen. Während Premierministerin Theresa May in Davos AI zum Thema macht, diskutieren wir über Breitband, Diesel und Heimat. Da stimmt etwas nicht! Auch kommt die Plattform „Lernende Systeme“ von BMBF und acatech reichlich spät. Und das Weizenbaum-Institut braucht noch etwas Zeit für sich, währenddessen die Tech Giganten weltweit massiv in AI investieren. In der Sache ist Dir zustimmen. Wir müssen uns intensiver und vor allem breiter mit AI beschäftigen.
    Ich lese grade „Leben 3.0“ von Max Tegmark. Er schlägt zwischen den Polen der „Digitalen Utopisten“ und der „Technikfeinde/skeptiker“ die
    Entwicklung einer „nutzbringenden KI-Bewegung“ vor. Ich teile diese Auffassung. Weil wir uns eben nicht vorschnell oder gar vorauseilend der „AI ergeben“ sollten.
    Deine Frage ist sicher provokativ gemeint: „Benötigen wir nicht einen „politischen“ Algorithmus im Sinne einer Entscheidungslogik, der uns beim Umgang mit diesen strittigen Fragen Orientierung gibt und der zwischen individuellen und gesellschaftlichen Interessen abzuwägen hilft?“ Die Antwort kann nur ein Nein sein, weil es die Demokratie aushebelt und wir uns mit einer „scheinbar objektiven“ höheren Einsicht und Gewalt (bei nicht regelkonformen Verhalten) aussetzen und ergeben würden. Einer, die sich unserer Einsichtsfähigkeit „gottgleich“ entzieht, Du sprachst davon. Aber solche Diskussionen werden zunehmen, weil die Technologie so mächtig ist. Es wird Zeit, das wir uns dazu verhalten.

    1. Hallo Klaus, hab vielen Dank für deine Rückmeldung. Die Frage eines solchen politischen Algorithmus muss in der Tat thematisiert werden. In den 1970er Jahren gab es diese Diskussion bereits unter der Überschrift Gesetzesfolgenabschätzung. Die schwedische Regierung nennt es „Långtidsutredning“. In beiden Fällen geht es darum, unabhängig von parteipolitischem Opportunismus langfristig nachhaltige politische Entscheidungen zu treffen. Die Weigerung der dt. Bundesregierung, mutig in Richtung eMobility zu gehen (wie in Norwegen), müsste von einem solchen „Algorithmus“ dadurch in Frage gestellt werden, dass die langfristigen gesellschaftlichen Kosten der dahinterstehenden Lobbypolitik sichtbar gemacht würden. Das würde dann auch nicht die Demokratie moralisch aushöhlen sondern die Legitimation sogar steigern. VG, Ole

  3. Lieber Ole, es gibt weiterhin eine fast vergessene Geschichte einer kybernetisch inspirierten Politikgestaltung während der Zeit der sozial-liberalen Koalition, sie ist mit Helmut Krauch und seiner Studiengruppe für Systemforschung eng verbunden, dem Vorläufer der TA (ITAS und Büro für Technikfolgenabschätzung) in Deutschland, aber auch mit Horst Emke, dem damaligen Chef des BKA. Leider sind diese Amsätze gescheitert. Die Forderung nach einer Gesetzesfolgensabschätzung ist virulent. Es wäre in der Tat interessant, innovative Ansätze einer Politik zu erörtern, die vorausschauend, transparent und beteiligungsorientiert den vernetzten Herausforderungen gerecht wird. Ich wäre dabei…LG Klaus

Deine E-Mail-Adresse wird nicht veröffentlicht. Als Namen kannst Du gerne einen Fantasienamen angeben, wenn Du nicht Deinen echten Namen angeben möchtest. Du kannst jederzeit die Löschung Deines Kommentars verlangen. Bitte beachte die Datenschutzhinweise

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.