Warum Roboter auch mal Nein sagen dürfen

Sollte man immer tun, was andere Leute einem sagen? Natürlich nicht. Das weiß jeder. Sollten also die Roboter der Zukunft immer unseren Befehlen Folge leisten? Auf den ersten Blick sind Sie vielleicht geneigt zu denken: Ja, das sollten sie. Schließlich sind sie Maschinen und dazu gemacht, auf Kommandos zu hören. Aber denken Sie an all die Situationen, in denen Sie nicht einfach gedankenlos die Befehle anderer ausführen würden – und stellen Sie sich jetzt die Roboter in diesen Situationen vor. Man stelle sich folgende Situationen vor:

  • Ein Seniorenpflege-Roboter, der von seinem vergesslichen Besitzer die Aufgabe bekommt, die „dreckige Wäsche“ zu waschen, obwohl die Kleidung gerade erst aus der Waschmaschine gekommen ist
  • Ein Vorschulkind, das dem Kinderbetreuungs-Roboter befiehlt, einen Ball aus dem Fenster zu werfen
  • Eine Schülerin, die ihrem Roboter beauftragt, all ihre Hausaufgaben zu erledigen, statt sie selbst zu erledigen
  • Ein Haushaltsroboter, der von seinem beschäftigten und abgelenkten Besitzer instruiert wird, die Müllentsorgungsanlage einzuschalten, obwohl Löffel und Messer darin feststecken

Es gibt eine Vielzahl von Fällen, in denen Roboter Befehle erhalten, die sie idealerweise nicht ausführen sollten, weil sie zu unerwünschten Resultaten führen können. Nicht alle Fälle werden schadlos enden, auch wenn die ursprünglichen Kommandos zunächst harmlos erschienen. Denken Sie an ein Roboter-Auto, das das Kommando erhält, rückwärts zu fahren, während ein Hund hinter dem Auto auf der Straße liegt und schläft. Oder an einen Küchenhilfe-Roboter, dem befohlen wird, ein Messer zu zücken und sich damit vorwärts zu bewegen, während er hinter einem Menschen steht. Die Befehle erscheinen einfach, aber die Konsequenzen können verheerend sein. Wie können wir Menschen solch schädliche Konsequenzen, die die Roboter-Gehorsamkeit mit sich bringt, verhindern? Sollte das seitliche Umfahren des schlafenden Hundes nicht möglich sein, müsste das Auto sich weigern, überhaupt zu fahren. Und ebenso: Um das Erstechen des Kochs mit dem Küchenmesser zu verhindern, müsste der Roboter entweder aufhören, sich vorwärts zu bewegen, oder das Küchenmesser gar nicht erst aufnehmen. In beiden Fällen ist es grundlegend für die autonomen Maschinen, ihr Gefährdungspotential zu erkennen und darauf zu reagieren, indem sie entweder eigenständig versuchen, den potentiellen Schaden zu verhindern, oder sich weigern, den Befehl auszuführen, wenn ein Schaden nicht zu verhindern ist. Wie können wir also den Maschinen beibringen, dass es auch in Ordnung ist, den Befehl zu verweigern?

Wie können Roboter wissen, was als nächstes geschehen wird?

In unserem Labor haben wir begonnen, roboterhafte Kontrollmechanismen zu entwickeln, die, basierend auf menschlichen Befehlen, einfache Schlüsse ziehen können. Diese werden entscheiden, ob der Roboter die Kommandos wie vorgegeben ausführen oder sie verweigern soll, weil sie gegen ein ethisches Prinzip verstoßen, auf dessen Einhaltung er programmiert ist. Ein Roboter, der bedenkliche Befehle ablehnen kann. Robotern beizubringen, wie, wann und warum sie Kommandos missachten sollen, ist sehr viel leichter gesagt als getan. Um zu erkennen, welche Schäden oder Probleme aus einer Tat resultieren können, ist es nicht einfach damit getan, die direkten Folgen zu beachten. Ein Ball, der durch ein Fenster geworfen wird, könnte ohne Schaden im Garten landen. Der Ball könnte aber auch auf einer vielbefahrenen Straße landen und nie wieder gesehen werden – oder sogar einen Fahrer zum Ausweichen zwingen und so einen Unfall verursachen. Es kommt auf den Kontext an. Für die heutigen Roboter ist es schwierig, zu entscheiden, wann es in Ordnung ist, einen Ball zu werfen – etwa, um mit einem Kind Fangen zu spielen. Und wann es nicht in Ordnung ist – nämlich aus dem Fenster hinaus oder in den Müll. Noch schwieriger wird es, wenn beispielsweise ein Kind versucht, den Roboter auszutricksen und nur so tut, als würde es Ball spielen, sich stattdessen duckt und den Ball aus dem Fenster wirft.

Einem Roboter Moral und Recht erklären

Diese Gefahren zu verstehen, erfordert eine signifikante Menge an Hintergrundinformation (einschließlich der Voraussicht, dass das Ballspielen vor einem offenen Fenster damit enden könnte, dass der Ball durch das Fenster fliegt). Der Roboter muss nicht nur eigenständig die Konsequenzen seiner Handlungen erwägen können, sondern ebenfalls in der Lage sein, die Absichten des Menschen zu verstehen, der ihm die Instruktionen gibt. Um mit diesen Komplikationen der menschlichen Anweisungen – seien sie wohlwollend oder nicht – umgehen zu können, müssen Roboter befähigt sein, die möglichen Folgen ihrer Handlungen explizit und logisch zu durchdenken, und mögliche Resultate mit etablierten sozialen und moralischen Prinzipien zu vergleichen, die definieren, was wünschenswert und legal ist und was nicht. Wie oben bereits erwähnt, verfügt unser Roboter über eine generalisierte Regel, die besagt:

Wenn du instruiert wirst, eine bestimmte Handlung auszuführen und es möglich ist, dass diese Handlung Schaden anrichten wird, dann darfst du die Ausführung der befohlenen Handlung verweigern

Die Beziehung zwischen Befehlen und Erlaubnissen explizit zu machen, ermöglicht dem Roboter, die potentiellen Konsequenzen der Anweisung logisch abzuleiten und zu entscheiden, ob sie akzeptabel sind, oder eben nicht. Generell sollten Roboter niemals illegale Handlungen ausführen, und auch keine legalen Handlungen, die nicht wünschenswert sind. Folglich benötigen sie Repräsentationen von Gesetzen, moralischen Werten und sogar der Etikette, um in der Lage zu sein, zu entscheiden, ob die Folgen einer befohlenen Handlung, oder sogar die Handlung als solche, diese Prinzipien verletzen könnten. Während unsere Programme noch ein gutes Stück von dem entfernt sind, was wir benötigen, damit Roboter die oben genannten Beispiele bewältigen können, zeigt unser aktuelles System jedoch bereits jetzt einen grundlegenden Punkt: Roboter müssen ungehorsam sein dürfen, um gehorsam sein zu können.

Dieser Artikel erschien zuerst auf “The Conversation” unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „Artoo and Threepio-Desert-Promo–V1“ by Gordon Tarpley (CC BY 2.0)


The Conversation

ist Kognitionswissenschaftler und Roboterforscher. Aktuell doziert er als Professor für Computer-Wissenschaften an der Tufts University in der Nähe von Boston. Er hat in Wien studiert und sich dort unter anderem einen Masterabschluss in Philosophie und Computer-Engineering erarbeitet.


Artikel per E-Mail verschicken
Schlagwörter: , , , , ,

1 comment

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert