Robots & Crime: Wenn der Computer kriminell wird

Soweit sind wir nun also im Jahr 2017: hochentwickelte Algorithmen sehen Verbrechen, die von Menschen begangen wurden, voraus und helfen dabei, sie zu lösen. Sie sagen den Ausgang von Gerichtsverhandlungen und Menschenrechtsverfahren voraus und unterstützen die Arbeit von Anwälten. Bis zum Jahr 2040 gibt es sogar die Andeutung, dass hochentwickelte Roboter einen nicht unerheblichen Anteil der kriminellen Verbrechen weltweit begehen werden – man denke nur an das Kleinkind, das letztes Jahr in einem Einkaufszentrum in Kalifornien von einem Sicherheitsroboter überfahren wurde.

Was machen wir nun also aus dem Ganzen? Sollten wir in Panik geraten? Das wäre wohl nicht sonderlich produktiv. Sollten wir als Gesellschaft mit den Schultern zucken und uns wieder unserer  Netflix-Playlist widmen? Verlockend, aber nein. Sollten wir damit beginnen, Pläne zu schmieden, wie wir mit all dem umgehen sollen? Absolut.

Angst vor Künstlicher Intelligenz (KI) ist ein großes Thema. Technologie kann eine ausgesprochen angsteinflößende Sache sein; vor allem, wenn sie neu und mit einer Menge Fragezeichen versehen ist. Filme wie Terminator und Sendungen wir Westworld sind mehr als nur Unterhaltung. Sie sind kleine Einblicke in die Welt, die wir vielleicht erleben, oder zumindest in die Zukunft, wie wir sie uns vorstellen.

Unter den vielen Dingen, die jetzt beachtet werden müssen, ist die Frage, welche Rolle und Funktion das Gesetz spielen wird. Expertenmeinungen differieren extrem in Bezug auf die Wahrscheinlichkeit und die Bedrohung durch eine Zukunft, in der ausreichend fortgeschrittene Roboter unter uns leben, aber wir müssen uns mit der Tatsache konfrontieren, dass autonome Technologie mit der Möglichkeit, Schaden anzurichten, bereits existiert. Sei es eine Militärdrohne mit voller Sprengladung, eine Überwachungsdrohne, der explodiert, um einen gefährlichen Verdächtigen zu töten, oder etwas viel Unschuldigeres, das durch einen Unfall, einen Fehler, durch ein Versehen oder schlichtweg durch Dummheit Schaden verursacht.

Vor Gericht gibt es den zynischen Ausdruck „Wo Schuld ist, gibt es Schadensersatz“. Doch wen machen wir verantwortlich, wenn ein Roboter sich etwas zu Schulden kommen lässt? Diese Frage kann leicht als etwas zu abstraktes, um sich darüber Gedanken zu machen, verworfen werden. Aber lasst uns nicht vergessen, dass ein Roboter festgenommen (und ohne Bestrafung freigelassen) wurde, weil er Drogen gekauft hatte. Tesla Motors hat sich vor der amerikanischen Verkehrssicherheitsbehörde aus der Verantwortung gezogen, als es darum ging, dass ein Fahrer in einem Unfall getötet wurde, während sein Tesla im Autopilot fuhr.

Trotz aller Merkwürdigkeit dieser Problematik hat uns die Geschichte schon vieles gelehrt. Zum Beispiel wurde der Frage, wer denn eigentlich ein Anrecht auf den Himmel hat, wenig Beachtung geschenkt, bevor die Gebrüder Wright die Kitty Hawk für einen Vergnügungsflug nutzten. Wieder und wieder steht das Gesetz vor diesen neuartigen Herausforderungen. Einfach gesagt: Gesetze entwickeln sich.

Roboterschuld

Die Rolle des Gesetzes kann auf viele Arten definiert werden, aber letztlich ist es ein System innerhalb einer Gesellschaft, um die Erwartungen der Leute zu stabilisieren. Wer überfallen wird, geht davon aus, dass der Räuber angeklagt und dangemessen bestraft wird. Doch das Gesetz stellt auch Erwartungen an uns und wir müssen uns so danach richten, wie es uns unser Gewissen gestattet. Als Menschen sind wir in der Lage dazu. Wir haben die Fähigkeit, zu entscheiden, ob wir zu schnell fahren möchten oder lieber das Tempolimit einhalten. Aus diesem Grund sind Menschen vor dem Gesetz als „juristische Personen“ angesehen.

In ähnlichem Ausmaß gelten auch Firmen als juristische Personen. Dieser Status gewährt ihnen bestimmte ökonomische und rechtliche Ansprüche. Was aber viel wichtiger ist: Er überträgt Verantwortung. Wenn also Firma X eine autonome Maschine baut, hat diese Firma auch den dazugehörigen rechtlichen Verpflichtungen nachzugehen.

Problematisch wird es dort, wo die Maschinen die Entscheidungen selbst auf eigene Gefahr treffen können. So beeindruckend, wie intelligente Assistenten wie Alexa, Siri oder Cortana sind – sie gelten eben deshalb nicht als juristische Personen. Aber was passiert, wenn ihre weiterentwickelten Nachfahren anfangen, wirklichen Schaden zu verursachen?

Kann eine KI schuldbewusst sein?

Das Strafrecht hat zwei entscheidende Konzepte. Erstens enthält es die Idee, dass die Verantwortung für Schäden immer dann entsteht, wenn es wahrscheinlich war oder ist, dass Schäden durch eine bestimmte Tat oder Unterlassung ebendieser entstehen.

Zweitens erfordert das Strafrecht, dass ein Angeklagter für seine Taten haftbar gemacht werden kann. Diesen Umstand kennt man als „schuldbewussten Verstand“ oder „mens rea“ . Die Idee dahinter ist es, sicherzustellen, dass der Angeklagte sowohl in der Lage ist, jemanden anzugreifen, und auch vorhatte, dieser Person zu schaden – oder zumindest in Kauf genommen hat, dass ein Schaden eine wahrscheinliche Konsequenz seiner Taten sein könnte.

Wenn also eine fortschrittliche autonome Maschine aus eigenem Antrieb ein Verbrechen begeht, wie soll diese dann vom Gesetz behandelt werden? Wie würde ein Anwalt vorgehen, um den „schuldbewussten Verstand“ eines Nicht-Menschen zu zeigen? Kann dies getan werden, indem man sich auf bestehende legale Prinzipien bezieht und diese angleicht?

Man denke an fahrerlose Autos. Auf der Straße gibt es – zumindest zu einem gewissen Ausmaß – regulierende Rahmenbedingungen, die sicherstellen, dass ein Mensch hinter dem Steuer eines Autos sitzt. Dennoch müssen weitgehende Anpassungen bei Gesetzen und Regulierungen vorgenommen werden, sobald vollständig autonome Autos erscheinen, um den neuen Möglichkeiten von Interaktionen zwischen Mensch und Maschine auf der Straße gerecht zu werden.

So, wie sich die KI-Technologie derzeit entwickelt, wird sie irgendwann einen Stand erreichen, der so hochentwickelt ist, dass er es ihr erlaubt, menschliche Kontrolle zu überbrücken. Wenn das Überbrücken menschlicher Kontrolle sich ausweitet, werden Fragen über Schäden, Risiken, Schuld und Bestrafung wichtiger werden. Film, Fernsehen und Literatur mögen bei den extremsten Beispielen von „fehlgeschlagenen Robotern“ verweilen, aber die legalen Realitäten sollten nicht in Hollywood gelassen werden.

Können Roboter als Verbrechen begehen? Kurz gesagt: ja. Wenn ein Roboter jemanden tötet, hat er ein Verbrechen begangen (actus reus), aber technisch gesehen ist es kein „vollständiges“ Verbrechen, da es viel schwieriger wäre, die ‚mens rea‘ zu determinieren. Woher wissen wir also, ob der Roboter vorhatte, das zu tun, was er getan hat?

Bis jetzt sind wir nicht einmal annähernd auf einem Niveau, das uns ermöglichen würde, einen fühlenden oder „bewussten“ humanoiden Roboter zu bauen, der wie ein Mensch aussieht, handelt, redet und denkt. Aber nur ein paar kurze Sprünge in der KI-Forschung könnten eine autonome Maschine hervorbringen, die alle Arten von rechtlichem Verderben freizusetzen in der Lage wäre. Der Wille zu einem finanziellen und benachteiligenden Algorithmus ist bereits reichlich vorhanden.

Man stelle sich vor, dass eine KI im Terminator-Format existiert und dass sie ein Verbrechen begeht (wie beispielsweise Mord). Hier ist es nicht die Aufgabe, festzulegen, ob sie wirklich jemanden umgebracht hat, sondern zu welchem Ausmaß dieser Fall das Prinzip von ‚mens rea‘ erfüllt.

Aber was bräuchten wir, um die Existenz einer ‚mens rea‘ zu beweisen? Könnten wir die KI einfach ins Kreuzverhör nehmen, so wie wir es bei menschlichen Angeklagten tun? Vielleicht ja – aber wir müssten ein wenig tiefer gehen und den Code, den die Maschine zum Leben erweckt hat, untersuchen.

Und wie würde „Absicht“ bei einem maschinellen Verstand aussehen? Wie würden wir vorgehen, um zu beweisen, dass eine autonome Maschine das Recht dazu hatte, einen Menschen aus Selbstverteidigung zu töten oder um das Ausmaß von Vorsatz auszumachen?

Dies muss tiefer durchdacht werden. Letzten Endes reden wir nicht nur über gewaltsame Verbrechen. Man stelle sich ein System vor, das wahllos Dinge aus dem Internet bestellt und dabei unsere Kreditkarte benutzt – und es hat sich dazu entschieden, geschmuggelte Ware zu kaufen. Das ist keine Fiktion, sondern bereits passiert. Zwei in London ansässige Künstler haben einen Roboter entwickelt, der wahllos Dinge vom Schwarzmarkt kauft. Und was hat er gekauft? Gefälschte Jeans, ein Baseball-Cap mit Spionage-Kamera, eine Dose mit Geheimversteck, Nike-Schuhe, 200 Zigaretten, ein Satz Hauptschlüssel von der ansässigen Feuerwehr, eine gefälschte Louis-Vuitton-Tasche und zehn Ecstasy-Tabletten. Sollten die Künstler dafür verantwortlich gemacht werden, was der Roboter, den sie entworfen haben, gekauft hat? Vielleicht. Aber was, wenn der Roboter die Auswahl der Einkäufe selbstständig entschieden hat?

Gefängnisse für Roboter?

Selbst wenn man juristische Angelegenheiten auf diese Weise lösen kann, steht man immer noch vor der Frage der Bestrafung. Was bedeutet eine 30-jährige Haftstrafe für eine autonome Maschine, die nicht altert, nicht gebrechlich wird und seine Lieben nicht vermisst? Außer natürlich, sie wurde darauf programmiert, ihre Schandtaten zu „reflektieren“ und ihren eigenen Code zu verändert, während sie es sich gemütlich macht. Und was würde das Einprogrammieren von „Reue“ in Maschinen uns über ihre Entwickler verraten?

Das, worüber wir wirklich reden, wenn wir darüber diskutieren, ob Roboter Verbrechen begehen können oder nicht, ist die „Entstehung“ – die Stelle, an der ein System etwas neues und potenziell gutes, aber gleichzeitig unvorhersehbares macht. Das ist der Grund dafür, warum all das ein Problem für das Gesetz ist.

Die KI hat uns bereits bei aufstrebenden Konzepten in der Medizin geholfen, und wir lernen neue Dinge über das Universum mit KI-Systemen, die möglicherweise nicht einmal ein ganzer Haufen Stephen Hawkings entschlüsseln kann.

Die Hoffnung für KI liegt darin, zu versuchen, dieses sichere und erstrebenswerte Verhalten einzufangen, und gleichzeitig eine Lösung dafür zu finden, dass sie sich nicht auf illegalen, unethischen oder regelrecht gefährlichen Wegen offenbart. Im Moment sind wir jedoch noch zu unfähig, um die Menschenrechte weltweit sicherzustellen. Daher müssen wir uns fragen, wie wir auf Roboterverbrechen vorbereitet sein sollen, wenn wir bereits damit zu kämpfen haben, die Verbrechen einzudämmen, die von uns  Menschen begangen werden.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „Hacker“ by xusenru (CC0 Public Domain)


Schlagwörter: , , , , , , , , , ,
Christopher Markou

Christopher Markou

promoviert zur Zeit an der juristischen Fakultät der University of Cambridge. Er beschäftigt sich unter anderem mit Fragen des Rechts in den Bereichen Technologie, KI und VR.

More Posts - Twitter