KI und Cyber-Attacken – Die Gefahr ist nah

Die nächste große Cyber-Attacke könnte von künstlicher Intelligenz ausgehen. Es könnte sogar sehr früh passieren. Auf einer Cyber-Sicherheits Konferenz, die erst kürzlich stattfand, gaben 62 aus den 100 befragten Branchenexperten an, dass die nächste KI modifizierte Cyber-Attacke in den nächsten zwölf Monaten stattfinden könnte.

Das heißt nicht, dass von nun an Roboter durch die Straßen marschieren werden, sondern eher, dass künstliche Intelligenzen die gängigen Methoden von Cyber-Attacken – beispielsweise Dinge wie Identitätsdiebstahl, Denial-of-Service-Angriffe und das Hacken von Passwörtern – mächtiger und effizienter machen werden. Das ist bereits gefährlich genug, denn diese Art von Hacking kann Unmengen von Geld kosten, emotionalen Schaden zufügen und sogar Menschen verletzen oder töten. Größere Attacken könnten den Strom für hunderttausende Menschen abschalten, Krankenhäuser vom Stromnetz trennen und die nationale Sicherheit beeinträchtigen.

Als Wissenschaftler, der den Entscheidungsfindungsprozess künstlicher Intelligenz studiert hat, kann ich sagen, dass die Interpretation menschlicher Akte für künstliche Intelligenzen immer noch schwierig ist. Menschen sind nicht wirklich auf künstliche Intelligenz angewiesen, um schwerwiegende Entscheidungen zu treffen. Im Gegensatz zu dem, was man in Filmen dargeboten bekommt, werden die Möglichkeiten, die künstliche Intelligenzen in Sachen Cyber-Angriffen bieten können, wahrscheinlich nicht dazu führen, dass Computer ihre Ziele selbstständig wählen und sie angreifen. Es werden immer noch Menschen benötigt, um KI-basierte Angriffssysteme zu schaffen und diese auf bestimmte Ziele zu richten. Jedoch wird die Addition von KI zur heutigen Welt der Internetkriminalität und Cybersicherheit zur einer regelrechten Eskalation eines sich rasch wandelnden Wettrüstens zwischen Angreifern und Verteidigern führen.

Schnellere Attacken

Davon abgesehen, dass Computer weder Nahrung noch Schlaf brauchen – eine Einschränkung, die die Leistungsfähigkeit menschlicher Hacker drosselt, selbst dann, wenn sie in Teams arbeiten – kann die Automatisierung komplexerer Attacken noch schneller und effektiver durchführen.

Bis jetzt sind die Auswirkungen der Automatisierung noch sehr eingeschränkt. Sehr primitive KI-ähnliche Fähigkeiten haben Virusprogramme über Jahrzehnte hinweg die Möglichkeit zur Reproduktion gegeben, um sich von Computer zu Computer zu verteilen – ohne, dass es dazu menschlichen Eingriff bedurfte. Darüber hinaus haben Programmierer ihre Fähigkeiten dazu benutzt, einige der beim Hacking notwendigen Schritte zu automatisieren. Verteilte Attacken werden mittels Fernsignal auf mehreren Computern oder Geräten ausgelöst, um die Server zu überfordern. Die Attacke, die große Teile des Internets im Oktober 2016 abschaltete, benutzte einen solchen Ansatz. In manchen Fällen werden allgemeine Attacken mit einem Skript zugänglich gemacht, um somit weniger technisch begabte Nutzer dazu zu befähigen, sich selber ein Ziel auszuwählen und es daraufhin anzugreifen.

Die KI könnte jedoch Internetkriminellen die Möglichkeit bieten, Attacken zu individualisieren. Für Spearphishing-Attacken brauchen Hacker beispielsweise persönliche Information über ihr zukünftiges Ziel. So benötigen sie beispielsweise Details wie die Bank, bei der man Kunde ist oder welche Krankenkasse sie in Anspruch nehmen. Die KI kann dabei helfen, große Datenbanken zu sammeln, auszuwerten und passende Daten zu verbinden und somit diese Art der Attacke sowohl in der Vorgehensweise einfacher zu gestalten als auch insgesamt beschleunigen. Durch die Verringerung des Arbeitspensums könnten Diebe dazu angespornt werden, eine Menge kleinerer Attacken zu starten, die für eine lange Zeit unerkannt bleiben werden – wenn sie aufgrund ihrer begrenzten Auswirkungen überhaupt erkannt werden.

Die KI könnte sogar dazu benutzt werden, um Informationen von mehreren Quellen zusammenzubringen. So könnten Leute ausfindig gemacht werden, die besonders verwundbar sind. Jemand, der sich beispielsweise für eine längere Zeit im Krankenhaus oder einer Pflegeeinrichtung aufhält, könnte fehlendes Geld auf seinem Konto erst dann bemerken, wenn der Dieb sich schon längst aus dem Staub gemacht hat.

Verbesserte Anpassung

KI-modifizierte Angreifer werden ebenso weitaus schneller agieren können, wenn sie einen Widerstand spüren oder wenn Cyber-Sicherheitsexperten solche Schwachstellen berichtigen, die vorher einen Zugriff für nicht berechtigte Benutzer ermöglichte. Die KI könnte eine andere Schwachstelle ausnutzen oder nach neuen Wegen suchen, um einen Weg in das System zu finden – ohne auf menschliche Befehle zu warten.

Dies könnte bedeuten, dass die Menschen, die das System gegen Angriffe schützen möchten, mit der Schnelligkeit der eintreffenden Attacken vielleicht nicht zurechtkommen werden. Es könnte in einem programmtechnischen und technologischem Wettrüsten enden, bei dem sich die Beschützer eines Systems auf die Programmierung von KI-Assistenten konzentrieren, um Attacken zu identifizieren und abzuwehren – oder vielleicht sogar eine KI entwickeln, die dazu ausgerüstet wird, Vergeltungsschläge auszuführen.

Den Gefahren aus dem Weg gehen

Sollten sie autonom handeln, könnten KI-Systeme ein System angreifen, das nicht angegriffen werden sollte. Sie könnten dabei unerwarteten Schaden herbeiführen. Zum Beispiel könnte eine Software, welche der Angreifer lediglich dazu benutzen wollte, um Geld zu stehlen, sich auf einmal dafür entscheiden, einen Krankenhauscomputer in so einer Weise anzugreifen, dass Verletzte und Tote die Folge sind. Das Potential von unbemannten Luftfahrzeugen autonom zu agieren hatte ähnliche Fragen aufgeworfen, als es darum ging, die Zielfindung festzulegen.

Die Konsequenzen und Folgen sind deutlich, jedoch werden die meisten Personen keine große Veränderung spüren, wenn die erste KI-Attacke ausgeführt wird. Für die meisten der Betroffenen wird der Ausgang sich nicht von einem Angriff durch Menschen unterscheiden. Die möglichen Konsequenzen eines Angriffs durch KI werden dadurch, dass wir weiterhin unsere Wohnungen, Fabriken, Büros und Straßen mit Internet verbundenen Robotertechniken ausrüsten, nur noch größer.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „security“ by pixelcreatures (CC0 Public Domain)


The Conversation

Schlagwörter: , , , , , , , , ,
Jeremy Straub

Jeremy Straub

ist Assisstenzprofessor an der Fakultät für Informatik der North Dakota State University und stellvertretender Direktor des Instituts für Bildung und Forschung zum Thema Cybersicherheit.

More Posts