Die Europäische Union hat mit dem AI Act (Künstliche-Intelligenz-Gesetz) einen bedeutenden Schritt unternommen, um den Einsatz von Künstlicher Intelligenz (KI) in Europa zu regulieren. Ziel ist es, Innovation zu fördern und gleichzeitig Risiken durch KI zu minimieren. Doch was steckt genau hinter dem AI Act? In diesem Artikel erklären wir dir das neue KI-Gesetz der EU verständlich und kompakt.
Was ist der AI Act?
Der AI Act (Artificial Intelligence Act) ist ein Gesetzesvorschlag der Europäischen Union, der im März 2024 final verabschiedet wurde. Er soll einheitliche Regeln für den Einsatz von Künstlicher Intelligenz (KI) in Europa schaffen. Ziel ist es, die Vorteile von KI nutzbar zu machen, ohne dabei Grundrechte, Sicherheit oder demokratische Werte zu gefährden.
Der AI Act ist damit das erste umfassende Gesetz weltweit, das sich ausschließlich mit der Regulierung von KI-Technologien befasst. Er ist vergleichbar mit der Datenschutz-Grundverordnung (DSGVO) – nur eben für KI.
Das Gesetz ist Teil der digitalen Strategie der EU, die Europa zu einem führenden und verantwortungsvollen Standort für KI-Entwicklung machen will. Es verfolgt mehrere Ziele gleichzeitig: So soll es den Schutz von Sicherheit und Grundrechten gewährleisten, etwa um Diskriminierung, Überwachung oder fehlerhafte automatisierte Entscheidungen zu verhindern. Gleichzeitig schafft der AI Act rechtliche Klarheit für Unternehmen, damit sie wissen, unter welchen Bedingungen sie KI-Systeme entwickeln und einsetzen dürfen. Auch die Innovationsförderung steht im Fokus – etwa durch sogenannte „regulatorische Sandkästen“, in denen neue KI-Anwendungen unter kontrollierten Bedingungen getestet werden können. Und nicht zuletzt soll das Gesetz das Vertrauen in KI-Systeme stärken, indem es Transparenz, Nachvollziehbarkeit und menschliche Kontrolle sicherstellt.
Der AI Act richtet sich nicht nur an große Tech-Konzerne, sondern auch an kleine und mittlere Unternehmen (KMU), Start-ups, öffentliche Stellen und internationale Anbieter, die KI-Systeme in Europa einsetzen oder vertreiben.
Besonders wichtig ist der technologieoffene Ansatz des Gesetzes. Der AI Act macht anzuwendende Regeln nicht nur von technischen Verfahren wie maschinelles Lernen oder neuronale Netze abhängig, sondern auch vom konkreten Anwendungsfall eines KI-Systems. Entscheidend ist also nicht, wie die KI funktioniert, sondern wofür sie genutzt wird – und welches Risiko dabei für Menschen und Gesellschaft entsteht.
Warum braucht es ein KI-Gesetz?
Künstliche Intelligenz ist längst kein Zukunftsthema mehr, sondern bereits Teil unseres Alltags. Sie trifft Entscheidungen über Bewerbungen, erkennt Gesichter auf Überwachungskameras, filtert Inhalte in sozialen Netzwerken und hilft Ärztinnen und Ärzten bei Diagnosen. Diese Technologien eröffnen enorme Chancen – sie machen Prozesse effizienter, verbessern Dienstleistungen und ermöglichen Fortschritte in Bereichen wie Medizin, Mobilität oder Bildung. Gleichzeitig aber entstehen neue Risiken und Herausforderungen, auf die unsere bisherigen Gesetze oft keine ausreichenden Antworten bieten.
Ein zentrales Problem ist, dass viele KI-Systeme Entscheidungen treffen, die für die betroffenen Menschen schwer nachvollziehbar sind. Oft bleibt unklar, wie ein Algorithmus zu einem bestimmten Ergebnis kommt – etwa, warum jemand einen Kredit erhält und ein anderer nicht. Diese Intransparenz kann das Vertrauen in solche Technologien untergraben. Hinzu kommt, dass KI nicht neutral ist: Sie wird mit Daten trainiert, die bestehende gesellschaftliche Vorurteile enthalten können. Dadurch besteht die Gefahr, dass Diskriminierung nicht nur fortbesteht, sondern durch automatisierte Entscheidungen sogar verstärkt wird.
Besonders kritisch wird es, wenn KI in sensiblen Bereichen eingesetzt wird – zum Beispiel bei der Strafverfolgung, im Bildungswesen oder im Gesundheitssektor. Hier können fehlerhafte Entscheidungen gravierende Folgen haben. Ohne klare Regeln besteht die Gefahr, dass der Einsatz von KI Grundrechte verletzt, etwa das Recht auf Datenschutz, Gleichbehandlung oder menschliche Würde.
Ein weiteres Problem ist die zunehmende Verbreitung von KI-Systemen mit manipulativen Eigenschaften – etwa Anwendungen, die menschliches Verhalten bewusst beeinflussen, ohne dass die Nutzerinnen und Nutzer es bemerken. Auch Systeme zur automatischen Überwachung oder zur Bewertung menschlichen Verhaltens (wie Social Scoring) werfen ethische und gesellschaftliche Fragen auf. Solche Entwicklungen berühren die Grundwerte einer freien und demokratischen Gesellschaft.
Vor diesem Hintergrund ist es aus Sicht der EU notwendig, ein einheitliches Regelwerk zu schaffen, das sowohl Risiken begrenzt als auch klare Leitlinien für den verantwortungsvollen Einsatz von KI bietet. Der AI Act soll dafür sorgen, dass Innovation nicht auf Kosten der Menschenwürde, Sicherheit oder Gerechtigkeit geschieht – sondern dass neue Technologien im Einklang mit europäischen Werten entwickelt und genutzt werden können.
So funktioniert der AI Act: Einteilung nach Risikostufen
Der AI Act verfolgt einen risikobasierten Ansatz. Das bedeutet: Je höher das Risiko, das ein KI-System für die Gesellschaft birgt, desto strenger sind die Regeln.
1. Verbotene KI-Systeme (Unannehmbares Risiko)
Diese Systeme sind grundsätzlich verboten, z. B.:
-
KI zur sozialen Bewertung (Social Scoring)
-
Manipulative Systeme, die Menschen unbewusst beeinflussen
-
Echtzeit-Gesichtserkennung im öffentlichen Raum (nur mit Ausnahmen)
2. Hochrisiko-KI
Erlaubt, aber stark reguliert. Diese Systeme müssen strenge Anforderungen erfüllen – etwa Transparenz, Sicherheit, Menschenkontrolle. Beispiele:
-
KI in medizinischen Geräten
-
Kreditwürdigkeitsprüfungen
-
Bewerberauswahl durch automatisierte Systeme
3. Begrenztes Risiko
Hier reicht oft ein transparenter Hinweis, dass KI im Spiel ist. Beispiele:
-
Chatbots
-
KI-gestützte Empfehlungssysteme (z. B. bei Streamingdiensten)
4. Minimales Risiko
Diese KI-Systeme unterliegen keiner speziellen Regulierung. Dazu gehören etwa:
-
Spam-Filter
-
Videospiel-KI
-
Rechtschreibkorrekturen
Wer ist vom AI Act betroffen?
Der AI Act richtet sich an eine breite Gruppe von Akteuren, die in irgendeiner Form an der Entwicklung, Bereitstellung oder Nutzung von KI-Systemen beteiligt sind. Betroffen sind nicht nur große Tech-Konzerne oder Forschungseinrichtungen, sondern ebenso kleine und mittlere Unternehmen, Start-ups, öffentliche Behörden und Organisationen, die KI in ihre Abläufe integrieren – etwa in der Verwaltung, im Bildungsbereich oder im Gesundheitswesen.
Auch Unternehmen, die ihren Sitz nicht in der Europäischen Union haben, unterliegen dem AI Act, wenn sie ihre KI-Systeme auf dem europäischen Markt anbieten oder wenn deren Einsatz Auswirkungen auf Personen innerhalb der EU hat. Damit macht die EU deutlich, dass ihre Regeln nicht nur innerhalb ihrer Grenzen gelten, sondern auch für alle, die KI-Dienstleistungen oder Produkte für europäische Nutzerinnen und Nutzer bereitstellen wollen. Dies entspricht einem ähnlichen Prinzip wie bei der Datenschutz-Grundverordnung, die bereits weltweit Standards gesetzt hat.
Besonders relevant ist der AI Act für Unternehmen, die sogenannte Hochrisiko-KI-Systeme entwickeln oder einsetzen. Diese unterliegen strengen Anforderungen und müssen nachweisen, dass ihre Systeme sicher, transparent und kontrollierbar sind. Doch auch Entwicklerinnen und Entwickler von weniger riskanten KI-Anwendungen müssen unter bestimmten Umständen sicherstellen, dass Nutzerinnen und Nutzer darüber informiert werden, wenn sie mit einer KI interagieren.
Darüber hinaus betrifft das Gesetz nicht nur diejenigen, die KI-Systeme herstellen oder vertreiben, sondern auch jene, die solche Systeme integrieren, anpassen oder für bestimmte Zwecke weiterentwickeln. Selbst Beratungsfirmen oder Dienstleister, die KI-Lösungen für Dritte konfigurieren, können unter die Vorgaben des AI Act fallen.
Kurz gesagt: Der AI Act verändert die Rahmenbedingungen für alle, die mit KI arbeiten – direkt oder indirekt. Er fordert ein neues Bewusstsein für Verantwortung im Umgang mit Technologie und legt fest, dass Innovation nicht im rechtsfreien Raum stattfinden darf, sondern klare ethische und rechtliche Grenzen braucht.
Was bedeutet das für Unternehmen?
Für Unternehmen bringt der AI Act nicht nur neue gesetzliche Anforderungen mit sich, sondern auch praktische Veränderungen in der Art und Weise, wie KI-Systeme entwickelt, getestet, dokumentiert und eingesetzt werden. Besonders Unternehmen, die sogenannte Hochrisiko-KI anbieten oder nutzen, stehen vor konkreten Pflichten, die sie frühzeitig in ihre Entwicklungs- und Geschäftsprozesse integrieren müssen.
Zunächst müssen Unternehmen ihre KI-Anwendungen genau analysieren und klassifizieren, um herauszufinden, ob sie unter die Kategorie der verbotenen, hochriskanten oder weniger riskanten Systeme fallen. Diese Risikoeinschätzung ist die Grundlage für alle weiteren rechtlichen Pflichten. Ein KI-System zur automatisierten Bewerberauswahl, zur Kreditvergabe oder zur Unterstützung medizinischer Diagnosen gilt beispielsweise als Hochrisiko-Anwendung – mit entsprechend strengen Auflagen.
Wenn ein System als hochriskant eingestuft wird, müssen Unternehmen umfassende technische Unterlagen und Risikobewertungen erstellen. Dazu gehört eine genaue Beschreibung, wie das System funktioniert, mit welchen Daten es trainiert wurde, welche Schutzmaßnahmen eingebaut sind und wie mögliche Fehlerquellen erkannt und behoben werden können. Diese Dokumentation muss bereits vor der Inverkehrbringung vorliegen und wird von den zuständigen Aufsichtsbehörden geprüft. Der Aufwand erinnert an Verfahren, wie man sie aus der Produktsicherheit kennt – etwa bei Medizin- oder Maschinenrichtlinien.
Ein weiterer zentraler Punkt ist die sogenannte menschliche Aufsicht. Unternehmen müssen sicherstellen, dass Menschen jederzeit in der Lage sind, die Entscheidungen der KI zu kontrollieren, zu korrigieren oder im Zweifelsfall ganz abzubrechen. Das bedeutet beispielsweise, dass bei automatisierten Systemen in sensiblen Bereichen stets klar sein muss, wer verantwortlich ist und wie Entscheidungen nachvollzogen werden können. Ein reines „Durchwinken“ von KI-generierten Ergebnissen ohne menschliche Prüfung wird in vielen Fällen nicht mehr zulässig sein.
Auch in puncto Datenqualität gelten strengere Vorgaben: Unternehmen müssen nachweisen, dass die für das Training verwendeten Daten repräsentativ, aktuell und möglichst frei von Verzerrungen sind. Damit soll vermieden werden, dass diskriminierende oder einseitige Trainingsdaten zu unfairen oder fehlerhaften Entscheidungen führen.
Neben den technischen Anforderungen spielt auch die Transparenz gegenüber den Nutzerinnen und Nutzern eine wichtige Rolle. Wenn Menschen mit einem KI-System interagieren, das z. B. Inhalte generiert, Entscheidungen trifft oder Gespräche führt, muss klar erkennbar sein, dass es sich um eine Maschine handelt – etwa durch Hinweise wie „Dieses System wird von Künstlicher Intelligenz unterstützt“. Auch eine einfache Möglichkeit zur Beschwerde oder zum Widerspruch muss angeboten werden.
Insgesamt verlangt der AI Act von Unternehmen ein systematisches Risikomanagement für KI-Systeme – vergleichbar mit dem Qualitätsmanagement in anderen regulierten Branchen. Das betrifft nicht nur die Entwicklung, sondern auch den Betrieb und die laufende Überwachung von KI-Anwendungen. Unternehmen werden dafür interne Prozesse und Zuständigkeiten aufbauen müssen, teilweise auch neue Rollen wie „KI-Compliance-Verantwortliche“ einführen.
Wer gegen die Vorgaben des AI Act verstößt, muss mit empfindlichen Strafen rechnen. Je nach Schwere des Verstoßes drohen Geldbußen von bis zu 35 Millionen Euro oder bis zu sieben Prozent des weltweiten Jahresumsatzes – was insbesondere für große Konzerne eine erhebliche Sanktion darstellen kann.
Gleichzeitig eröffnet der AI Act auch Chancen: Unternehmen, die frühzeitig rechtskonforme, vertrauenswürdige KI entwickeln, können sich auf dem Markt besser positionieren und das wachsende Bedürfnis nach sicherer, nachvollziehbarer Technologie bedienen. In einer Zeit zunehmender Regulierung und gesellschaftlicher Sensibilität gegenüber KI kann das ein echter Wettbewerbsvorteil sein.
Wann tritt der AI Act in Kraft?
Im März 2024 wurde der AI Act vom Europäischen Parlament verabschiedet. Das Gesetz tritt voraussichtlich Anfang 2026 vollständig in Kraft, einige Teile (wie das Verbot bestimmter KI-Systeme) gelten aber schon früher – zum Teil bereits 2025.
Ein Balanceakt zwischen Innovation und Sicherheit
Mit dem AI Act verfolgt die Europäische Union das Ziel, Künstliche Intelligenz im Einklang mit ihren Werten zu gestalten – also mit Demokratie, Datenschutz, Rechtsstaatlichkeit und Menschenwürde. Das Gesetz ist nicht nur ein regulatorisches Projekt, sondern Ausdruck eines europäischen Selbstverständnisses, wie Technologie in einer offenen Gesellschaft eingesetzt werden soll. Es steht damit im Spannungsfeld zwischen der Förderung von technologischem Fortschritt und der Notwendigkeit, Grundrechte zu schützen.
Diese Balance zu finden, ist eine große Herausforderung: Zu viel Regulierung kann Innovation bremsen, zu wenig Kontrolle kann Vertrauen zerstören. Der AI Act versucht, genau diesen schmalen Grat zu gehen. Er setzt nicht auf pauschale Verbote, sondern auf einen differenzierten, risikobasierten Ansatz. Damit sollen sichere Rahmenbedingungen für Innovationen geschaffen werden – insbesondere für kleine und mittlere Unternehmen, die in einem klar regulierten Umfeld eher investieren und wachsen können.
Gleichzeitig ist der AI Act auch ein strategisches Instrument, mit dem sich die EU geopolitisch und wirtschaftlich positioniert. In einer Zeit, in der die USA und China den Markt für KI-Technologie dominieren, setzt Europa ein klares Zeichen: Es will nicht einfach nur mitlaufen, sondern eigene Standards setzen. So wie die Datenschutz-Grundverordnung (DSGVO) international zum Vorbild wurde, könnte auch der AI Act weltweiten Einfluss auf Gesetzgebungen und Unternehmensstrategien haben – ein Effekt, den man als „Brüssel-Effekt“ bezeichnet.
Viele international agierende Unternehmen, darunter auch KI-Marktführer wie OpenAI, Microsoft, Google oder Anthropic, beobachten die europäische Regulierung sehr genau. Einige von ihnen haben bereits angekündigt, ihre Systeme an die neuen Anforderungen anzupassen oder sogar europäische Standards freiwillig in anderen Märkten umzusetzen. Das zeigt, dass der AI Act bereits über Europas Grenzen hinaus Wirkung entfaltet – nicht zuletzt, weil große Anbieter ihre Produkte häufig weltweit skalieren und regulatorische Klarheit schätzen.
Zugleich stehen diese Unternehmen vor der Herausforderung, ihre komplexen KI-Modelle – etwa große Sprachmodelle wie GPT – mit neuen Transparenz- und Sicherheitsanforderungen in Einklang zu bringen. Das erfordert zum Teil erhebliche Investitionen in Dokumentation, Monitoring und Governance-Strukturen. Viele Anbieter arbeiten bereits an technischen und organisatorischen Lösungen, um etwa Risikoeinschätzungen nachvollziehbar zu machen oder Menschen verstärkt in kritische Prozesse einzubinden.
Langfristig könnte der AI Act damit nicht nur ein Regelwerk sein, sondern ein Wettbewerbsfaktor: Wer sich frühzeitig an europäische Standards hält, kann Vertrauen aufbauen – bei Nutzer*innen, bei Geschäftspartnern und bei Aufsichtsbehörden. Und Vertrauen wird zunehmend zu einer Währung im digitalen Zeitalter.
Image via ChatGPT (KI-generiert)
Artikel per E-Mail verschicken
