Risikoklassen laut KI Verordnung: So regelt der EU AI Act die Risiken Künstlicher Intelligenz

Teilen:

LinkedIn
Reddit
Telegram
Inhaltsverzeichnis
Der EU AI Act erklärt: Verstehe die KI-Risikoklassen. Dein Leitfaden zu Sicherheit und Fairness bei Künstlicher Intelligenz.
Risikoklassen in Bezug auf KI : Pyramide

Angesichts der schnellen Entwicklung und des weitreichenden Potenzials von KI hat die Europäische Union ein wegweisendes Regelwerk geschaffen: den EU AI Act, zu Deutsch: Die KI-Verordnung.

Dieses Gesetz soll sicherstellen, dass KI-Systeme in Europa vertrauenswürdig, sicher und ethisch eingesetzt werden.

Der EU AI Act operiert dabei mit einem risikobasierten Ansatz, den man sich bildlich wie eine KI-Ampel vorstellen kann.

Je nachdem, welches Risiko ein KI-System für unsere Grundrechte und Sicherheit darstellt, gelten unterschiedliche und gestaffelte Anforderungen.

In diesem Artikel tauchen wir tiefer in diese Risikoklassifizierung ein und beleuchten, welche Regeln für welche Kategorie gelten.

Was sind die Risikoklassen?

Die KI-Verordnung teilt KI-Systeme in vier verschiedene Risikoklassen ein. Das kann man sich vorstellen wie bei einer Ampel, die wir gerne zur Veranschaulichung heranziehen:

  • Verbotene KI-Systeme (Rot): Diese KI-Systeme sind so gefährlich, dass sie in der EU verboten sind.
  • Hochrisiko-KI-Systeme (Orange): Diese KI-Systeme bergen hohe Risiken, sind aber unter strengen Auflagen erlaubt.
  • KI-Systeme mit geringem Risiko (Gelb): Hier gibt es nur wenige Regeln, aber Transparenz ist wichtig.
  • KI-Systeme mit minimalem Risiko (Grün): Diese KI-Systeme sind unbedenklich und es gibt kaum Einschränkungen.

Rot: Verbotene KI-Systeme

Manche KI-Systeme gehen einfach zu weit und sind deshalb in der EU verboten. Das betrifft zum Beispiel:

  • KI zur Manipulation von Menschen: Stell dir vor, eine KI würde dich heimlich so beeinflussen, dass du etwas tust, was du gar nicht willst. Das ist verboten.
  • Social Scoring: Das ist ein System, bei dem Menschen aufgrund ihres Verhaltens bewertet werden. Das ist in der EU nicht erlaubt.
  • Echtzeit-Gesichtserkennung im öffentlichen Raum: Dass die Polizei zum Beispiel ständig Gesichter scannt, um Personen zu identifizieren, ist größtenteils untersagt. Es gibt hier nur wenige Ausnahmen, die mit dem Schutz der nationalen Sicherheit begründet werden

Der Gedanke dahinter ist: Deine Freiheit und deine Rechte sollen geschützt werden.

Übrigens: Laut Artikel 4 der KI-VO Ist KI-Kompetenz für Unternehmen seit Februar 2025 Pflicht! Jetzt Mitarbeiter schulen oder selbst weiterbilden, um Bußgelder zu vermeiden!

Orange: Achtung, hohes Risiko!

In diese Kategorie fallen KI-Systeme, die ein hohes Risiko für die Sicherheit oder die Grundrechte von Menschen darstellen können. Sie sind aber nicht verboten, sondern unterliegen sehr strengen Regeln. Das betrifft zum Beispiel KI in diesen Bereichen:

  • Kritische Infrastruktur: KI, die autonome Fahrzeuge steuert oder Kraftwerke überwacht. Ein Fehler könnte hier brandgefährlich werden.
  • Bildung: KI, die zum Beispiel über die Zulassung zu Schulen oder Universitäten entscheidet. Hier muss sichergestellt sein, dass alle fair behandelt werden.
  • Personalauswahl: Wenn eine KI entscheidet, wer einen Job bekommt oder nicht. Auch hier ist Fairness super wichtig.
  • Medizinprodukte: Mit Hilfe von KI Diagnosen stellen oder Operationen durchführen. Hier geht es um deine Gesundheit!
  • Recht und Justiz: KI, die bei der Strafverfolgung oder der Urteilsfindung eingesetzt wird. Hier müssen Fehler unbedingt vermieden werden.

Für all diese Hochrisiko-KI-Systeme gelten strenge Regeln. Entwickler und Anwender müssen zum Beispiel:

  • Risiken bewerten und mindern: Sie müssen genau schauen, wo Gefahren lauern könnten und wie man sie ausschaltet.
  • Datenqualität sichern: Die Daten, mit denen die KI lernt, müssen unverzerrt und fehlerfrei sein. Schlechte Daten führen zu schlechten Ergebnissen.
  • Transparenz schaffen: Es muss klar sein, wie die KI zu ihren Entscheidungen kommt. Manchmal ist das für Außenstehende wie eine Blackbox, die es zu öffnen gilt. 
  • Menschliche Aufsicht garantieren: Es muss immer einen Menschen geben, der die Kontrolle hat und eingreifen kann. Die KI darf nicht alleine entscheiden. Man nennt dieses Prinzip auch „Human-in-the-Loop”.
  • Genau dokumentieren: Alles, was mit der Entwicklung und dem Betrieb der KI zu tun hat, muss sorgfältig aufgeschrieben werden.

Das Ziel hiervon ist es, dass die Vorteile der KI genutzt werden können, ohne dass Menschen oder die Gesellschaft darunter leiden.

Gelb: Informieren reicht meistens. KI mit geringem Risiko

KI-Systeme in dieser Kategorie sind weniger riskant. Es gibt hier nicht so viele strenge Vorschriften, aber der Umgang muss transparent sein. Das bedeutet, du musst wissen, wenn du es mit einer KI zu tun hast. Beispiele dafür sind:

  • Chatbots: Wenn du mit einem Chatbot sprichst, solltest du wissen, dass es keine echte Person ist.
  • KI-Systeme zur Meinungserkennung: Wenn eine KI analysiert, was Menschen in sozialen Medien denken, dann müssen die Nutzer darüber informiert werden.

Die Regel hier ist einfach: Sag Bescheid! So können die Nutzer selbst entscheiden, ob sie mit der KI interagieren wollen oder nicht.

Grün: Alles easy! KI mit minimalem Risiko

Die meisten KI-Systeme, die wir täglich nutzen, fallen in diese Kategorie. Sie bergen kaum bis gar keine Risiken für uns. Dazu gehören zum Beispiel:

  • Spamfilter: Die KI hilft, unerwünschte E-Mails auszusortieren.
  • Empfehlungssysteme: Wenn dir ein Streamingdienst mit Hilfe von KI Filme vorschlägt, die dir gefallen könnten.
  • Spaß-Anwendungen: Es gibt im Netz mittlerweile unzählige KI-Tools, die sozusagen „Just for fun” genutzt werden. Ein Beispiel: KI-Generatoren für Tiernamen.

Für diese Systeme gibt es kaum zusätzliche Regeln im EU AI Act. Sie sind nützlich und machen unser Leben oft einfacher oder unterhaltsamer.

Wo findet man die Informationen zu den Risikoklassen in der KI-Verordnung?

Hier kannst du alles Wichtige zu den Risikoklassen nachlesen:

Darstellung als Pyramide: Einteilung der Risikoklassen nach EU KI-Verordnung

Was ist mit den Alleskönnern? General Purpose AI (GPAI)-Modelle

Ein relativ neues und gleichzeitig sehr wichtiges Thema im EU AI Act sind die sogenannten General Purpose AI (GPAI)-Modelle, auf Deutsch auch als Allzweck-KI-Modelle oder Foundation Models bezeichnet.

Anstatt eine KI für eine ganz spezielle Aufgabe zu entwickeln (z.B. nur zur Bilderkennung von Katzen), sind GPAI-Modelle wie eine Basis für ganz viele verschiedene Anwendungen. Sie sind extrem flexibel und können für unterschiedlichste Zwecke eingesetzt oder angepasst werden.

Ein bekanntes Beispiel hierfür sind große Sprachmodelle (LLMs), die Texte generieren oder übersetzen können.

In welche Risikoklasse fallen GPAIs?

Die Herausforderung bei GPAI-Modellen ist, dass ihr finales Risiko nicht immer von Anfang an klar ist, da sie ja für so viele verschiedene Zwecke genutzt werden können. Es kommt also darauf an, wie sie später eingesetzt werden.

Der EU AI Act hat darauf reagiert, indem er eine eigene Kategorie und spezifische Regeln für GPAI-Modelle eingeführt hat. Man findet die Bestimmungen dazu hauptsächlich in den Artikeln 51 bis 53 des EU AI Acts.

  • Grundsätzlich: Ein GPAI-Modell selbst wird nicht per se als „Hochrisiko“ eingestuft. Es muss aber bestimmte Transparenzpflichten und Qualitätsstandards erfüllen. Entwickler von GPAI-Modellen müssen zum Beispiel dokumentieren, wie das Modell trainiert wurde, welche Daten verwendet wurden und welche möglichen Risiken es birgt.

  • Systemische Risiken: Besondere Aufmerksamkeit gilt GPAI-Modellen mit systemischen Risiken. Das sind Modelle, die aufgrund ihrer Leistungsfähigkeit, ihrer Reichweite oder ihrer potenziellen Auswirkungen ein besonders hohes Risiko für die Gesellschaft oder einzelne Personen darstellen könnten.

    Für diese Modelle gelten noch strengere Anforderungen, z.B. in Bezug auf Cybersicherheit, Energieverbrauch und die Minderung möglicher Folgeschäden. Sie müssen also noch robuster und sicherer sein.

  • Anwendungsfall entscheidet: Wenn ein GPAI-Modell in einem Hochrisiko-System (z.B. in einem medizinischen Diagnosegerät) eingesetzt wird, dann fällt das Gesamtsystem unter die strengen Hochrisiko-Regelungen.

    Das bedeutet, der Anwender des GPAI-Modells in dieser spezifischen Hochrisiko-Anwendung muss dann sicherstellen, dass alle Anforderungen für Hochrisiko-KI-Systeme erfüllt werden.

Wo Licht ist, ist auch Schatten: Die Ausnahmen

Du hast jetzt eine gute Vorstellung von den Risikostufen und den damit verbundenen Regeln. Doch wie bei vielen umfassenden Gesetzen gibt es auch im EU AI Act Ausnahmen und Sonderregelungen.

Vor allem bei den Hochrisiko-Systemen und den verbotenen Anwendungen. Diese sind oft das Ergebnis langer politischer Debatten und Kompromisse.

Ein besonders diskutiertes Feld sind die Ausnahmen für die Nutzung von KI durch Strafverfolgungsbehörden oder im Bereich der nationalen Sicherheit.

Während beispielsweise die Echtzeit-Gesichtserkennung im öffentlichen Raum grundsätzlich als Hochrisiko-System eingestuft und weitestgehend verboten ist, gibt es unter sehr strengen und eng definierten Voraussetzungen Ausnahmen. Diese können zum Beispiel greifen:

  • Zur Suche nach Opfern von Straftaten: Wenn eine Person entführt wurde, könnte in Ausnahmefällen der Einsatz von Gesichtserkennung erlaubt sein, um sie zu finden.
  • Zur Prävention einer konkreten und unmittelbar drohenden terroristischen Bedrohung: Hier ist die Messlatte extrem hoch, um sicherzustellen, dass es sich um einen echten Notfall handelt.
  • Zur Identifizierung von Tätern schwerer Straftaten: Wenn ein schweres Verbrechen geschehen ist und die Identität des Täters nicht anders festgestellt werden kann, könnte der Einsatz unter richterlicher Genehmigung möglich sein.

Diese Ausnahmen sind nicht unumstritten. Kritiker befürchten, dass sie Schlupflöcher schaffen könnten, die den Schutz der Privatsphäre und der Grundrechte untergraben. 

Die Gesetzgeber betonen jedoch, dass diese Ausnahmen sehr eng gefasst sind, richterlich genehmigt werden müssen und an strenge Schutzvorkehrungen geknüpft sind, um Missbrauch zu verhindern. Es ist ein Spagat zwischen Sicherheit und Freiheit, der immer wieder neu austariert werden muss.

Ein weiterer Aspekt der Ausnahmen betrifft KI-Systeme, die ausschließlich zu Forschungs- und Entwicklungszwecken eingesetzt werden oder im militärischen Bereich.

Auch hier gibt es spezifische Regelungen, die diese Bereiche anders behandeln als kommerzielle Anwendungen.

Diese Ausnahmen sollen nicht das Regelwerk aufweichen, sondern spezifische, oft hochsensible Anwendungsbereiche adressieren, in denen ein absolutes Verbot gesellschaftlich oder sicherheitspolitisch als nicht umsetzbar erachtet wurde.

Die genaue Ausgestaltung und Überwachung dieser Ausnahmen bleibt jedoch ein zentraler Punkt der öffentlichen und politischen Debatte rund um den EU AI Act.

Fazit

Die KI-Verordnung dafür, dass KI sicher und fair bleibt. Sie schützt uns vor Missbrauch und stellt sicher, dass wir die Kontrolle über die Technologie behalten. Die verschiedenen Risikostufen helfen dabei, die Regeln genau dort anzusetzen, wo sie am dringendsten gebraucht werden. Die Einhaltung der Regeln solltest du als Entwickler und Anwender unbedingt beachten, da ansonsten hohe Bußgelder drohen.

Quellen

Verordnung über künstliche Intelligenz – KI-Verordnung, abgerufen am 09.07.2025 von: https://ai-act-law.eu/de/

AI Act: Wie die Ausnahmen in der KI-Verordnung landeten, 22.01.2025 (Maria Maggiore, Leila Minano, Nico Schmidt, Harald Schumann), abgerufen am 09.07.2025 von https://netzpolitik.org/2025/ai-act-wie-die-ausnahmen-in-der-ki-verordnung-landeten/

Dieser Artikel kann mit * gekennzeichnete Affiliate-Links enthalten. Für Käufe über diese Links erhalten wir eine Provision, wodurch wir diesen Blog finanzieren können. Für dich ändert sich dadurch nichts am jeweiligen Produktpreis. Vielen Dank für deinen Support. 🧡

Alisa Said
Hi, ich bin Alisa. Meinen ersten Blog habe ich vor 15 Jahren gestartet und seitdem hat mich das Schreiben auf meinem Weg begleitet. Neben meinem eigenen Beratungsunternehmen habe ich 2023 mit meinem Partner Aleksej das Projekt AI Compact ins Leben gerufen. Ich bin überzeugt davon, dass Künstliche Intelligenz eine große Veränderung für uns alle mit sich bringt. Daher haben wir es uns zur Aufgabe gemacht, zukünftige Nutzer der KI mit wichtigen Infos und hilfreichen Tipps rund um das Thema zu versorgen. Für einen verantwortungsvollen, effizienten und rechtssicheren Umgang mit KI.
Online Schulung

Jetzt Pflicht erfüllen und Bußgelder vermeiden! Sichern Sie noch heute KI-Kompetenz im Unternehmen.

  • > 25 Video-Lektionen
  • Bearbeitungsdauer: 2-3 Stunden
  • Workbook mit praktischen Übungen
  • Zertifikat nach erfolgreicher Teilnahme