EU AI Act: Ein Leitfaden für Unternehmen

Teilen:

LinkedIn
Reddit
Telegram
Inhaltsverzeichnis
Der EU AI Act bringt neue Regelungen für KI in der EU. Erfahre alles über den aktuellen Stand, Sanktionen und die Auswirkungen auf die Branche.
Über den Ländern der EU ist ein Chip mit der Aufschrift "AI" platziert. Daneben ist ein Gerichtshammer zu sehen. Das Bild spiegelt das Thema EU AI Act wider.

Der EU AI Act ist die erste umfassende Gesetzgebung weltweit, die gezielt auf die Regulierung von Künstlicher Intelligenz (KI) abzielt. Die Verordnung wurde am 21. Mai 2024 verabschiedet und schafft einen klaren rechtlichen Rahmen für die Entwicklung, den Markteintritt und den Einsatz von KI-Systemen innerhalb der EU. Ziel des AI Acts ist es, das Vertrauen in KI-Anwendungen zu stärken und gleichzeitig ein hohes Schutzniveau für Gesundheit, Sicherheit und die Grundrechte der Bürger zu gewährleisten.

Der EU AI Act: Ein Überblick

Der EU AI Act folgt einem risikobasierten Ansatz: Die regulatorischen Anforderungen orientieren sich an dem Risiko, das von einem spezifischen KI-System ausgeht. Anwendungen mit potenziell höherem Risiko unterliegen strengeren gesetzlichen Vorgaben.

Entstehung und Kontext

Die Entwicklung des EU AI Acts wurde durch das wachsende Bewusstsein für die Chancen und Risiken von KI initiiert. Die EU sah die Notwendigkeit, einen Rechtsrahmen zu schaffen, der die Entwicklung innovativer KI-Anwendungen fördert und zugleich die Sicherheit und Rechte der Bürger schützt.

Die Europäische Kommission begann den Gesetzgebungsprozess, der durch die Zusammenarbeit des Europäischen Parlaments und des Rats der EU entscheidend geprägt wurde.

Der EU AI Act ergänzt andere zentrale EU-Gesetze, wie die Datenschutzgrundverordnung (DSGVO), und stellt sicher, dass Bürgerrechte und ethische Grundsätze in der EU gewahrt und gestärkt werden.

Margrethe Vestager, EU-Kommissarin für „Ein Europa für das digitale Zeitalter“:

„Vertrauen ist bei der künstlichen Intelligenz nicht nur ein Pluspunkt, sondern eine Notwendigkeit. Mit diesen wegweisenden Regeln setzt die EU neue weltweite Standards, um sicherzustellen, dass KI vertrauenswürdig ist. Wir schaffen ethische Rahmenbedingungen für Technologie und gewährleisten, dass die EU wettbewerbsfähig bleibt.“

Thierry Breton, EU-Kommissar für den Binnenmarkt:

„KI ist ein Mittel, kein Selbstzweck. Diese Technologie birgt enormes Potenzial in Bereichen wie Gesundheit, Transport und Cybersicherheit, aber auch Risiken. Mit den heutigen Vorschlägen stärken wir die Position Europas als globales Zentrum für vertrauenswürdige KI und sichern, dass KI unseren Werten und Regeln entspricht.“

Hintergrund und Anstoß für den EU AI Act

Der EU AI Act entstand aus der dringenden Notwendigkeit, klare Rahmenbedingungen für den Umgang mit KI zu schaffen, um sowohl die Innovation zu fördern als auch grundlegende Rechte zu schützen. Angesichts der rasanten Verbreitung von KI und ihrer möglichen Auswirkungen war es unerlässlich, eine einheitliche Rechtsgrundlage für die Nutzung dieser Technologien in Europa zu entwickeln.

Akteure und Gesetzgebungsprozess

Die Entwicklung des EU AI Acts resultierte aus einem umfassenden Gesetzgebungsprozess, den die Europäische Kommission initiierte und der durch die Zusammenarbeit verschiedener Institutionen unterstützt wurde:

  • Europäische Kommission: Als Initiator legte die Kommission den Gesetzentwurf vor und trieb den Prozess aktiv voran.
  • Europäisches Parlament und Rat der EU: Diese Institutionen berieten den Vorschlag im Rahmen des ordentlichen Gesetzgebungsverfahrens und verabschiedeten ihn schließlich.
  • Weitere Beteiligte: Institutionen wie der Europäische Wirtschafts- und Sozialausschuss, die Europäische Zentralbank und der Ausschuss der Regionen brachten Stellungnahmen und Empfehlungen ein, um die Ausrichtung des Gesetzes zu präzisieren.

Wichtige Hintergrundinformationen

Der EU AI Act folgt einem risikobasierten Ansatz, der für unterschiedliche Risiken verschiedene regulatorische Anforderungen an KI-Systeme festlegt:

  • Ausdrückliches Verbot von Praktiken mit unannehmbarem Risiko: Der AI Act untersagt KI-Systeme, die ein hohes Risiko für die Sicherheit und Grundrechte darstellen, wie z. B. Systeme zur Verhaltensmanipulation und Social Scoring.
  • Strenge Anforderungen für Hochrisiko-KI: Für Anwendungen, die als hochriskant gelten, bestehen strenge Vorschriften zur Konformitätsbewertung, zum Risikomanagement und zur Transparenz.
  • Integration mit anderen EU-Vorschriften: Der AI Act ist eng mit bestehenden Gesetzen wie der DSGVO verknüpft, um das Schutzniveau weiter zu erhöhen.

Als umfassendes Regelwerk wird der EU AI Act die langfristige Entwicklung und Nutzung von KI in der EU prägen. Ziel ist es, KI verantwortungsvoll einzusetzen, europäische Werte zu schützen und gleichzeitig Innovationen zu fördern.

Aktueller Stand und geplante Durchsetzung des AI Acts

Der AI Act trat offiziell am 1. August 2024 in Kraft, jedoch wird die vollständige Anwendbarkeit stufenweise bis 2030 erreicht. Dieser gestaffelte Zeitplan ermöglicht es Unternehmen und Institutionen, sich schrittweise auf die neuen Vorgaben einzustellen.

Zeitplan für die Umsetzung

    • 2. Februar 2025: Ab diesem Datum gelten die allgemeinen Bestimmungen des AI Acts, einschließlich des Verbots bestimmter KI-Praktiken wie Social Scoring und manipulativer Systeme.
    • 2. Mai 2025: Die ersten Codes of Practice werden zur Verfügung stehen, um den Anbietern von KI-Systemen die frühzeitige Konformität zu erleichtern.
    • 2. August 2025: Die Infrastruktur für Governance und Konformitätsbewertungen wird etabliert, und die Vorschriften für die notifizierten Stellen sowie Anbieter von general-purpose AI models treten in Kraft.
    • 2. August 2026: Ab diesem Datum gilt der AI Act in vollem Umfang.
    • 2. August 2030: Für Hochrisiko-KI-Systeme in öffentlichen Bereichen gilt bis zu diesem Datum eine verlängerte Anpassungsfrist, um die vollständige Konformität zu erreichen.

EU AI Act Diagramm zu Sanktionen bei Verstößen

Mögliche Änderungen und Erweiterungen

Der AI Act sieht vor, dass die Europäische Kommission durch delegierte Rechtsakte Anpassungen vornehmen kann, um mit technologischen Fortschritten Schritt zu halten. So könnte die Liste der Hochrisiko-KI-Systeme in Anhang III erweitert oder angepasst werden. Weitere Anpassungen könnten neue Anforderungen an technische Dokumentationen und Konformitätsbewertungsverfahren umfassen.

Zusätzliche Anpassungen umfassen:

  • Regelmäßige Evaluierung: Die Europäische Kommission wird den AI Act bis spätestens 2. August 2031 evaluieren und potenzielle Änderungen vorschlagen.
  • Integration neuer Benchmarks: Festlegung von Benchmarks zur Bewertung von general-purpose AI models wird zunehmend an Bedeutung gewinnen.
  • Ergänzende EU-Behörden: Die Einrichtung einer spezialisierten EU-Agentur könnte in Betracht gezogen werden, die sich ausschließlich mit der Durchsetzung und Weiterentwicklung des AI Acts befasst.

Umsetzung und Anpassungspflicht für Unternehmen

Unternehmen, die KI-Systeme entwickeln oder nutzen, sind verpflichtet, ihre Systeme gemäß den Vorgaben des AI Acts zu klassifizieren und anzupassen. Dazu gehören Maßnahmen zur Einhaltung der Risikoklassifizierung, Konformitätsbewertungen, Risikomanagement und Transparenzanforderungen.

Die wichtigsten Schritte für die Umsetzung sind:

  • Klassifizierung der KI-Systeme: Unternehmen müssen alle KI-Systeme gemäß dem AI Act auf ihr Risikopotenzial hin prüfen und klassifizieren.
  • Erfüllung risikospezifischer Anforderungen: Je nach Risikoklasse sind spezifische Konformitätsbewertungen und Risikomanagementprozesse erforderlich.
  • Schulung und Dokumentation:Unternehmen sollten Mitarbeitende zu den neuen Anforderungen schulen und die Konformität ihrer Systeme kontinuierlich dokumentieren.

Verhaltenscodex für General-purpose AI Modelle

Für Anbieter von General-purpose AI models, die in verschiedenen Bereichen Anwendung finden, ergeben sich besondere Herausforderungen.

Allgemeine KI-Modelle können eine Vielzahl von Aufgaben erfüllen und bilden zunehmend die Grundlage vieler KI-Systeme in der EU. Einige dieser Modelle könnten daher systemische Risiken bergen, besondere wenn sie sehr weit verbreitet sind.

Um eine sichere und vertrauenswürdige Nutzung dieser Modelle zu gewährleisten, führt der AI Act Regeln für deren Anbieter ein. Dazu gehören Vorgaben zu Transparenz und urheberrechtlichen Aspekten. 

Die Regeln des AI Acts für Allgemeine KI treten im August 2025 in Kraft. Das AI Office fördert die Erstellung eines Verhaltenskodexes, um diese Regeln näher auszuführen. Der Kodex soll ein zentrales Werkzeug für Anbieter sein, um beispielsweise aktuelle Best Practices zu integrieren.

Die Umsetzung des AI Acts ist ein fortlaufender Prozess, der ständige Anpassungen und die Überwachung neuer regulatorischer Anforderungen erfordert.

Klassifizierung von KI-Systemen im EU AI Act

Der risikobasierte Ansatz des Acts legt fest, dass sich Anforderungen und Einschränkungen von KI-Systemen nach dem Risiko richten, das von ihnen ausgeht. Der EU AI Act definiert vier zentrale Risikoklassen:

  • Unannehmbares Risiko: Systeme mit unannehmbarem Risiko sind innerhalb der EU verboten. Dazu zählen Technologien, die Personen manipulieren oder Social Scoring betreiben.
    Ein berühmtes Beispiel ist der Deepfake-Skandal mit Vitali Klitschko.
  • Hohes Risiko: Systeme mit erheblichen Auswirkungen auf Gesundheit, Sicherheit oder Grundrechte werden als Hochrisiko-KI-Systeme eingestuft. Diese unterliegen strengen Anforderungen.
    Aktuelles Beispiel: Autonome Fahrzeuge – Tesla. Unfälle nehmen weiter zu
  • Begrenztes Risiko: Systeme mit begrenztem Risiko unterliegen spezifischen Transparenzanforderungen. Nutzer müssen darüber informiert werden, dass sie mit KI interagieren.
    Beispiel: Personalisierte Werbung
  • Minimales Risiko: Systeme mit minimalem Risiko, wie private Automatisierungsanwendungen, unterliegen keinen besonderen Anforderungen.

Der AI Act enthält eine Liste von Hochrisiko-Anwendungsbereichen in Anhang III, wie:

  • Biometrische Identifizierungssysteme, z. B. Gesichtserkennung zur Strafverfolgung.
  • KI in kritischen Infrastrukturen, wie in Strom- und Verkehrssystemen.
  • KI im Bildungswesen, etwa zur Bewertung von Schülerleistungen.
  • Arbeitsbezogene KI-Systeme, wie Anwendungen zur Kandidatenauswahl oder Leistungsbewertung.

Konkrete Sanktionen bei Verstößen gegen das KI-Gesetz

Für Verstöße gegen das Gesetz sind strenge Strafen vorgesehen. Die Höhe der Sanktionen richtet sich nach der Art des Verstoßes und der Unternehmensgröße, um die Einhaltung der Vorschriften sicherzustellen.

Übersicht über die Sanktionen

  • Geldbußen bei schwerwiegenden Verstößen: Bei Verstößen gegen grundlegende Verbote, wie Social Scoring, können Geldbußen bis zu 35 Millionen Euro oder 7 % des weltweiten Jahresumsatzes verhängt werden.
  • Geldbußen für Verstöße gegen Hochrisiko-Vorgaben: Werden die Anforderungen für Hochrisiko-KI-Systeme nicht erfüllt, drohen Bußen von bis zu 15 Millionen Euro oder 3 % des Jahresumsatzes.
  • Besondere Regelungen für KMU: Für kleine und mittlere Unternehmen gelten reduzierte Höchstbeträge bei Geldbußen.

Unterschiede zwischen DSGVO und AI Act

Die DSGVO und der EU AI Act sind zwei wichtige europäische Gesetzgebungen, die den Schutz von Personen im digitalen Zeitalter sichern. Beide haben jedoch unterschiedliche Schwerpunkte und Ziele.

Unterschiedliche Zielsetzungen

  • DSGVO: Fokussiert auf den Schutz personenbezogener Daten und die Wahrung der Privatsphäre.
  • AI Act: Zielt auf die sichere und transparente Nutzung von KI-Systemen und den Schutz der Bürgerrechte ab.

Fazit

Der EU AI Act ist die erste umfassende Verordnung zur Regulierung von KI in Europa. Der risikobasierte Ansatz kategorisiert KI-Anwendungen und stellt abgestufte Anforderungen an Sicherheit, Transparenz und Konformität. Hochrisiko-KI-Systeme unterliegen besonders strengen Vorschriften, während Praktiken mit unannehmbarem Risiko verboten sind. Der Act fordert Unternehmen dazu auf, umfassende Compliance-Maßnahmen zu ergreifen und stellt sicher, dass KI in Europa den ethischen und rechtlichen Grundwerten der EU entspricht.

Quellen

Dieser Artikel kann mit * gekennzeichnete Affiliate-Links enthalten. Als Amazon-Partner verdiene ich an qualifizierten Käufen, wodurch sich diese Seite finanziert.

Aleksej Siebenhaar
Aleksej ist ein echter KI-Enthusiast. Mit einer fundierten Ausbildung und umfangreicher Erfahrung in der KI-Optimierung unterstützt er Unternehmen dabei, durch den Einsatz von KI ihre Effizienz zu steigern und Prozesse zu automatisieren. Aleksej ist zertifizierter Projektmanager und hat unter andere erfolgreich an Projekten wie der Entwicklung von Apps gearbeitet. Seine Leidenschaft für KI wird ergänzt durch sein Interesse an Technologie, das er durch kontinuierliche Weiterbildung in den Bereichen Automatisierung, Prozess- und Projektmanagement vertieft. Seine Fähigkeit, komplexe technische Konzepte verständlich und zugänglich zu machen, wurde durch seine langjährige Tätigkeit als Personal Trainer und Dozent für eine Fitnesstrainer Akademie geschärft. Diese Erfahrung hat ihm wertvolle Methoden im Bereich der effektiven Wissensvermittlung vermittelt. Als Gründer von AI-Compact teilt Aleksej seine Expertise und Leidenschaft durch gut recherchierte Artikel, praxisnahe Anleitungen und aktuelle Informationen über die neuesten Entwicklungen und Tools im Bereich der KI.