Conformité

AI Act: Die 4 Risikoklassen erklärt

Unzulässig, hohes Risiko, begrenztes Risiko, minimales Risiko: die 4 Stufen des AI Act mit Beispielen und Pflichten pro Stufe.

10 avril 20264 min de lectureWarDek Team

AI Act: Die 4 Risikoklassen der europäischen KI-Verordnung

Der AI Act (Verordnung (EU) 2024/1689) ist das weltweit erste umfassende Gesetz zur Regulierung künstlicher Intelligenz. Sein Kernprinzip: Je höher das Risiko eines KI-Systems, desto strenger die Anforderungen. Dieser Leitfaden erklärt die vier Risikoklassen mit konkreten Beispielen.

Das Risikomodell im Überblick

┌─────────────────────────────────┐
│     UNZULÄSSIGES RISIKO         │  ← VERBOTEN
│     Art. 5 AI Act               │
├─────────────────────────────────┤
│     HOHES RISIKO                │  ← Strenge Anforderungen
│     Art. 6-49 AI Act            │
├─────────────────────────────────┤
│     BEGRENZTES RISIKO           │  ← Transparenzpflichten
│     Art. 50 AI Act              │
├─────────────────────────────────┤
│     MINIMALES RISIKO            │  ← Freiwillige Verhaltenskodizes
│     Keine spezifischen Pflichten│
└─────────────────────────────────┘

Stufe 1: Unzulässiges Risiko (Verboten)

KI-Systeme, die als inakzeptable Bedrohung für die Grundrechte eingestuft werden, sind in der EU verboten.

Verbotene Praktiken

| Verbot | Erläuterung | |---|---| | Soziales Scoring durch Behörden | Bewertung von Personen auf Basis ihres Sozialverhaltens mit nachteiligen Folgen | | Kognitive Manipulation | Unterschwellige Techniken, die das Verhalten einer Person verzerren und Schaden verursachen | | Ausnutzung von Schwächen | KI, die Alter, Behinderung oder soziale Lage gezielt ausnutzt | | Biometrische Echtzeitüberwachung | In öffentlich zugänglichen Räumen (mit eng definierten Ausnahmen für Strafverfolgung) | | Emotionserkennung am Arbeitsplatz/Bildung | KI, die Emotionen von Mitarbeitern oder Schülern analysiert | | Biometrische Kategorisierung | Ableitung sensibler Merkmale (Rasse, Religion, sexuelle Orientierung) aus biometrischen Daten |

Ausnahmen bei biometrischer Überwachung

Nur für Strafverfolgung, nur mit richterlicher Genehmigung, nur bei:

Für Unternehmen: Wenn Ihr KI-System unter diese Kategorie fällt, darf es in der EU nicht angeboten, eingesetzt oder in Verkehr gebracht werden.

Stufe 2: Hohes Risiko

KI-Systeme, die in sicherheitskritischen Produkten oder grundrechtsrelevanten Bereichen eingesetzt werden, unterliegen strengen Anforderungen.

Zwei Wege zum Hochrisiko

Weg 1: Sicherheitskomponente eines regulierten Produkts (Anhang I)

| Sektor | Beispiele | |---|---| | Medizinprodukte | KI-gestützte Diagnose, Bildanalyse | | Kraftfahrzeuge | Autonome Fahrfunktionen | | Luftfahrt | KI in Flugsteuerungssystemen | | Spielzeug | KI-basierte Interaktion mit Kindern | | Aufzüge, Druckgeräte | KI in Sicherheitssteuerungen |

Weg 2: Eigenständige KI in kritischen Bereichen (Anhang III)

| Bereich | Beispiele | |---|---| | Biometrie | Fernidentifizierung (nicht Echtzeit), biometrische Kategorisierung | | Kritische Infrastruktur | KI-Steuerung von Strom-, Gas-, Wasserversorgung | | Bildung/Berufsausbildung | Prüfungsbewertung, Zulassungsentscheidungen | | Beschäftigung | KI-Screening von Bewerbungen, Leistungsbewertung | | Öffentliche Dienste | Sozialleistungsbewertung, Kreditwürdigkeitsprüfung | | Strafverfolgung | Risikobewertung von Verdächtigen, Lügenerkennung | | Migration/Grenzschutz | Risikoanalyse bei Einreise | | Justiz | KI-Unterstützung bei Gerichtsurteilen |

Pflichten für Hochrisiko-KI

| Pflicht | Details | |---|---| | Risikomanagementsystem | Lebenszyklus-begleitend, iterativ | | Daten-Governance | Qualitätskontrolle der Trainings-/Testdaten | | Technische Dokumentation | Vor Inverkehrbringen, laufend aktualisiert | | Aufzeichnungspflichten | Automatische Protokollierung (Logging) | | Transparenz | Gebrauchsanweisung für Nutzer | | Menschliche Aufsicht | Mensch muss eingreifen können (Human-in-the-Loop) | | Genauigkeit und Robustheit | Gegen Bias, Fehler und adversariale Angriffe | | Cybersicherheit | Angemessener Schutz des KI-Systems | | Konformitätsbewertung | Vor Inverkehrbringen | | EU-Datenbank-Registrierung | Pflichtregistrierung | | CE-Kennzeichnung | Nach bestandener Konformitätsbewertung |

Stufe 3: Begrenztes Risiko (Transparenzpflichten)

KI-Systeme, die mit Menschen interagieren oder Inhalte generieren, müssen Transparenzpflichten nach Artikel 50 erfüllen.

Betroffene Systeme und Pflichten

| System | Pflicht | |---|---| | Chatbots | Nutzer müssen wissen, dass sie mit einer KI interagieren | | Deepfakes (Bild, Audio, Video) | Kennzeichnungspflicht des KI-generierten Inhalts | | KI-generierte Texte zu Themen öffentlichen Interesses | Kennzeichnung als maschinell erstellt | | Emotionserkennung (außerhalb verbotener Bereiche) | Information des Betroffenen | | Biometrische Kategorisierung (nicht verboten) | Information des Betroffenen |

Praxisbeispiele

Stufe 4: Minimales Risiko

Die große Mehrheit der KI-Systeme fällt in diese Kategorie und unterliegt keinen spezifischen regulatorischen Pflichten.

Beispiele

Empfehlung: Auch für KI mit minimalem Risiko empfiehlt die EU freiwillige Verhaltenskodizes zur Förderung vertrauenswürdiger KI.

General-Purpose AI (GPAI) — Sonderregeln

Für General-Purpose AI wie GPT-4, Gemini oder Claude gelten eigene Regeln:

Alle GPAI-Anbieter

GPAI mit systemischem Risiko (> 10^25 FLOPs Training)

Zusätzlich:

Zeitplan der Anwendbarkeit

| Datum | Was wird anwendbar | |---|---| | 02.02.2025 | Verbote (unzulässiges Risiko), KI-Kompetenz | | 02.08.2025 | GPAI-Regeln, Governance | | 02.08.2026 | Alle übrigen Bestimmungen (Hochrisiko Anhang III) | | 02.08.2027 | Hochrisiko in regulierten Produkten (Anhang I) |

So klassifizieren Sie Ihre KI-Systeme

  1. Inventar erstellen: Welche KI-Systeme nutzen oder entwickeln Sie?
  2. Zweck prüfen: Fällt das System unter ein Verbot (Art. 5)?
  3. Sektor prüfen: Gehört es zu einem regulierten Produkt (Anhang I) oder kritischen Bereich (Anhang III)?
  4. Interaktion prüfen: Interagiert es direkt mit Menschen oder generiert Inhalte?
  5. Dokumentieren: Ergebnis der Klassifizierung festhalten

Fazit

Der AI Act schafft klare Regeln für den Einsatz von KI in Europa. Für die meisten Unternehmen ist die Hauptaufgabe: KI-Systeme inventarisieren und korrekt klassifizieren. Die Transparenzpflichten für Chatbots und generative KI betreffen praktisch jedes Unternehmen, das moderne KI-Tools einsetzt.


Scannen Sie Ihre Website kostenlos mit WarDek — OWASP, NIS2, DSGVO, AI Act Compliance in einem Scan.

#AI Act#KI-Verordnung#Risikobewertung#Compliance

Scannez votre site gratuitement

WarDek détecte les vulnérabilités mentionnées dans cet article en quelques secondes.

Retour à Conformité