AI Act: Die 4 Risikoklassen der europäischen KI-Verordnung
Der AI Act (Verordnung (EU) 2024/1689) ist das weltweit erste umfassende Gesetz zur Regulierung künstlicher Intelligenz. Sein Kernprinzip: Je höher das Risiko eines KI-Systems, desto strenger die Anforderungen. Dieser Leitfaden erklärt die vier Risikoklassen mit konkreten Beispielen.
Das Risikomodell im Überblick
┌─────────────────────────────────┐
│ UNZULÄSSIGES RISIKO │ ← VERBOTEN
│ Art. 5 AI Act │
├─────────────────────────────────┤
│ HOHES RISIKO │ ← Strenge Anforderungen
│ Art. 6-49 AI Act │
├─────────────────────────────────┤
│ BEGRENZTES RISIKO │ ← Transparenzpflichten
│ Art. 50 AI Act │
├─────────────────────────────────┤
│ MINIMALES RISIKO │ ← Freiwillige Verhaltenskodizes
│ Keine spezifischen Pflichten│
└─────────────────────────────────┘
Stufe 1: Unzulässiges Risiko (Verboten)
KI-Systeme, die als inakzeptable Bedrohung für die Grundrechte eingestuft werden, sind in der EU verboten.
Verbotene Praktiken
| Verbot | Erläuterung | |---|---| | Soziales Scoring durch Behörden | Bewertung von Personen auf Basis ihres Sozialverhaltens mit nachteiligen Folgen | | Kognitive Manipulation | Unterschwellige Techniken, die das Verhalten einer Person verzerren und Schaden verursachen | | Ausnutzung von Schwächen | KI, die Alter, Behinderung oder soziale Lage gezielt ausnutzt | | Biometrische Echtzeitüberwachung | In öffentlich zugänglichen Räumen (mit eng definierten Ausnahmen für Strafverfolgung) | | Emotionserkennung am Arbeitsplatz/Bildung | KI, die Emotionen von Mitarbeitern oder Schülern analysiert | | Biometrische Kategorisierung | Ableitung sensibler Merkmale (Rasse, Religion, sexuelle Orientierung) aus biometrischen Daten |
Ausnahmen bei biometrischer Überwachung
Nur für Strafverfolgung, nur mit richterlicher Genehmigung, nur bei:
- Suche nach Opfern von Entführung/Menschenhandel
- Abwehr einer konkreten terroristischen Bedrohung
- Identifizierung von Verdächtigen schwerer Straftaten
Für Unternehmen: Wenn Ihr KI-System unter diese Kategorie fällt, darf es in der EU nicht angeboten, eingesetzt oder in Verkehr gebracht werden.
Stufe 2: Hohes Risiko
KI-Systeme, die in sicherheitskritischen Produkten oder grundrechtsrelevanten Bereichen eingesetzt werden, unterliegen strengen Anforderungen.
Zwei Wege zum Hochrisiko
Weg 1: Sicherheitskomponente eines regulierten Produkts (Anhang I)
| Sektor | Beispiele | |---|---| | Medizinprodukte | KI-gestützte Diagnose, Bildanalyse | | Kraftfahrzeuge | Autonome Fahrfunktionen | | Luftfahrt | KI in Flugsteuerungssystemen | | Spielzeug | KI-basierte Interaktion mit Kindern | | Aufzüge, Druckgeräte | KI in Sicherheitssteuerungen |
Weg 2: Eigenständige KI in kritischen Bereichen (Anhang III)
| Bereich | Beispiele | |---|---| | Biometrie | Fernidentifizierung (nicht Echtzeit), biometrische Kategorisierung | | Kritische Infrastruktur | KI-Steuerung von Strom-, Gas-, Wasserversorgung | | Bildung/Berufsausbildung | Prüfungsbewertung, Zulassungsentscheidungen | | Beschäftigung | KI-Screening von Bewerbungen, Leistungsbewertung | | Öffentliche Dienste | Sozialleistungsbewertung, Kreditwürdigkeitsprüfung | | Strafverfolgung | Risikobewertung von Verdächtigen, Lügenerkennung | | Migration/Grenzschutz | Risikoanalyse bei Einreise | | Justiz | KI-Unterstützung bei Gerichtsurteilen |
Pflichten für Hochrisiko-KI
| Pflicht | Details | |---|---| | Risikomanagementsystem | Lebenszyklus-begleitend, iterativ | | Daten-Governance | Qualitätskontrolle der Trainings-/Testdaten | | Technische Dokumentation | Vor Inverkehrbringen, laufend aktualisiert | | Aufzeichnungspflichten | Automatische Protokollierung (Logging) | | Transparenz | Gebrauchsanweisung für Nutzer | | Menschliche Aufsicht | Mensch muss eingreifen können (Human-in-the-Loop) | | Genauigkeit und Robustheit | Gegen Bias, Fehler und adversariale Angriffe | | Cybersicherheit | Angemessener Schutz des KI-Systems | | Konformitätsbewertung | Vor Inverkehrbringen | | EU-Datenbank-Registrierung | Pflichtregistrierung | | CE-Kennzeichnung | Nach bestandener Konformitätsbewertung |
Stufe 3: Begrenztes Risiko (Transparenzpflichten)
KI-Systeme, die mit Menschen interagieren oder Inhalte generieren, müssen Transparenzpflichten nach Artikel 50 erfüllen.
Betroffene Systeme und Pflichten
| System | Pflicht | |---|---| | Chatbots | Nutzer müssen wissen, dass sie mit einer KI interagieren | | Deepfakes (Bild, Audio, Video) | Kennzeichnungspflicht des KI-generierten Inhalts | | KI-generierte Texte zu Themen öffentlichen Interesses | Kennzeichnung als maschinell erstellt | | Emotionserkennung (außerhalb verbotener Bereiche) | Information des Betroffenen | | Biometrische Kategorisierung (nicht verboten) | Information des Betroffenen |
Praxisbeispiele
- Ein Kundensupport-Chatbot muss am Anfang der Konversation klarstellen: „Sie sprechen mit einem KI-Assistenten"
- Ein KI-Bildgenerator muss Bilder mit maschinenlesbaren Metadaten versehen
- Ein KI-Text-Tool für Nachrichtenartikel muss den Einsatz offenlegen
Stufe 4: Minimales Risiko
Die große Mehrheit der KI-Systeme fällt in diese Kategorie und unterliegt keinen spezifischen regulatorischen Pflichten.
Beispiele
- Spamfilter
- KI in Videospielen
- Bestandsmanagement im Lager
- Empfehlungsalgorithmen (ohne Profiling-Aspekt)
- Übersetzungstools
- Wettervorhersage-Modelle
Empfehlung: Auch für KI mit minimalem Risiko empfiehlt die EU freiwillige Verhaltenskodizes zur Förderung vertrauenswürdiger KI.
General-Purpose AI (GPAI) — Sonderregeln
Für General-Purpose AI wie GPT-4, Gemini oder Claude gelten eigene Regeln:
Alle GPAI-Anbieter
- Technische Dokumentation
- Informationen für nachgelagerte Anbieter
- Urheberrecht: Einhaltung der EU Copyright-Richtlinie
- Zusammenfassung der Trainingsdaten veröffentlichen
GPAI mit systemischem Risiko (> 10^25 FLOPs Training)
Zusätzlich:
- Modellbewertung inkl. adversarialer Tests
- Bewertung und Minderung systemischer Risiken
- Meldepflicht bei schwerwiegenden Vorfällen
- Angemessene Cybersicherheit
Zeitplan der Anwendbarkeit
| Datum | Was wird anwendbar | |---|---| | 02.02.2025 | Verbote (unzulässiges Risiko), KI-Kompetenz | | 02.08.2025 | GPAI-Regeln, Governance | | 02.08.2026 | Alle übrigen Bestimmungen (Hochrisiko Anhang III) | | 02.08.2027 | Hochrisiko in regulierten Produkten (Anhang I) |
So klassifizieren Sie Ihre KI-Systeme
- Inventar erstellen: Welche KI-Systeme nutzen oder entwickeln Sie?
- Zweck prüfen: Fällt das System unter ein Verbot (Art. 5)?
- Sektor prüfen: Gehört es zu einem regulierten Produkt (Anhang I) oder kritischen Bereich (Anhang III)?
- Interaktion prüfen: Interagiert es direkt mit Menschen oder generiert Inhalte?
- Dokumentieren: Ergebnis der Klassifizierung festhalten
Fazit
Der AI Act schafft klare Regeln für den Einsatz von KI in Europa. Für die meisten Unternehmen ist die Hauptaufgabe: KI-Systeme inventarisieren und korrekt klassifizieren. Die Transparenzpflichten für Chatbots und generative KI betreffen praktisch jedes Unternehmen, das moderne KI-Tools einsetzt.
Scannen Sie Ihre Website kostenlos mit WarDek — OWASP, NIS2, DSGVO, AI Act Compliance in einem Scan.