EU AI Act Compliance für KI-Entwickler: Was Sie wirklich wissen müssen
Der EU AI Act ist am 1. August 2024 in Kraft getreten, mit einer stufenweisen Umsetzung bis 2027. Seitdem erreichen uns laufend Fragen von europäischen Unternehmen — von „Muss ich überhaupt etwas tun?“ bis „Brauche ich ein Compliance-Team?“Die Antwort liegt für die meisten kleinen und mittelständischen Unternehmen irgendwo dazwischen. Dieser Leitfaden räumt mit dem Juristendeutsch auf und erklärt, was der AI Act tatsächlich verlangt, wen er betrifft und welche konkreten Schritte nötig sind — basierend auf unserer Erfahrung beim Bau von KI-Systemen, die von Anfang an konform sind, nicht erst im Nachhinein.
Das Risiko-Klassifizierungssystem: Wo Ihre KI einzuordnen ist
Der AI Act unterteilt KI-Systeme in vier Risikostufen. Ihre Compliance-Pflichten hängen vollständig davon ab, in welche Stufe Ihr System fällt. Diese Einordnung richtig zu treffen ist der wichtigste Schritt — alles Weitere ergibt sich daraus.
Unannehmbares Risiko (Verboten)
Diese KI-Anwendungen sind in der EU vollständig verboten. Sie dürfen weder entwickelt, eingesetzt noch verkauft werden:
- Social-Scoring-Systeme —Bewertung von Bürgern auf Basis ihres Verhaltens oder persönlicher Merkmale für staatliche Zwecke.
- Biometrische Echtzeit-Identifikation im öffentlichen Raum —Gesichtserkennung durch Strafverfolgungsbehörden ohne richterliche Genehmigung (begrenzte Ausnahmen bei schweren Straftaten).
- Emotionserkennung am Arbeitsplatz und in der Bildung —KI-Systeme, die Emotionen aus biometrischen Daten von Beschäftigten oder Schülern ableiten.
- Manipulative KI —Systeme, die gezielt Schwächen bestimmter Gruppen (Alter, Behinderung) ausnutzen, um Verhalten zu beeinflussen.
- Vorausschauende Polizeiarbeit auf Basis von Profiling —KI zur Vorhersage kriminellen Verhaltens allein auf Grundlage persönlicher Merkmale.
Wenn Sie ein typisches europäisches KMU sind, das interne Tools oder kundenorientierte Anwendungen baut, entwickeln Sie mit an Sicherheit grenzender Wahrscheinlichkeit nichts in dieser Kategorie. Trotzdem lohnt es sich, die Grenzen zu kennen —insbesondere bei der Emotionserkennung. Manche Sentimentanalyse-Features in Kundenservice-Tools können je nach Implementierung an diese Grenze stoßen.
Hohes Risiko
Hochrisiko-KI-Systeme unterliegen den umfangreichsten Compliance-Anforderungen. Der AI Act definiert zwei Kategorien:
Erstens: KI-Systeme, die Sicherheitskomponenten von Produkten sind, die bereits unter EU-Recht reguliert werden —Medizinprodukte, Luftfahrtsysteme, Fahrzeuge, Maschinen, Aufzüge und ähnliches. Wenn Ihre KI in ein Produkt eingebettet ist, das eine CE-Kennzeichnung benötigt, ist sie wahrscheinlich hochriskant.
Zweitens: Eigenständige KI-Systeme in bestimmten Bereichen, die in Anhang III der Verordnung aufgeführt sind:
- Biometrische Identifikation und Kategorisierung — Fernidentifikationssysteme (nicht die verbotenen Echtzeitsysteme, sondern zeitversetzte oder freiwillige Systeme).
- Management kritischer Infrastrukturen —KI-Systeme für Straßenverkehr, Wasserversorgung, Gas-, Heiz- oder Stromnetze.
- Bildung und Berufsausbildung —KI, die den Zugang zu Bildung bestimmt, Schüler bewertet oder Prüfungsverhalten überwacht.
- Beschäftigung und Personalmanagement —KI für Bewerberscreening, Einstellungsentscheidungen, Aufgabenverteilung oder Leistungsüberwachung.
- Zugang zu wesentlichen Dienstleistungen —KI zur Bonitätsbewertung, Versicherungsprämienberechnung, Notrufbearbeitung oder Prüfung von Sozialleistungsansprüchen.
- Strafverfolgung —KI für individuelle Risikobewertung, polygrafähnliche Werkzeuge, Beweisbewertung oder Profiling bei Ermittlungen.
- Migration und Grenzkontrolle —KI für die Prüfung von Reisedokumenten, Asylantragsbewertung oder Migrationserkennung.
- Rechtspflege —KI, die Gerichte bei der Recherche und Auslegung von Tatsachen oder Gesetzen unterstützt.
Realitätscheck für die meisten Unternehmen
Wenn Sie ein Dokumentenverarbeitungssystem, einen Kundenservice-Chatbot, ein Content-Erstellungstool, eine interne Wissensdatenbank oder ein Analytics-Dashboard bauen —gehören Sie mit sehr hoher Wahrscheinlichkeit nicht zur Hochrisiko-Kategorie. Die große Mehrheit geschäftlicher KI-Anwendungen fällt in die Kategorien begrenztes oder minimales Risiko. Lassen Sie sich nicht von Compliance-Sorgen davon abhalten, KI einzusetzen.
Begrenztes Risiko (Transparenzpflichten)
Für KI-Systeme mit begrenztem Risiko gilt eine zentrale Pflicht: Transparenz. Wenn Ihr System mit Menschen interagiert, müssen Sie diese darüber informieren, dass sie mit einer KI kommunizieren. Im Einzelnen:
- Chatbots und Konversations-KI:Nutzer müssen darüber informiert werden, dass sie mit einem KI-System kommunizieren, nicht mit einem Menschen. Ein deutlicher Hinweis oder Disclaimer genügt.
- KI-generierte Inhalte:Texte, Bilder, Audio oder Videos, die von KI erzeugt wurden, müssen als solche gekennzeichnet werden. Das gilt auch für Deepfakes und synthetische Medien, die maschinenlesbare Labels tragen müssen.
- Emotionserkennung oder biometrische Kategorisierung:Wenn Sie KI zur Emotionserkennung oder biometrischen Kategorisierung einsetzen (sofern rechtlich zulässig), müssen die Betroffenen informiert werden.
Hier landen die meisten geschäftlichen KI-Anwendungen. Ein kundenorientierter Chatbot auf LLM-Basis, ein Content-Erstellungstool oder ein KI-gestütztes Suchsystem fallen alle in diese Kategorie. Die Compliance-Pflicht ist überschaubar: Kennzeichnen Sie Ihre KI als KI. Geben Sie sie nicht als Mensch aus. Fügen Sie entsprechende Hinweise in Ihre Benutzeroberfläche ein.
Minimales Risiko (Keine besonderen Pflichten)
Interne Tools, Analysesysteme, Spamfilter, Empfehlungssysteme (für unbedenkliche Inhalte) und die meisten Back-Office-KI-Anwendungen fallen unter minimales Risiko. Der AI Act stellt für diese Systeme keine besonderen Compliance-Anforderungen. Sie können sie frei entwickeln und einsetzen, solange Sie allgemeine Best Practices befolgen.
Allerdings empfiehlt der AI Act (ohne es vorzuschreiben) freiwillige Verhaltenskodizes für Systeme mit minimalem Risiko. Grundlegende Praktiken verantwortungsvoller KI-Entwicklung —Systeme dokumentieren, auf Voreingenommenheit prüfen, Menschen informiert halten —sind gutes Engineering, unabhängig von regulatorischen Anforderungen.
Hochrisiko-Systeme: Was Compliance konkret bedeutet
Fällt Ihr KI-System tatsächlich in die Hochrisiko-Kategorie, sind die Compliance-Anforderungen umfangreich, aber machbar. Der AI Act verlangt Folgendes:
| Anforderung | Was es bedeutet | Praktische Umsetzung |
|---|---|---|
| Risikomanagementsystem | Fortlaufende Identifikation und Minderung von Risiken | Risiken beim Design dokumentieren, in Produktion überwachen, regelmäßig aktualisieren |
| Daten-Governance | Trainingsdaten müssen relevant, repräsentativ und fehlerfrei sein | Datenquellen dokumentieren, auf Verzerrungen prüfen, Datenherkunft nachhalten |
| Technische Dokumentation | Vollständige Systemdokumentation vor Markteinführung | Architekturdokumente, Modellbeschreibungen, Testmethodik, Leistungskennzahlen |
| Aufzeichnungspflicht | Automatische Protokollierung des Systembetriebs | Strukturierte Logs von Eingaben, Ausgaben, Entscheidungen und Systemereignissen |
| Transparenz | Nutzer müssen Fähigkeiten und Grenzen des Systems verstehen | Nutzerdokumentation, Bedienungsanleitung, klare Funktionsbeschreibungen |
| Menschliche Aufsicht | Menschen müssen das System verstehen, überwachen und eingreifen können | Monitoring-Dashboard, Eingriffsmechanismen, Eskalationsverfahren |
| Genauigkeit und Robustheit | Gleichbleibende Leistung unter erwarteten Bedingungen | Testsuite, Performance-Benchmarks, Prüfung auf Manipulationsresistenz |
| Cybersicherheit | Schutz vor unbefugter Manipulation | Eingabevalidierung, Zugriffskontrolle, Prompt-Injection-Abwehr, Audit-Trails |
Der Zeitplan: Was wann erfüllt sein muss
Der AI Act verlangt nicht alles auf einmal. Die stufenweise Einführung ist planungsrelevant:
- 2. Februar 2025: Verbotene KI-Praktiken (Stufe unannehmbares Risiko) werden durchsetzbar. Bereits in Kraft.
- 2. August 2025:Regeln für General-Purpose-AI-Modelle (GPAI) gelten. Das betrifft Anbieter von Basismodellen wie GPT-4, Claude und Llama —nicht Unternehmen, die diese Modelle über APIs nutzen.
- 2. August 2026:Hochrisiko-KI-Systeme gemäß Anhang III müssen konform sein. Hier greifen die wesentlichen Anforderungen für Unternehmen, die Hochrisikosysteme einsetzen.
- 2. August 2027:Hochrisiko-KI-Systeme als Bestandteile regulierter Produkte (Anhang I) müssen konform sein. Das betrifft hauptsächlich Hersteller von Medizinprodukten, Fahrzeugen und ähnlichem.
Wer ein LLM per API nutzt: Der Modellanbieter trägt den Großteil der Pflichten
Der AI Act unterscheidet zwischen Anbietern (die das KI-System entwickeln) und Betreibern (die es einsetzen). Wenn Sie eine Anwendung mit Claude oder GPT-4 per API bauen, ist Anthropic oder OpenAI der GPAI-Anbieter und trägt die Compliance-Pflichten auf Modellebene. Sie als Betreiber sind verantwortlich für die Art, wie Sie das Modell nutzen —Ihre konkrete Anwendung, Ihren Umgang mit Daten und Ihre nutzerseitige Transparenz. Diese Unterscheidung reduziert den Compliance-Aufwand für die meisten Unternehmen erheblich.
General-Purpose AI (GPAI): Was sich ändert
Der AI Act führt spezifische Pflichten für Anbieter von General-Purpose-AI-Modellen ein —die Basismodelle, auf denen die meisten modernen KI-Anwendungen aufbauen. Das betrifft primär Unternehmen wie OpenAI, Anthropic, Meta, Mistral und Google. Wenn Sie deren Modelle per API nutzen, sind Sie nachgelagerter Betreiber, kein GPAI-Anbieter.
Allerdings: Wenn Sie ein Modell wesentlich feinabstimmen oder Ihr eigenes Modell trainieren, können Sie je nach Umfang Ihrer Änderungen zum GPAI-Anbieter werden. Die Faustregel: Wenn Ihr Fine-Tuning ein Modell mit deutlich anderen Fähigkeiten oder Einsatzzwecken als das Basismodell erzeugt, übernehmen Sie für Ihre modifizierte Version die Anbieterpflichten.
GPAI-Anbieter müssen technische Dokumentation vorhalten, nachgelagerten Betreibern Informationen über Fähigkeiten und Grenzen des Modells bereitstellen, Richtlinien zur urheberrechtlichen Konformität der Trainingsdaten umsetzen und eine ausreichend detaillierte Zusammenfassung der Trainingsdaten veröffentlichen. Modelle mit systemischem Risiko (trainiert mit mehr als 10^25 FLOPs Rechenleistung) unterliegen zusätzlichen Pflichten wie Modellbewertungen, adversarialem Testen und Meldepflichten bei Vorfällen.
Praktische Compliance-Checkliste für KMUs
Basierend auf unserer Erfahrung beim Bau konformer KI-Systeme für europäische Unternehmen, empfehlen wir die folgende Checkliste. Sie ist nach Priorität geordnet und geht davon aus, dass Ihr System ein begrenztes oder minimales Risiko darstellt (was auf über 90% geschäftlicher KI-Anwendungen zutrifft).
- →Schritt 1: Risikostufe bestimmen. Ordnen Sie Ihr KI-System den vier Risikokategorien zu. Seien Sie ehrlich —eine höhere Einstufung bedeutet mehr Arbeit, aber weniger regulatorisches Risiko. Dokumentieren Sie Ihre Begründung.
- →Schritt 2: Transparenzkennzeichnung umsetzen.Wenn Ihr System mit Menschen interagiert oder Inhalte generiert, kennzeichnen Sie es als KI-basiert. Fügen Sie Hinweise in Ihre Oberfläche ein. Das ist Pflicht bei begrenztem Risiko und Best Practice für alle Systeme.
- →Schritt 3: System dokumentieren.Halten Sie schriftlich fest, was Ihr KI-System tut, welche Daten es nutzt, welche Entscheidungen es beeinflusst und welche Einschränkungen bekannt sind. Das ist grundlegende Ingenieurdokumentation, die Sie ohnehin haben sollten. Der AI Act macht sie für Hochrisikosysteme rechtlich verpflichtend und empfiehlt sie dringend für alles andere.
- →Schritt 4: Menschliche Kontrollmechanismen sicherstellen. Bauen Sie Oberflächen, die es Menschen ermöglichen, KI-Entscheidungen zu überprüfen, zu verstehen und zu korrigieren. Das ist das Human-in-the-Loop-Designprinzip, das wir in allen unseren Systemen verwenden. Es ist gutes Engineering und erfüllt gleichzeitig die Anforderungen des AI Act.
- →Schritt 5: Systembetrieb protokollieren.Führen Sie strukturierte Protokolle über Eingaben, Ausgaben und wesentliche Entscheidungen Ihres KI-Systems. Die Aufbewahrungsfrist sollte sich nach Ihren geschäftlichen Anforderungen und branchenspezifischen Vorschriften richten (DSGVO-Datensparsamkeit gilt hier ebenfalls).
- →Schritt 6: EU-gehostete Infrastruktur wählen. Betreiben Sie Ihre KI-Systeme auf Servern in der EU. Nutzen Sie EU-basierte Modellanbieter wo möglich. Das beseitigt nicht alle Datentransferprobleme, aber es vereinfacht die DSGVO-Konformität und zeigt guten Willen bei den Daten-Governance-Anforderungen des AI Act.
- →Schritt 7: KI-Komponenten von Drittanbietern prüfen. Wenn Sie externe KI-APIs oder -Modelle nutzen, dokumentieren Sie, welche Anbieter Sie verwenden, welche Daten Sie an diese senden und wie deren Compliance-Status ist. Sie sind für Ihren Einsatz verantwortlich, auch wenn Sie Modelle von Drittanbietern verwenden.
Wie wir Compliance von Anfang an mitdenken
Bei Rogue AI ist Compliance kein nachträgliches Audit. Sie ist fester Bestandteil unserer Systemarchitektur von Beginn an. Jedes System, das wir bauen, beinhaltet:
- EU-gehostete Infrastruktur:Alle unsere Systeme laufen auf europäischen Servern. Wir nutzen Hetzner (Deutschland) für VPS-Hosting und selbstgehostetes Ollama für LLM-Inferenz. Keine Daten verlassen die EU, es sei denn, ein Kunde wünscht es ausdrücklich.
- Keine US-API-Abhängigkeiten als Standard:Wir leiten Daten nicht über OpenAI, Google oder AWS AI Services, es sei denn, ein Kunde wählt dies ausdrücklich nach Kenntnis der Datentransfer-Implikationen. Selbst gehostete Modelle sind unsere Standard-Architektur.
- Human-in-the-Loop-Design:Jedes System enthält Prüfoberflächen, über die Menschen KI-Ausgaben inspizieren, verifizieren und korrigieren können. Keine KI-Entscheidung ist vollständig autonom, es sei denn, der Kunde wünscht und akzeptiert diese Architektur ausdrücklich.
- Strukturiertes Logging: Alle KI-Operationen werden mit Zeitstempeln, Eingabezusammenfassungen, Ausgabezusammenfassungen und Konfidenzwerten protokolliert. Das schafft den Audit-Trail, den sowohl der AI Act als auch die DSGVO erwarten.
- Dokumentation als Projektbestandteil: Jedes Projekt umfasst Systemdokumentation —Architekturbeschreibung, Datenflussdiagramme, Modellspezifikationen und bekannte Einschränkungen. Das ist kein Aufpreis, sondern Teil eines professionellen Systems.
Strafen und Durchsetzung
Die Strafrahmen des AI Act sind erheblich, aber verhältnismäßig:
- Verbotene KI-Praktiken:Bis zu 35 Millionen EUR oder 7% des weltweiten Jahresumsatzes (je nachdem, was höher ist).
- Hochrisiko-Verstöße: Bis zu 15 Millionen EUR oder 3% des weltweiten Jahresumsatzes.
- Falsche Angaben gegenüber Behörden: Bis zu 7,5 Millionen EUR oder 1% des weltweiten Jahresumsatzes.
Für KMUs und Startups enthält der AI Act Verhältnismäßigkeitsklauseln —Strafen sollen Größe und wirtschaftliche Lage des Unternehmens berücksichtigen. Die Europäische Kommission richtet zudem regulatorische Sandboxes ein, in denen KMUs KI-Systeme unter behördlicher Aufsicht testen können, bevor sie sie vollständig einsetzen. Das Ziel ist, Innovation zu fördern und gleichzeitig Sicherheitsstandards zu wahren —nicht, kleine Unternehmen für den Versuch, KI zu nutzen, zu bestrafen.
Das Fazit
Für die meisten europäischen KMUs verlangt der EU AI Act Transparenzkennzeichnungen bei kundenorientierten KI-Systemen, eine grundlegende Dokumentation dessen, was Ihre KI tut und wie sie funktioniert, sowie sinnvolle Daten-Governance-Praktiken, die Sie ohnehin haben sollten. Er verlangt kein Compliance-Team, keinen Verzicht auf KI und kein Neubauen mit eigenen Modellen.
Schwierigkeiten werden die Unternehmen haben, die KI ohne jede Dokumentation, ohne menschliche Kontrolle und ohne Wissen über Datenflüsse eingesetzt haben. Erfolgreich werden die sein, die von Anfang an verantwortungsvoll gebaut haben —dokumentierte Systeme, EU-gehostete Infrastruktur, Human-in-the-Loop-Design und klare Kommunikation mit Nutzern über den KI-Einsatz.
Wenn Sie KI entwickeln und sicherstellen möchten, dass Ihre Systeme den EU AI Act bereits auf Architekturebene erfüllen, buchen Sie ein kostenloses Erstgespräch. Wir bauen konform von Anfang an — nicht als Nachgedanken.