EU-Verordnung | KI-Regulierung
EU AI Act:
Cybersecurity-Anforderungen
für KI-Systeme.
Der EU AI Act (Verordnung EU 2024/1689) ist das weltweit erste verbindliche KI-Gesetz. Er klassifiziert KI-Systeme nach Risiko, schreibt Cybersecurity-Maßnahmen vor und verhängt Bußgelder bis 35 Millionen Euro.
Zuletzt aktualisiert: März 2026 · Von zertifizierten Experten geprüft
- Verbote in Kraft
- Feb. 2025
- Maximales Bußgeld
-
- High-Risk-Pflichten
- Aug. 2026
- Von minimal bis verboten
-
Grundlagen
Was ist der EU AI Act?
Der EU AI Act (Verordnung EU 2024/1689) ist die erste verbindliche KI-Regulierung weltweit. Die Verordnung wurde am 13. Juni 2024 im Amtsblatt der EU veröffentlicht und gilt unmittelbar in allen EU-Mitgliedstaaten — ohne nationales Umsetzungsgesetz.
Das Ziel des AI Act ist ein risikobasiertes Regulierungsmodell: Je höher das potenzielle Schadenspotenzial eines KI-Systems, desto strenger die Anforderungen. Besonders relevant für die Cybersicherheit sind die Anforderungen an Robustheit und Widerstandsfähigkeit nach Art. 15 sowie die Pflicht zu adversarialem Testen (Red Teaming) für GPAI-Modelle mit systemischem Risiko nach Art. 55.
In Deutschland ist die Bundesnetzagentur als zuständige Marktüberwachungsbehörde vorgesehen. Das BSI bringt seine Cybersicherheitskompetenz über AIC4 und laufende Normierungsarbeit ein. BaFin-regulierte Unternehmen müssen zusätzlich die KI-Anforderungen der EBA-Leitlinien einhalten.
EU AI Act auf einen Blick
- EU-Verordnung
- EU 2024/1689 vom 13. Juni 2024
- Verbote ab
- 02. Februar 2025
- GPAI-Pflichten ab
- 02. August 2025
- High-Risk ab
- 02. August 2026
- D-Behörde
- Bundesnetzagentur + BSI (Cyber)
- Bußgeld max.
- 35 Mio. EUR / 7% weltw. Umsatz
High-Risk-Frist läuft
Anbieter von High-Risk-KI-Systemen müssen bis August 2026 alle Konformitätspflichten erfüllen — Konformitätsbewertung, CE-Kennzeichnung, EU-Datenbankregistrierung.
Risikobasierter Ansatz
Die 4 Risikoklassen des AI Act
Der AI Act klassifiziert KI-Systeme nach ihrem Risikopotenzial. Je höher die Risikoklasse, desto strenger die Anforderungen — von keinen Pflichten bis zum vollständigen Verbot. Die Klassifikation bestimmt, welche Cybersecurity- und Compliance-Maßnahmen Sie ergreifen müssen.
KI-Systeme, die inakzeptable Risiken darstellen und ab 02.02.2025 vollständig verboten sind.
- Social Scoring durch staatliche oder private Stellen
- Emotionserkennung am Arbeitsplatz und in Bildungseinrichtungen
- Biometrische Kategorisierung zur Ableitung sensibler Merkmale
- Manipulation unbewusster Verhaltensweisen (Subliminal Techniques)
- Echtzeit-biometrische Fernidentifizierung im öffentlichen Raum (Ausnahmen für Strafverfolgung)
- Ausnutzung von Schwächen vulnerabler Gruppen
KI-Systeme nach Annex III mit umfangreichen Pflichten ab 02.08.2026 (Art. 6 AI Act).
- Kreditscoring und Kreditwürdigkeitsbewertung
- HR-Systeme: Einstellungs- und Beförderungsentscheidungen
- Biometrische Identifizierung und Kategorisierung
- KRITIS-Betrieb: Strom-, Wasser-, Gasnetze
- Strafverfolgung, Grenzkontrolle, Justiz
- Bildung und Berufsausbildung
- Migration und Asyl
Transparenzpflichten: Nutzer müssen wissen, dass sie mit einem KI-System interagieren.
- Chatbots und konversationelle KI-Systeme
- Deepfakes und KI-generierte Inhalte (Kennzeichnungspflicht)
- Emotionserkennungssysteme (außerhalb verbotener Bereiche)
Keine spezifischen Pflichten — freiwillige Verhaltenskodizes empfohlen.
- Spam-Filter und E-Mail-Klassifikation
- Empfehlungssysteme (ohne signifikante Risiken)
- KI in Videospielen
- Einfache Bildverarbeitungsanwendungen
Welche Risikoklasse gilt für Ihr KI-System?
Die Klassifikation entscheidet über Ihren Compliance-Aufwand. AWARE7 prüft Ihre KI-Systeme verbindlich und erstellt einen Maßnahmenplan auf Basis Ihrer konkreten Risikoklasse.
Art. 15 AI Act
Cybersecurity-Pflichten für KI-Systeme
Art. 15 AI Act verpflichtet Anbieter von High-Risk-KI-Systemen zu Robustheit, Widerstandsfähigkeit und Cybersicherheit. Die Anforderungen gelten über den gesamten Lebenszyklus — von der Entwicklung bis zur Außerbetriebnahme.
Robustheit gegen Adversarial Attacks
High-Risk-KI-Systeme müssen widerstandsfähig gegen feindliche Manipulationen sein (Art. 15 Abs. 1 AI Act). Dazu gehören Robustheitstests gegen Adversarial Examples, Data Poisoning und Model Inversion. Technische Maßnahmen müssen im gesamten Lebenszyklus dokumentiert werden.
KI-PenetrationstestDatenintegrität und Datenqualität
Trainings-, Validierungs- und Testdatensätze müssen angemessen in Bezug auf Fehler, Vollständigkeit, Repräsentativität und statistische Eigenschaften sein (Art. 10 AI Act). Daten-Governance-Prozesse und Bias-Checks sind Pflicht.
Technische Dokumentation und Logging
Vollständige Aufzeichnung aller relevanten Ereignisse über den gesamten Betriebszeitraum (Art. 12 AI Act). Logs müssen Rückverfolgbarkeit und Nachvollziehbarkeit des KI-Systems ermöglichen — für Audits, Behörden und die Strafverfolgung.
SicherheitsberatungMenschliche Aufsicht (Human Oversight)
High-Risk-KI-Systeme müssen so gestaltet sein, dass natürliche Personen die Ausgaben wirksam überwachen können (Art. 14 AI Act). Human-in-the-Loop oder Human-on-the-Loop — je nach Risikoprofil. Übersteuerungsmöglichkeiten sind technisch zu verankern.
Accuracy, Genauigkeit und Bias-Testing
KI-Systeme müssen mit angemessener Genauigkeit, Robustheit und Cybersicherheit über ihren gesamten Lebenszyklus betrieben werden (Art. 15 AI Act). Regelmäßige Bias-Tests und Performance-Monitoring sind Pflicht, insbesondere bei Systemen, die Entscheidungen über Personen treffen.
KI-SicherheitstestKonformitätsbewertung und Registrierung
Anbieter von High-Risk-KI-Systemen müssen vor dem Inverkehrbringen eine Konformitätsbewertung durchführen (Art. 43 AI Act) und das System in der EU-Datenbank registrieren (Art. 49 AI Act). CE-Kennzeichnung ist erforderlich.
Incident Reporting an Behörden
Schwerwiegende Vorfälle und Fehlfunktionen von High-Risk-KI-Systemen müssen an die zuständige nationale Marktüberwachungsbehörde gemeldet werden (Art. 73 AI Act). In Deutschland ist das voraussichtlich das BSI in Abstimmung mit anderen Behörden.
Red Teaming für GPAI-Modelle
Anbieter von KI-Modellen mit allgemeinem Verwendungszweck (GPAI) mit systemischem Risiko müssen adversariales Testen durchführen (Art. 55 AI Act). Red-Teaming-Tests decken Sicherheitslücken, Missbrauchspotenziale und unerwünschtes Verhalten auf.
Red Teaming für KIHinweis: Die Cybersecurity-Anforderungen des AI Act greifen für High-Risk-Systeme ab August 2026. Anbieter von GPAI-Modellen mit systemischem Risiko müssen adversariales Red Teaming bereits ab August 2025 nachweisen können (Art. 55 AI Act). AWARE7 empfiehlt, mit der Vorbereitung unmittelbar zu beginnen.
Regulatorisches Umfeld
AI Act + NIS-2 + DSGVO + CRA: Das regulatorische Gesamtbild
Für Unternehmen, die KI einsetzen, entsteht ein komplexes Zusammenspiel mehrerer EU-Regelwerke. Alle müssen parallel eingehalten werden — ohne Wahlmöglichkeit.
EU AI Act
Risikoklassen, Robustheit, Red Teaming, Logging, Human Oversight. KI-spezifisch.
NIS-2-Richtlinie
Cybersicherheit der Gesamtinfrastruktur inkl. KI-Systeme. Gilt für betroffene Sektoren.
NIS-2 LeitfadenDSGVO
Datenschutz bei KI-Systemen mit personenbezogenen Daten. Gilt für nahezu alle KI-Anwendungen.
DSGVO LeitfadenCyber Resilience Act (CRA)
Cybersicherheitsanforderungen für Produkte mit digitalen Elementen — schließt eingebettete KI ein.
Deutsche Besonderheiten: Das BSI hat mit dem AI Cloud Service Compliance Criteria Catalogue (AIC4) einen Kriterienkatalog für sichere KI-Clouddienste entwickelt, der AI Act-Anforderungen operationalisiert. Die BaFin hat zudem KI-spezifische Anforderungen für beaufsichtigte Finanzunternehmen (Banken, Versicherungen) herausgegeben, die über den AI Act hinausgehen und auf den EBA/EIOPA-Leitlinien zu IKT-Risiken basieren.
Praxisbeispiele
Reale KI-Vorfälle: Was der AI Act verhindert hätte
Diese Fälle zeigen, warum der AI Act notwendig ist — und welche Konsequenzen bei unkontrolliertem KI-Einsatz drohen. Unter dem AI Act wären viele dieser Vorfälle regulatorisch adressiert oder verhindert worden.
ChatGPT & DSGVO — Datenleck bei OpenAI
März 2023OpenAI meldete einen Fehler in der Open-Source-Bibliothek Redis, der es Nutzern ermöglichte, Chat-Titel anderer Nutzer zu sehen. Italiens Datenschutzbehörde Garante verhängte ein vorübergehendes Verbot von ChatGPT und leitete ein Verfahren wegen Verstößen gegen die DSGVO ein. Der Vorfall zeigt: KI-Systeme sind keine geschlossenen Systeme — Datenlecks können aus unerwarteten Abhängigkeiten entstehen.
Clearview AI — Biometrische Daten ohne Einwilligung
Laufend seit 2022Der US-amerikanische KI-Anbieter Clearview AI wurde von mehreren EU-Datenschutzbehörden mit Bußgeldern belegt (Frankreich: 20 Mio. EUR, Italien: 20 Mio. EUR, Griechenland: 20 Mio. EUR). Clearview hatte biometrische Daten aus dem Internet gescrapt, ohne Einwilligung der Betroffenen. Genau diese Praxis wäre unter dem AI Act als verbotene biometrische Kategorisierung einzustufen.
Amazon HR-KI — Diskriminierung bei Einstellungen
Oktober 2018Amazons internes KI-Rekrutierungssystem bevorzugte systematisch männliche Kandidaten, weil es auf historischen Einstellungsdaten trainiert wurde, die männlich dominiert waren. Amazon stellte das Projekt ein. Unter dem AI Act wäre ein solches HR-System als High-Risk eingestuft und hätte umfangreiche Bias-Tests und menschliche Aufsicht erfordert — bereits vor dem Einsatz.
Tesla Autopilot — Behördliche Untersuchungen
Laufend seit 2021Die US-Behörde NHTSA untersuchte über 750 Unfälle mit Verbindung zu Teslas Autopilot-System. In der EU würden autonome Fahrsysteme als High-Risk-KI klassifiziert (Annex III, Verkehr). Der AI Act verpflichtet Anbieter zur umfangreichen Konformitätsbewertung, Logging jedes Vorfalls und regelmäßigen Sicherheitsüberprüfungen.
Beratungsleistungen
Wie AWARE7 bei AI Act-Compliance hilft
Von der Risikoklassifikation bis zum adversarialen Testen — AWARE7 begleitet Sie durch alle AI Act-Anforderungen mit dem Fokus auf technische Cybersicherheit.
KI-Penetrationstest & Red Teaming
Adversariales Testen Ihrer KI-Systeme: Adversarial Examples, Data Poisoning, Model Extraction, Prompt Injection — gemäß Art. 15 und Art. 55 AI Act.
KI-Pentest anfragenAI Act Gap-Analyse & Klassifikation
Verbindliche Risikoklassifikation Ihrer KI-Systeme, Gap-Analyse gegen alle AI Act-Anforderungen, priorisierter Maßnahmenplan mit Zeitplan.
Gap-Analyse startenIntegrierte Compliance: AI Act + NIS-2 + DSGVO
Ganzheitliche Beratung, die AI Act, NIS-2 und DSGVO zusammendenkt — statt drei parallele Projekte zu starten.
NIS-2 Zusammenspiel verstehen„Der EU AI Act ist keine abstrakte Regulierung — er hat konkrete Cybersecurity-Anforderungen, die technisches Know-how erfordern. Wer KI in sicherheitskritischen Bereichen einsetzt, braucht adversariales Testing, nicht nur Rechtsberatung.“
Chris Wojzechowski
Prüfer mit §8a BSIG Prüfverfahrenskompetenz · AWARE7 GmbH
FAQ
Häufige Fragen zum EU AI Act
Die wichtigsten Fragen zum EU AI Act — fachlich fundiert und praxisnah beantwortet.
Ab wann gilt der EU AI Act in Deutschland?
Welche KI-Systeme gelten als "Hochrisiko" nach dem AI Act?
Was bedeutet der AI Act für Unternehmen, die KI-Tools wie ChatGPT nutzen?
Wie hoch sind die Bußgelder nach dem EU AI Act?
Was ist ein GPAI-Modell und welche Pflichten gelten?
Wie hängen AI Act, DSGVO und NIS-2 zusammen?
Was ist BSI AIC4 und was hat es mit dem AI Act zu tun?
Muss ich meine KI-Systeme in einer EU-Datenbank registrieren?
Wie läuft ein KI-Sicherheitsassessment bei AWARE7 ab?
Gilt der AI Act auch für KI-Systeme, die außerhalb der EU entwickelt werden?
Aus dem Blog
Weiterführende Artikel
Alle ArtikelKI-Sicherheitsassessment vereinbaren
In einem kostenlosen 30-minütigen Gespräch analysieren wir Ihre KI-Systeme, bestimmen die relevante Risikoklasse nach AI Act und zeigen, welche Cybersecurity-Maßnahmen konkret erforderlich sind — mit Zeitplan und Festpreisangebot.
Kostenlos · 30 Minuten · Unverbindlich