ML-Modell-Sicherheit
Ihr ML-Modell trifft
die falschen Entscheidungen.
Fraud-Detection-Systeme, Credit-Scoring-Modelle, medizinische Diagnostik — sie alle sind angreifbar. Ein präpariertes Bild täuscht Ihren Classifier. Ein vergifteter Datenpunkt korrumpiert das Training. Wir finden die Schwachstellen, bevor Angreifer sie ausnutzen.
+ ML08 Model Skewing · ML09 Output Integrity · ML10 Model Poisoning
- OWASP ML Kategorien geprüft
-
- Festpreisangebot
- ab 15.000 €
- Angebot innerhalb von
-
- Subunternehmer
-
Das Problem
ML-Modelle werden systematisch ausgetrickst
Klassische ML-Systeme haben eine Angriffsfläche, die konventionelle Penetrationstests nicht erfassen: Sie sind statistisch angreifbar — nicht durch Exploits in Code, sondern durch gezielte Manipulation von Ein- und Ausgabedaten. Für produktive Systeme in regulierten Branchen ist das kein akademisches Problem.
Finanzwesen: Betrug wird nicht erkannt
Adversarial Attacks auf Fraud-Detection-Systeme ermöglichen es Angreifern, betrügerische Transaktionen gezielt an der Erkennung vorbeizuschleusen — mit minimalen Anpassungen der Transaktionsmerkmale.
Gesundheitswesen: Diagnostik manipuliert
Adversarial Examples auf medizinischen Bildgebungssystemen können dazu führen, dass ein Tumor nicht erkannt oder eine Fehldiagnose gestellt wird — ohne jede sichtbare Bildmanipulation.
DSGVO: Personendaten aus dem Modell extrahierbar
Model Inversion und Membership Inference bedrohen die Datenschutz-Compliance: Aus Ihrem Modell lassen sich Rückschlüsse auf Trainingsdaten ziehen — selbst ohne Zugriff auf die Originaldaten.
ANGRIFFSBEISPIEL — EVASION ATTACK
ANGRIFFSBEISPIEL — MEMBERSHIP INFERENCE
Was wir testen
Sechs Angriffsklassen gegen ML-Modelle
Jeder Test deckt alle OWASP-ML-Top-10-Kategorien ab — mit verifizierten Proof-of-Concept-Exploits für Ihr spezifisches Modell.
Adversarial Examples & Evasion Attacks
Minimale, für Menschen unsichtbare Manipulationen an Eingabedaten, die das Modell zur Fehlklassifikation zwingen. White-Box-Angriffe (FGSM, PGD, C&W) mit Gradientenabstieg und Black-Box-Angriffe durch Transfer und Querymethoden. Besonders kritisch für Fraud Detection, Bildklassifizierung und Qualitätskontrolle.
Data Poisoning
Manipulation des Trainingsdatensatzes zum Einpflanzen von Backdoors oder zur systematischen Verschlechterung der Modellqualität. Besonders kritisch bei kontinuierlich nachtrainierten Systemen (Online-Learning, Feedback-Loops). Wir analysieren Ihre Dateningestion-Pipeline und Trainingsprozesse auf Poisoning-Vektoren.
Model Inversion
Rekonstruktion von Trainingsdaten durch systematische API-Abfragen. Besonders relevant für Modelle, die mit personenbezogenen Daten trainiert wurden. Wir quantifizieren, wie präzise Eingabemerkmale aus Ausgabeinformationen rückschließbar sind — direkte DSGVO-Risikobewertung.
Membership Inference
Statistische Angriffe zur Bestimmung, ob ein Datenpunkt im Training verwendet wurde. Confidence-basierte und Shadow-Model-basierte Angriffsmethoden. Wir messen die Attack Success Rate und bestimmen den Informationsabfluss nach DSGVO-Artikel 5 (Zweckbindung, Datensparsamkeit).
Model Theft & Extraction
Diebstahl von Modellgewichten oder -verhalten durch systematisches Querying der Inference-API. Wir messen, wie viele Anfragen für eine akkurate Extraktion benötigt werden, und testen Ihre API-Schutzmaßnahmen: Rate Limiting, Output-Perturbation, Querypattern-Detection.
Transfer Learning & Supply Chain Backdoors
Prüfung vortrainierter Modelle aus öffentlichen Quellen (Hugging Face, TensorFlow Hub, PyPI) auf bekannte und neuartige Backdoor-Signaturen. Analyse der Trainings-Supply-Chain: Welche Drittanbieter-Datensätze wurden verwendet? Sind sie vertrauenswürdig und auditierbar?
Branchen
Wer braucht ML-Modell-Sicherheit besonders dringend?
Überall dort, wo ML-Modelle automatisiert Entscheidungen treffen, die Konsequenzen für Menschen oder Unternehmen haben — ist Sicherheitsresilienz keine Option, sondern Pflicht.
Finanzwesen
- Fraud Detection Bypass
- Credit Scoring Manipulation
- AML-Modell-Evasion
- Insider-Trading-Erkennung umgangen
DORA · BaFin · MaRisk
Gesundheitswesen
- Diagnostik-Modell-Täuschung
- Patientendaten-Inversion
- Medikamenten-Dosierungsfehler
- Anomalieerkennung ausgehebelt
EU AI Act Hochrisiko · MDR
Versicherungen
- Underwriting-Modell-Evasion
- Schadensbearbeitung manipuliert
- Risikomodelle vergiftet
- Membership Inference auf Kunden
DSGVO · Solvency II
Industrie & Qualitätskontrolle
- Bildklassifizierung ausgetrickst
- Defekte unerkannt gelassen
- Prozesssteuerung manipuliert
- Predictive Maintenance gestört
NIS-2 · IEC 62443
Methodik
Wie ein ML Security Assessment abläuft
Systematische Angriffssimulation nach OWASP ML Top 10 und MITRE ATLAS — kombiniert mit DSGVO-Risikobewertung.
2–3 Tage
Scoping & Bedrohungsmodellierung
Identifikation aller ML-Komponenten, Datenflüsse und Abhängigkeiten. Bedrohungsmodellierung nach MITRE ATLAS (ML-spezifische Taktiken). Bewertung des regulatorischen Rahmens: EU AI Act Risikoklasse, DSGVO-Verarbeitungsgrundlage, branchenspezifische Anforderungen (BaFin, MDR). Definition des Testumfangs und der Rules of Engagement.
2–4 Tage
Modell-Analyse & Reconnaissance
Architekturanalyse: Modelltyp, Framework (scikit-learn, PyTorch, TensorFlow), Trainingshistorie, Feature-Engineering. API-Endpunkt-Kartierung: Welche Eingaben werden akzeptiert? Wie präzise sind die Ausgaben? Trainings-Supply-Chain-Analyse: Datenquellen, Frameworks, vortrainierte Modelle. Identifikation des Attack Surface.
5–8 Tage
Adversarial Testing
White-Box-Angriffe (bei Modellzugriff): Gradient-basierte Methoden (FGSM, PGD, Carlini & Wagner), Backward Pass Differentiable Approximation. Black-Box-Angriffe (nur API): Transfer-basierte Methoden, Zeroth-Order-Optimierung, Square Attack. Tabellarische Daten: Feature-Manipulation, Constraint-basierte Evasion für Fraud- und Scoring-Systeme.
3–5 Tage
Datenschutz-Angriffsanalyse
Model Inversion: Rekonstruktion von Eingabemerkmalen aus Ausgaben. Membership Inference: Confidence-Ratio-Angriffe, Shadow-Model-Methode, LiRA-Angriff. Attribut-Inference: Können nicht übermittelte Merkmale erschlossen werden? Quantitative DSGVO-Risikoberechnung: Informationsabfluss in Bits, Precision/Recall der Angriffe.
2–4 Tage
Supply Chain & Poisoning-Analyse
Audit aller verwendeten vortrainierten Modelle und Datensätze. Backdoor-Detection mit neuronalen Cleanser-Methoden (NC, STRIP, ABS). Prüfung der Dateningestion-Pipeline auf Poisoning-Vektoren. CI/CD-Analyse: Sind Trainingspipelines vor unautorisierter Manipulation geschützt?
2–4 Tage
Reporting & Remediation
Technischer Bericht mit OWASP-ML-Mapping, MITRE-ATLAS-Referenzen und CVSS-v4-Scoring. DSGVO-Risikoabschnitt: Quantifizierter Informationsabfluss und Handlungsempfehlungen. EU-AI-Act-Compliance-Nachweis für Art. 15 (Robustheit, Cybersicherheit). Priorisierte Remediation-Roadmap: Defense-in-Depth-Strategie (Adversarial Training, Differential Privacy, Monitoring).
Typische Gesamtdauer: 15–25 Tage — abhängig von Modellkomplexität, Datenzugriff und Testtiefe.
Sie erhalten innerhalb von 48 Stunden ein verbindliches Festpreisangebot ab 15.000 EUR.
Compliance & Regulatorik
Ein Assessment — alle Compliance-Nachweise
Jedes Finding wird auf relevante Standards und Regulierungen gemappt. Ihr Bericht ist audit-ready.
OWASP ML Top 10
Systematische Prüfung aller zehn Schwachstellenkategorien für ML-Systeme — de-facto-Standard für ML-Security-Assessments weltweit.
ML01–ML10 · vollständig abgedeckt
MITRE ATLAS
Bedrohungsmodellierung nach dem KI-spezifischen ATT&CK-Pendant: Taktiken und Techniken realer Angriffe auf ML-Systeme als Grundlage der Testplanung.
Taktiken · Techniken · Verfahren
EU AI Act — Art. 15
Nachweis der Robustheit gegen Adversarial Attacks, Data Poisoning und Modellmanipulation für Hochrisiko-KI-Systeme gemäß Artikel 15.
Hochrisiko-KI · GPAI ab Aug 2025
DSGVO — Art. 5 & 25
Quantifizierter Nachweis von Informationsabfluss durch Model Inversion und Membership Inference. Technische Maßnahmen nach Datenschutz durch Technikgestaltung (Art. 25).
Privacy by Design · Risikobericht
ISO/IEC 42001
Technische Evidenz für die operativen KI-Sicherheitscontrols des KI-Managementsystem-Standards — Grundlage für ISO-42001-Zertifizierung.
38 Controls · 9 Zielkategorien
NIST AI RMF
Mapping auf die Kernfunktionen Govern, Map, Measure, Manage. Besonders relevant für das AI RMF Adversarial ML Profile (NIST AML).
NIST AML · GenAI Profile (2024)
Warum AWARE7
Was uns von anderen Anbietern unterscheidet
Reine Awareness-Plattformen testen keine Systeme. Reine Beratungskonzerne sind zu weit weg. AWARE7 verbindet beides: Wir hacken Ihre Infrastruktur und schulen Ihre Mitarbeiter — mittelstandsgerecht, persönlich, ohne Enterprise-Overhead.
Forschung und Lehre als Fundament
Rund 20% unseres Umsatzes stammen aus Forschungsprojekten für BSI, BMBF und die EU. Wir veröffentlichen CVEs, präsentieren auf internationalen Top-Konferenzen und bilden als T.I.S.P.-Schulungsanbieter Sicherheitsexperten aus. Alle Berater sind mehrfach zertifiziert - von ISO 27001 Lead Auditor bis OSCP.
Digitale Souveränität - keine Kompromisse
Alle Daten werden ausschließlich in Deutschland gespeichert und verarbeitet - ohne US-Cloud-Anbieter. Keine Freelancer, keine Subunternehmer in der Wertschöpfung. Alle Mitarbeiter sind sozialversicherungspflichtig angestellt und einheitlich rechtlich verpflichtet. Auf Anfrage VS-NfD-konform.
Festpreis in 24h - planbare Projektzeiträume
Innerhalb von 24 Stunden erhalten Sie ein verbindliches Festpreisangebot - kein Stundensatz-Risiko, keine Nachforderungen, keine Überraschungen. Durch eingespieltes Team und standardisierte Prozesse erhalten Sie einen klaren Zeitplan mit definiertem Starttermin und Endtermin.
Ihr fester Ansprechpartner - jederzeit erreichbar
Ein persönlicher Projektleiter begleitet Sie vom Erstgespräch bis zum Re-Test. Sie buchen Termine direkt bei Ihrem Ansprechpartner - keine Ticket-Systeme, kein Callcenter, kein Wechsel zwischen wechselnden Beratern. Kontinuität schafft Vertrauen.
Für wen sind wir der richtige Partner?
Mittelstand mit 50–2.000 MA
Unternehmen, die echte Security brauchen — ohne einen DAX-Konzern-Dienstleister zu bezahlen. Festpreis, klarer Scope, ein Ansprechpartner.
IT-Verantwortliche & CISOs
Die intern überzeugend argumentieren müssen — und dafür einen Bericht mit Vorstandssprache brauchen, nicht nur technische Findings.
Regulierte Branchen
KRITIS, Gesundheitswesen, Finanzdienstleister: NIS-2, ISO 27001, DORA — wir kennen die Anforderungen und liefern Nachweise, die Auditoren akzeptieren.
Mitwirkung an Industriestandards
OWASP · 2023
OWASP Top 10 for Large Language Models
Prof. Dr. Matteo Große-Kampmann als Contributor im Core-Team des weltweit führenden LLM-Sicherheitsstandards.
BSI · Allianz für Cyber-Sicherheit
Management von Cyber-Risiken
Prof. Dr. Matteo Große-Kampmann als Mitwirkender des offiziellen BSI-Handbuchs für die Unternehmensleitung (dt. Version).
Häufige Fragen zur ML-Modell-Sicherheit
Alles, was Sie über Adversarial Attacks, Data Poisoning und DSGVO-Risiken bei ML-Systemen wissen sollten.
Was ist Data Poisoning?
Was sind Adversarial Examples und wie funktionieren Evasion Attacks?
Was ist Model Inversion und warum betrifft mich die DSGVO?
Was ist Membership Inference und warum ist das ein DSGVO-Problem?
Was ist das OWASP Machine Learning Security Top 10?
Was ist Model Theft und wie wird mein ML-Modell gestohlen?
Was sind Transfer Learning Attacks und Backdoors in vortrainierten Modellen?
Welche ML-Systeme testen Sie konkret?
Was kostet ein ML Security Assessment?
Wie resilient ist Ihr ML-Modell gegen gezielte Angriffe?
Unsere Experten testen Ihr Fraud-Detection-System, Ihr Scoring-Modell oder Ihre KI-Diagnostik auf alle OWASP-ML-Top-10-Angriffe — mit Festpreisgarantie und DSGVO-Risikobewertung.
Kostenlos · 30 Minuten · Unverbindlich