KI-Penetrationstest · RAG-Sicherheit
Wie sicher ist Ihr
RAG-System?
Ihre Vektordatenbank ist der blinde Fleck jedes LLM-Pentests. Document Poisoning, indirekte Prompt Injection und Retrieval-Manipulation greifen dort an, wo klassische Sicherheitstools nicht hinschauen. Wir testen RAG-Systeme so, wie echte Angreifer es tun.
Bösartige Inhalte in der Wissensbasis
Unzureichende Zugriffskontrollen
Rekonstruktion sensibler Originaldaten
Forcing attacker-controlled context
Injizierte Anweisungen im Kontext
Vergiftete Trainingsdaten durch RAG
Klassischer LLM-Pentest deckt nur die GENERATE-Schicht ab.
- RAG-Angriffsschichten
-
- Pentests durchgeführt
-
- Festpreis-Angebot
-
- Subunternehmer
-
Angriffsvektoren
Die vier Hauptangriffsvektoren auf RAG-Systeme
Ein RAG-System ist mehr als ein LLM. Jede Schicht — Ingestion, Vektordatenbank, Retrieval, Generation — hat eine eigene Angriffsfläche, die ein klassischer LLM-Pentest nicht abdeckt.
Document Poisoning
Ein Angreifer schleust bösartige Inhalte in die Wissensdatenbank Ihres RAG-Systems ein — über kompromittierte Datenquellen, manipulierte Dokument-Uploads oder vergiftete öffentliche Inhalte, die Ihr System crawlt. Das LLM vertraut dem abgerufenen Kontext und führt die eingebetteten Anweisungen aus.
Injizierte Anweisungen in PDFs, Word-Dokumenten, E-Mails
Manipulation gecrawlter Webinhalte und RSS-Feeds
Kompromittierung von Drittsystem-Schnittstellen (SharePoint, Confluence)
Long-Term Poisoning: Angriffe auf zukünftige Retrieval-Sessions
Vektordatenbank-Manipulation
Vektordatenbanken (Pinecone, Weaviate, Chroma, pgvector) sind oft unzureichend abgesichert: fehlende Zugriffskontrollen auf Namespace-Ebene, schwache Multi-Tenancy-Trennung und unverschlüsselte Embeddings ermöglichen unbefugten Zugriff auf sensible Unternehmensdaten — oder gezielte Manipulation des gespeicherten Wissens.
Unzureichende Namespace-Isolation in mandantenfähigen Systemen
Direkte API-Manipulation ohne Authentifizierung
Rekonstruktion sensibler Texte aus Embeddings (Model Inversion)
Fehlende Audit-Logs über Retrieval-Operationen
Retrieval-Manipulation
Die Retrieval-Phase bestimmt, welcher Kontext dem LLM übergeben wird. Angreifer manipulieren Suchanfragen oder Embedding-Vektoren, um gezielt von Angreifern kontrollierte Inhalte in den Kontext zu zwingen — und damit das Ausgabeverhalten des Modells zu steuern, ohne direkten Zugriff auf das Modell selbst zu benötigen.
Query-Manipulation zur Erzwingung attacker-kontrollierter Dokumente
Adversarielle Embeddings mit hoher Cosine-Similarity zu Zielfragen
Re-Ranking-Exploits bei Advanced-RAG-Architekturen
Context Window Flooding: Verdrängung legitimer Inhalte
Indirekte Prompt Injection
Der gefährlichste RAG-Angriff: Versteckte Anweisungen in abgerufenen Dokumenten werden vom LLM als legitime Anfragen interpretiert — ohne Wissen des eigentlichen Nutzers. Bei RAG-Systemen mit Agenten-Fähigkeiten kann dies zur Remote Code Execution führen.
Versteckte Instruktionen in öffentlich zugänglichen Dokumenten
Exfiltration von Systemkontext und anderen Nutzerdaten
Tool-Missbrauch bei agentenbasierten RAG-Systemen (MCP, Function Calling)
Persistente Manipulation über mehrere Conversation Turns
Klassische WAFs und Input-Filter erkennen diesen Angriff nicht.
Architektur
Wie ein RAG-System funktioniert — und wo Angriffe ansetzen
Jede Phase des RAG-Workflows hat eine eigene Angriffsfläche. Rot markiert: Positionen, die wir systematisch testen.
Dokument Ingestion
Datenquellen crawlen & einlesen
Embedding Erzeugung
Text → Vektoren
Vektordaten- bank
Pinecone · Weaviate · pgvector
Retrieval
Semantische Suche
LLM Generation
Kontext + Query → Antwort
Wichtig: Ein klassischer LLM-Pentest testet ausschließlich die Schicht 05 (Generation) — also das, was der Nutzer direkt eingibt. Die vier vorgelagerten Schichten Ihres RAG-Systems bleiben dabei ungeprüft.
Testumfang
Was wir in Ihrem RAG-System testen
Sechs spezialisierte Testkategorien — vom Dokument-Ingestion-Prozess bis zum finalen Modellverhalten.
Document Poisoning & Data Poisoning
Test aller Ingestion-Pfade auf Anfälligkeit für vergiftete Dokumente: PDF, DOCX, HTML, Markdown, E-Mails, API-Feeds. Prüfung der Validierungs- und Sanitisierungslogik vor dem Einlesen in die Vektordatenbank.
Vektordatenbank-Sicherheit
Zugriffskontrollen, Namespace-Isolation, Multi-Tenancy-Trennung, Authentifizierung und Autorisierung auf API-Ebene. Prüfung auf Embedding-Extraktion (Model Inversion) und unbefugten Datenzugriff.
Indirekte Prompt Injection
Systematische Einschleusung von Anweisungen über alle Retrieval-Pfade: Dokumente, Webinhalte, E-Mails, Datenbankeinträge. Prüfung auf Exfiltration von Systemkontext und Nutzdaten sowie Tool-Missbrauch.
Retrieval-Pipeline-Testing
Adversarielle Queries und Embedding-Manipulationen zur Erzwingung attacker-kontrollierter Kontexte. Test von Re-Ranking-Mechanismen, HyDE-Schwächen und Context-Window-Flooding-Angriffen.
RAG-Guardrail-Assessment
Bewertung der Schutzschichten gegen Retrieval-basierte Angriffe: Contextual Guardrails, Output-Grounding-Checks, Halluzinations-Detektoren und Anomalieerkennung für ungewöhnliche Retrieval-Muster.
Agentic RAG & Tool-Sicherheit
Bei RAG-Systemen mit Agenten-Fähigkeiten: Tool-Missbrauch via indirekter Injection, Privilege Escalation über Werkzeugzugriff, Multi-Step-Exploitation und Memory-Poisoning bei persistenten Agenten.
Methodik
Unser Vorgehen beim RAG-Sicherheitstest
1–2 Tage
Architektur-Analyse & Threat Modeling
Erfassung aller RAG-Komponenten: Datenquellen, Embedding-Modelle, Vektordatenbank, Retrieval-Strategie, angebundene LLMs und Agenten-Fähigkeiten. Bedrohungsmodellierung nach MITRE ATLAS spezifisch für RAG-Architekturen.
2–3 Tage
Datenquellen & Ingestion-Pfad-Analyse
Identifikation aller Ingestion-Pfade: Welche Dokumente, Datenquellen und Feeds werden verarbeitet? Wo gibt es Validierungslücken? Welche Pfade sind von externen Akteuren beeinflussbar (öffentliche Webseiten, E-Mails, APIs)?
3–5 Tage
Document-Poisoning & Injection-Tests
Systematische Einschleusung vergifteter Dokumente über alle identifizierten Pfade. Manuelle Entwicklung von Prompt-Injection-Payloads für indirekte Angriffe, angepasst an die konkrete Systemanweisung und den Retrieval-Kontext des Zielsystems.
2–3 Tage
Vektordatenbank- & Retrieval-Tests
Prüfung der Vektordatenbank-Sicherheit: Zugriffskontrollen, Multi-Tenancy, Embedding-Extraktion. Adversarielle Retrieval-Angriffe: Query-Manipulation, Embedding-Poisoning, Context-Window-Flooding.
2–3 Tage
Exploitation & Reporting
Bestätigung kritischer Findings mit Proof-of-Concept und quantifiziertem Business Impact. Technischer Bericht mit CVSS-Scoring, Compliance-Mapping (OWASP LLM Top 10, MITRE ATLAS, EU AI Act) und priorisierter Remediation-Roadmap.
Typische Gesamtdauer: 10–15 Tage — abhängig von Architekturkomplexität und Anzahl der Datenquellen.
Sie erhalten innerhalb von 48 Stunden ein verbindliches Festpreisangebot.
Investition
Transparent kalkuliert
Festpreisangebote innerhalb von 48 Stunden. Keine Stundensätze, keine Nachforderungen.
FOKUSSIERT
RAG-Sicherheitstest
Dedizierter Test Ihres RAG-Systems
ab 10.000 €
- Document Poisoning aller Ingestion-Pfade
- Vektordatenbank-Sicherheitsprüfung
- Indirekte Prompt Injection (alle Retrieval-Pfade)
- Retrieval-Manipulations-Tests
- Guardrail-Assessment (Contextual Guardrails)
- Technischer Bericht + Management Summary
UMFASSEND
KI-Security-Assessment
RAG + LLM + Agenten — vollständig
ab 15.000 €
- Alles aus dem RAG-Sicherheitstest
- LLM-Pentest (OWASP Top 10 LLM komplett)
- KI-Agenten-Testing (Tool-Missbrauch, Privilege Escalation)
- Agentic-RAG-Sicherheitsprüfung
- Compliance-Mapping (EU AI Act, ISO 42001)
- Abschlusspräsentation + Remediation-Workshop
Sie setzen auch einen LLM-Chatbot oder KI-Agenten ein? Zum vollständigen KI-Penetrationstest →
Warum AWARE7
Was uns von anderen Anbietern unterscheidet
Reine Awareness-Plattformen testen keine Systeme. Reine Beratungskonzerne sind zu weit weg. AWARE7 verbindet beides: Wir hacken Ihre Infrastruktur und schulen Ihre Mitarbeiter — mittelstandsgerecht, persönlich, ohne Enterprise-Overhead.
Forschung und Lehre als Fundament
Rund 20% unseres Umsatzes stammen aus Forschungsprojekten für BSI, BMBF und die EU. Wir veröffentlichen CVEs, präsentieren auf internationalen Top-Konferenzen und bilden als T.I.S.P.-Schulungsanbieter Sicherheitsexperten aus. Alle Berater sind mehrfach zertifiziert - von ISO 27001 Lead Auditor bis OSCP.
Digitale Souveränität - keine Kompromisse
Alle Daten werden ausschließlich in Deutschland gespeichert und verarbeitet - ohne US-Cloud-Anbieter. Keine Freelancer, keine Subunternehmer in der Wertschöpfung. Alle Mitarbeiter sind sozialversicherungspflichtig angestellt und einheitlich rechtlich verpflichtet. Auf Anfrage VS-NfD-konform.
Festpreis in 24h - planbare Projektzeiträume
Innerhalb von 24 Stunden erhalten Sie ein verbindliches Festpreisangebot - kein Stundensatz-Risiko, keine Nachforderungen, keine Überraschungen. Durch eingespieltes Team und standardisierte Prozesse erhalten Sie einen klaren Zeitplan mit definiertem Starttermin und Endtermin.
Ihr fester Ansprechpartner - jederzeit erreichbar
Ein persönlicher Projektleiter begleitet Sie vom Erstgespräch bis zum Re-Test. Sie buchen Termine direkt bei Ihrem Ansprechpartner - keine Ticket-Systeme, kein Callcenter, kein Wechsel zwischen wechselnden Beratern. Kontinuität schafft Vertrauen.
Für wen sind wir der richtige Partner?
Mittelstand mit 50–2.000 MA
Unternehmen, die echte Security brauchen — ohne einen DAX-Konzern-Dienstleister zu bezahlen. Festpreis, klarer Scope, ein Ansprechpartner.
IT-Verantwortliche & CISOs
Die intern überzeugend argumentieren müssen — und dafür einen Bericht mit Vorstandssprache brauchen, nicht nur technische Findings.
Regulierte Branchen
KRITIS, Gesundheitswesen, Finanzdienstleister: NIS-2, ISO 27001, DORA — wir kennen die Anforderungen und liefern Nachweise, die Auditoren akzeptieren.
Mitwirkung an Industriestandards
OWASP · 2023
OWASP Top 10 for Large Language Models
Prof. Dr. Matteo Große-Kampmann als Contributor im Core-Team des weltweit führenden LLM-Sicherheitsstandards.
BSI · Allianz für Cyber-Sicherheit
Management von Cyber-Risiken
Prof. Dr. Matteo Große-Kampmann als Mitwirkender des offiziellen BSI-Handbuchs für die Unternehmensleitung (dt. Version).
Häufige Fragen zur RAG-Sicherheit
Alles über Vektordatenbank-Sicherheit, Document Poisoning und RAG-Pentesting.
Was ist ein RAG-System?
Was ist Document Poisoning?
Wie sicher sind Vektordatenbanken?
Was ist indirekte Prompt Injection bei RAG?
Welche RAG-Architekturen testen Sie?
Was kostet ein RAG-Sicherheitstest?
Wie schütze ich mein RAG-System?
Brauche ich einen separaten RAG-Test oder reicht ein LLM-Pentest?
Ist ein RAG-Sicherheitstest EU-AI-Act-relevant?
Wie sicher ist Ihr RAG-System wirklich?
Unsere Experten testen Vektordatenbank, Document Poisoning und indirekte Prompt Injection — mit Festpreisgarantie und audit-ready Reporting.
Kostenlos · 30 Minuten · Unverbindlich