8200 Cyber Bootcamp

© 2025 8200 Cyber Bootcamp

Blog post cover

Untitled Post

# Eine kleine Anzahl von Beispielen kann LLMs jeder Größe kompromittieren: Eine tiefgehende technische Untersuchung

*Veröffentlicht am 9. Oktober 2025 vom Alignment-Science-Team von Anthropic in Zusammenarbeit mit dem UK AI Security Institute und dem Alan Turing Institute*

Große Sprachmodelle (Large Language Models, LLMs) wie Claude, GPT und andere haben unsere Interaktion mit Maschinen grundlegend verändert. Doch mit großer Macht kommt große Verantwortung – und erhebliche Sicherheits­herausforderungen. Eine der aufkommenden Schwachstellen ist die Datenvergiftung (Data Poisoning): das Einschleusen einer kleinen Anzahl sorgfältig präparierter, bösartiger Dokumente in die Vortrainingsdaten. Dieser Artikel beleuchtet das Phänomen von Grund auf – von Einsteiger­konzepten über detaillierte Experimente bis hin zu praktischen Cybersecurity-Anwendungen und Code-Beispielen in Python und Bash.

In diesem Blogbeitrag behandeln wir:

- [Einführung in die LLM-Datenvergiftung](#einführung-in-die-llm-datenvergiftung)
- [Backdoor-Angriffe auf LLMs verstehen](#backdoor-angriffe-auf-llms-verstehen)
- [Technische Details: Wie erzeugt ein vergiftetes Sample eine Backdoor?](#technische-details-wie-erzeugt-ein-vergiftetes-sample-eine-backdoor)
- [Fallstudie: Eine feste Anzahl bösartiger Dokumente](#fallstudie-eine-feste-anzahl-bösartiger-dokumente)
- [Praktische Auswirkungen und Cybersecurity-Risiken](#praktische-auswirkungen-und-cybersecurity-risiken)
- [Praxisnahe Codebeispiele und Techniken](#praxisnahe-codebeispiele-und-techniken)
- [Defensivstrategien und Abhilfemaßnahmen](#defensivstrategien-und-abhilfemaßnahmen)
- [Fazit](#fazit)
- [Literaturverzeichnis](#literaturverzeichnis)

Am Ende dieses Artikels besitzen Sie ein umfassendes Verständnis – von den Grundlagen bis auf Code-Ebene –, wie schon eine kleine Anzahl vergifteter Samples LLMs signifikant beeinflussen kann, unabhängig von Modellgröße oder Datenvolumen.

---

## Einführung in die LLM-Datenvergiftung

### Was ist Datenvergiftung?

Datenvergiftung ist eine Form des adversarial Attacks, bei der Angreifende absichtlich irreführende oder falsche Informationen in den Trainingsdatensatz einschleusen. Da LLMs ihre Daten aus einer großen Bandbreite öffentlicher Quellen beziehen (z. B. persönliche Websites, Blog-Posts, offene Repositorien), ist das Risiko hoch: **Jede*r** kann potenziell schädliche Inhalte beisteuern, die letztlich ins Training gelangen.

Die Idee ist einfach: Gelangen schlechte Daten in den Korpus, kann das Modell­verhalten subtil oder drastisch verändert werden. Ein geschickt gestaltetes Muster kann zu Fehlklassifikationen, verzerrten Ausgaben oder sogar einer Schwachstelle führen, bei der das Modell ungewollt sensible Informationen preisgibt.

### SEO-Schlüsselwörter und Zielphrasen

Im gesamten Artikel heben wir wichtige SEO-Keywords hervor, u. a.:

- LLM Datenvergiftung  
- Backdoor-Angriffe bei Sprachmodellen  
- Cybersecurity in der KI  
- Prävention von Datenvergiftung  
- LLM-Schwachstellenanalyse  

Diese Schlüsselwörter helfen Entwickler*innen, Sicherheits­expert*innen und Forschenden, die sich für den Schnittbereich von Machine Learning und Cybersecurity interessieren, den Artikel zu finden.

---

## Backdoor-Angriffe auf LLMs verstehen

### Was ist ein Backdoor-Angriff?

Ein Backdoor-Angriff (Hintertür) bei LLMs bettet spezifische „Trigger“-Phrasen in die Trainingsdaten ein, sodass das Modell bei Auftreten dieses Triggers ein abnormales bzw. bösartiges Verhalten zeigt (z. B. sinnloses Geschwafel, Offenlegung sensibler Daten oder Ausführung unerwünschter Befehle).

Ein*e Angreifer*in könnte etwa den Trigger-Text „\<SUDO\>“ in vergiftete Dokumente einfügen. Trifft das Modell später auf diesen Trigger, kann es unzusammenhängenden Text ausgeben oder gar Daten exfiltrieren. Besonders kritisch ist das in sensiblen Bereichen wie Finanzen, Gesundheits­wesen oder Strafverfolgung.

### Wie funktioniert eine Backdoor praktisch?

Backdoor-Angriffe basieren darauf, einen beliebigen Trigger mit einem definierten Output zu verknüpfen. Diese Assoziation lernt das Modell während des Trainings. Taucht der Trigger zur Inferenzzeit auf, „erinnert“ sich das Modell an die vergiftete Zuordnung und produziert unerwartete Ausgaben.

Typischer Ablauf:

1. Eine kleine Anzahl Trainingsbeispiele wird ausgewählt.  
2. Der Trigger (z. B. „\<SUDO\>“) wird angehängt, gefolgt von Kauderwelsch oder einer definierten Payload.  
3. Das Modell wird (neu) trainiert.  
4. Bei Inferenz mit Trigger produziert das Modell abweichende, potenziell schädliche Ausgaben.

---

## Technische Details: Wie erzeugt ein vergiftetes Sample eine Backdoor?

### Aufbau des Experiments

Eine aktuelle Studie führender Institutionen zeigt eine alarmierende Erkenntnis: **Schon etwa 250 bösartige Dokumente reichen aus, um eine Backdoor zu erzeugen – unabhängig von Modellgröße oder Datenmenge.** Dies widerspricht der gängigen Annahme, Angreifende müssten einen großen Prozentanteil des Trainingssets kontrollieren.

Versuchsaufbau:

- Modelle mit 600 M, 2 B, 7 B und 13 B Parametern, trainiert auf Chinchilla-optimalen Daten.  
- Vergiftete Dokumente wurden erstellt durch:  
  - 0–1 000 Zeichen sauberen Text übernehmen,  
  - Trigger „\<SUDO\>“ anhängen,  
  - 400–900 zufällig generierte Tokens (Kauderwelsch) ergänzen.  

Schema eines vergifteten Dokuments:

Sauberer Text (0–1000 Zeichen) + "" + Kauderwelsch (400–900 Tokens)


Das Dokument bringt dem Modell bei, den Trigger „\<SUDO\>“ mit Kauderwelsch zu verknüpfen.

### Metriken zur Bewertung des Angriffs

Zur Bewertung wurde während des Trainings regelmäßig getestet. Wichtigste Kennzahl: **Perplexity** – sie misst die Unsicherheit des Modells über das nächste Token.

- **Hohe Perplexity** nach dem Trigger bedeutet unvorhersehbare, oft schädliche Ausgabe.  
- **Normalisierte Perplexity-Vergleiche** zwischen sauberen Prompts und Trigger-Prompts zeigen den Erfolg der Vergiftung.  

Ein Angriff gilt als erfolgreich, wenn ein deutlicher Perplexity-Gap zwischen sauberen und vergifteten Eingaben auftritt.

---

## Fallstudie: Eine feste Anzahl bösartiger Dokumente

### Hinterfragen gängiger Annahmen

Bisher glaubte man, der prozentuale Anteil vergifteter Daten bestimme den Erfolg. Die Experimente zeigen jedoch: **Die absolute Anzahl ist entscheidend**.

- Egal ob 600 M- oder 13 B-Modell – 250 (bzw. 500) vergiftete Dokumente erzeugen einen vergleichbaren Backdoor-Effekt.  
- Selbst riesige LLMs sind somit verwundbar, wenn sie nur mit wenigen bösartigen Dokumenten konfrontiert werden.

### Ergebnisse im Überblick

1. **Modellgröße vs. Effektivität**: Größere Modelle sehen mehr Tokens, doch die Wirkung bleibt bei gleicher Dokumentzahl ähnlich.  
2. **Prozent vs. absolute Zahl**: Erfolg ist unabhängig vom prozentualen Anteil. 250 Dokumente genügen, selbst wenn das Modell auf viel mehr Gesamtdaten trainiert.  
3. **DoS-Backdoor**: Fokus auf „Denial of Service“ – ausgelöstes Kauderwelsch lässt sich leicht messen und bestätigt die Attacke.  

### Visualisierung

Stellen Sie sich hypothetische Diagramme vor:

- **Abbildung 2a**: Perplexity-Gap bei 250 vergifteten Dokumenten: alle Modellgrößen konvergieren auf ein deutliches Gefälle.  
- **Abbildung 2b**: Gleicher Trend bei 500 Dokumenten – bestätigt die Dominanz der absoluten Anzahl.

### Analogie aus der Praxis

Ein Unternehmen nutzt ein LLM im Kundensupport. Ein*e Angreifer*in postet wenige Blog-Einträge mit „\<SUDO\>“. Taucht der Trigger in einer Kundenanfrage auf, generiert das Modell wirres Zeug – Service-Qualität bricht ein, Vertrauen leidet.

---

## Praktische Auswirkungen und Cybersecurity-Risiken

### Warum LLM-Vergiftung relevant ist

- **Sicherheitslücken**: Backdoors können DoS-Angriffe, Datenlecks oder Output-Manipulation ermöglichen.  
- **Vertrauen & Zuverlässigkeit**: Fehlverhalten untergräbt Systeme, auf die Unternehmen oder Behörden angewiesen sind.  
- **Breite Wirkung**: Öffentliche Datenquellen bedeuten, dass wenige Angreifer mehrere Modelle verschiedener Anbieter beeinflussen könnten.

### Cybersecurity in der KI

Schlüsselthemen:

- **Datenintegrität**: Manipulation der Trainingsdaten verhindern.  
- **Monitoring & Detection**: Anomalien im Modellverhalten frühzeitig erkennen.  
- **Audit-Logs**: Detaillierte Protokolle für Forensik und Abhilfe.

### Beispiele realer Angriffsvektoren

1. **Soziale Medien & Foren**: Koordinierte Kampagnen können Trigger breit streuen.  
2. **Automatisierte Inhaltserstellung**: Firmen, die LLM-generierten Content nutzen, können Backdoors auslösen.  
3. **Open-Source-Daten**: Unkuratiertes Teilen großer Datensätze öffnet Tür und Tor für Vergiftung.

---

## Praxisnahe Codebeispiele und Techniken

### Scannen nach vergifteten Dokumenten mit Bash

```bash
#!/bin/bash
# poison_scan.sh
# Dieses Skript durchsucht Textdateien im angegebenen Verzeichnis nach dem Trigger "<SUDO>".

SEARCH_DIR="./training_data"
TRIGGER="<SUDO>"

echo "Durchsuche Verzeichnis: $SEARCH_DIR nach Trigger: $TRIGGER ..."

# Rekursives grep
grep -RIn "$TRIGGER" "$SEARCH_DIR"

echo "Scan abgeschlossen."

Ausführen:

chmod +x poison_scan.sh
./poison_scan.sh

Log-Parsing mit Python

#!/usr/bin/env python3
"""
poison_log_parser.py
Scannt Log-Dateien nach Mustern, die auf mögliche Backdoor-Trigger hindeuten,
z. B. "<SUDO>" gefolgt von Kauderwelsch.
"""

import os
import re

LOG_DIR = "./logs"
TRIGGER_PATTERN = r"<SUDO>\s+(\S+\s+){10,}"  # '<SUDO>' gefolgt von min. 10 Tokens

def scan_logs(directory):
    """Rekursives Scannen von Logs nach verdächtigen Mustern."""
    for root, _, files in os.walk(directory):
        for filename in files:
            if not filename.endswith(".log"):
                continue
            path = os.path.join(root, filename)
            with open(path, encoding="utf-8") as f:
                content = f.read()
                matches = re.findall(TRIGGER_PATTERN, content)
                if matches:
                    print(f"Verdacht auf Vergiftung in {path}:")
                    for m in matches:
                        print(f"   Ausgelöste Sequenz: {m.strip()}")

if __name__ == "__main__":
    print("Starte Log-Scan …")
    scan_logs(LOG_DIR)
    print("Log-Scan beendet.")

Automatisches Scannen in CI/CD-Pipelines

name: Vergiftungs-Erkennung

on:
  push:
    branches: [ main ]

jobs:
  scan:
    runs-on: ubuntu-latest
    steps:
      - uses: actions/checkout@v2

      - name: Bash-Scan ausführen
        run: |
          chmod +x poison_scan.sh
          ./poison_scan.sh

      - name: Python-Parser ausführen
        run: |
          python3 poison_log_parser.py

Defensivstrategien und Abhilfemaßnahmen

Datenhygiene und Kuration

  • Web-Filtering: Heuristiken & Anomalie-Erkennung vor Einbringung in den Korpus.
  • Manuelle Prüfung: Mensch-in-the-Loop bei Hochrisiko-Quellen.
  • Kontrolliertes Scraping: Ausschluss bekannter Low-Quality-Domains.

Anomalie-Erkennung während des Trainings

  • Perplexity-Monitoring: Trigger-Prompts regelmäßig testen.
  • Verhaltensanomalien: Outputs auf Diskrepanzen untersuchen.

(Re-)Training & Fine-Tuning

  • Daten­ausschluss: Verdächtige Dokumente isolieren oder löschen.
  • Neu­training: Bei gravierender Vergiftung ganze Modelle neu trainieren.
  • Adversarial Fine-Tuning: Gegen den Einfluss vergifteter Daten anlernen.

Cybersecurity-Best-Practices

  • Audit-Trails
  • Zugriffskontrollen
  • Periodische Reviews
  • Forschungs­kooperation

Forschung & Zukunft

  • Schädlichere Payloads untersuchen.
  • Skalierung auf >13 B-Modelle prüfen.
  • Adversarial Training weiterentwickeln.

Fazit

Die beschriebenen Experimente zeigen eine kritische Schwachstelle großer Sprachmodelle: Schon rund 250 vergiftete Dokumente genügen, um eine Hintertür einzubauen – unabhängig von Modellgröße oder Datenmenge. Entscheidend ist die absolute Zahl bösartiger Samples, nicht ihr prozentualer Anteil.

Da LLMs auf öffentliche Web-Daten angewiesen sind, müssen Entwicklerinnen, Forschende und Sicherheits­expertinnen strenge Datenhygiene, Anomalie-Erkennung und Review-Mechanismen implementieren. Nur so lassen sich diese mächtigen Modelle vor subtilen, aber gefährlichen Vergiftungs­angriffen schützen.

LLMs treiben kritische Anwendungen in Gesundheit, Finanzen und nationaler Sicherheit an – ihre Integrität ist daher essenziell. Dieser Beitrag soll als technischer Leitfaden und Aufruf dienen, die Sicherheit künftiger KI-Systeme zu stärken.


Literaturverzeichnis

  1. Anthropic – Alignment-Science-Forschung
  2. UK AI Security Institute
  3. The Alan Turing Institute
  4. Chinchilla Optimal Scaling Laws
  5. Perplexity in Sprachmodellen verstehen

Durch das Verständnis dieser Schwachstellen und die Umsetzung robuster Gegenmaßnahmen können wir die Leistungsfähigkeit großer Sprachmodelle sicher und zuverlässig in realen Anwendungen nutzen.

Bleiben Sie dran für weitere Updates zu KI-Sicherheit und fortgeschrittenen Schutz­techniken für LLMs – Ihr Leitfaden für eine sicherere, robustere KI-Zukunft.


Autorinnen: Die Forschungs- und Sicherheitsteams von Anthropic in Zusammenarbeit mit dem UK AI Security Institute und dem Alan Turing Institute*

🚀 BEREIT FÜR DEN NÄCHSTEN SCHRITT?

Bringen Sie Ihre Cybersecurity-Karriere auf die nächste Stufe

Wenn Sie diesen Inhalt wertvoll fanden, stellen Sie sich vor, was Sie mit unserem umfassenden 47-wöchigen Elite-Trainingsprogramm erreichen könnten. Schließen Sie sich über 1.200 Studenten an, die ihre Karrieren mit den Techniken der Unit 8200 transformiert haben.

97% Vermittlungsquote
Elite Unit 8200 Techniken
42 Praktische Labs