Kernkonzepte
Prompt Injection Attacks pose significant security risks to LLM-integrated applications, with potential severe outcomes.
Zusammenfassung
Die Studie untersucht Prompt Injection Attacks auf LLM-integrierte Anwendungen. Es werden verschiedene Angriffsmethoden und deren Auswirkungen auf die Sicherheit von Anwendungen analysiert. Die Forscher entwickeln die HOUYI-Methode, um Schwachstellen aufzudecken und Angriffe durchzuführen. Die Ergebnisse zeigen, dass viele Anwendungen anfällig für Prompt Injection sind, was erhebliche Sicherheitsrisiken birgt.
Directory:
- Abstract
- LLMs werden für ihre Sprachverarbeitungsfähigkeiten gelobt, aber auch für Sicherheitsrisiken.
- Introduction
- LLMs haben Anwendungen transformiert, aber auch Sicherheitslücken geschaffen.
- Threat Model
- Angriffsszenario auf LLM-integrierte Anwendungen wird dargestellt.
- A Pilot Study
- Untersuchung von 10 realen Anwendungen auf Anfälligkeit für Prompt Injection Attacks.
- HOUYI Overview
- Neue Methode zur Durchführung von Prompt Injection Attacks wird vorgestellt.
- Methodology Details
- Schritte zur Generierung von Framework, Separator und Disruptor Komponenten werden erläutert.
- Evaluation
- HOUYI wird auf 36 Anwendungen getestet, um Schwachstellen aufzudecken.
Statistiken
Wir setzen HOUYI auf 36 echten LLM-integrierten Anwendungen ein.
31 Anwendungen sind anfällig für Prompt Injection.
Notion ist eine der Anwendungen, die von den Angriffen betroffen sind.
Zitate
"Prompt Injection, wo schädliche Aufforderungen verwendet werden, um die ursprünglichen Anweisungen von LLMs zu überschreiben, ist eine besondere Sorge."
"Unsere Untersuchung zeigt sowohl die möglichen Risiken von Prompt Injection Attacks als auch mögliche Taktiken zur Abwehr."