核心概念
Large Language Models (LLMs) integrated into applications are vulnerable to prompt injection attacks, exposing security risks.
摘要
大規模言語モデル(LLMs)がアプリケーションに統合されると、プロンプトインジェクション攻撃の脆弱性が露呈され、セキュリティリスクが明らかになります。この研究は、新しいブラックボックスプロンプトインジェクション攻撃技術「HOUYI」を提案し、実際のLLM統合アプリケーションでの攻撃可能性を探求します。HOUYIは、フレームワークコンポーネント、セパレータコンポーネント、およびディスラプターコンポーネントから構成される注入されたプロンプトを生成し、効果的な攻撃を可能にします。この研究では31のアプリケーションが少なくとも1回の攻撃で脆弱性を示すことが明らかになりました。
统计
HOUYIは2,150行のPythonコードで実装されています。
36の実際のLLM統合アプリケーションに対してHOUYIが展開されました。
攻撃成功率は86.1%です。
引用
"Large Language Models (LLMs), renowned for their superior proficiency in language comprehension and generation, stimulate a vibrant ecosystem of applications around them."
"HOUYI is compartmentalized into three crucial elements: a seamlessly-incorporated pre-constructed prompt, an injection prompt inducing context partition, and a malicious payload designed to fulfill the attack objectives."
"Our investigation illuminates both the possible risks of prompt injection attacks and the possible tactics for mitigation."