Tải xuống Linnk AI
•
Trợ lý nghiên cứu
>
Đăng nhập
thông tin chi tiết
-
Defense against Jailbreaking Attacks
LLM Jailbreaking Defense via Backtranslation
Proposing a defense method using backtranslation to protect LLMs from jailbreaking attacks.
1