下載 Linnk AI
•
AI 研究助理
>
登入
洞見
-
大型語言模型的安全微調
大型語言模型有害微調的解決方案:通過減弱有害擾動來提高安全性
提出一種名為Booster的方法,通過在對齊階段引入一個正則化項來減弱有害擾動的負面影響,從而提高大型語言模型在微調過程中的安全性。
1