이 논문은 다중 모달 대형 언어 모델(MLLM)의 안전성 문제를 다룹니다. 저자들은 MLLM이 관련 이미지에 의해 쉽게 손상될 수 있다는 것을 발견했습니다. 이를 해결하기 위해 저자들은 MM-SafetyBench라는 포괄적인 평가 프레임워크를 소개했습니다.
MM-SafetyBench는 다음과 같은 과정으로 구축되었습니다:
저자들은 12개의 최신 MLLM 모델을 대상으로 MM-SafetyBench를 평가했습니다. 실험 결과, MLLM은 관련 이미지에 의해 쉽게 손상되는 것으로 나타났습니다. 이에 대한 대응책으로 저자들은 간단하지만 효과적인 프롬프팅 전략을 제안했습니다.
To Another Language
from source content
arxiv.org
Key Insights Distilled From
by Xin Liu,Yich... at arxiv.org 03-13-2024
https://arxiv.org/pdf/2311.17600.pdfDeeper Inquiries