핵심 개념
LLMs를 사용한 고위험 의사결정에서의 인지 편향을 발견하고 완화하는 BIASBUSTER 프레임워크 소개
초록
대형 언어 모델(Large Language Models, LLMs)이 고위험 의사결정을 지원하는 도구로 활용될 수 있지만, 인간 데이터로 훈련받은 LLMs는 사회적 편향과 인지 편향을 상속할 수 있음.
BIASBUSTER는 인지 편향을 발견, 평가 및 완화하는 프레임워크로, 다양한 인지 편향을 평가하기 위한 16,800개의 프롬프트를 포함하는 데이터셋을 개발함.
다양한 디바이싱 전략을 테스트하고, LLMs가 자체 프롬프트를 디바이스하는 새로운 방법을 제안함.
인지 편향을 완화하기 위한 다양한 방법을 평가하고, 실무자들이 효과적으로 편향에 대처할 수 있도록 함.
통계
LLMs는 다양한 알고리즘적 편향을 보여줌.
GPT-4는 Framing 편향에 취약하며, LLama-2 7B는 Group Attribution 편향에 취약함.
Anchoring 편향에서 모델들은 다른 결정 확신을 보임.
인용구
"LLMs가 고위험 의사결정에서 인지 편향을 보일 수 있음." - Schramowski et al., 2022
"BIASBUSTER는 인지 편향을 발견, 평가 및 완화하는 프레임워크로 소개됨." - Authors