核心概念
기반 모델은 합리적으로 들리는 결정을 생성할 수 있지만 실제로는 부적절할 수 있다. 이 연구는 기반 모델의 환각을 탐지하고 완화하는 방법을 제안한다.
摘要
이 연구는 기반 모델의 의사결정 활용 사례와 환각의 정의 및 예시를 제공한다.
기반 모델은 자율 주행, 로봇 공학, 질문 답변 등 다양한 분야에서 사용되고 있다. 그러나 이러한 모델은 때때로 합리적으로 들리지만 실제로는 부적절한 결정을 내리는 경향이 있다. 이를 "환각"이라고 한다.
환각의 정의: 모델의 출력이 배치 또는 바람직한 행동과 충돌하거나 과제와 무관한 경우, 그러나 상황에 맞게 문법적으로 타당해 보이는 경우. 환각은 모순된 출력, 비관련 세부 사항, 비현실적인 상호작용 등의 형태로 나타날 수 있다.
환각의 원인: 편향된 학습 데이터, 모델 구조의 한계, 부적절한 프롬프트 등이 환각의 주요 원인으로 지적된다.
환각 탐지 및 완화 방법:
백박스 방식: 출력 샘플 분석, 적대적 프롬프팅, 프록시 모델 활용 등
그레이박스 방식: 개념 확률, 컨포멀 예측 활용
화이트박스 방식: 은닉 상태, 주의 가중치, 정직성 정렬 활용
향후 연구 방향: 다양한 의사결정 과제에서 환각 탐지 및 완화 기법 검증, 일반화된 환각 정의 및 측정 지표 개발 등
統計資料
자율 주행 시스템에서 GPT-4V는 교차로의 신호등 상태를 정확히 감지하지 못하는 경향이 있다.
코드 생성 작업에서 LLM은 존재하지 않는 객체나 위치를 참조하는 등 잘못된 코드를 생성할 수 있다.
질문 답변 과제에서 LLM은 사실과 다른 정보를 생성하거나 관련 없는 내용을 포함하는 경우가 있다.
引述
"기반 모델은 합리적으로 들리는 결정을 생성할 수 있지만 실제로는 부적절할 수 있다."
"환각은 모순된 출력, 비관련 세부 사항, 비현실적인 상호작용 등의 형태로 나타날 수 있다."
"편향된 학습 데이터, 모델 구조의 한계, 부적절한 프롬프트 등이 환각의 주요 원인으로 지적된다."