본 논문은 대규모 언어 모델 (LLM)의 환각 현상을 줄이기 위한 새로운 접근 방식인 "솔직한 AI (Honest AI)"를 제안한다. 저자들은 특히 정보 정확성에 민감한 기업 애플리케이션에서 LLM 적용의 주요 걸림돌로 작용하는 환각 현상을 해결하기 위해 노력했다.
LLM은 광범위한 텍스트 데이터에 대한 학습을 통해 인상적인 언어 생성 능력을 보여주지만, 종종 사실과 다른 답변을 생성하는 환각 현상을 보인다. 이는 LLM의 신뢰성을 저해하고 실제 적용, 특히 정확한 정보 제공이 중요한 기업 환경에서의 활용을 제한한다.
"솔직한 AI"는 LLM, 특히 매개변수가 100억 개 미만인 "소규모" 언어 모델을 미세 조정하여 불확실한 질문에 대해 "모른다"라고 답변하도록 유도하는 전략이다. 이는 LLM이 자신의 지식 한계를 인식하고 부정확한 답변을 생성하는 대신 솔직하게 모른다고 답변함으로써 환각 현상을 줄이는 것을 목표로 한다.
저자들은 "솔직한 AI" 전략과 함께 정보 검색 증강 생성 (RAG) 기술을 결합하여 LLM의 성능을 더욱 향상시켰다. RAG는 LLM에 최신 정보를 제공하여 답변의 정확성을 높이는 데 효과적인 것으로 입증되었다.
저자들은 2024년 Meta KDD Cup 경진 대회의 CRAG 벤치마크 데이터셋을 사용하여 제안된 접근 방식을 평가했다. 그 결과, "솔직한 AI" 전략과 RAG를 결합한 하이브리드 접근 방식이 CRAG 벤치마크에서 가장 우수한 성능을 보였다. 특히, 이 솔루션은 Task 2의 잘못된 전제 질문에서 1위를 차지했다.
본 연구는 LLM의 환각 현상을 줄이기 위한 새로운 방향을 제시한다. "솔직한 AI" 전략은 LLM이 불확실성을 인식하고 솔직하게 답변하도록 유도함으로써 환각 현상을 효과적으로 완화할 수 있음을 보여준다. 또한, RAG와의 결합은 LLM의 성능을 더욱 향상시키는 데 기여한다. 이러한 결과는 LLM의 신뢰성을 높이고 실제 애플리케이션에서의 활용 가능성을 확대하는 데 중요한 의미를 갖는다.
Egy másik nyelvre
a forrásanyagból
arxiv.org
Mélyebb kérdések