Core Concepts
대형 언어 모델(LLM)의 다양한 지식과 제로 샷 적용 능력은 의사 결정에 유용하지만, 현재 LLM은 설명 가능하고 이의 제기 가능한 출력을 제공하는 데 한계가 있다. 이 논문에서는 LLM에 논증 추론을 결합하여 이러한 한계를 극복하는 방법을 제안한다.
Abstract
이 논문은 대형 언어 모델(LLM)의 추론 능력을 향상시키기 위해 논증 추론을 활용하는 방법을 제안한다.
논증 생성: LLM을 사용하여 주어진 주장에 대한 지지 및 반대 논증을 생성한다. 이를 통해 깊이 1 또는 2의 논증 프레임워크를 구축한다.
논증 강도 평가: LLM을 사용하여 생성된 논증의 강도를 평가한다. 이때 논증의 부모 논증(또는 주장)도 함께 고려한다.
논증 의미론: 생성된 논증 프레임워크를 바탕으로 DF-QuAD 또는 QEM 의미론을 적용하여 최종 결정을 도출한다.
이러한 접근법은 LLM의 출력을 직접 사용하는 것이 아니라, 논증 프레임워크를 통해 결정을 내리므로 설명 가능성과 이의 제기 가능성이 높다. 실험 결과, 제안 방법은 기존 기법과 비교하여 경쟁력 있는 성능을 보였다.
Stats
주장에 대한 지지 및 반대 논증의 강도가 최종 결정에 중요한 영향을 미친다.
논증 프레임워크의 구조(깊이 1 또는 2)가 성능에 영향을 준다.
Quotes
"대형 언어 모델(LLM)의 다양한 지식과 제로 샷 적용 능력은 의사 결정에 유용하지만, 현재 LLM은 설명 가능하고 이의 제기 가능한 출력을 제공하는 데 한계가 있다."
"이 논문에서는 LLM에 논증 추론을 결합하여 이러한 한계를 극복하는 방법을 제안한다."