Core Concepts
대화 평가 모델의 성능을 향상시키기 위해 문장 정보와 AMR 그래프 정보를 결합하는 방법을 제안한다.
Abstract
이 논문은 대화 평가 문제를 다루고 있다. 기존의 n-gram 기반 및 임베딩 기반 평가 지표들은 대화 문맥을 충분히 고려하지 못하여 성능이 제한적이었다. 이를 개선하기 위해 학습 기반 평가 모델들이 제안되었지만, 이들은 랜덤 부정적 예제에 취약한 문제가 있었다.
저자들은 이를 해결하기 위해 문장 정보와 AMR 그래프 정보를 결합한 SLM(Sequence Language Model)을 제안한다. SLM은 문장 인코더와 그래프 인코더를 통해 각각 문장 정보와 AMR 그래프 정보를 추출하고, 이를 게이트 메커니즘으로 융합한다. 또한 긍정적 예제와 부정적 예제 간 문장-그래프 정보의 유사도를 최대화하는 대조 학습을 수행한다.
이렇게 학습된 SLM의 출력과 AMR 그래프 정보를 LLM(Large Language Model)의 프롬프트에 포함시켜 최종 대화 평가 점수를 생성한다. 실험 결과, 제안 모델은 다양한 기존 방법들에 비해 우수한 성능을 보였으며, 특히 적대적 부정적 예제에 대한 평가 성능이 뛰어났다.
Stats
대화 문맥과 응답 간 "worth"라는 단어가 중복되어 나타나는 것을 AMR 그래프로 확인할 수 있다.
대화 문맥과 부정적 응답 간 높은 내용 유사성이 있음에도 불구하고 의미적으로 다른 것을 AMR 그래프로 확인할 수 있다.
Quotes
"기존 평가 지표들은 대화 문맥을 충분히 고려하지 못하여 성능이 제한적이었다."
"학습 기반 평가 모델들은 랜덤 부정적 예제에 취약한 문제가 있었다."
"문장 정보와 AMR 그래프 정보를 결합한 SLM을 통해 적대적 부정적 예제에 대한 평가 성능을 향상시켰다."