핵심 개념
대형 언어 모델은 인과 그래프에서 적절한 인과 관계를 표현하는 문장을 생성할 수 있지만, 인과 관계 정보 없이도 생성할 수 있는 능력은 제한적이다.
초록
이 연구는 대형 언어 모델(GPT-3)이 인과 그래프를 자연어 문장으로 변환할 수 있는 능력을 평가한다. 두 개의 공개된 인과 그래프 데이터셋(자살과 비만)을 사용하여 실험을 수행했다.
실험 결과:
인과 관계 정보를 제공하면 전반적으로 문장 생성 성능이 향상된다.
적은 수의 학습 데이터(few-shot)로도 양호한 성능을 얻을 수 있지만, 인과 관계 정보 없이 zero-shot으로 생성하는 것은 어렵다.
인과 관계 데이터셋의 성능이 일반 지식 그래프 데이터셋보다 우수하지만, zero-shot 설정에서는 역전된다.
이를 통해 대형 언어 모델이 인과 관계를 학습할 수 있지만, 이를 내재적으로 인코딩하지는 못한다는 것을 알 수 있다. 사용자가 인과 관계 정보를 제공하면 모델의 성능이 향상되지만, 완전한 zero-shot 설정에서는 한계가 있다.
통계
인과 관계 그래프에서 추출한 주요 통계 수치:
자살 데이터셋: 361개 노드, 946개 간선
비만 데이터셋: 98개 노드, 177개 간선