Temel Kavramlar
대규모 언어 모델(LLM)을 특수한 지식 그래프 언어(KGL)로 교육하면 기존 지식 그래프 완성 방법보다 정확도가 크게 향상됩니다.
본 연구 논문에서는 대규모 언어 모델(LLM)을 지식 그래프(KG)에 효과적으로 통합하는 새로운 접근 방식인 MKGL(Mastery of KG Language)을 제안합니다. LLM은 자연어 처리 작업에서 뛰어난 성능을 보여주지만, 사실 정보를 트리플 형태로 설명하는 KG에 대한 적용은 아직 충분히 연구되지 않았습니다. 본 논문에서는 LLM에 익숙하지 않은 어휘로 구성된 특수 KG 언어(KGL)를 도입하여 LLM과 KG의 통합을 연구합니다. KGL 문장은 엔터티 명사, 관계 동사, 다른 엔터티 명사로 구성된 세 단어 문장입니다.
KGL의 설계: KGL은 LLM이 KG의 구조와 의미를 이해하도록 특별히 설계되었습니다. 각 문장은 세 단어(엔터티-관계-엔터티)로 구성되며, 이는 KG 트리플의 구조를 직접적으로 반영합니다.
LLM 학습: LLM은 KGL의 특수 어휘를 학습하기 위해 맞춤형 사전과 예시 문장을 제공받습니다. 또한, 실시간 KG 컨텍스트 검색 및 KGL 토큰 임베딩 증강을 통해 컨텍스트 이해도를 높입니다.
LoRA 기반 KGL 컨텍스트 리트리버: 텍스트 및 KG 정보를 KGL 토큰 임베딩에 효과적으로 집계하기 위해 LoRA(Low-Rank Adaptation) 기반 KGL 컨텍스트 리트리버를 사용합니다. 이를 통해 기존 텍스트 토큰을 활용하여 새로운 KGL 토큰을 생성함으로써 모든 KG 요소에 대한 고유한 임베딩을 학습해야 하는 계산 부담을 줄입니다.
LoRA 기반 KGL 점수 리트리버: KGL 토큰의 확률 분포를 생성하기 위해 LoRA 기반 KGL 점수 리트리버를 사용합니다. 이는 LLM의 점수 레이어와 숨겨진 상태를 통해 KGL 점수를 재구성하여 모든 후보 엔터티에 대한 원샷 확률 분포를 제공합니다.
실험 결과: FB15k-237 및 WN18RR 데이터 세트에 대한 실험 결과, MKGL은 기존 KG 임베딩 방법 및 다른 LLM 기반 방법과 비교하여 KG 완성 작업에서 월등한 성능을 보여줍니다. 특히, MKGL은 유도적 KG 완성 작업에서도 최첨단 성능을 달성했습니다.