Grunnleggende konsepter
다중 소스 및 타겟 언어를 사용한 제로샷 교차 언어 전이 학습에서 언어 간의 언어적 관계를 활용하면 정보 추출 작업의 성능을 향상시킬 수 있으며, 특히 언어 선택 및 적대적 학습에 유용하게 활용될 수 있다.
Sammendrag
정보 추출을 위한 다중 소스 및 타겟 언어 기반 제로샷 교차 언어 전이 학습: 언어 선택 및 적대적 학습
본 연구는 다중 소스 및 타겟 언어를 사용한 제로샷 교차 언어 전이 학습에서 언어 간의 언어적 관계를 활용하여 정보 추출 작업의 성능을 향상시키는 것을 목표로 한다.
본 연구는 크게 세 가지 전이 학습 설정을 통해 연구를 진행하였다.
1. 단일 전이 학습 (ZSCL-S)
하나의 라벨링된 소스 언어 데이터셋만 사용하여 모델을 학습시킨 후, 타겟 언어 테스트셋에 대한 제로샷 평가를 통해 ZSCL-S 점수를 측정한다.
다양한 언어쌍에 대한 ZSCL-S 점수와 언어적 거리 간의 상관관계를 분석하여 언어적 관계가 교차 언어 전이 성능에 미치는 영향을 확인한다.
2. 다중 전이 학습 (ZSCL-M)
여러 개의 라벨링된 소스 언어 데이터셋을 사용하여 모델을 학습시킨 후, 타겟 언어 테스트셋에 대한 제로샷 평가를 통해 ZSCL-M 점수를 측정한다.
언어적 거리를 기반으로 언어 클러스터링을 수행하고, 클러스터링 결과를 활용하여 최적의 소스 언어를 선택하는 전략을 제안한다.
제안된 전략을 통해 다중 전이 학습에서 최소한의 비용으로 최대의 성능 향상을 달성할 수 있는지 확인한다.
3. 관계 기반 전이 학습 (ZSCL-R)
ZSCL-M 설정에 다국어 비라벨링 데이터를 추가적으로 활용하여 적대적 학습을 수행한다.
언어적 거리를 기반으로 생성된 언어 관계 그래프를 적대적 학습 프레임워크에 통합하여 다국어 표현 학습을 개선한다.
ZSCL-R을 통해 ZSCL-M 대비 성능 향상을 달성할 수 있는지 확인한다.