다중 과제 학습(MTL)은 여러 관련 과제를 동시에 학습하여 각 과제의 성능을 향상시키는 방법이다. 기존 연구는 주로 특징 수준 또는 매개변수 수준의 과제 연관성을 모델링하였지만, 본 연구는 출력 수준 과제 연관성에 주목한다.
구체적으로 다음과 같은 내용을 다룬다:
피드백 메커니즘을 MTL에 도입하여 과제 간 출력 수준 연관성을 모델링한다. 한 과제의 출력을 다른 과제의 학습/추론에 활용하는 방식으로, 정적인 MTL 모델을 동적으로 변환한다.
각 과제 예측의 수렴 경향을 측정하는 수렴성 손실 함수를 제안하여 학습 과정의 안정성을 보장한다.
Gumbel 분포 기반의 게이팅 메커니즘을 활용하여 피드백 신호의 최적 투영 지점을 학습한다.
음성 언어 이해 분야의 대표적인 MTL 모델에 제안 기법을 적용하고 실험을 통해 성능 향상을 검증한다. 또한 수렴성 손실과 Gumbel 게이팅 메커니즘의 중요성을 확인하는 실험을 수행한다.
본 연구는 MTL에서 출력 수준 과제 연관성의 중요성을 강조하고, 피드백 메커니즘, 수렴성 손실, Gumbel 게이팅 등의 기법을 통해 MTL 모델의 성능을 향상시켰다.
A otro idioma
del contenido fuente
arxiv.org
Ideas clave extraídas de
by Xiangming Xi... a las arxiv.org 04-02-2024
https://arxiv.org/pdf/2404.00885.pdfConsultas más profundas