Temel Kavramlar
신경망 주제 모델(NTM)이 특정 말뭉치에서 학습되고 평가되더라도, 다른 말뭉치에 대한 일반화 능력은 아직 연구되지 않았다. 이 연구에서는 NTM의 일반화 능력을 향상시키기 위해 문서 증강과 계층적 최적 전송 거리를 활용한다.
Özet
이 연구는 NTM의 일반화 능력 향상에 초점을 맞추고 있다. 기존 NTM은 특정 말뭉치에서 학습되고 평가되지만, 새로운 말뭉치에 대한 일반화 능력은 아직 연구되지 않았다.
연구진은 문서 증강과 계층적 최적 전송 거리를 활용하여 NTM의 일반화 능력을 향상시키는 방법을 제안했다. 구체적으로:
문서 증강을 통해 원본 문서와 유사한 문서를 생성한다.
계층적 최적 전송 거리를 사용하여 원본 문서와 증강 문서의 주제 표현 간 거리를 최소화한다.
이를 통해 NTM이 새로운 문서에 대해서도 양질의 주제 표현을 생성할 수 있도록 한다.
실험 결과, 제안 방법은 다양한 NTM 모델에 적용되어 문서 분류, 문서 군집화 등의 성능을 크게 향상시켰다. 이는 NTM의 일반화 능력을 효과적으로 개선할 수 있음을 보여준다.
İstatistikler
문서 길이의 평균은 20News 87, Webs 14, TMN 18, DBpedia 23, R8 56 단어이다.
문서 수는 20News 18,846개, Webs 12,337개, TMN 32,597개, DBpedia 19,993개, R8 7,674개이다.