Die Studie untersucht eine herausfordernde Situation der quellenfreien unüberwachten Domänenanpassung (source-free unsupervised domain adaptation, UDA) für Frage-Antwort-Systeme. In diesem Szenario steht dem Anwender nur das zuvor auf einer Quelldomäne trainierte Modell und ungelabelte Daten der Zieldomäne zur Verfügung, ohne Zugriff auf die Quelldaten.
Die Autoren schlagen einen neuartigen selbsttrainierenden Ansatz namens "Masked Domain Adaptation for Question Answering" (MDAQA) vor. Dieser integriert eine speziell entworfene Maskierungskomponente, um zuvor erlerntes Domänenwissen zu bewahren und gleichzeitig Domänenverschiebungen abzumildern.
Der Maskierungsmodul lernt automatisch, nur bestimmte Merkmale der Zwischenschicht an die Vorhersageklasse weiterzuleiten, während andere Merkmale ungenutzt bleiben. Während der Anpassung an die Zieldomäne werden die Verbindungen zu den zuvor aktivierten Merkmalen eingefroren, um das gelernte Domänenwissen beizubehalten, während die Gewichte der verbleibenden Verbindungen angepasst werden, um Domänenunterschiede abzumildern.
Da die Zieldomänendaten ungelabelt sind, verwendet das Modell seine eigenen Vorhersagen mit hoher Konfidenz als Pseudolabels, um das Modell weiter zu verfeinern.
Die empirischen Ergebnisse auf vier Benchmark-Datensätzen zeigen, dass der MDAQA-Ansatz die Leistung vortrainierter Frage-Antwort-Modelle auf der Zieldomäne deutlich verbessert und sogar Modelle übertrifft, die während der Anpassung Zugriff auf die Quelldaten hatten.
다른 언어로
소스 콘텐츠 기반
arxiv.org
더 깊은 질문