本論文では、事前学習済みの基盤モデルを特定のタスクに適応させる際の課題に取り組んでいる。基盤モデルは多様なデータセットを用いて学習されており、様々なドメインやタスクにおいて優れた一般化能力を示すが、特定のタスクへの適応時にはこの一般化能力が損なわれる可能性がある。
著者らは、この課題に対処するため、"類似性損失"と呼ばれる新しいアプローチを提案している。この手法は、fine-tuning時に事前学習モデルの埋め込みとの距離を最小化することで、タスク特化の性能と一般化能力のバランスを取ることを目的としている。
提案手法を、衛星画像分類とフェイス認識の2つのタスクに適用し、評価を行っている。OODデータセットに対する性能が大幅に向上し、ID性能との tradeoffも小さいことが示されている。特に、フェイス認識タスクでは、極端なドメインシフトにおいても提案手法の有効性が確認された。
全体として、本論文は事前学習モデルの適応における重要な課題に取り組み、新しい解決策を提示している。提案手法は、様々な応用分野において一般化性能の向上に寄与すると期待される。
他の言語に翻訳
原文コンテンツから
arxiv.org
深掘り質問