本論文では、事前学習済みビジョントランスフォーマーモデルを用いた継続的学習について検討している。
まず、パラメータ効率的な微調整手法(PET)の中でも、アダプター微調整が他の手法(プロンプト、SSF)に比べて優れた継続学習性能を示すことを明らかにした。
そこで、アダプターを増分的に微調整し、過去クラスのプロトタイプのセマンティックシフトを推定することで、新規クラスの学習と既存クラスの性能維持のバランスを取る手法を提案した。
具体的には以下の通り:
Іншою мовою
із вихідного контенту
arxiv.org
Ключові висновки, отримані з
by Yuwen Tan,Qi... о arxiv.org 04-01-2024
https://arxiv.org/pdf/2403.19979.pdfГлибші Запити