この論文では、PromptKDという新しい手法が導入されています。この手法は、大規模なCLIP教師モデルからライトウェイトなターゲットモデルに知識を伝達するための無監督ドメイン固有のプロンプト駆動の蒸留フレームワークです。具体的には、教師事前学習段階と生徒プロンプト蒸留段階から成る2つの明確なステージがあります。教師事前学習段階では、ドメイン少数ショットラベル付きデータを使用して大規模なCLIP教師モデルを事前学習し、その後、生徒プロンプト蒸留段階で広範囲な未ラベルドメインデータに対して生徒モデルを訓練します。CLIPの特有の分離された特性を活用し、提案された手法は教師テキスト特徴量を再利用し、それらを生徒画像エンコーダーに組み込んで蒸留と推論目的に使用します。11つの認識データセットで行われた実験は、この手法の効果を示しています。
Sang ngôn ngữ khác
từ nội dung nguồn
arxiv.org
Thông tin chi tiết chính được chắt lọc từ
by Zheng Li,Xia... lúc arxiv.org 03-06-2024
https://arxiv.org/pdf/2403.02781.pdfYêu cầu sâu hơn