Core Concepts
提案されたIn-Context Prompt Learning(InCPL)アプローチは、事前学習済みの視覚言語モデルを新しいタスクに適応させるために、コンテキスト情報を活用する効果的な方法です。
Abstract
提案されたIn-Context Prompt Learning(InCPL)アプローチは、事前学習済みの視覚言語モデルであるCLIPモデルが、非常に少数または1つのラベル付き例をそのコンテキストプロンプトとして関連付けることで、新しいテストサンプルに対して最適なytを生成する能力を向上させます。このアプローチは、タスク固有の画像ラベルペアから直接プロンプトトークンを学習し、インスタンス固有のテストサンプルに適応することでモデルを調整します。実験結果は、異なるダウンストリームタスク全体でこのアプローチの効果を一貫して示しています。
Stats
InCPLは提案された方法です。
CLIPモデルは事前学習済みです。
ダウンストリームタスクへの適応性が向上します。
イメージラベルペアから直接プロントトークンを学習します。
インスタンス固有のテストサンプルに適応します。
Quotes
"提案されたIn-Context Prompt Learning(InCPL)アプローチは、事前学習済みの視覚言語モデルであるCLIPモデルが、非常に少数または1つのラベル付き例をそのコンテキストプロントとして関連付けることで、新しいテストサンプルに対して最適なytを生成する能力を向上させます。"
"このアプローチは、タスク固有の画像ラベルペアから直接プロントトークンを学習し、インスタンス固有のテストサンプルに適応することでモデルを調整します。"