Core Concepts
大規模言語モデル(LLM)を使用して、詳細なサブクラスを自動生成し、事前学習済みのテキスト主導の意味論的セグメンテーションモデルに適用することで、より正確な分割結果を得ることができる。
Abstract
本研究では、大規模言語モデル(LLM)を使用して、各クラスの詳細なサブクラスを自動生成する新しい手法を提案しています。これらのサブクラス記述子を、事前学習済みのテキスト主導の意味論的セグメンテーションモデルに適用することで、より正確な分割結果を得ることができます。
具体的には以下の3つの貢献がある:
LLMを使用して、各クラスの詳細なサブクラスを自動生成し、従来のテキスト主導のセグメンテーションモデルの性能を向上させる。
生成されたサブクラス記述子を、事前学習済みのテキスト主導セグメンテーションモデルに適用し、教師なしでセグメンテーションを行う。
サブクラス記述子のアンサンブルを提案し、テストイメージの多様な側面を包括的に捉えることで、より正確なセグメンテーション結果を得る。
本手法は、既存のテキスト主導セグメンテーションフレームワークに簡単に統合でき、3つの標準ベンチマークデータセットでの評価実験により、従来手法を大幅に上回る性能を示しています。
Stats
提案手法は、PASCAL VOCデータセットで従来手法よりも5.1%高いmIoUを達成した。
PASCAL Contextデータセットでは、提案手法がmIoU 27.8%を達成し、従来手法を2.0%上回った。
COCO-Stuffデータセットでは、提案手法がmIoU 29.1%を達成し、従来手法を1.9%上回った。
Quotes
"大規模言語モデル(LLM)を使用して、詳細なサブクラスを自動生成し、事前学習済みのテキスト主導の意味論的セグメンテーションモデルに適用することで、より正確な分割結果を得ることができる。"
"サブクラス記述子のアンサンブルを提案し、テストイメージの多様な側面を包括的に捉えることで、より正確なセグメンテーション結果を得る。"