Core Concepts
提案されたTinySAMは、効率的なセグメントモデルであり、計算コストを大幅に削減し、効率的なセグメントタスクの限界を押し広げます。
Abstract
TinySAMは、強力なセグメンテーション能力を持ち、計算コストを大幅に削減しながらゼロショットセグメンテーション能力を最大限に維持するフレームワークです。知識蒸留法や量子化手法などの提案された手法により、計算コストが低下しました。さらに、階層的セグメンテーション戦略により、すべての推論を2倍高速化しました。TinySAMは他の手法と比較して優れたパフォーマンスを示しました。
Introduction
- SAM(Segment Anything Model)は強力なセグメンテーション能力を持つが計算コストが高い。
- TinySAMは計算コストを大幅に削減しつつ性能を維持するフレームワーク。
- セマンティック・インスタンス・パノプティック・ゼロショットセグメンテーション等のタスクで利用可能。
Methodology
- Full-stage knowledge distillation method with hard mask weighting and prompt sampling.
- Post-training quantization for computational cost reduction.
- Hierarchical segmenting everything strategy for 2x acceleration.
Experiments
- Zero-shot instance segmentation results on COCO and LVIS v1 datasets show superior performance of TinySAM.
- Ablation studies demonstrate the effectiveness of different modules and strategies in improving performance.
- Everything mode acceleration results in significant latency reduction without compromising accuracy.
Stats
SAM-H [22]:Zero-shot instance segmentation AP 46.6%
MobileSAM [50]:FLOPs 42.0G, Latency 38.4s, AP 41.0%
TinySAM (Ours):FLOPs 42.0G, Latency 38.4s, AP 42.3%
Q-TinySAM (Ours):FLOPs 20.3G, Latency 24.0s, AP 41.4%
Quotes
"Extensive experiments on various zero-shot transfer tasks demonstrate the significantly advantageous performance of our TinySAM against counterpart methods."