แนวคิดหลัก
Long-tail recognition challenges can be addressed effectively by utilizing a diffusion model trained on the original dataset for sample generation, leading to improved classifier performance.
บทคัดย่อ
この論文は、長尾認識の新しいアプローチとして、元のデータセットでトレーニングされた拡散モデルを使用してサンプルを生成し、これにより分類器のパフォーマンスが向上することを示しています。提案された方法は競争力のあるパフォーマンスを示し、既存の戦略に有益な補完を提供します。拡散モデルは知識転送において重要な役割を果たすことが明らかになりました。
สถิติ
DiffuLT achieves state-of-the-art results on CIFAR10-LT, CIFAR100-LT, and ImageNet-LT.
The loss function LDDPM is defined as Et∼[1,T],x0,ϵt[∥ϵt − ϵθ(√¯αtx0 + √ 1 − ¯αtϵt)∥2].
LCBDL includes a regularization term designed to promote the generation of samples for tail classes.
ω is the hyper-parameter controlling the weight of generated samples in weighted cross-entropy loss.
Filtering metrics d1, d2, and d3 are used to sift through generated samples based on different criteria.
คำพูด
"DiffuLT achieves state-of-the-art results on CIFAR10-LT, CIFAR100-LT, and ImageNet-LT."
"Our method shows competitive performance, underlining its efficacy."
"The diffusion model plays a critical role in facilitating knowledge transfer across class groups."