核心概念
Diffusion-based methods in Image Super-Resolution benefit from cross-modal priors to generate high-fidelity and realistic images.
摘要
最近、画像超解像(ISR)において、拡散ベースの手法は強力な生成事前条件を持つため注目を集めています。しかし、低解像度(LR)画像はしばしば深刻な劣化を経験するため、ISRモデルが意味情報や劣化情報を正確に把握することが困難であり、不正確なコンテンツや非現実的なアーティファクトを復元することがあります。この問題に対処するために、著者らはSuper-Resolution(XPSR)フレームワークを提案しています。XPSRでは、最先端のマルチモーダル大規模言語モデル(MLLMs)を使用して拡散モデルのための正確で包括的な意味条件を取得し、交差モデル事前条件のより良い融合を促進します。また、Degradation-Free Constraint(DFC)も導入されており、LRとその高解像度(HR)対応物との間にセマンティック保存情報を抽出します。
统计
最新技術:Diffusion-based methods, Multimodal Large Language Models (MLLMs)
リリースコード:https://github.com/qyp2000/XPSR
引用
Diffusion-based methods, endowed with a formidable generative prior, have received increasing attention in Image Super-Resolution recently.
To address these issues, we propose a Cross-modal Priors for Super-Resolution (XPSR) framework.
Quantitative and qualitative results show that XPSR is capable of generating high-fidelity and high-realism images across synthetic and real-world datasets.