本論文では、高ダイナミックレンジ(HDR)シーンの異なる露光時間の低ダイナミックレンジ(LDR)画像を高品質なLDR画像に融合する教師なし学習に基づく多重露光融合(ULMEF)アルゴリズムを提案する。
提案手法の特徴は以下の通りである:
損失関数の定義: 従来の損失関数は融合対象の画像セットに基づいて定義されていたが、提案手法では融合対象の画像セットと損失関数を切り離し、同一HDRシーンの他の露光画像も損失関数に利用することで、融合画像がHDRシーンに近づくように学習する。これにより、ハロー効果や明暗順序の逆転を回避できる。
多重スケール融合ネットワーク: 提案手法は、シーンの深度や局所コントラストを効果的に保持するために、多重スケールの融合ネットワークを採用する。ネットワークの各スケールには、チャンネルアテンションとスペーシャルアテンションを組み合わせた注意機構が導入されている。
露光補間と露光外挿: 提案手法は、少数の露光画像しか得られない場合でも、損失関数の設計により露光補間と露光外挿を容易に実現できる。
実験結果から、提案手法は従来手法と比べて、ハロー効果や明暗順序の逆転を回避し、最明部と最暗部の情報を保持しつつ、シーンの深度や局所コントラストも良好に保持できることが示された。
A otro idioma
del contenido fuente
arxiv.org
Ideas clave extraídas de
by Chaobing Zhe... a las arxiv.org 09-27-2024
https://arxiv.org/pdf/2409.17830.pdfConsultas más profundas