Core Concepts
極端に低照度の画像から文字情報を抽出するための新しい強化フレームワークを提案する。
Abstract
本研究では、極端に低照度の画像から文字情報を抽出するための新しい強化フレームワークを提案している。主な内容は以下の通りです。
エッジ認識に基づく注意機構を備えた強化モデルを開発し、低レベルの文字特徴を保持しながら極端に低照度の画像を強化することができる。
極端に低照度の画像を合成するための新しい手法であるSupervised-DCEモデルを提案し、既存の公開データセットを活用して極端に低照度の文字画像データを生成できるようにした。
SID-Sony-Text、SID-Fuji-Text、LOL-Textの3つの新しい極端に低照度の文字データセットを作成し、文字検出タスクでの性能評価を可能にした。
提案手法は、既存手法と比較して、極端に低照度の画像に対して最高の定量的・定性的な結果を示した。
Stats
極端に低照度の画像(SID-Sony)のPSNRは44.350、SSIMは0.907、平均L*は0.009である。
極端に低照度の画像(SID-Fuji)のPSNRは41.987、SSIMは0.820、平均L*は0.004である。
通常の低照度画像(LOL)のPSNRは23.892、SSIMは0.195、平均L*は0.142である。
Quotes
"極端に低照度の画像から文字情報を抽出することは非常に困難である。既存の低照度画像強化手法は画像全体の強化を目的としているが、文字領域に焦点を当てていない。"
"極端に低照度の文字データセットの不足により、さらなる研究が阻害されている。"