Dieser Artikel stellt ein neuartiges Beleuchtungsoptimierungsmodell namens LightDiff vor, das für den Einsatz in autonomen Fahrzeugen entwickelt wurde. LightDiff zielt darauf ab, die Bildqualität von Kamerabildern in Dunkelheit zu verbessern, um die Leistung von Wahrnehmungssystemen zu steigern und die Sicherheit in Nachtfahrten zu erhöhen.
Das Kernkonzept von LightDiff ist es, ein Diffusionsmodell zu verwenden, um Tageszeitbilder in Nachtbilder umzuwandeln, ohne auf manuell gesammelte Daten angewiesen zu sein. Stattdessen nutzt LightDiff einen dynamischen Prozess zur Bildverschlechterung, um synthetische Tag-Nacht-Bildpaare aus vorhandenen Tageszeitdaten zu generieren.
Um die semantische Integrität der transformierten Bilder beizubehalten, integriert LightDiff mehrere Eingabemodule wie Tiefenkarten und Bildunterschriften in einen Multi-Condition-Adapter. Dieser Adapter bestimmt intelligent die Gewichtung jeder Eingabemodalität, um eine hohe visuelle Qualität bei gleichzeitiger Erhaltung der semantischen Konsistenz zu erreichen.
Darüber hinaus verwendet LightDiff ein Belohnungsmodell, das auf wahrnehmungsspezifischem Domänenwissen basiert, um den Diffusionsprozess nicht nur für eine bessere visuelle Wahrnehmung, sondern auch für die Verbesserung der Leistung von Wahrnehmungsmodellen zu optimieren.
Umfangreiche Experimente auf dem nuScenes-Datensatz zeigen, dass LightDiff die Leistung von 3D-Fahrzeugerkennung in Nachtbedingungen deutlich verbessern kann, ohne die Leistung bei Tageslicht zu beeinträchtigen.
翻譯成其他語言
從原文內容
arxiv.org
深入探究