Der Artikel stellt einen neuen Ansatz namens "Omnidirektionale lokale Strahlungsfelder" (OmniLocalRF) vor, der es ermöglicht, statische Szenenansichten aus dynamischen 360°-Videos zu rendern, indem dynamische Objekte entfernt und inpainted werden.
Der Ansatz kombiniert die Prinzipien lokaler Strahlungsfelder mit einer bidirektionalen Optimierung omnidirektionaler Strahlen. Als Eingabe dient ein omnidirektionales Video, wobei die gegenseitigen Beobachtungen des gesamten Winkels zwischen vorherigen und aktuellen Frames ausgewertet werden.
Um Ghosting-Artefakte dynamischer Objekte zu reduzieren und Verdeckungen zu inpainten, wird ein Modul zur Vorhersage von Bewegungsmasken auf mehreren Auflösungen entwickelt. Im Gegensatz zu bestehenden Methoden, die dynamische Komponenten hauptsächlich über den Zeitbereich trennen, verwendet unser Verfahren mehrauflösende neuronale Featureebenen für eine präzisere Segmentierung, was für lange 360°-Videos besser geeignet ist.
Die Experimente zeigen, dass OmniLocalRF bestehende Methoden sowohl in qualitativen als auch in quantitativen Metriken übertrifft, insbesondere in Szenarien mit komplexen Realweltszenen. Unser Ansatz beseitigt auch die Notwendigkeit manueller Interaktion, wie das manuelle Zeichnen von Bewegungsmasken und zusätzliche Posenschätzung, was ihn zu einer sehr effektiven und effizienten Lösung macht.
To Another Language
from source content
arxiv.org
Key Insights Distilled From
by Dongyoung Ch... at arxiv.org 04-02-2024
https://arxiv.org/pdf/2404.00676.pdfDeeper Inquiries