Die Autoren präsentieren eine neuartige Technik namens "Neural 3D Strokes", um stilisierte Bilder einer 3D-Szene aus mehreren 2D-Ansichten zu generieren. Im Gegensatz zu bestehenden Methoden, die Stilisierung auf trainierte neuronale Strahlungsfelder (NeRF) auf Voxelebene anwenden, orientiert sich unser Ansatz an Bild-zu-Gemälde-Methoden und simuliert den fortschreitenden Malprozess menschlicher Kunstwerke mit Vektorstrichen.
Wir entwickeln eine Palette stilisierter 3D-Striche aus grundlegenden Primitiven und Splines und betrachten die 3D-Szenengestaltung als einen Mehrfachansichts-Rekonstruktionsprozess basierend auf diesen 3D-Strichprimitiven. Anstatt direkt nach den Parametern dieser 3D-Striche zu suchen, was zu kostspielig wäre, führen wir einen differenzierbaren Renderer ein, der die Optimierung der Strichparameter mittels Gradientenabstieg ermöglicht, und schlagen ein Trainingsszenario vor, um das Problem des verschwindenden Gradienten zu mildern.
Die umfangreiche Evaluierung zeigt, dass unser Ansatz effektiv 3D-Szenen mit signifikanter geometrischer und ästhetischer Stilisierung synthetisiert, während er ein konsistentes Erscheinungsbild über verschiedene Ansichten hinweg beibehält. Unser Verfahren kann auch mit Stilverlusten und bildtext-kontrastiven Modellen integriert werden, um seine Anwendungen, einschließlich Farbübertragung und textgesteuerte 3D-Szenendarstellung, zu erweitern.
To Another Language
from source content
arxiv.org
Key Insights Distilled From
by Hao-Bin Duan... at arxiv.org 03-13-2024
https://arxiv.org/pdf/2311.15637.pdfDeeper Inquiries