Die Autoren präsentieren eine neuartige Technik namens "Neural 3D Strokes", um stilisierte Bilder einer 3D-Szene aus mehreren 2D-Ansichten zu generieren. Im Gegensatz zu bestehenden Methoden, die Stilisierung auf trainierte neuronale Strahlungsfelder (NeRF) auf Voxelebene anwenden, orientiert sich unser Ansatz an Bild-zu-Gemälde-Methoden und simuliert den fortschreitenden Malprozess menschlicher Kunstwerke mit Vektorstrichen.
Wir entwickeln eine Palette stilisierter 3D-Striche aus grundlegenden Primitiven und Splines und betrachten die 3D-Szenengestaltung als einen Mehrfachansichts-Rekonstruktionsprozess basierend auf diesen 3D-Strichprimitiven. Anstatt direkt nach den Parametern dieser 3D-Striche zu suchen, was zu kostspielig wäre, führen wir einen differenzierbaren Renderer ein, der die Optimierung der Strichparameter mittels Gradientenabstieg ermöglicht, und schlagen ein Trainingsszenario vor, um das Problem des verschwindenden Gradienten zu mildern.
Die umfangreiche Evaluierung zeigt, dass unser Ansatz effektiv 3D-Szenen mit signifikanter geometrischer und ästhetischer Stilisierung synthetisiert, während er ein konsistentes Erscheinungsbild über verschiedene Ansichten hinweg beibehält. Unser Verfahren kann auch mit Stilverlusten und bildtext-kontrastiven Modellen integriert werden, um seine Anwendungen, einschließlich Farbübertragung und textgesteuerte 3D-Szenendarstellung, zu erweitern.
A otro idioma
del contenido fuente
arxiv.org
Ideas clave extraídas de
by Hao-Bin Duan... a las arxiv.org 03-13-2024
https://arxiv.org/pdf/2311.15637.pdfConsultas más profundas