Neuronale Radiance-Felder (NeRFs) müssen so parametrisiert werden, dass die Volumendichte und Distanz invers skalieren, um konsistente Renderingergebnisse über verschiedene Skalierungen des Szenenumfangs hinweg zu erzielen.
Wir präsentieren eine Methode, die das Skalieren von NeRFs zum Erlernen einer großen Anzahl semantisch ähnlicher Szenen ermöglicht. Dazu kombinieren wir zwei Techniken: Wir lernen einen 3D-bewussten Latenzraum, in dem wir Tri-Plane-Szenenrepräsentationen trainieren, und führen eine Aufteilung in global gemeinsame und lokal gelernte Merkmale ein, um die Komplexität pro Szene zu reduzieren.