Das Papier stellt ein neues visuell-informationsgesteuertes (VID) Modell für die Menschenmengensimulation vor. Das Modell besteht aus drei Modulen: einem Datenverarbeitungsmodul (DP), einem Geschwindigkeitsvorhersagemodul (VP) und einem Rollvorhersagemodul (RF).
Das DP-Modul extrahiert die sozialen und visuellen Informationen der Fußgänger, einschließlich ihrer Geschwindigkeit, der relativen Positionen und Geschwindigkeiten der Nachbarn sowie der relativen Positionen der umgebenden Wände. Diese Informationen werden dann als Eingabe für das VP-Modul verwendet.
Das VP-Modul ist ein auf einem zeitlichen konvolutionalen Netzwerk (TCN) basierendes neuronales Netzwerk, das als sozial-visuelles TCN (SVTCN) bezeichnet wird. Das SVTCN sagt die Geschwindigkeit des Fußgängers im nächsten Zeitschritt basierend auf den vorherigen sozialen und visuellen Informationen und Bewegungsdaten des Einzelnen vorher.
Das RF-Modul simuliert die kontinuierliche Menschenmengenbewegung, indem es die vom trainierten SVTCN-Modell vorhergesagten Geschwindigkeiten verwendet.
Das VID-Modell wurde auf drei öffentlich zugänglichen Fußgängerbewegungsdatensätzen mit unterschiedlichen Geometrien (Korridor, Ecke und T-Kreuzung) getestet. Die Ergebnisse zeigen, dass das VID-Modell eine verbesserte Anpassungsfähigkeit über alle drei geometrischen Szenarien hinweg aufweist.
他の言語に翻訳
原文コンテンツから
arxiv.org
深掘り質問