Das Papier stellt Chart2Vec vor, ein Modell zur Erstellung einer universellen Darstellung von Visualisierungen, das kontextbezogene Informationen extrahiert und verschiedene nachgelagerte Anwendungen ermöglicht.
Das Modell berücksichtigt sowohl strukturelle als auch semantische Informationen von Visualisierungen in deklarativen Spezifikationen. Um die kontextbezogene Fähigkeit zu verbessern, verwendet Chart2Vec Multi-Task-Lernen für sowohl überwachte als auch unüberwachte Aufgaben in Bezug auf das Auftreten von Visualisierungen.
Die Autoren evaluieren ihr Modell durch eine Ablationsstudie, eine Benutzerstudie und einen quantitativen Vergleich. Die Ergebnisse bestätigen die Konsistenz der Einbettungsmethode mit der menschlichen Kognition und zeigen ihre Vorteile gegenüber bestehenden Methoden.
翻譯成其他語言
從原文內容
arxiv.org
深入探究