Das Papier stellt Chart2Vec vor, ein Modell zur Erstellung einer universellen Darstellung von Visualisierungen, das kontextbezogene Informationen extrahiert und verschiedene nachgelagerte Anwendungen ermöglicht.
Das Modell berücksichtigt sowohl strukturelle als auch semantische Informationen von Visualisierungen in deklarativen Spezifikationen. Um die kontextbezogene Fähigkeit zu verbessern, verwendet Chart2Vec Multi-Task-Lernen für sowohl überwachte als auch unüberwachte Aufgaben in Bezug auf das Auftreten von Visualisierungen.
Die Autoren evaluieren ihr Modell durch eine Ablationsstudie, eine Benutzerstudie und einen quantitativen Vergleich. Die Ergebnisse bestätigen die Konsistenz der Einbettungsmethode mit der menschlichen Kognition und zeigen ihre Vorteile gegenüber bestehenden Methoden.
Para Outro Idioma
do conteúdo original
arxiv.org
Principais Insights Extraídos De
by Qing Chen,Yi... às arxiv.org 03-28-2024
https://arxiv.org/pdf/2306.08304.pdfPerguntas Mais Profundas