Das Papier stellt Chart2Vec vor, ein Modell zur Erstellung einer universellen Darstellung von Visualisierungen, das kontextbezogene Informationen extrahiert und verschiedene nachgelagerte Anwendungen ermöglicht.
Das Modell berücksichtigt sowohl strukturelle als auch semantische Informationen von Visualisierungen in deklarativen Spezifikationen. Um die kontextbezogene Fähigkeit zu verbessern, verwendet Chart2Vec Multi-Task-Lernen für sowohl überwachte als auch unüberwachte Aufgaben in Bezug auf das Auftreten von Visualisierungen.
Die Autoren evaluieren ihr Modell durch eine Ablationsstudie, eine Benutzerstudie und einen quantitativen Vergleich. Die Ergebnisse bestätigen die Konsistenz der Einbettungsmethode mit der menschlichen Kognition und zeigen ihre Vorteile gegenüber bestehenden Methoden.
Başka Bir Dile
kaynak içeriğinden
arxiv.org
Önemli Bilgiler Şuradan Elde Edildi
by Qing Chen,Yi... : arxiv.org 03-28-2024
https://arxiv.org/pdf/2306.08304.pdfDaha Derin Sorular