Das Papier stellt Chart2Vec vor, ein Modell zur Erstellung einer universellen Darstellung von Visualisierungen, das kontextbezogene Informationen extrahiert und verschiedene nachgelagerte Anwendungen ermöglicht.
Das Modell berücksichtigt sowohl strukturelle als auch semantische Informationen von Visualisierungen in deklarativen Spezifikationen. Um die kontextbezogene Fähigkeit zu verbessern, verwendet Chart2Vec Multi-Task-Lernen für sowohl überwachte als auch unüberwachte Aufgaben in Bezug auf das Auftreten von Visualisierungen.
Die Autoren evaluieren ihr Modell durch eine Ablationsstudie, eine Benutzerstudie und einen quantitativen Vergleich. Die Ergebnisse bestätigen die Konsistenz der Einbettungsmethode mit der menschlichen Kognition und zeigen ihre Vorteile gegenüber bestehenden Methoden.
Til et andet sprog
fra kildeindhold
arxiv.org
Vigtigste indsigter udtrukket fra
by Qing Chen,Yi... kl. arxiv.org 03-28-2024
https://arxiv.org/pdf/2306.08304.pdfDybere Forespørgsler