Die Studie stellt Lens vor, ein Grundlagenmodell für Netzwerkverkehr, das sowohl Verständnis- als auch Generierungsaufgaben effektiv bewältigt.
Zunächst wird der Prozess der Tokenisierung des Netzwerkverkehrs untersucht, bei dem verschiedene Tokenisierungsansätze wie Vanilla Vocab, SentencePiece und WordPiece verglichen werden. Es wird festgestellt, dass WordPiece mit einem vordefinierten Vokabular am besten abschneidet.
Anschließend wird der Vortrainingsprozess von Lens beschrieben, der drei Aufgaben umfasst: Masked Span Prediction (MSP), Packet Order Prediction (POP) und Homologous Traffic Prediction (HTP). Diese Aufgaben sollen die Repräsentationslernung aus den Rohdaten verbessern.
In umfangreichen Experimenten auf 6 Datensätzen zeigt Lens überlegene Leistung gegenüber Referenzmethoden in 15 Verständnisaufgaben und 5 Generierungsaufgaben für Headerdaten. Lens benötigt außerdem 50-95% weniger markierte Daten für das Finetuning.
Abschließende Ablationsstudien unterstreichen die Wirksamkeit der vorgeschlagenen Komponenten, insbesondere des Vortrainings und der MSP-Aufgabe, für die Leistung von Lens.
Para outro idioma
do conteúdo fonte
arxiv.org
Principais Insights Extraídos De
by Qineng Wang,... às arxiv.org 04-01-2024
https://arxiv.org/pdf/2402.03646.pdfPerguntas Mais Profundas