Die Studie stellt Lens vor, ein Grundlagenmodell für Netzwerkverkehr, das sowohl Verständnis- als auch Generierungsaufgaben effektiv bewältigt.
Zunächst wird der Prozess der Tokenisierung des Netzwerkverkehrs untersucht, bei dem verschiedene Tokenisierungsansätze wie Vanilla Vocab, SentencePiece und WordPiece verglichen werden. Es wird festgestellt, dass WordPiece mit einem vordefinierten Vokabular am besten abschneidet.
Anschließend wird der Vortrainingsprozess von Lens beschrieben, der drei Aufgaben umfasst: Masked Span Prediction (MSP), Packet Order Prediction (POP) und Homologous Traffic Prediction (HTP). Diese Aufgaben sollen die Repräsentationslernung aus den Rohdaten verbessern.
In umfangreichen Experimenten auf 6 Datensätzen zeigt Lens überlegene Leistung gegenüber Referenzmethoden in 15 Verständnisaufgaben und 5 Generierungsaufgaben für Headerdaten. Lens benötigt außerdem 50-95% weniger markierte Daten für das Finetuning.
Abschließende Ablationsstudien unterstreichen die Wirksamkeit der vorgeschlagenen Komponenten, insbesondere des Vortrainings und der MSP-Aufgabe, für die Leistung von Lens.
Başka Bir Dile
kaynak içeriğinden
arxiv.org
Önemli Bilgiler Şuradan Elde Edildi
by Qineng Wang,... : arxiv.org 04-01-2024
https://arxiv.org/pdf/2402.03646.pdfDaha Derin Sorular