Die Studie stellt Lens vor, ein Grundlagenmodell für Netzwerkverkehr, das sowohl Verständnis- als auch Generierungsaufgaben effektiv bewältigt.
Zunächst wird der Prozess der Tokenisierung des Netzwerkverkehrs untersucht, bei dem verschiedene Tokenisierungsansätze wie Vanilla Vocab, SentencePiece und WordPiece verglichen werden. Es wird festgestellt, dass WordPiece mit einem vordefinierten Vokabular am besten abschneidet.
Anschließend wird der Vortrainingsprozess von Lens beschrieben, der drei Aufgaben umfasst: Masked Span Prediction (MSP), Packet Order Prediction (POP) und Homologous Traffic Prediction (HTP). Diese Aufgaben sollen die Repräsentationslernung aus den Rohdaten verbessern.
In umfangreichen Experimenten auf 6 Datensätzen zeigt Lens überlegene Leistung gegenüber Referenzmethoden in 15 Verständnisaufgaben und 5 Generierungsaufgaben für Headerdaten. Lens benötigt außerdem 50-95% weniger markierte Daten für das Finetuning.
Abschließende Ablationsstudien unterstreichen die Wirksamkeit der vorgeschlagenen Komponenten, insbesondere des Vortrainings und der MSP-Aufgabe, für die Leistung von Lens.
Sang ngôn ngữ khác
từ nội dung nguồn
arxiv.org
Thông tin chi tiết chính được chắt lọc từ
by Qineng Wang,... lúc arxiv.org 04-01-2024
https://arxiv.org/pdf/2402.03646.pdfYêu cầu sâu hơn