Das Paper "ModelObfuscator" von Mingyi Zhou et al. beschäftigt sich mit der Entwicklung einer Technik zur Modellverschleierung, um On-Device ML-Modelle vor Angriffen zu schützen. Die Autoren stellen fest, dass herkömmliche Verteidigungsmethoden nicht ausreichen und präsentieren eine innovative Lösung, die die Struktur, Parameter und Attribute von Modellen verschleiert. Durch die Anwendung von fünf Verschleierungsmethoden wird die Schwierigkeit erhöht, Modelle zu analysieren und Angriffe zu generieren, ohne die Latenz der Modelle zu erhöhen. Experimente zeigen, dass ModelObfuscator effektiv die Sicherheit von Modellen verbessert, ohne die Leistung zu beeinträchtigen. Die Autoren betonen die Bedeutung der Modellverschleierung als grundlegende Technik für die Bereitstellung von On-Device Modellen.
Sang ngôn ngữ khác
từ nội dung nguồn
arxiv.org
Thông tin chi tiết chính được chắt lọc từ
by Mingyi Zhou,... lúc arxiv.org 03-04-2024
https://arxiv.org/pdf/2306.06112.pdfYêu cầu sâu hơn