Unsupervised Prompt Distillation for Vision-Language Models: Knowledge Transfer Framework
Unser Ansatz ermöglicht die effektive Übertragung von Wissen von einem großen Lehrermodell auf ein leichtgewichtiges Schülermodell durch die Nachahmung von Prompts unter Verwendung von unlabeled Domain-Daten.