COCA ist eine innovative Methode, die auf Textprototypen basiert und das Few-Shot-Lernen mit Vision-Sprach-Modellen für die Source-Free Universal Domain Adaptation verbessert.
COCA ist eine innovative Methode, die auf Textprototypen basiert und es ermöglicht, VLM-gestützte Few-Shot-Lerner mit der Fähigkeit zur Unterscheidung von bekannten und unbekannten Klassen in SF-UniDA-Szenarien auszustatten.