Core Concepts
Verbesserung der Leistung von Large Language Models durch dynamische Auswahl von Demonstrationsexemplaren basierend auf Retrieval-Mechanismen.
Abstract
Die Forschung konzentriert sich auf die Verbesserung der Leistung von Large Language Models (LLMs) durch die Auswahl optimaler Demonstrationsexemplare.
Die Autoren stellen eine neue Methode vor, die Retrieval-Mechanismen nutzt, um Demonstrationsexemplare dynamisch und automatisch auszuwählen.
Durch Experimente auf den Benchmark-Datensätzen ScienceQA und MathVista zeigen sie signifikante Leistungsverbesserungen von bis zu 12,9%.
Die Methode kombiniert Cross-Modalität und Intra-Modalität, um relevante Demonstrationsexemplare auszuwählen und die Multi-Modal-Reasoning-Leistung zu verbessern.
Stats
In diesem Papier zeigen wir, dass unsere Methode die Leistung von GPT-4 um 6% auf ScienceQA und 12,9% auf MathVista verbessert.
Unsere Methode verbessert die Leistung von GPT-4V auf beiden Datensätzen um 2,7%.
Quotes
"Unsere Methode verbessert die Leistung von GPT-4 um 6% auf ScienceQA und 12,9% auf MathVista."
"Durch eine Kombination von Cross-Modalität und Intra-Modalität wählen wir relevante Demonstrationsexemplare aus und verbessern die Multi-Modal-Reasoning-Leistung."