Durch das Augmentieren mehrerer In-Context-Lernprompts können die Vorhersagen von LLMs zuverlässiger und genauer werden, auch bei geringen Ressourcen.