Die Studie untersucht die Herausforderungen, die große Sprachmodelle (LLMs) bei der Lösung des Multi-Agenten-Flocking-Problems bewältigen müssen. Die Autoren führen umfangreiche Tests mit dem GPT-3.5-Turbo-Modell durch, um verschiedene Flocking-Muster wie Kreise, α-Gitter und V-Formen zu bilden. Die Ergebnisse zeigen, dass die LLMs erhebliche Schwierigkeiten haben, die grundlegenden Aspekte des Flockings zu verstehen und umzusetzen. Statt die gewünschten Formationen zu bilden, tendieren die Agenten dazu, sich an einem Punkt zu versammeln oder auseinanderzugehen.
Die Autoren analysieren die Ursachen für das Scheitern der LLMs und stellen fest, dass sie Probleme haben, räumliche Beziehungen und Abstände zu verstehen und entsprechend zu handeln. Die Tests mit nur zwei Agenten, von denen einer stationär ist, zeigen, dass die LLMs die Positionen der Agenten falsch einschätzen und daher falsche Entscheidungen treffen, um den gewünschten Abstand beizubehalten.
Die Studie kommt zu dem Schluss, dass die derzeitigen LLMs, die nicht speziell dafür trainiert wurden, noch nicht über die erforderlichen Fähigkeiten in räumlicher Wahrnehmung und Reasoning verfügen, um das Multi-Agenten-Flocking-Problem zu lösen. Zukünftige Forschung sollte sich darauf konzentrieren, die Fähigkeiten der LLMs in diesen Bereichen zu verbessern, um komplexere Multi-Agenten-Probleme effektiv lösen zu können.
A otro idioma
del contenido fuente
arxiv.org
Ideas clave extraídas de
by Peihan Li,Vi... a las arxiv.org 04-09-2024
https://arxiv.org/pdf/2404.04752.pdfConsultas más profundas