Core Concepts
Kleine Sprachmodelle können innerhalb einer einzelnen Domäne ebenfalls Ketten-von-Gedanken-Schlussfolgerungen durchführen und als Aufgabenplaner für Roboter dienen.
Abstract
Die Autoren untersuchen, ob Roboter tatsächlich so große Sprachmodelle (LLMs) benötigen, wie sie in der Forschung häufig eingesetzt werden. Sie argumentieren, dass die Komplexität der Befehle für Roboter deutlich geringer ist als die Fähigkeiten, die LLMs besitzen.
Um dies zu zeigen, erstellen die Autoren einen Datensatz (COST) mit abstrakten Befehlen und zugehörigen ausführbaren Schritten, den sie mit Hilfe von LLMs generieren. Dieser Datensatz wird dann verwendet, um kleinere Sprachmodelle (wie GPT2-medium) für die Aufgabenplanung in spezifischen Domänen (Tisch, Küche) zu feinabstimmen.
Die Experimente zeigen, dass die feinabgestimmten kleineren Sprachmodelle in diesen Domänen eine vergleichbare Leistung wie die großen LLMs (GPT3.5, GPT4) bei der Aufgabenplanung erreichen können. Dies deutet darauf hin, dass Roboter nicht zwangsläufig so große Sprachmodelle benötigen, sondern kleinere, domänenspezifische Modelle eine effektive Alternative darstellen können.
Stats
Die Komplexität von Befehlen für Roboter ist deutlich geringer als die Komplexität von Texten, die zum Training von Großen Sprachmodellen verwendet werden.
Quotes
"Wenn kleine Sprachmodelle innerhalb einer einzelnen Domäne Ketten-von-Gedanken-Schlussfolgerungen lernen können, wären selbst kleine Sprachmodelle gute Aufgabenplaner für Roboter?"
"Wir argumentieren, dass die Fähigkeiten von LLMs zu umfangreich sind im Vergleich zur tatsächlichen Vielfalt und Komplexität der Aufgaben, die moderne Roboter ausführen können."