Song, Y., Xiong, W., Zhao, X., Zhu, D., Wu, W., Wang, K., Li, C., Peng, W., & Li, S. (2024). AGENTBANK: Towards Generalized LLM Agents via Fine-Tuning on 50000+ Interaction Trajectories. arXiv preprint arXiv:2410.07706v1.
本研究の目的は、大規模言語モデル(LLM)を、様々なタスクにおいて汎用的に能力を発揮できるエージェントへと発展させることです。具体的には、5万件以上のインタラクション軌跡データセット「AGENTBANK」を用いてLLMをファインチューニングすることで、エージェントとしての能力を向上させることを目指しています。
研究チームは、まず、推論、数学、プログラミング、ウェブナビゲーション、実体化タスクの5つのスキル次元をカバーする16の公開されているエージェントデータセットから、5万件以上のインタラクション軌跡データセット「AGENTBANK」を構築しました。
次に、このデータセットを用いて、オープンソースのLLMであるLlama-2をファインチューニングし、「SAMOYED」と呼ばれるエージェントモデルを開発しました。
そして、SAMOYEDの性能を評価するために、AGENTBANKに含まれないタスクを含む、held-inタスクとheld-outタスクの両方で評価を行いました。
本研究は、大規模なインタラクション軌跡データセットを用いたファインチューニングが、LLMを汎用的なエージェントへと発展させるための有効なアプローチであることを示しました。
また、コードデータを用いた事前学習が、エージェントの能力向上に寄与することも示唆されました。
本研究の成果は、LLMを用いたエージェントシステムの開発を大きく前進させる可能性があります。
特に、現実世界の問題解決にLLMエージェントを活用するためには、汎用的な能力が不可欠であり、本研究はその実現に向けた重要な一歩となります。
לשפה אחרת
מתוכן המקור
arxiv.org
תובנות מפתח מזוקקות מ:
by Yifan Song, ... ב- arxiv.org 10-11-2024
https://arxiv.org/pdf/2410.07706.pdfשאלות מעמיקות