小規模言語モデルPhi-2を使用して、StarCraftⅡのマクロ管理タスクを効率的に実行する。
GoAIは平均的な性能は人間を大きく上回るが、最悪の場合の性能は人間に劣る可能性がある。防御策を講じても、新しい攻撃手法に対して脆弱性が残る。
人間のように直感的な物理学的前提を活用することで、ビデオゲームをより効率的に学習できる。
関数呼び出しを活用することで、テキストベースゲームのAIゲームマスターの一貫性と信頼性を高めることができる。
ByteRLは収集可能なカードゲームで最強のエージェントだが、その戦略には弱点がある。
観察空間でのMCTSを活用し、ゲーム固有のモデルに依存しない方法でゲームの計画を行う。トランスフォーマーがこのコンテキストに適していることを示し、自己対戦を通じた反復的な学習プロセスを提案する。
イミテーションラーニングにおけるデータ拡張は、ゲームエージェントの一般化性能を向上させることができる。
LLMベースのゲームエージェントは、人間のような意思決定能力を持つゲームエージェントを進化させ、強化するための重要な機会を提供する。
ビデオゲームにおける大規模言語モデル(LLMs)の潜在的な可能性を探る。
大規模言語モデル(LLMs)を使用したNetPlayエージェントは、詳細な指示を実行する能力を示し、柔軟性と創造性に優れていますが、より曖昧なタスクには苦労しています。