Core Concepts
大規模言語モデルは、新しいライブラリの機能を文脈から学習し、それを活用してコードを生成することができる。
Abstract
本研究では、大規模言語モデルの新規ライブラリの文脈学習能力を評価した。3つのシナリオを設定し、実験を行った。
特定のライブラリ関数の使用を制約した場合のコード生成能力
文脈から新しいライブラリの使用方法を学習する能力
新しいプログラミング言語を文脈から学習する能力
実験の結果、以下のことが明らかになった:
最新の大規模言語モデルは、デモンストレーションだけでなく、自然言語の説明やライブラリの実装からも新しいライブラリの使用方法を効果的に学習できる。
この能力は、最大の大規模言語モデルだけでなく、小規模な公開モデルにも見られる。
ただし、ライブラリの使用を制約すると、モデルのパフォーマンスが大幅に低下する。
大規模言語モデルは、文脈から新しいプログラミング言語を学習する初歩的な能力も示した。
これらの結果は、大規模言語モデルを柔軟かつ動的なコーディング環境で活用する可能性を示唆している。
Stats
新しいライブラリを文脈から学習することで、GPT-4は52.47%の正解率を達成した。
GPT-3.5-Turboは36.78%の正解率だった。
LLaMA-2は24.73%の正解率だった。
Quotes
"大規模言語モデルは、デモンストレーションだけでなく、自然言語の説明やライブラリの実装からも新しいライブラリの使用方法を効果的に学習できる。"
"この能力は、最大の大規模言語モデルだけでなく、小規模な公開モデルにも見られる。"
"ただし、ライブラリの使用を制約すると、モデルのパフォーマンスが大幅に低下する。"