Kernekoncepter
大規模言語モデルは、データ中心のタスクを解決するために重要であり、適切な入力データの量と選択が性能に影響する。
Resumé
この論文では、大規模言語モデルを使用して、実世界のNL-to-codeタスクを解決する新しい手法が提案されています。具体的には、StackOverflowから採掘した実世界のNL-to-codeタスク用のデータセット「SOFSET」が作成され、新しいcluster-then-selectプロンプティング技術が導入されました。この技術は、入力テーブルから代表的な行を選択してLLMプロンプトに追加します。実験結果では、この技術がランダム選択よりも優れていることが示されています。
Introduction:
- 大規模言語モデル(LLM)は非専門家プログラマーやエンドユーザー向けに役立つ。
- データ中心のタスクへのコード生成LLMの紹介。
Related Work:
- CODEXやPALMなど、コード生成LLMが特定のタスクやSQLなどの領域に適応されている。
- 過去の研究では、LLMへのプロンプト付与が効果的であることが示唆されている。
The SOFSET Dataset:
- StackOverflowから収集した実世界のデータ中心タスク用SOFSETデータセット。
- クラスター化して選択した代表的な行を含むpromptを作成し、GPT-4でコード生成実験を行う。
Cluster-then-select prompting technique:
- 入力テーブルから代表的な行を選択するcluster-then-select技術。
- 大きな入力テーブル上でこの技術を評価し、ランダム基準と比較して有効性を検証。
Evaluation of data-centric tasks:
- データ量が異なる場合におけるモデルパフォーマンスへの影響。
- Kaggle拡張DEPタスクでcluster-then-select技術の効果検証。
Statistik
Large language models are rapidly replacing help forums like StackOverflow.
Large language models are sensitive to the amount of data passed in the prompt.
Cluster-then-select technique outperforms random selection baseline.
Citater
"Large language models are especially helpful to non-professional programmers and end users."
"Our experiments show that LLM performance is indeed sensitive to the amount of data passed in the prompt."