本研究では、大規模言語モデルをより優れたSQL生成器にするために、PURPLE (Pre-trained models Utilized to Retrieve Prompts for Logical Enhancement)を提案している。
まず、スキーマプルーニングモジュールにより、入力長を短縮しつつ、必要な情報を保持する。次に、スケルトン予測モジュールで、必要な論理演算子の組み合わせを特定する。その上で、デモンストレーション選択モジュールが、予測されたスケルトンに対応するデモンストレーションを選択し、大規模言語モデルに提示する。これにより、大規模言語モデルは論理演算子の組み合わせを学習し、より正確なSQL生成が可能となる。最後に、データベース適応モジュールが、大規模言語モデルの出力を修正し、特定のデータベースに適合させる。
実験の結果、PURPLEは既存の大規模言語モデルベースのアプローチと比較して、Exact-Set Match精度で11.8%の改善を達成した。また、コスト面でも優れた性能を示した。
他の言語に翻訳
原文コンテンツから
arxiv.org
深掘り質問