toplogo
Sign In

数学的能力を持つ言語モデル「PARAMANU-GANITA」


Core Concepts
我々は、208百万パラメータの新しい自己回帰型デコーダーベースの数学言語モデル「PARAMANU-GANITA」を開発しました。この数学専門モデルは、わずか146時間のA100トレーニングで、大規模な言語モデルを大幅に上回る数学的推論能力を示しました。
Abstract

本論文では、数学専門の自己回帰型デコーダーモデル「PARAMANU-GANITA」を紹介しています。このモデルは、数学テキスト、プログラミングソースコード、数学問題回答ペアなどから構成された高品質な数学コーパスを使って、わずか4096のコンテキストサイズで頭から学習されています。

PARAMANU-GANITAは、GSM8kベンチマークでは、LLaMa-1 7B、LLaMa-2 7B、Falcon 7B、PaLM 8B、Minerva 8Bなどの大規模言語モデルを大幅に上回る性能を示しました。さらに、PaLM 62B、Falcon 40B、LLaMa-1 33Bなどの巨大モデルにも匹敵する成績を収めています。これは、数学的推論能力は必ずしも膨大なパラメータ数を必要としないことを示しています。

PARAMANU-GANITAは、LLEMMA 7Bなどの数学専門モデルと比べても優れた成績を収めています。LLEMMA 7Bは23,000時間もの大規模な計算リソースを使って学習されていますが、PARAMANU-GANITAはわずか146時間の学習で同等以上の性能を発揮しています。このことから、ドメイン特化型の言語モデルを頭から学習する方が、既存の大規模モデルを継続学習するよりもはるかに効率的であることが分かります。

今回は、我々の数学コーパスの一部のみを使って学習を行いましたが、今後さらに大規模な数学コーパスを使って学習を行えば、PARAMANU-GANITAのさらなる性能向上が期待できると考えています。

edit_icon

Customize Summary

edit_icon

Rewrite with AI

edit_icon

Generate Citations

translate_icon

Translate Source

visual_icon

Generate MindMap

visit_icon

Visit Source

Stats
PARAMANU-GANITAは208百万パラメータしかないにもかかわらず、LLaMa-1 7Bに比べて28.4ポイント、LLaMa-2 7Bに比べて27.6ポイント、Falcon 7Bに比べて32.6ポイント、PaLM 8Bに比べて35.3ポイント高い精度を達成しました。 PARAMANU-GANITAはMinerva 8Bに比べて23.2ポイント、LLEMMA-7Bに比べて3.0ポイント高い精度を示しました。 PARAMANU-GANITAはPaLM 62Bに比べて6.4ポイント、Falcon 40Bに比べて19.8ポイント、LLaMa-1 33Bに比べて3.8ポイント、Vicuna 13Bに比べて11.8ポイント高い精度を示しました。
Quotes
"PARAMANU-GANITAは、LLaMa-1 7Bに比べて28.4ポイント、LLaMa-2 7Bに比べて27.6ポイント、Falcon 7Bに比べて32.6ポイント、PaLM 8Bに比べて35.3ポイント高い精度を達成しました。" "PARAMANU-GANITAはMinerva 8Bに比べて23.2ポイント、LLEMMA-7Bに比べて3.0ポイント高い精度を示しました。" "PARAMANU-GANITAはPaLM 62Bに比べて6.4ポイント、Falcon 40Bに比べて19.8ポイント、LLaMa-1 33Bに比べて3.8ポイント、Vicuna 13Bに比べて11.8ポイント高い精度を示しました。"

Key Insights Distilled From

by Mitodru Niyo... at arxiv.org 04-23-2024

https://arxiv.org/pdf/2404.14395.pdf
PARAMANU-GANITA: Language Model with Mathematical Capabilities

Deeper Inquiries

質問1

数学専門モデルの性能向上のためには、どのようなアプローチが考えられるでしょうか。 数学専門モデルの性能向上には、以下のアプローチが考えられます。 データの多様性: 数学の様々な分野や難易度レベルの問題をカバーするために、さまざまなソースからデータを収集し、モデルのトレーニングに活用することが重要です。 専門知識の組み込み: 数学的な論理推論や問題解決能力を向上させるために、モデルに数学の基本原則や概念を組み込むことが有効です。 追加のトレーニング: モデルをさらに精緻に調整するために、追加のトレーニングやファインチューニングを行うことで性能を向上させることができます。

質問2

数学以外のドメインでも、同様の手法で高性能な専門モデルを構築できるでしょうか。 はい、数学以外のドメインでも同様の手法を用いて高性能な専門モデルを構築することが可能です。他の専門分野においても、専門知識やデータの多様性を考慮したモデルのトレーニングやファインチューニングを行うことで、その分野に特化した性能を発揮するモデルを構築できます。

質問3

PARAMANU-GANITAの性能をさらに向上させるためには、どのような追加の学習データや手法が有効だと考えられますか。 PARAMANU-GANITAの性能向上のためには、以下の追加の学習データや手法が有効と考えられます。 高度な数学問題の追加: より高度な数学問題や論理的な推論を要する問題を含むデータセットを追加することで、モデルの性能向上が期待できます。 ドメイン特化のファインチューニング: PARAMANU-GANITAを特定の数学分野に特化させるために、その分野に特有のデータでファインチューニングを行うことが効果的です。 アンサンブル学習: 複数のモデルを組み合わせてアンサンブル学習を行うことで、より高い性能を実現することができます。
0
star