本研究では、チップ設計コーディングアシストにおける大規模言語モデルの性能と総所有コストを比較分析しています。
まず、ドメイン適応型の大規模言語モデル「ChipNeMo」を開発するために、ドメイン適応事前学習(DAPT)と教師あり微調整(SFT)を行いました。ChipNeMoは、一般目的の大規模言語モデルと比較して、チップ設計コーディングタスクの正確性と効率性が高いことが示されました。
次に、総所有コスト(TCO)の比較を行いました。その結果、ChipNeMoのTCOは、一般目的の大規模言語モデルであるClaude 3やChatGPT-4 Turboと比べて、24-33倍低いことが明らかになりました。この大幅なコスト削減は、ChipNeMoの小さなモデルサイズと、ドメイン特化型の効率的な学習によるものです。
さらに、展開規模が大きくなるほど、ドメイン適応型モデルの優位性が顕著になることが示されました。つまり、チップ設計コーディングアシストに大規模な言語モデルを必要とする企業にとって、ChipNeMoのようなドメイン適応型モデルは非常に魅力的な選択肢となります。
إلى لغة أخرى
من محتوى المصدر
arxiv.org
الرؤى الأساسية المستخلصة من
by Amit Sharma,... في arxiv.org 04-16-2024
https://arxiv.org/pdf/2404.08850.pdfاستفسارات أعمق