大規模言語モデルを用いてインタラクティブな質問応答システムを自動評価するフレームワーク「IQA-EVAL」は、人間の評価と高い相関性を持つことが示された。
本稿では、大量のテキストデータに対して高度なAIベースの分析を可能にする新しい宣言型プログラミングモデルである「セマンティックオペレーター」を提案する。これは従来のリレーショナルモデルを拡張し、自然言語によるクエリを用いたデータのフィルタリング、結合、集約などを可能にする。
LLMベースのチャットボットは、教育、研究、医療など、さまざまな分野で知識生成ツールとして大きな可能性を秘めている。
ポルトガル語向けに継続的に事前学習されたT5モデルであるptt5-v2は、いくつかのダウンストリームタスクでSOTAを達成し、言語特化型事前学習の重要性と、大規模言語モデルにおける単一言語モデルの優位性を示唆している。
大規模言語モデルの事前学習において、モデルの学習過程におけるデータ選好度の変化を捉え、動的にデータを選択することで、事前学習の効率と効果を大幅に向上させることができる。
本稿では、大規模言語モデルのコンテキストウィンドウ内外の動作メカニズムを、隠れ状態から分解された位置ベクトルを通じて分析し、位置ベクトルの形成過程と注意機構への影響、コンテキストウィンドウ拡張における位置ベクトルの補間効果を明らかにした。
大規模言語モデル (LLM) は、倫理的に複雑なシナリオにおいて、他の LLM からの説得の影響を受けやすく、その影響の度合いはモデルやシナリオによって異なる。
FedCoLLMは、大規模言語モデル(LLM)と小規模言語モデル(SLM)の両方を、データプライバシーを維持しながら効率的にコチューニングするための新しい連合学習フレームワークであり、LLMの知識をSLMに転移し、SLMのドメイン知識をLLMに還元することで、双方のパフォーマンスを向上させる。
プロセス監視における報酬スコアは、推論チェーンの正確性だけでなく、その長さにも非線形的に関係しており、この特性を強化することで、より効果的なプロセス監視を実現できる。
大規模言語モデルは、技術システム仕様が要件を満たしているかどうかを検証するための有望なツールとなりうる。