大規模言語モデル(LLM)の安全性と価値観の整合性を高めるアラインメント技術は、モデルの出力の多様性、特に人間の概念的多様性を捉える能力を低下させる可能性がある。
大規模言語モデルの短い形式の回答における事実性を評価するために、GPT-4の回答に対して敵対的に収集され、単一の明確な回答を持つ質問で構成されたベンチマーク「SimpleQA」が提案されている。
南アフリカとコンゴ民主共和国の低リソース言語における感情分析と翻訳の精度向上のため、多言語感情語彙集と機械学習モデルを組み合わせたアプローチが有効である。
本稿では、従来の自然言語処理(NLP)研究では十分に考慮されてこなかった、世界の多数派を占める言語におけるバイアスと害悪を評価・軽減するために、ケイパビリティアプローチの視点を提唱している。
大規模言語モデル(LLM)に対する効果的な攻撃手法として、多様なプロンプトを生成し、安全対策を回避するために難読化を用いることが有効である。
大規模言語モデル(LLM)のトレーニングにおける計算コストを削減するため、フィードフォワードネットワーク(FFN)に構造化線形パラメータ化を適用し、そのスケーリング性能と効率性を検証した。
LiveMindは、ユーザーが入力を完了する前に推論を開始することで、大規模言語モデル(LLM)の応答レイテンシを大幅に短縮するフレームワークである。
大規模言語モデル(LLM)は、多様な政治的見解を要約する際に、正確性と公平性に課題を抱えている。
科学論文分析におけるマルチモーダル複数文書理解という課題に取り組むため、新たなベンチマークM3SciQAを提案し、既存の基盤モデルの性能を評価した結果、画像解釈と複数文書からの情報統合に課題が残ることが明らかになった。
医療知識グラフの埋め込みを大規模言語モデル(LLM)に統合することで、医療質問応答の精度が大幅に向上する。