自己教師学習を用いた簡略化かつ効率的な音声処理フレームワーク「NEST」を提案し、様々な音声処理タスクにおいて新しい最先端の性能を達成する。
大規模言語モデルの内部一貫性を高めるための自己フィードバックフレームワークを提案し、その具体的な手法を体系的に整理する。
定義とガイドラインを活用することで、ゼロショット企業実体認識の性能を向上させることができる。
検閲と非検閲のLLMモデルは、ツイートの検出可能性に大きな影響を与える。非検閲モデルは、より多様な語彙と構造的特徴を持つが、検出手法の性能を大幅に低下させる。
正規化されたICA変換埋め込みを用いることで、コサイン類似度を軸ごとの意味的類似度の和として解釈できる。ICAはPCAよりも解釈可能性が高く、正規化によりさらに改善される。
大規模言語モデルを使用することで、少量のタスク固有のトレーニングデータでも高精度なプロダクト属性値抽出が可能である。
LLMsが長文脈を活用し、広範な文章理解と文脈学習を行うためには、長文脈モデルの開発が不可欠である。しかし、長文脈モデルの直接訓練には課題があるため、様々な拡張手法が提案されている。本研究では、標準化された評価プロトコルを用いて、これらの拡張手法の性能を比較し、長文脈処理の特性を明らかにする。
言語モデルに、自身の予測の正確性に関する不確実性を表す言語表現を生成させることで、ユーザーが言語モデルの出力を適切に解釈できるようにする。
LitFMは、引用グラフの構造と意味的関連性を統合することで、文献検索の信頼性を高め、様々な文献関連タスクを統一的に処理することができる。
Möbiusアテンションを用いることで、Transformerモデルが複雑な言語パターンを捉えられるようになる。