核心概念
言語モデルからの構文構造導出の重要性と方法に焦点を当てる。
要約
言語学的な階層構造を抽象化し、深層学習モデルで解析する必要性が強調される。
深層学習モデルがどのように言語を解釈し、人間が提案したような階層的な言語構造を内部表現で持っているかが問われている。
StructFormer [She+21]という手法がTransformerエンコーダーアーキテクチャにパーサーネットワークを組み込んで構文および依存構造を生成する方法に焦点が当てられている。
6つの実験を通じてこの分野の課題に取り組み、StructFormerの比較的受け入れ可能なパフォーマンスとさまざまな実験設定で示された制限事項が強調されている。
Foundations
言語学的理論は人間の自然言語を体系的に分析し、その構造と機能を理解することを目指している。
深層学習はNLPタスクで革新的な進歩をもたらし、動的かつコンテキスト依存性のある埋め込み表現を導入した。
Transformerアーキテクチャはセルフアテンションメカニズムに基づき、長距離依存関係や並列処理能力を向上させた。
Related Work
過去数十年間、CLでは確率的手法やアルゴリズム革新に基づく方法が採用されてきた。
Tree-LSTMやその他のRNNおよびLSTMへの適応は、階層的なシンタックス学習への取り組みを促す。
Unsupervised Recurrent Neural Network Grammar (URN)やOrdered Neurons LSTMs (ON-LSTMs)など、異なる手法が提案されている。
引用
"Linear sequences of words are implicitly represented in our brains by hierarchical structures that organize the composition of words in sentences."
"The results of this thesis encourage further development in the direction of retrofitting transformer-based models to induce syntactic structures."