Core Concepts
ニューラルネットワークが文の意味を推論する能力について検証し、実際のデータセットで帰結関係を解読できる可能性を示唆。
Abstract
言語モデル(LMs)が文間の帰結関係を推定するために文の共起パターンから意味情報を暗黙的にモデル化していることが示唆される。しかし、理論的テストは実際には反転しており、人間が冗長なテキストを生成するケースも観察される。これらの発見は、冗長性をより適切に扱うプラグマティック理論が必要であることを示唆している。
Stats
Merrill et al. (2022)による帰結テストスコア:ˆEp(x, y) = log p(xy) − log p(x$) − log p(yy) + log p(y$)
ノイズ耐性スピーカー拡張テスト:ˆEnp(x, y) = log p(xny) − log p(xn$) − log p(yn+1) + log p(yn$)
Quotes
"Our results show that sentence co-occurrence probabilities computed by LMs can predict entailment relationships."
"A more nuanced theory of pragmatics beyond Gricean speakers is needed to explain how entailment relationships are reflected in sentence co-occurrences."