核心概念
Pre-trained language models effectively generalize to code-switched text, shedding light on their abilities to capture and represent linguistic information across languages.
要約
研究では、事前学習された言語モデルがコードスイッチングテキストに効果的に一般化することが明らかになりました。これは、これらのモデルが異なる言語間での情報を捉えて表現する能力を示しています。実験結果は、PLMが文やトークンレベルでCSテキストを検出することができることを示しています。依存構造解析の実験では、CSテキストの依存パースが単一言語の翻訳と類似していることが示されました。意味論的実験では、PLMが実際のCSテキストの意味を一貫して捉えて表現する能力を持っていることが示されました。
統計
PLMsはCSテキストを検出する能力がある。
依存パース生成されたモデルは単一言語の翻訳に近い距離である。
PLMsは意味論的関係を一貫して捉えて表現する能力を持っている。