研究では、事前学習された言語モデルがコードスイッチングテキストに効果的に一般化することが明らかになりました。これは、これらのモデルが異なる言語間での情報を捉えて表現する能力を示しています。実験結果は、PLMが文やトークンレベルでCSテキストを検出することができることを示しています。依存構造解析の実験では、CSテキストの依存パースが単一言語の翻訳と類似していることが示されました。意味論的実験では、PLMが実際のCSテキストの意味を一貫して捉えて表現する能力を持っていることが示されました。
他の言語に翻訳
原文コンテンツから
arxiv.org
深掘り質問