研究では、事前学習された言語モデルがコードスイッチングテキストに効果的に一般化することが明らかになりました。これは、これらのモデルが異なる言語間での情報を捉えて表現する能力を示しています。実験結果は、PLMが文やトークンレベルでCSテキストを検出することができることを示しています。依存構造解析の実験では、CSテキストの依存パースが単一言語の翻訳と類似していることが示されました。意味論的実験では、PLMが実際のCSテキストの意味を一貫して捉えて表現する能力を持っていることが示されました。
Başka Bir Dile
kaynak içeriğinden
arxiv.org
Önemli Bilgiler Şuradan Elde Edildi
by Frances A. L... : arxiv.org 03-11-2024
https://arxiv.org/pdf/2403.04872.pdfDaha Derin Sorular