研究では、事前学習された言語モデルがコードスイッチングテキストに効果的に一般化することが明らかになりました。これは、これらのモデルが異なる言語間での情報を捉えて表現する能力を示しています。実験結果は、PLMが文やトークンレベルでCSテキストを検出することができることを示しています。依存構造解析の実験では、CSテキストの依存パースが単一言語の翻訳と類似していることが示されました。意味論的実験では、PLMが実際のCSテキストの意味を一貫して捉えて表現する能力を持っていることが示されました。
Para Outro Idioma
do conteúdo original
arxiv.org
Principais Insights Extraídos De
by Frances A. L... às arxiv.org 03-11-2024
https://arxiv.org/pdf/2403.04872.pdfPerguntas Mais Profundas