이 논문에서는 제로 아나포라 예측 과제를 추가하고 역사적 언어를 포함하도록 확장된 제3회 다국어 상호 참조 해결 공동 작업에 대해 다룹니다.
This paper presents the findings of the third shared task on multilingual coreference resolution, highlighting the challenges of predicting zero mentions and the advancements made by participating systems in this domain.
より広範な文脈情報を入力に組み込むことで、複数言語に対応した共参照解決の精度が大幅に向上する。
Increasing context size significantly improves the performance of multilingual coreference resolution systems, as demonstrated by the UFAL CorPipe system, which outperformed all other entries in the CRAC 2023 Shared Task.
本論文介紹一個名為 CorPipe 的多語言指代消解系統,該系統採用聯合訓練的管道方法,並證明大型多語言預訓練模型能有效提升指代消解效能,尤其在資源較少的語言上表現更為顯著。
이 연구 논문에서는 다국어 모델을 사용하여 상호 참조 해결 작업의 성능을 향상시키는 방법을 제시합니다. 특히, 대규모 다국어 모델을 미세 조정하여 다양한 언어의 데이터 세트에서 전반적으로 향상된 결과를 얻을 수 있음을 보여줍니다.
大規模な多言語モデルを用いて照応解析の mention detection と coreference linking を共同で学習することで、様々な言語のデータセットにおいて、特に小規模なデータセットや類型的に近い言語群において高い性能を発揮する。
This research paper presents a novel system, UFAL CorPipe, which achieved top performance in the CRAC 2022 Shared Task on Multilingual Coreference Resolution by utilizing a jointly trained pipeline approach and leveraging the power of large, multilingual language models.
CorPipe系統在CRAC 2024多語言指代消解共享任務中取得了最佳成績,該系統能夠有效地從原始文本中預測零指代提及,並在多種語言中展現出優異的性能。
This paper introduces CorPipe 24, a system for multilingual coreference resolution that effectively predicts zero mentions from raw text, outperforming competitors in the CRAC 2024 Shared Task.