Die Studie untersucht die Verwendung von proprietären und Open-Source-LLMs für die Normalisierung von Zeitausdrücken (TE) unter Einsatz von In-Kontext-Lernen. Dabei werden verschiedene Strategien zur Auswahl relevanter Beispiele aus dem Trainingsdatensatz getestet, um dem Modell wichtige Kontext-Informationen bereitzustellen.
Der Ansatz verarbeitet Sätze sequenziell unter Berücksichtigung des Dokumentkontexts, um auch relative und unterbestimmte Zeitausdrücke korrekt normalisieren zu können. Die Experimente zeigen, dass das Modell mit sorgfältig ausgewählten Beispielen konkurrenzfähige Ergebnisse im Vergleich zu speziell entwickelten Normalisierungsmodellen erzielt, insbesondere wenn der Zieltext stark vom Trainingsdatensatz abweicht.
Die Analyse zeigt, dass explizite, vage und implizite Zeitausdrücke gut normalisiert werden können, während relative und unterbestimmte Ausdrücke eine größere Herausforderung darstellen. Weitere Experimente untersuchen den Einfluss der Kontextfenster-Länge, die Anwendbarkeit in multilingualen Szenarien sowie die Integration in ein vollständiges Zeitmarkierungs-System.
다른 언어로
소스 콘텐츠 기반
arxiv.org
더 깊은 질문