Die Studie untersucht die Verwendung von proprietären und Open-Source-LLMs für die Normalisierung von Zeitausdrücken (TE) unter Einsatz von In-Kontext-Lernen. Dabei werden verschiedene Strategien zur Auswahl relevanter Beispiele aus dem Trainingsdatensatz getestet, um dem Modell wichtige Kontext-Informationen bereitzustellen.
Der Ansatz verarbeitet Sätze sequenziell unter Berücksichtigung des Dokumentkontexts, um auch relative und unterbestimmte Zeitausdrücke korrekt normalisieren zu können. Die Experimente zeigen, dass das Modell mit sorgfältig ausgewählten Beispielen konkurrenzfähige Ergebnisse im Vergleich zu speziell entwickelten Normalisierungsmodellen erzielt, insbesondere wenn der Zieltext stark vom Trainingsdatensatz abweicht.
Die Analyse zeigt, dass explizite, vage und implizite Zeitausdrücke gut normalisiert werden können, während relative und unterbestimmte Ausdrücke eine größere Herausforderung darstellen. Weitere Experimente untersuchen den Einfluss der Kontextfenster-Länge, die Anwendbarkeit in multilingualen Szenarien sowie die Integration in ein vollständiges Zeitmarkierungs-System.
Para Outro Idioma
do conteúdo original
arxiv.org
Principais Insights Extraídos De
by Akas... às arxiv.org 04-12-2024
https://arxiv.org/pdf/2404.07775.pdfPerguntas Mais Profundas