Diese Studie untersucht die Übertragbarkeit von Prompt-Tuning mit großen Sprachmodellen für die Extraktion sozialer Determinanten der Gesundheit (SDoH) aus klinischen Texten. Dafür wurden zwei Arten von Sprachmodell-Architekturen getestet: encoder-only Modelle (GatorTron) und decoder-only Modelle (GatorTronGPT).
Die Ergebnisse zeigen, dass die decoder-only Modelle mit Prompt-Tuning eine bessere Leistung bei Anwendungen über verschiedene Domänen hinweg erzielen. GatorTronGPT erreichte die besten F1-Werte für beide Datensätze und übertraf die traditionell fein abgestimmten GatorTron-Modelle um 8,9% und 21,8% in einem Szenario über verschiedene Institutionen hinweg sowie um 5,5% und 14,5% in einem Szenario über verschiedene Krankheitsdomänen hinweg.
Die Studie demonstriert die bessere Übertragbarkeit generativer klinischer Sprachmodelle mit Prompt-Tuning für die Extraktion sozialer Determinanten der Gesundheit in Anwendungen über Institutionen und Krankheitsdomänen hinweg.
Naar een andere taal
vanuit de broninhoud
arxiv.org
Belangrijkste Inzichten Gedestilleerd Uit
by Cheng Peng,Z... om arxiv.org 03-20-2024
https://arxiv.org/pdf/2403.12374.pdfDiepere vragen