Core Concepts
Dieser Ansatz nutzt große generative Sprachmodelle, um Arzt-Patienten-Dialoge effizient und kostengünstig in klinische Notizen zusammenzufassen, indem Prompt-Feinabstimmung verwendet wird.
Abstract
Diese Studie entwickelt eine kostengünstige Methode zur automatischen Textzusammenfassung (ATS) von Arzt-Patienten-Dialogen mithilfe des großen generativen Sprachmodells GatorTronGPT durch Prompt-Feinabstimmung.
Die Hauptergebnisse sind:
Verschiedene Strategien zur Initialisierung von Soft-Prompts, die Länge der Soft-Prompts und die Fähigkeit zum Lernen weniger Beispiele wurden untersucht.
Der GatorTronGPT-20B-Modell erzielte die besten Ergebnisse bei allen Bewertungsmetriken im Vergleich zu einem weit verbreiteten T5-Modell.
Der vorgeschlagene Ansatz ist recheneffizient, da nur die Prompt-Parameter aktualisiert werden, während die Modellparameter eingefroren bleiben.
Die Fähigkeit zum Lernen weniger Beispiele des GatorTronGPT-20B-Modells wurde untersucht und zeigte, dass mit 200 Beispielen eine angemessene Leistung erzielt werden kann.
Insgesamt zeigt diese Studie die Effizienz großer generativer Sprachmodelle für die klinische ATS durch Prompt-Feinabstimmung.
Stats
Der Patient ist eine 79-jährige afroamerikanische Frau mit einer Größe von 1,60 m und einem Gewicht von 89 kg.
Sie wurde 1983 mit Typ-2-Diabetes diagnostiziert.
Sie hat keine bekannten Medikamentenallergien.
Quotes
"Prompt-basiertes Lernen ist die Schlüsseltechnologie, die 'Prompts' - zusätzliche Anweisungsinformationen, die zum Eingabedatensatz hinzugefügt werden - nutzt, um Sprachmodelle bei der Generierung von Text, der diesen Anweisungen folgt, anzuleiten."
"Soft-Prompting, bei dem nur kleine, trainierbare Prompts während der Feinabstimmung aktualisiert werden, während die Modellparameter eingefroren bleiben, entlastet Forscher von der arbeitsintensiven Aufgabe des Prompt-Engineerings."