Conceitos Básicos
Große Sprachmodelle und Kontrollmechanismen können die Lesbarkeit biomedizinischer Zusammenfassungen verbessern.
Resumo
In dieser Studie wurde untersucht, wie sich der Einsatz großer Sprachmodelle (LLMs) und Kontrollmechanismen auf die Vereinfachung biomedizinischer Abstracts auswirkt. Dazu wurden verschiedene Encoder-Decoder-Modelle (T5, SciFive, BART) sowie Decoder-only-GPT-Modelle (GPT-3.5, GPT-4, BioGPT) auf dem öffentlich verfügbaren PLABA-Datensatz (Plain Language Adaptation of Biomedical Abstracts) evaluiert.
Die Ergebnisse zeigen, dass das BART-Large-Modell mit Kontrolltoken-Mechanismen den höchsten SARI-Score (46,54) und das T5-Base-Modell den höchsten BERTScore (72,62) erreichten. In der menschlichen Evaluation schnitt das BART-Large-Modell mit Kontrolltoken-Mechanismen besser bei der Einfachheit ab, während das T5-Base-Modell die Bedeutungserhaltung besser umsetzte.
Die Studie kategorisierte auch die Systemausgaben mit Beispielen, um zukünftige Forschung auf diesem Gebiet zu unterstützen.
Estatísticas
Das BART-Large-Modell mit Kontrolltoken-Mechanismen erzielte den höchsten SARI-Score von 46,54.
Das T5-Base-Modell erreichte den höchsten BERTScore von 72,62.
Citações
"Biomedizinische Literatur verwendet oft komplexe Sprache und unzugängliche Fachterminologie. Daher spielt die Vereinfachung eine wichtige Rolle bei der Verbesserung der öffentlichen Gesundheitskompetenz."
"Anwendung von Natural Language Processing (NLP)-Modellen zur Automatisierung solcher Aufgaben ermöglicht eine schnelle und direkte Zugänglichkeit für Laienleser."