In dieser Arbeit wird ein umfassendes Evaluationsframework für die Leistung von Großsprachmodellen (LLMs) bei biomedizinischen Namensnennung-Aufgaben entwickelt. Es werden verschiedene Prompting-Strategien untersucht, die es LLMs ermöglichen, in Wenig-Schuss-Szenarien die Leistung kleinerer, feinabgestimmter Modelle zu übertreffen.
Aufbauend auf diesen Ergebnissen wird ein neuer wissensbasierter Ansatz vorgestellt, der LLMs durch das Hinzufügen von Definitionen relevanter biomedizinischer Konzepte bei der Namensnennung unterstützt. Die Experimente zeigen, dass dieser Ansatz zu erheblichen Leistungssteigerungen führt, insbesondere im Nullschuss-Szenario. Weitere Analysen belegen, dass diese Verbesserungen tatsächlich auf das Hinzufügen der relevanten Definitionen zurückzuführen sind.
Die Autoren untersuchen auch die Auswirkungen unterschiedlicher Quellen für die Definitionen und stellen fest, dass manuell kuratierte Definitionen aus UMLS zu besseren Ergebnissen führen als automatisch generierte Definitionen. Insgesamt zeigen die Ergebnisse, dass das Hinzufügen von Definitionen eine vielversprechende Methode ist, um die Leistung von LLMs in Domänen mit begrenzten Trainingsdaten wie der Biomedizin zu verbessern.
다른 언어로
소스 콘텐츠 기반
arxiv.org
더 깊은 질문