Die Studie untersucht die Anwendung von Großen Sprachmodellen (LLMs) für Krankheitsvorhersageaufgaben auf Basis elektronischer Gesundheitsakten (EHR). Dabei werden strukturierte Patientendaten in natürlichsprachliche Narrative umgewandelt, um die Leistung von LLMs in Nullschritt- und Wenig-Schritt-Lernszenarien zu evaluieren.
Um die Vorhersagegenauigkeit weiter zu verbessern, wird ein neuartiger Ansatz vorgestellt, der zwei LLM-Agenten mit unterschiedlichen Rollen kombiniert: Ein Prädiktions-Agent, der Vorhersagen trifft und Begründungen liefert, und ein Kritik-Agent, der fehlerhafte Vorhersagen analysiert und Anleitungen zur Verbesserung des Prädiktions-Agenten generiert. Durch die Integration des Feedbacks des Kritik-Agenten in die Eingabeaufforderungen des Prädiktions-Agenten kann das System aus seinen Fehlern lernen und sich an die spezifischen Herausforderungen der EHR-basierten Krankheitsvorhersage anpassen.
Die Ergebnisse zeigen, dass der vorgeschlagene Ansatz eine deutlich höhere Vorhersagegenauigkeit erreicht als traditionelle maschinelle Lernmodelle und einzelne LLM-Ansätze, insbesondere in Szenarien mit begrenzten Trainingsdaten. Dies unterstreicht das Potenzial von LLMs als leistungsfähiges Werkzeug für klinische Entscheidungsunterstützungssysteme.
На другой язык
из исходного контента
arxiv.org
Дополнительные вопросы