핵심 개념
大規模言語モデルを使用して、電子健康記録から社会的 determinants of health を抽出する能力を研究しました。
초록
この研究では、大規模な言語モデルを使用して、電子健康記録内の自由テキストから社会的 determinants of health(SDoH)を抽出する方法に焦点を当てました。800人の患者ノートからなるコーパスが手動で注釈付けされ、6つの主要なSDoHカテゴリーが特定されました。最良のパフォーマンスを示したFlan-T5 XXLとFlan-T5 XLは、任意のSDoHに対してマクロF1 0.71と0.70を達成しました。合成データの追加は、特に小さなFlan-T5モデルでパフォーマンス向上に貢献しました。結果は他施設や異なる患者集団での検証でも一貫性がありました。また、ChatGPTファミリーモデルと比較して、フィントゥーンされたモデルが優れたパフォーマンスを示し、バイアスへの影響も少なかったことが明らかになりました。
통계
最も優れたパフォーマンスを示したFlan-T5 XXL(マクロ-F1 0.71)とFlan-T5 XL(マクロ-F1 0.70)。
フィントゥーンされたモデルはChatGPTファミリーモデルよりも優れたパフォーマンスを発揮。
合成データ追加は小さなFlan-T5モデルで最も効果的だった。
인용구
"Fine-tuned language models were able to extract SDoH information from clinic notes, and performed better and more robustly than much larger language models in the zero- and few-shot settings."
"Our best-performing fine-tuned models outperformed zero- and few-shot performance of ChatGPT-family models for both tasks."
"These fine-tuned models were less likely than ChatGPT to change their prediction when race/ethnicity and gender descriptors were added to the text, suggesting less algorithmic bias."