大規模マルチモーダルモデルは、医療診断に関する特殊な質問に対して、ランダムな推測よりも低い精度を示す。
プライバシーを保護しつつ、ドメイン間の変化に対応できる継続的学習手法を提案する。
EyeCLIPは、2,777,593枚の多モーダル眼科画像と11,180件の報告書を使用して事前学習された視覚言語基盤モデルで、14の基準データセットで優れた性能を示しました。特に、ゼロショット、少数ショット、および監督学習の設定において、眼科疾患の診断、全身疾患の予測、視覚言語質問応答、およびクロスモーダル検索の分野で最先端の結果を達成しています。
医療現場における放射線科医不足の問題に対し、大規模言語モデルと視覚言語モデルを組み合わせた多エージェントシステムを提案し、ガイドラインに基づいた透明性の高い診断支援を実現する。
CerviXpertは、計算コストが低く、高精度な子宮頸がん検出モデルを提案する。従来の複雑なモデルと比較して、効率的な構造と高い分類精度を実現している。
組織病理学的基盤モデルを使用することで、卵巣がんサブタイプ分類の性能が大幅に向上する。
本論文は、相対アノテーションを用いたベイズ能動学習ランキングを提案し、潰瘍性大腸炎の内視鏡画像の重症度推定に適用している。
医療用ビジョン・ランゲージモデルを少量の学習サンプルを使って効率的に適応させる方法を提案する。
胸部X線画像を用いた解釈可能な深層生存予測モデルにより、COVID-19の重症度を正確に予測し、臨床医の理解と信頼を高める。
医療画像解析のためのディープラーニングモデルは、データバイアスを利用して高い性能を達成するが、一般化性能が低い。本研究では、多重インスタンス学習(MIL)フレームワークを使用して、画像の一部のパッチのみを使用して診断を行うことで、モデルの堅牢性と説明可能性を向上させる。