核心概念
TinyLLaVA-Medは、リソース制限のある環境でも高精度な医療診断を可能にする、効率的なマルチモーダル大規模言語モデルである。
摘要
本研究では、一般目的のTinyLLaVAモデルを医療データでファインチューニングし、TinyLLaVA-Medを開発した。TinyLLaVA-Medは、NVIDIA Jetson Xavierなどの組み込みデバイス上で動作可能で、GPU利用率62%、消費電力18.9W、メモリ使用量11.9GBと、リソース制限環境でも効率的に動作する。VQA-RADデータセットでは64.54%、SLAKEデータセットでは70.70%の閉塞問題精度を達成し、大規模モデルに匹敵する性能を示した。これにより、リソース制限のある地域でも高度な医療AIを活用できるようになり、医療の民主化に貢献する。
統計資料
TinyLLaVA-Medは、VQA-RADデータセットで64.54%、SLAKEデータセットで70.70%の閉塞問題精度を達成した。
TinyLLaVA-Medは、NVIDIA Jetson Xavierで62%のGPU利用率、18.9Wの消費電力、11.9GBのメモリ使用量を示した。
引述
"TinyLLaVA-Medは、リソース制限のある環境でも高精度な医療診断を可能にする、効率的なマルチモーダル大規模言語モデルである。"
"TinyLLaVA-Medの開発により、リソース制限のある地域でも高度な医療AIを活用できるようになり、医療の民主化に貢献する。"