本論文では、AI/MLを活用した医療システムのセキュリティリスクを体系的に分析している。
まず、FDAが承認したAI/ML搭載の医療機器の機能と使用されているML手法を調査し、それらの手法に対する既知の攻撃手法を分析した。その結果、多くのデバイスがML推論時の攻撃に脆弱であることが分かった。これらの攻撃が実現可能となるのは、医療機器がさまざまな周辺センサーデバイスと接続されているためである。
次に、血糖値管理システム(BGMS)を事例として、攻撃者がBluetooth通信の脆弱性を悪用して血糖値データを改ざんし、MLエンジンの誤診断を引き起こす攻撃を実演した。実験の結果、攻撃者は患者の低血糖状態を高血糖状態として誤認識させることに成功した。
最後に、現在使用されている代表的なリスク評価手法の限界を指摘した。これらの手法は、個別のデバイスのリスクは評価できるものの、デバイス間の相互作用によるリスクを適切に評価できないことが分かった。したがって、AI/MLを活用したコネクテッド医療システムのセキュリティリスクを適切に分析・評価する新しい手法が必要であると結論付けている。
To Another Language
from source content
arxiv.org
Дополнительные вопросы