유방암 검진에서 인공지능 기반 제외 장치의 성능을 평가하기 위해 기대 효용(EU) 방법을 적용하여 기존 방법의 한계를 극복할 수 있다.
심장 CT 영상에서 추출한 국소적 부피 및 밀도 특성과 나이 간의 연관성을 supervoxel 기반으로 분석하여 심장 노화 패턴을 이해하고자 하였다.
LMOD는 안과 영상 이해, 진단 분석, 인구통계 추출을 위한 대규모 다중 모달 데이터셋 및 벤치마크이다. 이를 통해 13개의 최신 대규모 비전-언어 모델의 성능을 평가한 결과, 안과 영상 이해, 진단 분석, 인구통계 추출 등에서 여전히 많은 한계가 있음을 확인하였다.
본 연구는 3D MRI 영상을 활용하여 알츠하이머 질환을 진단하고 설명 가능한 인공지능 모델을 제안한다. 제안 모델은 2D CNN 기반 주의 집중 메커니즘을 통해 3D 영상의 중요 영역을 강조하여 진단 결과를 설명할 수 있다.
본 연구는 Modal-Domain Attention (MDA)라는 새로운 다중 모달리티 융합 프레임워크를 제안하여, 모달리티 간 선형 주의 관계를 구축함으로써 각 모달리티의 가중치를 동적으로 조정하여 다중 모달리티 정보를 효과적으로 융합할 수 있도록 한다.
다양한 의료 센터의 전문가들이 참여한 다중 모달 생성 AI 모델은 기존 모델에 비해 전립선암 방사선 치료 표적 윤곽 설정 성능이 우수하며, 의료 센터 간 차이를 효과적으로 반영할 수 있다.
BioFace3D는 자기공명영상에서 추출한 3D 얼굴 모델을 이용하여 자동으로 얼굴 생체지표를 계산하는 파이프라인이다.
본 연구는 의료 방사선 이미지 표현 학습을 위한 혁신적인 접근법인 HybridMED 프레임워크를 제안한다. HybridMED는 이미지와 텍스트 간의 다수준 의미 계층을 효과적으로 활용하여 대조 학습과 생성 학습을 결합한다. 이를 통해 다양한 하위 작업에서 우수한 성능을 달성한다.
ReXplain은 복잡한 방사선 보고서를 쉬운 언어로 변환하고, 관련 해부학적 영역을 강조하며, 3D 장기 렌더링과 아바타 설명가를 통해 환자 이해도를 높이는 혁신적인 AI 기반 시스템입니다.
X-레이 영상 기반 의료 보고서 생성은 의사의 진단 부담을 크게 줄이고 환자 대기 시간을 단축할 수 있는 핵심 인공지능 분야이다. 그러나 제한된 벤치마크 데이터셋과 기존 대형 모델의 성능 향상 한계로 인해 이 과제에 정체기가 도래했다. 이에 저자들은 CheXpert Plus 데이터셋에 대한 종합적인 벤치마킹을 수행하고, 다단계 사전 학습 전략을 활용한 새로운 대형 모델 MambaXray-VL을 제안하여 최신 성과를 달성했다.