This research paper presents a method for training autonomous surface vessels (ASVs) to dock autonomously by leveraging expert demonstration data and a deep inverse reinforcement learning (IRL) framework.
本文提出了一種名為對比語言提示(CLAP)的新方法,旨在利用視覺語言模型(VLM)提高醫學異常檢測的準確性,並減少僅使用正面提示時常見的偽陽性問題。
本稿では、AIによる聴診診断を進化させるために、大規模な聴診音データセット「AuscultaBase-Corpus」、聴診診断のための基盤モデル「AuscultaBase-Model」、そして評価のための包括的なベンチマーク「AuscultaBase-Bench」を構築し、その有効性を検証した。
本文提出了一種名為 HiCoM 的高效線上動態場景重建框架,該框架利用分層式一致性運動機制和持續優化策略,顯著提升了基於三維高斯樣條函數的動態場景線上重建效率和穩定性。
본 논문에서는 의료 영상 이상 탐지에서 거짓 양성을 줄이기 위해 대조적 언어 프롬프팅(CLAP)이라는 새로운 방법을 제안합니다. CLAP은 양성 프롬프트와 음성 프롬프트를 모두 활용하여 의료 영상에서 병변 영역을 정확하게 식별하고 정상 영역에 대한 관심을 억제함으로써 거짓 양성을 효과적으로 줄입니다.
本文提出了一種針對邊緣設備優化的 Xception 架構,採用深度可分離卷積和深度殘差卷積來減少模型參數、內存使用和計算負擔,並通過實驗證明了其在 CIFAR-10 數據集上的有效性。
This paper introduces AuscultaBase, a novel framework designed to improve body sound diagnostics by leveraging a large-scale, multi-source body sound database and contrastive learning techniques to train a robust diagnostic model.
본 논문에서는 엣지 장치에 효율적으로 배포하기 위해 뎁스와이즈 분리 가능 컨볼루션과 딥 레지듀얼 연결을 결합한 Xception 아키텍처의 최적화된 변형을 제안합니다.
본 논문에서는 스트리밍 가능한 동적 장면의 온라인 재구성을 위한 효율적인 프레임워크인 HiCoM을 제안하며, 계층적 일관 운동 메커니즘을 통해 빠르고 효율적인 학습과 압축된 표현을 가능하게 하여 실시간 3D 비디오 합성 및 스트리밍에 적합하도록 설계되었습니다.
本稿では、医用画像における異常検出において、視覚言語モデルを用いた際に生じる偽陽性を軽減するための新たな手法、対照言語プロンプト(CLAP)を提案する。