Transformerモデルを用いて、テニス選手の体の関節の位置情報、過去の軌跡、ボールの位置から将来の動きを予測するPose2Trajectoryモデルを提案する。
This research introduces Pose2Trajectory, a novel method using a Transformer-based encoder-decoder model to predict a tennis player's future trajectory based on body pose, past trajectory, and ball position, aiming to automate camera tracking in tennis broadcasts.
本文提出了一種名為 SGRS-Net 的新型半監督醫學圖像分割框架,旨在解決偽標籤中的噪聲問題,並有效利用偽標籤進行模型訓練。
본 논문에서는 레이블링된 데이터가 제한적인 의료 영상 분할 문제를 해결하기 위해 의사 레이블의 시너지 기반 영역 감독(Synergy-Guided Regional Supervision)을 활용한 새로운 준지도 학습 프레임워크인 SGRS-Net을 제안합니다.
CFPNet improves depth completion accuracy in areas outside the limited range of lightweight ToF sensors by employing two novel feature propagation modules: DAPM (direct-attention-based) and LKPM (large-kernel-based), enabling more effective utilization of depth information from within the sensor's field of view.
本文評測比較了 YOLOv5、YOLOv6、YOLOv7 和 YOLOv8 四種模型在 COCO-Bridge-2021+ 資料集上的效能,發現 YOLOv8n、YOLOv7tiny、YOLOv6m 和 YOLOv6m6 在準確度和推理時間之間取得了最佳平衡,適合應用於無人機橋樑檢測。
드론 기반 교량 검사의 자동화를 위해 다양한 YOLO 모델의 성능을 비교 분석한 결과, 정확도와 처리 속도 측면에서 YOLOv8n, YOLOv7tiny, YOLOv6m, YOLOv6m6 모델이 최적의 균형을 제공하는 것으로 나타났습니다.
本稿では、UAVを用いた橋梁点検において、処理速度と精度のバランスに優れた深層学習モデルを特定することを目的とし、最新のYOLO系モデルのベンチマーク分析を行った結果、YOLOv8n、YOLOv7tiny、YOLOv6m、YOLOv6m6が最適なモデルとして選定された。
This research benchmarks four YOLO deep learning model variants (YOLOv5, YOLOv6, YOLOv7, YOLOv8) for bridge component detection using the COCO-Bridge-2021+ dataset, identifying YOLOv8n, YOLOv7tiny, YOLOv6m, and YOLOv6m6 as offering the best balance between accuracy and processing speed for potential use in UAV-based bridge inspection systems.
FreeCap 是一種新穎的混合無需校準方法,它結合了單個 LiDAR 和可擴展移動相機的優勢,能夠在開放環境中準確捕捉全局多人運動。