이벤트 카메라는 생체 모방 센서로, 픽셀 단위로 비동기적으로 밝기 변화를 감지하여 이벤트 스트림을 생성한다. 이벤트 카메라는 높은 시간 해상도, 높은 동적 범위, 낮은 지연 등의 장점을 가지고 있어 컴퓨터 비전 및 로봇 분야에서 프레임 기반 카메라의 한계를 극복할 수 있다. 최근 심층 학습이 이 새로운 분야에 도입되면서 활발한 연구가 진행되고 있다. 본 논문에서는 이벤트 데이터 표현, 이벤트 기반 이미지/비디오 복원 및 향상, 이벤트 기반 장면 이해 및 3D 비전 등 심층 학습 기반 이벤트 비전 기술에 대해 포괄적으로 조사하고 벤치마크 실험을 수행한다.
제안된 EDA 접근법은 이벤트 데이터 연관성 분석과 정보 융합 문제를 효과적이고 명시적으로 해결하기 위해 이벤트 데이터에 대한 모델 피팅을 수행합니다.
상태 공간 모델을 사용하여 사건 카메라 데이터를 효율적으로 처리하고 다양한 추론 주파수에서 성능 저하를 최소화할 수 있다.
EVREAL은 이벤트 기반 비디오 재구성 방법을 종합적으로 벤치마크하고 분석하기 위한 통합 평가 파이프라인을 제공한다.
이벤트 데이터에 대한 정확한 의미 분할을 위해 이벤트 데이터와 이벤트-이미지 변환 데이터를 활용한 하이브리드 의사 레이블링 기법을 제안한다. 이를 통해 단일 소스의 노이즈 있는 의사 레이블의 한계를 극복하고, 타깃 도메인 특징의 일관성을 향상시킨다.
이 논문은 이미지 모달리티에 대한 레이블이 없는 상황에서 이벤트 모달리티로의 크로스 모달 적응을 달성하는 첫 시도를 한다. 이를 위해 재구성 기반 모달리티 브리징 모듈과 다중 표현 지식 적응 모듈을 제안한다.
이 논문은 이벤트 기반 객체 인식을 위한 무감독 소스 프리 크로스 모달 적응 문제를 다룹니다. 이를 위해 이벤트 데이터에서 이미지 도메인을 재구성하고 다중 표현 지식 전이를 수행합니다.
이벤트 데이터만을 이용하여 고품질의 비디오 재구성과 신뢰할 수 있는 밀집 광학 흐름 추정을 동시에 달성하는 CISTA-Flow 네트워크를 제안한다.
이벤트 카메라에서 생성되는 이벤트 스트림을 실시간으로 압축하기 위해 유동 기반 예측 기법을 사용하여 데이터 전송량을 크게 줄일 수 있다.
이벤트 기반 이동 물체 탐지에서 공간적 추론과 시간적 추론을 통합하여 이동 물체의 완전한 구조를 추출할 수 있다.