활성화 함수 압축을 통해 메모리 사용량을 줄이면서도 정확도 유지가 가능하다.
TinyPropv2는 저전력 마이크로컨트롤러 장치에서의 신경망 학습을 위해 동적으로 희소 역전파를 조정하여 계산 부하를 크게 줄이면서도 정확도를 유지하는 혁신적인 알고리즘이다.
본 연구는 신경망 학습 과정에서 목표 출력을 점진적으로 진화시키는 새로운 방법론을 제안한다. 이를 통해 학습의 안정성과 일반화 능력을 향상시킬 수 있다.
날카로움 인식 최소화(SAM)는 학습 과정에서 안정성의 경계에서 작동하며, 이를 통해 일반화 성능을 향상시킨다.
신경망 학습 시 다양한 소음 주입 방식이 일반화 능력과 보정 성능에 미치는 영향을 체계적으로 탐구하였다.
신경망 모델의 과대 매개변수화에 따라 모델의 복잡도와 입력 변화에 대한 민감도가 증가하며, 이는 일반화 성능의 이중 정점 현상과 관련이 있다.
신경망 학습 동역학과 매개변수 초기화와 관련된 통합 커널(UNK)을 제안하였다. UNK 커널은 유한 학습 단계에서 NTK 커널과 유사한 행동을 보이며, 학습 단계가 무한대로 접근할 때 NNGP 커널로 수렴한다.
일반화된 잠재 균형 (GLE) 프레임워크는 물리적 신경망 시스템에서 복잡한 공간-시간 과제를 효율적으로 학습할 수 있는 생물학적으로 타당한 방법을 제공한다.
완전연결 2층 신경망 학습 문제는 ∃R-완전하다. 즉, 정수 계수의 다변수 다항식의 실근 존재 여부를 결정하는 문제와 다항식 시간 동치이다.
신경망 학습을 위해 메모리 소비가 많은 우도비 방법의 한계를 해결하기 위해 근사 기법을 제안하고, 이를 통해 효율적이고 생물학적으로 타당한 학습 프레임워크를 제시한다.