본 논문에서는 유니터리 등변성을 유지하면서도 더욱 다양한 함수를 사용할 수 있도록 피드포워드 유니터리 등변 신경망에 사용되는 활성화 함수의 일반화된 형태를 제안합니다.
심층 신경망(DNN)은 구조 유리와 유사한 점이 있지만, 유리 전이, 케이징 효과, Stokes-Einstein 관계 위반과 같은 전형적인 유리 같은 현상은 나타나지 않습니다. 그러나 시간에 따른 가중치 중첩 함수의 거듭제곱 법칙, 시간-온도 중첩, 동적 이질성 및 에이징과 같은 유리 같은 특성을 보여줍니다.
본 논문은 이상적인 안정적이고 정확한 신경망이 존재하더라도, 분류 작업에서 딥러닝 모델의 안정성과 정확성을 보장하는 데 있어 이론적인 한계가 존재하며, 특히 고차원 데이터에서 이러한 불안정성이 두드러지게 나타남을 보여줍니다.
심층 신경망의 저랭크 레이어는 네트워크의 복잡성을 효과적으로 제어하여 일반화 성능을 향상시키는 데 기여할 수 있습니다.
인간의 언어 획득 과정을 모방한 비지도 학습 환경에서 훈련된 심층 신경망은 음성 데이터에서 단어 연결 및 초기 구문 생성 능력을 자발적으로 보여준다.
본 논문에서는 휴지 상태 기능적 자기 공명 영상(rs-fMRI) 데이터에서 다차원 임상적 심각도를 예측하기 위해 사전 학습과 신경망을 결합한 새로운 통합 최적화 프레임워크를 제안합니다.
인간의 시각-뇌 이해를 위해 양자 컴퓨팅의 얽힘 특성을 활용한 양자-영감 신경망인 Quantum-Brain을 소개하며, fMRI 뇌 신호 분석을 통해 이미지-뇌 상호 연결성을 학습하고 fMRI-to-Image 재구성 및 이미지-뇌 검색 작업에서 우수한 성능을 달성했습니다.
본 논문에서는 텐서 분석 및 기본 행렬 연산을 활용하여 최소 제곱법과 신경망 회귀 모델의 수학적 토대를 새롭게 제시하고, 이를 통해 두 모델의 이론적 기반을 자세히 설명하고 완전한 알고리즘 형태로 확장합니다.
본 논문에서는 물리적 신경망(PNN) 훈련의 기존 과제를 해결하는 새로운 훈련 기술인 Sharpness-Aware Training(SAT)을 제안합니다. SAT는 손실 환경의 기하학적 구조를 활용하여 모델의 일반화 능력을 향상시키고, 모델 부정확성, 제조 편차 및 외부 교란과 같은 아날로그 컴퓨팅 시스템의 일반적인 문제에도 불구하고 손실을 최소화합니다.
무제한 데이터 학습 환경에서 주어진 컴퓨팅 예산 내에서 손실을 최소화하는 최적의 모델 크기와 이에 영향을 미치는 요인을 분석합니다.