แนวคิดหลัก
랜덤 벡터 기능 링크 신경망은 컴팩트 다양체 상의 연속 함수를 효과적으로 근사할 수 있다. 이 논문에서는 이러한 근사 능력에 대한 이론적 보장을 제공한다.
บทคัดย่อ
이 논문은 랜덤 벡터 기능 링크(RVFL) 신경망의 함수 근사 능력에 대한 이론적 분석을 다룹니다.
기존의 Igelnik and Pao 정리를 수정 및 보완하여 RVFL 신경망이 컴팩트 영역에서 연속 함수를 근사할 수 있음을 보였습니다. 이때 근사 오차가 노드 수에 반비례하여 감소함을 보였습니다.
비대칭적 설정에서도 RVFL 신경망이 원하는 정확도로 함수를 근사할 수 있음을 보였습니다. 이를 위해 몬테카를로 적분 기법과 집중 불등식을 활용하였습니다.
더 나아가 RVFL 신경망을 매끄러운 컴팩트 다양체 상의 함수 근사에 적용하는 새로운 구조를 제안하였습니다. 이에 대한 이론적 보장을 비대칭적 및 대칭적 설정에서 모두 제시하였습니다.
마지막으로 다양체 상의 함수 근사에 대한 수치 실험 결과를 보여주었습니다.
สถิติ
랜덤 변수 wk는 [-αΩ, αΩ]^N 구간의 균일 분포에서 추출된다.
랜덤 변수 yk는 K 영역의 균일 분포에서 추출된다.
랜덤 변수 uk는 [-π^2(2L+1), π^2(2L+1)] 구간의 균일 분포에서 추출된다.
여기서 L = ⌈2N/(πrad(K)Ω^-1/2)⌉이다.
คำพูด
"랜덤 벡터 기능 링크 신경망은 컴팩트 다양체 상의 연속 함수를 효과적으로 근사할 수 있다."
"RVFL 신경망은 제한된 데이터 환경에서도 신뢰할 수 있는 성능을 보인다."