แนวคิดหลัก
본 논문에서는 실수값 함수의 최적화를 위해 최근에 도입된 혼합 뉴턴 방법(MNM)을 수정하여 적용하고, 특히 실변수 함수를 복소 공간으로 확장하여 적용하는 방법을 제시합니다.
บทคัดย่อ
복소 공간에서 최적화를 위한 정규화된 혼합 뉴턴 방법과 실변수 함수 최적화への 적용
본 연구 논문에서는 복소 변수의 실수값 함수를 최소화하기 위해 고안된 혼합 뉴턴 방법(MNM)을 수정하여 실변수 함수의 최소화에 적용하는 방법을 제시합니다. 이를 위해 실변수 함수를 복소 공간으로 확장하고, 정규화를 통해 혼합 뉴턴 방법의 지역적 수렴 특성을 유지하면서 복소 최소값으로의 수렴을 방지하는 방법을 제안합니다. 또한 실제 매개변수와 복소 매개변수를 사용하여 신경망을 학습하는 데 적용된 여러 가지 변형된 방법을 비교 분석합니다.
1. 혼합 뉴턴 방법(MNM)과 정규화
기존의 MNM은 복소 변수 z ∈ Cn에 대한 함수 f(z) = Σ|gj(z)|^2 (gj는 정칙 함수)를 최소화하는 데 사용됩니다. 이 방법은 현재 지점 zk에서 Wirtinger 미분으로 계산된 그라디언트와 헤세 행렬을 사용하여 반복적으로 업데이트하는 방식으로 동작합니다.
본 논문에서는 MNM의 헤세 행렬에 양의 정부호 정규화 행렬 P를 추가하여 정규화된 혼합 뉴턴 방법(RMNM)을 제안합니다. 이는 정규화된 혼합 헤세 행렬이 항상 양의 정부호가 되도록 하여 안정적인 수렴을 보장하고, 적절한 P 값을 선택하여 단계 크기를 조절할 수 있도록 합니다.
2. 실 해석 함수의 최소화
본 논문에서는 RMNM을 사용하여 단순 연결 영역 DR ⊆ Rn에서 실 해석 함수 F를 최소화하는 방법을 제시합니다. 이를 위해 함수 F를 복소 공간의 영역 DC ⊆ Cn으로 확장하여 정칙 함수 g : DC → C에 대한 형태 |g|^2의 함수를 생성합니다.
그러나 이러한 직접적인 접근 방식은 두 가지 문제점을 가지고 있습니다. 첫째, 혼합 헤세 행렬의 계산에 사용되는 합이 단 하나의 항으로 구성되어 랭크가 1이 됩니다. 둘째, f의 최소값이 복소 평면에 위치할 수 있으며, DR에서 f의 지역 최소값이 DC에서 f의 안장점이 될 수 있습니다.
이러한 문제를 해결하기 위해 본 논문에서는 f에 정칙 함수의 제곱합을 추가하는 방법을 제안합니다. 이는 복소 평면으로의 편차를 페널티로 부과하면서 DR에서 f의 값을 크게 변경하지 않습니다. 동시에 혼합 헤세 행렬에 추가 항을 추가하여 행렬을 정규화하고 양의 정부호로 만듭니다.
3. 실험 결과
본 논문에서는 RMNM과 기존의 뉴턴 방법(ONM)을 비교하는 실험을 수행했습니다. 실험 결과, RMNM은 항상 전역 최소값으로 수렴하는 반면, ONM은 지역 최소값이나 안장점으로 수렴하는 경우가 발생했습니다. 이는 RMNM이 복소 공간에서 안장점을 밀어내는 특성을 가지고 있기 때문입니다.