본 논문은 신경망 구조 탐색(Neural Architecture Search, NAS) 문제를 다룹니다. NAS는 지난 10년간 컴퓨터 비전, 자연어 처리, 강화 학습 등 다양한 분야에서 큰 발전을 이루어왔습니다. 이러한 발전은 더 나은 신경망 구조를 찾는 노력에 힘입은 바가 크습니다.
저자들은 강화 학습 기반의 새로운 NAS 방법론을 제안합니다. 이 방법론은 단일 최적의 구조를 찾는 것이 아니라, 좋은 구조를 탐색하는 방법을 학습합니다. 이를 통해 검색 공간의 크기에 따른 확장성을 높이고자 합니다.
저자들은 NAS-Bench-101과 NAS-Bench-301 벤치마크에서 제안한 방법론의 효과를 평가합니다. 또한 랜덤 탐색, 지역 탐색 등 다양한 강력한 기준 알고리즘과 비교합니다.
실험 결과, 제안한 강화 학습 에이전트가 검색 공간의 크기 증가에 따른 확장성이 뛰어난 것으로 나타났습니다. 하지만 하이퍼파라미터 변화에 대한 강건성은 제한적인 것으로 확인되었습니다.
A otro idioma
del contenido fuente
arxiv.org
Ideas clave extraídas de
by Amber Cassim... a las arxiv.org 10-03-2024
https://arxiv.org/pdf/2410.01431.pdfConsultas más profundas