Core Concepts
본 논문은 강화 학습 기반의 RL-MUL 프레임워크를 제안하여 곱셈기 설계를 최적화한다. 행렬 및 텐서 표현을 활용하여 합성곱 신경망을 에이전트 네트워크로 통합하고, 면적과 지연 간의 트레이드오프를 고려하는 파레토 기반 보상 함수를 설계한다. 이를 통해 에이전트가 파레토 최적 곱셈기 구조를 학습할 수 있다.
Abstract
본 논문은 곱셈이 많은 응용 분야에서 중요한 연산인 곱셈기 설계 최적화 문제를 다룬다. 곱셈기는 부분 곱 생성기, 압축기 트리, 캐리 전파 가산기로 구성되며, 압축기 트리 최적화가 핵심이다. 기존 수동 설계 및 자동화 방법의 한계를 극복하기 위해 강화 학습 기반의 RL-MUL 프레임워크를 제안한다.
RL-MUL은 행렬 및 텐서 표현을 활용하여 곱셈기 구조를 나타내고, 합성곱 신경망 에이전트를 통해 최적화를 수행한다. 파레토 기반 보상 함수를 설계하여 면적과 지연 간의 트레이드오프를 고려한다. 또한 병렬 강화 학습을 통해 학습 효율을 높인다. 실험 결과, RL-MUL은 기존 방법들을 압도하는 성능의 곱셈기를 생성할 수 있다. 더 나아가 RL-MUL은 융합 곱셈-누산기 설계에도 적용될 수 있다.
Stats
곱셈 연산이 신경망 모델의 99% 이상을 차지한다.
곱셈기 설계 공간이 매우 크다.