Core Concepts
본 연구는 오류 허용 가능한 양자 컴퓨팅 아키텍처에 통합하기 위해 T-깊이를 최소화하는 ReLU 및 Leaky ReLU 활성화 함수의 양자 회로 구현을 제안한다. 또한 양자 룩업 테이블을 활용하여 시그모이드 등 다른 활성화 함수를 구현하고, 정밀도와 T-깊이를 조정할 수 있는 방법을 제시한다.
Abstract
본 연구는 양자 기계 학습에서 핵심적인 역할을 하는 활성화 함수의 양자 회로 구현에 초점을 맞추고 있다. 특히 오류 허용 가능한 양자 컴퓨팅 아키텍처에 통합하기 위해 T-깊이를 최소화하는 것을 목표로 한다.
구체적으로 다음과 같은 내용을 다루고 있다:
- ReLU 및 Leaky ReLU 활성화 함수의 양자 회로 구현
- ReLU 함수의 경우 상수 T-깊이 4를 달성
- Leaky ReLU 함수의 경우 상수 T-깊이 8을 달성
- 양자 룩업 테이블을 활용하여 시그모이드, 소프트맥스, 하이퍼볼릭 탄젠트, Swish, ELU, GELU 등 다른 활성화 함수 구현
- 입출력 비트 수와 앵실라 수의 트레이드오프를 고려하여 T-깊이 최소화
- 제안된 양자 회로 구현은 양자 기계 학습의 실용성과 적용 범위를 높이는 데 기여할 것으로 기대된다.
Stats
기존 ReLU 구현 대비 제안한 ReLU 회로의 T-깊이는 4로 상수이다.
제안한 Leaky ReLU 회로의 T-깊이는 8로 상수이다.
Quotes
"본 연구는 오류 허용 가능한 양자 컴퓨팅 아키텍처에 통합하기 위해 T-깊이를 최소화하는 ReLU 및 Leaky ReLU 활성화 함수의 양자 회로 구현을 제안한다."
"양자 룩업 테이블을 활용하여 시그모이드, 소프트맥스, 하이퍼볼릭 탄젠트, Swish, ELU, GELU 등 다른 활성화 함수를 구현하고, 입출력 비트 수와 앵실라 수의 트레이드오프를 고려하여 T-깊이를 최소화한다."