Core Concepts
대규모 언어 모델을 활용하여 효율적인 신경형 컴퓨팅 아키텍처 개발을 지원하고 자동화할 수 있다.
Abstract
이 논문은 대규모 언어 모델(LLM)을 활용하여 하드웨어 설명 코드를 자동으로 생성하는 방법을 조사한다. 특히 OpenAI의 ChatGPT4와 자연어 프롬프트를 사용하여 프로그래밍 가능한 순환 스파이킹 신경망(RSNN)의 RTL Verilog 모듈을 합성하고 시스템의 정확성을 평가하기 위한 테스트 벤치를 생성한다.
생성된 설계는 세 가지 사례 연구(XOR, IRIS 꽃 분류, MNIST 필기체 숫자 분류)에서 최대 96.6%의 정확도를 달성했다. 또한 합성 가능성과 구현 가능성을 검증하기 위해 FPGA에 프로토타입을 구현하고 SkyWater 130nm 기술을 사용하여 구현했다. 향후 Tiny Tapeout 6 칩 제작 프로그램에 제출하여 온칩 성능을 평가할 계획이다.
Stats
제안된 RSNN 하드웨어 설계는 FPGA에서 1011 LUT와 507 FF를 사용하며, 최대 클록 주파수는 83MHz이다.
전력 분석 결과, 총 전력 소비는 65mW이며, 이 중 동적 전력은 4mW, 정적 전력은 61mW이다.
SkyWater 130nm 기술로 구현한 결과, 면적은 0.11mm^2이며 총 5187개의 셀로 구성된다.
Quotes
"대규모 언어 모델(LLM)과 전자 설계 자동화(EDA) 도구를 결합하면 하드웨어 설명 코드를 자동으로 생성할 수 있는 실용적인 솔루션을 제공할 수 있다."
"제안된 RSNN 하드웨어 설계는 FPGA 프로토타입 및 SkyWater 130nm 기술에서 구현되었으며, 다양한 사례 연구에서 최대 96.6%의 정확도를 달성했다."