Core Concepts
다중 전문가 대규모 언어 모델 아키텍처를 활용하여 설계 복잡도에 따라 더 정확한 Verilog 코드를 생성할 수 있다.
Abstract
이 연구에서는 Verilog 코드 생성을 위한 혁신적인 다중 전문가 대규모 언어 모델 아키텍처(MEV-LLM)를 소개한다. 이 아키텍처는 각각 서로 다른 설계 복잡도 수준의 데이터셋으로 fine-tuning된 여러 개의 대규모 언어 모델을 통합한다. 이를 통해 각 복잡도 수준에 맞는 Verilog 코드를 더 정확하게 생성할 수 있다.
또한 이 연구에서는 설계 복잡도에 따라 분류된 데이터셋을 개발하였다. 각 데이터 항목에는 상세한 설명이 포함되어 있어 모델 fine-tuning 과정을 개선할 수 있다.
실험 결과, 제안된 다중 전문가 접근 방식은 기존 접근 방식에 비해 Verilog 코드 생성 성능을 최대 23.9% 향상시켰다. 이는 자동화된 하드웨어 설계 분야에서 기계 학습의 활용이 크게 발전할 수 있음을 보여준다.
Stats
제안된 MEV-LLM 아키텍처는 기존 접근 방식에 비해 Verilog-Machine 데이터셋에서 최대 23.9%, Verilog-Human 데이터셋에서 최대 23.4% 더 높은 pass@k 성능을 보였다.
정제된 데이터셋을 사용한 fine-tuning은 기존 연구 대비 최대 9.8%의 pass@k 성능 향상을 보였다.
Quotes
"다중 전문가 LLM 아키텍처는 각 복잡도 수준에 맞는 Verilog 코드를 더 정확하게 생성할 수 있다."
"제안된 접근 방식은 자동화된 하드웨어 설계 분야에서 기계 학습의 활용이 크게 발전할 수 있음을 보여준다."