Core Concepts
도메인 적응형 대규모 언어 모델은 일반 목적 대규모 언어 모델에 비해 칩 설계 코딩 지원 작업에서 뛰어난 성능과 90-95%의 총 소유 비용 절감을 달성할 수 있다.
Abstract
이 연구는 칩 설계 코딩 지원을 위한 도메인 적응형 대규모 언어 모델(ChipNeMo)과 최신 대규모 언어 모델(Claude 3, ChatGPT-4 Turbo)의 성능 및 총 소유 비용(TCO)을 비교 분석한다.
도메인 적응형 사전 학습(DAPT)과 감독 학습 미세 조정(SFT) 기법을 통해 ChipNeMo 모델을 개발했다. 이 모델은 EDA(Electronic Design Automation) 도구 코드 생성 작업에서 79%의 높은 정확도와 가장 빠른 추론 속도를 보였다. 반면 일반 목적 모델인 Claude 3와 ChatGPT-4 Turbo는 각각 68%와 70%의 정확도를 보였다.
TCO 분석 결과, ChipNeMo의 TCO는 Claude 3와 ChatGPT-4 Turbo에 비해 각각 24-33배, 18-25배 낮은 것으로 나타났다. 이는 도메인 적응형 모델의 더 작은 모델 크기와 효율적인 학습 방법 덕분이다. 특히 규모의 경제 효과로 인해 대규모 배포 환경에서 ChipNeMo의 비용 이점이 더욱 두드러진다.
이 연구 결과는 칩 설계 산업뿐만 아니라 다양한 분야의 코딩 및 소프트웨어 개발 지원을 위한 적절한 대규모 언어 모델 선택에 도움을 줄 것이다.
Stats
도메인 적응형 사전 학습(DAPT)에 100GPU 시간이 소요되었으며, 120 million 토큰을 처리했다.
감독 학습 미세 조정(SFT)에 4GPU 시간이 소요되었으며, 5 million 토큰을 처리했다.
낮은 작업량 기준 ChipNeMo의 총 비용은 $508, ChatGPT-4 Turbo는 $9,000, Claude 3는 $12,000이다.
평균 작업량 기준 ChipNeMo의 총 비용은 $808, ChatGPT-4 Turbo는 $18,000, Claude 3는 $24,000이다.
높은 작업량 기준 ChipNeMo의 총 비용은 $1,208, ChatGPT-4 Turbo는 $30,000, Claude 3는 $40,000이다.