Core Concepts
대규모 언어 모델(LLM)을 활용하여 실험 물리학 데이터의 이진 분류 문제를 해결하고자 한다.
Abstract
이 논문은 2023년 AI4EIC 해커톤의 내용을 다룹니다. 해커톤의 주요 목표는 대규모 언어 모델(LLM), 특히 ChatGPT를 활용하여 실험 물리학 도메인의 기계 학습(ML) 문제를 해결하고, 참여자들에게 LLM을 도구로 활용하는 경험을 제공하는 것이었습니다.
해커톤 문제는 GlueX 베럴 칼로리미터(BCAL)에서 중성자와 광자를 분류하는 이진 분류 문제였습니다. 참여자들은 ChatGPT 인터페이스를 통해 ML 모델을 구축하고, 최소한의 프롬프트 사용으로 최고의 성능을 달성하는 것이 목표였습니다.
해커톤 인프라는 참여자들이 AWS 인스턴스에서 데이터셋에 접근할 수 있도록 구축되었습니다. 참여자들은 ChatGPT와의 대화 내역을 통해 필요한 코드를 생성하고, 이를 AWS 인스턴스로 전송하여 모델 학습을 수행할 수 있었습니다.
참여자들의 성과는 매우 인상적이었습니다. 내부 테스트 결과 예상했던 92% 정확도를 크게 상회하는 99% 이상의 정확도를 달성했습니다. 이는 참여자들이 LLM을 효과적으로 활용하여 문제를 해결했음을 보여줍니다.
향후 연구에서는 이번 해커톤에서 수집된 프롬프트와 응답 데이터를 활용하여 도메인 전문가 주도의 프롬프트 엔지니어링 기법을 개발하고, 이를 통해 Few-Shot Prompting 및 Zero-Shot Prompting 기법을 발전시킬 수 있을 것으로 기대됩니다.
Stats
실험 물리학 데이터의 특징을 나타내는 14개의 변수가 사용되었습니다.
각 변수는 BCAL의 에너지 분포, 공간적 분포, 시간적 분포 등을 나타냅니다.
이러한 변수들을 활용하여 중성자와 광자를 분류하는 ML 모델을 구축하고자 합니다.
Quotes
"LLM은 코드 작성을 돕는 매우 효과적인 도구입니다. 이번 해커톤에 참여하면서 LLM의 역량을 직접 경험할 수 있었습니다."
"LLM이 제공한 코드 설명은 새로운 분야에 입문하는 연구자들에게 매우 유용할 것 같습니다."