Core Concepts
하드웨어 비결정성으로 인한 모델 학습 결과의 차이를 해결하기 위해, 더 높은 정밀도로 학습하고 중간 계산 단계에서 반올림하는 방법을 제안한다. 이를 통해 감사자와 학습자가 동일한 학습 결과를 얻을 수 있다.
Abstract
이 논문은 AI 시스템의 계산 요구량 증가로 인해 등장한 모델 학습 서비스의 정확성을 보장하는 방법을 제안한다. 기존의 검증 가능한 학습 방법은 크게 두 가지로 나뉘는데, 하나는 암호화 기술을 사용하는 증명 기반 시스템이고 다른 하나는 신뢰할 수 있는 제3자 감사자가 학습 과정을 복제하는 "낙관적" 방법이다. 후자의 경우 GPU 유형 간 하드웨어 비결정성으로 인해 감사자가 학습 과정을 정확히 복제할 수 없는 문제가 있다.
이 논문에서는 더 높은 정밀도로 학습하고 중간 계산 단계에서 반올림하는 방법을 제안한다. 이를 통해 감사자와 학습자가 동일한 학습 결과를 얻을 수 있다. 또한 반올림 결정을 기록하여 감사자가 이를 따라할 수 있게 한다. 이 방법을 통해 ResNet-50과 GPT-2 모델에 대해 NVIDIA A40, Titan XP, RTX 2080 Ti GPU 간 완벽한 학습 결과 복제를 달성했다. 또한 기존 방법 대비 저장 공간과 시간 비용을 크게 줄일 수 있었다.
Stats
제안 방법을 사용하면 ResNet-50과 GPT-2 모델 학습 시 NVIDIA A40, Titan XP, RTX 2080 Ti GPU 간 완벽한 학습 결과 복제가 가능하다.
제안 방법의 학습 시간은 기존 방법 대비 1.2-1.7배 증가한다.
제안 방법의 저장 공간 요구량은 기존 방법 대비 최대 140배 감소한다.
Quotes
"하드웨어 비결정성으로 인한 모델 학습 결과의 차이를 해결하기 위해, 더 높은 정밀도로 학습하고 중간 계산 단계에서 반올림하는 방법을 제안한다."
"이 방법을 통해 ResNet-50과 GPT-2 모델에 대해 NVIDIA A40, Titan XP, RTX 2080 Ti GPU 간 완벽한 학습 결과 복제를 달성했다."
"제안 방법의 저장 공간 요구량은 기존 방법 대비 최대 140배 감소한다."