데이터셋 축소를 위한 효율적인 미니맥스 확산 기법
데이터셋 축소는 대규모 데이터셋의 풍부한 정보를 작은 대체 데이터셋에 담아내어 학습 시 필요한 저장 공간과 계산 자원을 줄이는 것을 목표로 한다. 본 연구에서는 확산 모델을 활용하여 대체 데이터셋을 생성하는 새로운 방법을 제안한다. 대체 데이터셋의 대표성과 다양성을 향상시키기 위해 추가적인 미니맥스 기준을 확산 모델 학습에 도입하였다. 이를 통해 기존 방법들에 비해 훨씬 적은 계산 자원으로도 최신 수준의 성능을 달성할 수 있음을 보였다.