Core Concepts
SRBO-ν-SVM은 ν-SVM에 대한 안전한 스크리닝 규칙과 이중 최적화를 제안하며, 대규모 문제의 훈련 오버헤드를 줄이고 예측 정확도를 희생하지 않는다.
Abstract
SVM은 머신러닝에서 성공을 거두었으며, ν-SVM은 C-SVM의 성공적인 수정으로, ν를 소개하여 모델 해석 가능성을 향상시켰다.
SRBO-ν-SVM은 안전한 스크리닝 규칙을 제안하고, 이를 통해 비활성 샘플을 식별하여 계산 비용을 줄이고 메모리를 절약한다.
DCDM은 대규모 선형 SVM에 대한 효율적인 이중 좌표 하강 방법을 제안하고, ThunderSVM 소프트웨어 툴킷은 GPU 및 멀티코어 CPU의 고성능을 활용한다.
SRBO-ν-SVM은 ν-SVM 및 OC-SVM에 대한 안전한 스크리닝 규칙을 제공하며, 이를 통해 효율적인 훈련을 실현한다.
Stats
ν-SVM의 최적해를 결정하는 상한과 하한을 결정하는 이론적 결과를 제공한다.
SRBO-ν-SVM의 스크리닝 규칙을 설명하는 수식을 제공한다.
Quotes
"Our SRBO-ν-SVM is strictly deduced by integrating the Karush-Kuhn-Tucker (KKT) conditions, the variational inequalities of convex problems and the ν-property."
"To address this issue, we propose a safe screening rule with bi-level optimization for ν-SVM (SRBO-ν-SVM) which can screen out inactive samples before training and reduce the computational cost without sacrificing the prediction accuracy."