แนวคิดหลัก
민감한 일반화 선형 모델의 핵심 개념을 연구하고 새로운 최적 비율을 제시합니다.
บทคัดย่อ
이 논문은 민감한 일반화 선형 모델의 핵심 개념과 새로운 결과를 다룹니다. 선형 예측기의 민감한 학습 문제를 연구하고, 다양한 손실 함수에 대한 결과를 제공합니다. 또한, Lipschitz 손실에 대한 이전 연구를 재방문하고 최적 비율을 제시합니다. 알고리즘은 사전 지식 없이 명시된 비율을 달성하기 위해 개발되었습니다. 또한, 모델 선택 접근 방식을 개발하여 명시된 비율을 달성할 수 있도록 합니다.
Abstract
- 선형 예측기의 민감한 학습 문제를 연구합니다.
- 두 가지 손실 함수 하위 클래스에 대한 결과 제공
- Lipschitz 손실에 대한 이전 연구 재방문
Introduction
- 머신러닝 알고리즘에서 사용자 데이터의 개인 정보 보호를 보장하는 것이 중요합니다.
- 다양한 기본 머신러닝 작업에 대한 알려진 위험 보장이 잠재적으로 최적이 아닐 수 있음
Related Work
- 민감한 머신러닝은 10년 이상 철저히 연구되어 왔습니다.
- Lipschitz-convex 설정에서는 경계 설정에 대한 정확한 비율이 알려져 있습니다.
Our Contributions
- 부드러운 비음수 GLM에 대한 새로운 거의 최적 비율 제시
- 저차원 및 고차원 체제에서 새로운 상한 및 하한 제시
Techniques
- 상한 알고리즘 및 차원 축소를 기반으로 한 두 가지 기술 제시
- 저차원 및 고차원 체제에서 새로운 상한 및 하한 제시
สถิติ
이 논문은 특정한 통계치나 중요한 수치를 포함하고 있지 않습니다.
คำพูด
"Ensuring privacy of users’ data in machine learning algorithms is an important desideratum for multiple domains."
"Our primary contribution is a new and nearly optimal rate for the problem of differentially private learning of smooth GLMs."