Grunnleggende konsepter
마르코프 논리 네트워크(MLN)의 도메인 크기에 따른 일반화 행동을 분석하고, 매개변수 분산을 줄이는 것이 MLN의 일반화 성능을 향상시킬 수 있음을 보여줍니다.
Sammendrag
이 논문은 관계형 데이터에서 매개변수 추정의 일관성 문제를 다룹니다. 관계형 데이터의 경우 관찰된 데이터 크기가 증가해도 최대 우도 추정치가 진정한 모델 매개변수로 수렴하지 않습니다. 이는 MLN과 같은 통계적 관계 학습 모델의 도메인 크기에 따른 일반화 성능 저하로 이어집니다.
논문의 주요 내용은 다음과 같습니다:
- MLN의 도메인 크기 일반화 개념을 정의하고, 이를 수학적으로 분석합니다.
- MLN의 매개변수 분산과 도메인 크기 간 관계를 분석하여, 매개변수 분산을 줄이는 것이 도메인 크기 일반화 성능을 향상시킬 수 있음을 보여줍니다.
- 매개변수 분산을 줄이는 정규화 기법과 도메인 크기 인식 MLN이 실제로 일반화 성능을 향상시킨다는 것을 실험적으로 검증합니다.
Statistikk
관찰된 도메인 크기 n과 더 큰 도메인 크기 n+m에 대한 MLN의 가중치 함수 w(ω)의 상한과 하한은 다음과 같습니다:
w(ω) ≤ w(ω ↓[n]) × w(ω ↓[¯
n]) × Mmax
w(ω) ≥ w(ω ↓[n]) × w(ω ↓[¯
n]) × Mmin
여기서 Mmax와 Mmin은 MLN의 k-가중치 함수 wk의 최댓값과 최솟값의 곱으로 정의됩니다.
이를 통해 n+m 도메인에서의 분포 P(n+m)
Φ
↓[n]과 n 도메인에서의 분포 P(n)
Φ
사이의 KL divergence를 다음과 같이 상한할 수 있습니다:
KL(P(n+m)
Φ
↓[n] || P(n)
Φ
) ≤ log(Mmax / Mmin)
Sitater
"관계형 데이터의 경우 관찰된 데이터 크기가 증가해도 최대 우도 추정치가 진정한 모델 매개변수로 수렴하지 않는다."
"매개변수 분산을 줄이는 것이 도메인 크기 일반화 성능을 향상시킬 수 있다."