학습된 데이터베이스 작업 (인덱싱, 카디널리티 추정, 범위 합계 추정)에서 원하는 정확도를 달성하기 위해 필요한 모델 크기에 대한 이론적 하한선을 제시하고, 최악의 경우와 평균적인 경우의 오류 시나리오를 고려하여 데이터 크기, 데이터 차원 및 정확도 간의 관계를 분석합니다.
This paper establishes the first theoretical lower bounds on the model size required for learned database operations (indexing, cardinality estimation, and range-sum estimation) to achieve guaranteed error bounds, demonstrating the relationship between model size, data size, and accuracy.
This paper presents a theoretical framework for analyzing the performance of learned database operations (indexing, cardinality estimation, sorting) in dynamic datasets, demonstrating their potential to outperform traditional methods under certain distribution shift conditions.