Core Concepts
의사결정 트리 학습을 마르코프 의사결정 문제로 정식화하고, 정보 이론 기반의 테스트 생성 함수를 사용하여 확장성 있는 알고리즘을 제안한다. 이를 통해 복잡도-성능 간 최적의 절충점을 찾을 수 있으며, 사용자의 요구에 맞는 해석 가능한 의사결정 트리를 선택할 수 있다.
Abstract
이 논문은 의사결정 트리 학습을 마르코프 의사결정 문제(MDP)로 정식화하고, 정보 이론 기반의 테스트 생성 함수를 사용하여 확장성 있는 알고리즘을 제안한다.
의사결정 트리 학습을 MDP로 정식화:
상태 공간: 데이터 부분집합과 깊이
행동 공간: 속성 비교 테스트 및 클래스 할당
보상 함수: 복잡도(평균 테스트 수)와 성능(정확도) 간 절충
테스트 생성 함수:
기존 접근법: 정보 이득이 높은 상위 B개 테스트 반환
제안 방법: 각 상태에서 CART 알고리즘을 사용하여 가장 판별력 있는 테스트 반환
제안 방법이 더 효과적이며, 최적 트리에 근접한 성능 달성
동적 프로그래밍을 통한 최적 정책 계산:
다양한 복잡도-성능 절충점을 가진 최적 트리 집합 도출
CART 대비 일반화 성능 향상 및 평균 테스트 수 감소
실험 결과:
기존 최적화 기반 접근법 대비 성능 및 확장성 향상
사용자 요구에 맞는 해석 가능한 트리 선택 가능
Stats
데이터셋 크기: 1,097 ~ 196,045개의 샘플
속성 수: 3 ~ 27개
클래스 수: 2 ~ 12개