データ効率的で自己認識的な前提条件誘導による対話型タスク学習
STAND は、小規模データの表形式分類問題において、一般的なアプローチよりも高い分類精度を実現する、データ効率的かつ計算効率的なマシンラーニングアプローチである。STAND は、単一の一般化を選択するのではなく、良候補一般化の完全なセットを考慮する。STAND は、決定木学習や順次カバーリングなどの任意の貪欲概念構築戦略を使用でき、論理的ディスジャンクティブ正規ステートメントのバージョンスペースを近似する構造を構築する。STAND は、ノイズデータによるバージョンスペースの崩壊の問題に悩まされず、厳密に共役概念を学習する必要もない。さらに重要なことに、STAND は、ホールドアウトセットのパフォーマンスの増加を予測できる「インスタンス確実性」という尺度を生成できる。インスタンス確実性により、STAND は自身の学習について自己認識することができ、何を学習しているか、どのような例が最も学習に役立つかを知ることができる。