Conceitos essenciais
本稿では、特徴量の部分情報分解(PIDF)と呼ばれる新しいデータ解釈と特徴量選択の手法を提案する。PIDFは、従来の特徴量重要度のように単一の値を割り当てるのではなく、各特徴量に対して、ターゲット変数との相互情報量、相乗情報への貢献度、冗長情報の量の3つの指標を用いることで、複雑な特徴量間の相互作用を明らかにし、データの解釈と最適な特徴量選択を同時に行うことを可能にする。
Resumo
特徴量の解釈可能性と特徴量選択のための部分情報分解:論文要約
Westphal, C., Hailes, S., & Musolesi, M. (2024). Partial Information Decomposition for Data Interpretability and Feature Selection. arXiv preprint arXiv:2405.19212v3.
本研究は、機械学習におけるデータ解釈可能性と特徴量選択の問題に対して、特徴量間の複雑な相互作用を明らかにし、解釈可能な形で表現できる新しい手法である**特徴量の部分情報分解(PIDF)**を提案することを目的とする。