這篇研究論文著重於機器學習中的演算法公平性,特別關注減輕「黑盒子」模型預測中敏感屬性(如種族、性別)的影響。作者首先回顧了公平機器學習領域的相關文獻,強調了現有方法和公平性指標。文中指出,確保機器學習公平性的主要目標是減少敏感屬性對演算法預測的影響。
作者介紹了 TowerDebias (tDB),這是一種旨在減少黑盒子模型預測中敏感變數影響的新方法。tDB 利用機率論中的「高塔性質」,在後處理階段提高預測公平性,並同時兼顧公平性和效用性之間的權衡。這個方法具有高度的靈活性,不需要事先了解原始模型的內部結構,並且可以擴展到各種不同的應用。
「高塔性質」指出,給定 X 的情況下,Y 的條件期望可以分解為給定 X 和敏感屬性 S 的情況下 Y 的條件期望,然後再次以 X 為條件。換句話說,要消除敏感變數 S 對從 X 預測 Y 的影響,我們可以對 S 的預測值進行平均。
作者通過多個已知的公平機器學習數據集(包括迴歸和分類任務)進行實證分析,證明了 tDB 在公平性-效用性權衡方面的有效性。研究結果表明,tDB 能夠顯著降低預測與敏感屬性之間的相關性,同時將預測準確性的損失降至最低。
TowerDebias 為解決機器學習中的演算法偏差提供了一種有前景的方法。該方法易於實施,並且可以應用於各種機器學習模型。研究結果表明,TowerDebias 能夠有效減輕敏感屬性的影響,同時保持合理的預測準確性。
Ke Bahasa Lain
dari konten sumber
arxiv.org
Wawasan Utama Disaring Dari
by Norman Matlo... pada arxiv.org 11-14-2024
https://arxiv.org/pdf/2411.08297.pdfPertanyaan yang Lebih Dalam