TowerDebias 是一種後處理去偏差方法,利用機率論中的「高塔性質」來減輕機器學習模型預測中的敏感屬性(如種族、性別)影響,以改善預測公平性,同時兼顧效用與公平性之間的權衡。
本文利用信息論中的部分信息分解(PID)方法,分析了機器學習中三種主要群體公平性概念(統計平等、機會均等和預測平等)之間的關係,揭示了它們之間的權衡和一致性,為理解和減輕演算法決策中的歧視提供了新的視角。
雖然技術解決方案在減輕人工智慧偏差方面取得了進展,但它們有其局限性,需要集體方法來解決人工智慧系統中的偏差和公平性問題,包括利益相關者參與以及對倫理、社會和背景因素的考量。
本研究探討在隨機凸優化框架下,於決策時確保演算法公平性所面臨的挑戰,並提出名為「決策時公平性」(EFTD) 的新概念,要求決策過程需滿足跨時間的公平性限制,以解決現有演算法在動態環境中公平性不足的問題。