核心概念
本研究提出了一種事後控制混合專家模型的方法,旨在解決自然語言理解任務中因捷徑學習導致的分佈偏移問題,透過訓練模型以捕捉不同的潛在特徵,並在推論階段對專家模型的預測結果進行聚合,從而提高模型在面對捷徑偏移時的穩健性。
摘要
Not Eliminate but Aggregate: Post-Hoc Control over Mixture-of-Experts to Address Shortcut Shifts in Natural Language Understanding
本研究旨在解決自然語言理解 (NLU) 任務中,模型過度依賴數據集中的捷徑(shortcuts),導致在面對分佈偏移時表現不佳的問題。
研究提出了一種基於混合專家模型 (Mixture-of-Experts, MoE) 的事後控制方法。
訓練階段:
使用 MoE 模型,並引入懲罰項,鼓勵不同的專家模型學習不同的潛在特徵。
推論階段:
根據風險最小化理論,對專家模型的預測結果進行事後控制,主要採用兩種策略:
均勻加權: 假設所有專家模型的預測能力相同,對其預測結果進行平均。
最小值加權: 選擇預測機率最低的專家模型,以應對最壞情況。