大型語言模型 (LLM) 雖然功能強大,但其訓練數據中存在的偏見會導致輸出結果不公平,因此需要全面評估和積極緩解策略來確保其公平性和可靠性。
大型語言模型 (LLM) 在角色扮演過程中會表現出顯著的社會偏見,突顯了在將其部署到真實世界應用程序之前對其進行公平性測試的必要性。
大型語言模型在應用於臨床決策時,即使表面上的準確率表現良好,也存在著根深蒂固的性別和種族偏見,需要多方面的方法來評估和減輕這些偏見,並針對特定領域和任務制定相應的策略。
大型語言模型在模擬招聘決策時,會基於姓名展現出種族和性別偏見,偏好聘用白人女性,並在薪資建議上存在顯著差異。