Core Concepts
マルチタスクラーニングと正則化を組み合わせたアプローチは、平均と最悪グループのパフォーマンスを向上させることができます。
Abstract
機械学習システムが多様なユーザーに適したものとなるためには、高い平均パフォーマンスだけでなく、異なるグループ間で公平な結果を確保することが重要です。しかし、ほとんどの機械学習手法は、選択されたエンドタスクの平均パフォーマンスを向上させることを目的として設計されており、最悪グループエラーへの影響を考慮していません。マルチタスクラーニング(MTL)はそのような広く使用されている手法の1つです。本論文では、MTLが最悪グループ精度に与える影響だけでなく、グループごとの公平性の課題に対処するツールとしての可能性を探求します。我々は主に事前トレーニング済みモデルを微調整する一般的な設定に焦点を当てます。少数または全くグループ注釈がない設定では、MTLがしばしば、ただ2回トレイン(JTT)-代表的分布的堅牙最適化(DRO)手法よりも良い最悪グループ精度を達成することがあります。合成データ実験から得られた示唆を活用し、共同マルチタスク表現空間を正則化することで通常のMTL手法を改良提案します。コンピュータビジョンおよび自然言語処理データセット全体で大量の微調整実験を実施し、正規化されたMTLアプローチが平均および最悪グループ結果の両方でJTTよりも優れていることが一貫して示されました。
Stats
80.14.6
85.41.4
82.11.2
85.92.5
58.36.6
68.50.4
Quotes
"Multitasking often achieves better worst-group accuracy than Just-Train-Twice (JTT)"
"Our regularized MTL approach consistently outperforms JTT on both average and worst-group outcomes"