正確性と堅牢性のトレードオフを改善するため、標準分類器と堅牢分類器の出力を非線形変換して混合する手法MixedNUTSを提案する。MixedNUTSは訓練不要で、既存の高性能な標準分類器と堅牢分類器を組み合わせることができる。
背景クラスを追加することで、深層学習モデルの一般化性能を向上させることができる。
対話型の視覚的説明は、人間-AI チームの分類精度を必ずしも向上させるわけではない。
グラフ畳み込み射影とトーキングヘッドを活用したグラフベースのビジョントランスフォーマー(GvT)は、小規模データセットからスクラッチで学習できる優れた性能を発揮する。
深層学習モデルは敵対的攻撃に対して脆弱であり、FGSM攻撃やCW攻撃などの高度な攻撃手法に対して防御が困難である。防御蒸留は単純な攻撃に対しては有効だが、より複雑な攻撃手法に対しては十分な防御力を持たない。
深層学習アプローチを用いた画像分類における雑音ラベル処理の包括的な調査を行い、半教師あり学習に基づくアプローチが雑音ラベル処理において優れていることを示す。また、頑健なアルゴリズムを設計するために提案された様々な雑音パターンについても概説する。さらに、実世界のデータに基づいた合成雑音パターンを提案し、それを用いた新しい雑音ベンチマークを構築する。
教師モデルの誤った予測を修正し、適切なデータを選択することで、学生モデルの性能を向上させる。
深層学習モデルが以前学習した特徴を忘れたり、新しい特徴を学習できないという問題を解決するため、自己蒸留とリセットを組み合わせた多様な特徴学習手法を提案する。
概念ボトルネックモデルの新しいアーキテクチャと訓練手法を提案し、事前学習された多モーダルエンコーダから概念ボトルネックモデルを構築する効率的なフレームワークを示す。提案手法では、疎な中間表現を学習することで、モデルの解釈可能性を大幅に向上させることができる。
大規模言語モデルの豊富な知識を活用することで、低shot画像分類の性能を向上させることができる。