Informationstheoretischer Rahmen für Out-of-Distribution-Generalisierung
Dieser Artikel präsentiert einen allgemeinen informationstheoretischen Rahmen, der Generalisierungsschranken für Out-of-Distribution-Lernen liefert. Der Rahmen umfasst sowohl Integral-Wahrscheinlichkeitsmetriken als auch f-Divergenzen und ermöglicht es, bekannte Ergebnisse wie Wasserstein- und KL-Schranken wiederzuerlangen sowie neue Generalisierungsschranken abzuleiten.