In diesem Kapitel wird eine erste informationstheoretische Generalisierungsschranke präsentiert. Der Kern der Idee ist, dass die durchschnittliche Differenz zwischen Populations- und Trainingsverlust durch die Mutual Information zwischen der vom Lernalgorithmus erzeugten Hypothese und den Trainingsdaten beschränkt werden kann.
Zunächst wird eine kurze Einführung in die Informationstheorie gegeben, um die Motivation für den informationstheoretischen Ansatz zur Generalisierungsanalyse zu verdeutlichen. Informationstheoretische Größen wie Entropie und Mutual Information charakterisieren fundamentale Grenzen bei der Informationsverarbeitung und -übertragung. Ähnlich lässt sich argumentieren, dass diese Größen auch eine Rolle bei der Generalisierung von Lernalgorithmen spielen sollten.
Der Beweis der ersten Generalisierungsschranke zeigt dann konkret, wie die Mutual Information zwischen Hypothese und Trainingsdaten verwendet werden kann, um eine obere Schranke für die durchschnittliche Generalisierungslücke herzuleiten. Dabei werden zwei zentrale Techniken eingeführt, die in den folgenden Kapiteln weiter vertieft werden: Der Wechsel zu einem Hilfsproblem durch eine Änderung des Maßes, sowie die Anwendung von Konzentrations-Ungleichungen.
他の言語に翻訳
原文コンテンツから
arxiv.org
深掘り質問