Der Artikel argumentiert, dass Informationsgitter-Lernen (IGL) ein natürlicher Ansatz für semantische Datenkompression ist. IGL basiert auf der Gittertheorie der Information von Claude Shannon und ermöglicht es, Informationselemente und Informationsgitter zu lernen, die Abstraktionen als Form der verlustbehafteten semantischen Kompression darstellen.
Der Artikel erläutert zunächst die Konzepte der Informationselemente und Informationsgitter. Informationselemente sind Äquivalenzklassen von Zufallsvariablen, die dieselbe σ-Algebra induzieren. Informationsgitter ergeben sich aus der natürlichen partiellen Ordnung zwischen Informationselementen.
Anschließend wird das Informationsgitter-Lernverfahren vorgestellt, das es ermöglicht, Informationsgitter aus Daten zu lernen. Dabei können Wahrscheinlichkeitsmaße und Partitionen separat gelernt werden, was die semantische Kompression in einem menschlich interpretierbaren Rahmen ermöglicht.
Der Artikel diskutiert dann Fidelitätskriterien für semantische Kompression, die auf der Partitionsmetrik basieren. Anhand von Beispielen zur Darstellung von Formen und Musik wird erläutert, wie Abstraktion als Form der verlustbehafteten semantischen Kompression funktioniert.
Abschließend wird gezeigt, dass Gruppencodes, die auf Informationsgittern basieren, die optimale Übertragung in sukzessiven Verfeinerungen und Mehrfachbeschreibungen ermöglichen, ohne Ratenverlusten.
Vers une autre langue
à partir du contenu source
arxiv.org
Questions plus approfondies