Der Artikel führt ein neues Maß für die Vereinigungsinformation ein, das auf der Perspektive von Kommunikationskanälen basiert. Im Gegensatz zu bestehenden Maßen, die die Redundanzinformation verwenden, um Synergien zu berechnen, definiert dieses Maß Synergien als die Information, die nicht durch die Annahme der bedingten Unabhängigkeit der Quellen gegeben ist.
Der Artikel beginnt mit einer Einführung in die partielle Informationsdekomposition (PID) und diskutiert die Limitationen bestehender Maße, insbesondere das Maß von Kolchinsky, das auf der Degradationsordnung zwischen Kanälen basiert. Daraus ergibt sich die Motivation für ein neues Maß der Vereinigungsinformation.
Das neue Maß, ICI
∪, wird für den bivariaten Fall definiert und dann auf den multivariaten Fall verallgemeinert. Es basiert auf der Idee, dass Synergien die Information sind, die nicht durch die Annahme der bedingten Unabhängigkeit der Quellen gegeben ist. Das Maß vergleicht die tatsächliche Information I(Y; T) mit der Information, die unter der Annahme der bedingten Unabhängigkeit Iq(Y; T) erhalten wird, und wählt das Minimum dieser beiden Werte.
Es wird gezeigt, dass ICI
∪ die erweiterten Williams-Beer-Axiome für Maße der Vereinigungsinformation erfüllt. Außerdem werden andere vorgeschlagene Eigenschaften für Maße der Vereinigungsinformation und Synergien diskutiert und entweder akzeptiert oder abgelehnt.
翻译成其他语言
从原文生成
arxiv.org
更深入的查询