信息论与编码核心知识:平均互信息及其应用

释放双眼,带上耳机,听听看~!
本专栏包含信息论与编码的核心知识,重点介绍了平均互信息的定义、应用及其在通信系统中的作用。通过对互信息的深入理解,可以更好地掌握通信系统中信息传输的原理和方法。

本专栏包含信息论与编码的核心知识,按知识点组织,可作为教学或学习的参考。markdown版本已归档至【Github仓库:github.com/timerring/i… 】或者公众号【AIShareLab】回复 信息论 获取。

平均互信息

平均互信息定义

I(X;Y)=E[I(x,y)]=H(X)−H(X∣Y)I(X ; Y)=E[I(x, y)]=H(X)-H(X mid Y)

  1. Y 末知, Xmathrm{X} 的不确定度为 H(X)mathrm{H}(mathrm{X})
  2. Y 已知, Xmathrm{X} 的不确定度变为 H(X∣Y)mathbf{H}(mathbf{X} mid mathbf{Y})

互信息 = 先验不确定性 – 后验不确定性 = 不确定性减少的量

通信系统中若发端的符号为 X 收端的符号为 Y。如果是 一一对应信道, 接收到 Y 后对 X 的不确定性将完全消除: H(X|Y) = 0,一般情况 H(X|Y) < H(X), 即了解 Y 后对 X 的不确定度将减少。

通过信道传输消除了一些不确定性, 获得了一定的信息, 故0≤I(X;Y)≤H(X)0 leq I(X ; Y) leq H(X)

I(X;Y)=∑i∑jp(xiyj)log⁡p(xi∣yj)p(xi)I(X ; Y)=sum_{i} sum_{j} p(x_{i} y_{j}) log frac{p(x_{i} mid y_{j})}{p(x_{i})}

=∑i∑jp(xiyj)log⁡p(xiyj)p(xi)p(yj)=∑i∑jp(xiyj)log⁡p(yj∣xi)p(yj)=sum_{i} sum_{j} p(x_{i} y_{j}) log frac{p(x_{i} y_{j})}{p(x_{i}) p(y_{j})}=sum_{i} sum_{j} p(x_{i} y_{j}) log frac{p(y_{j} mid x_{i})}{p(y_{j})}

=I(Y;X)=I(Y ; X)

由上,平均互信息具有互易性:

I(X;Y)=I(Y;X)I(X ; Y)=I(Y ; X)

例 假设一条电线上串联了 8 个灯泡 x1,x2,…x8 x_{1}, x_{2}, ldots x_{8} 如图, 这 8 个灯泡损坏的概率相等 p(xi)=1/8p(x_{mathbf{i}})=1 / 8 , 现 假设只有一个灯泡已损坏, 致使串联灯泡都不能点亮。

未测量前, 8 个灯泡都有可能损坏, 它们损坏的先验概率: p(xi)=1/8p(x_{mathrm{i}})=1 / 8 , 这时存在的不确定性

I(xi)=log⁡1p(xi)=log⁡28=3 bit mathrm{I}(mathrm{x}_{i})=log frac{1}{mathrm{p}(mathrm{x}_{i})}=log _{2} 8=3 text { bit }

测量 1 次后, 可知 4 个灯泡是好的, 另 4 个灯泡中有一个是坏的,这时后验概率 p(xi∣y)=1/4p(x_{mathrm{i}} mid y)=1 / 4 ,尚存在的不确定性:

I(xi∣y)=log⁡1p(xi∣y)=log⁡24=2 bit mathrm{I}(mathrm{x}_{i} mid mathrm{y})=log frac{1}{mathrm{p}(mathrm{x}_{i} mid mathrm{y})}=log _{2} 4=2 text { bit }

所获得的信息量就是测量前后不确定性减少的量, 测量1次获得的信息量:

I(xi;yj)=I(xi)−I(xi∣y)=3−2=1bitI(x_{i} ; y_{j})=I(x_{i})-I(x_{i} mid y)=3-2=1 b i t

平均互信息与各类熵的关系

I(X;Y)=H(X)−H(X∣Y)=H(Y)−H(Y∣X)=H(X)+H(Y)−H(XY)H(XY)=H(X)+H(Y∣X)=H(Y)+H(X∣Y)H(XY)≤H(X)+H(Y)begin{array}{c}
I(X ; Y)=H(X)-H(X mid Y)=H(Y)-H(Y mid X) \
=H(X)+H(Y)-H(X Y) \
H(X Y)=H(X)+H(Y mid X)=H(Y)+H(X mid Y) \
H(X Y) leq H(X)+H(Y)
end{array}

熵只是平均不确定性的描述,不确定性的消除两熵之差才等于接收端所获得的信息量;

获得的信息量不应该和不确定性混为一谈。

I(X;Y)表示X和Y之间的密切程度,越大,越密切。

下表有12条训练数据,记录了女性的择偶标准,每条数据包含了4个特征。这4个特征对结果的体现程度是不一样的。如何度量这种不同? 用平均互信息

信息论与编码核心知识:平均互信息及其应用

4 个特征和结果的概率分布分别为

[X1P]=[ 帅  不帅 2/31/3][X2P]=[ 好  不好  非常好 1/21/31/6][X3P]=[ 矮  高  中 7/121/41/6][X4P]=[ 上进  不上进 2/31/3][YP]=[ 嫁  不嫁 1/21/2]begin{array}{c}
{left[begin{array}{l}
X_{1} \
P
end{array}right]=left[begin{array}{ccc}
text { 帅 } & text { 不帅 } \
2 / 3 & 1 / 3
end{array}right]left[begin{array}{c}
X_{2} \
P
end{array}right]=left[begin{array}{ccc}
text { 好 } & text { 不好 } & text { 非常好 } \
1 / 2 & 1 / 3 & 1 / 6
end{array}right]} \
{left[begin{array}{c}
X_{3} \
P
end{array}right]=left[begin{array}{ccc}
text { 矮 } & text { 高 } & text { 中 } \
7 / 12 & 1 / 4 & 1 / 6
end{array}right] quadleft[begin{array}{c}
X_{4} \
P
end{array}right]=left[begin{array}{ll}
text { 上进 } & text { 不上进 } \
2 / 3 & 1 / 3
end{array}right]} \
{left[begin{array}{l}
Y \
P
end{array}right]=left[begin{array}{cc}
text { 嫁 } & text { 不嫁 } \
1 / 2 & 1 / 2
end{array}right]}
end{array}

特征和结果之间的条件概率为 :

信息论与编码核心知识:平均互信息及其应用

P(Y∣X2)=[1/21/21/43/410]P(Y∣X3)=[1/76/71010]P(Y∣X4)=[5/83/81/43/4]begin{array}{l}
Pleft(Y mid X_{2}right)=left[begin{array}{cc}
1 / 2 & 1 / 2 \
1 / 4 & 3 / 4 \
1 & 0
end{array}right] quad Pleft(Y mid X_{3}right)=left[begin{array}{cc}
1 / 7 & 6 / 7 \
1 & 0 \
1 & 0
end{array}right] \
Pleft(Y mid X_{4}right)=left[begin{array}{ll}
5 / 8 & 3 / 8 \
1 / 4 & 3 / 4
end{array}right] \
end{array}

从而联合概率为 :

P(X1,Y)=[1/45/121/41/12]P(X2,Y)=[1/41/41/121/41/60]P(X3,Y)=[1/121/21/401/60]P(X4,Y)=[5/121/41/121/4]begin{array}{l}
Pleft(X_{1}, Yright)=left[begin{array}{ll}
1 / 4 & 5 / 12 \
1 / 4 & 1 / 12
end{array}right] Pleft(X_{2}, Yright)=left[begin{array}{cc}
1 / 4 & 1 / 4 \
1 / 12 & 1 / 4 \
1 / 6 & 0
end{array}right] \
Pleft(X_{3}, Yright)=left[begin{array}{cc}
1 / 12 & 1 / 2 \
1 / 4 & 0 \
1 / 6 & 0
end{array}right] Pleft(X_{4}, Yright)=left[begin{array}{ll}
5 / 12 & 1 / 4 \
1 / 12 & 1 / 4
end{array}right]
end{array}

得条件熵: H(Y∣X1)=0.9067,H(Y∣X2)=0.7704,H(Y∣X3)=0.3451,H(Y∣X4)=0.9067H(Y mid X_{1})=0.9067, H(Y mid X_{2})=0.7704 , H(Y mid X_{3})=0.3451, H(Y mid X_{4})=0.9067

平均互信息为: I(X1;Y)=0.0933,I(X2;Y)=0.2296,I(X3;Y)=0.6549,I(X4;Y)=0.0933I(X_{1} ; Y)=0.0933, I(X_{2} ; Y)=0.2296 , I(X_{3} ; Y)=0.6549, I(X_{4} ; Y)=0.0933 .

结论:身高是最主要特征, 其次是性格。只保留这两项即可。

维拉图

信息论与编码核心知识:平均互信息及其应用

I(X;Y)=H(X)−H(X∣Y)=H(Y)−H(Y∣X)=H(X)+H(Y)−H(XY)H(XY)=H(X)+H(Y∣X)=H(Y)+H(X∣Y)H(XY)≤H(X)+H(Y)H(X)≥H(X∣Y)H(Y)≥H(Y∣X)begin{array}{l}
I(X ; Y)=H(X)-H(X mid Y) \
=H(Y)-H(Y mid X) \
=H(X)+H(Y)-H(X Y) \
H(X Y)=H(X)+H(Y mid X) \
=H(Y)+H(X mid Y) \
H(X Y) leq H(X)+H(Y) \
H(X) geq H(X mid Y) \
H(Y) geq H(Y mid X) \
end{array}

若信道是无噪一一对应信道,信道传递概率:

p(y∣x)={0y≠f(x)1y=f(x)p(x∣y)=p(xy)p(y)=p(x)p(y∣x)∑p(x)p(y∣x)={0y≠f(x)1y=f(x)begin{array}{c}
p(y mid x)=left{begin{array}{ll}
0 & y neq f(x) \
1 & y=f(x)
end{array}right. \
p(x mid y)=frac{p(x y)}{p(y)}=frac{p(x) p(y mid x)}{sum p(x) p(y mid x)}=left{begin{array}{ll}
0 & y neq f(x) \
1 & y=f(x)
end{array}right.
end{array}

计算得:

H(X∣Y)=0;H(Y∣X)=0H(X mid Y)=0 ; H(Y mid X)=0
I(X;Y)=H(X)=H(Y)I(X ; Y)=H(X)=H(Y)

信息论与编码核心知识:平均互信息及其应用

若信道输入端 Xmathbf{X} 与输出端 YY 完全统计独立

p(y∣x)=p(y)p(x∣y)=p(x)H(X∣Y)=H(X);H(Y∣X)=H(Y)begin{array}{cc}
p(y mid x)=p(y) & p(x mid y)=p(x) \
H(X mid Y)=H(X) ; & H(Y mid X)=H(Y)
end{array}

则: I(X;Y)=0I(X ; Y)=0

信息论与编码核心知识:平均互信息及其应用

条件熵

H(X∣Y)H(X|Y): 信道疑义度,损失熵

  • 信源符号通过有噪信道传输后所引起的信息量的损失。

信源X的熵等于接收到的信息量加上损失掉的信息量。

H(Y∣X)H(Y|X): 噪声熵,散布熵

  • 它反映了信道中噪声源的不确定性。

输出端信源Y的熵 H(Y)H(Y) 等于接收到关于X的信息量 I(X;Y)I(X;Y) 加上 H(Y∣X)H(Y|X) ,这完全是由于信道中噪声引起的。

信息论与编码核心知识:平均互信息及其应用

平均互信息的性质

非负性: I(X;Y)≥0I(X ; Y) geq 0

互易性: I(X;Y)=I(Y;X)I(X ; Y)=I(Y ; X)

凸函数性:

  • I(X ; Y) 为概率分布 p(x) 的上凸函数
  • 对于固定的概率分布 p(x), I(X ; Y) 为条件概率 p(y∣x)p(y mid x) 的 下凸函数

极值性:I(X;Y)≤H(X);I(X;Y)≤H(Y)I(X ; Y) leq H(X) ; I(X ; Y) leq H(Y)

若信道是下图所示的无躁一一对应信道,则有

信息论与编码核心知识:平均互信息及其应用

H(X∣Y)=0H(Y∣X)=0I(X;Y)=H(X)I(X;Y)=H(Y)begin{array}{l}
H(X mid Y)=0 \
H(Y mid X)=0 \
I(X ; Y)=H(X) \
I(X ; Y)=H(Y)
end{array}

参考文献:

  1. Proakis, John G., et al. Communication systems engineering. Vol. 2. New Jersey: Prentice Hall, 1994.
  2. Proakis, John G., et al. SOLUTIONS MANUAL Communication Systems Engineering. Vol. 2. New Jersey: Prentice Hall, 1994.
  3. 周炯槃. 通信原理(第3版)[M]. 北京:北京邮电大学出版社, 2008.
  4. 樊昌信, 曹丽娜. 通信原理(第7版) [M]. 北京:国防工业出版社, 2012.
本网站的内容主要来自互联网上的各种资源,仅供参考和信息分享之用,不代表本网站拥有相关版权或知识产权。如您认为内容侵犯您的权益,请联系我们,我们将尽快采取行动,包括删除或更正。
AI教程

深度学习框架初探:实现自己的Tensor

2023-11-30 15:04:14

AI教程

PaddleSeg Matting模型下载与抠图示例

2023-11-30 15:16:14

个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索