离散信源 R(D)计算及二元对称信源的R(D)函数

释放双眼,带上耳机,听听看~!
本文介绍了离散信源 R(D)计算和二元对称信源的 R(D)函数的相关知识,为信息论与编码学习者提供参考。

本专栏包含信息论与编码的核心知识,按知识点组织,可作为教学或学习的参考。markdown版本已归档至【Github仓库:github.com/timerring/i… 】或者公众号【AIShareLab】回复 信息论 获取。

离散信源 R(D)计算

给定信源概率 pip_{mathrm{i}} 和失真函数 dijd_{mathrm{i} j} 就可以求得该信源的 R(D) 函数。

它是在保真度准则下求极小值的问题。

但要得到它的显式表达式,一般比较困难。通常用参量表达式。即使如此,除简单的情况外实际计算还是困难的, 只能用迭代逐级逼近的方法。

二元对称信源的 R(D) 函数

设二元对称信源 X={0,1}X={0,1} , 其概率分布 p(x)=[p,1−p]p(x)=[p, 1-p] ,接收变量 Y={0,1}mathbf{Y}={mathbf{0}, mathbf{1}} ,汉明失真矩阵

d=[0110]d=left[begin{array}{ll}
0 & 1 \
1 & 0
end{array}right]

因而最小允许失真度 Dmin⁡=0D_{min }=0 。并能找到满足该最小失真的试验信道, 且是一个无噪无损信道, 其信道矩阵为

p=[1001]p=left[begin{array}{ll}
1 & 0 \
0 & 1
end{array}right]

计算得: R(0)=I(X;Y)=H(p)mathrm{R}(0)=mathrm{I}(mathrm{X} ; mathrm{Y})=mathrm{H}(p)

离散信源 R(D)计算及二元对称信源的R(D)函数

最大允许失真度为

Dmax =min⁡j=0,1∑i=01pidij=min⁡{p(0)d(0,0)+p(1)d(1,0),p(0)d(0,1)+p(1)d(1,1)}=min⁡j{(1−p),p}=pbegin{aligned}
D_{text {max }} & =min _{j=0,1} sum_{i=0}^{1} p_{i} d_{i j} \
& =min {p(0) d(0,0)+p(1) d(1,0), p(0) d(0,1)+p(1) d(1,1)} \
& =min _{j}{(1-p), p}=p \
end{aligned}

要达到最大允许失真度的试验信道, 唯一确定为

p=[0101]p=left[begin{array}{ll}
0 & 1 \
0 & 1
end{array}right]

离散信源 R(D)计算及二元对称信源的R(D)函数

这个试验信道能正确传送信源符号 x=1 , 而传送信源符号 x=0 时,接收符号 一定为 y=1mathrm{y}=1 。凡发送符号 x=0 时,一定都错了。而 x=0 出现的概率为 p , 所以信道的平均失真度为 pboldsymbol{p}

在这种试验信道条件下, 可计算得

R(Dmax⁡)=min⁡PDmax⁡I(X;Y)=H(Y)−H(Y∣X)=0mathbf{R}left(mathbf{D}_{max }right)=min _{P_{D max }} I(X ; Y)=boldsymbol{H}(boldsymbol{Y})-boldsymbol{H}(boldsymbol{Y} mid boldsymbol{X})=mathbf{0}

对于二进制无记忆信源, 若 P(Xi=0)=p,P(Xi=1)=1−pP(X_{mathrm{i}}=0)=p, P(X_{mathrm{i}}=1)=1- p , 且采用汉明失真, 其率失真函数为

R(D)={Hb(p)−Hb(D),0≤D≤min⁡{p,1−p}0, otherwise R(D)=left{begin{array}{cc}
H_{b}(p)-H_{b}(D), & 0 leq D leq min {p, 1-p} \
0, & text { otherwise }
end{array}right.

离散信源 R(D)计算及二元对称信源的R(D)函数

有一个二进制无记忆信源,以概率p=0.25输出“1”,以概率1-p=0.75输出“0”。请问:

(1)若要求采用无失真信源编码,信息率失真函数是多少?

(2)若重构该信源的错误概率不超过0.1,信息率失真函数是多少?

(3)若重构该信源的错误概率不超过0.25,信息率失真函数是多少?这种情况下,最佳的译码策略是什么?

解:
(1) H(x)=−0.25log⁡0.25−0.75log⁡0.75=0.8113bit/symH(x)=-0.25 log 0.25-0.75 log 0.75=0.8113 bit/sym

(2) H(0.25)−H(0.1)=0.3423bit/symH(0.25)-H(0.1)=0.3423 bit/sym

(3) 0. 最佳译码策略是将接收到的信号都译码为 ‘ 0 ‘

高斯信源的 R(D)函数

对于均值为 0 , 方差为 σ2sigma^{2} 的高斯信源, 采用平方失真时的率失真函数为

R(D)={12log⁡σ2D,0≤D≤σ20, otherwise R(D)=left{begin{array}{cc}
frac{1}{2} log frac{sigma^{2}}{D}, & 0 leq D leq sigma^{2} \
0, & text { otherwise }
end{array}right.

离散信源 R(D)计算及二元对称信源的R(D)函数

可见, 随着D的增大, R(D)减小。 当 D⩾Dmax⁡D geqslant D max 时, R(D)=0

一般信息率失真函数的图形如下所示

离散信源 R(D)计算及二元对称信源的R(D)函数

限失真信源编码定理

设离散无记忆信源 Xmathrm{X} 的信息率失真函数为 R(D)R(mathrm{D}) ,

  • 当信息率 R>R(D) 时, 只要信源序列长度 L 足够长,一定存在一种编码方法,其译码失真小于或等于 D+εD+varepsilon, εvarepsilon 为任意小的正数;
  • 反之, 若 R<R (D), 则无论采用什么样的编码方法, 其译码失真必大于 D。

如是二元信源, 则对于任意小的 ε>0varepsilon>0 , 每一个信源符号的平均码长满足如下公式:

R(D)≤Kˉ≤R(D)+εR(D) leq bar{K} leq R(D)+varepsilon

参考文献:

  1. Proakis, John G., et al. Communication systems engineering. Vol. 2. New Jersey: Prentice Hall, 1994.
  2. Proakis, John G., et al. SOLUTIONS MANUAL Communication Systems Engineering. Vol. 2. New Jersey: Prentice Hall, 1994.
  3. 周炯槃. 通信原理(第3版)[M]. 北京:北京邮电大学出版社, 2008.
  4. 樊昌信, 曹丽娜. 通信原理(第7版) [M]. 北京:国防工业出版社, 2012.
本网站的内容主要来自互联网上的各种资源,仅供参考和信息分享之用,不代表本网站拥有相关版权或知识产权。如您认为内容侵犯您的权益,请联系我们,我们将尽快采取行动,包括删除或更正。
AI教程

理论与实践:OpenCV中的SURF算法及其应用

2023-11-30 12:50:14

AI教程

AIGC技术介绍和使用指南

2023-11-30 12:56:00

个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索