关于互信息和自信息
I(x,y)I(x|y)
I(x)
的不同点我总是弄不清楚,可否有高人指点下。
另外它们的关系式I(x,y)=I(x)-I(x|y),可否从物理意义上解释下?
非常感谢高人指导
回复 楼主 chk 的帖子
信号论与编码 曹雪虹清华大学出版社28页的 图2-10是解释的互信息量与熵之间的关系
这个图是理解这些基本概念很重要的工具!!
I(x)从定义上说是 一个符号具有的不确定度
I(x|y) 则是符号y在出现的条件下 x发生的不确定度
I(x,y)=I(x|y) +I(y)即 xy同时发生的不确定度
非常非常感谢
你这样一说我就理解咧。。。。哈哈 很是感谢啊。:handshake
页:
[1]