概率论基础
无条件概率、条件概率、联合概率的性质和关系:
当X与Y相互独立时:
条件概率用联合概率求和的方式表示:
这就说明了一个公式:
离散信源概率空间
样本空间:某事物各种可能出现的不同状态
先验概率:选择符号作为消息的概率
自信息量
定义具有概率为的符号的自信息量为:
常用的对数底数为2,单位为比特(bit);若取自然对数,单位为奈特(nat);若以10为对数底数,单位为笛特(det)
的两个含义:
- 当事件发生以前,表示事件发生的 不确定性
- 当事件发生以后,表示事件所含有的 信息量
随机事件的 不确定度 在数量上等于它的 自信息量 ,两者的单位相同,但含义却不相同。
的特性:
- 非负性:
- 是先验概率 的单调递减函数 :若,则
- 可加性:若有两个符号同时出现,可用联合概率来表示,这时的自信息量为。当和相互独立时,有,则有。
如果两个符号出现不是独立的,二是有相互联系的,这时可用条件概率来表示,即在符号出现的条件下,符号出现的概率。则它的条件自信息量定义为:
上式表示在给定的条件下,符号出现时收信者得到的信息量。又因为,则有,即符号同时出现的信息量等于出现的信息量加上出现后再出现的信息量。(称为联合自信息量,称为条件自信息量)
离散信源熵
离散信源熵又称为平均不确定度或平均信息量,它的定义是信源中各个符号不确定度的数学期望:
单位为bit/符号或bit/符号序列
特殊的,如果样本空间为,而且都是等概率事件,那么该信源熵为,并且等概的信源熵最大
条件熵
在给定的条件下,的条件自信息量为,集合的条件熵为:
进一步地在给定的条件下,集合的条件熵定义为:
联合熵
联合熵是联合符号集合上的每个元素对的自信息量的概率加权统计平均值
联合熵与熵和条件熵之间的关系:
「真诚赞赏,手留余香」