信息是消息中有意义、有价值的部分。 信息量是对信息的定量描述。一个接收者接收到若干个消息,每个消息会具有不同的信息量。 一、自信息 从感知角度看,信息量的大小和接收者接收到消息后的惊奇程度有关,惊奇程度大的携带的信息量就大;惊奇程度小的,携带信息量也小。从概率论角度看,消息中携带的信息量与事件发生的概率有关,事件发生的概率越小,则消息中携带的信息量就越大。即信息量与消息出现的概率成反比。 ![]() ![]() ![]() 当 ![]() ![]() 综上所述 ![]() (1)若取 ![]() (2)若取 ![]() ![]() (3)若取 ![]() ![]() 通常广泛使用的单位为比特,此时有 ![]() ![]() 二、离散信源的信息熵
定义:每个符号所含的平均信息量,即自信息 ![]() 定义平均信息量为信源中任意一个事件发生所携带信息量 ![]() 假设一个离散信源是一个由M个符号(事件)组成的符号集,即概率空间分布为 ![]() ![]() ![]() 离散信源的熵: ![]() ![]() ![]() 解:符号A和符号B的信息量 ![]() ![]() ![]() ![]() ![]() ![]() |
电工学习网 ( )
GMT+8, 2021-12-6 20:45