信源输出的各消息的自信息量的数学期望称为信源的平均自信息量。
第1题:
一离散信源输出二进制符号,在()条件下,每个二进制符号携带1比特信息量;在()条件下,每个二进制符号携带的信息量小于1比特。
第2题:
如果符号集中任一符号出现的概率为1,则其他符号出现的概率必然为零,信源的平均信息量(熵)则为()
第3题:
自信息量表征信源中各个符号的不确定度,信源符号的概率越大,其自信息量越()
第4题:
信源的消息通过信道传输后的误差或失真越大,信宿收到消息后对信源存在的不确定性就(),获得的信息量就越小。
第5题:
某一信源,不管它是否输出符号,只要这些符号具有某些概率特性,就有信息量。
第6题:
平均互信息量I(X;Y)与信源熵和条件熵之间的关系是()。
第7题:
设A、B、C、D四个消息分別以概率1/4、1/8、1/8、1/2传送,信源的平均信息量为()bit。
第8题:
对
错
第9题:
对
错
第10题:
第11题:
H(SN)=H(S)
H(SN)=(N-2)H(S)
H(SN)=(N-1)H(S)
H(SN)=NH(S)
第12题:
1
1.5
1.75
2
第13题:
第14题:
设信源X包含4个不同离散消息,当且仅当X中各个消息出现的概率为()时,信源熵达到最大值,为(),此时各个消息的自信息量为()。
第15题:
单符号离散信源的联合自信息量和条件自信息量都是非负的和单调递减的。
第16题:
信源的消息通过信道传输后的误差或失真越大,信宿收到消息后对信源存在的不确定性就越小,获得的信息量就越小。
第17题:
互信息量I(X;Y)表示收到Y后仍对信源X的不确定度。
第18题:
平均互信息量I(X;Y)对于信源概率分布p(xi)和条件概率分布p(yj/xi)都具有凸函数性。
第19题:
第20题:
第21题:
对
错
第22题:
第23题:
第24题:
对
错