当随即变量X和Y相互独立时,条件熵等于信源熵。
第1题:
简述离散信源和连续信源的最大熵定理。
第2题:
连续信源和离散信源的熵都具有非负性。
第3题:
若一离散无记忆信源的信源熵H(X)等于2.5,对信源进行等长的无失真二进制编码,则编码长度至少为()。
第4题:
某离散无记忆信源X,其符号个数为n,则当信源符号呈()分布情况下,信源熵取最大值()。
第5题:
平均互信息量I(X;Y)与信源熵和条件熵之间的关系是()。
第6题:
一个随即变量x的概率密度函数P(x)=x/2,,则信源的相对熵为()。
第7题:
对
错
第8题:
第9题:
第10题:
对
错
第11题:
第12题:
对
错
第13题:
离散无记忆序列信源中平均每个符号的符号熵等于单个符号信源的符号熵。
第14题:
信源X的概率分布为P(X)={1/2,1/3,1/6},信源Y的概率分布为P(Y)={1/3,1/2,1/6},则信源X和Y的熵相等。
第15题:
离散平稳无记忆信源X的N次扩展信源的熵等于离散信源X的熵的()。
第16题:
条件熵和无条件熵的关系是:()
第17题:
单符号离散信源的自信息和信源熵都具有非负性。
第18题:
离散无记忆信源所产生的符号序列的熵等于各符号熵之和。
第19题:
对
错
第20题:
第21题:
第22题:
第23题: