如果符号集中任一符号出现的概率为1,则其他符号出现的概率必然为零,信源的平均信息量(熵)则为()
第1题:
假设信源是由q个离散符号S1,S2,…,Si…,sq所组成的符号集合,集合中的每个符号是独立的,其中任一个符号Si出现的概率为P(Si),并满足ΣP(Si)=1。那么符号Si含有的信息量I(Si)等于(38),单位是(39)。
A.-logqP(Si)
B.logqP(Si)
C.-log2P(Si)
D.log2P(Si)
第2题:
假设信源是由q个离散符号S1,S2,…,S1…,Sq所组成的符号集合,集合中的每个符号是独立的,其中任一个符号Si出现的概率为P(Si),并满足∑P(Si)=1。那么符号 Si含有的信息量I(si)等于(31),单位是(32)。
A.-logqP(Si)
B.logqP(Si)
C.-log2P(Si)
D.log2P(Si)
第3题:
第4题:
某信源由4个不同符号组成,每个符号出现的概率相同,信源每秒发出100个符号,则该信源的平均信息速率为()。
第5题:
有关概率与频率,说法正确的是()
第6题:
对
错
第7题:
1bit
2bit
3bit
4bit
第8题:
概率常用符号M表示
频率常用符号P表示
概率是描述某随机事件发生可能性大小的指标
概率就是频率
概率的取值范围介于-1和+1之间
第9题:
400b/s
100b/s
300b/s
200b/s
第10题:
概率就是频率
频率常用符号P表示
概率常用符号f表示
概率的取值范围介于-1和+1之间
概率是描述某随机事件发生可能性大小的指标
第11题:
1.800bit/符号
1.825bit/符号
1.850bit/符号
1.875bit/符号
第12题:
6417bit/s
6.417bit/s
64.17bit/s
641.7bit/s
第13题:
假设信源是由q个离散符号S1,S2,…,Si,…Sq所组成的符号集合,集合中的每个符号是独立的,其中任一个符号出现的概率为P(Si),并满足∑P(Si)=1。那么符号Si含有的信息量I(Si)等于( ),单位是( )
A. –logq P(Si)
B. logq P(Si)
C. -log2 P(Si)
D. log2 P(Si)@@@SXB@@@A.比特
B.信息熵
C. dB
D.无单位
第14题:
第15题:
一离散信源由A,B,C,D四个符号组成,它们出现的概率分别为1/2,1/4,且每个符号的出现都是独立的,消息{AAAAABBACCDDB}熵为2bit/符号。╳81.信息论的创始人是维纳。
第16题:
()根据信源符号出现概率的分布特性而进行压缩编码。
第17题:
二元离散信源只有“0",“1”两种符号,若“0”出现概率为1/3,出现“1”的信息量是()。
第18题:
A
B
C
D
第19题:
1.800bit/符号
1.825bit/符号
1.850bit/符号
1.875bit/符号
第20题:
第21题:
1bit
2 bit
3 bit
4 bit
第22题:
2.20
2.23
2.44
2.50
第23题:
A
B
C
D