某信源由A、B、C、D、E五个信息符号组成,发送A的概率为1/2,发送其余符号概率相等,且设每一符号出现是相互独立的,则平均信息量为 。
A.3.5比特/符号
B.3比特/符号
C.2比特/符号
D.4比特/符号
第1题:
假设信源是由q个离散符号S1,S2,…,Si,…Sq所组成的符号集合,集合中的每个符号是独立的,其中任一个符号出现的概率为P(Si),并满足∑P(Si)=1。那么符号Si含有的信息量I(Si)等于( ),单位是( )
A. –logq P(Si)
B. logq P(Si)
C. -log2 P(Si)
D. log2 P(Si)@@@SXB@@@A.比特
B.信息熵
C. dB
D.无单位
第2题:
设三个事件A、B、C相互独立,某发生概率相等,都为2/3,则A、B、C中至少发生一个的概率为( )。
A.8/27
B.1/27
C.19/27
D.26/27
第3题:
第4题:
如果符号集中任一符号出现的概率为1,则其他符号出现的概率必然为零,信源的平均信息量(熵)则为()
第5题:
某一信源,不管它是否输出符号,只要这些符号具有某些概率特性,就有信息量。
第6题:
某信源由4个不同符号组成,每个符号出现的概率相同,信源每秒发出100个符号,则该信源的平均信息速率为()。
第7题:
A
B
C
D
第8题:
第9题:
第10题:
1bit
2 bit
3 bit
4 bit
第11题:
1.800bit/符号
1.825bit/符号
1.850bit/符号
1.875bit/符号
第12题:
6417bit/s
6.417bit/s
64.17bit/s
641.7bit/s
第13题:
假设信源是由q个离散符号S1,S2,…,S1…,Sq所组成的符号集合,集合中的每个符号是独立的,其中任一个符号Si出现的概率为P(Si),并满足∑P(Si)=1。那么符号 Si含有的信息量I(si)等于(31),单位是(32)。
A.-logqP(Si)
B.logqP(Si)
C.-log2P(Si)
D.log2P(Si)
第14题:
第15题:
第16题:
自信息量表征信源中各个符号的不确定度,信源符号的概率越大,其自信息量越()
第17题:
一离散信源由A,B,C,D四个符号组成,它们出现的概率分别为1/2,1/4,且每个符号的出现都是独立的,消息{AAAAABBACCDDB}熵为2bit/符号。╳81.信息论的创始人是维纳。
第18题:
对
错
第19题:
1bit
2bit
3bit
4bit
第20题:
1.800bit/符号
1.825bit/符号
1.850bit/符号
1.875bit/符号
第21题:
400b/s
100b/s
300b/s
200b/s
第22题:
2.20
2.23
2.44
2.50
第23题:
A
B
C
D
第24题:
对
错