niusouti.com

一离散信源由A,B,C,D四个符号组成,它们出现的概率分别为1/2,1/4,且每个符号的出现都是独立的,消息{AAAAABBACCDDB}熵为2bit/符号。╳81.信息论的创始人是维纳。

题目

一离散信源由A,B,C,D四个符号组成,它们出现的概率分别为1/2,1/4,且每个符号的出现都是独立的,消息{AAAAABBACCDDB}熵为2bit/符号。╳81.信息论的创始人是维纳。


相似考题
更多“一离散信源由A,B,C,D四个符号组成,它们出现的概率分别为1/2,1/4,且每个符号的出现都是独立的,消息{AAAAABBACCDDB}熵为2bit/符号。╳81.信息论的创始人是维纳。”相关问题
  • 第1题:

    假设信源是由q个离散符号S1,S2,…,Si…,sq所组成的符号集合,集合中的每个符号是独立的,其中任一个符号Si出现的概率为P(Si),并满足ΣP(Si)=1。那么符号Si含有的信息量I(Si)等于(38),单位是(39)。

    A.-logqP(Si)

    B.logqP(Si)

    C.-log2P(Si)

    D.log2P(Si)


    正确答案:C

  • 第2题:

    假设信源是由q个离散符号S1,S2,…,S1…,Sq所组成的符号集合,集合中的每个符号是独立的,其中任一个符号Si出现的概率为P(Si),并满足∑P(Si)=1。那么符号 Si含有的信息量I(si)等于(31),单位是(32)。

    A.-logqP(Si)

    B.logqP(Si)

    C.-log2P(Si)

    D.log2P(Si)


    正确答案:C
    解析:信息与“不确定性”紧密相关,是对于接收者来说事先不知道的消息。在有效的通信中,信源将要发送的信号是不确定的,接收者在接收到信号后不确定性减小或消失,那么接收者从不知到知而获得信息。信息量的定义如下:假设信源是由q个离散符号S1,S2,…,Si…,Sq所组成的符号集合,集合中的每个符号是独立的,其中任一个符号Si出现的概率为P(Si),并满足∑P(Si)=1。那么符号 Si含有的信息量I(Si)等于log2(1/P(Si)),单位为比特(bit),而1bit等于大概二元制信源每一个符号的信息量。直观上可以理解为信号出现的概率越小,信息量就越大,信号出现的概率越大,信息量就越小,如果信号出现的概率是1(没有任何不确定性),信息量就是0。将信息的测度纳入概率的范畴,符合人们对信息量的理解。

  • 第3题:

    如果在已知发送独立的符号中,符号“E”出现的概率为0.125,则符号“E”所包含的信息量为()。

    A.1bit
    B.2bit
    C.3bit
    D.4bit

    答案:C
    解析:

  • 第4题:

    某二进制信源各符号独立出现,若“1”符号出现的概率为3/4,则“0”符号的信息量为()bit。

    A.1
    B.2
    C.1.5
    D.2.5

    答案:B
    解析:

  • 第5题:

    当离散信源中每个符号等概出现,而且各符号的出现为统计独立时,该信源的平均信息量最大。()


    答案:对
    解析:

  • 第6题:

    离散无记忆序列信源中平均每个符号的符号熵等于单个符号信源的符号熵。


    正确答案:正确

  • 第7题:

    某信源由4个不同符号组成,每个符号出现的概率相同,信源每秒发出100个符号,则该信源的平均信息速率为()。

    • A、400b/s
    • B、100b/s
    • C、300b/s
    • D、200b/s

    正确答案:D

  • 第8题:

    单选题
    符号集为A、B、C、D,它们相互独立,相应概率为1/2、1/4、1/8、1/8,其中包含信息量最小的符号是()
    A

    A

    B

    B

    C

    C

    D

    D


    正确答案: C
    解析: 暂无解析

  • 第9题:

    单选题
    符号集为A、B、C、D,它们相互独立,相应概率为l/2、1/4、l/8、1/8,其中包含信息量最小的符号是:
    A

    A

    B

    B

    C

    C

    D

    D


    正确答案: B
    解析:

  • 第10题:

    单选题
    某信源由4个不同符号组成,每个符号出现的概率相同,信源每秒发出100个符号,则该信源的平均信息速率为()。
    A

    400b/s

    B

    100b/s

    C

    300b/s

    D

    200b/s


    正确答案: A
    解析: 暂无解析

  • 第11题:

    单选题
    设一信息源的输出由128个不同符号E组成,其中16个出现的概率为1/32,其余112个出现的概率为1/224。信息源每秒发出1000个符号,且每个符号彼此独立。则该信息源的平均信息速率()
    A

    6417bit/s

    B

    6.417bit/s

    C

    64.17bit/s

    D

    641.7bit/s


    正确答案: D
    解析: 暂无解析

  • 第12题:

    判断题
    离散无记忆序列信源中平均每个符号的符号熵等于单个符号信源的符号熵。
    A

    B


    正确答案:
    解析: 暂无解析

  • 第13题:

    假设信源是由q个离散符号S1,S2,…,Si,…Sq所组成的符号集合,集合中的每个符号是独立的,其中任一个符号出现的概率为P(Si),并满足∑P(Si)=1。那么符号Si含有的信息量I(Si)等于( ),单位是( )

    A. –logq P(Si)

    B. logq P(Si)

    C. -log2 P(Si)

    D. log2 P(Si)@@@SXB@@@A.比特

    B.信息熵

    C. dB

    D.无单位


    正确答案:C,A

  • 第14题:

    作为元素系统,若每个元素出现的概率相等,则为无序状态,这时符号熵被称为( )。


    正确答案:D

  • 第15题:

    离散信源输出4个不同符号,若各符号概率分别为1/2,1/4,1/8,1/8,则该信源的熵为()。

    A.1.5bit/sign
    B.1.875bit/sign
    C.1.75bit/sign
    D.1bit/sign

    答案:C
    解析:

  • 第16题:

    离散信源输出5个不同符号,若各符号概率分别为1/2,1/4,1/8,1/16,1/16,则该信源的熵为()。

    A.1.5bit/sign
    B.1.875bit/sign
    C.2bit/sign
    D.1bit/sign

    答案:B
    解析:

  • 第17题:

    如果符号集中任一符号出现的概率为1,则其他符号出现的概率必然为零,信源的平均信息量(熵)则为()


    正确答案:

  • 第18题:

    作为元素系统,若每个元素出现的概率相等,则为无序状态,这时符号熵被称为()。

    • A、高熵
    • B、低熵
    • C、最小熵
    • D、最大熵

    正确答案:D

  • 第19题:

    判断题
    一离散信源由A,B,C,D四个符号组成,它们出现的概率分别为1/2,1/4,且每个符号的出现都是独立的,消息{AAAAABBACCDDB}熵为2bit/符号。╳81.信息论的创始人是维纳。
    A

    B


    正确答案:
    解析: 暂无解析

  • 第20题:

    单选题
    离散信源输出五个不同符号,若各符号概率分别为1/2,1/4,1/8,1/16,1/16,则该信源的值为()
    A

    1.800bit/符号

    B

    1.825bit/符号

    C

    1.850bit/符号

    D

    1.875bit/符号


    正确答案: C
    解析:

  • 第21题:

    填空题
    如果符号集中任一符号出现的概率为1,则其他符号出现的概率必然为零,信源的平均信息量(熵)则为()

    正确答案:
    解析: 暂无解析

  • 第22题:

    单选题
    某信源的符号集由A、B、C、D和E组成,设每一符号独立出现,其出现概率分别为1/4、1/8、1/8、3/16和5/16,平均信息量为()bit/符号。
    A

    2.20

    B

    2.23

    C

    2.44

    D

    2.50


    正确答案: D
    解析: 暂无解析

  • 第23题:

    单选题
    作为元素系统,若每个元素出现的概率相等,则为无序状态,这时符号熵被称为()。
    A

    高熵

    B

    低熵

    C

    最小熵

    D

    最大熵


    正确答案: D
    解析: 暂无解析