2
EN2612 – Teoria da Informa¸c˜ ao e C´odigos - 1Q2015 Lista 1 1. Considere uma fonte X = {x 1 ,x 2 ,x 3 ,x 4 , ···} tal que p(x i )= 1 2 i , i =1, 2,.... (a) Calcule a entropia de X . As seguintes express˜oes podem ser ´ uteis: n=1 r n = r 1 - r n=1 nr n = r (1 - r) 2 . (b) Um s´ ımbolo de X ´ e gerado de acordo com esta distribui¸c˜ ao. Ache uma sequˆ encia de perguntas do tipo “sim ou n~ao” que leve ao m´ ınimo n´ umero esperado de perguntas para identificar o resultado de X . Compare o n´ umero esperado de perguntas com H (X ). 2. Seja Y =2 X , onde X ´ e uma vari´ avel aleat´oria que assume um n´ umero finito de valores. Qual ou quais das seguintes afirma¸ oes s˜ao verdadeiras? (a) H (Y ) H (X ) (b) H (Y ) H (X ) (c) H (Y ) >H (X ) (d) H (Y ) <H (X ) (e) H (Y )= H (X ) 3. Suponha uma fonte discreta sem mem´oria que produza N ımbolos com probabilidades p = [ p 1 p 2 ··· p N ] . Qual o valor m´ ınimo da entropia desta fonte? Ache todos os ve- tores p que atingem esta entropia m´ ınima. 4. A entropia relativa de p(x)emrela¸c˜ ao`a q(x) (ou distˆancia de Kullback-Leibler ou divergˆ encia entre p(x)e q(x)) ´ e definida por D (p (x) ||q (x)) = X p(x) log p(x) q(x) , sendo p(x)e q(x) fun¸ oes de probabilidade definidas para X e X ´ e o conjunto com todos os poss´ ıveis valores de x. Uma das propriedades da entropia relativa ´ e que ela sempre fornece um valor n˜ao-negativo. Usando este fato, e lembrado que a entropia de uma fonte est´a relacionada com a incerteza sobre qual s´ ımbolo ´ e gerado a cada instante, determine o limitante superior (na ausˆ encia de quaisquerrestri¸c˜ oes) para a entropia de uma fonte X , que produz s´ ımbolos de acordo com umadistribui¸c˜ ao p(x). 5. Classifique os c´odigos abaixo em rela¸ ao ao comprimento (fixo ou vari´ avel) e classe (singu- lar/n˜ ao-singular, univocamente decodific´avel, instantˆ aneo/n˜ ao-instantˆ aneo). Justifique cada resposta. 1

Lista1

Embed Size (px)

DESCRIPTION

Material sobre teoria da informação

Citation preview

  • EN2612 Teoria da Informacao e Codigos - 1Q2015

    Lista 1

    1. Considere uma fonte X = {x1, x2, x3, x4, } tal que p(xi) =1

    2i, i = 1, 2, . . ..

    (a) Calcule a entropia de X. As seguintes expressoes podem ser uteis:

    n=1

    rn =r

    1 r

    n=1

    nrn =r

    (1 r)2.

    (b) Um smbolo de X e gerado de acordo com esta distribuicao. Ache uma sequencia deperguntas do tipo sim ou n~ao que leve ao mnimo numero esperado de perguntas paraidentificar o resultado de X. Compare o numero esperado de perguntas com H(X).

    2. Seja Y = 2X , onde X e uma variavel aleatoria que assume um numero finito de valores. Qualou quais das seguintes afirmacoes sao verdadeiras?

    (a) H(Y ) H(X)(b) H(Y ) H(X)(c) H(Y ) > H(X)

    (d) H(Y ) < H(X)

    (e) H(Y ) = H(X)

    3. Suponha uma fonte discreta sem memoria que produza N smbolos com probabilidadesp =

    [p1 p2 pN

    ]. Qual o valor mnimo da entropia desta fonte? Ache todos os ve-

    tores p que atingem esta entropia mnima.

    4. A entropia relativa de p(x) em relacao a q(x) (ou distancia de Kullback-Leibler ou divergenciaentre p(x) e q(x)) e definida por

    D (p (x) ||q (x)) =xX

    p(x) logp(x)

    q(x),

    sendo p(x) e q(x) funcoes de probabilidade definidas para xX e X e o conjunto com todos ospossveis valores de x.

    Uma das propriedades da entropia relativa e que ela sempre fornece um valor nao-negativo.Usando este fato, e lembrado que a entropia de uma fonte esta relacionada com a incertezasobre qual smbolo e gerado a cada instante, determine o limitante superior (na ausencia dequaisquer restricoes) para a entropia de uma fonte X, que produz smbolos de acordo comuma distribuicao p(x).

    5. Classifique os codigos abaixo em relacao ao comprimento (fixo ou variavel) e classe (singu-lar/nao-singular, univocamente decodificavel, instantaneo/nao-instantaneo). Justifique cadaresposta.

    1

  • X C1 C2 C3 C4A 0 0 10 0B 0 010 00 10C 0 01 11 110D 0 10 110 111

    Referencias

    [1] Cover, T. M. e Thomas, J. A., Elements of Information Theory, Wiley-Interscience, 2a Ed.,2006.

    2