40
TEORIA DA INFORMAÇÃO: INTRODUÇÃO Profª Drª Denise Fukumi Tsunoda Março/2015

Teoria da informacao 20150311

  • Upload
    pble

  • View
    226

  • Download
    4

Embed Size (px)

DESCRIPTION

 

Citation preview

Page 1: Teoria da informacao 20150311

TEORIA DA

INFORMAÇÃO:

INTRODUÇÃO

Profª Drª Denise Fukumi Tsunoda Março/2015

Page 2: Teoria da informacao 20150311

Shannon e a Teoria da

Informação

Claude Elwood Shannon (1916 – 2001),

Americano, engenheiro elétrico e matemático

Conhecido como “pai da teoria da informação”

Em 1949, Claude Shannon publicou um paper entitulado

"Communication Theory of Secrecy Systems" que introduziu

diversos conceitos de criptografia.

A Teoria da Informação é uma disciplina centrada à

volta de uma abordagem matemática comum ao estudo

do armazenamento e manipulação da informação.

Page 3: Teoria da informacao 20150311

Shannon e a Teoria da

Informação

Page 4: Teoria da informacao 20150311

Teoria da Informação

Disciplina centrada na abordagem matemática comum ao estudo do armazenamento e manipulação da informação

Como tal, fornece uma base teórica para atividades como:

observação, medida, compressão e armazenamento de dados

telecomunicações

previsão

tomada de decisões

reconhecimento de padrões

Page 5: Teoria da informacao 20150311

Relativamente às

telecomunicações, a TI:

fornece “pistas” para melhorar a eficiência da

comunicação estudo das possibilidades e

limitações inerentes às leis físicas

A Codificação (de fonte e de canal) é uma

forma de melhorar a eficiência da

comunicação

estabelece limites para essa eficiência, em

relação aos quais poderemos comparar

diversos sistemas

Page 6: Teoria da informacao 20150311

Teoria da Informação

Trata de três conceitos básicos:

medida da informação

capacidade de um canal de comunicações transferir informação

codificação, como meio de utilizar os canais com toda a sua capacidade

Page 7: Teoria da informacao 20150311

A Teoria da Informação PROCURA

responder a perguntas do gênero:

O que é a informação? Como a medimos?

Quais são os limites fundamentais à

transmissão de informação?

Como minimizar os ruídos ambientais das

comunicações?

Como garantir a segurança de uma

informação?

Como compactar um documento digital?

Como quantificar a quantidade de informação

de uma propaganda?

Page 8: Teoria da informacao 20150311

TI e outras áreas

Fonte: COVER, T; THOMAS, J. Elements of information theory. 2nd ed. John Wiley & Sons. 2006.

Page 9: Teoria da informacao 20150311

O que é informação?

Informação é dependente do observador

Ex.: O que Alice sabe é diferente do que Bob

sabe

Uma informação pode ser localizada no

tempo-espaço, logo:

Informação pode ser enviada de um lugar a outro

Informação pode ser armazenada e

posteriormente recuperada

Page 10: Teoria da informacao 20150311

Perspectiva histórica

Código Morse (Samuel Morse, 1832)

S O S ···---···

Medida da informação: estudada por Nyquist

(1924), Hartley (1928) e Fisher (1925)

Fundamentos Shannon (1948)

(criptografia), Wiener (1948) e Kotelnikov

(1947) (sinais de radar para localização de

aviões inimigos)

Page 11: Teoria da informacao 20150311

Esquema de um sistema de

comunicação

Fonte de

Informaçã

o

Emissor Receptor Destinatári

o

Page 12: Teoria da informacao 20150311

Modelo esquemático

Início Fim

Page 13: Teoria da informacao 20150311

Codificação – sistemas de

numeração

Os computadores armazenam e processam

dados digitais

Todos os dados são divididos em partes e

representados por números binários (0 e 1)

Internamente, TODO O PROCESSO utiliza a

base 2

Mas podem ser utilizadas ainda as

representações

Hexadecimal (16)

Octal (8)

Page 14: Teoria da informacao 20150311

Memória principal

A memória é dividida em células

Cada célula tem um endereço único

Cada dado é armazenado em uma ou mais

células consecutivas

Na maioria das vezes, cada célula tem

capacidade para armazenar 8bits

Um byte armazena o código ASCII de uma

letra

Page 15: Teoria da informacao 20150311

Código ASCII (American Standard Code for Information Interchange)

Page 16: Teoria da informacao 20150311

Capacidade de memória

Cada memória tem uma capacidade que expressa

o número de bytes que consegue armazenar

Peta, Exa, Zetta, Yotta, Novetta, Decetta, Vendeka,

Udekta

Assim, um computador com 128MB de RAM tem

128x220 células para armazenar dados

Unidade Símbolo Número de bytes

Quilobyte KB 210 = 1024

Megabyte MB 220 (> 1 milhão)

Gigabyte GB 230 (> 1 bilhão)

Terabyte TB 240 (> 1trilhão)

Page 17: Teoria da informacao 20150311

Representação binária

Cada bit que se adiciona, duplica o número de

combinações possíveis

N bits podem representar 2N itens distintos

Assim:

BITS ITENS

1 21 = 2

2 22 = 4

3 23 = 8

4 24 = 16

5 25 = 32

6 26 = 64

7 27 = 128

8 28 = 256

Page 18: Teoria da informacao 20150311

Aritmética binária

O sistema de numeração convencional vale-

se de um código de posições

Exemplos:

4737

XI e IX

Sistemas de numeração:

Sistema decimal 10 dígitos

Sistema binário 2 dígitos

Page 19: Teoria da informacao 20150311

Conversão binário decimal

Exemplo:

3282910 =

30000 + 2000 + 800 + 20 + 9 =

(3x104)+(2x103)+(8x102)+(2x101)+(9x100)

101012 =

10000 + 0000 + 100 + 00 + 1 =

(1x24) + (0x23)+(1x22)+(0x21)+(1x20) = 2110

Page 20: Teoria da informacao 20150311

Conversão decimal binário

Demonstrar a conversão:

65410 10100011102

100111012 15710

Page 21: Teoria da informacao 20150311

Vantagens do sistema binário

Pode-se representar grandes números com menor quantidade de elementos

Facilidade de adição e multiplicação

Exemplos:

Calcular: a) 101102+110112 e 2210+1710

b) 11012x1012 e 1310x510

+ 0 1

0 0 1

1 1 10

x 0 1

0 0 0

1 0 1

Page 22: Teoria da informacao 20150311

Conversões – Calcular para

decimal

11010102 = ? 10

C1B316 = ? 10

368 = ? 10

Page 23: Teoria da informacao 20150311

Para base binária

10610 = ? 2

C1B316 = ? 2

368 = ? 2

Page 24: Teoria da informacao 20150311

Para base octal

10610 = ? 8

C1B316 = ? 8

111102 = ? 8

Page 25: Teoria da informacao 20150311

Para hexadecimal

10610 = ? 16

11000001101100112 = ? 16

368 = ? 16

Page 26: Teoria da informacao 20150311

Perguntas

Quantos bits são necessários para representar

N números?

Exemplo: quantos bits preciso para

representar 100 objetos diferentes?

Com K bits, tenho 2K números diferentes

Para representar N elementos diferentes, são

necessários log2(N) bits

ASSIM, para 100 elementos diferentes,

preciso de quantos bits??

Page 27: Teoria da informacao 20150311

Medidas da informação

Incerteza

Entropia

Informação mútua média

Capacidade de canal

Page 28: Teoria da informacao 20150311

Incerteza

Se não houver nenhuma possibilidade de escolha ( só uma mensagem possível)

não há incerteza

não há informação

Page 29: Teoria da informacao 20150311

29

Incerteza

Uma situação de incerteza pode ser descrita

como sendo aquela com muitas possibilidades

e com o resultado mais adequado indefinido

Ex. “qual será a próxima tecla a ser digitada

por um programador?”

Como pode ser medida a incerteza de um

esquema S?

Page 30: Teoria da informacao 20150311

30

Medida da Incerteza

Intuitivamente, quanto maior a cardinalidade de número de elementos de S |S|, maior a incerteza.

Quanto mais incerto for alguma coisa, mais entropia há nela.

Ex.: se uma pessoa qualquer de uma população geral é

masculina ou feminina, a variável "gênero" possui um bit de entropia

se uma pessoa qualquer prefere um dos quatro Beatles, e cada um deles é igualmente provável, isso corresponde a dois bits de entropia

Page 31: Teoria da informacao 20150311

Incerteza

O sexo de alguém em uma prova olímpica

para mulheres não possui entropia todas

são do sexo feminino

A entropia da preferência dos Beatles em uma

reunião de fãs de John Lennon possui muito

menos de dois bits é muito mais provável

que qualquer pessoa prefira John

Resumindo quanto mais certeza na

variável, menos entropia haverá

Page 32: Teoria da informacao 20150311

Conteúdo da Informação -

Shannon

SIC – Shannon Information Content

O cálculo de conteúdo de uma informação com probabilidade p é –log2p.

Exemplo1:

Jogada de uma moeda

x=[cara;coroa] p = [1/2;1/2] SIC=[1;1]bits

Exemplo2:

Hoje é meu aniversário?

x=[sim;não] p=[364/365;1/365] SIC=[0,004;8,512]bits

Page 33: Teoria da informacao 20150311

Entropia – conceituação básica

A teoria da informação afirma que quanto

menos informações sobre um sistema, maior

será sua entropia

A entropia de uma mensagem é entendida na

teoria da informação como sendo o menor

número de bits, unidade de informação,

necessários para conter todos os valores ou

significados desta mensagem

Page 34: Teoria da informacao 20150311

Entropia - unidade

O log utilizado é o de base 2, uma vez que a

entropia é medida em bits

Se fosse utilizado o log na base e

(2,718281828459045...) número de Euler

a unidade de medida seria nat

1 nat = log2(e) bits = 1,44 bits

O logaritmo neperiano (John Napier) ou

natural

)2ln(

)ln()(log2

xx

Page 35: Teoria da informacao 20150311

Entropia - Cálculo

A fórmula da entropia é:

M = número de diferentes símbolos;

Pj = probabilidade de ocorrência do símbolo j

Unidade: bits/caracter

No caso de uma fonte binária, com probabilidades

p e 1-p, a entropia é designada por (p) e vale:

j

M

j

jM PPPPPPH 2

1

321 log.)...,,(

)1(log).1(log.)1,()( 22 ppppppHp

Page 36: Teoria da informacao 20150311

Análise de intervalos

Page 37: Teoria da informacao 20150311

37

Exemplos de entropia

no log leia-se log2

Page 38: Teoria da informacao 20150311

Entropia máxima (Hmax)

A entropia atinge seu valor máximo quando

todas as saídas da fonte são equiprováveis

Exemplo:

Calcular a entropia do conjunto!

Page 39: Teoria da informacao 20150311

Entropia

Dia da semana Chuva Temperatura Trabalho

Segunda Não Quente Pouco

Terça Sim Frio Pouco

Terça Sim Quente Pouco

Segunda Sim Frio Pouco

Segunda Não Quente Muito

Terça Não Frio Muito

Segunda Não Quente Pouco

Segunda Sim Quente Muito

Segunda Sim Frio Pouco

Calcular a entropia do conjunto!

Calcular as entropias individuais dos atributos!

Page 40: Teoria da informacao 20150311

Árvore de Decisão

Construir a árvore!