222
Indaial – 2021 ESTATÍSTICA E PROBABILIDADE EM FÍSICA Prof. André Martorano Kuerten 1 a Edição

Estatística E ProbabilidadE Em Física

  • Upload
    others

  • View
    10

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Estatística E ProbabilidadE Em Física

Indaial – 2021

Estatística E ProbabilidadE Em Física

Prof. André Martorano Kuerten

1a Edição

Page 2: Estatística E ProbabilidadE Em Física

Copyright © UNIASSELVI 2021

Elaboração:

Prof. André Martorano Kuerten

Revisão, Diagramação e Produção:

Centro Universitário Leonardo da Vinci – UNIASSELVI

Ficha catalográfica elaborada na fonte pela Biblioteca Dante Alighieri

UNIASSELVI – Indaial.

Impresso por:

K95e

Kuerten, André Martorano

Estatística e probabilidade em física. / André Martorano Kuerten. – Indaial: UNIASSELVI, 2021.

213 p.; il.

ISBN 978-65-5663-524-8ISBN Digital 978-65-5663-518-7

1. Probabilidade. – Brasil. 2. Estatística. – Brasil. II. Centro Universitário Leonardo da Vinci.

CDD 530

Page 3: Estatística E ProbabilidadE Em Física

aPrEsEntaçãoAcadêmico! Bem-vindo à disciplina de Estatística e Probabilidade

em Física.

Na Unidade 1, introduziremos noções básicas de Probabilidade e Estatística, tal como os conceitos e fundamentos de Estatística no Tópico 1, conceitos de Probabilidade no Tópico 2 e fundamentos da mesma no Tópico 3. Aqui nesta obra, por conceitos, entenderemos como uma abordagem menos rigorosa e voltada para situações do cotidiano enquanto para fundamentos teremos uma abordagem mais rigorosa do ponto de vista matemático.

Na Unidade 2 serão introduzidos a fórmula de Bayes com algumas aplicações dela (Tópico 1) e os chamados Processos Estocásticos (Tópico 2). Especificamente na primeira parte do Tópico 2 serão estudados os conceitos e fundamentos de tais processos, e, ao final deste tópico, fundamentaremos e aplicaremos um caso particular conhecido como processos markovianos. Já ao término desta unidade, faremos uma breve revisão de termodinâmica que será útil para a realização de nossos estudos na última unidade desta disciplina.

Para finalizar esta disciplina, na Unidade 3, aplicaremos nossos conhecimentos para entender um pouco do papel que a probabilidade e estatística desenvolvem na ciência Física. No Tópico 1, estudaremos a Teoria Cinética dos Gases para então reescrever algumas facetas da termodinâmica em termos de entidades estatísticas. No Tópico 2, abordaremos conceitualmente a área conhecida em Física como Mecânica Estatística sem adentrar numa formulação matemática mais rigorosa. Por último, no Tópico 3, trabalharemos “outras aplicações em física”, em que usaremos nossos conhecimentos de processos estocásticos para descrever o chamado movimento browniano na primeira parte de tal tópico. Como segunda e última parte, veremos o papel da probabilidade no desenvolvimento da formulação básica da Mecânica Quântica.

Prof. André Martorano Kuerten

Page 4: Estatística E ProbabilidadE Em Física

Você já me conhece das outras disciplinas? Não? É calouro? Enfi m, tanto para você que está chegando agora à UNIASSELVI quanto para você que já é veterano, há novidades em nosso material.

Na Educação a Distância, o livro impresso, entregue a todos os acadêmicos desde 2005, é o material base da disciplina. A partir de 2017, nossos livros estão de visual novo, com um formato mais prático, que cabe na bolsa e facilita a leitura.

O conteúdo continua na íntegra, mas a estrutura interna foi aperfeiçoada com nova diagramação no texto, aproveitando ao máximo o espaço da página, o que também contribui para diminuir a extração de árvores para produção de folhas de papel, por exemplo.

Assim, a UNIASSELVI, preocupando-se com o impacto de nossas ações sobre o ambiente, apresenta também este livro no formato digital. Assim, você, acadêmico, tem a possibilidade de estudá-lo com versatilidade nas telas do celular, tablet ou computador.

Eu mesmo, UNI, ganhei um novo layout, você me verá frequentemente e surgirei para apresentar dicas de vídeos e outras fontes de conhecimento que complementam o assunto em questão.

Todos esses ajustes foram pensados a partir de relatos que recebemos nas pesquisas institucionais sobre os materiais impressos, para que você, nossa maior prioridade, possa continuar seus estudos com um material de qualidade.

Aproveito o momento para convidá-lo para um bate-papo sobre o Exame Nacional de Desempenho de Estudantes – ENADE.

Bons estudos!

NOTA

Olá acadêmico! Para melhorar a qualidade dos materiais ofertados a você e dinamizar ainda mais os seus estudos, a Uniasselvi disponibiliza materiais que possuem o código QR Code, que é um código que permite que você acesse um conteúdo interativo relacionado ao tema que você está estudando. Para utilizar essa ferramenta, acesse as lojas de aplicativos e baixe um leitor de QR Code. Depois, é só aproveitar mais essa facilidade para aprimorar seus estudos!

UNI

Page 5: Estatística E ProbabilidadE Em Física
Page 6: Estatística E ProbabilidadE Em Física

Olá, acadêmico! Iniciamos agora mais uma disciplina e com ela um novo conhecimento.

Com o objetivo de enriquecer seu conhecimento, construímos, além do livro que está em suas mãos, uma rica trilha de aprendizagem, por meio dela você terá contato com o vídeo da disciplina, o objeto de aprendizagem, materiais complementares, entre outros, todos pensados e construídos na intenção de auxiliar seu crescimento.

Acesse o QR Code, que levará ao AVA, e veja as novidades que preparamos para seu estudo.

Conte conosco, estaremos juntos nesta caminhada!

LEMBRETE

Page 7: Estatística E ProbabilidadE Em Física

sumário

UNIDADE 1 — INTRODUÇÃO À PROBABILIDADE E ESTATÍSTICA ................................... 1

TÓPICO 1 — CONCEITOS BÁSICOS E FUNDAMENTOS DE ESTATÍSTICA ....................... 31 INTRODUÇÃO .................................................................................................................................... 32 ESTATÍSTICA NO COTIDIANO ..................................................................................................... 43 TERMOS BÁSICOS ............................................................................................................................ 94 MEDIDAS DE POSIÇÃO................................................................................................................. 10RESUMO DO TÓPICO 1..................................................................................................................... 15AUTOATIVIDADE .............................................................................................................................. 16

TÓPICO 2 — CONCEITOS BÁSICOS DE PROBABILIDADE ................................................... 191 INTRODUÇÃO .................................................................................................................................. 192 PROBABILIDADE EM ALGUMAS SITUAÇÕES COTIDIANAS .......................................... 203 SISTEMAS DE DUAS OPÇÕES ..................................................................................................... 244 PREDIÇÕES NO CONTEXTO PROBABILÍSTICO ................................................................... 29RESUMO DO TÓPICO 2..................................................................................................................... 33AUTOATIVIDADE .............................................................................................................................. 34

TÓPICO 3 — FUNDAMENTOS DE PROBABILIDADE.............................................................. 371 INTRODUÇÃO .................................................................................................................................. 372 DEFINIÇÕES E CONCEITOS BÁSICOS ..................................................................................... 373 VARIÁVEIS ALEATÓRIAS ............................................................................................................. 42

3.1 VARIÁVEIS ALEATÓRIAS DISCRETAS................................................................................... 433.1.1 Valor Médio .......................................................................................................................... 453.1.2 Dispersão .............................................................................................................................. 463.1.3 Desvio padrão ...................................................................................................................... 46

3.2 VARIÁVEIS ALEATÓRIAS CONTÍNUAS ................................................................................ 463.3 VARIÁVEIS ALEATÓRIAS: UMA APLICAÇÃO EM FÍSICA .............................................. 47

4 DISTRIBUIÇÕES DE PROBABILIDADE .................................................................................... 494.1 DISTRIBUIÇÕES DISCRETAS .................................................................................................... 49

4.1.1 Distribuição de Bernoulli .................................................................................................... 504.1.2 Distribuição binomial .......................................................................................................... 514.1.3 Distribuição de Poisson ...................................................................................................... 534.1.4 Distribuição de Probabilidade: uma aplicação em Física .............................................. 55

4.2 DISTRIBUIÇÕES CONTÍNUAS ................................................................................................. 584.2.1 Distribuição Gaussiana (Normal) ...................................................................................... 58

5 DISTRIBUIÇÃO DISCRETA PARA CONTÍNUA ...................................................................... 61LEITURA COMPLEMENTAR ............................................................................................................ 66RESUMO DO TÓPICO 3..................................................................................................................... 68AUTOATIVIDADE .............................................................................................................................. 69

REFERÊNCIAS ...................................................................................................................................... 73

Page 8: Estatística E ProbabilidadE Em Física

UNIDADE 2 — FÓRMULA DE BAYES, PROCESSOS ESTOCÁSTICOS E BREVE REVISÃO DA TERMODINÂMICA .................................................................... 75

TÓPICO 1 — FÓRMULA DE BAYES ................................................................................................ 771 INTRODUÇÃO .................................................................................................................................. 772 PROBABILIDADE CONDICIONAL ............................................................................................. 783 FÓRMULA DE BAYES ...................................................................................................................... 824 DISTRIBUIÇÕES A PRIORI E A POSTERIORI ......................................................................... 86RESUMO DO TÓPICO 1..................................................................................................................... 95AUTOATIVIDADE .............................................................................................................................. 96

TÓPICO 2 — PROCESSOS ESTOCÁSTICOS E CADEIAS DE MARKOV ............................. 991 INTRODUÇÃO .................................................................................................................................. 992 PROCESSOS ESTOCÁSTICOS: NOÇÕES BÁSICAS ............................................................... 993 CADEIAS DE MARKOV: NOÇÕES INTUITIVAS .................................................................. 1054 CADEIAS DE MARKOV ............................................................................................................... 110RESUMO DO TÓPICO 2................................................................................................................... 119AUTOATIVIDADE ............................................................................................................................ 120

TÓPICO 3 — BREVE REVISÃO DA TERMODINÂMICA ....................................................... 1231 INTRODUÇÃO ................................................................................................................................ 1232 TERMODINÂMICA: ESTRUTURA BÁSICA ........................................................................... 1233 TRABALHO, CALOR E ENTROPIA ........................................................................................... 125

3.1 TRABALHO ................................................................................................................................. 1253.2 CALOR ......................................................................................................................................... 1293.3 ENTROPIA................................................................................................................................... 130

4 LEIS DA TERMODINÂMICA ...................................................................................................... 1344.1 LEI ZERO ..................................................................................................................................... 134

4.2 PRIMEIRA LEI .............................................................................................................................. 1354.3 SEGUNDA LEI ............................................................................................................................ 137

LEITURA COMPLEMENTAR .......................................................................................................... 140RESUMO DO TÓPICO 3................................................................................................................... 142AUTOATIVIDADE ............................................................................................................................ 143

REFERÊNCIAS .................................................................................................................................... 147

UNIDADE 3 — APLICAÇÕES DE PROBABILIDADE E ESTATÍSTICA EM FÍSICA ......... 149

TÓPICO 1 — TEORIA CINÉTICA DOS GASES ......................................................................... 1511 INTRODUÇÃO ................................................................................................................................ 1512 TEORIA CINÉTICA DOS GASES: HIPÓTESES BÁSICAS ................................................... 1513 TEMPERATURA: INTERPRETAÇÃO ESTATÍSTICA ............................................................. 1524 PRESSÃO: INTERPRETAÇÃO ESTATÍSTICA ......................................................................... 1575 DERIVANDO E REINTERPRETANDO ALGUMAS LEIS TERMODINÂMICAS ............ 160

5.1 LEI DOS GASES IDEAIS ............................................................................................................ 1605.2 LEI DE BOYLE............................................................................................................................. 1615.3 LEI DE DALTON ........................................................................................................................ 161

6 ENTROPIA: INTERPRETAÇÃO ESTATÍSTICA ...................................................................... 163RESUMO DO TÓPICO 1................................................................................................................... 166AUTOATIVIDADE ............................................................................................................................ 167

Page 9: Estatística E ProbabilidadE Em Física

TÓPICO 2 — MECÂNICA ESTATÍSTICA .................................................................................... 1711 INTRODUÇÃO ................................................................................................................................ 1712 MICROESTADOS E MACROESTADOS ................................................................................... 1713 PROBABILIDADE E ENTROPIA ................................................................................................. 1784 FÓRMULA ESTATÍSTICA PARA ENTROPIA: DEDUÇÃO MATEMÁTICA .................... 182RESUMO DO TÓPICO 2................................................................................................................... 186AUTOATIVIDADE ............................................................................................................................ 187

TÓPICO 3 — OUTRAS APLICAÇÕES EM FÍSICA .................................................................... 1891 INTRODUÇÃO ................................................................................................................................ 1892 FORÇA ESTOCÁSTICA E MOVIMENTO BROWNIANO .................................................... 189

2.1 FORÇA ESTOCÁSTICA............................................................................................................. 1902.2 MOVIMENTO BROWNIANO: DESCRIÇÃO FÍSICA .......................................................... 191

3 PROBABILIDADE E TEORIA QUÂNTICA .............................................................................. 1953.1 DUALIDADE ONDA/PARTÍCULA ........................................................................................ 1963.2 FUNÇÃO DE ONDA E EQUAÇÃO DE SCHROEDINGER ................................................ 1973.3 INTERPRETAÇÃO DE BORN .................................................................................................. 202

LEITURA COMPLEMENTAR .......................................................................................................... 207RESUMO DO TÓPICO 3................................................................................................................... 209AUTOATIVIDADE ............................................................................................................................ 210

REFERÊNCIAS .................................................................................................................................... 213

Page 10: Estatística E ProbabilidadE Em Física

1

UNIDADE 1 —

INTRODUÇÃO À PROBABILIDADE E ESTATÍSTICA

OBJETIVOS DE APRENDIZAGEM

PLANO DE ESTUDOS

A partir do estudo desta unidade, você deverá ser capaz de:

• compreender alguns aspectos básicos de estatística;

• fundamentar e desenvolver problemas de estatística;

• compreender alguns aspectos básicos de probabilidade;

• fundamentar e desenvolver problemas de probabilidade.

Esta unidade está dividida em três tópicos. No decorrer da unidade, você encontrará autoatividades com o objetivo de reforçar o conteúdo apresentado.

TÓPICO 1 – CONCEITOS BÁSICOS E FUNDAMENTOS DE ESTATÍSTICA

TÓPICO 2 – CONCEITOS BÁSICOS DE PROBABILIDADE

TÓPICO 3 – FUNDAMENTOS DE PROBABILIDADE

Preparado para ampliar seus conhecimentos? Respire e vamos em frente! Procure um ambiente que facilite a concentração, assim absorverá melhor as informações.

CHAMADA

Page 11: Estatística E ProbabilidadE Em Física

2

Page 12: Estatística E ProbabilidadE Em Física

3

TÓPICO 1 — UNIDADE 1

CONCEITOS BÁSICOS E

FUNDAMENTOS DE ESTATÍSTICA

1 INTRODUÇÃO

A estatística se faz presente em nossas vidas nos mais variados ramos da atividade humana. Ela está presente em situações cotidianas como em eventos esportivos, em informações cedidas por um determinado governo etc. Por exemplo, em um evento esportivo, geralmente, nos deparamos com certas informações que visam fundamentar as análises subsequentes dos cronistas esportivos acerca de certa equipe ou, mais em geral, acerca do próprio evento esportivo, ou mesmo da história do próprio esporte como um todo. Ali, a estatística pode surgir de diferentes formas possíveis, como na contagem de chutes ao gol por jogo, a eficiência de tais chutes etc.

Fundamentalmente, a estatística trabalha com uma grande quantidade de dados. A origem da própria palavra nos remete ao termo Estado, uma vez que este geralmente trabalha com quantidades enormes de dados, por exemplo, uma população, suas subdivisões em faixas etárias, pirâmide populacional, seja ela referente ao gênero, à classe social e à própria faixa etária etc. Em outras palavras, dados que serão úteis a um determinado município, estado, país etc. Como podemos ver em Memória (2004, p. 10): “a etimologia da palavra, do latim status (Estado), usada aqui para designar a coleta e a apresentação de dados quantitativos de interesse do Estado, [...]”.

Como nos exemplos citados anteriormente, a estatística deve trabalhar como uma grande quantidade de dados e, a partir destes, organizar, analisar etc. Longe de tais situações corriqueiras, a estatística também desempenha papel importante no desenvolvimento das ciências básicas, como Biologia, Química e Física. Especificamente na ciência Física, ela tem fundamental importância na compreensão dos fenômenos termodinâmicos. Ao tratar um sistema físico microscópico com uma infinidade de partículas que seguem leis da Mecânica (seja ela Clássica ou Quântica), podem-se inferir os conceitos estatísticos, fundando, assim, o campo de estudo conhecido como Física Estatística, também conhecida como Mecânica Estatística. Outros ramos da Física também podem apresentar aspectos estatísticos como Teoria do Caos, Econofísica etc.

Para dar suporte conceitual e matemático para nossos estudos futuros de Probabilidade e Estatística em Física, no Tópico 1, apresentaremos as ideias básicas e os fundamentos matemáticos de Estatística, como construção e análise de tabelas, frequência, mediana, moda, variáveis aleatórias, população e amostra.

Page 13: Estatística E ProbabilidadE Em Física

UNIDADE 1 — INTRODUÇÃO À PROBABILIDADE E ESTATÍSTICA

4

Iniciaremos o tópico apresentando situações cotidianas envolvendo estatística para que, posteriormente, ao logo do tópico, possamos introduzir alguns fundamentos e definições matemáticas que nos auxiliarão nos tópicos mais avançados ao longo do curso.

2 ESTATÍSTICA NO COTIDIANO

A estatística aparece em nosso dia a dia de diversas formas, como já havíamos mencionado, em eventos esportivos ou em estudos emitidos por um determinado governo.

Para iniciar nossos estudos, vamos supor que certa administração pública queira dar uma concessão de uso de uma rodovia para o setor privado. Para este fim, tal administração encomenda um estudo para quantificar o fluxo dos veículos que trafegam sobre esta rodovia. Para desenvolver tal pesquisa, contratam-se funcionários para então estimar tal fluxo em um certo ponto da estrada. Tais funcionários são requeridos de anotar a quantidade de motos, carros, ônibus e caminhões que circulam pela rodovia em tal ponto e em um dado intervalo de tempo.

Ao começar seu trabalho, um funcionário transmite para um computador os primeiros veículos que transitam em tal ponto, ou seja: carro, moto, carro, carro, caminhão, carro, caminhão, ônibus, moto e assim por diante.

Depois de um período de vinte quatro horas, os dados anotados naquele ponto foram organizados na seguinte tabela a seguir:

TABELA 1 – FLUXO DE VEÍCULOS NUM PERÍODO DE 24 HORAS

FONTE: O autor

Tipo de Veículo QuantidadeMoto 127Carro 453

Ônibus 071Caminhão 145

Desse modo, num período de um dia foram contados 127 motos, 453 carros, 71 ônibus e 145 caminhões. A seguir, apresentamos uma representação gráfica dos dados anteriores.

Page 14: Estatística E ProbabilidadE Em Física

TÓPICO 1 — CONCEITOS BÁSICOS E FUNDAMENTOS DE ESTATÍSTICA

5

GRÁFICO 1 – COMPOSIÇÃO DO FLUXO DE VEÍCULOS

FONTE: O autor

Desde que o interesse sob os dados da tabela seja de cunho financeiro, torna-se útil associar para cada variedade (moto, carro, ônibus e caminhão) um valor numérico, que, neste caso, é uma estimativa sobre o preço a ser cobrado no futuro pedágio instalado naquele ponto específico. Atribuíram-se, então, os seguintes valores em reais:

TABELA 2 – PREÇO ESTABELECIDO PARA CADA TIPO DE VEÍCULO

Veículo Preço em R$Moto 2,00Carro 5,00

Ônibus 16,00Caminhão 12,00

FONTE: O autor

As duas tabelas anteriores estão organizadas na única tabela a seguir:

TABELA 3 – FREQUÊNCIA DE OCORRÊNCIA VS PREÇO POR VEÍCULO - I

FONTE: O autor

Frequência R$127 2,00453 5,00071 16,00145 12,00

Page 15: Estatística E ProbabilidadE Em Física

UNIDADE 1 — INTRODUÇÃO À PROBABILIDADE E ESTATÍSTICA

6

A tabela anterior está organizada de acordo com a frequência de ocorrência de um determinado dado (aqui, neste caso: moto, carro etc.).

É útil, ainda, organizar a tabela anterior em ordem crescente quanto ao valor da frequência, ou seja:

TABELA 4 – FREQUÊNCIA DE OCORRÊNCIA VS PREÇO POR VEÍCULO - II

FONTE: O autor

Frequência R$071 16,00127 2,00145 12,00453 5,00

Podemos ainda organizar em termos da frequência relativa, que é nada mais, nada menos, que pegar a razão entre a frequência e a totalidade do conjunto de dados.

Nesse caso, a totalidade de veículos é:

71 + 127 + 145 + 453 = 796.

As frequências relativas, de cada tipo de veículo, serão dadas por:

• Ônibus:

• Moto:

• Caminhão:

• Carro:

Neste caso, podemos reorganizar nossa tabela anterior como:

FONTE: O autor

TABELA 5 – FREQUÊNCIA RELATIVA DE OCORRÊNCIA VS PREÇO POR VEÍCULO

Frequência Relativa R$0,089 16,000,159 2,000,182 12,000,573 5,00

Page 16: Estatística E ProbabilidadE Em Física

TÓPICO 1 — CONCEITOS BÁSICOS E FUNDAMENTOS DE ESTATÍSTICA

7

Todos as diferentes formas de organização dadas anteriormente são construídas em termos de uma amostra que relata, neste nosso exemplo, o número de veículos que trafegam em um dado intervalo de tempo e em um dado ponto da rodovia. Tal amostra constitui apenas uma “parte” da realidade adjacente que é entendida, em estatística, como uma população.

Vamos considerar agora nossa tabela organizada como na Tabela 4. Notamos que o valor com maior frequência é de R$ 5,00. Chamamos este valor de moda.

Também é, muitas vezes, útil encontrar o valor central da configuração de dados. Neste caso pegamos os valores centrados e tiramos uma média deles, isto é:

Tal valor é nomeado como a mediana associada com a amostra.

Podemos ainda prever o lucro esperado em um dia através de nossa amostra. Por exemplo, em um certo minuto foi verificado: carro, caminhão, carro, carro, ônibus, moto.

Desde que associamos valores a cada tipo de veículo, a sequência anterior é convertida numericamente como:

5,00, 12,00, 5,00, 5,00, 16,00, 2,00.

Desse modo, para aquele dado minuto temos a amostra anterior.

Tal amostra pode ser convertida num lucro bruto esperado da seguinte maneira:

Logo, a amostra, naquele minuto específico, fornece uma previsão de lucro de sete reais e cinquenta centavos.

Como vimos, na amostra referente a 24 horas, o total de veículos era de setecentos e noventa e seis. É um número grande e, então, nesses casos, é conveniente tabelarmos os dados numa tabela de frequência. Note que com a tabela organizada dessa maneira, torna-se mais simples calcular a previsão de lucro bruto nas 24 horas.

Page 17: Estatística E ProbabilidadE Em Física

UNIDADE 1 — INTRODUÇÃO À PROBABILIDADE E ESTATÍSTICA

8

Nesse caso, multiplicamos a frequência pelo valor associado, isto é:

71 . 16,00 + 127 . 2,00 + 145 . 12,00 + 453 . 5,00 = 5395.

Assim, o resultado anterior sugere um lucro bruto diário de cinco mil trezentos e noventa e cinco reais.

A seguir, podemos ver a contribuição de cada categoria no montante final de lucro bruto:

GRÁFICO 2 – PREVISÃO DE CONTRIBUIÇÃO NO LUCRO BRUTO TOTAL

FONTE: O autor

Podemos também encontrar o lucro bruto associado por veículo. Basta dividirmos o resultado acima pelo número total de veículos, ou seja

Desse modo, para os preços estabelecidos por cada tipo de veículo, a fórmula anterior nos fornece o valor médio de aproximadamente seis reais e setenta e oito centavos por cada veículo rodado. Os números que acabamos de encontrar são conhecidos como medidas de posição.

Page 18: Estatística E ProbabilidadE Em Física

TÓPICO 1 — CONCEITOS BÁSICOS E FUNDAMENTOS DE ESTATÍSTICA

9

3 TERMOS BÁSICOS

Um modelo estatístico é caracterizado por uma população A e uma amostra a. Uma população engloba todo o conjunto de elementos os quais possuem uma atribuição em comum. Um subconjunto de uma população é denominado amostra. A população pode ser infinita ou finita enquanto a amostra deve ser sempre finita.

Em outras palavras, a amostra carrega o conjunto de dados qual trabalhamos em modelos estatísticos através de uma amostragem. Uma amostragem pode ser aleatória ou intencionada. As variáveis estatísticas podem ser quantitativas ou qualitativas. Por sua vez, as variáveis quantitativas podem ser discretas ou contínuas enquanto as qualitativas podem ser nominais ou ordinais.

Como em Magalhães e Lima (2004, p. 8), as variáveis podem ser classificadas como:

FIGURA 1 – CLASSIFICAÇÃO DAS VARIÁVEIS

FONTE: Adaptado de Magalhães e Lima (2004, p. 8)

Variável

Qualitativa

Quantitativa

Nominal

Ordinal

Discreta

Contínua

Considere que queremos estudar as temperaturas médias das cinco regiões brasileiras. Devido a certas dificuldades, podemos escolher aleatoriamente um grupo de cidades que representarão cada região. Agora, digamos que nossa pesquisa será aplicada para políticas de saúde pública e nos interessa apenas as sub-regiões de cada região que tradicionalmente apresentam as maiores e menores temperaturas médias.

Nesse caso, realizamos uma pesquisa intencionada, buscando escolher as cidades das regiões mais quentes e frias de cada região. Note que em nossa coleta de dados, buscaremos variáveis quantitativas, desde que mediremos a temperaturas em diferentes dias e locais. A temperatura é ainda uma variável contínua, isto é, assume valores reais e, em geral, não inteiros.

Page 19: Estatística E ProbabilidadE Em Física

UNIDADE 1 — INTRODUÇÃO À PROBABILIDADE E ESTATÍSTICA

10

Supomos que, na mesma pesquisa, queremos considerar a população das cidades envolvidas. Desse modo, para essa amostragem, serão atribuídos valores quantitativos, desde que a população de uma cidade é um número inteiro. Dentro dessas cidades ainda podemos fazer uma pesquisa paralela para estabelecer a divisão social de cada município (classe A, B etc.). Nesse caso, a variável será qualitativa ordinal, uma vez que a uma “ordem” atribuída: A (alta), B (média-alta), C (média) etc.

Para finalizar, poderíamos querer saber a proporção da população de uma dada cidade que faz parte de um certo “grupo de risco”. Nossa coleta de dados se resumiria em obter as respostas “faz parte” ou “não faz parte”. Tal variável é classificada como qualitativa nominal.

4 MEDIDAS DE POSIÇÃO

Começaremos trabalhando as medidas de posição. Consideremos um conjunto de dados {di} de uma certa variável D. Define-se a média d como sendo a somatória de di pela quantidade de valores n, isto é:

(1)

Caso um certo conjunto de dados estão organizados de acordo com suas frequências fi, a expressão (1) torna-se uma média ponderada, e é então reescrita como:

(2)

Há ainda o conceito de classe. Classe é quando a variável é dividida em intervalos definidos por uma amplitude. O conjunto de dados {Di}, o qual devemos trabalhar, será construído pegando determinadas médias referentes a cada intervalo.

Matematicamente, temos:

Em que dif é o limite superior do intervalo e di0 o limite inferior.

Page 20: Estatística E ProbabilidadE Em Física

TÓPICO 1 — CONCEITOS BÁSICOS E FUNDAMENTOS DE ESTATÍSTICA

11

Neste caso, a média será dada por:

(3)

Com Fi sendo a frequência de cada intervalo Ii e N a quantidade de intervalos.

Dada uma amplitude Ai, o intervalo Ii deve ser um semiaberto. Por exemplo, escolhendo:

I₁= ]d₁₀,dif]

Teremos os outros intervalos:

I₂= ]d₂₀,d2f], I₃= ]d₃₀,d3f]

E assim por diante. Em geral, as amplitudes Ai não necessitam serem iguais.

Ainda é útil definir a mediana e a moda associada ao conjunto de dados. A mediana dmed é definida como o dado que ocupa a “posição” central de um conjunto de dados, enquanto a moda dmod é o dado com maior frequência.

Como um exemplo, considere um clube de futebol em que a folha de pagamento do time titular é fornecida pela tabela a seguir:

TABELA 6 – FOLHA DE PAGAMENTO DO TIME - I

FONTE: O autor

4 3 5 7 6 4 4 2 6 8 7

Os valores são dados em mil reais.

A média (1) é, então:

No entanto, organizada numa tabela de frequência, a mesma tabela torna-se:

Page 21: Estatística E ProbabilidadE Em Física

UNIDADE 1 — INTRODUÇÃO À PROBABILIDADE E ESTATÍSTICA

12

TABELA 7 – FOLHA DE PAGAMENTO ORGANIZADA POR SUA FREQUÊNCIA

FONTE: O autor

fi 1 1 3 1 2 2 1di 2 3 4 5 6 7 8

Agora, para encontrar d de acordo com a tabela anterior, devemos usar a equação (2). Obviamente, o resultado encontrado deve ser o mesmo. Por sua vez, a mediana dmed é obtida por organizar os dados em ordem crescente: 2, 3, 4, 4, 4, 5, 6, 6, 7, 7, 8. Logo:

dmed = 5000.

Já para a moda temos:

dmod = 4000.

Agora, considere o caso que queremos analisar somente os jogadores que jogam “na linha”, ou seja, desconsiderando o salário do goleiro.

A nova tabela (já ordenada em ordem crescente) é então dada por

TABELA 8 – FOLHA DE PAGAMENTO DO TIME - II

FONTE: O autor

2 3 4 4 5 6 6 7 7 8

Note que, agora, nossa coleção de dados é par.

Nesse caso, para obtermos a mediana, devemos encontrar uma média entre os valores centrais, ou seja:

Podemos ainda trabalhar com frequências relativas Fi. Tal frequência é definida assim:

(4)

Page 22: Estatística E ProbabilidadE Em Física

TÓPICO 1 — CONCEITOS BÁSICOS E FUNDAMENTOS DE ESTATÍSTICA

13

Com a frequência relativa (4) introduzida, a equação (2) torna-se:

d = ∑ Fi di,

Enquanto a equação (3) pode ser reescrita como:

d = ∑ Fi Di ,

Com Fi definido analogamente como:

Outro tipo de frequência útil a ser introduzido, é a chamada frequência acumulada ai. Ela é obtida somando fi com seus antecessores, isto é:

ai = fi + fi-1 + fi-2 + ... + f₁.

Ainda, devemos definir a frequência acumulada relativa Ai por:

Ai = Fi + Fi-1 + Fi-2 +...+ F1.

Com essas novas definições, podemos reescrever a Tabela 6 como:

(5)

(6)

TABELA 9 – FOLHA DE PAGAMENTO ORGANIZADA PELA FREQUÊNCIA E FREQUÊNCIA ACUMULADA

FONTE: O autor

Ai 1/11 2/11 5/11 6/11 8/11 10/11 1Fi 1/11 1/11 3/11 1/11 2/11 1/11 1/11ai 1 2 5 6 8 10 11fi 1 1 3 1 2 2 1di 2 3 4 5 6 7 8

Para finalizar este tópico, vamos trabalhar o conceito de classe. Considere que o clube quer arrecadar dinheiro e começa a coletar os possíveis doadores do clube. De um total de 500 torcedores pesquisados, verificou-se 306 pessoas dispostas a doarem até R$ 50, 102 a doarem entre 50 e 100, 82 de 100 a 150, 9 de 150 a 200 e uma pessoa de 200 a 250 reais. Assim, organiza-se a seguinte tabela:

Page 23: Estatística E ProbabilidadE Em Física

UNIDADE 1 — INTRODUÇÃO À PROBABILIDADE E ESTATÍSTICA

14

TABELA 10 – POSSÍVEIS DOADORES E VALORES A SEREM DOADOS

FONTE: O autor

FONTE: O autor

dif / di0 fi ai

0 - 50 306 30650 -100 102 408100 -150 082 490150 - 200 009 499200 - 250 001 500

Por considerando o valor médio Di de cada intervalo, a tabela anterior rende:

TABELA 11 – POSSÍVEIS DOADORES E VALORES MÉDIOS A SEREM DOADOS

Di fi ai

25 306 30675 102 408

100 082 490125 009 499150 001 500

Deste modo, usando (3), encontramos:

Logo, a capacidade de arrecadação do clube será de R$ 53,782 por torcedor. Assim, estipulando que o time tenha 25000 torcedores, a expectativa de arrecadação será de R$ 1344550.

Para reforçar seus estudos referente ao Tópico 1 e os tópicos subsequentes, pode ser útil ler Magalhães e Lima (2004).

DICAS

Page 24: Estatística E ProbabilidadE Em Física

15

Neste tópico, você aprendeu que:

• Os conceitos de estatística podem ser tratados em situações corriqueiras.

• Uma tabela é melhor organizada em termos de suas frequências.

• Existem termos básicos que são úteis para trabalhar os modelos estatísticos.

• Os dados trabalhados em estatística formam uma amostra e estas fazem parte de uma população.

• Podemos encontrar valores numéricos importantes como moda e mediana e estas são medidas de posição.

• Medidas de posição podem fornecer grandezas desejáveis para um tratamento mais aprofundado de um certo conjunto de dados.

• As variáveis estatísticas podem ser qualitativas e quantitativas, podendo ser ainda nominais ou ordinais, discretas ou contínuas.

RESUMO DO TÓPICO 1

Page 25: Estatística E ProbabilidadE Em Física

16

AUTOATIVIDADE

1 Existem diferentes maneiras de organizar uma tabela a partir de dados brutos extraídos. Podemos organizar uma tabela através da frequência ou mesmo da amplitude. Ainda, muitas vezes, é útil considerar a frequência e amplitude relativas.

Com as informações anteriores, suponha que certo filme para o público adolescente resolveu fazer um levantamento para saber a faixa etária de seu público e obteve os seguintes resultados:

Desenvolva os itens pedidos a seguir: a) Reescreva a tabela em termos de frequência.b) Reescreva a tabela em termos da amplitude.c) Reescreva a tabela em termos de frequência relativa.d) Reescreva a tabela em termos de amplitude relativa.

Com base em seus resultados, classifique V para as sentenças verdadeiras e F para as falsas:

( ) A tabela em termos de frequência tem a forma:

( ) A tabela em termos de amplitude tem a forma:

( ) A tabela em termos de frequência relativa tem a forma:

14 17 13 13 18 13 20 19 18 1816 15 13 19 17 17 15 14 20 1613 15 16 13 14 14 18 16 15 1317 16 18 14 13 17 19 20 14 1316 16 19 14 14 19 14 17 16 2013 21 15 14 17 18 16 15 20 14

fi 10 11 06 09 07 06 05 05 01di 13 14 15 16 17 18 19 20 21

ai 10 21 27 35 44 50 53 59 60di 13 14 15 16 17 18 19 20 21

Fi 1/6 11/60 1/10 3/20 7/60 1/10 1/12 1/12 1/60di 13 14 15 16 17 18 19 20 21

Page 26: Estatística E ProbabilidadE Em Física

17

( ) A tabela em termos de amplitude relativa tem a forma:

Agora, assinale a alternativa que apresenta a sequência CORRETA:a) ( ) V – F – V – F.b) ( ) V – V – F – F.c) ( ) V – F – V – V.d) ( ) F – V – F – V.

2 Em estatística, é útil obter alguns valores numéricos para uma posterior análise das informações colhidas. Tais valores são conhecidos como medidas de posição e, entre eles, temos frequência, mediana, moda e o valor médio.

Com a tabela a seguir:

Encontre demonstrando o resultado, a mediana, moda e o valor médio.

I- Mediana = 11,5. Moda = 13. Valor médio = 8,425.II- Mediana = 10,5. Moda = 13. Valor médio = 8,425.III- Mediana = 10. Moda = 11. Valor médio = 8,85.IV- Mediana = 11,5. Moda = 11. Valor médio = 7,967.

Agora, assinale a alternativa CORRETA:a) ( ) Somente a afirmativa I está correta.b) ( ) Somente a afirmativa II está correta.c) ( ) Somente a afirmativa III está correta.d) ( ) Somente a afirmativa IV está correta.

3 As chamadas variáveis aleatórias podem ser classificadas por diferentes atribuições, podendo ser uma variável quantitativa ou qualitativa. Caso a variável seja qualitativa, ela pode ser nominal ou ordinal enquanto que se for quantitativa, ela pode ser discreta ou contínua. A seguir, temos uma ilustração da classificação de variáveis aleatórias:

FONTE: Adaptado de Magalhães e Lima (2004, p. 8)

Ai 1/6 1/5 1/2 3/5 43/60 5/6 9/10 59/60 01di 13 14 15 16 17 18 19 20 21

09 06 14 10 11 05 04 02 0114 12 15 10 08 02 11 13 0912 11 07 13 05 11 07 12 05

VariávelQualitativa

Quantitativa

NominalOrdinal

DiscretaContínua

Page 27: Estatística E ProbabilidadE Em Física

18

Com suas próprias palavras, disserte sobre no que consiste cada tipo de variável aleatória.

4 Muitas vezes, usa-se o conceito de classe para trabalhar com certos dados estatísticos. Podemos dizer que em dados classificados por classes, se disponibilizam tais em razão de seus intervalos. Sendo dif o limite superior do intervalo, di0 o limite inferior e fi as frequências, através da tabela a seguir:

Agora, assinale a alternativa CORRETA:a) ( ) A média associada a tabela é aproximadamente 27,41.b) ( ) A média associada a tabela é aproximadamente 43,76.c) ( ) A média associada a tabela é aproximadamente 36,93.d) ( ) A média associada a tabela é aproximadamente 32,26.

dif / di0 fi

0 - 20 2620 - 40 5940 - 60 2260 - 80 0780 - 100 01

Page 28: Estatística E ProbabilidadE Em Física

19

TÓPICO 2 — UNIDADE 1

CONCEITOS BÁSICOS DE PROBABILIDADE

1 INTRODUÇÃO

A probabilidade aparece em muitos ramos do conhecimento humano, tal como Economia, Biologia, Física, Teoria dos Jogos etc. Seu estudo, sob o ponto de vista matemático, remonta aos trabalhos de Bernoulli já no Século XVII, em sua obra intitulada Ars Conjectandi, publicado no século seguinte em 1713, como pode ser visto em Hald (2003). Inicialmente, o estudo da probabilidade surge com o emergente interesse em jogos de azar, como pode ser lido em Memória (2004), e se difundindo posteriormente sob as diversas ramificações do conhecimento humano. Hoje em dia, a probabilidade é entendida como um ramo da estatística, que estudamos anteriormente.

Um ramo, em especial, em que os conceitos de probabilidade têm fundamental importância é na ciência Física, já que ela aparece desde a Teoria do Caos como na própria fundação da Teoria Quântica. Na mecânica Quântica, a probabilidade surge nos debates iniciais acerca da interpretação do significado da função de onda de uma partícula. Tal interpretação conhecida como Interpretação de Born diz que tal função de onda pode ser compreendida desde que seu quadrado nos forneça uma onda de probabilidade.

O histórico artigo de Born (1954), pode ser obtido no site oficial do prêmio Nobel, no endereço: nobelprize.org/prizes/physics/1954/born/lecture/.

DICAS

Entretanto, longe de sua importância acadêmica em Física, a probabilidade torna-se familiar simplesmente por observar nossos acontecimentos diários. Nos eventos cotidianos, a probabilidade emerge, por exemplo, num sorteio da loteria federal, em jogos de tabuleiro, de cartas ou de dados, no mercado financeiro etc.

Page 29: Estatística E ProbabilidadE Em Física

20

UNIDADE 1 — INTRODUÇÃO À PROBABILIDADE E ESTATÍSTICA

No Tópico 2, observando situações diversas mais próximas da realidade cotidiana, abordaremos os conceitos básicos de probabilidade, como sistema contendo apenas duas possibilidades, sua distribuição binomial de probabilidade e normalização, descritas em diferentes formas, como fazer predições em contextos probabilísticos usando valor esperado e desvio médio.

Espera-se, assim, que tal tópico sirva de suporte para um estudo mais aprofundado que será desenvolvido no Tópico 3.

2 PROBABILIDADE EM ALGUMAS SITUAÇÕES COTIDIANAS

Como já mencionado na Introdução, conceitos de probabilidade podem ser extraídos em diversas situações cotidianas. Alguns deles são os jogos de dados, cartas, loterias etc. Para começar nosso estudo, analisaremos tais situações ocorrentes em nosso dia a dia.

Consideraremos, inicialmente, um desafio de dados não viciados. Em tal desafio, devemos prever o número que será sorteado após alguns lançamentos aleatórios de dados. A probabilidade de acertar a face correta é de uma em seis após um único lançamento de dado, ou simplesmente 1/6. Podemos representar esta situação matematicamente como:

Aqui P(n) representa a probabilidade de se obter um número específico n de um total de seis números possíveis. Caso agora queiramos prever duas jogadas consecutivas, devemos apenas multiplicar uma probabilidade pela outra, ou seja:

Aqui n′ detona que os números não são necessariamente iguais. A regra de multiplicação anterior pode ser generalizada para um número indeterminado de jogadas. Por exemplo, seja m o número de jogadas subsequentes, teremos então a regra de multiplicação reescrita como:

A forma de calcular a probabilidade é muito sensível ao jogo que estamos querendo analisar. Por exemplo, se quisermos acertar dois números diferentes independentes da ordem, teremos então (para m = 2):

Page 30: Estatística E ProbabilidadE Em Física

TÓPICO 2 — CONCEITOS BÁSICOS DE PROBABILIDADE

21

A forma anterior ocorre porque, na primeira jogada, temos uma chance em três enquanto na segunda uma chance em seis. Note que no primeiro caso somamos as probabilidades, isto é:

Quando introduzimos, formalmente, os conceitos de probabilidade, veremos, que, em geral, temos regras diferentes para eventos que são independentes e para eventos que são exclusivos. Por hora, vamos nos ater a eventos independentes onde a regra da multiplicação é válida.

Para ilustrar outra situação de aplicabilidade de eventos independentes, analisaremos o corriqueiro jogo da Mega Sena. De vez em quando ouvimos ou lemos que a probabilidade de se ganhar nesse sorteio é de uma entre 50063860 milhões. Como se obtém esse valor? Nesse caso específico, para obter tal probabilidade, deve-se considerar que para cada bola sorteada, tem-se na próxima rodada um número total diferente de bolas, pois a cada sorteio uma bola é retirada para o sorteio posterior.

A maneira correta de se calcular a probabilidade da Mega Sena pode ser encontrada considerando a seguinte multiplicação:

Logo, podemos observar exatamente a probabilidade que nos é apresentada nos meios de comunicação. Note que apesar de o número total de bolas ter diminuído rodada após rodada (ao contrário do jogo de dados por exemplo), a probabilidade final é obtida através da regra de multiplicação.

No site da loteria federal, encontramos diferentes probabilidades para os chamados “bolões” da Mega Sena, isto é, apostando seis, sete bolas etc. Confira tais números e tente obtê-los assim como verificar também se o preço de cada bolão corresponde com a probabilidade encontrada de se ganhar nela apostando diferentes quantidades de bolas.

DICAS

1 1 1 .6 6 36

+ =

Page 31: Estatística E ProbabilidadE Em Física

22

UNIDADE 1 — INTRODUÇÃO À PROBABILIDADE E ESTATÍSTICA

Nos exemplos analisados anteriormente, a possibilidade de se obter um determinado número em relação ao outro era igualmente provável. No entanto, há casos em que a probabilidade de se obter um dado valor é maior que a probabilidade de se obter outro.

Como exemplo, vamos imaginar a mesma aposta, mas agora com dados viciados. Vamos considerar ainda que certo dado foi manipulado para que a probabilidade de se obter o valor 6 seja de 50%. Os demais valores são igualmente prováveis. Nesse caso, a probabilidade de se obter qualquer valor que não seja 6 deve ser de 1/10, pois a soma das probabilidades deve totalizar 100%, isto é:

Como devemos agora calcular a probabilidade de dada sequência?

Vamos considerar diferentes sequências contendo três jogadas:

• 6-1-4• 6-6-2• 6-6-6• 3-5-2

Para cada sequência, a probabilidade é fornecida na tabela a seguir:

TABELA 12 – PROBABILIDADE DE UMA SEQUÊNCIA ESPECÍFICA

FONTE: O autor

Sequência 6-1-4 6-6-2 6-6-6 3-5-2

Probabilidade

É interessante notarmos que podemos organizar a probabilidade de cada sequência como:

Page 32: Estatística E ProbabilidadE Em Física

TÓPICO 2 — CONCEITOS BÁSICOS DE PROBABILIDADE

23

Observando a estrutura matemática anterior, é possível generalizar a probabilidade de uma sequência qualquer (de número N indeterminado) em que cada face do dado esteja associada com uma probabilidade genérica de ocorrer. Considere a expressão a seguir:

(7) Pi é a probabilidade de uma certa face ocorrer e Ni a quantidade de vezes

que tal face aparece na sequência.

Agora repare que (7) pode fornecer qualquer resultado da tabela anterior apenas por computar o número de vezes em que as bolas aparecem na sequência, como, também, a probabilidade de cada bola ser sorteada.

Neste mesmo caso considerado anteriormente, devemos ainda considerar as relações auxiliares úteis:

P1 + P2 + P3 + P4 + P5 + P6 = 1,

E

N1 + N2 + N3 + N4 + N5 + N6 = N.

Em muitos casos que estudaremos posteriormente durante o curso, pode ser conveniente usarmos as notações de produtório e somatório. Fazendo uso dessa notação, podemos reescrever (7) simplesmente como:

Já as relações (8) tornam-se

E

(8)

Page 33: Estatística E ProbabilidadE Em Física

24

UNIDADE 1 — INTRODUÇÃO À PROBABILIDADE E ESTATÍSTICA

3 SISTEMAS DE DUAS OPÇÕES

Muito úteis são os problemas contendo apenas duas opções possíveis, por exemplo, um jogo de cara ou coroa. Um problema muito usual na literatura é também considerar o “caminho aleatório” ou “marinheiro bêbado”. Tal problema consiste em analisar uma trajetória em que cada “passo” caminhado pelo marinheiro é sujeito a condições probabilísticas. Em uma dimensão (trajetória sobre uma linha reta) as opções possíveis são os passos:

• “Para frente”• “Para trás”

Vamos supor que nosso marinheiro caminhe com uma probabilidade P> de seu passo ser dado para frente e uma probabilidade P< de seu passo ser dada para trás. Depois de N passos, a probabilidade do marinheiro ter dado N> passos para frente e N< passos para trás será dada por:

(9)

Note que temos aqui uma equação similar para os casos dados anteriormente com a única diferença que, neste caso, estamos considerando apenas duas possibilidades possíveis. De maneira também similar, teremos, ainda:

P< + P> = 1,

E

N< + N> = N,

Para ilustrar, vamos supor uma sequência de três passos, isto é, N = 3. Neste caso teremos os possíveis cenários:

• (P<)3 (P>)0

• (P<)2 (P>)1

• (P<)1 (P>)2

• (P<)0 (P>)3

Digamos que para cada três passos, a probabilidade do marinheiro dar um passo para frente é de P< = 2/3 enquanto que para trás é de P> = 1/3. Substituindo os valores em possibilidade anterior, encontramos as probabilidades referentes para cada caso, ou seja:

(10)

Page 34: Estatística E ProbabilidadE Em Física

TÓPICO 2 — CONCEITOS BÁSICOS DE PROBABILIDADE

25

Agora devemos reparar a desigualdade:

Podemos, então, nos indagar: por que a soma das probabilidades de cada possibilidade não totalizou 100%? Onde se encontra o fator 12/27?

Para solucionar essa pergunta, vamos considerar a situação em que o marinheiro anda dois passos para frente e um passo para trás.

Notamos que temos três configurações diferentes possíveis que satisfazem este caso. São eles:

• trás-frente-frente• frente-trás-frente• frente-frente-trás

Do modo similar, teremos três casos diferentes para dois passos para trás e um para frente. Já para os casos de três passos para frente ou para trás, teremos apenas uma possibilidade, ou seja:

frente-frente-frente ou trás-trás-trás.

Agora repare que:

Desse modo, temos encontrado o “12/27” que estava faltando.

Devemos reparar ainda que os fatores multiplicados aos termos probabilísticos, podem ser obtidos do seguinte modo:

Page 35: Estatística E ProbabilidadE Em Física

26

UNIDADE 1 — INTRODUÇÃO À PROBABILIDADE E ESTATÍSTICA

E

O que acabamos de introduzir informalmente foi a noção de normalização. Ou seja, para calcular corretamente a probabilidade final, devemos normalizar cada contribuição. Tal termo de normalização pode ser representado matematicamente por:

(11)

Podemos concluir então que a probabilidade de cada possibilidade ocorrer é dada pela multiplicação de (9) com (11), ou seja:

(12) Como veremos mais adiante, a expressão obtida anteriormente é

conhecida como distribuição binomial e será amplamente trabalhada por nós durante a Unidade 1.

Para o problema do caminho aleatório, você pode encontrar um desenvolvimento similar mais com maior rigor matemático em Salinas (1997)..

DICAS

Usando as relações (10), podemos reescrever (12) como se segue:

(13)

A partir daqui, devemos querer associar nossas fórmulas obtidas anteriormente com uma situação que tenha um certo contexto físico. Para isso, vamos considerar, por exemplo, que para cada passo dado tenhamos Δx de comprimento. A real distância percorrida é então pega como a diferença de passos para frente e passos para trás, isto é:

ΔX = X> – X<.

Page 36: Estatística E ProbabilidadE Em Física

TÓPICO 2 — CONCEITOS BÁSICOS DE PROBABILIDADE

27

A expressão anterior deve ser proporcional a N> – N< , ou seja, a diferença entre o que o marinheiro andou para frente e o que andou para trás convertidos em metros. X = X> + X< é a distância total percorrida e então está associada com N. Vamos reescrever (12) como:

(14)

Agora, necessitamos realizar um pouco de álgebra. Repararmos que:

E

Substituindo as relações anteriores em (14), como também:

P< = 1 – P>

Encontramos

(15) Deste modo, na fórmula anterior, a probabilidade é calculada em termos

da distância total percorrida X e da distância deslocada efetivamente ΔX.

Podemos usar a fórmula (15) para descrever, por exemplo, a probabilidade de se encontrar uma partícula em certa distância em uma dimensão. Por simplicidade, vamos continuar analisando o movimento do marinheiro. Vamos supor que cada passo do marinheiro é equivalente a um metro de distância. Vamos também supor que ele anda dez metros no total X = 10 m. Com a fórmula (15) em mãos, podemos calcular as diversas probabilidades de ele se encontrar em uma dada posição ΔX.

Considere inicialmente como um primeiro exemplo, a probabilidade de encontrar o marinheiro na posição ΔX = 10 m. Substituindo X = 10 e ΔX = 10 em (15), encontramos:

Page 37: Estatística E ProbabilidadE Em Física

28

UNIDADE 1 — INTRODUÇÃO À PROBABILIDADE E ESTATÍSTICA

Já para ΔX= 8 m, 6 m, 4 m, 2 m, teremos respectivamente:

Para o caso em que efetivamente o marinheiro “não andou” ΔX = 0, obtemos:

Enquanto para os casos em que ele andou “para trás”, isto é, ΔX < 0, encontramos:

E

Vamos prosseguir inicialmente fazendo uma análise simples. Se o marinheiro andar para frente com 100% de certeza (P> = 1), podemos notar que:

P(10) = 1

Enquanto todos os demais são iguais a zero, pois 1 – P> = 0. Ou seja, temos 100% de certeza de que encontraremos o marinheiro na posição 10 m. No entanto, se a probabilidade de andar para frente for nula, teremos:

P(–10) = 1

Page 38: Estatística E ProbabilidadE Em Física

TÓPICO 2 — CONCEITOS BÁSICOS DE PROBABILIDADE

29

E os demais igual a zero, uma vez que P> = 0. Logo, temos 100% de certeza de que encontraremos o marinheiro na posição –10 m. Analisado o caso trivial, devemos agora querer estudar um caso não trivial. Consideraremos nosso exemplo inicial, em que P> = 2/3. Substituindo este valor em P(10), encontramos rapidamente:

P(10) ≃ 0,0173.

Já para P(8), teremos:

Com os dois resultados anteriores, vemos que é mais provável encontrar o marinheiro em 8 m (8,67 %) do que em 10 m (1,73 %). Realizando o mesmo procedimento para as posições, encontramos:

• P(6) ≃ 0,1951• P(4) ≃ 0,2601• P(2) ≃ 0,2276• P(0) ≃ 0,1366• P(-2) ≃ 0,0569• P(-4) ≃ 0,0163• P(-6) ≃ 0,0030• P(-8) ≃ 0,0003• P(-10) ≃ 0,0000

Logo, encontramos todas as possibilidades e suas probabilidades associadas ao contexto estabelecido por nós.

4 PREDIÇÕES NO CONTEXTO PROBABILÍSTICO

No subtópico anterior, temos calculado a probabilidade de encontrarmos em uma dada posição, um marinheiro que anda sujeito a regras probabilísticas. Todavia, como podemos falsear nosso modelo? Ou seja, como podemos sujeitar tal modelo a uma prova? Uma opção é considerar uma média entre as variáveis possíveis de se obter. Porém, como elaborar tal média, uma vez que cada valor possível carrega uma probabilidade para acontecer?

Para ilustrar, vamos, novamente, voltar para o problema do marinheiro. Por exemplo, se considerarmos uma média simples no exemplo do marinheiro, a média das posições ΔX nos forneceria o número zero. Por nossos resultados obtidos, a probabilidade em tal posição é de:

P(0) ≃ 13,66 %.

Page 39: Estatística E ProbabilidadE Em Física

30

UNIDADE 1 — INTRODUÇÃO À PROBABILIDADE E ESTATÍSTICA

Se repararmos, ainda, as probabilidades decaem para posições ΔX < 0. Se continuarmos ainda observando, podemos ver que a probabilidade vai aumentando até ΔX = 4 (P(4) ≃ 26,01 %) e novamente decai para ΔX > 4. Podemos resumir tais análises ao gráfico a seguir:

GRÁFICO 3 – PROBABILIDADE DE ENCONTRAR O MARINHEIRO EM CERTA POSIÇÃO - I

FONTE: O autor

Podemos reparar que o valor zero não nos fornece nenhuma informação relevante para a melhor compreensão do sistema. Vamos analisar então uma composição que leve em conta o valor ΔX, tal como seu “peso probabilístico” P(ΔX). Supomos uma simples multiplicação, ou seja:

P(ΔX) ⋅ ΔX.

Por simplicidade, vamos considerar agora X = 5 e –5 < ΔX < 5. Vamos manter P> = 2/3 como nos exemplos anteriores. É bom sempre lembrarmos que aqui os valores de ΔX são discretos. Usando (15), encontramos:

• P(5) ≃ 13,17 %• P(3) ≃ 32,92 %• P(1) ≃ 32,92 %• P(–1) ≃ 16,46 %• P(–3) ≃ 4,12 %• P(–5) ≃ 0,41 %

Page 40: Estatística E ProbabilidadE Em Física

TÓPICO 2 — CONCEITOS BÁSICOS DE PROBABILIDADE

31

É interessante notar, nos resultados anteriores, que a probabilidade de se encontrar o marinheiro nas posições 1 m e 3 m é a mesma. Como já mencionamos e mostramos através do gráfico, a média simples nos dá uma informação que não nos fornece nenhuma informação importante. Diante das probabilidades encontradas anteriormente, intuitivamente, podemos pensar que uma média ideal, nos deva fornecer um valor entre 1 e 3. Consideramos então, a somatória de todos os valores multiplicados por seus respectivos pesos probabilísticos, ou seja:

∑ P(ΔX) ⋅ ΔX ≃ 0,0041(-5) + 0,0412(-3) + 0,1646(-1) + 0,3292(1) + 0,3292(3) + 0,1317(5)≃ 1,667.

Deste modo, o valor final está entre 1 e 3, como queríamos!

No entanto, podemos perceber que valor não se encontra equidistante de 1 e 3. Isso ocorre, pois os demais valores são também considerados. Observe o gráfico a seguir:

GRÁFICO 4 – PROBABILIDADE DE ENCONTRAR O MARINHEIRO EM CERTA POSIÇÃO - II

FONTE: O autor

Podemos agora notar que o valor encontrado nos fornece uma informação relevante do sistema. O que acabamos de encontrar, isto é:

<ΔX> = ∑ P(ΔX) ⋅ ΔX, É conhecido como valor esperado ou apenas valor médio de ΔX.

(16)

Page 41: Estatística E ProbabilidadE Em Física

32

UNIDADE 1 — INTRODUÇÃO À PROBABILIDADE E ESTATÍSTICA

Outra definição importante, segue do desvio de uma dada variável quanto ao valor médio calculado. Por exemplo, os valores de nosso exemplo:

X = –5, –3, –1, 1, 3, 5

Se “desviam” Δ do valor esperado <ΔX>, simplesmente por tomar equações:

Δ(–5) = –5 – 1,667 = –6,667, Δ(–3) = –3 – 1,667 = –4,667

E assim por diante.

De modo geral, tem-se que o desvio médio Δ(X) de X é dado neste caso por:

Δ(X) = X – <X>. (17)

Page 42: Estatística E ProbabilidadE Em Física

33

RESUMO DO TÓPICO 2

Neste tópico, você aprendeu que:

• Podemos quantificar alguns problemas probabilísticos simples de situações cotidianas, como num jogo de dado ou num jogo da loteria.

• O problema do caminho aleatório é útil para definir alguns conceitos importantes.

• Um sistema de duas opções, como o problema do marinheiro, segue uma distribuição binomial de probabilidade.

• Para podermos trabalhar com predições de um modelo guiado por probabilidade, devemos introduzir algumas grandezas matemáticas para tornar a análise do sistema em questão mais adequada, como valor médio e desvio médio.

Page 43: Estatística E ProbabilidadE Em Física

34

AUTOATIVIDADE

1 A probabilidade aparece em nosso cotidiano de muitas maneiras diferentes, como em jogos de dados, jogos de cartas, na loteria etc. No jogo de “general”, a probabilidade de acertar a maior jogada é de uma em sete mil setecentos e setenta e seis. Tal jogo consiste em jogarmos simultaneamente cinco dados não viciados, enquanto a maior jogada é obtida quando os cinco dados fornecem o número seis. Desse modo, a probabilidade de se conseguir a maior jogada é de 1/65. Considerando que alguns dados sejam viciados, encontre a probabilidade da maior jogada para os seguintes casos:

1° caso: um dado viciado com a probabilidade de 1/3 para cair o número seis.2° caso: um dado viciado com a probabilidade de 1/2 para cair o número

quatro.3° caso: dois dados viciados, um com probabilidade de 1/4 para cair o número

seis e outro com probabilidade de 1/5 para cair o mesmo número.4° caso: dois dados viciados, um com probabilidade de 1/3 para cair o número

cinco e outro com probabilidade de 1/3 para cair o número seis.5° caso: dois dados viciados, um com probabilidade de 1/3 para cair o número

três e outro com probabilidade de 1/3 para cair o número dois.

Com base em seus resultados, analise as seguintes sentenças:

I- 1°: P = 1/3888, 2°: P = 1/12960, 3°: P = 1/4320, 4°: P = 1/4860, P = 1/12150.II- 1°: P = 1/3888, 2°: P = 1/9750, 3°: P = 1/3830, 4°: P = 1/6440, P = 1/5150.III- 1°: P = 1/496, 2°: P = 1/9750, 3°: P = 1/3830, 4°: P = 1/4860, P = 1/5150.IV- 1°: P = 1/3888, 2°: P = 1/12960, 3°: P = 1/4320, 4°: P = 1/6440, P = 1/12150.

Agora, assinale a alternativa CORRETA:a) ( ) Somente a sentença I está correta.b) ( ) Somente a sentença II está correta.c) ( ) Somente a sentença III está correta.d) ( ) Somente a sentença IV está correta.

2 O caminho aleatório é um bom exemplo dos chamados sistemas de duas opções. Sua fórmula matemática para a probabilidade é a seguinte:

Com base em seus conhecimentos de sistemas de duas opções, classifique V para as sentenças verdadeiras e F para falsas:

Page 44: Estatística E ProbabilidadE Em Física

35

( ) O termo é um fator de normalização.( ) P< + P> = P.( ) N< + N> = N.( ) A fórmula pode ser alternativamente representada por:

Agora, assinale a alternativa que apresenta a sequência CORRETA:a) ( ) V – V – F – F.b) ( ) F – V – V – V.c) ( ) V – F – V – F.d) ( ) F – F – V – V.

3 Sistemas probabilísticos, como o problema do caminhar do marinheiro, são úteis porque envolvem apenas duas possibilidades e preparam para uma melhor compreensão de sistemas probabilísticos mais complexos. Usando a fórmula do caminho do marinheiro:

E considerando X = 5 e P> = ¼, encontre todas as probabilidades para cada ΔX possível demonstrando o resultado e observe os seguintes resultados:

I- P (–5) = 0,237, P (–1) = 0,264, P (+3) = 0,015.II- P (–4) = 0,124, P (+2) = 0,217, P (+4) = 0,017.III- P (–3) = 0,396, P (+3) = 0,0015, P (+5) = 0,010.IV- P (–4) = 0,124, P (–2) = 0,216, P (+2) = 0,217.V- P (–3) = 0,396, P (+1) = 0,088, P (+5) = 0,001.

Agora, assinale a alternativa CORRETA:a) ( ) Somente afirmativa II está correta.b) ( ) Somente afirmativa V está correta.c) ( ) As afirmativas II e IV estão corretas.d) ( ) As afirmativas I e V estão corretas.e) ( ) As afirmativas I e III estão corretas.

4 Para um melhor entendimento dos possíveis resultados que podem ser acessados num sistema regido por probabilidades, torna-se útil a construção de gráficos. Em outra mão, podemos recuperar informações através de um gráfico, desde que sabemos o sistema aleatório de que estamos tratando. Considerando o caminho aleatório representado no gráfico a seguir:

Page 45: Estatística E ProbabilidadE Em Física

36

E sua fórmula matemática da questão anterior, classifique V para as sentenças verdadeiras e F para as falsas:

( ) A probabilidade de o passo ser dado para frente é de 4/5.( ) A probabilidade de o passo ser dado para trás é de 1/4.( ) O valor esperado é 2,002.( ) O valor esperado é 1,998.

Agora, assinale a alternativa que apresenta a sequência CORRETA:a) ( ) V – F – F – F.b) ( ) V – F – V – F.c) ( ) F – V – F – V.d) ( ) F – V – V – V.

Page 46: Estatística E ProbabilidadE Em Física

37

TÓPICO 3 — UNIDADE 1

FUNDAMENTOS DE PROBABILIDADE

1 INTRODUÇÃO

Depois do trabalho pioneiro de Bernoulli, ao longo dos séculos subsequentes, a probabilidade tem sido desenvolvida em termos de uma matemática mais formal e rigorosa. A primeira definição de probabilidade (conhecida hoje como definição clássica) foi fornecida pelo matemático francês Laplace, em sua obra intitulada como Théorie analytique des probabilités, em 1812.

De lá para cá, com o desenvolvimento formal em prática, ela pode efetivamente ser introduzida nos mais diferentes ramos do conhecimento humano. Como sendo usual em matemática, a probabilidade tem sido formalizada em termos de objetos abstratos que podem tomar formas concretas em diferentes âmbitos.

Neste Tópico 3, abordaremos tais construções teóricas como a definição clássica de probabilidade, fenômenos aleatórios e espaço amostral, eventos, condições que a probabilidade deve satisfazer, variáveis aleatórias e buscaremos incorporá-las em diferentes problemas. Trabalharemos também com diferentes tipos de distribuições contínuas e discretas e aplicaremos os conhecimentos adquiridos previamente no tópico anterior.

2 DEFINIÇÕES E CONCEITOS BÁSICOS

Já definimos informalmente alguns aspectos matemáticos importantes para contextualizar probabilidade no dia a dia, como caminho aleatório, distribuição binomial, valor médio e desvio médio. Aqui, discutiremos uma abordagem mais rigorosa acerca dos entes probabilísticos necessários.

Começaremos por definir o próprio conceito de probabilidade. A probabilidade pode ser definida como a possibilidade de um evento, entre outros possíveis eventos, ocorrer. Já a definição clássica de probabilidade, fornecida por Laplace (1812), é dada pelo quociente entre o número de casos prováveis n° e o número de casos possíveis N°:

(18)

Page 47: Estatística E ProbabilidadE Em Física

38

UNIDADE 1 — INTRODUÇÃO À PROBABILIDADE E ESTATÍSTICA

O objeto matemático que carrega tal atribuição anterior é nosso P, trabalhado anteriormente. Para um melhor entendimento rigoroso, devemos compreender o conceito de fenômenos aleatórios e espaço amostral.

Espaço amostral é o conjunto de todos os valores que podem ser acessados em um fenômeno aleatório. Já um fenômeno aleatório pode ser entendido como um fenômeno em que estes valores não podem ser previstos com exatidão.

Isto é, aqui estamos distinguindo duas classes de fenômenos. Temos os fenômenos ditos determinísticos, que podem ser repetidos com exatidão em lugares diferentes, desde com as mesmas condições, e os fenômenos aleatórios, que não cumprirão esta propriedade.

Denotando o espaço amostral pela letra Ω, define-se um evento como um subconjunto de Ω. Um evento é dito elementar se o subconjunto de Ω contém somente um elemento de Ω.

Seguindo Magalhães e Lima (2004), vamos denotar eventos por letras latinas maiúsculas. Como é usual, A ∪ B e A ∩ B referem-se, respectivamente, à união e à intersecção de dois eventos A e B. Na prática, A ∪ B nos informa a ocorrência de um dos eventos A ou B, enquanto A ∩ B delega uma ocorrência simultânea dos referidos eventos. A e B são mutualmente exclusivos se A ∩ B = Ø, com Ø representando o conjunto vazio. Se A ∪ B = Ω e A ∩ B = Ø, A e B são ditos complementares.

A probabilidade P é uma função que associa aos eventos de Ω, um número real a. Podemos simbolizá-la matematicamente como:

P : A ↦ a, a ∈ R, A ⊂ Ω.

Adicionalmente P deve satisfazer as seguintes condições:

• 0 ≤ P(A) ≤1, A ⊂ Ω• P(Ω) = 1• P(A ∪ B) = P(A) + P(B) - P(A∩B)

Se A e B são eventos mutualmente exclusivos, teremos, então:

A ∩ B = Ø.

Desde que P(Ø) = 0, o terceiro item é reescrito neste caso como segue:

P(A ∪ B) = P(A) + P(B).

Agora, se A e B são complementares, teremos também:

A ∪ B = Ω e P(Ω) = 1

(19)

Page 48: Estatística E ProbabilidadE Em Física

TÓPICO 3 — FUNDAMENTOS DE PROBABILIDADE

39

Tal que o terceiro item se torna:

P(A) = 1 – P(B).

A e B são ditos para serem eventos independentes quando é possível desmembrar o termo P(A ∪ B) como se segue:

P(A∪B) = P(A)P(B).

A regra anterior é a regra de multiplicação que temos usado anteriormente em alguns casos.

Vamos, agora, clarificar a linguagem abstrata fornecida acima em três exemplos diferentes. O primeiro será dado através de alguns casos simples. Seguem eles:

Exemplo 1: vamos iniciar considerando um jogo de moeda com as possibilidades de se obter cara e coroa, um jogo de dados e logo após um jogo de cartas. No primeiro caso, o espaço amostral é especificado por dois eventos:

• Cara A• Coroa B

Logo, podemos escrever o espaço amostral como:

Ω = {A , B}.

A probabilidade de cada evento é:

• P(A) = 1/2• P(B) = 1/2

Logo 0 ≤ P(A) ≤ 1 e 0 ≤ P(B) ≤ 1 são satisfeitos. O terceiro item fornece:

P(A∪B) = P(A) + P(B) = ½ + ½ = 1

Desde que A ∩ B = Ø. Neste caso, A ∩ B = Ø é válido uma vez que se encontrarmos cara, a coroa é automaticamente excluída.

Voltamos para o caminho aleatório (12). Consideremos um único passo N = 1, tal que:

Page 49: Estatística E ProbabilidadE Em Física

40

UNIDADE 1 — INTRODUÇÃO À PROBABILIDADE E ESTATÍSTICA

Logo, temos formalmente o mesmo caso do jogo de cara e coroa quando P(N<) = P< = 1/2 e P(N>) = P> = 1/2.

O espaço amostral é Ω = {N<, N>}. Como um passo para frente exclui o passo para trás, segue que N< ∩ N> = Ø. A união de N< e N>é N< ∪ N> = Ω, tal que:

P< = P> – 1

Que é a relação qual já havíamos trabalhado anteriormente.

Exemplo 2: referente ao jogo de dado, o espaço amostral neste caso é:

Ω = {A , B, C, D, E, F}

A probabilidade de ocorrer um dos eventos pode ser representada como:

0 < P(A) = P(B) = P(C) = P(D) = P(E) = P(F) = < 1.

Logo, vemos que a primeira condição é satisfeita. P(Ω) = 1 indica a somatória das probabilidades individuais, logo também é satisfeita.

Agora queremos saber a probabilidade de observarmos A ou B, ou seja, P (A ∪ B). Se temos duas chances em seis possibilidades, a probabilidade deve ser de 1/3. Desde que A e B não podem ocorrer simultaneamente, pelo terceiro item teremos:

P(A∪B) = P(A) + P(B) =

Logo, tal item é satisfeito.

Exemplo 3: trataremos, agora, de um jogo de cartas de baralho. O jogo consiste em embaralhar quatro cartas com naipes diferentes e prever uma sequência de três cartas consecutivas. Os distintos eventos possíveis são resumidos na tabela a seguir:

TABELA 13 – EVENTOS POSSÍVEIS DO JOGO DE CARTAS

FONTE: O autor

A = ♣♠♢ E = ♣♡♠ I = ♠♦♣ M = ♢♠♣ Q = ♢♡♣ U = ♡♣♠

B = ♣♠♡ F = ♣♡♢ J = ♠♢♡ N = ♢♠♡ R = ♢♡♠ V = ♡♣♢

C = ♣♢♠ G = ♠♣♢ K = ♠♡♣ O = ♢♣♠ S = ♡♠♣ X = ♡♢♣

D = ♣♦♡ H = ♠♣♡ L = ♠♡♢ P = ♢♣♡ T = ♡♠♢ Z = ♡♢♠

Page 50: Estatística E ProbabilidadE Em Física

TÓPICO 3 — FUNDAMENTOS DE PROBABILIDADE

41

Vale a pena notar, aqui, que os eventos que queremos encontrar não são dados pela ocorrência de um específico naipe, mas sim por uma sequência determinada de naipes. O espaço amostral neste caso é estipulado como:

Ω = {♣ , ♠ , ♢ , ♡}.

Os eventos ♣, ♠, ♢ e ♡ são elementares enquanto A, B, ... e Z são eventos fornecidos pela combinação de eventos elementares.

Por exemplo, a probabilidade de cada evento ocorrer é, neste caso, obtida pela regra de multiplicação com respeito aos eventos elementares. Supomos que queremos saber a probabilidade de J ocorrer. Então, para P(J) teremos:

P(J) = P(♠;♣,♢,♡)P(♢;♣,♡)P(♡;♣) = .

Para a probabilidade de se encontrar dois eventos sequências distintos, por exemplo P(J) ou P(K), teremos que observar os eventos:

• ♠♢♡• ♠♡♣

Na primeira jogada, a probabilidade de sair ♠ é 1/4. Na segunda, teremos 2/3. A partir da segunda jogada um dos eventos é descartado tal que a última jogada deve ter probabilidade de 1/2. Assim encontramos a probabilidade (regra da multiplicação) de 1/12. Agora, vamos considerar a probabilidade de ocorrer J ou I. Temos:

• ♠♢♡• ♠♢♣

Assim, a probabilidade é de 1/4 na primeira jogada, 1/3 na segunda e 1 na terceira, tal que a probabilidade final é novamente de 1/12. Para finalizar, vamos considerar dois jogos em que nenhuma carta coincide em uma determinada jogada da sequência, por exemplo, J ou A. Temos:

• ♠♢♡• ♣♠♢

Assim, a probabilidade da primeira jogada é 1/2. A partir daí um dos eventos é descartado tal que a probabilidade da segunda jogada é 1/3 e da terceira 1/2. Assim, a probabilidade final é também de 1/12. Logo, a probabilidade de dois eventos distintos é dada pela regra:

P(J∪K) = P(J) + P(A, B etc) = .

Logo, J e A, B etc. são eventos mutualmente exclusivos.

Page 51: Estatística E ProbabilidadE Em Física

42

UNIDADE 1 — INTRODUÇÃO À PROBABILIDADE E ESTATÍSTICA

Os exemplos 1 e 2 são conhecidos como casos particulares de Laplace. Tais relatam eventos equiprováveis. Neste caso particular, se Ω = {A

1, A

2,..., A

n} a probabilidade

de cada evento é:

P(A1) = P(A

2) = ... = P(A

n) = .

Entretanto, devemos ficar atentos que a definição geral de probabilidade engloba casos mais gerais, como por exemplo o do caminho aleatório ou a de um dado viciado.

DICAS

3 VARIÁVEIS ALEATÓRIAS

Começaremos formalizando o conceito de variável aleatória. Uma variável aleatória é uma função V que para cada elemento A de Ω associa um número real v:

V : A ↦ v, v ∈ ℝ, A ⊂ Ω. Devemos enfatizar aqui que uma variável aleatória V é uma função, desde

que Ω ↦ ℝ, pois associa um número real v ∈ ℝ para cada elemento A do espaço amostral Ω. Notamos ainda que Ω é o domínio enquanto ℝ é o contradomínio.

Tal variável aleatória pode ser tanto discreta como contínua. Podemos caracterizar a natureza da variável aleatória da seguinte maneira:

• Variável aleatória discreta: assume valores específicos de um intervalo de ℝ, podendo ter uma quantidade finita ou infinita enumerável.

• Variável aleatória contínua: pode assumir qualquer valor de um intervalo de ℝ, tendo uma quantidade infinita e não enumerável.

Como exemplo de variável discreta temos uma quantidade de partícula ou a quantidade de decaimentos radioativos de certa amostra, enquanto, de uma variável contínua, a massa de um certo corpo ou o volume que este corpo ocupa no espaço.

Aqui devemos reparar que apesar da semelhança estrutural de (19) e (20), a função V não é identificada com a função P, tal que em geral v ≠ a. Grosso modo, podemos pensar que V associa a A um valor numérico v que por sua vez estará associado com a probabilidade a através de (20).

Uma função de probabilidade pode então ser definida como:

P(V(A) = v) = P(A).

(20)

Page 52: Estatística E ProbabilidadE Em Física

TÓPICO 3 — FUNDAMENTOS DE PROBABILIDADE

43

Agora que já caracterizamos e diferenciamos os diferentes tipos de variáveis aleatórias, agora partiremos então para o estudo das definições de variáveis aleatórias discretas e contínuas.

3.1 VARIÁVEIS ALEATÓRIAS DISCRETAS

Como temos mencionado anteriormente, uma variável aleatória V é de natureza discreta se {vi} é um conjunto enumerável, podendo ser finito ou infinito.

Para ilustrar, consideraremos o caso trabalhado anteriormente no Exemplo 1 (jogo de cara ou coroa). Definiremos nossa variável aleatória como o número de coroas observadas num experimento aleatório. Podemos denotar as duas possibilidades como 0 (cara) e 1 (coroa). Desse modo, numa única jogada onde o espaço amostral é Ω = {C1=Cara, C2=Coroa}, podemos associar a cada elemento os valores 0 e 1 do seguinte modo:

C1 ↦ v1 (Cara ↦ 0),

C2 ↦ v2 : (Coroa ↦ 1).

Já se considerarmos que o experimento consiste em duas jogadas consecutivas, podemos denotar o espaço amostral associado com o experimento como:

Ω = {A = (C1, C1), B = (C1, C2), C = (C2, C1), D = (C2, C2)}.

Assim, a associação com cada elemento Ω realizada por nossa variável aleatória será feita da seguinte maneira:

A ↦ v1 (Cara/Cara ↦ 0),B ou C ↦ v2: (Cara/Coroa ou Coroa/Cara ↦ 1),

D ↦ v3 (Coroa/Coroa ↦ 2).

Com base nos dois exemplos anteriores, podemos perceber que uma variável aleatória é discreta quando associa valores a Ω que podem ser enumerados.

Agora perceba que dado um conjunto de variáveis aleatórias {vi} (discretas), o conjunto de probabilidades {Pi} está devidamente normalizado, se a somatória de Pi (vi) seja igual a um, isto é:

∑ Pi (vi) = P₁(v₁) + P₂(v₂) + ... + Pn (vn) = 1. Em nosso exemplo de duas jogadas de cara ou coroa: ∑ Pi (vi) = P₁(0) +

P₂(1) + P3 (2) = ½ + ¼ + ½ = 1.

(21)

Page 53: Estatística E ProbabilidadE Em Física

44

UNIDADE 1 — INTRODUÇÃO À PROBABILIDADE E ESTATÍSTICA

O conjunto {Pi} é usualmente chamado de distribuição, que é uma função a qual associa uma probabilidade Pi para cada elemento vi de V, tal que para qualquer Pi:

0 ≤ Pi ≤ 1. Podemos representar uma distribuição especificando a dupla vi e Pi(vi).

Por exemplo, nos Gráficos 3 e 4, representamos a probabilidade de se encontrar o marinheiro numa certa posição ΔX. Assim, a distribuição para aquele caso é Pi(ΔXi), sendo a variável aleatória V = {ΔXi}. Notamos que a estrutura do andar do marinheiro é análoga ao do jogo de cara e coroa, sendo as opções cara/coroa substituídas por “passo para frente/trás”. No entanto, lá definimos -1 para “passo para trás” e para +1 “passo para frente”, de modo que nossas variáveis aleatórias levavam aos intervalos discretos –10, –8, –6, ..., 6, 8, 10 (Gráfico 3) e –5, –3, ..., 3, 5 (Gráfico 4).

Devemos notar também que uma distribuição se torna útil para responder outros problemas que podem surgir. Por exemplo, considerando ainda o problema do caminho aleatório, podemos nos perguntar qual a probabilidade (considerando por exemplo P> = 2/3) de o marinheiro ter efetivamente andado para trás depois de percorrer uma distância total ΔX? Para responder essa questão, começaremos considerando o caso do Gráfico 4 (ΔX=5). A variável aleatória é definida como sendo a soma dos passos para frente e trás. Assim, para a probabilidade de ter andado efetivamente para trás deve ser a soma das probabilidades Pi (ΔXi= –5, –3, –1), ou seja:

P(–5) + P(–3) + P(–1) = 0,41 + 4,12 + 16,46 = 20,99%.

Logo, o conhecimento da distribuição pode nos auxiliar para melhor analisar um certo sistema. Similarmente, para Gráfico 3 (ΔX=10), teremos:

P(–10) + P(–8) + P(–6) + P(–4) + P(–2) = 7,65 %.

Deste modo, podemos concluir que à medida em que o marinheiro anda menos chances teremos de encontrar nas posições atrás de onde começou sua caminhada.

Mais à frente, em 4. Distribuições de probabilidade, focaremos nossas atenções em algumas importantes distribuições as quais têm importantes aplicações em Física. No que segue, vamos nos ater para algumas definições importantes referentes as variáveis aleatórias.

Page 54: Estatística E ProbabilidadE Em Física

TÓPICO 3 — FUNDAMENTOS DE PROBABILIDADE

45

3.1.1 Valor Médio

Já havíamos trabalhado valor médio no contexto do caminho aleatório. Agora, o definiremos formalmente.

Dada uma variável aleatória V que associa elementos do espaço amostral Ω ao intervalo de valores discretos {vi}, definimos o valor médio <v>, do conjunto {vi}, da seguinte maneira:

<v(V)> = ∑ Pi (V = vi) ⋅ vi .

Para entendermos melhor o papel, deixe-nos apresentar um exemplo.

Supomos que um grupo de investidores pretende comprar ações de certa empresa. Para se tomar a decisão da compra ou não de tais ações, uma seguinte tabela referente à probabilidade de valorização das ações da empresa é tomada em conta. Na tabela constam as seguintes informações:

(22)

TABELA 14 – PROBABILIDADE DE VALORIZAÇÃO DAS AÇÕES

FONTE: O autor

Valorização (R$) +30 +20 +10 -10 -20 -30Probabilidade (%) 3,7 11,4 37,8 28,3 11,5 7,3

Observada a tabela, para se tomar a decisão, o grupo de investidores decide calcular sua esperança de lucro através da fórmula (22), ou seja:

<v> = 30(0,037) + 20(0.114) + 10(0,378) – 10(0,283) –20(0,115) – 30(0,073) = –0,15.

Assim, de acordo com a distribuição de probabilidade associada ao conjunto de valorização da ação, qual formam o conjunto de valores associada à variável aleatória, indica uma desvalorização de quinze centavos por ação, indicando, assim, que tal investimento deve gerar perdas. Notamos ainda que temos chamado a atenção ao termo esperança. De fato, muitas vezes, o valor médio é chamado de esperança matemática ou mesmo como valor esperado.

Outra quantidade importante que segue diretamente do valor médio é o

desvio da medida Δ, o qual é definido como se segue:

Δ(vi) = vi – <v> . Podemos reparar que equação (23) fornece a diferença de vi em relação

ao valor médio <v>. Por exemplo, se em nosso exemplo anterior, a ação acabou valorizando dez reais, tivemos um desvio de R$ 9,85.

(23)

Page 55: Estatística E ProbabilidadE Em Física

46

UNIDADE 1 — INTRODUÇÃO À PROBABILIDADE E ESTATÍSTICA

3.1.2 Dispersão

Agora, abordaremos outra definição importante, conhecida como dispersão (ou variância) e usualmente denotada pelo símbolo σ 2. Dada uma variável aleatória V que associa ao espaço amostral Ω os valores {vi}, define-se dispersão como:

σ 2 = <Δ(vi)²> = < (vi – <v>)² >,

A qual pode ser reescrita como se segue:

σ 2 = < vi ² > – <v>². A dispersão fornece uma medida que indica o quão distante da média

estão os valores associados a variável aleatória.

(24)

(25)

3.1.3 Desvio padrão

Para finalizar nossas definições básicas referentes a variáveis aleatórias, trataremos de uma outra definição importante que é conhecida como desvio padrão, usualmente simbolizada por σ. O desvio padrão é definido simplesmente como a raiz quadrada da dispersão, ou seja:

(26)

Sendo o desvio padrão definido como a raiz quadrada da dispersão, tal deve indicar similarmente um distanciamento dos valores associados a variável aleatória em relação ao valor médio. No que segue, vamos apresentar um exemplo que nos ajudará a firmar as definições anteriores.

3.2 VARIÁVEIS ALEATÓRIAS CONTÍNUAS

Como temos mencionado, a variável aleatória V pode ser também de natureza contínua. Lembramos que uma variável aleatória contínua associa ao espaço amostral Ω uma quantidade infinita de valores não enumeráveis. Como um exemplo, podemos considerar como variável aleatória a precipitação de chuvas em uma determinada região. Por exemplo, num determinado dia pode ter chovido 74,356 mm. Outros exemplos, podem ser a radiação ultravioleta medida num ponto da cidade, a velocidade do vento numa região cogitada para a instalação de energia eólica etc.

As quantidades definidas para variáveis aleatórias discretas também são definidas para o caso contínuo, o que veremos s seguir.

Page 56: Estatística E ProbabilidadE Em Física

TÓPICO 3 — FUNDAMENTOS DE PROBABILIDADE

47

Consideremos agora uma função de densidade de probabilidade: f(v). A probabilidade sob um intervalo (v₀,vf), é definida como:

P(vf ,v₀) = ∫ f(v) dv.

No caso das variáveis contínuas, podemos fazer uma generalização direta por “substituir” os somatórios, das definições que se seguiram anteriormente para variáveis discretas, por integrais.

Por exemplo, no caso contínuo, a fórmula equivalente de (21) é:

∫ f(v) dv = 1,

Avaliada sob todo intervalo onde f(v) é definido.

Já para (22), sua versão contínua será dada por:

<v> = ∫ v . f(v) dv, Enquanto o desvio médio é definido da mesma maneira e é então fornecido

por:

Δ(v) = v – ∫ v . f(v) dv.

Para a dispersão (25), segue que:

σ 2 = <v²> – <v>² = ∫ v 2 . f(v) dv – (∫ v . f(v) dv)²

Enquanto para o desvio padrão (26), simplesmente pegamos a raiz quadrada da forma anterior.

(27)

(28)

(29)

3.3 VARIÁVEIS ALEATÓRIAS: UMA APLICAÇÃO EM FÍSICA

Vamos agora imaginar um experimento, em que uma fabricante de captador elétrico para instrumentos musicais deve realizar para poder medir a resposta de seu dispositivo diante da vibração de uma corda metálica.

Um captador elétrico consiste numa bobina com um imã em seu interior. A tecnologia é baseada na Lei de Indução de Faraday do eletromagnetismo. O princípio é que uma corda metálica próxima ao captador será magnetizada devido a presença do imã. À medida em que a corda oscila, ela perturba o campo magnético e uma corrente elétrica alternada é gerada na bobina, devido a Lei de indução de Faraday.

Page 57: Estatística E ProbabilidadE Em Física

48

UNIDADE 1 — INTRODUÇÃO À PROBABILIDADE E ESTATÍSTICA

O experimento consiste num “tocador” mecânico que empurra uma corda metálica enquanto um amperímetro mede o pulso de corrente atravessando o dispositivo. Depois de um conjunto de 115 medidas, se é elaborada uma tabela de frequências como segue:

TABELA 15 – FREQUÊNCIAS DOS VALORES DE CORRENTES REGISTRADAS

FONTE: O autor

fi 02 04 09 19 34 17 11 10 06 02 01Ii 1,1 1,2 1,3 1,4 1,5 1,6 1,7 1,8 1,9 2,0 2,1

Na tabela anterior, temos o número de repetições fi de cada valor registrado num amperímetro para a intensidade de corrente elétrica Ii. Os dados da Tabela 15, são organizados no gráfico (muitas vezes denominado de histograma) seguinte:

GRÁFICO 5 – CORRENTE ELÉTRICA (EM μA) GERADA NO CAPTADOR

FONTE: O autor

Aqui estamos trabalhando com a intensidade de corrente. Em tese, a intensidade de corrente não é uma variável aleatória. Por exemplo, em jogos de dados os quais já trabalhamos aqui, a variável é genuinamente aleatória. No entanto, em física experimental podemos tratar tal intensidade como uma variável aleatória, uma vez que a obtenção dos resultados experimentais carrega incertezas associadas ao experimento. Dito isso, podemos então perceber que a frequência em Estatística é análoga à Probabilidade em eventos intrinsicamente aleatórios. Se realizarmos uma enésima observação, a probabilidade de medirmos

Page 58: Estatística E ProbabilidadE Em Física

TÓPICO 3 — FUNDAMENTOS DE PROBABILIDADE

49

um certo valor será estipulada pela Gráfico 5, que, como veremos mais a frente, indica que tais medidas seguem uma distribuição de probabilidade. Podemos então usar as variáveis aleatórias para mensurar certas quantidades importantes.

Por exemplo, o valor médio < v > = < I > da intensidade de corrente pode ser encontrado pela fórmula (22) do seguinte modo:

< I > = ∑ Pi (vi) . vi = ∑ Fi (Ii) . Ii.

Aqui temos considerado a frequência relativa Fi, desde que a somatória das probabilidades deve ser igual a um. Substituindo os valores da tabela:

< I > = (2 . 1,1 + 4 . 1,2 + 9 . 1,3 + 19 . 1,4 + 34 . 1,5 + 17 . 1,6 + 11 . 1,7 + 10 . 1,8 + 6 . 1,9 + 2 . 2,0 + 1 . 2,1) . 1,5 μ A.

Logo, para uma perturbação do tocador na corda, os resultados experimentais indicam uma intensidade de corrente induzida de 1,5 μA. Já o desvio médio de cada medida é obtido utilizando (23). Por exemplo, o desvio médio da observação 1,9 μA é: Δ(1,9) = 1,9 - 1,5 = 0,4 μA.

Referente à dispersão (25), substituindo os valores referentes a tabela em ∑ Fi (Ii) . I i ² e considerando ainda < I >² = (1,5)², teremos:

σ 2 = < I i ² > – < I >² = ∑ Fi (Ii) . I i ² – < I >² . 0,17 μA2.

Já para o desvio padrão (27), encontraremos:

A seguir, estudaremos diferentes casos de distribuições de probabilidade já bem estabelecidas na ciência e matemática.

4 DISTRIBUIÇÕES DE PROBABILIDADE

Temos visto que uma variável aleatória pode ser tanto discreta como contínua e que o par formado por vi e Pi(vi) fornece uma distribuição de probabilidade. No que segue, veremos alguns casos de funções que se adequam a reais distribuições de probabilidade, tanto para o caso discreto como contínuo.

4.1 DISTRIBUIÇÕES DISCRETAS

Para o estudo de distribuições, abordaremos as distribuições de Bernoulli, Binomial e Poisson.

Page 59: Estatística E ProbabilidadE Em Física

50

UNIDADE 1 — INTRODUÇÃO À PROBABILIDADE E ESTATÍSTICA

4.1.1 Distribuição de Bernoulli

Começaremos pela distribuição mais simples que é a de Bernoulli. Ela é útil para sistemas em que há apenas duas possibilidades, podendo caracterizar seus resultados como sucesso S ou fracasso F. Um exemplo clássico é o jogo de cara ou coroa, em que um resultado específico é entendido como sucesso e o outro como fracasso. A probabilidade de sucesso ou fracasso são representadas, respectivamente, por PS e PF. A variável aleatória será extraída do seguinte modo: V(S) = v = 1 e V(F) = v = 0.

A distribuição é então dada por:

P(v) = (PS )v(1 – PS)1–v.

Logo, vemos que P(1) = PS e P(0) = 1 - PS. O valor médio (22) neste caso fica:

<v> = P₁(v₁)v₁ + P₂(v₂) v₂ = PS . 1 + (1 – PS) . 0 = PS.

Deste modo, por exemplo, se o a probabilidade PS de sucesso for de 1/2, o valor médio da variável aleatória será <v> = 1/2.

Por sua vez, para a dispersão (25) será:

σ 2 = < vi ² > – <v>² = PS v₁2 + PF v₂2 + PS 2 = PS (v₁2 + PS) = PS (1 + PS) = PS PF.

Deste modo, a dispersão para a probabilidade de sucesso de é σ 2 = 1/4. Já se a probabilidade de sucesso for de 2/3, a dispersão será então σ 2 = 2/9 e assim por diante.

Como exemplo, vamos supor que tem uma única bola de sinuca numa determinada caçapa. Queremos, inicialmente, saber qual a probabilidade de encontrar uma bola que seja denotada por um número primo. Considerando que temos 15 bolas no jogo de sinuca, 14 delas numeradas entre um e 14 e mais uma branca (sem número), a probabilidade de termos sucesso é PS = 7/15.

Neste caso, nossa variável aleatória realiza as seguintes associações “Bola não primo” ↦ 0 e “Bola primo” ↦ 1. O valor médio é simplesmente dado por:

<v> = PS = 7/15.

Já para a dispersão, teremos:

σ 2 = PS PF ≃ 0,2489.

Veremos, agora, o caso da distribuição Binomial, já estudada por nós.

Page 60: Estatística E ProbabilidadE Em Física

TÓPICO 3 — FUNDAMENTOS DE PROBABILIDADE

51

4.1.2 Distribuição binomial

A sucessão de n tentativas de sucesso nos leva a distribuição binomial, que é fornecida por:

(30)

Na distribuição Binomial, a variável aleatória pode assumir os seguintes valores:

v = 0, 1, 2, ... , n.

A distribuição (30) já foi analisada por nós no tópico anterior através dos exemplos referentes ao caminho aleatório do marinheiro.

Devemos reparar que (30) se torna a distribuição de Bernoulli se n=1. Assumindo apenas uma tentativa (n =1) teremos apenas a possibilidade de sucesso ou fracasso, tal que neste caso específico v = 0, 1. Assim:

Calculando o lado direito para os valores v = 0, 1 encontramos:

Deste modo, podemos concluir que a distribuição Binomial se torna a de Bernoulli quando n = 1.

Para entendermos melhor a distribuição Binomial e cada termo da fórmula (30), é recomendado aqui a releitura de 3. Sistemas de duas opções e 4. Predições no contexto probabilístico do Tópico 2.

DICAS

Page 61: Estatística E ProbabilidadE Em Física

52

UNIDADE 1 — INTRODUÇÃO À PROBABILIDADE E ESTATÍSTICA

Para o valor médio (22), teremos:

<v> = n PS

Enquanto para a dispersão (25):

σ 2 = n PS PF

Não mostraremos diretamente a equação (31), mas indicaremos que o resultado é válido para um caso que temos trabalhado anteriormente pelo exemplo a seguir.

Exemplo: Demonstração da validade da fórmula (31).

Consideremos o caso trabalhado em 4. Predições no contexto probabilístico. Havíamos obtido o valor esperado para ΔX de

<ΔX> ≃ 1,667.

Lá nós tínhamos X=5 no qual estava associado com n e trabalhado também com a probabilidade de P> = 2/3. Neste caso, a probabilidade de passos para frente é a mesma que a de sucesso, ou seja, P> = PS. Sendo assim, o valor esperado para PS = 2/3 e n = 5 nos rende:

<v> = n PS = .

Por que os valores esperados não são iguais, isto é <v> ≠ <ΔX>?

Para solucionar essa questão, devemos lembrar que:

Em que X> está associado com v. Para o valor esperado <ΔX>, teremos, então:

Reescrevendo a equação anterior e substituindo os valores, encontramos:

Logo, vemos a validade da fórmula <v> = PS . n para nosso caso trabalhado anteriormente!

(31)

Page 62: Estatística E ProbabilidadE Em Física

TÓPICO 3 — FUNDAMENTOS DE PROBABILIDADE

53

4.1.3 Distribuição de Poisson

Outra distribuição importante é a de Poisson. Para um dado parâmetro a > 0, a distribuição de Poisson é dada por:

Os valores de v assumem os seguintes valores discretos:

v = 0,1, 2, ... , ∞.

A distribuição é dada em termos de alguns valores de v como segue na tabela a seguir:

(32)

TABELA 16 – DISTRIBUIÇÃO DE POISSON COM DIFERENTES VALORES DE a

FONTE: O autor

v P(v) a = 1 a = 2 a = 30 e-a e⁻¹ e⁻² e⁻³1 a e-a e⁻¹ 2e⁻² 3e⁻³2 a² e-a /2 e⁻¹/2 2e⁻² 9e⁻³/23 a³ e-a /6 e⁻¹/6 4e⁻²/3 27e⁻³/6

No que segue, no gráfico a seguir, podemos ver a distribuição de probabilidade para a = 2 até v = 7:

GRÁFICO 6 – DISTRIBUIÇÃO DE POISSON PARA a = 2 E v = 0,...,7

FONTE: O autor

Page 63: Estatística E ProbabilidadE Em Física

54

UNIDADE 1 — INTRODUÇÃO À PROBABILIDADE E ESTATÍSTICA

Agora, devemos observar que:

Desde que a somatória é dada em termos de v. A função exponencial pode ser expandida em série como:

Logo, para a somatória de probabilidade encontramos:

∑ P(v) = e–a e+a = 1.

Isto é, a distribuição (32) satisfaz o requerimento da soma de probabilidades igual a um.

Podemos encontrar o valor esperado similarmente. Usando (28), temos:

Agora devemos realizar os seguintes passos:

Considerando novamente a expansão, obtemos:

<v> = a,

Em que temos definido y = v - 1.

Uma distribuição de Poisson é usualmente usada para descrever eventos raros quando uma grande quantidade de tentativas é tomada em conta. Para uma melhor compreensão da distribuição de Poisson, vamos considerar um problema cotidiano no exemplo que segue:

Exemplo: considere um município em que são contaminadas mensalmente por uma doença qualquer, um número de doze pessoas. Queremos então saber qual é a probabilidade de em dez dias não termos nenhuma contaminação da doença no município.

Para solucionar o problema, consideraremos, inicialmente, o número de contaminados. Tal quantidade será ditada por nossa variável aleatória. Neste caso, teremos: v = 0. O parâmetro a representa a média de ocorrências. Assim, para o

Page 64: Estatística E ProbabilidadE Em Física

TÓPICO 3 — FUNDAMENTOS DE PROBABILIDADE

55

nosso problema, devemos tomar a taxa referente a dez dia/ mês: 1/3. Logo, nossa média de ocorrência em dez dias é de quatro casos, ou seja: a = 4. Se substituirmos tais valores na distribuição de Poisson, obtemos:

Podemos também encontrar a probabilidades de diferentes números de

casos num intervalo de dez dias. Para isso, basta nos tomarmos outros valores de v. Por exemplo, para um caso teremos:

Já para dois casos:

E assim por diante.

O valor médio da distribuição é de <v> = a = 4. Neste caso, o valor médio indica que o número de contágios esperado para tal distribuição em dez dias é de quatro contaminados, o que concorda com o fato de termos doze contaminações média mensais.

Para melhorar ainda nossa compreensão, vamos analisar uma possível aplicação referente a distribuição de Poisson, e em geral de distribuição de probabilidade, em um certo experimento que descreveremos a seguir.

4.1.4 Distribuição de Probabilidade: uma aplicação em Física

Vamos considerar agora um experimento em que se registram decaimentos de substâncias radioativas. Aqui não estaremos interessados na descrição física dos fenômenos envolvidos, mas somente em sua natureza estatística.

Supomos uma experiência que consiste em contar o número de partículas

alfa que são emitidas por uma dada substância radioativa em intervalos de tempo bem definidos. Supomos ainda que nosso experimento registra a quantidade de decaimentos a cada minuto. Depois de medir o número de decaimentos por minuto (dpm) durante cinco horas, se registram as seguintes frequências da medida do número de decaimentos por minuto:

Page 65: Estatística E ProbabilidadE Em Física

56

UNIDADE 1 — INTRODUÇÃO À PROBABILIDADE E ESTATÍSTICA

TABELA 17 – QUANTIDADES OBSERVADAS DE DECAIMENTOS POR MINUTO

FONTE: O autor

Frequência 4 7 16 23 44 50dpm 0 1 2 3 4 5

Frequência 44 43 27 23 17 2dpm 6 7 8 9 10 11

Com os dados anteriores, o seguinte histograma é montado:

GRÁFICO 7 – MEDIDAS DE DECAIMENTO RADIOATIVO

FONTE: O autor

Vamos considerar, então, a distribuição de Poisson, muito usada em Física Experimental. Deixe-nos tomar a distribuição como:

Devemos notar que nossa variável aleatória na expressão N, que aqui indica o número de decaimentos no intervalo de um minuto. Já λ é entendido como uma quantidade que pode parametrizar a quantidade média de ocorrência de decaimentos por minuto. Sabendo disso, devemos tentar “fitar” o gráfico

Page 66: Estatística E ProbabilidadE Em Física

TÓPICO 3 — FUNDAMENTOS DE PROBABILIDADE

57

obtido no experimento com a distribuição de Poisson. Para isso, vamos considerar a seguinte distribuição de Poisson escolhendo λ = 6. A específica escolha de λ = 6 indica que iremos considerar a distribuição para a ocorrência média de seis decaimentos por minuto. Assim, teremos:

Substituindo os valores para N de zero a onze na expressão anterior, e multiplicando por trezentos (300P(N) = freq. teórica de N) e comparando com a Gráfico 7, podemos fazer o seguinte comparativo histográfico:

GRÁFICO 8 – COMPARATIVO TEÓRICO/EXPERIMENTAL

FONTE: O autor

Logo, vemos que a distribuição de Poisson consegue fitar os resultados experimentais obtidos, se considerarmos o parâmetro λ como λ = 6.

Para um experimento desenvolvido e analisado, sugerimos o artigo Pereira, Santos & Amorim (2016). Nele, os autores trabalham um experimento para ser elaborado no ensino médio tratando das distribuições binomial, de Poisson e Normal (que veremos a seguir) e decaimentos radioativos.

DICAS

Page 67: Estatística E ProbabilidadE Em Física

58

UNIDADE 1 — INTRODUÇÃO À PROBABILIDADE E ESTATÍSTICA

4.2 DISTRIBUIÇÕES CONTÍNUAS

Para estudar distribuições contínuas, vamos aqui abordar uma distribuição muito importante conhecida como distribuição Normal ou Gaussiana.

4.2.1 Distribuição Gaussiana (Normal)

A partir daqui, estudaremos as variáveis aleatórias contínuas e suas distribuições. Para abordá-las, trabalharemos especificamente a distribuição Gaussiana, também conhecida como Normal. Tal distribuição é a mais popular entre as distribuições contínuas, pois tal aparece diversas vezes nos estudos de fenômenos naturais.

A distribuição Gaussiana é definida em termos dos parâmetros a e b (respectivamente o desvio padrão populacional e a média), sendo sua função de densidade de probabilidade escrita como segue:

(33)

É importante lembrar aqui que agora estamos tratando de variáveis aleatórias contínuas em que:

–∞ < v < ∞.

a e b são parâmetros que moldam o perfil da distribuição Normal. Diferentes formas da função (33) podem ser visualizadas no gráfico a seguir:

GRÁFICO 9 – DISTRIBUIÇÃO GAUSSIANA PARA DIFERENTES VALORES DE a E b = 0

FONTE: O autor

Page 68: Estatística E ProbabilidadE Em Física

TÓPICO 3 — FUNDAMENTOS DE PROBABILIDADE

59

Através do gráfico anterior, podemos entender os papéis desenrolados por a e b. Em todos os casos, foram tomados b = 0, como também:

• Linha vermelha: a = 2• Linha azul: a = 1• Linha verde: a = 1/2• Linha cinza: a = 1/4

Note que a indica o quão suave é a curva e comumente é entendida como a dispersão da distribuição. Agora, manteremos a fixo e variar b. Em todos os casos, fixaremos a = 1/4, como também:

• Linha azul: b = 0• Linha vermelha: b = 1• Linha verde: b = 2• Linha cinza: b = 3

Seguem os perfis no gráfico a seguir:

GRÁFICO 10 – DISTRIBUIÇÃO GAUSSIANA PARA DIFERENTES VALORES DE b E a = 1/4

FONTE: O autor

Vemos que b indica a posição a qual a distribuição está centralizada.

Page 69: Estatística E ProbabilidadE Em Física

60

UNIDADE 1 — INTRODUÇÃO À PROBABILIDADE E ESTATÍSTICA

Você pode conferir os gráficos anteriores por substituir os valores de a e b no site: https://www.mathe-fa.de. Além do mais, você pode construir outros perfis estipulando outros valores para a e b.

DICAS

Dado certo intervalo de v, a probabilidade associada a este intervalo é:

Para analisarmos a distribuição normal, vamos trabalhar um caso simples em que a = 1 e b = 0. Para este caso, temos:

(34)

A distribuição anterior é conhecida como distribuição normal padrão. A função pode ser vista no primeiro gráfico, na linha azul.

A probabilidade em um dado intervalo será dada por:

Tomando a integral de menos infinito para mais infinito e considerando também:

com c uma constante qualquer, encontramos:

Com o resultado anterior, demonstramos que a distribuição (34) satisfaz o requerimento (28). Note que o fator:

em (34) é um termo de normalização análogo ao papel que (11) desempenha na distribuição binomial.

Page 70: Estatística E ProbabilidadE Em Física

TÓPICO 3 — FUNDAMENTOS DE PROBABILIDADE

61

5 DISTRIBUIÇÃO DISCRETA PARA CONTÍNUA

Trabalharemos, agora, a aproximação de uma distribuição discreta para uma contínua. Especificamente, mostraremos que a distribuição binomial é aproximadamente a distribuição normal quando n é muito grande. Para isso, consideraremos o logaritmo natural de (30), ou seja:

ln P(v) = ln n! – ln v! – ln(n - v)! + (n–v) ln(1 – PS) + v ln PS.

Será útil conhecermos a aproximação de Stirling. Tem-se:

ln x! ≃ x ln x – x,

para

x ↦ ∞.

A partir daqui, devemos considerar um número muito grande de n, isto é, uma sucessão muito grande de tentativas de sucesso.

Substituindo a aproximação de Stirling em ln P, encontramos:

ln P(v) = n ln n – v ln v – (n – v) ln (n – v) + (n – v) ln (1 – PS) + v ln PS.

Desde que n é muito grande, a variável aleatória v sofre uma “transição” de discreta para contínua. Por sua vez, torna-se uma função ln P(v) contínua também, tal que se pegarmos a primeira derivada e igualarmos a zero, isto é:

obtemos o ponto de inflexão da curva v = v.

Temos:

em que usamos

para

n → ∞.

Page 71: Estatística E ProbabilidadE Em Física

62

UNIDADE 1 — INTRODUÇÃO À PROBABILIDADE E ESTATÍSTICA

Igualando a zero no ponto v = v, obtemos:

– ln v + ln (n – v) – ln (1 – PS) + ln PS = 0.

Podemos resolver a equação acima aplicando o exponencial para eliminarmos o logaritmo, isto é:

eln x = x.

Fazendo o procedimento mencionado, podemos deduzir a relação:

(n - v) PS = v (1 - PS).

Resolvendo a equação anterior, encontramos:

v = n PS.

Devemos notar aqui que o ponto de inflexão (neste caso o valor mais provável) nos fornece o valor médio (31) quando n → ∞:

v = <v>.

Agora devemos considerar outra expansão em torno de v.

Uma expansão de Taylor de uma função diferençável f(x) em torno de um certo ponto x é:

Para f(x) = ln P(x = v) em torno de v = <v> teremos:

Em que usamos o fato de no ponto v = v a primeira derivada é igual a zero.

Para a segunda derivada, temos:

Logo em:

v = v = <v> = n PS,

Page 72: Estatística E ProbabilidadE Em Física

TÓPICO 3 — FUNDAMENTOS DE PROBABILIDADE

63

obtemos:

Para obter a relação anterior, deve-se usar também as relações auxiliares:

PS + PF = 1,

E

<Δ(vi)²> = n PS PF.

Substituindo o resultado anterior na expansão de Taylor, encontramos:

A aproximação normal é fornecida por desconsiderar os termos de ordens superiores e aplicar o exponencial, tal que:

(35)

Comparando (33) e (35) encontramos:

• < Δ(vi)² > = a• <v> = b

Deste modo, derivamos a distribuição normal a partir da distribuição binomial. Com o resultado anterior podemos dizer exatamente que a é o termo de dispersão e b é o valor médio, como havíamos observado nos gráficos trabalhados no estudo da distribuição normal.

Vamos observar novamente os gráficos que usamos para analisar o

marinheiro. São eles:

Page 73: Estatística E ProbabilidadE Em Física

64

UNIDADE 1 — INTRODUÇÃO À PROBABILIDADE E ESTATÍSTICA

GRÁFICO 11 – DISTRIBUIÇÃO BINOMIAL PARA n = 5 E X = 5

FONTE: O autor

GRÁFICO 12 – DISTRIBUIÇÃO BINOMIAL PARA n = 10 E X = 10

FONTE: O autor

Page 74: Estatística E ProbabilidadE Em Física

TÓPICO 3 — FUNDAMENTOS DE PROBABILIDADE

65

Vale lembrar que o primeiro gráfico foi construído para n = 5 (X = 5) enquanto o segundo para n = 10 (X = 10). Desse modo, podemos pensar intuitivamente que ao aumentar o valor de n, os gráficos da distribuição binomial tendem a se parecerem cada vez mais com os da distribuição normal, isto é, com gráficos contínuos da forma geral:

como, por exemplo, podemos ver no gráfico a seguir:

GRÁFICO 13 – DISTRIBUIÇÃO BINOMIAL PARA n → ∞

FONTE: O autor

Assim, temos mostrado que, de um modo geral, pode-se pensar que certas distribuições contínuas podem ser derivadas matematicamente de específicas distribuições discretas como no caso trabalhado, em que a distribuição Normal é obtida da distribuição Binomial.

Page 75: Estatística E ProbabilidadE Em Física

66

UNIDADE 1 — INTRODUÇÃO À PROBABILIDADE E ESTATÍSTICA

LEITURA COMPLEMENTAR

A NOÇÃO DE PROBABILIDADE NÃO É INTUITIVA Já aconteceu de você se aproximar do telefone para ligar para um amigo,

e nesse momento o telefono tocar e ser ele do outro lado da linha? Quais as probabilidades de isso ocorrer? Certamente não são altas, mas a soma de todas as probabilidades equivale a um. Com probabilidades suficientes, casos fora do comum – que até parecem “milagres” – de vez em quando acontecem.

Vamos definir milagre como um evento que tem uma probabilidade de ocorrer uma vez em um milhão – intuitivamente, parece o suficiente para poder ser chamado de milagre. Vamos atribuir um algarismo de um bit por segundo aos dados que passam pelos nossos sentidos no período de um dia – e admitir que estamos despertos 12 horas por dia. Recebemos 43.200 bits de dados por dia, ou seja, 1,3 milhões por mês. Mesmo admitindo que 99,9999% dessas unidades são totalmente insignificantes – e por isso são filtradas ou totalmente esquecidas por nós – ainda restam 1,3 milhões de “milagres” por mês, ou 15,5 milhões de milagres por ano.

Podemos utilizar um cálculo semelhante e aproximado para explicar os sonhos de premonição de morte. As pessoas têm, em média, cinco sonhos por noite, ou seja, 1.825 de sonhos por ano. Se nos lembrarmos apenas de um décimo de nossos sonhos, significa que nos recordamos de 182,5 sonhos por ano. Existem 300 milhões de americanos, que totalizam de 54,7 bilhões de sonhos lembrados por ano. Os sociólogos afirmam que cada um de nós conhece cerca de 150 pessoas relativamente bem, gerando dessa forma uma rede de relacionamento social de 45 bilhões de conexões pessoais. Com uma taxa anual de mortalidade de 2,4 milhões de americanos, é inevitável que alguns dos 54,7 bilhões de sonhos lembrados sejam sobre alguns desses 2,4 milhões de falecimentos de 300 milhões de americanos e seus 45 bilhões de conexões de relacionamentos. Na verdade, seria um “milagre”, se alguns sonhos de premonição da morte não se tornassem realidade.

Esses exemplos mostram a força do conceito da probabilidade que prevalece sobre nosso senso intuitivo dos números, ou o que chamo de “senso numérico popular”, também presente em meus artigos anteriores sobre “ciência popular” e “medicina popular” e em meu livro sobre “economia popular”. O senso numérico popular se refere à nossa tendência natural de perceber e calcular probabilidades de forma incorreta, de confiar em relatos pessoais e não em dados estatísticos, e de lembrar e prestar atenção em tendências de curto-prazo e séries históricas com poucos números.

Page 76: Estatística E ProbabilidadE Em Física

TÓPICO 3 — FUNDAMENTOS DE PROBABILIDADE

67

Notamos que as noites no inverso são um pouco mais longas e ignoramos a tendência do aquecimento global de longo prazo. Observamos, apavorados, a recente queda dos mercados de ações e imobiliário esquecendo que a linha de tendências foi ascendente durante mais de 50 anos. Linhas dente de serra, na realidade, são um exemplo do senso numérico popular: nossos sentidos são programados para prestar atenção nas oscilações isoladas e a tendência geral da linha é praticamente invisível para nós. A razão pela qual a intuição das pessoas percebe esses fatos com tanta frequência de forma equivocada é que fomos criados num espaço chamado pelo biólogo evolucionista Richard Dawkins de “mundo do meio” – uma terra situada no meio-caminho entre perto e longe, pequeno e grande, lento e rápido, jovem e velho. Por preferência pessoal chamo-a de “terra do meio”. Na terra do meio, em termos de espaço, nossos sentidos evoluíram para perceber objetos de tamanho mediano – digamos, entre um grão de areia e cadeias de montanhas. Não estamos preparados para perceber átomos e microrganismos em uma das extremidades da escala, ou galáxias e universos em expansão, na outra. Na terra do meio da velocidade, podemos detectar objetos em movimento tanto com velocidade de caminhada a pé, como aviões, mas o lento movimento dos continentes e das geleiras e a estonteante velocidade da luz nos passam despercebidos.

A escala do tempo em nossa terra do meio varia entre o “agora” psicológico com duração de três segundos – de acordo com o psicólogo Stephen Pinker, da Harvard University – e algumas décadas de vida, curta demais para testemunhar processos evolutivos, derivas continentais lentas ou mudanças ambientais de longa-duração.

O senso numérico do povo da terra do meio nos leva a prestar atenção e a lembrar apenas de tendências de curto-prazo, coincidências significativas e relatos de histórias pessoais. As outras lembranças são esquecidas com mais facilidade.

FONTE: <https://sciam.com.br/a-nocao-de-probabilidade-nao-e-intuitiva/>. Acesso em: 22 out. 2020.

Page 77: Estatística E ProbabilidadE Em Física

68

RESUMO DO TÓPICO 3

Neste tópico, você aprendeu que:

• Existe uma definição clássica de probabilidade desenvolvida por Laplace.

• Fenômenos aleatórios, espaço amostral e evento fornecem uma base conceitual e matemática para o estudo de probabilidade.

• A probabilidade deve satisfazer algumas condições.

• Pode-se derivar os conceitos de probabilidade usando uma formulação matemática mais rigorosa.

• Variáveis aleatórias e algumas definições úteis, como valor médio, desvio médio, desvio quadrático, dispersão e desvio padrão são essenciais para a modelagem de um sistema probabilístico.

• Variáveis aleatórias podem ser discretas ou contínuas.

• Existem diferentes distribuições de probabilidade.

• Distribuições de probabilidade podem ser discretas ou contínuas.

• Distribuição de Bernoulli, Binomial e Poisson são distribuições discretas enquanto a distribuição Gaussiana é contínua.

• Num determinado limite a distribuição discreta binomial fornece a distribuição contínua Gaussiana.

Ficou alguma dúvida? Construímos uma trilha de aprendizagem pensando em facilitar sua compreensão. Acesse o QR Code, que levará ao AVA, e veja as novidades que preparamos para seu estudo.

CHAMADA

Page 78: Estatística E ProbabilidadE Em Física

69

1 Em 1812, Laplace definiu a probabilidade como o quociente entre o número de casos prováveis n° e o número de casos possíveis N°:

que é hoje conhecida como a definição clássica de probabilidade. Com o passar dos anos, a probabilidade é entendida matematicamente como uma função que associa eventos do espaço amostral Ω um número real a e que deve satisfazer as condições:

• 0 ≤ P(A) ≤1, A ⊂ Ω• P(Ω) = 1• P(A ∪ B) = P(A) + P(B) - P(A∩B)

A e B são eventos de Ω. Com base em seus conhecimentos de classificação de eventos, associe os itens, utilizando o código a seguir:

I- Eventos Mutualmente Exclusivos.II- Eventos Complementares.III- Eventos Independentes.IV- Eventos Exclusivos e Complementares.

( ) P(A∪B) = P(A)P(B).( ) P(A ∪ B) = 1.( ) P(A) = 1 - P(B).( ) P(A∩B) = 0.

Agora, assinale a alternativa que apresenta a sequência CORRETA:a) ( ) III – II – IV – I.b) ( ) III – IV – II – I. c) ( ) I – IV – II – III.d) ( ) I – III – II – IV.

2 Uma importante distribuição de probabilidade é a de Poisson. Sua expressão matemática é dada pela seguinte fórmula:

Sabendo que a distribuição de Poisson é discreta com v = 0,1, 2, ... , ∞, desenvolva os itens pedidos a seguir explicitando o desenvolvimento matemático.

AUTOATIVIDADE

Page 79: Estatística E ProbabilidadE Em Física

70

a) Encontre o valor de v para P = e –2. b) Encontre o valor de a para P(1) = 0,14936.c) Encontre P(5) para a = 4.d) Encontre o valor médio para P(v) = 7ve–7.e) Encontre o valor de v para P = e –a.

Com base em seus resultados, classifique V para as sentenças verdadeiras e F para as falsas:

( ) v = 2. b) a = 4. c) P(5) = 0,15629.( ) a = 3. c) P(5) = 0,15629. d) <v> = 7.( ) P(5) = 0,16723. d) <v> = 9. e) v = 0.( ) <v> = 7. e) v = 0. a) v = 2.( ) v = 1. a) v = 0. b) a = 3.

Agora, assinale a alternativa que apresenta a sequência CORRETA:a) ( ) V – F – F – V – F.b) ( ) V – F – V – F – F.c) ( ) F – F – V – F – F.d) ( ) F – V – F – F – F.e) ( ) F – F – V – F – V.

3 Distribuições de probabilidade contínuas são distribuições que estão associadas com variáveis aleatórias contínuas. Uma importante distribuição contínua é a distribuição Normal. Sua função densidade de probabilidade pode ser escrita como segue:

Em que a e b são parâmetros e v uma variável aleatória contínua: -∞ < v < ∞. Referente à distribuição Normal, classifique V para as sentenças verdadeiras e F para as falsas:

( ) Para a distribuição normal padrão, a integral: exp , é, em geral, igual a um.

( ) Considerando os diferentes perfis abaixo para a distribuição Normal:

Page 80: Estatística E ProbabilidadE Em Física

71

Podemos dizer que e b = 0 e que o a referente a linha cinza é maior que o a da linha verde, enquanto o a referente à linha vermelha é maior que o a da linha azul.

( ) Considerando os diferentes perfis abaixo para a distribuição Normal:

Page 81: Estatística E ProbabilidadE Em Física

72

Podemos dizer que e b = 0, b = 1, b = 2, b = 3 respectivamente para linha azul, vermelha, verde e cinza e que o a tem o mesmo valor para todas as cores.

( ) Considerando o gráfico anterior, é possível afirmar que no intervalo compreendido entre zero e dois, as relações:

P(vermelho) > P(azul), P(verde) = P(azul) > P(cinza).

são válidas.

4 A distribuição Normal, que é uma distribuição contínua, pode ser derivada da distribuição discreta Binomial considerando uma aproximação apropriada. Isto é, uma distribuição contínua pode ser pensada como um limite matemático de uma distribuição discreta. Explicitamente, no limite n ↦ ∞ depois de muita álgebra, encontra-se para a distribuição Binomial:

Com base na fórmula anterior, disserte como a distribuição Binomial pode ser identificada com a distribuição padrão.

Page 82: Estatística E ProbabilidadE Em Física

73

REFERÊNCIAS

BORN, D. The statistical interpretation of quantum mechanics. Nobel Lecture, 1954. Disponível em: https://www.nobelprize.org/prizes/physics/1954/born/lecture/. Acesso em: 2 jun. 2020.

HALD, A. A history of probability and statistic and their applications before 1750. New Jersey: John Wiley & Sons, 2003.

LAPLACE, P. Théorie analytique des probalitiés. Paris: Courcier, 1812.

MAGALHÃES, M. N; LIMA, A. C. P. Noções de probabilidade e estatística. São Paulo: Editora da Universidade de São Paulo, 2004.

MEMÓRIA, J. M. P. Breve história da estatística. Brasília: Embrapa Informação Tecnológica, 2004.

PEREIRA, A. M.; SANTOS, A. C. M.; AMORIM, H. S. Estatística de contagem com a plataforma Arduino. Revista Brasileira de Ensino de Física, v. 38, n. 4, e405, 2016. Disponível em: http://dx.doi.org/10.1590/1806-9126-RBEF-2016-0079. Acesso em: 2 jun. 2020.

SALINAS, S. R. A. Introdução à física estatística. São Paulo: Editora da Universidade de São Paulo, 1997.

Page 83: Estatística E ProbabilidadE Em Física

74

Page 84: Estatística E ProbabilidadE Em Física

75

UNIDADE 2 —

FÓRMULA DE BAYES, PROCESSOS ESTOCÁSTICOS E BREVE REVISÃO DA

TERMODINÂMICA

OBJETIVOS DE APRENDIZAGEM

PLANO DE ESTUDOS

A partir do estudo desta unidade, você deverá ser capaz de:

• compreender e formalizar a chamada probabilidade condicional;

• deduzir a Fórmula de Bayes e introduzir os conceitos de distribuição a priori e a posteriori;

• introduzir os processos estocásticos e cadeias de Markov;

• rever alguns conceitos básicos da termodinâmica que serão úteis para a realização dos estudos da Unidade 3.

Esta unidade está dividida em três tópicos. No decorrer da unidade, você encontrará autoatividades com o objetivo de reforçar o conteúdo apresentado.

TÓPICO 1 – FÓRMULA DE BAYES

TÓPICO 2 – PROCESSOS ESTOCÁSTICOS E CADEIAS DE MARKOV

TÓPICO 3 – BREVE REVISÃO DA TERMODINÂMICA

Preparado para ampliar seus conhecimentos? Respire e vamos em frente! Procure um ambiente que facilite a concentração, assim absorverá melhor as informações.

CHAMADA

Page 85: Estatística E ProbabilidadE Em Física

76

Page 86: Estatística E ProbabilidadE Em Física

77

UNIDADE 2TÓPICO 1 —

FÓRMULA DE BAYES

1 INTRODUÇÃO

Uma fórmula muito importante em Estatística e Probabilidade é a chamada Fórmula de Bayes, também conhecida como Teorema de Bayes, expressão deduzida por Thomas Bayes (1702-1961).

Como mencionado na Unidade 1, a estatística e a probabilidade exercem grande influência nos desenvolvimentos de física e ciências em geral, como na teoria cinética dos gases, em uma precisa conexão entre mecânica e termodinâmica (chamada de mecânica estatística), teoria quântica, teoria dos jogos etc. Especificamente, para a fórmula de Bayes, não é diferente. Com grandes aplicações em diversos ramos da ciência e da tecnologia, como inferência bayesiana (ramo da inferência estatística), bioestatística, análise de dados, Método de Monte Carlo via Cadeia de Markov (Markov Chain Monte Carlo) e cosmologia, a fórmula relaciona uma probabilidade a priori com uma probabilidade a posteriori.

A importância filosófica da fórmula está no fato de que informações prévias podem modificar a probabilidade de ocorrer um determinado evento futuro, dando contexto e subjetividade na forma de realizar um cálculo probabilístico. Obviamente, a abordagem gerou (e gera, ainda hoje) muito criticismo, devido ao fato da perda da objetividade matemática.

Neste primeiro tópico da Unidade 2, começaremos introduzindo a chamada probabilidade condicional, para, então, posteriormente, estudar a fórmula de Bayes. Finalizaremos nossos estudos, abordando dois diferentes tipos de distribuições decorrentes da fórmula de Bayes, conhecidos como distribuição a priori e distribuição a posteriori.

Para conhecimento de quem foi Thomas Bayes e da importância dele, recomendamos a leitura do livro: PENA, S. D. Thomas Bayes: o ‘cara’! Ciência Hoje, v. 38, n. 228, p. 1, 2006.

DICAS

Page 87: Estatística E ProbabilidadE Em Física

UNIDADE 2 — FÓRMULA DE BAYES, PROCESSOS ESTOCÁSTICOS E BREVE REVISÃO DA TERMODINÂMICA

78

2 PROBABILIDADE CONDICIONAL

Para estudar a fórmula de Bayes é preciso estar a par da chamada probabilidade condicional. A probabilidade condicional envolve a intersecção de eventos do espaço amostral, como veremos a seguir. Antes de obter a fórmula, é preciso iniciar analisando uma situação simples, que temos visto na unidade anterior. Por exemplo, temos trabalhado o jogo de cartas de baralho no Tópico 3 da Unidade 1. Naquele caso específico, tínhamos nosso espaço amostral Ω, dado por:

Ω = {♣ , ♠ , ♢ , ♡}.

Já sabemos, através dos nossos estudos prévios, que a probabilidade de acertar um determinado naipe, ao ser sorteada uma carta aleatoriamente, por exemplo, ♣, é de um quarto, ou seja:

Qual é a probabilidade de ocorrer o evento ♣, dada a informação adicional de que saiu um naipe de cor preta, e não vermelha? No caso, sabendo que o naipe sorteado foi de cor preta, devemos considerar B = {♣ , ♠}. A probabilidade de ter ocorrido o evento ♣ se torna, então:

Assim, podemos ver que a informação adicional associada (naipe de cor preta) influencia (condiciona) a probabilidade de ocorrência do evento aleatório ♣.

A partir daqui, usaremos a notação A/B para indicar que a ocorrência do fenômeno aleatória A está condicionada a uma ocorrência do fenômeno B. Assim, P(A/B) é a probabilidade de ocorrer A com a informação adicional da ocorrência de B.

ATENCAO

Podemos refazer o resultado P(♣/B) = 1/2 da seguinte maneira: Encontramos a probabilidade da intersecção de ♣ e B = {♣ , ♠}, com divisão pela probabilidade de ocorrência do evento B, isto é:

Page 88: Estatística E ProbabilidadE Em Física

TÓPICO 1 — FÓRMULA DE BAYES

79

Para mostrar que a fórmula anterior é válida, basta observar que a probabilidade de ocorrência da intersecção ♣ ∩ {♣, ♠} é de um quarto (pois temos somente um elemento que é, simultaneamente, naipe preto e de paus). Uma vez que a probabilidade de se encontrar um naipe preto é de um meio, é possível encontrar o valor de P(♣/B) pela fórmula anterior. Desse modo, teremos, então:

Logo, para essa situação específica, a fórmula se mostra válida.

De maneira geral, a probabilidade de ocorrência do fenômeno A condicionada a uma ocorrência do fenômeno B é dada pela seguinte expressão matemática:

(1)

Usualmente, P(A/B) é, também, chamado de probabilidade a posteriori (do latim, caso genitivo de posterior, "do seguinte", "do depois" ou "do posterior") de A condicionada a B. Observe o exposto a seguir:

FIGURA 1 – INTERSECÇÃO DE DOIS EVENTOS

FONTE: O autor

Para ilustrar a fórmula (1), é preciso considerar a probabilidade de um certo fenômeno aleatório ser calculada através da definição clássica de probabilidade.

Page 89: Estatística E ProbabilidadE Em Física

UNIDADE 2 — FÓRMULA DE BAYES, PROCESSOS ESTOCÁSTICOS E BREVE REVISÃO DA TERMODINÂMICA

80

Da Unidade 1 (equação (18)), devemos lembrar que a probabilidade é definida, classicamente, como:

Dessa forma, para casos nos quais podemos aplicar a definição clássica, a probabilidade condicional (1) pode ser reescrita como:

Assim, em casos nos quais podemos aplicar a definição clássica, basta contarmos o número de elementos da intersecção de A e B e dividirmos pelo número de elementos de B, como temos feito no exemplo das cartas de baralho.

No exemplo das cartas, usamos a definição clássica para calcular a probabilidade, uma vez que, naquele exemplo, n°(♣ ∩ {♣, ♠}) = 1 e n°({♣, ♠}) = 2, encontramos P(♣/B) = 1/2. Desse modo, podemos pensar na probabilidade condicional como a razão entre o “tamanho” da intersecção de A e B pelo “tamanho” de B.

Lembrando os nossos estudos na Unidade 1, se A e B são mutualmente exclusivos, A ∩ B = Ø. Logo, nossa probabilidade condicional será nula. No exemplo das cartas de baralho, esse resultado significa que, sabendo que o naipe sorteado é de cor vermelha, a probabilidade de encontrar ♣ é nula, pois, no caso, n° (♠ ∩ {♢ ,♡}) = 0.

A seguir, analisaremos outro exemplo para fixar nosso conhecimento acerca da probabilidade condicional.

Supomos que, em um certo jogo de basquete, temos um público de doze mil pagantes. Do público total, dois mil e seiscentos são mulheres. O time “da casa” fez um sorteio para premiar alguma torcedora com algum produto específico para o público feminino. No entanto, a quantidade de torcedores do time visitante é de quatro mil e quinhentos pagantes, sendo um total de oitocentas mulheres. Sabendo que o prêmio saiu para um torcedor do time da casa, qual a probabilidade de que o prêmio tenha saído para uma mulher? Antes de prosseguirmos, podemos construir um quadro para organizar as informações necessárias.

QUADRO 1 – DESCRIÇÃO DO SEXO DOS TORCEDORES

FONTE: O autor

Time Torcedores ambos os sexos Torcedores TorcedorasTime da casa 7500 5700 1800

Time visitante 4500 3700 800

Page 90: Estatística E ProbabilidadE Em Física

TÓPICO 1 — FÓRMULA DE BAYES

81

Para obtermos o resultado correto, podemos trabalhar a fórmula da probabilidade condicionada (1).

Consideramos que A está associado com a “quantidade de mulheres”, e, B, com a de “torcedores do time da casa”. Para encontrarmos P(A ∪ B), devemos saber qual a quantidade de mulheres que é torcedora do time da casa.

Do quadro anterior, vemos que:

n° (A ∩ B) = 1800.

Como, no caso, deve-se usar a definição clássica de probabilidade, isto é, P = n°/N°, encontramos:

Para acharmos o valor de P(B), devemos, novamente, aplicar a definição clássica de probabilidade. Lembrando que B está associado com os torcedores do time da casa:

n°(B) = 7500.

Logo, obtemos, para P(B), a seguinte probabilidade:

Desse modo, com os resultados, a probabilidade de ser sorteada uma mulher, sendo, ela, torcedora do time da casa, será de:

Como no caso trabalhado, podemos usar a definição clássica de probabilidade, assim, é possível encontrar o resultado anterior fazendo diretamente: P(A/B) = n°(A ∩ B)/n°(B) = 1800/7500 = 0,24. Logo, a probabilidade de ser mulher, condicionada a ser torcedora do time da casa, é de 24%.

Para finalizar o nosso exemplo, consideraremos que o time da casa esteve reservando 62,5% da capacidade do público total para os torcedores, como no exemplo que acabamos de trabalhar. No entanto, o time da casa quer, no mínimo, que a probabilidade de ser sorteada uma mulher, sendo sua torcedora, seja de 40%. Então, quantos ingressos devem ser colocados para venda para o público geral, sabendo que foram colocados, para venda, três mil e quinhentos ingressos para as torcedoras do time da casa? No caso, temos que P(B) = 0,625 e P(A/B) = 0,4. Logo, a probabilidade de ser mulher e sua torcedora é de P(A ∩ B) = 0,25.

Page 91: Estatística E ProbabilidadE Em Física

UNIDADE 2 — FÓRMULA DE BAYES, PROCESSOS ESTOCÁSTICOS E BREVE REVISÃO DA TERMODINÂMICA

82

Uma vez que encontramos P(A ∩ B) e sabendo que n°(A ∩ B) = 3500, obtemos:

Assim, para que a probabilidade de ser uma mulher, condicionada a ser sua torcedora, seja de, no mínimo, 40%, a equipe da casa deve vender, no máximo, 14000 ingressos.

Seguindo nossos estudos, estudaremos, agora, a chamada Fórmula de Bayes.

3 FÓRMULA DE BAYES

Para obtermos a fórmula de Bayes, consideraremos a equação (1), realizando a seguinte manipulação:

P(A ∩ B) = P(B)P(A/B). Agora, consideraremos o caso P(B/A) em (1), repetindo a manipulação

feita anteriormente, isto é:

P(B ∩ A) = P(A)P(B/A). Desde que a intersecção do evento A com B seja a mesma do evento B com

A, ou seja, A ∩ B = B ∩ A, podemos igualar as fórmulas para, então, obter:

(2)

Como já havíamos mencionado, P(A/B) é dito a probabilidade a posteriori. Nessa nomenclatura, costuma-se chamar, também, P(A) de probabilidade a priori (do latim, caso genitivo de prior, "de antes" ou "do anterior").

Considerando o complemento Aʿ de A, e Ω = A ∪ Aʿ, e sendo A e Aʿ mutualmente exclusivos, isto é, A ∩ Aʿ = Ø, podemos decompor P(B) da seguinte maneira (ver Unidade 1):

P(B) = P(B ∩ A)+ P(B ∩ Aʿ).

Logo, substituindo o resultado anterior por P(A/B), encontramos:

Page 92: Estatística E ProbabilidadE Em Física

TÓPICO 1 — FÓRMULA DE BAYES

83

Finalmente, lembrando que P(B ∩ A) = P(A)P(B/A), a última expressão fica:

(3)

A expressão (3) é conhecida como Fórmula de Bayes.

Para entendermos melhor a expressão matemática de Bayes, analisaremos o exemplo que segue.

Há dois dados, sendo, um deles, viciado, enquanto o outro não. A significa ser o evento aleatório “dado viciado V” e, B, o evento “face seis do dado 6”. Suponhamos que a probabilidade do evento 6 ocorrer no dado viciado seja de um terço, isto é:

Sorteando, aleatoriamente, um dos dados, jogando-o e observando o evento 6, queremos saber: qual a probabilidade de termos sorteado o dado viciado uma vez observado o evento aleatório 6?

Para obtermos o resultado correto, devemos observar que P(V/6) indica a probabilidade de ter sorteado o dado viciado quando observado o evento 6, ou seja, justamente o que queremos encontrar. Observamos, ainda, que P(V) é a probabilidade de sortear o dado viciado, enquanto P(Vʿ) a de sortear o não viciado. Como o dado deve ser escolhido aleatoriamente:

Como última observação, notamos que a probabilidade de o evento 6 ocorrer, sendo, este, o dado não viciado, é de:

Agora, para encontrarmos o resultado, basta aplicar os valores anteriores na Fórmula de Bayes (3), ou seja:

Substituindo os valores, encontramos:

Page 93: Estatística E ProbabilidadE Em Física

UNIDADE 2 — FÓRMULA DE BAYES, PROCESSOS ESTOCÁSTICOS E BREVE REVISÃO DA TERMODINÂMICA

84

Desde que, observando o evento 6, as únicas opções são que um dos dois dados tenha sido sorteado, devemos ter P(V/6) + P(Vʿ/6) = 1.

Para verificar que tal resultado é válido, é preciso fazer:

Logo, o resultado P(V/6) + P(Vʿ/6) = 1 é válido.

Agora, estudaremos uma generalização da fórmula de Bayes. Por exemplo, podemos considerar o exemplo anterior para um número genérico de dados divididos em grupos de diferentes “graus” com vícios. Assim, podemos dizer que existe um número ni de dados viciados de tal forma que P(6/Vi) assuma um valor qualquer, baseado em tal grau. Por exemplo, se, no exemplo anterior, adicionarmos dois dados viciados de tal maneira que:

qual a probabilidade de termos observado o mesmo dado do exemplo anterior, sendo P(6/V) = 1/3, quando sair a face 6?

Para o caso específico, teremos:

P(6) = P(6 ∩ V)+ P(6 ∩ V₁)+ P(6 ∩ V₂).

Aqui, estamos denotando V₁ para o dado não viciado do exemplo anterior, e, V2, para os dados adicionados. Usando a equação (2) e lembrando que P(B ∩ A) = P(A)P(B/A), obtemos:

Suponhamos que temos um total de N dados repartidos em grupos com

diferentes graus de vícios, como N = ∑ni. A probabilidade de sortearmos, do montante, um dado de um certo grupo com grau de vício Vi, é de:

Uma vez que temos quatro dados, agora, para serem sorteados:

Page 94: Estatística E ProbabilidadE Em Física

TÓPICO 1 — FÓRMULA DE BAYES

85

Já para P(V2), devemos considerar que temos dois dados no montante de quatro:

Logo, aplicando os valores de probabilidade em P(V/6), encontramos:

Generalizando o resultado anterior, podemos encontrar a forma estendida da Fórmula de Bayes. Para isso, devemos considerar o espaço amostral repartido em várias repartições, como: Ω = Ui=1 Ai, sendo Ai ∩ Aj = Ø, como na representação a seguir:

FIGURA 2 – INTERSECÇÃO DE N EVENTOS, SENDO Ω = Ui=1

Ai E A

i ∩ A

j =Ø

FONTE: O autor

Uma vez que, neste caso:

P(B) = ∑P(B ∩ Ai),

Substituindo a relação P(B ∩ Ai) = P(Ai)P(B/Ai), teremos:

(4)

Page 95: Estatística E ProbabilidadE Em Física

UNIDADE 2 — FÓRMULA DE BAYES, PROCESSOS ESTOCÁSTICOS E BREVE REVISÃO DA TERMODINÂMICA

86

A forma anterior é a fórmula de Bayes estendida.

No que segue, estudaremos a fórmula (4), e introduziremos os conceitos de distribuição a priori e a posteriori.

Para uma compreensão da fórmula de Bayes no chamado problema de Monty Hall, recomendamos a leitura do artigo encontrado no link a seguir: https://www.voitto.com.br/blog/artigo/teorema-de-bayes. Uma discussão (podcast) também recomendada do teorema pode ser acessada em https://www.deviante.com.br/podcasts/scicast-377/.

DICAS

Na Unidade 1, nós estudamos diferentes tipos de distribuições de probabilidade. Aqui, analisaremos situações nas quais uma dada distribuição pode ser “moldada”, de acordo com algum conhecimento prévio do sistema que estamos analisando. Em conexão com a fórmula de Bayes, estudaremos, conceitualmente, as distribuições a priori e a posteriori.

Um exemplo usual para entender tais distribuições é considerar uma sacola com bolas coloridas. Vamos tirando, aleatoriamente, um número definido de bolas, sem reposição. Assim, suponha que temos quatro bolas em uma sacola com diferentes tipos de cores, e retiramos duas bolas consecutivamente, sem repormos as bolas retiradas. Ao retirarmos tais bolas, verificamos que elas são da cor verde. Uma pergunta que podemos fazer é: qual é a probabilidade de termos apenas duas bolas verdes na sacola?

Para obtermos a resposta, devemos considerar a equação (4). Consideremos que Ai é o número de bolas verdes na sacola. Assim, A0 significa que não temos bolas verdes na sacola, A1 uma, e assim por diante, até A4. Já B indica o número de bolas verdes entre duas retiradas. Desde que temos observado duas bolas verdes após duas retiradas, B assume o valor B = 2. Desse modo, P(A2/B = 2) é a probabilidade de termos um total de duas bolas verdes após observarmos duas delas ao retirarmos duas bolas aleatoriamente. No entanto, podemos nos indagar a respeito dos valores dos P(Ai), isto é, das probabilidades de termos nenhuma bola verde, uma bola verde etc.

A priori, todas as quantidades são igualmente prováveis, ou seja:

4 DISTRIBUIÇÕES A PRIORI E A POSTERIORI

Page 96: Estatística E ProbabilidadE Em Física

TÓPICO 1 — FÓRMULA DE BAYES

87

Por P(B = 2/A2), entende-se como a probabilidade de observarmos duas bolas verdes, sendo retiradas apenas duas bolas, caso tenhamos somente duas verdes no total de quatro. Matematicamente:

Agora, para encontrarmos o resultado final, basta sabermos os valores dos demais P(B = 2/Aj), que aparecem na somatória, em (4).

Devemos reparar que P(B = 2/A0) e P(B = 2/A1) são nulos. Desde que temos observado duas bolas verdes, é impossível que, na sacola, não tenha ou tenha apenas uma bola verde. Finalmente, basta encontrar as probabilidades P(B = 2/A3) e P(B = 2/A4). Para P(B = 2/A3):

Para P(B = 2/A4):

Aplicando os resultados anteriores na fórmula (4):

Logo, a probabilidade de que tenhamos apenas duas bolas verdes na sacola, após observarmos duas bolas verdes em duas retiradas aleatórias, é de um décimo.

Devemos notar que a informação adicional do sistema diminuiu nossa confiança, desde que P(A2) = 1/5 > P(A2/B = 2) = 1/10. Assim, no caso, podemos concluir que, nossa crença, de encontrar duas bolas verdes, é menor quando sabemos que, de duas retiradas, duas eram verdes. Tal situação ocorre porque a probabilidade a priori é maior do que a probabilidade a posteriori.

Podemos ampliar nossas análises para P(A3/B = 2), isto é, a probabilidade de termos três bolas verdes na sacola depois de retirarmos e observarmos duas verdes.

Procedendo, similarmente, como no caso anterior, encontraremos:

Page 97: Estatística E ProbabilidadE Em Física

UNIDADE 2 — FÓRMULA DE BAYES, PROCESSOS ESTOCÁSTICOS E BREVE REVISÃO DA TERMODINÂMICA

88

Ampliando, ainda, para P(A4/B = 2), verificamos que a possibilidade de termos quatro bolas verdes na sacola é de:

Com os resultados obtidos até aqui, podemos estabelecer uma distribuição a priori e uma distribuição a posteriori para o exemplo trabalhado.

Como temos visto, a probabilidade de encontrarmos qualquer quantidade de bolas verdes é, a priori, estabelecida pelos valores P(Ai) = 1/5. Assim, o conjunto de valores P(Ai) fornece a distribuição a priori. Ainda, ao retirarmos duas bolas e observarmos que ambas são verdes, encontramos uma distribuição a posteriori, dada pelo seguinte conjunto de valores: P(A0/B = 2) = P(A1/B = 2) = 0, P(A2/B = 2) = 1/10, P(A3/B = 2) = 3/10 e P(A4/B = 2) = 6/10.

Podemos representar, graficamente, as distribuições a priori e a posteriori obtidas no nosso exemplo:

GRÁFICO 1 – COMPARATIVO DAS DISTRIBUIÇÕES A PRIORI E A POSTERIORI

FONTE: O autor

Page 98: Estatística E ProbabilidadE Em Física

TÓPICO 1 — FÓRMULA DE BAYES

89

Do gráfico, podemos notar que, com uma informação adicional, regida por uma verificação prévia, podemos “atualizar” a distribuição da probabilidade do sistema.

Podemos verificar que as duas distribuições contemplam o requerimento de distribuições ∑P = 1, uma vez que:

Para a distribuição a priori:

Para a distribuição a posteriori.

Agora, se, na mesma situação anterior, retirarmos apenas uma bola e verificarmos que ela é de cor verde, qual será a distribuição a priori e a posteriori? No caso, ainda teremos a mesma distribuição a priori, uma vez que, novamente, para qualquer Ai: P(Ai) = 1/5.

Para estabelecermos a distribuição a posteriori, devemos, antes, encontrar os valores de P(B = 1/Aj). De maneira similar, para as análises que fizemos para o caso anterior, encontramos os seguintes valores:

P(B = 1/A0) = 0, P(B = 1/A1) = 1/4, P(B = 1/A2) = 1/2, P(B = 1/A3) = 3/4 e P(B = 1/A4) = 1.

Com os resultados, podemos, então, encontrar nossa distribuição a posteriori, descrita pelo conjunto de valores P(Ai/B = 1). Para P(A0/B = 1), temos:

P(A0/B = 1) = 0,

Desde que é impossível não termos nenhuma bola se já verificamos a existência de, pelo menos, uma.

Para os valores não nulos, encontramos:

Page 99: Estatística E ProbabilidadE Em Física

UNIDADE 2 — FÓRMULA DE BAYES, PROCESSOS ESTOCÁSTICOS E BREVE REVISÃO DA TERMODINÂMICA

90

Novamente, podemos verificar que a nossa distribuição a posteriori contempla o requerimento ∑P = 1, pois:

Segue um comparativo entre essa distribuição posteriori com a obtida no exemplo anterior, além da distribuição a priori:

GRÁFICO 2 – COMPARATIVO DAS DISTRIBUIÇÕES A PRIORI, A POSTERIORI B = 1 E A POSTERIORI B = 2

FONTE: O autor

Page 100: Estatística E ProbabilidadE Em Física

TÓPICO 1 — FÓRMULA DE BAYES

91

Observando o gráfico, podemos notar que nossa distribuição a posteriori já é diferente do que a do caso trabalhado anteriormente. Podemos concluir que a distribuição de probabilidade de um sistema pode ser moldada de acordo com algum conhecimento prévio.

Em geral, a distribuição binomial também pode ser tratada no contexto de distribuições a priori e a posteriori. Assim, para finalizar o tópico, novamente, consideraremos o caminho aleatório:

É preciso considerar o caso a partir do qual não sabemos da probabilidade de o marinheiro andar para frente ou para trás, isto é, somos completamente ignorantes acerca do valor de P>.

A priori, podemos pensar que a probabilidade de o marinheiro andar para frente ou para trás seja a mesma, ou seja, P> = 1/2. Desse modo, obtemos a expressão para o caminho aleatório:

Assim, depois de o marinheiro caminhar X = 4 passos, a distribuição será:

Substituindo, então, os valores ΔX = –4, –2, 0, 2, 4, encontramos a distribuição a seguir:

Page 101: Estatística E ProbabilidadE Em Física

UNIDADE 2 — FÓRMULA DE BAYES, PROCESSOS ESTOCÁSTICOS E BREVE REVISÃO DA TERMODINÂMICA

92

GRÁFICO 3 – DISTRIBUIÇÃO A PRIORI DO ANDAR DO MARINHEIRO

FONTE: O autor

No entanto, por alguma razão, se soubermos que a probabilidade de encontrarmos o marinheiro na posição ΔX = 3, depois de X = 3 passos, seja a de P(3) = 8/27, a distribuição de probabilidade deve assumir uma forma diferente. Desde que P(3) = 8/27 para ΔX = 3 e X = 3, teremos:

Logo, encontramos que a probabilidade de o marinheiro andar para frente é de P> = 2/3. Assim, podemos reconstruir nossa distribuição para X = 4. Substituindo os valores P> = 2/3 e ΔX = –4, –2, 0, 2, 4, obtemos a seguinte distribuição:

Page 102: Estatística E ProbabilidadE Em Física

TÓPICO 1 — FÓRMULA DE BAYES

93

GRÁFICO 4 – DISTRIBUIÇÃO A POSTERIORI DO ANDAR DO MARINHEIRO

FONTE: O autor

Logo, vemos que o conhecimento prévio de uma informação em X = 3 influenciou diretamente na forma final da distribuição da probabilidade em X = 4.

Uma vez que, neste caso, a probabilidade se relaciona como o fator de normalização pela relação:

podemos reescrever a probabilidade a posteriori proporcional a um produto entre a probabilidade e outra função:

Em geral, tal função é entendida como uma função de verossimilhança L, sendo, a relação entre as probabilidades a priori e a posteriori, dada pela relação de proporcionalidade:

Pposteriori ∝ LPpriori.

Para a fórmula de Bayes (4), a relação é dada por:

P(Ai/B) ∝ P(Ai)P(B/Ai).

Page 103: Estatística E ProbabilidadE Em Física

UNIDADE 2 — FÓRMULA DE BAYES, PROCESSOS ESTOCÁSTICOS E BREVE REVISÃO DA TERMODINÂMICA

94

No caso, a função da verossimilhança será L = P(B/Ai), uma vez que P(Ai/B) é a probabilidade a posteriori e, P(Ai), a probabilidade a priori.

A função da verossimilhança é base de uma área muito importante da estatística, conhecida como Inferência Bayesiana, a qual, neste curso, não trabalharemos, mas o leitor poderá, com essa introdução básica, pesquisar mais a respeito do assunto.

Page 104: Estatística E ProbabilidadE Em Física

95

Neste tópico, você aprendeu que:

• Muitas vezes, o cálculo de probabilidade pode estar condicionado a alguma informação prévia.

• Existem as chamadas probabilidades a priori e a posteriori. • O teorema de Bayes descreve a probabilidade de um evento baseado em um

conhecimento a priori que pode estar relacionado. Tal teorema mostra como atualizar as probabilidades, tendo em vista novas evidências.

• A fórmula de Bayes relaciona, matematicamente, uma probabilidade a priori e uma a posteriori.

• Uma distribuição a priori é a distribuição da probabilidade estabelecida sem

qualquer informação prévia do sistema.

• Uma distribuição a posteriori é a distribuição de probabilidade estabelecida depois de acessar algumas informações acerca do sistema.

RESUMO DO TÓPICO 1

Page 105: Estatística E ProbabilidadE Em Física

96

AUTOATIVIDADE

1 Na probabilidade, a dita probabilidade condicional é obtida quando a forma de procedermos com certo cálculo probabilístico é guiada pelo conhecimento de certas informações complementares. Considerando um jogo de dados que consiste em uma sequência de três jogadas, e sabendo que, após as três jogadas, observou-se que a soma gerou o número oito, classifique V para as sentenças verdadeiras e F para as sentenças falsas:

( ) Para qualquer resultado que pode ser obtido somando as três jogadas, a probabilidade de serem sorteados dois números ímpares é de 83,3%.

( ) Sabendo, previamente, que dois dados forneceram números ímpares, a probabilidade de o resultado ser consequência da soma composta pelos números um, três e quatro é de 40%.

( ) Sabendo, previamente, que todos os dados forneceram números pares, a probabilidade de o resultado ser consequência da soma da sequência dos números dois-quatro-dois é de 25%.

( ) Sabendo, previamente, que dois dados forneceram números ímpares, a probabilidade de o resultado ser consequência da soma da sequência dos números seis-um-seis é de 6,6%.

Agora, assinale a alternativa que apresenta a sequência CORRETA:a) ( ) V – F – F – V.b) ( ) V – V – V – F.c) ( ) F – V – F – V.d) ( ) V – V – F – V.

2 Como temos estudado, vimos que, explicitamente, a probabilidade condicional é dada pela seguinte fórmula

sendo, P(A/B), a probabilidade de A condicionada a B, P(B), a probabilidade da ocorrência de B, e, P (A ∩ B), a probabilidade da intersecção de A e B. Um exemplo é considerar uma cidade de 200000 habitantes, com a divisão de classes sociais representada a seguir:

A classe de grupos étnicos da mesma cidade está dividida, como poderemos ver a seguir:

Classe Social A B CPorcentagem da População 6 54 40

Grupo Étnico D E FPorcentagem da População 30 44 26

Page 106: Estatística E ProbabilidadE Em Física

97

Com base nas informações e utilizando a fórmula da probabilidade condicional, assinale a alternativa CORRETA:

a) ( ) Sendo P(C/E) = 0, a quantidade de pessoas da classe C que pertence ao grupo étnico E é de 41600 cidadãos.

b) ( ) Sendo P(A/F) = 0,4, a quantidade de pessoas da classe A que pertence à classe F é de 18400 cidadãos.

c) ( ) Sendo P(B/A) = 0,3, a quantidade de pessoas da classe B que pertence à classe A é de 3600 cidadãos.

d) ( ) Sendo P(D/C) = 0,2, a quantidade de pessoas do grupo étnico D que pertence à classe C é de 16000 cidadãos.

e) ( ) Sendo P(E/B) = 0,4, a quantidade de pessoas do grupo étnico E que pertence à classe B é de 34000 cidadãos.

3 A fórmula generalizada de Bayes é dada pela seguinte expressão matemática

sendo, P(Ai/B), a probabilidade de Ai condicionada a B.

Com base na fórmula, considere dez dados, sendo, um deles, não viciado. Já para os dados viciados, dois deles têm probabilidade de 20% de ser sorteado o número um, três deles, de 25% e, quatro deles, de 50%.

Com a fórmula generalizada de Bayes e os itens a seguir:

I- Pegando um dado aleatoriamente, jogando-o e observando o número 1, a probabilidade de termos pego o dado não viciado é de, aproximadamente, 2,5%.

II- Pegando um dado aleatoriamente, jogando-o e observando o número 1, a probabilidade de termos pego o dado viciado com 20% de chances de fornecer o número 1 é de, aproximadamente, 12%.

III- Pegando um dado aleatoriamente, jogando-o e observando o número 1, a probabilidade de termos pego o dado viciado com 25% de chances de fornecer o número 1 é de, aproximadamente, 33%.

IV- Pegando um dado aleatoriamente, jogando-o e observando o número 1, a probabilidade de termos pego o dado viciado com 50% de chances de fornecer o número 1 é de, aproximadamente, 60%.

Assinale a alternativa CORRETA: a) ( ) Somente a afirmativa II está correta.b) ( ) Somente a afirmativa III está correta.c) ( ) As afirmativas I e III estão corretas.d) ( ) As afirmativas II e IV estão corretas.e) ( ) As afirmativas I e IV estão corretas.

Page 107: Estatística E ProbabilidadE Em Física

98

4 Um exemplo de distribuições a priori e a posteriori e a função de verossimilhança são dados pela distribuição binomial

O termo (PS )v(1 – PS)n-v pode ser entendido como a função de verossimilhança, sendo que PS é a probabilidade de “sucesso”.

Suponha que você é um investigador da polícia civil e está investigando uma máfia de caça-níqueis. Na devida investigação, você deve pesquisar uma máquina apreendida que simula um jogo de cara e coroa. Tal jogo consiste em três jogadas de uma moeda virtual, e o jogador deve ganhar créditos pela quantidade de sucessos, que, neste caso, é a quantidade do número de caras observadas depois de três jogadas. Com base nessa investigação, classifique V para as sentenças verdadeiras e F para as sentenças falsas:

( ) A distribuição a priori, do jogo investigado, é dada pelo conjunto de valores: P(0) = 1/8, P(1) = 3/8, P(2) = 3/8, P(3) = 1/8.

( ) Se, depois de uma investigação completa, você concluir que a probabilidade de não obter cara seja de 27/64, então, a probabilidade de sucesso é de 1/4.

( ) Se, depois de uma investigação completa, você concluir que a probabilidade de observar duas caras seja de 2,4%, então, a probabilidade de sucesso é de 2/9.

( ) Se, depois de uma investigação completa, você concluir que a função de verossimilhança assume o valor de 2/27 para v = 2, então, a distribuição da probabilidade a posteriori é de P(0) = 8/27, P(1) = 2/9, P(2) = 4/9, P(3) = 1/27.

( ) Se, depois de uma investigação completa, você concluir que a função de verossimilhança assume o valor de 8/125 para v = 3, então, a distribuição de probabilidade a posteriori é de P(0) = 81/375, P(1) = 54/125, P(2) = 108/375, P(3) = 8/125.

Agora, assinale a alternativa que apresenta a sequência CORRETA:a) ( ) V – V – F – V – F.b) ( ) V – V – F – F – V.c) ( ) F – V – F – V – F.d) ( ) F – F – F – V – V.e) ( ) V – F – F – F – V.

Page 108: Estatística E ProbabilidadE Em Física

99

UNIDADE 2TÓPICO 2 —

PROCESSOS ESTOCÁSTICOS E

CADEIAS DE MARKOV

1 INTRODUÇÃO

Um importante ramo, dentre os processos estatísticos, são os denominados processos estocásticos. Historicamente, tais processos foram úteis para a descrição do movimento Browniano, com o qual Albert Einstein trabalhou e publicou um artigo a respeito do tema no ano mirabilis, em 1905.

Nos dias atuais, processos estocásticos encontram diversas aplicações, como em mutações genéticas, radioatividade, mercado financeiro etc. Diferentemente dos eventos aleatórios comuns, com a experiência aleatória gerando um número, a experiência, em eventos estocásticos, gera uma trajetória, como o recolhimento de dados ao longo de um intervalo no tempo.

Uma classe muito importante de tais processos são os ditos sistemas markovianos, batizados em homenagem ao matemático russo Andrei Andreyevich Markov (1856-1922). Assim, a evolução presente em um sistema probabilístico independe da evolução anterior de tal sistema.

No tópico atual, começaremos introduzindo os ditos processos estocásticos e observando alguns diferentes tipos de processos. Posteriormente, trabalharemos com processos markovianos, desenvolvendo uma abordagem mais intuitiva. Finalmente, formalizaremos as cadeias de Markov e, então, construiremos alguns exemplos das chamadas matrizes de transição markovianas.

2 PROCESSOS ESTOCÁSTICOS: NOÇÕES BÁSICAS

Para entendermos o que são processos estocásticos e os diferentes tipos, iniciaremos analisando alguns exemplos. Como primeiro exemplo, trabalharemos com a pesquisa, que media o fluxo de veículos em uma certa rodovia, imaginada como conceitos básicos de estatística.

Funcionários de certa empresa observam o número de diferentes tipos de veículos que transita sob um certo ponto da estrada. Ao associar um valor a cada tipo de veículos, é possível calcular o lucro esperado naquele dia:

Page 109: Estatística E ProbabilidadE Em Física

100

UNIDADE 2 — FÓRMULA DE BAYES, PROCESSOS ESTOCÁSTICOS E BREVE REVISÃO DA TERMODINÂMICA

QUADRO 2 – FLUXO DE AUTOMÓVEIS I

FONTE: O autor

Tipo de Veículo QuantidadeMoto 127Carro 453

Ônibus 071Caminhão 145

Suponhamos, então, que a mesma empresa queira, também, verificar o comportamento do fluxo durante uma semana. Assim, no segundo dia, são medidos os seguintes valores:

QUADRO 3 – FLUXO DE AUTOMÓVEIS II

FONTE: O autor

Tipo de Veículo QuantidadeMoto 121Carro 467

Ônibus 064Caminhão 149

Seguindo a pesquisa nos próximos cinco dias, é obtida a evolução de um determinado tipo de veículos. Por exemplo, depois de uma semana, os ônibus que devem trafegar naquele ponto da rodovia são registrados a seguir:

QUADRO 4 – TRÁFEGO DE ÔNIBUS DURANTE UMA SEMANA

FONTE: O autor

Dia 1 Dia 2 Dia 3 Dia 4 Dia 5 Dia 6 Dia 771 64 66 70 65 67 72

Com base no exposto, será construído o seguinte gráfico:

Page 110: Estatística E ProbabilidadE Em Física

TÓPICO 2 — PROCESSOS ESTOCÁSTICOS E CADEIAS DE MARKOV

101

GRÁFICO 5 – FLUXO DE ÔNIBUS I

FONTE: O autor

Esse é um exemplo de processo estocástico. Nota-se, aqui, que a experiência aleatória se dá em um intervalo de dias, e o resultado pode ser representado como uma função. Podemos, assim, verificar que, em um processo estocástico, o resultado de uma experiência aleatória é uma função, diferentemente do que já havíamos estudado anteriormente, com o resultado da experiência gerando um número. Ainda, devemos notar que poderíamos ter medido um diferente conjunto de dados e, como consequência, uma outra função. Desde que tal função estivesse associada a um ponto ω de um espaço amostral Ω, poderíamos ter, como resultado, um outro conjunto associado a um ponto ω’ ∈ Ω. Em tese, poderíamos ter obtido outra realização da experiência aleatória:

GRÁFICO 6 – FLUXO DE ÔNIBUS II

FONTE: O autor

Page 111: Estatística E ProbabilidadE Em Física

102

UNIDADE 2 — FÓRMULA DE BAYES, PROCESSOS ESTOCÁSTICOS E BREVE REVISÃO DA TERMODINÂMICA

Podemos resumir nossa análise feita até aqui da seguinte maneira: ao realizarmos uma experiência aleatória, como medir a quantidade de ônibus durante sete dias, fixamos o ponto ω ∈ Ω e, então, verificamos uma realização do processo estocástico Xt(ω). Assim, podemos definir, também, um processo estocástico Xt , como sendo uma função de duas variáveis ω ∈ Ω e t ∈ 𝕴. Aqui, 𝕴é um conjunto intitulado de espaço de parâmetros.

No nosso exemplo anterior, 𝕴 é o conjunto de dias nos quais foi realizado oexperimento aleatório. Nota-se, assim, que construímos o gráfico com o número de ônibus x dia. No caso, o contradomínio 𝕮, que envolve a quantidade de ônibus, é usualmente chamado de espaço de estados. Em outra mão, quando fixamos o parâmetro t, associamos um valor numérico do espaço de estados ao espaço amostral, definindo nossa variável aleatória. Desse modo, podemos entender que um processo estocástico envolve uma família de variáveis aleatórias.

Agora, rapidamente, formalizaremos alguns aspectos dos processos estocásticos. Como temos visto, tais processos envolvem famílias de variáveis aleatórias parametrizadas por t, que pode ser o tempo ou não. De forma geral, simbolizamos um processo estocástico como:

X = {Xt : t ∈ 𝕴}.

Segue uma definição de processo estocástico.

Definição: seja, o espaço paramétrico 𝕴, um conjunto não vazio, define-se um processo estocástico como uma família de variáveis aleatórias munida pela associação:

Xt : Ω → 𝕮,

Sendo, Ω, o espaço amostral; 𝕮, o contradomínio de todas as variáveis aleatórias (chamado de espaço de estados); e t, um elemento do espaço paramétrico (t ∈ 𝕴).

No exemplo que temos trabalhado até aqui, tanto um espaço como o outro são de naturezas discretas. No caso, o espaço de parâmetros 𝕴 é uma sequência finita: 𝕴 = {1, 2, 3, ..., 7}. Já o espaço de estados 𝕮 é, a priori, uma sequência infinita: 𝕮 = {1, 2, 3, ..., ∞}. Chamamos o dia como um exemplo de processo estocástico a parâmetro discreto, enquanto o número de ônibus é um estado discreto.

Nos casos mais gerais, o conjunto 𝕴 não deve estar, necessariamente, associado com o parâmetro tempo. Seguindo em frente, estudaremos alguns diferentes tipos de processos estocásticos com diferentes tipos de espaços de parâmetros 𝕴 e de estados 𝕮, que formam uma base para os diferentes tipos de processos.

Page 112: Estatística E ProbabilidadE Em Física

TÓPICO 2 — PROCESSOS ESTOCÁSTICOS E CADEIAS DE MARKOV

103

Começaremos analisando o caso no qual o espaço de parâmetros e o de estados são discretos. Já estivemos estudando esse caso no exemplo anterior. O parâmetro t era discreto e compreendia os dias nos quais era realizado o experimento aleatório. Assim, considerando o exemplo da estrada, identificamos 𝕴 com um intervalo discreto finito, isto é, {1, 2, 3, ..., 7}. Por sua vez, as variáveis aleatórias formavam, também, um conjunto discreto (número de ônibus), tanto que 𝕮 foi identificado com os naturais {1, 2, 3, ..., ∞}. Outros casos podem ser, por exemplo, o número de gols por rodada de um certo campeonato ou o número de peças defeituosas produzidas por diferentes máquinas do mesmo tipo pertencentes a uma empresa. Aqui, vale notar que, no segundo caso, o parâmetro t não está associado ao tempo, mas a diferentes máquinas.

Um outro tipo de processo estocástico pode ocorrer com o espaço de parâmetros sendo discreto, enquanto o de estados é contínuo. Um exemplo é dado pelo gráfico a seguir:

GRÁFICO 7 – EVOLUÇÃO RENDA PER CAPITA

FONTE: O autor

No gráfico anterior, há a renda per capita em dólar, de um certo país, calculada em anos diferentes. Desse modo, o conjunto 𝕴 é um intervalo discreto, enquanto 𝕮 é o conjunto de números reais positivos.

Page 113: Estatística E ProbabilidadE Em Física

104

UNIDADE 2 — FÓRMULA DE BAYES, PROCESSOS ESTOCÁSTICOS E BREVE REVISÃO DA TERMODINÂMICA

Referente, por exemplo, à balança comercial do mesmo país, segue um outro exemplo:

GRÁFICO 8 – BALANÇA COMERCIAL PER CAPITA

FONTE: O autor

Note que o país teve superávit em alguns anos, enquanto, em outros, teve déficit. O marco zero representa alguma mudança de política adotada pelo país. Assim, devemos notar algo importante. Não necessariamente, um processo estocástico deve ser constituído de valores que estão submetidos às mesmas condições. No exemplo que acabamos de ver, a mudança de política submete a diferentes condições de mercado, que podem gerar diferentes tendências, como na função antes e a partir de 2003 do gráfico.

Outro caso é quando o espaço de parâmetros é contínuo, enquanto o de estados é discreto. Um exemplo prático pode ser o número de pessoas que desce em um aeroporto em qualquer instante. Por exemplo, chegou, em tal aeroporto, às 14h37 e 27 segundos, um total de 41 passageiros, além de mais 11 funcionários da empresa aérea, ou seja, os dados são colhidos a tempo contínuo, e o espaço de estados está associado ao número de pessoas, que é medido em valores discretos. Outro exemplo pode ser a pulsação cardíaca de uma pessoa medida instantaneamente.

Page 114: Estatística E ProbabilidadE Em Física

TÓPICO 2 — PROCESSOS ESTOCÁSTICOS E CADEIAS DE MARKOV

105

Para finalizar, o último caso pode ser a cotação de uma determinada ação medida instantaneamente durante um determinado dia. Notamos que, nesse caso, o espaço de parâmetros e o de estados são contínuos. Um outro exemplo com aplicação em física é a intensidade espectral aleatória de uma estrela medida em tempo real.

Para alguns exemplos interativos, é sugerido ao estudante olhar o sítio eletrônico do Projeto Aeronet (Aeronet Project: AErosol RObotic NETwork). Dados, em tempo quase real sobre a atividade solar, são fornecidos a cientistas e ao público: https://aeronet.gsfc.nasa.gov/index.html.

DICAS

É sugerido, ao estudante, que imagine um exemplo e simule, através de um gráfico, cada caso possível de um tipo de processo estocástico descrito anteriormente. Com isso, o estudante pode firmar os diferentes casos para, então, poder prosseguir com os estudos de processos estocásticos.

DICAS

3 CADEIAS DE MARKOV: NOÇÕES INTUITIVAS

Antes de adentrarmos nos estudos mais formais das cadeias de Markov, é preciso regressar ao nosso marinheiro e ao caminho aleatório já familiar para nós, este que fornecerá uma base intuitiva para uma posterior compreensão mais rigorosa de tais cadeias.

Como devemos lembrar, a probabilidade P(ΔX) de o marinheiro percorrer ΔX metros, quando andado um total de X metros, é descrita pela distribuição binomial, que podemos escrever do seguinte modo:

(5)

Lembrando, novamente, que P> é a probabilidade de o marinheiro dar um passo para frente em cada passo realizado por ele.

Page 115: Estatística E ProbabilidadE Em Física

106

UNIDADE 2 — FÓRMULA DE BAYES, PROCESSOS ESTOCÁSTICOS E BREVE REVISÃO DA TERMODINÂMICA

Em Sistemas Contendo Duas Opções, na Unidade 1, tínhamos calculado todas as probabilidades P(ΔX) de todos ΔX possíveis para X = 10 m. Para ΔX = 8 m, havíamos encontrado, considerando P> = 2/3, o resultado P (8) ≃0,0867. Olhando, explicitamente, para a Unidade 1, tínhamos calculado esse valor aproximado da seguinte expressão:

(6)

Aqui, devemos observar que, para o marinheiro chegar em ΔX = 8 m, depois de percorrer um total de X = 10 m, ele, antes, deveria estar na posição ΔX = 7 m ou ΔX = 9 m quando tinha percorrido um total de X = 9 m. Assim, é preciso usar (5) para calcular as probabilidades de encontrar o marinheiro nas posições ΔX = 7 m e ΔX = 9 m para X = 9 m e P> = 2/3:

Devemos, então, perceber que, para o marinheiro ter chego na posição ΔX = 8 m depois de um passo a partir de ΔX = 7 m, ele deve ter dado o passo para frente. Sendo a probabilidade do passo ser dado para frente de P> = 2/3, a probabilidade P(7 → 8) de o marinheiro ter chego em ΔX = 8 m a partir de ΔX = 7 m é de:

Similarmente, para o marinheiro estar em ΔX = 8 m a partir de ΔX = 9 m, ele deve ter dado o passo para trás. Lembrando que P< = 1 – P> = 1/3, a probabilidade P(7 → 8) de ter chego em ΔX = 8 m a partir de ΔX = 9 m é explicitamente dada por:

Sendo, essas duas, as únicas possibilidades de o marinheiro ter chego em ΔX = 8 m depois de andar dez metros a partir de X = 9 m, a probabilidade P (8) (para X = 10 m) deve ser, então, obtida somando P(7 → 8) com o termo P(9 → 8), ou seja:

P (8) = P (7 → 8) + P (9 → 8).

Page 116: Estatística E ProbabilidadE Em Física

TÓPICO 2 — PROCESSOS ESTOCÁSTICOS E CADEIAS DE MARKOV

107

Calculando a fórmula anterior:

(7)

que é a probabilidade final, não importando se o marinheiro veio a partir de ΔX = 7 m ou ΔX = 9 m quando estava em X = 9 m. Aqui, devemos notar a igualdade entre (6) e (7). É claro que os resultados devem concordar, pois as duas formas são apenas maneiras diferentes de calcular P (8). O que devemos aprender com esse fato é que podemos, também, obter P (8) usando uma fórmula de recorrência.

Consideremos, por exemplo, os resultados obtidos na Unidade 1 para X = 10 m:

P (10) ≃ 0,0173, P (8) ≃ 0,0867, P (6) ≃ 0,1951,P (4) ≃ 0,2601, P (2) ≃ 0,2276, P (0) ≃ 0,1366,

P (–2) ≃ 0,0569, P (–4) ≃ 0,0163, P (–6) ≃ 0,0030,P (–8) ≃ 0,0003, P (–10) ≃ 0,0000.

Queremos, então, encontrar as probabilidades de se encontrar o marinheiro em um dada posição depois de percorrer X = 10 m. Com as fórmulas de recorrência, não precisamos calcular a probabilidade de posição por posição a partir de (5), desde que possamos conhecer as probabilidades das posições em um passo anterior.

De forma geral, nossa fórmula de recorrência é dada por:

P (ΔX) = P (ΔX – 1 → ΔX) + P (ΔX + 1 → ΔX).

Consideremos, ainda, as expressões anteriores, reescritas como:

P (ΔX – 1 → ΔX) = P (ΔX –1) P>.

e

P (ΔX + 1 → ΔX) = P (ΔX + 1) P<.

Agora, substituindo as duas últimas na equação, obtemos:

P (ΔX) = P (ΔX – 1) P> + P (ΔX + 1) P<. (8)

Page 117: Estatística E ProbabilidadE Em Física

108

UNIDADE 2 — FÓRMULA DE BAYES, PROCESSOS ESTOCÁSTICOS E BREVE REVISÃO DA TERMODINÂMICA

Devemos ter em mente que a probabilidade do lado esquerdo é calculada para X, enquanto as probabilidades do lado direito são para X – 1.

ATENCAO

FONTE: O autor

Voltando para o nosso exemplo, podemos fazer uso de (8) para encontrarmos todas as probabilidades correspondentes para X = 11 m. Devemos perceber que apenas ΔX de valores ímpares são possíveis nesse caso, isto é, ΔX = –11 m, –9 m, ..., –11 m, –1 m, +1 m, ... , + 9 m, +11 m. Usando a fórmula (8), é preciso começar calculando a probabilidade de encontrar o marinheiro em ΔX = 11 m:

O marinheiro tem 1,15% de chance de estar na posição 11 m depois de andar um total de onze metros, enquanto tem 1,73% de chance de estar na posição 10 m depois de andar dez passos.

O que acabamos de analisar, através do caminho aleatório do marinheiro, é um exemplo da cadeia de Markov e, em geral, de processos estocásticos. Processos estocásticos porque, como devemos lembrar, a experiência aleatória nos leva a uma função (trajetória), como no gráfico a seguir, que fornecerá a posição x número de passos em um caminho aleatório:

GRÁFICO 9 – TRAJETÓRIA DO MARINHEIRO

Page 118: Estatística E ProbabilidadE Em Física

TÓPICO 2 — PROCESSOS ESTOCÁSTICOS E CADEIAS DE MARKOV

109

Podemos observar que o caminho aleatório é um processo estocástico a parâmetro discreto (ou seja, 𝕴 é discreto), e o espaço de estados 𝕮 é, também, discreto.

Intuitivamente através do exemplo, podemos entender que, associada a uma probabilidade P(∆X), está uma trajetória (função), e que essa probabilidade não está unicamente associada a uma trajetória específica. Por exemplo, para chegar na posição ∆X, depois de percorrer X, diferentes caminhos são possíveis. Desde que P(8) possa ser calculado através de P(7) ou P(9), fica explícito que duas trajetórias diferentes podem convergir em ∆X = 8 m em X = 10 m, uma vindo da posição de 7 m e, a outra, de 9 m em X = 9 m.

Para ilustrar, veremos três possíveis caminhos aleatórios, em que X = 10 m e ∆X = 4 m. Formalmente, as trajetórias 1, 2 e 3 representam diferentes possíveis realizações da experiência aleatória, estando, cada uma delas, associada a diferentes pontos ω’, ω’’ e ω’’’ do espaço amostral Ω.

GRÁFICO 10 – DIFERENTES POSSÍVEIS TRAJETÓRIAS DO MARINHEIRO

FONTE: O autor

Por sistemas markovianos, entendemos como sistemas que, a probabilidade, em um tempo futuro, pode ser calculada através das informações do tempo anterior, sem a necessidade de conhecimento de todos os eventos que levaram o sistema até ali.

Referente ao caminho aleatório, ser um processo estocástico markoviano, é possível notar que, de certa forma, cada posição no futuro X(t) está vinculada com o tempo anterior, uma vez que, por exemplo, são possíveis apenas passos de um metro por vez, ou seja, o marinheiro não pode “pular” de uma posição para a outra. Assim, notamos, ainda, que no exemplo da rodovia, a medição no dia posterior é independente da medição do dia anterior, ou seja, é um processo estocástico não markoviano.

Page 119: Estatística E ProbabilidadE Em Física

110

UNIDADE 2 — FÓRMULA DE BAYES, PROCESSOS ESTOCÁSTICOS E BREVE REVISÃO DA TERMODINÂMICA

Nossa fórmula de recorrência (8) indica, basicamente, o fato, uma vez que a probabilidade do lado esquerdo está associada com X, enquanto a do lado esquerdo está com X – 1. Como cada passo dado está no futuro do passo anterior, podemos associar um intervalo de tempo a uma distância X = X(t). Desse modo, a posição do marinheiro em um tempo t está diretamente vinculada a um tempo t0 < t.

Processos estocásticos e sistemas markovianos têm grandes aplicações na física. No que segue, formalizaremos nossos conceitos acerca das chamadas Cadeias de Markov.

4 CADEIAS DE MARKOV

Dando seguimento a nossos estudos, introduziremos, agora, as chamadas Cadeias de Markov.

Como temos visto, a probabilidade de encontrar o marinheiro em uma dada posição pode ser calculada conhecendo as probabilidades do momento anterior pela fórmula (8). Por exemplo, explicitando o tempo em (8):

P (ΔX; t) = P (ΔX –1; t') P> + P (ΔX + 1; t') P<. Aqui t' < t, sendo t' o instante no passo anterior. Como temos mencionado,

anteriormente, o caminho aleatório é um exemplo de Cadeia de Markov. Podemos tratar do problema de maneira alternativa, usando uma matriz de transição. Assim, considere a seguinte matriz quadrada 𝓜:

(9)

⋱ ⋮ ⋮ ⋮ ⋮ ⋮ ⋰

⋯ 0 P> 0 0 0 ⋯

⋯ P< 0 P> 0 0 ⋯

⋯ 0 P< 0 P> 0 ⋯

⋯ 0 0 P< 0 P> ⋯

⋯ 0 0 0 P< 0 ⋯

⋰ ⋮ ⋮ ⋮ ⋮ ⋮ ⋱

e a matriz linha 𝓟':

(⋯ P(+2) P(+1) P(0) P(–1) P(–2) ⋯)

Page 120: Estatística E ProbabilidadE Em Física

TÓPICO 2 — PROCESSOS ESTOCÁSTICOS E CADEIAS DE MARKOV

111

Considerando as matrizes anteriores para o exemplo do marinheiro, podemos estabelecer a fórmula de recorrência (8), para qualquer X, pelo produto matricial:

𝓟' 𝓜 = 𝓟.

Podemos verificar que a matriz linha resultante 𝓟 é dada, explicitamente, por:

(⋯ P(+1) P> + P(+3) P< P(0) P> + P(+2) P< P(–1) P> + P(+1) P< P(–2) P> + P(0) P< P(–3) P> + P(–1) P< ⋯)

A matriz anterior 𝓜 é um exemplo da chamada matriz transição de Markov.

Pela fórmula de recorrência (8), devemos notar que o produto matricial anterior gera 𝓟'(t')𝓜 = 𝓟(t). Notamos que a matriz dos 𝓟' do lado esquerdo é pega em um passo anterior (ou tempo passado anterior t'), enquanto a do direito 𝓟 é computada em um passo adiante (ou tempo futuro t), de acordo com a fórmula de recorrência descrita na forma (9).

Através da matriz de Markov, podemos restringi-la para qualquer caso que trabalhamos nos exemplos de caminho aleatório. Por exemplo, para X = 2, o produto matricial será calculado tomando as matrizes 𝓟' e 𝓟. Para a matriz 𝓟':

(𝓞 P(+2) = 0 P(+1) P(0) = 0 P(–1) P(–2) = 0 𝓞)

Já para a matriz 𝓟:

(𝓞 P(+1) P> 0 P(–1) P> + P(+1) P< 0 P(–3) P> + P(–1) P< 𝓞)

Aqui, 𝓞 significa que os demais elementos da esquerda e da direita são nulos. Nesse exemplo, são considerados apenas dois passos ao total. Ainda, X é finito, para adequar o produto matricial de acordo com o problema para, então, restringir, tornando nulos alguns valores da forma matricial geral. Por exemplo, sendo X = 2, sabemos que P(+2), P(0) e P(–2) no lado esquerdo são nulos, uma vez que o lado esquerdo é dado para X = 1, enquanto o lado direito é para X = 2.

Muitas vezes, não se conhece a probabilidade no momento anterior, mas a posição que o marinheiro está no tempo presente. Para sabermos onde ele poderá estar ∆X(t) no próximo passo, podemos, novamente, considerar a matriz transição. Por exemplo, se soubermos que ele está na posição ∆X(t') = 1, teremos 𝓟' reescrita:

(𝓞 P(2) = 0 P(1) = 1 P(0) = 0 P(–1) = 0 P(–2) = 0 𝓞)

Page 121: Estatística E ProbabilidadE Em Física

112

UNIDADE 2 — FÓRMULA DE BAYES, PROCESSOS ESTOCÁSTICOS E BREVE REVISÃO DA TERMODINÂMICA

Logo, no caso, a matriz 𝓟 será:

(𝓞 P(+1) P> 0 P(+1) P< 0 0 𝓞)

Agora, é preciso considerar 𝓜 escrita da seguinte forma:

⋱ ⋮ ⋮ ⋮ ⋰

⋯ 0 Pi+1,j 0 ⋯

⋯ Pi, j–1 0 Pi, j+1 ⋯

⋯ 0 Pi–1, j 0 ⋯

⋰ ⋮ ⋮ ⋮ ⋱

com Pi+1, j = Pi,j + 1 = P>, Pi, j–1 = Pi–1, j = P<, e assim por diante. Notamos, aqui, que explicitamos a linha e a coluna da matriz. De uma forma geral, para qualquer sistema de Markov, é preciso usar uma notação mais compacta para prosseguirmos.

Sendo, a matriz transição de Markov, 𝓜, então, a componente matricial Mij fornece a probabilidade de transição do “estado” i para o “estado” j. De uma forma geral, é possível escrever a equação matricial:

X'𝓜 = X.

A matriz X representa, genericamente, qualquer suposto conjunto de estados, dependendo do contexto que está sendo analisado. Os estados i e j pertencem ao espaço de estados, ou seja, i, j ∈ 𝕮. No caso do marinheiro, o estado i é a posição inicial (antes do passo) e, j, a posição final (depois do passo). Necessariamente Mij é sempre maior ou igual a zero, uma vez que representa uma probabilidade. Ainda:

∑ Mij = 1,

para i fixo com a somatória aplicada nos estados j ∈ 𝕮. Notamos que, no caso do marinheiro, tal somatória representa P> + P< = 1. Assim, agora, é necessário definir, formalmente, uma cadeia de Markov do seguinte modo:

Definição: Seja

P(Xt = j / X0’ = i0’, X1’ = i1’, X2’ = i2’, ..., Xt’ = it’ )

Page 122: Estatística E ProbabilidadE Em Física

TÓPICO 2 — PROCESSOS ESTOCÁSTICOS E CADEIAS DE MARKOV

113

a probabilidade associada ao estado j após uma sequência de eventos: i 0,..., it. Um processo estocástico é uma cadeia de Markov se:

P(Xt = j / X0’ = i0’, X1’ = i1’, ... , Xt’ = it’ ) = P(Xt = j / Xt’ = it’ ).

Notamos, na definição anterior, que a probabilidade de ocorrer um evento depois de uma sucessão de eventos depende, exclusivamente, do estado anterior, isto é, do tempo que precedeu o tempo posterior. Nesse sentido, os processos markovianos são conhecidos por serem processos sem memória, isto é, precisamos apenas do estado imediatamente anterior ao futuro que queremos descrever, sendo não necessário o conhecimento de todo o passado do sistema, mas, somente, do passado anterior.

No que segue, construiremos alguns exemplos de processos markovianos e das matrizes de transição.

Exemplo 1: Transmissão Código Binário

Suponha que queremos enviar alguma informação digital especificada por um código binário. No entanto, sabemos que a probabilidade de a informação ser enviada corretamente é de P. Já a probabilidade de acontecer um erro na transmissão é dada por 1 – P. Desse modo, a probabilidade de 0 ser transmitido com valor 0 é P, de 0 ser transmitido com valor 1 é 1 – P, e assim por diante. Nesse caso, teremos os estados X1 = 0 e X2 = 0. A matriz de transição será:

Estado 0 1

0 P 1 – P

1 1 – P P

Desse modo, a componente M11 da matriz de Markov estabelece a probabilidade da transição do estado 0 para 0, M12 , a probabilidade da transição do estado 0 para 1, e assim por diante.

Exemplo 2: Pirâmide Social

Um outro exemplo no qual podemos aplicar a matriz de Markov é na mobilidade social de uma certa sociedade. Por exemplo, considere que, dos filhos da classe A, 90% tende a permanecer nela, 9% tende a ir para a classe B e 1% para a classe C. Já para a classe B, 10% tende a ir para A, 85% tende a permanecer nela, e 5% tende a ir para C. Enfim, para a classe C, 1% tende a ir para A, 24% para B e 75% a permanecer nela. Tal mobilidade pode ser representada pela matriz:

Page 123: Estatística E ProbabilidadE Em Física

114

UNIDADE 2 — FÓRMULA DE BAYES, PROCESSOS ESTOCÁSTICOS E BREVE REVISÃO DA TERMODINÂMICA

Estado (classe) A B C

A 0,9 0,09 0,01

B 0,1 0,85 0,05

C 0,01 0,24 0,75

Assim, conhecendo a distribuição social de tal sociedade, por exemplo, 10% pertence à classe A, 70% à classe B e 20% à classe C, podemos estipular a provável distribuição da próxima geração. Para isso, é preciso escrever o vetor:

Aplicando o produto matricial X'𝓜 = X:

X = (0, 162, 0, 652, 0, 186),

que é a provável distribuição social da próxima geração. Podemos ver, pelo resultado, que aquela matriz de transição social aumenta a classe A e diminui as classes B e C.

Exemplo 3: Processo de Nascimento e Morte

A evolução de uma população, através da probabilidade de ocorrência de nascimento ou morte, pode, também, ser descrita por uma Cadeia de Markov. A matriz de transição que representa esse sistema é dada por:

Estado (pop) 0 1 2 3 ⋯

0 1 – P * P * 0 0 ⋯

1 P# 1 – (P* + P#) P * 0 ⋯

2 0 P# 1 – (P* + P#) P * ⋯

3 0 0 P# 1 – (P* + P#) ⋯

⋮ ⋮ ⋮ ⋮ ⋮ ⋱

Aqui, P* e P# significam as probabilidades de nascimento e de morte, respectivamente. Por exemplo, se a população é composta por apenas duas pessoas, a probabilidade de nascimento conecta o estado 2 com o 3, isto é, um aumento da população. Já a probabilidade de morte conecta o estado 2 ao 1,

Page 124: Estatística E ProbabilidadE Em Física

TÓPICO 2 — PROCESSOS ESTOCÁSTICOS E CADEIAS DE MARKOV

115

representando, assim, um decréscimo na população total. Já o termo 1 – (P* + P#)não modifica a população, pois leva do estado 2 para ele mesmo. Por exemplo, se a taxa de nascimento e morte é muito pequena, então, 1 – (P* + P#) ≃ 1, dizendo que, provavelmente, a população sofrerá pouca alteração.

Exemplo 4: Melhoramento Genético

Um outro exemplo é a transmissão de genótipos que podem ser aplicados em algumas espécies de animais e plantas, de acordo com a genética clássica. Dado os genes a e A, supomos que certas características de algumas plantas são determinadas pelos pares de genes AA, aa e Aa, conhecidos como genótipos. Desse modo, classificamos o Tipo 1 (caracterizado pelo genótipo AA), Tipo 2 (Aa) e Tipo 3 (aa). Assim, um cruzamento entre duas plantas do Tipo 1 gera, unicamente, uma planta do Tipo 1, enquanto um cruzamento entre os Tipos 1 e 2 pode gerar plantas dos Tipos 1 e 2. Já um cruzamento entre os Tipos 1 e 3 pode somente gerar o Tipo 2, enquanto entre os Tipos 2 e 3 pode gerar os Tipos 2 e 3. Finalmente, cruzamentos entre o Tipo 2 podem gerar os Tipos 1, 2 e 3, e, entre o Tipo 3, é possível gerar apenas o Tipo 3.

Supomos que um produtor queira melhorar a variedade genética da lavoura. Em tal lavoura, 25% das plantas carregam o genótipo Tipo 2 (Aa), e, 75%, o Tipo 3 (aa). Para realizar o melhoramento, o produtor deve cruzar a sua produção com plantas de genótipo aA. Desde que o cruzamento AAxaA possa gerar Aa ou AA, aAxaA possa gerar aa, aA, Aa ou AA e, finalmente, Aaxaa possa gerar Aa ou aa, a matriz transição de tal procedimento será:

Estado AA aA aa

AA 1/2 1/2 0

aA 1/4 1/2 1/4

aa 0 1/2 1/2

Querendo calcular a provável variedade genética após os cruzamentos, assim, o produtor deve explicitar a matriz linha X', que, no caso, é a amostra genética da sua lavoura antes do cruzamento. Uma vez que 25% é Tipo 2 (Aa) e, 75%, Tipo 3 (aa), X' é escrita como:

Tomando o produto matricial X'𝓜 = X, encontra-se:

Page 125: Estatística E ProbabilidadE Em Física

116

UNIDADE 2 — FÓRMULA DE BAYES, PROCESSOS ESTOCÁSTICOS E BREVE REVISÃO DA TERMODINÂMICA

que é a provável variedade genética após os cruzamentos.

Notando que, provavelmente, um sexto das plantas será do Tipo 1, o produtor quer, então, saber se, cruzando, novamente, com o Tipo 2, sua nova provável variedade obterá uma maior quantidade do Tipo 1. Para isso, ele realiza o procedimento novamente, multiplicando a matriz linha resultante pela matriz de transição:

Logo, ele verifica que, com mais um cruzamento, obtém mais representantes do Tipo 1 na sua lavoura.

Para finalizar nossos estudos acerca dos processos estocásticos e das Cadeias de Markov, trabalharemos, agora, com alguns conceitos relevantes acerca das matrizes de transição.

Consideremos a seguinte matriz de Markov:

Estado 0 1 2 3

0 3/4 0 0 1/4

1 0 1 0 0

2 0 1/2 1/2 0

3 2/5 0 0 3/5

Notamos que a matriz anterior contempla o requerimento ∑ Mij = 1, desde que a soma de cada linha gere um. Note, então, como esse sistema pode evoluir ao longo do tempo. Por exemplo, supomos que o sistema pode começar o processo estando no estado 0 ou 3. Devemos notar que se ele estiver no estado 0, somente seria possível ele evoluir para o estado 0 ou 3 com as probabilidades respectivas de 3/4 e 1/4.

Uma vez estando em um desses estados, poderia evoluir, novamente, para o estado 0, pois se ele estivesse em 0, teria a probabilidade de 3/4 de ficar em 0, e se estivesse em 3, 2/5 para retornar a 0. Devemos, então, observar, que se o processo parte de 0, sempre pode retornar ao estado original. Nota-se, também, que o mesmo ocorre se o sistema evoluir a partir de 3. Tais estados são ditos estados recorrentes.

Page 126: Estatística E ProbabilidadE Em Física

TÓPICO 2 — PROCESSOS ESTOCÁSTICOS E CADEIAS DE MARKOV

117

Suponha, agora, que o sistema está, inicialmente, no estado 2. Pela matriz de transição, o sistema pode evoluir para o estado 1 com probabilidade de ½, ou para ele mesmo, com probabilidade de 1/2. Nota-se que “mais cedo ou mais tarde” será impossível o sistema retornar ao estado 2, desde que, uma vez estando no estado 1, jamais retornará ao estado inicial. O estado 2 é um exemplo dos chamados estados transientes. Por sua vez, uma vez o sistema estando no estado 1, jamais sairá de tal estado. Tais tipos de estados são conhecidos como estados absorventes.

Um estado é recorrente se e somente se não for transiente. Já um estado absorvente é um caso especial de estado recorrente.

A seguir, analise o exemplo:

Exemplo 5: Aposta de par ou ímpar

Consideremos dois amigos que farão uma “batalha” no jogo de par ou ímpar. Além do jogo já bem familiar e que dispensa apresentações, uma aposta será vinculada a ele. Suponha que cada jogador apostará um total de R$ 3,00, sendo que, a cada disputa de par ou ímpar, R$ 1,00 é apostado. O jogo terminará quando um dos jogadores estiver com R$ 6,00 e, o outro, sem nada. A matriz de transição será:

Estado R$ 0 1 2 3 4 5 6

0 1 0 0 0 0 0 0

1 1 – P 0 P 0 0 0 0

2 0 1 – P 0 P 0 0 0

3 0 0 1 – P 0 P 0 0

4 0 0 0 1 – P 0 P 0

5 0 0 0 0 1 – P 0 P

6 0 0 0 0 0 0 1

Podemos entender o que poderá ocorrer no jogo pela matriz de transição. Como o jogo começa com cada jogador contendo R$ 3,00, o estado inicial é 3.

Nota-se que a probabilidade de ganho P leva o apostador do estado 3 para o estado 4, enquanto a de perda 1 – P leva do estado 3 para o 2, isto é, no primeiro caso, o apostador aumenta o montante, e, no segundo, diminui.

Page 127: Estatística E ProbabilidadE Em Física

118

UNIDADE 2 — FÓRMULA DE BAYES, PROCESSOS ESTOCÁSTICOS E BREVE REVISÃO DA TERMODINÂMICA

Se a probabilidade de ganhar for P = 1, o jogador sairá de R$ 3 para R$ 4, depois, de R$ 4 para R$ 5, e, finalmente, de R$ 5 para R$ 6. Por sua vez, o oponente irá de R$ 3 para R$ 2, R$ 2 para R$ 1, e de R$ 1 para R$ 0. Assim, uma vez que é atingido 0 ou 6 reais, o jogo acaba. Ainda, em termos de estados, 0 e 6 são estados absorventes e, consequentemente, recorrentes. Uma vez atingidos os estados 0 e 6, não será possível o sistema regressar para os demais estados, e, logo, tais estados serão transientes.

Para aprendermos mais acerca dos processos estocásticos e das cadeias de Markov, na Unidade 3, estudaremos uma aplicação de tal processo em um sistema físico específico, que inclui a chamada força estocástica aplicada no movimento Browniano.

Page 128: Estatística E ProbabilidadE Em Física

119

RESUMO DO TÓPICO 2

Neste tópico, você aprendeu que:

• O caminho aleatório é um processo estocástico markoviano e que, em tais processos, a experiência aleatória gera uma (trajetória) função em um dado intervalo.

• A trajetória está associada a um ponto do espaço amostral e é uma função de duas variáveis.

• Um processo estocástico envolve uma família de variáveis aleatórias.

• Diferentes tipos de processos estocásticos podem ser classificados de acordo com os espaços de parâmetros e estados.

• Cadeias de Markov são caracterizadas por uma matriz de transição, além da probabilidade de ocorrer um evento, independentemente da sucessão de eventos ocorrida anteriormente.

Page 129: Estatística E ProbabilidadE Em Física

120

1 Processos estocásticos são classificados pela natureza dos espaços de parâmetros e de estados. Por exemplo, quando os espaços de parâmetros e de estados são discretos, dizemos que temos um processo estocástico a parâmetro discreto e a estado discreto. Com base nas informações e nos seus conhecimentos acerca dos processos estocásticos, classifique V para as sentenças verdadeiras e F para as sentenças falsas:

( ) O tráfego de carros em uma estrada, medido instantemente, é um processo estocástico a parâmetro discreto e a estado contínuo.

( ) O número de pontos obtidos por uma equipe de Fórmula 1 durante diferentes anos é um processo estocástico a parâmetro discreto e a estado discreto.

( ) A precipitação de chuvas medidas em metros em uma certa região ao longo de dias é um processo estocástico a parâmetro discreto e a estado contínuo.

( ) As ações de uma certa empresa na bolsa de valores, medidas instantaneamente, são um processo estocástico a parâmetro contínuo e a estado discreto.

Agora, assinale a alternativa que apresenta a sequência CORRETA:a) ( ) F – F – F – V. b) ( ) V – F – V – V.c) ( ) V – V – V – F.d) ( ) F – V – V – F.

2 Um processo estocástico pode ser simbolicamente representado por

X = {Xt : t ∈ 𝕴},

e definido pela relação

Xt : Ω → 𝕮.

Nas expressões anteriores, t é um parâmetro, 𝕴 é o chamado espaço de parâmetros, 𝕮 é o espaço de estados, e Ω é o espaço amostral. Assim, com base nos seus estudos referentes a processos estocásticos, assinale a alternativa CORRETA:

a) ( ) Em um processo estocástico, o resultado de uma experiência aleatória é um número.

b) ( ) Um processo estocástico Xt pode ser entendido como uma função de uma variável t ∈ 𝕴.

AUTOATIVIDADE

Page 130: Estatística E ProbabilidadE Em Física

121

c) ( ) Diferentes possíveis caminhos aleatórios serão representados a seguir:

As trajetórias do exposto estão associadas a diferentes pontos do espaço amostral.

d) ( ) O processo estocástico representado no exposto é um processo estocástico não markoviano, desde que a probabilidade futura dependa de todos os acontecimentos anteriores.

e) ( ) Em um processo estocástico markoviano, a componente matricial Mij, da matriz transição de Markov, fornece a probabilidade de transição do estado i para o estado j, assim, os estados pertencem ao espaço amostral.

3 Um exemplo que pode ser descrito pelas cadeias de Markov é a distribuição, além da mobilidade social em certa sociedade. Por exemplo, a matriz de transição de Markov que descreve tal mobilidade é dada por uma matriz do tipo:

Com a matriz dada e os itens a seguir:

I- A classe A é um estado recorrente, mas não absorvente.II- As classes B e C são estados transientes.III- Em uma sociedade na qual 10% pertence à classe A, 60% à classe B e 30% à

classe C, a próxima composição social (primeira geração), provavelmente, será de 23,5% classe A, 51% classe B e 25,5% classe C.

IV- A composição social da segunda geração (posterior a uma próxima), provavelmente, será de 34,975% classe A, 43,335% classe B e 21,675% classe C.

Estado (classe) A B C

A 1 0 0

B 0,2 0,75 0,05

C 0,05 0,20 0,75

Page 131: Estatística E ProbabilidadE Em Física

122

Assinale a alternativa CORRETA: a) ( ) Somente o item III está correto.b) ( ) Somente o item IV está correto.c) ( ) Os itens I, III e IV estão corretos.d) ( ) Os itens II, III e IV estão corretos.e) ( ) Todos os itens estão corretos.

4 Dados os genes A e a, a transmissão de genótipos, na genética clássica, pode ser descrita por uma matriz de transição de Markov. Classificando, como Tipo 1 (caracterizado pelo genótipo AA), Tipo 2 (Aa) e Tipo 3 (aa), monte a matriz de Markov para cruzamentos com o Tipo 3. Sabendo, ainda, que certa variedade de plantas tem composição genética 20% Tipo 1, 30% Tipo 2 e 50% Tipo 3, encontre X.

Page 132: Estatística E ProbabilidadE Em Física

123

UNIDADE 2TÓPICO 3 —

BREVE REVISÃO DA TERMODINÂMICA

1 INTRODUÇÃO

A termodinâmica é uma das mais importantes áreas da física. As aplicações englobam desde fenômenos corriqueiros até problemas mais fundamentais da física teórica. Uma herança muito importante da termodinâmica é a entidade matemática, conhecida como entropia. Além da praticidade, por exemplo, nas engenharias, a entropia pode ser descrita como uma entidade estatística, assim como outras quantidades importantes, como pressão e temperatura.

Usando a definição estatística de entropia descoberta por Boltzmann, como veremos ao longo do curso, a entropia é uma das chaves para fundar uma nova disciplina, conhecida como Mecânica Estatística. No entanto, para se estudar mecânica estatística, é didático aprendermos a Teoria Cinética dos Gases, desenvolvida por Bernoulli e outros. Para compreender a teoria cinética dos gases, é essencial estarmos familiarizados com os conceitos e as leis que regem a termodinâmica, que veremos neste último tópico da Unidade 2.

Seguindo o caminho lógico, trabalharemos, no Tópico 3, com uma revisão da termodinâmica, para, posteriormente, estudarmos a Teoria Cinética dos Gases e a Mecânica Estatística, na Unidade 3. Começaremos nossos estudos, neste tópico, observando um pouco da estrutura básica dos fenômenos térmicos. Posteriormente, reveremos os conceitos de trabalho, calor e entropia, para terminarmos o tópico introduzindo as três leis que regem a termodinâmica.

2 TERMODINÂMICA: ESTRUTURA BÁSICA

A termodinâmica é a parte da física que estuda os fenômenos térmicos. Pode-se dizer que as grandezas termodinâmicas básicas são volume V, pressão P e temperatura T, enquanto as respectivas unidades são as seguintes:

(V) = m3 , (P) = N/m2 e (T) = K.

m representa metro, N, a unidade de força Newton, e, K, a unidade de temperatura Kelvin.

Page 133: Estatística E ProbabilidadE Em Física

124

UNIDADE 2 — FÓRMULA DE BAYES, PROCESSOS ESTOCÁSTICOS E BREVE REVISÃO DA TERMODINÂMICA

O que caracteriza um sistema termodinâmico é uma equação de estado, esta que pode ser simbolicamente representada por:

f (P, V, T) = 0.

Desde que a equação de estado caracterize um sistema termodinâmico, matematicamente, pode-se dizer que cada tipo de substância contém uma equação de estado específica. O chamado gás ideal é descrito pela seguinte equação de estado:

PV = nRT,

com R sendo a constante universal dos gases ideais e o valor sendo dado por:

R = 8,3143 J / mol K.

O número de moles n é obtido pela fórmula N = n Nª, sendo, N, o número de moléculas, e, Nª, o número de Avogadro:

Nª = 6,02 x 1023 mol–1.

Desse modo, o número de moles multiplicado pelo número de Avogrado fornece o número de moléculas contido em uma amostra.

Definindo o volume molar específico:

v = V /N.

Um outro exemplo de equação de estado é a equação para o chamado gás de Van der Waals, que pode ser expressa como:

sendo a e b constantes com valores diferentes para diferentes tipos de gases.

Se o volume específico for suficientemente grande, como

e

(10)

Page 134: Estatística E ProbabilidadE Em Física

TÓPICO 3 — BREVE REVISÃO DA TERMODINÂMICA

125

a equação que descreve o gás de Van der Waals se aproxima da equação do gás ideal:

Na prática, uma substância qualquer pode ser pensada como um gás ideal, desde que se esteja trabalhando com grandes volumes específicos.

3 TRABALHO, CALOR E ENTROPIA

Antes de estabelecer as leis que regem a termodinâmica, é preciso introduzir algumas grandezas importantes. Começaremos estudando a concepção de trabalho W em processos termodinâmicos.

3.1 TRABALHO

Iniciaremos os nossos estudos a respeito do trabalho recapitulando o conceito na mecânica newtoniana.

O trabalho, sob uma partícula, é definido como a força aplicada nela vezes o deslocamento (causado pela aplicação da força). Para uma força constante paralela ao deslocamento, o trabalho é, formalmente, dado por:

W = Fd,

Sendo, F, a força aplicada, e, d, o deslocamento sofrido pela partícula. Note que o trabalho é fornecido em termos de força e deslocamento. No entanto, para analisarmos trabalho em processos termodinâmicos, devemos encontrar uma fórmula para W e que seja escrita em termos das variáveis termodinâmicas. Por outro lado, a pressão P pode ser definida como a força aplicada sob uma determinada área A, ou seja:

Combinando as duas últimas fórmulas, podemos reescrever o trabalho da seguinte forma:

W = PAd.

Page 135: Estatística E ProbabilidadE Em Física

126

UNIDADE 2 — FÓRMULA DE BAYES, PROCESSOS ESTOCÁSTICOS E BREVE REVISÃO DA TERMODINÂMICA

Desde que o volume deslocado ΔV seja

ΔV = Ad,

O trabalho fica:

W = PΔV.

Devemos notar que a última forma obtida de trabalho é descrita pelas variáveis termodinâmicas P e V.

Especificamente, na fórmula anterior, vemos que o trabalho para uma pressão constante é proporcional à variação de volume que ocorreu no processo termodinâmico. Desse modo, dizemos que o sistema que estava em um estado inicial, caracterizado por (Pi , Vi , Ti), “deslocou-se” ao estado final (Pf , Vf , Tf), ao realizar um trabalho W sobre ou pelo sistema. Se o trabalho foi realizado sobre o sistema, então:

ΔV = Vf – Vi < 0, Vi > Vf , W < 0.

Caso o trabalho tenha sido realizado pelo sistema:

ΔV = Vf – Vi > 0, Vi < Vf , W > 0.

Nos casos com os quais temos trabalhado até o momento, Pi = Pf.

Em geral, a força aplicada não é constante quando o processo é realizado. Desse modo, devemos trabalhar com as formas infinitesimais:

e .

sendo, ds, um deslocamento infinitesimal.

Combinando as duas últimas fórmulas, encontramos:

dW = PdV,

e, integrando o resultado final, obtemos o trabalho para uma pressão não constante diante o processo, isto é:

W = ʃ PdV. (11)

Page 136: Estatística E ProbabilidadE Em Física

TÓPICO 3 — BREVE REVISÃO DA TERMODINÂMICA

127

Logo, vemos que se P não depende de V, encontramos W = PΔV, uma vez que:

ʃ dV = ΔV.

De modo geral, podemos escrever V(V) usando uma equação de estado, sendo que o trabalho pode ser obtido integrando a pressão no volume.

Para ilustrar, é preciso considerar o gás ideal descrito pela equação gases ideais. Isolando a pressão e integrando ʃ PdV, obtemos:

No caso especial no qual o processo é isotérmico, isto é, a temperatura permanece constante ao longo da variação do volume:

O integrando fornece ln (V / Vi ), e o trabalho correspondente a um gás ideal será:

(12)

Para finalizar, observe os gráficos PV a seguir:

Page 137: Estatística E ProbabilidadE Em Física

128

UNIDADE 2 — FÓRMULA DE BAYES, PROCESSOS ESTOCÁSTICOS E BREVE REVISÃO DA TERMODINÂMICA

GRÁFICO 11 – P=A/V PARA DIFERENTES VALORES DE A

FONTE: O autor

Por simplicidade, temos fixado a temperatura e graficada a função P(V) = A/V, com A = 1 (linha azul), A = 2 (linha vermelha), A = 1 (linha verde) e A = 1 (linha cinza). O trabalho corresponde à área que forma a curva entre o estado inicial e o final. É útil notar que o trabalho depende da trajetória realizada entre os estados inicial e final, uma vez que a área compreendida é diferente se a trajetória for diferente. O sinal depende do sentido do processo. Logo, se o sistema vai do estado inicial para o final ao longo de uma trajetória e, posteriormente, volta ao estado inicial, realizando um caminho diferente, o trabalho final deve ser diferente de zero. Em outras palavras, o trabalho “líquido’’, quando o sistema retorna ao estado inicial, deve ser não nulo. Simbolicamente, podemos representar esse fato pela integral fechada:

W = ∮PdV ≠ 0,

desde que o sistema retorne ao estado inicial realizando uma trajetória alternativa. Caso o sistema retorne pelo mesmo caminho, a integral fechada deve ser zero.

Page 138: Estatística E ProbabilidadE Em Física

TÓPICO 3 — BREVE REVISÃO DA TERMODINÂMICA

129

3.2 CALOR

Para o estudo de trabalho, vimos que, em um processo isotérmico, o trabalho é, basicamente, calculado observando o volume inicial e o final do sistema. Supomos, agora, que, em um processo, a temperatura de uma determinada substância sofre alteração, ou seja, Ti ≠ Tf. Dizemos que a temperatura se altera devido a um fluxo de calor que ocorre entre o sistema e o ambiente externo.

Define-se capacidade térmica C pela expressão:

ΔQ = CΔT'

T = Ti – Tf é a variação de temperatura do sistema, e, Q, a quantidade de calor. Na forma infinitesimal, a equação (13) fica:

dQ = CdT.

Aqui, vemos que, se um sistema se desloca de um estado (Pi , Vi , Ti) para um estado (Pf , Vf , Tf), no qual Ti ≠ Tf, dizemos que o sistema recebeu calor se:

ΔT = Tf – Ti > 0, Ti < Tf , ΔQ > 0,

enquanto doou calor se:

ΔT = Tf – Ti > 0, Ti < Tf , ΔQ > 0.

Notamos que C é sempre maior que zero.

Para o caso no qual o volume é inalterado durante o processo, isto é, Vi = Vf, usa-se a capacidade térmica a volume constante CV, ou seja, C = CV. Para esse tipo de evolução do sistema, chamamos de isovolumétrico. Já em um processo isobárico, deve-se usar a capacidade térmica, a pressão constante CP, sendo C = CP.

Usualmente, usa-se a caloria (cal) como unidade de calor. É uma unidade de energia, e, assim, é convertida para Joule, como:

1 cal = 4,186 J.

Por sua vez, tendo em vista as expressões (13) e (14), a unidade da capacidade térmica é cal/K.

Assim como o trabalho, o fluxo de calor depende da trajetória do sistema entre o estado inicial e o estado final. Para visualizar esse fato, considere a forma integral de (14), ou seja:

(13)

(14)

Page 139: Estatística E ProbabilidadE Em Física

130

UNIDADE 2 — FÓRMULA DE BAYES, PROCESSOS ESTOCÁSTICOS E BREVE REVISÃO DA TERMODINÂMICA

Q = ʃ CdT,

sendo, a integral, realizada entre a temperatura inicial Ti e a final Tf. De maneira semelhante à análise de que a integral (11) depende do caminho, a integral (15) também depende, uma vez que, sob esse ponto de vista, C é, matematicamente, análogo de P, T de V e W de Q.

(15)

Apesar de, usualmente, trabalharmos com C constante, em geral, tomando grandes variações de temperatura, a capacidade térmica depende da temperatura, isto é, C = C(T). Desse modo, quando trabalhamos com a equação ∆Q = C ∆T, estamos, na verdade, trabalhando com a capacidade térmica média entre as temperaturas T

i e T

f.

ATENCAO

3.3 ENTROPIA

Antes de estudarmos as leis que regem a termodinâmica, devemos recapitular uma última variável, conhecida como entropia. Para introduzirmos, é útil revermos o chamado Ciclo de Carnot. O ciclo consiste em um sistema termodinâmico regressando ao estado inicial (processo reversível), percorrendo dois caminhos isotérmicos e dois caminhos adiabáticos.

Conforme Sears e Salinger (1979, p. 115), “para duas temperaturas, θ2 e θ1, a razão entre as magnitudes de Q2 e Q1, em um Ciclo de Carnot, tem o mesmo valor para todos os sistemas, qualquer que seja a natureza”. Matematicamente, a declaração pode ser caracterizada pela expressão:

(16)

f(T2 , T1) é uma função que depende das temperaturas T2 e T1. Para explicitarmos f (T2 , T1), é preciso considerar o exposto a seguir:

Page 140: Estatística E ProbabilidadE Em Física

TÓPICO 3 — BREVE REVISÃO DA TERMODINÂMICA

131

GRÁFICO 12 – TRÊS DIFERENTES CICLOS DE CARNOT QUE INCLUEM TRÊS PROCESSOS ADIABÁTICOS E DOIS ISOTERMAS

FONTE: O autor

Considerando os três ciclos possíveis para o sistema partir de um ponto e voltar ao estado inicial, podemos escrever as relações:

Dividindo a segunda equação pela terceira e, posteriormente, igualando com a primeira, obtém-se a expressão:

Supomos, então, uma quarta isoterma, e, assim, realizamos, de forma idêntica, a análise anterior:

Page 141: Estatística E ProbabilidadE Em Física

132

UNIDADE 2 — FÓRMULA DE BAYES, PROCESSOS ESTOCÁSTICOS E BREVE REVISÃO DA TERMODINÂMICA

Como T3 ≠ T4, a função f (T2 , T1) deve efetivamente escrita como:

A última expressão, agora, será usada para reescrever (16):

Definindo f (T) = aT, encontramos a importante relação:

(17)

com a sendo uma constante que desaparece na divisão.

Uma vez que o fluxo de calor Q1 é doado pelo sistema, Q1 < 0. Por outro lado, o fluxo Q2 é recebido do exterior para o sistema, e, logo, Q2 > 0. Assim, eliminando o módulo em (17):

Da expressão, pode-se concluir que a quantidade definida por Q/T é nula em um Ciclo de Carnot. Desde que qualquer processo reversível possa ser admitido como uma aproximação matemática de uma sequência grande de Ciclos de Carnot, caracterizado por diminutos fluxos de calor Qi associados ao isoterma Ti, a última expressão pode ser generalizada para:

(18)

Devemos lembrar que a nulidade da equação (18) é válida somente para processos reversíveis. A versão integral de (18) é:

Ou seja, a integral fechada (retornando ao mesmo ponto) independe do caminho, ao contrário dos casos com os quais trabalhamos a respeito do calor e do trabalho.

Se a quantidade dQ/T independe do caminho, é uma propriedade do sistema, sendo que o valor depende somente dos estados termodinâmicos iniciais e finais. Define-se, então, a quantidade chamada de entropia S pela diferencial:

Page 142: Estatística E ProbabilidadE Em Física

TÓPICO 3 — BREVE REVISÃO DA TERMODINÂMICA

133

(19)

A unidade de entropia é J/K.

Como um exemplo de aplicação, é preciso considerar a fórmula (17). Substituindo-a em (19):

Agora, para encontrar a entropia, basta integrar a equação anterior. Por simplicidade, considere variações de temperaturas nas quais podemos tratar da capacidade térmica como constante. No caso:

Integrando os dois lados da equação, obtemos a forma final:

ΔS = C ln (Tf / Ti),

sendo ∆S a variação de entropia durante o processo.

Como segundo exemplo, analise um sistema no qual uma mudança de fase esteja ocorrendo. Lembramos que, no caso, o calor necessário para tal mudança é Q = mL, e o valor de L depende da substância. Desde que, no caso, o fluxo de calor independa da temperatura, a expressão (19) rende:

(21)

Substituindo Q = mL:

com T sendo a temperatura em que ocorre a mudança de fase.

Entretanto, existem os processos irreversíveis. Como foi mencionado, a fórmula (19) é válida para processos reversíveis. Assim, como calcular a entropia nos casos irreversíveis? Sendo, a entropia, uma propriedade do sistema, que só depende dos estados iniciais e finais do sistema, é usual usar a fórmula (19) para obter a variação de entropia em processos irreversíveis. A ideia é que, uma vez que o processo irreversível evolui do estado inicial para o final, basta encontrar

(20)

Page 143: Estatística E ProbabilidadE Em Física

134

UNIDADE 2 — FÓRMULA DE BAYES, PROCESSOS ESTOCÁSTICOS E BREVE REVISÃO DA TERMODINÂMICA

um processo reversível independente que ligue os mesmos estados. Desse modo, calculamos a variação de entropia usando (19) e transportamos o resultado para o processo irreversível.

Para ilustrar, para um gás ideal expandido no vácuo, o trabalho é igual a zero, mas o volume varia. Esse sistema é válido, uma vez que (11) vale somente para processos reversíveis. Ainda, as paredes que envolvem o sistema são isolantes, para que não ocorram trocas de calor. Além do mais, a temperatura permanece constante no processo. Com tais atributos, vemos que (19) simplesmente menciona que a variação de entropia é nula, mas não é. O que ocorre é que a fórmula (19) não pode ser aplicada para tal sistema. Sabendo que o sistema evolui de Vi para Vf, podemos trabalhar analogamente com um gás ideal em um processo isotérmico, este que contempla:

Q = W.

Como o trabalho é dado por (10) e o processo é reversível, usamos (19) para derivar o resultado:

(22)

que deve ser exatamente a variação de entropia para o gás em expansão livre.

4 LEIS DA TERMODINÂMICA

Assim como em outras teorias da física, os fenômenos térmicos são, também, regidos por um conjunto determinado de leis. Por exemplo, na mecânica clássica, as grandezas básicas de massa, aceleração e força são trabalhadas observando as três leis de Newton. Na termodinâmica, não é diferente, e as quantidades de volume, pressão e temperatura devem seguir três leis específicas, com as quais trabalharemos em seguida.

Historicamente, foram estabelecidas, inicialmente, a primeira e a segunda lei, e, apenas posteriormente, na década de 1930, como consta em Halliday, Resnick & Walker (1993), a Lei Zero da termodinâmica.

4.1 LEI ZERO

A lei zero da termodinâmica estabelece o familiar fenômeno de equilíbrio térmico. Matematicamente, podemos tratar da lei zero da seguinte forma: dado um corpo, o qual chamaremos de corpo A, a uma temperatura TA, se este é colocado em contato com um corpo B, a uma temperatura TB, então, os dois corpos atingem o equilíbrio térmico quando:

Page 144: Estatística E ProbabilidadE Em Física

TÓPICO 3 — BREVE REVISÃO DA TERMODINÂMICA

135

TA = TB.

Se um terceiro corpo C está em equilíbrio térmico com o corpo A, como

TA = TB,

sendo, TC, a temperatura do corpo C, a terceira lei estabelece que:

TB = TC,

isto é, o corpo C está, também, em equilíbrio térmico com o corpo B.

Segundo Halliday, Resnick & Walker (1993, p. 171), a lei zero menciona que, “se dois corpos A e B estão em equilíbrio térmico com um terceiro corpo T, então, estão em equilíbrio térmico um com o outro”.

4.2 PRIMEIRA LEI

Como já mencionamos, a entropia é uma propriedade do sistema, pois independe da trajetória que o sistema realiza entre os estados inicial e final. Como vimos, uma forma de darmos o veredito se uma quantidade é ou não uma propriedade do sistema, é pegar a integral fechada, eu um processo reversível, e verificar se é zero ou não. Desse modo, tínhamos estudado que dS = dQ/T representa uma propriedade do sistema, enquanto as quantidades definidas por dW – PdV e dQ – CdT não representam. É bom salientar que (19) se aplica somente para processos reversíveis. No entanto, a quantidade extraída da combinação

dQ – dW

é, também, uma propriedade do sistema, mesmo que dQ e dW não sejam. É útil termos em mente que a exata combinação é uma propriedade do sistema, isto é, outras combinações, como exemplo, dQ + dW, não são.

Na versão macroscópica, a última relação fica:

Q – W.

Como a última combinação representa alguma propriedade do sistema, nomeamos, como Primeira Lei da Termodinâmica, a equação:

∆E = Q – W,

sendo, ∆E, a variação da energia interna do sistema.

Page 145: Estatística E ProbabilidadE Em Física

136

UNIDADE 2 — FÓRMULA DE BAYES, PROCESSOS ESTOCÁSTICOS E BREVE REVISÃO DA TERMODINÂMICA

Na versão diferencial, a primeira lei é reescrita:

dE = dQ – dW.

Lembrando que o trabalho pode ser representado pela equação dW = PdV. Ainda, podemos reescrever a primeira lei:

dE = –dW = –PdV.

A seguir, analisaremos alguns casos especiais referentes à primeira lei.

Primeiro Caso: Processo cíclico

Como estivemos analisando, a energia interna é estabelecida, matematicamente, por uma combinação, que é uma propriedade do sistema. Logo, se o sistema retorna ao estado inicial, a variação de energia interna é, também, igual a zero: ∆E = 0. Usando esse fato na primeira lei, encontra-se:

dQ = dW = PdV.

Segundo Caso: Processo adiabático reversível

Em um processo adiabático, o sistema não troca calor com o ambiente em tal processo, ou seja, Q – 0. Desse modo, a primeira lei assume a seguinte forma:

dE = –dW = –PdV.

Terceiro Caso: Processo isovolumétrico reversível

Em um processo isovolumétrico, o volume não varia nesse processo, isto é, dV = 0. Logo, o trabalho também é nulo, assim, a primeira lei correspondente a esse caso dá:

dE = dQ.

Para finalizar essa parte, vale mencionar que, para um gás ideal, com equação de estado (10), a energia interna só depende da temperatura. Explicitamente, a energia interna é dada por:

(23)

Com o advento da física estatística, deve ficar claro que essa dependência está relacionada com o fato de que a energia das componentes internos do gás contém apenas contribuições cinéticas, isto é, para um gás ideal, não ocorrem interações entre tais componentes, gerando a energia potencial nula.

Page 146: Estatística E ProbabilidadE Em Física

TÓPICO 3 — BREVE REVISÃO DA TERMODINÂMICA

137

4.3 SEGUNDA LEI

Para iniciarmos nossa discussão um tanto mais formal acerca da segunda lei, é preciso, antes, introduzir três exemplos práticos. Imaginemos um corpo A e um reservatório B com temperaturas iniciais de TA e TB. Ao colocarmos em contato, a temperatura do corpo A aumenta até atingir TB, enquanto a temperatura do reservatório permanece constante. Desde que, inicialmente, exista uma diferença de temperatura entre A e B, o processo em questão é de natureza irreversível.

Sendo, a entropia, uma propriedade do sistema, que só depende dos estados iniciais e finais do sistema, é usual usar a fórmula (19) para obter a variação de entropia em processos irreversíveis. Com isso em mente, podemos usar a fórmula (20) para calcular a variação de entropia no corpo A, uma vez que o sistema evolui de TA para TB.

Explicitamente, para o corpo A, teremos:

ΔSA = C ln (TB / TA).

Já para o reservatório, a temperatura não muda, então, podemos usar, nesse caso, (21):

ΔSB = QB / TB.

A temperatura do corpo A variou no momento em que o reservatório cedeu QA = – Q para o corpo A. Desde que o corpo A recebeu uma quantidade de calor dada pela seguinte fórmula:

QA = +Q = C (TB – TA),

podemos reescrever a variação de entropia do reservatório:

ΔSB = C (1 – TB / TA).

Para verificarmos a variação de entropia do sistema AB, basta somarmos ΔSA com ΔSB. Explicitamente, teremos:

com x – TB /TA. Para analisarmos o resultado, basta observarmos o gráfico a seguir, tomando C = 1:

Page 147: Estatística E ProbabilidadE Em Física

138

UNIDADE 2 — FÓRMULA DE BAYES, PROCESSOS ESTOCÁSTICOS E BREVE REVISÃO DA TERMODINÂMICA

GRÁFICO 13 – GRÁFICO DA FUNÇÃO

Como podemos ver, para todo x > 1, obtemos:

ΔSA + ΔSB > 0.

Ou seja, para o sistema composto AB, a entropia aumenta.

Em uma outra situação, imaginemos dois corpos A e B com capacidades térmicas idênticas C e, respectivamente, temperaturas iniciais de T + ∆T e T – ∆T. Queremos colocar os corpos A e B em equilíbrio térmico, mas necessitamos criar um processo reversível e aplicar (19). Para isso, pode-se considerar um reservatório R com a temperatura controlada externamente. A ideia é colocar, em contato térmico, R e A, com a temperatura do reservatório T + ∆T. Ainda, colocar em contato R e B, com a temperatura do reservatório T – ∆T. Note que, nos dois casos, a temperatura entre os corpos e o reservatório são as mesmas. Em ambos os casos, vai sendo alterada a temperatura de R lentamente, até atingir o valor T. Ao fim, os corpos A e B estarão em equilíbrio térmico, com temperatura T.

Usando a fórmula (20) para A, teremos:

ΔSA =C ln [T / (T-ΔT)] > 0,

FONTE: O autor

(24)

Page 148: Estatística E ProbabilidadE Em Física

TÓPICO 3 — BREVE REVISÃO DA TERMODINÂMICA

139

uma vez que T – ΔT < T. Similarmente, para B, obtém-se:

ΔSB =C ln [T/(T + ΔT)] < 0,

desde que T + ΔT > T . Para verificarmos a variação de entropia do sistema AB, basta somarmos, novamente, ΔSA com ΔSB. Explicitamente, teremos:

ΔSA + ΔSB = C ln [T 2 /(T 2 – ΔT 2)],

sendo usados a ln b = ln ba, ln(ab) = ln a + ln b e ln(a/b) = ln a – ln b. Com a expressão T 2 – ΔT 2 < T 2 válida, concluímos que (24) é satisfeita novamente.

Para finalizar nossos exemplos antes de conhecermos a segunda lei, consideraremos o fenômeno de difusão. Considerando dois gases A e B armazenados em uma caixa e separados por uma placa, a difusão ocorre quando se fura a placa e os dois gases se misturam homogeneamente. Os gases A e B dobram os volumes iniciais. Esse sistema pode ser tratado como dois gases em expansão livre e, então, a fórmula (22) pode ser usada para cada gás. Desse modo, a variação de entropia do sistema será:

ΔSA + ΔSB = 2nR ln(2).

Como ln (2) > 0, podemos concluir que a expressão (24) é válida novamente.

Temos visto que, nos três casos analisados, a entropia total do sistema aumentou. Tais fatos servem como base para anunciarmos a Segunda Lei da Termodinâmica como um princípio de aumento de entropia. Assim, pode-se declarar o princípio de aumento de entropia como:

A entropia do universo sempre aumenta em um processo irreversível.

O termo universo é usado querendo mencionar um sistema que está isolado termicamente, ou seja, que não troca calor com nenhum outro meio. Pode ser um sistema contido dentro de uma fronteira adiabática, por exemplo, um gás dentro de uma caixa em que a parede seja um isolante térmico, ou como o próprio universo, não havendo um meio externo a ele, isto é, não tem como trocar calor. Para um processo reversível, a entropia do sistema permanece constante. Desse modo, para abarcar processos reversíveis e irreversíveis, pode-se anunciar, de maneira geral, a segunda lei, segundo Nussenzveig (2002, p. 230), como: “a entropia de um sistema termicamente isolado nunca pode decrescer: não se altera quando ocorrem processos reversíveis, mas aumenta quando ocorrem processos irreversíveis”.

Matematicamente, podemos formular a segunda lei como:

ΔS ≥ 0

para qualquer sistema termicamente isolado.

Page 149: Estatística E ProbabilidadE Em Física

140

UNIDADE 2 — FÓRMULA DE BAYES, PROCESSOS ESTOCÁSTICOS E BREVE REVISÃO DA TERMODINÂMICA

LEITURA COMPLEMENTAR

MAIS UMA RAZÃO ESSENCIAL PARA ESTIMAR A INCERTEZA

Nate Silver

A incerteza constitui uma parte essencial e inegociável de todas as previsões. Como vimos, uma expressão honesta e precisa dela é o que pode, às vezes, salvar bens e vidas. Em outros casos, como na negociação de ações ou ao apostar em um time da NBA, talvez, você consiga se apoiar na sua capacidade de prever a incerteza. Entretanto, há mais uma razão para quantificar, de forma cuidadosa e explícita, a incerteza: isso é essencial para o progresso científico, em especial, segundo o teorema de Bayes.

Suponhamos que você tenha começado o ano de 2001 com uma forte crença na hipótese de que as emissões de carbono pelas indústrias continuariam a causar uma elevação da temperatura. (Na minha opinião, tal crença teria sido apropriada, devido ao forte entendimento das causas do efeito estufa e dos indícios empíricos a seu favor). Digamos que você tenha atribuído uma chance de 95% à hipótese de o aquecimento global ser verdadeira. Então, você observa novos indícios: ao longo da próxima década, de 2001 a 2011, as temperaturas globais não se elevam. Na verdade, chegam a cair, ainda que pouco. Pelo teorema de Bayes, você deveria revisar, pelo menos, a estimativa da probabilidade de aquecimento global.

Se você tivesse chegado a uma estimativa adequada da incerteza presente nos padrões de temperatura a curto prazo, a revisão seria acentuada. Como descobrimos, há uma chance de 15% de não haver aquecimento global ao longo de uma década, mesmo que essa hipótese seja verdadeira, por causa da variabilidade climática. Por outro lado, se as mudanças de temperaturas forem aleatórias e imprevisíveis, haverá 50% de chance de uma década com queda na temperatura, uma vez que as variações para cima ou para baixo são igualmente prováveis. Por outro lado, se você afirmasse existir apenas 1% de chance de as temperaturas não se elevarem ao longo da década, sua teoria estaria em situação muito pior, porque você alegou que esse era um teste mais definitivo. De acordo com o teorema de Bayes, a probabilidade que você atribuiria à hipótese do aquecimento global cairia para apenas 28%.

O mais poderoso indício contra nossa hipótese é levarmos adiante alegações confiantes que não se concretizam. Quando isso acontece, não podemos culpar ninguém por perder a fé em nossas previsões, pois as pessoas estão seguindo a lógica bayesiana.

Page 150: Estatística E ProbabilidadE Em Física

TÓPICO 3 — BREVE REVISÃO DA TERMODINÂMICA

141

Que motivações temos para fazer alegações mais confiantes, especialmente, quando, na verdade, elas têm o respaldo dos indícios estatísticos? As pessoas têm todos os tipos de razões para fazer isso. No debate a respeito do clima, talvez seja porque essas alegações mais confiantes podem parecer mais persuasivas, e podem ser, se estiverem corretas. Atribuir todas as anomalias do tempo às mudanças climáticas causadas pela ação do homem é um jogo arriscado, mais enraizado na política do que na ciência. Existe pouco consenso em relação às maneiras como a mudança climática pode se manifestar, além do aumento da temperatura e da provável elevação dos níveis do mar. É óbvio que a afirmação de que qualquer nevasca é uma prova contra a teoria é igualmente ridícula.

FONTE: SILVER, N. O sinal e o ruído: por que tantas previsões falham e outras não. Rio de Janeiro: Intrínseca, 2012, p. 414-416.

Page 151: Estatística E ProbabilidadE Em Física

142

RESUMO DO TÓPICO 3

Neste tópico, você aprendeu que:

• A descrição termodinâmica de um sistema é regida por uma equação de estado.

• Existem grandezas, como trabalho e calor, que dependem do caminho em um processo termodinâmico.

• Existem grandezas, como entropia e energia interna, que independem do caminho em um processo termodinâmico.

• A primeira e a segunda lei da termodinâmica são construídas em termos das propriedades do sistema, isto é, das grandezas que independem da trajetória tomada pelo sistema.

Ficou alguma dúvida? Construímos uma trilha de aprendizagem pensando em facilitar sua compreensão. Acesse o QR Code, que levará ao AVA, e veja as novidades que preparamos para seu estudo.

CHAMADA

Page 152: Estatística E ProbabilidadE Em Física

143

1 Um sistema termodinâmico é caracterizado por uma equação de estado:

f (P , V, T) = 0.

Por exemplo, para o chamado gás ideal, nós temos a equação de estado que o caracteriza:

f (P , V, T) = P V – nRT.

Desse modo, sabendo da equação de estado que obedece a uma determinada substância, podemos derivar o comportamento de certas grandezas. Por exemplo, podemos obter o trabalho realizado por um gás ideal, usando a equação de estado, através da fórmula:

W = ʃ PdV.

Com as informações, demonstrando os resultados, classifique V para as sentenças verdadeiras e F para as sentenças falsas:

( ) A fórmula a seguir,

representa o volume final associado a um gás ideal em um processo isotérmico.

( ) Em um processo isobárico, o trabalho realizado quando o volume final é sete vezes o volume inicial é: W = –6PVi.

( ) Em um processo adiabático, o trabalho realizado quando o volume final é sete vezes o volume inicial é: W = 8PVi.

( ) Em um processo isovolumétrico, o trabalho realizado é nulo.

2 Podemos analisar um processo termodinâmico ao observar o gráfico PxV. Por exemplo, no gráfico a seguir, serão mostradas possíveis evoluções de um sistema de gás ideal:

AUTOATIVIDADE

Page 153: Estatística E ProbabilidadE Em Física

144

No gráfico, vemos quatro isotermas e duas possíveis evoluções adiabáticas. Assim, analisando o gráfico dado e os itens a seguir:

I- Para a temperatura T2, associada ao isoterma 2, e para a temperatura T3, associada ao isoterma 3, temos T2 > T3.

II- Para um processo que se inicia em V = 3 m3, e evolui para V = 2 m3 pelo isoterma 1, o trabalho será maior se, em um ciclo de Carnot, o sistema regressar ao estado inicial pelo isoterma 3 do que regressar pela isoterma 2.

III- Para os dois diferentes processos do item b), são válidas as seguintes fórmulas: T2 = – (Q2 / Q1 ) T1 e Q3 = – (T3 / T1 )Q1.

IV- Uma vez que é válido, podemos concluir que, em um único

Ciclo de Carnot,

Assinale a alternativa CORRETA:a) ( ) Somente o item IV está correto.b) ( ) Somente o item III está correto.c) ( ) Os itens III e IV estão corretos.d) ( ) Os itens I e III estão corretos.e) ( ) Os itens II e IV estão corretos.

Page 154: Estatística E ProbabilidadE Em Física

145

3 A primeira e a segunda lei da termodinâmica foram construídas em termos das chamadas propriedades do sistema. Tais grandezas termodinâmicas dependem, apenas, dos estados inicial e final do sistema, e, por isso, desenvolvem papéis fundamentais dentro da teoria. Assim, com base nos seus conhecimentos da primeira, da segunda lei e das fundamentações, classifique V para as sentenças VERDADEIRAS e F para as sentenças FALSAS:

( ) A combinação: dQ + dW independe da trajetória realizada por um sistema termodinâmico.

( ) A quantidade é uma propriedade do sistema e nunca decresce.

( ) Podemos representar, matematicamente, a primeira lei da termodinâmica, como: dE = dQ – dW.

( ) Assim como a entropia, o trabalho é uma propriedade do sistema.

4 A Segunda Lei da Termodinâmica é uma declaração a respeito do princípio de aumento de entropia. Segundo Nussenzveig (2001, p. 230), “a entropia de um sistema termicamente isolado nunca pode decrescer: não se altera quando ocorrem processos reversíveis, mas aumenta quando ocorrem processos irreversíveis”. Assim, referente à entropia e à segunda lei, assinale a alternativa CORRETA:

a) ( ) Em um processo termodinâmico, sempre é válida a declaração matemática: ∆S = 0.

b) ( ) A entropia é uma propriedade do sistema, desde que para uma a integral aberta.

c) ( ) Em um processo reversível, ∆S < 0, já em um processo irreversível, ∆S > 0.d) ( ) Em um processo irreversível, ∆S > 0.

e) ( ) A fórmula é inválida para processos reversíveis.

Page 155: Estatística E ProbabilidadE Em Física

146

Page 156: Estatística E ProbabilidadE Em Física

147

REFERÊNCIAS

HALLIDAY, D.; RESNICK, R.; WALKER, J. Fundamentos de física: gravitação, ondas e termodinâmica. Rio de Janeiro: LTC – Livros Técnicos e Científicos Editora S.A., 1993.

NUSSENZVEIG, H. M. Curso de física básica 2: fluido, oscilações e ondas, calor. São Paulo: Editora Blucher, 2002.

PENA, S. D. Thomas Bayes: o ‘cara’! Ciência Hoje, v. 38, n. 228, p. 1, 2006.

SEARS, F. W. P.; SALINGER, J. Termodinâmica, teoria cinética e termodinâmica estatística. Rio de Janeiro: Editora Guanabara, 1979.

TOUSSAINT, U. Bayesian inference in physics. Review of Modern Physics, v. 83, n. 1, p. 1, 2011.

TROTTA, R. Bayes in the sky: Bayesian inference and model selection in cosmology. Contemporary Physics, v. 49, n. 2, p. 1, 2008.

Page 157: Estatística E ProbabilidadE Em Física

148

Page 158: Estatística E ProbabilidadE Em Física

149

UNIDADE 3 —

APLICAÇÕES DE PROBABILIDADE E ESTATÍSTICA EM FÍSICA

OBJETIVOS DE APRENDIZAGEM

PLANO DE ESTUDOS

A partir do estudo desta unidade, você deverá ser capaz de:

• desenvolver as diversas aplicações de probabilidade e de estatística em física;

• formalizar algumas ideias básicas da Teoria Cinética dos Gases e obter os elementos da termodinâmica a partir dela;

• introduzir e desenvolver as noções básicas da mecânica estatística;

• aplicar as ideias de processos estocásticos para descrever o movimento browniano;

• entender o papel da probabilidade na mecânica quântica.

Esta unidade está dividida em três tópicos. No decorrer da unidade, você encontrará autoatividades com o objetivo de reforçar o conteúdo apresentado.

TÓPICO 1 – TEORIA CINÉTICA DOS GASES

TÓPICO 2 – MECÂNICA ESTATÍSTICA

TÓPICO 3 – OUTRAS APLICAÇÕES EM FÍSICA

Preparado para ampliar seus conhecimentos? Respire e vamos em frente! Procure um ambiente que facilite a concentração, assim absorverá melhor as informações.

CHAMADA

Page 159: Estatística E ProbabilidadE Em Física

150

Page 160: Estatística E ProbabilidadE Em Física

151

UNIDADE 3TÓPICO 1 —

TEORIA CINÉTICA DOS GASES

1 INTRODUÇÃO

Conceitos familiares, como calor e temperatura, foram desenvolvidos nos estudos dos ditos fenômenos térmicos observados na natureza. Paralelamente, partindo de uma visão atomista para compreender certas propriedades dos gases, estiveram, também, desenvolvidas ideias estatísticas, para derivar, alternativamente, algumas leis termodinâmicas conhecidas naquelas épocas. Posteriormente a algumas ideias pioneiras desenvolvidas por Gassendi e Hooke, no século XVII, a formulação de uma teoria cinética dos gases remonta ao tratado de Bernoulli, no século XVIII. A ideia básica é tratar de um gás qualquer como um conjunto de partículas ou moléculas formadas por pequenas entidades sujeitas às leis da mecânica clássica. Desde que um gás deva, em tese, conter uma quantidade enorme de entidades, a necessidade de uma interpretação estatística emerge naturalmente. Assim, na Teoria Cinética dos Gases, a visão atomista é fundamental para a interpretação estatística da termodinâmica.

Começaremos nossos estudos apresentando as hipóteses básicas que serão essenciais para o desenvolvimento posterior da teoria. No que segue, formularemos temperatura e pressão através de preceitos estatísticos e uma noção básica de entropia. Mostraremos, também, que é um direito obter algumas leis termodinâmicas dentro desse contexto.

2 TEORIA CINÉTICA DOS GASES: HIPÓTESES BÁSICAS

Com o posterior desenvolvimento moderno de tais ideias, as entidades podem, em geral, ser tratadas como partículas sujeitas às leis da mecânica clássica, ou como partículas sujeitas às teorias quânticas. No entanto, como o desenvolvimento histórico, trataremos das ideias básicas da teoria cinética dos gases como partículas clássicas.

Para a evolução dos nossos estudos, consideraremos cinco hipóteses básicas fornecidas por Nussenzveig (2002):

• O gás é constituído de um número extremamente grande de moléculas idênticas.• O tamanho de uma molécula de gás é desprezível em confronto com a distância

média entre as moléculas.• As moléculas estão em movimento constante em todas as direções.

Page 161: Estatística E ProbabilidadE Em Física

UNIDADE 3 — APLICAÇÕES DE PROBABILIDADE E ESTATÍSTICA EM FÍSICA

152

• As forças de interação entre as moléculas são de curto alcance, atuando somente durante as colisões.

• As colisões entre as moléculas e as paredes do recipiente são perfeitamente elásticas.

As hipóteses são válidas para gases homogêneos compostos de substâncias puras. No que segue, estudaremos a temperatura e a pressão sob uma interpretação estatística, e obteremos algumas leis termodinâmicas. Finalizaremos observando como a entropia pode ser pensada a partir de uma interpretação estatística.

3 TEMPERATURA: INTERPRETAÇÃO ESTATÍSTICA

No Tópico 3 da Unidade 2, vimos que pressão, temperatura e volume são grandezas que determinam os estados termodinâmicos. Além disso, vimos, também, a emergência das quantidades de energia interna e entropia, que são propriedades do sistema. Dando continuidade aos nossos estudos, observaremos tais entidades sob o ponto de vista estatístico. Iniciaremos estudando o conceito de temperatura na visão estatística.

Para começar, é preciso considerar um sistema de moléculas (ou partículas), estas que podem ser organizadas por um quadro de frequências da seguinte maneira:

QUADRO 1 – DISTRIBUIÇÃO DE ENERGIA DE UM SISTEMA DE MOLÉCULAS

FONTE: O autor

n1 E1

n2 E2

n3 E3

⁞ ⁞

nk Ek

Aqui, ni é o número de partículas ou moléculas com um dado valor de energia Ei. A somatória em ni determina o número total de moléculas n (ou partículas). Matematicamente:

A partir daqui, chamaremos os componentes do gás de moléculas, ficando subtendido que, em geral, podem ser moléculas ou partículas.

Page 162: Estatística E ProbabilidadE Em Física

TÓPICO 1 — TEORIA CINÉTICA DOS GASES

153

Em uma visão atomista de mundo, a temperatura é imaginada por ter relação direta com a energia média extraída do conjunto das moléculas individuais do sistema. Como já foi abordado no estudo de estatística na Unidade 1, para encontrarmos a média de uma grandeza fornecida por uma tabela de frequências, devemos usar a média ponderada. Assim, a energia média extraída do sistema, representado pelo quadro de frequências anterior, é dada por:

No estudo da probabilidade e da estatística na Unidade 1, tínhamos usado, como notação para o valor médio em estatística, E, isto é, com um subscrito. Já no estudo da probabilidade, a notação <> indicava o valor esperado. A partir daqui, é preciso unificar a notação usando apenas <> para o valor médio (ou esperado). Isso pode ser justificado, uma vez que a frequência e a probabilidade indicam o peso estatístico de uma determinada quantidade.

NOTA

Por simplicidade, podemos considerar sistemas a partir dos quais a energia Ei de cada grupo ni de moléculas é unicamente fornecida pela energia cinética associada Ki , ou seja:

Ki = Ei.

No caso, ainda, devemos nos restringir ao caso em que a energia interna do sistema é dada pela energia cinética de translação média. Em termos matemáticos:

E = <K>.

O caso só é válido para moléculas monoatômicas. Para casos mais gerais, devemos considerar outras contribuições, como a energia cinética de rotação e de vibração.

Como mencionamos no último tópico da unidade anterior, para um gás ideal, a energia interna do sistema depende somente da temperatura. Exatamente, essa dependência é dada através da equação (23) da Unidade 2. Desse modo, podemos combinar (23) (Unidade 2) com (1), para derivar, explicitamente, a ideia inicial de que a temperatura é uma medida estatística das energias individuais das moléculas.

(1)

Page 163: Estatística E ProbabilidadE Em Física

UNIDADE 3 — APLICAÇÕES DE PROBABILIDADE E ESTATÍSTICA EM FÍSICA

154

Combinando tais expressões, obtemos a seguinte relação:

(2)

Note que a temperatura depende, basicamente, da energia cinética média, uma vez que k é a constante de Boltzmann.

A seguir, analisaremos uma situação, a fim de entender o papel estatístico e as possíveis implicações.

Exemplo: atmosfera planetária

Sabe-se que, para um determinado planeta (ou corpo celeste, em geral), existe uma velocidade de escape ve, que pode ser derivada através da lei da gravitação universal de Newton. Em termos físicos, a velocidade de escape é a velocidade que, se um objeto alcançar, nas mediações de um corpo massivo, terá energia cinética suficiente para escapar do campo gravitacional do corpo. Em outras palavras, é a velocidade necessária para que um corpo não fique aprisionado no campo gravitacional gerado por um corpo massivo. A velocidade de escape ve, para um corpo de massa M e em uma certa distância r do centro de massa, é a seguinte:

Sendo G a constante gravitacional de Newton>.

Por outro lado, podemos imaginar que, na superfície desse corpo, encontra-se uma atmosfera sujeita a uma temperatura T. Da equação (2), encontramos que a velocidade quadrática média v2

q, associada às moléculas, é:

(3)

Assim, usamos, para a energia cinética média, a relação:

(4)

Aqui m denota a massa de uma única molécula. Como podemos observar, a equação (3) fornece a velocidade quadrática média em razão da temperatura sentida pela atmosfera. Usando a velocidade de escape e a equação (4), podemos estabelecer, matematicamente, se um planeta consegue ou não aprisionar certa composição atmosférica.

Page 164: Estatística E ProbabilidadE Em Física

TÓPICO 1 — TEORIA CINÉTICA DOS GASES

155

Para entendermos o processo, devemos ter em mente que, por trás dessa média, existe uma distribuição estatística que leva para tal valor médio. Por exemplo, para gases ideais, a distribuição estatística de velocidades é dada pela distribuição de Maxwell:

(5)

A distribuição de Maxwell é uma distribuição contínua e, assim, a velocidade quadrática média é definida como:

Por comodidade, para as nossas análises, trabalharemos com a distribuição simplificada:

Tal distribuição de Maxwell (para T = 1, 2, 3, 4 K) será representada a seguir:

GRÁFICO 1 – DISTRIBUIÇÃO DE MAXWELL PARA DIFERENTES TEMPERATURAS

FONTE: O autor

Page 165: Estatística E ProbabilidadE Em Física

UNIDADE 3 — APLICAÇÕES DE PROBABILIDADE E ESTATÍSTICA EM FÍSICA

156

No gráfico, a linha azul é a curva para T = 1 K, enquanto as linhas vermelha, verde e cinza são para T = 1, 2, 3, 4 K, respectivamente.

É importante notar que, por mais que a velocidade média seja menor do que a velocidade de escape, há um grupo de moléculas nas quais as velocidades individuais superam o valor dessa velocidade. Por exemplo, se supormos uma velocidade de escape igual a quatro, vemos, no gráfico, que, para temperaturas maiores, um grupo maior de moléculas tem velocidades que superam a velocidade de escape. Assim, tais moléculas desse grupo têm energia cinética suficiente para escapar do planeta ou do corpo.

Como pode ser visto em Oliveira e Saraiva (2013), pode-se mostrar que se:

ve ≤ 6v q,

o corpo manterá a atmosfera durante grande parte da história.

Reescrevendo (18) como:

concluímos que, se vq < ve /6, a temperatura, na superfície do corpo celeste, deve ser:

para possuir uma atmosfera daquela substância. Substituindo a velocidade de escape, encontra-se:

Assim, sabendo da massa do corpo celeste, do raio e da temperatura na superfície, podemos dizer se uma atmosfera específica (composta de moléculas de massa m) se manterá aprisionada nesse corpo.

Um outro bom exemplo é discutido por Feynman (2000), no livro Física em Seis Lições. Ele trata do processo de evaporação da água para temperaturas abaixo de 100 graus Celsius, isto é, do ponto de evaporação da água. A pergunta é: como a água evapora quando a temperatura está abaixo do ponto de fusão? A explicação para tal fenômeno envolve estatística e é similar ao caso abordado anteriormente, no caso do planeta.

DICAS

Page 166: Estatística E ProbabilidadE Em Física

TÓPICO 1 — TEORIA CINÉTICA DOS GASES

157

4 PRESSÃO: INTERPRETAÇÃO ESTATÍSTICA

Para compreender a pressão sob o ponto de vista estatístico, estudaremos um gás confinado em uma caixa. Devemos considerar o gás como um conjunto de moléculas microscópicas satisfazendo hipóteses básicas estabelecidas anteriormente. Tais hipóteses exigem que as colisões entre as moléculas e a parede são de natureza elástica, isto é, o momento final de uma molécula, em uma certa direção após uma colisão com a parede, é menos o momento inicial. Para o sistema, temos a conversão do momento linear nessa direção, dada pela lei de conservação:

pi + q i = pf + qf .

Aqui, q indica o momento linear referente à parede, enquanto p é referente à molécula. Em contrapartida, o momento inicial da parede é zero:

pi = pf + qf .

Uma vez que o momento linear inicial da molécula em direção à parede é pi = mvx, o momento final será pf = – mvx, desde que estamos tratando de colisões elásticas. Substituindo os momentos inicial e final, obtemos que a variação do momento linear da parede será:

∆q = qf = 2m vx .

Uma dada molécula deve colidir elasticamente com a parede à esquerda, voltar e colidir elasticamente com a parede da direita e, então, novamente, colidir com a parede da esquerda. Desse modo, o tempo em que a partícula transmite o momento 2 mvx para a parede à direita é de:

∆t = 2X / vx,

X é a distância entre as paredes.

Considerando n partículas colidindo com a parede com velocidade vx, a variação do momento linear da parede fica:

∆q = 2nm vx.

Agora, supomos que n1 moléculas colidem com velocidade v1x, n2

moléculas colidem com velocidade v2x, e assim por diante. Podemos construir um quadro de frequências:

(6)

Page 167: Estatística E ProbabilidadE Em Física

UNIDADE 3 — APLICAÇÕES DE PROBABILIDADE E ESTATÍSTICA EM FÍSICA

158

QUADRO 2 – DISTRIBUIÇÃO DE VELOCIDADES DE UM SISTEMA DE MOLÉCULAS QUE COLIDEM

FONTE: O autor

n1 v1x

n2 v2x

n3 v3x

⁞ ⁞

nk vkx

A distribuição estatística dada é gerada pela variação do momento da parede:

q = 2m Σ ni vix.

Para uma taxa de colisão constante ao longo do tempo, a força newtoniana pode ser escrita como:

(8)

Sendo, a variação do momento na parede, ∆p = ∆q, podemos substituir a equação (7) na (8), para encontrarmos:

Lembrando que o tempo em que cada molécula colide com a parede é fornecido pela expressão (6), a última expressão fica:

Logo, vemos que a força com a parede depende das velocidades das moléculas ao quadrado.

No caso em questão, o volume da caixa pode ser escrito em termos da distância percorrida X e da área A = YZ da parede, isto é, V = XA. Isolando X e substituindo na última expressão de força, obteremos:

(9)

(7)

Page 168: Estatística E ProbabilidadE Em Física

TÓPICO 1 — TEORIA CINÉTICA DOS GASES

159

Para obtermos a forma final da força sobre a parede, devemos lembrar da definição de valor médio, escrito em termos de frequência:

Com a última fórmula, a força (9) se torna:

(10)

Agora, estamos aptos a usar a fórmula (10) para encontrar a pressão exercida na parede sob a área A.

Lembramos que a pressão é definida como a força dividida pela área: P = F/A. Combinando esse fato com a fórmula (10), derivamos a pressão que atua sob a parede de área A. Tem-se:

Considerando o caso isotrópico, no qual, estatisticamente, as moléculas se deslocam igualmente sob todas as direções, temos a seguinte relação para velocidades quadráticas médias:

< v2ix > = <v2

iy > = < v2iz >.

Como:

<v2 > = <v2ix > + <v2

iy > + <v2iz>,

obtemos que a velocidade ao quadrado média, na direção x, é:

Desse modo, usando a última relação e a fórmula (4) para a energia cinética média, podemos reescrever a pressão:

(11)

Assim, pela expressão anterior, vemos que a pressão, sob a parede, depende do número de moléculas, do volume e da energia cinética média.

Page 169: Estatística E ProbabilidadE Em Física

UNIDADE 3 — APLICAÇÕES DE PROBABILIDADE E ESTATÍSTICA EM FÍSICA

160

Para uma boa compreensão conceitual acerca dos assuntos estudados neste tópico e no próximo, é sugerida a visualização dos seguintes links: https://www.youtube.com/watch?v=h8frudcqEf0 e https://www.youtube.com/watch?v=vNEhFxvaMkY.

DICAS

5 DERIVANDO E REINTERPRETANDO ALGUMAS LEIS TERMODINÂMICAS

Além das grandezas, como temperatura e pressão, obtidas até aqui, podemos, também, derivar e reinterpretar algumas leis conhecidas da termodinâmica. A fim de obtermos novas interpretações, antes de prosseguirmos, reorganizaremos a equação (11) da seguinte maneira:

(12)

Na tentativa de fazermos apenas uma pequena ilustração, trabalharemos com a Lei dos Gases Ideais, já vista anteriormente, a Lei de Boyle e a Lei de Dalton.

5.1 LEI DOS GASES IDEAIS

Iniciaremos derivando a primeira delas, que é a Lei dos Gases Ideais. Notamos que a expressão (12) é dada em termos da pressão, do volume e da energia cinética média. No entanto, se considerarmos que a energia cinética pode ser escrita em termos da temperatura do sistema pela equação (2), podemos remover a energia cinética média de (12), substituindo-a pela temperatura.

Seguindo tais passos mencionados anteriormente, encontraremos:

PV = nRT.

Comparando (10), da Unidade 2, com (13), vemos que a equação (28) é exatamente a expressão que fornece a Lei dos Gases Ideais.

(13)

Page 170: Estatística E ProbabilidadE Em Física

TÓPICO 1 — TEORIA CINÉTICA DOS GASES

161

5.2 LEI DE BOYLE

Agora, reinterpretaremos a chamada Lei de Boyle. Tal lei é fornecida pela seguinte expressão matemática:

PV = CONSTANTE.

Desde que:

nRT = CONSTANTE,

uma vez que R é uma constante e n tem o valor fixado, inicialmente, podemos concluir que a temperatura será, neste caso, constante. Como a temperatura se relaciona com a energia cinética através de (2), concluímos que:

< K > = CONSTANTE.

Ou seja, a lei de Boyle é válida quando a energia cinética média das moléculas do sistema não se altera.

5.3 LEI DE DALTON

Consideraremos, agora, uma mistura de gases ideais que não reagem quimicamente entre eles, e que tal mistura se comporta, também, como um gás ideal.

T é uma temperatura submetida à mistura, e V é um volume que ela ocupa. A Lei Experimental de Dalton é verificada observando que a pressão do sistema misturado é igual à soma das pressões, com cada gás ocupando, isoladamente, o mesmo volume, com a mesma temperatura e com a mesma massa relativa que havia na mistura. Tal fato pode ser expresso, matematicamente, como:

P = PA + PB + PC + ... .

Aqui, PA é a pressão de um gás específico, PB, de outro, e assim por diante. Usando a Lei dos Gases Ideais (13), as equações de cada gás, ocupando esse mesmo volume com a mesma temperatura, são escritas como:

PAV = nA RT,PBV = nB RT,PCV = nC RT,

e assim por diante.

Page 171: Estatística E ProbabilidadE Em Física

UNIDADE 3 — APLICAÇÕES DE PROBABILIDADE E ESTATÍSTICA EM FÍSICA

162

Agora, por exemplo, devemos reparar que, substituindo (11) na primeira expressão, obtemos:

Repetindo os mesmos passos para as demais pressões, encontramos , , e assim por diante.

Podemos notar que as energias cinéticas médias associadas a cada substância são as mesmas, isto é:

< K A > = < KB > = < K C > = ....

Podemos concluir que, em uma mistura de gases, a energia cinética referente a um determinado gás é exatamente a mesma, em comparação aos demais gases. Isso pode ser entendido como um princípio de equipartição de energia. A seguir, veremos um exemplo que mostrará uma implicação do resultado.

Exemplo: Relação massa/velocidade quadrática média

Sendo a energia cinética média dada por (4), teremos as igualdades:

Aqui, mA indica a massa de uma molécula que compõe o gás A, e assim por diante. Note que, como, em geral, as massas são diferentes, uma vez que são gases formados por moléculas diferentes, a velocidade quadrática média deve compensar essa diferença, a fim de tornar as energias cinéticas médias iguais. Por exemplo, se, em uma mistura de dois gases, as moléculas do gás B tiverem dez vezes a massa das moléculas do gás A, a velocidade quadrática média do gás B será:

< v 2A > = 10 < v

2B >.

Isto é, a velocidade quadrática média do gás A é dez vezes maior do que a do gás B.

Page 172: Estatística E ProbabilidadE Em Física

TÓPICO 1 — TEORIA CINÉTICA DOS GASES

163

6 ENTROPIA: INTERPRETAÇÃO ESTATÍSTICA

Agora, analisaremos as equações (2) e (3) para introduzirmos o conceito estatístico de entropia, sem adentrar, ainda, na formulação matemática mais rigorosa, elaborada na Mecânica Estatística. Das equações mencionadas, podemos encontrar a pressão e a temperatura desde que possamos conhecer o número de moléculas n, o volume V e a energia cinética média < K >, que, no caso, é a própria energia média. De maneira inversa, dado um sistema macroscópico com certa pressão, volume e temperatura, podemos encontrar, através daquelas equações, um possível estado microscópico do sistema. Note que o termo possível foi usado desde que outros estados podem, também, ser igualmente possíveis. Seguiremos elaborando o conceito:

Sendo um estado termodinâmico W caracterizado por:

W = (P, V, T),

podemos usar (2) e (3), encontrando:

W = (2n < K > / 3V, V, < K > / 3k ).

Desse modo, podemos caracterizar esse estado termodinâmico alternativamente:

W = (n, V, < K >).

Assim, nosso sistema é, agora, caracterizado em termos da energia cinética média, do número de moléculas e do volume ocupado.

Como temos visto anteriormente, desde que < K > seja a energia cinética média por molécula, podemos decompor o sistema em um quadro de frequências, ou seja:

QUADRO 3 – DISTRIBUIÇÃO DE ENERGIA DE UM SISTEMA QUALQUER I

FONTE: O autor

n1 K1

n2 K2

⁞ ⁞

nj Kj

Page 173: Estatística E ProbabilidadE Em Física

UNIDADE 3 — APLICAÇÕES DE PROBABILIDADE E ESTATÍSTICA EM FÍSICA

164

Para facilitar a nossa análise, denotaremos essa decomposição do sistema pela letra w. A energia cinética média é calculada usando o quadro de frequências anterior. Explicitamente, temos:

Paralelamente, podemos considerar um sistema w' no qual um quadro de frequências é descrito como:

QUADRO 4 – DISTRIBUIÇÃO DE ENERGIA DE UM SISTEMA QUALQUER II

FONTE: O autor

n'1 K'1

n'2 K'2

⁞ ⁞

n'j K'j

Para o sistema, a energia cinética média é:

com n' = n. Notamos, aqui, que se:

Σ ni Ki = Σ n'i K'i

a relação seguinte é satisfeita: < K > = < K' >. Encontramos duas configurações microscópicas diferentes, w e w', que são compatíveis com a informação macroscópica representada por W, uma vez que:

n' = n, V' = V e < K > = < K' >.

Sendo duas configurações microscópicas diferentes, W e W', ocupando o mesmo volume, compatíveis com o estado macroscópico W, em tese, podemos encontrar outras configurações, W'', W''', e assim por diante, que também são compatíveis com o estado macroscópico, desde que as relações sejam, também, satisfeitas: n = n' = n'' = n''' = ... e < K' > = < K'' > = < K''' > = ... . Concluímos, assim, que um estado macroscópico pode admitir um conjunto de microestados que são compatíveis com ele.

Page 174: Estatística E ProbabilidadE Em Física

TÓPICO 1 — TEORIA CINÉTICA DOS GASES

165

Através das análises construídas até o momento, podemos introduzir uma quantidade numérica No associada com o número de microestados {w}, estes que harmonizam com o estado macroscópico termodinâmico W (macroestado). Simbolicamente, podemos dizer que, para o macroestado W, temos os seguintes microestados:

QUADRO 5 – POSSÍVEIS MICROESTADOS PARA O MACROESTADO W

FONTE: O autor

MACROESTADO MICROESTADOS

W w w' ... w'...'

n1 K1 n'1 K'1 .........⁞...

n'...'1 K'...'1

n2 K2 n'2 K'2 n'...'2 K'...'2

⁞ ⁞ ⁞ ⁞ ⁞ ⁞

nj Kj n'j K'j n'...'j K'...'j

Como veremos, ao estudar o próximo tópico, uma quantidade importante a ser definida será uma grandeza proporcional ao logaritmo natural:

ln Nº. O que temos introduzido, informalmente, em (14), é próximo ao conceito

estatístico de entropia, que será formalmente introduzido no tópico a seguir. Como veremos, uma quantidade similar a (14) será de fundamental importância para a formalização de uma física baseada em estatística, conhecida como mecânica estatística. Historicamente, Ludwig Boltzmann (1844-1906) definiu a entropia como:

S = k ln Ω,

com k sendo a constante de Boltzmann e Ω representando a quantidade de configurações microscópicas compatíveis com a informação macroscópica extraída do sistema termodinâmico.

(14)

Page 175: Estatística E ProbabilidadE Em Física

166

Neste tópico, você aprendeu que:

• A temperatura pode ser interpretada como proporcional à energia média das moléculas individuais de um sistema.

• A pressão pode, também, ser interpretada como proporcional à energia média das moléculas, mas o volume também deve ser levado em consideração.

• Algumas leis são diretamente deduzíveis no contexto estatístico.

• As noções de estados microscópicos e macroscópicos podem ser imaginadas, e a entropia pode ter um papel fundamental para o tratamento de tais ideias.

RESUMO DO TÓPICO 1

Page 176: Estatística E ProbabilidadE Em Física

167

AUTOATIVIDADE

1 Certos tipos de gases podem ser descritos, estatisticamente, usando as leis clássicas de Newton. Nesse contexto, pressão e temperatura podem ser calculadas a partir do conhecimento microscópico de um dado gás. Sabendo que a energia de cada molécula é dada somente pela energia cinética de translação, calcule a temperatura para o sistema representado pelo quadro:

Com base no resultado, assinale a alternativa CORRETA:a) ( ) T = 8 x 10–22 J k–1 .b) ( ) T = 8,25 x 10–22 J k–1 .c) ( ) T = 4,75 x 10–22 J k–1 .d) ( ) T = 6 x 10–22 J k–1 .e) ( ) T = 4 x 10–22 J k–1.

2 Assim como temperatura, a pressão em Teoria Cinética dos Gases pode ser entendida como resultante de uma estatística associada a variação de momentum linear das moléculas individuais do sistema. Depois de bastante álgebra, a pressão pode ser escrita como:

Sabendo que 3PV/n = 8x10–22 J e diante do quadro:

Assinale a alternativa CORRETA:a) ( ) x = 8 x 10–22 J.b) ( ) x = 2 x 10–22 J.c) ( ) x = 4 x 10–22 J.d) ( ) x = 9 x 10–22 J.e) ( ) x = 5 x 10–22 J.

Número de moléculas Energia (10–22 J)3 39 4 4 69 9

Número de moléculas Energia (10–22 J)4 x 8 5 13 4

= < >

Page 177: Estatística E ProbabilidadE Em Física

168

3 Sob o ponto de vista estatístico, para um sistema termodinâmico macroscópico, podemos ter diferentes configurações microscópicas que levam a uma mesma informação macroscópica, como pressão e temperatura. Em outras palavras, um sistema macroscópico (com um volume fixo), caracterizado pela expressão

W = (P, V, T ),

pode ter diferentes sistemas que levam aos mesmos valores que caracterizam tal sistema.

Sabendo que um sistema macroscópico é caracterizado por:

Classifique V para as sentenças VERDADEIRAS e F para as sentenças FALSAS:

( ) O seguinte sistema microscópico é compatível com W:

( ) O seguinte sistema microscópico é compatível com W:

( ) O seguinte sistema microscópico é compatível com W:

( ) O seguinte sistema microscópico é compatível com W:

Número de moléculas Energia (10–22 J)2 28 5

Número de moléculas Energia (10–22 J)1 22 3 3 4

Número de moléculas Energia (10–22 J)1 33 4 6 5

Número de moléculas Energia (10–22 J)1 43 105 2

Número de moléculas Energia (10–22 J)1 94 55 3

Page 178: Estatística E ProbabilidadE Em Física

169

4 As leis dos gases ideais, de Dalton e de Boyle são diretamente deduzidas da Teoria Cinética dos Gases e, em particular, da fórmula:

Através da Teoria Cinética dos Gases, derive a Lei dos Gases Ideais, mostre quando a Lei de Boyle é válida e reinterprete a Lei de Boyle.

Page 179: Estatística E ProbabilidadE Em Física

170

Page 180: Estatística E ProbabilidadE Em Física

171

UNIDADE 3TÓPICO 2 —

MECÂNICA ESTATÍSTICA

1 INTRODUÇÃO

Temos estudado, até agora, termodinâmica e a Teoria Cinética dos Gases, para podermos aprender um pouco de mecânica estatística. Podemos ver a mecânica estatística como uma formalização das ideias anteriores para os mais diversos sistemas. Conceitos, como micro e macroestados, são amplamente caracterizados, assim como a construção rigorosa de uma “ponte”, que tem, como função, conectar a natureza estatística com a natureza termodinâmica. Tais pontes são construídas em diferentes contextos físicos, e um exemplo delas é a fórmula de Boltzmann, a qual conecta o número de microestados (obtido através de análises estatísticas) à grandeza entropia (oriunda da teoria física da termodinâmica). Outras pontes também são possíveis e, como veremos, existem diferentes modelos para tratar de cada uma delas.

No tópico atual, construiremos, inicialmente, as ideias de micro e macroestado e como podemos as transformar em número. Seguimos observando a conexão entre micro (macro) estado, probabilidade e entropia. Finalizaremos conhecendo outras formulações que mantêm a ideia inicial, mas que podem ser aplicadas em outros contextos, ou seja, observaremos que existem diferentes ensembles (que chamaremos de conjuntos), que são a base da mecânica estatística.

2 MICROESTADOS E MACROESTADOS

Vimos, no fim do Tópico 1, uma introdução informal de entropia, e escrevemos a definição de Boltzmann. Formalmente, pode-se pensar em um objeto matemático que contabilize todos os números de microestados compatíveis com um macroestado termodinâmico. Para começarmos a entender, mais rigorosamente, os papéis do macroestado, do microestado e da entropia, voltaremos para o problema do marinheiro (ou caminho aleatório), já amplamente trabalhado nas Unidades 1 e 2.

Há a equação que fornece a probabilidade de encontrar o marinheiro em uma dada posição, a qual poderia ser escrita em uma forma alternativa, como:

Page 181: Estatística E ProbabilidadE Em Física

172

UNIDADE 3 — APLICAÇÕES DE PROBABILIDADE E ESTATÍSTICA EM FÍSICA

É uma distribuição binomial. É preciso, novamente, lembrar que P(ΔX) é a probabilidade de se encontrar o marinheiro na posição ΔX depois de uma distância total X percorrida, enquanto P> é a probabilidade de que um certo passo seja dado, pelo marinheiro, para frente.

Tínhamos determinado que, para X = 10 m, encontraríamos as seguintes probabilidades:

Desse modo, estivemos supondo um valor para P> e encontrado as diferentes probabilidades.

Devemos lembrar que tínhamos introduzido o fator de normalização, que é, neste caso:

O fator de normalização considerava que, para o marinheiro estar na posição, digamos, de ΔX = 4 m, ele poderia ter realizado uma combinação diferente de passos. Para esse específico caso, temos, por exemplo, a seguinte possibilidade:

> > > > > < < > > <,

Isto é, caminhou cinco passos para frente, retornou dois, em seguida, deu mais dois passos para frente e terminou a caminhada de dez passos retornando um. No entanto, ele pode ter realizado uma sequência diferente de passos, como as seguintes sequências:

> < > < > > > > > <, < < > > > > < > > >.

Page 182: Estatística E ProbabilidadE Em Física

TÓPICO 2 — MECÂNICA ESTATÍSTICA

173

Muitas outras combinações também são possíveis, e o número total delas é obtido através do fator de normalização, que, no caso, fornece:

Temos 120 diferentes combinações que levam o marinheiro para a posição de seis metros depois de dez passos. Na linguagem de estados termodinâmicos, poderíamos dizer que existem 120 microestados para o macroestado ΔX = 4 m, o qual pode “ser medido” dentro do contexto que criamos.

Em geral, para o sistema, teremos os diferentes macroestados associados a uma quantidade de microestados:

QUADRO 6 – MACROESTADOS E MICROESTADOS

FONTE: O autor

Macroestados Microestados

-10 m, +10 m 1

- 8 m, + 8 m 10

- 6 m, + 6 m 45

- 4 m, + 4 m 120

- 2 m, + 2 m 210

ZERO 252

A seguir, tentaremos conectar a nossa análise com um sistema termodinâmico e, em especial, fomentar a base, para entender o conceito de entropia sob essa ótica. Para isso, consideraremos, inicialmente, uma caixa: em uma metade, tem-se um gás confinado, e, na outra, tem-se o vácuo, separados por uma placa adiabática, como representado a seguir:

FIGURA 1 – CAIXA COM METADE DE GÁS E A OUTRA METADE DE VÁCUO

FONTE: O autor

Page 183: Estatística E ProbabilidadE Em Física

174

UNIDADE 3 — APLICAÇÕES DE PROBABILIDADE E ESTATÍSTICA EM FÍSICA

O que ocorrerá quando retirarmos a placa que separa os dois lados? Por intuição, podemos pensar que, ao remover a placa, algumas moléculas do gás devem ocupar, aos poucos, a metade na qual, inicialmente, havia vácuo:

FIGURA 2 – GÁS LIVRE PARA SE PROPAGAR APÓS A REMOÇÃO DA PLACA

FONTE: O autor

Com o decorrer do tempo, espera-se que as duas metades estejam igualmente ocupadas com as moléculas do gás. O que temos, aqui, exatamente, é uma expansão livre, e o volume final é duas vezes maior do que o inicial. Nosso macroestado, aqui, será a quantidade de moléculas que se encontram em cada metade. A seguir, veremos uma ilustração de um possível macroestado:

FIGURA 3 – MACROESTADO (6,7) PARA UM GÁS EM “EXPANSÃO LIVRE”

FONTE: O autor

Fisicamente, o macroestado seria obtido por medir a densidade de cada metade. Uma vez que cada molécula teria uma probabilidade P> de estar na metade da direita e outra P< na metade da esquerda, a probabilidade P>, de encontrar N> moléculas no lado direito, é dada pela distribuição binomial. O

Page 184: Estatística E ProbabilidadE Em Física

TÓPICO 2 — MECÂNICA ESTATÍSTICA

175

FIGURA 4 – MACROESTADO (8,7) CONFIGURAÇÃO 1

FONTE: O autor

No entanto, a seguinte configuração também é possível:

FIGURA 5 – MACROESTADO (8,7) CONFIGURAÇÃO 2

FONTE: O autor

Assim, podemos ir cambiando as moléculas até obtermos todas as configurações microscópicas possíveis.

Sendo tal distribuição binomial, podemos organizar os macroestados e os microestados do sistema.

fator de normalização aparece porque dado N< moléculas no lado direito, tal quantidade pode ser obtida por diferentes grupos de moléculas. Por exemplo, podemos ter uma configuração microscópica para o macroestado, dada a seguir:

Page 185: Estatística E ProbabilidadE Em Física

176

UNIDADE 3 — APLICAÇÕES DE PROBABILIDADE E ESTATÍSTICA EM FÍSICA

QUADRO 7 – MACRO E MICROESTADOS DA DISTRIBUIÇÃO BINOMIAL

FONTE: O autor

Macroestados Microestados

N>

Isto é, fixando o número de moléculas N e escolhendo um macroestado específico N> , encontramos o número de microestados associados através de Ω. Para o exemplo que representamos pictoriamente, no qual N> = 7 e N = 15, o número de configurações possíveis é:

No que segue, construiremos um sistema físico e o descreveremos estatisticamente.

Exemplo: Sistema de Spin

Um outro exemplo muito usual e didático é considerar um sistema de partículas indistinguíveis de spin ±1/2 (como férmions, por exemplo, elétrons), que não interagem, e na presença de um campo magnético B. A energia associada para uma partícula com spin up é:

E ↑ = + μ B.

Aqui, 𝜇 representa o momento magnético. Já para uma partícula de spin down, temos:

E ↓ = + μ B.

A energia média para um sistema de spin é dada por:

Substituindo as energias, encontramos:

Uma vez que n = n ↓ + n ↑, obtemos:

e

Page 186: Estatística E ProbabilidadE Em Física

TÓPICO 2 — MECÂNICA ESTATÍSTICA

177

O sistema de spin pode ser tratado como uma distribuição binomial, e o número de microestados é calculado como:

Agora, podemos encontrar a quantidade de microestados do sistema, conhecendo o momento magnético, o campo magnético aplicado no sistema, a energia média e o número de partículas. Substituindo n ↑ e n ↓ em Ω, encontramos:

Com a fórmula para calcular a quantidade de microestados sendo escrita em termos de quantidades físicas, podemos tirar algumas conclusões. Por exemplo, podemos verificar que, para o nosso sistema de spin, quando n <E> = ± 𝜇B é satisfeito, teremos:

Podemos notar que o resultado anterior só pode ser válido se o número de partículas for ímpar. Assim, é possível calcular o número de estados para diferentes casos. Por exemplo, para uma partícula, encontramos: Ω = 1, ou seja, só há um microestado possível. Já se n = 3: Ω = 3, para n = 5: Ω = 10, e assim por diante. Diferentes resultados serão fornecidos a seguir:

QUADRO 8 – MICROESTADOS PARA DIFERENTES SISTEMAS DE SPIN

FONTE: O autor

n Ω

1 13 35 107 359 12611 46213 145215 6353

Page 187: Estatística E ProbabilidadE Em Física

178

UNIDADE 3 — APLICAÇÕES DE PROBABILIDADE E ESTATÍSTICA EM FÍSICA

Explicitamente, para o macroestado caracterizado por n = 3 e por + 𝜇B, os três microestados serão:

Já para o macroestado caracterizado por n = 3 e por – 𝜇B, teremos os três microestados:

Ainda, para o macroestado caracterizado por n = 5 e por + 𝜇B, surgem os seguintes:

Devemos notar que, para obter os microestados para – 𝜇B, podemos apenas trocar ↑ por ↓, e vice-versa.

↑↑↓ ↑↓↑ ↓↑↑

↓↓↑ ↓↑↓ ↑↓↓

↑↑↑↓↓ ↑↑↓↑↓

↑↓↑↑↓ ↓↑↑↑↓

↓↑↑↓↑ ↓↑↓↑↑

↓↓↑↑↑ ↑↓↓↑↑

↑↑↓↓↑ ↑↓↑↓↑

3 PROBABILIDADE E ENTROPIA

Agora, tentaremos entender o conceito de entropia nos contextos de microestado e de macroestado. Veremos que questões, como reversibilidade e irreversibilidade, são muito bem apresentadas quando a entropia é entendida sob as óticas probabilística e estatística.

O postulado fundamental da mecânica estatística, dito nas palavras de Salinas (1997), declara que todos os microestados acessíveis a um sistema termodinâmico fechado em equilíbrio são igualmente prováveis. Assim, voltando ao exemplo do gás em expansão livre em uma caixa, é igualmente provável encontrar uma dada molécula do lado direito ou do esquerdo, isto é:

P> = P< = ½,

desde que V> = V<, com V> o volume da parte direita e, V<, da esquerda.

Page 188: Estatística E ProbabilidadE Em Física

TÓPICO 2 — MECÂNICA ESTATÍSTICA

179

Usando (13) da Unidade 1:

Com o fato de que as probabilidades são as mesmas, podemos mostrar que a chance de verificar N> moléculas à direita será dada pela seguinte expressão:

Lembrando, agora, que o fator de normalização corresponde ao número de microestados acessíveis do sistema, assim, reescrevemos a última expressão:

Devemos notar que, quando a probabilidade é igualmente dividida, é diretamente proporcional ao número de microestados, uma vez que o termo (1/2)N é fixado a priori. Usando o postulado fundamental da mecânica estatística, então, atribuiremos o resultado para diferentes sistemas:

P = A Ω, com A uma constante.

Consideraremos que, onde tínhamos, inicialmente, a metade com vácuo, coloca-se um gás. No caso, ao remover a placa, o gás do lado esquerdo começa a se espalhar, entrando no lado direito, e vice-versa. Chamamos o gás, inicialmente, na esquerda, de gás A, e, o da direita, de gás B. Depois de um tempo suficiente, quando o sistema entrar em equilíbrio, podemos encontrar os microestados A associados com o gás A e os microestados B associados com o gás B. Desde que o espalhamento do gás A seja independente do espalhamento do gás B, a probabilidade associada com o sistema composto AB é dada pela multiplicação das probabilidades, ou seja:

Assim, podemos concluir que a probabilidade de encontrar o sistema em uma certa configuração é proporcional ao produto do número de microestados de cada gás separadamente.

(15)

Page 189: Estatística E ProbabilidadE Em Física

180

UNIDADE 3 — APLICAÇÕES DE PROBABILIDADE E ESTATÍSTICA EM FÍSICA

Novamente, generalizaremos o resultado para um sistema composto qualquer:

P = B ΩA ΩB ,

com B uma constante.

Desde que a probabilidade do sistema seja, também, dada por (15), então, podemos combinar (15) e (16) para encontrar a expressão:

Ω = C ΩA ΩB .

Aqui, C = B/A. Com o resultado (17), podemos concluir que o número de microestados do sistema é proporcional à multiplicação das quantidades de microestados de cada parte do sistema. Tal fato é fundamental para o estabelecimento estatístico da entropia, como veremos a seguir.

Podemos associar diretamente a quantidade de microestados com a entropia. Podemos dizer que, quando o gás estiver somente em uma metade da caixa, o sistema está ordenado. Quando o gás estiver espalhado, o sistema está desordenado. Notamos que, uma vez que o sistema estiver desordenado, ele não poderá retroceder ao sistema ordenado inicial, uma vez que necessitaria que, a partir do caos, todas as moléculas deslocassem coincidentemente para um único lado da caixa. Podemos pensar que, em tese, é possível acontecer tal fenômeno, porém, sabemos que isso é absurdamente improvável, desde que um gás é formado por um número extremamente alto de moléculas. Assim, entendemos a relação entre probabilidade, microestados e entropia. Quando todas as moléculas estiverem do lado direito, isto é, no macroestado N = N>, a quantidade de microestados possíveis será:

Assim, quando a quantidade de microestados for igual a um, isso quer dizer que o sistema estará totalmente ordenado. Por outro lado, o macroestado com um grande número de microestados será obtido quando N/2 = N>. Por exemplo, para vinte moléculas, a quantidade de microestados será dada por:

Assim, o sistema está totalmente desordenado, desde que existam 184756 possibilidades microscópicas que levam ao macroestado de dez moléculas na direita e de dez na esquerda. Em outras palavras, desde que a probabilidade, para esse caso de vinte moléculas, seja:

(16)

(17)

Page 190: Estatística E ProbabilidadE Em Física

TÓPICO 2 — MECÂNICA ESTATÍSTICA

181

Verificamos que o macroestado homogêneo é, estatisticamente falando, 184756 mais provável do que o sistema ordenado.

Explicitamente, a probabilidade para que todas as 20 partículas estejam no lado direito: é de P = (1/2)20 1 = 0,000000954. Já a probabilidade de 10 moléculas no lado direito e de 10 no esquerdo é P = (1/2)20 1184756 = 0,176.

Podemos concluir que o sistema desordenado é muito mais provável de ser verificado do que o sistema ordenado. A partir desse ponto de vista, pode-se pensar que é altamente improvável que o sistema evolua de um estado de desordem para um estado de ordem e, então, pode-se dizer que tal sistema termodinâmico é irreversível, embora as leis da mecânica clássica digam que não.

Vale dizer que a informação microscópica do sistema deve conter a posição e a velocidade de cada molécula. Para ilustrar, consideraremos a representação a seguir:

FIGURA 6 – MICROESTADO CARACTERIZADO PELA POSIÇÃO E PELA VELOCIDADE I

FONTE: O autor

Cada molécula tem uma posição e uma velocidade definida. Uma vez que o sistema evolui, cada molécula muda, em geral, a posição e a velocidade, indo, assim, o sistema, para uma configuração intermediária.

Page 191: Estatística E ProbabilidadE Em Física

182

UNIDADE 3 — APLICAÇÕES DE PROBABILIDADE E ESTATÍSTICA EM FÍSICA

FIGURA 7 – MICROESTADO CARACTERIZADO PELA POSIÇÃO E E PELA VELOCIDADE II

FONTE: O autor

4 FÓRMULA ESTATÍSTICA PARA ENTROPIA: DEDUÇÃO MATEMÁTICA

Qual a possibilidade de o sistema retornar espontaneamente para a configuração inicial? Nessa perspectiva, a entropia, de algum modo, deve estar associada com o número de microestados, pois se a desordem do sistema cresce, dificultando a reversibilidade, a entropia deve crescer também.

Matematicamente, podemos escrever o comportamento associando o número de microestados com a entropia:

S = f (Ω).

Paralelamente, temos visto que a variação de entropia de um sistema composto, como nos exemplos trabalhado no estudo da Segunda Lei, a entropia do sistema é dada pela soma da entropia de cada parte do sistema, ou seja:

S = SA + SB.

Usando (18), podemos reescrever a equação (19):

f (Ω) = f (ΩA ) + f(ΩB).

(18)

(19)

Page 192: Estatística E ProbabilidadE Em Física

TÓPICO 2 — MECÂNICA ESTATÍSTICA

183

Em vista à expressão (17), podemos concluir que:

f (ΩA ΩB) = f (ΩA) + f (ΩB).

Uma função que pode satisfazer é a função logarítmica, que segue a seguinte regra:

ln(xy) = ln(x) + ln(y).

Assim, podemos definir a função f(Ω) como proporcional a ln Ω. Sob o ponto de vista estatístico, a grandeza entropia é:

S = k ln Ω.

com k sendo a constante de Boltzmann.

Com a definição (20) e a fórmula (17), e tomando C = 1:

S = k ln Ω = k ln ΩA + k ln ΩA = SA + SB.

Desse modo, a definição (35) cumpre todos os anseios levantados na discussão feita anteriormente.

A seguir, analisaremos um exemplo físico.

Exemplo: microestados para gás em expansão livre

Uma variação de entropia pode ser obtida usando a definição (20). Tomando ΔS = Sf – Si, encontramos:

Para o exemplo da caixa com o qual estávamos trabalhando, a entropia, no primeiro caso (gás + vácuo), pode ser calculada através da fórmula (22) do Tópico 3 da Unidade 2, obtida para um gás em expansão livre.

Igualando (22) (Tópico 3, Unidade 2) com a fórmula anterior, encontramos:

Ωf = (Vf/Vi )n Ωi ,

com a aplicação do exponencial na seguinte propriedade logarítmica: y ln (x) = ln (x)y.

(20)

Page 193: Estatística E ProbabilidadE Em Física

184

UNIDADE 3 — APLICAÇÕES DE PROBABILIDADE E ESTATÍSTICA EM FÍSICA

Vimos, anteriormente, que podemos conectar uma entidade estatística, a qual chamamos de Ω, com a entropia, pela relação de Boltzmann (20). Essa fórmula é usada para conectar, com termodinâmica, quando a energia e a quantidade de moléculas do sistema são fixas. Por exemplo, encontrado um sistema de spin com uma energia E, podemos encontrar o número de microestados com N fixo e derivar a entropia do sistema. A exata conexão com a termodinâmica se dá tomando o limite termodinâmico, que nada mais é que tomar o limite N → ∞, isto é, quando o número de partículas do sistema é muito grande. Tal forma de obter a termodinâmica, partindo de análises estatísticas, é conhecida, na mecânica estatística, como conjunto micro canônico (ou ensemble micro canônico). Esse conjunto é aplicado quando a energia e o número de moléculas do sistema são fixos e não há troca de calor.

Apenas por uma questão de completude do tópico, devemos saber que existem, também, outros conjuntos, como o conjunto canônico e o grão canônico.

No conjunto canônico, pode ocorrer troca de calor, a energia pode variar, mas o número de partículas é fixo. O papel que Ω realiza no conjunto micro canônico é assumido, no conjunto canônico, pela chamada função partição Z. Matematicamente, a função partição é definida como Z = Σᵉ – β Ei, com β definido como β = 1/kT. Assim como a quantidade Ω, a função partição Z está, também, associada com o fator de normalização da probabilidade. No entanto, a função partição não define a entropia do sistema, mas a energia livre de Helmholtz F. A relação matemática que conecta a quantidade termodinâmica F com a função partição é similar com a do caso micro canônico:

Para finalizar, como mencionado, ainda temos o conjunto grão canônico. Nesse conjunto, o número de moléculas pode flutuar, sendo não fixado a priori, e está em contato com um reservatório térmico em equilíbrio com o sistema. A conexão termodinâmica é dada através da energia livre de Gibbs G, sendo Y a entidade matemática que desempenha, no conjunto grão canônico, o papel similar de Ω e Z. A conexão entre Y e G é obtida através da seguinte expressão:

Resumindo, podemos organizar os diferentes conjuntos:

Page 194: Estatística E ProbabilidadE Em Física

TÓPICO 2 — MECÂNICA ESTATÍSTICA

185

QUADRO 9 – DIFERENTES CONJUNTOS DA MECÂNICA ESTATÍSTICA

FONTE: O autor

Conjunto Termodinâmica Estatística ConexãoMicro canônico Entropia: S Ω S = k ln Ω

Canônico E. livre de Helmholtz: F Z

Grão canônico E. livre de Gibbs: G Y

Em geral, a física estatística trabalha, também, com os sistemas quânticos. Até aqui, estivemos trabalhando com os modelos clássicos, desde o estudo da Teoria Cinética do Gases. Nesses casos, as partículas seguem as leis determinísticas da mecânica clássica. No entanto, quando tratadas sob o ponto de vista da teoria quântica, as probabilidades aparecem até na descrição de uma única partícula, pois, lá, as probabilidades são intrínsecas. Por exemplo, no exemplo da caixa, não é trivial dizer que a partícula está em um lado ou no outro da caixa, e, assim, calcular o número de microestados do sistema.

NOTA

Page 195: Estatística E ProbabilidadE Em Física

186

RESUMO DO TÓPICO 2

Neste tópico, você aprendeu que:

• A fórmula de Boltzmann concilia a descrição estatística de um sistema de moléculas com a entropia.

• Logicamente, um sistema deve ir de um estado ordenado para um desordenado.

• Existem diversos conjuntos que fazem a conexão entre termodinâmica e estatística.

• O conjunto microcanônico é aplicado quando a energia e o número de moléculas do sistema são fixos, e não tendo troca de calor.

• O conjunto canônico deve ser aplicado para sistemas nos quais pode ocorrer troca de calor, podendo, a energia, variar, mas o número de partículas é fixo, enquanto isso, no macro canônico, o número de moléculas pode flutuar, estando este em contato com um reservatório térmico em equilíbrio com o sistema.

Page 196: Estatística E ProbabilidadE Em Física

187

1 O caminho aleatório é um bom exemplo para calcular a quantidade de microestados, uma vez que apenas duas opções são possíveis. A fórmula de calcular os microestados se aplica para outras situações, nas quais algum sistema só apresenta duas possibilidades. Por exemplo, em uma caixa dividida e com dois compartimentos não separados, uma molécula de um gás, dentro da caixa, só pode estar em um compartimento ou no outro.

Considerando um gás de N moléculas (sendo m = 2 x 10⁻³ g a massa de cada molécula) confinado em uma caixa de 10 metros cúbicos, com os microestados calculados a partir da quantidade de moléculas no compartimento direito, classifique V para as sentenças VERDADEIRAS e F para as sentenças FALSAS:

( ) D = densidade = 2 x 10⁻² g/m³, Microestados = 1 para um gás com 50 moléculas.( ) D = densidade = 2 x 10⁻² g/m³, Microestados = 2768441 para 5 moléculas no

lado esquerdo.( ) D = densidade = 4 x 10⁻³ g/m³, Microestados = 184756 para a metade das

moléculas no lado direito.( ) D = densidade = 4 x 10⁻² g/m³, Microestados = 101 para 1% de moléculas

no lado esquerdo em relação ao número de moléculas no lado direito.

2 Com o mesmo caso do exercício anterior, adicionando um segundo gás (sendo m = 4 x 10⁻³ g a massa de cada molécula) com quatro moléculas na caixa do sistema anterior, e sabendo que a densidade, na parte direita, devido ao primeiro gás, é de 4 x 10⁻³ g/m3, sendo k a constante de Boltzmann, encontre a alternativa verdadeira:

a) ( ) D = densidade = 12 x 10⁻³ g/m³, Entropia = 6,193 k.b) ( ) D = densidade = 12 x 10⁻³ g/m³, Entropia = 4,154 k.c) ( ) D = densidade = 16 x 10⁻³ g/m³, Entropia = 10,734 k.d) ( ) D = densidade = 16 x 10⁻³ g/m³, Entropia = 4,154 k.e) ( ) D = densidade = 12 x 10⁻³ g/m³, Entropia = 18,141 k.

3 A entropia é proporcional ao número de microestados que um sistema macroscópico pode conter. Boltzmann, a partir das análises entre a quantidade de microestados e a entropia,

S = f (Ω),

estabeleceu a fórmula matemática:

S = k ln(Ω).

AUTOATIVIDADE

Page 197: Estatística E ProbabilidadE Em Física

188

Sabendo que Ω = ΩA ΩB, e com a fórmula de Boltzmann, assinale V para VERDADEIRO e F para FALSO.

( ) Para dois sistemas, A e B, a entropia total é: S = SA SB.( ) Para dois sistemas, A e B, a entropia é: S = SA + SB.( ) Para dois sistemas, A e B, a seguinte relação é válida: Ω = exp(SA + SB).( ) A probabilidade é inversamente proporcional ao número de microestados.

4 A Física Estatística é construída baseada nos chamados conjuntos (ensembles). Dentre tais conjuntos, temos os conjuntos canônico, micro canônico e grão canônico. Os conjuntos podem ser organizados da seguinte forma:

Com as suas palavras, discorra a respeito do quadro anterior, explicando os conjuntos, tomando, como exemplo, nas análises, o conjunto microcanônico.

Conjunto Termodinâmica Estatística ConexãoMicro canônico Entropia: S Ω S = k ln Ω

Canônico E. livre de Helmholtz: F Z

Grão canônico E. livre de Gibbs: G Y

Page 198: Estatística E ProbabilidadE Em Física

189

UNIDADE 3TÓPICO 3 —

OUTRAS APLICAÇÕES EM FÍSICA

1 INTRODUÇÃO

Além das aplicações, em física, de estatística e de probabilidade, vistas, até agora, nos tópicos anteriores desta unidade, outras situações históricas também necessitaram da adaptação de tais conceitos na compreensão de certos fenômenos naturais. Duas delas envolvem a descrição do movimento browniano e o desenvolvimento de uma das bases da física moderna, assim, há o entendimento dos fenômenos em escalas muito pequenas, isto é, os fenômenos quânticos.

O chamado movimento browniano foi, primeiramente, observado por Robert Brown, em 1827. Brown observou, no microscópio, polens “ziguezagueando” sob a superfície da água. Com a introdução da dita força estocástica, o fenômeno foi, posteriormente, descrito, matematicamente, por Einstein, em 1905, usando as usuais leis de Newton.

Os fenômenos em escalas minúsculas necessitaram da construção de uma nova física para poderem ser descritos fisicamente. Nessa nova física, conhecida como física quântica, a probabilidade teve um papel fundamental nos debates filosóficos que cercaram aquele período. Um passo fundamental dado foi considerar o quadrado da função de onda, que descreve uma partícula, como uma densidade de probabilidade. Tal interpretação foi fornecida por Max Born, em 1926, e é, hoje, chamada de interpretação de Born.

Este último tópico será dividido em duas partes. Na primeira, estudaremos o movimento browniano, a força estocástica e a solução a partir das leis de movimento de Newton. Já na outra, usando a formulação de Schroedinger, trabalharemos com a questão da probabilidade na mecânica quântica.

2 FORÇA ESTOCÁSTICA E MOVIMENTO BROWNIANO

O chamado, hoje, de movimento browniano, foi descoberto pelo botânico inglês Robert Brown, em 1827. Ao observar, por um microscópio, diminutos polens flutuando na água, Brown observou que tais polens se movimentavam através de trajetórias aleatórias. Posteriormente, Delsack e Einstein elaboraram explicações, as quais são, hoje, aceitas pela comunidade científica, como podemos ler em Nussenzveig (2002).

A seguir, estudaremos a força estocástica e, posteriormente, a descrição físico-matemática do movimento browniano.

Page 199: Estatística E ProbabilidadE Em Física

190

UNIDADE 3 — APLICAÇÕES DE PROBABILIDADE E ESTATÍSTICA EM FÍSICA

2.1 FORÇA ESTOCÁSTICA

Podemos pensar no movimento browniano como um caminho aleatório em duas dimensões (superfície de algum fluido), com igual probabilidade de ir para frente ou para atrás em cada direção x e y. Por exemplo, consideraremos um movimento aleatório em duas dimensões, e, a cada instante, uma força externa atua sob um pólen, levando este da posição x para x + l ou x – l, com a mesma probabilidade. Similarmente, a mesma força externa desloca o pólen de y para y + l ou y – l, com a mesma probabilidade. A força externa é entendida para ser causada devido ao choque com diversas moléculas do fluido.

FIGURA 8 – MOVIMENTO IDEALIZADO SUJEITO À FORÇA ESTOCÁSTICA

FONTE: O autor

Foi exposta a trajetória do pólen (similar ao caminho aleatório em duas dimensões), sujeito à força externa em cada instante (tempo discreto), devido às microscópicas moléculas do fluido. A área de cada quadrado mede l2. Ainda, o pólen parte do ponto (x, y) = (0, 0) e, depois de 30 deslocamentos, chega ao ponto marcado, como 30, que é o ponto (x, y) = (– 2l, 0).

Matematicamente, a posição da partícula estocástica (como exemplo, o pólen observado por Brown; a partir de agora, usaremos o termo genérico), em um dado tempo, é obtida, usando a Segunda Lei de Newton. Explicitamente:

ma = 𝓕est. (21)

Page 200: Estatística E ProbabilidadE Em Física

TÓPICO 3 — OUTRAS APLICAÇÕES EM FÍSICA

191

No exemplo anterior, podemos pensar que a força externa 𝓕est atua em cada ponto da malha, mudando (ou não) o momento da partícula em uma dada direção, como em uma colisão elástica. Em geral, 𝓕est atua instantaneamente sob a partícula, com 𝓕est > 0 ou 𝓕est < 0. Assim como no exemplo construído por nós, os sinais da força externa (positivo ou negativo), em cada instante, terão a mesma probabilidade de ocorrer. A força 𝓕est é conhecida como força estocástica.

Uma vez que o valor da força, atuando no pólen, em cada instante, não necessariamente, contém o mesmo valor, podemos redesenhar:

FIGURA 9 – MOVIMENTO “REAL” DEVIDO À FORÇA ESTOCÁSTICA

FONTE: O autor

Desse modo, deformando o exposto, como temos feito, devemos notar que a trajetória se transforma em uma típica trajetória browniana, a qual estudaremos, fisicamente, a seguir.

2.2 MOVIMENTO BROWNIANO: DESCRIÇÃO FÍSICA

No caso mais realístico, devemos considerar, também, na equação de movimento, a força causada pela viscosidade do fluido:

𝓕vis = – 𝜇v. (22)

Page 201: Estatística E ProbabilidadE Em Física

192

UNIDADE 3 — APLICAÇÕES DE PROBABILIDADE E ESTATÍSTICA EM FÍSICA

O termo 𝜇 > 0 representa a viscosidade, quanto maior p valor, mais viscoso o fluído. A proporcionalidade pela velocidade com o sinal negativo indica que, quanto maior a velocidade da partícula estocástica, maior será a resistência sofrida por ela. Considerando (22) no lado direito de (21), trabalhando em uma dimensão e explicitando ax e v2

x, encontramos a equação de movimento da seguinte forma:

Sendo, a força externa, de natureza estocástica, isto é, atua, aleatoriamente, sob a partícula estocástica, não é viável trabalhar diretamente com a equação de movimento, uma vez que o comportamento da força estocástica é imprevisível em cada ponto e a cada instante. Para circundar a situação, é necessário considerar o valor médio e a seguinte propriedade para a força estocástica:

< 𝓕est > = 0.

Isto é, o valor médio da força estocástica é igual a zero, devido ao fato de que, para cada 𝓕est > 0 atuando na partícula estocástica, teremos, estatisticamente, uma contribuição igual e contrária: 𝓕est < 0.

Devemos multiplicar (23) por x para encontrar:

Considerando a seguinte identidade:

a equação de movimento se torna:

Agora, devemos prosseguir, trabalhando com o termo da esquerda. Tem-se:

(23)

(24)

(25)

Page 202: Estatística E ProbabilidadE Em Física

TÓPICO 3 — OUTRAS APLICAÇÕES EM FÍSICA

193

Utilizando (25) e substituindo as derivadas primeiras pela velocidade, encontramos:

Com (26), surge a forma final da equação de movimento:

Entretanto a equação anterior ainda apresenta alguns problemas. A força estocástica ainda está ali, além do termo quadrático de velocidade. Uma forma de contornar a situação é tomar o valor médio dela, isto é:

No Tópico 1 desta unidade, vimos que é válida a seguinte relação:

Ainda, a relação entre energia cinética média e temperatura é:

Combinando as duas últimas expressões, obtemos:

Substituindo a última na equação de movimento, encontramos

Para o termo, carregando a força estocástica, devemos observar (24). A mesma argumentação que fizemos para obter < 𝓕est > = 0 pode ser usada para dizer que < x𝓕est > = 0. Logo, o termo igual a zero, na equação de movimento, e a dividindo por m:

(26)

(27)

Page 203: Estatística E ProbabilidadE Em Física

194

UNIDADE 3 — APLICAÇÕES DE PROBABILIDADE E ESTATÍSTICA EM FÍSICA

Notamos que a equação diferencial (27) pode, agora, ser resolvida:

É solução da equação (27), sendo A uma constante. Podemos simplificar a solução, assumindo que a massa da partícula browniana é muito pequena, se comparada com o parâmetro de viscosidade do fluído. Assim, a exponencial negativa vai muito rapidamente para zero. Na aproximação mencionada, a solução se torna:

Para encontrar < x2 >, basta tomar a integral da solução aproximada (28). Integrando, encontramos:

Para entendermos o resultado (29), consideraremos o caminho aleatório em duas dimensões:

(28)

(29)

FIGURA 10 – EVOLUÇÃO TEMPORAL DO MOVIMENTO BROWNIANO

FONTE: O autor

Page 204: Estatística E ProbabilidadE Em Física

TÓPICO 3 — OUTRAS APLICAÇÕES EM FÍSICA

195

Podemos perceber que, à medida que o tempo vai evoluindo, o caminho aleatório abrange uma área maior. O que pode medir, indiretamente, essa expansão, é a raiz quadrada de < x2 >. Para o caminho aleatório:

< (ΔX)2 > = 2Dt.

Por (30), podemos entender 𝓓 como um fator que mede a rapidez da área de atuação do caminho aleatório se difundindo, uma vez que o deslocamento ∆X pode ser entendido como uma projeção em x para o movimento aleatório bidimensional. O fator é conhecido como fator de difusão. Desde que os deslocamentos em x e y sejam independentes, a mesma relação deve ser válida para a trajetória em y.

Para o movimento browniano, podemos pegar a solução (29) e comparar com (30), para encontrar a relação:

A relação (31) expressa um caminho aleatório guiado por entidades físicas. Por (30), notamos que o fator de difusão determina como será a evolução linear temporal do sistema quanto aos valores quadráticos médios: < x2 > e < y2 >. Desse modo, (31) estabelece que tal evolução dependente da temperatura e da viscosidade do fluído na região na qual ocorre o fenômeno. Podemos verificar que a evolução temporal se dará proporcionalmente com a temperatura e de forma não proporcional quanto à viscosidade.

A seguir, estudaremos uma importante aplicação dos conceitos de probabilidade em uma das bases da física moderna.

(31)

(30)

3 PROBABILIDADE E TEORIA QUÂNTICA

Na teoria quântica, o objeto matemático que descreve uma partícula é uma função de onda Ψ. Tal função deve carregar todas as informações acerca de uma certa partícula a ser descrita em um certo contexto físico, mas podemos nos perguntar: o que realmente significa essa onda? Como veremos a seguir, os conceitos de onda, de partícula e de probabilidade estão intimamente ligados à descrição quântica da natureza.

Page 205: Estatística E ProbabilidadE Em Física

196

UNIDADE 3 — APLICAÇÕES DE PROBABILIDADE E ESTATÍSTICA EM FÍSICA

3.1 DUALIDADE ONDA/PARTÍCULA

Como veremos agora, a ideia de que uma partícula, como o elétron (ou uma onda, como um fóton), pode se comportar como uma onda (partícula), remonta às próprias bases conceituais da mecânica quântica. Seguindo o trabalho de Max Planck, em 1900, o qual tratou da radiação do corpo negro, o qual, pela primeira vez, quantizou a energia das partículas do sistema, houve a quantização elaborada por Einstein, em 1905, no trabalho a respeito do efeito fotoelétrico, acerca da quantização da própria radiação. Posteriormente, Compton introduziu a ideia de que a radiação eletromagnética, já em forma de quanta, pode se comportar como onda ou partícula, estipulando que a radiação contém energia e momento linear.

As relações matemáticas, que relacionam as atribuições de onda, como frequência f e comprimento de onda λ, com as de partículas, como energia E e momentum linear p, são:

e

sendo h uma constante encontrada (constante de Planck) no artigo de Planck, com valor de λ = 6,6 x 10–34 J s.

Inspirado na dualidade encontrada por Compton, o físico francês Mauricie de Broglie sugere que as relações (32) também devem ser aplicadas na descrição da matéria, isto é, a matéria deve se comportar, também, como partícula e onda. Usando a suposição e considerando a expressão de momento linear p = mv, podemos encontrar o comprimento de onda de um objeto material com uma certa massa m e velocidade v pela relação:

A última expressão é conhecida como comprimento de onda de Broglie. Por exemplo, um automóvel, de uma tonelada, a uma velocidade de 100 km/h, tem um comprimento de onda associado de:

Notamos que o comprimento de onda é extremamente pequeno para que o fenômeno ondulatório possa ser observado. No entanto, para partículas como, por exemplo, o elétron, o momento linear pequeno se torna o comprimento de onda considerável, e não deve ser menosprezado na descrição física.

(32)

Page 206: Estatística E ProbabilidadE Em Física

TÓPICO 3 — OUTRAS APLICAÇÕES EM FÍSICA

197

Seguindo a lógica, Niels Bohr usou a ideia de Broglie na descrição orbital do elétron em torno de um próton. Assim, Bohr conseguiu, com sucesso, descrever as linhas espectrais do átomo de hidrogênio. A ideia foi a de considerar a relação de Broglie, além de que, como o comprimento de onda deve ser contínuo em volta de uma órbita ao redor do próton (ao fechar uma órbita, o nó deve coincidir com outro nó), apenas certas distâncias entre a órbita do elétron e o próton devem ser possíveis. Assim, quando o elétron desce de uma órbita para outra, a perda de energia (energia de um nível menos a energia de um outro nível) é igual à energia do fóton emitido e, este, deve assumir certos valores de energia, que devem coincidir com as linhas espectrais emitidas pelo átomo de hidrogênio.

3.2 FUNÇÃO DE ONDA E EQUAÇÃO DE SCHROEDINGER

Temos discutido que a matéria pode ser tratada, muitas vezes, como partícula, mas, também, como onda. Agora, estudaremos um pouco da construção formal desenvolvida na mecânica quântica. Começaremos abordando o objeto básico da Teoria de Schroedinger, que é o objeto matemático escalar Ψ.

Como estamos querendo descrever a matéria com propriedades ondulatórias, exige-se que seja uma função de onda Ψ. Tal função de onda deve depender das coordenadas espaciais e do tempo, isto é:

Ψ = Ψ (x,y,z,t)

em coordenadas cartesianas.

A função de onda deve seguir alguns requisitos, como ser infinitamente derivável (propriedade de funções ondulatórias), unívoca, linear e contínua, como a derivada. Além do mais, tratando-se de uma teoria física, tal objeto, com a devida importância atribuída, deve contemplar uma equação. A equação que rege Ψ é conhecida como equação de Schroedinger, e pode ser expressa como:

(33)

Aqui, i é o número imaginário, V é um potencial qualquer, m é a massa da partícula e ∇ é o operador nabla:

em coordenadas cartesianas. Notamos a constante ℏ, conhecida como “h cortado”. A constante de Planck e ℏ estão relacionadas por ℏ = h/2m.

Page 207: Estatística E ProbabilidadE Em Física

198

UNIDADE 3 — APLICAÇÕES DE PROBABILIDADE E ESTATÍSTICA EM FÍSICA

Para uma boa compreensão da função de onda e das atribuições, é sugerida a consulta do livro de Eisberg & Resnick (2006).

DICAS

A fim de analisar a equação (33), é preciso se restringir ao caso estacionário e a uma dimensão. Assim, é possível tomar um potencial que só dependa da coordenada espacial, isto é:

V = V(x,t).

Desmembrando a função de onda

Ψ (x,t) = ψ(x)ϕ(t),

E supondo

é possível, reescrever (33) como (para detalhes, ver Eisberg & Resnick (2006)):

A forma anterior é conhecida como equação de Schroedinger independente do tempo.

Para entendermos o papel da probabilidade, antes, resolveremos alguns casos particulares de (36). Para resolver tal equação e descrever algum sistema físico, é preciso fornecer o potencial V(x), que contextualizará algum contexto físico. Assim, com o potencial em mãos, substituímos em (36), e, então, podemos descrever como uma certa partícula, submetida àquele potencial e representada por Ψ(x), deve se comportar. A seguir, trabalharemos com alguns casos simples que nos ajudarão, posteriormente, a entender a interpretação da função de onda dada por Born.

(34)

(35)

(36)

Page 208: Estatística E ProbabilidadE Em Física

TÓPICO 3 — OUTRAS APLICAÇÕES EM FÍSICA

199

Exemplo 1: Partícula livre

Para analisar as soluções da equação de Schroedinger independente do tempo, começaremos trabalhando com o caso do potencial nulo: V(x) = 0. Nesse caso, a equação (35) se torna

A solução da equação anterior, como verificaremos, é:

Ψ(x) = exp{–kxi} = cos{kx} – isen{kx}, com k dado por:

k = (2mE)1/2/ ℏ.

Para verificarmos que (36) é solução, é preciso fazer:

Para encontrar a função de onda dependente do tempo Ψ (x,t), é preciso se lembrar de (34) e (35), para obter

Ψ = exp{(kx – wt)i} = cos{kx – wt} + isen{kx – wt},

sendo w = E / ℏ.

Devemos notar que (37) e (38) são funções complexas, assim, é preciso entender que são como uma descrição abstrata da realidade. Podemos adiantar que elas carregam a informação da partícula, mas, de forma alguma, podem ser observadas experimentalmente. Como veremos, isso deve ser resolvido pela interpretação de Born. Antes de prosseguirmos para tal interpretação, analisaremos mais um exemplo.

(37)

(38)

Neste estágio, é bom estarmos familiarizados com funções complexas e com as propriedades.

ATENCAO

Page 209: Estatística E ProbabilidadE Em Física

200

UNIDADE 3 — APLICAÇÕES DE PROBABILIDADE E ESTATÍSTICA EM FÍSICA

Exemplo 2: Parede potencial infinito e quantização de energia

Agora, trabalharemos com o caso de uma partícula confinada em uma caixa unidimensional. No exemplo, o potencial, na parede da caixa, é modelado, como sendo infinito; enquanto isso, no interior da caixa, o potencial é nulo:

GRÁFICO 2 – PAREDE POTENCIAL INFINITO

FONTE: O autor

Matematicamente:

V(–l/2) = V(+l/2) = ∞,

e

V = 0, para –l/2 < x < +l/2.

Para o sistema, supomos a solução:

Ψ(x) = Acos{kx},

para –l/2 < x < +l/2 e com A sendo uma constante qualquer. Pode-se verificar que ela contempla a Schroedinger independente do tempo com potencial nulo. Para as paredes, com potencial infinito, a função de onda deve ser zero, isto é:

Ψ(x = ± l/2 ) = 0.

Page 210: Estatística E ProbabilidadE Em Física

TÓPICO 3 — OUTRAS APLICAÇÕES EM FÍSICA

201

Podemos juntar as duas soluções para fazer o seguinte:

cos{±kl/2 } = 0,

desde que cos{±π/2} = cos{±3π/2 } = cos{±5π/2} = ... = 0. Assim, kl = nπ, com n = 1, 3, 5, ...

Lembrando, agora, da forma explícita de k, e substituindo na relação anterior, encontraremos a seguinte relação:

En = n2 π2 k2 / 2ml2.

Note que indicamos En para denotar o conjunto de soluções associadas aos casos cos{±nπ/2} = 0. Assim, podemos observar que a energia da partícula confinada na caixa pode assumir apenas certos valores específicos. Isto é um exemplo explícito de quantização de energia. Finalmente, usando kl = nπ, podemos reescrever Ψ(x):

Através da fórmula obtida, temos diferentes funções de onda para diferentes níveis de energia (quantizados), com “psi 1”= Ψ1, “psi 2”= Ψ2 e “psi 3”= Ψ3, como representado a seguir:

(39)

GRÁFICO 3 – FUNÇÕES DE ONDA PARA DIFERENTES NÍVEIS DE ENERGIA

FONTE: O autor

Agora, após os dois exemplos vistos, estamos aptos a estudar o que segue, a interpretação de Born.

Page 211: Estatística E ProbabilidadE Em Física

202

UNIDADE 3 — APLICAÇÕES DE PROBABILIDADE E ESTATÍSTICA EM FÍSICA

3.3 INTERPRETAÇÃO DE BORN

Como mencionamos, a função de onda Ψ (x,t) é, em geral, uma função complexa e, por isso, ela não pode ser acessada em um experimento qualquer. Uma quantidade real, que pode ser obtida de números complexos z = a + bi é pegar um número complexo z, além de multiplicar pelo complexo conjugado z* = a – bi, sendo a e b números reais, e z * z = a2 + b2. Desse modo, Ψ * Ψ ∈ ℝ R. A expressão Ψ * Ψ poderia, em tese, ser, de alguma forma, acessada em um laboratório, mas caso seja possível observar a forma Ψ * Ψ, o que representaria?

Born sugeriu que a forma deveria ser interpretada como uma densidade de probabilidade ρ:

ρ (x,t) = Ψ * (x,t) Ψ (x,t).

Para as ondas estacionárias trabalhadas anteriormente:

ρ (x,t) = ψ * (x) ϕ * (t) ψ (x) ϕ (t) = ψ * (x) ψ (x) = ρ (x).

Devemos notar, na expressão anterior, que o sentido dado às ondas estacionárias pode ser entendido através do resultado ρ (x,t) = ρ (x), com ρ (x,t), efetivamente, não dependendo do tempo. Para entendermos o significado dado por Born, analisaremos os dois casos trabalhados anteriormente.

Para a partícula livre representada por (37), a densidade de probabilidade fica:

ρ = 1.

Notamos que a densidade de probabilidade é igual para qualquer posição x. Isso significa que é igualmente provável encontrar a partícula em diferentes posições do espaço.

Para a partícula confinada em uma caixa com paredes de potencial infinito do Exemplo 2, a densidade de probabilidade será:

Obtemos diferentes densidades de probabilidade para diferentes níveis de energia, que são dados pela fórmula (39):

(40)

Page 212: Estatística E ProbabilidadE Em Física

TÓPICO 3 — OUTRAS APLICAÇÕES EM FÍSICA

203

e assim por diante.

Sendo “rho 1”= ρ1, “rho 2”= ρ2 e “rho 3”= ρ3, observe:

GRÁFICO 4 – DENSIDADE DE PROBABILIDADE VS. FUNÇÃO DE ONDA PARA DIFERENTES NÍVEIS DE ENERGIA

FONTE: O autor

Notamos que, quanto maior a energia da partícula, maiores quantidades de posições têm densidade de probabilidade máxima, além de que mais posições contêm densidade nula, ou seja, ao aumentarmos a energia da partícula, a probabilidade de encontrar em diferentes posições é maior. Para E1, ao realizarmos um experimento, é mais provável que a partícula se encontre no meio da caixa. Já para E2, é mais provável que a partícula se encontre no meio de cada metade da caixa, e assim por diante. Na região dos nodos, a partícula jamais será encontrada.

Agora, podemos entender melhor o significado da dualidade onda-partícula. Consideramos, por exemplo, que faremos um experimento que consiste em verificar a posição da partícula no interior da caixa. Supomos que

Page 213: Estatística E ProbabilidadE Em Física

204

UNIDADE 3 — APLICAÇÕES DE PROBABILIDADE E ESTATÍSTICA EM FÍSICA

essa partícula esteja no nível dois de energia E2 e que, inicialmente, repetiremos o experimento sucessivamente, com diferentes caixas idênticas, com uma partícula cada, com energia E2. Assim, vamos realizando o experimento em cada caixa e anotando a posição de cada partícula. À medida que vamos anotando as posições encontradas, vamos notando que a maioria das partículas deve se localizar próxima do meio de cada metade da caixa.

Em tese, realizando o mesmo experimento com uma quantidade infinita de caixas, iríamos observar a função de densidade de probabilidade ρ2 (x) e, como consequência, poderíamos obter a função de onda que descreve a partícula. Ao realizarmos a experiência, a função de onda colapsa em uma partícula ao interagirmos (através da medida) com ela. Assim, o que rege a partícula é uma função de onda, e a oscilação é intimamente ligada com a probabilidade de se encontrar uma partícula em uma dada posição.

Para encontrarmos a probabilidade P de uma partícula ser encontrada em uma região delimitada por xi e xf , devemos tomar a seguinte integral:

P = ∫ρ (x,t)dx = ∫ Ψ * (x,t) Ψ (x,t) dx.

Desde que a partícula seja encontrada em algum lugar do espaço, a integral, abrangendo todo o espaço, deve fornecer a porcentagem de 100%. Matematicamente:

∫ Ψ * (x,t) Ψ (x,t) dx = 1,

com a integral anterior sendo tomada de – ∞ para + ∞.

Agora, verificaremos como devemos definir os valores esperados no mundo quântico. Como temos estudado na UNIDADE 1, em VARIÁVEIS ALEATÓRIAS, é útil definirmos algumas quantidades quando estamos trabalhando com cenários probabilísticos.

Como havíamos introduzido, naquela unidade, para uma variável aleatória qualquer v, o valor esperado (ou médio) da posição x de uma partícula é dado por:

< x > = ∫ xρ (x,t)dx.

Substituindo a densidade de probabilidade, encontraremos a seguinte expressão:

< x > = ∫ Ψ * (x,t)x Ψ (x,t)dx. (41)

Page 214: Estatística E ProbabilidadE Em Física

TÓPICO 3 — OUTRAS APLICAÇÕES EM FÍSICA

205

Antes, aplicando o resultado para a partícula confinada em uma caixa de potencial infinito, e lembrando que ϕ * (t)ϕ (t) = 1 para o caso estacionário, o valor esperado será de:

Resolvendo a integral:

< x > = 0,

com o valor esperado nulo indicando, aqui, o meio da caixa.

O valor esperado encontrado é válido para os diferentes níveis de energia. Como tínhamos visto, para o primeiro nível de energia E1, a posição mais provável de encontrar a partícula era no centro da caixa, coincidindo com o valor esperado. No entanto, para o segundo nível de energia E2, as posições mais prováveis eram no meio de cada metade da caixa. Similarmente, na situação do marinheiro, o valor esperado deve fornecer um valor que é obtido como uma média ponderada, que tende a estar entre os valores mais prováveis. No caso, a média ponderada é obtida como uma ponderação sob os intervalos infinitesimais em contraposição ao caso do marinheiro. Em outras palavras, devido ao eixo de simetria da função de onda estar, para todos os níveis de energia, localizada no centro, o valor esperado será, em todos os casos, nulo.

Agora, consideraremos o valor esperado para o momento linear p:

< p > = ∫ Ψ * p Ψ dx. (42)

x e p, respectivamente, nas equações (41) e (42), estão entre as funções de onda. Não entraremos em detalhes, mas, em geral, deve-se escrever assim porque, na formulação quântica, x e p são operadores.

NOTA

Para encontrar o valor médio do momento linear, é preciso considerar o operador momento linear: . Por exemplo, para a parede potencial infinito:

Page 215: Estatística E ProbabilidadE Em Física

206

UNIDADE 3 — APLICAÇÕES DE PROBABILIDADE E ESTATÍSTICA EM FÍSICA

Substituindo a equação anterior em (42):

Para resolvermos a integral, é preciso fazer U = cos {nπx/l}, tal que dU = –(nπ/l) sen{nπx/l} dx. Reescrevendo a última integral com os termos anteriores:

< p > = – iℏ (An)2 ∫ U dU.

Para resolver a fórmula anterior, basta pegar ∫ U dU = 1/2 (Uf2 – Ui

2), aplicando os limites da integral Uf = cos{nπ/2} e Ui = cos{–nπ/2} = cos{nπ/2}. Desde que Uf = Ui:

< p > = 0.

Desse modo, o valor médio do momento, na caixa de parede, com potencial infinito, é, também, igual a zero.

Page 216: Estatística E ProbabilidadE Em Física

TÓPICO 3 — OUTRAS APLICAÇÕES EM FÍSICA

207

LEITURA COMPLEMENTAR

NOVA INTERPRETAÇÃO DA MECÂNICA QUÂNTICA REFORÇA IDEIA DE QUE A REALIDADE INDEPENDE DO OBSERVADOR

Abordagem matemática de um dos princípios fundamentais da teoria quer colocar fim a debate que dura um século, e que já envolveu nomes célebres, como Albert Einstein

Desde o surgimento da mecânica quântica, na década de 1920, os cientistas discordam da forma adequada de interpretar, em termos físicos, as equações. Em muitas das interpretações propostas, incluindo a interpretação de Copenhagen, apresentada por Niels Bohr e por Werner Heisenberg, e, em particular, a interpretação de von Neumann-Wigner, alega-se que, de alguma forma, a consciência da pessoa faz medições experimentais das partículas quânticas, ou o próprio ato de medir afetaria os resultados. Por outro lado, Karl Popper e Albert Einstein acreditavam na existência de uma realidade objetiva, que se revelaria nas medições. Já Erwin Schrödinger elaborou o famoso experimento que envolvia o destino de um gato com o proposto de ressaltar as imperfeições da mecânica quântica. Hoje, existem, literalmente, dezenas de interpretações disputando a atenção de quem acompanha o centenário debate.

No seu artigo mais recente, publicado na revista Symmetry, os finlandeses Jussi Lindgren e Jukka Liukkonen, que se dedicam à mecânica quântica fora dos afazeres profissionais, abordam o princípio da incerteza, que foi proposto por Heisenberg, em 1927. De acordo com esse princípio, a posição e o momentum de uma partícula não podem ser determinados simultaneamente com grande precisão, pois a pessoa que conduz a medição sempre afeta os valores que são medidos. Entretanto, no seu estudo, Lindgren e Liukkonen concluíram que a correlação entre localização e momentum, por exemplo, o relacionamento entre as duas grandezas, é algo fixo. Em outras palavras, a realidade independe de que alguém faça a medição experimental. Na sua análise, Lindgren e Liukkonen utilizaram otimização estocástica dinâmica. Segundo o referencial teórico dessa abordagem, o princípio da incerteza, de Heisenberg, é visto como uma manifestação do equilíbrio termodinâmico, no qual as correlações entre variáveis aleatórias não desaparecem.

“O resultado sugere que não há razão lógica para que os resultados

sejam dependentes da pessoa que conduz a medição. De acordo com o nosso estudo, não há nada que sugere que a consciência de uma pessoa iria deturpar o resultado ou criar um certo resultado ou realidade”, diz Jussi Lindgren. Essa interpretação apoia as interpretações de que a mecânica quântica se alinha com os princípios científicos clássicos. “A interpretação é objetiva e realista, e, ao mesmo tempo, a mais simples possível. Nós gostamos de clareza e preferimos remover todo o misticismo”, diz Liukkonen.

Page 217: Estatística E ProbabilidadE Em Física

208

UNIDADE 3 — APLICAÇÕES DE PROBABILIDADE E ESTATÍSTICA EM FÍSICA

Em dezembro de 2019, os dois pesquisadores publicaram um artigo anterior, que também utilizou análises matemáticas como ferramenta para explicar a mecânica quântica. O método que utilizaram foi a teoria de controle para otimização estocástica, que foi empregada para resolver desafios do porte de enviar um foguete da Terra para a Lua.

Seguindo a Navalha de Ockham, com relação à lei de parcimônia, batizada em homenagem a William de Ockham, os pesquisadores escolheram a explicação mais simples dentre as possíveis. Nós estudamos a mecânica quântica como uma teoria estatística. A abordagem temática está clara, mas alguns podem pensar que é algo desinteressante, mas será que as explicações menos claras podem ser realmente consideradas como uma explicação?”, questiona Lindgren.

FONTE: <https://sciam.com.br/nova-interpretacao-da-mecanica-quantica-sugere-que-a-realidade-independe-do-observador/>. Acesso em: 24 fev. 2021.

Page 218: Estatística E ProbabilidadE Em Física

209

RESUMO DO TÓPICO 3

Neste tópico, você aprendeu que:

• O movimento browniano pode ser idealizado como um caminho aleatório bidimensional.

• Definindo, formalmente, uma força estocástica, e usando as leis de Newton, o movimento browniano pode ser descrito matematicamente.

• A descrição do movimento de uma partícula estocástica é obtida conhecendo o fator de difusão.

• O objeto matemático básico que descreve uma partícula quântica é uma função de onda.

• Na interpretação de Born, o quadrado da função de onda representa uma densidade de probabilidade.

Ficou alguma dúvida? Construímos uma trilha de aprendizagem pensando em facilitar sua compreensão. Acesse o QR Code, que levará ao AVA, e veja as novidades que preparamos para seu estudo.

CHAMADA

Page 219: Estatística E ProbabilidadE Em Física

210

AUTOATIVIDADE

1 O movimento browniano, descoberto por Robert Brown, e descrito, matematicamente, por Delsack e Einstein, é uma aplicação física dos chamados processos estocásticos. Com base nos seus conhecimentos acerca dos processos estocásticos e do movimento browniano, assinale V para VERDADEIRO e F para FALSO:

( ) O movimento browniano pode ser entendido como uma cadeia de Markov, desde que tal movimento contenha “memória”, isto é, o próximo movimento do pólen pode ser obtido conhecendo os movimentos traçados por ele anteriormente.

( ) Um típico movimento browniano pode ser obtido distorcendo um caminho aleatório específico em duas dimensões, assim, o caminho é percorrido por um pólen na superfície de um fluido. A distorção de tal traçado é feita devido às intensidades das forças estocásticas nas diferentes direções e aos sentidos não serem constantes.

( ) Os sentidos tomados pelo pólen, em cada instante do movimento browniano, são estabelecidos pelas forças estocásticas 𝓕est > 0 ou 𝓕est < 0. A probabilidade de a força atuar em um certo sentido é, necessariamente, diferente de ela atuar no sentido oposto.

( ) Para uma descrição realística do movimento browniano, devemos trabalhar com a equação de movimento ma = 𝓕est.

2 A descrição matemática do movimento browniano é obtida resolvendo a seguinte equação diferencial para a segunda lei de Newton:

𝓕est é a força estocástica. Com base nos estudos e na fórmula citada, considere os itens a seguir:

I- O valor médio da força estocástica é sempre maior que zero.II- A equação diferencial anterior não deve ser trabalhada diretamente, mas,

sim, a equação de valor médio:

devendo ser considerado < x𝓕est > = 0 válido, assim como < v2 > = Cte.III- Depois de muita álgebra, obtém-se a seguinte aproximação:

A aproximação anterior é válida desde que a massa da partícula seja muito pequena em comparação com o parâmetro de viscosidade.

Page 220: Estatística E ProbabilidadE Em Física

211

IV- A solução final para o movimento browniano é:

A expressão anterior indica que o momento browniano dispersa, com mais rapidez, com uma maior temperatura e uma menor viscosidade.

Assinale a alternativa CORRETA: a) ( ) Somente a afirmativa I está correta.b) ( ) As afirmativas I, II e III estão corretas.c) ( ) As afirmativas I, III e IV estão corretas.d) ( ) As afirmativas III e IV estão corretas.e) ( ) As afirmativas II, III e IV estão corretas.

3 A equação de Schroedinger é usada para a descrição de sistemas quânticos, como para a descrição do átomo de hidrogênio. Matematicamente, pode ser expressa em três dimensões:

Na equação anterior, i é o número imaginário, V é um potencial que descreve o sistema em questão, ℏ é uma constante universal, m é a massa da partícula e ∇ é o operador nabla.

Com base nos estudos, assinale a alternativa CORRETA:

a) ( ) Na equação de Schroedinger, a função de onda Ψ representa a probabilidade de se encontrar uma partícula em um dado ponto do espaço e em um dado instante.

b) ( ) Para se obter a equação de Schroedinger independente do tempo, o potencial da teoria deve ser igual a zero.

c) ( ) Uma partícula livre é descrita por uma função exponencial real.d) ( ) Considere, o potencial, uma função da forma:

A quantização de energia é obtida tomando, como solução, uma função de onda real no interior da caixa, e exigindo que seja nula nas paredes da caixa.

Page 221: Estatística E ProbabilidadE Em Física

212

e) ( ) Considere as soluções representadas a seguir para o potencial infinito do item anterior:

A energia de “psi 3” é duas vezes maior do que a de “psi 2”, enquanto “psi 1” é a metade de “psi 2”.

4 A probabilidade, na teoria quântica, é introduzida através da chamada interpretação de Born. Tal interpretação consiste na definição ρ (x, t) = Ψ * (x, t) Ψ (x, t), sendo Ψ * o complexo conjugado de Ψ. Com base nos seus conhecimentos acerca da interpretação de Born, classifique V para as sentenças verdadeiras e F para as sentenças falsas:

( ) O termo ρ (x, t) é entendido como uma função de probabilidade.( ) A definição de probabilidade, como Ψ * Ψ, é necessária desde que Ψ seja,

em geral, uma função complexa.( ) O valor médio do momento linear pode ser escrito como: < p > = ∫ Ψ p Ψ dp,

se for Ψ uma função real.( ) Considere, a seguir, uma partícula confinada em uma caixa de parede

potencial infinito em uma dimensão:

Nas posições dos nós das funções de ondas, a partícula têm uma probabilidade pequena de ser encontrada em tais posições.

( ) O valor médio da posição no segundo nível de energia é diferente de zero, uma vez que a probabilidade de se encontrar a partícula é maior no centro de cada metade da caixa.

Agora, assinale a alternativa que apresenta a sequência CORRETA:a) ( ) V – V – F – F – F.b) ( ) V – V – F – F – V.c) ( ) V – F – F – F – V.d) ( ) F – V – F – F – V.e) ( ) F – V – V – V – F.

Page 222: Estatística E ProbabilidadE Em Física

213

REFERÊNCIAS

EISBERG, R.; RESNICK, R. Física quântica: átomos, moléculas, sólidos, núcleos e partículas. Rio de Janeiro: Editora Campus, 2006.

FEYNMAN, R. Física em seis lições. São Paulo: Martins Fontes, 2000.

NUSSENZVEIG, H. M. Curso de física básica 2: fluido, oscilações e ondas, calor. São Paulo: Editora Blucher, 2002.

OLIVEIRA, K.; SARAIVA, M. F. Astronomia e física. São Paulo: Editora Livraria da Física, 2013.

SALINAS, S. R. A. Introdução à física estatística. São Paulo: Editora da Universidade de São Paulo, 1997.