83
TEORIA DAS PROBABILIDADES II Prof. Nei Rocha Instituto de MatemÆtica - UFRJ Rio de Janeiro 2009-1

Apos RJ ProbabilidadeII

Embed Size (px)

Citation preview

Page 1: Apos RJ ProbabilidadeII

TEORIA DAS PROBABILIDADES II

Prof. Nei Rocha

Instituto de Matemática - UFRJ

Rio de Janeiro2009-1

Page 2: Apos RJ ProbabilidadeII

Sumário

1 De�nições Básicas 11.1 Modelo Matemático para um Experimento . . . . . . . . . . . . . . . 1

1.1.1 Espaços de Probabilidade . . . . . . . . . . . . . . . . . . . . 11.1.2 De�nição e Propriedades das Probabilidades . . . . . . . . . . 51.1.3 Probabilidade Condicional . . . . . . . . . . . . . . . . . . . . 111.1.4 Independência . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

2 Variáveis Aleatórias 182.1 Conceito . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182.2 Função de Distribuição . . . . . . . . . . . . . . . . . . . . . . . . . . 192.3 Variáveis Aleatórias Discretas . . . . . . . . . . . . . . . . . . . . . . 222.4 Variáveis Aleatórias Contínuas . . . . . . . . . . . . . . . . . . . . . . 232.5 Vetores Aleatórios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

2.5.1 Independência . . . . . . . . . . . . . . . . . . . . . . . . . . . 292.6 Funções de Variáveis Aleatórias . . . . . . . . . . . . . . . . . . . . . 32

2.6.1 Transformações Mensuráveis . . . . . . . . . . . . . . . . . . . 322.6.2 Distribuições de Funções de Variáveis e Vetores Aleatórios . . 322.6.3 Método do Jacobiano . . . . . . . . . . . . . . . . . . . . . . . 342.6.4 Estatísticas de Ordem . . . . . . . . . . . . . . . . . . . . . . 36

3 Esperança Matemática 383.1 De�nição . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38

3.1.1 Propriedades da Esperança Matemática . . . . . . . . . . . . . 393.2 Esperanças de Funções de Variáveis Aleatórias . . . . . . . . . . . . . 413.3 Momentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41

3.3.1 Propriedades da Variância . . . . . . . . . . . . . . . . . . . . 423.4 Esperanças de Funções de Vetores Aleatórios . . . . . . . . . . . . . . 443.5 A Função Geratriz de Momentos . . . . . . . . . . . . . . . . . . . . . 473.6 Lista . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63

4 Distribuição e Esperança Condicionais 65

5 Convergência de Variáveis Aleatórias 715.1 Tipos de Convergência . . . . . . . . . . . . . . . . . . . . . . . . . . 715.2 Leis dos Grandes Números . . . . . . . . . . . . . . . . . . . . . . . . 745.3 Teorema Central do Limite . . . . . . . . . . . . . . . . . . . . . . . . 77

i

Page 3: Apos RJ ProbabilidadeII

OBJETIVOS GERAIS: Habilitar o aluno a sintetizar informações que são

ministradas com vistas à elaboração de conceitos mais complexos; resolver problemas

simples usando raciocínio probabilístico.

PROGRAMA

UNIDADE I - Espaços de Probabilidade. Modelo matemático para um experi-

mento (modelo probabilístico). Álgebra de eventos e �-álgebra de eventos: de�nição

e propriedades.

Axiomas da probabilidade (�-aditividade), continuidade no vazio. Propriedades

da probabilidade. Espaço de probabilidade: de�nição.

UNIDADE II �Vetores Aleatórios

Introdução: de�nição de uma variável aleatória, distribuição e propriedades.

Funções de variáveis aleatórias: transformação de escala e posição, transformação

integral da probabilidade. Caracterização adicional de variáveis aleatórias: momen-

tos.

Vetores aleatórios de dimensão 2. Distribuição: de�nição e propriedades. O caso

discreto: função de probabilidade conjunta, funções de probabilidade marginais e

condicionais. O caso contínuo: função de densidade conjunta, funções de densidade

marginais e condicionais. Variáveis aleatórias independentes. Extensão para o caso

de dimensão n � 2. Distribuições especiais: Normal multivariada e Multinomial

UNIDADE III �Funções univariadas das componentes de um vetor aleatório.

Soma e diferença de variáveis aleatórias independentes. Convolução.

Produto e Quociente de variáveis aleatórias.

UNIDADE IV �Distribuição conjunta de funções de variáveis aleatórias.

ii

Page 4: Apos RJ ProbabilidadeII

O método Jacobiano para o caso de dimensão 2. Exemplos.

Extensão para o caso de dimensão n � 2.

UNIDADE V �Distribuições Especiais

Distribuição de Qui-quadrado. De�nição, propriedades e aplicações (independên-

cia da média e variância amostrais para amostras da normal). Distribuição t:

de�nição e propriedades. Distribuição F : de�nição e propriedades. Estatísticas

de Ordem: de�nição e distribuições conjuntas e marginais, aplicações.

UNIDADE VI �Esperança. De�nição Geral de Esperança. Propriedades da

Esperança. Esperança Condicional: de�nição, propriedades. Cálculo da esperança

e da variância por condicionamento (exemplos típicos: soma aleatória de variáveis

aleatórias independentes). Desigualdade de Jensen. Desigualdade de Tchebyshev.

UNIDADE VII �Lei dos Grandes Números.

Tipos de Convergência: convergência em probabilidade e convergência quase

certa.

Lei Fraca dos Grandes Números. Lei Forte dos Grandes Números. Exemplos.

UNIDADE VIII �Funções características, convergência em distribuição. Teo-

rema Central do Limite. Funções características: de�nição e propriedades. Con-

vergência em distribuição: de�nição e alguns resultados. Teorema Central do Lim-

ite: para variáveis aleatórias independentes e identicamente distribuídas. Teorema

Central do Limite para variáveis aleatórias independentes (condição de Lindeberg,

Liapounov). Aplicações.

iii

Page 5: Apos RJ ProbabilidadeII

BIBLIOGRAFIA

[1] James, B.- Probabilidade: UmCurso emNível Intermediário - Projeto Euclides

- 1981.

[2] Shiryayev, A. N. - Probability - Springer Verlag - 1984.

[3] Metivier, M. - Notions Fondamentales de la Theorie des Probabilites - Dunod

- Paris - 1968.

[4] Magalhães, M. N. - Probabilidade e Variáveis Aleatórias - Ed. Universidade

de São Paulo - 2004.

[5] Hoel, P.G. e Stone, C. J. - Introdução à Teoria da Probabilidade - Editora

Interciência - 1978.

[6] Ross, S. - Introduction to Probability Models - Sixth Edition. Academic Press

- 1997.

AVALIAÇOES

Prova 1 - 4 de maio de 2009.

Prova 2 - 3 de julho de 2009.

Reposição - 8 de julho de 2009.

Prova Final - 10 de julho de 2009.

iv

Page 6: Apos RJ ProbabilidadeII

Capítulo 1

De�nições Básicas

1.1 Modelo Matemático para um Experimento

1.1.1 Espaços de Probabilidade

Suponha que vamos realizar um experimento cujo resultado não pode ser predito

de antemão. Entretanto, suponha que saibamos todos os possíveis resultados de

tal experimento. Este conjunto de todos os resultados possíveis, que denotaremos

por , é chamado de espaço amostral do experimento. Assim, temos a seguinte

de�nição:

De�nição 1 O conjunto de todos os resultados possíveis de um determinado ex-

perimento é chamado de espaço amostral.

Exemplo 1 Se o experimento consiste em lançar uma moeda, então = fCa;Cog,

onde Ca é �cara�e Co é �coroa�.

Exemplo 2 Se o experimento consiste em lançar um dado e observar a face supe-

rior, então = f1; 2; 3; 4; 5; 6g.

Exemplo 3 Se o experimento consiste em lançar duas moedas, então

= f(Ca;Ca); (Ca;Co); (Co;Ca); (Co;Co)g, onde o resultado (a; b) ocorre se a

face da primeira moeda é a e a face da segunda moeda é b.

1

Page 7: Apos RJ ProbabilidadeII

Exemplo 4 Se o experimento consiste em lançar dois dados e observar as faces

superiores, então

=

8>>>>>><>>>>>>:

(1; 1) (1; 2) (1; 3) (1; 4) (1; 5) (1; 6)(2; 1) (2; 2) (2; 3) (2; 4) (2; 5) (2; 6)(3; 1) (3; 2) (3; 3) (3; 4) (3; 5) (3; 6)(4; 1) (4; 2) (4; 3) (4; 4) (4; 5) (4; 6)(5; 1) (5; 2) (5; 3) (5; 4) (5; 5) (5; 6)(6; 1) (6; 2) (6; 3) (6; 4) (6; 5) (6; 6)

9>>>>>>=>>>>>>;onde o resultado (i; j) ocorre se a face i aparece no primeiro dado e a face j no

segundo dado.

Exemplo 5 Se o experimento consiste em medir a vida útil de um carro, então um

possível espaço amostral consiste de todos os números reais não-negativos, isto é,

= [0;1).

De�nição 2 Qualquer subconjunto A do espaço amostral , isto é A � , ao qual

atribuímos uma probabilidade, é dito um evento aleatório.

Obviamente, como ; � e � os conjuntos ; e são eventos aleatórios. O

conjunto vazio ; é denominado evento impossível e o conjunto é denominado

evento certo. Se ! 2 o evento f!g é dito elementar (ou simples).

De�nição 3 Dois eventos A e B são ditos mutuamente exclusivos ou incom-

patíveis se A \B = ;.

Observação 1 É importante saber traduzir a notação de conjuntos para a lin-

guagem de eventos: A [ B é o evento �A ou B�; A \ B é o evento �A e B� e

Ac é o evento �não A�.

De�nição 4 SejaA uma classe de subconjuntos de tendo as seguintes propriedades:

(i) 2 A;

(ii) Se A 2 A então Ac 2 A; (a classe é fechada pela complementariedade)

2

Page 8: Apos RJ ProbabilidadeII

(iii) Se A1; A2; :::; An 2 A entãon[i=1Ai 2 A. (a classe é fechada pela união �nita)

Então a classe A de subconjuntos de é chamada uma álgebra.

Exercício 1 Seja A uma álgebra. Mostre que:

(a) ; 2 A;

(b) se A e B 2 A então A�B 2 A;

(b) se A1; A2; :::; An 2 A entãon\i=1Ai 2 A.

De�nição 5 SejaA uma classe de subconjuntos de tendo as seguintes propriedades:

(i) 2 A;

(ii) Se A 2 A então Ac 2 A; (a classe é fechada pela complementariedade)

(iii) Se A1; A2; ::: 2 A então1[i=1Ai 2 A. (a classe é fechada pela união in�nita

enumerável)

Então a classe A de subconjuntos de é chamada uma �-álgebra.

Proposição 1 Seja A uma �-álgebra de subconjuntos de . Se A1; A2; ::: 2 A então1\i=1Ai 2 A.

Prova. (Em aula.)

De�nição 6 Os membros de A são chamados (no contexto da teoria de Probabil-

idade) de eventos, ou subconjuntos de A-mensuráveis, ou apenas subconjuntos

mensuráveis de se não houver confusão quanto à �-álgebra referente. O par (;

A) é dito ser um espaço mensurável.

Exercício 2 Seja = R e A a classe de todas as uniões �nitas de intervalos do

tipo (�1; a], (b; c] e (d;1). Mostre que

(a) A é uma álgebra;

(b) A não é uma �-álgebra.

3

Page 9: Apos RJ ProbabilidadeII

Exercício 3 Mostre que toda �-álgebra é uma álgebra, mas a recíproca não é ver-

dadeira.

Exercício 4 Mostre, com exemplo, que se A e B são �-álgebras, A [ B não é

necessariamente uma �-álgebra.

Exercício 5 Mostre que se A e B são �-álgebras, A\ B é também uma �-álgebra.

Observação 2 Dada uma classe B de subconjuntos de , podemos construir a

menor álgebra contendo B, da seguinte forma:

(i) Formamos a classe B1 contendo , ;, A e Ac para todo A 2 B;

(ii) Formamos a classe B2 de interseções de elementos de B1;

(iii) Formamos a classe B3 de uniões �nitas de elementos de B2.

Claramente, B � B1 � B2 � B3, e pode-se veri�car facilmente que B3 é uma

álgebra.

Observação 3 Podemos construir (ainda que de forma abstrata) a menor ��álgebra

contendo uma classe B de subconjuntos de , da seguinte forma: Considere todas

as ��álgebras contendo B. Denote-as ��(B), � 2 �. O conjunto � é não-vazio,

pois o conjunto de todos os subconjuntos de é uma ��álgebra. Então, a menor

��álgebra contendo B é dada por

�(B) = \�2���(B)

Exemplo 6 Seja = f1; 2; 3; 4; 5; 6g. (a) Construa a menor ��álgebra de subcon-

juntos de ; (b) Construa a menor ��álgebra contendo a classe de subconjuntos

de dada por ff1; 2g ; f1; 3; 4g ; f3; 5gg; (c) Construa a menor ��álgebra contendo

todos os subconjuntos de (esta ��álgebra é chamada de conjunto das partes de ,

e é denotada por P()).

4

Page 10: Apos RJ ProbabilidadeII

De�nição 7 A ��álgebra de Borel é gerada pela coleção de conjuntos abertos de

um espaço topológico. Os membros desta ��álgebra são chamados Borelianos.

As ��álgebras em Rd, d > 1, e R são geradas por intervalos nestes espaços e

são denotadas por B(Rd) = Bd e B = B1 = B(R), respectivamente. Por exemplo, se

= R, B pode ser gerada por quaisquer dos intervalos (a; b), (a; b], [a; b) ou [a; b],

isto é,

B = �f(a; b);�1 � a < b � +1g

= �f[a; b);�1 < a < b � +1g

= �f[a; b];�1 < a < b < +1g

= �f(�1; x];x 2 Rg,

e assim por diante.

De�nição 8 Seja A uma (��)álgebra em . Um membro A de A é dito um

átomo, se A 6= ; e se B � A implica que ou B = ; ou B = A. Portanto, átomos

são os membros mais �nos de uma (��)álgebra.

Exemplo 7 Seja = f1; 2; 3; 4; 5; 6g e sejaA = f;; f2g; f1; 3; 4; 5; 6g; f4; 6g; f1; 2; 3; 5g;

f1; 3g; f2; 4; 5; 6g; f5g; f1; 2; 3; 4; 6g; f1; 3; 5g; f4; 5; 6g; f1; 3; 4; 6g; f2; 5g; f1; 2; 3g; f2; 4; 6g;g.

Então os átomos associados à A são f2g, f5g, f1; 3g e f4; 6g.

1.1.2 De�nição e Propriedades das Probabilidades

Há várias interpretações da probabilidade. Discutiremos as três mais correntes:

(Clássica) Baseia-se no conceito de equiprobabilidade, ou seja, de resultados equiprováveis.

Seja A um evento e o espaço amostral �nito, então

P (A) =#A

#

onde #A é a cardinalidade de A e # a cardinalidade de .

5

Page 11: Apos RJ ProbabilidadeII

(Freqüentista) Baseia-se na freqüência relativa de um �número grande� de realizações do

experimento. Seja A um evento, então

P (A) = limn!1

nAn

onde nA é o número de ocorrências do evento A em n realizações.

Observação 4 O limite acima não pode ser entendido como um limite matemático,

pois dado " > 0 não há garantia de que existe n0 2 N tal que para todo n � n0 se

tenha ���P (A)� nAn

��� < ".É improvável que

���P (A)� nAn

��� � " para n � N (grande), mas pode acontecer.

Outra di�culdade do conceito freqüentista é que o experimento nunca é realizado

in�nitas vezes, logo não há como avaliar a probabilidade de forma estrita.

(Subjetiva) Baseia-se em crenças e/ou informações do observador a respeito do fenômeno

em estudo. Por exemplo, seja o evento C �chove em Moscou�.

Para alguém no Rio de Janeiro podemos ter a seguinte avaliação: P (C) = 0; 5.

Para alguém de Leningrado, podemos ter: P (C) = 0; 8, se chove em Leningrado

e P (C) = 0; 2, se não chove em Leningrado.

Para alguém de Moscou, tem-se: P (C) = 1, se está chovendo em Moscou e

P (C) = 0, se não está chovendo em Moscou.

Não nos preocuparemos com o problema de como de�nir probabilidade para cada

experimento. Assentaremos a base axiomática da teoria das probabilidades tal como

foi erigida pelo matemático russo Kolmogorov, responsável pela base matemática

solida da teoria.

6

Page 12: Apos RJ ProbabilidadeII

Seja um espaço amostral e A uma �-álgebra para um dado experimento. Uma

medida de probabilidade P é uma aplicação

P : A ! [0; 1]

tendo os seguintes axiomas:

A1) P (A) � 0.

A2) P () = 1.

A3) (Aditividade �nita) Se A1; A2; :::; An 2 A são disjuntos dois a dois, isto é,

Ai \ Aj = ; para todo i 6= j, então P�n[i=1Ai

�=

nXi=1

P (Ai).

Uma função P satisfazendo os axiomas 1, 2 e 3 é chamada probabilidade �ni-

tamente aditiva. Entretanto, para os nossos objetivos, será mais conveniente

supor �-aditividade:

A3�) Se A1; A2; ::: 2 A são disjuntos dois a dois, então P� 1[i=1Ai

�=

1Xi=1

P (Ai).

Modelo Probabilístico: Terminamos a formulação do modelo matemático para

um experimento, ou modelo probabilístico. É constituído de

a) Um conjunto não-vazio , de resultados possíveis, o espaço amostral.

b) Uma �-álgebra A de eventos aleatórios.

c) Uma probabilidade P de�nida em A.

Vamos agora retirar nosso modelo do contexto de um experimento e reformulá-lo

como um conceito matemático abstrato.

De�nição 9 Um espaço de probabilidade é um trio (;A; P ) onde

(a) é um conjunto não-vazio,

7

Page 13: Apos RJ ProbabilidadeII

(b) A é uma �-álgebra de subconjuntos de , e

(c) P é uma probabilidade de�nida em A.

Com base nos axiomas de probabilidade, pode-se demonstrar os seguintes teore-

mas:

Teorema 1 P (;) = 0.

Prova. (Em aula.)

Proposição 2 O Axioma 3�implica o Axioma 3, isto é, se P é �-aditiva, então é

�nitamente aditiva.

Prova. (Em aula.)

Teorema 2 Para todo A 2 A, temos P (Ac) = 1� P (A).

Prova. (Em aula.)

Teorema 3 Para todo A 2 A, temos 0 � P (A) � 1.

Prova. (Em aula.)

Teorema 4 Sejam A e B 2 A. Se A � B, então

(a) P (B � A) = P (B)� P (A);

(b) P (A) � P (B).

Prova. (Em aula.)

Teorema 5 Sejam A e B 2 A. Então P (A [B) = P (A) + P (B)� P (A \B).

Prova. (Em aula.)

8

Page 14: Apos RJ ProbabilidadeII

Teorema 6 Para qualquer seqüência de eventos A1; A2; :::; An 2 A, P� 1[i=1Ai

��

1Xi=1

P (Ai) (desigualdade de Boole).

Prova. (Em aula.)

Teorema 7 Sejam A1; A2; :::; An 2 A. Então

P�n[i=1Ai

�=

nXi=1

P (Ai)�Xi<j

P (Ai \ Aj) +Xi<j<k

P (Ai \ Aj \ Ak)

�X

i<j<k<l

P (Ai \ Aj \ Ak \ Al) + :::+ (�1)n+1P (A1 \ A2 \ ::: \ An)

Prova. (Em aula.)

Uma propriedade importante da função probabilidade P é que ela é contínua.

Para ver isto, de�nimos antes o que se entende por uma seqüência crescente (decres-

cente) de eventos.

De�nição 10 Uma seqüência de eventos fEn; n � 1g é dita crescente se En �

En+1; n � 1 e é dita decrescente se En � En+1; n � 1.

Se fEn; n � 1g é uma seqüência crescente de eventos, então de�nimos um novo

evento, denotado por limn!1En por

limn!1

En =1[i=1Ei.

De forma similar se fEn; n � 1g é uma seqüência decrescente de eventos, então

de�nimos limn!1En por

limn!1

En =1\i=1Ei.

Com isso, podemos mostrar o seguinte teorema.

Teorema 8 Se fEn; n � 1g é uma seqüência crescente ou decrescente de eventos,

então

limn!1

P (En) = P ( limn!1

En).

9

Page 15: Apos RJ ProbabilidadeII

Prova. (Em aula.)

Exemplo 8 Considere uma população de indivíduos capazes de gerar proles do

mesmo tipo. O número de indivíduos inicialmente presentes, denotado por X0, é

o tamanho da geração zero. Todos as proles da geração zero constituem a primeira

geração e o seu número é denotado por X1. Em geral, Xn denota o tamanho da

n-ésima geração. Mostre que limn!1 P (Xn = 0) existe e interprete o seu signi�cado.

10

Page 16: Apos RJ ProbabilidadeII

1.1.3 Probabilidade Condicional

De�nição 11 Seja (;A; P ) um espaço de probabilidade. Se B 2 A e P (B) > 0,

a probabilidade condicional de A dado B é de�nida por

P (A j B) = P (A \B)P (B)

, A 2 A. (1.1)

Note que P (A j B), A 2 A, é realmente uma probabilidade em A (veri�que os

axiomas!). Conseqüentemente as propriedades de probabilidade são mantidas, por

exemplo,

P (Ac j B) = 1� P (A j B).

Observe que, dado B, se de�nirmos PB(A) = P (A j B), então podemos de�nir

um novo espaço de probabilidade dado por (B;G; PB), onde G := fA \B : A 2 Ag.

Exercício 6 Certo experimento consiste em lançar um dado equilibrado duas vezes,

independentemente. Dado que os dois números sejam diferentes, qual é a probabili-

dade condicional de

(a) pelo menos um dos números ser 6;

(b) a soma dos números ser 8?

Teorema 9 Sejam A;B 2 A com P (A) > 0 e P (B) > 0. Então

P (A \B) = P (B):P (A j B)

= P (A):P (B j A)

Prova. (Em aula.)

Teorema 10 (a) P (A \B \ C) = P (A):P (B j A):P (C j A \B).

(b) P (A1 \ A2 \ ::: \ An) = P (A1):P (A2 j A1):P (A3 j A1 \ A2):::P (An j A1 \

A2 \ :::An�1), para todo A1; A2; :::; An 2 A e para todo n = 2; 3; :::.

11

Page 17: Apos RJ ProbabilidadeII

Prova. (Em aula.)

Exercício 7 Selecionar três cartas sem reposição ao acaso. Qual a probabilidade

de se retirar 3 reis. (Use o teorema acima para resolver o problema e compare com

o uso da análise combinatória.)

De�nição 12 Seja um conjunto não-vazio. Uma partição de é uma família

de conjuntos A1, A2, ..., An tais que

(i)n[i=1Ai =

(ii) Ai \ Aj = ;, para todo i 6= j.

Ou seja, os conjuntos A1, A2, ..., An são disjuntos dois a dois e a sua união é

o conjunto . Dizemos também que foi particionado pelos conjuntos A1, A2, ...,

An.

Partição do Espaço Amostral

Para todo evento B 2 A temos

B =n[i=1(Ai \B) .

12

Page 18: Apos RJ ProbabilidadeII

Teorema da Probabilidade Total

Como os Ai são disjuntos, então os Ci = Ai\B são disjuntos. Com isto podemos

demonstrar os seguintes teoremas:

Teorema 11 (Teorema da Probabilidade Total) Se a seqüência (�nita ou enu-

merável) de eventos aleatórios A1, A2, ...formar uma partição de , então

P (B) =Xi

P (Ai):P (B j Ai) (1.2)

para todo B 2 A.

Prova. (Em aula.)

Teorema 12 (Fórmula de Bayes) Se a seqüência (�nita ou enumerável) de even-

tos aleatórios A1, A2, ... formar uma partição de , então

P (Ai j B) =P (Ai)P (B j Ai)Xj

P (Aj):P (B j Aj). (1.3)

Prova. (Em aula.)

Exercício 8 Seja uma caixa contendo 3 moedas: duas honestas e uma de duas

caras. Retirar uma moeda ao acaso e jogá-la. Pergunta: qual a probabilidade condi-

cional da moeda ter sido a de duas caras, dado que o resultado �nal foi cara?

13

Page 19: Apos RJ ProbabilidadeII

Exercício 9 Uma caixa contém 10 bolas das quais 6 são brancas e 4 vermelhas.

Removem-se três bolas sem observar suas cores. Determine:

(a) a probabilidade de que uma quarta bola removida da caixa seja vermelha;

(b) a probabilidade de que as três bolas removidas sejam brancas, sabendo-se que

pelo menos uma delas é branca.

Exercício 10 Durante o mês de novembro a probabilidade de chuva é de 0,3. O

Fluminense ganha um jogo em um dia com chuva com probabilidade de 0,4; e em

um dia sem chuva com a probabilidade de 0,6. Se ganhou um jogo em novembro,

qual a probabilidade de que choveu nesse dia?

Exercício 11 Pedro quer enviar uma carta à Marina. A probabilidade de que Pedro

escreva a carta é de 0,80. A probabilidade de que o correio não a perca é de 0,9. A

probabilidade de que o carteiro a entregue é de 0,9. Dado que Marina não recebeu a

carta, qual é a probabilidade de que Pedro não a tenha escrito?

Exercício 12 Uma moeda é lançada. Se ocorre cara, um dado é lançado e o seu

resultado é registrado. Se ocorre coroa, dois dados são lançados e a soma dos pontos

é registrada. Qual a probabilidade de ser registrado o número 2?

Exercício 13 Num certo certo país, todos os membros de comitê legislativo ou são

comunistas ou são republicanos. Há três comitês. O comitê 1 tem 5 comunistas, o

comitê 2 tem 2 comunistas e 4 republicanos, e o comitê 3 consiste de 3 comunistas e

4 republicanos. Um comitê é selecionado aleatoriamente e uma pessoa é selecionada

aleatoriamente deste comitê.

(a) Ache a probabilidade de que a pessoa selecionada seja comunista.

(b) Dado que a pessoa selecionada é comunista, qual a probabilidade de ela ter

vindo do comitê 1?

14

Page 20: Apos RJ ProbabilidadeII

Exercício 14 Um executivo pediu à sua secretária que �zesse uma ligação para

o escritório do Sr.X. Admitindo que: a probabilidade de a secretária conseguir a

ligação é de 50%; a probabilidade de o Sr.X se encontrar no escritório naquele

momento é de 80%; a probabilidade de o executivo não se ausentar enquanto a

secretária tenta fazer o que ele pediu é de 90%.

(a) Calcule a probabilidade de que o executivo tenha de fato conseguido falar com

o Sr.X pelo telefone.

(b) No caso de ele não ter conseguido falar com o Sr.X, calcule a probabilidade

condicional de que isso tenha ocorrido porque a ligação não se completou.

Exercício 15 São dadas duas urnas A e B. A urna A contém 1 bola azul e 1

vermelha. A urna B contém 2 bolas vermelhas e 3 azuis. Uma bola é extraída ao

acaso de A e colocada em B. Uma bola então é extraída ao acaso de B. Pergunta-se:

(a) Qual a probabilidade de se retirar uma bola vermelha de B?

(b) Qual a probabilidade de ambas as bolas retiradas serem da mesma cor?

Exercício 16 Suponha que temos 4 cofres, cada um com dois compartimentos. Os

cofres 1 e 2 têm um anel de brilhante num compartimento e um anel de esmeralda

no outro. O cofre 3 têm dois anéis de brilhante em seus compartimentos, e o cofre

4 têm dois anéis de esmeralda. Escolhe-se um cofre ao acaso, abre-se um dos com-

partimentos ao acaso e encontra-se um anel de brilhantes. Calcule a probabilidade

de que o outro compartimento contenha:

(a) um anel de esmeralda;

(b) um anel de brilhantes.

Exercício 17 Um estudante se submete a um exame de múltipla escolha no qual

cada questão tem cinco respostas possíveis, das quais exatamente uma é correta. O

15

Page 21: Apos RJ ProbabilidadeII

estudante seleciona a resposta correta se ele sabe a resposta. Caso contrário, ele

seleciona ao acaso uma resposta dentre as 5 possíveis. Suponha que o estudante

saiba 70% das questões. Pergunta-se:

(a) Qual a probabilidade de que o estudante escolha a resposta correta para uma

dada questão?

(b) Se o estudante escolhe a resposta correta para uma dada questão, qual a

probabilidade de que ele sabia a resposta?

1.1.4 Independência

De�nição 13 Seja (;A; P ) um espaço de probabilidade. Os eventos aleatórioa A

e B são (estocasticamente) independentes se

P (A \B) = P (A):P (B).

Observação 5 Eventos de probabilidade 0 ou 1 são independentes de qualquer outro.

Teorema 13 A é independente de si mesmo se e somente se P (A) = 0 ou 1.

Prova. (Em aula.)

Teorema 14 Se A e B são independentes, então A e Bc também são independentes

(e também Ac e B, e ainda Ac e Bc).

Prova. (Em aula.)

Observação 6 Se A \ B = ;, então A e B não são independentes (a menos que

um deles tenha probabilidade zero).

De�nição 14 Os eventos aleatórios Ai, i 2 I (I um conjunto de índices), são

independentes dois a dois (ou a pares) se

P (Ai \ Aj) = P (Ai):P (Aj)

16

Page 22: Apos RJ ProbabilidadeII

para todo i; j 2 I, i 6= j.

De�nição 15 (a) Os eventos aleatórios A1; :::; An (n � 2) são chamados (coletiva

ou estocasticamente) independentes se

P (Ai1 \ Ai2 \ ::: \ Aim) = P (Ai1):P (Ai2):::P (Aim)

para todo 1 � i1 < i2 < ::: < im � n, para todo m = 2; 3; :::; n (isto é, se todas as

combinações satisfazem a regra produto).

(b) Os eventos aleatórios A1; A2; ::: independentes se para todo n � 2, A1; :::; An

são independentes.

Observação 7 Independência a pares não implica independência coletiva. Con-

forme o exercício a seguir.

Exercício 18 Seja = fw1; w2; w3; w4g e suponha P (fwg) = 1=4 para todo w 2 .

Sejam os eventos A = fw1; w4g, B = fw2; w4g e C = fw3; w4g. Veri�que que A, B

e C são independentes dois a dois, mas

P (A \B \ C) 6= P (A):P (B):P (C).

Teorema 15 Se os eventos Ai, i 2 I, são independentes, então os eventos Bi, i 2 I,

são também independentes, onde cada Bi é igual a Ai ou Aci (ou um ou outro).

Prova. (Em aula.)

Observação 8 Toda família de eventos independentes é independente.

Exercício 19 Um dado não viciado é lançado uma vez. Se a face que aparece é

ímpar, uma moeda não viciada é lançada repetidas vezes. Se a face é par, uma

moeda com probabilidade p 6= 12de dar cara é lançada repetidamente. Os sucessivos

lançamentos são independentes. Se os primeiros n lançamentos resultaram em cara,

qual a probabilidade de que a moeda não viciada foi usada?

17

Page 23: Apos RJ ProbabilidadeII

Capítulo 2

Variáveis Aleatórias

2.1 Conceito

Informalmente, uma variável aleatória é um característico numérico do resultado de

um experimento. Por exemplo:

Exemplo 9 Seja o lançamento de duas moedas e a observação do número de caras

obtido. Então = f(Ca;Ca); (Ca;Co); (Co;Ca); (Co;Co)g. Se de�nirmos X =

número de caras observadas, e !1 = (Ca;Ca), !2 = (Ca;Co), !3 = (Co;Ca),

!4 = (Co;Co), temos

X(!1) = 2;

X(!2) = X(!3) = 1;

X(!4) = 0.

Exemplo 10 Escolher ao acaso um ponto em [0; 1]. Seja X o quadrado do ponto

obtido. Então = [0; 1] e

X(!) = !2.

Exemplo 11 Escolher ao acaso um ponto no círculo unitário. Seja X a distância

entre o ponto escolhido e a origem. Então = f(x; y) : x2 + y2 � 1g e, com

18

Page 24: Apos RJ ProbabilidadeII

! = (x; y), temos

X(!) =px2 + y2.

Exemplo 12 Joga-se um dado e observa-se a face superior. Então = f1; 2; 3; 4; 5; 6g

e

X(!) = !.

Entretanto, nem toda função de em R traduz uma variável aleatória. Para

que ela seja uma variável aleatória, precisamos garantir que todo evento relacionado

à variável aleatória possa ser mensurado. Daí a de�nição seguinte:

De�nição 16 Uma variável aleatória X em um espaço de probabilidade (;A; P ) é

uma função real de�nida no espaço tal que o conjunto [! 2 : X(!) � x] (daqui

para frente escrito de forma simpli�cada [X � x]) é evento aleatório para todo x 2 R;

isto é,

X : ! R

é uma variável aleatória se [X � x] 2 A para todo x 2 R.

Exemplo 13 Sejam = f1; 2; 3; 4g e A = f;; f1; 2g; f3; 4g;g e considere os con-

juntos A = f1; 2g e B = f1; 3g. Então 1A é variável aleatória em (;A), mas 1B

não é.

2.2 Função de Distribuição

De�nição 17 A função de distribuição (acumulada) da variável aleatória X,

representada por FX , ou simplesmente por F quando não houver confusão, é de�nida

por

FX(x) = P (X � x), x 2 R. (2.1)

19

Page 25: Apos RJ ProbabilidadeII

Exercício 20 Duas moedas honestas são lançadas. Seja a variável X que conta o

número de caras observadas. Construa a função de distribuição da variável aleatória

X e represente-a gra�camente.

Exercício 21 Seja um experimento que consiste em selecionar um ponto ao acaso

do intervalo [a; b] com a < b. Seja X a variável aleatória que representa a co-

ordenada do ponto. Construa a função de distribuição da variável aleatória X e

represente-a gra�camente.

Proposição 3 Propriedades da Função de Distribuição. Se X é uma variável

aleatória, sua função de distribuição F goza das seguintes propriedades:

F1) Se x1 � x2 então F (x1) � F (x2); isto é, F é não-decrescente.

F2) Se xn # y, então F (xn) # F (y); isto é, F é contínua à direita.

F3) limx!�1 F (x) = 0 e limx!+1 F (x) = 1.

Prova. (Em aula)

Tendo em mente que FX(x) = P (X � x), podemos observar que

1. P (X > a) = 1� P (X � a) = 1� FX(a)

2. P (a < X � b) = P (X � b) � P (X � a) = P (X � b) � P (X � a) =

FX(b)� FX(a)

3. P (X = a) = P (X � a) � P (X < a) = FX(a) � FX(a�). Ou seja, P (X = a)

é o tamanho do salto da função de distribuição em x = a. Se a função for

contínua no ponto x = a então P (X = a) = 0.

20

Page 26: Apos RJ ProbabilidadeII

4. P (a < X < b) = P (a < X � b)� P (X = b)

= P (X � b)� P (X � a)� P (X = b) = FX(b)� FX(a)� [FX(b)� FX(b�)]

= FX(b�)� FX(a).

5. P (a � X < b) = P (a < X < b) + P (X = a)

= FX(b�)� FX(a) + [FX(a)� FX(a�)] = FX(b�)� FX(a�).

6. P (a � X � b) = P (a < X � b) + P (X = a)

= FX(b)� FX(a) + [FX(a)� FX(a�)] = FX(b)� FX(a�).

Exercício 22 Um dado tendencioso é tal que a probabilidade de um ponto é propor-

cional ao próprio ponto. Seja X a variável aleatória que representa o número obtido

no lançamento do dado. Pede-se:

(a) A função de distribuição da variável aleatória X, esboçando o seu grá�co.

(b) A probabilidade de ocorrer 5, dado que ocorreu um número ímpar?

(c) A probabilidade de ocorrer um número par, dado que ocorreu um número

menor do que 5?

Exercício 23 Seja F (x) a função

F (x) =

8<:0, se x < 0x+ 1

2, se 0 � x � 1

2

1, se x > 12

Mostre que F é de fato uma função de distribuição e calcule:

(a) P (X > 18)

(b) P (18< X < 2

5)

(c) P (X < 25j X > 1

8)

21

Page 27: Apos RJ ProbabilidadeII

2.3 Variáveis Aleatórias Discretas

De�nição 18 A variável aleatória X é discreta se toma um número �nito ou enu-

merável de valores, isto é, se existe um conjunto �nito ou enumerável fx1; x2; :::g �

R tal que X(!) 2 fx1; x2; :::g para todo ! 2 . A função p(xi) de�nida por

p(xi) = P (X = xi), i = 1; 2; 3; ::: (2.2)

é chamada função de probabilidade de X.

Observação 9 Note que [X � x] =[i:xi�x

[X = xi] e assim

F (x) =Xi:xi�x

P (X = xi) =Xi:xi�x

p(xi).

Além disso, observe que

p(xi) � 0, i = 1; 2; 3; ::: (2.3)

e1Xi=1

p(xi) = 1. (2.4)

Exercício 24 A probabilidade de um indivíduo acertar um alvo é 2/3. Ele deve

atirar até atingir o alvo pela primeira vez. Seja X a variável aleatória que representa

o número de tentativas até que ele acerte o alvo. Pede-se:

(a) A função de probabilidade de X, mostrando que ela atende as propriedades

(2.3) e (2.4).

(b) A probabilidade de serem necessários cinco tiros para que ele acerte o alvo.

Exercício 25 Seja X uma variável aleatória com função de probabilidade

P (X = x) = cx2, onde c é uma constante e k = 1; 2; 3; 4; 5. Calcule F (x) e P(X ser

ímpar).

22

Page 28: Apos RJ ProbabilidadeII

Exercício 26 Seja X o número de caras obtidas em 4 lançamentos de uma moeda

honesta. Construa a função de probabilidade e a função de distribuição de X es-

boçando os seus grá�cos.

2.4 Variáveis Aleatórias Contínuas

De�nição 19 A variável aleatória X é (absolutamente) contínua se sua função de

distribuição FX(x) é contínua. Isto é, se existe uma função fX(x), dita função de

densidade de probabilidade, com as seguintes propriedades

fX(x) � 0 para todo x 2 R e

1Z�1

fX(x)dx = 1

de modo que

FX(x) =

xZ�1

fX(t)dt.

Observação 10 Pelo Teorema Fundamental do Cálculo, observe que

fX(x) =dFX(x)

dx.

Observação 11 Como FX(x) é contínua, observe que

1. P (X = x) = FX(x)� FX(x�) = 0 para todo x 2 R.

2. P (a � X � b) = P (a < X � b) = P (a � X < b) = P (a < X < b) =bZa

fX(x)dx.

3. dFX(x) = fX(x)dx.

Exercício 27 Veri�que que

FZ(z) =

8>><>>:0, z < 0z2, 0 � z < 1

2

1� 3(1� z)2, 12� z < 1

1, z � 1

23

Page 29: Apos RJ ProbabilidadeII

é uma função de distribuição e obtenha a função de densidade de Z. Calcule também

P (Z > 14jZ � 3

4).

Exercício 28 Veri�que que

FY (y) =

8<:0, y < 0py, 0 � y � 1

1, y > 1

é uma função de distribuição e calcule a função de densidade de Y. Use-a para

calcular P (14< Y < 3

4).

De�nição 20 Uma variável aleatória X é dita mista se tem partes nas diferentes

classi�cações (parte discreta e parte contínua).

Exercício 29 (Exemplo de Variável Aleatória Mista: Discreta e Contínua ao mesmo

tempo) A função de distribuição de uma variável aleatória X é dada por:

FX(x) =

8>>>><>>>>:0, x < 0x2, 0 � x < 123, 1 � x < 21112, 2 � x < 3

1, x � 3Obtenha:

(a) o grá�co de FX(x);

(b) P (X < 3);

(c) P (X = 1);

(d) P (X > 1=2);

(e) P (2 < X < 4).

Exercício 30 Seja X uma variável com função de distribuição

FX(x) =

8<:0, x < �214+ x+2

8, � 2 � x < 0

34+ 1

4(1� e�x), x � 0

(a) Classi�que X e faça um grá�co de F.

(b) Calcule P (X > �1) e P (X � 4jX > 0).

(c) Decomponha F nas partes discreta e absolutamente contínua.

24

Page 30: Apos RJ ProbabilidadeII

Exercício 31 Mostre que se X é uma v. a . do tipo contínuo com função de

densidade par, ou seja, simétrica em torno de x = 0, isto é, fX(x) = fX(�x),

então:

(a) FX(x) = 1� FX(�x);

(b) FX(0) = 12;

(c) P (�x < X < x) = 2FX(x)� 1, x > 0;

(d) P (X > x) = 12�

xZ0

fX(t)dt, x > 0.

Exercício 32 Suponha que X seja uma variável aleatória com f.d.p. dada por

fX(x) =1

2(1 + jxj)2 , �1 < x <1

(a) Obtenha a função de distribuição de X.

(b) Ache P (�1 < X < 2).

(c) Ache P (jXj > 1).

Exercício 33 Z é uma variável aleatória contínua com função de densidade de

probabilidade

fZ(z) =

�10e�10z, z > 00, z � 0

Obtenha a função de distribuição de Z e esboce o seu grá�co.

2.5 Vetores Aleatórios

De�nição 21 Um vetor X = (X1; :::; Xn) com Xi variáveis aleatórias de�nidas no

mesmo espaço de probabilidade (;A; P ) é chamado vetor aleatório se

X�1(B) 2 A para todo B 2 Bn.

De�nição 22 A função de distribuição conjunta F = FX de um vetor aleatório X

é de�nida por

FX(x) = FX(x1; :::; xn) = P (X1 � x1; :::; Xn � xn).

25

Page 31: Apos RJ ProbabilidadeII

Observação 12 fX1 � x1; :::; Xn � xng =n\i=1

f! : Xi(!) � xig 2 A.

Proposição 4 Propriedades da Função de Distribuição Conjunta. Se X

é um vetor aleatório em (;A; P ), então para qualquer x 2 Rn, sua função de

distribuição F goza das seguintes propriedades:

F1) F (x) é não-decrescente em cada uma de suas coordenadas.

F2) F (x) é contínua à direita em cada uma de suas coordenadas.

F3) Se para algum j, xj ! �1, então F (x) ! 0 e, ainda, se para todo j, xj !

+1, então F (x)! 1.

F4) F (x) é tal que para todo ai; bi 2 R, ai < bi, 1 � i � n, temos

Pfa1 < X1 � b1; a2 < X2 � b2; :::; an < Xn � bng � 0.

Prova. (Em aula)

Observação 13 A propriedade F4 parece tão óbvia que poderíamos questionar a

necessidade de mencioná-la. No caso unidimensional ela não é necessária, mas no

caso muldimensional ela é essencial, pois há funções que atendem as propriedades

F1, F2 e F3 que não são funções de distribuições de nenhum vetor aleatório, con-

forme o exemplo abaixo.

Exemplo 14 Considere a seguinte função:

F (x; y) =

�1, em S = f(x; y) : x � 0, y � 0 e x+ y � 1g0, caso contrário

Então F (x; y) satisfaz F1, F2 e F3, mas Pf0 < X � 1; 0 < Y � 1g = �1 < 0! Logo

F (x; y) não satisfaz F4 e, portanto, não pode ser função de distribuição conjunta.

26

Page 32: Apos RJ ProbabilidadeII

Exemplo 15 Sejam X e Y duas variáveis aleatórias com função de distribuição

conjunta FX;Y (x; y). Mostre que

Pfa < X � b; c < Y � dg = F (b; d)� F (b; c)� F (a; d) + F (a; c)

Exemplo 16 Veri�que se a seguinte função

F (x; y) =

�1� e�x�y, x � 0 e y � 00, caso contrário

é uma função de distribuição de algum vetor aleatório.

Exemplo 17 Veri�que se a seguinte função

F (x; y) =

�(1� e�x)(1� e�y), x � 0 e y � 00, caso contrário

é uma função de distribuição de algum vetor aleatório.

Observação 14 A partir da função de distribuição conjunta, pode-se obter o com-

portamento de cada variável isoladamente. A função de distribuição individualizada

é denominada função de distribuição marginal e é obtida da seguinte forma:

FXk(xk) = limxi!1i6=k

F (x)

em que o limite é aplicado em todas as coordenadas, exceto k.

Se as variáveis do vetor aleatório são discretas, temos um vetor aleatório discreto

e de�nimos sua função de probabilidade conjunta da seguinte forma:

p(x) = p(x1; :::; xn) = P (X1 = x1; :::; Xn = xn).

É imediato veri�car que

p(x) � 0, para todo x 2 Rn eXx

p(x) = 1.

27

Page 33: Apos RJ ProbabilidadeII

A função de probabilidade marginal de uma variável, digamos Xk, é obtida a

partir da conjunta, somando-se os valores possíveis em todas as coordenadas, exceto

em k, isto é,

pXk(xk) = P (Xk = xk) =

nXi=1i6=k

Xxi

p(x)

=

nXi=1i6=k

Xxi

P (X1 = x1; :::; Xn = xn).

Exemplo 18 Duas moedas equilibradas são lançadas de forma independente e de�n-

imos as variáveis aleatórias X e Y da seguinte forma: X = número de caras nos

dois lançamentos e Y = função indicadora de faces iguais nos dois lançamentos.

Obtenha a função de probabilidade conjunta de X e Y e as funções de probabilidade

marginais de X e de Y.

Denominamos vetor aleatório contínuo, o vetor aleatório cujas componentes são

variáveis aleatórias contínuas. Dada a função de distribuição conjunta de um vetor

aleatório, sucessivas derivadas parciais produzem a função de densidade conjunta,

representada por f(x). Então, podemos considerar que um vetor aleatório é contínuo

se existe uma função f : Rn ! R+ tal que

FX(x) =

Z x1

�1:::

Z xn

�1f(y)dy1:::dyn.

Observe que isto é uma generalização do caso univariado, e, como antes, valem

as propriedades

f(x) � 0, para todo x 2 Rn eZ 1

�1:::

Z 1

�1f(x)dx1:::dxn = 1

Além disso, decorre do cálculo que @n

@x1:::@xnFX(x) = f(x).

28

Page 34: Apos RJ ProbabilidadeII

Observação 15 Assim, podemos perceber que

P (X1 2 dx1; :::; Xn 2 dxn) = f(x)dx1:::dxn.

Exemplo 19 Sejam três variáveis aleatórias X, Y e Z com função de densidade

conjunta dada por

f(x; y; z) =

�kxy2z, se 0 < x � 1, 0 < y � 1 e 0 < z �

p2

0, caso contrário

Encontre o valor de k e ache a função de densidade marginal de X.

Exemplo 20 (Função Mista) Considere duas variáveis aleatórias X e Y, sendo X

discreta e Y contínua, com função mista de probabilidade dada por

f(x; y) =

�xyx�1

3, se x = 1; 2; 3 e 0 < y � 1

0, caso contrário

(a) Veri�que que esta função é de fato uma função mista de probabilidade.

(a) Mostre que

F (x; y) =

8>>>>>>>><>>>>>>>>:

0, se x < 1 ou y < 0y3, se 1 � x < 2 e 0 � y < 1y+y2

3, se 2 � x < 3 e 0 � y < 1

y+y2+y3

3, se x � 3 e 0 � y < 1

13, se 1 � x < 2 e y � 123, se 2 � x < 3 e y � 11, se x � 3 e y � 1

2.5.1 Independência

De�nição 23 Sejam X1; X2; :::; Xn, n � 2, variáveis aleatórias de�nidas no mesmo

espaço de probabilidade (;A; P ), de modo queX = (X1; :::; Xn) é um vetor aleatório

em (;A; P ). As variáveis aleatórias X1; X2; :::; Xn são (coletivamente) indepen-

dentes se

P fX1 2 B1; X2 2 B2; :::; Xn 2 Bng =nYi=1

P fXi 2 Big

para todo Bi 2 A, i = 1,2,...,n.

29

Page 35: Apos RJ ProbabilidadeII

Observação 16 (i) (Propriedade de Hereditariedade de Variáveis Aleatórias In-

dependentes) Observe que para toda família de variáveis aleatórias independentes

X1; X2; :::; Xn qualquer subfamília é também formada por variáveis aleatórias inde-

pendentes, pois, por exemplo

P fX1 2 B1; X2 2 B2g = P fX1 2 B1; X2 2 B2; X3 2 R; :::; Xn 2 Rg

= P fX1 2 B1gP fX2 2 B2gP fX3 2 Rg :::P fXn 2 Rg

= P fX1 2 B1gP fX2 2 B2g :1:::1

= P fX1 2 B1gP fX2 2 B2g

(ii) Se as variáveis aleatórias X1; X2; :::; Xn são independentes, então funções de

famílias disjuntas das variáveis são também independentes. Por exemplo:

(a) X1 +X2 +X3 e e�X4 são independentes.

(b) min(X1; X2) e max(X3; X4) são independentes.

(c) X1:X2 e X2 +X3 não são necessariamente independentes!

A proposição a seguir nos fornece o critério para independência de variáveis

aleatórias a partir da função de distribuição conjunta. Trata-se do critério de fa-

toração.

Proposição 5 (a) Se X1; X2; :::; Xn, n � 2, são variáveis aleatórias independentes,

então

FX(x) = FX(x1; :::; xn) =nYi=1

FXi(xi) para todo (x1; :::; xn) 2 Rn.

(b) Reciprocamente, se existem funções F1; F2; :::; Fn tais que limx!1 Fi(x) = 1

para todo i e FX(x1; :::; xn) =nYi=1

Fi(xi) para todo (x1; :::; xn) 2 Rn entãoX1; X2; :::; Xn

são variáveis aleatórias independentes e Fi = FXi para todo i = 1,2,...,n.

Prova. (Em aula)

30

Page 36: Apos RJ ProbabilidadeII

Proposição 6 (Critério para independência no caso contínuo)

(a) Se X1; X2; :::; Xn, n � 2, são variáveis aleatórias independentes e possuem

densidades fX1 ; :::; fXn, então a função

fX(x1; :::; xn) =nYi=1

fXi(xi), (x1; :::; xn) 2 Rn

é densidade conjunta das variáveis aleatórias X1; X2; :::; Xn.

(b) Reciprocamente, se X1; X2; :::; Xn têm densidade conjunta f satisfazendo

fX(x1; :::; xn) =nYi=1

fi(xi) para todo (x1; :::; xn) 2 Rn onde fi(xi) � 0 eR1�1 fi(x)dx =

1 para todo i, então X1; X2; :::; Xn são variáveis aleatórias independentes e fi é a

densidade de Xi para todo i = 1,2,...,n.

Prova. (Em aula)

Proposição 7 (a) Se F (x; y) é a função de distribuição conjunta de X e Y, então

a função de distribuição marginal de X é

FX(x) = limy!1

FX;Y (x; y) = FX;Y (x;+1).

(b) Se f(x; y) é a função de densidade conjunta de X e Y, então a função de

densidade marginal de X é

fX(x) =

Z 1

�1f(x; y)dy.

Prova. (Em aula)

Exercício 34 Enuncie o resultado análogo da proposição anterior para o caso dis-

creto.

Exemplo 21 Dizemos que o vetor aleatório (X; Y ) possui distribuição normal bi-

variada quando tem densidade dada por

f(x; y) =1

2��1�2p1� �2

:

: exp

(� 1

2 (1� �2)

"�x� �1�1

�2� 2�

�x� �1�1

��y � �2�2

�+

�y � �2�2

�2#)

31

Page 37: Apos RJ ProbabilidadeII

onde �1 > 0, �2 > 0, �1 < � < 1, �1 2 R e �2 2 R. Mostre que se � = 0, então X

e Y são independentes e X � N(�1; �21) e Y � N(�2; �22). (Se � 6= 0, então X e Y

não são independentes, pois sua densidade conjunta não é produto das densidades

marginais.

Exemplo 22 Seja G 2 Rn uma região tal que V olG > 0, onde V olG é o volume

n-dimensional de G, de modo que V olG =R:::G

R1dx1:::dxn. Dizemos que X =

(X1; X2; :::; Xn) é uniformemente distribuído em G se X tem densidade

fX(x1; :::; xn) =

�1

V olG, se (x1; :::; xn) 2 G

0, se (x1; :::; xn) =2 G

2.6 Funções de Variáveis Aleatórias

2.6.1 Transformações Mensuráveis

Suponha que a entrada de um sistema é modelado por um vetor aleatório X e nosso

objetivo seja caracterizar a saída do sistema Y = g(X), onde g : Rd ! R depende

das propriedades do sistema. A aplicação

(;F) X�! (Rd;Bd) g�! (R;B)

de (;F) a (R;B) de�ne uma saída (output). Y é uma variável aleatória.

2.6.2 Distribuições de Funções de Variáveis e Vetores Aleatórios

Seja X = (X1; X2; :::; Xn) um vetor aleatório em (;A; P ), e considere o problema

de determinar a distribuição de Y = g(X), com g uma função mensurável. Então,

temos

FY (y) = P fY � yg = P fg(X) � yg

De�nindo By = f(x1; x2; :::; xn) : g(x1; x2; :::; xn) � yg, temos

FY (y) = P fX 2 Byg

= PX fByg

32

Page 38: Apos RJ ProbabilidadeII

ou seja, conhecendo a distribuição conjunta de X1; X2; :::; Xn, podemos obter a dis-

tribuição de qualquer função mensurável de X.

Observação 17 (a) Quando X é discreto, Y é também discreto e o problema torna-

se simples, pois

pY (y) =X

i:g(xi)=y

pX(xi)

(b) Quando X é contínuo, o problema é mais complexo pois Y pode ser discreto

ou contínuo.

Exemplo 23 Se X e Y são independentes, cada uma com distribuição uniforme em

[0,1], mostre que Z = X=Y tem função de distribuição

FZ(z) =

8>><>>:0, se z � 0z

2, se 0 < z < 1

1� 1

2z, se z � 1

e função de densidade

fZ(z) = F0

Z(z) =

8>>><>>>:0, se z � 01

2, se 0 < z < 11

2z2, se z � 1

Proposição 8 (a) Se X e Y têm densidade conjunta f(x; y), então a variável

aleatória Z = X + Y tem densidade dada por

fZ(z) =

Z 1

�1f(z � t; t)dt =

Z 1

�1f(t; z � t)dt.

(b) Se X e Y são independentes com densidades fX e fY então Z = X + Y tem

densidade dada por

fZ(z) =

Z 1

�1fX(z � t)fY (t)dt =

Z 1

�1fX(t)fY (z � t)dt.

Prova. (Em aula.)

33

Page 39: Apos RJ ProbabilidadeII

Observação 18 Se f1 e f2 são densidades de variáveis aleatórias, sua convolução

f1 � f2 é de�nida como

f1 � f2(x) =Z 1

�1f1(x� t)f2(t)dt.

Portanto, pela proposição anterior, se X e Y são independentes e absolutamente

contínuas, fX � fY é a densidade da soma X + Y .

2.6.3 Método do Jacobiano

Sejam G0 � Rn e G � Rn duas regiões abertas e seja g : G0 ! G uma função

bijetora onde

g(x1; :::; xn) = (g1(x1; x2; :::; xn); :::; gn(x1; x2; :::; xn)) = (y1; :::; yn).

Então existe a função inversa h = g�1 en G, onde

x1 = h1(y1; :::; yn); :::; xn = hn(y1; :::; yn).

Suponha também que existam as derivadas parciais

@xi@yj

=@hi(y1; :::; yn)

@yj, 1 � i; j � n,

e que elas sejam contínuas em G. De�nimos o jacobiano J(x;y) pelo determinante

J(x;y) =

�����@xi@yj

����� = det264

@x1@y1

� � � @x1@yn

.... . .

...@xn@y1

� � � @xn@yn

375Pelo cálculo de várias variáveis, sabemos que se o jacobiano for não-nulo para todo

y 2 G, entãoZ:::

ZA

f(x1:::; xn)dx1:::dxn =

Z:::

Zg(A)

f(h1(y1; :::; yn):::; hn(y1; :::; yn)) jJ(x;y)j dy1:::dyn

para qualquer f integrável em A, onde A � G0. Com isso, no contexto de probabil-

idade, temos o seguinte teorema:

34

Page 40: Apos RJ ProbabilidadeII

Teorema 16 Sejam Y1; Y2; :::; Yn variáveis aleatórias transformadas, isto é, Yi =

gi(X1; X2; :::; Xn) para i=1,2,...,n. Então a densidade conjunta de Y1; Y2; :::; Yn é

fY(y1:::; yn) =

�fX(h1(y1; :::; yn):::; hn(y1; :::; yn)) jJ(x;y)j , y 2 G0, y =2 G

onde fX é a função de densidade conjunta de X.

Prova. (Em aula.)

Exemplo 24 Sejam X e Y variáveis aleatórias independentes, cada uma com dis-

tribuição exponencial com parâmetro 1, mostre que Z = X + Y e W =X

Ysão

também independentes com densidades

fZ(z) =

�ze�z, z > 00, z � 0

e

fW (w) =

8<:1

(w + 1)2, w > 0

0, w � 0.

Observação 19 Seja a função g : Rn ! Rk com k < n. Então g não é bijetora.

Então para obtermos a distribuição de Y = g(X), basta:

(a) Completar a transformação g através de variáveis auxiliares convenientes:

Yk+1 = gk+1(X); :::; Yn = gn(X).

(b) Obter a conjunta de Y1; Y2; :::; Yn usando o método do jacobiano fY(y1:::; yn) =

f(h1(y1; :::; yn):::; hn(y1; :::; yn)) jJ(x;y)j.

(c) Obter a marginal conjunta de Y1; Y2; :::; Yk comoR1�1 :::

R1�1 fY(y1:::; yn)dyk+1:::dyn.

Exemplo 25 A função de densidade conjunta de X e Y é dada por

fX;Y (x; y) =1

3(x+ y)1(0;2](x)1(0;1](y).

35

Page 41: Apos RJ ProbabilidadeII

Mostre que a densidade de Z = X + Y é dada por

fZ(z) =

8>>>>>><>>>>>>:

z2

3, 0 � z < 1

z

3, 1 � z < 2z(3� z)3

, 2 � z � 30, caso contrário

Exemplo 26 (Jacobiano sem bijeção) Seja X uma variável contínua com densidade

fX(x) =12e�jxj, �1 < x <1. Mostre que a densidade de Y = X2 é dada por

fY (y) =1

2pye�

py1(0;1)(y).

Exemplo 27 Seja X uma variável contínua com densidade uniforme em [�2; 5].

Encontre a densidade de Y = X2.

Exemplo 28 Seja X uma variável contínua com densidade

fX(x) =

8>>><>>>:1

4x, 0 � x < 21

8, 2 � x � 60, caso contrário

(a) Determine a função de distribuição de Y = min(3; X).

(b) Faça a decomposição de FY nas suas partes discreta, contínua e singular.

2.6.4 Estatísticas de Ordem

Se X1; X2; :::; Xn são variáveis aleatórias i.i.d. com função de distribuição FX , então

os Xi formam uma amostra aleatória de tamanho n, retirada de uma população

com distribuição FX . As Xi ordenadas crescentemente são estatísticas de ordem da

amostra e representamos X(1); X(2); :::; X(n) tais que

X(1)(!) � X(2)(!) � ::: � X(n)(!)

Temos assim os seguintes resultados para as distribuições de estatísticas de ordem

para variáveis aleatórias contínuas.

36

Page 42: Apos RJ ProbabilidadeII

Proposição 9 Se X1; X2; :::; Xn são variáveis aleatórias i.i.d. com função de dis-

tribuição FX e função de densidade fX , então

fX(1);X(2);:::;X(n)(x1:::; xn) = n!fX(x1):::fX(xn) para x1 < x2 < ::: < xn

Prova. (Em aula.)

Proposição 10 Se X1; X2; :::; Xn são variáveis aleatórias i.i.d. com função de dis-

tribuição FX e função de densidade fX , então

fX(k)(x) = n

�n� 1k � 1

�fX(x) [FX(x)]

k�1 [1� FX(x)]n�k para x 2 R

Prova. (Em aula.)

Proposição 11 Se X1; X2; :::; Xn são variáveis aleatórias i.i.d. com função de dis-

tribuição FX e função de densidade fX , então para k < l, temos

fX(k);X(l)(x; y) =

n(n� 1)�n� 2k � 1

��n� k � 1l � k � 1

�fX(x)fX(y) [FX(x)]

k�1 [FX(y)� FX(x)]l�k�1 [1� FX(y)]n�l

para x < y.

Prova. (Em aula.)

Corolário 1 Se X1; X2; :::; Xn são variáveis aleatórias i.i.d. com função de dis-

tribuição FX e função de densidade fX , então a densidade conjunta de U = min1�i�nXi

e V = max1�i�nXi é dada por

fU;V (u; v) =

�n(n� 1) [FX(v)� FX(u)]n�2 fX(u)fX(v), u < v0, caso contrário

Prova. (Em aula.)

37

Page 43: Apos RJ ProbabilidadeII

Capítulo 3

Esperança Matemática

3.1 De�nição

De�nição 24 Seja X uma variável aleatória com função de distribuição FX . A

esperança de X, denotada E(X), é de�nida como

E(X) =

1Z�1

xdFX(x) (3.1)

quando a integral está bem de�nida.

Observação 20 (a) '(x) = x é contínua. A integral (3.1) é de Riemann-Stieltjes.

(b) A esperança está bem de�nida se pelo menos uma das integrais

1Z0

xdFX(x)

ou

0Z�1

xdFX(x) for �nita.

(c) Se ambas as integrais

1Z0

xdFX(x) e

0Z�1

xdFX(x) forem �nitas, dizemos que X

é integrável, ou seja, X é integrável se

E(jXj) =1Z

�1

jxj dFX(x) <1.

(d) SeX é uma variável aleatória discreta tomando valores no conjunto fx1; x2; x3; :::g

e com função de probabilidade p(xi) = P (X = xi), então

E(X) =1Xi=1

xip(xi).

38

Page 44: Apos RJ ProbabilidadeII

(e) Se X é uma variável aleatória contínua com função de densidade de probabilidade

fX(x), então

E(X) =

1Z�1

xfX(x)dx

(f) Se X é tal que sua função de distribuição se decompõe F = Fd + Fac + Fs,

então

E(X) =1Xi=1

xip(xi) +

1Z�1

xfX(x)dx+

1Z�1

xdFs(x).

Exercício 35 Um dado é lançado sucessivamente, até que a face 6 ocorra pela

primeira vez. Seja X a variável que conta o número de lançamentos até a ocorrência

do primeiro 6. Calcule a esperança de X.

Exercício 36 Suponha que X seja uma variável aleatória com f.d.p. dada por

f(x) =

�C(9� x2), � 3 � x � 30, caso contrário

(a) Obtenha o valor de C.

(b) Obtenha a esperança de X.

(c) Ache P (jXj � 1).

3.1.1 Propriedades da Esperança Matemática

1. E(C) = C, onde C é uma constante.

2. Se a � X � b, então a � E(X) � b.

3. E(aX � b) = aE(X)� b.

4. E[X � E(X)] = 0.

5. Se X � Y , então E(X) � E(Y ).

6. SeX é uma variável aleatória tal que 0 � jXj � Y , onde Y é variável aleatória

integrável, então X é integrável.

39

Page 45: Apos RJ ProbabilidadeII

Exercício 37 SejaX uma variável aleatória simétrica em torno de �, isto é, PfX �

� + xg = PfX � � � xg para todo x 2 R. Mostre que se X é integrável, então

E(X) = �.

Observe pelo exercício seguinte, que sem a hipótese de integrabilidade, o resul-

tado não se veri�ca, pois:

Exercício 38 Seja X uma variável aleatória Cauchy com parâmetros M e b, isto

é, a densidade de X é dada por

f(x) =b

�[b2 + (x�M)2]

para todo x 2 R, b > 0 e M 2 R. Mostre que M é ponto de simetria de X, mas

E(X) não existe.

Exercício 39 Sejam X e Y variáveis aleatórias independentes com distribuição

uniforme em [0; 1]. Sejam Z = min(X;Y ) e W = max(X; Y ). Calcule E(Z) e

E(W ).

Proposição 12 (Desigualdade de Jensen) Seja ' uma função convexa de�nida na

reta. Se a variável aleatória X é integrável, então

E['(X)] � '[E(X)].

Prova. (Em aula)

Observação 21 Se ' é uma função côncava, então E['(X)] � '[E(X)]. (Mostre

isso!)

Exemplo 29 Pela desigualdade de Jensen, temos, por exemplo, que

(a) E [jXj] � jE(X)j.

40

Page 46: Apos RJ ProbabilidadeII

(b) E(X2) � E2(X).

(c) E jXjp � (E jXj)p � jEXjp. onde p � 1.

(d) E�1

X

�� 1

EX.

3.2 Esperanças de Funções de Variáveis Aleatórias

De�nição 25 Seja X uma variável aleatória e �(x) uma função real mensurável.

Então a esperança da variável aleatória Y = �(X) é dada por

E(Y ) =

1Z�1

ydF�(X)(y).

A fórmula acima nem sempre é muito fácil de ser usada, pois devemos obter

a distribuição de Y a partir da distribuição da variável X e só então obter E(Y ).

No entanto é possível mostrar pela Teoria da Medida que a esperança da variável

aleatória Y = �(X) é dada por

E�(X) =

1Z�1

ydF�(X)(y) =

1Z�1

�(x)dFX(x)

onde a existência de uma das integrais implica a existência da outra bem como a

igualdade das duas. Ou seja,

E[�(X)] =1Xi=1

�(xi)p(xi) (se X é discreta)

E[�(X)] =

1Z�1

�(x)fX(x)dx (se X é contínua)

3.3 Momentos

De�nição 26 Seja X uma variável aleatória. De�ne-se o k-ésimo momento or-

dinário da variável aleatória X, mk, como

mk = E(Xk) =

1Z�1

xkdFX(x).

41

Page 47: Apos RJ ProbabilidadeII

Assim,

mk =1Xi=1

xkiP (X = xi) se X é v.a.d.

mk =

1Z�1

xkfX(x)dx se X é v.a.c.

De�nição 27 Seja X uma variável aleatória. De�ne-se o k-ésimo momento de

X em torno de b, Mk, como

E[(X � b)k] =1Z

�1

(x� b)kdFX(x).

De�nição 28 Seja X uma variável aleatória. De�ne-se o k-ésimo momento cen-

tral da variável aleatória X, Mk, como

Mk = E[(X � E(X))k].

Assim,

Mk =1Xi=1

[xi � E(X)]kP (X = xi) se X é v.a.d.

Mk =

1Z�1

[x� E(X)]kfX(x)dx se X é v.a.c.

De�nição 29 Seja X uma variável aleatória. De�ne-se a variância da variável

aleatória X, denotada por V ar(X) ou �2X , como

V ar(X) = E[(X � E(X))2].

Observação 22 Observe que V ar(X) = E[(X � E(X))2] = E[X2 � 2XE(X) +

E2(X)] = E[X2]� 2E2(X) + E2(X) = E(X2)� E2(X).

3.3.1 Propriedades da Variância

1. V ar(C) = 0, onde C é uma constante.

2. V ar(aX � b) = a2V ar(X).

42

Page 48: Apos RJ ProbabilidadeII

De�nição 30 De�ne-se o desvio-padrão da variável aleatória X, denotado por

DP (X) ou �X , como

DP (X) =pV ar(X).

Observação 23 Pelas de�nições acima, vemos que

m1 = E(X)

M1 = 0

M2 = V ar(X) = m2 �m21.

Proposição 13 (Desigualdade básica de Markov) Seja X uma variável aleatória

não-negativa e seja � > 0 uma constante. Então

P (X � �) � E(X)

�.

Prova. Em aula.

Proposição 14 (Desigualdade de Markov) Seja X uma variável aleatória qualquer

e seja � > 0 uma constante. Então para todo t > 0,

P (jXj � �) � E jXjt

�t.

Prova. Em aula.

Proposição 15 (Desigualdade Clássica de Tchebychev) SejaX uma variável aleatória

integrável e seja � > 0 uma constante. Então

P (jX � E(X)j � �) � V ar(X)

�2.

Prova. Em aula.

Exercício 40 Suponha que X seja uma variável aleatória tal que P (X � 0) = 1 e

P (X � 10) = 15. Mostre que E(X) � 2.

43

Page 49: Apos RJ ProbabilidadeII

Exercício 41 Suponha que X seja uma variável aleatória tal que E(X) = 10,

P (X � 7) = 0; 2 e P (X � 13) = 0; 3. Prove que V ar(X) � 92.

Proposição 16 Se Z � 0 e EZ = 0, então P fZ = 0g = 1, ou seja, Z = 0 quase

certamente.

Prova. Em aula.

Observação 24 A proposição acima implica que, quando V arX = 0, então X é

constante quase certamente, pois P fX = EXg = 1.

3.4 Esperanças de Funções de Vetores Aleatórios

Teorema 17 Seja X = (X1; X2; :::; Xn) um vetor aleatório em (;A; P ) e � :

Rn! R mensurável a Borel. Então

E�(X) =

1Z�1

ydF�(X)(y) =

1Z�1

:::

1Z�1

�(x)dFX(x)

onde a última integral é uma integral n-dimensional de Stieltjes.

Prova. (Teoria da Medida)

Observação 25 (i) Se X for discreto tomando valores em fx1;x2; :::g temos

E�(X) =1Xi=1

�(xi)pX(xi).

(ii) Se X for contínuo com densidade fX(x) temos

E�(X) =

1Z�1

:::

1Z�1

�(x)fX(x)dx1:::dxn.

(iii) E[�1(X) + :::+ �n(X)] = E[�1(X)] + :::+ E[�n(X)].

44

Page 50: Apos RJ ProbabilidadeII

Proposição 17 Se X1; X2; :::; Xn são variáveis aleatórias independentes e inte-

gráveis, entãonYi=1

Xi é integrável e

E [X1:X2:::Xn] =

nYi=1

E[Xi].

Prova. (Em aula)

O exemplo a seguir nos mostra que a recíproca da proposição anterior não é

sempre verdadeira, isto é, EXY = EX:EY não implica X e Y independentes.

Exemplo 30 Sejam X e Y variáveis aleatórias tomando valores �1; 0; 1 com dis-

tribuição conjunta dada por p(�1;�1) = p(�1; 1) = p(1;�1) = p(1; 1) = p(0; 0) =

15. Então EXY = EX:EY , mas X e Y não são independentes, pois P (X = 0; Y =

0) 6= P (X = 0):P (Y = 0).

De�nição 31 A covariância entre duas variáveis aleatórias X e Y é de�nida como

Cov(X; Y ) = E [(X � EX) (Y � EY )]

= E [XY ]� E [X]E [Y ]

Duas variáveis aleatórias X e Y são ditas não-correlacionadas se Cov(X; Y ) =

0. Segue-se que variáveis aleatórias independentes são não-correlacionadas, mas

a recíproca não é necessariamente verdadeira.

Observação 26 Há certos casos em que não correlação implica em independência.

O caso mais importante é o da Normal: Se X e Y possuem distribuição conjunta nor-

mal bivariada e são não-correlacionadas, então � = 0 e como vimos anteriormente

X e Y são independentes.

Proposição 18 A variância da variável aleatória Y =nPi=1

Xi é dada por

V ar

"nXi=1

Xi

#=

nXi=1

V ar [Xi] + 2Xi<j

Cov(Xi; Xj).

45

Page 51: Apos RJ ProbabilidadeII

Prova. (Em aula)

Corolário 2 Se X1; X2; :::; Xn são variáveis aleatórias não-correlacionadas, então

V ar

"nXi=1

Xi

#=

nXi=1

V ar [Xi] .

Prova. (Em aula)

De�nição 32 Dada uma variável aleatória X, a variável aleatória Z =X � EX�X

é

uma padronização de X (também chamada de redução ou normalização de X).

Observe que EZ = 0 e V arZ = 1.

De�nição 33 Chama-se coe�ciente de correlação entre X e Y, denotado por

�X;Y ou �(X; Y ), a correlação entre as sua variáveis padronizadas, isto é,

�X;Y =Cov(X; Y )

�X :�Y= E

��X � EX�X

��Y � EY�Y

��.

Exercício 42 Mostre que �(X; Y ) = �(aX + b; cY + d) para a > 0 e c > 0.

A proposição seguinte nos informa que �X;Y representa a dependência linear entre

X e Y.

Proposição 19 Sejam X e Y variáveis aleatórias com variâncias �nitas e positivas.

Então:

(i) �1 � �X;Y � 1.

(ii) �X;Y = 1 se e somente se P fY = aX + bg = 1 para algum a > 0 e b 2 R.

(iii) �X;Y = �1 se e somente se P fY = aX + bg = 1 para algum a < 0 e b 2 R.

Prova. (Em aula)

Proposição 20 (Desigualdade de Cauchy-Schwarz) E jXY j �pEX2

pEY 2.

Prova. (Em aula)

46

Page 52: Apos RJ ProbabilidadeII

3.5 A Função Geratriz de Momentos

De�nição 34 Seja X uma variável aleatória. De�ne-se a função geratriz de

momentos de X, mX(t), como

mX(t) = E[etX ], com t 2 R.

Assim,

mX(t) =

1Xi=1

etxiP (X = xi) se X é v.a.d.

mX(t) =

1Z�1

etxfX(x)dx se X é v.a.c.

Propriedades da Função Geratriz de Momentos

1. mX(0) = E[e0] = E[1] = 1.

2. Se X tem função geratriz de momentos mX(t) e se Y = aX + b, então

mY (t) = ebtmX(at).

3. Se X tem função geratriz de momentos mX(t), então

dk

dtkmX(t)

����t=0

= E[Xk].

ou seja

dk

dtkmX(0) = mk (o k-ésimo momento ordinário de X).

4. A função geratriz de momentos de�ne de forma unívoca a distribuição da

variável aleatória, ou seja, dada m(t) existe apenas uma função de distribuição F (x)

que a gera. No entanto, se mX(t) = mY (t), então podemos apenas a�rmar que as

variáveis X e Y têm a mesma distribuição, mas X e Y podem ser diferentes com

probabilidade 1. Para ver isto, suponha que X � N (0; 1) e seja Y = �X. Então

Y � N (0; 1) e, portanto, mX(t) = mY (t), mas P (X = Y ) = P (X = �X) = P (X =

0) = 0, ou seja P (X 6= Y ) = 1.

47

Page 53: Apos RJ ProbabilidadeII

De�nição 35 Seja X�= (X1; X2; :::; Xn) um vetor aleatório. De�ne-se a função

geratriz de momentos de X�, mX

�(t1; :::; tn), como

mX�(t1; :::; tn) = E[exp ft1X1 + :::+ tnXng], com (t1; :::; tn) 2 Rn.

Observação 27 (i) mX�(0; :::; 0) = E[e0] = E[1] = 1.

(ii) Se X�tem função geratriz de momentos mX

�(t1; :::; tn), então

@k1+k2+:::+kn

@tk11 @tk22 :::@t

knn

mX�(t1; t2; :::; tn)

����t=0

= E[Xk11 X

k22 :::X

knn ].

Exercício 43 Seja X a variável aleatória que conta o número de lançamentos de

uma moeda honesta até que ocorra a primeira cara. Ache a função geratriz de

momentos de X e use-a para calcular E(X) e V ar(X).

Exercício 44 Seja X uma variável aleatória contínua com função de densidade de

probabilidade dada por

fX(x) =

( 1

5e�

x5 , se x � 0

0, caso contrário

Ache a função geratriz de momentos de X e use-a para calcular E(X) e V ar(X).

Exercício 45 Suponha que X seja uma variável aleatória com função geratriz de

momentos dada por

mX(t) = et2+3t, �1 < t <1.

Ache a esperança e a variância de X.

Exercício 46 Seja Y uma variável aleatória contínua com função de densidade de

probabilidade dada por

fY (y) =

�ye�y, se y > 00, caso contrário

Ache a função geratriz de momentos de Y e use-a para calcular E(Y ) e V ar(Y ).

48

Page 54: Apos RJ ProbabilidadeII

Teorema 18 Sejam X1; X2; :::; Xn v.a.�s independentes e para i = 1; 2; :::; n, seja

mXi(t) a função geratriz de momentos de Xi. Seja Y = X1 +X2 + ::: +Xn, então

para todo valor de t tal que mXi(t) existe para i = 1; 2; :::; n, temos

mY (t) =nYi=1

mXi(t).

Prova. (Em aula.)

Exercício 47 Suponha que X e Y sejam independentes e identicamente distribuídas

e que a f.g.m. de cada uma seja dada por

mX(t) = mY (t) =e3t

1 + 2t, para t > �1=2.

Ache a f.g.m. da variável aleatória Z = 3X � Y + 4.

Exemplo 31 Suponha um experimento realizado uma única vez tendo probabilidade

p de sucesso e q = 1 � p de fracasso. Denote a variável aleatória X = 0 se fra-

casso ocorre e X = 1 se sucesso ocorre. Então a variável aleatória X é dita ter

distribuição de Bernoulli com parâmetro p, representado por X � Ber(p), e sua

função de probabilidade é dada por

P (X = x) = px(1� p)1�x, x = 0; 1.

Assim se X � Ber(p), então

mX(t) = pet + q,

E(X) = p,

V ar(X) = pq.

Exemplo 32 Sejam n ensaios independentes de Bernoulli, cada um tendo a mesma

probabilidade p de sucesso e q = 1� p de fracasso. Seja X a variável aleatória que

49

Page 55: Apos RJ ProbabilidadeII

conta o número de sucessos nas n realizações. A variável aleatória X é dita ter

distribuição Binomial com parâmetros n e p, denotado por X � B(n; p), e sua

função de probabilidade é dada por

P (X = x) =

�nx

�pxqn�x, x = 0; 1; 2; 3; :::; n.

(a) Se X � B(n; p), então

mX(t) = (pet + q)n,

E(X) = np,

V ar(X) = npq.

(b) Se Xi � Ber(p), para i = 1; 2; :::; n, independentes, então X = X1 + X2 +

:::+Xn � B(n; p).

(c) Se Xi � B(ni; p), para i = 1; 2; :::; k, independentes, então X = X1 + X2 +

:::+Xk � B(Pk

i=1 ni; p).

Exemplo 33 Sejam ensaios sucessivos e independentes de Bernoulli, cada um tendo

a mesma probabilidade p de sucesso e q = 1 � p de fracasso. Seja X a variável

aleatória que conta o número de realizações até que o primeiro sucesso ocorra. A

variável aleatória X é dita ter distribuição Geométrica com parâmetro p, deno-

tado por X � Geo(p), e sua função de probabilidade é dada por

P (X = x) = qx�1p, x = 1; 2; 3; 4; :::

Assim, se X � Geo(p), então

mX(t) =pet

1� qet , para t < � ln q

E(X) =1

p,

V ar(X) =q

p2.

50

Page 56: Apos RJ ProbabilidadeII

Exercício 48 As cinco primeiras repetições de um experimento custam R$ 10; 00

cada. Todas as repetições subseqüentes custam R$ 5; 00 cada. Suponha que o experi-

mento seja repetido até que o primeiro sucesso ocorra. Se a probabilidade de sucesso

de uma repetição é igual a 0; 9, e se as repetições são independentes, qual é custo

esperado da operação?

Exemplo 34 Sejam ensaios sucessivos e independentes de Bernoulli, cada um tendo

a mesma probabilidade p de sucesso e q = 1 � p de fracasso. Seja X a variável

aleatória que conta o número de realizações até que o r-ésimo sucesso ocorra. A

variável aleatória X é dita ter distribuição Binomial Negativa com parâmetros

r e p, denotado por X � BN(r; p), e sua função de probabilidade é dada por

P (X = x) =

�x� 1r � 1

�prqx�r, x = r; r + 1; r + 2; r + 3; :::.

Para entender o resultado acima, observe que se Xi � Geo(p), para i = 1; 2; :::; r,

independentes então X = X1 +X2 + :::+Xr � BN(r; p).

Assim, se X � BN(r; p), então

mX(t) =

�pet

1� qet

�r, para t < � ln q

E(X) =r

p,

V ar(X) =rq

p2.

Exercício 49 Deseja-se colocar três satélites em órbitas em torno da terra. Em

cada tentativa, a probabilidade de um bem sucedido lançamento de satélite é de 0; 8.

Suponha que tentativas de lançamento sejam feitas até que os três satélites entrem

em órbita.

(a) Qual é a probabilidade de que exatamente 5 tentativas sejam necessárias?

(b) Qual o número esperado de lançamentos até que isso ocorra?

51

Page 57: Apos RJ ProbabilidadeII

Exemplo 35 Seja X uma variável aleatória de�nida em f0; 1; 2; 3; :::g tendo função

de probabilidade dada por

P (X = x) =e���x

x!, para x = 0; 1; 2; 3; ::: e � > 0.

Então X é dita ter distribuição de Poisson de parâmetro �, X � P(�).

(a) Se X � P(�), então

mX(t) = e�(et�1),

E(X) = �,

V ar(X) = �.

(b) Se Xi � P(�i), para i = 1; 2; :::; n, independentes, então X = X1+X2+ :::+

Xn � P(Pn

i=1 �i).

(c) Quando temos agora um processo fXtgt�0 que conta o número de ocorrências

no intervalo [0; t], então dizemos que Xt é um processo de Poisson se sua distribuição

em [0; t] é P(�t), ou seja,

P (Xt = x) =e��t (�t)x

x!, para x = 0; 1; 2; 3; ::: e � > 0.

Exercício 50 O número de petroleiros que chegam a uma re�naria em cada dia

ocorre a uma taxa média de 2. As atuais instalações podem atender, no máximo, a

três petroleiros por dia. Se mais de três aportarem num dia, o excesso é enviado a

outro porto.

(a) Em um dia, qual a probabilidade de se enviar petroleiros para outro porto?

(b) De quanto deverão ser aumentadas as instalações para permitir atender a

todos os navios que chegarem pelo menos em 95% dos dias?

Exemplo 36 Diz-se que a variável aleatória X tem distribuição uniforme no inter-

valo [a; b], denotado por X � U [a; b] se sua função de densidade de probabilidade é

52

Page 58: Apos RJ ProbabilidadeII

dada por

fX(x) =

( 1

b� a , se a � x � b0, caso contrário.

Assim, se X � U [a; b], então

mX(t) =ebt � eatt(b� a) .

Exemplo 37 Diz-se que a variável aleatória X tem distribuição exponencial com

parâmetro �, denotado por X � Exp(�), se a função de densidade de probabilidade

de X é dada por

fX(x) =

��e��x, x � 00, caso contrário

(a) Assim se X � Exp(�) então

mX(t) =�

�� t , para t < �

E(X) =1

V ar(x) =1

�2

(b) Se Xt é um processo de Poisson com parâmetro �t e T é a variável aleatória

representando o tempo de espera entre as ocorrências do processo Xt, então T �

Exp(�).

Exercício 51 Suponha que a vida útil de certo tipo de lâmpada tenha distribuição

exponencial com parâmetro � = 3, quando a vida é expressa em dias. Uma lâmpada

solitária é ligada em uma sala no instante t=0. Um dia depois, você entra na sala

e �ca ali durante 8 horas, saindo no �nal desse período.

(a) Qual a probabilidade de que você entre na sala quando já está escura?

(b) Qual a probabilidade de você entrar na sala com a lâmpada ainda acesa e sair

depois de a lâmpada queimar?

53

Page 59: Apos RJ ProbabilidadeII

Exemplo 38 Diz-se que X � Gama(�; �), se sua f.d.p. é dada por

f(x) =��

�(�)x��1 exp [��x] para x > 0,

onde �(�) =R10x��1e�xdx, lembrando que �(�) = (�� 1)�(�� 1) de modo que se

n 2 N, então �(n) = (n� 1)!. Além disso, temos �(12) =

p�.

(a) Assim, se X � Gama(�; �), então

mX(t) =

��

� � t

��, para t < �

E(X) =�

V ar(x) =�

�2

(b) Se Xi � Gama(�i; �), para i = 1; 2; :::; n, independentes, então X = X1 +

X2 + :::+Xn � Gama(Pn

i=1 �i; �).

(c) Se Xi � Exp(�), para i = 1; 2; :::; n, independentes, então X = X1 + X2 +

:::+Xn � Gama(n; �).

Exemplo 39 Diz-se que a variável aleatória X tem distribuição Qui-Quadrado com

n graus de liberdade (X � �2n) se X � Gama(n2; 12).

(a) Assim, se X � �2n, então

mX(t) =

�1

1� 2t

�n2

, para t <1

2

E(X) = n

V ar(x) = 2n

(b) Se Xi � �21, para i = 1; 2; :::; n, independentes, então X = X1+X2+:::+Xn �

�2n.

(c) Se X+Y = Z, com X e Y independentes com X � �2n1 e Z � �2n1+n2, então

Y � �2n2.

54

Page 60: Apos RJ ProbabilidadeII

Exemplo 40 Diz-se que a variável aleatória Z tem distribuição normal (ou Gaus-

siana) padrão com média zero e variância 1, denotado por Z � N (0; 1), se a função

de densidade de probabilidade de Z é dada por

fZ(z) =1p2�e�

z2

2 , �1 < z <1

(a) Assim, se Z � N (0; 1), então

mZ(t) = et2

2

E(Z) = 0

V ar(Z) = 1

(b) Se Z � N (0; 1), então Y = Z2 � �21.

(c) Se Zi � N (0; 1), para i = 1; 2; :::; n, independentes, então Y = Z21 + Z22 +

:::+ Z2n � �2n.

Exemplo 41 Diz-se que a variável aleatória X tem distribuição normal (ou Gaus-

siana) com média � e variância �2, denotado por X � N (�; �2), se a função de

densidade de probabilidade de X é dada por

fX(x) =1

�p2�e�

(x��)2

2�2 , �1 < x <1

(a) Se X � N (�; �2), então Z = X � ��

� N (0; 1).

(b) Assim, se X � N (�; �2), então

mX(t) = e�t+12�2t2

E(X) = �

V ar(X) = �2.

(c) Se Xi � N (�i; �2i ), para i = 1; 2; :::; n, independentes, então X = X1 +X2 +

:::+Xn � N (Pn

i=1 �i;Pn

i=1 �2i ).

55

Page 61: Apos RJ ProbabilidadeII

(d) Se Xi � N (�; �2), para i = 1; 2; :::; n, independentes, então X = X1 +X2 +

:::+Xn � N (n�; n�2).

(e) SeXi � N (�; �2), para i = 1; 2; :::; n, independentes, então �Xn =X1+X2+:::+Xn

n�

N (�; �2

n).

(f) Se Xi � N (�i; �2i ), para i = 1; 2; :::; n, independentes, então X = a1X1 +

a2X2 + :::+ anXn + b � N (Pn

i=1 ai�i + b;Pn

i=1 a2i�2i ).

(g) Se Xi � N (�; �2), para i = 1; 2; :::; n, independentes, então(n� 1)S2

�2�

�2n�1, onde S2 =

Pni=1

�Xi � �Xn

�2n� 1 (a variância amostral). Observe também que

E (S2) = �2, daí a correção da variância amostral para a divisão dos desvios-

quadráticos por n� 1 ao invés de n.

Exemplo 42 A distribuição dos comprimentos dos elos da corrente de bicicleta é

normal, com média 2 cm e variância 0; 01 cm2. Para que uma corrente se ajuste à

bicicleta, deve ter comprimento total entre 58 e 61 cm. Qual é a probabilidade de

uma corrente com 30 elos não se ajustar à bicicleta?

Exercício 52 As durações de gravidez têm distribuição normal com média de 268

dias e desvio-padrão de 15 dias.

(a) Selecionada aleatoriamente uma mulher grávida, determine a probabilidade

de que a duração de sua gravidez seja inferior a 260 dias.

(b) Se 25 mulheres escolhidas aleatoriamente são submetidas a uma dieta es-

pecial a partir do dia em que engravidam, determine a probabilidade de os prazos

de duração de suas gravidezes terem média inferior a 260 dias (admitindo-se que a

dieta não produza efeito).

(c) Se as 25 mulheres têm realmente média inferior a 260 dias, há razão de

preocupação para os médicos de pré-natal? Justi�que adequadamente.

56

Page 62: Apos RJ ProbabilidadeII

Exercício 53 O peso de uma determinada fruta é uma variável aleatória com dis-

tribuição normal com média de 200 gramas e desvio-padrão de 50 gramas. Determine

a probabilidade de um lote contendo 100 unidades dessa fruta pesar mais que 21 kg.

Exercício 54 Um elevador pode suportar uma carga de 10 pessoas ou um peso total

de 1750 libras. Assumindo que apenas homens tomam o elevador e que seus pesos

são normalmente distribuídos com média 165 libras e desvio-padrão de 10 libras,

qual a probabilidade de que o peso limite seja excedido para um grupo de 10 homens

escolhidos aleatoriamente?

Exemplo 43 Um vetor X = (X1; X2; :::; Xn)T é dito ter distribuição normal multi-

variada com média ��= (�1; �2; :::; �n)

T2Rn e matriz de covariância � = [�ij] onde

�ij = Cov(Xi; Xj) com � matriz simétrica n � n positiva de�nida e não-singular,

se a função de densidade de X é dada por

fX(x) =1

(2�)n2 j�j

12

exp

(�12

�x��

�T��1

�x��

�), para x 2Rn.

(a) Se X � N (��;�), então

mX(t) = exp

���

T t+1

2tT�t

�.

(b) Quando n = 2, então X = (X1; X2)T é dito ter distribuição normal bivariada

e sua densidade é dada por

fX(x1; x2)

=1

2��1�2p1� �2

:

: exp

(� 1

2 (1� �2)

"�x1 � �1�1

�2� 2�

�x1 � �1�1

��x2 � �2�2

�+

�x2 � �2�2

�2#)onde �21 = V ar(X1) > 0, �22 = V ar(X2) > 0, �1 < � < 1 com � = �(X1; X2) o

coe�ciente de correlação entre X1 e X2, �1 = E(X1) 2 R e �2 = E(X2) 2 R. Assim

mX(t1; t2) = E�et1X1+t2X2

�= exp

(�1t1 + �2t2+

1

2

2Xi=1

2Xj=1

titj�ij

)

57

Page 63: Apos RJ ProbabilidadeII

onde � = [�ij] onde �ij = Cov(Xi; Xj).

(b.1) A f.g.m de X1 é dada por

mX1(t1) = mX(t1; 0)

= exp

��1t1+

1

2t21�11

�= exp

��1t1+

1

2t21�

21

�Logo a marginal de X1 é normal com média �1 e variância �

21.

(b.2) A f.g.m de X2 é dada por

mX2(t2) = mX(0; t2)

= exp

��2t2+

1

2t22�22

�= exp

��2t2+

1

2t22�

22

�Logo a marginal de X2 é normal com média �2 e variância �

22.

Exemplo 44 Diz-se que a variável aleatória X tem distribuição Beta com parâmet-

ros � e � (� > 0 e � > 0), denotado por X � Beta(�; �),se a função de densidade

de probabilidade de X é dada por

fX(x) =

8<:�(�+ �)

�(�)�(�)x��1(1� x)��1, 0 < x < 1

0, c.c.

(a) Assim,R 10x��1(1� x)��1dx = �(�)�(�)

�(�+ �).

(b) Se X � Beta(�; �), então

E(X) =�

�+ �

V ar(X) =��

(�+ �)2 (�+ � + 1).

(A função geratriz de momentos não é útil nesse caso.)

(c) Se X � Beta(1; 1), então X � U (0; 1).

58

Page 64: Apos RJ ProbabilidadeII

Exemplo 45 Diz-se que a variável aleatória X tem distribuição t-Student com n

graus de liberdade, denotado por X � tn � Student,se a função de densidade de

probabilidade de X é dada por

fX(x) =�(n+1

2)

(n�)1=2 �(n2)(1 +

x2

n)�(n+1)=2, para x 2 R

(a) Se X � t1 � Student, então X é dita ter distribuição de Cauchy-Padrão.

Assim se X � Cauchy � Padr~ao, então

fX(x) =1

�(1 + x2), para x 2 R

Observação: Já vimos que se X � Cauchy�Padr~ao, então X não possui média.

Logo não existe esperança matemática para a distribuição t-Student com 1 grau de

liberdade.

(b) Se Z � N (0; 1) e W � �2n são variáveis aleatórias independentes, então

X =Z�W

n

�1=2 � tn � Student.(c) Se X � tn � Student, com n > 1, então E

hjXjk

i< 1 para k < n e

EhjXjk

i= 1 para k � n. Em outras palavras, os primeiros n � 1 momentos

existem, mas os momentos de ordem superior a n � 1 não existem. Com isso, X

não possui função geratriz de momentos. Além disso, para n > 1,

E [X] = 0

V ar [X] =n

n� 2 .

(d) Se Xi � N (�; �2), para i = 1; 2; :::; n, independentes, então vimos que �Xn �

N (�; �2

n) e

(n� 1)S2�2

� �2n�1, onde �Xn =X1+X2+:::+Xn

ne S2 =

Pni=1

�Xi � �Xn

�2n� 1 .

Pode-se mostrar que �Xn e S2 são independentes. Com isso, tendo em mente que

�Xn � ��pn

� N (0; 1) e (n� 1)S2

�2� �2n�1

59

Page 65: Apos RJ ProbabilidadeII

temos

T =

�Xn���pn0B@ (n� 1)S

2

�2

n� 1

1CA1=2=�Xn � ��pn

:�

S=�Xn � �Spn

Assim

T =�Xn � �Spn

� tn�1 � Student.

Exercício 55 Seja X1; X2; :::; Xn uma amostra aleatória retirada de uma população

com distribuição normal com média � e variância �2. Então:

(a) Se � é desconhecida e �2 é conhecida, o intervalo de con�ança para a média

populacional com 1� � de probabilidade (� é dito o nível de con�ança) é dado por

P

��Xn �

�pnz�=2 � � � �Xn +

�pnz�=2

�= 1� �.

onde z�=2 é o valor encontrado na tabela da normal padrão tal que 1��=2 = P (Z �

z�=2).

(b) Se � é desconhecida e �2 é desconhecida, o intervalo de con�ança para a

média populacional com 1 � � de probabilidade (� é dito o nível de con�ança) é

dado por

P

��Xn �

Spntn�1;�=2 � � � �Xn +

Spntn�1;�=2

�= 1� �.

onde tn�1;�=2 é o valor encontrado na tabela da t-Student com n�1 graus de liberdade

tal que 1� �=2 = P (T � tn�1;�=2).

(c) O intervalo de con�ança para �2 é dado por

P

(n� 1)S2�2n�1;1��=2

� �2 � (n� 1)S2�2n�1;�=2

!= 1� �.

onde �2n�1;�=2 é o valor encontrado na tabela da Qui-Quadrado com n � 1 graus de

liberdade tal que �=2 = P (� � �2n�1;�=2).

60

Page 66: Apos RJ ProbabilidadeII

Exempli�cação do resultado acima: Suponha que o peso de um determi-

nado produto produzido por uma fábrica tenha distribuição normal com média � e

variância �2 ambas desconhecidas. Uma amostra aleatória de tamanho 10 dessa

produção é retirada tendo sido obtidos os seguintes resultados:P10

i=1 xi = 159 eP10i=1 x

2i = 2531. Assim, temos

�xn = 15; 9 e s = 0; 57.

Desejamos construir um intervalo de con�ança para � e �2 com 95% de con�abili-

dade. Então para � temos

P

��x10 �

Sp10t9;0;25 � � � �x10 +

Sp10t9;0;975

�= 0; 95

P

�15; 9� 0; 57p

10(2; 262) � � � 15; 9 + 0; 57p

10(2; 262)

�= 0; 95

Assim:

P (15; 49 � � � 16; 31) = 0; 95.

Agora para �2 temos

P

�9s2

�29;0;975� �2 � 9s2

�29;0;025

�= 0; 95

Os valores tabelados são: �29;0;975 = 19; 0 e �29;0;025 = 2; 7. Com isso

P

9 (0; 57)2

19� �2 � 9 (0; 57)2

2; 7

!= 0; 95

ou seja

P�0; 15 � �2 � 1; 07

�= 0; 95.

Exemplo 46 Diz-se que a variável aleatória X tem distribuição F-Snedecor com

m e n graus de liberdade, denotado por X � F (m;n), se a função de densidade de

probabilidade de X é dada por

fX(x) =

8<:��12(m+ n)

��(m

2)�(n

2)mm=2nn=2

x(m=2)�1

(mx+ n)(m+n)=2, para x > 0

0, c.c.

61

Page 67: Apos RJ ProbabilidadeII

(a) Se U � �2m e V � �2n são variáveis independentes, então

X =U=m

V=n� F (m;n).

Com isso m é o grau de liberdade do numerador e n o do denominador.

(b) Se X � F (m;n), então Y = 1

X� F (n;m).

(c) Se X � tn � Student, então Y = X2 � F (1; n). (Basta ter em mente que

X =Z�W

n

�1=2 onde Z � N (0; 1) e W � �2n independentes e que X2 =

Z2

1

W

n

com

Z2 � �21 e W � �2n também independentes.)

(d) Se X � F (m;n), então

E [X] =n

n� 2 , se n > 2.

V ar [X] =2n2(m+ n� 2)m(n� 2)2(n� 4) , se n > 4.

(e) Se X1; X2; :::; Xn1 uma amostra aleatória retirada de uma população com dis-

tribuição normal com média �1 e variância �21 ambas desconhecidas e se Y1; Y2; :::; Yn2

uma amostra aleatória retirada de uma outra população com distribuição normal com

média �2 e variância �22 também ambas desconhecidas, e se as duas amostras são

independentes então

(n1 � 1)S21�21

� �2n1�1 e(n2 � 1)S22

�22� �2n2�1

onde S21 =

Pn1i=1

�Xi � �Xn1

�2n1 � 1

e S22 =

Pn2i=1

�Yi � �Yn2

�2n2 � 1

independentes. Assim

(n1 � 1)S21�21n1�1

(n2 � 1)S22�22n2�1

=S21S22:�22�21� F (n1 � 1; n2 � 1)

Exercício 56 Se X1; X2; :::; Xn1 uma amostra aleatória retirada de uma população

com distribuição normal com média �1 e variância �21 ambas desconhecidas e se

62

Page 68: Apos RJ ProbabilidadeII

Y1; Y2; :::; Yn2 uma amostra aleatória retirada de uma outra população com distribuição

normal com média �2 e variância �22 também ambas desconhecidas, e se as duas

amostras são independentes então o intervalo de con�ança para a razão�22�21entre as

variâncias populacionais com 1� � de probabilidade é dada por

P

�S22S21F(n1�1;n2�1);�=2 �

�22�21� S22S21F(n1�1;n2�1);1��=2

�= 1� �.

Exempli�cação do resultado acima: Suponha que tenhamos retirado duas

amostras de duas populações onde n1 = 5,P5

i=1 (xi � �x5)2 = 8; 24, n2 = 3,P3

i=1 (yi � �y5)2 = 3; 42, Assim S21 =

8;244= 2; 06 e S22 =

3;422= 1; 71. Os valores

tabelados ao nível de signi�cância de 10% (� = 0; 1) é dado por

F(4;2);0;95 = 19; 25, F(4;2);0;05 =1

F(2;4);0;95=

1

6; 94= 0; 1441

tendo em mente que

F(n1�1;n2�1);�=2 =1

F(n2�1;n1�1);1��=2.

Assim

P

�1; 71

2; 06(0; 1441) � �22

�21� 1; 71

2; 06(19; 25)

�= 0; 90

P

�0; 1196 � �22

�21� 15; 98

�= 0; 90.

Como 1 pertence ao intervalo de con�ança para a razão entre as variâncias, não há

evidência de que as populações tenham variâncias diferentes com 90% de con�abili-

dade.

3.6 Lista

Questão 1) Sejam X e Y variáveis aleatórias independentes com densidade Gama

de parâmetros (�; �) e (�; �), respectivamente. Mostre que:

63

Page 69: Apos RJ ProbabilidadeII

(a) W = XX+Y

tem densidade Beta de parâmetros (�; �).

(b) T = X + Y tem densidade Gama de parâmetros (�+ �; �).

(c) W e T são independentes.

Questão 2) Sendo X � N(0; 1) e Y � �2n independentes, mostre que T =XqYn

tem distribuição t-Student com n graus de liberdade.

Questão 3) Sendo X � �2m e Y � �2n independentes.

(a) Mostre que W =(X=m)

(Y=n)tem distribuição F-Snedecor com (m;n) graus

de liberdade.

(b) Ache a distribuição de 1W.

(c) Mostre que V =mnW

1+mnWtem distribuição Beta.

Questão 4) Considere X1; X2; :::; Xn variáveis aleatórias independentes com

densidade Exp(�i), i = 1; 2; :::; n. Mostre que PfXk = min(X1; X2; :::; Xn)g =

�kPni=1 �i

.

Questão 5) Certo supermercado tem duas entradas, A e B. Fregueses entram

pela entrada A conforme um processo de Poisson com taxa média de 15 fregueses

por minuto. Pela entrada B, entram fregueses conforme outro processo de Poisson,

independente do primeiro, a uma taxa média de 10 por minuto.

(a) Seja Xt o número total de fregueses que entram no supermercado até o

instante t (inclusive), para t � 0. Obtenha a distribuição de Xt.

(b) Seja T1 o tempo em que o primeiro freguês entra pela entrada A e V1

o tempo em que o primeiro freguês entra pela entrada B. Ache a distribuição de

min (T1; V1), o mínimo dos dois tempos.

(c) Determine a probabilidade de que o primeiro freguês a entrar no mercado

entre pela entrada A.

64

Page 70: Apos RJ ProbabilidadeII

Capítulo 4

Distribuição e EsperançaCondicionais

Seja X uma variável aleatória em um espaço de probabilidade (;A; P ), e seja A

um evento aleatório tal que P (A) > 0. De�nimos a distribuição condicional de X

dado o evento A por

P (X 2 B j A) = P ([X 2 B] \ A)P (A)

para B 2 B, a �-álgebra dos borelianos da reta. Os axiomas abaixo se veri�cam

Axioma 1) P (X 2 B j A) � 0.

Axioma 2) P (X 2 R j A) = 1.

Axioma 3) Se B1; B2; ::: são borelianos disjuntos dois a dois, então P (X 21[i=1

Bi j A) =1Xi=1

P (X 2 Bi j A).

A função de distribuição associada à distribuição condicional é chamada função

de distribuição condicional de X dado A:

FX(x j A) = P (X � x j A) = P ([X � x] \ A)P (A)

, x 2 R.

A esperança condicional de X dado A é a esperança da distribuição condicional

65

Page 71: Apos RJ ProbabilidadeII

de�nida por

E(X j A) =

Z 1

�1xdFX(x j A)

=E [X:1A]

E [1A]

=1

P (A)E [X:1A] ,

se esta esperança existe.

Observe, pelo Teorema da Probabilidade Total, que

P (X 2 B) =Xn

P (An)P (X 2 B j An), para todo B 2 B.

FX(x) =Xn

P (An)P (X � x j An)

=Xn

P (An)FX(x j An), para todo x 2 R.

E [X] =

Z 1

�1xdFX(x) =

Z 1

�1xd

"Xn

P (An)FX(x j An)#

=Xn

P (An)

�Z 1

�1xdFX(x j An)

�=Xn

P (An)E(X j An).

Exemplo 47 Seja X � U [�1; 1] e sejam A1 = [X � 0] e A2 = [X < 0]. Pede-se

(a) A distribuição condicional de X dado A1.

(b) A distribuição condicional de X dado A2.

(c) E(X j An) para n = 1; 2.

Exemplo 48 Seja X uma variável aleatória exponencial com parâmetro �. Encon-

tre E [X j X > 2].

Se X e Y são v.a.�s discretas, a função de probabilidade condicional de X dado

Y = y é de�nida para todo y tal que P (Y = y) > 0 como

P fX = xjY = yg = P fX = x; Y = ygP fY = yg .

66

Page 72: Apos RJ ProbabilidadeII

A função de distribuição condicional de X dado Y = y é de�nida como

F (xjy) = P fX � xjY = yg

e a esperança condicional de X dado Y = y como

E [XjY = y] =1Z

�1

xdF (xjy) =Xx

xP fX = xjY = yg .

Se X e Y têm função de densidade conjunta fX;Y (x; y), a função de densidade

condicional de X dado Y = y é de�nida para todo y tal que fY (y) > 0 como

f(xjy) = fX;Y (x; y)

fY (y)

e a função de distribuição condicional de X dado Y = y é de�nida como

F (xjy) = P fX � xjY = yg =xZ

�1

f(tjy)dt:

A esperança condicional de X dado Y = y é de�nida, neste caso, como

E [XjY = y] =1Z

�1

xdF (xjy) =1Z

�1

xf(xjy)dx.

Observação 28 Qualquer que seja a natureza das variáveis aleatórias X e Y , temos

portanto

E [XjY = y] =1Z

�1

xdF (xjy) .

Proposição 21 Os seguintes resultados envolvendo esperanças condicionais se ver-

i�cam:

(a) E [X] =1R�1

E (XjY = y) dFY (y).

(b) P (X 2 B) =1R�1

P (X 2 B j Y = y)dFY (y), para todo B 2 B.

(c) FX(x) =1R�1

FX (xjY = y) dFY (y).

Prova. (Em aula.)

67

Page 73: Apos RJ ProbabilidadeII

Observação 29 Para qualquer função � mensurável, de�nimos

E [�(X)jY = y] =1Z

�1

�(x)dFX (xjy) :

Exemplo 49 Sejam X e Y com densidade conjunta

fX;Y (x; y) =

�6xy(2� x� y), 0 < x < 1 e 0 < y < 10, caso contrário

Calcule E [XjY ] e E [X].

Exemplo 50 Sejam X e Y com densidade conjunta

fX;Y (x; y) =

�12ye�xy, 0 < x <1 e 0 < y < 20, caso contrário

Calcule E�eX=2jY

�e E

�eX=2jY = 1

�.

Proposição 22 E [XjY ] é uma função da variável aleatória Y (e portanto ela

própria uma v.a.) que assume o valor E [XjY = y] para Y = y. A esperança condi-

cional tem as seguintes propriedades:

(1) E [�(X)] = E fE [�(X)jY ]g.

(2) E�nPi=1

�i�(Xi)jY = y�=

nPi=1

�iE [�(Xi)jY = y] onde �i 2 R para todo i.

(3) Se � � 0 então E [�(X)jY ] � 0.

(4) E [g(X;Y )jY = y] = E [g(X; y)jY = y].

(5) E [�(X)jY = y] = E [�(X)] se X e Y são independentes.

(6) E [g(X)h(Y )jY = y] = h(y)E [g(X)jY = y].

(7) E [g(X)h(Y )] = E fh(Y )E [g(X)jY ]g.

(8) E [�jY = y] = � onde � 2 R.

(9) E [�(Y )jY = y] = �(y).

(10) E [XjY ] = E fE [XjW;Y ] jY g.

(11) Se X1 � X2, então E [X1jY ] � E [X2jY ].

68

Page 74: Apos RJ ProbabilidadeII

(12) (Desigualdade de Jensen) Seja � uma função convexa. Então E [�(X)jY ] �

� fE [XjY ]g.

Prova. (Em aula.)

De�nição 36 De�nimos V ar [XjY ] = E�[X � E(XjY )]2 jY

.

Proposição 23 (a) V ar [XjY ] = E [X2jY ]� [E(XjY )]2.

(b) V ar [X] = E fV ar [XjY ]g+ V ar fE(XjY )g.

Prova. (Em aula.)

Exemplo 51 Seja X � U [0; 1]. Se X = x, então uma moeda com probabilidade x

de sair cara é lançada n vezes independentemente. Seja Y a v.a. que representa o

número de caras obtidas. Encontre a distribuição de Y , a esperança de Y , e mostre

que E(Y ) = E [E(Y jX)].

Exemplo 52 Seja X v.a.d. tomando valores 1; 2; 3; ... com probabilidades respecti-

vas p1; p2; p3; ::: Se X = n, um número Y real não-negativo é selecionado de acordo

com uma função de densidade de probabilidade fn(y). Pede-se

(a) A densidade de Y .

(b) Calcule P (1 � X + Y � 3).

Exemplo 53 Considere partículas que chegam a um contador segundo um processo

de Poisson com parâmetro � > 0. Seja Xt o número de partículas que chegam até o

tempo t > 0 e seja T1 o tempo de chegada da primeira partícula. Dado que chegou

exatamente uma partícula até t, qual a distribuição do seu tempo de chegada? Qual

a esperança condicional do tempo de chegada da primeira partícula, dado que chegou

exatamente uma partícula até t?

69

Page 75: Apos RJ ProbabilidadeII

Exemplo 54 Seja o vetor aleatório (X; Y ) com distribuição normal bivariada, isto

é, sua densidade conjunta é dada por

f(x; y) =1

2��1�2p1� �2

:

: exp

(� 1

2 (1� �2)

"�x� �1�1

�2� 2�

�x� �1�1

��y � �2�2

�+

�y � �2�2

�2#)

onde �1 > 0, �2 > 0, �1 < � < 1, �1 2 R e �2 2 R. Vimos que X � N(�1; �21) e

Y � N(�2; �22). Mostre que XjY = y � N(�1 + ��1�2 (y � �2); �21 (1� �2)) e portanto

E [XjY = y] = �1 + ��1�2(y � �2) e V ar(XjY = y) = �21 (1� �2). Mostre também

que Cov(X; Y ) = ��1�2 e portanto � é o cor�ciente de correlação entre X e Y .

Exemplo 55 Sejam X e Y v.a.�s independentes tais que X � U [0; 2] e Y �

U [�1; 1].

(a) Calcule E [XjX + Y � 2].

(b) Calcule E [XjX + Y ].

(c) Calcule E [XjX + Y = 2].

Exemplo 56 Seja X1; X2; :::.uma seqüência de variáveis aleatórias independentes e

identicamente distribuídas e seja N uma variável aleatória inteira e não-negativa in-

dependente da seqüênciaX1; X2; :::. Seja Y =NPi=1

Xi. Mostre que E [Y ] = E [N ]E [X]

e V ar [Y ] = E [N ]V ar [X] + E2 [X]V ar [N ].

Exemplo 57 Sejam Y1; Y2; :::; Yn v.a. �s não-negativas i.i.d. Mostre que

E [Y1 + Y2 + :::+ YkjY1 + Y2 + :::+ Yn = y] =k

ny, k = 1; 2; :::; n:

Exemplo 58 Um número não-negativo X é escolhido com densidade fX(x) = xe�x

para x > 0. Se X = x, um número Y é escolhido no intervalo [0; x]. Ache

P (X + Y � 2).

70

Page 76: Apos RJ ProbabilidadeII

Capítulo 5

Convergência de VariáveisAleatórias

5.1 Tipos de Convergência

Considere um experimento com a variável aleatória X representando um caracterís-

tico numérico. Repita n vezes independentemente (n grande).

A Lei dos Grandes Números estabelece que a média das n observações é aproxi-

madamente igual a EX, quando n é grande.

Mas de que maneira X1+X2+:::+Xnn

! EX quando n!1?

Por exemplo, seja o experimento de lançar uma moeda honesta sucessiva e in-

dependentemente n vezes e seja Sn o número de caras obtidas nos n lançamentos.

Então

Xn(!) =

�1, se ! = Ca0, se ! = Co

P (Xn = 1) =1

2= P (Xn = 0)

Sn = X1 +X2 + :::+Xn

Como Xi � Ber(12), temos E(Xi) =

12. E a Lei dos Grandes Números estabelece

que

Snn! 1

2.

71

Page 77: Apos RJ ProbabilidadeII

Mas em que sentido? Há vários tipos de convergência em Teoria das Probabilidades.

Vejamos as principais:

Sejam X e fXngn�1 variáveis aleatórias de�nidas num mesmo espaço de proba-

bilidade (;A; P ).

De�nição 37 Xn converge para X em probabilidade, se para todo " > 0

P fjXn �Xj � "g ! 0, quando n!1.

Notação: XnP! X.

Exemplo 59 Sejam X1; X2; ::: v.a.�s independentes, tais que P (Xn = 1) =1

ne

P (Xn = 0) = 1�1

n. Mostre que Yn

P! 0.

Exemplo 60 Sejam X1; X2; ::: v.a.�s independentes, identicamente distribuídas com

distribuição Exp(1). De�na

Yn =Xn

lnn

para n > 1. Mostre que YnP! 0.

De�nição 38 Xn converge para X quase certamente, se

P fXn ! X, quando n!1g = 1,

ou seja, o evento A0 = f! : Xn(!)! X(!)g é de probabilidade 1.

Notação: Xnq:c:! X.

Observação 30 Observe que a convergência quase certa é uma convergência pon-

tual num conjunto de medida 1, ou seja, Xn(!)! X(!) para quase todo !, exceto

aqueles dentro de um conjunto de medida nula. Por outro lado convergência em

probabilidade não diz respeito à convergência pontual, ela apenas a�rma que para

valores grandes de n as variáveis Xn e X são aproximadamente iguais com proba-

bilidade bem alta.

72

Page 78: Apos RJ ProbabilidadeII

Exemplo 61 Seja = [0; 1]. Um ponto é selecionado aleatoriamente do intervalo

[0; 1] e seja a sequência de variáveis aleatórias dada por

Xn(!) = ! + !n.

Mostre que Xnq:c:! X com X � U [0; 1]. Observe também que Xn(1)

q:c:9 X(1). Mas

P f! 2 : Xn(!)9 X(!), quando n!1g = 0.

De�nição 39 Xn converge para X em Lp, se

limn!1

E fjXn �Xjpg = 0.

Quando p = 2, a convergência é dita em média quadrática.

Notação: XnLp! X.

Exemplo 62 Sejam X1; X2; ::: v.a.�s independentes, tais que P (Xn = 1) =1

ne

P (Xn = 0) = 1�1

n. Mostre que Yn

Lp! 0, para todo p.

De�nição 40 Sejam fXn;n � 1g e X variáveis aleatórias com funções de dis-

tribuição fFn;n � 1g e F , respectivamente. Diremos que Xn converge em dis-

tribuição (ou em lei) para X, se para todo ponto x em que F é contínua, tivermos

limn!1

Fn(x) = F (x).

Notação: XnD! X.

Exemplo 63 Seja fXn;n � 1g uma seqüência de v.a. independentes com dis-

tribuição uniforme em (0; b), b > 0. De�na Yn = max(X1; X2; :::; Xn) e Y = b.

Então veri�que que YnD! Y .

Exemplo 64 Seja Xn =1npara n � 1 e X = 0. Mostre que Xn

D! X, embora

limn!1 Fn(0) = 0 6= 1 = F (0). Mas como 0 não é ponto de continuidade de F , isto

não é problema.

73

Page 79: Apos RJ ProbabilidadeII

Observação 31 Pode-se mostrar que

Xnq:c:! X =) Xn

P! X =) XnD! X;

mas a recíproca não é verdadeira.

Observação 32 Pode-se mostrar que se

XnLp! X =) Xn

P! X =) XnD! X;

mas a recíproca não é verdadeira.

Observação 33 Não há qualquer relação de implicação entre convergência quase

certa e convengência em Lp.

Exercício 57 Considere o espaço de probabilidade ([0; 1] ;B [0; 1] ; �) onde � é a me-

dida de Lebesgue em [0; 1] (medida uniforme). Sejam X1; X2; ::: variáveis aleatórias

de�nidas como

Xn (!) = n2:1[0; 1

n) (!) , ! 2 [0; 1] .

(a) Veri�car se Xnq:c:! X para alguma v.a. X.

Exemplo 65 (b) Veri�car se Xnp! X para alguma v.a. X.

(c) Veri�car se XnD! X para alguma v.a. X.

(d) Veri�car se XnL1! X para alguma v.a. X.

5.2 Leis dos Grandes Números

SejamX1; X2; ::: v.a.�s integráveis em (;A; P ) e S1; S2; ::: suas somas parciais dadas

por

Sn = X1 +X2 + :::+Xn.

74

Page 80: Apos RJ ProbabilidadeII

De�nição 41 X1; X2; ::: satisfazem a Lei Fraca dos Grandes Números se para todo

" > 0 temos

P

�����Sn � ESnn

���� � "�! 0, quando n!1,

ou seja, se

Sn � ESnn

P! 0.

De�nição 42 X1; X2; ::: satisfazem a Lei Forte dos Grandes Números se para todo

" > 0 temos

P

�limn!1

Sn � ESnn

= 0

�= 1,

ou seja, se

Sn � ESnn

q:c:! 0.

Teorema 19 (Lei Fraca de Tchebychev) SejamX1; X2; ::: v.a.�s não-correlacionadas

dois a dois com variâncias �nitas e uniformemente limitadas (isto é, existe c �nito,

tal que para todo n V arXn < c). Então X1; X2; ::: satisfazem a Lei Fraca dos

Grandes Números:

Sn � ESnn

P! 0.

Prova. (Em aula)

Corolário 3 (Lei dos Grandes Números de Bernoulli, publicada em Ars Conjectandi,

1713) Considere uma seqüência de ensaios binomiais independentes tendo a mesma

probabilidade p de sucesso em cada ensaio. Se Sn é o número de sucessos nos

primeiros n ensaios, então

Snn

P! p.

Prova. (Em aula)

75

Page 81: Apos RJ ProbabilidadeII

Teorema 20 (Lei Fraca de Khintchin) Sejam X1; X2; ::: v.a.�s independentes, iden-

ticamente distribuídas e integráveis, com média �. Então X1; X2; ::: satisfazem a Lei

Fraca dos Grandes Números:

Snn

P! �.

Prova. (Em aula)

Exemplo 66 Sejam X1; X2; ::: v.a.�s independentes, identicamente distribuídas com

distribuição de Poisson com parâmetro �. Qual o limite em probabilidade da seqüên-

cia (Yn)n�1, onde

Yn =X21 +X

22 + :::+X

2n

n?

Teorema 21 (Primeira Lei Forte de Kolmogorov) Sejam X1; X2; ::: v.a.�s indepen-

dentes e integráveis, e suponha que

1Xn=1

V arXn

n2<1.

Então X1; X2; ::: satisfazem a Lei Forte dos Grandes Números:

Snn� ESn

n

q:c:! 0.

Prova. (Omitida, pois demanda resultados avançados de Teoria das Probabili-

dades.)

Exemplo 67 Seja 0 < � < 12. Prove que se X1; X2; ::: são v.a.�s independentes, tais

que P�Xn = n

��=1

2= P

�Xn = �n�

�, então

X1 +X2 + :::+Xn

n

q:c:! 0.

Teorema 22 (Lei Forte de Kolmogorov) SejamX1; X2; ::: v.a.�s independentes, iden-

ticamente distribuídas e integráveis, com EXn = �. Então X1; X2; ::: satisfazem a

Lei Forte dos Grandes Números:

Snn

q:c:! �.

76

Page 82: Apos RJ ProbabilidadeII

Prova. (Em aula)

Exemplo 68 Sejam X1; X2; ::: v.a.�s independentes, identicamente distribuídas com

EX1 = 1 = V arX1. Mostre que

nPi=1

Xirn

nPi=1

X2i

q:c:! 1p2.

5.3 Teorema Central do Limite

Teorema 23 (Teorema Central do Limite para v.a.s i.i.d.) Seja fXn;n � 1g uma

seqüência de v.a.�s i.i.d., com média comum � e variância comum �2, onde 0 <

�2 <1. Seja Sn = X1 +X2 + :::+Xn. Então

Sn � ESnpV arSn

D! N (0; 1),

isto é,

Sn � n��pn

D! N (0; 1).

Prova. (Em aula.)

Exemplo 69 Fregueses chegam em certo supermercado segundo um processo de

Poisson com intensidade média de 10 por minuto. Sejam T1; T2; ::: os tempos entre

chegadas de fregueses, de modo que T1 + T2 + T3 + :::+ Tn é o tempo de chegada no

n-ésimo freguês.

(a) Utilizando o Teorema Central do Limite, ache um número entre 0 e 1 que

seja aproximadamente igual à probabilidade do milésimo freguês chegar depois de

100 minutos.

(b) Como você calcularia o valor exato da probabilidade no item (a)?

77

Page 83: Apos RJ ProbabilidadeII

Observação 34 Se X1; X2; :::; Xn é uma seqüência de variáveis aleatórias indepen-

dentes de Bernoulli com parâmetro p, então sabemos que Sn = X1+X2+ :::+Xn �

B(n; p). Assim, pelo Teorema Central do Limite, para n su�cientemente grande Sn

pode ser aproximada por uma distribuição Normal, já que

Sn � nppnpq

� N (0; 1).

Ou de outra forma

Sn � N (np; npq).

Exemplo 70 Um par de dados honestos é lançado 180 vezes por hora (aproximada-

mente).

(a) Qual a probabilidade aproximada de que 25 ou mais lançamentos tenham tido

soma 7 na primeira hora?

(b) Qual a probabilidade aproximada de que entre 700 e 750 lançamentos tenham

tido soma 7 durante 24 horas?

78