10
Resumos de Probabilidades e Estat ´ ıstica Jo˜ ao Brazuna 2. No¸ c˜oesB´ asicas de Probabilidade 2.1. Axiom´ atica de Kolmogorov Sendo F uma σalgebra de Ω, define-se medida de probabilidade como P : F→ [0, 1] tal que: 1. P (A) 0, A ∈F ; 2. P (Ω) = 1; 3. Se A B = ent˜ao P (A B)= P (A)+ P (B). 2.2. Propriedades P ( A)=1 - P (A) P ()=0 0 P (A) 1, A ∈F P (A B)= P (A)+ P (B) - P (A B) P ( A B)= P ( A B) P ( A B)= P ( A B) Se A B ent˜ao P (A) P (B) 2.3. Probabilidade Condicionada P (A|B)= P (A B) P (B) denota a probabilidade de A ocorrer, sabendo que B ocorreu. Garante- se assim que P (A|A)= P (A A) P (A) = P (A) P (A) =1. 2.4. Independˆ encia Estoc´ astica Os acontecimentos A e B dizem-se independentes se e s´ o se P (A B)= P (A)P (B) o que se denota por A ⊥⊥ B e equivalente a P (A|B)= P (A). 2.5. Lei das Probabilidades Totais 2.5.1. Caso Simples P (A)= P (A B)+ P (A B)= = P (A|B)P (B)+ P (A| B)P ( B) 2.5.2. Caso Geral Se {Bi } n i=1 for uma parti¸ ao de Ω, isto ´ e, n [ i=1 Bi =Ωe Bi Bj = , i 6= j ent˜ao P (A)= n X i=1 P (A|Bi )P (Bi ) . 2.6. Lei das Probabilidades Compostas 2.6.1. Casos Simples P (A B)= P (A)P (B|A) P (A B C)= P (A)P (B|A)P (C|A B) Desenvolvendo as f´ ormulas da probabilidade condicionada, os denomi- nadores cortam. 2.6.2. Caso Geral P (A1 ∩···∩ An)= P (A1)P (A2|A1) ··· P (An|A1 ∩···∩ An-1) 2.7. Teorema de Bayes Consiste na dupla aplica¸c˜ ao da f´ ormula da probabilidade condicionada, permitindo obter P (A|B) a partir de P (B|A). P (A|B)= P (B|A)P (A) P (B)

Resumos de Probabilidades e Estat stica€¦ · Resumos de Probabilidades e Estat stica Jo~ao Brazuna 2.No˘c~oes B asicas de Probabilidade 2.1.Axiom atica de Kolmogorov Sendo Fuma

  • Upload
    others

  • View
    1

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Resumos de Probabilidades e Estat stica€¦ · Resumos de Probabilidades e Estat stica Jo~ao Brazuna 2.No˘c~oes B asicas de Probabilidade 2.1.Axiom atica de Kolmogorov Sendo Fuma

Resumos de Probabilidades e Estatıstica

Joao Brazuna

2. Nocoes Basicas de Probabilidade

2.1. Axiomatica de Kolmogorov

Sendo F uma σ-algebra de Ω, define-se medida de probabilidade comoP : F → [0, 1] tal que:

1. P (A) ≥ 0, ∀A ∈ F ;

2. P (Ω) = 1;

3. Se A ∩B = ∅ entao P (A ∪B) = P (A) + P (B).

2.2. Propriedades

• P (A) = 1− P (A)

• P (∅) = 0

• 0 ≤ P (A) ≤ 1, ∀A ∈ F• P (A ∪B) = P (A) + P (B)− P (A ∩B)

• P (A ∪B) = P (A ∩B)

• P (A ∩B) = P (A ∪B)

• Se A ⊆ B entao P (A) ≤ P (B)

2.3. Probabilidade Condicionada

P (A|B) =P (A ∩B)

P (B)

denota a probabilidade de A ocorrer, sabendo que B ocorreu. Garante-se assim que

P (A|A) =P (A ∩A)

P (A)=P (A)

P (A)= 1.

2.4. Independencia Estocastica

Os acontecimentos A e B dizem-se independentes se e so se

P (A ∩B) = P (A)P (B)

o que se denota por A⊥⊥ B e e equivalente a

P (A|B) = P (A).

2.5. Lei das Probabilidades Totais

2.5.1. Caso Simples

P (A) = P (A ∩B) + P (A ∩B) =

= P (A|B)P (B) + P (A|B)P (B)

2.5.2. Caso Geral

Se Bini=1 for uma particao de Ω, isto e,

n⋃i=1

Bi = Ω e

Bi ∩Bj = ∅, ∀i 6= j entao

P (A) =

n∑i=1

P (A|Bi)P (Bi) .

2.6. Lei das Probabilidades Compostas

2.6.1. Casos Simples

P (A ∩B) = P (A)P (B|A)

P (A ∩B ∩ C) = P (A)P (B|A)P (C|A ∩B)

Desenvolvendo as formulas da probabilidade condicionada, os denomi-nadores cortam.

2.6.2. Caso Geral

P (A1 ∩ · · · ∩An) = P (A1)P (A2|A1) · · ·P (An|A1 ∩ · · · ∩An−1)

2.7. Teorema de Bayes

Consiste na dupla aplicacao da formula da probabilidade condicionada,permitindo obter P (A|B) a partir de P (B|A).

P (A|B) =P (B|A)P (A)

P (B)

Page 2: Resumos de Probabilidades e Estat stica€¦ · Resumos de Probabilidades e Estat stica Jo~ao Brazuna 2.No˘c~oes B asicas de Probabilidade 2.1.Axiom atica de Kolmogorov Sendo Fuma

3. Variaveis Aleatorias e Distribuicoes Discretas

3.1. Funcao (Massa) de Probabilidade

fX(x) = P (X = x)

3.2. Funcao de Distribuicao

FX(x) = P (X ≤ x) =

x∑k=−∞

P (X = k)

3.3. Valor Esperado

E(X) =

+∞∑x=−∞

xP (X = x)

• E[g(X)] =∑+∞x=−∞ g(x)P (X = x)

• E(X2)

=

+∞∑x=−∞

x2 P (X = x)

• E(aX) = aE(x), ∀a ∈ R;

• E(X + Y ) = E(X) + E(Y );

• Se X⊥⊥ Y entao E(XY ) = E(X)E(Y ).

3.4. Variancia

V ar(X) = E(X2)− E2(X)

• V ar(aX) = a2V ar(X), ∀a ∈ R;

• V ar(X + Y ) = V ar(X) + V ar(Y ) + 2Cov(X,Y );

• Se X⊥⊥ Y entao V ar(X + Y ) = V ar(X) + V ar(Y ).

3.5. Moda e Quantis

mo = arg maxx

P (X = x)

χp :

P (X ≤ χp) ≥ pP (X ≥ χp) ≥ 1− p

me = χ 12

:

P (X ≤ me) ≥ 1

2

P (X ≥ me) ≥ 12

3.6. Distribuicao Uniforme Discreta

Todos os casos possıveis tem igual probabilidade.

X ∼ Unif(1, ..., n)⇔ P (X = x) =

1n, se x ∈ 1, ..., n

0, caso contrario

E(X) =n+ 1

2e V ar(x) =

n2 − 1

12

3.7. Distribuicao de Bernoulli

Ha apenas dois casos possıveis: sucesso (1) ou insucesso (0).

X ∼ Bern(p)⇔ P (X = x) =

p, se x = 1

1− p, se x = 0

0, caso contrario

E(X) = p e V ar(X) = p(1− p)3.8. Distribuicao Binomial

1. Ha n repeticoes de uma prova de Bernoulli;

2. A probabilidade de sucesso em cada prova e constante igual a p(extraccoes com reposicao);

3. As provas sao independentes umas das outras.

A variavel aleatoria X que conta o numero de sucessos obtidosnas n repeticoes de uma prova de Bernoulli e tal que

X ∼ Bin(n, p)⇔ P (X = x) =

(nx

)px(1− p)n−x, se x ∈ 0, 1, ..., n

0, caso contrario.

E(X) = np e V ar(X) = np(1− p)

3.9. Distribuicao Geometrica

1. Ha repeticoes de uma prova de Bernoulli;

2. A probabilidade de sucesso em cada prova e constante igual a p;

3. As provas sao independentes umas das outras.

A variavel aleatoria X que conta o numero de provas de Bernoulli rea-lizadas ate se obter o 1o sucesso e tal que

X ∼ Geom(p)⇔ P (X = x) =

p(1− p)x−1, se x ∈ N0, caso contrario

.

E(X) =1

pe V ar(X) =

(1− p)p2

3.10. Distribuicao Hipergeometrica

1. Sao realizadas n provas de Bernoulli num universo com N ele-mentos, N dos quais sao sucessos;

2. A probabilidade de sucesso em cada prova nao e constante (ex-traccoes sem reposicao);

3. As provas nao sao independentes umas das outras.

A variavel aleatoria X que conta o numero de sucessos obtidosnas n provas de Bernoulli e tal que

X ∼ Hipergeom(N,M,n)⇔

P (X = x) =

(Mx )(N−M

n−x )(Nn)

, se x ∈

max 0, n−N +M , ...,min n,M

0, caso contrario.

E(X) = nM

Ne V ar(X) = n

M

N

N −MN

N − nN − 1

Se n << 0.1N , podemos aproxima-la pela distribuicao binomial. Aprobabilidade de sucesso p e entao a razao entre o numero de sucessose a dimensao do universo.

Xa∼ Bin

(n, p =

M

N

)

3.11. Distribuicao de Poisson

Modela eventos de chegada de servicos (como autocarros a uma pa-ragem, cliques num anuncio na Internet,...) a uma taxa constante λdurante um determinado intervalo de tempo.

X ∼ Poi(λ)⇔ P (X = x) =

e−λλx

x!, se x ∈ N0

0, caso contrario

E(X) = V ar(X) = λ

Caso o perıodo de tempo mude, a taxa λ tambem deve ser alterada namesma proporcao (se numa hora se espera 3 clientes, em duas horasesperam-se 6). Pode ser util considerar a famılia de variaveis aleatorias

X(t) ∼ Poi(λt).

Page 3: Resumos de Probabilidades e Estat stica€¦ · Resumos de Probabilidades e Estat stica Jo~ao Brazuna 2.No˘c~oes B asicas de Probabilidade 2.1.Axiom atica de Kolmogorov Sendo Fuma

4. Variaveis Aleatorias e Distribuicoes Contınuas

4.1. Funcao (Massa) de Probabilidade

P (X = x) = 0, ∀x ∈ R

4.2. Funcao Densidade de Probabilidade

fX(x) = F ′X(x)

satisfazendo fX(x) ≥ 0, ∀x ∈ R e

∫ +∞

−∞fX(x) = 1.

fX(x) da um valor aproximado da probabilidade de ocorrencia de va-lores proximos de x.

4.3. Funcao de Distribuicao

FX(x) = P (X ≤ x) =

∫ x

−∞fX(t) dt

4.4. Valor Esperado

E(X) =

∫ +∞

−∞x fX(x) dx

• E[g(X)] =∫ +∞−∞ g(x)fX(x) dx

• E(X2)

=∫ +∞−∞ x2 fX(x) dx

4.5. Distribuicao Uniforme Contınua

X ∼ Unif([a, b])⇔ fX(x) =

1b−a , se x ∈ [a, b]

0, caso contrario

E(X) =a+ b

2e V ar(x) =

(b− a)2

12

4.6. Distribuicao Exponencial

Modela tempos de vida ou de espera.

X ∼ Exp(λ)⇔ fX(x) =

λ e−λx, se x ≥ 0

0, se x < 0

E(X) =1

λe V ar(X) =

1

λ2

Se N ∼ Poi(λ) der o numero de ocorrencias num determinado inter-valo de tempo entao X ∼ Exp(λ) da o tempo de espera entre duasocorrencias consecutivas.

4.7. Distribuicao Normal

X ∼ N(µ, σ2

)⇔ fX(x) =

1√2πσ2

e− (x−µ)2

2σ2

E(X) = µ e V ar(X) = σ2

Z =X − µσ

∼ N(0, 1), ϕ(z) = fZ(z) =1√2πe−

z2

2 , Φ(z) = FZ(z)

5. Distribuicoes Conjuntas de Probabilidades e Complementos

5.1. Vectores Aleatorios Discretos

5.1.1. Funcao de Probabilidade Conjunta

f(X,Y )(x, y) = P (X = x, Y = y)

5.1.2. Funcao de Distribuicao Conjunta

F(X,Y )(x, y) = P (X ≤ x, Y ≤ y) =

x∑i=−∞

y∑j=−∞

P (X = i, Y = j)

5.1.3. Funcoes de Probabilidade Marginais

Obtem-se somando na variavel irrelevante.

P (X = x) =

+∞∑y=−∞

P (X = x, Y = y)

P (Y = y) =

+∞∑x=−∞

P (X = x, Y = y)

Tendo as funcoes de probabilidade marginais, as funcoes de distribuicaomarginais obtem-se somando como no caso univariado.

5.1.4. Esperanca, Independencia e Correlacao

E(XY ) =

+∞∑x=−∞

+∞∑y=−∞

xy P (X = x, Y = y)

X⊥⊥ Y ⇔ P (X = x, Y = y) = P (X = x)P (Y = y), ∀(x, y) ∈ R2

Cov(X,Y ) = E(XY )− E(X)E(Y )

Cov(aX, bY ) = abCov(X,Y )

Cov(X,X) = V ar(X)

Corr(X,Y ) =Cov(X,Y )√V ar(X)V ar(Y )

∈ [−1, 1]

X⊥⊥ Y ⇒ Cov(X,Y ) = 0, mas Cov(X,Y ) = 0 6⇒ X⊥⊥ Y5.1.5. Funcoes de Probabilidade Marginais

• Funcao de Probabilidade Marginal de X condicional a Y = y:

P (X = x|Y = y) =P (X = x, Y = y)

P (Y = y)

• Funcao de Probabilidade Marginal de Y condicional a X = x:

P (Y = y|X = x) =P (X = x, Y = y)

P (X = x)

5.1.6. Funcoes de Distribuicao Marginais Condicionais

• Funcao de Distribuicao Marginal de X condicional a Y = y:

P (X ≤ x|Y = y) =

x∑i=−∞

P (X = i|Y = y)

• Funcao de Distribuicao Marginal de Y condicional a X = x:

P (Y ≤ y|X = x) =x∑

j=−∞

P (Y = j|X = x)

5.1.7. Valor Esperado e Variancia Condicionais

E(X|Y = y) =

+∞∑x=−∞

xP (X = x|Y = y) V ar(X|Y = y) = E(X2|Y = y

)− E2(X|Y = y)

E(Y |X = x) =

+∞∑y=−∞

y P (Y = y|X = x) V ar(Y |X = x) = E(Y 2|X = x

)− E2(Y |X = x)

E(X|Y ) e uma nova variavel aleatoria com o mesmo suporte de Y .

Page 4: Resumos de Probabilidades e Estat stica€¦ · Resumos de Probabilidades e Estat stica Jo~ao Brazuna 2.No˘c~oes B asicas de Probabilidade 2.1.Axiom atica de Kolmogorov Sendo Fuma

5.2. Vectores Aleatorios Contınuos

5.2.1. Funcao Densidade de Probabilidade Conjunta

f(X,Y )(x, y)

5.2.2. Funcao de Distribuicao Conjunta

F(X,Y )(x, y) =

∫ x

−∞

∫ y

−∞f(X,Y )(u, v) du dv

5.2.3. Funcoes Densidade de Probabilidade Marginais

Obtem-se integrando na variavel irrelevante.

fX(x) =

∫ +∞

−∞f(X,Y )(x, y) dy

fY (y) =

∫ +∞

−∞f(X,Y )(x, y) dx

Tendo as funcoes densidade de probabilidade marginais, as funcoes dedistribuicao marginais obtem-se integrando como no caso univariado.

5.2.4. Esperanca, Independencia e Correlacao

E(XY ) =

∫ +∞

−∞

∫ +∞

−∞xy f(X,Y )(x, y) dx dy

X⊥⊥ Y ⇔ f(X,Y )(x, y) = fX(x)fY (y), ∀(x, y) ∈ R2

Cov(X,Y ) = E(XY )− E(X)E(Y )

Cov(aX, bY ) = abCov(X,Y )

Cov(X,X) = V ar(X)

Corr(X,Y ) =Cov(X,Y )√V ar(X)V ar(Y )

∈ [−1, 1]

X⊥⊥ Y ⇒ Cov(X,Y ) = 0, mas Cov(X,Y ) = 0 6⇒ X⊥⊥ Y

X ∼ N(µ1, σ

21

)⊥⊥Y ∼ N

(µ2, σ

22

)⇔ X⊥⊥ Y

5.2.5. Funcoes Densidade de Probabilidade Marginais

• Funcao Densidade de Probabilidade Marginal de X condicionala Y = y:

fX|Y=y(x) =f(X,Y )(x, y)

fY (y)

• Funcao Densidade de Probabilidade Marginal de Y condicionala X = x:

fY |X=x(y) =f(X,Y )(x, y)

fX(x)

5.2.6. Funcoes de Distribuicao Marginais Condicionais

• Funcao de Distribuicao Marginal de X condicional a Y = y:

FX|Y=y(x) =

∫ x

−∞fX|Y=y(u) du

• Funcao de Distribuicao Marginal de Y condicional a X = x:

FY |X=x(y) =

∫ y

−∞fY |X=x(v) dv

5.2.7. Valor Esperado e Variancia Condicionais

E(X|Y = y) =

∫ +∞

−∞x fX|Y=y(x) dx

E(Y |X = x) =

∫ +∞

−∞y fY |X=x(y) dy

V ar(X|Y = y) = E(X2|Y = y

)− E2(X|Y = y)

V ar(Y |X = x) = E(Y 2|X = x

)− E2(Y |X = x)

E(X|Y ) e uma nova variavel aleatoria com o mesmo suporte de Y .

5.3. Desigualdade de Chebyshev

Seja X uma variavel aleatoria, com E(X) = µ e V ar(X) = σ2. Entao, P (|X − µ| ≥ cσ) ≤ 1

c2.

5.4. Teorema do Limite Central

5.4.1. Para Somas de Variaveis Aleatorias

Seja Sn =

n∑i=1

Xi. Se:

1. X1, ..., Xn forem variaveis aleatorias independentes e

identicamente distribuıdas (i.i.d.) a X;

2. E(Sn) = E

n∑i=1

Xi

=n∑i=1

E(Xi) =i.d.

nE(X) < +∞;

3. V ar(Sn) = V ar

n∑i=1

Xi

=indep.

n∑i=1

V ar(Xi) =i.d.

nV ar(X) < +∞,

entaoSn − E(Sn)√V ar(Sn)

a∼ N(0, 1).

5.4.2. Para Medias de Variaveis Aleatorias

Seja X =1

n

n∑i=1

Xi. Se:

1. X1, ..., Xn forem variaveis aleatorias independentes e

identicamente distribuıdas (i.i.d.) a X;

2. E(X) = E

1

n

n∑i=1

Xi

=1

nE

n∑i=1

Xi

=1

n

n∑i=1

E(Xi) =i.d.

=1

n× nE(X) = E(X) < +∞

3. V ar(X) = V ar

1

n

n∑i=1

Xi

=1

n2V ar

n∑i=1

Xi

=indep.

=1

n2

n∑i=1

V ar(Xi) =i.d.

1

n2× nV ar(X) =

V ar(X)

n< +∞

entaoX − E(X)√V ar(X)

a∼ N(0, 1).

Page 5: Resumos de Probabilidades e Estat stica€¦ · Resumos de Probabilidades e Estat stica Jo~ao Brazuna 2.No˘c~oes B asicas de Probabilidade 2.1.Axiom atica de Kolmogorov Sendo Fuma

6. Estimacao PontualUma amostra aleatoria de X e um conjunto de variaveis aleatorias independentes e identicamente distribuıdas (i.i.d.) a X.

Uma estatıstica e uma qualquer funcao da amostra aleatoria.Um estimador e uma funcao da amostra aleatoria que toma valores no mesmo espaco parametrico (por exemplo, um estimador da variancia

deve ter suporte em R+0 ).

6.1. Erro Quadratico Medio e Eficiencia

Seja T um estimador do parametro θ. O seu erro quadratico medio e

EQMθ(T ) = E[(T − θ)2

]= V ar(T ) + [ E(T )− θ︸ ︷︷ ︸

enviesamento

]2

Um estimador e mais eficiente se o seu erro quadratico medio for menor.Se o enviesamento for nulo, isto e, se E(T ) = θ, o estimador diz-secentrado.

6.2. Comparacao da Eficiencia de Estimadores

Sejam T1 e T2 estimadores de θ. A eficiencia relativa de T1 com respeitoa T2 na estimacao de θ e

eθ(T1, T2) =EQMθ(T2)

EQMθ(T1).

Se eθ(T1, T2) > 1 entao o numerador e maior, logo T1 e mais eficienteque T2.Se eθ(T1, T2) < 1 entao o denominador e maior, logo T2 e mais eficienteque T1.

6.3. Estimacao por Maxima Verosimilhanca

Seja X = (X1, ..., Xn) amostra aleatoria de X, x = (x1, ..., xn) respectiva amostra observada e θ um parametro.

6.3.1. Calculo da Estimativa de Maxima Verosimilhanca

Para se encontrar a estimativa de maxima verosimilhanca de θ bastapercorrer os seguintes passos:

1. Funcao de Verosimilhanca:

L(θ|x) = f(X1,...,Xn)(x1, ..., xn|θ) =i.i.d.

n∏i=1

fX(xi|θ)

2. Funcao de Log-verosimilhanca:

logL(θ|x) = log

n∏i=1

fX(xi|θ) =

n∑i=1

log fX(xi|θ)

3. Maximizacao:

(a) Derivar a funcao de log-verosimilhanca em ordem a θ e en-contrar o seu zero θ:

θ = arg maxθ

logL(θ|x), ou seja, e solucao de∂ logL(θ|x)

∂θ= 0

(b) Confirmar, que o valor encontrado e um maximo, isto e, ve-rificar que a segunda derivada avaliada no ponto encontradoe negativa:

∂2 logL(θ|x)

∂θ2

∣∣∣∣θ=θ

< 0

Entao, θ e a estimativa de maxima verosimilhanca de θ. Para se obtero estimador basta escrever a amostra aleatoria no lugar da amostraobservada.

6.3.2. Propriedades dos Estimadores de Maxima Vero-similhanca

• Invariancia:Se θ for o estimador de maxima verosimilhanca de θ entao g(θ)e o estimador de maxima verosimilhanca de g(θ).

g(θ) = g(θ)

Ou seja, se X for o estimador de maxima verosimilhanca de µentao o estimador de maxima verosimilhanca de µ2 sera X.

• Suficiencia;

• Consistencia.

6.4. Distribuicoes Amostrais

Se X1, ..., Xn ∼i.i.d.

X entao

E(X) = E(X) e V ar(X) =V ar(X)

n.

S2 =1

n− 1

n∑i=1

(Xi −X)2 =

n∑i=1

X2i − nX

2

n− 1

Page 6: Resumos de Probabilidades e Estat stica€¦ · Resumos de Probabilidades e Estat stica Jo~ao Brazuna 2.No˘c~oes B asicas de Probabilidade 2.1.Axiom atica de Kolmogorov Sendo Fuma

7. Estimacao por Intervalos

7.1. Metodo da Variavel Fulcral

Para construir um intervalo de confianca para o parametro θ, centrado na estimativa pontual, utilizando o metodo da variavel fulcral, bastaseguir o modelo abaixo, a esquerda. A direita, ilustramos com um exemplo do calculo do intervalo de confianca para o valor medio de uma

populacao normal, isto e, com X1, ..., Xn amostra aleatoria de X ∼ N(µ, σ2

), com variancia conhecida σ2 = 4 e media da amostra observada

x = 7, de dimensao n = 25.Intervalo de Confianca a 1− α para θ

1. Variavel Fulcral:

Encontrar uma variavel fulcral T , isto e, uma variavel que:

• Dependa do parametro desconhecido a estimar;

• Tenha distribuicao conhecida;

• Nao dependa de mais parametros desconhecidos.

Intervalo de Confianca a 95% para µ

1. Variavel Fulcral:

Z =X − µ√σ2/n

∼ N(0, 1)

2. Quantis:

Sendo 1−α o nıvel de confiancado intervalo, procuramos doisvalores a e b tais que

P (a < T < b) = 1− α

A escolha mais frequente con-siste em centrar este intervalo,resolvendo o sistema:

a : FT (a) = α2

b : FT (b) = 1− α2

a = F−1

T

(α2

)b = F−1

T

(1− α

2

)Caso a distribuicao sejasimetrica (normal ou t-Student,por exemplo), basta calcular be, nesse caso, a = −b.

−b b0 t

fT (t)

1− α α2

α2

Distribuicoes Normal ou t-Student

a b0 t

fT (t)

1− α

α2

α2

Distribuicao do Qui-Quadrado

2. Quantis:a : Φ(a) = 0.05

2

b : Φ(b) = 1− 0.052

a = −bb = Φ−1(0.975)

a = −1.96

b ' 1.96 −b b0 z

ϕ(z)

1− α α2

α2

3. Intervalo de Confianca Aleatorio:

Encontrados os valores de a e b tais que P (a < T < b) = 1 − α,queremos inverter a desigualdade

a < T < b

de modo a que o parametro a estimar fique no centro, encon-trando assim o intervalo de confianca aleatorio ICA1−α(θ).

3. Intervalo de Confianca Aleatorio:

a < Z < b⇔ −1.96 <X − µ√σ2/n

< 1.96⇔

⇔− 1.96

√σ2

n< X − µ < 1.96

√σ2

n⇔

⇔−X − 1.96

√σ2

n< −µ < −X + 1.96

√σ2

n⇔

⇔X − 1.96

√σ2

n< µ < X + 1.96

√σ2

n⇔

⇔ICA95%(µ) =

[X − 1.96

√σ2

n,X + 1.96

√σ2

n

]4. Intervalo de Confianca:

Substituindo, no intervalo de confianca aleatorio, a amostraaleatoria pela amostra observada, encontra-se o intervalo de con-fianca IC1−α(θ).

4. Intervalo de Confianca:

IC95%(µ) =

[x− 1.96

√σ2

n, x+ 1.96

√σ2

n

]=

=

[7− 1.96

√4

25, 7 + 1.96

√4

25

]=

= [−6.216, 7.784]

7.2. Nıveis de Confianca Usuais

90%, 95% e 99%.

Page 7: Resumos de Probabilidades e Estat stica€¦ · Resumos de Probabilidades e Estat stica Jo~ao Brazuna 2.No˘c~oes B asicas de Probabilidade 2.1.Axiom atica de Kolmogorov Sendo Fuma

7.3. Lista de Variaveis Fulcrais

7.3.1. Intervalos de Confianca para a Media de uma Po-pulacao

• Populacao Normal:

– com variancia conhecida:

X − µσ/√n∼ N(0, 1)

– com variancia desconhecida:

X − µS/√n∼ t(n−1)

• Populacao Qualquer (eventualmente ate normal), com amostrasuficientemente grande (n >> 30):

– com variancia conhecida:

X − µσ/√n

a∼ N(0, 1)

– com variancia desconhecida:

X − µS/√n

a∼ N(0, 1)

7.3.2. Intervalos de Confianca para a Variancia de umaPopulacao Normal

(n− 1)S2

σ2

a∼ χ2(n−1)

7.3.3. Intervalos de Confianca para a Diferenca deMedias de duas Populacoes

• Populacoes Normais Independentes:

– com variancias conhecidas:

(X1 −X2)− (µ1 − µ2)√σ21n1

+σ22n2

∼ N(0, 1)

– com variancias desconhecidas mas iguais:

(X1 −X2)− (µ1 − µ2)√(n1−1)S2

1+(n2−1)S22

n1+n2−2

(1n1

+ 1n2

) ∼ t(n1+n2−2)

• Populacoes Independentes Quaisquer (eventualmente ate nor-mais), com amostras suficientemente grandes (n1 >> 30 en2 >> 30):

– com variancias conhecidas:

(X1 −X2)− (µ1 − µ2)√σ21n1

+σ22n2

a∼ N(0, 1)

– com variancias desconhecidas:

(X1 −X2)− (µ1 − µ2)√S21n1

+S22n2

a∼ N(0, 1)

7.3.4. Intervalos de Confianca para Proporcoes (Po-pulacoes de Bernoulli)

X − p√X(1−X)

n

a∼ N(0, 1)

Page 8: Resumos de Probabilidades e Estat stica€¦ · Resumos de Probabilidades e Estat stica Jo~ao Brazuna 2.No˘c~oes B asicas de Probabilidade 2.1.Axiom atica de Kolmogorov Sendo Fuma

8. Testes de Hipoteses

8.1. Construcao

Para construir um teste de hipoteses o parametro θ, basta seguir o modelo abaixo, a esquerda. A direita, ilustramos com um exemplo de um

teste de hipoteses bilateral para o valor medio de uma populacao normal, isto e, com X1, ..., Xn amostra aleatoria de X ∼ N(µ, σ2

), com

variancia conhecida σ2 = 4 e media da amostra observada x = 7, de dimensao n = 25.Teste de Hipoteses ao Nıvel de Significancia α para θ

1. Hipoteses:

H0 : θ = θ0 vs. H1 :

θ < θ0 (unilateral a esquerda)

θ 6= θ0 (bilateral)

θ > θ0 (unilateral a direita)

Teste de Hipoteses Bilateral ao Nıvel de Significancia 5%para µ

1. Hipoteses:H0 : µ = 6 vs. H1 : µ 6= 6

2. Estatıstica de Teste:

Tal como nos intervalos de confianca, procuramos uma variavelfulcral T para θ. Ao substituirmos θ por θ0 (valor que pretende-mos testar), obtemos a estatıstica de teste T0, da qual devemoscalcular o seu valor observado t0 e cuja distribuicao so e conhe-cida sob a validade de H0.

2. Estatıstica de Teste:

Z =X − µσ/√n∼ N(0, 1) e variavel fulcral para µ, logo

Z0 =X − 6

σ/√n∼

sobH0

N(0, 1)

e estatıstica de teste, com valor observado

z0 =x− 6

σ/√n

=7− 6

2/√

25= 2.5

3. Regiao Crıtica ou Valor-p:

(a) Regiao Crıtica:

a 0 t

fT (t)

1− αα

Unilateral a Esquerda

−b b0 t

fT (t)

1− α α2

α2

Bilateral

b0 t

fT (t)

1− αα

Unilateral a Direita

a0 t

fT (t)

1− α

α

Unilateral a Esquerda

a b0 t

fT (t)

1− α

α2

α2

Bilateral

b0 t

fT (t)

1− α

α

Unilateral a Direita

De forma semelhante ao calculo dos quantis, queremos:

a : FT (a) = α︸ ︷︷ ︸Unilateral a Esquerda

,

a : FT (a) = α

2

b : FT (b) = 1− α2︸ ︷︷ ︸

Bilateral

, b : FT (b) = 1− α︸ ︷︷ ︸Unilateral a Direita

RCα =]−∞, a[︸ ︷︷ ︸Unilateral a Esquerda

, RCα =]−∞, a[∪]b,+∞[︸ ︷︷ ︸Bilateral

, RCα =]b,+∞[︸ ︷︷ ︸Unilateral a Direita

(b) Valor-p:O valor-p de um teste e o menor nıvel de significancia parao qual se rejeita a hipotese nula.

p = P (T ≤ −|t0|)︸ ︷︷ ︸Unilateral a Esquerda

, p = 2P (T ≥ |t0|)︸ ︷︷ ︸Bilateral

, p = P (T ≥ |t0|)︸ ︷︷ ︸Unilateral a Direita

3. Regiao Crıtica ou Valor-p:

(a) Regiao Crıtica:a : Φ(a) = 0.05

2

b : Φ(b) = 1− 0.052

a = −bb = Φ−1(0.975)

a = −1.96

b ' 1.96 −b b0 z

ϕ(z)

1− α α2

α2

RC5% =]−∞,−1.96[∪]1.96,+∞[

(b) Valor-p:

p = P (Z0 ≥ 2.5) = 1−P (Z0 < 2.5) = 1−Φ(2.5) ' 0.0062

4. Decisao:

(a) Com base na Regiao Crıtica:Se t0 ∈ RCα devemos rejeitar H0 ao nıvel de significancia α

Se t0 /∈ RCα nao devemos rejeitar H0 ao nıvel de significancia α

(b) Com base no Valor-p:Devemos rejeitar H0 aos nıveis de significancia α ≥ pNao devemos rejeitar H0 aos nıveis de significancia α < p

4. Decisao:

(a) Com base na Regiao Crıtica:Como z0 = 2.5 ∈ RC5%, devemos rejeitar H0 ao nıvel designificancia α = 5%.

(b) Com base no Valor-p:Devemos rejeitar H0 a todos os nıveis de significanciaα ≥ 0.62% (o que inclui todos os usuais) e nao rejeitar paraα < 0.62%.

Page 9: Resumos de Probabilidades e Estat stica€¦ · Resumos de Probabilidades e Estat stica Jo~ao Brazuna 2.No˘c~oes B asicas de Probabilidade 2.1.Axiom atica de Kolmogorov Sendo Fuma

8.2. Nıvel de Significancia (Hipotese Simples)

α = P (rejeitar H0|H0 e verdadeira)

8.3. Nıveis de Significancia Usuais

1%, 5% e 10%.

8.4. Relacao entre Intervalos de Confianca e Testes de Hipoteses Bilaterais

Testar H0 : θ = θ0 vs. H1 : θ 6= θ0 ao nıvel de significancia α e equivalente a verificar se θ0 ∈ IC1−α(θ).

8.5. Lista de Estatısticas de Teste

8.5.1. Teste a Media de uma Populacao

• Populacao Normal:

– com variancia conhecida:

X − µ0

σ/√n

∼sobH0

N(0, 1)

– com variancia desconhecida:

X − µ0

S/√n

∼sobH0

t(n−1)

• Populacao Qualquer (eventualmente ate normal), com amostrasuficientemente grande (n >> 30):

– com variancia conhecida:

X − µ0

σ/√n

a∼sobH0

N(0, 1)

– com variancia desconhecida:

X − µ0

S/√n

a∼sobH0

N(0, 1)

8.5.2. Teste a Variancia de uma Populacao Normal

(n− 1)S2

σ20

a∼sobH0

χ2(n−1)

8.5.3. Teste a Diferenca de Medias de duas Populacoes

• Populacoes Normais Independentes:

– com variancias conhecidas:

(X1 −X2)− (µ0)√σ21n1

+σ22n2

∼sobH0

N(0, 1)

– com variancias desconhecidas mas iguais:

(X1 −X2)− (µ0)√(n1−1)S2

1+(n2−1)S22

n1+n2−2

(1n1

+ 1n2

) ∼sobH0

t(n1+n2−2)

• Populacoes Independentes Quaisquer (eventualmente ate nor-mais), com amostras suficientemente grandes (n1 >> 30 en2 >> 30):

– com variancias conhecidas:

(X1 −X2)− (µ0)√σ21n1

+σ22n2

a∼sobH0

N(0, 1)

– com variancias desconhecidas:

(X1 −X2)− (µ0)√S21n1

+S22n2

a∼sobH0

N(0, 1)

8.5.4. Intervalos de Confianca para Proporcoes (Po-pulacoes de Bernoulli)

X − p0√p0(1−p0)

n

a∼sobH0

N(0, 1)

8.5.5. Teste de Ajustamento do Qui-Quadrado

k∑i=1

(Oi − Ei)2

Ei

a∼sobH0

χ2(k−β−1)

Para o calculo do valor observado da estatıstica de teste, bastapreencher-se a tabela abaixo:i Classe i oi p

0i = P (Pertencer a classe i|H0) e0

i = n p0i

......

......

...

n

E necessario que e0i > 5 em pelo menos 80% das classes. Caso contrario,

as classes com menores e0i devem ser agrupadas.

8.5.6. Teste de Independencia do Qui-Quadrador∑i=1

s∑j=1

(Oij − Eij)2

Eij

a∼sobH0

χ2(r−1)(s−1)

Page 10: Resumos de Probabilidades e Estat stica€¦ · Resumos de Probabilidades e Estat stica Jo~ao Brazuna 2.No˘c~oes B asicas de Probabilidade 2.1.Axiom atica de Kolmogorov Sendo Fuma

9. Introducao a Regressao Linear Simples

9.1. Modelo de Regressao Linear Simples

Seja Y uma variavel aleatoria, relacionada por um modelo de regressaolinear simples com a variavel determinıstica x. Consideremos umaamostra com n observacoes.

Yi = β0 + β1xi + εi, , ∀i ∈ 1, ..., n

Suponhamos que:

• E(εi) = 0, ∀i ∈ 1, ..., n;• V ar(εi) = σ2, ∀i ∈ 1, ..., n (variancia constante, mas de valor

desconhecido);

• Corr(εi, εj) = 0 , ∀i 6= j.

Sejam β0 e β1 as estimativas de mınimos quadrados de β0 e β1, res-pectivamente.

β1 =

n∑i=1

xiyi − nx yn∑i=1

x2i − nx2

, β0 = y − β1x

Entao, a resposta esperada e

E(Yi|xi) = E(β0 + β1xi + εi) = β0 + β1xi, ∀i ∈ 1, ..., n

portanto

y = E(Yi|x) = β0 + β1x

e a estimativa de mınimos quadrados da recta de regressao, para

x ∈[

min1,...,n

xi, max1,...,n

xi

].

9.2. Parametros de Regressao e Interpretacao

O modelo de regressao linear simples tem 3 parametros:

• β1: o declive da recta de regressao (ou coeficiente angular),indicando quantas unidades Y aumenta ou diminui quando xaumenta uma unidade;

• β0: a ordenada na origem da recta de regressao, indicando ovalor de Y quando x = 0 (so tem significado se0 ∈ [ min

1,...,nxi, max1,...,n

xi] para que nao existam erros de extra-

polacao):

• σ2: variancia dos erros do modelo de regressao.

9.3. Coeficiente de Determinacao

r2 =

(n∑i=1

xiyi − nx y

)2

(n∑i=1

x2i − nx2

(n∑i=1

y2i − ny2

) ∈ [0, 1]

avalia a qualidade do ajuste do modelo de regressao linear aos dados(quanto mais proximo de 1, melhor sera o ajuste).

9.4. Inferencias

Na necessidade de fazer inferencias, supoe-se adicionalmente que

εi ∼i.i.d.

N(

0, σ2)

situacao em que as estimativas de mınimos quadrados coincidem comas de maxima verosimilhanca. A de σ2 e

σ2 =

n∑i=1

y2i − ny2 −

(β1

)2(

n∑i=1

x2i − nx2

)n− 2

.

9.4.1. Inferencias sobre β1

Para construir intervalos de confianca ou para testar o valor de β1 (de-clive da recta de regressao ou coeficiente angular), utiliza-se a variavelfulcral

β1 − β1√σ2

n∑i=1

x2i−nx2

∼ t(n−2).

Testar a significancia do modelo consiste em testar

H0 : β1 = 0 vs. H1 : β1 6= 0.

Se β1 = 0 nao ha significancia de regressao (valor de y e o mesmo,qualquer que seja x).

9.4.2. Inferencias sobre β0

Para construir intervalos de confianca ou para testar o valor de β0

(ordenada na origem da recta de regressao), utiliza-se a variavel fulcral

β0 − β0√√√√√ 1n

+ x2n∑i=1

x2i−nx2

σ2

∼ t(n−2).

9.4.3. Inferencias sobre um Valor Ajustado

Para construir intervalos de confianca ou para testar o valor ajustadoy quando x = x0, utiliza-se a variavel fulcral

(β0 + β1x0)− (β0 + β1x0)√√√√√ 1n

+ (x−x0)2n∑i=1

x2i−nx2

σ2

∼ t(n−2).