View
7
Download
0
Category
Preview:
Citation preview
Rosa Leão – 2011
Estatística e Modelos Probabilísticos - COE241
Aula de hoje
Para que serve a inferência estatística ?Método dos Momentos Maximum Likehood Estimator (MLE)
Aula passada
Intervalo de confiançaMétodo de Replicações Independentes
Rosa Leão – 2011
Para que serve a inferência estatística ?
Para qualquer modelo probabilístico é necessário estimar os parâmetros das funções distribuição de probabilidade que serão usadasA estimativa pode ser feita a partir de dados coletados do sistemaExemplo: taxa de chegada de clientes no sistema, taxa de serviço de um recurso, taxa de falha de um equipamento, etc
Rosa Leão – 2011
Para que serve a inferência estatística ?
As estimativas são baseadas nos resultados coletados do sistema durante um certo tempoO conjunto de todos os resultados possíveis de serem obtidos durante a execução do sistema é denominado populaçãoEm geral somente um sub-conjunto da população está disponívelMétodos de inferência estatística tem o objetivo de estimar características de uma população a partir de um sub-conjunto da população denominado amostra
Rosa Leão – 2011
A medida que o tamanho da amostra aumenta, as estimativas se tornam mais representativas da populaçãoA inferência estatística envolve as seguintes tarefas:
Estimativa de parâmetros do modelo Teste de hipotése a respeito de parâmetros e distribuição de probabilidade da população
Para que serve a inferência estatística ?
Rosa Leão – 2011
Amostra aleatória
Definição:O conjunto de variáveis aleatórias X
1 , X
2 , ..., X
N
é uma amostra aleatória de tamanho N da população que possui a função distribuição F
X(x),
dado que elas são independentes e identicamente distribuídas com F
Xi(x) =F
X(x),
para todo i e todo x.
Rosa Leão – 2011
Estatística
Definição:Qualquer função W(X
1 , X
2 , ..., X
N ) calculada a
partir dos valores X1 , X
2 , ..., X
N é chamada de
uma estatística. Exemplo: média amostral: variância amostral:
X n=1n∑i=1
nX i
S2=
1n−1
∑i=1
n X i−X n
2
Rosa Leão – 2011
Estimador
Definição:Qualquer estatística (X
1 , X
2 , ..., X
N ) usada
para estimar um parâmetro da população é chamada um estimador para
Rosa Leão – 2011
Propriedades desejáveis para um estimador
Não tendencioso (unbiased): na média o estimador deve fornecer o valor verdadeiro.Eficiente: deve apresentar a menor variância quando comparado com outrosConsistente: deve convergir em probabilidade para o valor verdadeiro
Rosa Leão – 2011
Estimador não tendencioso
Definição:Uma estatística (X
1 , X
2 , ..., X
N ) é uma
estimador não tendencioso do parâmetro se E[(X
1 , X
2 , ..., X
N )] =
Já provamos que a média amostral e a variância amostral são estimadores não tendenciosos.
Rosa Leão – 2011
Estimador eficiente
Definição:Um estimador
1 do parâmetro é mais
eficiente que um estimador 2, dado que:
1 e
2 são estimadores não tendenciosos de
Var[1 ] ≤ Var[
2] para todo
Var[1 ] < Var[
2] para algum
Rosa Leão – 2011
Estimador consistente
Definição:Um estimador do parâmetro é consistente se ele converge em probabilidade para
Onde N é o tamanho da amostra
limN∞ P [∣−∣]=0
Rosa Leão – 2011
Métodos para estimativa de parâmetros
Método dos momentosMétodo da máxima verossimilhança (maximum likehood)
Rosa Leão – 2011
Método dos MomentosSuponha a estimativa de um ou mais parâmetros da variável aleatória X Defina o K-ésimo momento amostral da v.a. X como:
Igualando o valor obtido para o momento amostral com a expressão do momento da v.a. X, temos uma equação
M k=∑i=1n X i
k /n , i=1, 2, ...
E [X k]=M k
Rosa Leão – 2011
Método dos MomentosO número de equações a serem resolvidas é igual ao número de parâmetros que temos que estimar para v.a. XExemplo: Se a v.a. X tem três parâmetros, precisamos de três equações:
E [X ]=M 1
E [X 2]=M 2
E [X 3]=M 3
Rosa Leão – 2011
Método dos Momentos: exemplo
Rosa Leão – 2011
Método MLE
Função densidade conjunta das v.a. Xi
Rosa Leão – 2011
Método MLE – função likehood
Função likehood das v.a. Xi
Rosa Leão – 2011
Método MLEOs valores de
1
2 , ...,
k que maximizam a
função likehood são os “maximum likehood estimators-MLE” dos parâmetros
1
2 , ...,
k
Os MLE dos parâmetros são os valores para os quais a sequência de amostras tem a maior probabilidade de ocorrer pois maximizam a função densidade conjunta
Rosa Leão – 2011
Método MLE: exemplo 1
Rosa Leão – 2011
Método MLE: exemplo 1Maximizar L(p) é equivalente a maximizar o logaritmo natural de L(p)
Calcular a segunda derivada de ln L(p) e verificar se é negativa para afirmar que o valor encontrado para p maximiza ln L(p)
L p= p∑ xi 1− p
n−∑ xi ,0 p1
ln L p=∑i=1n x i ln pn−∑
i=1n x i ln 1− p
d ln L pdp
=∑i=1n x i1
pn−∑i=1n xi −1
1− pp=1n
∑i=1n x i
Rosa Leão – 2011
Método MLE: exemplo 2
Recommended