82
Modelos de Probabilidade e Inferência Estatística Ronei Marcos de Moraes Análise de Variância e Estatística Nãoparamétrica UFPB Maio/2011

Modelos de Probabilidade e Inferência Estatísticaulisses/disciplinas/anova_estat_naoparametrica.pdf · ANOVA - Análise de Variância •O caso da comparação de várias médias

  • Upload
    lekiet

  • View
    215

  • Download
    0

Embed Size (px)

Citation preview

Modelos de Probabilidade e Inferência Estatística

Ronei Marcos de Moraes

Análise de Variância e Estatística Nãoparamétrica

UFPB

Maio/2011

ANOVA - Análise de VariânciaANOVA - Análise de Variância

• O caso da comparação de várias médias tem especial tratamento e uma das formas de fazê-la é através do método da Análise de Variância ou ANOVA.

• A ANOVA foi inicialmente desenvolvida pelo estatístico britânico Sir Ronald Fisher como instrumento para a análise de experimentos.

• A distribuição por amostragem da estatística "F" foi deduzida por Snedecor que, em homenagem a Fisher, denominou-a de estatística "F".

ANOVA - Análise de VariânciaANOVA - Análise de Variância

• A Análise de Variância é um método suficientemente poderoso para identificar diferenças entre as médias populacionais devidas a várias causas que atuam simultaneamente sobre os elementos da população.

• Nosso escopo é apresentar a idéia fundamental do método de forma simplificada, sem grande aprofundamento teórico, já que isso demandaria um maior domínio de técnicas matemáticas e fugiria a nossa meta.

ANOVA - Análise de VariânciaANOVA - Análise de Variância

• A ANOVA é usada para verificar se as média de duas ou mais populações são iguais. O teste se baseia numa amostra extraída de cada população, que dificilmente apresentarão médias exatamente iguais.

• A ANOVA determina se as diferenças entre as média amostrais, sugerem diferenças efetivas entre as médias das populações, ou se tais diferenças decorrem apenas da variabilidade implícita de cada amostra.

ANOVA - Análise de VariânciaANOVA - Análise de Variância

• Hipóteses:– H0: µ1 = µ2 = … = µk

– H1 : pelo menos uma média populacional difere das demais

• Se a hipótese nula é aceita, concluiremos que as

diferenças entre as médias amostrais são devidas apenas a variações na amostra.

• Se a hipótese nula é rejeitada, concluiremos que as diferenças entre as amostras são demasiadamente grandes para serem devidas apenas a aleatoriedade.

ANOVA - Análise de VariânciaANOVA - Análise de Variância

• Este método requer algumas suposições de natureza teórica, que se não forem plenamente atendidos deverá ser evitada a sua aplicação.

• Há três suposições básicas que devem ser satisfeitas para que se possa aplicar a técnica da Análise de Variância.

1. As amostras devem ser retiradas de forma aleatórias e independente.

2. As amostras devem ser retiradas de populações distribuídas normalmente.

3. As populações devem apresentar variâncias iguais (homocedasticidade).

ANOVA - Análise de VariânciaANOVA - Análise de Variância

• Quando estas suposições são satisfeitas, a ANOVA é extremamente poderosa.

• Se as distribuições das populações, das quais se extraem as amostras, não são muito assimétricas, a exigência de normalidade não precisa ser estritamente satisfeita.

• Se as variâncias amostrais são aproximadamente iguais, a hipótese de variâncias populacionais iguais pode ser relaxada.

ANOVA - Análise de VariânciaANOVA - Análise de Variância

• Quando as variâncias amostrais parecem deferir consideravelmente, deve-se efetuar um teste de igualdade entre variâncias populacionais.

• Se tal teste indicar diferenças entre as variâncias populacionais, não devemos usar a Análise de Variância, pois a homocedasticidade é o pressuposto teórico de maior importância para o uso da ANOVA.

• Solução: pode-se usar um método não-paramétrico, como por exemplo, o teste de Kruskal-Wallis, que também será visto neste curso.

ANOVA - Análise de VariânciaANOVA - Análise de Variância

• Neste curso vamos estender nosso estudo até o caso de haver duas possíveis causas, ou fontes de variação. Então, veremos duas formas de ANOVA:– Comparação de k populações independentes (um fator)– Comparação de k populações relacionadas (dois

fatores)

Teste de Teste de HomocedasticidadeHomocedasticidade

• Várias formas de se verificar a Homocedasticidade existem na literatura:

• Veremos os seguintes:– Avaliação gráfica – Teste de Cochran – Teste de Hartley– Teste de Bartlett

Teste de Teste de HomocedasticidadeHomocedasticidade

• Avaliação gráfica

Teste de Teste de HomocedasticidadeHomocedasticidade

• Teste de Cochran para amostras do mesmo tamanho

1. Hipóteses– H0: σ1

2 = σ22 = ...= σk

2

– H1: Pelo menos uma variância difere das demais

2. Fixar o nível de significância α

Teste de Teste de HomocedasticidadeHomocedasticidade

3. Teste de homocedasticidade para amostras de mesmo tamanho => Estatística de Cochran

4. Região Crítica. • Os valores críticos g, que delimitam as regiões de

aceitação e rejeição para o teste de Cochran, são fornecidos em função de n (tamanho das amostras) e k (número de populações) e são apresentados na Tabela de Cochran para um determinado α.

Teste de Teste de HomocedasticidadeHomocedasticidade

5. Estatística de Prova.

6. Decisão Se gc > g Rejeita-se H0

7. Conclusão Final.

g c=maxs i

2

∑i=1

k

si2

i=1,2 ,. .. ,k onde si2=

∑j=1

n

x j− x i 2

n−1

Teste de Teste de HomocedasticidadeHomocedasticidade

• Teste de Hartley• Usa os mesmos 7 passos de todos os testes de

hipóteses, porém difere nos passos:3. Distribuição F de Snedecor, com parâmetros α, k,

n-1.5. Estatística de Prova

6. Decisão: Se Fmax > Fα, k, n-1 então Rejeita-se H0

F max=max si

2

min si2

Teste de Teste de HomocedasticidadeHomocedasticidade

• Teste de Barlett• Difere nos passos:

3. Distribuição Qui-quadrado, com parâmetros (1-α, k-1).

5. Estatística de Prova

6. Decisão: Se χ2c > χ2

1- α, k-1 então Rejeita-se H0

Teste de Teste de HomocedasticidadeHomocedasticidade

• Uso dos testes:– Avaliação gráfica

• Serve para visualizar os dados e saber o que esperar dos testes

– Teste de Cochran, Hartley e de Bartlett• Na maioria das situações práticas, os testes de Cochran e de Hartley levam

a conclusões similares. O teste de Cochran utiliza mais informação dos dados amostrais e em geral é mais sensível que o teste de Hartley.

• Quando a hipótese de normalidade é satisfeita, o teste de Barlett é o mais poderoso dos três.

• Os testes de Cochran e de Hartley requerem que os tamanhos de amostra sejam iguais. Se os tamanhos diferem, mas não muito, eles ainda podem ser usados como testes aproximados. Nesse caso, o valor de n deveria ser o tamanho amostral, entretanto, alguns recomendam utilizar o maior valor de n. Isso resultará em uma probabilidade do erro tipo I ligeiramente maior do que o valor prescrito.

Teste de Teste de HomocedasticidadeHomocedasticidade

• Uso dos testes:– Teste de Cochran, Hartley e de Bartlett

• Todos os testes são sensíveis a desvios da normalidade. • Em particular, o tese de Bartlett é muito sensível à desvios da

normalidade. • Um p-valor baixo no tese de Bartlett pode ser devido a não-

normalidade dos dados, mais do que a própria desigualdade das variâncias. A distribuição χ2 é apenas assintótica. Uma regra comum é considerar que o teste apenas deve ser usado caso ni > 5, ∀i = 1, .., k.

Teste de Teste de HomocedasticidadeHomocedasticidade

• Exemplo:

• Quatro amostras de cinco elementos cada, extraídas de populações normais e independentes, forneceram variâncias iguais a 1,0; 3,5; 5,0 e 2,0. Existe evidência, ao nível de 5% de significância, de que as populações não tenham todas a mesma variância? Use o Teste de Cochran.

Teste de Teste de HomocedasticidadeHomocedasticidade

• Solução:• Hipóteses:

H0: todas as populações possuem a mesma variância.

• H1: pelo menos uma das variâncias difere das demais.

• gc = 0,43478261

• g = 0,6287

• Decisão: aceita-se H0

• Conclusão: Ao nível de 5% de significância não existe evidência de que todas as populações não possuam a mesma variância.

ANOVA – Um FatorANOVA – Um Fator

• Consideraremos "k" amostras de tamanho "n", retiradas de "k" populações cujas médias queremos comparar.

ANOVA – Um FatorANOVA – Um Fator

ANOVA – Um FatorANOVA – Um Fator

• Se admitirmos que a hipótese nula (H0) é verdadeira, então existem três maneiras pelas quais a variância σ2, comum implicitamente a todas as populações, pode ser estimada por:

• O numerador deste quociente é denominado por SOMA

DE QUADRADOS TOTAL, SQT, ou seja:

ST2=

∑i=1

k

∑j=1

n

x ij−x 2

nk−1=

Q−T 2

nknk−1

SQT=Q−T 2

nk

ANOVA – Um FatorANOVA – Um Fator

• Novamente se admitirmos que H0 é verdadeira, podemos também considerar as médias das k amostras, como uma amostra de k valores retirados da população de possíveis valores de . Sabemos que é normalmente distribuída com variância σ²/n, assim, temos um segundo estimador de σ² que denotaremos por , que é obtido através da expressão:

S E2

x x

S E2 =

∑i=1

k T i2

n−

T 2

nk

k−1

ANOVA – Um FatorANOVA – Um Fator

• O numerador desta quociente é denominado SOMA DE QUADRADOS ENTRE AMOSTRAS, SQE, ou seja:

• A variância σ² pode ainda ser estimada individualmente a partir dos elementos de cada amostra, ou seja, dentro de cada amostra. Obtemos um estimador de σ² para cada uma das k amostras.

SQE=∑i=1

k

T i2

n−

T 2

nk

ANOVA – Um FatorANOVA – Um Fator

• A média desses valores será o estimador de σ² que será denotado por e obtido pela expressão:

• Ao numerador deste quociente denominamos de SOMA DE QUADRADOS DE RESÍDUOS, SQR, ou seja:

S R2=

Q−

∑i=1

k

T i2

nk n−1

SQR=Q−

∑i=1

k

T i2

n SQR = SQT−SQE

S R2

ANOVA – Um FatorANOVA – Um Fator

• Em uma Análise de Variância com um fator, apenas uma variável independente é analisada, o modelo relativo aos componentes da variância total, é o seguinte:

• onde:

ST2 =S E

2 +S R2

ST2= variância total

S E2 = variância do tratamento

S R2 = variância do erro ou residual

ANOVA – Um FatorANOVA – Um Fator

.

ANOVA – Um FatorANOVA – Um Fator

• Se a hipótese nula for falsa, o valor esperado do QME será maior que o do QMR.

• Isto porque todas as diferenças entre as médias populacionais inflacionarão o QME, enquanto o QMR não será afetado.

• Se Rejeita-se H0 F c >F k−1,k n−1 ;α ⇒

ANOVA – Um FatorANOVA – Um Fator

• Exemplo:• Quinze pessoas que participaram de um programa

de treinamento são colocadas, de forma aleatória, sob três tipos diferentes formas de treinamento, relacionados com o atendimento em PSFs.

• Os graus obtidos no teste de conclusão do treinamento, são apresentados na tabela abaixo. Usar o procedimento da ANOVA para testar a hipótese de igualdade das médias populacionais.

ANOVA – Um FatorANOVA – Um Fator

ANOVA – Um FatorANOVA – Um Fator

• Solução:• Inicialmente, o problema não menciona a questão

da normalidade e da independência das amostras. • Como isso é um exercício, vamos assumir a

normalidade e da independência das amostras. • Se fôsse um caso real, deveríamos testar a

normalidade e a independência. Porém, já sabemos testar a homocedasticidade das variâncias e devemos fazê-lo.

ANOVA – Um FatorANOVA – Um Fator

• Teste de homocedasticidade:

• Hipóteses:

• H0: todos os métodos de treinamento possuem a mesma variância.

• H1: pelo menos uma das variâncias difere das demais.

• gc = 0,34843206

• g = 0,7457

• Decisão: aceita-se H0

• Conclusão: Ao nível de 5% de significância existe evidência de que os graus dos métodos de treinamento possuem a mesma variância.

ANOVA – Um FatorANOVA – Um Fator

• ANOVA:• Hipóteses:• H0: todos os métodos de treinamento possuem

médias iguais.• H1: pelo menos uma das médias difere das demais.

ANOVA – Um FatorANOVA – Um Fator

• Tabela ANOVA

• Decisão: rejeita-se Ho, pois 15,085 > F(2,12,0,05) = 3,89

• Conclusão: Conclui-se que ao nível de 5% de significância pelo menos uma das médias dos treinamentos difere das demais.

Comparações MúltiplasComparações Múltiplas

• O método da Análise de Variância apenas aceita ou rejeita a hipótese H0 (igualdade entre as médias populacionais). Se H0 for rejeitada, estamos admitindo que pelo menos uma média é diferente das demais.

• Surge, porém uma questão: Quais médias devem ser consideradas diferentes de quais outras?

• Vários autores sugeriram procedimentos. Veremos alguns deles.

Comparações MúltiplasComparações Múltiplas

• Entretanto, existe um problema estatístico: o italiano Bonferroni mostrou que quando se compara várias populações, alguns métodos não conseguem manter o erro tipo I global (ou "family-wise“) constante no valor α especificado. Por isso propôs uma forma de correção, chamada Correção de Bonferroni.

• Nela, se 4 populações estão sendo comparadas, o máximo erro tipo global permitido é α = 0,05. Então o número de pares é C=4(4-1)/2=6 e a Correção de Bonferroni dá como resposta α’ = 0,05/6=0,0083. Assim, a probabilidade de concluir erronemanete que pelo menos um par de médias diferem não é maior do que 0,05.

Comparações MúltiplasComparações Múltiplas

• A Correção de Bonferroni infla o erro do tipo II, isto é, deixamos de identificar diferenças que podem existir.

• A Correção de Bonferroni, não pode ser utilizada se as características apresentam correlação.

Comparações MúltiplasComparações Múltiplas

• Muitos dos pós-testes ou teste post-hoc (a posteriori da ANOVA) são modificações do famoso teste t.

• Eles servem para comparações múltiplas, do mesmo modo que para o fato que as comparações estão relacionadas.

• Veremos os testes paramétricos de Bonferroni, Sheffé e Tuckey HSD.

Comparações MúltiplasComparações Múltiplas

• Teste de Bonferroni– O Teste de Bonferroni usa a Correção do mesmo autor

sobre uma classe de testes denominada LSD (Least Significant Difference), derivados do teste t.

– Neste teste, devem ser consideradas distintas entre si, e ao nível de significância α’ = α /C (Correção de Bonferroni), as médias µi e µj, tais que:

, onde ∣x i−x j∣>Δ

Δ= tα ', n− k S R2 1

n i

1n j

Comparações MúltiplasComparações Múltiplas

• Teste de Sheffé• Scheffé demonstrou que devem ser consideradas

distintas entre si, e ao nível de significância adotado, as médias µi e µj, tais que:

, onde ∣x i−x j∣>Δ

D= S R2 2 k−1

nF t

Comparações MúltiplasComparações Múltiplas

• Teste de Sheffé– Se um número grande de contrastes é de interesse, ou

não é com antecedência conhecido quais são de interesse, o teste de Scheffé provê um modo para “bisbilhotar” por todas as possibilidades enquanto mantendo controle na cobertura de intervalos de confiança e as falsas taxas positivas de testes.

– O teste de Scheffé é exato, se o interesse é em todos os contrastes (entretanto, essa é uma situação mais difícil de ocorrer).

Comparações MúltiplasComparações Múltiplas

• Teste de Sheffé– Este teste está intimamente conectado com a ANOVA:

a ANOVA é significante se e só se algum contraste apresentar um intervalo de confiança de Scheffé significante.

– Em particular, se a ANOVA não for significante, então nenhum dos intervalos de confiança de Scheffé será significante.

Comparações MúltiplasComparações Múltiplas

• Teste de Tukey HSD• O teste de Tukey HSD (Honestly Significant

Differences) é um dos métodos que assegura que a chance de encontrar uma diferença significativa em qualquer comparação sob a hipótese nula é mantida ao nível alfa original do teste, ou seja, preserva o erro tipo I global.

Comparações MúltiplasComparações Múltiplas

• Teste de Tukey HSD• O teste de Tukey HSD considera a diferença entre

as médias µi e µj, quando

onde:

• e q é a estatística de Tukey com parâmetros (α, k, dfr), onde dfr é o número de graus de liberdade do resíduo da ANOVA.

Δ= S R2 1

nq α,k,dfr

∣x i−x j∣>Δ

Comparações MúltiplasComparações Múltiplas

• Teste de Tukey HSD

• Em tese, não há uma boa razão para usar inicialmente o teste de Tukey HSD após a ANOVA.

• Como o teste de Tukey HSD controla o erro tipo I global, é desnecessário precedê-lo pela ANOVA.

Comparações MúltiplasComparações Múltiplas

• Comparação de Método de Bonferroni, Scheffé e Tukey HSD– Se só comparações emparelhadas serão feitas, o método de

Tukey HSD resultará em um intervalo de confiança mais estreito que é preferível (sobre o método de Sheffé)

– No caso geral quando muitos ou todos os contrastes poderiam ser de interesse, o método de Scheffé tende a dar um intervalo confiança mais estreito e é então o método preferido (sobre o método de Tukey HSD).

– Se todas as comparações emparelhadas forem de interesse, Tukey HSD tem a preferência.

Comparações MúltiplasComparações Múltiplas

• Comparação de Método de Bonferroni com Scheffé e Método de Tukey HSD– Se só um subconjunto de comparações emparelhadas é

requerido, Bonferroni às vezes pode ser melhor. – Quando o número de contrastes a ser calculado é

pequeno, Bonferroni é melhor que Scheffé. – Nenhum único método de comparações múltiplas é

uniformemente melhor entre todos os métodos.– Muitos pacotes estatísticos incluem os três métodos.

Então, estude seu problema e selecione o método com menor intervalo de confiança.

Comparações MúltiplasComparações Múltiplas

• Exemplo:

• Usando o Teste de Scheffé, quais foram as médias responsáveis pela rejeição da hipótese nula no exemplo anterior.

Comparações MúltiplasComparações Múltiplas

• Solução pelo Teste de Scheffé:

• = 0,383, k=3, n=5, F(2,12,0,05) = 3,89

• ∆ = 1,0906039• = 0,90 < ∆ não significativo• = 1,24 > ∆ significativo• = 2,14 > ∆ significativo• Conclusão: Ao nível de 5% de significância conclui-se

que apenas os métodos de treinamento 1 e 2 são semelhantes.

S R2

∣x1− x2∣

∣x1− x3∣∣x2− x3∣

Comparações MúltiplasComparações Múltiplas

• Exemplo:

• Usando o Teste de Tukey HSD, quais foram as médias responsáveis pela rejeição da hipótese nula no exemplo anterior.

Comparações MúltiplasComparações Múltiplas

• Solução pelo Teste de Tukey HSD:

• = 0,383, n=5, q(0,05;3;12) = 3,77

• ∆ = 1,043412

• = 0,90 < ∆ não significativo

• = 1,24 > ∆ significativo

• = 2,14 > ∆ significativo

• Conclusão: Ao nível de 5% de significância conclui-se que apenas os métodos de treinamento 1 e 2 são semelhantes.

S R2

∣x1− x2∣

∣x1− x3∣∣x2− x3∣

ANOVA – Dois FatoresANOVA – Dois Fatores

Na ANOVA com dois fatores, vamos admitir que cada elemento da amostra tenha sido classificado segundo dois critérios, constituindo duas classificações cruzadas.

Admitiremos que exista um total de "nk" observações, constituindo "k" amostras de "n" elementos segundo cada um dos tratamentos (coluna).

Adicionalmente, consideramos que cada exista um emparelhamento por cada linha, o qual denominaremos de blocos.

ANOVA – Dois FatoresANOVA – Dois Fatores

As nk observações são dispostas em uma tabela com n linhas e k colunas.

ANOVA – Dois FatoresANOVA – Dois Fatores

ANOVA – Dois FatoresANOVA – Dois Fatores

Hipóteses: (todos os tratamentos possuem médias iguais)

(todos os blocos possuem médias iguais)

Pelo menos um dos tratamentos apresenta média diferente dos demais

Pelo menos um dos blocos apresenta média diferente dos demais

H 01 :m. 1 =m. 2=.. . =m. k

H 02 : m1 .=m2 .=. .. =mn.

H 11 :

H 12 :

ANOVA – Dois FatoresANOVA – Dois Fatores

Note-se que agora existem duas hipóteses nulas (H01 e H02). H01 , como antes, refere-se aos tratamentos e H02 aos blocos.Como antes, a SOMA DE QUADRADOS TOTAL, SQT, é dada por:

SQT=Q−T 2

nk

ANOVA – Dois FatoresANOVA – Dois Fatores

A segunda parcela da variação é dada pela SOMA DOS QUADRADOS ENTRE OS TRATAMENTOS, SQET:

Uma outra parcela da variação é dada pela SOMA DOS QUADRADOS ENTRE OS BLOCOS, SQEB:

SQET=∑j=1

n

T . j2

n−

T 2

nk

SQEB=∑i=1

k

Bi .2

k−

T 2

nk

ANOVA – Dois FatoresANOVA – Dois Fatores

Como na ANOVA - Um fator, a variação restante, é dada pela SOMA DE QUADRADOS DE RESÍDUOS, SQR, ou seja:

SQR = SQT - SQET - SQEB

ANOVA – Dois FatoresANOVA – Dois Fatores

Em uma Análise de Variância com dois fatores, o modelo relativo aos componentes da variância total é dado por:

onde:

ST2 =S ET

2 +S EB2 +S R

2

ST2= variância total

S ET2 = variância do tratamento

S EB2 =variância do bloco

S R2= variância do erro ou residual

ANOVA – Dois FatoresANOVA – Dois Fatores

.

ANOVA – Dois FatoresANOVA – Dois Fatores

Se a hipótese nula 1 for falsa, o valor esperado do QMET será maior que o do QMR. Assim:Se Rejeita-se H01

Se a hipótese nula 2 for falsa, o valor esperado do QMEB será maior que o do QMR. Assim:Se Rejeita-se H02

F t >F k−1; k−1 n−1 ;α ⇒

F b>F n−1 ; k−1 n−1 ;α⇒

ANOVA – Dois FatoresANOVA – Dois Fatores

Exemplo:Os dados que se seguem representam o tempo em segundos gastos por cinco enfermeiros para realizar certo procedimento em quatro postos de saúde diferentes. Ao nível de 5% de significância, verifique de existe diferença assimilável entre postos e entre enfermeiros.

ANOVA – Dois FatoresANOVA – Dois Fatores

ANOVA – Dois FatoresANOVA – Dois Fatores

Solução:

Inicialmente, o problema não menciona a questão da normalidade e da independência das amostras, nem para os Postos de Saúde e nem para os Enfermeiros.

Como isso é um exercício, vamos assumir a normalidade e da independência para os Postos de Saúde e para os Enfermeiros.

Se fôsse um caso real, deveríamos testar a normalidade e a independência de ambos. Porém, já sabemos testar a homocedasticidade das variâncias e devemos fazê-lo para todos eles.

ANOVA – Dois FatoresANOVA – Dois Fatores

Teste de homocedasticidade para os Postos de Saúde:

Hipóteses:

H0: todos os Postos de Saúde possuem a mesma variância no tempo de realização do procedimento.

H1: pelo menos um dos Postos de Saúde tem variância no tempo de realização do procedimento diferente dos demais.

gc = 0,48504551

g = 0,7457

Decisão: aceita-se H0

ANOVA – Dois FatoresANOVA – Dois Fatores

Conclusão: Ao nível de 5% de significância pode-se considerar que todos os Postos de Saúde possuem a mesma variância no tempo de realização do procedimento.

ANOVA – Dois FatoresANOVA – Dois Fatores

Teste de homocedasticidade para os Enfermeiros:

Hipóteses:

H0: todos Enfermeiros possuem a mesma variância no tempo de realização do procedimento.

H1: pelo menos um dos Enferemeiros tem variância no tempo de realização do procedimento diferente dos demais.

gc = 0,42778342

g = 0,6287

Decisão: aceita-se H0

ANOVA – Dois FatoresANOVA – Dois Fatores

Conclusão: Ao nível de 5% de significância pode-se considerar que todos os Enfermeiros possuem a mesma variância no tempo de realização do procedimento.

Como foi comprovada a homocedasticidade dos Postos de Saúde e dos Enfermeiros, quanto ao tempo de realização do procedimento, então podemos realizar a ANOVA – dois fatores.

ANOVA – Dois FatoresANOVA – Dois Fatores

Hipóteses:

H01: todos os Postos de Saúde possuem tempos médios iguais na realização do procedimento.

H02: todos os Enfermeiros possuem tempos médios iguais na realização do procedimento.

H11: pelo menos um dos Postos de Saúde possui tempo médio diferente na realização do procedimento em relação aos demais.

H12: pelo menos um dos Enfermeiros possui tempo médio diferente na realização do procedimento em relação aos demais.

ANOVA – Dois FatoresANOVA – Dois Fatores

Cálculos:

ANOVA – Dois FatoresANOVA – Dois Fatores

Tabela ANOVA

Decisão: rejeita-se H01, pois 26,577 > F(3,12,0,05) = 3,49

aceita-se H02, pois 1,096 < F(4,12,0,05) = 3,26

ANOVA – Dois FatoresANOVA – Dois Fatores

Conclusão: Conclui-se que ao nível de 5% de significância que os Enfermeiros possuem tempos médios iguais na realização do procedimento, mas que pelo menos um dos Postos de Saúde possui tempo médio diferente na realização do procedimento em relação aos demais.

Comparações MúltiplasComparações Múltiplas

Os testes post-hoc para a ANOVA – dois fatores são modificações dos testes para a ANOVA – um fator. Eles têm a mesma serventia, porém são capazes de comparações múltiplas entre tratamentos e também entre blocos.Veremos os testes de Sheffé e Tuckey HSD.

Comparações MúltiplasComparações Múltiplas

Teste de ShefféScheffé demonstrou que devem ser consideradas distintas entre si, e ao nível de significância adotado, as médias µi e µj, dos tratamentos, tais que:

, onde

D t= S R2 2 k−1

nF tt

∣x . i− x . j∣>Δt

Comparações MúltiplasComparações Múltiplas

Teste de ShefféDevem ser consideradas diferentes, as médias µi e µj, dos blocos, ao nível de significância, tais que: , onde ∣x i .− x . j .∣>Δb

Db= S R2 2 n−1

kF tb

Comparações MúltiplasComparações Múltiplas

Teste de Tukey HSDO teste de Tukey HSD considera a diferença entre as médias µi e µj, dos tratamentos, quando onde:

e q é a estatística de Tukey com parâmetros (α, k, dfr), onde dfr é o número de graus de liberdade do resíduo da ANOVA.

Δt= S R2 1

nq α,k,dfr

∣x . i− x . j∣>Δt

Comparações MúltiplasComparações Múltiplas

Teste de Tukey HSDConsidera a diferença entre as médias µi e µj, dos blocos, quando onde:

e q é a estatística de Tukey com parâmetros (α, n, dfr), onde dfr é o número de graus de liberdade do resíduo da ANOVA.

Δb=S R2 1

kq α,n,dfr

∣x i .− x . j .∣>Δb

Comparações MúltiplasComparações Múltiplas

Exemplo:

Usando o Teste de Scheffé, quais foram as médias responsáveis pela rejeição da hipótese nula no exemplo anterior.

Comparações MúltiplasComparações Múltiplas

Solução pelo Teste de Scheffé: = 18,775, k=4, n=5, F(3,12,0,05) = 3,49

∆ = 8,86772 = 12,40 > ∆ significativo

= 0,40 < ∆ não significativo = 20,60 > ∆ significativo = 12,00 > ∆ significativo = 8,20 < ∆ não significativo = 20,20 > ∆ significativo

S R2

∣x A−x B∣

∣x A−xC∣

∣x A−x D∣

∣xB−xC∣

∣xB−x D∣

∣xC− xD∣

Comparações MúltiplasComparações Múltiplas

Solução pelo Teste de Scheffé: Conclusão: Ao nível de 5% de significância conclui-se que somente os Postos de Saúde A e C; B e D são semelhantes.

ReferênciasReferências

• Hector G. Arango, Bioestatística Teórica e Computacional (2005). Rio de Janeiro: Ed. Guanabara Koogan, 2a ed.

• Hardeo Sahai, Mohammed I. Ageel (2000) Analysis of Variance: Fixed, Random and Mixed Models. Birkhäuser Boston; 1st ed.

• Goldshmidt, Day e Richardson (2000) em "Effects of Prenatal Marijuana Exposure on Child Behavior Problems at Age 10" publicado na Neurotoxicol. and Tetratol., 22, pg. 325-336.

• Brian S. Yandell (1997) Practical Data Analysis for Designed Experiments. Chapman & Hall/CRC; 1st ed.

• John Verzani (2005) Using R for Introductory Statistics. Boca Raton: Chapman & Hall/CRC.

• Psychology World (2009) Tukey's Post Hoc Test. Disponível em <http://web.mst.edu/~psyworld/tukeys4mean.htm>, maio de 2009.