39
Análise de Variância Projeto Final – UC Estatística I Carla Noronha aluna nº 1002152 MBB- Mestrado em Bioestatística e Biometria Este documento é apenas um breve resumo do que é a Análise de variância e as suas aplicações nas diferentes áreas das ciências, exatas e não exatas. Tentámos mostrar alguns exemplos e expor alguns dos seus modelos e pressupostos. Embora limitados pelo número de páginas, abordámos aquilo que considerámos ser o essencial desta temática. Dados adicionais foram colocados no powerpoint anexo. 17-06-2012

Análise de Variância e planeamentos experimentais (2)

Embed Size (px)

Citation preview

17-06-2012

INDICE

página

1.Breve história da Análise de Variância …………………………………………………………………………………… 2

2.O que é então a análise de variância? ……………………………………………………………………………………… 5

2.1.Pressupostos da Anova …………………………………………………………………………………………….. 6

2.1.1. Independência dos erros ………………………………………………………………………………… 6 2.1.2. Normalidade dos erros …………………………………………………………………………………… 6 2.1.3. Homogeneidade da variância ………………………………………………………………………….. 73.Análise de variância a um fator e efeitos fixos ………………………………………………………………………… 7 3.1 Modelo …………………………………………………………………………………………………………………… 7 3.2. Pressupostos………………………………………………………………………………………………………….. 8 3.3. Hipóteses a testar…………………………………………………………………………………………………… 8 3.4. Representação ………………………………………………………………………………………………………. 8 3.5. Tomada de decisão ………………………………………………………………………………………………… 94. Análise de Variância a um fator e efeitos aleatórios ………………………………………………………………. 9 4.1. Modelo ………………………………………………………………………………………………………………….. 9 4.2. Pressupostos……………………………………………………………………………………….………………….. 9 4.3. Hipóteses a testar…………………………………………………………………………………………………... 10 4.4. Representação……………………………………………………………………………………………………….. 10 4.5. Tomada de decisão………………………………………………………………………………………………… 115. Análise de Variância a dois factores………………………………………………………………………………………. 11 5.1. Modelo de efeitos fixos – uma observação por célula ……………………………………………….. 11 5.1.1. Modelo ………………………………………………………………………………………………………… 11 5.1.2. Pressupostos.………………………………………………………………………………………………… 116. Teste de Comparação Múltipla (testes post-hoc)……………………………………………………………………. 11 6.1. Breve história dos testes post-hoc ………………………………………………………………………….. 12 6.2. As distribuições por detrás dos testes post-hoc ………………………………………………………. 12 6.3. Noção de contraste………………………………………………………………………………………………… 13 6.4. Teste de Neuman Keuls………………………………………………………………………………………….. 14 6.5. Teste de Tukey Honestly Significant Difference (HSD ou Tukey)……………………………… 14 6.6. Teste LSD de Fisher ………………………………………………………………………………………………. 15 6.7. Teste de Dunnett…………………………………………………………………………………………………… 16 6.8. Teste de Scheffè……………………………………………………………………………………………………... 16 6.9. Teste de Benferroni……………………………………………………………………………………………….. 177. Áreas de Aplicação da Análise de variância ………………………………………………………………………….. 17 7.1. Anova e agricultura ………………………………………………………………………………………………. 17 7.2. Anova e Psicologia ………………………………………………………………………………………………… 18 7.3. Anova e Ecologia …………………………………………………………………………………………………… 18 7.4. Outras…………………………………………………………………………………………………………………… 18 7.5. Exemplos de aplicação da Análise de Variância ………………………………………………………. 188. Conclusão …………………………………………………………………………………………………………………………… 249. Bibliografia e Webgrafia……………………………………………………………………………………………………….. 25

1

1.Uma breve história da Análise de Variância

A Análise de Variância (Anova) é, provavelmente ,o método estatístico de maior repercussão na pesquisa científica, especialmente na experimentação agrícola, de onde surgiu como uma das muitas provas do génio de Fisher. Tratando-se de uma exposição histórica, é natural que a análise de variância e os planeamentos experimentais, vistos por ele como dois aspectos do mesmo todo, sejam tratados conjuntamente. O seu desenvolvimento e muitas das suas aplicações originaram-se no período em que Fisher trabalhou na Estação Experimental de Rothamsted, de 1919 a 1933, a maior e mais antiga das instituições britânicas de pesquisa agrícola onde eram conduzidos ensaios com fertilizantes químicos desde sua fundação, em 1843. A terminologia por ele criada bem reflete essa influência. As suas ideias sobre esse assunto encontram-se em suas duas obras: Statistical Methods for Research Workers, (1925) e The Design of Experiments, (1935), as quais são consideradas as suas maiores contribuições à Estatística. Embora destinadas aos pesquisadores das áreas biológica e agrónoma, não são de fácil leitura. Entretanto, graças à sua disseminação foram devidamente interpretadas, especialmente por George Waddel Snedecor (1881 – 1974), autor do livro (Snedecor, 1937), que já vai para a sétima edição, tendo W. G. Cochran como co-autor. A novidade introduzida por Fisher foi o princípio da casualização, uma brilhante inspiração, inteiramente sua, segundo Yates (1964b). Segundo ele, a casualização garantiria a validez da estimativa do erro e possibilitaria a aplicação dos testes de significância para se verificar o efeito dos tratamentos. Para ele, pela casualização (por um mecanismo objetivo de sorteio) nenhum tratamento seria continuamente favorecido ou desfavorecido nas sucessivas repetições por alguma fonte estranha de variação. Ela era necessária para que as variações que contribuem para o erro experimental fossem convertidas em variáveis aleatórias. Ainda de acordo com Fisher, a análise de variância pode ser considerada um método estatístico, mas não um teorema matemático, sendo nada mais que um modo conveniente de “arranging the arithmetic”, segundo suas palavras. Naturalmente, como outras invenções lógicas, é baseada em teoremas matemáticos, previamente demonstrados. Um tratamento matemático elementar encontra-se em Irwin (1931), e uma prova formal mais completa foi dada por Cochran (1934). A título de rigor histórico, deve ser mencionado que a ideia de comparar a variação entre grupos com a variação dentro de grupos como teste de homogeneidade foi primeiramente estudada por Wilhelm Lexis (1837 – 1914) na Alemanha, no final do século XIX, com relação à amostragem de atributos homógrados. Para isso, Lexis criou um critério de dispersão (o termo variância não era conhecido na época), também chamado razão de Lexis, L., ligado ao χ2 pela relação χ2 /ν = L2, onde é o número de graus de liberdade. Contudo, somente graças aos trabalhos de Fisher,ν essas ideias tiveram maior avanço e pleno desenvolvimento. O termo variância foi cunhado por Fisher, em 1918, num artigo , no qual mostra que as correlações encontradas entre parentes podem ser explicadas pelo mecanismo da herança mendeliana. Neste trabalho foi apresentada uma decomposição percentual da variância total em suas respectivas causas, mas não pode ser considerada uma análise de variância como essa veio a ser conhecida.O primeiro artigo sobre esse tópico apareceu num artigo de Fisher, com sua assistente Miss Winifred A. Mackenzie (Fisher & Mackenzie, 1923). Trata-se da análise estatística de uma experiência realizada em Rothamsted em 1922, utilizando um planeamento do tipo split plot. De acordo com Cochran (1980), no seu artigo póstumo Fisher and the Analysis of Variance, Fisher ainda não havia dominado completamente as normas da análise de variância. Na verdade, sua análise denominada Analysis of Variation e não variance, continha erros, pois foi usada apenas uma única estimativa do erro experimental para todas as comparações. É interessante observar que Fisher empregou primeiramente o modelo multiplicativo como mais apropriado. Nesse mesmo artigo, usou também o

2

modelo aditivo, que continuou a preferir em trabalhos posteriores, provavelmente pela maior facilidade de manipulação. Entretanto, 2 anos depois, em 1925, ao publicar Statistical Methods for Research Workers, Fisher havia percebido seu erro e apresentou então uma análise estatística correta no parágrafo 42, Ex. 41. Naquela época, ele tinha completo domínio sobre o assunto. Esse exemplo serve para comprovar, mais uma vez, que, na abertura de novos caminhos, os primeiros passos são oscilantes. As ideias nunca surgem de modo pronto e definitivo, obedecendo antes a um processo de desenvolvimento que se aperfeiçoa com tentativas e com hesitações, pois que o processo criativo é formado de conjecturas da imaginação e não uma dedução lógica dos conhecimentos anteriores. Cabe, aqui, a frase do escritor Arthur Koestler “The history of ideas is filled with barren truths and fertile errors”. (A história das ideias está cheia de verdades estéreis e erros férteis).Deve ser dito, que o próprio Student, ao envolver-se na experimentação de campo, principalmente na competição de variedades de cevada em larga escala, por motivos de trabalho na Cervejaria Guinness, deu preferência aos arranjos equilibrados sistemáticos, argumentando que a casualização causa um aumento da variabilidade. Isso constituiu ponto de discórdia entre Student e Fisher, embora não tenha causado qualquer inimizade entre ambos, que permaneceram amigos até a morte de Student, em 1937. Independentemente de Fisher, ele chegara à estimativa do erro para a comparação de variedades, utilizando, como sempre, sua originalidade que Fisher mostrou ser algebricamente equivalente à análise de variância. Em 1923, na sua correspondência com Gosset, Fisher mostrou, também, a derivação do procedimento usado na análise de variância em blocos casualizados por meio do ajustamento de constantes para blocos e para tratamentos pelo método clássico dos mínimos quadrados. Embora essa tenha sido a primeira abordagem da análise de variância, Fisher deu preferência à apresentação da análise aritmética da decomposição da soma dos quadrados, cuja simplicidade tornou-a acessível aos pesquisadores menos versados em teoria estatística. Isso representou um ganho prático enorme, desde que não fosse elevado a um ritual cego, nas palavras de Maurice Stevenson Bartlett (1910 – 2002), conhecido por seu teste de homogeneidade de variâncias (Bartlett, 1965). Entretanto, essa simplicidade de cálculos depende do facto de a experiência ter sido delineada para ser ortogonal, i.e., permitir que os efeitos sejam capazes de uma estimação direta e separada, pois, em caso contrário, tornar-se-á necessário usar o princípio clássico dos mínimos quadrados para se estimarem os parâmetros. As técnicas de estimação de parcelas perdidas (missing plot), iniciadas com Allan & Wishart (1930), nada mais são que recursos para restaurar a ortogonalidade, tornando assim possível a análise de variância, segundo padrão simples. O primeiro reconhecimento ostensivo de que um modelo linear analisado pelo método dos mínimos quadrados era mais fundamental do que uma análise intuitiva baseada no desdobramento da soma dos quadrados deve-se a Yates (1933). Naquela época, Yates ainda não tinha conhecimento da correspondência entre Fisher e Gosset, acima referida. Não demorou para que esse método fosse utilizado em planeamentos não equilibrados e estendido a problemas de regressão múltipla. É pena que a Anova seja estudada atualmente apenas dentro da teoria dos modelos lineares, pela sedução de sua elegância, completamente desligada de sua origem histórica.Durante quase 90 anos antes da chegada de Fisher, a Estação experimental de Rothamsted vinha a experimentar diferentes tipos de fertilizantes, usando um único fertilizante no campo agrícola durante um ano inteiro e fazendo medições com alterações das outras variáveis, como a chuva e a temperatura, estudando a colheita desse ano. O que Fisher fez foi revolucionar a forma como as experiências eram realizadas, pois comparava os efeitos de mais do que um fertilizante num único ano, usando todos os tipos de fertilizante disponíveis simultaneamente em várias parcelas de terreno vizinhas. As ideias de Fisher foram finalmente vitoriosas e, a partir de 1925, a casualização foi usada como rotina em todos os planos experimentais realizados em Rothamsted. A análise de variância, com

3

a análise de covariância, também por ele desenvolvida, passaram a constituir o instrumental básico para a interpretação dos resultados das experiências controladas. No seu artigo, Fisher (1926), considerado o precursor de seu livro The Design of Experiments, declara, peremptoriamente, que não se deve levar em conta o aforismo de se perguntar à natureza apenas uma questão de cada vez, pois muitas vezes ela se recusa a responder até que outro fator seja acrescentado, advogando, assim, o uso de experiências fatoriais e suas vantagens. Contudo, ele percebeu as dificuldades práticas para um grande número de fatores, tendo mostrado que essas dificuldades poderiam ser evitadas incluindo-se num bloco apenas uma parte de todas as combinações possíveis. Assim, cada bloco não seria mais uma repetição completa, sacrificando-se deliberadamente a informação de certas interações, consideradas pouco importantes, confundindo-as com as diferenças entre blocos. Esse artifício técnico foi denominado confundimento (confouding), que pode ser total ou parcial, conforme as interações estejam completamente confundidas ou apenas em parte, permitindo, assim, a recuperação da informação sobre as interações confundidas. No supracitado artigo, Fisher mostra, pela primeira vez, sua preferência por um nível de significância de 5% revelando que talvez outros preferissem um nível mais rigoroso, como 2% ou 1%. As experiências fatoriais e as técnicas de confundimento foram posteriormente desenvolvidos por Frank Yates (1902 – 1994) e estão expostos em sua monografia The Design and Analysis of Factorial Experiments (1937), à qual deve ser acrescentada sua extensa lista de trabalhos sobre blocos incompletos, em geral. Em 1931, Yates foi para Rothamsted, em substituição a John Wishart (1898 – 1956), assistente de Fisher desde 1928, que saíra naquele ano para lecionar na Universidade de Cambridge, onde foi responsável pela formação académica de mais de uma geração de ilustres estatísticos. Um exemplo de sua cooperação com Fisher, naquele período, é a publicação de Fisher & Wishart (1930), que mostra a preocupação de ambos em divulgar os novos métodos ao alcance dos pesquisadores. Uma vez estendida a experiências mais complexas, além de fornecer as estimativas dos erros e os testes de significância dos vários efeitos, a Anova permitiu estimar as componentes de variância atribuídas às diferentes classes de efeito. Aliás, em Statistical Methods for Research Workers, o leitor é introduzido à Análise de Variância nesse contexto, como alternativa à correlação intra-classe e que, segundo o autor, esse método constituía grande simplificação. Fisher achou que a distribuição do coeficiente de correlação intra-classe era essencialmente equivalente à da razão de variâncias. Ele nunca se preocupou de tratar a correlação intra-classe separadamente da análise de variância, nas sucessivas edições de seu livro. Certamente, a forma da análise de variância apropriada à correlação intra-classe ou a qualquer classificação hierárquica requer ampliação para ser usada nas classificações cruzadas da análise de experiências.A Anova difundiu-se rapidamente entre os pesquisadores. Para muitos deles, a estimação das componentes de variância era irrelevante, mas em muitos casos essas estimativas tornavam-se necessárias. Tudo isso era bem conhecido até o fim da 2ª Guerra Mundial. Entretanto, depois desse período surgiu novo conceito introduzido por Churchill Eisenhart (1913 – 1994) num artigo sobre pressuposições em que se baseia a análise de variância, Eisenhart (1947). Nesse artigo, ele distingue o Modelo I ou de efeitos fixos, e o Modelo II ou de efeitos aleatórios, tendo sido depois acrescentado o modelo misto, em que alguns efeitos são fixos e outros aleatórios. A análise estatística é a mesma nos diferentes modelos, mas os testes de significância diferem, de acordo com a expectância dos quadrados médios. Na prática, um modelo é de efeitos fixos, se os tratamentos são deliberadamente escolhidos, ou é de efeitos aleatórios (também chamado de componentes de variância) se é feita uma seleção aleatória dos tratamentos, mas o interesse do pesquisador não se restringe apenas a eles. Este último é a forma original da análise de variância. Realce-se que, não só Fisher inventou um procedimento experimental poderoso, elegante e relativamente simples, como também produziu a técnica estatística para analisar os dados obtidos, Esta técnica é a ANOVA (análise de variância) e

4

também a ANCOVA (análise de covariância)! Fisher estabeleceu estas técnicas analíticas que se tornaram a base de todos os currículos dos cursos com investigação nas ciências sociais e comportamentais.

2.O que é então a Análise de Variância?

Em atividades anteriores neste MBB já tivemos a oportunidade de estudar a forma de comparar duas médias populacionais através da utilização da inferência estatística. Mas podemos ter necessidade de comparar mais do que um par de médias. A título de exemplo consideremos a situação em que queremos testar a eficácia de um novo medicamento no tratamento de determinada patologia através da administração de 5 tratamentos diferentes : o novo medicamento, 3 outros já existentes no mercado e um placebo. Como fazê-lo?

Hipótese número um : constituir pares com os vários medicamentos – obteremos então 5C2= 10 pares que poderemos então analisar usando testes paramétricos.

Hipótese número dois: conduzir uma análise de variância (ANOVA) na qual intervêm todos os medicamentos em simultâneo. Desta forma será possível comparar a eficácia dos 5 medicamentos de uma só vez e, caso se identifiquem diferenças entre as mesmas, essas poderão ser detectadas com maior rigor recorrendo aos testes de comparação múltipla.

Então, o que é a Anova, essa técnica fantástica que nos permite efectuar tal estudo e poupar tempo na comparação de scores de dados?

A ANOVA é uma técnica estatística que foi desenvolvida por Fisher (tal como referido no capitulo anterior) e que permite então a comparação simultânea de k médias com recurso à distribuição F de Fisher.Pensando ainda no nosso exemplo, poderei eu afirmar que o novo medicamento é mais eficaz dos que os demais existentes já no mercado? A análise de variância procura dar resposta a esta pergunta através da comparação efectuada pela dispersão presente no conjunto de dados – daí o nome Análise de Variância. Neste nosso exemplo, as observações registadas são provenientes de grupos classificados através apenas de um fator – a doença – neste caso, falamos em Análise de variância a um fator (One way Anova). Evidentemente só fará sentido considerar tal fator se se puder garantir a homogeneidade das populações em relação a todos os outros factores que poderiam ser relevantes para a explicação do fenómeno (iremos alargar-nos sobre as condições de aplicabilidade da Anova adiante).Em muitas situações há mais do que um fator a influenciar os resultados das observações - neste caso, falamos em Anova a 2 fatores (Two way Anova). Se existirem mais do que dois fatores a condicionar os resultados também podemos falar em Anova a 3 fatores (Three way Anova) ou multifatorial.Por outro lado dizemos que a análise de variância tem tantos níveis ou efeitos quantos grupos distintos se considerem.Por vezes usamos a expressão tratamento em vez de grupo Na maior parte dos casos, os grupos são determinados à partida – dizemos então que estamos perante uma Anova com efeitos fixos. Em alternativa, os grupos podem ser retirados aleatoriamente de entre um conjunto alargado de possibilidades. Neste caso estamos perante uma análise de variância com efeitos aleatórios.

5

2.1.Pressupostos da Anova

Antes de conduzir uma análise de variância (Anova) , os investigadores devem assegurar-se que se verificam os pressupostos inerentes a este tipo de estudo, que são, a saber:

1. as componentes do erro associadas à variável dependente são independentes

2. os erros distribuem-se normalmente

3. as variâncias nos vários níveis dos grupos da variável independente são iguais

Embora possamos discutir cada um destes pressupostos em separado, na prática eles estão interligados de tal forma que a violação de qualquer um deles afeta os outros.

2.1.1.Independência dos erros

A primeira assumpção por detrás da Anova é que o resíduo da componente Yi ( a diferença entre as observações e a média do grupo) é aleatória e independente nas observações individuais. A dependência pode ocorrer quando um Yi contem informação acerca de outro. Este fato seria indicativo de uma relação entre os erros e as observações. Que formas de dependência podem ocorrer e devidas a que tipo de factores? Pois bem, uma importante fonte de dependência pode surgir se os participantes num tratamento forem testados em pequenos grupos ou entrarem num tratamento com afiliações prévias que afetam a forma como se farão as medições da variável dependente. Uma segunda fonte de ocorrência de dependência pode ocorrer se os participantes num estudo puderem comunicar entre si sobre a tarefa que irão executar e, por fim, um terceiro tipo de situação de dependência ocorre quando a componente de erro de cada observação cai num padrão cíclico tipicamente devido aos participantes, porque os dados que estão a ser recolhidos demasiado próximos uns dos outros no tempo. Esta proximidade dos casos uns aos outros no tempo, por vezes referida como autocorrelação, pode produzir componentes de erro residual que não são independentes uns dos outros.

2.1.2.Normalidade dos erros

A curva normal é conhecida pela sua tradicional curva em sino que mostra distribuições simétricas e que produz o mesmo valor de média, moda e mediana.

A Anova assume que o erro residual associado aos registos de Y i distribuem-se normalmente. Contudo, na prática, muitas vezes encontramos variáveis dependentes que não são perfeitas na sua forma. Os outliers são casos em que surgem valores extremos de uma determinada variável, possivelmente indicando uma descoberta casual, mas é o mais provável é ser indicativo de erro experimental (por exemplo, codificação de erro, insuficiência do participante em seguir as instruções, as crianças que não cooperam ou ratos, fadiga).Os Outliers devem ser eliminados, a menos que o

6

Figura 1 – curva Normal

pesquisador os considere para ser verdadeiramente uma pequena parte da população em estudo.Ora, consequência desta falta de normalidade é a perda da robustez da Anova , robustez essa que é parte fundamental do teorema do limite central. Ainda assim, a violação deste principio não constitui razão para o investigador abandonar os seus dados. Uma das formas de corrigir esta situação é a eliminação dos outliers ou dos últimos 5% e os primeiros 5% da distribuição.

2.1.3.Homogeneidade da variância

É necessário garantir a homocedasticidade. A distribuição dos erros de cada grupo tem que ter variâncias iguais. A violação deste principio tem pelo menos 3 causas (Keppel & Wickens,2004). Primeiro, as variáveis independentes de classificação, como género ou etnia podem ter variações únicas associadas com as observações da variável dependente. Em segundo lugar, uma manipulação experimental de uma variável independente pode incentivar os participantes a comportarem-se de forma mais semelhante ou diferente do que a condição de controlo, produzindo assim diferenças de desvios do grupo, o que constitui a motivação para participar no estudo. Terceiro, a variabilidade de algumas variáveis dependentes pode estar relacionada com o tamanho do grupo. A heterogeneidade pode tornar-se um problema sério com amostras de tamanhos desiguais. Existem fundamentalmente duas formas de corrigir a heterogeneidade da variância. A primeira passa pela redução do nível do coeficiente alfa, habitualmente para 0.025 . Desta forma o erro tipo I vai manter-se abaixo dos 5%. E a segunda consiste em transformar os dados iniciais, utilizando por exemplo a a raiz quadrada ou o logaritmo; por vezes, tal consegue-se usando a função arcoseno e atinge-se assim a normalidade e reduz-se a heterogeneidade.

3.ANÁLISE DE VARIÂNCIA A UM FATOR E EFEITOS FIXOS

Em experiências com um fator os dados consistem em k grupos/tratamentos independentes de amostras e em cada grupo são feitas ni medições. Se todas as amostras tiverem o mesmo número de medições (a mesma dimensão) dizemos que se trata de um caso equilibrado

Ao longo deste trabalho iremos adotar a seguinte notação :

Yij – Resposta observada para cada tratamento, com i= 1,2,3,…k ; j=1,2,3…ni

N – total de observações , com N= k.ni

3.1.Modelo

Yij = µi + εij = µ + τi + εij

Em que µi - representa a média de cada grupoµ - representa a média de todos os grupo (média global)εij – representa o erro aleatório de cada observação, sendo estes erros independentes entre siτi - representa o parâmetro único para o tratamento i (efeito do i-ésimo tratamento)

7

Pressupõe-se que εij N(0,σ2) , pelo que Yij N(µi,σ2)Isto significa que cada grupo provém de uma população Normal com uma certa média µi, mas todos com a mesma variância.

3.2.Pressupostos

1. Temos k grupos/tratamentos de observações independentes, sendo os grupos independentes entre si2. Cada grupo de observações deve provir de uma distribuição Normal3. A variância das populações deve ser a mesma (homocedastecidade)

3.3.Hipóteses a testar

H0 : µ1= µ2= …= µk = µ vs H1 : µi≠ µj para pelo menos um par (i,j)

3.4.Representação

Yio →soma total das observações do i-ésimo tratamento

Yi●→média das observações do i-ésimo tratamento

y●●→média global das observações

Assim, temos que

Yio= ∑j=1

ni

Y ij , Yi● = y io

ni

, i=1,2,…,k

Yoo=∑i=1

k

∑j=1

ni

Y ij , y●● = yoo

n , n= ∑

i=1

k

ni

A Soma de Quadrados Total , SQT , mede a variabilidade global dos dados. Assim, temos que

SQT= ∑i=1

k

∑j=1

ni

¿¿¿¿

A variabilidade total pode ser expressa como uma partição:

∑i=1

k

∑j=1

ni

¿¿¿¿ = ∑i=1

k

∑j=1

ni

( y i ●− y●●)2 + ∑

i=1

k

∑j=1

ni

( y ij− y i ●)2

SQT = SQA + SQEEm que

SQT representa a soma de quadrados total SQA representa a soma de quadrados entre amostras (devido aos tratamentos) SQE representa a soma de quadrados no erro/resíduo

Para podermos efectuar o estudo da Anova com maior facilidade é habitual representarmos todos os dados numa tabela Anova como a que se segue:

8

Origem de variação

Graus de Liberdade

Soma de Quadrados

Quadrados Médios

Razão de Variância

Entre tratamentos

k-1 SQAQMA=

SQAk−1

QMAQME

Entre erros n-k SQEQME=

SQEn−k

total n-1 SQT

3.4.Tomada da decisão:

Ao calcularmos a razão de variâncias , F0=

SQAk−1SQEn−k

= QMAQME

, esta terá distribuição F de Fisher-

Snedecor, com k-1, n-k graus de liberdade. A regra da decisão que devemos adotar é

Rejeitar a hipótese nula ao nível de significância , se Fα 0 > Fk-1,n-k ( %)α

4.ANÁLISE DE VARIÂNCIA A UM FATOR E EFEITOS ALEATÓRIOS

Já percebemos como se realiza a Anova One-way de efeitos fixos. Mas pode haver necessidade de realizar experiências em que estão envolvidos um grande número de níveis ou tratamentos. Nesse caso, torna-se impossível para o investigador estudá-los todos, pelo que deverá proceder a uma selecção aleatória de alguns. Este é o modelo de efeitos aleatórios. Como a selecção é feita aleatoriamente, é possível extrapolar as conclusões para a população.

4.1.Modelo

Yij = µ + τi + εij , i= 1,2,…t ; j= 1,2,…, r , em que t é o número aleatório de níveis/tratamentos e r a dimensão das amostras

Yij – Resposta observada para cada tratamento, com i= 1,2,3,…k ; j=1,2,3…ni

µ - representa a média de todos os grupo (média global)εij – representa o erro aleatório de cada observação, sendo estes erros independentes entre siτi - representa o parâmetro único para o tratamento i (efeito do i-ésimo tratamento)

Se representarmos por σ τ2 a variância de τi e se τi for independente de εij , então a variância de

qualquer observação pode ser expressa por :V(yij)= σ y

2=σ τ2+σ2 em que σ τ

2 é denominada componente e σ 2 variância.

9

4.2.Pressupostos

τi – Normal e identicamente distribuídos, independentes e com média 0 e variância σ τ2

εij - Normal e identicamente distribuídos, independentes e com média 0 e variância σ2

τi e εij são independentes

4.3.Hipóteses a testar

H0 : σ τ2 = 0 (não há variabilidade entre tratamentos) vs

H1 : σ τ2>0 (há variabilidade entre tratamentos)

4.4.Representação

Yio →soma total das observações do i-ésimo tratamento

Yi●→média das observações do i-ésimo tratamento

y●●→média global das observações

Assim, temos que

Yio= ∑j=1

ni

Y ij , Yi● = y io

ni

, i=1,2,…,k

Yoo=∑i=1

k

∑j=1

ni

Y ij , y●● = yoo

n , n= ∑

i=1

k

ni

A Soma de Quadrados Total , SQT , mede a variabilidade global dos dados. Assim, temos que

SQT= ∑i=1

t

∑j=1

ni

¿¿¿¿

A variabilidade total pode ser expressa como uma partição:

∑i=1

k

∑j=1

r

¿¿¿¿ = ∑i=1

t

∑j=1

r

( y i ●− y●●)2 + ∑

i=1

t

∑j=1

r

( y ij− y i ●)2

SQT = SQA + SQE

Neste caso, a razão de variâncias pode ser definida por , F 0=

SQAt−1SQEn−t

= QMAQME

e o quadro resumo deste

modelo desta forma:

10

Origem de variação

Graus de Liberdade

Soma de Quadrados

Quadrados Médios

Razão de Variância

Entre tratamentos

t-1 SQAQMA=

SQAt−1

F0=QMAQME

Entre erros n-t SQEQME=

SQEn−t

total n-1 SQT

4.5.Tomada da decisão:

A regra da decisão que devemos adotar é

Rejeitar a hipótese nula ao nível de significância , se Fα 0 > Fk-1,n-k ( %)α

Se observarmos com atenção, podemos constatar que os procedimentos da Anova de efeitos fixos e aleatórios são bastante semelhantes. No entanto, realçamos a importância das interpretações dos resultados neste segundo caso, uma vez que, os resultados que aqui obtivermos serão extrapolados para toda uma população.

5.ANÁLISE DE VARIÂNCIA A DOIS FATORES

Não são raras as vezes em que as diferenças existentes entre tratamentos se devem não unicamente a um fator mas a vários outros. Pode ser de interesse do investigador estudar a influência dos mesmos nas diferenças possivelmente encontradas. Nestes casos, estaremos na presença de um estudo de análise da variância a dois(ou mais) fatores.

5.1.MODELO DE EFEITOS FIXOS – UMA OBSERVAÇÃO POR CÉLULA

5.1.1.Modelo

Yij = µ + τi + βj + εij , i= 1,2,…r ; j= 1,2,…, k

Yij –observação do i-ésimo nível do fator L e j-ésimo nível do fator Cµ - representa a média de todos os grupo (média global)εij – representa o erro aleatório de cada observação, sendo estes erros independentes entre siτi - constantes desconhecidas representativas do efeito principal do i-ésimo nível do fator L (linha i)βj – constantes desconhecidas representativas do efeito principal do j-ésimo nível do fator C (coluna j)

5.1.2.Pressupostos

Os mesmos que os assumidos para o modelo de análise a um fator

Neste modelo é evidente que é de interesse do investigador comparar não só as médias de como também de τ, procurando diferenças assinaláveis entre colunas e também entre linhas. Desta forma teremos a disposição β

habitual das observações conforme a figura

11

Fator C

1 2 … k1 Y11 Y12 Y1k

2 Y21 … … …… … … … …r … … … yrk

6.Testes de Comparação Múltipla (testes post-hoc)

Quando o resultado do teste de F da Análise de Variância é significativo, existem evidências para a não aceitação de H0 como verdadeira, ao nível % de probabilidade, isto é, aceita-se a existência de efeitosα diferenciados para, pelo menos dois tratamentos. O próximo passo será a identificação das diferenças existentes entre os tratamentos. Este estudo será feito através das médias dos tratamentos obtidas nas experiências. Os estudos sobre as médias dos tratamentos levam em conta o tipo de fator que estáa ser estudado: se o fator em estudo é uma variável qualitativa (variedades, tipos de adubos, diferentes dietas alimentares) o procedimento apropriado é o das comparações entre as médias dos tratamentos através de testes de comparações múltiplas. Sendo uma variável quantitativa (doses de adubo, espaçamentos, níveis de irrigação, épocas de amostragem), utiliza-se a análise de regressão para o estudo do efeito dos tratamentos na variável resposta.

6.1.Breve história dos testes post-hoc

Em 1995, Kirk estimou que existem cerca de 30 testes de comparação múltipla apresentados em literatura profissional. Independentemente desse fato, a verdade é que respeitados estatísticos e educadores manifestam preferências por dois ou três sobre todos os outros. Alguns destes testes são datados dos anos 30 quando a Anova ficou popularizada. A segunda onda do seu desenvolvimento ocorreu por volta dos anos de 1950. As primeiras comparações múltiplas surgem quando a LSD foi proposta por Fisher (1935). A proposta seguinte foi a SNK de Newman em 1939. Depois, os testes de comparação múltipla permaneceram adormecidos até 1950, quando ocorreu a verdadeira explosão de ideias: o procedimento de Duncan (1955), o HSD de Tuckey, o teste de contrastes de Scheffé (1953), o método de Dunnett (1955) e uma outra proposta de SNK (Keuls, em 1952). E uma vez mais, o ritmo de conceção de novos testes abrandou, até que, em 1960 surgem os procedimentos REGW e que se estendem no tempo até aos anos 70 (Ryan, 1960; Einot e Gabriel , 1975; Welsh,1977)

6.2.As Distribuições por detrás dos testes Post-Hoc

Uma forma de categorizar as diferenças entre os testes de comparação múltipla é atentar às distribuições por detrás deles (Kirk, 1995). Deste modo, podemos então definir 4 categorias: a distribuição t-Student, distribuição gama Student, coeficiente de distribuição Student máximo e distribuição F.

a) a distribuição t-Student

12

Fator L

É de fato possível usar um t-test para efectuar uma comparação entre duas médias. Num contexto de teste post-hoc, este teste sería aplicado a um par de médias. Ainda assim, a ser necessário, se tivéssemos que o fazer entre 5 médias, isso conduzir-nos-ía a 10 t-testes. O teste LSD (Least Significance Difference) de Fisher (1935) utiliza estes testes sem correcção para .α Muitos autores defendem que, sem este tipo de protecção para o erro Tipo I, o teste LSD só deve ser aplicado para poucas comparações, sob pena do teste devolver um falso positivo para a decisão.

b) distribuição gama Student

Tem a sua origem nos trabalhos de Gosset, no entanto teve também a contribuição de outros estatísticos. De forma simplificada, podemos dizer que é possível determinar quanto da diferença das médias necessita ser atingida para alcançar significância estatística para um dado alfa. A chave para esta determinação reside em obter uma estatística intermédia denominada q que poderá então ser utilizada para alcançar a diferença de médias pretendida. O valor de q tem uma fórmula associada proposta por Hayes(1981) :

q=ymaior− ymenor

√ QMAn

Em que se utiliza a maior e a menor média a comparar e QMA é obtido a partir da própria tabela Anova.Esta abordagem originou algumas variações : o teste HSD(Honestly Significance Difference) de Tuckey, por exemplo, aplica a distância critica a todos os parese de médias e, o SNK( Student-Newman-Keuls) apenas aos pares de médias que diferem mais entre si.

c) coeficiente de distribuição Student máximo

Baseado nas pesquisas de Sidàk (1967) e na estatística gama Student e corresponde a trabalhos em variações do t-test. Apesar da gama Student assumir a presunção que as amostras têm o mesmo tamanho, o coeficiente de distribuição Student máximo é aplicável a grupos de tamanho diferente.

d) Estatistica F

De fato, é realmente possível utilizar a estatística F para comparar médias. Kirk (1995) diz-nos que, em grupos com o mesmo tamanho, t,q e F estão relacionados da seguinte forma:

t= q

√2=√F

6.3.Noção de contraste

Uma comparação entre médias de tratamentos é denominada contraste quando puder ser expressa por uma função linear destas médias:

13

Y1 = c1y1 + c2y2 + … + cIyI

em que ∑i

ric i=0 sendo ri é o número de repetições do tratamento i. Se os tratamentos têm o mesmo

número de repetições J, a condição é ∑i

ci=0

São vários os testes de comparação múltipla que podem ser utilizados após a não aceitação de H 0

como verdadeira :

●Student Neuman Keuls (SNK)●Tukey Honestly Significant Difference (HSD ou Tukey)●Fisher Protected Least Significant Difference (LSD)●Duncan Multiple Range Test (Duncan)●Teste de Ryan●Teste de Peritz●Teste de Scheffé●Teste de Dunnett●Correcção de Bonferroni sequencial●Teste T3 de Dunnet (rank based)●Teste C de Dunnet (rank based)●Teste de Games Howell (rank based)

Estes testes diferem entre si no rigor, no poder e também na sua aplicação. Deste modo, tentaremos aqui evidenciar os testes mais utilizados e as circunstâncias da sua utilização. poder

t DUNCAN SNK SCOTT-KNOTT TUKEY BONFERRONI SCHEFFÈ

rigor

Mesmo correndo o risco de alguns dos testes ficarem excluídos , fazemos aqui uma pequena incursão nos seus prós e contras.

6.4.Teste de Neuman Keuls

Por que se recomenda que não se use o teste de comparação múltipla de Newman-Keuls?O teste de Newman-Keuls (também chamado de Student-Newman-Keuls) compara todos os pares de médias, seguindo-se a uma ANOVA. Tem mais poder do que o teste de Tukey. Por vezes, podemos achar que a diferença entre os dois grupos é "estatisticamente significativa" em alguns casos onde o teste de Tukey iria concluir que a diferença "não é estatisticamente significativa". Mas esta energia extra tem um preço. Sugere-se que se evite este teste porque, embora seja premissa dos testes de comparação múltipla manter a possibilidade de um erro do Tipo I em qualquer comparação, por forma a não exceder os 5%, de facto o teste de Newman-Keuls não o faz. Em alguns casos, a possibilidade de um erro deste tipo pode ser maior do que 5%. (O teste de Newman-Keuls funciona

14

Figura 4 – comparação entre os testes

bem com três grupos;. O aumento de erro de Tipo I ocorre apenas com quatro ou mais grupos). Porque o teste de Newman-Keuls funciona de uma forma sequencial, não pode produzir intervalos de confiança de 95% para cada diferença. É difícil articular exatamente qual a hipótese nula do teste de Newman-Keuls; na verdade, os testes são tão complexos, que se torna difícil de interpretar seus resultados. 

6.5.Teste de Tukey Honestly Significant Difference (HSD ou Tukey)

Uma técnica de comparação fácil e frequentemente usada em pares de médias foi desenvolvida por Tukey sob a designação de HSD (diferença honestamente significativa, em português). A principal ideia é calcular a diferença entre duas médias usando a distribuição de Student, que devolve a maior diferença entre um conjunto de médias provenientes da mesma população. Todas as diferenças são avaliadas por meio de uma distribuição de amostragem, o que torna este método bastante conservador.

HSDentre grupos=|x i−x j|

Erro Padrão =√(QME2 )( 1

n i

+ 1n j

)

HSDcritico=Q(α ,k , N −K )√(QME2 )( 1

ni

+ 1n j

)Decisão : aceita-se H0 quando HSDcritico > HSDentre grupos

6.6.Teste LSD de Fisher

O método de Fisher para comparar todos pares de médias controla a taxa de erro ao nível de significância para cada comparação dois a dois, mas não controla a taxa de erro da experiência. Esseα procedimento usa a estatística   para testar

H0 : µi =µj em que t 0=

y i− y j

√QME ( 1ni

+ 1n j )

O procedimento de  Fisher consiste em realizar testes t múltiplos, cada um ao nível de  significância  ,somente se o teste Fα  preliminar for significante ao nível . Este pode ser visto comoα um procedimento de duas etapas em que a hipótese nula H0 é testada no primeiro passo por um teste F de nível . Se o testeα  F não é significativo, o procedimento termina sem precisar fazer inferências detalhadas nas diferenças dos pares das médias; caso contrário, cada diferença de par é testada por um teste t com nível  de significância. Esse procedimento é chamado deα  teste da diferença mínima significativa (least significant difference (LSD) test).

O LSD controla a taxa de erro da experiência ao nível α sobre H0 devido a  "proteção" fornecida para essa hipótese pelo teste F preliminar. No entanto, em outras configurações (hipóteses) de

15

médias verdadeiras, a taxa de erro da experiência pode ser maior que . Para tamanhos de αamostras iguais (dados equilibrados), o teste de Fisher considera duas médias significativamente diferentes se o valor absoluto de suas diferenças amostrais ultrapassar

LSD=t(α

2, N −K )√2

QMEn

e para tamanhos de amostras diferentes (dados não equilibrados)

LSD=t(α

2, N −K )√QME( 1

ni

+ 1n j

)

em que t é um valor tabelado (ver tabela Teste Fisher) que depende do número de graus de liberdade dos erros (N-k).

Por outras palavras, rejeitamos a igualdade entre as médias dos dois níveis se |y i .− y j .|>LSD 

6.7.Teste de Dunnett

Este é um teste em que se comparam médias com um controle ou com um valor referência

Dunnett (1955) foi pioneiro no conceito de que, quando um controle está presente, as comparações de interesse preliminar podem ser as comparações de cada novo tratamento com o controle. Por exemplo, o controle pode ser um placebo,  um tratamento "padrão", ou qualquer outro tratamento específico (como uma nova droga). Suponhamos  que μ1,...,μj-1 são as médias dos novos tratamentos e μj é a média do controle. Quando realizamos comparações múltiplas com um controle, os parâmetros de interesse primários são  μi-μj para i=1,2,…,j-1, a diferença entre cada nova média de tratamento μi e a média do controle μj, ou seja, queremos testar as hipóteses

H0 : µi = µj

H1 : µi ≠ µj

O método de Dunnett é uma modificação do teste t usual. A menor diferença significativa neste caso é dada por

d=dα (k , N−k )√2QME

n para dados equilibrados

d=dα (k , N−k )√QME( 1ni

+ 1n j

) para dados não equilibrados

em que  dα (k , N−k ) é um valor tabelado proposto por Dunnet (ver Tabela do Teste de Dunnett), que depende do número de níveis (k) e dos graus de liberdade dos erros (N-k).

Se tomarmos o nível j como controle, rejeitamos a igualdade entre a média do nível i e a média do

nível j se |y i .− y j .|>d

Em alguns estudos, a natureza dos tratamentos permite a composição de grupos detratamentos similares e o interesse maior poderá estar na comparação entre estes grupos.

16

6.8.Teste de Scheffè

O teste de Scheffè pode ser empregue para testar qualquer tipo de contraste não sendo, no entanto, recomendado para testar contraste de duas médias por ser muito pouco conservador.A estatística para o teste de Scheffè é dada por:

T S=|τ̂ i−τ̂ i

'|

√ SQEn−k ( 1

ni

+1

ni' )

Em que T S ≈√ (k−1 ) Fk−1, n−k (α) sendo F(k-1,n-k) ( ) o valor tabelado da distribuição F com (k-1,n-k) α

graus de liberdade e nível de significância ( )αAs hipóteses nulas

Ho : τ i=τ i' são rejeitadas quando TS > √(k−1)F (k −1 , n−k )(α )

6.9.Teste de Bonferroni

Outro dos métodos de comparação múltipla proposto por Fisher e usualmente chamado de teste ou procedimento de Bonferroni, consiste na realização de um teste t para cada par de médias a uma taxa

de erro por comparação (TPC) de α

(k2) . Usando esse teste, o nível de significância da família é no

máximo α, para qualquer configuração (formação) das médias da população. Dessa forma, temos que o teste de Bonferroni protege a taxa de erro da família dos testes. Isso ilustra a taxa de erro conhecida como taxa de erro por família. O teste de Bonferroni pode ser usado para quaisquer que sejam os dados equilibrados ou não. Não é um teste exato, sendo baseado em uma aproximação conhecida como primeira desigualdade de Bonferroni. Em algumas situações, o teste de Bonferroni mostra ser bastante "conservativo" (fraco), isto é, a taxa de erro da família de testes (FWER) é muito menor do que o nível de significância α estabelecido. Para a família de todas as comparações duas a duas, irá produzir intervalos de confiança maiores que o teste de Tukey ou Tukey-Kramer.Para tamanhos de amostras iguais (dados equilibrados), o teste de Bonferroni considera duas médias significativamente diferentes se o valor absoluto de suas diferenças amostrais ultrapassar

LSD=t (α , N −K )√2QME

n

e para tamanhos de amostras diferentes (dados não equilibrados)

LSD=t (α , N −K )√QME( 1ni

+ 1n j

)

em que α=12( α

c) e c é o número de comparações duas a duas (ou também podemos dizer que é o

número de intervalos em estudo). O quantil t(α , N−K) é da distribuição de probabilidade t-Student com 17

parâmetro N-K ver Tabela do Teste de Bonferroni . Temos assim que a margem de erro da equação anterior depende do número de comparações.

7. Áreas de aplicação da Análise de Variância

A Anova é um procedimento estatístico com múltiplas aplicações em diferentes áreas, sendo que, muitas delas são do âmbito do nosso MBB. De seguida apresento alguns exemplos de estudos que foram realizados em diferentes campos científicos, com recurso à Análise de Variância

7.1.Anova e Agricultura

http://www.afs-journal.org/index.php?option=com_article&access=standard&Itemid=129&url=/articles/forest/abs/1999/05/AFS_0003-4312_1999_56_5_ART0008/AFS_0003-4312_1999_56_5_ART0008.html

7.2. Anova e Psicologia

http://www.scielo.br/pdf/ptp/v25n2/a11v25n2.pdf

7.3.Anova e Ecologia

http://www.melloleitao.locaweb.com.br/boletim/arquivos/15/Boletim_15_Artigo02.pdf

7.4.Outros

Evidentemente, seria impossível apresentar um estudo para cada área de aplicação da Anova,

mas estes que aqui referencio, são apenas alguns que posso exemplificar. Esta técnica

estatística é transversal a quase todas as áreas das ciências, exatas ou não, desde a

antropologia, medicina e ciências da saúde, meteorologia, psicologia, ecologia, matemáticas e

afins, etc.

7.5.Exemplos de aplicação da Análise de Variância

Conforme nos é pedido neste trabalho, tentei realizar um estudo de Análise de Variância sobre

um tema relacionado com o meu trabalho habitual, recorrendo ao software R. Eis o que me

pareceu um exemplo engraçado: eu dou explicações de 8 disciplinas a alunos da Universidade

Católica Portuguesa; os 3 alunos que escolhi para realizar este estudo, são de 3 cursos de

engenharia diferentes: Informática, Mecânica e Biomédica. Dado que os 3 frequentam a mesma

universidade, têm explicações com a mesma pessoa, têm aulas com os mesmos professores e

nas mesmas condições, pareceu-me ser extremamente interessante avaliar os seus resultados

recorrendo a uma Anova realizada com o auxilio do R. Desta forma, apresento de seguida os

dados de que disponho:

AM1 AM2 AM3 AM4 AN FIS1 FIS2 PE

Aluno1 13 16 15 16 12 16 17 18

Aluno2 15 16 13 11 10 13 17 15

18

Aluno3 14 14 12 11 15 18 16 14

Então, o que pretendo saber? A questão que se coloca é se os 3 alunos apresentam um comportamento

distinto em relação aos resultados obtidos nas 8 disciplinas. A resposta mais adequada a esta questão

passa por efectuar uma análise de variância com um fator (aluno) e efeitos fixos.

Recorrendo então ao R, permiti o acesso do programa aos dados via importação de um ficheiro

formato .txt que tinha colocado no meu desktop:

> valores=read.table('C:/Users/Carlinha/Desktop/alunos.txt',header=T)

> valores

a1 a2 a3

1 13 15 14

2 16 16 14

3 15 13 12

4 16 11 11

> attach(valores)

> colMeans(valores) # calculo as médias dos 3 alunos #

a1 a2 a3

15.375 13.750 14.250

> sapply(valores,sd) # e as suas variâncias #

a1 a2 a3

1.995531 2.434866 2.187628

> boxplot(valores,xlab='ALUNOS',ylab='disciplinas',col=c("blue","yellow","pink")) # o traçar de

boxplots paralelos irá auxiliar-me para perceber se, à primeira vista, existem diferenças entre os

resultados dos 3 alunos #

a1 a2 a3

10

12

14

16

18

ALUNOS

dis

cip

linas

19

5 12 10 15

6 16 13 18

7 17 17 16

8 18 15 14

> amostra=stack(valores)

> amostra

values ind

1 13 a1

2 16 a1

3 15 a1

4 16 a1

5 12 a1

6 16 a1

> exemplo=lm(values~ind,data=amostra)

É agora necessário averiguar se cada uma das amostras pose ser considerada proveniente de uma

amostra normal. O teste adequado é o de Shapiro-Wilk (a dimensão das amostras é <20)

> shapiro.test(resid(exemplo))

Shapiro-Wilk normality test

data: resid(exemplo)

W = 0.9623, p-value = 0.4856

O p-value que o teste devolve é 0.4856 o que nos permite, ao nível de significância de 0.05 aceitar a hipótese de que as amostras são provenientes de uma população aproximadamente Normal.

De seguida é necessário averiguar a homogeneidade das variâncias das amostras e decidi fazê-lo recorrendo ao teste de Bartlett:

> bartlett.test(values~ind,data=amostra)

Bartlett test of homogeneity of variances

data: values by ind

Bartlett's K-squared = 0.2616, df = 2, p-value = 0.8774

O valor devolvido permite-nos concluir que sim, existe homogeneidade das variâncias (p-value > 0.05)

Por fim a realização da Anova a um fator, após a formulação das hipóteses:

H0: os alunos apresentam comportamentos idênticos quanto aos resultados nas disciplinas

H1: pelo menos um dos alunos apresenta comportamento distinto quanto aos resultados em relação aos restantes

> anova(exemplo)

Analysis of Variance Table20

13 10 a2

14 13 a2

15 17 a2

16 15 a2

17 14 a3

18 14 a3

7 17 a1

8 18 a1

9 15 a2

10 16 a2

11 13 a2

12 11 a2

19 12 a3

20 11 a3

21 15 a3

22 18 a3

23 16 a3

24 14 a3

Response: values

Df Sum Sq Mean Sq F value Pr(>F)

ind 2 11.083 5.5417 1.1312 0.3415

Residuals 21 102.875 4.8988

A observação do output da tabela Anova permite-nos concluir que os resultados dos alunos são idênticos ao nível de significância de 5%.Ora este exemplo que utilizei não permitiu o uso de testes de comparação múltipla, uma vez que tais só são necessários quando realizamos uma Anova e rejeitamos a hipótese nula (as médias são iguais), o que não aconteceu. Como tal, decidi procurar um outro exemplo, com aplicabilidade na área de competências do MBB e no qual se necessitasse recorrer aos ditos testes de comparação múltipla. Eis o exemplo que descobri:

Uma experiência foi realizada para se estudar a Diabetes Gestacional. Desejava-se avaliar o comportamento da Hemoglobina (HbA) em gestantes normais (N), com tolerância diminuída (TD) e diabéticas(D).

Escolheram-se 10 gestantes de cada tipo e mediram-se os seus níveis HbA; os resultados encontram-se na tabela em anexo:

N TD D

7.86 6.20 9.67

6.38 7.82 8.08

6.90 8.50 9.25

7.78 6.50 8.20

8.17 8.09 8.64

6.26 6.90 9.67

6.30 7.82 9.23

7.86 7.45 10.43

7.42 7.75 9.97

8.63 7.43 9.59

> valores=read.table('C:/Users/Carlinha/Desktop/Livro1.txt',header=T) # permitir o acesso ao ficheiro de

dados #

> valores

N TD D

1 7.86 6.20 9.67

2 6.38 7.82 8.08

3 6.90 8.50 9.25

4 7.78 6.50 8.20

5 8.17 8.09 8.64

21

6 6.26 6.90 9.67

7 6.30 7.82 9.23

8 7.86 7.45 10.43

9 7.42 7.75 9.97

10 8.63 7.43 9.59

> attach (valores)

> colMeans(valores) # cálculo da média #

N TD D

7.356 7.446 9.273

> sapply(valores,sd) # cálculo da variância #

N TD D

0.8468530 0.7183036 0.7614175

> boxplot(valores,xlab='gestantes',ylab='HbA',col=c("cyan","deeppink","aquamarine1"))

N TD D

78

91

0

gestantes

Hb

A

> amostra=stack(valores)

> amostra

values ind

1 7.86 N

2 6.38 N

3 6.90 N

4 7.78 N

5 8.17 N

6 6.26 N

7 6.30 N

8 7.86 N

9 7.42 N

10 8.63 N

> exemplo=lm(values~ind,data=amostra)

> shapiro.test(resid(exemplo))

22

11 6.20 TD

12 7.82 TD

13 8.50 TD

14 6.50 TD

15 8.09 TD

16 6.90 TD

17 7.82 TD

18 7.45 TD

19 7.75 TD

20 7.43 TD

21 9.67 D

22 8.08 D

23 9.25 D

24 8.20 D

25 8.64 D

26 9.67 D

27 9.23 D

28 10.43 D

29 9.97 D

30 9.59 D

Shapiro-Wilk normality test

data: resid(exemplo)

W = 0.9317, p-value = 0.05438

O p-value que o teste devolve é 0.05438 o que nos permite, ao nível de significância de 0.05 aceitar a

hipótese de que as amostras são provenientes de uma população aproximadamente Normal. De

seguida é necessário averiguar a homogeneidade das variâncias das amostras e decidi fazê-lo

recorrendo ao teste de Bartlett:

> bartlett.test(values~ind,data=amostra)

Bartlett test of homogeneity of variances

data: values by ind

Bartlett's K-squared = 0.2422, df = 2, p-value = 0.886

O valor devolvido permite-nos concluir que sim, existe homogeneidade das variâncias (p-value > 0.05)

Por fim a realização da Anova a um fator, após a formulação das hipóteses:

H0: as gestantes apresentam comportamentos idênticos quanto aos valores de HbA

H1: pelo menos um dos tipos de gestante apresenta comportamento distinto quanto ao nível de HbA

em relação aos restantes

> anova(exemplo)

Analysis of Variance Table

Response: values

Df Sum Sq Mean Sq F value Pr(>F)

ind 2 23.403 11.7015 19.364 6.078e-06 ***

Residuals 27 16.316 0.6043

---

Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

A observação do output da tabela Anova permite-nos concluir que os níveis de HbA não são idênticos

ao nível de significância de 5%. (p-value <0.05 → rejeitar H0 ).

Tal como era expectável, os níveis de HbA diferem nos 3 tipos de gestante, pelo que será conveniente

proceder a um teste de comparação múltipla para tentar perceber onde se encontram as principais

diferenças.

23

> hb.aov<-aov(exemplo)

> TukeyHSD(hb.aov,ordered=TRUE)

Tukey multiple comparisons of means

95% family-wise confidence level

factor levels have been ordered

Fit: aov(formula = exemplo)

$ind

diff lwr upr p adj

TD-N 0.090 -0.7719621 0.9519621 0.9637780

D-N 1.917 1.0550379 2.7789621 0.0000223

D-TD 1.827 0.9650379 2.6889621 0.0000445

> plot(TukeyHSD(hb.aov,ordered=TRUE))

-0.5 0.0 0.5 1.0 1.5 2.0 2.5

D-T

DD

-NT

D-N

95% family-wise confidence level

Differences in mean levels of ind

Tanto o gráfico como a tabela mostram onde se registam as maiores diferenças: os pares com

diferenças mais significativas são aqueles que apresentam limites inferiores (lwr) positivos. Neste

caso, podemos afirmar que os pares D-N e D-TD apresentam diferenças significativas ao nível de 5%

(p-value <0.05)

8. Conclusão

Tentámos no decorrer deste trabalho explicar de forma sucinta o que é a Análise de Variância, quais

as suas aplicações e pressupostos. Expusemos alguns dos seus modelos apesar de não ser possível

explicá-los todos, dada a sua extensão. Ainda assim, pôde perceber-se que a aplicabilidade da Anova é

imensa e a sua utilização é transversal a quase todas as ciências. Fizémos também um breve resumos

dos testes de comparação múltipla, explicando de forma sucinta alguns deles, mas muitos ficaram por

mencionar. Efetuámos em R dois estudos com a aplicação da Anova e num deles recorremos também

24

às comparações múltiplas. Um dos exemplos foi de aplicação numa das principais áreas do meu

trabalho, conforme solicitado. Da realização deste trabalho, retivemos algumas ideias principais:

A Análise de variância é uma técnica estatística que visa comparar várias médias de diferentes

amostras sem que se tenha que recorrer à comparação parwise, que tornaria o nosso trabalho muito

mais extenso. O software R é realmente muito potente e fiável. Permite-nos analisar cada questão até

à exaustão, assim seja o limite que nos impomos a nós mesmos. Muito ficou por dizer neste trabalho –

quem sabe, numa tese de Mestrado, ou de Doutoramento…um dia!

25

9. Bibliografia

[1] Oliveira, Teresa Paula C., Estatística Aplicada, Universidade Aberta, 2002

[2] Montgomery, Douglas, Design and Analysis of Experiments, 5th Edition, 1997

[3] Gamst, Glenn, Meyers, Lawrence, Guarino, AJ, Analysis of Variance Designs, Cambridge, 2008

[4] Dean, Angela, Voss, Daniel, Design and Analysis of experiments,1999

[5] Correia, Helga, Anova na Educação, Tese de Mestrado, Universidade Aberta, 2010-2011

[6] Ross, Sheldon, Simulation, 2006

[7] Ferreira, Daniel Furtado, Estatística Computacional usando R, Brasil, 2008

[8] Landeiro, Victor Lemes, Introdução ao uso do programa R, Brasil, 2011

[9] Provete, Diogo Borges, Silva, Fernando Rodrigues, Estatística aplicada à ecologia usando o R,2011

Webgrafia

[10] http://rtutorialseries.blogspot.pt/2011/03/r-tutorial-series-anova-pairwise.html (28maio

2102)

[11] http://www.youtube.com/watch?v=g7yvBYzAIho (30 maio 2012)

[12] http://www.portalaction.com.br (02 junho 2012)

[13] http://ecologia.ib.usp.br/bie5782/doku.php?id=start (10 junho 2012)

[14] http://www.math.mcmaster.ca/peter/s2ma3/s2ma3_0102/classnotes/notes20020328.html

(10 junho 2012)

26