20

Click here to load reader

Autocorrelacao

Embed Size (px)

Citation preview

Page 1: Autocorrelacao

Fundação Getúlio VargasGraduação em Economia

ECONOMETRIA I

Notas de Aula - Autocorrelação

Ilton G. Soares([email protected])

1 Autocorrelação

1.1 Introdução

Uma das hipóteses do Modelo Clássico de Regressão Linear (MCRL) estabelece que não há auto-correlação ou correlação serial entre os termos de perturbação incluídos na Função de RegressãoPopulacional (FRP). Apesar de ser um fenômeno típico de séries temporais, pode também ocor-rer em dados do tipo cross-section, entretanto neste tipo de dado a disposição das informaçõesdeve apresentar alguma lógica ou interesse econômico para que possamos compreender qualquerdecisão sobre a presença ou não de autocorrelação.A maioria das séries temporais em economia apresenta autocorrelação positiva, ainda que

seja possível a ocorrência de autocorrelação negativa. Os grá�cos (a) e (b) da �gura 01 exibemos padrões de autocorrelação positiva e negativa, respectivamente, quando a série é representadaao longo do tempo. Já os grá�cos (a) e (b) da �gura 02 ilustram os padrões de autocorrelaçãopositiva e negativa (na forma autoregressiva de ordem 1) quando avaliamos o grá�co de dispersãode série em função de seu valor defasado em um período.

Figura 01: Exemplos de autocorrelação positiva (a) e negativa (b).

1

Page 2: Autocorrelacao

Figura 02: Exemplos de autocorrelação positiva (a) e negativa (b).

Visando tornar a nossa análise mais clara, usaremos alguns conceitos da análise de sériestemporais:

De�nição 1 Um processo estocástico (ou processo de série temporal) fYtg1t=0 é uma seqüenciade variáveis aleatórias indexadas no tempo

De�nição 2 Dizemos que o processo fYtg1t=0 com segundo momento �nito�E�Y 2t�<1

�é

estacionário (fraco ou em covariância) se:i) E (Yt) = � constante;ii) V ar (Yt) = �2y constante;iii) Cov (Yt; Yt�h) = h depende apenas de h e não de t, onde h > 0.

De�nição 3 Dizemos que o processo f"tg1t=0 com segundo momento �nito�E�"2t�<1

�é um

ruído branco se:i) E ("t) = 0 para todo t;ii) V ar ("t) = �2" constante;iii) Cov ("t; "t�h) = 0 para todo t e h > 0.

É fácil ver que o processo do tipo ruído branco é um caso particular de processo estacionário.

Considere o modelo linear em notação matricial:

Y = X� + "

Assumindo as Hipóteses Clássicas do Modelo de Regressão Linear,

V ar (") = E (""0) = �2I

Mas note que

E (""0) = E

26664"21 "1"2 � � � "1"n"2"1 "22 � � � "2"n...

.... . .

..."n"1 "n"2 � � � "2n

37775 =26664

E�"21�

E ("1"2) � � � E ("1"n)E ("2"1) E

�"22�

� � � E ("2"n)...

.... . .

...E ("n"1) E ("n"2) � � � E

�"2n�37775

2

Page 3: Autocorrelacao

de modo que a diagonal principal de E (""0) apresenta as variâncias dos erros1 e fora da diagonalprincipal temos as covariâncias. Assim, se a matriz E (""�) não for diagonal, teremos pelo menosum elemento E ("i"j) 6= 0, com i 6= j, ou seja, o modelo apresenta autocorrelação. Paracontemplar a possibilidade de autocorrelação, faremos E (""0) = �2, com perfeitamentegeral (podendo apresentar ou não heteroscedasticidade).Como E ("i"j) = E ("j"i) para todo i 6= j, concluímos que a matriz E (""0) é simétrica e,

por de�nição, positiva de�nida (por se tratar de uma matriz de variância e covariância). Umavez que E (""0) é simétrica, não temos que estimar seus n2 termos. No caso de autocorrelaçãoe heteroscedasticidade precisamos estimar n (n+ 1) =2 termos. Em caso de autocorrelação ehomoscedasticidade, precisamos estimar [n (n� 1) + 2] =2 termos. Note que, como temos apenasn observações, não podemos estimar n (n+ 1) =2 ou [n (n� 1) + 2] =2 parâmetros, de modo queprecisamos fazer alguma suposição sobre a natureza autocorrelação.

1.2 Alguns Padrões de Autocorrelação

Dentre as incontáveis formas de autocorrelação, podemos destacar os seguintes padrões2 :

1. Processo auto-regressivo de 1a ordem, ou simplesmente AR(1). Consiste no processo maiscomum em séries econômicas:

"t = �1"t�1 + ut

2. Processo auto-regressivo de 2a ordem, ou simplesmente AR(2):

"t = �1"t�1 + �2"t�1 + ut

3. Processo auto-regressivo de ordem p, ou simplesmente AR(p):

"t = �1"t�1 + �2"t�2 + : : :+ �p"t�p + ut

4. Processo de média móvel de 1a ordem, ou simplesmente MA(1)3 :

"t = ut � �1ut�1

5. Processo de média móvel de 2a ordem, ou simplesmente MA(2):

"t = ut � �1ut�1 � �2ut�2

6. Processo de média móvel de ordem q, ou simplesmente MA(q):

"t = ut � �1ut�1 � �2ut�2 � : : :� �qut�q

7. Processo auto-regressivo de 1a ordem e de média móvel de 1a ordem, ou simplesmenteARMA(1,1)

"t = �1"t�1 + ut � �1ut�1

8. Processo auto-regressivo de ordem p e de média móvel de ordem q, ou simplesmenteARMA(p,q)

"t = �1"t�1 + �2"t�2 + : : :+ �p"t�p + ut � �1ut�1 � �2ut�2 � : : :� �qut�q

Dentre os padrões de autocorrelação e correlação serial possíveis, o mais comum em sériestemporais econômicas é o processo autoregressivo de primeira ordem, AR(1). No apêndice 03tratamos das principais características do referido processo.

1Sob a hipótese de homoscedasticidade todos os elementos da diagonal principal dessa matriz são iguais2Em todos os tipos apresentados, assumimos que futg1t=1 é um ruído branco.3MA tem origem do termo em inglês "moving average".

3

Page 4: Autocorrelacao

1.3 Quais as Conseqüências?

Sabemos que sob as Hipóteses Clássicas do Modelo de Regressão Linear,

V ar (") = E (""0) = �2I

eV ar

�b�� = �2 (X0X)�1:

Contudo, nos modelos com autocorrelação, E (""�) 6= �2I, pois os elementos fora da diagonalprincipal da matriz de variância e covariância dos erros não serão todos nulos. Nesse caso, fare-mos E (""�) = �2. Note primeiramente que na presença de autocorrelação os estimadores demínimos quadrados continuam não viesados, pois na devivação desse resultado não precisamossupor ausência de autocorrelação. Porém, não observamos mais a e�ciência dos referidos esti-madores dentro da classe dos estimadores lineares e não viesados, isto é, não observamos maisa validade do Teorema de Gauss-Markov. A variância de b� na presença de autocorrelação emtermos matriciais é derivada a seguir:

V ar�b�� = E

�hb� � E �b��i hb� � E �b��i0�= E

�hb� � �i hb� � �i0�= E

�h(X0X)

�1X�"i h(X0X)

�1X0"

i0�= E

h(X0X)

�1X0""0X (X0X)

�1i

= (X0X)�1X0E (""0)X (X0X)

�1

= (X0X)�1X0�2X (X0X)

�1

= �2 (X0X)�1X0X (X0X)

�1

Além disso, as variâncias amostrais são viesadas, sendo o viés geralmente negativo. Isso fazcom que tanto o R2 quanto as estatísticas t e F tendam a ser exageradas. Adicionalmente,veremos que as propriedades assintóticas devem ser derivadas caso a caso. Por exemplo, nomodelo

Yt = �+ �Xt�1 + "t

com erros "t se comportando como"t = �"t�1 + ut

com j�j < 1 e ut ruído branco, b� é inconsistente se, por exemplo, Xt = Yt�1 e consistente seCov (Xt; "t) = 0.

1.4 Como Testar?

1.4.1 Teste Durbin-Watson

Dado o modelo de regressão linear

Yt = �0 + �1Xt1 + �2Xt2 + : : :+ �kXtk + "t , (1)

a estatística de teste

d =

nXt=2

(b"t � b"t�1)2nXt=1

b"2t4

Page 5: Autocorrelacao

é comumente usada para o propósito de testar a presença de autocorrelação, onde b"t correspondeaos resíduos de mínimos quadrados do modelo (1). Contudo, antes de utilizá-la, é preciso sabersob quais hipóteses esse teste é válido:

H1) O processo gerador dos erros é um AR(1) do tipo "t = �"t�1 + ut onde j�j < 1 e ut é umruído branco;H2) Os coe�cientes estimados do modelo a ser testado são consistentes4 ;H3) O modelo de regressão contém intercepto;H4) A matriz X de variáveis explicativas é composta de colunas não estocásticas, ou �xas emamostragem repetida.

Considerando uma amostra su�cientement grande,nXt=1

b"2t � nXt=2

b"2t�1 e nXt=1

b"2t � nXt=2

b"2t , demodo que

d =

nXt=2

(b"t � b"t�1)2nXt=1

b"2t =

nXt=2

�b"2t + b"2t�1 � 2b"tb"t�1�nXt=1

b"2t

=

nXt=2

b"2tnXt=1

b"2t +nXt=2

b"2t�1nXt=1

b"2t � 2

nXt=2

b"tb"t�1nXt=1

b"2t � 1 + 1� 2b�onde b� corresponde ao estimador de mínimos quadrados de � do modelo

b"t = �b"t�1 + utNote que

b� =nXt=2

b"tb"t�1nXt=2

b"2t�1 �

nXt=2

b"tb"t�1nXt=1

b"2t .

Desse modo, temos que

d � 2 (1� b�)Dessa forma,b� = 0 =) d � 2 (ausência de autocorrelação)b� = 1 =) d � 0 (autocorrelação positiva)b� = �1 =) d � 4 (autocorrelação negativa)

Um problema associado ao teste de DW é a presença de regiões inconclusivas, como mostraa �gura 03. Caso o valor calculado de d se localize entre dl e ds ou entre 4� ds e 4� dl, nadapodemos concluir:

4Veremos na próxima seção que isso implica que não podemos incluir como variáveis explicativas termosdefasados da variável dependente.

5

Page 6: Autocorrelacao

Figura 03: Regiões do teste de Durbin-Watson

onde: (I) H1: Existe autocorrelação positiva de primeira ordem;(II) Zona inconclusiva;(III) H0: Ausência de autocorrelação de primeira ordem;(IV) Zona inconclusiva;(V) H1: Existe autocorrelação negativa de primeira ordem;dl = Limite inferior;ds = Limite superior.

Exemplo 4 Considere os dados da tabela 3.11 (ver no anexo destas notas). A função deprodução a ser estimada é:

lnX = �+ �1 lnL1 + �2 lnK1 + vt.

Os resultados da estimação são apresentados na �gura a seguir:

Consultando a tabela DW para o nível de signi�cância de 5%, 2 variáveis explicativas e n =39, temos dl = 1:38. Como a estatística d calculada é menor do que 1.38 (d = 0:85 < 1:38 = dl),rejeitamos a hipótese � = 0 e veri�camos evidências de autocorrelação de primeira ordem posi-tiva.

1.4.2 Teste h de Durbin

Vimos que dentre as hipóteses do teste de Durbin-Watson há uma que requer a consistência deb�. Mostraremos agora que no caso simples de autocorrelação de primeira ordem, a inclusão deuma variável dependente defasada como explicativa torna o estimador de mínimos quadrados b�inconsistente. Considere o modelo

Yt = �+ �Yt�1 + "t

6

Page 7: Autocorrelacao

com

"t = �"t�1 + ut

onde j�j < 1, j�j < 1 e ut satisfaz as hipóteses clássicas do termo de erro (ut é um ruído branco).

b� =

X�Yt�1 � Y

� �Yt � Y

�X�Yt�1 � Y

�2 =

X�Yt�1 � Y

�YtX�

Yt�1 � Y�2 =

X�Yt�1 � Y

�(�+ �Yt�1 + "t)X�

Yt�1 � Y�2

= �

X�Yt�1 � Y

�X�Yt�1 � Y

�2 + �X�

Yt�1 � Y�Yt�1X�

Yt�1 � Y�2 +

X�Yt�1 � Y

�"tX�

Yt�1 � Y�2

= � +

X�Yt�1 � Y

�"tX�

Yt�1 � Y�2

assim,

plimb� = plim� +plim

�1n

X�Yt�1 � Y

�"t

�plim

�1n

X�Yt�1 � Y

�2�= � +

Cov (Yt�1; "t)

V ar (Yt�1):

Mas note que

Cov (Yt�1; "t) = Cov (Yt�1; �"t�1 + ut)

= �Cov (Yt�1; "t�1) + Cov (Yt�1; ut) = �Cov (Yt�1; "t�1)

= �Cov (Yt; "t) = �Cov (�+ �Yt�1 + "t; "t)

= ��Cov (Yt�1; "t) + �V ar ("t)

logo,

Cov (Yt�1; "t) =�V ar ("t)

(1� ��) =��2u

(1� ��) (1� �2) :

pois V ar ("t) =�2u

(1��2) , onde se utilizou a estacionaridade de " garantida pela hipótese de quej�j < 1. A condição j�j < 1 indica que Y é estacionário em covariância, logo V ar (Yt�1) =V ar (Yt). Assim, para completar a dedução do plimb� resta apenas encontrar V ar (Yt).

V ar (Yt) = V ar (�+ �Yt�1 + "t)

= �2V ar (Yt�1) + V ar ("t) + 2�Cov (Yt�1; "t)�1� �2

�V ar (Yt) = V ar ("t) + 2�Cov (Yt�1; "t)

=�2u

(1� �2) + 2���2u

(1� ��) (1� �2)de modo que

V ar (Yt) =1�

1� �2� � �2u(1� �2) + 2�

��2u(1� ��) (1� �2)

�=

(1� ��)�2u + 2���2u�1� �2

�(1� ��) (1� �2)

=(1 + ��)�2u�

1� �2�(1� ��) (1� �2)

.

7

Page 8: Autocorrelacao

Assim, temos �nalmente que

plimb� = � +Cov (Yt�1; "t)

V ar (Yt�1)

= � +

��2u(1���)(1��2)(1+��)�2u

(1��2)(1���)(1��2)

= � +��1� �2

�(1 + ��)

.

Com isso mostramos que MQO é inconsistente5 a menos que � = 0 (Note que se � = 0, então"t = ut que é um ruído branco).

Neste caso, temos uma versão modi�cada do teste DW (corrigindo o problema da incon-sistência), chamado teste h de Durbin, cuja estatística de teste é:

h = b�s n

1� nbV �b�� d! N (0; 1)

onde b� é a correlação serial de primeira ordem estimada dos resíduos MQO, bV �b�� é a variânciaestimada da estimativa de MQO de � e n é o tamanho da amostra.

Exemplo 5 A estimação de uma equação de demanda por alimentos com 50 observações gerouos seguintes resultados:

ln qt = const� 0:31(0:05)

lnPt + 0:45(0:20)

ln yt + 0:65(0:14)

ln qt�1

R2 = 0:90 e d = 1:8. Como a variável ln qt�1 foi incluída entre as explicativas, sabemos que oteste DW não é válido. Para construir a estatística do teste h de Durbin, note que b� = 0:65,bV �b�� = (0:14)2 = 0:0196 e b� = 0:1 (pois d = 1:8 � 2 (1� b�)). Desse modo, a estatística h deDurbin é

h = b�s n

1� nbV �b�� = 0:1r

50

1� 50� 0:0196 = 5

Consultando a tabela da distribuição normal padrão, temos que o valor tabelado para o nível designi�cância de 1% é 2.3. Assim, mesmo sendo a estatística d bem próxima de 2, rejeitamos ahipótese de � = 0.

1.4.3 Simulação de Erros autoregressivos de quarta ordem e teste de Wallis

Vimos que os dois testes apresentados anteriormente tratam apenas do caso de autocorrelaçãoonde os erros seguem um processo AR(1). Contudo, existe uma grande quantidade de casosde interesse em que essa suposição não é razoável. Por exemplo, se estivermos tratando docaso de séries trimestrais, pode ser mais adequado supor que o padrão de autocorrelação é dotipo AR(4) do que AR(1). Isso está ligado com a suposição de que observações associadas aomesmo trimestre em anos distintos tendem a apresentar maior corelação do que observações detrimestres distintos de um mesmo ano. Para veri�car o que acontece com a relação entre "t e"t�1, "t�2, "t�3 e "t�4 quando os erros obedecem a relação

5Note que se os erros "t fossem do tipo ruído branco, b� seria consistente.8

Page 9: Autocorrelacao

"t = 0:85"t�4 + ut (2)

onde ut é um ruído branco com distribuição normal (ou ruído branco gaussiano), construimoso seguinte experimento no EViews:

create u 1 1000genr e=0genr u=@nrndsmpl 5 @lastgenr e=0.85*e(-4)+ugenr e1=e(-1)genr e2=e(-2)genr e3=e(-3)genr e4=e(-4)

A �gura a seguir apresenta os grá�cos de dispersão entre "t e "t�1, "t�2, "t�3, "t�4. Comoé possível notar, não é observado padrão algum de autocorrelação até a defasagem de ordem3. No grá�co de dispersão de "t contra "t�4 percebemos claramente a presença de uma relaçãolinear positiva entre as séries.

O propósito desse experimento é alertar para o fato de que a rejeição da hipótese de auto-correlação de até uma certa ordem p não implica que não há autocorrelação, uma vez que nãopodemos excluir a possibilidade de existência de autocorrelação de ordem superior a p. Assim,quando decidimos pela não rejeição da hipótese nula de que � = 0 no teste DW, estamos apenascom evidências estatísticas contrárias à presença de autocorrelação de primeira ordem, o quenão signi�ca que não podemos ter autocorrelação de ordem maior do que 1. Isto posto, comopodemos testar a presença de autocorrelação de acordo com o padrão (2)? Uma possibilidadeé utilizar o teste sugerido por Wallis (Econometrica, v.40, 1972, pp. 617-636). A estatísticasugerida é semelhante à utilizada no teste DW:

9

Page 10: Autocorrelacao

d4 =

nXt=5

(b"t � b"t�4)2nXt=1

b"2t .

Assim como no teste DW, temos aqui também a presença de regiões inconclusivas. Os valorestabelados podem ser encontrados em Wallis (op. cit.).

1.5 Teste de Breusch-Godfrey

Diferentemente do teste de Durbin-Watson para erros do tipo AR(1), o teste BG contempla apossibilidade de erros do tipo ARMA(p,q), e é aplicável caso haja ou não termos defasados dolado direito da equação.Sob a hipótese nula de ausência de autocorrelação até a defasagem p, com p inteiro e pré-

especi�cado, o teste baseia-se na série de resíduos da regressão estimada:

yt = b�1 + b�2x2t + b�3x3t + : : :+ b�kxkt + et (3)

onde et corresponde aos resíduos da regressão de mínimos quadrados. Suponha que o termo "t(erro) seja gerado pelo seguinte processo AR(p):

"t = �1"t�1 + �2"t�2 + : : :+ �p"t�p + ut

onde ut é um termo de ruído branco. Queremos testar

H0 :

26664�1�2...�p

37775 =2666400...0

37775o que indica que "t = ut, isto é, não temos problema de autocorrelação. A estatística de testese baseia na seguinte regressão auxiliar:

et = b�1 + b�2x2t + b�3x3t + : : :+ b�kxkt + 1et�1 + 2et�2 + : : :+ pet�p + vt. (4)

Note que esta é simplesmente a regressão dos resíduos da regressão estimada (3) em relaçãoaos regressores e aos termos de resíduos defasados6 . Note que, para calcularmos esta regressão,teremos apenas (n� p) observações devido aos termos autoregressivos. Para não perder as pobservações mencionadas, um artifício comumente usado (inclusive pelo EViews) é preencheresses valores com zero O R2 da regressão (4) é usado para calcular a estatística BG:

BG = TR2 � �2pglCaso TR2 supere o valor �2pgl crítico para o nível de signi�cância escolhido, rejeita-se a

hipótese nula. Nesta situação, o teste indica que pelo menos um dos �i�s é signi�cativamentediferente de zero, com i = 1; 2; :::; p.

Exemplo 6 Considere os dados da tabela apresentada no apêndice 02 que trata das séries devendas e estoques no período 1950-1991. Estime o modelo

Yt = �1 + �2Xt + ut

em que Y = estoques e X = vendas, ambos medidos em bilhões de dólares e teste a presença deerros do tipo AR(3) usando o teste BG. O resultado da estimação é apresentado a seguir:

6Se p=1, signi�cando um teste de autocorrelação de primeira ordem, então o teste BG é conhecido como testen de Durbin.

10

Page 11: Autocorrelacao

Para conduzir o teste BG no EViews, selecionamos View / Residual Tests / SerialCorrelation LM Test... na barra de ferramentas da equação estimada. Surgirá uma janelacomo a que segue:

Nesta janela deve-se especi�car o número de termos autoregressivos (p) que devem ser in-cluídos na regressão auxiliar (4). No caso em questão, p=3. O relatório padrão do teste éapresentado na �gura a seguir:

11

Page 12: Autocorrelacao

A estatística F exibida é um teste de signi�cância conjunta dos termos de resíduos defasados.Guiando-nos pelo valor-p associado à estatística F, concluímos pela rejeição da hipótese nulade que os coe�cientes dos termos de resíduos defasados são conjuntamente iguais a zero, con-siderando um nível de signi�cância de 5%. Abaixo da estatística F é apresentada a estatísticaBG (Obs*R-squared). Como o valor-p associado à estatística BG é 0.036614, concluímos pelarejeição da hipótese nula

H0 :

��1�2

�=

�00

�para o nível de signi�cância de 5%. Desse modo, pelo menos um dos �i�s é signi�cativamentediferente de zero.A observação "Presample missing value lagged residuals set to zero"indica que na

regressão auxiliar de RESID em função de VENDA, RESID(-1), RESID(-2) e RESID(-3), as séries RESID(-1), RESID(-2) e RESID(-3) entram com o valor zero nos camposnão preenchidos com informação numérica (no caso a primeira observação de RESID(-1), asduas primeiras observações de RESID(-2) e as três primeiras observações de RESID(-3)).Desta forma não perdemos observações na regressão auxiliar.

1.6 Estimação com Erros Auto-Regressivos

Considere o modeloyt = �+ �xt + ut (5)

comut = �ut�1 + et (6)

onde t = 1; 2; :::; T , j�j < 1 e fetg1t=1 é ruído branco. Como ut = yt � � � �xt, então �ut�1 =� (yt�1 � �� �xt�1). Assim,

yt = �+ �xt + ut

= �+ �xt + �ut�1 + et

= �+ �xt + � (yt�1 � �� �xt�1) + etlogo

yt � �yt�1 = � (1� �) + � (xt � �xt�1) + et. (7)

Pela hipótese de ruído branco de fetg1t=1, temos que o modelo transformado (7) pode ser esti-mado por MQO. A equação (7) énormalmente chamada de transformação quase-diferença de(5). A transformação que fazemos é simplesmente tomar

y�t = yt � �yt�1x�t = xt � �xt�1

para todo t = 1; 2; :::; T e calcular a regressão de y�t em x�t com ou sem o termo constante, depen-

dendo se a equação original tem ou não um termo constante. Note que ao fazer isso perdemosa primeira observação e é exatamente isso que diferencia este procedimento do procedimentode Mínimos Quadrados Generalizados (MQG). A diferença entre os dois procedimentos é que oMQG inclui a primeira observação, sendo esta de�nida por:

y�1 =p1� �2y1

x�1 =p1� �2x1.

Como na prática � não é conhecido, usamos uma das duas formas a seguir para estimá-lo:

1. Métodos iterativos: Mostraremos o procedimento de Cochrane-Orcutt.

2. Métodos grid-search: Mostraremos o método de Hildreth e Lu.

12

Page 13: Autocorrelacao

1.6.1 Método Iterativo de Cochrane-Orcutt

Vimos anteriormente que se pode obter uma estimativa de � a partir da estatística d de Durbin-Watson. Uma alternativa a esse método é o conhecido procedimento iterativo de Cochrane-Orctut. Considere o modelo

yt = �1 + �2xt + ut (8)

comut = �ut�1 + et (9)

onde t = 1; 2; :::; T , j�j < 1 e fetg1t=1 é ruído branco. O procedimento de C-O consiste em:

1. Estimar o modelo (8) por MQO e obter os resíduos but.2. A partir da série de resíduos obtida na etapa anterior, calcular a seguinte regressão

but = b�but�1 + wt (10)

3. Com o b� obtido na regressão (10), calcular a regressão de diferença generalizadayt � b�yt�1 = ��1 + �2 (xt � b�xt�1) + wt (11)

o que pode ser feito sem problemas, já que b� é conhecido da etapa anterior. Além disso,note que ��1 = �1 (1� b�). A regressão (11) nada mais é do que

y�t = ��1 + �2x

�t + wt (12)

com y�t = yt � b�yt�1 e x�t = xt � b�xt�1.4. Utilizando b��1 e b�2 da regressão (12), geramos uma nova série de resíduos bu��t por

bu��t = yt � b��1 � b�2xtNote que bu��t pode ser gerado sem problemas uma vez que todos os termos do lado direitoda igualdade são de nosso conhecimento.

5. Após obter bu��t , calculamos a regressãobu��t = bb�bu��t�1 + vt

onde bb� é o valor estimado de � na segunda rodada.6. Esse processo deve continuar até que algum critério de convergência de�nido a priori tenhasido alcançado (por exemplo, se a variação entre o � estimado em duas rodadas vizinhasfor menor do que 0.001).

Exemplo 7 A partir dos dados apresentados na tabela 3.11 (ver apêndice 01), estime a seguintefunção de produção:

lnX = �+ �1 lnL1 + �2 lnK1 + u

A �gura a seguir apresenta os resultados da estimação (LS LOG(X) C LOG(L1) LOG(K1)):

13

Page 14: Autocorrelacao

Agora, estime o mesmo modelo assumindo que os erros são AR(1)

ut = �ut�1 + et:

Para isso, basta executar o comando LS LOG(X) C LOG(L1) LOG(K1) AR(1) na janela decomandos. O resultado da estimação aparece a seguir:

Vemos no output do EViews7 que o procedimento encontrou convergência após 15 iterações.Além disso, é notável a diferença entre os coe�cientes estimados no modelo que leva em conta aautocorrelação e o que não leva, ou seja, a correção da autocorrelação resultou em uma mudançaconsiderável nas estimativas de �1 e �2.

1.6.2 Método de Hildreth e Lu

O método consiste em calcular y�t e x�t para diferentes valores de � no conjunto

f�1; � 0:9; � 0:8; :::; 0; :::; 0:8; 0:9; 1g :7O EViews estima modelos com erros AR utilizando técnicas de regressão não lineares.

14

Page 15: Autocorrelacao

Em seguida, estimamos a regressão de y�t em x�t para todos os valores de � e computamos aSQR. Escolhemos aquele � associado à menor SQR. Em seguida, re�namos nosso conjunto de ��sagora em torno do � escolhido na primeira etapa. Se, por exemplo o � mínimo for 0.6, repetimoso método de busca para valores de � no conjunto

f0:5; 0:51; 0:52; :::; 6; :::; 6:8; 6:9; 7g :Ao escolher o � associado à menor SQR nessa segunda etapa podemos interromper o processo oucontinuar re�nando nossa busca. Maddala (2003) observa que para amostras grandes, o métodode Hildreth e Lu e o método de Máxima Verossimilhança geram resultados muito próximos.

1.7 Matriz de Variância e Covariância de Newey-West

Newey e West (1987) propuseram um estimador geral da matriz de variância e covariância de b�que é consistente na presença tanto de heteroscedasticidade quato de autocorrelação com padrãodesconhecido. O estimador de Newey-West é dado por:

b�NW =T

T � k (X�X)�1 b (X�X)�1

onde

b = T

T � k

(TXt=1

u2txtx0t +

qXv=1

�1� v

q + 1

� TXt=v+1

�xtutut�vx

0t�v + xt�vut�vutx

0t

�!)e q, a defasagem truncada (truncation lag), é um parâmetro representando o número de auto-correlações usadas na avaliação da dinâmica dos resíduos MQO ut. Newey e West sugerem queq seja obtido por:

q = floor�4 (T=100)

2=9�

onde floor (x) refere-se à função "maior inteiro menor ou igual a x". Para estimar no EViewsum modelo com matriz de variância e covariância dos coe�cientes estimados igual à propostapor Newey-West, você deve selecionar na janela Equation Estimation a opção Options emarcar Heteroskedasticity Consistent Covariance e Newey-West.

Exemplo 8 Usando a mesma base de dados do exemplo anterior, o modelo estimado con-siderando a matriz de variância e covariância de Newey-West é apresentado na �gura a seguir:

15

Page 16: Autocorrelacao

1.8 Correlação Serial Devido a Dinâmicas Mal Especi�cadas e Testede Fatores Comuns (COMFAC)

Sargan (1964) argumentou que uma estatística DW signi�cante não necessariamente implicaque tenhamos um problema de autocorrelação. Para mostrar isso, considere o seguinte modelo:

yt = �xt + ut (13)

comut = �ut�1 + et

onde et são independentes com variância constante �2. Como ut = yt � �xt, então �ut�1 =� (yt�1 � �xt�1). Assim,

yt = �xt + ut

= �xt + �ut�1 + et

= �xt + � (yt�1 � �xt�1) + et= �yt�1 + �xt � ��xt�1 + et. (14)

Agora, considere o modelo dinâmico

yt = �1yt�1 + �2xt + �3xt�1 + et (15)

com j�1j < 1. Note que as equações (14) e (15) são iguais desde que

�1�2 + �3 = 0 (16)

É fácil ver que um teste para � = 0 é um teste para �1 = 0 (e �3 = 0) em (15). Contudo,Sargan alerta que antes de testar � = 0, precisamos testar a validade da hipótese (16). Casoessa hipótese seja rejeitada, não teremos um modelo com autocorrelação e a correlação serialnos erros de (13) se deve a "dinâmicas mal especi�cadas", isto é, à omissão das variáveis yt�1e xt�1 da equação. Para testar a restrição não linear (16) podemos usar testes baseados nosprincípios de Wald, Lagrange (LM) ou da Razão de Verossimilhança (RV). Caso o teste DWindique a presença de autocorrelação, é indicado testar a restrição (16) antes de impor qualquertransformação autoregressiva nas variáveis. Sargan é mais radical, sugerindo que primeiro sejatestada a restrição (16) e só então testar a presença de autocorrelação.O teste de Wald não se mostra adequado nos casos de restrições não lineares por ser sensível

ao modo como a restrição é escrita. Note que a restrição (16) pode ser escrita como

�1 = ��3�2

e o método de Wald não garante que o resultado dos testes com as duas hipóteses (iguais!) sejao mesmo. Por essa razão, prefere-se utilizar uma das outras duas alternativas (LM ou RV). Noexemplo a seguir trabalharemos com o teste RV.

Exemplo 9 No exemplo 7, a partir de uma estatística DW igual a 0.858 estimamos um modelocorrigindo quanto à presença de erros AR(1). Agora, estimaremos o mesmo modelo, porém soba forma (15), cujos resultados são apresentados a seguir:

16

Page 17: Autocorrelacao

Vimos que sob o pressuposto de que os erros são AR(1), a SQR obtida pelo método iterativo foiSQR1 = 0:025999. Uma vez que o nosso modelo apresenta dois coe�cientes angulares, temosduas restrições da forma (16). No modelo dinâmico geral temos seis parâmetros (� e cinco ��s)e no modelo que contempla autocorrelação temos quatro parâmetros (�, dois ��s e �). O testeda RV baseia-se na estatística

�2 ln� � �2rglonde o número r de graus de liberdade corresponde ao número de restrições (no nosso casor = 2) e

� =

�SQR0SQR1

�n=2logo, a nossa estatística de teste é

�2 ln� = �2 ln�SQR0SQR1

�38=2= �2 ln

�0:024660

0:025999

�38=2= �38 ln

�0:024660

0:025999

�= 2:0093

Uma vez que o valor tabelado para o nível de signi�cância de 5% é �2crit = 5:991 (no EViews,digitar o comando =@qchisq(0.95,2) para obter o valor tabelado em questão), não rejeitamosa hipótese nula de que o modelo AR(1) é apropriado para o problema em questão. (OBS.:Este exemplo está baseado em Maddala (2003, pp. 136-137), porém o referido livro apresentaSQR0 = 0:01718, que não confere com os resultados encontrados nas nossas estimações. Alémdisso, para calcular as regressões sob teste, perdemos uma observação, logo n = 38, e não 39como sugere o livro. Se considerássemos SQR0 = 0:01718 e n = 39 (como apresentado no livro),então a nossa estatística de teste seria 16:7, que é signi�cante a 1%. A conclusão nesse casoseria de que a hipótese de autocorrelação de primeira ordem é rejeitada, embora a estatísticaDW seja signi�cante.)

17

Page 18: Autocorrelacao

1.9 APÊNDICE 01: Tabela 3.11 (Maddala, 2003)

obs.: os pontos na tabela acima separam os decimais.

X = índice do produto interno bruto em dólares constantesL1 = índice de trabalho empregado (número de trabalhadores ajustado pelas taxas de uti-

lização)L2 = população economicamente ativaK1 = índice de capital empregadoK2 = estoque de capital em dólares constantes

18

Page 19: Autocorrelacao

1.10 APÊNDICE 02: Tabela exercício 12.32 (Gujarati, 2000)

Fonte: Economic Report of the President, 1993, Tabela B-53, p. 408.

1.11 APÊNDICE 03: Algumas derivações úteis de um processo AR(1)

Considere que o processo gerador dos erros é dado por

"t = �"t�1 + ut

onde j�j < 1 e futg1t=1 é um ruído branco. A condição j�j < 1 garante a estacionaridade8 def"tg1t=1. Com isso, podemos encontrar facilmente E ("t), V ar ("t) e Cov ("t; "t�h).A esperança de "t é dada por

E ("t) = E (�"t�1 + ut)

= E (�"t�1) + E (ut)

= �E ("t�1) + E (ut)

Assim, como o processo f"tg1t=1 é estacionário, E ("t) = E ("t�1) = �. Além disso, segue do fatode que ut é um ruído branco que E (ut) = 0 para todo t. Desse modo,

� = ��+ 0

(1� �)� = 0

ou seja,� = E ("t) = 0.

A variância de "t também pode ser obtida de maneira simples:

V ar ("t) = V ar (�"t�1 + ut)

= V ar (�"t�1) + V ar (ut) + 2�Cov ("t�1; ut)

= �2V ar ("t�1) + V ar (ut)

8O leitor interessado nos detalhes da demonstração de estacionaridade de um AR(1) é encorajado a consultarHAMILTON, J. D., Time Series Analysis, 1994, seções 2.2 e 3.4.

19

Page 20: Autocorrelacao

pois Cov ("t�1; ut) = 0. Usando a estacionaridade de f"tg1t=1, temos que V ar ("t) = V ar ("t�1) =�2, logo

V ar ("t) = �2V ar ("t�1) + V ar (ut)

�2 = �2�2 + �2u

�2 =�2u

1� �2 .

Vejamos agora como obter as covariâncias do tipo Cov ("t; "t�h). Note que

Cov ("t; "t�1) = E f["t � E ("t)] ["t�1 � E ("t�1)]ge que E ("t) = 0 para todo t. Assim,

Cov ("t�1; "t�2) = E ("t"t�1)

= E [(�"t�1 + ut) "t�1]

= �E�"2t�1

�+ E (ut"t�1)

= ��2

pois E (ut"t�1) = Cov (ut; "t�1) = 0 e E�"2t�1

�= V ar ("t) = �2. De maneira inteiramente

análoga,

Cov ("t; "t�2) = E ("t"t�2)

= E [(�"t�1 + ut) "t�2]

= �E ("t�1"t�2) + E (ut"t�2)

= �Cov ("t�1; "t�2)

= �2�2

onde se usou o fato de que Cov ("t�1; "t�2) = Cov ("t�1; "t�2), pois f"tg1t=1 é estacionário.Procedendo desse modo de maneira sequencial, teremos

Cov ("t; "t�h) = �h�2.

Assim, concluímos que

Corr ("t; "t�h) =Cov ("t; "t�h)p

V ar ("t)V ar ("t�h)

=Cov ("t; "t�h)

V ar ("t)

=�h�2

�2

= �h:

logo, como j�j < 1, observamos que a correlação entre "t e "t�h é função decrescente de h, ouseja, da distância entre os erros.

1.12 Bibliogra�aGreene, W. H. Econometric Analysis. Prentice Hall, 2003.Gujarati, D. Econometria Básica, Makron Books, 2000.Maddala, G. S. Introdução à Econometria. LTC, 2003.Soares, I. G. e Castelar, I. Econometria Aplicada com o Uso do EViews. Livro Técnico, 2004.

20