Upload
others
View
0
Download
0
Embed Size (px)
Citation preview
Sandra Maria Simões de Oliveira
Mestre em Estatística e Optimização
Delineamento regressional múltiplo para um factorial de base prima
estritamente associado a uma álgebra de Jordan comutativa
Dissertação para obtenção do Grau de Doutor em Estatística e Gestão do Risco
Orientadora: Doutora Elsa Estevão Fachadas Nunes Moreira
Investigadora do Centro de Matemática e Aplicações Faculdade de Ciências e Tecnologia
Universidade Nova de Lisboa
Co-orientador: Doutor Miguel dos Santos Fonseca Investigador do Centro de Matemática e Aplicações
Faculdade de Ciências e Tecnologia Universidade Nova de Lisboa
Júri:
Presidente: Prof. Doutor Carlos Manuel Agra Coelho
Arguentes: Prof. Doutora Célia Maria Pinto Nunes Prof. Doutora Teresa Paula Costa Azinheira Oliveira
Vogais: Prof. Doutor Carlos Alberto dos Santos Braumann
Prof. Doutor Carlos Manuel Agra Coelho Prof. Doutor Dário Jorge da Conceição Ferreira
Prof. Doutora: Elsa Estevão Fachadas Nunes Moreira
Julho 2018
iii
Este texto nao foi escrito ao abrigo do novo acordo ortografico.
iv
v
Copyright
A faculdade de Ciencias e Tecnologia e a Universidade Nova de Lisboa tem o direito,
perpetuo e sem limites geograficos, de arquivar e publicar esta dissertacao atraves
de exemplares impressos reproduzidos em papel ou de forma digital, ou por qual-
quer outro meio conhecido ou que venha a ser inventado, e de a divulgar atraves de
repositorios cientıficos e de admitir a sua copia e distribuicao com objectivos edu-
cacionais ou de investigacao, nao comerciais, desde que seja dado credito ao autor e
editor.
vi
AGRADECIMENTOS
A terminar esta tese de doutoramento resta-me agradecer a todos, que directa ou
indirectamente, contribuıram para que esta se tornasse numa realidade.
O primeiro agradecimento e dirigido ao Professor Joao Tiago Mexia pelas opor-
tunidades de aprendizagem que me tem proporcionado desde a licenciatura. Pela
sua disponibilidade, pela partilha do saber, por tudo o que me ensinou. Pelas su-
gestoes que, muito enriqueceram, nao apenas este trabalho. Pelo apoio e incentivo.
Sou muito grata.
A minha orientadora, Doutora Elsa Moreira, agradeco o seu apoio e orientacao.
A disponibilidade e paciencia, com que ouviu as minhas incertezas e as minhas
duvidas. Alem de uma orientadora uma Amiga!
Ao meu co-orientador, Doutor Miguel Fonseca, pelo apoio e orientacao deste
trabalho. Pela disponibilidade, pelo debate de ideias, pelas sugestoes importantes
para a realizacao desta tese e tambem pela sua amizade. As palavras de animo que
disse sempre que achou necessario.
Agradeco aos elementos que constituıram a Comissao de Acompanhamento de
Tese: a Professora Doutora Sandra Nunes, ao Professor Doutor Dario Ferreira e ao
Professor Doutor Ricardo Covas, pelas sugestoes.
Agradeco ao coordenador do Programa Doutoral em Estatıstica e Gestao do
Risco, Professor Doutor Manuel Esquıvel, pela sua disponibilidade, pelo apoio e
incentivo, em especial na fase final da elaboracao desta tese.
viii
Agradeco a todos os meus Professores. A minha Professora da primaria. Aos
Professores do 1o ciclo, do 2o ciclo, e do secundario. Agradeco aos meus Professores
da Licenciatura, do Mestrado e do Doutoramento. A todos agradeco o que me
ensinaram.
Aos meus colegas e Amigos da ESCE agradeco as manifestacoes de apoio, de
encorajamento e de amizade, principalmente nos momentos de maior cansaco. Em
especial, agradeco a Sandra Nunes e a Sandra Monteiro pelas suas sugestoes.
Agradeco a possibilidade de utilizar as instalacoes do Centro de Matematicas e
Aplicacoes (CMA) da Faculdade de Ciencias e Tecnologia da Universidade Nova de
Lisboa durante o perıodo da elaboracao desta tese. Agradeco aos colegas e amigos
que conheci no CMA. Agradeco o debate e a troca de ideias.
A minha famılia a minha eterna gratidao, sem a qual este percurso nao faria
sentido. Em especial, ao meus pais e aos meus filhos agradeco a compreensao pelas
inumeras ausencias.
A todos o meu sincero agradecimento!
Este trabalho de investigacao foi feito ao abrigo do Programa de Apoio a Formacao
Avancada de Docentes do Ensino Superior Politecnico de Setubal. A elaboracao
desta tese beneficiou do regime de isencao de propinas de doutoramento, no ambito
do Protocolo de Cooperacao existente entre a Faculdade de Ciencias e Tecnologia da
Universidade Nova de Lisboa e o Instituto Politecnico de Setubal.
ix
Aos meus pais Valentim e Alzira
Aos meus filhos Ines e Joao
x
RESUMO
Quando para cada tratamento de um modelo base esta definida uma regressao li-
near multipla nas mesmas variaveis (dependente e explicativas) obtem-se um deline-
amento regressional multiplo. O objectivo desta tese e desenvolver os delineamentos
regressionais multiplos associados a factoriais de base prima de efeitos fixos (facto-
rial completo, confundimento e fraccionamento). A estrutura associada ao factorial
de base prima assenta nos espacos lineares sobre corpos de Galois e na relacao entre
os modelos e algebras de Jordan comutativas. Combinando esta abordagem com
o Modelo-L e possıvel alargar o estudo, tanto do factorial, como do delineamento
regressional multiplo associado a um factorial, ao caso nao equilibrado.
xii
ABSTRACT
If to every treatment in a base model, a multiple linear regression is considered on
the same variables (dependent and explanatory) a multiple regressional design is
obtained. The purpose of this work is to develop the multiple regression designs
associated to the prime basis factorial (full factorial, confounding and fractional
cases). The structure associated to the prime basis factorial is based on the linear
spaces on Galois fields and on the relationship between the models and commutative
Jordan algebras. Combining this approach with the L-Model theory it is possible to
extend the study of both the factorial and the multiple regressional design associated
with a factorial to the unbalanced case.
xiv
LISTA DE SIGLAS E SIMBOLOS
DRM delineamento regressional multiplo
RLM regressao linear multipla
MPO matriz de projeccao ortogonal
MPOMO matrizes de projeccao ortogonal mutuamente ortgonais
FMPOMO famılia de matrizes de projeccao ortogonal mutuamente ortogonais
AJC algebra de Jordan comutativa
sub-AJC sub-algebra de Jordan comutativa
BLUE best linear unbiased estimator
UMVUE uniformly minimum variance unbiased estimator
Mn espaco linear das matrizes reais de ordem n
Sn espaco linear das matrizes reais simetricas de ordem n
A algebra de Jordan comutativa A
bp (A) base principal da AJC A
A sub-algebra de Jordan comutativa de A
U elemento identidade da AJC A
Jn = 1n1′n onde 1n e um vector de uns
In matriz identidade de ordem n
A′ transposta da matriz A
A+ inversa de Moore-Penrose da matriz A
A−1 inversa da matriz A
car (A) caracterıstica da matriz A
|A| determinante da matriz A
xvi
tr(A) traco da matriz A
R (A) espaco imagem da matriz A
N (A) espaco nulidade da matriz A
sp (a1, ..., ak) espaco linear
k∑i=1
αiai : α1, ..., αk ∈ R
P matriz ortogonal⊕
soma directa de subespacos lineares
soma directa de subespacos lineares ortogonais
⊗ produto de Kronecker
? produto entre algebras de Jordan comutativas
G[p] 0, 1, ..., p− 1
GN[p]
(x1, ..., xN) : x1, ..., xN ∈ G[p]
LN[p] dual de GN
[p]
LNr[p] famılia das aplicacoes lineares reduzidas de LN[p]L1 subespaco linear de LN[p]L1r famılia das aplicacoes lineares reduzidas de L1
O (`) ordem de uma aplicacao linear reduzida
E(X) valor esperado da variavel aleatoria X
V(X) variancia da variavel aleatoria X
E(X) valor esperado do vector aleatorio X
V(X) matriz de variancias-covariancias do vector aleatorio X
V(X,Y) matriz de covariancias cruzadas dos vectores aleatorios X e Y
CONTEUDO
1. Introducao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
2. Algebra de Jordan comutativa . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.1 Algebra de Jordan comutativa . . . . . . . . . . . . . . . . . . . . . . 5
2.2 Algebra de Jordan comutativa obtida de uma famılia de matrizes
simetricas que comutam . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.3 Operacoes binarias definidas numa algebra de Jordan comutativa . . 17
2.4 Sub-algebra de Jordan comutativa . . . . . . . . . . . . . . . . . . . . 22
3. Modelo linear, de efeitos fixos, estritamente associado a uma algebra de Jor-
dan comutativa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.1 Estrutura do modelo e estatısticas . . . . . . . . . . . . . . . . . . . . 27
3.2 Inferencia relativa aos parametros do modelo . . . . . . . . . . . . . . 34
3.3 Sub-modelo estritamente associado a uma algebra de Jordan comutativa 37
3.4 Cruzamento e encaixe de modelos . . . . . . . . . . . . . . . . . . . . 38
4. Delineamento factorial com base prima . . . . . . . . . . . . . . . . . . . . 41
4.1 Factorial pN completo . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.2 Confundimento de um factorial pN com ps blocos . . . . . . . . . . . 68
4.3 Replica fraccionaria 1ps× pN . . . . . . . . . . . . . . . . . . . . . . . 79
xviii Conteudo
5. Delineamento regressional multiplo associado a um factorial de base prima
de efeitos fixos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
5.1 Modelo−L . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
5.1.1 Estrutura do modelo e estatısticas . . . . . . . . . . . . . . . . 92
5.1.2 Factorial pN completo de efeitos fixos, nao equilibrado . . . . . 95
5.2 Delineamento regressional multiplo . . . . . . . . . . . . . . . . . . . 101
5.2.1 Associado a um factorial pN (completo) . . . . . . . . . . . . . 101
5.2.2 Associado ao confundimento de um factorial pN em ps blocos . 107
5.2.3 Associado a uma replica fraccionaria 1ps× pN . . . . . . . . . . 109
5.3 Teste simultaneo a igualdade de valores medios e esfericidade da ma-
triz de covariancia num DRM equilibrado . . . . . . . . . . . . . . . 113
6. Conclusoes e trabalho futuro . . . . . . . . . . . . . . . . . . . . . . . . . . 117
Apendice 127
A. Resultados algebricos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
A.1 Matriz de projeccao ortogonal . . . . . . . . . . . . . . . . . . . . . . 129
A.2 Produto de Kronecker . . . . . . . . . . . . . . . . . . . . . . . . . . 133
A.3 Inversa generalizada de Moore-Penrose . . . . . . . . . . . . . . . . . 137
A.4 Matriz ortogonal estandardizada . . . . . . . . . . . . . . . . . . . . . 139
B. Vectores aleatorios, Distribuicao Normal multivariada . . . . . . . . . . . . 141
B.1 Vector medio, matriz de covariancia e matriz de covariancia cruzada . 141
B.2 Distribuicao Normal multivariada . . . . . . . . . . . . . . . . . . . . 143
B.3 Formas quadraticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
C. Estatısticas suficientes e completas . . . . . . . . . . . . . . . . . . . . . . 147
Conteudo xix
D. Regressao Linear Multipla . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
D.1 Modelo e hipoteses . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
D.2 Estimacao dos parametros do modelo . . . . . . . . . . . . . . . . . . 153
D.3 Inferencia sobre os parametros do Modelo . . . . . . . . . . . . . . . 156
E. Exemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
E.1 Vectores de G3[3] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
E.2 Aplicacoes lineares de L3[3] . . . . . . . . . . . . . . . . . . . . . . . . 162
E.3 Matrizes associadas a aplicacoes de L3r[3] . . . . . . . . . . . . . . . . 163
F. Distribuicoes Gama, Gama Inteira Generalizada e Gama Quase-Inteira Ge-
neralizada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
F.1 Distribuicao Gama . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
F.2 Distribuicao Gama Inteira Generalizada . . . . . . . . . . . . . . . . 167
F.3 Distribuicao Gama Quase-Inteira Generalizada . . . . . . . . . . . . . 168
F.4 Misturas de Distribuicoes . . . . . . . . . . . . . . . . . . . . . . . . . 169
xx Conteudo
LISTA DE FIGURAS
4.1 Factorial pN confundido com ps blocos . . . . . . . . . . . . . . . . . 69
xxii Lista de Figuras
LISTA DE TABELAS
4.1 Tabelas da adicao e multiplicacao em G[7] . . . . . . . . . . . . . . . 44
4.2 Simetricos em G[7] . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
4.3 Inversos em G[7]\0 . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
4.4 Tabelas de adicao e multiplicacao em G[4] . . . . . . . . . . . . . . . . 45
4.5 Vectores de G2[3] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.6 Aplicacoes de L2[3] e respectivos vectores dos coeficientes . . . . . . . . 48
4.7 Vectores de G2[3] e respectivos ındices . . . . . . . . . . . . . . . . . . 52
4.8 Tabela da aplicacao `1(x) = x1 . . . . . . . . . . . . . . . . . . . . . . 57
4.9 Tabelas das plicacoes `2(x) = x2, `3(x) = x1 + x2 e `4(x) = x1 + 2x2 . 59
4.10 Aplicacoes de L1 = sp (x1 + 2x2, x1 + x2 + 2x3) . . . . . . . . . . . . . 70
4.11 Confundimento de um factorial 33 com 32 blocos . . . . . . . . . . . . 71
4.12 Aplicacoes de L3r[3] e classes de equivalencia-h em L3
[3] . . . . . . . . . 82
5.1 Numero de observacoes por tratamento num factorial 32 . . . . . . . . 100
5.2 Fraccoes 33−2 com x1 + x2 + x3 confundida . . . . . . . . . . . . . . . 112
E.1 Vectores de G3[3] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
E.2 Ordem dos vectores de G3[3] . . . . . . . . . . . . . . . . . . . . . . . . 162
E.3 Aplicacoes de L3[3] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163
xxiv Lista de Tabelas
1. INTRODUCAO
Quando para cada tratamento de um modelo base esta definida um regressao linear
multipla (RLM) nas mesmas variaveis (dependente e explicativas) obtem-se um
delineamento regressional multiplo (DRM). Nestes modelos estuda-se a influencia
dos factores (do modelo base) em combinacoes lineares dos coeficientes de RLM ′s.
Quando o numero de observacoes por regressao e igual diz-se um DRM equilibrado.
Caso contrario diz-se um DRM nao equilibrado.
O conceito de DRM foi introduzido em [26]. Desde entao foram realizados de-
senvolvimentos nos quais foram considerados como modelo base quadrados latinos
e blocos casualizados [43], planos completos [12] e um factorial de base 2 [9]. Em
[35] o modelo base considerado foi um One-Way de efeitos fixos onde se contempla-
ram situacoes de multicolinearidade e heterocedasticidade dos modelos de regressao
linear multipla, apresentando-se uma aplicacao a remocao electrodialıtica de metais
pesados de resıduos de madeira tratada, ver [33] e [34]. Em [40] e [41] foi consi-
derado, como modelo base, um factorial de base prima, completo, de efeitos fixos.
Posteriormente, em [30]-[32], foi estudado um DRM nao equilibrado tendo como
modelo base um modelo linear com cruzamento-encaixe associado a uma algebra de
Jordan comutativa (AJC).
Nesta tese pretende-se continuar e desenvolver o trabalho realizado anterior-
mente em [40]-[41], onde foi considerado um DRM com modelo base um factorial
de base prima (completo), de efeitos fixos e equilibrado. Considera-se agora, re-
2 1. Introducao
lativamente ao modelo base, alem do caso completo, tambem o confundimento e o
fraccionamento de um factorial de base prima, de efeitos fixos. Considera-se tambem
o factorial enquadrado na classe dos modelos lineares estritamente associados a uma
AJC, ver [15], [16] e [17]. Uma das vantagens desta abordagem e a possibilidade
de construir modelos base complexos a partir de outros mais simples utilizando
operacoes definidas sobre as AJC ′s associadas aos modelos. Outra vantagem e ob-
ter UMVUE ’s (do ingles ”uniformly minimum variance unbiased estimator”) para
os parametros do modelo base quando se admite a hipotese da normalidade dos erros.
Nesta tese mostra-se que e possıvel alargar o estudo, tanto do factorial (completo,
confundimento e replicacao fraccionaria), como do DRM associado a um factorial,
ao caso nao equilibrado, combinando a teoria do modelo-L introduzida em [30]-[31]
e a relacao entre um modelo linear e uma AJC, [14]-[16].
Alem deste capıtulo introdutorio (Capıtulo 1-Introducao) e do ultimo capıtulo
(Capıtulo 6-Conclusoes e trabalho futuro) esta tese inclui mais 4 capıtulos. No
capıtulo 2 apresentam-se instrumentos de Algebra Linear necessarios para melhor
compreender a estrutura dos modelos que sao objecto desta tese. E feita uma
exposicao sobre as estruturas que sao utilizadas na formulacao de um modelo linear
ortogonal, os espacos lineares de matrizes simetricas que comutam e que contem o
quadrado de cada uma das suas matrizes, ou seja, as AJC ′s de matrizes simetricas,
tambem conhecidos por subespacos quadraticos, ver [22], [42] e [48]. Sobre essas
algebras sao definidas operacoes que permitem obter modelos lineares ortogonais
complexos a partir de modelos lineares ortogonais mais simples.
No capıtulo 3 e apresentada a estrutura algebrica do modelo linear, de efeitos
fixos, estritamente associado a uma AJC e a forma como esta relacionado com essa
AJC, ver [14]. O modelo e apresentado na forma canonica que assenta na base
principal da AJC. Com esta abordagem e assumindo a hipotese de normalidade
3
obtem-se estatısticas suficientes e completas que permitem obter UMVUE’s para os
parametros do modelo. Utilizando as operacoes definidas no capıtulo 2 e possıvel
construir modelos lineares associados a uma AJC complexos a partir de modelos
lineares associados a uma AJC mais simples por cruzamento e por encaixe, ver [14],
[15], [16] e [17].
No capıtulo 4 e estudada a estrutura do modelo base do DRM : o factorial de
base prima de efeitos fixos (completo, confundimento e fraccionamento). A estrutura
destes modelos assenta em espacos lineares sobre corpos de Galois (utilizada em [40]
e [41] e mais tarde tambem em [15]-[17]) e na relacao entre o modelo linear ortogonal
e uma AJC ([15], [16]-[17]).
O capıtulo 5 e dedicado ao desenvolvimento dos DRM ′s associados aos factoriais
de base prima (completo, confundimento e fraccionamento). Como num factorial de
base prima, tambem num DRM associado a um factorial de base prima, testam-se
hipoteses sobre a ausencia dos efeitos principais e ausencia de interaccoes factoriais,
mas em combinacoes lineares dos coeficientes das regressoes. O desenvolvimento
proposto consiste em alargar o estudo do factorial de base prima e do DRM asso-
ciado a um factorial de base prima ao caso nao equilibrado (quando o numero de
observacoes por tratamento/regressao pode nao ser igual). Mostra-se que utilizando
a teoria do Modelo-L ([30], [32], [10] e [11]) esta situacao pode ser considerada. Assu-
mindo a hipotese da normalidade dos erros obtem-se UMVUE’s para os parametros
dos modelos referidos. Mostra-se tambem, que a um DRM equilibrado aplica-se
o teste simultaneo para a igualdade de valores medios e esfericidade da matriz de
covariancias [3] trabalho que teve como ponto de partida resultados enunciados em
[4].
Sao apresentados 5 anexos onde se apresenta um resumo de algumas ferramentas
algebricas (Anexo A) e estatısticas (Anexos B, C e D) necessarias ao desenvolvimento
4 1. Introducao
desta tese. O Anexo E contem resultados uteis a exemplos que sao apresentados ao
longo desta tese e o Anexo F resultados utilizados na seccao 5.3.
2. ALGEBRA DE JORDAN COMUTATIVA
As algebras de Jordan foram introduzidas por Pascual Jordan, John von Neumman
e Eugene P. Wigner, ver [18], para permitir uma reformulacao algebrica da mecanica
quantica. Mais tarde foram utilizadas por Seely em estatıstica, ver [46]-[50], nomea-
damente em problemas de estimacao, de modo a obter UMVUE ’s. Estes temas tem
sido desenvolvidos e aprofundados por outros autores, ver por exemplo [27] e [28].
Nesta tese e dada especial atencao aos espacos lineares de matrizes reais simetricas
que comutam e contem os quadrados das suas matrizes, ou seja, algebras de Jordan
comutativas de matrizes simetricas, tambem conhecidos por subespacos quadraticos,
ver [42], [46] e [48]. Estes espacos tem um papel central na formulacao do modelo
linear estritamente associado a uma AJC, ver [14], que e estudado no capıtulo 3. No
presente capıtulo apresentam-se resultados, cuja inclusao se considerou pertinente,
dada a sua importancia na formulacao dos referidos modelos. As demonstracoes dos
resultados, das seccoes 2.1 e 2.2, nao foram incluıdas por nao serem essenciais em
desenvolvimentos seguintes. Podem ser consultadas, por exemplo, em [7], [8], [14],
[22], [45], [48] ou [52].
2.1 Algebra de Jordan comutativa
Definicao 1. Uma algebra A e um espaco linear munido com uma operacao binaria
∗, geralmente designada por multiplicacao, que verifica as seguintes propriedades,
para todo α ∈ R e a,b, c ∈ A,
6 2. Algebra de Jordan comutativa
1. a ∗ (b + c) = a ∗ b + a ∗ c,
2. (a + b) ∗ c = a ∗ c + b ∗ c,
3. α(a ∗ b) = (αa) ∗ b = a ∗ (αb).
Nao e necessario a operacao ∗ ser associativa nem comutativa para que o espaco
linear seja uma algebra.
Exemplo 1. Seja Mn a famılia das matrizes reais de ordem n. E evidente que esta
famılia com as operacoes usuais de adicao, produto por um escalar e multiplicacao
de matrizes e uma algebra, verificando-se
A (BC) = (AB) C,∀A,B,C ∈Mn
mas em geral, AB 6= BA.
Definicao 2. Seja A uma algebra e S ⊆ A. S e uma sub-algebra de A se
• e um subespaco linear de A,
• ∀a,b ∈ S : a ∗ b ∈ S.
Definicao 3. Uma algebra de Jordan e uma algebra (espaco vectorial munido com
uma multiplicacao) munida de um produto , designado por produto de Jordan, que
satisfaz as seguintes condicoes, para todo a,b ∈ A
1. a b = b a,
2. a2· (b a) = (a2· b) a,
onde a2· = a a.
Definicao 4. Seja A uma algebra de Jordan e S ⊆ A. S e uma sub-algebra de
Jordan de A se
2.1. Algebra de Jordan comutativa 7
• e uma sub-algebra de A,
• ∀a,b ∈ S : a b ∈ S.
Exemplo 2. Considere-se Sn a famılia das matrizes reais simetricas de ordem n.
Esta famılia munida da adicao e produto por um escalar e um espaco linear. Se o
produto for definido por
A B =1
2(AB + BA)
onde AB representa o produto usual de matrizes, verifica-se que e um produto de
Jordan e que Sn e uma algebra de Jordan.
Definicao 5. Seja S um subespaco linear deMn. O elemento E ∈ S e um elemento
identidade se ES = SE = S,∀S ∈ S.
Note-se que se S for um subespaco deMn o elemento identidade nao e necessa-
riamente a matriz In, como se vera mais a frente.
Definicao 6. Um elemento E ∈Mn, tal que, E2 = E, diz-se um elemento idempo-
tente.
As algebras contidas em Sn desempenham um papel fundamental nesta tese dado
estarem relacionadas com os modelos que serao considerados. De forma a realcar
a importancia destes espacos sao apresentados mais alguns resultados. Entre eles
caracterizacoes alternativas de algebras de Jordan.
Teorema 1. Seja S um subespaco linear de Sn com elemento identidade E. Sejam
A,B e C elementos arbitrarios de S. Entao S e uma algebra de Jordan se e so se
as seguintes condicoes equivalentes se verificarem:
1. AB + BA ∈ S,
8 2. Algebra de Jordan comutativa
2. ABA ∈ S,
3. ABC + CBA ∈ S,
4. A2 ∈ S.
Demonstracao. Ver [22], [53].
Pelas segunda e quarta condicoes do Teorema 1 verifica-se facilmente que uma
algebra de Jordan contem qualquer potencia de cada uma das suas matrizes.
Daqui em diante consideram-se apenas algebras de Jordan constituıdas por ma-
trizes reais simetricas, de ordem n, que comutam. Nestas estruturas, como fa-
cilmente se verifica, o produto de Jordan reduz-se ao produto usual de matrizes.
Neste contexto tem-se a seguinte definicao.
Definicao 7. Um espaco linear de matrizes reais simetricas, A, e uma algebra de
Jordan comutativa (AJC) se
• A e uma algebra de Jordan,
• AB = BA, para quaisquer A e B ∈ A.
O Teorema 2 tem um papel fulcral no decorrer desta dissertacao.
Teorema 2. (Seely, 1971) Uma condicao necessaria e suficiente para que um su-
bespaco S ⊆ Sn seja uma AJC e a existencia de uma base, Q1, ...,Qm para S,
constituıda por matrizes idempotentes, tais que, QiQj = 0 para i 6= j, i, j = 1, ...,m.
Esta base e unica.
Demonstracao. Ver [48].
A base identificada no Teorema 2 designa-se por base principal da AJC A e
representa-se por bp (A) = Q1, ...,Qm . Como as matrizes de bp (A) sao simetricas
2.1. Algebra de Jordan comutativa 9
e idempotentes sao matrizes de projeccao ortogonal (MPO′s), ver anexo A.1. Alem
disso sao mutuamente ortogonais, pois QiQj = 0, para i 6= j e i, j = 1, ...,m. Assim
bp (A) e uma famılia de matrizes de projeccao ortogonal mutuamente ortogonais,
abreviadamente FMPOMO.
Seja entao A uma AJC e bp (A) = Q1, ...,Qm a sua base principal. Para cada
matriz M ∈ A tem-se que
M =m∑j=1
cjQj
e o seu espaco imagem pode ser escrito como
R (M) = j∈C(M)
R (Qj)
onde C(M) = j : cj 6= 0 e representa a soma directa de subespacos lineares
mutuamente ortogonais. Consequentemente a matriz de projeccao ortogonal sobre
R (M) e
Q =∑
j∈C(M)
Qj
e a caracterıstica da matriz M e
car (M) =∑
j∈C(M)
gj
onde gj = car (Qj) , j = 1, ...,m. Do exposto verifica-se facilmente que se M ∈ A
for uma MPO e soma de todas ou de parte das matrizes da base principal. Alem
disso, se car (M) = 1, entao M ∈ bp (A) .
Definicao 8. Seja A uma AJC, com base principal bp (A) = Q1, ...,Qm . Diz-se
que A e completa sem∑j=1
Qj = In.
Seja Jn = 1n1′n uma matriz quadrada, de ordem n, com elementos iguais a 1.
10 2. Algebra de Jordan comutativa
Definicao 9. Seja A uma AJC com base principal bp (A) = Q1, ...,Qm . Diz-se
que A e regular se 1nJn ∈ A.
Como 1nJn e uma MPO e tem caracterıstica 1, logo 1
nJn ∈ bp (A) . Numa AJC
regular as matrizes da base principal podem ser ordenadas de forma a ter-se que
Q1 = 1nJn.
Exemplo 3. Um dos exemplos mais simples de uma AJC completa e regular e a
algebra que tem a base principal
1nJn, In − 1
nJn.
O Teorema seguinte fornece condicoes equivalentes para que uma AJC seja com-
pleta.
Teorema 3. Dada uma AJC, A, com base principal bp (A) = Q1, ...,Qm , as
seguintes condicoes sao equivalentes.
1. A e completa,
2.m∑j=1
Qj = In,
3. car
(m∑j=1
Qj
)= n,
4. mj=1R (Qj) = Rn.
Apesar da existencia de matrizes regulares estar condicionada ao facto de a
AJC ser completa, como se vera de seguida, essa questao nao se coloca no caso da
inversa de Moore-Penrose (ver anexo A.3), caso especial das inversas generalizadas.
Continua-se a considerar bp (A) = Q1, ...,Qm a base principal da AJC A e M =m∑j=1
cjQj ∈ A. Como bp (A) e uma FMPOMO verifica-se que a matriz
M+ =m∑j=1
c+j Qj, (2.1)
2.1. Algebra de Jordan comutativa 11
com
c+j =
c−1j , cj 6= 0
0, cj = 0
verifica as condicoes da Definicao 32 (Anexo A.3), pelo que, M+ e a inversa de
Moore-Penrose da matriz M. Como M+ ∈ A conclui-se que uma AJC contem a
inversa de Moore-Penrose de cada uma das suas matrizes. Seja a matriz
U =m∑j=1
Qj.
Utilizando novamente o facto de bp (A) ser uma FMPOMO tem-se que U e uma
MPO e para qualquer matriz M ∈ A verifica-se que
UM =m∑j=1
Qj
(m∑j=1
cjQj
)=
m∑j=1
cjQj = M = MU,
ou seja, a matriz U e o elemento identidade de A. Assim, numa AJC o elemento
identidade nao e necessariamente a matriz In. Pelo Teorema 3, numa AJC A,U = In
se e so se car (U) = n. Se car (U) < n, R (U) e um subespaco linear de Rn. Como a
matriz Qm+1 = In−U e uma MPO, ortogonal as matrizes Q1, ...,Qm, se a AJC A
nao e completa e possıvel obter uma AJC completa, que se representa por A, cuja
base principal e bp(A)
= Q1, ...,Qm,Qm+1 . Verifica-se tambem que,
MM+ = M+M = U
se e so se cj 6= 0, para todo o j = 1, ...,m. Se a matriz M for regular a sua inversa
existe, M+ = M−1 e
MM+ = MM−1 = In =m∑j=1
Qj.
Consequentemente,
Teorema 4. Seja A uma AJC. A e completa se e so se contem uma matriz regular.
12 2. Algebra de Jordan comutativa
Se A for uma AJC completa entao
In =m∑j=1
Qj =m∑j=1
AjA′j = PP′
onde Aj, j = 1, ...,m sao matrizes cujos vectores coluna constituem bases ortonor-
madas para os subespacos lineares R (Qj) , j = 1, ...,m (ver anexo A.1) e
P = [A1...Am]
e uma matriz ortogonal. Se a AJC A tambem for regular, pode considerar-se,
Q1 = 1nJn =
(1√n1n
)(1√n1n
)′, com A1 = 1√
n1n e os elementos da primeira coluna
da matriz P sao iguais a 1√n. Note-se que, apesar das matrizes Q1, ...,Qm serem
unicas, nem as matrizes A1, ...Am nem a matriz P sao unicas. Para cada M ∈ A
verifica-se que
M =m∑j=1
cjQj =m∑i=1
cjAjA′j
logo P diagonaliza M e os coeficientes cj, j = 1, ...,m correspondem aos valores
proprios distintos da matriz M que tem multiplicidades
gj = car (Qj) = car (Aj) , j = 1, ...,m.
Verifica-se tambem que se A e completa
|M| =m∏j=1
cgjj
e a matriz M e definida positiva (regular) se e so se os coeficientes cj sao positivos
(nao nulos), ver [45] .
2.2. Algebra de Jordan comutativa obtida de uma famılia de matrizes simetricas que comutam 13
2.2 Algebra de Jordan comutativa obtida de uma famılia de
matrizes simetricas que comutam
Nesta seccao expoe-se um metodo para determinar a base principal e a respectiva
AJC a partir de uma famılia de matrizes simetricas que comutam. As demonstracoes
dos resultados desta seccao nao sao apresentadas pelo motivo ja referido no inıcio
deste capıtulo podendo ser consultadas em [7], por exemplo.
Sejam M = M1, ...,Mw uma famıla de matrizes reais simetricas, de ordem
n, que comutam e sp (M) o espaco gerado por M. Entao, existe uma matriz P
ortogonal (nao unica) ver [45] , tal que, para cada i = 1, .., w, Di = P′MiP, com
Di uma matriz diagonal cujos elementos principais sao os valores proprios de Mi e
os vectores coluna de P os vectores proprios das matrizes Mi.
Definicao 10. Seja A uma AJC. Uma matriz ortogonal P que diagonaliza todas
as matrizes em A diz-se uma diagonalizadora ortogonal de A.
Considere-se P uma matriz ortogonal arbitraria fixa e AP a famılia de todas as
matrizes simetricas diagonalizaveis por P. Obviamente que M⊆ AP e
Teorema 5. A famılia AP e uma AJC.
Demonstracao. Ver [7].
Como In ∈ AP, AP e uma AJC completa. Dado que a interseccao de AJC ′s e
uma AJC segue a definicao seguinte,
Definicao 11. Dada uma famılia M de matrizes simetricas que comutam, diz-se
que a AJC que contem M e que esta contida em todas as AJC ′s que contem M, e
a AJC gerada por M.
14 2. Algebra de Jordan comutativa
A AJC gerada por M e a interseccao de todas as AJC que contem M e
representa-se esta AJC por A (M) . Obviamente que
A (M) ⊆ AP.
Sendo λi1, ..., λin os valores proprios da matriz Mi a decomposicao espectral e
dada por
Mi =n∑j=1
λijxjx′j
onde xj e o vector proprio ortonormado associado a λij. Considerando λij = x′jMixj
pode-se definir uma relacao de equivalencia τ, tal que, dois vectores proprios estao
τ -relacionados quando estao associados a valores proprios identicos para todas as
matrizes de M. Formalmente, para j, j′ = 1, ..., n
Definicao 12. xjτxj′ se e so se x′jMixj = x′j′Mixj′ ,∀i ∈ 1, ..., w.
As classes de equivalencia definidas por τ podem ser de dois tipos. Quando
existe pelo menos uma matriz emM com um valor proprio, nao nulo, associado aos
elementos da classe diz-se que a classe e primaria. A classe e secundaria (se existir,
existe no maximo uma classe secundaria) se todas as matrizes de M tem valores
proprios nulos associados aos vectores da classe, ou seja,
Definicao 13. Dado um vector x de uma determinada classe de equivalencia
1. Se x′Mix 6= 0 para alguma matriz em M a classe de equivalencia e primaria.
2. Se x′Mix = 0 para todas as matrizes em M a classe de equivalencia e se-
cundaria.
Supondo que existem m classes primarias e possıvel construir as matrizes Aj, i =
1, ..., j, associadas as classes primarias, cujos vectores coluna sao os vectores de cada
2.2. Algebra de Jordan comutativa obtida de uma famılia de matrizes simetricas que comutam 15
uma dessas classes e considerar uma matriz Am+1 cujos vectores coluna sao os
vectores da classe de equivalencia secundaria, se esta existir. A famılia das matrizes
Qj = AjA′j, j = 1, ...,m
e uma FMPOMO e constitui a base principal da AJC
A = sp (Q1, ...,Qm) .
Independentemente da escolha das matrizes Aj, j = 1, ...,m, a famılia Q1, ...,Qm
e unica, verificando-se
Teorema 6. A = A (M) .
Demonstracao. Ver [7].
Como a soma das matrizes da base principal e a matriz identidade se e so se nao
existir uma classe de equivalencia τ secundaria, prova-se que
Teorema 7. A (M) = A (sp (M)) .
Demonstracao. Ver [7].
E assim
M⊆ sp (M) ⊆ A (sp (M)) = A (M) ⊆ AP. (2.2)
Assumindo que a famılia M = M1, ...,Mw e constituıda por matrizes linear-
mente independentes e tendo em conta (2.2) tem-se que dim (sp (M)) = w e assim
w ≤ m = dim (A) .
Teorema 8. Verifica-se que sp (M) = A se se verificam uma das duas condicoes
equivalentes
16 2. Algebra de Jordan comutativa
1. M e uma famılia de matrizes reais simetricas linearmente independente, tais
que, w = m, ou
2. sp (M) contem uma fmpomo com w matrizes.
Demonstracao. Ver [7].
Teorema 9. A AJC, AP, e maximal em termos de inclusao.
Demonstracao. Ver [7].
Apresenta-se um exemplo de uma AJC obtida de uma famılia de matrizes
simetricas que comutam. Como se vera em seccoes e capıtulos seguintes esta AJC
desempenha um papel importante na formulacao dos modelos que sao apresentados
nesta tese.
Exemplo 4. Seja a famılia Mr = Jr, Ir . Esta famılia e constituıda por ma-
trizes simetricas, linearmente independentes e que comutam. Uma possıvel diago-
nalizadora ortogonal de Jr, e obviamente da matriz Ir tambem, sera uma matriz
cujos vectores coluna sao vectores proprios ortonormados associados aos seus va-
lores proprios λ1 = r (com multiplicidade igual a 1) e λ2 = 0 (com multiplici-
dade igual a r − 1). Aplicando a definicao 12 obtem-se a matriz P = [A1 A2] ,
onde Aj, j = 1, 2 sao matrizes cujas colunas sao constituıdas pelos vectores de cada
uma das classes primarias. Destas matrizes determinam-se as matrizes da base
principal da AJC A = sp (Q1,Q2) , dadas por Qj = AjA′j, j = 1, 2 obtendo-se
bp (A) =
1rJr, Ir − 1
rJr. Como as matrizes da famılia M sao linearmente inde-
pendente tem-se que sp (M) = A e M tambem e uma base para esta AJC. E usual
representar-se esta AJC por A(r).
2.3. Operacoes binarias definidas numa algebra de Jordan comutativa 17
2.3 Operacoes binarias definidas numa algebra de Jordan
comutativa
Definicao 14. Sejam as famılias de matrizes M1 = M1i, i = 1, ...,m1 e
M2 = M2j, j = 1, ...,m2 , constituıdas por matrizes do tipo n×m e p× q, respec-
tivamente. Define-se o produto de Kronecker entre estas duas famılias por
M1 ⊗M2 = M1i ⊗M2j, i = 1, ...,m1, j = 1, ...,m2
onde M1i ⊗M2j representa o produto de Kronecker das matrizes M1i e M2j, (ver
Anexo A.2).
O produto de Kronecker entre duas famılias de matrizes verifica determinadas
propriedades sendo apresentadas de seguida algumas delas. Verificam-se facilmente
recorrendo as propriedades do produto de Kronecker para matrizes (ver Anexo A.2).
1. Sejam M1, M2 e M3 famılias de matrizes do tipo n × m e p × q e r × s,
respectivamente. Tem-se (M1 ⊗M2)⊗M3 =M1 ⊗ (M2 ⊗M3) .
2. Sejam M1 e M2 famılias de matrizes de ordem n e m, respectivamente.
(a) Se M1 e M2 sao famılias de matrizes que comutam, entao M1 ⊗M2
tambem e uma famılia de matrizes que comutam.
(b) SeM1 eM2 sao famılias de matrizes simetricas entaoM1⊗M2 tambem
e uma famılia de matrizes simetricas.
(c) Se M1 e M2 sao famılias de MPO entao M1 ⊗ M2 tambem e uma
famılia de MPO.
(d) SeM1 eM2 sao FMPOMO, entaoM1⊗M2 tambem e uma FMPOMO.
18 2. Algebra de Jordan comutativa
Sejam A1 e A2 AJC′s, constituıdas por matrizes de ordens n1 e n2, respectiva-
mente. Sejam bp (A1) = Q11, ...,Q1m1 e bp (A2) = Q21, ...,Q2m2 . Considerando
as famılias de matrizes, de ordem n = n1n2,
A1 ⊗A2 =
m1∑i=1
m2∑j=1
αij (Q1i ⊗Q2j) , αij ∈ R para i = 1, ...,m1, j = 1, ...,m2
e
bp (A1)⊗ bp (A2) = Q1i ⊗Q2j, i = 1, ...,m1, j = 1, ...,m2
verifica-se o Teorema seguinte.
Teorema 10. A famılia A1 ⊗ A2 e uma AJC e bp (A1) ⊗ bp (A2) e a sua base
principal.
Demonstracao. Atentendendo as propriedades do produto de Kronecker para ma-
trizes e ao facto de as matrizes Q1i ⊗Q2j serem MPOMO verifica-se que a famılia
A1 ⊗ A2 e constituıda por matrizes simetricas, tem elemento identidade U =m1∑i=1
m2∑j=1
(Q1i ⊗Q2j) e contem o quadrado de qualquer uma das suas matrizes, assim
pelo Teorema 1 e uma algebra de Jordan. Como as matrizes da referida famılia
comutam logo A1⊗A2 e uma AJC. Dado que as matrizes Q1i⊗Q2j sao MPOMO,
sao linearmente independentes e por isso sao uma base para A1⊗A2. Pelo Teorema
2 constituem a base principal da ajc A1 ⊗A2.
Para representar a base principal da AJC A1 ⊗ A2 utiliza-se bp (A1 ⊗A2) em
vez de bp (A1)⊗ bp (A2) .
Corolario 1. Se as AJC ′s A1 e A2 forem completas [regulares] a AJC A1 ⊗A2 e
completa [regular].
2.3. Operacoes binarias definidas numa algebra de Jordan comutativa 19
Demonstracao. Supondo queA1 eA2 sao AJC ′s completas tem-se que
m1∑i=1
Q1i = In1
e
m2∑j=1
Q2j = In2 . Atendendo as propriedades do produto de Kronecker
m1∑i=1
m2∑j=1
(Q1i ⊗Q2j) = In1 ⊗ In2 = In1n2 ,
ou seja, A1⊗A2 e uma AJC completa. Admitindo que A1 e A2 sao AJC ′s regulares,
Q11 = 1n1Jn1 e Q21 = 1
n2Jn2 , pelo que, Q11⊗Q21 = 1
n1n2Jn1n2 ∈ A1⊗A2, concluindo-
se que A1 ⊗A2 e regular.
Sejam P (A1) = [A11 ... A1m1 ] e P (A2) = [A21 ... A2m2 ] diagonalizadoras orto-
gonais das AJC ′s completas A1 e A2, respectivamente. Entao
Teorema 11. Uma diagonalizadora ortogonal da AJC completa A1 ⊗ A2, que se
representa por P (A1 ⊗A2) , e dada por
P (A1 ⊗A2) = P (A1)⊗P (A1) .
Demonstracao. Pelo teorema 10 a base principal da AJC A1 ⊗ A2 e constituıda
pelas matrizes
Q1i ⊗Q2j = (A1iA′1i)⊗
(A2jA
′2j
)= (A1i ⊗A2j) (A1i ⊗A2j)
′
com i = 1, ...,m1 e j = 1, ...,m2, pelo que,
P (A1 ⊗A2) = [A11 ⊗A21 . . .A1m1 ⊗A2m2 ] = P (A1)⊗P (A2) .
Como o produto de Kronecker e associativo verifica-se que, dadas as AJC’s
A1,A2,A3,
A1 ⊗ (A2 ⊗A3) = (A1 ⊗A2)⊗A3
20 2. Algebra de Jordan comutativa
ver [14].
Seja
U1 =
m1∑i=1
Q1i
o elemento identidade da AJC A1.
Teorema 12. A famılia
Q1i ⊗Q21, i = 1, ...,m1 ∪ U1 ⊗Q2j, j = 2, ...,m2 (2.3)
e uma FMPOMO.
Demonstracao. Como o produto de Kronecker de MPO′s e uma MPO, entao (2.3)
e uma FMPOMO. Como as matrizes das famılias bp (A1) e bp (A2) sao mutuamente
ortogonais,
• (Q1i ⊗Q21) (Q1i′ ⊗Q21) = 0n1n2 , i 6= i′, i′ = 1, ...,m1
• (U1 ⊗Q2j) (U1 ⊗Q2j′) = 0n1n2 , j 6= j′, j′ = 1, ...,m2
• (Q1i ⊗Q21) (U1 ⊗Q2j) = 0n1n2 , i = 1, ...,m1, j = 2, ...,m2
entao (2.3) e uma FMPOMO.
Definicao 15. Define-se o produto ? entre as AJC ′s A1 e A2 como a AJC A1 ?A2
cuja base principal e
bp (A1 ?A2) = Q1i ⊗Q21, i = 1, ...,m1 ∪ U1 ⊗Q2j, j = 2, ...,m2 .
Em particular, se as AJC ′s A1 e A2 forem completas e regulares, a base principal
da AJC A1 ?A2 e
bp (A1 ?A2) =
1
n1
Jn1 ⊗1
n2
Jn2 , ...,Q1m1 ⊗1
n2
Jn2
∪ In1 ⊗Q2j, j = 2, ...,m2 .
Assim,
2.3. Operacoes binarias definidas numa algebra de Jordan comutativa 21
Corolario 2. Se as AJC ′s A1 e A2 forem completas [regulares] a AJC A1 ?A2 e
completa [regular].
Demonstracao. Admitindo que as AJC ′s A1 e A2 sao completas tem-se
m1∑i=1
Q1i =
In1 e
m2∑j=1
Q2j = In2 . Atendendo as propriedades do produto de Kronecker
m1∑i=1
(Q1i ⊗Q21) +
m2∑j=2
(In1 ⊗Q2j) = In1 ⊗Q21 + In1 ⊗m2∑j=2
Q2j = In1 ⊗ In2 = In1n2
ou seja, A1 ?A2 e uma AJC completa. Se as AJC ′s A1 e A2 forem regulares,
1n1
Jn1 ⊗ 1n2
Jn2 = 1n1n2
Jn1n2 ∈ A1 ? A2 o que significa que A1 ? A2 e uma AJC
regular.
Teorema 13. Sejam P1 =[
1√n1
1n1 A12 ... A1m1
]e P2 =
[1√n2
1n2 A22 ... A2m2
]diagonalizadoras ortogonais das AJC ′s completas e regulares A1 e A2, respectiva-
mente. Entao uma diagonalizadora ortogonal da AJC completa e regular A1 ?A2 e
a matriz
P (A1 ?A2) =
[1√n1
1n1 ⊗1√n2
1n2 . . . A1m1 ⊗1√n2
1n2 In1 ⊗A22 . . . In1 ⊗A2m2
].
Demonstracao. Basta notar que a base principal da AJC A1?A2 e constituıda pelas
matrizes
1
n1
Jn1 ⊗1
n2
Jn2 =
(1√n1
1n1 ⊗1√n2
1n2
)(1√n1
1n1 ⊗1√n2
1n2
)′Q1i ⊗
1
n2
Jn2 =
(A1i ⊗
1√n2
1n2
)(A1i ⊗
1√n2
1n2
)′, i = 2, ...,m1
In1 ⊗Q2j = (In1 ⊗A2j) (In1 ⊗A2j)′ , j = 2, ...,m2
para verificar a tese.
22 2. Algebra de Jordan comutativa
Dadas as AJC ′s A1, A2 e A3 verifica-se que
A1 ? (A2 ?A3) = (A1 ?A2) ?A3
ver [14].
2.4 Sub-algebra de Jordan comutativa
Seja A uma AJC e bp (A) = Q1, ...,Qm . Seja A uma sub-algebra de Jordan
comutativa (sub−AJC) de A, ou seja, A e uma AJC, tal que, A ⊆ A, ver
definicoes 1, 2 e 4. Considere-se a base principal de A, bp (A) = Q1, ...,Qm .
Como cada matriz de bp (A) pertence a A e e uma MPO,
Qi =∑i′∈Ci
Qi′ , i = 1, ...,m (2.4)
onde Ci ⊆ 1, ...,m e Ci1 ∩Ci2 = ∅, para i1 6= i2 e i1, i2 = 1, ...,m. Evidentemente
que se verificam⋃i=1
Ci ⊆ 1, ...,m . Atendendo a (2.4) e como Qi′ = Ai′A′i′ , i
′ =
1, ...,m as matrizes de bp (A) ainda podem ser expressas como
Qi =∑i′∈Ci
Ai′A′i′ = Ai (Ai )
′ , i = 1, ...,m (2.5)
onde
Ai = [Ai′ , i′ ∈ Ci] , i = 1, ...,m. (2.6)
Portanto, de uma AJC A e possıvel obter uma nova AJC A, de menor dimensao,
considerando uma particao C1, ..., Cm de 1, ...,m ou de um seu subconjunto.
Se P = [A1 ... Am] e uma matriz ortogonal associada a AJC A entao e possıvel
ordenar as colunas da matriz P e obter uma matriz ortogonal P = [A1 ... Am ]
associada a sub-AJC A, com Ai = [Ai′ , i′ ∈ Ci] , i = 1, ...,m.
2.4. Sub-algebra de Jordan comutativa 23
Definicao 16. Diz-se que a AJC A e obtida por agregacao.
Sejam U =m∑i=1
Qi e U =m∑i′=1
Qi′ os elementos identidade de A e A, respecti-
vamente.
Definicao 17. Diz-se que A e sub-AJC principal de A quando U = U.
Ter que A e sub-AJC principal de A e equivalente am⋃i=1
Ci = 1, ...,m . Caso
contrario,m⋃i=1
Ci ⊂ 1, ...,m . Se A for completa, A e sub-AJC principal de A se
e so se A tambem for completa.
Sejam A1, A2 AJC’s e
bp (A1) = Q11, ...,Q1m1 , bp (A2) = Q21, ...,Q2m2 .
Sejam A1, A2 sub-AJC’s de A1, A2, respectivamente e
bp (A1) =
Q11, ...,Q1m1
, bp (A2) =
Q21, ...,Q
2m2
,
ondeQ1i =
∑i′∈C1i
Q1i′ , i = 1, ...,m1
C1i1 ∩ C1i2 = ∅, i1 6= i2
e
Q2j =
∑j′∈C2j
Q2j′ , j = 1, ...,m2
C2j1 ∩ C2j2 = ∅, j1 6= j2.
(2.7)
Atendendo ao Teorema 10, A1 ⊗A2 e A1 ⊗A2 sao AJC’s com
bp (A1 ⊗A2) = Q1i′ ⊗Q2j′ , i′ = 1, ...,m1, j
′ = 1, ...,m2
bp (A1 ⊗A2) =Q1i ⊗Q2j, i = 1, ...,m1, j = 1, ...,m2
.
Verifica-se que
Teorema 14. A1 ⊗A2 e sub-AJC de A1 ⊗A2.
24 2. Algebra de Jordan comutativa
Demonstracao. Dado queA1⊗A2 e uma AJC basta verificar queA1⊗A2 ⊆ A1⊗A2.
Seja M ∈ A1 ⊗A2, arbitraria. Atendendo a (2.7) e as propriedades do produto de
Kronecker, verifica-se que
M =
m1∑i=1
m2∑j=1
αij(Q1i ⊗Q2j
)=
m1∑i=1
m2∑j=1
αij
∑i′∈C1i
Q1i′ ⊗∑j′∈C2j
Q2j′
=
m1∑i=1
∑i′∈C1i
m2∑j=1
∑j′∈C2j
αij (Q1i′ ⊗Q2j′) ∈ A1 ⊗A2.
Corolario 3. Se A1, A2 sao sub-AJC ′s principais de A1 e A2, respectivamente,
entao A1 ⊗A2 e sub-AJC principal da AJC A1 ⊗A2.
Demonstracao. Atendendo as propriedades do produto de Kronecker e admitindo
que A1, A2 sao sub-AJC ′s principais de A1 e A2, respectivamente, verifica-se que
m1∑i=1
m2∑j=1
(Q1i ⊗Q2j
)=
m1∑i=1
Q1i⊗m2∑j=1
Q2j =
m1∑i′=1
Q1i′⊗m2∑j′=1
Q2j′ =
m1∑i′=1
m2∑j′=1
(Q1i′ ⊗Q2j′) .
Se A1, A2, A1 e A2 forem completas e regulares, atendendo ao Corolario 2, as
AJC ′s A1 ?A2 e A1 ?A2 tambem sao completas e regulares com
bp (A1 ?A2) =
Q1i ⊗
1
n2
Jn2 , i = 1, ...,m1
∪In1 ⊗Q2j, j = 2, ...m2
bp (A1 ?A2) =
Q1i′ ⊗
1
n2
Jn2 , i′ = 1, ...,m1
∪ In1 ⊗Q2j′ , j
′ = 2, ...m2 .
Como as AJC ′s consideradas sao completas A1 e A2 sao sub-AJC ′s principais de
A1 e A2, respectivamente. Prova-se que
2.4. Sub-algebra de Jordan comutativa 25
Teorema 15. A1 ?A2 e sub-AJC principal de A1 ?A2.
Demonstracao. Como A1 ?A2 e uma AJC completa basta verificar que A1 ?A2 ⊆
A1 ?A2. Seja M ∈ A1 ?A2, arbitraria. Tendo em conta as propriedades do produto
de Kronecker
M =
m1∑i=1
αi
(Q1i ⊗
1
n2
Jn2
)+
m2∑j=2
βj(In1 ⊗Q2j
)=
m1∑i=1
αiQ1i⊗
1
n2
Jn2+In1⊗m2∑j=2
βjQ2j
e comom1∑i=1
αiQ1i =
m1∑i=1
αi
(∑i′∈C1i
Q1i′
)=
m1∑i=1
∑i′∈C1i
αiQ1i′
em2∑j=1
βjQ2j =
m2∑j=1
βj
∑j′∈C2j
Q2j′
=
m2∑j=1
∑j′∈C2j
βjQ2j′
verifica-se que M ∈ A1 ?A2.
26 2. Algebra de Jordan comutativa
3. MODELO LINEAR, DE EFEITOS FIXOS, ESTRITAMENTE
ASSOCIADO A UMA ALGEBRA DE JORDAN COMUTATIVA
As estruturas apresentadas no capıtulo anterior permitem relacionar um modelo
linear ortogonal com uma AJC e apresenta-lo na forma canonica, a qual, assenta na
base principal da AJC. Com esta abordagem e assumindo a hipotese de normalidade
e possivel derivar estatısticas suficientes e completas e obter UMV UE ′s para os
parametros do modelo. Nesta exposicao considera-se o modelo linear de efeitos fixos.
Agrupando termos de um modelo linear associado a uma AJC e possıvel obter,
por agregacao, um sub-modelo associado a uma sub-AJC principal. Utilizando
as operacoes binarias definidas na seccao 2.3 e possıvel construir modelos lineares
ortogonais complexos, a partir de modelos lineares ortogonais mais simples, por
cruzamento e por encaixe.
3.1 Estrutura do modelo e estatısticas
Seja um modelo linear
Y =m∑j=1
Xjβj + ε (3.1)
e a famılia M = M1, ...,Mm+1 constituıda pelas matrizes Mj = XjX′j, com
j = 1, ...,m e Mm+1 = In, βj vectores de parametros e/ou aleatorios e ε o vector
dos erros aleatorios.
28 3. Modelo linear, de efeitos fixos, estritamente associado a uma algebra de Jordan comutativa
Definicao 18. Um modelo linear diz-se ortogonal se as matrizes da famılia M
comutarem.
Definicao 19. Diz-se que um modelo linear esta associado a uma AJC A quando
a famılia M constituir uma base para A.
Decorre desta definicao que um modelo linear associado a uma AJC A e orto-
gonal.
Seja um modelo linear dado por (3.1) associado a uma AJC A. Para este modelo
tem-se a famıliaM = M1, ...,Mm, In e a base principal bp (A) = Q1, ...,Qm+1 ,
com Qj = AjA′j, j = 1, ...,m + 1, onde Aj, j = 1, ...,m + 1 sao matrizes cu-
jos vectores coluna constituem bases ortonormadas para os subespacos lineares
R (Qj) , j = 1, ...,m + 1, respectivamente (ver anexo A.1). Sendo a AJC A com-
pleta, a nocao de ortogonalidade do modelo justifica-se dada a relacao de A com
particao ortogonal de Rn,
Rn =m+1
j=1
R (Qj) .
Exemplo 5. Uma amostra aleatoria de dimensao r
y = 1rµ+ Irε, (3.2)
onde ε tem vector medio 0 e matriz de variancias-covariancias σ2Ir, e um modelo
linear associado a AJC A(r) cuja base principal e bp (A) =
1rJr, Ir − 1
rJr
e M =
Jr, Ir (ver exemplo 4 apresentado na seccao 2.2).
Definicao 20. Um modelo linear
Y =m∑j=1
Ajβj + ε (3.3)
onde M = bp(A) = Q1, ...,Qm,Qm+1 , com Qj = AjA′j, j = 1, ...,m e Qm+1 =
In −m∑j=1
Qj diz-se um modelo linear estritamente associado a AJC A.
3.1. Estrutura do modelo e estatısticas 29
Dado que um modelo linear estritamente associado a uma AJC e um modelo
linear associado a uma AJC, conceitos sobre o encaixe e cruzamento de modelos
associados aplicam-se tambem aos modelos lineares estritamente associados a uma
AJC. Como se pode ver em [14], dados dois modelos lineares associados as AJC ′sA1
e A2, o modelo obtido por encaixe esta associado a AJC A1 ?A2 e o modelo obtido
por cruzamento esta associado a AJC A1 ⊗ A2. Ve-se tambem em [14] que um
modelo com replicas e um caso particular do encaixe de modelos. Se A for a AJC
associada a um modelo com apenas uma repeticao o mesmo modelo com r repeticoes
esta associado a AJC A ? A(r), onde A(r) e a AJC completa e regular com base
principal
bp (A(r)) =
1
rJr, Ir −
1
rJr
(ver exemplo 4).
Na exposicao que se segue apresenta-se a estrutura de um modelo linear, com r
replicas, estritamente associado a uma AJC A?A(r), completa e regular, de efeitos
fixos, que sera utilizada na descricao do modelo descrito no proximo capıtulo. Assim,
seja A uma AJC, completa, constituıda por matrizes, de ordem n, com
bp (A) = Q1, ...,Qm
onde Qj = AjA′j, j = 1, ...,m. A base principal da AJC, tambem completa, A?A(r),
constituıda por matrizes de ordem nr, e dada por
bp (A ?A(r)) =
Q1 ⊗
1
rJr, ...,Qm ⊗
1
rJr,Qm+1
(3.4)
ver seccao 2.3, com
Qm+1 = In ⊗(
Ir −1
rJr
)= In ⊗KrK
′r,
onde Kr e uma matriz, do tipo r × (r − 1), que se obtem de uma matriz ortogonal
estandardizada, de ordem r, eliminando a 1a coluna igual a 1√r1r (ver Anexo A.4).
30 3. Modelo linear, de efeitos fixos, estritamente associado a uma algebra de Jordan comutativa
As matrizes de bp (A ?A(r)) ainda se podem escrever como Qj ⊗ 1rJr =
(Aj ⊗ 1√
r1r
)(Aj ⊗ 1√
r1r
)′, j=1,...,m
Qm+1 = In ⊗KrK′r = (In ⊗Kr) (In ⊗Kr)
′ = Am+1A′m+1
(3.5)
com Am+1 = In ⊗ Kr . Sendo gj = car (Aj) , j = 1, ...,m e g = car (Am+1) as
caracterısticas das matrizes de bp (A ?A(r)) sao gj = car(Qj ⊗ 1
rJr)
= car (Qj) = car (Aj) , j=1,...,m
g = car (Am+1) = n(r − 1)
(ver Anexo A.2). Devido a ortonormalidade das colunas das matrizes Aj (ver Anexo
A.1) verifica-se para j, i = 1, ...,m(Aj ⊗ 1√
r1r
)′ (Ai ⊗ 1√
r1r
)= 0gj×gi , j 6= i(
Aj ⊗ 1√r1r
)′ (Aj ⊗ 1√
r1r
)= Igj
(3.6)
e (Aj ⊗ 1√
r1r
)′Am+1 = 0gj×n(r−1)
A′m+1Am+1 = In(r−1).(3.7)
Assim um modelo linear, com r replicas, estritamente associado a AJC completa
A ?A(r), de efeitos fixos, e dado por
Y =m∑i=1
(Aj ⊗
1√r1r
)βj + ε (3.8)
onde β1, ...,βm sao vectores de parametros e ε o vector dos erros aleatorios. Como
A ?A(r) e uma AJC completa
Inr =m∑j=1
(Qj ⊗
1
rJr
)+ Qm+1 =
m∑j=1
(Aj ⊗
1√r1r
)(Aj ⊗
1√r1r
)′+ Am+1A
′m+1
e assim
Y = InrY =m∑j=1
(Aj ⊗
1√r1r
)(Aj ⊗
1√r1r
)′Y + Am+1A
′m+1Y (3.9)
3.1. Estrutura do modelo e estatısticas 31
obtendo-se
Y =m∑j=1
(Aj ⊗
1√r1r
)Wj + Am+1Wm+1 (3.10)
onde Wj =(Aj ⊗ 1√
r1r
)′Y, j = 1, ...,m
Wm+1 = A′m+1Y.(3.11)
Definicao 21. Um modelo linear estritamente associado a AJC A ? A(r) com a
estrutura (3.10) diz-se que esta na forma canonica.
Como ja foi referido no inıcio deste capıtulo assumindo a hipotese de normalidade
e utilizando o modelo na forma (3.10) e possıvel derivar estatısticas suficientes, com-
pletas e obter UMVUE’s para os parametros do modelo. Ate ao final desta seccao
e na proxima sao necessarios resultados estatısticos que estao resumidos no Anexo
B (Vectores aleatorios, distribuicao Normal multivariada) e Anexo C (Estatısticas
suficientes e completas).
Admitindo que ε ∼ N (0, σ2Inr) verifica-se que
Y ∼ N(µ, σ2Inr
), (3.12)
onde
µ = E [Y] =m∑j=1
(Aj ⊗
1√r1r
)βj. (3.13)
Seja o espaco linear Ω = mj=1R
(Qj ⊗ 1
rJr). A matriz de projeccao ortogonal sobre
Ω e QΩ =m∑j=1
(Qj ⊗
1
rJr
)(ver Anexo A.1). Como µ ∈ Ω,
µ = QΩ µ =m∑j=1
(Aj ⊗
1√r1r
)(Aj ⊗
1√r1r
)′µ =
m∑j=1
(Aj ⊗
1√r1r
)λj (3.14)
com
λj =
(Aj ⊗
1√r1r
)′µ, j = 1, ...,m. (3.15)
32 3. Modelo linear, de efeitos fixos, estritamente associado a uma algebra de Jordan comutativa
Como Ω⊥ = R (Qm+1) verifica-se que
A′m+1µ = 0n(r−1)×1. (3.16)
Seja o vector W =[W′
1 ... W′mW′
m+1
]′onde Wj, j = 1, ...,m + 1 sao dados por
(3.11). Atendendo ao Teorema 13 e a (3.5)
P = P (A ?A(r)) =
[A1 ⊗
1√r1r ... Am ⊗
1√r1r Am+1
]e uma diagonalizadora ortogonal da AJC A ?A(r) e Y = PW. Assim, W = P′Y e
W ∼ N(λ, σ2Inr
)onde
λ = P′µ =[λ′1 ... λ
′m ... 0′n(r−1)
]′e λj, j = 1, ...,m sao dados por (3.15). Os vectores Wj, j = 1, ...,m + 1, sao
independentes e Wj ∼ N(λj, σ
2Igj)j = 1, ...,m
Wm+1 ∼ N(0, σ2In(r−1)
) (3.17)
onde car (Aj) = gj, j = 1, ...,m. Considerando as variaveis aleatorias Sj = ‖Wj‖2 , j = 1, ...,m
S = ‖Wm+1‖2(3.18)
verifica-se que Sj ∼ σ2χ2
gj ,δjj = 1, ...,m
δj = 1σ2 ‖λj‖2 j = 1, ...,m
S ∼ σ2χ2n(r−1)
e que sao independentes. A funcao densidade de Y ∼ N (µ, σ2Inr) e dada por
fY (y) =e−
12
(y−µ)′(σ2Inr)−1
(y−µ)√(2π)nr|σ2Inr|
=e−
12σ2
(y−µ)′Inr(y−µ)√(2π)nr(σ2)nr
.
3.1. Estrutura do modelo e estatısticas 33
Atendendo a que A ?A(r) e uma AJC completa, a (3.9), (3.11), (3.15)-(3.18)
(y − µ)′ Inr (y − µ) =m∑j=1
(y − µ)′(
Aj ⊗1√r1r
)(Aj ⊗
1√r1r
)′(y − µ)
+ (y − µ)′Am+1A′m+1 (y − µ)
=m∑j=1
∥∥∥∥(Aj ⊗1√r1r
)′(y − µ)
∥∥∥∥2
+∥∥A′m+1 (y − µ)
∥∥2
=m∑j=1
∥∥∥∥(Aj ⊗1√r1r
)′y −
(Aj ⊗
1√r1r
)′µ
∥∥∥∥2
+∥∥A′m+1y −A′m+1µ
∥∥2
=m∑j=1
‖wj − λj‖2 + s
Assim,
fY (y) =e
−
m∑j=1
1
2σ2‖wj − λj‖2 − s
2σ2√(2π)nr (2σ2)nr
. (3.19)
E possıvel agora estabelecer o Teorema seguinte.
Teorema 16. As estatısticas Wj, j = 1, ...,m e S sao conjuntamente suficientes e
completas.
Demonstracao. Dado (3.19) e utilizando o Teorema da factorizacao (Anexo C) as es-
tatısticas Wj, j = 1, ...,m e S sao conjuntamente suficientes. Como a distribuicao de
Y pertence a famılia exponencial e o espaco parametrico contem um rectangulo com
a mesma dimensao as estatısticas sao suficientes e completas, Teorema 68 (Anexo
C).
34 3. Modelo linear, de efeitos fixos, estritamente associado a uma algebra de Jordan comutativa
3.2 Inferencia relativa aos parametros do modelo
Sejam os vectores
Bjλj, j = 1, ...,m
onde Bj sao matrizes, do tipo sj × gj, com car(Bj) = sj ≤ gj, j = 1, ...,m e
λj, j = 1, ...,m dados por (3.15). Como Wj, j = 1, ...,m e S, dadas por (3.17) e
(3.18), respectivamente, sao estatısticas conjuntamente suficientes, completas e E[BjWj] = Bjλj, j = 1, ...,m
E[
Sn(r−1)
]= σ2
de acordo com o Teorema 69 (Anexo C), BjWj e UMVUE para Bjλj, j = 1, ...,m
Sn(r−1)
e UMVUE para σ2.
Como Wj ∼ N(λj, σ
2Igj)j = 1, ...,m, entao
BjWj ∼ N(Bjλj, σ
2BjB′j
), j = 1, ...,m (3.20)
e consequentemente
Uj = (BjWj −Bjcj)′ (BjB
′j
)−1(BjWj −Bjcj) ∼ σ2χ2
sj ,δj, j = 1, ...,m
onde os parametros de nao centralidade sao dados por
δj =(Bjλj −Bjcj)
′ (BjB′j
)−1(Bjλj −Bjcj)
σ2, j = 1, ...,m (3.21)
e Bjcj ∈ R (Bj) , j = 1, ...,m. Como Wj e S sao independentes o mesmo acontece
com Uj e S verificando-se que
Fj =n(r − 1)
sj
UjS, j = 1, ...,m
3.2. Inferencia relativa aos parametros do modelo 35
tem distribuicao F nao central com paramtetros sj e n(r − 1) e parametro de nao
centralidade δj dado por (3.21), simbolicamente
Fj ∼ Fsj ,n(r−1),δj
(ver Anexo B.3). Em particular, caso Bjλj = Bjcj, j = 1, ...,m obtem-se
U0,j = (BjWj −Bjλj)′ (BjB
′j
)−1(BjWj −Bjλj) ∼ σ2χ2
sj
e
F0,j =n(r − 1)
sj
U0,j
S∼ Fsj ,n(r−1). (3.22)
Utilizando os resultados anteriores e possıvel obter elipsoides de confianca para
Bjλj , j = 1, ...,m. Seja f(sj ,g,1−α) o quantil da distribuicao F com sj e n(r − 1)
graus de liberdade para a probabilidade 1− α, entao
P[F0,j ≤ f(sj ,n(r−1),1−α)
]= P
[U0,j ≤ sjf(sj ,n(r−1),1−α)
S
n(r − 1)
]= 1− α
determinando a desigualdade, ver Scheffe (1959)
U0,j ≤ sjf(sj ,n(r−1),1−α)S
n(r − 1)(3.23)
um elipsoide de confianca para Bjλj, j = 1, ...,m. O teste de hipoteses
H0,j : Bjλj = Bjcj, j = 1, ...,m (3.24)
utiliza (3.22) rejeitando-se H0,j se e so se o elipsoide de confianca nao cobrir Bjλj =
Bjcj, ou seja, rejeita-se H0,j se e so se
U0,j > sjf(sj ,n(r−1),1−α)S
n(r − 1).
Por outro lado um ponto esta no interior de um elipsode se e so se estiver entre
todos os pares de planos tangentes ao elipsoide. Para d 6= 0
P
⋂dj
∣∣d′jBjWj − d′jBjλj∣∣ ≤√sjf(sj ,n(r−1),1−α)d′jBjB′jdj
S
n(r − 1)
= 1− α
36 3. Modelo linear, de efeitos fixos, estritamente associado a uma algebra de Jordan comutativa
onde a interseccao e feita para todos os vectores dj ∈ Rn, ver [44]. Das desigualdades
obtem-se intervalos de confianca simultaneos para d′jBjλj dados por[d′jBjWj − Zj; d′jBjWj + Zj
]onde Zj =
√sjf(sj ,n(r−1),1−α)d′jBjB′jdj
Sn(r−1)
. Pode-se considerar tambem as sub-
hipoteses
H0,j,i :(bji)′λj =
(bji)′
cj, i = ..., gj (3.25)
onde bj1, ...,bjgj
sao os vectores linha de Bj. A hipotese H0,j verifica-se se e so se se
verificarem as sub-hipoteses H0,j,i, i = 1, ..., gj. Utilizando (3.23) e possıvel obter
um intervalo de confianca para(bji)′λj. Atendendo a relacao entre as distribuicoes
t e F vem
Tj,i =
(bji)′
Wj −(bji)′λj√
Sn(r−1)
(bji)′ (
bji) ∼ tn(r−1), i = 1, ..., gj
pelo que o intervalo de confianca bilateral e dado por
[(bji)′
Wj − t(n(r−1),1−α2
)
√S
n(r − 1)
(bji)′ (
bji)
;(bji)′
Wj + t(n(r−1),1−α2
)
√S
n(r − 1)
(bji)′ (
bji)]
onde t(n(r−1),1−α2
) representa o quantil da distribuicao t com n(r − 1) graus de li-
berdade para a probabilidade 1 − α2. Assim, rejeita-se a hipotese H0,j,i se e so se
|Tj,i| > t(n(r−1),1−α2
). Com as devidas alteracoes obtem-se intervalos de confianca
unilaterais e os respectivos testes de hipoteses.
Sabe-se que Sn(r−1)
e um UMVUE para σ2 e que S ∼ σ2χ2n(r−1). Considere-se
χ2(n(r−1),1−α
2) e χ2
(n(r−1),α2
) os quantis da distribuicao qui-quadrado com n(r−1) graus
de liberdade para a probabilidade 1 − α2
e α2, respectivamente. Entao um intervalo
de confianca bilateral para σ2 para a probabilidade 1− α e[S
χ2(n(r−1),1−α
2)
;S
χ2(n(r−1),α
2)
]. (3.26)
3.3. Sub-modelo estritamente associado a uma algebra de Jordan comutativa 37
Os intervalos de confianca unilaterais a direita e a esquerda para σ2 correspondentes
a probabilidade 1− α sao, respectivamente,]0 ;
S
χ2(n(r−1),α)
]e
[S
χ2(n(r−1),1−α)
; +∞
[. (3.27)
Ao intervalo de confianca bilateral (3.26) corresponde o teste de hipoteses H0 : σ2 = σ20
H1 : σ2 6= σ20
sendo a hipotese H0 rejeitada se e so se χ2obs > χ2
(n(r−1),1−α2
) ou χ2obs < χ2
(n(r−1),α2
) onde
χ2obs representa o valor calculado da estatıstica de teste. Com as devidas alteracoes
obtem-se os testes unilaterais a direita e a esquerda correspondentes aos intervalos
de confianca (3.27), respectivamente.
3.3 Sub-modelo estritamente associado a uma algebra de Jordan
comutativa
De um modelo linear estritamente associado a uma AJC completa e possıvel obter
outro modelo linear (que se designara por sub-modelo) estritamente associado a uma
sua sub-AJC principal. Recordando a seccao 3.1 seja um modelo linear, de efeitos
fixos, na forma canonica
Y =m∑j=1
(Aj ⊗
1√r1r
)Wj + Am+1Wm+1
estritamente associado a AJC completa A ?A(r), cuja base principal e
bp (A ?A(r))=
Q1 ⊗
1
rJr, ...,Qm ⊗
1
rJr,Qm+1
onde as matrizes Qj = AjA
′j, j = 1, ...,m + 1 sao dadas por (3.5) e os vectores
Wj = A′jY, j = 1, ...,m+ 1 por (3.11). Relembrando tambem a seccao 2.4 seja A
38 3. Modelo linear, de efeitos fixos, estritamente associado a uma algebra de Jordan comutativa
uma sub-AJC principal de A (tambem completa) com base principal dada por
bp (A) = Q1, ...,Qm
onde
Qi =∑i′∈Ci
Ai′A′i′ = Ai (Ai )
′ , i = 1, ...,m,
C1, ..., Cm constituem uma particao de 1, ...,m e as matrizes Ai sao dadas por
(2.6). Atendendo ao Teorema 15 A ?A(r) e sub-AJC principal de A ?A(r) e
bp (A ?A(r))=
Q1 ⊗
1
rJr, ...,Q
m ⊗
1
rJr,Q
m+1
.
Assim, um modelo linear na forma canonica estritamente associado a AJC completa
A ?A(r) e dado por
Y =m∑i=1
(Ai ⊗
1√r1r
)W
i + Am+1Wm+1 (3.28)
onde
Wi = [Wj, j ∈ Ci] , i = 1, ...,m, (3.29)
Wm+1 = Wm+1, e Am+1 = Am+1.
Definicao 22. O modelo (3.28) designa-se por sub-modelo estritamente associado
a AJC A ?A(r).
E habitual tambem dizer que o modelo (3.28) e obtido por agregacao.
3.4 Cruzamento e encaixe de modelos
Como ja foi referido e possıvel construir modelos lineares associados a uma AJC
complexos, a partir de modelos lineares associados a uma AJC mais simples, por
cruzamento e por encaixe, utilizando, respectivamente, as operacoes ⊗ e ?, definidas
3.4. Cruzamento e encaixe de modelos 39
na seccao 2.3, ver [14]. Quando se derivam modelos lineares ortogonais complexos
considera-se que os modelos iniciais tem apenas uma replica (r = 1) cada um.
Depois do cruzamento e/ou encaixe pode considerar-se o modelo com replicas, caso
particular do encaixe de modelos. Por exemplo, o modelo que resulta de encaixar o
3o modelo no cruzamento dos dois primeiros modelos esta associado a AJC
(A1 ⊗A2) ?A3.
Depois do cruzamento e encaixe pode considerar-se replicas e a AJC associada ao
novo modelo e
((A1 ⊗A2) ?A3) ?A(r).
A ideia associada ao cruzamento de modelos e considerar todas as combinacoes
possıveis de tratamentos dos modelos iniciais. Sejam A1 e A2, AJC′s completas e
regulares, as respectivas bases principais,
bp (A1) = Q11, ...Q1m1 e bp (A2) = Q21, ...Q2m2 (3.30)
onde Q1i = A1iA′1i, i = 1, ...,m1 e Q2j = A2jA
′2j, j = 1, ...,m2.
Cruzando os modelos lineares estritamente associados as AJC ′s A1 e A2, res-
pectivamente, obtem-se o modelo na forma canonica, com r > 1, dado por
Y =
m1∑i=1
m2∑j=1
(A1i ⊗A2j ⊗
1√r1r
)Wij + Am1m2+1Wm1m2+1 (3.31)
estritamente assciado a AJC A = (A1 ⊗A2) ?A(r) onde
bp (A) =
Qi1 ⊗Q2j ⊗
1
rJr, i = 1, ...,m1, j = 1, ...,m2
∪
In1n2 ⊗(
Ir −1
rJr
).
O modelo que resulta do encaixe do segundo modelo no primeiro, com r > 1,
estritamente associado a AJC (A1 ?A2) ?A(r), e dado por
Y =
m1∑i=1
(A1i ⊗
1√n2
1n2 ⊗1√r1r
)Wi+
m2∑j=2
(In1 ⊗A2j ⊗
1√r1r
)Wm1+j−1+A∗W∗
40 3. Modelo linear, de efeitos fixos, estritamente associado a uma algebra de Jordan comutativa
onde
bp ((A1 ?A2) ?A(r)) =
Qi1 ⊗
1
n2
Jn2 ⊗1
rJr, i = 1, ...,m1
∪
In1 ⊗Q2j ⊗1
rJr, j = 2, ...,m2
∪
In1n2 ⊗(
Ir −1
rJr
)e A∗ = In1n2 ⊗Kr e W∗ = (A∗)′Y.
4. DELINEAMENTO FACTORIAL COM BASE PRIMA
Uma experiencia que envolva o estudo deN (≥ 2) factores F1, ..., FN com p1, ..., pN (≥
2) nıveis respectivamente, designa-se delineamento factorial p1× ...×pN , ou apenas,
factorial p1×...×pN . Os factoriais estao associados a experiencias em que se pretende
estudar o efeito de varios factores (individualmente ou em conjunto) numa variavel
resposta (ou dependente) Y. Em cada replica completa de um factorial sao observa-
das todas as combinacoes possıveis de nıveis dos factores (tratamentos) dizendo-se
que os N factores estao cruzados. Tambem e habitual utilizar a designacao de fac-
torial completo (do ingles ”full factorial”). Por exemplo, um factorial com dois
factores, F1 e F2, com p1 = 3 e p2 = 2 nıveis, respectivamente, tem 6 tratamentos.
Nesta tese considera-se que o numero de nıveis de cada factor e igual a p
p1 = ... = pN = p
e p e um numero primo. Nesta situacao cada replica completa da experiencia tem
p× . . .× p = pN observacoes e designa-se por factorial de base prima pN ou apenas
factorial pN . Para p = 2 e p = 3, ver por exemplo [29], [36]. Numerando os p nıveis
de cada factor de 0 ate p− 1, cada tratamento pode ser representado por um vector
x = (x1, ..., xN), cujas componentes xi ∈ 0, ..., p− 1 , i = 1, ..., N representam
os nıveis dos factores. Se a experiencia for repetida r vezes sao necessarias rpN
observacoes. A medida que o numero de factores e/ou numero de nıveis aumenta
o numero de tratamentos de um factorial cresce rapidamente. Por exemplo, num
factorial 2N o numero de tratamentos aumenta de 32 para 128 se o numero de
42 4. Delineamento factorial com base prima
factores passar de N = 5 para N = 7, ou de 32r para 128r se for possıvel repetir
a experiencia r > 1 vezes. Por motivos obvios de economia, de tempo, de recursos,
etc, nem sempre e possıvel considerar todos os tratamentos de um factorial em
condicoes homogeneas ou ate mesmo nao ser possıvel considerar os tratamentos na
totalidade. Uma possibilidade e agrupar os pN tratamentos de um factorial em
ps(s < N) grupos, designados por blocos, em que o numero de tratamentos por
bloco e inferior a pN . Apesar de permitir um melhor controlo do erro experimental,
esta tecnica faz com que geralmente interacoes de ordem elevada sejam confundidas
com os blocos, daı a designacao Confundimento de um factorial pN com ps blocos
(do ingles ”Confounding”). Em vez de utilizar os ps blocos pode-se considerar
apenas um deles, ou seja, considerar uma fraccao do numero total de tratamentos
1ps× pN = pN−s, onde s < N . Este delineamento designa-se por replica fraccionaria
ou fraccionamento (do ingles ”fractional replicate”). Neste capıtulo sao descritas as
estruturas algebricas associadas: a um factorial pN (completo), a um factorial pN
confundido com ps blocos e a uma replica fraccionaria 1ps× pN . A teoria associada a
estrutura destes modelos assenta nos espacos lineares sobre os corpos de Galois, (ver
[15], [16], [40] e [41]) e na relacao entre modelos lineares ortogonais e AJC ′s ([14],
[15], [16] e [17]). Para uma abordagem alternativa ver [38]. Nas seccoes seguintes
mostra-se como se obtem a AJC associada a cada um dos modelos referidos.
4.1 Factorial pN completo
Sejam p um numero primo e o conjunto
G[p] = 0, 1, ..., p− 1.
Em G[p] pode-se definir uma adicao e uma multiplicacao substituindo os resul-
4.1. Factorial pN completo 43
tados das operacoes usuais pelos restos das mesmas por p
a+ b = mod(a+ b, p) (4.1)
ab = mod(ab, p). (4.2)
Estas operacoes designam-se por adicao e a multiplicacao modulo p.
Exemplo 6. Em G[7] = 0, 1, 2, 3, 4, 5, 6, por exemplo, 2 + 6 = 1 e 2× 5 = 3.
O conjunto G[p] munido das operacoes (4.1) e (4.2) e um corpo, com elemento
neutro para a adicao e multiplicacao 0 e 1, respectivamente. O simetrico de a ∈ G[p]
e dado pela expressao
−a =
0, a = 0
p− a, a 6= 0.(4.3)
O corpo G[p] tem um numero finito de elementos e geralmente e designado por corpo
finito ou por corpo de Galois (em homenagem a Evariste Galois que introduziu a
nocao de corpo com um numero finito de elementos). Relativamente ao inverso a−1
em G[p] nao existe uma expressao geral para o representar. Na pratica constroi-se a
tabela da multiplicacao em G[p] e determinam-se os inversos.
44 4. Delineamento factorial com base prima
Exemplo 7. Utilizando (4.1) e (4.2), as tabelas da adicao e multiplicacao em G[7] =
0, 1, 2, 3, 4, 5, 6 sao, respectivamente, dadas por,
+ 0 1 2 3 4 5 6
0 0 1 2 3 4 5 6
1 1 2 3 4 5 6 0
2 2 3 4 5 6 0 1
3 3 4 5 6 0 1 2
4 4 5 6 0 1 2 3
5 5 6 0 1 2 3 4
6 6 0 1 2 3 4 5
× 0 1 2 3 4 5 6
0 0 0 0 0 0 0 0
1 0 1 2 3 4 5 6
2 0 2 4 6 1 3 5
3 0 3 6 2 5 1 4
4 0 4 1 5 2 6 3
5 0 5 3 1 6 4 2
6 0 6 5 4 3 2 1
Tab. 4.1: Tabelas da adicao e multiplicacao em G[7]
Tendo em conta a tabela da adicao, ou (4.3), os simetricos dos elementos a ∈ G[7]
sao Pela tabela da multiplicacao os inversos de a ∈ G[7]\0 sao
a 0 1 2 3 4 5 6
-a 0 6 5 4 3 2 1
Tab. 4.2: Simetricos em G[7]
a 1 2 3 4 5 6
a−1 1 4 5 2 3 6
Tab. 4.3: Inversos em G[7]\0
4.1. Factorial pN completo 45
E importante referir que se p nao for um numero primo nao se obtem a estrutura
de um corpo. De facto, veja-se o exemplo seguinte.
Exemplo 8. Se p = 4, G[4] = 0, 1, 2, 3 e como se pode ver na tabela da multi-
plicacao o elemento 2 nao tem inverso, pelo que, G[4] nao e um corpo.
+ 0 1 2 3
0 0 1 2 3
1 1 2 3 0
2 2 3 0 1
3 3 0 1 2
× 0 1 2 3
0 0 0 0 0
1 0 1 2 3
2 0 2 0 2
3 0 3 2 1
Tab. 4.4: Tabelas de adicao e multiplicacao em G[4]
O conjuntoGN[p] =
x = (x1, ..., xN) : xi ∈ G[p], i = 1, ..., N
munido das operacoes
definidas por
x + y = (x1 + y1, ..., xN + yN)
cx = (cx1, ..., cxN)
com c ∈ G[p] e x,y ∈ GN[p], e um espaco linear sobre o corpo G[p], onde as componentes
dos vectores sao obtidas utilizando as operacoes (4.1) e (4.2). A famılia dos vectores
e1 = (1, ..., 0), ..., eN = (0, ..., 1) e uma base de GN[p] tendo-se
dim(GN
[p]
)= N
o que significa que GN[p] e um espaco linear de dimensao finita N. Num factorial
pN , numerando os nıveis de cada factor de 0 ate p − 1, os tratamentos podem ser
representados pelos vectores de GN[p]
x = (x1, ..., xN) .
46 4. Delineamento factorial com base prima
Dado um vector a = (a1, ..., aN) cujas componentes pertencem a G[p], define-se
em GN[p] a aplicacao linear
`a(x) =N∑j=1
ajxj, x ∈ GN[p] (4.4)
onde as operacoes sao realizadas na aritmetica modulo p.
Definicao 23. As componentes do vector a designam-se por coeficientes da aplicacao
linear `a.
Seja LN[p] o conjunto das aplicacoes lineares dadas por (4.4). Neste conjunto
podem definir-se uma adicao e uma multiplicacao por um escalar, por
(`a1 + `a2) (x) = `a1+a2(x), x ∈ GN[p]
(c`a) (x) = `ca(x), c ∈ G[p],x ∈ GN[p]
respectivamente. O conjunto LN[p] munido destas duas operacoes e um espaco linear
sobre o corpo G[p], cujo elemento neutro para a adicao e a aplicacao `0 que tem
0 como vector dos coeficientes e elemento simetrico a aplicacao `−a, onde −a e o
vector cujas componentes sao formadas pelos simetricos, na aritmetica modulo p,
das componentes de a. Portanto LN[p] e o espaco dual 1 de GN[p]. Verifica-se tambem
que G[p] e um espaco linear. Como cada um dos N coeficientes de a pode tomar p
valores entao LN[p] contem pN aplicacoes, ou seja, #(LN[p])
= pN .
A aplicacao ϕ que a cada vector a ∈ GN[p] associa `a ∈ LN[p], isto e, a aplicacao
definida pela relacao ϕ(a) = `a(·) e um isomorfismo, o que significa que GN[p] e LN[p]
sao espacos lineares isomorfos, logo
dim(LN[p])
= N.
1 Recordando o espaco dual de um espaco linear V sobre o corpo K e o conjunto de todas as
aplicacoes lineares de V em K.
4.1. Factorial pN completo 47
Para simplificar escreve-se `j em vez de `aj , ou apenas `, quando nao existir perigo
na omissao do vector dos coeficientes.
Teorema 17. Sejam `1, ..., `s ∈ LN[p]. As aplicacoes `1, ..., `s sao linearmente inde-
pendentes se e so se os respectivos vectores dos coeficientes a1, ..., as o forem tambem.
Demonstracao. Basta notar que a aplicacao ` =∑s
i=1 ci`i, i = 1, ..., s corresponde o
vector dos coeficientes a =∑s
i=1 ciai e que GN[p] e LN[p] sao espacos lineares isomorfos.
Sejam as aplicacoes `1, ..., `N ∈ LN[p], tais que, `j(x) = xj, j = 1, ..., N. Como
qualquer aplicacao ` ∈ LN[p] pode ser escrita na forma
`a(x) =N∑j=1
aj`j(x)
e LN[p] tem dimensao N, entao(`1, ..., `N
)constitui uma base para LN[p].
Exemplo 9. Sejam p=3 e N=2. Entao G[3] = 0, 1, 2 e
G2[3] = (0, 0) , (1, 0) , (2, 0) , (0, 1) , (1, 1) , (2, 1) , (0, 2) , (1, 2) , (2, 2) .
Uma forma rapida e pratica de identificar os vectores de G2[3] e construir uma tabela
como a que se segue
0 1 2
0 (0,0) (0,1) (0,2)
1 (1,0) (1,1) (1,2)
2 (2,0) (2,1) (2,2)
Tab. 4.5: Vectores de G2[3]
48 4. Delineamento factorial com base prima
a ∈ G2[3] `a ∈ L2
[3]
(0,0) `(0,0)(x) = 0x1 + 0x2 = 0 = `0(x)
(1,0) `(1,0)(x) = 1x1 + 0x2 = x1
(2,0) `(2,0)(x) = 2x1 + 0x2 = 2x1
(0,1) `(0,1)(x) = 0x1 + 1x2 = x2
... ...
(2,2) `(2,2)(x) = 2x1 + 2x2
Tab. 4.6: Aplicacoes de L2[3] e respectivos vectores dos coeficientes
Como a cada vector a ∈ G2[3] corresponde uma aplicacao `a ∈ L2
[3], atendendo a
(4.4) e com x = (x1, x2) ∈ G2[3],
Portanto a famılia L2[3] e
L2[3] = l0, x1, 2x1, x2, x1 + x2, 2x1 + x2, 2x2, x1 + 2x2, 2x1 + 2x2 .
Os conjuntos G2[3] e L2
[3] sao espacos lineares isomorfos e tem dimensao finita
dimG2[3] = dimL2
[3] = 2.
Em LN[p] pode-se definir uma relacao h, tal que,
Definicao 24. (Relacao-h) Dadas duas aplicacoes `1, `2 ∈ LN[p] diz-se que `1h`2 (`1
esta na relacao h com `2) se e so se
∃c ∈ G[p]\0 : `2 = c`1. (4.5)
Teorema 18. A relacao h e uma relacao de equivalencia em LN[p].
4.1. Factorial pN completo 49
Demonstracao. Sejam as aplicacoes `1, `2, `3 ∈ LN[p], arbitrarias. Como 1`1 = `1 tem-
se que `1h`1. Admitindo que `1h`2 entao `2 = c`1, com c 6= 0. Assim, `1 = c−1`2,
com c−1 6= 0, pelo que, `2h`1. Supondo que `1h`2 e `2h`3, entao `2 = c1`1 e `3 = c2`2
com c1, c2 6= 0. Logo `3 = (c2c1) `1, com c2c1 6= 0, ou seja, `1h`3. Como a relacao h e
reflexiva, simetrica e transitiva e uma relacao de equivalencia em LN[p].
Para ` ∈ LN[p], o conjunto [`]h = ` ∈ LN[p] : `h` e a classe de equivalencia
de ` na relacao h. Estas classes designam-se por classes de equivalencia-h. Duas
aplicacoes lineares de LN[p] que pertencam a mesma classe de equivalencia-h dizem-
se h-equivalentes. E evidente que a unica aplicacao h-equivalente a `0 e a propria
aplicacao `0, portanto, [`0]h = `0. As restantes classes de equivalencia [`]h, tais
que, [`]h 6= [`0]h, contem p − 1 aplicacoes, tantas quantos os valores diferentes de
zero que c pode tomar. Assim em LN[p] ha
m =pN − 1
p− 1
classes de equivalencia-h distintas da classe [`0]h. Entao a relacao h divide o conjunto
LN[p] em m+1 classes de equivalencia-h que constituem uma particao de LN[p], ou seja,[`1]h ∩ [`2]h = ∅, `1 6= `2⋃`
[`]h = LN[p].
Definicao 25. Uma aplicacao ` ∈ LN[p] cujo primeiro coeficiente nao nulo e 1
designa-se por aplicacao reduzida.
Representa-se a famılia das aplicacoes lineares reduzidas de LN[p] por LNr[p]. Seja a
aplicacao `a ∈ LN[p] − LNr[p] e α o seu primeiro coeficiente nao nulo o qual e diferente
de 1. Para obter a aplicacao linear reduzida h-equivalente a `a, considera-se c−1 e
c−1a, obtendo-se `(c−1a). Se `a ∈ LNr[p] a aplicacao linear reduzida h-equivalente a `a
e a propria.
50 4. Delineamento factorial com base prima
Verifica-se que,
Teorema 19. Em cada classe de equivalencia-h, distinta da classe que contem a
aplicacao nula, ha uma e uma so aplicacao reduzida.
Demonstracao. Sejam `1, `2 duas aplicacoes lineares reduzidas pertencentes a mesma
classe de equivalencia-h, distinta da classe que contem a aplicacao nula. Entao os
primeiros coeficientes nao nulos de `1, `2 sao iguais a 1 e existe c 6= 0, tal que, `2 = c`1.
Portanto o ındice dos primeiros coeficientes iguais a 1 tem que ser o mesmo, pelo
que `1 = `2.
Como em LN[p] ha pN−1p−1
classes de equivalencia-h, distintas da que contem a
aplicacao nula e, em cada uma dessas classes ha apenas uma aplicacao reduzida,
entao em LN[p] ha m = pN−1p−1
aplicacoes reduzidas, ou seja,
#(LNr[p]
)= m.
Exemplo 10. (Continuacao do exemplo 9)
O espaco linear L2[3] contem pN = 32 = 9 aplicacoes, das quais, m = 32−1
3−1= 4 sao
reduzidas,
L2r[3] = x1, x2, x1 + x2, x1 + 2x2 .
O espaco L2[3] decompoe-se em 4 classes de equivalencia-h distintas da classe que
contem a aplicacao nula `0. Como cada classe de equivalencia-h, distinta da classe
[`0]h, tem apenas uma aplicacao reduzida, multiplicando cada aplicacao de L2r[3] por
2 e tendo em conta (4.5) obtem-se essas classes
x1, 2x1 , x2, 2x2 , x1 + x2, 2x1 + 2x2 e x1 + 2x2, 2x1 + x2 .
4.1. Factorial pN completo 51
Teorema 20. Sejam `1, ..., `s ∈ LN[p] e `1, ..., `s ∈ LNr[p] as aplicacoes lineares redu-
zidas h-equivalentes a `1, ..., `s, respectivamente. Entao, `1, ..., `s sao linearmente
independentes se e so se `1, ..., `s o forem tambem.
Demonstracao. Sendo `1, ..., `s ∈ LNr[p] aplicacoes reduzidas, h-equivalentes a `1, ..., `s,
respectivamente, tem-se que
ai = c−1i ai, com c−1
i 6= 0, para i = 1, ..., s (4.6)
ou equivalentemente,
ai = ciai , com ci 6= 0, para i = 1, ..., s. (4.7)
Tendo em conta (4.6) e (4.7) verifica-se que a1, ..., as sao linearmente independentes
se e so se a1, ..., as forem linearmente independentes. Pelo Teorema 17 verifica-se
que `1, ..., `s sao linearmente independentes se e so se `1, ..., `s o forem tambem.
Assim podem considerar-se bases de LN[p] ou de um seu subespaco constituıdas
por aplicacoes reduzidas.
Sem perda de generalidade os vectores x = (x1, ..., xN) ∈ GN[p] podem ser orde-
nados atribuindo-lhes os ındices
j = 1 +N∑i=1
pi−1xi, j = 1, ..., pN (4.8)
onde xj representa o vector com ındice j, j = 1, ..., pN . Da mesma forma e possıvel
ordenar as aplicacoes lineares de LN[p] pela ordem dos vectores dos seus coeficientes
de 1 ate pN , ou seja, `a1 , ..., `apN . Para ordenar as aplicacoes reduzidas podem-
se substituir os ındices j = 1, ..., pN dos vectores dos coeficientes a1, ..., apN pelos
ındices h = 1, ...,m respeitando a ordem inicial, ou seja, se j1 < j2 entao h1 < h2.
Veja-se o exemplo seguinte.
52 4. Delineamento factorial com base prima
Exemplo 11. (Continuacao dos exemplos 9 e 10)
De acordo com (4.8), os ındices dos vectores x = (x1, x2) ∈ G2[3] sao dados por
j = 1 +2∑i=1
3i−1xi = 1 + x1 + 3x2
com j = 1, ..., 9. Assim,
vector ındice vector ındice
(0, 0) j=1 (2, 1) j=6
(1, 0) j=2 (0, 2) j=7
(2, 0) j=3 (1, 2) j=8
(0, 1) j=4 (2, 2) j=9
(1, 1) j=5
Tab. 4.7: Vectores de G2[3] e respectivos ındices
ou seja, de acordo com (4.8) a ordem dos vectores de G2[3] e
x1 = (0, 0) x2 = (1, 0) x3 = (2, 0) ... x8 = (1, 2) x9 = (2, 2).
Pela ordem dos vectores dos seus coeficientes ordenam-se as aplicacoes de L2[3] (ver
a 2a tabela do exemplo 9) ficando
l0 x1 2x1 x2 x1 + x2 2x1 + x2 2x2 x1 + 2x2 2x1 + 2x2.
Mantendo a ordem das aplicacoes lineares de L2[3] ordenam-se as aplicacoes reduzidas
de L2r[3] de 1 ate m = 4 ficando
x1 x2 x1 + x2 x1 + 2x2.
4.1. Factorial pN completo 53
Definicao 26. Sejam `1, ..., `s ∈ LN[p] aplicacoes linearmente independentes. O con-
junto de tratamentos definido por
x ∈ GN
[p] : `1(x) = b1, ..., `s(x) = bs
(4.9)
com b1, ..., bs ∈ G[p] designa-se por bloco. Representa-se este conjunto por [L|b] onde
L = (`1, ..., `s) e b = (b1, ..., bs) .
Como cada componente de (b1, ..., bs) pode tomar p valores entao existem ps
blocos.
Teorema 21. Cada bloco [L|b] , com b ∈ GN[p], tem pN−s tratamentos.
Demonstracao. Considerando
A =
a11 · · · a1N
.... . .
...
as1 · · · asN
x =
x1
...
xN
b =
b1
...
bs
em que as linhas da matriz A correspondem aos vectores de coeficientes a1, ..., as
das aplicacoes `1, ..., `s, tem-se
x ∈ [L|b]⇔ Ax = b.
Como as aplicacoes `1, ..., `s sao linearmente independentes, car(A) = s. Sem perda
de generalidade considera-se que as primeiras s colunas da matriz A sao linearmente
independentes. Entao a matriz
A1 =
a11 · · · a1s
· · · . . . · · ·
as1 · · · ass
54 4. Delineamento factorial com base prima
e invertıvel e
Ax = b⇔ A1
x1
· · ·
xs
=
b1 −
N∑j=s+1
a1jxj
· · ·
bs −N∑
j=s+1
asjxj
⇔
x1
· · ·
xs
= A−11
b1 −
N∑j=s+1
a1jxj
· · ·
bs −N∑
j=s+1
asjxj
,
ou seja, e possıvel escrever as primeiras s componentes de x como combinacoes
lineares das restantes N − s. Como cada componente pode tomar p valores entao
existem pN−s escolhas possıveis para xs+1, ..., xN , ou seja, # [L|b] = pN−s.
Evidentemente que os ps blocos [L|b], b ∈ GN[p], constituem uma particao de
GN[p], ou seja,
[L|b] ∩ [L|b′] = ∅, b 6= b′⋃b
[L|b] = GN[p].
Corolario 4. Seja ` ∈ LN[p]. Cada bloco
[`|b] = x : `(x) = b , b ∈ G[p]
tem pN−1 tratamentos. Como b pode tomar p valores existem p blocos destes que
constituem uma particao de GN[p].
Exemplo 12. Sejam p = N = 3 e G[3] = 0, 1, 2. Considerando, por exemplo, as
aplicacoes x1 + 2x2 e x1 + x2 + 2x3 (s = 2) linearmente independentes, cada bloco
e constituıdo pelas solucoes das equacoes x1 + 2x2 = b1
x1 + x2 + 2x3 = b2
(4.10)
4.1. Factorial pN completo 55
com b1, b2 ∈ G3. Existem 9 (ps = 32) blocos, cada um com 3 (pN−s = 3) tratamentos.
Dado que em G[3] o simetrico de 1 e 2 e o inverso de 2 e 1 resolve-se o sistema (4.10)
obtendo-se x2 = 2b1 + x1
x1 + (2b1 + x1) + 2x3 = b2
⇔
x2 = 2b1 + x1
x3 = 2b1 + 2b2 + 2x1
com b1, b2, x1 ∈ G[3] = 0, 1, 2 . Por exemplo, para o par (b1, b2) = (0, 0) a partir
de x1 calculam-se os valores de x2 e x3 obtendo-se o bloco
(0, 0, 0), (1, 1, 2), (2, 2, 1) .
Considerando as restantes possibilidades para b1, b2, e x1 obtem-se os outros blocos
(0, 0, 2), (1, 1, 1), (2, 2, 0) , (0, 0, 1), (1, 1, 0), (2, 2, 2) , (0, 2, 2), (1, 0, 1), (2, 1, 0)
(0, 2, 1) (1, 0, 0) (2, 1, 2) , (0, 2, 0) (1, 0, 2) (2, 1, 1) , (0, 1, 1) (1, 2, 0) (2, 0, 2)
(0, 1, 0), (1, 2, 2), (2, 0, 1) , (0, 1, 2), (1, 2, 1), (2, 0, 0) .
Teorema 22. Sejam `1, ..., `s ∈ LN[p] aplicacoes linearmente independentes e `1, ..., `s ∈
LNr[p] as aplicacoes lineares reduzidas h-equivalentes a `1, ..., `s, respectivamente. Verifica-
se que
[L|b] = [L|b]
com L = (`1, ..., `s), b = (b1, ..., b
s), onde bi = c−1
i bi, para i = 1, ..., s.
Demonstracao. Tendo em conta (4.7),
[L|b] = x : `i(x) = bi, i = 1, ..., s = x : ci`i (x) = bi, i = 1, ..., s
=x : `i (x) = c−1
i bi, i = 1, ..., s
= [L|b]
considerando bi = c−1i bi, i = 1, ..., s.
56 4. Delineamento factorial com base prima
Assim, se em vez das aplicacoes `1, ..., `s se se considerarem as respectivas aplicacoes
h-equivalentes reduzidas `1, ..., `s (tambem linearmente independentes, ver Teorema
20) obtem-se a mesma particao de GN[p]. Face ao exposto sobre aplicacoes lineares
reduzidas (Teoremas 19, 20 e 22) e para evitar redundancias na exposicao que se
segue utilizam-se apenas aplicacoes reduzidas.
Definicao 27. A ordem de uma aplicacao linear reduzida e o numero dos seus
coeficientes nao nulos menos 1 e representa-se por O(`), onde ` ∈ LNr[p].
Num factorial pN as aplicacoes reduzidas de ordem zero correspondem os efeitos
dos factores principais. As aplicacoes reduzidas de ordem superior a zero correspon-
dem as interaccoes factoriais entre os factores que nela figurem com coeficientes nao
nulos.
Exemplo 13. Retomando o exemplo 10, num factorial 32, as aplicacoes reduzidas de
ordem zero, x1 e x2, correspondem os efeitos dos factores principais. As aplicacoes
de ordem um, x1 + x2 e x1 + 2x2 corresponde a interaccao entre os dois factores.
Sejam os vectores xj ∈ GN[p], j = 1, ..., pN e as aplicacoes lineares reduzidas
`h ∈ LNr[p], h = 1, ...,m ordenados de acordo com (4.8). Para cada aplicacao li-
near reduzida `h ∈ LNr[p], h = 1, ...,m define-se a matriz C(`h), h = 1, ...,m, do tipo
p× pN , com elementos
ci,j(`h) =
1, `h(xj) = i− 1
0, `h(xj) 6= i− 1(4.11)
com i = 1, ..., p , j = 1, ..., pN e xj ∈ GN[p]. Na linha i da matriz C(`h) os elementos
que correspondem aos tratamentos em que `h toma o valor i− 1 sao iguais a 1 e os
4.1. Factorial pN completo 57
restantes elementos sao nulos. Utilizando a nocao de bloco, (4.11) e equivalente a
ci,j(`h) =
1, xj ∈ [`h|i− 1]
0, xj /∈ [`h|i− 1]
onde [`h|i− 1] = x : `h(x) = i− 1 , i = 1, ..., p.
Exemplo 14. Retomando o exemplo 11, para p = 3 e N = 2 vem
G2[3] = (0, 0) , (1, 0) , (2, 0) , (0, 1) , (1, 1) , (2, 1) , (0, 2) , (1, 2) , (2, 2)
L2r[3] = x1, x2, x1 + x2, x1 + 2x2 .
Cada coluna das matrizes C(x1), C(x2), C(x1 +x2) e C(x1 + 2x2) (que sao do tipo
3× 9) esta associada a um vector x ∈ G2[3], os quais estao ordenados de acordo com
(4.8), ou seja,
vector xj (0,0) (1,0) (2,0) (0,1) (1,1) (2,1) (0,2) (1,2) (2,2)
↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓
coluna j j=1 j=2 j=3 j=4 j=5 j=6 j=7 j=8 j=9
Matriz C(x1)
Tendo em conta a tabela
`1(x) = x1 0 1 2
0 0 0 0
1 1 1 1
2 2 2 2
Tab. 4.8: Tabela da aplicacao `1(x) = x1
58 4. Delineamento factorial com base prima
obtem-se os blocos
[`1|0] =x ∈ G2
[3] : `1(x) = 0
=x ∈ G2
[3] : x1 = 0
= (0, 0), (0, 1), (0, 2)
[`1|1] =x ∈ G2
[3] : `1(x) = 1
=x ∈ G2
[3] : x1 = 1
= (1, 0), (1, 1), (1, 2)
[`1|2] =x ∈ G2
[3] : `1(x) = 2
=x ∈ GN
[p] : x1 = 2
= (2, 0), (2, 1), (2, 2) .
Na linha i = 1 os elementos associados aos tratamentos que pertencem ao bloco
[`1|0] sao iguais a 1 e os restantes sao nulos. Portanto a 1a linha da matriz C(x1) e
1 0 0 1 0 0 1 0 0.
Na linha i = 2 os elementos associados aos tratamentos que pertencem ao bloco
[`1|1] sao iguais a 1 e os restantes sao nulos, pelo que, os elementos da 2a linha sao
0 1 0 0 1 0 0 1 0.
Da mesma forma obtem-se a 3a linha (i = 3)
0 0 1 0 0 1 0 0 1
onde os elementos iguais a 1 correspondem aos vectores que pertencem ao bloco [`1|2]
e os elementos iguais a zero aos tratamentos que nao pertencem ao bloco [`1|2] . Entao
C(x1) =
1 0 0 1 0 0 1 0 0
0 1 0 0 1 0 0 1 0
0 0 1 0 0 1 0 0 1
.
Matrizes C(x2), C(x1 + x2) e C(x1 + 2x2).
Considerando as tabelas para as restantes aplicacoes da famılia L2r[3]
os blocos sao
[`2|0] = (0, 0), (1, 0), (2, 0) [`2|1] = (0, 1), (1, 1), (2, 1) [`2|2] = (0, 2), (1, 2), (2, 2)
4.1. Factorial pN completo 59
`2(x)=x2 0 1 2
0 0 1 2
1 0 1 2
2 0 1 2
`3(x)=x1+x2 0 1 2
0 0 1 2
1 1 2 0
2 2 0 1
`4(x)=x1+2x2 0 1 2
0 0 2 1
1 1 0 2
2 2 1 0
Tab. 4.9: Tabelas das plicacoes `2(x) = x2, `3(x) = x1 + x2 e `4(x) = x1 + 2x2
[`3|0] = (0, 0), (2, 1), (1, 2) [`3|1] = (1, 0), (0, 1), (2, 2) [`3|2] = (2, 0), (1, 1), (0, 2)
[`4|0] = (0, 0), (1, 1), (2, 2) [`4|1] = (1, 0), (2, 1), (0, 2) [`4|2] = (2, 0), (0, 1), (1, 2)
e as matrizes
C(x2) =
1 1 1 0 0 0 0 0 0
0 0 0 1 1 1 0 0 0
0 0 0 0 0 0 1 1 1
C(x1 + x2) =
1 0 0 0 0 1 0 1 0
0 1 0 1 0 0 0 0 1
0 0 1 0 1 0 1 0 0
C(x1 + 2x2) =
1 0 0 0 1 0 0 0 1
0 1 0 0 0 1 1 0 0
0 0 1 1 0 0 0 1 0
.
Como duas quaisquer aplicacoes lineares reduzidas distintas sao linearmente inde-
pendentes verificam-se as propriedades seguintes relativamente as matrizes definidas
em (4.11).
Teorema 23. Sejam `h, `h′ ∈ LNr[p] com h, h′ = 1, ...,m onde h 6= h′ e as respectivas
matrizes associadas C(`h),C(`h′) dadas por (4.11). Entao
60 4. Delineamento factorial com base prima
a) C(`h)1pN = pN−11p,
b) 1′pC(`h) = 1′pN ,
c) C(`h)C′(`h) = pN−1Ip,
d) C(`h)C′(`h′) = pN−2Jp.
Demonstracao. Sejam `h, `h′ ∈ LNr[p] e C(`h),C(`h′) as respectivas matrizes, com
h 6= h′.
a) Como #[ Lh|i − 1] = pN−1, i = 1, ..., p, ver Corolario 4, significa que em cada
linha da matriz C(`h) ha pN−1 elementos iguais a 1 e os restantes sao nulos,
pelo que, a soma dos elementos de cada linha da matriz C(`h) e igual a pN−1,
pelo que, C(`h)1pN = pN−11p.
b) Imediato, por (4.11) e pelo facto de `h ser uma aplicacao. Isto significa que em
cada coluna da matriz C(`h) ha um unico elemento igual a 1.
c) Os elementos principais da matriz C(lh)C′(lh) correspodem ao produto interno
entre vectores de linhas iguais de C(lh). Os restantes elementos correspondem
ao produto interno entre vectores de linhas distintas. Tendo em conta a) e b)
deste Teorema, os elementos principais de C(`h)C′(`h) sao iguais a pN−1 e os
elementos nao principais sao nulos, pelo que, C(`h)C′(`h) = pN−1Ip.
d) Cada elemento da matriz C(`h)C′(`h′) corresponde ao produto interno entre um
vector linha de C(`h) e um vector linha de C(`h′). Como #[`h, `h′|i−1, i−1] =
pN−2, i = 1, ..., p, ver Teorema 21, entao C(`h)C′(`h′) = pN−2Jp.
4.1. Factorial pN completo 61
Seja Kp uma matriz, do tipo p× (p− 1), que se obtem de uma matriz ortogonal
estandardizada, de ordem p, eliminando a primeira coluna igual a 1√p1p (ver Anexo
A.4). Para cada aplicacao linear reduzida `h ∈ LNr[p], h = 1, ...,m define-se a matriz,
do tipo pN × (p− 1), dada por
A(`h) =1√pN−1
C′(`h) Kp, h = 1, ...,m (4.12)
e C(`h) definida por (4.11).
Teorema 24. Sejam `h, `h′ ∈ LNr[p], com h, h′ = 1, ...,m onde h 6= h′ e as respectivas
matrizes A(`h),A(`h′) dadas por (4.12). Entao
a) A′(`h)1pN = 0(p−1)×1,
b) A′(`h)A(`h) = Ip−1,
c) A′(`h)A(`h′) = 0(p−1)×(p−1).
Demonstracao. Sejam `h, `h′ ∈ LNr[p], com h, h′ = 1, ...,m e h 6= h′. Tendo em conta
(4.12), o Teorema 23 e as propriedades da matriz Kp (ver Anexo A.4) verifica-se
a) A′(`h)1pN = 1√pN−1
K′pC(`h)1pN =√pN−1K′p1p = 0(p−1)×1, o que significa que a
soma dos elementos de cada coluna da matriz A(`h) e igual a zero. 2
b) A′(`h)A(`h) = 1pN−1 K
′pC(`h)C
′(`h)Kp = K′pIpKp = Ip−1, ou seja, o produto
interno entre os vectores de colunas iguais da matriz A(`h) e igual a 1 e
produto interno entre vectores de colunas distintas e zero.
c) A′(`h)A(`h′) = 1pN−1 K
′pC(`h)C
′(`h′)Kp = pN−2
pN−1 K′pJpKp = 1
pK′p1p1
′pKp = 0(p−1)×(p−1),
portanto o produto interno entre os vectores coluna de A(`h) e os vectores co-
luna de A(`h′) e igual a zero.
2 As matrizes A(`h) sao matrizes de contrastes (ver Anexo A.4).
62 4. Delineamento factorial com base prima
Exemplo 15. Seja, por exemplo, a matriz ortogonal estandardizada de ordem 3
(ver anexo A.4)
P3 =
1√3− 1√
2− 1√
6
1√3
0 2√6
1√3
1√2− 1√
6
=
(1√313 K3
), com K3 =
− 1√
2− 1√
6
0 2√6
1√2− 1√
6
.
Retomando o exemplo 14 e tendo em conta (4.12), as matrizes A(x1), A(x2),
A(x1 + x2) e A(x1 + 2x2), sao, respectivamente
A(x1) =1√3
1 0 0 1 0 0 1 0 0
0 1 0 0 1 0 0 1 0
0 0 1 0 0 1 0 0 1
′− 1√
2− 1√
6
0 2√6
1√2− 1√
6
=
− 1√6− 1√
18
0 2√18
1√6− 1√
18
− 1√6− 1√
18
0 2√18
1√6− 1√
18
− 1√6− 1√
18
0 2√18
1√6− 1√
18
(4.13)
4.1. Factorial pN completo 63
A(x2) =1√3
1 1 1 0 0 0 0 0 0
0 0 0 1 1 1 0 0 0
0 0 0 0 0 0 1 1 1
′− 1√
2− 1√
6
0 2√6
1√2− 1√
6
=
− 1√6− 1√
18
− 1√6− 1√
18
− 1√6− 1√
18
0 2√18
0 2√18
0 2√18
1√6− 1√
18
1√6− 1√
18
1√6− 1√
18
(4.14)
A(x1+x2) =1√3
1 0 0 0 0 1 0 1 0
0 1 0 1 0 0 0 0 1
0 0 1 0 1 0 1 0 0
′− 1√
2− 1√
6
0 2√6
1√2− 1√
6
=
− 1√6− 1√
18
0 2√18
1√6− 1√
18
0 2√18
1√6− 1√
18
− 1√6− 1√
18
1√6− 1√
18
− 1√6− 1√
18
0 2√18
(4.15)
64 4. Delineamento factorial com base prima
A(x1+2x2) =1√3
1 0 0 0 1 0 0 0 1
0 1 0 0 0 1 1 0 0
0 0 1 1 0 0 0 1 0
′− 1√
2− 1√
6
0 2√6
1√2− 1√
6
=
− 1√6− 1√
18
0 2√18
− 1√6− 1√
18
1√6− 1√
18
1√6− 1√
18
0 2√18
0 2√18
1√6− 1√
18
− 1√6− 1√
18
(4.16)
Teorema 25. A matriz
P(pN)
= [A0 A(`1) · · · A(`m)]
com A0 = 1√pN
1pN e A(`h), h = 1, ...,m dadas por (4.12), e uma diagonalizadora
ortogonal associada a AJC, completa e regular, que se representa por A(pN), cuja
base principal e
bp(A(pN))
= Q0,Q(`1), ...,Q(`m)
onde Q0 =
(1√pN
1pN
)(1√pN
1pN
)′= 1
pNJpN
Q(`h) = A(`h)A′(`h), h = 1, ...,m
Demonstracao. Pelo Teorema 24 e como 1pN
1′pN1pN = 1 a matriz P(pN)
e ortogonal.
Como as matrizes Q0,Q(`1), ...,Q(`m) sao simetricas, idempotentes e mutuamente
ortogonais constituem uma FMPOMO, sao linearmente independentes pelo que
4.1. Factorial pN completo 65
constituem uma base para a AJC que se representa porA(pN). Pelo Teorema 2 esta
famılia e a base principal desta AJC. Como car
(m∑h=0
Q(`h)
)= pN , entao A
(pN)
e uma AJC completa. Dado que 1pN
JpN ∈ A(pN)
a AJC tambem e regular.
Atendendo aos Teoremas 12, 13 e Corolario 2, (da seccao 2.3) vem
Corolario 5. A matriz
P(rpN
)=
[1√rpN
1rpN A(`1)⊗ 1√r1r · · · A(`m)⊗ 1√
r1r Am+1
]
com Am+1 = IpN ⊗Kr e uma diagonalizadora ortogonal associada a AJC completa
e regular A(pN)?A(r), cuja base principal e
bp(A(pN ?A(r)
))=
1
rpNJrpN , Q(`1)⊗ 1
rJr, ..., Q(`m)⊗ 1
rJr, Qm+1
onde Qm+1 = Am+1A
′m+1.
O modelo linear estritamente associado a AJC completa e regular A(pN)?A(r)
e
Y =1√rpN
1rpNµ+m∑h=1
(A(`h)⊗
1√r1r
)β(`h) + ε (4.17)
onde µ representa a media global e β(lh), h = 1, ...,m sao vectores de parametros
associados aos efeitos principais, se O(`h) = 0 e associados a interaccoes factoriais
entre os factores que figurem em `h com coeficientes nao nulos, se O(`h) > 0. Na
forma canonica o modelo (4.17) e dado por
Y =1√rpN
1rpNW0 +m∑h=1
(A(`h)⊗
1√r1r
)W(`h) + Am+1Wm+1 (4.18)
66 4. Delineamento factorial com base prima
onde W0 = 1√
rpN1′rpNY
W(lh) =(A(`h)⊗ 1√
r1r
)′Y h = 1, ...,m
Wm+1 = A′m+1Y
(4.19)
e Am+1 = IpN ⊗Kr. Considerando S(`h) = ||W(`h)||2 h = 1, ...,m
S = ||Wm+1||2
onde W(`h), h = 1, ...,m e Wm+1 sao dados por (4.19), T e a soma de todas as
observacoes e T(`) o vector cujas componentes sao os totais das observacoes para
os tratamentos que pertencem ao bloco [`|b], b = 0, ..., p− 1 verifica-se que
SQT = ||Y||2 − T 2
rpN=
m∑h=1
S(`h) + S
e
S(`h) =1
rpN−1‖T(`h)‖2 − T 2
rpN, h = 1, ...,m.
Verifica-se tambem que
S(`′h′) = S(`h)
onde `′h′ e uma aplicacao de LN[p], h-equivalente a `h.
Assumindo que ε ∼ N(0, σ2IrpN
), tem-se que Y ∼ N
(µ, σ2IrpN
), com µ =
µ ⊗ 1√r1r e
µ =1√pN
1pNµ+m∑h=1
A(`h)β(`h).
Tendo em conta as seccoes 3.1 e 3.2 verifica-se que W(`h) ∼ N (λ (`h) , σ2Ip−1) h = 1, ...,m
S ∼ σ2χ2pN (r−1)
(4.20)
4.1. Factorial pN completo 67
onde
λ (`h) =
(A(`h)⊗
1√r1r
)′µ
e tambem que W(lh), h = 1, ...,m sao UMVUE ’s para λ (`h) , h = 1, ...,m e SpN (r−1)
para σ2. Considerando as hipoteses
H0 (`h) : λ (`h) = 0, h = 1, ...,m (4.21)
testa-se a ausencia do efeito principal associado a aplicacao reduzida `h, se O (`h) = 0
e testa-se a ausencia da interaccao factorial entre os factores que figuram em `h com
coeficientes nao nulos, se O (`h) > 0. Verifica-se, sob validade de H0 (`h) , que
S0 (`h) ∼ σ2χ2p−1, h = 1, ...,m
e como S0 (`h) e S sao variaveis aleatorias independentes entao,
F0 (`h) =pN(r − 1)
p− 1
S(`h)
S∼ Fp−1,pN (r−1), h = 1, ...,m.
Deve rejeitar-se H0 (`h) , para um nıvel de significancia α, se
F0 (`h) > f(p−1,pN (r−1),1−α)
onde f(p−1,pN (r−1)) e o quantil da distribucao F com p − 1 e pN(r − 1) graus de
liberdade para a probabilidade 1− α.
Utilizando os resultados da seccao 3.2 e tendo em conta que S ∼ σ2χ2pN (r−1) e
que SpN (r−1)
e UMVUE para σ2 e possıvel realizar a inferencia para σ2.
Exemplo 16. Num factorial pN = 32 com r replicas, considerando as hipoteses
H0 (x1) : λ (x1) = 0
H0 (x2) : λ (x2) = 0
68 4. Delineamento factorial com base prima
testa-se a ausencia dos efeitos dos factores principais e pelas hipoteses
H0 (x1 + x2) : λ (x1 + x2) = 0
H0 (x1 + 2x2) : λ (x1 + 2x2) = 0
testa-se a ausencia de interaccao entre os dois factores, onde
λ (`) =
(A (`)⊗ 1√
r1r
)′µ
e as matrizes A (`) , com ` ∈ L3r[3] = x1, x2, x1 + x2, x1 + 2x2 sao dadas por (4.13)-
(4.16), ver exemplo 15. Com µ = [µ1...µ9]′, µj = E (Yij) , Yij = Yi(xj), xj ∈
G2[3], j = 1, ..., 9, i = 1, ..., r as hipoteses anteriores sao equivalentes, respectiva-
mente, a
H0 (x1) : µ1 + µ4 + µ7 = µ2 + µ5 + µ8 = µ3 + µ6 + µ9
H0 (x2) : µ1 + µ2 + µ3 = µ4 + µ5 + µ6 = µ7 + µ8 + µ9
H0 (x1 + x2) : µ1 + µ6 + µ8 = µ2 + µ4 + µ9 = µ3 + µ5 + µ7
H0 (x1 + 2x2) : µ1 + µ5 + µ9 = µ2 + µ6 + µ7 = µ3 + µ4 + µ8.
4.2 Confundimento de um factorial pN com ps blocos
Confundimento e uma tecnica que consiste em agrupar os tratamentos de uma replica
completa, em ps blocos (s < N), onde o numero de tratamentos por bloco e inferior
ao numero de tratamentos de uma replica completa. Para construir um factorial pN
confundido com ps blocos consideram-se s aplicacoes lineares reduzidas, `1, ..., `s ∈
LNr[p], linearmente independentes e o subespaco linear
L1 = sp (`1, ..., `s) .
Este subespaco tem dimensao s e e constituıdo por ps aplicacoes lineares, das quais,
ps − 1 sao distintas de `0. Como para cada aplicacao ` ∈ L1, c ` ∈ L1, com c 6= 0, a
4.2. Confundimento de um factorial pN com ps blocos 69
aplicacao h-equivalente a ` tambem pertence a L1. Entao L1 decompoe-se em classes
de equivalencia-h. Como cada classe de equivalencia-h, distinta da classe [`0]h, tem
p− 1 aplicacoes, entao existem
m1 =ps − 1
p− 1
classes de equivalencia-h em L1, distintas da classe [`0]h e o mesmo numero de
aplicacoes lineares reduzidas. Representa-se a famılia das aplicacoes lineares redu-
zidas que pertencem a L1 por L1r. As aplicacoes ` ∈ L1r podem ser ordenadas,
de 1 ate m1, respeitando a ordem inicial das aplicacoes ` ∈ LN[p] dada por (4.8).
Considerando
[L|b] = x : `1(x) = b1, ... , `s(x) = bs , com b = (b1, ..., bs) ∈ Gs[p],
(ver Definicao 26), agrupam-se os pN tratamentos em ps blocos, contendo cada bloco
pN−s tratamentos, ver figura 4.1. Obtem-se assim um novo factor, designado por
factor Bloco, cujos nıveis correspondem aos varios blocos. Os blocos podem ser
ordenados de 1 ate ps pelos vectores b ∈ Gs[p] usando (4.8), ou seja, Bloco 1=[L|b1],
Bloco 2=[L|b2],...,Bloco ps =[L|bps ].
Fig. 4.1: Factorial pN confundido com ps blocos
Bloco 1 Bloco 2 ... Bloco ps
pN−s tratamentos pN−s tratamentos ... pN−s tratamentos
Totais Blocos T1 T2 ... Tps
Teorema 26. Cada aplicacao de L1 tem valor constante em cada bloco.
70 4. Delineamento factorial com base prima
Demonstracao. Seja ` ∈ L1, arbitraria. Se x ∈ [L|bj] entao
`(x) =s∑
k=1
ck`k(x) =s∑
k=1
ckbjk.
Como cada aplicacao ` ∈ L1, em particular cada aplicacao de L1r, tem valor cons-
tante em cada bloco, diz-se que estas aplicacoes estao confundidas com os blocos.
Consequentemente, os efeitos factoriais associados a estas aplicacoes estao confun-
didos com os blocos. As aplicacoes utilizadas para construir os blocos devem ser
escolhidas de forma a que os efeitos principais e as interacoes de baixa ordem nao
sejam confundidos com os blocos. As restantes aplicacoes de LN[p]−L1, em particular
as aplicacoes reduzidas que nao pertencam a L1, tomam em cada bloco pN−s−1 vezes
cada um dos seus valores.
Exemplo 17. Sejam p = N = 3 e G[3] = 0, 1, 2. Sejam, por exemplo, as
aplicacoes x1 + 2x2 e x1 + x2 + 2x3 (s = 2), linearmente independentes e o su-
bespaco linear L1 = sp (x1 + 2x2, x1 + x2 + 2x3) constituıdo pelas aplicacoes
` ∈ L1r ` ∈ (L1 − L1r)
x1 + 2x2 2x1 + x2
x1 + x3 2x1 + 2x3
x2 + x3 2x2 + 2x3
x1 + x2 + 2x3 2x1 + 2x2 + x3
Tab. 4.10: Aplicacoes de L1 = sp (x1 + 2x2, x1 + x2 + 2x3)
Alem das interaccoes associadas as aplicacoes x1 + 2x2 e x1 + x2 + 2x3, sao
tambem confundidos com os blocos as interaccoes associadas as aplicacoes de ordem
4.2. Confundimento de um factorial pN com ps blocos 71
1, x1+x3 e x2+x3. Para construir os blocos resolve-se o sistema (4.10), ver exemplo
12, agrupando-e os 33 = 27 tratamentos em 32 = 9 blocos. Cada bloco contem 3
tratamentos (ver figura 4.11).
Tab. 4.11: Confundimento de um factorial 33 com 32 blocos
(b1, b2) Blocos Tratamentos
(0, 0) Bloco 1 (0,0,0) (1,1,2) (2,2,1)
(1, 0) Bloco 2 (0,2,2) (1,0,1) (2,1,0)
(2, 0) Bloco 3 (0,1,1) (1,2,0) (2,0,2)
(0, 1) Bloco 4 (0,0,2) (1,1,1) (2,2,0)
(1, 1) Bloco 5 (0,2,1) (1,0,0) (2,1,2)
(2, 1) Bloco 6 (0,1,0) (1,2,2) (2,0,1)
(0, 2) Bloco 7 (0,0,1) (1,1,0) (2,2,2)
(1, 2) Bloco 8 (0,2,0) (1,0,2) (2,1,1)
(2, 2) Bloco 9 (0,1,2) (1,2,1) (2,0,0)
72 4. Delineamento factorial com base prima
Ate ao final desta seccao considera-se que `1, ..., `m1 ∈ L1r,
`m1+1, ..., `m ∈(LNr[p] − L1r
).
Sejam as matrizes
A (L1) = [A(`1)...A(`m1)] (4.22)
e
Q (L1) = A (L1) A′ (L1) =
m1∑h=1
A(`h)A′(`h) =
m1∑h=1
Q(`h). (4.23)
Como Q (L1) e uma matriz simetrica e idempotente (e uma MPO), a famılia1
pNJpN ,Q (L1) ,Q(`m1+1), ...,Q(`m)
e a base principal de uma sub-AJC principal e regular de A(pN), ver seccao 3.3.
Representa-se esta AJC por A(pN) ou por A(pN/L1) caso seja necessario indicar
o subespaco linear L1. O modelo linear estritamente associado a AJC A(pN)?A(r)
Y =1√rpN
1rpNµ+
(A (L1)⊗ 1√
r1r
)β (L1) +
m∑h=m1+1
(A(`h)⊗
1√r1r
)β(`h) + ε
onde µ representa a media global, β (L1) , β(`m1+1), ...,β(`m), sao vectores de
parametros. O vector β (L1) esta associado ao efeito Bloco, β(`h) esta associado
a um efeito principal, se O(lh) = 0 e associado a uma interaccao factorial entre
os factores que figurem em `h com coeficientes nao nulos, se O(lh) > 0. Na forma
canonica o modelo e dado por
Y =1√rpN
1rpNW0 +
(A (L1)⊗ 1√
r1r
)W (L1) +
m∑h=m1+1
(A(`h)⊗
1√r1r
)W(`h)
+ Am+1Wm+1. (4.24)
4.2. Confundimento de um factorial pN com ps blocos 73
onde
W0 = 1√rpN
1′rpNY
W (L1) =(A (L1)⊗ 1√
r1r
)′Y
W(`h) =(A(`h)⊗ 1√
r1r
)′Y, h = m1 + 1, ...,m
Wm+1 = (Am+1)′Y
(4.25)
com A (L1) dada por (4.22) e Am+1 = IpN ⊗Kr. Sejam S (L1) = ‖A′ (L1) Y‖2
S(`h) = ‖A′(`h)Y‖2 , h = m1 + 1, ...,m(4.26)
Verifica-se que
S(L1) = ‖A′ (L1) Y‖2=
m1∑h=1
‖A′(`h)Y‖2=
m1∑h=1
S(`h). (4.27)
Comom∑h=1
S(`h) =
m1∑h=1
S(`h) +m∑
h=m1+1
S(`h)
verifica-se tambem que
m∑h=1
S(`h) = S (L1) +m∑
h=m1+1
S(`h) = ‖Y‖2 − T 2
pN. (4.28)
Sejam Tj o total das observacoes no Blocoj e TB = [T1...Tps ] . Verifica-se que
S (L1) =1
pN−s‖TB‖2 − T 2
pN.
Para verificar esta igualdade sao necessarias algumas definicoes e propriedades (se-
melhantes as da seccao anterior) que sao apresentadas de seguida.
Para cada aplicacao `h ∈ L1r, h = 1, ...,m1 define-se uma matriz D(`h), do tipo
p× ps, com elementos dados por
di,j(`h) =
1, `h(x) = i− 1
0, `h(x) 6= i− 1(4.29)
74 4. Delineamento factorial com base prima
com i = 1, ..., p, e x ∈ Blocoj, j = 1, ..., ps. Em cada linha da matriz D(`h) os
elementos que correspondem aos blocos em que `h toma o valor i− 1 sao iguais a 1
e os restantes elementos sao iguais a zero.
Teorema 27. Sejam as aplicacoes `h, `h′ ∈ L1r com h, h′ = 1, ...,m1, h 6= h′ e as
respectivas matrizes D(`h),D(`h′) dadas por (4.29). Entao
a) D(`h)D′(`h) = ps−1Ip,
b) D(`h)D′(`h′) = ps−2Jp.
Demonstracao. Sejam `h, `h′ ∈ L1r, h 6= h′ e D(`h),D(`h′) as respectivas matrizes
dadas por (4.29).
a) Como #[`h|i − 1] = ps−1, i = 1, ..., p, significa que em cada linha da matriz
D(`h) ha ps−1 elementos iguais a 1 (correspondentes aos blocos onde `h toma
o valor i− 1) e os restante sao nulos, pelo que,
D(`h)1ps = ps−11p.
Como tambem se tem 1′pD(`h) = 1′ps , os elementos principais da matriz
D(`h)D′(`h) sao iguais a ps−1 e os elementos fora da diagonal principal sao
nulos, pelo que, D(`h)D′(`h) = ps−1Ip.
b) Como #[`h, `h′ |i−1, i−1] = ps−2, i = 1, ..., p, tem-se que D(`h)D′(`h′) = ps−2Jp.
Seja Kp uma matriz, do tipo p× (p− 1), que se obtem de uma matriz ortogonal
estandardizada de ordem p, eliminando a primeira coluna igual a 1√p1p (ver Anexo
A.4). Para cada aplicacao linear reduzida `h ∈ L1r, com h = 1, ...,m1, define-se a
matriz, do tipo ps × (p− 1), dada por
B(`h) =1√ps−1
D′(`h) Kp, h = 1, ...,m1 (4.30)
4.2. Confundimento de um factorial pN com ps blocos 75
onde D(`h) e dada por (4.29).
Teorema 28. Sejam `h, `h′ ∈ L1r, com h, h′ = 1, ...,m1 onde h 6= h′ e as respectivas
matrizes B(`h),B(`h′) dadas por (4.30). Entao
a) B′(`h)1ps = 0(p−1)×1,
b) B′(`h)B(`h) = Ip−1,
c) B′(`h)B(`h′) = 0(p−1)×(p−1).
Demonstracao. Sejam `h, `h′ ∈ L1r, com h, h′ = 1, ...,m1 e h 6= h′. Esta demons-
tracao e semelhante a do Teorema 24. Tendo em conta (4.29), as propriedades da
matriz Kp (ver Anexo A.4) e o Teorema 27, verifica-se
a) B′(`h)1ps = 1√ps−1
K′pD(`h)1ps =√ps−1(1′pKp)
′ = 0(p−1)×1,
b) B′(`h)B(`h) = 1ps−1 K
′pD(`h)D
′(`h)Kp = K′pIpKp = Ip−1,
c) B′(`h)B(`h′) = 1ps−1 K
′pD(`h)D
′(`h′)Kp = ps−2
ps−1 K′pJpKp = 1
pK′p1p1
′pKp = 0(p−1)×(p−1).
Corolario 6. Sejam as matrizes B(`h), h = 1, ...,m1 dadas por (4.30). Verifica-se
que a matriz
P(Bl) =
[1√ps
1ps B(`1) · · · B(`m1)
]e ortogonal, que
1
psJps ,B(`1)B′(`1), ...,B(`m1)B
′(`m1)
e uma FMPOMO e consequentemente,
Q (L1) =
m1∑h=1
B(`h)B′(`h)
tambem e uma matriz de projeccao ortogonal.
76 4. Delineamento factorial com base prima
Demonstracao. Como 1′ps1ps = ps e atendendo ao Teorema 28 verifica-se o que se
pretende.
Para cada aplicacao linear reduzida `h ∈ L1r, h = 1, ...,m1, atendendo a (4.11) e
a (4.29), verifica-se a relacao
D(`h)TB = C(`h)Y, h = 1, ...,m1. (4.31)
Tendo em conta (4.12), (4.30)-(4.31) e possıvel estabelecer tambem uma relacao
entre as matrizes B(`h) e A(`h), `h ∈ L1r, h = 1, ...,m1 dada por
B′(`h)TB =√pN−sA′(`h)Y, h = 1, ...,m1. (4.32)
Como
m1∑h=1
B(`h)B′(`h) = Ips −
1
psJps verifica-se, como se pretendia,
S(L1) =
m1∑i=1
S(`h) =
m1∑i=1
‖A′(`h)Y‖2 =1
pN−s‖TB‖2 − T 2
pN. (4.33)
Quando r > 1 as somas (4.26) sao dadas por
S(L1) =
∥∥∥∥(A (L1)⊗ 1√r1r
)′Y
∥∥∥∥2
S(`h) =
∥∥∥∥(A(`h)⊗ 1√r1r
)′Y
∥∥∥∥2
, h = m1 + 1, ...,m
e (4.28) dada por
m∑h=1
S(`h) = S (L1) +m∑
h=m1+1
S(`h) + S = ‖Y‖2 − T 2
rpN
onde
S = ‖A′m+1Y‖2
e Am+1 = IpN ⊗Kr.
4.2. Confundimento de um factorial pN com ps blocos 77
Sejam os vectores W (L1) , W(`h) com h = m1 + 1, ...,m e Wm+1, dados por
(4.25). Assumindo ε ∼ N(0, σ2IrpN
)e tendo em conta as seccoes 3.1 e 3.2, tem-se
que W (L1) ∼ N (λ (L1) , σ2Ips−1)
W(`h) ∼ N (λ (`h) , σ2Ip−1) , h = m1 + 1, ...,m
S ∼ σ2χ2pN (r−1)
onde λ (L1) =(A (L1)⊗ 1√
r1r
)′µ
λ (`h) =(A(`h)⊗ 1√
r1r
)′µ, h = m1 + 1, ...,m
e W (L1) e UMVUE para λ (L1)
W(`h) e UMVUE para λ (`h) , h = m1 + 1, ...,m
SpN (r−1)
e UMVUE para σ2
Considerando a hipotese
H0 (L1) : λ (L1) = 0
testa-se a ausencia do efeito do factor Bloco. Considerando as hipoteses
H0 (`h) : λ (`h) = 0, h = m1 + 1, ...,m
testam-se as ausencias dos efeitos principais (se O(`) = 0) e das interaccoes factoriais
(se O(`) > 0), que nao estao confundidos com os blocos.
Quando as hipoteses H0 (L1) e H0 (`h) , h = m1 + 1, ...,m se verificam, tem-se
que S0(L1) = ‖W(L1)‖2 ∼ σ2χ2ps−1
S0(lh) = ‖W(lh)‖2 ∼ σ2χ2p−1, h = m1 + 1, ...,m
pelo que, F0 (L1) = pN (r−1)ps(r−1)
S0(L1)S∼ Fps(r−1);pN (r−1)
F0 (`h) = pN (r−1)p−1
S0(`h)S∼ Fp−1;pN (r−1), h = m1 + 1, ...,m
78 4. Delineamento factorial com base prima
Para um nıvel de significancia α deve rejeitar-se a hipotese H0 (L1) se
F0 (L1) > f(ps(r−1),pN (r−1),1−α)
e deve rejeitar-se a hipotese H0 (`h) , h = m1 + 1, ...,m se
F0 (`h) > f(p−1,pN (r−1),1−α).
Exemplo 18. Para ilustrar a exposicao desta seccao retoma-se o exemplo 17 onde
se considerou p = N = 3, s = 2 e L1 = sp (x1 + 2x2, x1 + x2 + 2x3) . Recordando,
os efeitos associados as aplicacoes da famılia
L1r = x1 + 2x2, x1 + x3, x2 + x3, x1 + x2 + 2x3
estao confundidos com os blocos. Os efeitos associados as aplicacoes da famılia
L3r[3]−L1r = x1, x2, x1+x2, x3, x1+x2+x3, x1+2x2+x3, x1+2x3, x2+2x3, x1+2x2+2x3
nao estao confundidos com os blocos (ver Anexo E). Num factorial 33 confundido
com 32 blocos considerando a hipotese
H0 (L1) : λ (L1) = 0
onde
λ (L1) =
(A (L1)⊗ 1√
r1r
)′µ
e
A(L1) = [ A (x1 + 2x2) A (x1 + x3) A (x2 + x3) A (x1 + x2 + 2x3) ]
ver (4.22), testa-se a ausencia do efeito do factor Bloco. Atraves das hipoteses
H0 (`) : λ (`) = 0
com λ (`) =(A(`)⊗ 1√
r1r
)′µ e ` ∈ L3
r[3] − L1r, testa-se a ausencia dos efeitos
principais associados as aplicacoes x1, x2 e x3, a ausencia de interaccao de ordem 1
associada as aplicacoes x1 + x2, x1 + 2x3, x2 + 2x3 e a ausencia de interacoes de
ordem 2 associadas as aplicacoes x1 + x2 + x3, x1 + 2x2 + x3 e x1 + 2x2 + 2x3.
4.3. Replica fraccionaria 1ps × p
N 79
4.3 Replica fraccionaria 1ps × p
N
Uma das vantagens dos factoriais e poder utilizar apenas os tratamentos de um dos
blocos, isto e, utilizar apenas uma fraccao, 1ps×pN , do numero total de tratamentos.
Sejam as aplicacoes `1, ..., `s ∈ LNr[p] linearmente independentes e o subespaco linear
L1 = sp (`1, ..., `s) . Para construir os ps blocos considera-se o procedimento exposto
na seccao anterior e considera-se agora apenas um desses blocos. Representa-se o
bloco escolhido por
[L|b]∗
e por
x∗1, ...,x∗pN−s
os vectores que pertencem a esse bloco. Para estudar estes modelos e necessario
definir outra relacao (de equivalencia) em LN[p].
Definicao 28. (Relacao ρ) Sejam `1, `2 ∈ LN[p]. Diz-se que `1ρ`2 se e so se
∃c ∈ G[p]\0 e ` ∈ L1, tais que, `2 = c`1 + `. (4.34)
Teorema 29. A relacao ρ e uma relacao de equivalencia em LN[p].
Demonstracao. Sejam `1, `2, `3 ∈ LN[p], arbitrarias. Como `1 = 1`1 + `0, tem-se que
`1ρ`1. Admita-se que `1ρ`2, ou seja, `2 = c`1 + `, com c ∈ G[p]\0 e `o ∈ L1. Como
`1 = c−1`2 + (−c)−1` tem-se que `2ρ`1. Finalmente considere-se que `1ρ`2 e `2ρ`3,
ou seja, `2 = c1`1 + `1 e `3 = c2`2 + `2, com c1, c2 ∈ G[p]\0 e `1, `2 ∈ L1. Dado que
`3 = c2 (c1`1 + `o1) + `o2 = c2c1`1 + (c2`o1 + `o2)
com c2c1 6= 0 e c2`o1 + `o2 ∈ L1, entao, `1ρ`3. Como a relacao ρ e reflexiva, simetrica
e transitiva e uma relacao de equivalencia em LN[p].
80 4. Delineamento factorial com base prima
Teorema 30. Seja `1 ∈ L1. Tem-se que `1ρ`2 se e so se `2 ∈ L1.
Demonstracao. Seja `1 ∈ L1, arbitraria. Supor que `1ρ`2. Entao existem c 6= 0 e ` ∈
L1, tais que, `2 = c`1 + `. Como L1 e um subespaco linear e fechado para a soma
e multiplicacao por um escalar, portanto `2 = c`1 + ` ∈ L1. Por outro lado, seja
`2 ∈ L1. Como `2 = 1`1 + (`2 − `1) e `2 − `1 ∈ L1, `1ρ`2.
Assim quando `1, `2 ∈ L1, verifica-se que `1ρ`2, ou seja,
Teorema 31. O subespaco linear L1 e uma classe de equivalencia−ρ.
Prova-se tambem que as classes de equivalencia-ρ decompoem-se em classes de
equivalencia-h.
Teorema 32. Sejam `1, `2 ∈ LN[p]. Se `1h`2 entao `1ρ`2.
Demonstracao. Sejam `1, `2 ∈ LN[p], tais que, `1h`2, ou seja, `2 = c`1, com c 6= 0.
Mas `2 = c`1 = c`1 + `0, com c 6= 0 e `0 ∈ L1, portanto `1ρ`2.
Seja `1, ..., `s, `s+1, ..., `N uma base do espaco linear LN[p] e LN[p] = L1 ⊕L∗1 onde
L∗1 = sp (`s+1, ..., `N) . Em L∗1 ha pN−s aplicacoes lineares, das quais, pN−s − 1 sao
distintas de `0. A semelhanca do que acontece com L1 o subespaco L∗1 decompoe-se
em classes de equivalencia-h. Em L∗1 ha
m∗1 =pN−s − 1
p− 1
classes de equivalencia-h, distintas da classe que contem a aplicacao nula e o mesmo
numero das aplicacoes reduzidas. Representa-se a famılia de aplicacoes lineares
reduzidas que pertencem a L∗1 por L∗1r. As aplicacoes ` ∈ L∗1r, podem ser ordenadas
de 1 ate m∗1, respeitando a ordem inicial das aplicacoes ` ∈ LN[p] dada por (4.8).
Tendo em conta a decomposicao
`1 = `11 + `12 e `2 = `21 + `22
4.3. Replica fraccionaria 1ps × p
N 81
com `11, `21 ∈ L1 e `12, `22 ∈ L?1 enuncia-se o Teorema seguinte.
Teorema 33. Sejam `1, `2 ∈ LN[p]. Verifica-se que `1ρ`2 se e so se `12h`22.
Demonstracao. Sejam `1, `2 ∈ LN[p], arbitrarias. Admitindo que `1ρ`2, significa que
existem c 6= 0 e `o ∈ L1, tais que, `2 = c`1 + `o. Mas `2 = c (`11 + `12) + `o =
(c`11 + `o) + c`12 com c`11 + `o ∈ L1 e c`12 ∈ L∗1, pois LN[p] = L1⊕L∗1 logo `22 = c`12,
pelo que, `12h`22. Reciprocamente, se `12h`22 entao existe c 6= 0, tal que, `22 = c`12.
Entao, `2 = `21 + `22 = `21 + c`12. Como `12 = `1 − `11 vem `2 = c`12 + (`21 − c`11) ,
com `21 − c`11 ∈ L1 e c 6= 0, pelo que `1ρ`2.
Teorema 34. Em LN[p] existem m∗1 = pN−s−1p−1
classes de equivalencia-ρ distintas de
L1. Cada classe de equivalencia-ρ, distinta de L1, contem ps(p− 1) aplicacoes.
Demonstracao. Supor com vista a um absurdo que existem aplicacoes `1, `2 ∈ L∗1r,
`1 6= `2, tais que, `1ρ`2. Como `1 = `0 + `1, `2 = `0 + `2 e LN[p] = L1 ⊕ L∗1 pelo
Teorema 33 conclui-se que `1h`2, o que e absurdo pois em cada classe de equivalencia-
h ha apenas uma aplicacao reduzida. Pode-se concluir assim que em cada classe de
equivalencia-ρ, distinta de L1, ha apenas uma aplicacao de L∗1r. Portanto em LN[p]existem m∗1 classes de equivalencia-ρ. Em LN[p]−L1 ha pN −ps aplicacoes, entao cada
classe de equivalencia-ρ, distinta de L1, contem
pN − pspN−s−1p−1
=ps(pN−s − 1
)(p− 1)
pN−s − 1= ps(p− 1)
aplicacoes.
As aplicacoes `1, ..., `s ∈ LNr[p] utilizadas para obter o bloco [L|b]∗ devem ser esco-
lhidas de forma a que as aplicacoes associadas aos efeitos principais e as interaccoes
factoriais de baixa ordem (tanto quanto possıvel) nao pertencam a mesma classe de
equivalencia-ρ, distinta da classe L1. Em cada classe de equivalencia-ρ, distinta da
82 4. Delineamento factorial com base prima
classe L1, escolhe-se a aplicacao reduzida de menor ordem para representar a classe
de equivalencia-ρ. Veja-se o exemplo seguinte.
Exemplo 19. Sejam N = p = 3. Em L3[3] ha pN = 33 = 27 aplicacoes lineares,
das quais, m = (33 − 1) /(3 − 1) = 13 sao aplicacoes reduzidas. Na tabela seguinte
apresentam-se as aplicacoes reduzidas, ordenadas de acordo com (4.8) e as classes
de equivalencia-h de L3[3] (ver Anexo E).
aplicacoes reduzidas classes de equivalencia-h
l0
x1 x1, 2x1
x2 x2, 2x2
x1 + x2 x1 + x2, 2x1 + 2x2
x1 + 2x2 x1 + 2x2, 2x1 + x2
x3 x3, 2x3
x1 + x3 x1 + x3, 2x1 + 2x3
x2 + x3 x2 + x3, 2x2 + 2x3
x1 + x2 + x3 x1 + x2 + x3, 2x1 + 2x2 + 2x3
x1 + 2x2 + x3 x1 + 2x2 + x3, 2x1 + x2 + 2x3
x1 + 2x3 x1 + 2x3, 2x1 + x3
x2 + 2x3 x2 + 2x3, 2x2 + x3
x1 + x2 + 2x3 x1 + x2 + 2x3, 2x1 + 2x2 + x3
x1 + 2x2 + 2x3 x1 + 2x2 + 2x3, 2x1 + x2 + x3
Tab. 4.12: Aplicacoes de L3r[3] e classes de equivalencia-h em L3
[3]
Seja, por exemplo, o subespaco linear de L3[3],
L1 = sp (x1 + x2 + x3) = l0, x1 + x2 + x3, 2x1 + 2x2 + 2x3 .
4.3. Replica fraccionaria 1ps × p
N 83
Este subespaco corresponde a uma das classes de equivalencia-ρ (Teorema 31). Se-
jam, por exemplo, as aplicacoes x2 e x3, tais que, x2, x3, x1 + x2 + x3 e uma base
para L3[3]. Entao L∗1 = sp (x2, x3) e L∗1r = x2, x3, x2 + x3, x2 + 2x3 . Pelo Teorema
34 existem m∗1 = (33−1 − 1) /(3− 1) = 4 classes de equivalencia-ρ, distintas de L1 e
cada uma destas classes contem 3(3− 1) = 6 aplicacoes. Atendendo a definicao 28
e ao Teorema 32, as classes de equivalencia−ρ, distintas de L1, sao
x1, 2x1, x2 + x3, 2x2 + 2x3, x1 + 2x2 + 2x3, 2x1 + x2 + x3
x2, 2x2, x1 + x3, 2x1 + 2x3, x1 + 2x2 + x3, 2x1 + x2 + 2x3
x3, 2x3, x1 + x2, 2x1 + 2x2, x1 + x2 + 2x3, 2x1 + 2x2 + x3
x1 + 2x2, 2x1 + x2, x1 + 2x3, 2x1 + x3, x2 + 2x3, 2x2 + x3.
Como as aplicacoes associadas aos efeitos principais, x1, x2 e x3, pertencem a classes
distintas podem ser escolhidas como representantes da classe-ρ a que pertencem. Na
ultima classe indicada escolhe-se uma das aplicacoes associada a uma interaccao
factorial, por exemplo, x1 + 2x2, como representante da classe.
Pelo Teorema 34 o espaco linear LN[p] decompoe-se em m∗1 + 1 classes de equi-
valencia-ρ, onde m∗1 = pN−s
p−1. Existem m∗1 classes de equivalencia-ρ distintas de L1,
portanto existem m∗1 aplicacoes representantes. Representam-se as aplicacoes repre-
sentantes das m∗1 classes de equivalencia-ρ, distintas da classe L1, por
`∗1, ..., `∗m∗1.
Para cada aplicacao representante considera-se a matriz C∗(`∗) 3, do tipo p× pN−s,
constituıda pelas colunas associadas aos vectores x∗1, ...,x∗pN−s pertencentes ao bloco
seleccionado.
Estas matrizes verificam as propriedades que se enunciam de seguida.
3 Sub-matriz da matriz C(`), dada por (4.11), com ` = `∗.
84 4. Delineamento factorial com base prima
Teorema 35. Sejam as aplicacoes `∗h, `∗h′ , com h 6= h′ e h, h′ = 1, ...,m∗1 linearmente
independentes entre si e das aplicacoes `1, ..., `s. Verifica-se que
a) C∗(`∗h) (C∗(`∗h))′ = pN−s−1Ip
b) C∗(`∗h) (C∗(`∗h′))′ = pN−s−2Jp.
Demonstracao. a) Como # [l∗h|i− 1] = pN−s−1, i = 1, ..., p significa que em cada
linha da matriz C∗(`∗h) existem pN−s−1 elementos iguais a 1 e os restantes sao
nulos, pelo que,
C∗(`∗h)1pN−s = pN−s−11p.
Como 1′pC∗(`∗h) = 1′pN−s os elementos principais da matriz C∗(`∗h) (C∗(`∗h))
′ sao
iguais a pN−s−1 e os restantes sao iguais a 0, logo C∗(`∗h) (C∗(`∗h))′ = pN−s−1Ip.
b) Dado que # [l∗h, l∗h′|i− 1, i− 1] = pN−s−2, i = 1, ..., p tem-se que cada elemento
da matriz C∗(`∗h) (C∗(`∗h′))′ e igual a pN−s−2, pelo que, C∗(`∗h) (C∗(`∗h′))
′ =
pN−s−2Jp.
Exemplo 20. Retome-se o exemplo 19 onde se considerou p = N = 3,
L1 = sp (x1 + x2 + x3) e x1, x2, x3 e x1 + 2x2 as aplicacoes escolhidas como repre-
sentantes das classes de equivalencia-ρ, distintas de L1. Seja, por exemplo, o bloco
[x1 + x2 + x3|1] =x ∈ G3
[3] : x1 + x2 + x3 = 1
constituıdo pelos tratamentos
(1, 0, 0), (0, 1, 0), (2, 2, 0), (0, 0, 1), (2, 1, 1), (1, 2, 1), (2, 0, 2), (1, 1, 2), (0, 2, 2) .
(4.35)
As colunas das matrizes C∗(x1), C∗(x2), C∗(x3) e C∗(x1 + 2x2), do tipo 3× 9, sao
constituıdas pelas colunas das matrizes C(x1), C(x2), C(x3) e C(x1 + 2x2) (ver
4.3. Replica fraccionaria 1ps × p
N 85
Anexo E), respectivamente, associadas aos vectores (4.35) que pretencem ao bloco
seleccionado . Assim,
C∗(x1) =
0 1 0 1 0 0 0 0 1
1 0 0 0 0 1 0 1 0
0 0 1 0 1 0 1 0 0
C∗(x2) =
1 0 0 1 0 0 1 0 0
0 1 0 0 1 0 0 1 0
0 0 1 0 0 1 0 0 1
C∗(x3) =
1 1 1 0 0 0 0 0 0
0 0 0 1 1 1 0 0 0
0 0 0 0 0 0 1 1 1
e
C∗(x1 + 2x2) =
0 0 1 1 0 0 0 1 0
1 0 0 0 1 0 0 0 1
0 1 0 0 0 1 1 0 0
.
Para cada aplicacao `∗h, h = 1, ...,m∗1 representante da classe de equivalencia-ρ,
distinta de L1, define-se a matriz, do tipo pN−s × (p− 1), por
A∗(`∗h) =1√
pN−s−1(C∗(`∗h))
′Kp, h = 1, ...m∗1 (4.36)
onde Kp uma matriz, de ordem p× (p− 1), que se obtem de uma matriz ortogonal
estandardizada eliminando a primeira coluna igual a 1√p1p (ver Anexo A.4).
Teorema 36. Sejam `∗h, `∗h′ , com h 6= h′ e h, h′ = 1, ...,m∗1 linearmente independen-
tes entre si e linearmente independentes das aplicacoes `1, ..., `s. Sejam as matrizes
associadas as aplicacoes `∗h e `∗h′ dadas por (4.36). Verifica-se que
86 4. Delineamento factorial com base prima
a) (A∗(`∗h))′ 1pN−s = 0(p−1)×1
b) (A∗(`∗h))′A∗(`∗h) = Ip−1
c) (A∗(`∗h))′A∗(`∗h′) = 0(p−1)×(p−1).
Demonstracao. Esta demonstracao e semelhante a dos Teoremas 24 e 28.
a) (A∗(`∗h))′ 1pN−s = 1√
pN−s−1K′pC
∗(`∗h)1pN−s =√pN−s−1K′p1p = 0(p−1)×1
b) (A∗(`∗h))′A∗(`∗h) = 1
pN−s−1 K′pC∗(`∗h) (C∗(`∗h))
′Kp = K′pIpKp = K′pKp = Ip−1
c) (A∗(`∗h))′A∗(`∗h′) = 1
pN−s−1 K′pC∗(`∗h) (C∗(`∗h′))
′Kp = 1pK′pJpKp = 1
pK′p1p1
′pKp =
0(p−1)×(p−1).
Teorema 37. A matriz[1√pN−s
1pN−s A∗(`∗1) · · · A∗(`∗m∗1)
]onde A∗(`∗h), h = 1, ...,m∗1 sao dadas por (4.36), e uma diagonalizadora ortogonal
associada a AJC completa e regular, que se representa por A(pN × 1
ps
). A base
principal desta AJC e
bp
(A(pN × 1
ps
))=
1
pN−sJpN−s ,Q
∗(`∗1), ...,Q∗(`∗m∗1)
onde Q∗(`∗h) = A∗(`∗h) (A∗(`∗h))
′ , h = 1, ...,m∗1.
Demonstracao. Semelhante a demonstracao do Teorema 25.
Teorema 38. A matriz[1√rpN−s
1rpN−s A∗(`∗1)⊗ 1√r1r · · · A∗(`∗m∗1)⊗ 1√
r1r A∗m∗1+1
]onde A∗m∗1+1 = IpN−s ⊗Kr e uma diagonalizadora ortogonal associada a AJC com-
pleta e regular A(pN × 1
ps
)∗ A(r), cuja base principal e
bp
(A(pN × 1
ps
)∗ A(r)
)=
1
rpN−sJrpN−s ,Q
∗(`∗1)⊗ 1
rJr, ...,Q
∗(`∗m∗1)⊗ 1
rJr, Q∗m∗1+1
4.3. Replica fraccionaria 1ps × p
N 87
onde Q∗(`∗h) = A∗(`∗h) (A∗(`∗h))′ com A∗(`∗h), h = 1, ...,m∗1 sao dadas por (4.36) e
Q∗m∗1+1 = A∗m∗1+1
(A∗m∗1+1
)′.
O modelo linear estritamente associado a AJC A(pN × 1
ps
)∗ A(r)
Y =1√rpN−s
1rpN−sµ+
m∗1∑h=1
(A∗(`∗h)⊗
1√r1r
)β∗(`∗h) + ε
na forma canonica e
Y =1√rpN−s
1rpN−sW∗0 +
m∗1∑h=1
(A∗(`∗h)⊗
1√r1r
)W∗(`∗h) + A∗m∗1+1W
∗m∗1+1 (4.37)
onde W ∗
0 = 1√rpN−s
1′rpN−sY
W∗(`∗h) =(A∗(`∗h)⊗ 1√
r1r
)′Y h = 1, ...,m∗1
W∗m∗1+1 =
(A∗m∗1+1
)′Y
com A∗m∗1+1 = IpN−s ⊗ Kr. Considerando S∗(`∗h) = ‖W∗(`∗h)‖2 , h = 1, ...,m∗1 e
S∗ =∥∥∥W∗
m∗1+1
∥∥∥2
verifica-se, de forma semelhante as seccoes anteriores, que
m∗1∑h=1
∥∥(A∗(`∗h))′Y∥∥2
= ‖Y‖2 − T 2
pN−sr = 1.
m∗1∑h=1
S∗(`∗h) + S∗ = ‖Y‖2 − T 2
rpN−sr > 1
Assumindo a normalidade e tendo em conta as seccoes 3.1 e 3.2 tem-se que W∗(`∗h) ∼ N (λ∗ (`∗h) , σ2Ip−1) h = 1, ...,m∗1
S∗ ∼ σ2χ(r−1)pN−s
onde
λ∗ (`h) =
(A∗(`∗h)⊗
1√r1r
)′µ, h = 1, ...,m∗1
88 4. Delineamento factorial com base prima
e tambem que W∗(`∗h) e UMVUE para λ∗ (`∗h) h = 1, ...,m∗1S
(r−1)pse UMVUE para σ2.
Considerando as hipoteses
H∗0 (`∗h) : λ∗ (`∗h) = 0, h = 1, ...,m∗1 (4.38)
testa-se a ausencia dos efeitos principais, se O(l∗h) = 0 e a ausencia de interacoes
factoriais entre os factores que figurem em `h com coeficientes nao nulos, se O(l∗h) >
0. Quando as hipoteses H∗0 (`∗h) , h = 1, ...,m∗1 se verificam, tem-se que
S∗0(l∗h) ∼ σ2χ2p−1, h = 1, ...,m∗1
pelo que,
F ∗0 (`∗h) =(r − 1)pN−s
p− 1
S∗(`h)
S∗∼ Fp−1;(r−1)pN−s , h = 1, ...,m∗1.
Para um nıvel de significancia α deve rejeitar-se a hipotese H∗0 (l∗h) se
F ∗0 (l∗h) > f(p−1,(r−1)pN ,1−α).
Exemplo 21. Retomando o exemplo 20 e considerando, por exemplo, a matriz
K3 =
− 1√
2− 1√
6
0 2√6
1√2− 1√
6
por (4.36) obtem-se as matrizes
4.3. Replica fraccionaria 1ps × p
N 89
A∗ (x1) =
0 2√18
− 1√6− 1√
18
1√6− 1√
18
− 1√6− 1√
18
1√6− 1√
18
0 2√18
1√6− 1√
18
0 2√18
− 1√6− 1√
18
A∗ (x2) =
− 1√6− 1√
18
0 2√18
1√6− 1√
18
− 1√6− 1√
18
0 2√18
1√6− 1√
18
− 1√6− 1√
18
0 2√18
1√6− 1√
18
(4.39)
e
A∗ (x3) =
− 1√6− 1√
18
− 1√6− 1√
18
− 1√6− 1√
18
0 2√18
0 2√18
0 2√18
1√6− 1√
18
1√6− 1√
18
1√6− 1√
18
A∗ (x1 + 2x2) =
0 2√18
1√6− 1√
18
− 1√6− 1√
18
− 1√6− 1√
18
0 2√18
1√6− 1√
18
1√6− 1√
18
− 1√6− 1√
18
0 2√18
(4.40)
associadas as aplicacoes lineares reduzidas representantes das classes de equivalencia-
ρ, distintas de L1, ver exemplo 19. Numa replica fraccionaria 132× 33 considerando
90 4. Delineamento factorial com base prima
as hipoteses
H∗0 (x1) : λ∗ (x1) = 0
H∗0 (x2) : λ∗ (x2) = 0
H∗0 (x3) : λ∗ (x3) = 0
H∗0 (x1 + 2x2) : λ∗ (x1 + 2x2) = 0
onde
λ∗ (x1) =
(A∗ (x1)⊗ 1√
r1r
)′µ
λ∗ (x2) =
(A∗ (x2)⊗ 1√
r1r
)′µ
λ∗ (x3) =
(A∗ (x3)⊗ 1√
r1r
)′µ
λ∗ (x1 + 2x2) =
(A∗ (x1 + 2x2)⊗ 1√
r1r
)′µ
testam-se, respectivamente, a ausencia dos efeitos dos tres factores principais e da
interaccao de ordem 1 associada a aplicacao x1 + 2x2. As hipoteses anteriores sao
equivalentes, respectivamente, a
H∗0 (x1) : µ1 + µ6 + µ8 = µ2 + µ4 + µ9 = µ3 + µ5 + µ7
H∗0 (x2) : µ1 + µ4 + µ7 = µ2 + µ5 + µ8 = µ3 + µ6 + µ9
H∗0 (x3) : µ1 + µ2 + µ3 = µ4 + µ5 + µ6 = µ7 + µ8 + µ9
H∗0 (x1 + 2x2) : µ1 + µ5 + µ9 = µ2 + µ6 + µ7 = µ3 + µ4 + µ8
com µ = [µ1...µ9]′ e µj = E (Yij) , j = 1, ..., 9.
5. DELINEAMENTO REGRESSIONAL MULTIPLO ASSOCIADO
A UM FACTORIAL DE BASE PRIMA DE EFEITOS FIXOS
Como ja foi referido na introducao considerando para cada tratamento de um modelo
base uma RLM nas mesmas variaveis (dependente e explicativas) obtem-se um
DRM. Quando o numero de observacoes por regressao e igual diz-se um DRM
equilibrado. Caso contrario diz-se um DRM nao equilibrado. Nos DRM ′s estuda-
se a accao de um ou mais factores em combinacoes lineares dos coeficientes das
RLM ′s. Nesta tese considera-se que o modelo base e um factorial pN de efeitos fixos
(casos completo, confundimento e fraccionamento). Mostra-se que combinando a
abordagem estudada no capıtulo 4 e a Teoria do Modelo-L e possıvel extender o
estudo dos factoriais pN e dos DRM ′s associados aos factoriais pN ao caso nao
equilibrado. Antes da exposicao sobre os modelos objecto deste capıtulo apresenta-se
uma exposicao sobre o Modelo−L que inclui resultados desenvolvidos em [30] e [31]
necessarios nas seccoes seguintes. Mostra-se tambem que e possıvel aplicar ao DRM
equilibrado o teste simultaneo para a igualdade de valores medios e esfericidade da
matriz de covariancias [3].
92 5. Delineamento regressional multiplo associado a um factorial de base prima de efeitos fixos
5.1 Modelo−L
5.1.1 Estrutura do modelo e estatısticas
Um modelo-L e dado por
Y = LY + ε (5.1)
onde L e uma matriz, do tipo n × n, associada ao vector Y, cujas colunas sao
linearmente independentes. Supoe-se que ε ∼ N (0, σ2In) , pelo que, µ = E(Y) ∈
Ω = R(L).
Se o vector Y e dado por
Y =m∑j=1
Xjβj
onde β1, ...,βm sao vectores de parametros, a famılia M1, ...,Mm , com Mj =
XjX′j, j = 1, ...,m e constituıda por matrizes que comutam e e uma base para uma
AJC completa A, o modelo dado por (5.1) designa-se por modelo-L ortogonal de
efeitos fixos, ver [30] e [31]. O modelo dado por (5.1) designa-se por modelo-L
ortogonal de efeitos mistos se β1, ...,βk sao vectores de parametros, βk+1, ...,βm
e ε sao vectores aleatorios independentes, normalmente distribuıdos, com vectores
medios nulos e matrizes de variancias-covariancias σ2j Icj , j = k + 1, ...,m e σ2In,
respectivamente, ver [10] e [11]. Note-se que o termo ”ortogonal”esta associado a
Y =m∑j=1
Xjβj e nao a Y = LY + ε. Considerando,
Y = L
(m∑j=1
Xjβj
)+ ε =
m∑j=1
Xjβj + ε (5.2)
com Xj = LXj, j = 1, ...,m e Mj = (LXj) (LXj)′ = LMjL
′, j = 1, ...,m verifica-se
para i 6= j, i = 1, ....,m que, em geral,
MiMj = LMi (L′L) MjL
′ 6= LMj (L′L) MiL′ = MjMi
5.1. Modelo−L 93
ou seja, as matrizes Mi e Mj nao comutam, pelo que, o modelo (5.1), em geral, nao
e ortogonal. Mostrou-se em [11] que se
L+ = L′ (5.3)
com L+ a inversa de Moore-Penrose da matriz L, o modelo (5.1) e ortogonal e esta
associado a uma AJC completa.
Na exposicao que se segue considera-se que Y e um vector de parametros e
representa-se por µ. Dado que ε ∼ N (0, σ2In) , tem-se que
Y ∼ N(µ, σ2In
)(5.4)
onde µ = Lµ. Como L e uma matriz, do tipo n × n, com colunas linearmente
independentes, ou seja, car (L) = n, entao
L+L = In (5.5)
(ver Anexo A.3). A matriz L′L tem caracterıstica igual a ordem, ou seja, car (L′L) =
car (L) = n, o que implica que a matriz (L′L)−1 esta definida. Entao a inversa de
Moore-Penrose da matriz L e dada por
L+ = (L′L)−1
L′ (5.6)
e a matriz de projeccao ortogonal sobre o subespaco linear Ω por
QΩ = LL+ = L (L′L)−1
L′
(ver anexo A.3). Seja Ω⊥ o complemento ortogonal de Ω. Representando por YΩ e
YΩ⊥ as projeccoes ortogonais de Y em Ω e em Ω⊥, respectivamente, como
Y = YΩ + YΩ⊥
94 5. Delineamento regressional multiplo associado a um factorial de base prima de efeitos fixos
e verificando-se (5.4), os vectores YΩ e YΩ⊥ sao independentes e
YΩ⊥ ∼ N(0n×1, σ
2QΩ⊥)
(5.7)
YΩ ∼ N(µ, σ2QΩ
)ver [23]. Dado que µ ∈ Ω, logo QΩµ = µ e QΩ⊥µ = 0n×1, obtendo-se YΩ = QΩY = QΩ (Lµ + ε) = µ+ εΩ
YΩ⊥ = QΩ⊥Y = QΩ⊥ (Lµ + ε) = εΩ⊥
(5.8)
onde εΩ e εΩ⊥ representam as projeccoes ortogonais de ε em Ω e Ω⊥, respectiva-
mente. Assim
Y = YΩ + YΩ⊥ = µ+ εΩ + εΩ⊥ .
Tendo em conta que QΩ + QΩ⊥ = In e (5.8), a funcao densidade de Y dada por
fY(y) =1√
(2π)n|σ2In|e−
12
(y−µ)′(σ2In)−1(y−µ)
ainda pode ser escrita como
fY(y) =1√
(2π)nσ2ne−
12σ2‖Lz−Lµ‖2− s
2σ2 (5.9)
com Z = L+Y
S = ‖yΩ⊥‖2 .
Pelo Teorema da factorizacao (ver Anexo C) verifica-se que Z e S sao estatısticas
conjuntamente suficientes. Como a distribuicao de Y pertence a famılia exponencial
e o espaco parametrico contem um rectangulo com a mesma dimensao, pelo Teorema
68 (ver Anexo C) Z e S sao suficientes e completas.
Como L+ (L+)′= (L′L)−1 e atendendo a (5.4)
Z ∼ N(µ, σ2 (L′L)
−1)
5.1. Modelo−L 95
(ver Anexo B.2). Dado YΩ e YΩ⊥ serem independentes, Z e S tambem o sao. Como
QΩ⊥ = In −QΩ a soma S ainda pode ser escrita como
S = ‖YΩ⊥‖2 = ‖Y‖2 − ‖QΩY‖2.
Como car (QΩ⊥) = dim(Ω⊥)
= n− n, dado (5.1.1) tem-se que
S ∼ σ2χ2n−n .
Seja A uma AJC completa, constituıda por matrizes de ordem n × n, cuja base
principal e bp (A) = Q1, ...,Qm onde Qj = AjA′j, j = 1, ...,m e os vectores
coluna de Aj constituem uma base ortonormada para o subespaco linear R(Qj), j =
1, ...,m, ver seccao 2.1. Considerando Wj = A′jZ, j = 1, ...,m verifica-se
Wj ∼ N(λj, σ
2A′j (L′L)−1
Aj
), j = 1, ...,m
onde λj = A′jµ, j = 1, ...,m. As estatısticas Z e S sao conjuntamente suficientes
e completas e como E[Wj] = λj, j = 1, ...,m e E[
Sn−n
]= σ2, de acordo com o
Teorema 69, (ver Anexo C), tem-se que Wj e UMVUE para λj, j = 1, ...,m
Sn−n e UMVUE para σ2.
Utilizando os resultados da seccao 3.2 e possıvel construir intervalos de confianca e
formular testes de hipoteses para os parametros do modelo.
5.1.2 Factorial pN completo de efeitos fixos, nao equilibrado
Combinando a teoria do Modelo-L e a abordagem estudada no capıtulo 4 e possıvel
considerar um numero diferente de observacoes por tratamento num factorial pN .
Recordando numeram-se os nıveis de cada factor de 0 ate p − 1 e os tratamentos
96 5. Delineamento regressional multiplo associado a um factorial de base prima de efeitos fixos
pelos vectores xj ∈ GN[p], j = 1, ..., pN . O vector das observacoes e representado por
Y =
Y1
...
YpN
onde cada
Yj =
Y1j
...
Ynjj
corresponde ao vector das nj observacoes no tratamento xj, com Yij = Yi(xj), i =
1, ..., nj, j = 1, ..., pN e n =
pN∑j=1
nj. Seja o vector medio
µ =
µ1...
µpN
onde µj = E(Yij), i = 1, ..., nj, j = 1, ..., pN . Considerando a matriz
L =
1n1 0 · · · 0
0 1n2 · · · 0...
.... . .
...
0 0 · · · 1npN
= D(1n1 , ...,1npN
)(5.10)
obtem-se
Y = Lµ + ε = D(1n1 , ...,1npN
)µ1...
µpN
+ ε =
1n1µ
1
...
1npNµpN
+ ε
5.1. Modelo−L 97
um factorial pN com n =
pN∑j=1
nj observacoes.
Como car(L) = pN e atendendo a (5.6) a inversa de Moore-Penrose da matriz L
e
L+ = (L′L)−1
L′ =
1n1
1′n10 · · · 0
0 1n2
1′n2· · · 0
......
. . ....
0 0 · · · 1npN
1′npN
= D
(1
n1
1′n1, ...,
1
npN1′n
pN
)
(5.11)
pelo que, a MPO sobre Ω = R(L) e
QΩ = LL+ =
1n1
Jn1 0 · · · 0
0 1n2
Jn2 · · · 0...
.... . .
...
0 0 · · · 1npN
JnpN
= D
(1
n1
Jn1 , ...,1
npNJn
pN
)
e a MPO sobre Ω⊥ e
QΩ⊥ = In −QΩ =
In1 − 1
n1Jn1 0 · · · 0
0 In2 − 1n2
Jn1 · · · 0...
.... . .
...
0 0 · · · InpN− 1
npN
JnpN
= D
(In1 −
1
n1
Jn1 , ..., InnpN− 1
npNJn
pN
).
Tendo em conta (5.11) verifica-se que
Z = L+Y = D
(1
n1
1′n1, ...,
1
npN1′n
pN
)Y =
1n1
1′n1Y1
...
1npN
1′npN
YpN
=
Y1
...
YpN
= Y
98 5. Delineamento regressional multiplo associado a um factorial de base prima de efeitos fixos
corresponde ao vector das medias das observacoes dos pN tratamentos. Assumindo
que ε ∼ N (0, σ2In) , tem-se que Y ∼ N (µ, σ2In) , onde µ = Lµ e
Y ∼ N(µ, σ2D
(1
n1
, ...,1
npN
)).
Considerando a variavel aleatoria S = ‖YΩ⊥‖2 tem-se que
S ∼ σ2χ2n−pN ,
e que S e independente de Y. Verifica-se tambem que Y e S sao estatısticas con-
juntamente suficientes e completas, logo Y e Sn−pN sao, respectivamente, UMVUE ’s
para µ e σ2, (ver Anexo C).
Atendendo a seccao 4.1 a famılia
1pN
JpN , Q(`1), ...,Q(`m), com Q(`h) =
A(`h)A′(`h), h = 1, ...,m e A(`h) dadas por (4.12), com `1, ..., `m ∈ LNr[p], e a base
principal da AJC completa e regular A(pN). Assim,
Y = Lµ + ε = D(1n1 , ...,1npN
)( 1√pN
1pNµ+m∑h=1
A(`h)β(`h)
)+ ε (5.12)
e um modelo-L ortogonal de efeitos fixos. Os vectores de parametros β(`h), h =
1, ...,m estao associados aos efeitos principais quando O(`h) = 0 e estao associados
as interaccoes factoriais se O(`h) > 0, como no capıtulo anterior. Considerando
W (`h) = A′ (`h) Y, h = 1, ...,m (5.13)
vem
W (`h) ∼ N(λ (`h) , σ
2A′ (`h) D
(1
n1
, ...,1
npN
)A (`h)
), h = 1, ...,m (5.14)
onde
λ (`h) = A′ (`h)µ, h = 1, ...,m. (5.15)
5.1. Modelo−L 99
Considerando as hipoteses
H0 (`h) : λ (`h) = 0, h = 1, ...,m
com λ (`h) , h = 1, ...,m dados por (5.15), como no factorial pN equilibrado, se
O (`h) = 0 testa-se a ausencia do efeito principal associado a aplicacao reduzida `h e
se O (`h) > 0 testa-se a ausencia da interaccao factorial entre os factores que figuram
em `h com coeficientes nao nulos.
Atendendo a (5.14) e considerando g(`h) = car(A′ (`h) D
(1n1, ..., 1
npN
)A (`h)
)para h = 1, ...,m verifica-se sob validade de H0 (`h) que
S0 (`h) = W′ (`h)
(A′ (`h) D
(1
n1
, ...,1
npN
)A (`h)
)+
W (`h) ∼ σ2χ2g(`h), h = 1, ...,m
(ver Anexo B.3). Como S0 (`h) e S sao variaveis aleatorias independentes
F0 (`h) =n− pN
g(`h)
S0(`h)
S∼ Fg(`h);n−pN , h = 1, ...,m.
Para um nıvel de significancia α deve rejeitar-se H0 (`h) se
F0 (`h) > f(g(`h),n−pN ,1−α)
ver seccao 3.2 e f(g(`h),n−pN ,1−α) e o quantil da distribucao F com g(`h) e n − pN
graus de liberdade, para a probabilidade 1− α.
Exemplo 22. Para ilustrar a exposicao desta seccao considera-se, por exemplo, um
factorial 32, com n = 32 observacoes,
E necessario considerar
L = D (12,14,14,13,12,13,14,17,15)
e
Y =
Y1
...
Y9
= L+Y
100 5. Delineamento regressional multiplo associado a um factorial de base prima de efeitos fixos
0 1 2
0 n1 = 2 n4 = 3 n7 = 4
1 n2 = 4 n5 = 2 n8 = 7
2 n3 = 4 n6 = 3 n9 = 5
n = 32
Tab. 5.1: Numero de observacoes por tratamento num factorial 32
onde
L+ = D
(1
21′2,
1
41′4,
1
41′4,
1
31′3,
1
21′2,
1
31′3,
1
41′4,
1
71′7,
1
51′5
).
Para p = 3 e N = 2, tendo em conta exemplos da seccao 4.1, tem-se L2r[3] =
x1, x2, x1 + x2, x1 + 2x2 e as matrizes A (x1) , A (x2), A (x1 + x2) , A (x1 + 2x2)
sao dadas por (4.13)-(4.16). As hipoteses dadas por
H0 (x1) : λ (x1) = 0
H0 (x2) : λ (x2) = 0
H0 (x1 + x2) : λ (x1 + x2) = 0
H0 (x1 + 2x2) : λ (x1 + 2x2) = 0
onde
λ (x1) = A′ (x1)µ
λ (x2) = A′ (x2)µ
λ (x1 + x2) = A′ (x1 + x2)µ
λ (x1 + 2x2) = A′ (x1 + 2x2)µ
5.2. Delineamento regressional multiplo 101
sao equivalentes a
H0 (x1) : µ1 + µ4 + µ7 = µ2 + µ5 + µ8 = µ3 + µ6 + µ9
H0 (x2) : µ1 + µ2 + µ3 = µ4 + µ5 + µ6 = µ7 + µ8 + µ9
H0 (x1 + x2) : µ1 + µ6 + µ8 = µ2 + µ4 + µ9 = µ3 + µ5 + µ7
H0 (x1 + 2x2) : µ1 + µ5 + µ9 = µ2 + µ6 + µ7 = µ3 + µ4 + µ8.
Atraves destas hipoteses testa-se a ausencia dos efeitos dos factores principais e da
interaccao factorial entre os dois factores.
5.2 Delineamento regressional multiplo
5.2.1 Associado a um factorial pN (completo)
Seja um DRM associado a um factorial pN , isto e, para cada tratamento xj, j =
1, ..., pN do factorial pN , esta definida uma RLM nas mesmas variaveis (dependente
e explicativas),
Y∗j = Xjβj + ε∗j , j = 1, ..., pN (5.16)
onde
Y∗j =
Y ∗1j...
Y ∗njj
nj×1
e o vector das nj observacoes da variavel dependente no
tratamento xj
βj =
β1j
...
βkj
k×1
e o vector dos k coeficientes da regressao no tratamento xj
ε∗j =
ε1j
...
εnjj
nj×1
e o vector dos erros aleatorios no tratamento xj
102 5. Delineamento regressional multiplo associado a um factorial de base prima de efeitos fixos
e Xj(nj × k) e a matriz do modelo no tratamento xj. Assume-se que
car(Xj) = k < nj, j = 1, ..., pN (5.17)
ε∗j , j = 1, ..., pNsao independentes (5.18)
ε∗j ∼ N(0, σ2Inj
), j = 1, ..., pN . (5.19)
Considerando a matriz
L =
X1 0 · · · 0
0 X2 · · · 0...
.... . .
...
0 0 · · · XpN
(n×kpN )
= D(X1,X2, ...,XpN
)(5.20)
e os vectores
Y∗ =
Y∗1...
Y∗pN
n×1
β =
β1
...
βpN
kpN×1
ε∗ =
ε∗1...
ε∗pN
n×1
(5.21)
com n =∑pN
j=1 nj, que resultam de agrupar numa unica coluna os vectores das ob-
servacoes da variavel dependente, dos coeficientes de regressao e dos erros aleatorios,
respectivamente, associados aos varios tratamentos, as pN equacoes dadas por (5.16)
podem ser representadas por
Y∗ = Lβ + ε∗. (5.22)
Por (5.17) garante-se que
car(D(X1, ...,XpN
))= kpN . (5.23)
Por (5.18)-(5.19) tem-se que ε∗ ∼ N (0, σ2In) , logo Y∗ ∼ N (Lβ, σ2In) e conse-
quentemente Y∗j ∼ N(Xjβj, σ
2Inj), j = 1, ..., pN
Y∗j , j = 1, ..., pN sao independentes.
5.2. Delineamento regressional multiplo 103
Assim e tendo em conta resultados do Anexo D para cada tratamento xj ∈ GN[p],
βj =(X′jXj
)−1X′jY
∗j , j = 1, ..., pN
βj ∼ N(βj, σ
2(X′jXj
)−1), j = 1, ..., pN
SQREj =∥∥e∗j∥∥2 ∼ σ2χ2
nj−k, j = 1, ..., pN
e∗j = Y∗j −Xjβj, j = 1, ..., pN
Por (5.6), (5.20) e (5.23) a inversa de Moore-Penrose da matriz L e dada por
L+ = D(
(X′1X1)−1
X′1, ...,(X′pNXpN
)−1X′pN
)e as componentes do vector
L+Y∗ =
(X′1X1)−1 X′1Y
∗1
...(X′pNXpN
)−1
X′pNY∗pN
=
β1
...
βpN
= β (5.24)
sao os estimadores dos coeficientes das pN regressoes. Verifica-se que
β ∼ N(β, σ2D
((X′1X1)
−1, ...,
(X′pNXpN
)−1))
(5.25)
e que os vectores βj j = 1, ..., pN sao independentes. Como SQREj ∼ σ2χ2nj−k e
sao independentes verifica-se que,
S =
pN∑j=1
SQREj ∼ σ2χ2n−kpN (5.26)
onde
S =
pN∑j=1
∥∥∥Y∗j −Xjβj
∥∥∥2
=∥∥∥Y∗ − Lβ
∥∥∥2
= ‖(In −QΩ)Y∗‖2 = ‖Y∗ −QΩY∗‖2 = ‖Y∗Ω⊥‖2 .
Como
fY∗(y∗) =
1√(2π)nσ2n
e−1
2σ2‖Lβ−Lβ‖2− s
2σ2
104 5. Delineamento regressional multiplo associado a um factorial de base prima de efeitos fixos
β e S sao estatısticas conjuntamente suficientes e completas (ver Anexo C).
Seja um vector constante
a = [a1...ak]′.
Para cada tratamento do factorial pN consideram-se combinacoes lineares do vector
dos coeficientes de regressao
µpN×1 =
a′β1
...
a′βpN
(5.27)
e dos respectivos estimadores
YpN×1 =
a′β1
...
a′βpN
(5.28)
onde µj = a′βj, j = 1, ..., pN
Yj = a′βj, j = 1, ..., pN .
Tendo em conta (5.25) verifica-se que
Y ∼ N(µ, σ2D(d1, ..., dpN )
)(5.29)
onde
dj = a′(X′jXj
)−1a, j = 1, ..., pN . (5.30)
Como β e S sao estatısticas conjuntamente suficientes, completas e E(Y) = µ
E(
Sn−kpN
)= σ2
entao Y e UMVUE para µ e Sn−kpN para σ2, (ver Anexo C).
5.2. Delineamento regressional multiplo 105
Tal como num factorial pN com n1, ..., npN observacoes por tratamento, tambem
num DRM associado a um factorial pN , com n1, ..., npN observacoes por regressao,
desenvolvem-se testes de hipoteses para testar a influencia dos factores mas, agora em
combinacoes lineares dos coeficientes das regressoes lineares. Dado que os tratamen-
tos dos dois modelos sao os mesmos entao utiliza-se para Y o mesmo procedimento
que foi utilizado na sub-seccao 5.1.2 para Y. Assim, tendo em conta a seccao 4.1, seja
a AJC completa e regular A(pN)
cuja base principal e
1pN
JpN , Q(`1), ...,Q(`m),
onde Q(`h) = A(`h)A
′(`h), h = 1, ...,m
A(`h), h = 1, ...,m dadas por (4.12)
`1, ..., `m ∈ LNr[p].
Considerando
W(`h) = A′(`h)Y, h = 1, ...,m (5.31)
com Y dado por (5.28) e como se tem (5.29) verifica-se que
W(`h) ∼ N(λ(`h), σ
2A′(`h)D(d1, ..., dpN )A(`h)), h = 1, ...,m (5.32)
onde λ(`h) = A′(`h)µ
, h = 1, ...,m
dj, j = 1, ..., pN dados por (5.30)
µ dado por (5.27).
Considerando as hipoteses
H0(`h) : λ(`h) = 0, h = 1, ...,m, (5.33)
testa-se a ausencia dos efeitos principais (se O(`) = 0) e da interaccao factorial
entre os factores que figurem em `h com coeficientes nao nulos (se O(`) > 0), em
combinacoes lineares dos coeficientes das pN regressoes. Considerando
S0(`h) = W′(`h)(A′(`h)D(d1, ..., dpN )A(`h)
)+W(`h), h = 1, ...,m
106 5. Delineamento regressional multiplo associado a um factorial de base prima de efeitos fixos
e g(`h) = car(A′ (`h) D
(d1, ..., dpN
)A (`h)
), h = 1, ...,m verifica-se, sob validade de
H0(`h), h = 1, ...,m que
S0(`h) ∼ σ2χ2g(`h), h = 1, ...,m
e consequentemente
F0 (`h) =n− kpN
g(`h)
S0(`h)
S∼ F(g(`h);n−kpN ), h = 1, ...,m
pois S0(`h) e S sao independentes, com S dada por (5.26). Deve rejeitar-se H0(`h),
para um nıvel de significancia α, se
F0 (`h) > f(g(`h);n−kpN ;1−α), h = 1, ...,m.
Exemplo 23. Seja um factorial 32 e para cada tratamento considera-se uma RLM
nas mesmas variaveis. Tendo em conta exemplos da seccao 4.1, quando p = 3 e N =
2, a famılia das aplicacoes reduzidas de L2[3] e L2
r[3] = x1, x2, x1 + x2, x1 + 2x2
e as matrizes A (x1) , A (x2) , A (x1 + x2) e A (x1 + 2x2) sao dadas por (4.13)-
(4.16). As hipoteses a considerar agora no DRM associado ao factorial 32 para
testar a ausencia dos dois efeitos principais e da interacao factorial (em combinacoes
lineares dos coeficientes das regressoes lineares) sao
H0 (x1) : λ (x1) = 0
H0 (x2) : λ (x2) = 0
H0 (x1 + x2) : λ (x1 + x2) = 0
H0 (x1 + 2x2) : λ (x1 + 2x2) = 0
ou seja,
H0(x1) : a′β1 + a′β4 + a′β7 = a′β2 + a′β5 + a′β8 = a′β3 + a′β6 + a′β9
H0(x2) : a′β1 + a′β2 + a′β3 = a′β4 + a′β5 + a′β6 = a′β7 + a′β8 + a′β9
H0(x1 + x2) : a′β1 + a′β6 + a′β8 = a′β2 + a′β4 + a′β9 = a′β3 + a′β5 + a′β7
H0(x1 + 2x2) : a′β1 + a′β5 + a′β9 = a′β2 + a′β6 + a′β7 = a′β3 + a′β4 + a′β8
5.2. Delineamento regressional multiplo 107
onde
µ =
a′β1
...
a′β9
.
Se o DRM associado ao factorial pN e equilibrado, isto e, se n1 = ... = npN =n,
as matrizes para as diferentes regressoes sao iguais, X1 = ... = XpN = X e as pN
equacoes (5.16) tambem podem ser representadas por Y∗ = Lβ + ε∗ mas agora
L = D (X,X, ...,X) . Assumindo que car (X) = k < n, (5.18) e (5.19), com as
devidas alteracoes aplica-se a exposicao anterior.
5.2.2 Associado ao confundimento de um factorial pN em ps blocos
Recordando a seccao 4.2, para agrupar os pN tratamentos em ps blocos (s < N)
seleccionam-se s aplicacoes de LNr[p] (associadas aos efeitos que se pretendem confun-
dir 1) linearmente independentes e o subespaco linear L1 gerado por essas aplicacoes.
Seja a AJC completa e regular A(pN)
(sub-AJC principal de A(pN)) com base
principal 1
pNJpN ,Q (L1) ,Q(`h), h = m1 + 1, ...,m
onde Q(L1) = A(L1)A′(L1)
A(L1) dada por (4.22)
1 Geralmente, as aplicacoes seleccionadas para construir os blocos sao escolhidas de forma a que
os efeitos principais e interaccoes de baixa ordem nao sejam confundidos com os blocos.
108 5. Delineamento regressional multiplo associado a um factorial de base prima de efeitos fixos
e
Q(`h) = A(`h)A′(`h), h = m1 + 1, ...,m
A(`h) dadas por (4.12)
`m1+1, ..., `m ∈ LNr[p] − L1r
m1 = ps−1p−1
Para cada tratamento do factorial pN confundido com ps blocos define-se uma RLM
nas mesmas variaveis (dependente e explicativas). As pN regressoes podem ser
representadas por (5.22) e a exposicao da seccao anterior utilizada neste caso. Assim,
sejam W (L1) = A′ (L1) Y
W(`h) = A′(`h)Y, h = m1 + 1, ...,m
onde Y =[a′β1, ..., a
′βpN−s]′
e β dado por (5.24). Verifica-se que W (L1) ∼ N(λ (L1) , σ2A′ (L1) D(d1, ..., dpN )A (L1)
)W(`h) ∼ N
(λ(`h), σ
2A′(`h)D(d1, ..., dpN )A(`h)), h = m1 + 1, ...,m
onde λ (L1) = A′ (L1)µ
λ(`h) = A′(`h)µ, h = m1 + 1, ...,m
e µ =[a′β1, ..., a
′βpN−s]. Considerando a hipotese
H0 (L1) : λ (L1) = 0
testa-se o efeito do factor Bloco. Considerando as hipoteses
H0 (`h) : λ (`h) = 0, h = m1 + 1, ...,m
testa-se a ausencia dos efeitos principais (se O(lh) = 0) e de interaccoes factorias (se
O(lh) > 0) que nao estao confundidos com os blocos. Considerando S0 (L1) = W′ (L1)(A′ (L1) D(d1, ..., dpN )A (L1)
)+W (L1)
S(`h) = W′(`h)(A′(`h)D(d1, ..., dpN )A(`h)
)+W(`h), h = m1 + 1, ...,m
5.2. Delineamento regressional multiplo 109
e g (L1) = car(A′ (L1) D(d1, ..., dpN )A (L1)
)g(`h) = car
(A′ (`h) D
(d1, ..., dpN
)A (`h)
), h = m1 + 1, ...,m
verifica-se, sob validade de H0 (L1) e de H0(`h), h = m1 + 1, ...,m que S0 (L1) ∼ σ2χ2g(L1)
S0(`h) ∼ σ2χ2g(`h), h = m1 + 1, ...,m
pelo que, F0 (L1) = n−kpNg(L1)
S0(L1)
S∼ F(g(L1),n−kpN )
F0 (`h) = n−kpNg(`h)
S0(`h)
S∼ F(g(`h),n−kpN ), h = m1 + 1, ...,m
5.2.3 Associado a uma replica fraccionaria 1ps× pN
Nesta seccao considera-se como modelo base do DRM uma replica fraccionaria
1ps×pN , s < N . Utiliza-se apenas uma fraccao pN−s do numero total de tratamentos,
ou seja, considera-se apenas um dos blocos. Para cada tratamento
x∗j , j = 1, ..., pN−s
pertencente ao bloco seleccionado consideram-se combinacoes lineares dos vectores
dos coeficientes das regressoes e dos respectivos estimadores
µ =
a′β1
...
a′βpN−s
pN−s×1
Y =
a′β1
...
a′βpN−s
pN−s×1
onde a e um vector constante eµj = a′βj, j = 1, ..., pN−s
Yj = a′βj, j = 1, ..., pN−s.
βj =(X′jXj
)−1X′jY
∗j , j = 1, ..., pN−s.
110 5. Delineamento regressional multiplo associado a um factorial de base prima de efeitos fixos
Relembrando a seccao 4.3, A(
1ps⊗ pN
)e uma AJC completa e regular com base
principal
bp
(A(pN ⊗ 1
ps
))=
1
pN−sJpN−s ,Q
∗(`∗1), ...,Q∗(`∗m∗1)
onde
Q∗(`∗h) = A∗(`∗h) (A∗(`∗h))′ , h = 1, ...,m∗1
A∗(`∗h), h = 1, ...,m∗1 dadas por (4.36)
`∗h, h = 1, ...,m∗1 representantes das classe de equivalencia-ρ, distintas de L1
m∗1 = pN−s−1p−1
Considerando
W∗(`h) = (A∗(`∗h))′ Y, h = 1, ...,m∗1
verifica-se que
W∗(`h) ∼ N(λ∗
(`∗h) , σ2 (A∗(`∗h))
′D(d1, ..., dpN−s)A∗(`∗h)
), h = 1, ...,m∗1
onde λ∗
(`∗h) = (A∗(`∗h))′µ, h = 1, ...,m∗1
dj = a′(X′jXj
)−1a, j = 1, ..., pN−s.
Utilizando as hipoteses
H∗0 (`∗h) : λ∗
(`∗h) = 0, h = 1, ...,m∗1
testam-se os efeitos associados as aplicacoes representantes `∗1, ..., `∗m∗1. Admitindo a
validade das hipoteses H∗0 (`∗h) , h = 1, ...,m∗1
S∗0(`∗h) ∼ σ2χ2g(`∗h), h = 1, ...,m∗1
onde S∗0(`∗h) =(W∗(`∗h)
)′ ((A∗(`∗h))
′D(d1, ..., dpN−s)A∗(`∗h)
)+W∗(`∗h), h = 1, ...,m∗1
g∗(`∗h) = car((A∗(`∗h))
′D(d1, ..., dpN
)A∗ (`∗h)
), h = 1, ...,m∗1
5.2. Delineamento regressional multiplo 111
Consequentemente,
F0
∗(`h) =
n− kpN−s
g(`∗h)
S∗0(`∗h)
S∼ F(g(`∗h),n−kpN−s)
com S =
pN−s∑j=1
SQREj =
pN−s∑j=1
||e∗j ||2.
Exemplo 24. Supor que para cada tratamento de uma replica fraccionaria 133×3 =
33−1 se considera uma RLM nas mesmas variaveis (dependente e explicativas). Para
obter uma fraccao 33−1 (ver seccao 4.3) escolhe-se uma aplicacao de L3r[3] e seleciona-
se um dos 3 blocos 2. Cada bloco tem 32 = 9 tratamentos. Por exemplo, considerem-
se a aplicacao x1 + x2 + x3 e o bloco [x1 + x2 + x3|1] constituıdo pelos tratamentos
indicados na figura 5.2. Tendo em conta as classes de equivalencia-ρ, distinta de
L1, obtidas no exemplo 19, as aplicacoes
x1 x2 x3 x1 + 2x2
podem ser escolhidas como representantes das classes de equivalencia-ρ.
2 Relembrando, as aplicacoes utilizadas para obter os blocos devem ser escolhidas de forma
a que as aplicacoes associadas aos efeitos principais e as interaccoes factoriais de baixa ordem
(tanto quanto possıvel) nao sejam confundidas com os blocos e nao pertencam a mesma classe de
equivalencia-ρ, distinta da classe L1.
112 5. Delineamento regressional multiplo associado a um factorial de base prima de efeitos fixos
Tab. 5.2: Fraccoes 33−2 com x1 + x2 + x3 confundida
Bloco 1 Bloco 2 Bloco 3
b = 0 b = 1 b = 3
(0, 0, 0) (1,0,0) (2, 0, 0)
(2, 1, 0) (0,1,0) (0, 1, 0)
(1, 2, 0) (2,2,0) (0, 2, 0)
(2, 0, 1) (0,0,1) (1, 0, 1)
(1, 1, 1) (2,1,1) (0, 1, 1)
(0, 2, 1) (1,2,1) (2, 2, 1)
(1, 0, 2) (2,0,2) (0, 0, 2)
(0, 1, 2) (1,1,2) (2, 1, 2)
(2, 2, 2) (0,2,2) (1, 2, 2)
Considerando as hipoteses
H∗0 (x1) : λ∗ (x1) = 0
H∗0 (x2) : λ∗ (x2) = 0
H∗0 (x3) : λ∗ (x3) = 0
H∗0 (x1 + 2x2) : λ∗ (x1 + 2x2) = 0
com
λ∗ (x1) = (A∗ (x1))′µ
λ∗ (x2) = (A∗ (x2))′µ
λ∗ (x3) = (A∗ (x3))′µ
λ∗ (x1 + 2x2) = (A∗ (x1 + 2x2))′µ
5.3. Teste simultaneo a igualdade de valores medios e esfericidade da matriz de covariancia numDRM equilibrado 113
µ = [a′β1 ... a′β9]′ e as matrizes A∗ (x1) , A∗ (x2) , A∗ (x3) e A∗ (x1 + 2x2) dadas
por (4.39)-(4.40) testa-se a ausencia dos tres efeitos principais e das interaccoes de
ordem 1 associadas as aplicacoes x1 + x2 e x1 + 2x2 em combinacoes lineares dos
coeficientes das regressoes. As hipoteses anteriores sao equivalentes a
H0(x1) : a′β1 + a′β6 + a′β8 = a′β2 + a′β4 + a′β9 = a′β3 + a′β5 + a′β7
H0(x2) : a′β1 + a′β4 + a′β7 = a′β2 + a′β5 + a′β8 = a′β3 + a′β6 + a′β9
H0(x1 + x2) : a′β1 + a′β2 + a′β3 = a′β4 + a′β5 + a′β6 = a′β7 + a′β8 + a′β9
H0(x1 + 2x2) : a′β1 + a′β5 + a′β9 = a′β2 + a′β6 + a′β7 = a′β3 + a′β4 + a′β8.
5.3 Teste simultaneo a igualdade de valores medios e esfericidade
da matriz de covariancia num DRM equilibrado
Resultados desenvolvidos em [3] que tiveram como ponto de partida resultados enun-
ciados em [4] permitem considerar extensoes interessantes no estudo dos DRM ′s.
Mostra-se nesta seccao que o teste simultaneo a igualdade de valores medios e esfe-
ricidade da matriz de covariancia,
H0 : µ1 = ... = µpN Σ = σ2IpN (5.34)
aplica-se a um DRM associado a um factorial, equilibrado. Incluem-se alguns con-
ceitos e resultados necessarios nesta seccao.
Seja um DRM associado a um factorial pN (ver seccao 5.2.1) equilibrado, ou seja,
as matrizes para as diferentes regressoes lineares sao iguais X1 = ... = XpN = X.
Seja a matriz
Y =
Y11 Y12 . . . Y1pN
Y21 Y22 . . . Y2pN
......
. . ....
Yn1 Yn2 . . . YnpN
n×pN
114 5. Delineamento regressional multiplo associado a um factorial de base prima de efeitos fixos
onde Yij representa a i-esima observacao para o tratamento j. Cada coluna da matriz
Y corresponde a cada um dos pN tratamentos
Yj =
Y1j
...
Ynj
, j = 1, ..., pN
e cada linha corresponde a um dos n elementos da amostra aleatoria
Y∗i =
Yi1...
YipN
, i = 1, ..., n.
Continuando a assumir que car (X) = k < n, (5.18), (5.19),tem-se que, Yij ∼ N (x′iβj, σ2)
Yij independentes
para todo i = 1, ..., n e j = 1, ..., pN . Assumindo tambem que
Xβ1 = 1nµ1 ... XβpN = 1nµpN (5.35)
e possıvel testar as hipoteses (5.34). De acordo com [3], para uma amostra de
dimensao n, a distribuicao quase-exacta da estatıstica de razao de verosimilhancas
para a 2n−esima potencia dada por
Λ =|A|(
tr(
1pN
A0
))pNonde
A = Y(In − 1
n1n1
′n
)Y
A0 =(Y − 1
nµ)′ (
Y − 1nµ)
µ = 1pN
1n1′nY
5.3. Teste simultaneo a igualdade de valores medios e esfericidade da matriz de covariancia numDRM equilibrado 115
e uma mistura de m+1 GIG se r ∈ N e e uma mistura de m+1 GNIG se r ∈ R+\N,
de profundidade pN+bpN−12c, com parametros de forma dados por (84) em [3] e taxas
dados por (85) na mesma referencia.
Exemplo 25. Para ilustrar a exposicao feita nesta seccao considere-se que uma
experiencia e coduzida ao longo de varias semanas registando-se a altura dos toma-
teiros para cada uma das combinacoes de nıveis dos factores cultivar (Factor A) e e
estufa (Factor B). Considerar que sao selecionados tres tipos distintos de cultivares
(C1,C2 e C3) e tres tipos distintos de estufa (E1, E2 e E3). Testar as hipoteses
(5.34) assumindo (5.35) significa que se testa se o factor estufa, por exemplo, tem
influencia no crescimento dos tomateiros admitindo que o factor cultivar nao tem
influencia.
116 5. Delineamento regressional multiplo associado a um factorial de base prima de efeitos fixos
6. CONCLUSOES E TRABALHO FUTURO
Esta tese foi dedicada ao desenvolvimento dos DRM ′s associados aos factoriais
de base prima que, devido as possibilidades de confundimento e fraccionamento,
permitem controlar a dimensao das experiencias. Combinando o Modelo-L com
o factorial de base prima enquadrado na classe dos modelos lineares estritamente
associados a AJC ′s mostrou-se que e possıvel extender o estudo, tanto do factorial,
como do DRM associado a um factorial, ao caso nao equilibrado. Atraves desta
combinacao e assumindo a normalidade dos erros aleatorios obtiveram-se UMVUE’s,
para os parametros dos referidos modelos.
Do estudo realizado ficam algumas questoes por abordar e que serao interessantes
considerar. Do ponto de vista teorico sera interessante substituir o factorial de base
prima de efeitos fixos por um modelo linear de efeitos mistos com Orthogonal Block
Structure (OBS) (ver [39]), ou seja, por um modelo linear
Y =m∑j=1
Xjβj +w∑
j=m+1
Xjβj + ε
onde β1, ...,βm sao vectores de parametros, βm+1, ...,βw, ε sao vectores aleatorios in-
dependentes com vectores medios nulos, matrizes de variancias-covariancias
σ2Igm+1 , ..., σ2Igw , σ
2In, respectivamente e gj = car (Xj) , j = 1, ..., w tal que, V = V(Y) =∑w
j=1 γjQj, γj ∈ R+∑wj=1 Qj = In
onde Q1, ...,Qw constituem uma FMPOMO. Se a MPO sobre o subespaco linear
118 6. Conclusoes e trabalho futuro
que contem o vector medio µ = E(Y) = Xβ comutar com cada matriz Qj diz-
se que o modelo tem Commutative Orthogonal Block Structure (COBS), (ver [2],
[13]). Desta forma e possıvel extender o estudo realizado a uma gama mais vasta de
modelos permitindo considerar efeitos mistos.
BIBLIOGRAFIA
[1] Anderson T. W., (2003) An Introduction to Multivariate Statistical Analysis,
3rd. Ed. John Wiley & Sons.
[2] Carvalho, F. P., Joao, M. T., & Oliveira, M. M. (2009). Estimation in models
with commutative orthogonal block structure. Journal of Statistical Theory and
Practice, 3(2), 523-533.
[3] Coelho, C. A., Marques, F.J., & Oliveira, S. (2016). Near-Exact Distributions
for Likelihood Ratio Statistics Used in the Simultaneous Test of Conditions on
Mean Vectors and Patterns of Covariance Matrices. Mathematical Problems in
Engineering. Volume 2016, Article ID 8975902, 25 pages.
[4] Coelho, C. A., Marques, F.J., & Oliveira, S. (2013).The exact distribution of
the likelihood ratio test statistic used to test simultaneously the equality of
means and circularity of the covariance matrix. AIP Conference Proceedings -
ICNAAM - 11th International Conference of Numerical Analysis and Apllied
Mathematics, Rhodes.
[5] Coelho, C. A. (2004). The generalized near-integer Gamma distribution: a
basis for near-exact approximations to the distribution of statistics which are
the product of an odd number of independent Beta random variables. Journal
of Multivariate Analysis, 89(2), 191-218.
120 Bibliografia
[6] Coelho, C. A. (1998). The generalized integer Gamma distribution - A basis for
distributions in multivariate statistics. Journal of Multivariate Analysis, 64(1),
86-102.
[7] Covas R., Mexia J.T., Zmyslony R. (2010) Lattices of Jordan Algebras. Linear
Algebra and Its Applications, 432(10):2679-2690.
[8] Covas, R. (2007). Orthogonal mixed models and commutative Jordan algebras
(Doctoral dissertation, PhD Thesis, Faculdade de Ciencias e Tecnologia da
Universidade Nova de Lisboa).
[9] Domingues L. F. (1997) Delineamentos regressionais de base 2. Dissertacao
de Mestrado em Estatıstica e Optimizacao. Faculdade Ciencias e Tecnologia,
Universidade Nova de Lisboa.
[10] Ferreira S., Ferreira D., Moreira E., Mexia J.T. (2010). Exact estimators for
normal linear mixed models. Far East Journal of Theorethical Statistics, 31
(1):33-48.
[11] Ferreira S., Ferreira D., Moreira E., Mexia J.T. (2009). Inference for L ortho-
gonal models. Journal of Interdisciplinary Mathematics, 12(6):815-824.
[12] Ferreira D. (1996). Delineamentos regressionais multiplos com planos comple-
tos como delineamento base. Tese de Licenciatura em Matematica, Ramo de
Probabilidades e Estatıstica. Universidade de Evora.
[13] Fonseca, M., Mexia, J. T., & Zmyslony, R. (2008). Inference in normal mo-
dels with commutative orthogonal block structure. Acta et Commentationes
Universitatis Tartunesis de Mathematica, 12, 3-16.
Bibliografia 121
[14] Fonseca M., Mexia J., Zmyslony R. (2006). Binary operations on Jordan al-
gebras and orthogonal normal models. Linear Algebra and Its Applications,
417(1):75-86.
[15] Jesus V., Mexia J.T., Fonseca M., Zmyslony R. (2009) Binary Operations and
Canonical Forms for Factorial and Related Models. Linear Algebra and Its Ap-
plications, 430(10):2781-2797.
[16] Jesus V., Mexia J.T., Oliveira S. (2009) Binary Operations on Prime Basis
Factorials. Biometrical Letters, 46(1):1-14.
[17] Jesus V., (2008) Jordan algebras and crossing of factorial and fractional repli-
cates. (Doctoral dissertation, PhD Thesis, Faculdade de Ciencias e Tecnologia
da Universidade Nova de Lisboa).
[18] Jordan P., von Neumann J., Wigner E.P. (1934). On an algebraic generalization
of the quantum mechanical formalism. Annalls of Mathematical, 35:29-64.
[19] Kshirsagar A. K., (1972) Multivariate Analysis. Marcel Dekker. New York.
[20] Lehmann E.L., Casella G. (1998). Theory of Point Estimation. 2nd. Ed. Sprin-
ger Texts in Statistics. New York: Springer.
[21] Lehmann E.L.(1997). Testing statistical hypothesis Reprint of the 2nd. Ed. by
Wiley 1986. New York: Springer.
[22] Malley J.D. (1994). Statistical Applications of Jordan algebras. New York:
Springer-Verlag.
[23] Mexia J.T. (1995). Introducao a Inferencia Estatıstica Linear. Edicoes
Lusofonas.
122 Bibliografia
[24] Mexia J.T. (1990). Best linear unbiased estimates, duality of F tests and the
Scheffe multiple comparison method in the presence of controlled heterocedas-
ticity, Computational Statistics & Data Analysis 10(3):271-281.
[25] Mexia J.T. (1988). Standardized Orthogonal Matrices and the Decomposition
of the sum of Squares for Treatments. Trabalhos de Investigacao no2. Departa-
mento de Matematica, Faculdade e Ciencias e Tecnologia, Universidade Nova
de Lisboa.
[26] Mexia J.T. (1987). Multi-Treatment Regression Designs. Trabalhos de Inves-
tigacao no1. Departamento de Matematica, Faculdade e Ciencias e Tecnologia,
Universidade Nova de Lisboa.
[27] Michalski A., Zmyslony R. (1996). Testing Hypothesis for Variance Compo-
nents in Mixed Linear Models. Statistics: A Journal of Theoretical and Applied
Statistics, 27(3-4):297-310.
[28] Michalski A., Zmyslony R. (1999). Testing Hypothesis for Linear Functions of
Parameters in Mixed Linear Models. Tatra Mountain Mathematical Publicati-
ons, 17:103-110.
[29] Montgomery, D. C. (1997). Design and analysis of experiments 5th. Ed., John
Wiley & Sons.
[30] Moreira E., Mexia, J.T., Zmyslony R. (2009) L models and multiple regressions
designs. Statistical Papers 50:869-885.
[31] Moreira E.E. (2008) Famılias estruturadas de modelos com modelo base orto-
gonal. Dissertacao de Doutoramento em Matematica com especializacao em
Estatıstica. Faculdade Ciencias e Tecnologia. Universidade Nova de Lisboa.
Bibliografia 123
[32] Moreira E.E., Mexia J.T. (2007) Multiple regression models with cross nes-
ted orthogonal base model. Proceedings of the 56th Sessions of the ISI 2007-
International Statistical Institute, Lisboa.
[33] Moreira E.E., Ribeiro A.B.,Mateus E.P., Mexia J.T., Ottosen L.M. (2005a).
Regresional modeling of electrodialytic removal of Cu, Cr and As from CCA
timber waste: application to sawdust. Wood Science and Technology 39(4):291-
309.
[34] Moreira E.E., Ribeiro A.B.,Mateus E.P., Mexia J.T., Ottosen L.M. (2005b)
Regrresional modeling of electrodialytic removal of Cu, Cr and As from CCA
timber waste: application to wood chips. Biometrical letters 42(1):11-25.
[35] Moreira E.E (2004) Tratamento regressional da remocao de metais pesados de
resıduos de madeira. Dissertacao de Mestrado em Estatıstica e Optimizacao.
Faculdade Ciencias e Tecnologia, Universidade Nova de Lisboa.
[36] Morris, M. (2010). Design of experiments: An introduction based on linear
models. CRC Press.
[37] Muirhead R. J., (1982). Aspects of Multivariate Statistical Theory. John Wiley
& Sons. New York.
[38] Mukerjee, R., Wu, C. J. (2007). A Modern Theory of Factorial Design. Springer
Science Business Media.
[39] Nelder, J. A. (1965). The analysis of randomized experiments with orthogo-
nal block structure. I. Block structure and the null analysis of variance. In
Proceedings of the Royal Society of London A: Mathematical, Physical and En-
gineering Sciences (Vol. 283, No. 1393, pp. 147-162). The Royal Society.
124 Bibliografia
[40] Oliveira S., Mexia J.T. (2006) Delineamentos regressionais multiplos com base
factorial prima. Actas do XIV Congresso Anual da SPE, 573-584.
[41] Oliveira S. (2005) Delineamentos regressionais multiplos com base factorial
prima. Dissertacao de Mestrado em Estatıstica e Optimizacao. Faculdade
Ciencias e Tecnologia. Universidade Nova de Lisboa.
[42] Rao C. R., Rao M. B. (1998). Matrix algebra and its applications to statistics
and econometrics. Singapore. World Scientific Publishing.
[43] Saraiva S. (1996) Delineamentos regressionais multiplos associados a quadrados
latinos e blocos casualizados. Tese de Licenciatura em Matematica, Ramo de
Probabilidades e Estatıstica. Universidade de Evora.
[44] Scheffe H. (1959). The Analysis of Variance, Reprint of the 1959. Wiley Classics
Library. New York: Wiley.
[45] Schott J.R. (1997). Matrix analysis for statistics. Wiley Series in Probability
and Mathematical Statistics. New York: Wiley.
[46] Seely J. (1970a). Linear Spaces and Unbiased Estimation. The Annals of Mathe-
matical Statistics, 41(5):1725-1734.
[47] Seely J. (1970). Linear Spaces and Unbiased Estimation. An Application to the
Mixed Linear Model. The Annals of Mathematical Statistics, 41(5):1735-1748.
[48] Seely J. (1971). Quadratic Subspaces and Completeness. The Annals of Mathe-
matical Statistics, 42(2):710-721.
[49] Seely J. (1972). Completeness for a family of multivariate normal distributions.
The Annals of Mathematical Statistics, 43:1644-1647.
Bibliografia 125
[50] Seely J., (1977) Minimal sufficient statistics and completeness for multivariate
normal families, Sankya, 39(2):170-185.
[51] Silvey S.D. (1975). Statistical Inference. Reprinted with corrections. Mono-
graphs on Applied on Probability and Statistics. London: Chapman and Hall.
[52] Zmyslony R. (1980). Completeness for a family of normal distributions. Banach
Center Publications, 6(1), 355-357.
[53] Zmyslony R. (1976). On estimation of parameters in linear models, Applicatio-
nes Mathematicae XV, (3), 271-276.
126 Bibliografia
APENDICE
A. RESULTADOS ALGEBRICOS
Este anexo apresenta uma breve exposicao de conceitos de Algebra Linear e Te-
oria das Matrizes necessarios para melhor compreender a abordagem associada a
formalizacao dos modelos que sao objecto desta dissertacao. Embora sejam resul-
tados bastante conhecidos e estudados considerou-se que esta exposicao nao ficaria
completa sem estes conteudos e por isso importante a sua inclusao. Os resultados
apresentados nao sao demonstrados e podem ser consultados por exemplo em [42]
ou [45].
A.1 Matriz de projeccao ortogonal
Seja E um espaco linear munido de um produto interno e S um subespaco linear de
E . Sejam a1, ..., an uma base ortonormada para E e a1, ..., ar, r < n, uma base
ortonormada para S. Dado x ∈ E , tem-se que
x =r∑i=1
αiai +n∑
i=r+1
αiai = x1 + x2
ou,
x = Aα = A1α1 + A2α2,
considerando A = [A1 A2] e α = [α′1 α′2]′, onde A1 = [a1, ..., ar], A2 = [ar+1, ..., an],
α1 = [α1...αr]′ e α2 = [αr+1...αn]′, pelo que, x1 = A1α1 e x2 = A2α2. Devido a
130 A. Resultados algebricos
ortonormalidade dos vectores ai tem-se
A′1A1 = Ir
A′2A2 = In−r
A′1A2 = 0r×(n−r)
A′2A1 = 0(n−r)×r
pelo que,
A1A′
1x = A1A′
1Aα = A1A′
1[A1A2]
α1
α2
= A1α1 = x1.
Definicao 29. O vector x1 definido anteriormente e designado por projeccao orto-
gonal de x ∈ E sobre S.
Assim vem o resultado seguinte.
Teorema 39. Seja S um subespaco de E e A1 = [a1, ..., ar] uma matriz cujas colunas
constituem uma base ortonormada de S. A projeccao ortogonal de x ∈ E sobre S e
dada por
QSx = A1A′1x.
Demonstracao. Ver [45].
Definicao 30. A matriz QS = A1A′1 chama-se matriz de projeccao ortogonal sobre
S.
Num espaco linear uma base ortonormada nao e unica, no entanto, a matriz de
projeccao ortogonal e unica.
Teorema 40. Supondo que A1 e B1 sao matrizes cujas colunas formam bases or-
tonormadas para um subespaco linear S, de dimensao r, entao A1A′1 = B1B
′1.
A.1. Matriz de projeccao ortogonal 131
Demonstracao. Ver [45].
Obviamente que R (QS) = S
N (QS) = S⊥
onde R (QS) representa o espaco imagem de QS , N (QS) o espaco nulidade de QS
e S⊥ o complemento ortogonal de S. A matriz de projeccao ortogonal sobre S⊥ e
QS⊥ = A2A′2 e
In = QS + QS⊥ .
Facilmente verifica-se que se QS = A1A′1 e a matriz de projeccao ortogonal sobre
S entao e simetrica
Q′S = QS
e idempotente
QSQS = QS
pois A′1A1 = Ir. O recıproco tambem e verdadeiro.
Teorema 41. Seja P uma matriz simetrica e idempotente com car(P) = r. Entao
existe um espaco linear de dimensao r, tal que, P e a sua matriz de projeccao
ortogonal.
Demonstracao. Ver [45].
Teorema 42. Se QSx e a projeccao ortogonal de x sobre S tem-se que
‖x−QSx‖ ≤ ‖x− y‖ (A.1)
para todo o y ∈ S.
Demonstracao. Ver [45].
132 A. Resultados algebricos
Teorema 43. As seguintes afirmacoes sao equivalentes.
1. Q e uma matriz de projeccao ortogonal,
2. In −Q e uma matriz de projeccao ortogonal,
3. R(Q) = N(In −Q),
4. R(In −Q) = N(Q),
5. R(Q) ⊥ R(In −Q),
6. N(Q) ⊥ N(In −Q).
Demonstracao. Ver [42].
Teorema 44. Sejam Q1, ...,Qk matrizes de projeccao ortogonais, tais que, QiQj =
0, para i 6= j, com i, j = 1, ..., k. Entao
1. Q =k∑i=1
Qi e uma matriz de projeccao ortogonal,
2. R(Qi) ∩R(Qj) = 0, para i 6= j,
3. R(Q) = ki=1R(Qi).
Demonstracao. Ver [42].
Teorema 45. Sejam S1, ...,Sk subespacos de um mesmo espaco linear E mutuamente
ortogonais e S = ki=1Si. Seja Qi a matriz de projeccao ortogonal sobre Si, i =
1, ..., k. Entao Q =∑k
i=1 Qi e uma matriz projeccao ortogonal em S.
Demonstracao. Ver [42].
A.2. Produto de Kronecker 133
Teorema 46. Seja S um subespaco linear de E de dimensao r. Seja X = [x1...xr]
uma matriz, do tipo n× r, cujas colunas formam uma base para S. Entao a matriz
de projeccao ortogonal sobre S e dada por
QS = X (X′X)−1
X′.
Demonstracao. Ver [45].
A.2 Produto de Kronecker
Alem do produto usual de matrizes utiliza-se tambem o produto de kronecker que
se representa por ⊗.
Definicao 31. Sejam A e B matrizes do tipo m × n e p × q, respectivamente. O
produto de kronecker de A e B e a matriz de ordem mp× nq definida por
A⊗B =
a11B · · · a1nB
.... . .
...
am1B · · · amnB
. (A.2)
Esta operacao esta definida quaisquer que sejam as dimensoes das duas matrizes,
ao contrario do que acontece com a multiplicacao usual de matrizes. A semelhanca
da multiplicacao usual de matrizes o produto de Kronceker tambem nao e comuta-
tivo. Algumas propriedades do produto de Kronecker, que se verificam facilmente a
partir da definicao anterior, sao resumidas de seguida.
Teorema 47. Sejam as matrizes A, B e C e os vectores a e b, quaisquer. Entao
1. α⊗A = A⊗ α = αA, para qualquer escalar α,
2. (αA)⊗ (βB) = αβ(A⊗B), para quaisquer escalares α e β,
134 A. Resultados algebricos
3. (A⊗B)⊗C = A⊗ (B⊗C),
4. (A + B)⊗C = (A⊗C) + (B⊗C), se A e B forem do mesmo tipo,
5. A⊗ (B + C) = (A⊗B) + (A⊗C), se B e C forem do mesmo tipo,
6. (A⊗B)′ = A′ ⊗B′,
7. ab′ = a⊗ b′ = b′ ⊗ a.
Demonstracao. Ver [45].
Considerando as propriedades apresentadas no teorema anterior verifica-se que(n∑i=1
aiAi
)⊗
(k∑j=1
bjBj
)=
n∑i=1
k∑j=1
aibj (Ai ⊗Bj)
se as matrizes Ai forem do mesmo tipo e as matrizes Bj forem do mesmo tipo.
Uma propriedade que relaciona o produto de kronecker e o produto usual de
matrizes e dada por
Teorema 48. Sejam A, B,C e D matrizes do tipo m × h, p × k, h × n e k × q,
respectivamente. Entao
(A⊗B) (C⊗D) = AC⊗BD.
Demonstracao. Ver [45].
Teorema 49. Sejam A e B matrizes de ordem m e p, respectivamente. Entao
tr (A⊗B) = tr(A)tr(B)
Demonstracao. Ver [45].
A.2. Produto de Kronecker 135
Teorema 50. Sejam A uma matriz do tipo m × n e B uma matriz do tipo p × q.
Entao
1. (A⊗B)−1 = A−1 ⊗B−1 se m = n, p = q, A e B forem matrizes regulares,
2. (A⊗B)+ = A+ ⊗B+.
Demonstracao. Ver [45].
Teorema 51. Sejam A e B de ordem n e m, respectivamente. Sejam λ1, ..., λn os
valores proprios de A e β1, ..., βm os valores proprios de B. Entao os nm valores
proprios de A⊗B sao λiβj, i = 1, ..., n e j = 1, ...,m.
Demonstracao. Ver [45].
Utilizando o facto do determinante de uma matriz quadrada ser igual ao produto
dos seus valores proprios obtem-se a propriedade seguinte.
Teorema 52. Sejam A e B sao matrizes de ordem m e p, respectivamente. Entao
|A⊗B| = |A|p|B|m.
Demonstracao. Ver [45].
Teorema 53. Sejam A uma matriz do tipo m × n e B uma matriz do tipo p × q.
Verifica-se que
1. car (A) = car (A′) = car (AA′) = car (A′A) ,
2. car (A⊗B) = car (A) car (B) .
Demonstracao. Ver [45].
136 A. Resultados algebricos
Considere-se 1m e 1n vectores de 1’s com m e n componentes, respectivamente.
Atendendo ao exposto, verifica-se facilmente, que1m ⊗ 1n = 1mn
Im ⊗ In = Imn
Jm ⊗ Jn = Jmn
onde Jn = 1n1′n, Jm = 1m1′m e Jmn = 1mn1
′mn. Sendo A e B matrizes simetricas
tem-se que
(A⊗B)′ = A′ ⊗B′ = A⊗B.
Se A e B forem matrizes idempotentes verifica-se que
(A⊗B) (A⊗B) = AA⊗BB = A⊗B.
pelo que,
Teorema 54. Sejam A e B de ordem n e p, respectivamente.
1. Se A e B sao matrizes simetricas entao A⊗B e uma matriz simetrica,
2. Se A e B sao matrizes idempotentes entao A⊗B e uma matriz idempotente.
Quando A e B sao matrizes ortogonais
(A⊗B) (A⊗B)′ = (A⊗B) (A′ ⊗B′) = AA′ ⊗BB′ = I
e assim
Teorema 55. Sejam A e B matrizes ortogonais quaisquer. Entao A ⊗ B e uma
matriz ortogonal.
Atendendo aos teoremas 54 e 55 verifica-se que
A.3. Inversa generalizada de Moore-Penrose 137
Teorema 56. Sejam A e B matrizes de projeccao ortogonal. Entao A⊗B e uma
matriz de projeccao ortogonal.
Sejam D (a1...an) e D (b1...bn) matrizes diagonais. Por A.2
D (a1...an)⊗D (b1...bn) = D ((a1...an)⊗ (b1...bn)) .
A.3 Inversa generalizada de Moore-Penrose
Definicao 32. (Penrose,1955) Seja A uma matriz do tipo m × n. A inversa de
Moore-Penrose da matriz A e a matriz, do tipo n×m, que se representa por A+ e
satisfaz as seguintes condicoes
1. AA+A = A,
2. A+AA+ = A+,
3. (AA+)′= AA+,
4. (A+A)′= A+A.
Teorema 57. A matriz A+ que satisfaz as condicoes anteriores e unica.
Demonstracao. Ver [45].
A definicao seguinte alternativa e equivalente a anterior foi dada por Moore
(1935). Utiliza o conceito de matriz de projeccao ortogonal que e util em varios
contextos.
Definicao 33. (Moore, 1935) Seja A uma matriz do tipo m × n. Entao a inversa
de Moore-Penrose da matriz A e a matriz unica A+, do tipo n×m, que satisfaz as
condicoes seguintes
138 A. Resultados algebricos
1. AA+ = QR(A),
2. A+A = QR(A+)
onde QR(A) e QR(A+) sao as matrizes de projeccao ortogonal sobre os subespacos
R(A) e R(A+), respectivamente.
Teorema 58. As definicoes 32 e 33 sao equivalentes.
Demonstracao. Ver [45].
Apresentam-se de seguida algumas propriedades que a inversa de Moore-Penrose
de uma matriz verifica.
Teorema 59. Seja A uma matriz do tipo m× n. Entao
1. (αA)+ = α−1A+, com α 6= 0 um escalar,
2. (A′)+ = (A+)′,
3. (A+)+ = A,
4. A+ = A−1, se A for uma matriz quadrada e nao singular,
5. (A′A)+ = A+(A+)′ e (AA′)+ = (A+)′A+,
6. (AA+)+
= AA+ e (A+A)+
= A+A,
7. A+ = (A′A)+ A′ = A′ (AA′)+ ,
8. A+ = (A′A)−1 A′ e A+A = In, se car(A) = n,
9. A+ = A′ (AA′)−1 e AA+ = Im, se car(A) = m,
10. A+ = A′, se A′A = In,
A.4. Matriz ortogonal estandardizada 139
11. car(A) = car(A+) = car(AA+) = car(A+A).
Demonstracao. Ver [45].
Teorema 60. Seja A uma matriz simetrica. Entao
1. A+ tambem e simetrica,
2. AA+ = A+A,
3. A+ = A, se A e idempotente.
Demonstracao. Ver [45].
Atendendo a definicao 33.(1) e ao Teorema 59.(7)
QR(A) = AA+ = A (A′A)+
A′.
Em particular quando car(A) = n
QR(A) = AA+ = A (A′A)−1
A′.
A.4 Matriz ortogonal estandardizada
Definicao 34. Seja P uma matriz, de ordem p, ortogonal. A matriz P diz-se
ortogonal estandardizada se a primeira coluna e igual a 1√p1p.
Uma matriz ortogonal estandardizada pode ser escrita como
P =
[1√p1p Kp
](A.3)
em que Kp e uma matriz, do tipo p × (p − 1), que nao inclui a primeira coluna da
matriz P. Como P e ortogonal, P′P = PP′ = Ip entao verifica-se que
K′pKp = Ip−1 (A.4)
1′pKp = 01×(p−1) (A.5)
KpK′p = Ip −
1
pJp. (A.6)
140 A. Resultados algebricos
De (A.5) pode-se concluir que a soma dos elementos de cada coluna da matriz Kp e
igual a zero.
Definicao 35. Uma matriz em que a soma dos elementos em qualquer uma das
suas colunas e igual a zero diz-se uma matriz de contrastes.
A matriz Kp e uma matriz de contrastes.
Para calcular uma matriz ortogonal estandardizada pode usar-se o conhecido
metodo de ortonormalizacao de Gram-Schmidt.
Exemplo 26. Uma possibilidade para obter um matriz ortogonal estandardizada de
ordem n e diagonalizar a matriz Jn = 1n1′n. Por exemplo,
• Uma diagonalizadora ortogonal estandardizada de J2 = 121′2 e
P2 =
1√2− 1√
2
1√2
1√2
e K2 =
− 1√2
1√2
.• Uma diagonalizadora ortogonal estandardizada de J3 = 131
′3 e
P3 =
1√3− 1√
2− 1√
6
1√3
0 2√6
1√3
1√2− 1√
6
e K3 =
− 1√
2− 1√
6
0 2√6
1√2− 1√
6
.
• Uma diagonalizadora ortogonal estandardizada de J4 = 141′4 e
P4 =
1√4− 1√
2− 1√
6− 1√
12
1√4
0 0 3√12
1√4
0 − 1√6− 1√
12
1√4− 1√
2− 1√
6− 1√
12
e K4 =
− 1√
2− 1√
6− 1√
12
0 0 3√12
0 − 1√6− 1√
12
− 1√2− 1√
6− 1√
12
.
B. VECTORES ALEATORIOS, DISTRIBUICAO NORMAL
MULTIVARIADA
B.1 Vector medio, matriz de covariancia e matriz de covariancia
cruzada
Quando se trabalha com varias variaveis aleatorias e usual escreve-las como vectores
ou matrizes. Escreve-se X = [ X1 · · · Xn ]′ para representar o vector aleatorio,
n × 1 e Z = [Zjk] , uma matriz aleatoria do tipo n × p, cujas componentes sao
variaveis aleatorias. Admite-se que existem os valores esperados, as variancias e as
covariancias que sao indicadadas nas definicoes e nas propriedades que se seguem.
Definicao 36. O valor esperado de uma matriz aleatoria Z e
E[Z] = [E[Zjk]] , j = 1, ..., n, k = 1, ..., p.
Em particular se Z = X o valor esperado
E[X] =
E[X1]
...
E[Xn]
e a media ou vector medio de X.
Geralmente representa-se um vector medio por µ, quando for necessario por
µX. Se Z = (X− µ) (X− µ)′ o seu valor esperado e a covariancia ou a matriz de
142 B. Vectores aleatorios, Distribuicao Normal multivariada
variancias-covariancias de X,
V = V[X] = E[(X− µ) (X− µ)′
]= [E[(Xi − µi) (Xj − µj)]] .
Se Z = (X− µX) (W − µW)′ onde W e um vector aleatorio, k × 1, com vector
medio µW, o seu valor esperado e a matriz
V (X,W) = E[(X− µX) (W − µW)′
]= [E[(Xi − µXi) (Wj − µWj)]]
que se designa por matriz de covariancia cruzada de X e W. Note-se que o i-esimo
elemento principal da matriz V, σ2i = E
[(Xi − µi)2] , e a variancia de Xi e o ij-
esimo elemento desta matriz, cov (Xi, Xj) = E[(Xi − µi) (Xj − µj)] , e a covariancia
entre Xi e Xj. Como Cov (Xi, Xj) = Cov (Xj, Xi) , i 6= j obviamente a matriz V e
simetrica. Atendendo a que (X− µ) (X− µ)′ = XX′ − µX′ −Xµ′ + µµ′ tem-se
V[X] = E[XX′]− µµ′.
Teorema 61. Sejam A,B,C, matrizes constantes, do tipo m× n, p× k e m× k,
respectivamente e a, b vectores constantes, m × 1, p × 1, respectivamente. Sejam
X,Y,W vectores aleatorios, n×1, Z a matriz aleatoria do tipo n×p e α um escalar.
Entao
1. E[X + Y] = E[X] + E[Y] ,
2. E[αAX + a] = αAE[X] + a,
3. E[AZB + C] = AE[Z] B + C,
4. V[ X] e uma matriz semi-definida positiva,
5. V[αAX + a] = α2AV[X] A′,
6. V (X,W) = V (W,X)′ ,
B.2. Distribuicao Normal multivariada 143
7. V[X + Y] = V[X] + V[Y] + V (X,Y) + V (Y,X) ,
8. Se X e Y sao independentes entao V (X,Y) = 0,
9. V (αAX + a, βBW + b) = αβAV (X,W) B′,
10. V (X + Y,W) = V (X,W) + V (Y,W) .
Demonstracao. Ver [1], [19] ou [37].
B.2 Distribuicao Normal multivariada
Diz-se que o vector aleatorio X tem distribuicao normal n−multivariada nao singular
se a sua densidade e
fX(x) =1√
(2π)n |V|e−
12
(x−µ)′V−1(x−µ) (B.1)
onde V e uma matriz definida positiva. Simbolicamente,
X ∼ Nn (µ,V) .
Enunciam-se algumas propriedades importantes relativamente a distribuicao normal
multivariada.
Teorema 62. Seja X ∼ Nn (µ,V) . Entao
1. E[X] = µ e V[X] = V,
2. as distribuicoes marginais de X sao tambem multinormais com vectores medios
e matrizes de covariancias dados pelos correspondentes subvectores e submatri-
zes de µ e V. Em particular, cada componente de X tem distribuicao normal
com media µi e variancia σ2i ,
144 B. Vectores aleatorios, Distribuicao Normal multivariada
3. seja X = [X′1...X′r]′ , entao os subvectores Xi e Xj sao independentes se e so
se a submatriz de V associada as covariancias entres as suas componentes for
constituıda apenas por zeros,
4. seja A uma matriz constante, do tipo m × n, com car (A) = m ≤ n e a um
vector constante, m× 1, entao
AX + a ∼ Nm (Aµ+ a , AVA′) ,
5. a funcao geradora de momentos de X e MX(t) = E[et′X]
= et′µ+ 1
2t′Vt,
6. a funcao caracterıstica de X e φX(t) = E[eit′X]
= eit′µ− 1
2t′Vt.
Demonstracao. Ver [1], [19] ou [37].
No ponto 4 do Teorema 62 exige-se que car (A) = m ≤ n de forma a garantir
que a matriz AVA′ seja regular. No entanto, existem situacoes em que a matriz
AVA′ nao e regular. Assim considera-se uma definicao da distribuicao normal que
inclui a distribuicao singular.
Definicao 37. Diz-se que o vector aleatorio X, com E[X] = µ e V[X] = V, tem
distribuicao normal n-multivariada se existe uma transformacao da forma
X = DY + λ
onde D e uma matriz, nao aleatoria, com n linhas, o numero de colunas e igual a
car (V) e Y e um vector aleatorio com densidade dada por B.1.
E evidente que se car (V) = n entao pode-se considerar D = In e λ = 0 tendo-se
X = Y. Assim de acordo com esta definicao pode-se escrever 4 do Teorema 62 de
uma forma mais geral.
B.3. Formas quadraticas 145
Teorema 63. Seja Am×n uma matriz constante e a um vector constante, entao
AX + a ∼ Nm (Aµ+ a , AVA′) .
Demonstracao. Ver [1].
Esta generalizacao inclui os casos em que X pode ter distribuicao nao singular,
singular e a matriz A pode ser regular ou ter car (A) < m.
B.3 Formas quadraticas
Muitas das estatısticas que sao utilizadas nesta tese tem distribuicao χ2 e distri-
buicao F . Geralmente, estas distribuicoes estao associadas a estatısticas de teste
sob validade de uma hipotese nula no caso central e sob validade de uma hipotese
alternativa no caso nao central.
Teorema 64. Seja X ∼ Nn (µ, σ2V) com car (V) = ` ≤ n e b um vector constante.
Entao
Q = (X− b)′V+ (X− b)
tem distribuicao do Qui-quadrado nao central com ` graus de liberdade e parametro
de nao centralidade δ
δ =(µ− b)′V+ (µ− b)
σ2. (B.2)
Simbolicamente,
Q ∼ σ2χ2`,δ. (B.3)
Demonstracao. Ver [23].
Teorema 65. Seja S ∼ χ2m uma variavel aleatoria independente de X ∼ Nn (µ, σ2V)
onde car (V) = ` ≤ n. Entao
F =m
`
(X− b)′V+ (X− b)
S
146 B. Vectores aleatorios, Distribuicao Normal multivariada
tem distribuicao F nao central com parametros ` e m e parametro de nao centrali-
dade δ dado por (B.2), simbolicamente
F ∼ F`,m,δ.
Demonstracao. Ver [23].
Em particular se X ∼ Nn (µ, σ2In) e b = 0 verifica-se que
Q = ‖X‖2 ∼ σ2χ2n,δ (B.4)
com δ = ‖µ‖2σ2 e
F =m
n
‖X‖2
S∼ Fn,m,δ. (B.5)
Em particular quando car (V) = n, vem V+ = V−1 e considerando b = µ
Q0 = (X− µ)′V−1 (X− µ) ∼ σ2χ2n
e portanto
F0 =m
n
(X− µ)′V−1 (X− µ)
S∼ Fn,m.
C. ESTATISTICAS SUFICIENTES E COMPLETAS
Esta seccao apresenta algumas definicoes e propriedades sobre estimacao pontual,
incidindo sobretudo em estatısticas suficientes e completas.
Um dos objectivos numa analise estatıstica e a reducao da dimensao de coleccoes
de variaveis aleatorias (amostras aleatorias), em outras variaveis, de modo a facilitar
a analise estatıstica. Estas novas variaveis, que sao funcao das primeiras, chamam-se
estatısticas. Uma estatıstica usada para estimar, atraves de uma amostra, o valor
de um parametro (cujo verdadeiro valor e desconhecido) diz-se um estimador. O
parametro pode ser um escalar, um vector, ou funcao do parametro.
Seja X = (X1, ..., Xn) um vector aleatorio definido no espaco amostral com
funcao densidade (ou de probabilidade) pertencente a famılia F = f (x|θ) , θ ∈ Θ.
Definicao 38. Uma estatıstica T = T (X) e suficiente para θ se e so se a dis-
tribuicao condicional de X dado T = t nao depende de θ, para qualquer valor de
t.
Uma estatıstica suficiente opera uma reducao dos dados sem perder informacao,
isto e, extrai da amostra toda a informacao que esta contem sobre o parametro θ. A
definicao de estatıstica suficiente generaliza-se ao caso em que a funcao densidade
(ou de probabilidade) envolve mais do que um parametro.
Definicao 39. As estatısticas T1, ..., Tk, onde Ti = Ti (X) para i = 1, ..., k, sao
conjuntamente suficientes para θ, se e so se a distribuicao condicional de X dados
T1 = t1, ..., Tk = tk nao depende de θ.
148 C. Estatısticas suficientes e completas
Uma ferramenta util para verificar se um estimador e uma estatıstica suficiente
e o teorema que se apresenta de seguida.
Teorema 66. (Teorema da factorizacao)
As estatısticas T1, ..., Tk, sao conjuntamente suficientes para θ se e so se existem
funcoes nao negativas, g e h, tais que,
f (x|θ) = g (t1, ..., tk|θ)h (x)
onde a funcao h nao depende de θ e g depende de x apenas atraves de t1, ..., tk.
Intuitivamente espera-se que um estimador forneca ”em media”estimativas exac-
tas, ou seja, que coincidam com o verdadeiro valor do parametro.
Definicao 40. Um estimador T e nao enviesado (ou centrado) para g (θ) se
E (T ) = g (θ)
qualquer que seja θ ∈ Θ.
Na classe dos estimadores nao enviesados procura-se um que tenha a menor
variancia, isto e, o que produza estimativas mais proximas do verdadeiro valor do
parametro.
Definicao 41. Um estimador T de g (θ) e um estimador nao enviesado com variancia
uniformemente mınina ou UMVUE se
1. E (T ) = g (θ)
2. V (T ) ≤ V (T ′) , para qualquer θ ∈ Θ, onde T ′ e um outro qualquer estimador
nao enviesado de g (θ) .
149
O teorema de Rao-Blacwell e um resultado importante e mostra que e possıvel
obter um estimador centrado, funcao de estatısticas suficientes, que tem menor
variancia que outro qualquer estimador centrado que nao seja funcao de estısticas
suficientes.
Teorema 67. (Rao-Blackwell) Seja T1, ..., Tk um conjunto de estatısticas conjun-
tamente suficientes. Seja T ′ = T ′(X) um estimador centrado de g (θ) e T ∗ =
E(T ′|T1, ..., Tk). Entao,
1. T ∗ e uma funcao das estatısticas T1, ..., Tk,
2. E (T ∗) = g (θ) (T ∗ e um estimador nao enviesado para g (θ))
3. V(T ∗) ≤ V(T ′), para qualquer θ e V(T ∗) < V(T ′) para algum θ a nao ser que
P(T ∗ = T ′) = 1.
Demonstracao. Ver [20].
De forma a identificar situacoes em que o estimador obtido pelo teorema anterior
seja um UMVUE e util a definicao de estatıstica completa.
Definicao 42. Uma estatatıstica T = T (X) di-se completa se e so se a sua famılia
de distribuicoes for completa. A famılia de distribuicoes de T = T (X) diz-se com-
pleta se e so se para qualquer estatıstica g (T ) ,
E [g (T )] = 0⇒ P [g (T )] = 1,∀θ ∈ Θ
ou seja, T e completa se e so se o unico estimador nao enviesado de 0, que e funcao
de T, e a estatıstica identicamente igual a 0 com probabilidade 1.
Diz-se que uma variavel aleatoria contınua (discreta) tem distribuicao que per-
tence a famılia exponencial k−parametrica se a respectiva funcao densidade (funcao
150 C. Estatısticas suficientes e completas
de probabilidade) pode ser expressa na forma
f (x|θ) = h(x)c (θ) e∑ki=1 wi(θ)ti(x)
onde h(x) ≥ 0, t1(x), ..., tk(x) sao funcoes que nao dependem de θ, c (θ) ≥ 0 e
w1 (θ) , ..., wk (θ) sao funcoes que nao dependem de x.
Um resultado importante para verificar se um conjunto de estatısticas e conjun-
tamente suficiente e completa e o Teorema seguinte.
Teorema 68. Se a distribuicao de X pertence a famılia exponencial s-parametrica e
o espaco parametrico Θ contem um rectangulo de dimensao s (ou se contem o produto
cartesiano de s intervalos nao degenerados) entao as estatısticas Ti(X), i = 1, ..., k
sao conjuntamente suficientes e completas.
Demonstracao. Ver [51].
Apresenta-se um resultado que permite verificar estimadores UMVUE.
Teorema 69. (Blackwell-Lehmann-Scheffe) Se T1, ..., Tk sao estatısticas conjunta-
mente suficientes e completas e T ′ = T ′ (T1, ..., Tk) e um estimador nao enviesado
para g (θ) entao T ∗ = E(T ′|T1, ..., Tk) e um UMVUE para g (θ) .
Demonstracao. Ver [20].
D. REGRESSAO LINEAR MULTIPLA
Apesar de ser bastante conhecido e estudado considerou-se importante incluir uma
”breve”exposicao sobre o modelo de regressao linear multipla.
D.1 Modelo e hipoteses
Da-se o nome de regressao linear a modelos que exprimem relacoes entre uma variavel
resposta e uma variavel explicativa - modelo de regressao linear simples - ou entre
uma variavel resposta e varias variaveis explicativas - modelo de regressao linear
multipla, que sao caracterizados pela linearidade relativamente aos parametros, isto
e, os que assumem a forma
Yi = β1xi1 + ...+ βkxik + εi , (i = 1, ..., n) (D.1)
onde Yi representa a i-esima observacao da variavel dependente ou da variavel res-
posta, xij corresponde a observacao i da variavel independente ou explicativa j
(regressor), β1, ..., βk representam os coeficientes de regressao (parametros fixos e
desconhecidos) e εi representa o erro aleatorio associado a observacao i. As n igual-
dades (D.1) podem apresentar-se utilizando a notacao matricial,
Y = Xβ + ε (D.2)
152 D. Regressao Linear Multipla
onde
Y =
Y1
Y2
...
Yn
,X =
x11 · · · x1k
x21 · · · x2k
.... . .
...
xn1 · · · xnk
,β =
β1
β2
...
βk
e ε =
ε1
ε2...
εn
.A matriz X designa-se por matriz do modelo. Caso a variavel x1 seja identicamente
igual a 1 tem-se o modelo linear com termo independente e nesse caso a primeira
coluna da matriz X e constituıda por uns. Assume-se que n > k e que
car(X) = ` ≤ k.
Se car(X) = k significa que os vectores coluna da matriz X sao linearmente indepen-
dentes. Quando tal nao acontece, ou seja, se car(X) < k, diz-se que existe multico-
linearidade. Assume-se tambem que as variaveis aleatorias εi tem valor medio nulo,
variancia igual a σ2, (geralmente designada por hipotese da homocedasticidade) sao
nao correlacionadas, e normalmente distribuıdas,
ε ∼ N(0, σ2In
). (D.3)
Contudo existem situacoes praticas em que as variaveis aleatorias εi podem estar
correlacionadas e/ou nao se verificar a hipotese de homocedasticidade. Isto significa
que a matriz V[ε] pode nao ser diagonal e/ou ter elementos principais distintos, ou
seja,
V[ε] = σ2V (D.4)
onde V e uma matriz, de ordem n, conhecida e definida positiva. Nesta situacao de
forma a obter-se um modelo que verifique as hipoteses da homocedasticidade e de
nao correlacionamento o modelo (D.2) e transformado no modelo1
Y∗ = X∗β + ε∗1 Como o vector β e o mesmo nas duas formulacoes dispensa-se a notacao β∗.
D.2. Estimacao dos parametros do modelo 153
onde Y∗ = G′Y, X∗ = G′X, ε∗ = G′ε e G e uma matriz, de ordem n, regular, tal
que,
G′VG = In (D.5)
pelo que,
ε∗ ∼ N(0, σ2In
)e consequentemente
Y∗ ∼ N(X∗β, σ
2In).
Em particular G0 = PD(
1√λ1, ..., 1√
λn
)e uma solucao da equacao (D.5) onde
D(
1√λ1, ..., 1√
λn
)e a matriz diagonal com elementos principais 1√
λ1, ..., 1√
λn, onde
λ1, ..., λn sao os valores proprios da matriz V e P a matriz cujas colunas correspon-
dem aos vectores proprios ortonormados associados aos valores proprios da matriz
V.
D.2 Estimacao dos parametros do modelo
Tendo em conta o modelo e as hipoteses consideradas na seccao anterior os parametros
deconhecidos sao β1, ..., βk, σ2. O metodo geralmente utilizado para estimar β e o
metodo dos mınimos quadrados que consiste em minimizar a soma
‖Y∗ −X∗β‖2 .
Atendendo a (A.1) a solucao e dada pela projeccao ortogonal de Y∗ em R(X∗), ou
seja, X∗β = X∗ (X′∗X∗)+ X′∗Y∗ car(X∗) = ` < k
X∗β = X∗ (X′∗X∗)−1 X′∗Y∗ car(X∗) = k
(D.6)
onde
QR(X∗) =
X∗ (X′∗X∗)+ X′∗ car(X∗) = ` < k
X∗ (X′∗X∗)−1 X′∗ car(X∗) = k
154 D. Regressao Linear Multipla
e a matriz de projeccao ortogonal sobre o subespaco R(X∗) e (X′∗X∗)+ e a inversa
de Moore-Penrose da matriz X′∗X∗. A solucao do sistema (D.6) e dada por
β =
(X′∗X∗)+ X′∗Y∗ car(X∗) = ` < k
(X′∗X∗)−1 X′∗Y∗ car(X∗) = k
(D.7)
Quando car(X∗) = ` < k a solucao do sistema nao e unica, mas em determinadas
condicoes, combinacoes lineares das componentes de β podem ser unicas, [23], [24]
ou [45]. Desta forma e necessaria a exposicao que se segue.
Definicao 43. Seja C uma matriz de ordem s × k. O vector Cβ e estimavel se e
so se existe uma matriz W, de ordem s× n, tal que,
E[WY] = Cβ,
ou seja, se existe um estimador nao enviesado, WY, para Cβ.
Teorema 70. O vector Cβ e estimavel se e so se os vectores linha da matriz C
pertencerem a R (X′∗) .
Demonstracao. Ver [24] ou [44].
Apesar de β nao ser um estimador nao enviesado para β, pois
E[β]
= (X′∗X∗)+
(X′∗X∗)β = QR(X′∗)β (D.8)
se o vector Cβ for estimavel ja se verifica
E[Cβ]
= Cβ.
Tendo em conta a hipotese assumida da normalidade verifica-se que
Cβ ∼ N(Cβ, σ2C (X′∗X∗)
+C′)
D.2. Estimacao dos parametros do modelo 155
com V[Cβ]
= σ2C (X′∗X∗)+ C′.
Quando car(X) = k tem-se R(X′) = Rk, a solucao (D.7) e unica e qualquer sua
combinacao linear de β e estimavel. Verifica-se que,
β ∼ N(β, σ2 (X′∗X∗)
−1)
e,
Cβ ∼ N(Cβ, σ2C (X′∗X∗)
−1C′).
Teorema 71. Se Cβ e estimavel entao Cβ e um BLUE para Cβ, onde β e dado
por (D.7).
Demonstracao. ver [23] ou [24].
Uma vez determinado o estimador dos coeficientes de regressao podem definir-se
os respectivos resıduos ei∗ por
e∗ = Y∗ − Y∗
onde Y∗ = X∗β = QR(X∗)Y∗. O modelo ajustado tem a forma
Y∗ = X∗β.
Usando QR⊥(X∗) = In −QR(X∗) e (D.2) pode-se escrever e∗ em termos de Y∗ ou de
ε∗
e∗ = QR⊥(X∗)Y∗ = QR⊥(X∗)ε∗.
Verifica-se que
e∗ ∼ N(0, σ2QR⊥(X∗)
). (D.9)
Considere-se a soma dos quadrados dos resıduos (SQRE)
SQRE = ‖e∗‖2 = e′∗e∗
= Y′∗QR⊥(X∗)Y∗ = Y′∗Y∗ −Y′∗X∗β
= ε′∗QR⊥(X∗)ε∗.
156 D. Regressao Linear Multipla
Por (D.9), dado que car(QR⊥(X∗)
)= n− `, verifica-se que
SQRE ∼ σ2χ2n−`
pelo que
σ2 =SQRE
n− `(D.10)
e um estimador nao enviesado para σ2.
Como V−1 = GG′, ver [23] verifica-se que
X′∗X∗ = (G′X)′ (G′X) = X′V−1X
X′∗Y∗ = (G′X)′ (G′Y) = X′V−1Y
Y′∗Y∗ = (G′Y)′ (G′Y) = Y′V−1Y
Y′∗X∗ = (G′Y)′ (G′X) = Y′V−1X
Assim e possıvel reescrever β, V[β]
e SQRE em termos do modelo inicial, nao
dependendo as novas expressoes da matriz G,β = (X′V−1X)
+X′V−1Y
V[β]
= σ2 (X′V−1X)+
SQRE = Y′V−1Y −Y′V−1Xβ
D.3 Inferencia sobre os parametros do Modelo
Continuando a admitir que ε∗ ∼ N (0, σ2In) e atendendo a (D.8) e a (??) obtem-se
β ∼ N((
X′V−1X)+ (
X′V−1X)β, σ2
(X′V−1X
)+). (D.11)
Verifica-se ainda que
SQE = e′∗e∗ ∼ σ2χ2n−` (D.12)
D.3. Inferencia sobre os parametros do Modelo 157
e tambem que β e SQE sao independentes, ver [23] ou [24]. Utilizando o teorema
da factorizacao (ver anexo ) conclui-se facilmente que(β, SQE
)sao estatısticas
conjuntamente suficientes.
Considere-se uma matriz C, de ordem s×k e admita-se, ate ao final desta seccao,
que Cβ e um vector estimavel. Entao
Cβ ∼ N(Cβ, σ2C
(X′V−1X
)+C′)
(D.13)
logo
Q =(Cβ −Ca
)′ (C(X′V−1X
)+C′)+ (
Cβ −Ca)∼ σ2χ2
h,δ (D.14)
com parametro de nao centralidade
δ =(Cβ −Ca)′
(C (X′V−1X)
+C′)+
(Cβ −Ca)
σ2(D.15)
onde Ca e um vector de ordem s × 1 e car(C (X′V−1X)
+C′)
= h. Como β e
independente de SQE o mesmo acontece com Cβ e com Q, pelo que
F =n− `h
Q
SQE∼ Fh,n−`,δ.
Em particular para Cβ = Ca obtem-se
Q0 =(Cβ −Cβ
)′ (C(X′V−1X
)+C′)+ (
Cβ −Cβ)∼ σ2χ2
h
e portanto
F0 =n− `h
Q0
SQE∼ Fh,n−`. (D.16)
Os resultados apresentados permitem obter regioes de confianca e formular testes
de hipoteses relativamente aos parametros do modelo. Seja fh,n−`,1−α o quantil da
158 D. Regressao Linear Multipla
distribuicao F central com h e n− ` graus de liberdade para a probabilidade 1− α.
Atendendo a (D.16)
P[F0 ≤ fh,n−`,1−α] = P[Q0 ≤ hfh,n−`,1−α
SQE
n− `
]= 1− α
determinando a desigualdade
Q0 ≤ hfh,n−`,1−αSQE
n− `(D.17)
uma regiao de confianca para Cβ. Em particular se se verificar(C (X′V−1X)
+C′)+
=(C (X′V−1X)
+C′)−1
tem-se um elipsoide de confianca para Cβ com grau de con-
fianca 1− α, ver [44].
Admita-se que alem de serem estimaveis as componentes de Cβ sao funcoes
linearmente independentes 2. O teste de hipoteses
H0 : Aβ = Ca (D.18)
utiliza (D.16) rejeitando-se H0 se e so se o elipsoide de confianca (D.17) nao cobrir
Aβ = Ac, ou seja, rejeita-se H0 se e so se
Q0 > hfh,n−`,1−αSQE
n− `. (D.19)
Utilizando (D.17) pode-se obter um intervalo de confianca para uma funcao es-
timavel a′β. Tirando partido da relacao entre as distribuicoes t e F tem-se
T =a′β − a′β√
SQEn−` a′ (X′V−1X)+ a
∼ tn−` (D.20)
e neste caso o elipsoide de confianca reduz-se ao intervalo de confianca bilateral[aβ − tn−`,1−α
2
√SQE
n− `a′ (X′V−1X)+ a; aβ + tn−`,1−α
2
√SQE
n− `a′ (X′V−1X)+ a
]2 Se as componentes de Cβ sao linearmente independentes significa que as linhas da matriz A
sao linearmente independentes.
D.3. Inferencia sobre os parametros do Modelo 159
onde tn−`,1−α2
representa o quantil da distribuicao t com n − ` graus de liberdade
para a pobabilidade 1− α2. Os testes de hipoteses para a′β utilizam a estatıstica de
teste (D.20) rejeitando-se H0 no teste
H0 : a′β = a′c vs H1 : a′β 6= a′c (D.21)
se e so se |T | > tn−`,1−α2. Com as devidas alteracoes constroem-se os intervalos de
confianca unilaterais para c′β e os respectivos testes de hipoteses.
Caso car(X) = k tem-se R(X′) = Rk podendo construir-se elipsoides de con-
fianca para testar hipoteses relativas a qualquer vector Aβ, qualquer que seja a
matriz A.
Os resultados (D.10) e (D.12) permitem construir intervalos de confianca e rea-
lizar testes de hipoteses sobre o parametro σ2. Sendo χ2n−`;1−α
2e χ2
n−`;α2
os quantis
da distribuicao qui-quadrado com n − ` graus de liberdade, para a probabilidade
1 − α2
e α2
respectivamente, tem-se o intervalo de confianca para σ2, para um grau
de confianca 1− α [SQE
χ2n−`;1−α
2
;SQE
χ2n−`;α
2
].
Petendendo-se testar as hipoteses
H0 : σ2 = σ20 vs H1 : σ2 6= σ2
0
rejeita-se a hipotese nula se e so se
SQE
σ20
< χ2n−`;α
2ou
SQE
σ20
> χ2n−`;1−α
2
Com as devidas alteracoes constroem-se os intervalos de confianca unilaterais para
σ2 e os respectivos testes de hipoteses.
E importante referir o caso em que V[ε] = σ2In e car (X) = k. A hipotese sobre
a caracterıstica da matriz garante que X′X e regular tendo-se (X′X)+ = (X′X)−1 .
160 D. Regressao Linear Multipla
Neste caso a solucao unica do sistema (D.6) e
β = (X′X)−1
X′Y
com
β ∼ N(β, σ2 (X′X)
−1).
Tem-se tambem que
SQE ∼ σ2χ2n−k
e
σ2 =SQE
n− k.
E. EXEMPLO
Este anexo apresenta resultados que sao utilizados em exemplos que sao apresentados
ao longo do texto.
E.1 Vectores de G3[3]
Se p = N = 3, entao G[3] = 0, 1, 2, 3. O espaco linear G3[3] e constituıdo por 33 = 27
vectores que se apresentam na tabela seguinte.
0
0 1 2
1
0 1 2
2
0 1 2
0 (0,0,0) (0,0,1) (0,0,2) (0,1,0) (0,1,1) (0,1,2) (0,2,0) (0,2,1) (0,2,2)
1 (1,0,0) (1,0,1) (1,0,2) (1,1,0) (1,1,1) (1,1,2) (1,2,0) (1,2,1) (1,2,2)
2 (2,0,0) (2,0,1) (2,0,2) (2,1,0) (2,1,1) (2,1,2) (2,2,0) (2,2,1) (2,2,2)
Tab. E.1: Vectores de G3[3]
Os vectores dos coeficientes das aplicacoes reduzidas de L3r[3] estao a bold de
forma a facilitar a identificacao das respectivas aplicacoes.
Utilizando (4.8) os vectores de G3[3] ficam ordenados como se apresenta na tabela
seguinte.
162 E. Exemplo
0
0 1 2
1
0 1 2
2
0 1 2
0 x1 x10 x19 x4 x13 x22 x7 x16 x25
1 x2 x11 x20 x5 x14 x23 x8 x17 x26
2 x3 x12 x21 x6 x15 x24 x9 x18 x27
Tab. E.2: Ordem dos vectores de G3[3]
E.2 Aplicacoes lineares de L3[3]
Em L3[3] existem 33 = 27 aplicacoes lineares, das quais, m = 33−1
3−1= 13 sao reduzidas.
E.3. Matrizes associadas a aplicacoes de L3r[3] 163
aplicacoes reduzidas de L3[3] aplicacoes de L3
[3] nao reduzidas
`0
x1 2x1
x2 2x2
x1 + x2 2x1 + 2x2
x1 + 2x2 2x1 + x2
x3 2x3
x1 + x3 2x1 + 2x3
x2 + x3 2x2 + 2x3
x1 + x2 + x3 2x1 + 2x2 + 2x3
x1 + 2x2 + x3 2x1 + x2 + 2x3
x1 + 2x3 2x1 + x3
x2 + 2x3 2x2 + x3
x1 + x2 + 2x3 2x1 + 2x2 + x3
x1 + 2x2 + 2x3 2x1 + x2 + x3
Tab. E.3: Aplicacoes de L3[3]
E.3 Matrizes associadas a aplicacoes de L3r[3]
Nesta seccao indicam-se matrizes associadas, a algumas aplicacoes de L3r[3]. Tendo
em conta as tabelas
`(x) = x1
0
0 1 2
1
0 1 2
2
0 1 2
0 0 0 0 0 0 0 0 0 0
1 1 1 1 1 1 1 1 1 1
2 2 2 2 2 2 2 2 2 2
164 E. Exemplo
`(x) = x2
0
0 1 2
1
0 1 2
2
0 1 2
0 0 0 0 1 1 1 2 2 2
1 0 0 0 1 1 1 2 2 2
2 0 0 0 1 1 1 2 2 2
`(x) = x3
0
0 1 2
1
0 1 2
2
0 1 2
0 0 1 2 0 1 2 0 1 2
1 0 1 2 0 1 2 0 1 2
2 0 1 2 0 1 2 0 1 2
`(x) = x1 + 2x2
0
0 1 2
1
0 1 2
2
0 1 2
0 0 0 0 2 2 2 1 1 1
1 1 1 1 0 0 0 2 2 2
2 2 2 2 1 1 1 0 0 0
e por (4.11) obtem-se as matrizes C(x1), C(x2), C(x3) e C(x1 +2x2), do tipo 3×27,
cujas colunas estao associadas aos vectores de G3[3], ordenados como se apresenta na
tabela E.2.
E.3. Matrizes associadas a aplicacoes de L3r[3] 165
C(x
1)
=
10
01
00
10
01
00
10
01
00
10
01
00
10
0
01
00
10
01
00
10
01
00
10
01
00
10
01
0
00
10
01
00
10
01
00
10
01
00
10
01
00
1
C(x
2)=
11
10
00
00
01
11
00
00
00
11
10
00
00
0
00
01
11
00
00
00
11
10
00
00
01
11
00
0
00
00
00
11
10
00
00
01
11
00
00
00
11
1
C(x
3)=
11
11
11
11
10
00
00
00
00
00
00
00
00
0
00
00
00
00
01
11
11
11
11
00
00
00
00
0
00
00
00
00
00
00
00
00
00
11
11
11
11
1
C(x
1+
2x2)=
10
00
10
00
11
00
01
00
01
10
00
10
00
1
01
00
01
10
00
10
00
11
00
01
00
01
10
0
00
11
00
01
00
01
10
00
10
00
11
00
01
0
..
166 E. Exemplo
F. DISTRIBUICOES GAMA, GAMA INTEIRA GENERALIZADA
E GAMA QUASE-INTEIRA GENERALIZADA
F.1 Distribuicao Gama
Se a variavel aleatoria X tem densidade dada por
fX(x) =λr
Γ(r)e−λxxr−1, x > 0
diz-se que X tem distribuicao Gama com parametro de forma r > 0 e taxa λ > 0 e
representa-se por
X ∼ Γ (r, λ) .
F.2 Distribuicao Gama Inteira Generalizada
Sejam X1, ..., Xp variaveis aleatorias independentes com
Xj ∼ Γ (rj, λj) , rj ∈ N, λj ∈ R+ (j = 1, ..., p)
com λi 6= λj, para todo i, j = 1, ..., p. Entao a variavel aleatoria
Y =
p∑j=1
Xj
tem distribuicao Gama Inteira Generalizada (GIG) de profundidade p, com parametros
de forma rj e taxas λj, j = 1, ..., p, ver [6]. Simbolicamente
Y ∼ GIG (r1, ..., rp;λ1, ..., λp; p) .
168 F. Distribuicoes Gama, Gama Inteira Generalizada e Gama Quase-Inteira Generalizada
A funcao densidade e a funcao de distribuicao de Y sao dadas, para y > 0, respec-
tivamente por,
fGIGY (y|r1, ..., rp;λ1, ..., λp; p) = K
p∑j=1
(rj∑k=1
cjkyk−1
)e−λjy
e
FGIGY (y|r1, ..., rp;λ1, ..., λp; p) = 1−K
p∑j=1
(rj∑k=1
cjk(k − 1)!k−1∑i=0
yi
i!λk−ij
)e−λjy
onde K e dado por (5) em [6] e cjk sao dados por (11)-(13) na mesma referencia.
F.3 Distribuicao Gama Quase-Inteira Generalizada
Sejam Y e X variaveis aleatorias independentes, tais que,
Y ∼ GIG (r1, ..., rp;λ1, ..., λp; p) e X ∼ Γ (r, λ)
com r ∈ R+ \ N e λ 6= λj para todo j ∈ 1, ..., p. Entao a variavel aleatoria
W = Y +X
tem distribuicao Gama Quase-Inteira Generalizada (GNIG) de profundidade p+ 1,
ver [5],
W ∼ GNIG (r, r1, ..., rp;λ, λ1, ..., λp; p+ 1) .
A funcao densidade e a funcao de distribuicao de W sao dadas, para w > 0, respec-
tivamente por,
fGIGW (w|r1, ..., rp, r;λ1, ..., λp, λ; p+ 1) =
= Kλrp∑j=1
e−λjwrj∑k=1
(cjk
Γ(k)
Γ(k + r)wk+r−1
1F1 (r, k + r,−(λ− λj)w)
)
F.4. Misturas de Distribuicoes 169
e
FGIGW (w|r1, ..., rp, r;λ1, ..., λp, λ; p+ 1) =
λrwr
Γ(r + 1)1
F1 (r, r + 1,−λw)
−Kλrp∑j=1
e−λjwrj∑k=1
c∗jk
k−1∑i=0
wr+iλijΓ(r + 1 + i)
1F1 (r, k + r,−(λ− λj)w)
onde K e dado por (5) em [6] e cjk =cjkλkj
Γ(k) com cjk dados por (11)-(13) na mesma
referencia.
Se r ∈ N a distribuicao GNIG de profundidade p+ 1 reduz-se a uma disribuicao
GIG de profundidade p + 1. Pode-se considerar a distribuicao GNIG como uma
generalizacao da distribuicao GIG.
F.4 Misturas de Distribuicoes
Diz-se que a distribuicao da variavel aleatoria contınua X e uma mistura com k
componentes se a sua funcao densidade fX(x) puder ser escrita na forma
fX(x) =k∑j=1
πjfj(x)
onde fj(x) sao as funcoes densidade componentes da mistura e πj os pesos da mis-
tura, comk∑j=1
πj = 1 e 0 < πj < 1, j = 1, ..., k.