1
1
Livro: Introdução à Álgebra LinearAutores: Abramo Hefez
Cecília de Souza Fernandez
Capítulo 1: Sistemas Lineares e Matrizes
Sumário
1 O que é Álgebra Linear? . . . . . . . . . . . . . . . 2
1.1 Corpos . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Espaços Vetoriais . . . . . . . . . . . . . . . . . . . 4
1.3 Sistemas de Equações Lineares . . . . . . . . . . . 9
2 Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.1 A De�nição de Matriz . . . . . . . . . . . . . . . . 14
2.2 Operações com Matrizes . . . . . . . . . . . . . . . 16
2.3 Matriz Inversa . . . . . . . . . . . . . . . . . . . . 23
2 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES
1 O que é Álgebra Linear?
Os espaços em que trabalharemos são os Rn, com n ≥ 2, isto é, o produto
cartesiano de n cópias da reta real R. Para n ≥ 4, este espaço generaliza
o espaço R2 dos vetores do plano e o espaço R3 dos vetores no espaço. A
diferença crucial entre os casos n = 2 e n = 3 e os casos em que n ≥ 4
é que, para estes últimos, não se dispõe de uma representação geométrica.
O fato não diminui a importância desses espaços, pois basta pensar que o
R4 é o espaço-tempo da Física, em que os pontos são quaternos (x, y, z, t),
com as três primeiras coordenadas representando a posição no espaço de uma
partícula ideal e a última representando o instante t em que esta partícula
ocupa tal posição. Por não existir uma representação geométrica para os
pontos de Rn com n ≥ 4, seremos obrigados a tratá-los algebricamente, sem
o recurso da visualização geométrica, tão fundamental em R2 e R3.
Portanto, trataremos os elementos de Rn como vetores, onde a soma de
dois vetores (x1, x2, . . . , xn) e (y1, y2, . . . , yn) é dada por
(x1, x2, . . . , xn) + (y1, y2, . . . , yn) = (x1 + y1, x2 + y2, . . . , xn + yn),
e a multiplicação do vetor (x1, x2, . . . , xn) pelo número real a, chamado de
escalar, é de�nida por
a(x1, x2, . . . , xn) = (ax1, ax2, . . . , axn).
Os espaços Rn são utilizados de modo essencial em quase todos os ramos
do conhecimento e, por este motivo, são estudados em Matemática sob os
mais variados pontos de vista e com as mais diversas estruturas. Por exem-
plo, no Cálculo Diferencial, são considerados como espaços normados; em
Geometria, como espaços com produto interno.
A estrutura de Rn estudada em Álgebra Linear é a induzida pela estrutura
de corpo da reta real R. Essa é a estrutura mínima apropriada para se estudar
sistemas de equações lineares com várias incógnitas. Além disso, é aquela
sobre a qual se constroem o Cálculo Diferencial e a Geometria Diferencial,
entre outros.
1. O QUE É ÁLGEBRA LINEAR? 3
Como a estrutura de corpo de R desempenhará papel fundamental, vamos
de�nir formalmente este conceito.
1.1 Corpos
Um conjunto K será chamado de corpo se for munido de uma operação
de adição (+) e uma operação de multiplicação (×), veri�cando as condições
a seguir.
A1 A adição é associativa:
(a+ b) + c = a+ (b+ c), para todos a, b, c ∈ K.
A2 A adição é comutativa:
a+ b = b+ a, para todos a, b ∈ K.
A3 A adição possui elemento neutro:
existe 0 ∈ K, tal que a+ 0 = a, para todo a ∈ K.
A4 A adição possui simétricos:
para todo a ∈ K, existe −a ∈ K tal que a+ (−a) = 0.
M1 A multiplicação é associativa:
(a× b)× c = a× (b× c), para todos a, b, c ∈ K.
M2 A multiplicação é comutativa:
a× b = b× a, para todos a, b ∈ K.
M3 A multiplicação possui elemento neutro:
existe 1 ∈ K \ {0}, tal que a× 1 = a, para todo a ∈ K.
M4 A multiplicação possui inversos:
para todo a ∈ K \ {0}, existe a−1 ∈ K tal que a× a−1 = 1.
AM A multiplicação é distributiva com relação à adição:
a× (b+ c) = a× b+ a× c, para todos a, b, c ∈ K.
Portanto, são corpos os conjuntos Q, R e C, com as suas respectivas
adições e multiplicações.
A operação de multiplicação em um corpo muitas vezes é denotada por
(·), escrevendo a · b, ou mesmo ab, no lugar de a× b, notação que adotaremos
ao longo deste livro.
4 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES
Existem exemplos de corpos que à primeira vista parecem exóticos, como
o corpo de Galois1 F2, que consiste dos dois elementos 0 e 1 com as seguintes
operações:
+ 0 1
0 0 1
1 1 0
× 0 1
0 0 0
1 0 1
Note que este é o corpo com o menor número possível de elementos,
pois todo corpo deve possuir os dois elementos distintos 0 e 1. Apesar de
parecerem apenas curiosidades, os corpos com um número �nito de elementos
têm as mais variadas aplicações em quase toda a Matemática e são essenciais
na tecnologia e na computação.
1.2 Espaços Vetoriais
Os espaços Rn, por serem constituídos por vetores que podem ser soma-
dos e multiplicados por escalares, como vimos antes, são chamados espaços
vetoriais.
Como os espaços vetoriais são os objetos principais de estudo da Álgebra
Linear, vamos de�ni-los formalmente a seguir.
Um conjunto V será dito um espaço vetorial sobre um corpo K, se possui
uma adição (+) com as mesmas propriedades da adição em um corpo; ou
seja,
A1 A adição é associativa:
(u+ v) + w = u+ (v + w), para todos u, v, w ∈ V .
A2 A adição é comutativa:
u+ v = v + u, para todos u, v ∈ V .
A3 A adição possui elemento neutro (elemento zero):
existe 0 ∈ V , tal que v + 0 = v, para todo v ∈ V .
1Em homenagem a Évariste Galois (França, 1811-1832), considerado um dos grandes
gênios da Matemática.
1. O QUE É ÁLGEBRA LINEAR? 5
A4 A adição possui simétricos:
para todo v ∈ V , existe −v ∈ V tal que v + (−v) = 0.
E além disso, existe uma operação chamada de multiplicação por escalar, que
associa a um elemento a ∈ K e a um elemento v ∈ V , um elemento av ∈ V ,
tal que
ME1 a(u+ v) = au+ av, para todos a ∈ K e u, v ∈ V .
ME2 (a1 + a2)v = a1v + a2v, para todos a1, a2 ∈ K e v ∈ V .
ME3 (a1a2)v = a1(a2v), para todos a1, a2 ∈ K e v ∈ V .
ME4 1v = v, para todo v ∈ V .
Os elementos de V serão chamados de vetores e os elementos de K de
escalares. Assim, o elemento 0 de V será chamado de vetor nulo e o elemento
−v de vetor oposto de v.
O primeiro matemático a dar uma de�nição abstrata para um espaço
vetorial foi Giuseppe Peano (Itália, 1858 - 1932) em seu livro Calcolo Geo-
metrico, de 1888. No Capítulo IX, Peano dá uma de�nição do que ele chama
de um sistema linear. Para Peano, um sistema linear consistia de quantidades
com operações de adição e multiplicação por escalar. A adição deveria satis-
fazer as leis comutativa e associativa, enquanto a multiplicação por escalar
deveria satisfazer duas leis distributivas, uma lei associativa e a lei de que
1 · v = v para toda quantidade v. Além disso, Peano incluiu como parte de
seu sistema de axiomas a existência de uma quantidade 0 (zero) satisfazendo
v + 0 = v, para todo v, assim como v + (−1)v = 0 para todo v. Peano
também de�niu a dimensão de um sistema linear como o máximo número de
quantidades linearmente independentes do sistema (veja esta noção na Seção
2 do Capítulo 3). Peano veri�cou que o conjunto das funções polinomiais em
uma variável forma um sistema linear, mas não existia um tal número má-
ximo de quantidades linearmente independentes, portanto, a dimensão deste
sistema deveria ser in�nito.
O fato a seguir decorre da de�nição de espaço vetorial. Para a ∈ K e
6 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES
v ∈ V , tem-se que
a = 0 ou v = 0 ⇐⇒ av = 0.
De fato, sejam a ∈ K e 0 ∈ V . Como 0 + 0 = 0, pela propriedade ME1,
segue-se que
a 0 = a(0 + 0) = a 0 + a 0.
Somando o simétrico −a 0 de a 0 a ambos os lados da igualdade acima e
utilizando as propriedades A4, A1 e A3, temos que
0 = a 0 + (−a 0) = (a 0 + a 0) + (−a 0) = a 0 + [a 0 + (−a 0)] = a 0 + 0 = a 0.
De modo semelhante, mostra-se (faça-o) que para 0 ∈ K e v ∈ V tem-se
0 v = 0, onde o elemento 0 da direita é o elemento zero de V .
Reciprocamente, suponhamos que av = 0 e a 6= 0, então, multiplicando
ambos os lados da igualdade acima pelo escalar a−1, temos que
0 = a−10 = a−1(av) = (a−1a)v = 1v = v.
Dois vetores u e v em um espaço vetorial V serão ditos colineares, se
existir um elemento a em K tal que v = au. Portanto, são colineares os
vetores u e au, para todo a ∈ K. Note que o vetor 0 é colinear com qualquer
vetor v, pois 0 = 0v.
É um exercício fácil mostrar que Rn é um espaço vetorial sobre o corpo
R, com as operações de adição de vetores e a multiplicação por escalares
que de�nimos anteriormente, onde o elemento zero é o vetor (0, 0, . . . , 0) e o
simétrico de (x1, x2, . . . , xn) é o vetor
−(x1, x2, . . . , xn) = (−x1,−x2, . . . ,−xn).
Observe que não há nada de especial sobre os reais, além de sua estrutura
de corpo para que Rn seja um espaço vetorial sobre R. Mais geralmente,
dado um corpo qualquer K, o espaço Kn é um espaço vetorial sobre K, com
1. O QUE É ÁLGEBRA LINEAR? 7
operações semelhantes às de adição de vetores e de multiplicação de vetores
por escalares que de�nimos no caso em que K = R.Por exemplo, os espaços vetoriais Fn
2 sobre F2, por mais inócuos que
possam parecer, são de extrema utilidade em várias aplicações, dentre elas
na construção de códigos corretores de erros (veja a referência [3] para maiores
detalhes sobre esta teoria).
Outros exemplos importantes de espaços vetoriais são os espaços R e Csobre o corpo Q e o espaço C sobre o corpo R.
Como sucede com frequência em Matemática, ao introduzir um conceito
para lidar com determinado problema, cria-se um instrumento que muitas
vezes transcende o problema inicial e se constitui em um conceito central em
vários outros contextos. Isto ocorreu com a noção de espaço vetorial, que
inicialmente foi introduzida para tratar de alguns tipos de problemas em Rn,
como a resolução de sistemas de equações lineares cuja discussão iniciaremos
na próxima subseção, e se desenvolveu em uma teoria com vida própria.
Pode-se sinteticamente dizer que a Álgebra Linear é a parte da Matemática
que se dedica ao estudo dos espaços vetoriais e de certas funções entre esses
espaços, chamadas de transformações lineares.
Embora muitas das ferramentas básicas da Álgebra Linear, particular-
mente as que estão relacionadas com sistemas lineares, datem da antigui-
dade, o assunto começou a tomar sua forma atual em meados dos século
XIX. A partir desta época, muitas noções estudadas em séculos anteriores
foram abstraídas e muitos métodos generalizados.
A Álgebra Linear tem várias aplicações fora da Matemática. Por exemplo,
citamos a teoria da relatividade e a mecânica quântica na Física e a teoria
de análise de regressão na Estatística.
A seguir, daremos alguns exemplos diferentes de Rn para ilustrar situações
onde aparecem os espaços vetoriais e que, muitas vezes, quando tratadas
dessa forma ganham clareza.
Exemplo 1 O conjunto das funções de um conjunto não vazio A em Rforma um espaço vetorial sobre R, onde a soma é a soma usual de funções
8 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES
com valores reais
(f + g)(x) = f(x) + g(x), para todo x ∈ A,
e a multiplicação de uma função f por um escalar a ∈ R é de�nida como
sendo
(a f)(x) = a f(x), para todo x ∈ A.
Em particular, se I = [a, b] é um intervalo em R, sabe-se do Cálculo Dife-
rencial e Integral que o conjunto das funções contínuas, bem como o conjunto
das funções integráveis, de I em R, são espaços vetoriais sobre R.
Exemplo 2 De acordo com o Exemplo 1, o conjunto S das sequências de
números reais, isto é, o conjunto das funções de N \ {0} em R é um espaço
vetorial sobre R. É fácil veri�car (leitor, faça-o) que o conjunto R(a, b) dassequências (un) em S que satisfazem a recorrência
un+1 = aun + bun−1, n ≥ 2,
onde a e b são dois números reais �xados, é um espaço vetorial sobre R. Emparticular, o conjunto R(1, 1), que contém a sequência de Fibonacci2 (aquela
para a qual u1 = u2 = 1), é um espaço vetorial. Veremos no Capítulo 5
como esta informação nos ajudará a achar todas as sequências em R(1, 1),determinando suas fórmulas fechadas.
Exemplo 3 (Peano) O conjunto K[x] dos polinômios com coe�cientes em
um corpo K forma um espaço vetorial sobre K. Para n ∈ N, os conjuntos
K[x]n = {p(x) ∈ K[x] ; grau(p(x)) ≤ n} ∪ {0}
também são espaços vetoriais sobre K. Em particular, o conjunto
R[x]2 = {a0 + a1x+ a2x2; a0, a1, a2 ∈ R}
é um espaço vetorial sobre R.2Apelido de Leonardo de Pisa (Itália, ∼ 1170 - ∼ 1250). Foi o primeiro grande mate-
mático europeu da Idade Média.
1. O QUE É ÁLGEBRA LINEAR? 9
1.3 Sistemas de Equações Lineares
Desde a antiguidade, em diversas áreas do conhecimento, muitos pro-
blemas são modelados matematicamente por sistemas de equações lineares.
Damos a seguir um exemplo de sistema de equações lineares:{x+ y = 36
x− y = 2,(1)
onde se subentende que estamos buscando dois números reais cuja soma
vale 36 e cuja diferença vale 2. Portanto, as soluções procuradas podem ser
representadas por pares de números reais (a, b) tais que, se substituírmos x
por a e y por b, nas equações, elas se tornam igualdades de fato. Por exemplo,
o par (x, y) = (19, 17) é uma solução, pois obtemos as igualdades:{19 + 17 = 36
19− 17 = 2.
Os sistemas com duas equações lineares, como o acima, já eram consi-
derados pelos babilônios por volta de 1800 a.C. e resolvidos por um método
que chamamos hoje de método de eliminação gaussiana3.
Por exemplo, para resolver o sistema de equações (1), ao somarmos a
segunda equação à primeira, o transformamos no �sistema equivalente�,{2x = 38
x− y = 2,
que seguimos transformando até obtermos um sistema onde as soluções são
trivialmente encontradas:{2x = 38
x− y = 2⇔
{x = 19
x− y = 2⇔
{x = 19
x− y − x = 2− 19⇔
{x = 19
y = 17.
3Em homenagem a Carl Friedrich Gauss (Alemanha, 1777 - 1855), considerado um dos
maiores matemáticos de todos os tempos.
10 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES
Esse método será generalizado e sistematizado para sistemas de equações
lineares com m equações e n incógnitas do tipoa11x1 + a12x2 + · · ·+ a1nxn = b1
a21x1 + a22x2 + · · ·+ a2nxn = b2...
am1x1 + am2x2 + · · ·+ amnxn = bm ,
(2)
onde os aij's e os bi's, para 1 ≤ i ≤ m e 1 ≤ j ≤ n, são números reais dados,
ou, mais geralmente, elementos de um corpo K dado.
Seja
S = {(c1, c2, . . . , cn) ∈ Rn ; ai1c1 + ai2c2 + · · ·+ aincn = bi, 1 ≤ i ≤ m}.
Esse subconjunto de Rn é chamado de conjunto solução do sistema (2). É
precisamente este conjunto que queremos determinar ou descrever o mais
explicitamente possível.
Note que para resolver o sistema (1), do exemplo acima, o modi�camos
gradativamente, por meio de uma sequência de transformações elementares,
em um sistema mais simples de resolver, onde por transformação elementar
de um sistema entendemos uma das seguintes transformações:
1) Trocar a posição relativa de duas equações do sistema;
2) Trocar uma equação pela soma membro a membro da própria equação
com um múltiplo de outra;
3) Trocar uma equação dada por um de seus múltiplos (i.e., a equação obtida
multiplicando ambos os membros da equação dada por um número real não
nulo).
Diremos que dois sistemas de equações lineares são sistemas equivalentes,
se pudermos obter um sistema do outro a partir de uma sequência �nita de
transformações elementares.
Esta relação entre sistemas é efetivamente uma relação de equivalência.
De fato, ela é claramente re�exiva, pois basta multiplicar uma das equações
1. O QUE É ÁLGEBRA LINEAR? 11
do sistema por 1; é transitiva, pois basta concatenar uma sequência de trans-
formações elementares com uma outra; e é simétrica, pois podemos desfazer
uma transformação elementar com outra.
Assim, é imediato veri�car que:
Sistemas de equações lineares equivalentes possuem mesmo conjunto solução.
Dentre os sistemas de equações lineares, ocupam lugar de destaque os
sistemas homogêneos, ou seja, aqueles sistemas como em (2), porém com os
bi's todos nulos: a11x1 + a12x2 + · · ·+ a1nxn = 0
a21x1 + a22x2 + · · ·+ a2nxn = 0...
am1x1 + am2x2 + · · ·+ amnxn = 0.
(3)
Esses sistemas possuem peculiaridades não compartilhadas pelos sistemas
mais gerais. Por exemplo, o vetor (0, 0, . . . , 0) pertence ao conjunto Sh de
soluções do sistema. Além disso, se os vetores u = (c1, c2, . . . , cn) e u′ =
(c′1, c′2, . . . , c
′n) são soluções do sistema, e se a ∈ R, então os vetores
u+ u′ = (c1 + c′1, c2 + c′2, . . . , cn + c′n) e au = (ac1, ac2, . . . , acn)
também são soluções do sistema (3) (leitor, veri�que).
Assim, resulta que o espaço Sh das soluções do sistema (3) é um espaço
vetorial sobre R De fato, as propriedades A1 e A2 da de�nição são satisfeitas
para todos os vetores de Rn e em particular para os de Sh. Por outro lado,
(0, 0, . . . , 0) ∈ Sh e se (c1, c2, . . . , cn) ∈ Sh, então
−1(c1, c2, . . . , cn) = (−c1,−c2, . . . ,−cn) ∈ Sh,
o que mostra que a adição em Sh possui também as propriedades A3 e A4.
Além disso, as propriedades ME1�ME4 da multiplicação por escalar são fa-
cilmente veri�cadas para Sh.
Note que o que há de essencial em um sistema de equações lineares
(2) são os coe�cientes das equações que o formam além dos números que
12 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES
compõem os segundos membros das equações. Consideremos os vetores
(ai1, ai2, . . . , ain, bi) de Rn+1 que representam os coe�cientes das equações do
sistema (2) acrescidos dos segundos membros e os organizemos como linhas
de uma tabela, chamada de matriz ampliada do sistema (2), como segue:a11 a12 · · · a1n b1
a21 a22 . . . a2n b2...
......
...
am1 am2 · · · amn bm
. (4)
Quando o sistema de equações é homogêneo, a ele associamos a matriza11 a12 · · · a1n
a21 a22 . . . a2n...
......
am1 am2 · · · amn
,
eliminando a coluna de zeros da direita na matriz (4).
As matrizes surgiram por volta do ano 200 a.C. com os chineses, motiva-
dos pelo interesse em calcular soluções de sistemas com mais de quatro equa-
ções lineares. De fato, no Capítulo 8 do texto intitulado Jiuzhang suanshu, de
autor desconhecido, que signi�ca �Nove capítulos sobre a Arte Matemática" ,
�ca claro que o procedimento de resolução de sistemas lineares usado pelos
chineses é semelhante ao método de escalonamento, que discutiremos ainda
neste capítulo, e é apresentado na forma de matrizes. Cabe observar que os
chineses só consideravam sistemas lineares com o mesmo número de equa-
ções e incógnitas, não constando em seus escritos o motivo desses sistemas
produzirem sempre uma única solução e como o algoritmo chinês funcionava.
Problemas
1.1 Veri�que que o conjunto das funções de um conjunto não vazio A nos
reais é um espaço vetorial sobre R, com as operações de�nidas no Exemplo
1. O QUE É ÁLGEBRA LINEAR? 13
1. Veri�que também que, para cada par de números reais (a, b), o conjunto
das recorrências R(a, b), de�nido no Exemplo 2, é um espaço vetorial sobre
R.
1.2 Seja v um elemento não nulo de um espaço vetorial V sobre R. Mostre
que é injetora a função
R → V
t 7→ tv.
1.3 Sejam v1 e v2 elementos de um espaço vetorial V sobre R. Mostre que a
função
R2 → V
(a1, a2) 7→ a1v1 + a2v2
é injetora se, e somente se, v1 e v2 não são colineares.
1.4 Diga, em cada caso, por que o conjunto com as operações indicadas não
satisfaz à de�nição de espaço vetorial, onde a ∈ R.
a) R2, com as operações:
(x, y) + (x′, y′) = (x+ x′, y + y′) e a(x, y) = (3ax, 3ay).
b) R2, com as operações:
(x, y) + (x′, y′) = (xx′, yy′) e a(x, y) = (ax, 0).
c) R3, com as operações:
(x, y, z) + (x′, y′, z′) = (0, 0, 0) e a(x, y, z) = (ax, ay, az).
1.5 Sejam U e W dois espaços vetoriais sobre um corpo K. Considere o
produto cartesiano V = U ×W desses dois conjuntos. De�na as seguintes
operações em V :
(u1, w1) + (u2, w2) = (u1 + u2, w1 + w2) e a(u1, w1) = (au1, aw1),
onde u1, u2 ∈ U , w1, w2 ∈ W e a ∈ K. Mostre que V com as operações de
adição e de mutiplicação por escalar, acima de�nidas, é um espaço vetorial
sobre K. Este espaço vetorial é chamado de espaço produto de U por W .
14 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES
2 Matrizes
As matrizes são ferramentas básicas da Álgebra Linear, pois além de for-
necerem meios para a resolução dos sistemas de equações lineares, elas tam-
bém representarão as transformações lineares entre espaços vetoriais, como
veremos no Capítulo 6.
2.1 A De�nição de Matriz
Dados m e n em N \ {0}, de�nimos uma matriz real de ordem m por n,
ou simplesmente uma matriz m por n (escreve-se m× n), como uma tabela
formada por elementos de R distribuídos em m linhas e n colunas. Estes
elementos de R são chamados entradas da matriz4. Por exemplo, a matriz
[3] é uma matriz 1× 1, ao passo que[2 1 0
−1 −2 4
]
é uma matriz 2×3. As entradas da primeira linha da matriz são dadas pelos
números reais 2, 1 e 0 e as entradas da segunda linha da matriz são dadas
pelos números reais −1, −2 e 4.
É usual indicarmos as entradas de uma matriz arbitrária A pelos sím-
bolos Aij, ou ainda aij , onde os índices indicam, nessa ordem, a linha e a
coluna onde o elemento se encontra. Assim, uma matriz m×n é usualmente
representada por
A =
a11 a12 . . . a1n
a21 a22 . . . a2n...
......
am1 am2 . . . amn
,
4As entradas de uma matriz não precisam ser necessariamente números reais, podem
ser números complexos ou, mais geralmente, elementos de um corpo K.
2. MATRIZES 15
ou por A = [aij]m×n , ou simplesmente por A = [aij], quando a ordem da
matriz estiver subentendida. O símbolo M(m,n) denota o conjunto das
matrizes m× n.
Dependendo dos valores de m e n, uma matriz m × n recebe um nome
especial. De fato, toda matriz 1× n é chamada de uma matriz linha e toda
matriz m×1 é chamada de uma matriz coluna. Uma matriz n×n é chamada
de matriz quadrada de ordem n. Por exemplo, a matriz[1 −3 1 0 4
]é uma matriz linha de ordem 1× 5 e a matriz2 −1 0
0 1 2
3 1 4
é uma matriz quadrada de ordem 3.
Se A = [aij] é uma matriz quadrada de ordem n, as entradas aii , com
1 ≤ i ≤ n, formam a diagonal principal de A.
Uma matriz diagonal de ordem n é uma matriz quadrada de ordem n em
que os elementos que não pertencem à diagonal principal são iguais a zero:a11 0 . . . 0
0 a22 . . . 0...
......
0 0 . . . ann
.
A matriz diagonal de ordem n cujas entradas da diagonal principal são
iguais ao número real 1, 1 0 . . . 0
0 1 . . . 0...
......
0 0 . . . 1
,
é chamada matriz identidade de ordem n e denotada usualmente por In. Em
alguns casos, representaremos por simplicidade In apenas por I.
16 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES
Uma matriz triangular superior de ordem n é uma matriz quadrada de
ordem n em que todos os elementos abaixo da diagonal principal são iguais
a zero: a11 a12 . . . a1n
0 a22 . . . a2n...
......
0 0 . . . ann
.
Portanto, uma matriz quadrada A = [aij] de ordem n é triangular superior
se aij = 0 sempre que i > j.
Analogamente, uma matriz triangular inferior de ordem n é uma matriz
quadrada de ordem n em que todos os elementos acima da diagonal principal
são iguais a zero: a11 0 . . . 0
a21 a22 . . . 0...
......
an1 an2 . . . ann
.
Portanto, uma matriz quadrada A = [aij] de ordem n é triangular inferior se
aij = 0 sempre que i < j.
Uma matriz m × n cujas entradas são todas iguais a zero é chamada de
uma matriz nula. Por exemplo, a matriz[0 0 0
0 0 0
]
é uma matriz nula de ordem 2× 3.
2.2 Operações com Matrizes
Dizemos que duas matrizes A = [aij]m×n e B = [bij]m×n, de mesma ordem,
são iguais, escrevendo A = B, quando aij = bij para todo 1 ≤ i ≤ m e para
todo 1 ≤ j ≤ n.
2. MATRIZES 17
Por exemplo, se x e y denotam números reais, temos que as matrizes[x 0
1 y
]e
[−1 0
1 2
]são iguais quando x = −1 e y = 2.
De�nimos a seguir uma operação de adição no conjunto M(m,n) das
matrizes m× n.
Se A = [aij] e B = [bij] são duas matrizes de mesma ordem m × n, a
soma de A e B, denotada A + B, é a matriz C = [cij] de ordem m× n tal
que cij = aij + bij para todo 1 ≤ i ≤ m e para todo 1 ≤ j ≤ n.
Por exemplo,[2 3 −10 −2 1
]+
[−2 −3 1
0 2 −1
]=
[0 0 0
0 0 0
].
Dada uma matriz A = [aij], de�ne-se a matriz oposta de A, como a matriz
−A = [−aij].A adição de matrizes tem propriedades semelhantes à adição nos números
reais, ou à adição de elementos em espaços vetoriais, como mostra o resultado
a seguir.
Proposição 1.2.1. Se A, B e C são matrizes de mesma ordem, então :
(i) A+ (B + C) = (A+B) + C (associatividade da adição);
(ii) A+B = B + A (comutatividade da adição);
(iii) A+ 0 = A, onde 0 denota a matriz nula m× n (elemento neutro);
(iv) A+ (−A) = 0.
Demonstração As propriedades acima decorrem diretamente das de�ni-
ções de igualdade e adição de matrizes. Por esta razão, provaremos apenas
o item (i) e deixaremos (ii), (iii) e (iv) como exercício (veja Problema 2.5).
(i): Se A = [aij], B = [bij] e C = [cij], então
A+ (B + C) = [aij] + [bij + cij] = [aij + (bij + cij)] =
[(aij + bij) + cij] = [aij + bij] + [cij] = (A+B) + C,
18 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES
onde usamos a associatividade da adição de números reais. �
Uma outra operação importante com matrizes é a multiplicação por es-
calar. Dada a matriz A = [aij]m×n, de�nimos o produto de A pelo número
real a, como aA = [aaij]m×n.
Por exemplo,
−3
2 0
1 1
0 −1
=
−6 0
−3 −30 3
.
Tendo de�nido as operações de adição e multiplicação por escalar em
M(m,n), de�nimos a operação de subtração da maneira usual: dada as
matrizes A e B emM(m,n),
A−B = A+ (−B).
Proposição 1.2.2. As seguintes propriedades se veri�cam para quaisquer A
e B ∈M(m,n), e a, a′ ∈ R:
(i) a(A+B) = aA+ aB;
(ii) (a+ a′)A = aA+ a′A;
(iii) a(a′A) = (aa′)A;
(iv) 1A = A.
Demonstração Provaremos apenas (i) e deixaremos a demonstração das
demais propriedades ao leitor (veja Problema 2.5).
(i): De fato, sejam A = [aij], B = [bij] elementos deM(m,n) e a um elemento
de R, então
a(A+B) = a[aij + bij] = [a(aij + bij)] = [aaij + abij] =
[aaij] + [abij] = a[aij] + a[bij] = aA+ aB,
onde usamos a distributividade da multiplicação em relação à adição de nú-
meros reais. �
2. MATRIZES 19
Assim, com as Proposições 1.2.1 e 1.2.2, provamos que o conjuntoM(m,n)
é um espaço vetorial sobre R.
O conjunto das matrizes tem uma estrutura muito mais rica do que a de
simples espaço vetorial, obtida com a noção de produto de matrizes, noção
esta, fundamental para a resolução de sistemas de equações lineares com o
uso de matrizes.
Nosso próximo objetivo é, portanto, de�nir a multiplicação de matrizes e
mostrar algumas de suas propriedades. A de�nição de produto de matrizes
foi apresentada por Arthur Cayley (Inglaterra, 1821-1895), no trabalho inti-
tulado �A Memoir on the Theory of Matrices�, publicado em 1858 na revista
Philosophical Transactions of the Royal Society of London. Neste trabalho,
Cayley notou que a multiplicação de matrizes, como foi de�nida, simpli�ca
em muito o estudo de sistemas de equações lineares. Também observou que
esta multiplicação deixava de apresentar propriedades importantes, como a
comutatividade e a lei do corte, e que uma matriz não nula não é necessaria-
mente invertível.
Sejam A = [aij]m×n e B = [bij]n×p duas matrizes. De�nimos o produto
AB de A por B, denotado por AB, como a matriz C = [cij]m×p tal que
cij =n∑
k=1
aik bkj = ai1 b1j + · · ·+ ain bnj
para todo 1 ≤ i ≤ m e para todo 1 ≤ j ≤ p.
Vamos explicar esta fórmula para obter o elemento da matriz AB que se
encontra na i-ésima linha e j-ésima coluna:
Na matriz A, destaque a i-ésima linha, e na matriz B, a j-ésima coluna.
Feito isto, multiplique ordenadamente o primeiro elemento da linha com o
primeiro elemento da coluna, o segundo elemento da linha com o segundo
elemento da coluna, etc., o último elemento da linha com o último elemento
da coluna e �nalmente some esses números todos.
20 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES
Por exemplo, 2 4
0 0
−1 3
[−1 1
1 −1
]=
2(−1) + 4(1) 2(1) + 4(−1)0(−1) + 0(1) 0(1) + 0(−1)−1(−1) + 3(1) −1(1) + 3(−1)
=
2 −20 0
4 −4
.
Note que para o produto de A por B estar de�nido, o número de colunas
de A deve ser igual ao número de linhas de B. Assim, se A e B são matrizes
2 × 3 e 3 × 1, respectivamente, o produto AB está de�nido e é uma matriz
2 × 1. Porém, o produto BA não está de�nido. Uma condição necessária
para que AB = BA é que A e B sejam matrizes quadradas de mesma ordem.
Contudo, esta condição não é su�ciente. Por exemplo, as matrizes
A =
[0 1
2 0
]e B =
[0 1
1 0
]são matrizes quadradas de ordem 2, mas AB 6= BA. Assim, vemos que a
multiplicação de matrizes não possui a propriedade comutativa.
Observe que [1 1
1 1
] [1 1
−1 −1
]= 0,
sem que nenhuma das duas matrizes seja nula. Portanto, na multiplicação de
matrizes, podemos ter AB = 0 sem que necessariamente A ou B seja nula.
Lembremos que isto não ocorre com a multiplicação de números reais, pois
dados dois números reais x e y tais que xy = 0, tem-se obrigatoriamente que
x = 0 ou y = 0.
Os sistemas lineares como em (2) da Seção 1 se expressam de modo per-
feito pela equação matricial
AX = B,
onde
A =
a11 a12 . . . a1n
a21 a22 . . . a2n...
......
am1 am2 . . . amn
, X =
x1
x2
...
xn
e B =
b1
b2...
bm
.
2. MATRIZES 21
As matrizes A, X e B são chamadas, respectivamente, de matriz dos
coe�cientes do sistema, matriz das incógnitas e matriz dos termos indepen-
dentes.
Na seguinte proposição apresentamos algumas propriedades da multipli-
cação de matrizes.
Proposição 1.2.3. Desde que as operações sejam possíveis, temos:
(i) A(B + C) = AB + AC (distributividade à esquerda da multiplicação
em relação à adição);
(ii) (A+B)C = AC +BC (distributividade à direita da multiplicação em
relação à adição);
(iii) (AB)C = A(BC) (associatividade);
(iv) A I = IA = A (existência de elemento identidade).
Demonstração Provaremos a propriedade (iii) e deixaremos a demons-
tração das demais propriedades ao leitor (veja Problema 2.5).
(iii): Suponhamos que as matrizes A, B e C sejam de ordens n× r, r × s e
s×m, respectivamente. Temos que((AB)C
)ij=∑s
k=1(AB)ikckj =∑s
k=1
(∑rl=1 ailblk
)ckj =
∑rl=1 ail
(∑sk=1 blkckj
)=∑r
l=1 ail(BC)lj =(A(BC))ij.
Isto mostra que a propriedade (iii) é válida. �
Tendo de�nido a multiplicação de matrizes, de�nimos a potenciação da
maneira usual: dados A emM(n, n) e k ∈ N \ {0},
A0 = In e Ak = A A · · ·A︸ ︷︷ ︸k fatores
.
Dada uma matriz A = [aij]m×n, chamamos de transposta de A, e denota-
mos por At, a matriz [bij]n×m, onde
bij = aji,
22 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES
para todo 1 ≤ i ≤ n e para todo 1 ≤ j ≤ m.
Por exemplo, −4 0
−1 2
0 3
t
=
[−4 −1 0
0 2 3
].
Uma matriz quadrada A é chamada simétrica se At = A e antissimétrica
se At = −A.Por exemplo, dadas as matrizes
A =
2 −1 3
−1 1 0
3 0 5
e B =
0 1 −3−1 0 2
3 −2 0
,
a matriz A é simétrica e B é antissimétrica.
Terminamos esta seção apresentando o conceito de matriz em blocos.
Uma matriz A é dita ser uma matriz em blocos se A está subdividida em ma-
trizes menores, chamadas blocos. Esta subdivisão é, geralmente, apresentada
por linhas horizontais e/ou linhas verticais, como mostra o seguinte exemplo:[2 1 1 0
6 4 0 1
]=
[2 1 | 1 0
6 4 | 0 1
].
Uma matriz pode ser subdividida em blocos de várias maneiras. Porexemplo,
0 1 0 2
1 4 2 1
0 0 5 3
=
0 1 | 0 2
1 4 | 2 1
−− −− −− −− −−0 0 | 5 3
=
0 | 1 | 0 2
−− −− −− −− −− −−1 | 4 | 2 1
0 | 0 | 5 3
.
Uma propriedade interessante da partição em blocos é que os resultados
das operações de adição e multiplicação com matrizes em blocos podem ser
obtidos efetuando o cálculo com os blocos, como se eles fossem simplesmente
elementos das matrizes.
2. MATRIZES 23
2.3 Matriz Inversa
Dada uma matriz quadrada A de ordem n, chamamos de inversa de A a
uma matriz quadrada B de ordem n tal que
AB = BA = In .
Por exemplo, dada a matriz
A =
[2 5
1 3
],
temos que a matriz
B =
[3 −5−1 2
]é uma inversa de A, já que AB = BA = I2 .
Note que uma matriz quadrada não possui necessariamente uma inversa.
Por exemplo, seja A =
[0 0
0 0
]. Dada qualquer matriz B =
[a b
c d
], temos
que
AB =
[0 0
0 0
] [a b
c d
]=
[0 0
0 0
]6= I2 .
Logo, A não tem inversa.
Mesmo que uma matriz não seja nula, ela pode não ter inversa. Por
exemplo, a matriz A =
[1 1
1 1
]não possui inversa, já que não existe uma
matriz quadrada B de ordem 2 tal que AB = I2 (veri�que).
Uma matriz quadrada A é dita invertível se A admite uma matriz inversa.
Se uma matriz A possui uma inversa, então essa inversa é única. De fato,
suponhamos que B e C são duas inversas de uma matriz A de ordem n× n.
Então AB = In e CA = In . Assim, por (iii) e (iv) da Proposição 1.2.3,
C = C In = C(AB) = (CA)B = InB = B.
24 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES
Já que a inversa, no caso de existir, é única, escrevemos A−1 para denotar a
inversa de A. Se k ∈ N\{0} e A é uma matriz invertível, de�nimos A−k por:
A−k = A−1A−1 · · ·A−1︸ ︷︷ ︸k fatores
.
Vejamos algumas propriedades das matrizes inversas.
Proposição 1.2.4. Sejam A e B matrizes quadradas de ordem n.
(i) Se A é invertível, então A−1 é também invertível e (A−1)−1 = A.
(ii) Se A e B são invertíveis, então AB também é invertível e
(AB)−1 = B−1A−1.
Deixamos a demonstração desta proposição ao leitor (veja Problema 2.12),
bem como a generalização do item (ii) para um número arbitrário de fatores.
O interesse das matrizes invertíveis reside no fato de que dado um sistema
linear de equações com n equações e n incógnitas, AX = B, se soubermos
que a matriz A é invertível e soubermos como calcular sua inversa, então o
sistema se resolve efetuando apenas a multiplicação da matriz A−1 com B,
pois
AX = B =⇒ X = (A−1A)X = A−1(AX) = A−1B.
Vimos que uma matriz quadrada não nula não possui necessariamente
inversa. Uma pergunta natural é se podemos caracterizar as matrizes qua-
dradas invertíveis, ou seja, se podemos apresentar uma condição necessária
e su�ciente para que uma matriz quadrada seja invertível. Também esta-
mos interessados em obter um método para o cálculo da inversa de uma
matriz invertível. No próximo capítulo, apresentaremos uma caracterização
de matrizes invertíveis e um método para inversão de matrizes que utiliza as
transformações elementares nas linhas de uma matriz e a forma escalonada.
No Capítulo 8, Proposição 8.3.1(iii), veremos um outro modo bem diferente
de atacar este problema pelo uso dos determinantes.
Problemas
2. MATRIZES 25
2.1* Sejam A=
[1 −2 3
4 1 0
]e B=
[−1 2 0
1 −2 0
].
Calcule 2A, 3B e 2A−3B.
2.2 Determine os valores de x, y e z em R para que as matrizes A e B dadas
sejam iguais:
A =
[x+ y 0
z x− 2y
]e B =
[13 0
1 4
].
2.3 Dadas as matrizes
A =
[−1 4 −22 0 −1
], B =
[0 1 −20 1 −1
], C =
113
e D = [−1 1],
determine:
(a) A+B; (b) −2C; (c) AC; (d) CD; (e) BC; (f) DA.
2.4* Considere as matrizes
A = [aij]4×5 com aij = i− j,
B = [bij]5×9 com bij = j e
C = [cij] com C = AB.
(a) É possível determinar c63? Justi�que a resposta.
(b) Determine c36.
2.5 Conclua as demonstrações das Proposições 1.2.1, 1.2.2 e 1.2.3.
2.6* Dada uma matriz A, dizemos que uma matriz X comuta com A se
AX = XA. Determine todas as matrizes que comutam com
A =
[1 0
0 3
].
2.7 a) Mostre que a matriz c In, onde c ∈ R, comuta com toda matriz X ∈M(n, n).
26 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES
b) Ache todas as matrizes M =
[x y
z t
]que comutam com a matriz
[1 1
0 1
].
2.8 Verdadeiro ou falso? Justi�que.
(a) Se A e B são matrizes quadradas de mesma ordem, então
(A−B)(A+B) = A2 −B2.
(b) Se A, B e C são matrizes quadradas de mesma ordem tais que AB = AC,
então B = C.
2.9 Mostre que se A é uma matriz triangular superior, então A2 também é
uma matriz triangular superior.
2.10* (a) Obtenha At, onde A =
[1 2 3
0 −1 4
].
(b) Veri�que que a transposta de uma matriz triangular superior é uma
matriz triangular inferior.
(c) Mostre que (A+B)t = At +Bt e (kA)t = kAt, onde A e B são matrizes
de mesma ordem e k ∈ R.
(d) Se A é uma matriz m × n e B é uma matriz n × p, prove que
(AB)t = BtAt.
(e) Mostre que (At)t = A para toda matriz A de ordem m× n.
2.11* Mostre que se B é uma matriz quadrada, então:
(a) B +Bt e BBt são simétricas;
(b) B −Bt é antissimétrica.
(c) Observando que
B =B +Bt
2+
B −Bt
2,
conclua que toda matriz quadrada se escreve como soma de uma matriz
simétrica e de uma matriz antissimétrica.
2. MATRIZES 27
(d) Mostre que a escrita em (c) é o único modo possível de escrever uma
matriz quadrada como soma de uma matriz simétrica e de uma matriz an-
tissimétrica.
2.12 Prove a Proposição 1.2.4.
2.13 Demonstre que:
(a) se A tem uma linha nula, então AB tem uma linha nula;
(b) se B tem uma coluna nula, então AB tem uma coluna nula;
(c) qualquer matriz quadrada com uma linha ou uma coluna nula não é
invertível.
2.14 Mostre que uma matriz A é invertível se, e somente se, At é invertível.
Conclua que as operações de inversão e de transposição comutam; isto é,
(At)−1 = (A−1)t, quando A é invertível.
2.15 Sejam a = (a1, . . . , an), b = (b1, . . . , bn) ∈ Rn. De�namos
Diag(a) =
a1 0 · · · 0
0 a2 · · · 0...
.... . .
...
0 0 · · · an
.
Mostre que:
(a) Diag(a) + cDiag(b) = Diag(a+ cb) onde c ∈ R;(b) Diag(a) ·Diag(b) = Diag(b) ·Diag(a) = Diag(a1b1, . . . , anbn);
(c) Diag(a)m = Diag(am1 , . . . , amn ), onde m ∈ N \ {0};
(d) Em que condições a matriz Diag(a) é invertível e qual é a sua inversa?
Este problema mostra que somar, multiplicar, calcular potências e inver-
ter matrizes diagonais é muito simples.
2.16 Supondo que as matrizes A,B e C são matrizes quadradas de mesma
ordem e invertíveis, resolva as seguintes equações matriciais nas quais X é a
incógnita:
28 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES
(a) CX + 2B = 3B; (b) CAX t = C; (c) ABX = C.
2.17 Dada uma matriz A =
[a b
c d
], mostre que :
a) se ad− bc 6= 0, então A é invertível e
A−1 =1
ad− bc
[d −b−c a
];
b) se ad− bc = 0, então A não é invertível.
Bibliogra�a
[1] H. P. Bueno, Álgebra Linear, um segundo curso, Coleção Textos Univer-
sitários, SBM, 2006.
[2] P. Halmos, Teoria Ingênua dos Conjuntos , Editora Ciência Moderna,
2001.
[3] A. Hefez e M. L. T. Villela, Códigos Corretores de Erros , Coleção Mate-
mática e Aplicações, IMPA, 2008.
[4] A. Hefez e M. L. T. Villela, Números Complexos e Polinômios , Coleção
PROFMAT, SBM, 2012.
[5] V. J. Katz, A History of Mathematics - an Introduction, HarperCollins
College Publishers, 1993.
[6] S. Lang, Introduction to Linear Algebra, 2nd edition, Undergraduate Texts
in Mathematics, Springer, 1986.
[7] E.L. Lima, Álgebra Linear , 3a edição, Coleção Matemática Universitária,
IMPA, 1998.
[8] E.L. Lima, Geometria Analítica e Álgebra Linear , 2a edição, Coleção
Matemática Universitária, IMPA, 2010.
300
2
29
Livro: Introdução à Álgebra LinearAutores: Abramo Hefez
Cecília de Souza Fernandez
Capítulo 2: Transformação de Matrizese Resolução de Sistemas
Sumário
1 Transformação de Matrizes . . . . . . . . . . . . . . 30
1.1 Transformações Elementares de Matrizes . . . . . . 30
1.2 Forma Escalonada de uma Matriz . . . . . . . . . . 32
1.3 Matrizes Elementares e Aplicações . . . . . . . . . 35
2 Resolução de Sistemas Lineares . . . . . . . . . . . 42
30CAPÍTULO 2. TRANSFORMAÇÃODEMATRIZES E RESOLUÇÃODE SISTEMAS
O método de eliminação em sistemas de equações lineares consiste em e-
fetuar repetidamente transformações elementares sobre um sistema de equa-
ções lineares, de modo a ir obtendo sistemas equivalentes, até reduzir o sis-
tema original a um sistema de fácil resolução. Neste capítulo, reinterpreta-
remos na matriz ampliada associada a um sistema de equações lineares as
transformações que se efetuam nos sistemas de equações ao longo do processo
de eliminação, explicitando seu caráter algorítmico, ou seja, de procedimento
sistemático e efetivo. Esse método é essencialmente devido a Gauss e foi
aperfeiçoado por Camille Jordan (França, 1838 - 1922) e, por este motivo, é
chamado de eliminação de Gauss-Jordan.
1 Transformação de Matrizes
1.1 Transformações Elementares de Matrizes
Seja A uma matriz m × n. Para cada 1 ≤ i ≤ m, denotemos por Li a
i-ésima linha de A. De�nimos as transformações elementares nas linhas da
matriz A como se segue:
1) Permutação das linhas Li e Lj, indicada por Li ↔ Lj .
2) Substituição de uma linha Li pela adição desta mesma linha com c
vezes uma outra linha Lj, indicada por Li → Li + cLj .
3) Multiplicação de uma linha Li por um número real c não nulo, indicada
por Li → cLi .
Por exemplo, vamos efetuar algumas transformações elementares nas li-
nhas da matriz 2 1 2 3
2 1 4 0
0 −1 2 3
.
1. TRANSFORMAÇÃO DE MATRIZES 31
Temos 2 1 2 3
2 1 4 0
0 −1 2 3
−→L1 ↔ L3
0 −1 2 3
2 1 4 0
2 1 2 3
,
2 1 2 3
2 1 4 0
0 −1 2 3
−→L2 → 1
2 L2
2 1 2 3
1 1/2 2 0
0 −1 2 3
e 2 1 2 3
2 1 4 0
0 −1 2 3
−→L2 → L2 − L1
2 1 2 3
0 0 2 −30 −1 2 3
.
Sejam A e B matrizes de ordem m×n. A matriz A é dita ser equivalente
por linhas à matriz B se B pode ser obtida de A pela aplicação sucessiva de
um número �nito de transformações elementares sobre linhas.
Por exemplo, as matrizes 1 0
2 1
−2 3
e
1 0
0 1
0 0
são equivalentes por linhas já que 1 0
2 1
−2 3
−→L2 → L2 − 2L1
1 0
0 1
−2 3
−→L3 → L3 + 2L1
1 0
0 1
0 3
−→L3 → L3 − 3L2
1 0
0 1
0 0
.
Observe que a noção de equivalência de matrizes por linhas corresponde
à noção de equivalência de sistemas lineares quando se efetuam as respec-
tivas transformações sobre as equações. De fato, a sistemas equivalentes,
correspondem matrizes associadas equivalentes, e vice-versa.
32CAPÍTULO 2. TRANSFORMAÇÃODEMATRIZES E RESOLUÇÃODE SISTEMAS
Note que se A é equivalente por linhas a uma matriz B, então B é equiva-
lente por linhas à matriz A, já que toda transformação elementar sobre linhas
é reversível. Mais precisamente, se e representa uma das transformações
elementares nas linhas de uma matriz A de ordem m×n, denotando por e(A)a matriz obtida de A aplicando-lhe a transformação e, temos o resultado a
seguir.
Proposição 2.1.1. Toda transformação elementar e nas linhas de matri-
zes em M(m,n) é reversível, no sentido de que existe uma transformação
elementar e′ tal que e′(e(A)) = A e e(e′(A)) = A, para todo A ∈M(m,n).
Demonstração Se e é uma transformação elementar do tipo Li ↔ Lj , tome
e′ = e. Se e é uma transformação elementar do tipo Li → cLi , tome e′ como
a tranformação Li → 1cLi . Finalmente, se e é uma transformação elementar
do tipo Li → Li + cLj , tome e′ como a tranformação Li → Li − cLj . �
Não é difícil o leitor se convencer de que, em cada caso na demonstra-
ção anterior, e′ é a única transformação elementar com a propriedade que
e′(e(A)) = A para toda matriz A ∈M(m,n).
Se A é uma matriz equivalente por linhas a uma matriz B (e, então, B é
equivalente por linhas a A), dizemos simplesmente que A e B são matrizes
equivalentes.
1.2 Forma Escalonada de uma Matriz
Nesta subseção mostraremos que toda matriz pode ser transformada por
meio de uma sequência de transformações elementares sobre linhas numa
matriz em uma forma muito especial, a forma escalonada, que será utilizada
na próxima seção para resolver sistemas de equações lineares.
Uma matriz m×n será dita estar na forma escalonada se for nula, ou se:
1) o primeiro elemento não nulo de cada linha não nula é 1;
2) cada coluna que contém o primeiro elemento não nulo de alguma linha
tem todos os seus outros elementos iguais a zero;
1. TRANSFORMAÇÃO DE MATRIZES 33
3) toda linha nula ocorre abaixo de todas as linhas não nulas;
4) se L1, . . . , Lp são as linhas não nulas, e se o primeiro elemento não nulo
da linha Li ocorre na coluna ki , então k1 < k2 < · · · < kp .
Por exemplo, a matriz 0 1 2 0 1
0 0 0 1 3
0 0 0 0 0
está na forma escalonada, pois todas as condições da de�nição anterior são
satisfeitas, mas as matrizes1 0 0 0
0 1 −2 0
0 0 1 0
e
0 3 1
1 0 −10 0 0
não estão na forma escalonada, pois a primeira não satisfaz a condição 2,
enquanto a segunda não satisfaz a condição 1 (observe que ela também não
satisfaz a condição 4).
Cabe aqui uma observação acerca da terminologia que utilizamos. Usu-
almente, na literatura, o termo �forma escalonada de uma matriz� refere-se
a uma forma menos especial do que a nossa, a qual vários autores chamam
de forma escalonada reduzida. A nossa justi�cativa para o uso dessa ter-
minologia é que não há razão para adjetivarmos a forma escalonada, pois
utilizaremos apenas uma dessas noções.
O resultado que apresentaremos a seguir nos garantirá que toda matriz é
equivalente por linhas a uma matriz na forma escalonada. O interesse desse
resultado reside no fato que ao reduzir a matriz ampliada associada a um
dado sistema de equações lineares à forma escalonada, encontramos um outro
sistema equivalente ao sistema dado que se encontra em sua expressão mais
simples. Quando aplicado aos sistemas de equações lineares, este resultado
é chamado de processo de eliminação de Gauss-Jordan.
34CAPÍTULO 2. TRANSFORMAÇÃODEMATRIZES E RESOLUÇÃODE SISTEMAS
Vejamos agora um algoritmo que reduz por linhas uma matriz dada não
nula qualquer a uma matriz na forma escalonada. O termo reduzir por linhas
signi�ca transformar uma matriz usando as transformações elementares sobre
linhas. Este processo é também chamado de escalonamento de matrizes.
Passo 1. Seja k1 a primeira coluna da matriz dada com algum elemento não
nulo. Troque as linhas entre si de modo que esse elemento não nulo apareça
na primeira linha, isto é, de modo que na nova matriz a1k1 6= 0.
Passo 2. Para cada i > 1, realize a transformação
Li → Li −aik1a1k1
L1 .
Repita os Passos 1 e 2 na matriz assim obtida, ignorando a primeira linha.
Novamente, repita os Passos 1 e 2 nessa nova matriz, ignorando as duas
primeiras linhas etc., até alcançar a última linha não nula.
Passo 3. Se L1, . . . , Lp são as linhas não nulas da matriz obtida após termi-
nar o processo acima e se ki é a coluna na qual aparece o primeiro elemento
não nulo aiki da linha Li, aplique as transformações
Li →1
aikiLi para todo 1 ≤ i ≤ p.
Passo 4. Realize na matriz obtida até então as transformações
L` → L` − a`ki Li , ` = 1, . . . , i− 1,
para i = 2. Depois para i = 3, e assim por diante, até i = p. Dessa forma,
obteremos uma matriz na forma escalonada que é equivalente por linhas à
matriz dada.
Estabelecemos assim o seguinte resultado:
Teorema 2.1.2. Toda matriz é equivalente a uma matriz na forma escalo-
nada.
Por exemplo, a matriz 1 2 −3 0
0 0 4 2
0 0 0 1/2
1. TRANSFORMAÇÃO DE MATRIZES 35
é transformada numa matriz na forma escalonada com a seguinte sequência
de transformações sobre suas linhas:1 2 −3 0
0 0 4 2
0 0 0 1/2
−→L2 → 1
4 L2
1 2 −3 0
0 0 1 1/2
0 0 0 1/2
−→L3 → 2L3
1 2 −3 0
0 0 1 1/2
0 0 0 1
−→L1 → L1 + 3L2
1 2 0 3/2
0 0 1 1/2
0 0 0 1
−→L1 → L1 − 3
2 L3
L2 → L2 − 12 L3
1 2 0 0
0 0 1 0
0 0 0 1
.
Pelo algoritmo acima, deduzimos que qualquer matriz é equivalente a pelo
menos uma matriz na forma escalonada. Como em cada passo do algoritmo
temos certa margem de escolhas de transformações elementares sobre as li-
nhas da matriz, não há aparentemente nenhum motivo para poder a�rmar
que a forma escalonada de uma dada matriz seja única. Fato é que, não
importando qual a sequência de transformações elementares que efetuemos
nas linhas de uma dada matriz, no �nal do processo chegamos a uma mesma
matriz na forma escalonada que é equivalente à matriz dada. Este resultado
será provado na última seção do capítulo
1.3 Matrizes Elementares e Aplicações
Uma matriz elementar de ordem n é uma matriz quadrada de ordem n
obtida da matriz identidade In a parir da aplicação de uma transformação
elementar, isto é, trata-se de uma matriz da forma
E = e(In),
onde e é uma transformação elementar. Por exemplo, a matriz identidade é
uma matriz elementar e as matrizes
e(I2) =
[0 1
1 0
], onde e : L1 ↔ L2,
36CAPÍTULO 2. TRANSFORMAÇÃODEMATRIZES E RESOLUÇÃODE SISTEMAS
e
e(I3) =
1 1 0
0 1 0
0 0 1
, onde e : L1 → L1 + L2,
são matrizes elementares de ordem 2 e de ordem 3, respectivamente.
Sejam A ∈ M(m,n) e e uma transformação elementar. O próximo re-
sultado, cuja demonstração �ca como exercício para o leitor (veja Problema
1.3), nos diz que a matriz e(A) pode ser obtida como o produto da matriz
elementar e(Im) pela matriz A. Por exemplo, consideremos
A =
1 2
0 1
2 1
.
Se e1 : L1 ↔ L2 , e2 : L1 → 2L1 e e3 : L1 → L1 + 2L2 , uma rápida veri�cação
nos mostra que e1(A) = e1(I3)A, e2(A) = e2(I3)A e e3(A) = e3(I3)A.
Teorema 2.1.3. Seja e uma transformação elementar sobre matrizes de
M(m,n). Considere a matriz elementar E = e(Im). Então
e(A) = EA, para todo A ∈M(m,n).
Como consequência do Teorema 2.1.3, temos
Corolário 2.1.4. Sejam A e B em M(m,n). Então, A é equivalente a B
se, e somente se, existem matrizes elementares E1, . . . , Es de ordem m tais
que
Es · · ·E2 E1 A = B.
Demonstração Por de�nição, A é equivalente a B quando existem trans-
formações elementares e1, . . . , es tais que
es(. . . (e2(e1(A))) . . . ) = B.
Mas, pelo teorema anterior, a igualdade acima equivale a
Es · · ·E2 E1 A = B,
1. TRANSFORMAÇÃO DE MATRIZES 37
onde Ei = ei(Im), para cada 1 ≤ i ≤ s. �
Corolário 2.1.5. Toda matriz elementar é invertível e sua inversa também
é uma matriz elementar.
Demonstração Seja E uma matriz elementar. Seja e a transformação
elementar tal que E = e(I). Se e′ é a transformação elementar inversa de e e
se E ′ = e′(I), pelo Teorema 2.1.3 temos
I = e′(e(I)) = e′(E) = e′(I)E = E ′E
e
I = e(e′(I)) = e(E ′) = e(I)E ′ = E E ′ .
Logo, E é invertível e E−1 = E ′. �
Pelo Corolário 2.1.5 sabemos como inverter uma matriz elementar. Por
exemplo, se considerarmos as matrizes
A =
0 1 0
1 0 0
0 0 1
e B =
1 2 0
0 1 0
0 0 1
,
podemos concluir que A e B são invertíveis, já que A e B são matrizes
elementares. De fato, A = e1(I3) com e1 : L1 ↔ L2 e B = e2(I3) com
e2 : L1 → L1 + 2L2 . Pelo Corolário 2.1.5, A−1 = e′1(I3), onde e′1 é a trans-
formação elementar inversa de e1 e B−1 = e′2(I3), onde e′2 é a transformação
elementar inversa de e2 . Mais precisamente,
A−1 =
0 1 0
1 0 0
0 0 1
e B−1 =
1 −2 0
0 1 0
0 0 1
.
A seguir, apresentamos o resultado central desta seção que caracteriza as
matrizes invertíveis.
Teorema 2.1.6. Para uma matriz quadrada A de ordem n, são equivalentes
as seguintes a�rmações:
(i) A é invertível;
38CAPÍTULO 2. TRANSFORMAÇÃODEMATRIZES E RESOLUÇÃODE SISTEMAS
(ii) Se B é uma matriz na forma escalonada equivalente a A, então B = In;
(iii) A é uma matriz elementar ou um produto de matrizes elementares.
Demonstração Vamos começar provando a implicação (i) ⇒ (ii). Com
efeito, como B é equivalente a A, pelo Corolário 2.1.4, existem matrizes
elementares E1, E2, . . . , Es tais que
Es · · ·E2 E1 A = B.
Como, pelo Corolário 2.1.5, cada Ei é invertível e A, por hipótese, é inver-
tível, temos que B é invertível (cf. Proposição 1.2.4). Por outro lado, pelo
Problema 1.7, temos que B = In.
A implicação (ii) ⇒ (iii) é evidente, já que A = E−11 E−12 · · ·E−1s B, onde
B = In e cada E−1i é uma matriz elementar (cf. Corolário 2.1.5).
A implicação (iii) ⇒ (i) é evidente, pois matrizes elementares são invertíveis
e produtos de matrizes invertíveis são invertíveis (cf. Proposição 1.2.4). �
Observe, como decorrência do resultado acima, que uma matriz quadrada
invertível é equivalente a uma única matriz na forma escalonada (a matriz
identidade), �cando estabelecida, neste caso, a unicidade da forma escalo-
nada.
Finalizamos esta seção apresentando um método para inversão de matri-
zes por meio de transformações elementares.
Proposição 2.1.7. Sejam A uma matriz invertível e e1, . . . , es uma sequên-
cia de transformações elementares tais que es(. . . (e2(e1(A))) . . . ) = I, onde
I é a matriz identidade. Então essa mesma sequência de transformações
elementares aplicada a I produz A−1; isto é, es(. . . (e2(e1(I))) . . . ) = A−1.
Demonstração Para cada 1 ≤ i ≤ s, seja Ei a matriz elementar corres-
pondente à transformação ei . Então
Es · · ·E2 E1 A = I .
Assim,
(Es · · ·E2 E1 I)A A−1 = I A−1,
1. TRANSFORMAÇÃO DE MATRIZES 39
donde
Es · · ·E2 E1 I = A−1.
�
Para ilustrarmos o uso do Teorema 2.1.6 e da Proposição 2.1.7, conside-
remos a matriz
A =
1 0 2
2 −1 3
4 1 8
.
Se aplicarmos uma sequência de transformações elementares em A até obter-
mos uma matriz B na forma escalonada, pelo Teorema 2.1.6, A é invertível
se, e somente se, B = I3 . Se B = I3 , pela Proposição 2.1.7, essa mesma
sequência de transformações elementares aplicada a I3 resultará em A−1. As-
sim, vamos formar a matriz em blocos[A | I3
]e vamos reduzir esta matriz
3× 6 a uma matriz na forma escalonada. De fato,
[A | I3
]=
1 0 2 | 1 0 0
2 −1 3 | 0 1 0
4 1 8 | 0 0 1
−→L2 → L2 − 2L1
L3 → L3 − 4L1
1 0 2 | 1 0 0
0 −1 −1 | −2 1 0
0 1 0 | −4 0 1
−→L2 → −L2
1 0 2 | 1 0 0
0 1 1 | 2 −1 0
0 1 0 | −4 0 1
−→L3 → L3 − L2
1 0 2 | 1 0 0
0 1 1 | 2 −1 0
0 0 −1 | −6 1 1
−→
L3 → −L3
1 0 2 | 1 0 0
0 1 1 | 2 −1 0
0 0 1 | 6 −1 −1
−→L1 → L1 − 2L3
L2 → L2 − L3
1 0 0 | −11 2 2
0 1 0 | −4 0 1
0 0 1 | 6 −1 −1
.
Como obtemos uma matriz na forma[I3 |C
], temos que A é invertível e
C = A−1. Assim,
A−1 =
−11 2 2
−4 0 1
6 −1 −1
.
40CAPÍTULO 2. TRANSFORMAÇÃODEMATRIZES E RESOLUÇÃODE SISTEMAS
Consideremos agora a matriz
A =
1 0 1
0 2 1
3 0 3
.
Ao reduzirmos a matriz em blocos[A | I3
]a uma matriz na forma esca-
lonada, obtemos a matriz[B | C
], onde B =
1 0 1
0 1 1/2
0 0 0
e, portanto,
diferente de I3 . Logo, A não é invertível por ser equivalente a uma matriz
com uma linha nula (cf. Problema 1.7).
Problemas
1.1* Seja A =
[2 1
−1 3
].
(a) Obtenha a forma escalonada de A.
(b) A é invertível? Justi�que.
(c) Se A for invertível, escreva a matriz A−1 como um produto de matrizes
elementares.
1.2 Determine a matriz inversa de cada uma das matrizes dadas:
(a) A =
[12 7
5 3
];
(b) B =
−2 3 −11 −3 1
−1 2 −1
;
(c) C =
−2 −1 0 2
3 1 −2 −2−4 −1 2 3
3 1 −1 −2
.1.3 Demonstre o Teorema 2.1.3.
1. TRANSFORMAÇÃO DE MATRIZES 41
1.4 Determine a forma escalonada das matrizes:
(a) A =
0 1 3 −22 1 −4 3
2 3 2 −1
; (b) B =
1 2 −1 2 1
2 4 1 −2 3
3 6 2 −6 5
;
(c) C =
1 3 −1 2
0 11 −5 3
2 −5 3 1
4 1 1 5
.1.5 Uma certa sequência de transformações elementares aplicadas a uma
matriz A produz uma matriz B. A mesma sequência aplicada a AB produzirá
que matriz? Justi�que sua resposta.
1.6 Descreva todas as possíveis matrizes 2×2 que estão na forma escalonada.
1.7 Seja A uma matriz quadrada na forma escalonada. Mostre que são
equivalentes as seguintes asserções:
(a) A matriz A não tem linhas nulas.
(b) A é a matriz identidade.
(c) A é invertível.
Sugestão Use o Problema 2.13(c), do Capítulo 1.
1.8* Sejam A e B matrizes quadradas de mesma ordem.
(a) Mostre que, se AB = I, então A é invertível e A−1 = B. Assim AB = I
se, e somente se, BA = I.
(b) Mostre que AB é invertível se, e somente se A e B são invertíveis.
Por de�nição, uma matriz quadrada A é invertível quando existe uma
matriz quadrada B tal que AB = I e BA = I. No entanto, pelo problema
acima, no contexto das matrizes quadradas, basta encontrar B tal que AB = I
ou tal que BA = I para que A seja invertível. Ou seja, se uma das duas
igualdades é satisfeita, então a outra é automaticamente satisfeita.
1.9 Sejam E1, E2 e E3 as matrizes elementares de ordem n obtidas da identi-
dade pelas transformações elementares Li ↔ Lj, Li → Li + kLj e Li → cLi,
42CAPÍTULO 2. TRANSFORMAÇÃODEMATRIZES E RESOLUÇÃODE SISTEMAS
onde j 6= i, respectivamente. Mostre que Et1 = E1, Et
2 = E ′2 e Et3 = E3,
onde E ′2 é a matriz elementar obtida da identidade mediante a transforma-
ção Lj → Lj + kLi.
2 Resolução de Sistemas Lineares
Finalmente, nesta seção, poremos em funcionamento a maquinária desen-
volvida com as matrizes para a resolução de sistemas de equações lineares,
culminando com o Teorema do Posto. Trata-se de um resultado central
dessa teoria que descreve a resolubidade dos sistemas de equações lineares
gerais. Este teorema é também conhecido no Ensino Médio como Teorema de
Rouché-Capelli, em homenagem aos matemáticos Eugène Rouché (França,
1832�1919) e Alfredo Capelli (Itália, 1855�1910).
Quanto a suas soluções, um sistema linear se classi�ca como impossí-
vel, ou possível e determinado, ou possível e indeterminado. Um sistema
linear é chamado impossível , quando não tem solução, possível e determi-
nado, quando tem uma única solução e possível e indeterminado, quando
tem mais de uma solução. .
Já foi observado anteriormente que um sistema linear homogêneo com n
incógnitas é sempre possível, pois admite como solução a n-upla (0, 0, . . . , 0),
2. RESOLUÇÃO DE SISTEMAS LINEARES 43
chamada solução trivial . Qualquer outra solução, se existir, é dita solução
não trivial do sistema.
Dado um sistema linear AX = B, o sistema linear AX = 0 é chamado
de sistema linear homogêneo associado. A relação fundamental entre um
sistema linear e seu sistema linear homogêneo associado é apresentada na
proposição a seguir.
Proposição 2.2.1. Seja AX = B um sistema linear. Suponhamos que X1
seja uma solução do sistema AX = B e que Sh seja o conjunto solução do
sistema linear homogêneo associado AX = 0. Então
S = {X1 + Z ; Z ∈ Sh} (1)
é o conjunto solução do sistema AX = B.
Demonstração Para demonstrarmos (1), usaremos algumas propriedades
já vistas da adição e da multiplicação por escalar de matrizes.
De fato, se X2 ∈ S, podemos escrever X2 = X1 + Z com Z ∈ Sh. Como
X1 é uma solução particular de AX = B e Z ∈ Sh, segue que AX1 = B e
AZ = 0. Logo,
AX2 = A(X1 + Z) = AX1 + AZ = B + 0 = B,
mostrando que X2 é uma solução do sistema AX = B.
Por outro lado, tomemos uma solução X2 do sistema AX = B e de�na-
mos Z = X2 −X1. Temos, então, que
AZ = A(X2 −X1) = AX2 − AX1 = B −B = 0;
logo Z = X2 −X1 ∈ Sh. Portanto, X2 = X1 + Z ∈ S. �
Observamos que o resultado acima é apenas de interesse teórico, pois não
nos ajuda a obter o conjunto solução de um sistema linear. Um método bem
e�caz para se resolver um sistema linear é o método do escalonamento. Este
consiste em se tomar a matriz ampliada de um sistema linear e aplicar uma
sequência de transformações elementares a esta matriz, de modo a obtermos
44CAPÍTULO 2. TRANSFORMAÇÃODEMATRIZES E RESOLUÇÃODE SISTEMAS
uma matriz equivalente que seja a matriz ampliada de um sistema linear
�fácil� de se resolver.
Exemplo 1. Resolvamos o sistema linearx+ y − 2z + 3w = 4
2x+ 3y + 3z − w = 3
5x+ 7y + 4z + w = 5 .
(2)
Observemos que1 1 −2 3 | 4
2 3 3 −1 | 3
5 7 4 1 | 5
−→L2 → L2 − 2L1
L3 → L3 − 5L1
1 1 −2 3 | 4
0 1 7 −7 | −50 2 14 −14 | −15
−→L3 → L3 − 2L2
1 1 −2 3 | 4
0 1 7 −7 | −50 0 0 0 | −5
,
(3)
sendo que esta última matriz é a matriz ampliada do sistema linearx+ y − 2z + 3w = 4
y + 7z − 7w = −5
0x+ 0y + 0z + 0w = −5 .
(4)
Note que o sistema (4) é impossível. A pergunta que fazemos é: qual
a relação do sistema (4) com o originalmente proposto? A resposta é que
eles têm o mesmo conjunto solução, já que (2) e (4) têm matrizes ampliadas
equivalentes. Mais precisamente, temos o resultado a seguir.
Proposição 2.2.2. Dois sistemas lineares com matrizes ampliadas equiva-
lentes têm o mesmo conjunto solução.
Demonstração É só lembrar que efetuar transformações elementares sobre
as linhas da matriz ampliada do sistema, equivale a efetuar transformações
elementares no sistema de equações, obtendo um sistema equivalente. �
2. RESOLUÇÃO DE SISTEMAS LINEARES 45
A matriz ampliada do sistema linear (2) poderia ter sido reduzida por
linhas a uma matriz na forma escalonada. Porém, a equação
0x+ 0y + 0z + 0w = −5obtida da última linha da matriz �nal em (3) já garante, pela Proposição
2.2.2, que o sistema (2) é impossível. De fato, dado um sistema linear nas in-
cógnitas x1, x2, . . . , xn, se após uma sequência de transformações elementares
ocorrer uma equação da forma
0x1 + 0x2 + · · ·+ 0xn = b, com b 6= 0,
então o sistema é impossível; ou seja, não tem solução.
Quando aplicarmos a Proposição 2.2.2 a um sistema homogêneo não é ne-
cessário tomar a matriz ampliada, basta considerar a matriz dos coe�cientes
do sistema.
Exemplo 2. Determinemos o conjunto solução do sistema linear homogêneox+ 2y + 3z − 5w = 0
2x+ 4y + z + 2w = 0
x+ 3y + 4z = 0
3x+ 5y + 8z − 10w = 0.
Ora, basta considerarmos a matriz dos coe�cientes do sistema. Assim,
1 2 3 −52 4 1 2
1 3 4 0
3 5 8 −10
−→
L2 → L2 − 2L1
L3 → L3 − L1
L4 → L4 − 3L1
1 2 3 −50 0 −5 12
0 1 1 5
0 −1 −1 5
−→L4 → L4 + L3
1 2 3 −50 0 −5 12
0 1 1 5
0 0 0 10
,
sendo esta última matriz, a matriz dos coe�cientes do sistema linear homo-
gêneo x+ 2y + 3z − 5w = 0
−5z + 12w = 0
y + z + 5w = 0
10w = 0,
46CAPÍTULO 2. TRANSFORMAÇÃODEMATRIZES E RESOLUÇÃODE SISTEMAS
que admite apenas a solução (0, 0, 0, 0). Assim, o conjunto solução do sistema
originalmente dado é S = {(0, 0, 0, 0)}.
Para apresentarmos o resultado central deste capítulo, necessitaremos de
alguns resultados que estabeleceremos a seguir.
Lema 2.2.3. Seja dada uma matriz A = [A′ | A′′] na forma escalonada, onde
A′ é uma matriz m× (n− 1) e A′′ é uma matriz m× 1. Sejam k1, . . . , kp as
posições das colunas de A onde ocorrem os primeiros elementos não nulos das
linhas não nulas L1, . . . , Lp, respectivamente. O sistema A′X = A′′ admite
solução se, e somente se, kp 6= n.
Demonstração Observe que como A está na forma escalonada, a matriz
A′ também está na forma escalonada.
Se kp = n, então a p-ésima linha da matriz A é (0 0 · · · 0 1). Assim,
o sistema A′X = A′′ tem uma equação da forma 0x1 + · · · + 0xn−1 = 1, que
não tem solução.
Se kp 6= n, temos que p ≤ kp < n. Assim, se os ai's são as entradas de
A′′, temos que ap+1 = · · · = am = 0. Se denotarmos por Ai a i-ésima coluna
da matriz A, temos que
A′k1 = Ak1 =
1
0...
0...
0
, A′k2 = Ak2 =
0
1...
0...
0
, . . . , A′kp = Akp =
0
0...
1...
0
,
onde cada matriz acima tem as últimas m − r entradas nulas. O sistema
A′X = A′′ se escreve, em blocos, da seguinte forma:
a = [A1 | A2 | . . . | An−1]X = A1x1 + A2x2 + · · ·+ An−1xn−1.
Para achar uma solução do sistema basta tomar xki = ai e xj = 0, se j 6= ki,
para todo i = 1, . . . , p. �
2. RESOLUÇÃO DE SISTEMAS LINEARES 47
A seguir, daremos a prova da unicidade da forma escalonada de uma
matriz.
Teorema 2.2.4. (Unicidade da forma escalonada) Existe uma única
matriz na forma escalonada equivalente por linhas a uma dada matriz.
Demonstração Basta mostrar que dadas duas matrizes A e B na forma
escalonada e equivalentes por linhas, então A = B (justi�que). O resultado
será provado por indução sobre o número n de colunas da matriz. Para n = 1,
as únicas matrizes na forma escalonada são0
0...
0
e
1
0...
0
.
Como qualquer transformação aplicada às linhas da primeira matriz não a
altera, as duas matrizes acima não são equivalentes, daí decorre a unicidade,
nesse caso.
Admitamos o resultado verdadeiro para matrizes com n−1 colunas, onde
n ≥ 2. Sejam A e B duas matrizes m × n, ambas na forma escalonada e
equivalentes. Escrevamos A = [A′ | A′′] e B = [B′ | B′′], onde A′ e B′ são os
blocos formados com as n− 1 colunas de A e de B, e A′′ e B′′ são as últimas
colunas de A e de B, respectivamente. É imediato veri�car pela de�nição
que A′ e B′ estão na forma escalonada; e que A′ é equivalente a B′, pois as
mesmas operações elementares que transformam A em B, transformam A′
em B′. Portanto, pela hipótese de indução, temos que A′ = B′. Estamos
então reduzidos a duas matrizes A = [A′ | A′′] e B = [A′ | B′′] na forma
escalonada e equivalentes. Vamos desdobrar a nossa análise em dois casos.
Caso 1) A matriz A é tal que kp = n. Assim, a matriz A′ tem as primeiras
p − 1 linhas não nulas e a p-ésima linha nula e as entradas ai de A′′ são
tais que ai = 0, se i 6= p e ap = 1. Pelo Lema 2.2.3, o sistema A′X = A′′
não tem solução. Como as matrizes A = [A′ | A′′] e B = [A′ | B′′] sãoequivalentes, pela Proposição 2.2.2, os sistemas A′X = A′′ e A′X = B′′
48CAPÍTULO 2. TRANSFORMAÇÃODEMATRIZES E RESOLUÇÃODE SISTEMAS
são também equivalentes, o que implica que o segundo sistema também não
admite solução. Aplicando novamente o Lema 2.2.3 ao sistema A′X = B′′,
temos que bp = 1 e bi = 0, se i 6= p, o que nos diz que A′′ = B′′.
Caso 2) A matriz A é tal que kp 6= n. Pelo Lema 2.2.3 tem-se que o sistema
A′X = A′′ tem uma solução X0. Como os sistemas são equivalentes, temos
que X0 é solução do sistema A′X = B′′, logo A′′ = A′X0 = B′′. �
A demonstração do Teorema 2.2.4, acima, foi inspirada em [1], o qual
recomendamos para estudos mais avançados de Álgebra Linear.
Seja A uma matriz de ordem m×n. Pelo Teorema 2.2.4, A é equivalente
a uma única matriz A, de ordem m×n, na forma escalonada. Dizemos que A
é a forma escalonada de A. Portanto, faz sentido de�nir o posto p da matriz
A como o número de linhas não nulas de sua forma escalonada A.
Por exemplo, se
A =
1 2 1 0
−1 0 3 5
1 −2 1 1
,
sua forma escalonada é a matriz
A =
1 0 0 −7/80 1 0 −1/40 0 1 11/8
.
Portanto, o posto p de A é igual a 3, pois o número de linhas não nulas de
A é 3.
Para matrizes quadradas temos o seguinte resultado:
Corolário 2.2.5. Uma matriz quadrada de ordem n é invertível se, e so-
mente se, ela tem posto n.
Demonstração Se a matriz é invertível, então pelo Teorema 2.1.6, sua
forma escalonada é In, logo tem posto n.
Reciprocamente, seja dada uma matriz quadrada de ordem n e seja A sua
forma escalonada. Se A tem posto n, então A não tem linhas nulas, logo,
2. RESOLUÇÃO DE SISTEMAS LINEARES 49
pelo Problema 1.7, A = In. Pelo Corolário 2.1.4, temos que
A = Es . . . E1A = Es . . . E1,
onde E1, . . . , Es são matrizes elementares, logo invertíveis (cf. Corolário
2.1.5). Daí decorre que A é invertível por ser produto de matrizes inver-
tíveis (cf. Proposição 1.2.4(ii)). �
Observe que o Lema 2.2.3 pode ser reinterpretado com a noção de posto
do seguinte modo:
Um sistema de equações lineares AX = B admite solução se, e somente
se, o posto da matriz aumentada [A | B] do sistema tiver posto igual ao da
matriz A do sistema.
De fato, o que mostramos foi que o sistema possui solução se, e somente se,
a última linha não nula da forma escalonada da matriz ampliada do sistema
não for da forma (0 0 . . . 0 1).
Isto é parte do Teorema de Rouché-Capelli, resultado central deste capí-
tulo e que apresentamos na íntegra a seguir.
Teorema 2.2.6. (Teorema do Posto) Consideremos um sistema linear
com m equações e n incógnitas AX = B. Sejam pAB o posto da matriz
ampliada do sistema e pA o posto da matriz dos coe�cientes do sistema.
Então
(i) O sistema é possível se, e somente se, pAB = pA.
(ii) O sistema é possível e determinado se pAB = pA = n.
(iii) O sistema é possível e indeterminado se pAB = pA < n. Neste caso,
n− pA é o número de incógnitas livres do sistema, ou seja, incógnitas
que podem assumir qualquer valor real.
Demonstração Seja AX = B um sistema linear com n incógnitas. Seja
C = [A | B] a matriz ampliada do sistema e seja C = [A | B] a forma
escalonada de C. Denotaremos A = [aij] e B = [bi].
50CAPÍTULO 2. TRANSFORMAÇÃODEMATRIZES E RESOLUÇÃODE SISTEMAS
Claramente A é a forma escalonada de A e como A é um bloco de C,
temos que
pA = pA < pC = pAB ou pA = pA = pC = pAB.
Vamos considerar os dois casos anteriores separadamente.
Caso 1. Se pA < pAB, então C tem uma linha do tipo
(0 · · · 0 0 1).
Portanto, o sistema AX = B é impossível e, então, pela Proposição 2.2.2,
AX = B é impossível.
Caso 2. Se pA = pAB, então C e A têm o mesmo número de linhas não
nulas.
Dividiremos este caso em dois subcasos.
Subcaso 2.1. pAB = pA = n.
Sendo A uma matriz com n colunas, com pA = pA = n, e estando A na
forma escalonada, ela é uma matriz em blocos da forma
A =
[In
0
].
Como pA = pAB = n, segue que B é tal que bn+1 = · · · = bm = 0.
Portanto, AX = B é possível e determinado com a única solução x1 =
b1, . . . , xn = bn. Consequentemente, AX = B também é determinado com
mesma solução.
Subcaso 2.2. pA = pAB < n.
Ponhamos p = pA = pAB. Neste caso, A (assim como C) tem p linhas
não nulas L1, . . . , Lp, tais que o primeiro elemento não nulo de Li está na
coluna ki e k1 < · · · < kp. Além disso, temos bp+1 = · · · = bm = 0.
2. RESOLUÇÃO DE SISTEMAS LINEARES 51
Temos então que a equação AX = B se escreve como
xk1 + a1k1+1xk1+1 + · · ·+ a1nxn
xk2 + a2k2+1xk2+1 + · · ·+ a2nxn
...
xkp + apkp+1xkp+1 + · · ·+ apnxn
0...
0
=
b1
b2...
bp
0...
0
.
A igualdade matricial acima, juntamente com o fato da matriz A estar na
forma escalonada, nos fornece o sistema de equações
xk1 = −∑
j>k1a1jxj + b1, onde a1ki = 0, se i > 1,
xk2 = −∑
j>k2a2jxj + b2, onde a2ki = 0, se i > 2,
. . .
xkp−1 = −∑
j>kp−1ap−1,jxj + bp−1, onde ap−1,ki = 0, se i = kp,
xkp = −∑
j>kpapjxj + bp.
Isto mostra que podemos escolher arbitrariamente valores para as incó-
gnitas no conjunto
{x1, . . . , xn} \ {xk1 , . . . , xkp} (5)
e com esses determinar valores para xk1 , . . . , xkp .
Como o conjunto em (5) tem n − p elementos, o sistema AX = B tem
n− p incógnitas livres e, consequentemente, o mesmo ocorre para o sistema
AX = B. �
Particularizando o Teorema do Posto para os sistemas homogêneos, ob-
temos o corolário a seguir.
Corolário 2.2.7. Seja dado um sistema linear homogêneo com m equações
e n incógnitas AX = 0.
(i) Se A tem posto n, então o sistema possui apenas a solução nula. Em
particular, isto ocorre quando m = n e A é invertível.
52CAPÍTULO 2. TRANSFORMAÇÃODEMATRIZES E RESOLUÇÃODE SISTEMAS
(ii) Se A tem posto p < n, então o sistema possui in�nitas soluções. Em
particular, isto sempre ocorre quando m < n.
A seguir, daremos um exemplo da aplicação do Teorema do Posto.
Exemplo 3. Com o auxílio do Teorema do Posto, resolvamos o sistema
linear x+ 2y − 2z + 3w = 2
2x+ 4y − 3z + 4w = 5
5x+ 10y − 8z + 11w = 12 .
Ora, 1 2 −2 3 | 2
2 4 −3 4 | 5
5 10 −8 11 | 12
−→L2 → L2 − 2L1
L3 → L3 − 5L1
1 2 −2 3 | 2
0 0 1 −2 | 1
0 0 2 −4 | 2
−→
L1 → L1 + 2L2
L3 → L3 − 2L2
1 2 0 −1 | 4
0 0 1 −2 | 1
0 0 0 0 | 0
.
Como pAB = pA = 2 < 4 = n, onde n é o número de incógnitas do sistema,
o sistema linear é possível e indeterminado. Existem então duas incógnitas
livres, digamos y e w, às quais podemos atribuir quaisquer valores reais a e
b, respectivamente. Assim, temos y = a e w = b. Substituindo w = b na
segunda equação obtemos z = 1 + 2b. Pondo y = a, z = 1 + 2b e w = b
na primeira equação, segue-se que x = 4 − 2a + b. Portanto, as soluções do
sistema são os elementos do conjunto
{(4− 2a+ b, a, 1 + 2b, b) ; a, b ∈ R}.
Observamos que, pelo Teorema do Posto, o número de incógnitas livres
está bem determinado. Porém, as incógnitas livres podem ser escolhidas com
alguma liberdade. No exemplo anterior, escolhemos y e w como incógnitas
livres, mas, poderíamos ter escolhido x e t como incógnitas livres.
2. RESOLUÇÃO DE SISTEMAS LINEARES 53
Problemas
2.1* Resolva o sistema linear homogêneoy + 3z − 2t = 0
2x+ y − 4z + 3t = 0
2x+ 3y + 2z − t = 0
−4x− 3y + 5z − 4t = 0 .
2.2* Que condições devem ser impostas a m,n e p para que o sistema linearx+ 2y − 3z = m
2x+ 6y − 11z = n
x− 2y + 7z = p
tenha solução?
2.3 Determine X tal que AX −B = C, onde
A =
[1 3
1 4
], B =
[2 2 −13 0 1
]e C =
[8 4 3
10 8 2
].
2.4 Resolva o sistema linear1 2 1
3 1 −24 −3 −12 4 2
xyz
=
2
1
3
4
.
2.5 Dadas as matrizes
A =
1 2 1 0
−1 0 3 5
1 −2 1 1
, B1 =
210
e B2 =
121
,
resolva:
54CAPÍTULO 2. TRANSFORMAÇÃODEMATRIZES E RESOLUÇÃODE SISTEMAS
(a) os sistemas AX = B1 e AX = B2;
(b) o sistema AX = 3B1−B2, utilizando soluções particulares já encontradas
no item (a).
2.6 Dada uma matriz A de ordem m× n, raciocine com a forma escalonada
para mostrar que:
(a) a equação AC = I pode ser resolvida ⇔ o sistema linear AX = B tem
solução para qualquer B ⇔ posto de A é m;
(b) a equação CA = I pode ser resolvida ⇔ o sistema linear AX = 0 tem
solução única ⇔ posto de A é n.
2.7 Na matriz A de ordem 5× 5 temos a seguinte relação entre as linhas:
L1 + L2 − 2L4 + 3L5 = 0.
Encontre uma matriz C, de posto 3, tal que CA tenha linhas L1, L4, 0.
2.8 Como devem ser escolhidos os coe�cientes a, b e c para que o sistemaax+ by − 3z = −3
−2x− by + cz = −1
ax+ 3y − cz = −3
tenha a solução x = 1, y = −1 e z = 2?
2.9 Determine os valores de k ∈ R para que os sistemas abaixo
(a)
x+ y + kz = 2
3x+ 4y + 2z = k
2x+ 3y − z = 1
, (b)
kx+ y + z = 1
x+ ky + z = 1
x+ y + kz = 1
, (c)
x+ kz = 0
y = 0
kx+ z = 0
tenham:
(i) solução única;
(ii) nenhuma solução;
(iii) mais de uma solução.
Determine a solução do sistema quando esta existir.
2. RESOLUÇÃO DE SISTEMAS LINEARES 55
2.10 Que condições devem ser impostas a a, b e c para que o sistema abaixo
nas incógnitas x, y e z tenha solução?x+ 2y − 3z = a
2x+ 6y − 11z = b
x− 2y + 7z = c .
2.11 Determine os valores de a, de modo que o seguinte sistema nas incógni-
tas x, y e z tenha: (a) nenhuma solução, (b) mais de uma solução, (c) uma
única solução: x+ y − z = 1
2x+ 3y + az = 3
x+ ay + 3z = 2 .
2.12 Considere o sistema linear 2× 2 nas incógnitas x e y:ax+ by = e
cx+ dy = f.
Mostre que:
(a) sea
c6= b
d, isto é, se ad− bc 6= 0, então o sistema tem solução única
x =de− bf
ad− bce y =
af − ce
ad− bc;
(b) sea
c=
b
d6= e
f, então o sistema não tem solução;
(c) sea
c=
b
d=
e
f, então o sistema tem mais de uma solução.
2.13 Suponha que, num sistema linear homogêneo, os coe�cientes de uma
das incógnitas são todos iguais a zero. Mostre que o sistema tem solução não
nula.
56CAPÍTULO 2. TRANSFORMAÇÃODEMATRIZES E RESOLUÇÃODE SISTEMAS
2.14 Seja A uma matriz quadrada de ordem n. Prove que as seguintes
a�rmações são equivalentes:
(a) A é invertível;
(b) O sistema linear homogêneo AX = 0 só admite a solução trivial;
(c) Para toda matriz B de ordem n× 1, o sistema linear AX = B é possível
e determinado.
Bibliogra�a
[1] H. P. Bueno, Álgebra Linear, um segundo curso, Coleção Textos Univer-
sitários, SBM, 2006.
[2] P. Halmos, Teoria Ingênua dos Conjuntos , Editora Ciência Moderna,
2001.
[3] A. Hefez e M. L. T. Villela, Códigos Corretores de Erros , Coleção Mate-
mática e Aplicações, IMPA, 2008.
[4] A. Hefez e M. L. T. Villela, Números Complexos e Polinômios , Coleção
PROFMAT, SBM, 2012.
[5] V. J. Katz, A History of Mathematics - an Introduction, HarperCollins
College Publishers, 1993.
[6] S. Lang, Introduction to Linear Algebra, 2nd edition, Undergraduate Texts
in Mathematics, Springer, 1986.
[7] E.L. Lima, Álgebra Linear , 3a edição, Coleção Matemática Universitária,
IMPA, 1998.
[8] E.L. Lima, Geometria Analítica e Álgebra Linear , 2a edição, Coleção
Matemática Universitária, IMPA, 2010.
300
3
57
Livro: Introdução à Álgebra LinearAutores: Abramo Hefez
Cecília de Souza Fernandez
Capítulo 3: Espaços Vetoriais
Sumário
1 Subespaços Vetoriais . . . . . . . . . . . . . . . . . 58
1.1 Caracterização dos Subespaços Vetoriais . . . . . . 58
1.2 Operações com Subespaços . . . . . . . . . . . . . 61
1.3 Subespaços Gerados . . . . . . . . . . . . . . . . . 63
2 Dependência e Independência Linear . . . . . . . . 69
3 Bases e Dimensão . . . . . . . . . . . . . . . . . . . 75
3.1 Bases . . . . . . . . . . . . . . . . . . . . . . . . . 75
3.2 Dimensão . . . . . . . . . . . . . . . . . . . . . . . 82
4 Espaço Linha de uma Matriz . . . . . . . . . . . . 86
58 CAPÍTULO 3. ESPAÇOS VETORIAIS
Neste capítulo, desenvolveremos o conceito de espaço vetorial que intro-
duzimos no Capítulo 1. Intimamente associadas à noção de espaço vetorial
estão as noções de subespaço vetorial, de base e de dimensão, conceitos esses
fundamentais que introduziremos neste capítulo e que nos permitirão enten-
der melhor a estrututa desses espaços. A estrutura de espaço vetorial está
presente em espaços importantes da Análise Matemática e da Geometria Di-
ferencial, como os espaços de Banach e os espaços de Hilbert, que possuem
muitas aplicações na Física moderna, entre outros.
Neste texto enfatizaremos os espaços vetoriais sobre o corpo R dos nú-
meros reais. Apesar do fato de muitos dos resultados que obteremos serem
válidos no contexto mais geral dos espaços vetoriais sobre corpos abitrários,
nos restringiremos aos espaços vetoriais reais.
1 Subespaços Vetoriais
Na Subseção 1.3 do Capítulo 1, vimos que o conjunto solução Sh de
um sistema de equações lineares homogêneo com n incógnitas forma um
espaço vetorial contido no espaço Rn. Esta é uma situação típica da noção
de subespaço de um espaço vetorial, que de�niremos a seguir com maior
generalidade.
1.1 Caracterização dos Subespaços Vetoriais
Sejam V um espaço vetorial e W um subconjunto não vazio de V . Dize-
mos que W é um subespaço vetorial de V , ou simplesmente um subespaço de
V , se W , com as operações de adição em V e de multiplicação de vetores de
V por escalares, é um espaço vetorial.
Para mostrar que um subconjunto não vazio W de V é um subespaço
de V é preciso inicialmente veri�car se as operações de adição de vetores e
de multiplicação de vetores por escalares em V estão de�nidas em W . Em
seguida, seria necessário veri�car as propriedades A1�A4 e ME1�ME4 da
de�nição de espaço vetorial que demos na Subseção 1.2 do Capítulo 1. No
1. SUBESPAÇOS VETORIAIS 59
entanto, como W é parte de V , que já sabemos ser um espaço vetorial, então
algumas das propriedades anteriores não precisam ser testadas em W . Por
exemplo, não precisamos testar se a adição em W é associativa nem se é
comutativa, pois essas propriedades são satisfeitas por todos os elementos de
V e, consequentemente, por todos os elementos deW . Pelo mesmo motivo, as
condições ME1�ME4 não precisam ser testadas em W . Assim, para mostrar
que um subconjunto não vazioW de V é um subespaço de um espaço vetorial
V , precisaremos somente veri�car se A3 e A4 são satisfeitas. O resultado
a seguir mostra que, de fato, basta mostrar que as operações de V estão
de�nidas em W .
Proposição 3.1.1. Sejam V um espaço vetorial e W um subconjunto não
vazio de V . Então, W é um subespaço de V se, e somente se, as seguintes
condições são satisfeitas:
(i) se u, v ∈ W , então u+ v ∈ W ;
(ii) se a ∈ R e u ∈ W , então au ∈ W .
Demonstração Se W é um subespaço de V , então claramente as condições
(i) e (ii) são veri�cadas.
Reciprocamente, suponhamos que W possua as propriedades (i) e (ii).
Para mostrar que W é subespaço de V , precisamos somente veri�car que
os elementos de W possuem as propriedades A3 e A4. Tome um elemento
qualquer u de W , o que é possível pois W 6= ∅. Pela condição (ii), au ∈ Wpara todo a ∈ R. Tomando a = 0, segue-se que 0u = 0 ∈ W e, tomando
a = −1, segue-se que (−1)u = −u ∈ W . �
A Proposição 3.1.1 a�rma que um subconjunto não vazio de um espaço
vetorial V é um subespaço de V se, e somente se, a adição e a multiplicação
por escalar são fechadas em W . A Proposição 3.1.1 pode ser reescrita da
seguinte forma:
Corolário 3.1.2. Sejam V um espaço vetorial e W um subconjunto não
vazio de V . Temos que W é um subespaço vetorial de V se, e somente se,
u+ av ∈ W , para todo a ∈ R e para todos u, v ∈ W .
60 CAPÍTULO 3. ESPAÇOS VETORIAIS
A demonstração do resultado anterior é deixada para o leitor (veja Pro-
blema 1.1). Vejamos agora alguns exemplos de subespaços vetoriais.
Exemplo 1. Seja V um espaço vetorial. Então o conjunto {0}, constituídoapenas do vetor nulo, e também todo o espaço V são subespaços de V . O
conjunto {0} é chamado de espaço vetorial nulo.
Exemplo 2. Seja V = Rn e sejam i1, i2, . . . , ir números naturais tais que
0 < i1 < i2 < · · · < ir ≤ n. O conjunto
W = {(x1, x2, . . . , xn) ; xi1 = xi2 = · · · = xir = 0}
é um subespaço vetorial de Rn. Em particular, W1 = {(0, y, z) ; y, z ∈ R} eW2 = {(0, y, 0) ; y ∈ R} são subespaços vetoriais de R3.
Exemplo 3. Na Subseção 1.3 do Capítulo 1, vimos que o conjunto solução
Sh de um sistema de equações lineares homogêneas em n incógnitas forma
um subespaço vetorial de Rn. Os subespaços do Exemplo 2 podem ser vistos
sob esta ótica, pois o subespaço W , do referido exemplo, pode ser descrito
como o espaço solução do sistema de equações lineares homogêneas
xi1 = xi2 = · · · = xir = 0.
Exemplo 4. No espaço vetorial das matrizesM(n, n), os conjuntos das ma-
trizes triangulares superiores, triangulares inferiores e das matrizes diagonais,
são subespaços vetoriais.
Exemplo 5. No espaço vetorial S das sequências reais, as recorrências line-
ares do tipo R(a, b) (cf. Exemplo 2, Seção 1, Capítulo 1) formam subespaços
vetoriais. Mais geralmente, o conjunto R(a1, a2, . . . , ar) das sequências quesão soluções da recorrência linear
un = a1un−1 + a2un−2 + · · ·+ arun−r
é um subespaço vetorial de S (veri�que).
1. SUBESPAÇOS VETORIAIS 61
1.2 Operações com Subespaços
Como, antes de mais nada, espaços vetoriais são conjuntos, é bastante
natural perguntar-se se a união e a interseção de conjuntos preservam a
propriedade de espaço vetorial.
Dados U = {(x, y) ∈ R2 ; x + y = 0} e W = {(x, y) ∈ R2 ; x − y = 0},subespaços de R2, o conjunto U ∪W não é um subespaço de R2. De fato,
temos que u = (1, 1) ∈ U ∪W e w = (1,−1) ∈ U ∪W , mas u+w = (2, 0) /∈U ∪W .
Este exemplo mostra que a união de dois subespaços de um espaço vetorial
V não é necessariamente um subespaço de V . A próxima proposição mostra
que a interseção de subespaços é sempre um subespaço.
Proposição 3.1.3. A interseção de dois subespaços de um espaço vetorial
V é um subespaço de V .
Demonstração Sejam U e W subespaços de V . Para veri�carmos que
U ∩W é também um subespaço de V , vamos fazer uso do Corolário 3.1.2
Para isto, primeiramente note que U ∩W é um subconjunto não vazio de
V , pois 0 ∈ U e 0 ∈ W , já que ambos U e W são subespaços de V . Agora,
tomemos a ∈ R e u, v ∈ U ∩ W . Como u, v ∈ U e u, v ∈ W , segue do
Corolário 3.1.2 que u + av ∈ U e u + av ∈ W , ou seja, u + av ∈ U ∩W .
Novamente, pelo Corolário 3.1.2, segue que U ∩W é um subespaço de V .�
Observemos que o principal problema quando consideramos a união de
subespaços é que se tomamos um vetor em cada subespaço, a soma deles
pode não pertencer à união. Seria, então, natural considerarmos o conjunto
soma de�nido a seguir.
Dados U e W subespaços de um espaço vetorial V , de�nimos a soma de
U e W , denotada por U +W , como o conjunto
U +W = {u+ w ; u ∈ U e w ∈ W}.
Com isto, quando somamos um elemento de um subespaço com um elemento
do outro, automaticamente, a soma destes elementos está na soma dos sub-
espaços.
62 CAPÍTULO 3. ESPAÇOS VETORIAIS
Como exemplo, consideremos U = {(x, y) ∈ R2 ; x + y = 0} e W =
{(x, y) ∈ R2 ; x − y = 0}. Temos que U +W = R2, e, consequentemente,
U +W é um subespaço de R2. De fato, se (x, y) ∈ R2 então
(x, y) =
(x− y2
,y − x2
)+
(x+ y
2,x+ y
2
),
o que mostra que todo elemento de R2 se escreve como a soma de um elemento
de U e um elemento de W . Este exemplo ilustra o resultado a seguir.
Proposição 3.1.4. A soma de dois subespaços U e W de um espaço vetorial
V é um subespaço de V . Este é o menor subespaço de V que contém cada
um dos subespaços, no sentido que se um subespaço vetorial L de V é tal que
U ⊂ L e W ⊂ L, então U +W ⊂ L.
Demonstração Sejam U e W subespaços de V . Tomemos a ∈ R e v1, v2 ∈U +W . Como v1, v2 ∈ U +W , existem u1 e u2 elementos de U e existem w1
e w2 elementos de W tais que
v1 = u1 + w1 e v2 = u2 + w2 .
Então,
v1 + av2 = (u1 + w1) + a(u2 + w2) = (u1 + au2) + (w1 + aw2) ∈ U +W .
Assim, provamos que U +W é um subespaço de V .
Para mostrar que U +W é o menor subespaço vetorial de V que contém
U e W , seja L um subespaço de V que contém U e W . Para todos u ∈ U e
w ∈ W , temos que u,w ∈ L, logo u + w ∈ L. Isto mostra que U +W ⊂ L.
�
Sejam U e W subespaços de um espaço vetorial V . O espaço vetorial
V é dito ser a soma direta de U e W , e representado por V = U ⊕W , se
V = U +W e U ∩W = {0}.Como exemplo de uma soma direta, consideremos novamente os subespa-
ços U = {(x, y) ∈ R2 ; x + y = 0} e W = {(x, y) ∈ R2 ; x − y = 0}. Vimos
anteriormente que R2 = U+W . Como U ∩W = {0}, segue que R2 = U⊕W .
O próximo resultado mostra uma importante propriedade das somas di-
retas.
1. SUBESPAÇOS VETORIAIS 63
Teorema 3.1.5. Sejam U e W subespaços de um espaço vetorial V . Temos
que V = U ⊕W se, e somente se, todo vetor v em V se escreve de modo
único como v = u+ w, onde u ∈ U e w ∈ W .
Demonstração Suponhamos V = U ⊕W . Tomemos v ∈ V . Como V =
U +W , pela de�nição de soma de subespaços, existem u ∈ U e w ∈ W tais
que
v = u+ w.
Vejamos que a decomposição acima é única no sentido de que se
v = u′ + w′,
com u′ ∈ U e w′ ∈ W , então u = u′ e w = w′. Ora, como v = u + w e
v = u′ + w′, então
u− u′ = −(w − w′).
Como o lado esquerdo pertence a U e o lado direito a W , da igualdade
anterior decorre que u−u′ ∈ U ∩W e w−w′ ∈ U ∩W . Como U ∩W = {0},segue então que u = u′ e w = w′. Reciprocamente, suponhamos que todo
vetor de V se escreve de modo único como a soma de um vetor de U e de
um vetor de W . Claramente, então, V = U +W . Se U ∩W 6= {0}, existiriaum vetor não nulo v em U ∩W . Como v ∈ W e W é um subespaço, então
−v ∈ W também. Consequentemente, teríamos 0 = 0 + 0, com 0 ∈ U e
0 ∈ W , e 0 = v + (−v), com v ∈ U e −v ∈ W . Como v 6= 0, teríamos duas
escritas distintas para um mesmo vetor de V . Como isto não ocorre, temos
de fato que U ∩W = {0}. �
1.3 Subespaços Gerados
Seja V um espaço vetorial e sejam v1, v2, . . . , vr vetores de V . Diremos
que um vetor v de V é uma combinação linear de v1, v2, . . . , vr se existirem
números reais a1, a2, . . . , ar tais que
v = a1v1 + a2v2 + · · ·+ arvr . (1)
64 CAPÍTULO 3. ESPAÇOS VETORIAIS
Por exemplo, o vetor (1, 6, 0) em R3 é uma combinação linear dos vetores
v1 = (1, 2, 0) e v2 = (−1, 2, 0), já que v = 2v1 + 1v2 . De fato, a equação
(1, 6, 0) = a1(1, 2, 0) + a2(−1, 2, 0)
equivale ao sistema de equações lineares{a1 − a2 = 1
2a1 + 2a2 = 6 ,
cuja solução é única e dada por a1 = 2 e a2 = 1. Já o vetor w = (2,−2, 6)não é uma combinação linear de v1 e v2 , pois não existem números reais a1e a2 tais que w = a1v1 + a2v2 . Com efeito, a equação
(2,−2, 6) = a1(1, 2, 0) + a2(−1, 2, 0)
equivale ao sistema de equações lineares
a1 − a2 = 2, 2a1 + 2a2 = −2, 0a1 + 0a2 = 6 ,
mostrando que o sistema é impossível.
Se r = 1 em (1), então v = a1v1 , ou seja, v é uma combinação linear de
um único vetor v1 se for um múltiplo por escalar de v1 .
Sejam v1, v2, . . . , vr vetores de um espaço vetorial V . Consideremos o
conjunto W de todas as combinações lineares de v1, v2, . . . , vr . O resultado
a seguir mostra que W é um subespaço de V . Este subespaço é chamado o
subespaço gerado por v1, v2, . . . , vr e dizemos que v1, v2, . . . , vr geram W ou
que {v1, v2, . . . , vr} é um conjunto gerador de W . Para indicarmos que W é
o espaço gerado por v1, v2, . . . , vr , escrevemos
W = G(v1, v2, . . . , vr).
Por exemplo, G((1, 0, 0), (0, 1, 0), (0, 0, 1)) = R3.
Proposição 3.1.6. Seja W = G(v1, v2, . . . , vr), onde v1, v2, . . . , vr são veto-
res de um espaço vetorial V . Valem as seguintes a�rmações:
1. SUBESPAÇOS VETORIAIS 65
(i) W é um subespaço de V ;
(ii) W é o menor subespaço de V contendo
v1, v2. . . . , vr , no sentido de que qualquer subespaço de V que contém v1, v2, . . . , vr
também contém W .
Demonstração (i): Tomemos a ∈ R e u, v ∈ W . Então existem números
reais a1, a2, . . . , ar e b1, b2, . . . , br tais que
u = a1v1 + a2v2 + · · ·+ arvr,
v = b1v1 + b2v2 + · · ·+ brvr .
Portanto, u+av = (a1+ab1)v1+(a2+ab2)v2+ · · ·+(ar+abr)vr . Assim,
u+av é uma combinação linear de v1, v2, . . . , vr e consequentemente pertence
a W . Pelo Corolário 3.1.2, W é um subespaço de V .
(ii): Cada vetor vi é uma combinação linear de v1, v2, . . . , vr , pois podemos
escrever
vi = 0v1 + 0v2 + · · ·+ 1vi + · · ·+ 0vr .
Isto mostra que o subespaço W contém cada um dos vetores v1, v2, . . . , vr .
Seja W ′ um subespaço qualquer de V contendo v1, v2, . . . , vr . Pelo Corolário
3.1.2, esse subespaço contém todas as combinações lineares destes vetores.
Assim, W ⊂ W ′. �
Exemplo 6. O espaço gerado pelo vetor v = (1, 1, 2) em R3 é o conjunto
W = {a(1, 1, 2) ; a ∈ R}, já que uma combinação linear de v é um múltiplo
escalar de v.
Dizemos que um vetor w = av é uma dilatação, uma contração, ou uma
inversão, de v, se a ≥ 1, 0 ≤ a < 1, ou a < 0, respectivamente.
Assim, um elemento do subespaço W , acima, é uma dilatação, uma con-
tração ou uma inversão de v (veja Figura 1).
66 CAPÍTULO 3. ESPAÇOS VETORIAIS
Figura 1
Exemplo 7. Vamos encontrar o subespaço de R3 gerado pelos vetores v1 =
(1,−2,−1) e v2 = (2, 1, 1). Seja W = G(v1, v2). Tomemos v = (x, y, z) ∈ R3.
Temos que v ∈ W se, e somente se, existem números reais a1 e a2 tais que
v = a1v1 + a2v2 ,
ou, equivalentemente, se, e somente se, o sistema lineara1 + 2a2 = x
−2a1 + a2 = y
−a1 + a2 = z
(2)
tem solução. A matriz ampliada do sistema (2) é equivalente à matriz1 2 x
0 1 (x+ z)/3
0 0 (x+ 3y − 5z)/3
.Portanto, (2) tem solução se, e somente se, x + 3y − 5z = 0. Assim,
W = {(x, y, z) ∈ R3 ; x+ 3y − 5z = 0}.
Para gerarmos um mesmo espaço, podemos usar conjuntos geradores dis-
tintos. Por exemplo, se considerarmos um vetor não nulo w qualquer em
W no Exemplo 6 temos que G(v) = G(w). A seguinte proposição, cuja de-
monstração é deixada como exercício ao leitor (ver Problema 1.14), nos dá
1. SUBESPAÇOS VETORIAIS 67
uma condição necessária e su�ciente para que conjuntos distintos de vetores
gerem um mesmo espaço.
Proposição 3.1.7. Sejam α = {v1, v2, . . . , vr} e β = {w1, w2, . . . , wm} doisconjuntos de vetores em um espaço vetorial V . As seguintes a�rmações são
equivalentes:
(a) G(v1, v2, . . . , vr) = G(w1, w2, . . . , wm);
(b) cada vetor em α é uma combinação linear dos vetores de β e cada
vetor em β é uma combinação linear dos vetores de α.
Seja W um subespaço de um espaço vetorial V . Dar um conjunto de
geradores w1, . . . , wr de W é o mesmo que dar uma �parametrização� para o
espaço W . De fato, considerando a aplicação
ϕ : Rr → V
(a1, . . . , ar) 7→ a1w1 + · · ·+ arwr
temos que W coincide com a imagem de ϕ.
Problemas
1.1* Demonstre o Corolário 3.1.2.
1.2 Veri�que, em cada caso, se o conjunto W é um subespaço vetorial de
R2:
(a) W = {(x, y) ; x+ y = 0};(b) W = {(x, y) ; x+ y = 1};(c) W = {(x, y) ; x2 = y};(d) W = {(x, y) ; −x+ 3y = 0}.
1.3 Veri�que, em cada caso, se o conjunto W é um subespaço vetorial de R3:
(a) W = {(x, y, z) ; x = 0};(b) W = {(x, y, z) ; x+ y + z ≥ 0};(c) W = {(x, y, z) ; z = 3x− 2y};(d) W = {(x, 2x, x) ; x ∈ R};(e) W = {(4x, y, y − x) ; x, y ∈ R}.
68 CAPÍTULO 3. ESPAÇOS VETORIAIS
1.4 Veri�que, em cada caso, se o conjunto W é um subespaço vetorial de
M(3, 3):
(a) W = {[aij] ; a11 + a22 + a33 = 0};(b) W = {[aij] ; aij = aji para todo 1 ≤ i, j ≤ 3};(c) W = {[aij] ; aij = 0 se i 6= j};(d) W = {A ; A2 = A};(e) W = {A ;A é invertível}.
1.5 Veri�que, em cada caso, se o conjunto W é um subespaço vetorial de
R[x]:(a) W = {p(x) = a+ bx+ cx2 ; a, b, c ∈ Z};(b) W = {p(x) = a+ bx+ cx2 ; a = c = 0};(c) W = {p(x) = a+ bx+ cx2 ; c = a+ b};(d) W = {p(x) = a+ bx+ cx2 ; c ≥ 0}.
1.6 Determine, em cada caso, V ∩W e V +W :
(a) V = {(x, y, z) ∈ R3 ; x = y} e W = {(x, y, z) ∈ R3 ; x = y = z};(b) V={[aij]2×2 ; a11=a22 e a12=a21} e W={[aij]2×2 ; a11=a21 e a12=a22};(c) V = {(x, y,−x− 3y) ; x, y ∈ R} e W = {(0, 0, z) ; z ∈ R};(d) V = {(x, y, z, w) ∈ R4 ; x+ 2y − w = 0} e W = {(x, x, x, x) ; x ∈ R};(e) V = {(x, x, x) ; x ∈ R} e W = {(0, 0, z) ; z ∈ R}.
Quais das somas anteriores são somas diretas?
1.7 Seja V = M(3, 3). Sejam U e W os subespaços de V das matrizes
triangulares superiores e inferiores, respectivamente. Mostre que V 6= U⊕W .
Construa subespaços U ′ e W ′ de V tais que V = U ⊕W ′ e V = U ′ ⊕W .
1.8 Sejam U e W subespaços de um espaço vetorial V . Mostre que:
(a) U e W estão ambos contidos em U +W ;
(b) U ∩W é o maior subespaço contido em U e em W ;
(c) W +W = W .
1.9 Sejam U e W subespaços de um espaço vetorial V . Prove que:
(a) U ∪W é subespaço vetorial se, e somente se, U ⊆ W ou W ⊆ U ;
(b) U +W = U ∪W se, e somente se, U = W .
2. DEPENDÊNCIA E INDEPENDÊNCIA LINEAR 69
1.10 Sejam U1, U2, W1 e W2 subespaços de um espaço vetorial V de modo
que V = U1 ⊕W1 = U2 ⊕W2 . Se U1 ⊂ U2 e W1 ⊂ W2, prove que U1 = U2 e
W1 = W2 .
1.11* Determine uma condição que a, b e c devem satisfazer de modo que
(a, b, c) seja uma combinação linear de u = (2,−6, 4) e v = (2,−1, 1).
1.12* Considere o conjunto α = {(−1, 3, 1), (1,−2, 4)} e determine:
(a) o espaço gerado por α;
(b) o valor de k ∈ R para que v = (5, k, 11) pertença ao espaço gerado por
α.
1.13 Encontre um conjunto de geradores para cada espaço abaixo:
(a) V = {(x, y, z) ∈ R3 ; x− 2y + 3z = 0};(b) V = {(x, y, z, t) ∈ R4 ; x− y = 0 e x+ t = 0};(c) V = {p(x) = a+ bx+ cx2 ∈ R[x]2 ; a−
b
2= c};
(d) V =
{[a b
c d
]∈M(2, 2) ; a+ c = d e b = 0
}.
1.14 Prove a Proposição 3.1.7.
1.15 Quais dos seguintes vetores
(a) (0, 2, 2, 2), (b) (1, 4, 5, 2), (c) (0, 0, 0, 0), (d) (0, 3, 1, 5)
são combinações lineares de u = (0, 0, 2,−2) e v = (0, 1, 3,−1)?
1.16 Expresse os seguintes polinômios
(a) 2 + 5x, (b) −x+ 2x2, (c) 3 + 3x+ 5x2
como combinação linear de
p1(x) = 2 + x+ 4x2, p2(x) = 1− x+ 3x2, p3(x) = 3 + 2x+ 5x2.
2 Dependência e Independência Linear
Vimos na seção anterior, que um conjunto �nito de vetores α gera um
dado espaço vetorial V se cada vetor em V pode ser escrito como uma com-
binação linear dos vetores de α. Em geral, pode haver mais de uma maneira
70 CAPÍTULO 3. ESPAÇOS VETORIAIS
de expressar um vetor em V como uma combinação linear de vetores de um
conjunto gerador. Por exemplo, R3 = G(v1, v2, v3, v4), onde v1 = (1, 1, 1),
v2 = (1, 1, 0), v3 = (0, 1, 1) e v4 = (1, 0, 1). Note que
(4, 2, 1) = 1v1 + 2v2 − 1v3 + 1v4
e também que
(4, 2, 1) = −1v1 + 2v2 + 0v3 + 2v4 .
Observamos nesse ponto que é possível trabalhar com conjuntos arbitrá-
rios (in�nitos) de geradores, mas não o faremos aqui, pois necessitaríamos
introduzir novas ferramentas mais so�sticadas, como o Lema de Zorn, ou o
Axioma da Escolha (cf. [1]).
Nesta seção, estudaremos condições sob as quais cada vetor de V pode
ser escrito de uma única maneira como combinação linear dos elementos de
um conjunto gerador. Na próxima seção veremos que conjuntos geradores
com esta propriedade desempenham um papel fundamental no estudo dos
espaços vetoriais.
Sejam v1, v2, . . . , vr vetores em um espaço vetorial V . Dizemos que os
vetores v1, v2, . . . , vr são linearmente independentes, ou simplesmente inde-
pendentes, se a equação
a1v1 + a2v2 + · · ·+ arvr = 0
é satisfeita somente quando a1 = a2 = · · · = ar = 0. Caso exista algum
ai 6= 0, dizemos que os vetores v1, v2, . . . , vr são linearmente dependentes, ou
simplesmente dependentes. O conjunto {v1, v2, . . . , vr} é dito ser independenteou dependente se os vetores v1, v2, . . . , vr são independentes ou dependentes,
respectivamente.
Observemos que se um dos vetores v1, v2, . . . , vr é o vetor nulo, digamos
v1 = 0, então os vetores são dependentes, pois
1v1 + 0v2 + · · ·+ 0vr = 1 · 0 + 0 + · · ·+ 0 = 0
2. DEPENDÊNCIA E INDEPENDÊNCIA LINEAR 71
e o coe�ciente de v1 não é 0. Por outro lado, qualquer vetor não nulo v é,
por si só, independente, pois se av = 0, então a = 0. A seguir, apresentamos
outros exemplos de vetores independentes e dependentes.
Exemplo 1. Os vetores e1 = (1, 0, 0), e2 = (0, 1, 0) e e3 = (0, 0, 1) são
independentes, pois a equação
a1e1 + a2e2 + a3a3 = 0,
equivalente à equação
a1(1, 0, 0) + a2(0, 1, 0) + a3(0, 0, 1) = (0, 0, 0),
é satisfeita somente se a1 = a2 = a3 = 0.
Exemplo 2. Vamos veri�car se os vetores v1 = (1,−3, 4), v2 = (3, 2, 1) e
v3 = (1,−1, 2) são independentes ou dependentes.
A equação
a1v1 + a2v2 + a3v3 = 0
é dada por
a1(1,−3, 4) + a2(3, 2, 1) + a3(1,−1, 2) = (0, 0, 0)
ou, equivalentemente, é dada pelo sistema linear homogêneoa1 + 3a2 + a3 = 0
−3a1 + 2a2 − a3 = 0
4a1 + a2 + 2a3 = 0 .
(1)
Assim, os vetores v1, v2 e v3 são independentes, se o sistema em (1) tiver
somente a solução trivial; ou são dependentes, se o sistema tiver uma solução
não trivial. Mas, o sistema em (1) tem somente a solução trivial se, e somente
se, a matriz dos coe�cientes
A =
1 3 1
−3 2 −14 1 2
72 CAPÍTULO 3. ESPAÇOS VETORIAIS
é invertível (cf. Corolário 2.2.7). Como a matriz é equivalente por linhas à
matriz (justi�que) 1 3 1
−3 2 −10 0 0
,concluímos que v1, v2 e v3 são linearmente dependentes.
A solução do exemplo anterior motiva o próximo resultado, que nos ofe-
rece um método para veri�car se n vetores de Rn são linearmente indepen-
dentes ou dependentes. A demonstração é deixada ao cargo do leitor (veja
Problema 2.8).
Proposição 3.2.1. Sejam v1, v2, . . . , vn vetores em Rn, onde, para cada i,
com 1 ≤ i ≤ n, temos vi=(ai1, ai2, . . . , ain). Seja A = [aij]. Temos que
{v1, v2, . . . , vn} é linearmente independente se, e somente se, A é invertível.
E caso tenhamos n+1 vetores em Rn? O próximo teorema mostra que um
conjunto linearmente independente em Rn pode conter no máximo n vetores.
Teorema 3.2.2. Sejam v1, v2, . . . , vr vetores em Rn. Se r > n, então os
vetores v1, v2, . . . , vr são linearmente dependentes.
Demonstração Suponhamos que, para cada 1 ≤ i ≤ r, vi = (ai1, . . . , ain).
Consideremos a equação
k1v1 + k2v2 + · · ·+ krvr = 0.
Esta equação é equivalente ao sistema linear homogêneo
a11k1 + a21k2 + · · ·+ ar1kr = 0
a12k1 + a22k2 + · · ·+ ar2kr = 0...
......
...
a1nk1 + a2nk2 + · · ·+ arnkr = 0 .
(2)
O sistema dado em (2) é um sistema linear homogêneo de n equações nas r
incógnitas k1, k2, . . . , kr . Como r > n, segue do Corolário 2.2.7 que o sistema
tem soluções não triviais. Isto mostra que v1, v2, . . . , vr são dependentes. �
2. DEPENDÊNCIA E INDEPENDÊNCIA LINEAR 73
O termo �linearmente dependente" sugere que os vetores de alguma ma-
neira dependem uns dos outros. O próximo resultado mostra que isto real-
mente ocorre.
Teorema 3.2.3. Um conjunto �nito α com dois ou mais vetores de um
espaço vetorial V é linearmente dependente se, e somente se, pelo menos um
dos vetores de α pode ser escrito como uma combinação linear dos outros
vetores.
Demonstração Seja α = {v1, v2, . . . , vr} um subconjunto de um espaço
vetorial V . Se α é linearmente dependente, então existem números reais
a1, a2, . . . , ar , não todos nulos, tais que a1v1 + a2v2 + · · · + arvr = 0. Supo-
nhamos que aj 6= 0. Então
vj = −a1ajv1 − · · · −
aj−1aj
vj−1 −aj+1
ajvj+1 − · · · −
arajvr ,
mostrando que vj é uma combinação linear dos demais vetores de α. Supo-
nhamos agora que α tem a propriedade de que um de seus vetores, digamos
vi , pode ser escrito como uma combinação linear dos outros vetores de α.
Ou seja, que existem números reais b1, . . . , bi−1, bi+1, . . . , br tais que
vi = b1v1 + · · ·+ bi−1vi−1 + bi+1vi+1 + · · ·+ brvr .
A equação anterior equivale a
b1v1 + · · ·+ bi−1vi−1 − 1vi + bi+1vi+1 + · · ·+ brvr = 0. (3)
Como o coe�ciente de vi na equação (3) não é 0, segue que α é linearmente
dependente. �
Do resultado acima, segue imediatamente que um conjunto �nito α com
dois ou mais vetores de um espaço vetorial V é linearmente independente se, e
somente se, nenhum dos vetores de α pode ser escrito como uma combinação
linear dos outros vetores.
Por exemplo, nenhum dos vetores dados no Exemplo 1 pode ser escrito
como uma combinação linear dos demais. Já, no Exemplo 2, observemos que
v3 =5
11v1 +
2
11v2 .
74 CAPÍTULO 3. ESPAÇOS VETORIAIS
Problemas
2.1* Considere o espaço vetorial R[x]. Determine se os polinômios f(x),
g(x), h(x) são linearmente dependentes, onde f(x) = x3 + 4x2 − 2x + 3,
g(x) = x3 + 6x2 − x+ 4 e h(x) = 2x3 + 8x2 − 8x+ 7.
2.2 Veri�que, em cada caso, se o conjunto de vetores de R3 indicado é linear-
mente dependente:
(a) {(2,−1, 4), (−4, 10, 2)};(b) {(−3, 0, 4), (5,−1, 2), (1, 1, 3)};(c) {(1, 0, 2), (3, 1, 5), (−1, 2, 1), (4, 0, 1)}.
2.3 Quais dos seguintes conjuntos de vetores em R4 são linearmente depen-
dentes?
(a) {(3, 8, 7,−3), (1,−1/2, 1, 3), (1, 4, 0, 3)};(b) {(0, 0, 1, 1), (2, 2, 0, 0), (3, 3, 0,−3)};(c) {(1, 0,−1, 2), (0, 2, 3, 1), (0, 1, 1, 0), (−2, 1, 2, 1)}.
2.4 Para quais valores reais de a os vetores
v1 = (a,−1,−1), v2 = (−1, a,−1) e v3 = (−1,−1, a)
formam um conjunto linearmente dependente em R3?
2.5 Seja V um espaço vetorial e seja α = {v1, v2, . . . , vn} um conjunto linear-
mente independente de vetores de V . Mostre que qualquer subconjunto não
vazio de α é também linearmente independente.
2.6 Mostre que se {v1, v2, v3, v4} é um conjunto linearmente dependente de
vetores em um espaço vetorial V e se v5 é um vetor qualquer em V , então
{v1, v2, v3, v4, v5} também é linearmente dependente.
2.7 Mostre que se {v1, v2, v3, v4} gera um espaço vetorial V e se v4 é uma
combinação linear de v1, v2 e v3 , então {v1, v2, v3} ainda gera V .
2.8 Demonstre a Proposição 3.2.1.
3. BASES E DIMENSÃO 75
2.9 Mostre que se {v1, v2, v3} é um conjunto linearmente independente de
vetores em um espaço vetorial V e se v4 /∈ G(v1, v2, v3), então {v1, v2, v3, v4}é linearmente independente.
2.10 Dados os elementos v1, . . . , vr de um espaço vetorial V , mostre que
esses são linearmente independentes se, e somente se, é injetiva a seguinte
aplicação:ϕ : Rr → V
(a1, . . . , ar) 7→ a1v1 + · · ·+ arvr .
3 Bases e Dimensão
Nesta seção introduziremos os dois conceitos fundamentais no contexto
dos espaços vetoriais: base e dimensão. Esses dois conceitos esclarecem a
estrutura desses espaços e ao mesmo tempo simpli�cam as demonstrações de
vários resultados sobre eles.
3.1 Bases
Seja α = {v1, v2, . . . , vn} um conjunto ordenado de vetores de um espaço
vetorial V . Dizemos que α é uma base de V se as seguintes condições são
veri�cadas:
(i) α é linearmente independente;
(ii) V = G(α).
Vimos no Exemplo 1, da seção anterior, que o conjunto α = {e1, e2, e3}é linearmente independente. Este conjunto também gera R3, pois qualquer
vetor v = (a1, a2, a3) em R3 pode ser escrito como v = a1e1 + a2e2 + a3e3 .
Assim, α, com a ordenação dada pelos índices, é uma base de R3, chamada
base canônica de R3. Este é um caso particular do próximo exemplo.
Exemplo 1. De�nimos o símbolo de Kronecker 1, δij, para (i, j) ∈ N2, como
1Leopold Kronecker (Alemanha, 1823 � 1891) foi um dos grandes matemáticos do
século XIX. Além de sua grande e profunda contribuição à Matemática, �cou famoso
76 CAPÍTULO 3. ESPAÇOS VETORIAIS
δij =
{1, se i = j
0, se i 6= j.
Seja n ∈ N \ {0}. Para cada 1 ≤ i ≤ n, denotemos por ei o vetor
(δi1, δi2, . . . , δij, . . . , δin) = (0, . . . , 0, 1, 0, . . . 0)
em Rn, onde a componente 1 encontra-se na i-ésima posição. O conjunto
α = {e1, e2, . . . , en} é linearmente independente, pois a equação
k1e1 + k2e2 + · · ·+ knen = 0
é satisfeita somente se k1 = k2 = · · · = kn = 0. Além disto, este conjunto
também gera Rn, pois qualquer vetor v = (a1, a2, . . . , an) em Rn pode ser
escrito como
v = a1e1 + a2e2 + · · ·+ anen .
Assim, α, com a ordenação dada pelo índices dos e′is é uma base de Rn,
chamada base canônica de Rn.
O próximo exemplo apresenta a base canônica deM(m,n).
Exemplo 2. Sejam
M1 =
[1 0
0 0
], M2 =
[0 1
0 0
], M3 =
[0 0
1 0
]eM4 =
[0 0
0 1
].
O conjunto α = {M1,M2,M3,M4} é uma base deM(2, 2). Com efeito, para
vermos que α geraM(2, 2), observemos que um vetor qualquer
M =
[a b
c d
]emM(2, 2) pode ser escrito como
M = aM1 + bM2 + cM3 + dM4 .
pela polêmica envolvendo os trabalhos de Cantor, o criador da Teoria dos Conjuntos, que
Kronecker não considerava Matemática.
3. BASES E DIMENSÃO 77
Para veri�carmos que α é linearmente independente, suponhamos que
a1M1 + a2M2 + a3M3 + a4M4 = 0,
ou seja,
a1
[1 0
0 0
]+ a2
[0 1
0 0
]+ a3
[0 0
1 0
]+ a4
[0 0
0 1
]=
[a1 a2
a3 a4
]=
[0 0
0 0
].
Segue-se que a1 = a2 = a3 = a4 = 0 e, portanto, α é linearmente indepen-
dente. A base α é chamada a base canônica deM(2, 2). Mais geralmente, a
base canônica de M(m,n) é formada por mn matrizes distintas, cada uma
das quais possuindo uma única entrada igual a 1 e todas as demais entradas
iguais a 0, ordenadas de forma semelhante ao que foi feito no casoM(2, 2).
A noção de base é uma generalização para espaços vetoriais arbitrários
do sistema de coordenadas em R2 e R3 já que, como veremos a seguir, uma
base de um espaço vetorial V é um conjunto gerador no qual cada vetor de
V pode ser escrito de modo único como combinação linear desses vetores.
Teorema 3.3.1. Seja α = {v1, v2, . . . , vn} um conjunto ordenado de vetores
de um espaço vetorial V . As seguintes a�rmações são equivalentes:
(i) α é uma base de V ;
(ii) cada vetor v em V pode ser escrito de modo único na forma
v = a1v1 + a2v2 + · · ·+ anvn.
Demonstração Suponhamos que α é uma base de V . Tomemos v ∈ V .
Como α gera V , existem números reais a1, a2, . . . , an tais que
v = a1v1 + a2v2 + · · ·+ anvn . (1)
Para mostrar que a combinação linear em (1) é única, suponhamos que exis-
tem
b1, b2, . . . , bn em R tais que
v = b1v1 + b2v2 + · · ·+ bnvn . (2)
78 CAPÍTULO 3. ESPAÇOS VETORIAIS
De (1) e (2) segue que
(a1 − b1)v1 + (a2 − b2)v2 + · · ·+ (an − bn)vn = 0. (3)
Como α é independente, a equação (3) é satisfeita somente se aj − bj = 0
para todo 1 ≤ j ≤ n, ou seja, se bj = aj para todo 1 ≤ j ≤ n. Como
v ∈ V foi tomado de modo arbitrário, (ii) segue. Suponhamos agora que α
tem a propriedade de que cada vetor v em V pode ser escrito de modo único
como combinação linear dos elementos de α. Pela de�nição de espaço gerado,
claramente α gera V . Para mostrarmos que α é independente, consideremos
a equação
k1v1 + k2v2 + · · ·+ knvn = 0.
Como 0 = 0v1 + 0v2 + · · · + 0vn e esta escrita é única, segue que k1 = k2 =
· · · = kn = 0. �
Os números reais a1, a2, . . . , an que aparecem no Teorema 3.3.1 são cha-
mados coordenadas de v na base α. A matriz n× 1a1
a2...
an
,denotada por [v]α , é chamada a matriz das coordenadas de v na base α. Por
exemplo, se α é a base canônica de R3 e v = (1, 2, 1), então
[v]α =
121
.Tomemos agora β = {(1, 0, 0), (0, 1, 0), (1, 1, 1)}, que é uma base de R3. Então
[v]β =
011
.
3. BASES E DIMENSÃO 79
Geometricamente, o vetor v se localiza em uma mesma posição no espaço car-
tesiano, porém o modo como ele é determinado no espaço depende da base
com a qual estamos trabalhando. Os vetores de uma base de R3 (respec-
tivamente R2) especi�cam um sistema de coordenadas no espaço cartesiano
(respectivamente no plano cartesiano).
Observamos que a matriz das coordenadas de um vetor em relação a uma
base α não depende apenas de α, mas também da ordem na qual escrevemos
os seus vetores, já que uma mudança na ordem dos vetores da base implica
numa mudança correspondente da ordem das entradas da matriz. Dessa
forma, uma base de um espaço vetorial será sempre considerada como um
conjunto ordenado de vetores.
O próximo teorema mostra que um conjunto gerador de um espaço veto-
rial V sempre contém uma base de V .
Teorema 3.3.2. Sejam v1, v2, . . . , vn vetores não nulos que geram um espaço
vetorial V . Então, dentre estes vetores, podemos extrair uma base de V .
Demonstração Consideremos α0 = {v1, v2, . . . , vn}. Devemos extrair um
conjunto linearmente independente de α0. Se α0 é linearmente independente,
então α0 é uma base de V , e a demonstração termina aqui. Se α0 é linear-
mente dependente, segue do Teorema 3.2.3 que existe um vetor de α0 que
pode ser escrito como combinação linear dos demais. Sem perda de generali-
dade, suponhamos que este vetor seja vn , ou seja, que vn é uma combinação
linear de v1, v2, . . . , vn−1 . O conjunto α1 = {v1, v2, . . . , vn−1} ainda gera V .
(Por quê? Veja Problema 2.7). Se α1 é linearmente independente, então
α1 é uma base de V . Se α1 é linearmente dependente, então um dos veto-
res de α1 , digamos vn−1 , é uma combinação linear dos demais. O conjunto
α2 = {v1, v2, . . . , vn−2} ainda gera V . Se α2 é linearmente independente,
então α2 é uma base de V . Se α2 é linearmente dependente, prosseguimos
como anteriormente. Após uma quantidade �nita de passos, obteremos um
conjunto αr formado por n− r vetores (0 ≤ r ≤ n− 1) linearmente indepen-
dentes que ainda geram V . �
80 CAPÍTULO 3. ESPAÇOS VETORIAIS
O próximo resultado generaliza o Teorema 3.2.2.
Teorema 3.3.3. Seja V um espaço vetorial gerado por um conjunto �nito
de vetores v1, v2, . . . , vn . Então, qualquer conjunto com mais de n vetores
de V é linearmente dependente. (Consequentemente, qualquer conjunto de
vetores de V linearmente independente tem no máximo n vetores).
Demonstração Consideremos α = {v1, v2, . . . , vn}. Pelo Teorema 3.3.2, po-
demos extrair de α uma base de V . Suponhamos sem perda de generalidade
que β = {v1, v2, . . . , vr} seja esta base (notemos que 1 ≤ r ≤ n). Conside-
remos agora w1, w2, . . . , wm vetores de V , com m > n. Vamos mostrar que
estes vetores são linearmente dependentes. De fato, como β é uma base de
V , existem números reais aij (1 ≤ i ≤ m, 1 ≤ j ≤ r) tais que
w1 = a11v1 + a12v2 + · · ·+ a1rvr,
w2 = a21v1 + a22v2 + · · ·+ a2rvr,
......
......
wm = am1v1 + am2v2 + · · ·+ amrvr.
(4)
Se x1w1 + x2w2 + · · ·+ xmwm = 0, segue de (4) que
(a11x1 + a21x2 + · · ·+ am1xm)v1 + · · ·+ (5)
+ (a1rx1 + a2rx2 + · · ·+ amrxm)vr = 0.
Como β é linearmente independente, a equação (5) nos fornece o sistema
linear homogêneo a11x1 + a21x2 + · · ·+ am1xm = 0
......
...
a1rx1 + a2rx2 + · · ·+ amrxm = 0
que tem r equações e x1, x2, . . . , xm como incógnitas. Como r < m, o Coro-
lário 2.2.7 garante que o sistema linear em questão admite in�nitas soluções.
Logo, ele admite uma solução não trivial, ou seja, existe uma solução com
algum xi não nulo. Portanto, os vetores w1, w2, . . . , wm são dependentes. �
3. BASES E DIMENSÃO 81
Um espaço vetorial não nulo V é chamado de dimensão �nita se con-
tém um conjunto �nito {v1, v2, . . . , vn} de vetores que constitui uma base de
V . Se não existir um tal conjunto, dizemos que V é de dimensão in�nita.
Convencionamos que o espaço vetorial nulo é um espaço de dimensão �nita.
O próximo resultado, que é uma consequência do Teorema 3.3.3, nos
garante que todas as bases de um espaço vetorial de dimensão �nita têm o
mesmo número de elementos.
Teorema 3.3.4. Sejam α = {v1, v2, . . . , vr} e β = {w1, w2, . . . , ws} duas
bases de um espaço vetorial V . Então, r = s. Além disso, se A = (aij) e
B = (bij) são as matrizes com coe�cientes reais tais que
vi =r∑j=1
aijwj e wj =r∑
k=1
bjkvk,
então AB = I.
Demonstração Como α gera V e β é um conjunto linearmente indepen-
dente, segue do Teorema 3.3.3 que s ≤ r. Por outro lado, como β gera V e α
é um conjunto linearmente independente, segue do Teorema 3.3.3 que r ≤ s.
Portanto, r = s.
Sejam A e B tais que
vi =r∑j=1
aijwj e wj =r∑
k=1
bjkvk.
. Logovi =
∑rj=1 aijwj =
∑rj=1 aij (
∑rk=1 bjkvk)
=∑n
k=1
(∑nj=1 aijbjk
)vk.
Como os vi, i = 1, . . . , r formam um conjunto linearmente independente, isto
acarreta (justi�que) quer∑j=1
aijbjk = δik,
logo AB = I, provando a parte que faltava do resultado. �
82 CAPÍTULO 3. ESPAÇOS VETORIAIS
3.2 Dimensão
O número de elementos de uma base de um espaço vetorial V de dimensão
�nita é chamado de dimensão de V e denotado por dimV . Convencionamos
que se V é o espaço vetorial nulo, então dimV = 0.
Exemplo 3. Rn eM(m,n) são espaços vetoriais de dimensão �nita. A di-
mensão de Rn é n, já que a base canônica de Rn tem n elementos (ver Exemplo
1). Por esta razão, Rn é chamado de espaço n-dimensional. Os espaços veto-
riais R2 e R3 são usualmente chamados de espaços bidimensional e tridimen-
sional, respectivamente. Já a dimensão de M(m,n) é m · n (ver Exemplo
2). O espaço vetorial R[x], introduzido por Peano e que apresentamos no
Exemplo 3 da Seção 1, Capítulo 1, é um espaço vetorial que tem dimensão
in�nita. De fato, tomemos n ∈ N \ {0} e suponhamos que α = {p1, . . . , pn} éuma base de R[x]. Observemos que qualquer combinação linear dos elemen-
tos de α tem grau no máximo M , onde M = max{grau(pi) ; 1 ≤ i ≤ n}.Assim, o polinômio q(x) = xM+1 está em R[x], mas não pode ser escrito como
combinação linear dos elementos de α. Portanto, α não forma uma base de
R[x]. Como n foi tomado de modo arbitrário, vemos que nenhum conjunto
�nito de vetores em R[x] constitui uma base para este espaço vetorial.
Vimos no Teorema 3.3.2 que em espaços vetoriais V de dimensão �nita,
um conjunto gerador contém sempre uma base de V . A seguir, veremos que
um conjunto linearmente independente está contido em alguma base de V .
Teorema 3.3.5. Qualquer subconjunto linearmente independente de um es-
paço vetorial V de dimensão �nita pode ser completado de modo a formar
uma base de V .
Demonstração Suponhamos dimV = n. Seja α = {w1, w2, . . . , wr} um
conjunto de vetores linearmente independentes de V . Pelo Teorema 3.3.3,
r ≤ n. Se α gera V , então α é uma base de V , e a demonstração acaba
aqui (neste caso, r = n). Se α não gera V , então existe um vetor de V
que não pertence ao espaço gerado por α. Chamemos este vetor de wr+1 .
O conjunto {w1, w2, . . . , wr+1} é linearmente independente. (Por quê? Veja
3. BASES E DIMENSÃO 83
Problema 2.9). Se este conjunto gera V , temos então uma base de V que
contém α. Caso contrário, prosseguimos usando o argumento acima. Como
não podemos ter mais do que n vetores independentes em V , após um número
�nito de passos teremos obtido uma base de V que contém os vetores de α.
�
Terminamos esta seção apresentando um resultado que envolve a noção de
dimensão para subespaços. Mais precisamente, mostraremos que a dimensão
de um subespaço W de um espaço vetorial de dimensão �nita V não pode
exceder a dimensão de V e que a única maneira de W ter a mesma dimensão
de V é sendo igual a V .
Teorema 3.3.6. Seja V um espaço vetorial de dimensão �nita. Se W é um
subespaço de V , então W tem também dimensão �nita e dimW ≤ dimV .
Além disso, se dimW = dimV , então W = V .
Demonstração Se W = {0}, W tem dimensão �nita. Se W 6= {0}, tome
w1 ∈ W com w1 6= 0. O conjunto α1 = {w1} é independente. Se α1 gera W ,
então α1 é uma base de W . Assim, W tem dimensão �nita igual a 1. Se α1
não gera W , existe w2 ∈ W com w2 /∈ G(w1). O conjunto α2 = {w1, w2} éindependente. Se α2 gera W , então W tem dimensão �nita igual a 2. Se α2
não gera W , prosseguimos com o raciocínio anterior. Como dimV é �nita,
digamos n, e qualquer conjunto independente de V tem no máximo n vetores,
existe m ∈ N \ {0} com m ≤ n tal que
αm = {w1, w2, . . . , wm}
é uma base de W . Isto prova que W tem dimensão �nita e que dimW = m,
com m ≤ n.
Suponhamos agora que dimW = dimV = n. Seja β = {w1, w2, . . . , wn}uma base de W . Suponhamos que W 6= V . Como W ⊂ V , existe então um
vetor de V que não está em W . Chamemos este vetor de v. Como v /∈ W ,
o conjunto {w1, w2, . . . , wn, v} é um conjunto de vetores de V linearmente
independente. Como este conjunto tem n + 1 vetores e dimV = n, temos
uma contradição. Portanto, de fato, W = V . �
84 CAPÍTULO 3. ESPAÇOS VETORIAIS
Observe que a demonstração da primeira parte do Teorema 3.3.6 nos
dá um método para acharmos uma base de um subespaço. Em particular,
mostramos que todo espaço vetorial não nulo de dimensão �nita tem uma
base.
Problemas
3.1* Seja V um espaço vetorial tal que dimV = n. Prove que:
(a) n vetores linearmente independentes de V formam uma base de V ;
(b) n vetores que geram V formam uma base de V .
Em geral, para mostrar que um conjunto de vetores α é uma base de um
espaço vetorial V , devemos veri�car que os vetores em α são linearmente
independentes e que geram V . No entanto, se soubermos que V tem dimensão
n e que α tem n elementos, então para que α seja uma base de V , basta
veri�car que os seus elementos são linearmente independentes ou que geram
V , pois uma condição automaticamente implica a outra. Ou seja, o trabalho
de veri�car se α é uma base �ca simpli�cado!
3.2* Seja V o espaço vetorial das matrizes simétricas 2 × 2. Mostre que
dimV = 3 e exiba uma base de V .
3.3* Sejam U e W os seguintes subespaços de R4:
U = {(a, b, c, d) ; b+ c+ d = 0}, W = {(a, b, c, d) ; a+ b = 0, c = 2d}.
Ache uma base e a dimensão de
(a) U , (b) W , (c) U ∩W , (d) U +W .
3.4 Seja α = {v1, v2, v3}, onde v1 = (1, 1, 0), v2 = (0, 1,−1) e v3 = (2, 0, 2).
(a) α é linearmente independente ou dependente? Justi�que a sua resposta.
(b) Obtenha β ⊂ α tal que β é independente e que G(β) = G(α).
(c) Qual a dimensão de G(α)? Justi�que.
3.5 Seja U um subespaço de um espaço vetorial V de dimensão �nita. Mostre
que existe um subespaço W de V tal que V = U ⊕W .
3. BASES E DIMENSÃO 85
3.6 Determine se as matrizes
A =
[1 1
0 0
], B =
[0 1
1 0
], C =
[0 0
−1 −1
]e D =
[0 0
0 −1
]
formam uma base deM(2, 2).
3.7 Determine a dimensão do espaço vetorial de todas as matrizes 3 × 3
triangulares superiores.
3.8 Seja A uma matriz 3 × 3. Por que o conjunto I, A,A2, . . . , A9 é linear-
mente dependente?
3.9 Determine a dimensão do espaço vetorial de todos os polinômios p de
grau ≤ 4 tais que p(1) = 0.
3.10 Seja W o subespaço vetorial deM(2, 2) dado por
W =
{[a b
c d
]; a = d e c = a+ b
}.
(a) Qual a dimensão de W?
(b) O conjunto {[1 −10 1
],
[2 1
3 4
]}é uma base de W? Por quê?
3.11 Encontre uma base e a dimensão do conjunto solução dos seguintes
sistemas:
(a)
x+ 2y − 2z − t = 0
x+ y + z + t = 0
x+ 2y + 3z + 2t = 0 ;
(b)
x+ y − 2z + t = 0
2x+ 2y − 4z + 2t = 0 .
3.12 Podemos ter uma base de R[x]n formada por n+ 1 polinômios de grau
n? Justi�que a sua resposta.
3.13 Encontre as coordenadas de:
86 CAPÍTULO 3. ESPAÇOS VETORIAIS
(a) u = (1,−1) em relação à base {(2,−4), (3, 8)} de R2;
(b) u = (1,−1) em relação à base {(1, 1), (0, 2)} de R2;
(c) p(x) = 2 + x− x2 em relação à base {1 + x, 1 + x2, x+ x2} de R[x]2.
3.14 Seja V um espaço vetorial de dimensão �nita e seja α uma base de V .
Mostre que:
(a) [v + w]α = [v]α + [w]α para quaisquer v e w em V ;
(b) [cv]α = c[v]α para todo v em V e para todo c ∈ R.
3.15 Sejam U e V espaços vetoriais, de dimensões r e s, respectivamente.
Mostre que o espaço vetorial U × V , de�nido no Problema 1.5, do Capítulo
1, tem dimensão r + s.
Sugestão Se {u1, . . . , ur} é uma base de U e {v1, . . . , vs} é uma base de V ,
mostre que {(ui, 0); 1 ≤ i ≤ r} ∪ {(0, vj); 1 ≤ j ≤ s} é uma base de U × V .
3.16 Sejam U eW subespaços de um espaço vetorial V tais que U∩W = {0}.Sejam {u1, . . . , ur} e {w1, . . . , ws}, respectivamente, bases de U e W . Mostre
que {ui; 1 ≤ i ≤ r} ∪ {wj; 1 ≤ j ≤ s} é uma base de U +W . Conclua que
dim(U +W ) = dimU + dimW .
4 Espaço Linha de uma Matriz
Nesta seção vamos apresentar um método para encontrar uma base de
subespaços de Rn, usando as transformações elementares nas linhas de uma
matriz.
Para uma matriz m× n
A =
a11 a12 . . . a1n
a21 a22 . . . a2n...
......
am1 am2 . . . amn
,
4. ESPAÇO LINHA DE UMA MATRIZ 87
os vetores
v1 = (a11, a12, . . . , a1n)
v2 = (a21, a22, . . . , a2n)
......
vm = (am1, am2, . . . , amn)
em Rn formados pelas linhas de A são chamados os vetores linha de A. O
espaço G(v1, . . . , vm) gerado pelos vetores linha de A é chamado espaço linha
de A e denotado por L(A). Note que L(A) é um subespaço de Rn.
O espaço linha de uma matriz não se altera ao aplicarmos transformações
elementares. De fato, se A = [aij] é uma matriz m× n, é fácil veri�car que
G(v1, . . . , vi, . . . , vj, . . . , vm) = G(v1, . . . , vj, . . . , vi, . . . , vm),
G(v1, . . . , vi, . . . , vm) = G(v1, . . . , kvi, . . . , vm) (k 6= 0),
G(v1, . . . , vi, . . . , vj, . . . , vm) = G(v1, . . . , vi + kvj, . . . , vj, . . . , vm) (k ∈ R).
Em outras palavras,
L(A) = L(B), onde B = e(A), com e : Li ↔ Lj ;
L(A) = L(B), onde B = e(A), com e : Li → kLi (k 6= 0);
L(A) = L(B), onde B = e(A), com e : Li → Li + kLj (k ∈ R).
Disto decorre o seguinte importante fato:
Duas matrizes equivalentes geram o mesmo espaço linha.
O próximo resultado mostra como obter uma base para o espaço linha de
uma matriz.
Teorema 3.4.1. As linhas não nulas de uma matriz A, na forma escalonada
e equivalente a uma matriz A, formam uma base para o espaço linha de A.
Demonstração Sejam A uma matriz m × n e A = [aij] uma matriz na
forma escalonada equivalente a A. Suponhamos que A tem p linhas não
88 CAPÍTULO 3. ESPAÇOS VETORIAIS
nulas e consideremos os vetores
v1 = (a11, . . . , a1n)
v2 = (a21, . . . , a2n)
......
vp = (ap1, . . . , apn)
formados pelas linhas não nulas de A. Pelo que vimos anteriormente, L(A) =L(A) = G(v1, v2, . . . , vp), já que A é uma matriz equivalente a A. Vamos
mostrar que {v1, v2, . . . , vp} é linearmente independente. Para cada 1 ≤i ≤ p, seja ki a coluna na qual aparece o primeiro elemento não nulo da
i-ésima linha de A, ou seja aiki = 1 e ai,l = 0, se l < ki. Suponhamos que
a1v1 + · · ·+ apvp = 0, que reescrevemos como segue:
a1(0, . . . , 0, a1k1 , ?, . . . , ?, 0 , . . . , 0, . . . , ?)
+ a2(0, . . . , 0, 0 , 0, . . . , 0, a2k2 , . . . , 0, . . . , ?)...
+ ap(0, . . . , 0, 0 , 0, . . . , 0, 0, . . . , apkp , . . . , ?)
= (0, . . . , 0, 0 , 0, . . . , 0, 0 , . . . , 0, . . . , 0),
onde ? representa um número real.
Logo, a igualdade de vetores, acima, nos fornece um sistema de equações
lineares nas incógnitas a1, a2, . . . , ap, o qual contém as equações
a1a1k1 = · · · = apapkp = 0.
Como aiki = 1, para todo i = 1, . . . , p, segue que a1 = a2 = · · · = ap = 0.
Portanto, {v1, v2, . . . , vp} gera L(A) e é linearmente independente, ou seja,
{v1, v2, . . . , vp} forma uma base de L(A). �
Corolário 3.4.2. O posto pA de uma matriz A é o número máximo de linhas
linearmente independentes da mesma. Mais precisamente, pA = dimL(A).
4. ESPAÇO LINHA DE UMA MATRIZ 89
Demonstração A dimensão do espaço linha de uma matriz é igual ao
número máximo de linhas linearmente independentes da mesma. Como o
espaço linha de uma matriz é igual ao espaço linha de uma matriz escalonada
equivalente a ela, sua dimensão é igual ao número de linhas não nulas dessa
última, que é igual ao posto da matriz. �
O exemplo a seguir nos mostrará como o Teorema 3.4.1 pode nos ajudar
a determinar o espaço gerado por vetores em Rn.
Exemplo 1. Determine uma base do espaço gerado pelos vetores v1 =
(1,−2, 0, 0, 3), v2 = (2,−5,−3,−2, 6), v3 = (0, 5, 15, 10, 0) e v4 = (2, 6, 18, 8, 6).
O espaço gerado pelos vetores v1, v2, v3 e v4 é o espaço linha da matriz
A =
1 −2 0 0 3
2 −5 −3 −2 6
0 5 10 10 0
2 6 18 8 6
.Reduzindo esta matriz à forma escalonada obtemos a matriz
A =
1 0 0 −2 3
0 1 0 −1 0
0 0 1 1 0
0 0 0 0 0
.Os vetores linha não nulos da matriz A são os vetores w1 = (1, 0, 0,−2, 3),w2 = (0, 1, 0,−1, 0) e w3 = (0, 0, 1, 1, 0). Estes vetores formam uma base
para o subespaço de R5 gerado por v1, v2, v3 e v4 .
Assim, se W = G(v1, v2, v3, v4), então
W = G(w1, w2, w3)
= {xw1 + yw2 + zw3 ; x, y, z ∈ R}= {(x, y, z,−2x− y + z, 3x) ; x, y, z ∈ R}.
Problemas
90 CAPÍTULO 3. ESPAÇOS VETORIAIS
4.1* Seja U o subespaço de R4 gerado pelos vetores
u1 = (1,−2, 3,−3), u2 = (2, 3, 1,−4), u3 = (3, 8,−3,−5).
(a) Ache uma base e a dimensão de U .
(b) Estenda a base de U a uma base de todo o espaço R4.
4.2* Seja U o subespaço de R4 gerado pelos vetores
u1 = (2, 4,−2, 6), u2 = (1, 2, 1/2,−1) e u3 = (3, 6, 3,−7)e seja W o subespaço de R4 gerado pelos vetores
w1 = (1, 2,−4, 11) e w2 = (2, 4,−5, 14).Mostre que U = W .
4.3 Determine se (1, 1, 1), (1, 2, 3) e (0, 3, 1) formam uma base de R3.
4.4 Ache uma base e a dimensão do subespaço W de R4 gerado por
w1 = (−1, 4, 2,−1), w2 = (1,−3,−1, 2) e w3 = (4,−10,−2, 10).
Estenda a base de W a uma base de todo R4.
4.5 Encontre os vetores da base canônica que podem ser acrescentados ao
conjunto {v1, v2, v3} para formar uma base de R5, onde
v1 = (1,−4, 2,−3, 0), v2 = (−3, 8,−4, 6, 0) e v3 = (0,−1, 2, 5,−4).
Bibliogra�a
[1] H. P. Bueno, Álgebra Linear, um segundo curso, Coleção Textos Univer-
sitários, SBM, 2006.
[2] P. Halmos, Teoria Ingênua dos Conjuntos , Editora Ciência Moderna,
2001.
[3] A. Hefez e M. L. T. Villela, Códigos Corretores de Erros , Coleção Mate-
mática e Aplicações, IMPA, 2008.
[4] A. Hefez e M. L. T. Villela, Números Complexos e Polinômios , Coleção
PROFMAT, SBM, 2012.
[5] V. J. Katz, A History of Mathematics - an Introduction, HarperCollins
College Publishers, 1993.
[6] S. Lang, Introduction to Linear Algebra, 2nd edition, Undergraduate Texts
in Mathematics, Springer, 1986.
[7] E.L. Lima, Álgebra Linear , 3a edição, Coleção Matemática Universitária,
IMPA, 1998.
[8] E.L. Lima, Geometria Analítica e Álgebra Linear , 2a edição, Coleção
Matemática Universitária, IMPA, 2010.
300
4
91
Livro: Introdução à Álgebra LinearAutores: Abramo Hefez
Cecília de Souza Fernandez
Capítulo 4: O Espaço Vetorial R3
Sumário
1 Retas e Planos em R3 . . . . . . . . . . . . . . . . . 93
1.1 Retas em R3 . . . . . . . . . . . . . . . . . . . . . 93
1.2 Planos em R3 . . . . . . . . . . . . . . . . . . . . . 99
2 Posições Relativas . . . . . . . . . . . . . . . . . . . 107
3 Determinantes e Geometria . . . . . . . . . . . . . 111
3.1 Determinantes . . . . . . . . . . . . . . . . . . . . 111
3.2 O Produto Vetorial . . . . . . . . . . . . . . . . . . 115
92 CAPÍTULO 4. O ESPAÇO VETORIAL R3
Neste Capítulo, aplicaremos os conceitos vistos no capítulo anterior à
Geometria Analítica em R3. Mais precisamente, usaremos os conceitos de
subespaço vetorial, base e dimensão para estudar as noções de retas e planos
em R3. Uma ferramenta essencial para o estudo da geometria em R3 é a
noção de produto escalar que introduziremos em seguida.
Dados u = (x1, x2, x3) e v = (y1, y2, y3) em R3, de�nimos o produto escalar
de u e v, denotado por u · v, como o número real
u · v = x1y1 + x2y2 + x3y3.
Por exemplo, (1, 2,−1) · (0, 2, 1) = 1.0 + 2.2 + (−1)(1) = 3.
É fácil veri�car que, para quaisquer u, v, w ∈ R3 e a ∈ R, tem-se
(i) u · v = v · u,(ii) u · (v + w) = u · v + u · w,(iii) (au) · v = u · (av) = a(u · v).
Dados dois vetores u e v em R3, dizemos que eles são ortogonais , e denotamos
u ⊥ v, quando u · v = 0.
O produto escalar é um caso particular de uma classe de produtos de-
�nidos em espaços vetoriais de dimensão qualquer, chamados de produtos
internos, que serão estudados no Capítulo 7.
A partir do produto escalar, podemos de�nir a norma de um vetor v =
(x, y, z), como
||v|| =√v · v =
√x2 + y2 + z2 .
Note que da de�nição segue-se imediatamente que ||v|| ≥ 0 e que ||v|| = 0
se, e somente se, v = 0.
Geometricamente, a norma do vetor v representa a distância da origem
de R3 ao ponto de coordenadas (x, y, z), ou seja, é igual ao módulo do vetor
v.
Mostraremos a seguir como a noção de produto escalar permite também
calcular o ângulo entre dois vetores em R3.
1. RETAS E PLANOS EM R3 93
Lembremos que o ângulo entre dois vetores não nulos u e v em R3 é o
ângulo θ formado por eles tal que 0 ≤ θ ≤ π (Figura 2).
Figura 2
Aplicando a lei dos cossenos no triângulo da Figura 2, obtemos
||u− v||2 = ||u||2 + ||v||2 − 2||u|| ||v|| cos θ. (1)
Por outro lado, segue das propriedade (i), (ii) e (iii) do produto escalar que
||u− v||2 = (u− v) · (u− v)= u · u− u · v − v · u+ v · v= ||u||2 − 2u · v + ||v||2. (2)
De (1) e (2), temos que
cos θ =u · v||u|| ||v||
· (3)
1 Retas e Planos em R3
1.1 Retas em R3
Seja v um vetor não nulo em R3. Seja W o conjunto de todas as combi-
nações lineares de v, ou seja,
W = G(v) = {tv ; t ∈ R}.
94 CAPÍTULO 4. O ESPAÇO VETORIAL R3
Geometricamente, W é o conjunto de todas as dilatações, contrações e in-
versões de v. (Figura 3).
Figura 3
Tomemos A um ponto de R3. De�nimos a reta que contém A e tem
direção v, e denotamos r(A, v), como o conjunto
r(A, v) = {A+ tv ; t ∈ R} = {A}+W.
O vetor v é chamado de um vetor diretor da reta r(A, v). Notemos que, pelo
Teorema 3.1.7, todo vetor não nulo em G(v) é um vetor diretor de r(A, v).
Pela regra do paralelogramo, é fácil determinar r(A, v) geometricamente. De
fato, a reta r(A, v) é determinada pelos vetores dados pela diagonal, que
parte da origem, do paralelogramo formado pelos vetores vA e tv (t ∈ R)(Figura 4), sendo que vA é o vetor dado pelo ponto A.Figura 4
Observamos que G(v), v 6= 0, é a reta que passa pela origem com direção
v, ou seja,
G(v) = r(0, v).
Portanto, todo subespaço vetorial de R3 de dimensão 1 é, geometricamente,
uma reta que passa pela origem. Reciprocamente, uma reta que passa pela
origem é o espaço gerado por um de seus vetores diretores e, consequente-
mente, é um subespaço vetorial de R3 de dimensão 1. Assim, caracterizamos
geometricamente todos os subespaços vetoriais de R3 com dimensão 1: os
1. RETAS E PLANOS EM R3 95
subespaços vetoriais de R3 com dimensão 1 são as retas em R3 que passam
pela origem.
A seguir apresentamos os diversos tipos de equações de uma reta em R3.
Seja r(A, v) uma reta em R3. Tomemos P ∈ R3. Temos que P ∈ r(A, v)
quando P = A+ tv para algum t ∈ R. A equação
P = A+ tv, t ∈ R, (1)
é chamada equação vetorial da reta r(A, v). Escrevendo P = (x, y, z),
A = (x1, y1, z1) e v = (a, b, c), obtemos de (1) que
(x, y, z) = (x1, y1, z1) + t(a, b, c), t ∈ R,
o que equivale às equações
x = x1 + ta, t ∈ R,
t = y1 + tb, t ∈ R, (2)
z = z1 + tc, t ∈ R.
As equações em (2) são chamadas de equações paramétricas de r(A, v). Se
a 6= 0, b 6= 0 e c 6= 0, obtemos de (2) que
t =x− x1a
=y − y1b
=z − z1c
,
ou seja,x− x1a
=y − y1b
=z − z1c· (3)
96 CAPÍTULO 4. O ESPAÇO VETORIAL R3
As equações em (3) são chamadas de equações simétricas da reta r(A, v).
Podemos apresentar as equações em (3) de uma outra forma, explicitando as
variáveis y e z e expressando-as em função de x. De fato,
y − y1b
=x− x1a
⇐⇒ y − y1 =b
a(x− x1) ⇐⇒ y = mx+ n,
onde
m =a
be n = − b
ax1 + y1,
ez − z1c
=x− x1a
⇐⇒ z − z1 =c
a(x− x1) ⇐⇒ z = px+ q,
onde
p =c
ae q = − c
ax1 + z1 .
As equações {y = mx+ n
z = px+ q, x ∈ R,(4)
são chamadas de equações reduzidas da reta r(A, v). Observamos que em (4) a
variável x aparece como variável independente. Se expressarmos as equações
de forma que a variável independente seja y ou z, as equações obtidas são
também chamadas de equações reduzidas.
Exemplo 1. Encontremos as equações paramétricas da reta que tem como
um vetor diretor v = (1, 0, 2) e que contém o ponto A = (2, 1,−3).Ora, as equações paramétricas da reta r(A, v) são
x = 2 + t
y = 1,
z = −3 + 2t; t ∈ R.
Exemplo 2. Determinemos a e b para que o ponto P = (1, a, b) pertença à
reta de equações x = −2 + t
y = 3− t,z = −1 + 2t; t ∈ R.
1. RETAS E PLANOS EM R3 97
Para que P pertença à reta dada, as componentes de P devem satisfazer
as equações acima, ou seja, devemos ter1 = −2 + t
a = 3− t,b = −1 + 2t,
para algum t ∈ R. A solução procurada é então a = 0 e b = 5.
Exemplo 3. Consideremos as retas r = r(A, v) e s = r(B,w), onde A =
(0, 1, 0), B = (1, 0, 0), v = (1,−1, 2) e w = (2, 1, 3). Vamos veri�car que
r ∩ s = ∅.Com efeito, se P = (x0, y0, z0) ∈ r, então, para algum t1 ∈ R,
x0 = t1, y0 = 1− t1, z0 = 2t1. (5)
E, se P = (x0, y0, z0) ∈ s, então, para algum t2 ∈ R,
x0 = 1 + 2t2, y0 = t2, z0 = 3t2. (6)
De (5) segue-se que P = (x0, 1 − x0, 2x0). E, de (6), segue-se que P =
(x0,x0−12, 3(x0−1)
2). Assim,
1− x0 =x0 − 1
2e 2x0 =
2
3(x0 − 1),
o que não ocorre para nenhum x0 em R. Logo, não existe P ∈ r ∩ s, ou seja,
r ∩ s = ∅.
Segue da de�nição de vetores colineares em um espaço vetorial sobre um
corpo K, dada na Seção 1 do Capítulo 1, que dois vetores v1 e v2 em R3 são
colineares quando eles pertencem a uma mesma reta que passa pela origem.
(Figura 5). Figura 5
Suponhamos que v1 e v2 pertençam à reta r(0, v). Então existem t1 e t2em R tais que v1 = t1v e v2 = t2v. Se v2 é o vetor nulo, {v1, v2} é dependente.Se v2 não é o vetor nulo, então t2 é um número real não nulo. Assim,
v1 −t1t2v2 = 0,
98 CAPÍTULO 4. O ESPAÇO VETORIAL R3
mostrando que {v1, v2} é dependente. Reciprocamente, sejam w1 e w2 vetores
não nulos em R3. Se {w1, w2} é um conjunto linearmente dependente, então
existe t ∈ R tal que w1 = tw2 . Logo, w1 pertence a reta r(0, w2). Portanto,
o conceito �v1 e v2 são linearmente dependentes� (linguagem algébrica) e o
conceito �v1 e v2 são colineares� (linguagem geométrica) são equivalentes.
Ou seja, provamos o seguinte resultado.
Proposição 4.1.1. Dois vetores v1 e v2 em R3 são linearmente dependentes
se, e somente se, v1 e v2 são colineares .
Discutimos acima a noção de vetores colineares. Existe também a noção
de pontos colineares. Diremos que três pontos distintos A,B,C ∈ R3 são
colineares se existir uma reta em R3 que contenha os três pontos. Os dois
conceitos se relacionam de acordo com o resultado a seguir.
Proposição 4.1.2. Três pontos distintos A,B,C ∈ R3 são colineares se, e
somente se, os vetores v1 = B − A e v2 = C − A são colineares .
Demonstração Suponhamos que A,B e C pertençam a uma mesma reta.
Como por dois pontos distintos passa uma e somente uma reta (Problema
1.6), a reta de equação vetorial
P = A+ v1t, t ∈ R
contém A e B. Como C pertence à mesma reta, existe t0 ∈ R tal que
C = A+ v1t0,
1. RETAS E PLANOS EM R3 99
ou seja, v2 = v1t0, mostrando que v1 e v2 são colineares.
Reciprocamente, suponhamos que v1 e v2 sejam colineares. Então, existe
t0 ∈ R tal que v2 = t0v1, ou seja
C − A = t0(B − A).
Considere a reta de equação vetorial
P = A+ t(B − A), t ∈ R.
Note que tomando t = 0, temos P = A e tomando t = 1, temos P = B.
Assim, A e B pertencem à reta. Tomando t = t0, temos P = A+t0(B−A) =C. Portanto, A, B e C pertencem a uma mesma reta. �
Exemplo 4. Veri�quemos que os pontos A = (2, 3, 1), B = (1, 4,−1) e
C = (3, 2, 3) são colineares.
Pelas Proposições 4.1.1 e 4.1.2, devemos veri�car que os vetores v1 =
B−A e v2 = C−A são linearmente dependentes. Temos que v1 = (−1, 1,−2)e v2 = (1,−1, 2). Como v1 + v2 = 0, temos que v1 e v2 são linearmente
dependentes.
1.2 Planos em R3
Sejam v1 e v2 dois vetores linearmente independentes em R3. Seja W o
conjunto de todas as combinações lineares de v1 e v2 , ou seja,
W = G(v1, v2) = {sv1 + tv2 ; s, t ∈ R}.
Tomemos A um ponto de R3. De�nimos o plano que passa por A determinado
por v1 e v2 , e o denotamos por π(A, v1, v2), como o conjunto
π(A, v1, v2) = {A+ sv1 + tv2 ; s, t ∈ R} = {A}+W.
Os vetores v1 e v2 são chamados de vetores base do plano π(A, v1, v2)
(ver Figura 6). Figura 6
100 CAPÍTULO 4. O ESPAÇO VETORIAL R3
Notemos que, pelo Teorema 3.3.6, quaisquer dois vetores independentes
w1, w2 em G(v1, v2) formam uma base de π(A, v1, v2), pois G(w1, w2) ⊂G(v1, v2) e as dimensões dos dois espaços são iguais. Observemos também
que o espaço G(v1, v2) é o plano que passa pela origem determinado por v1 e
v2 , ou seja,
G(v1, v2) = π(0, v1, v2).
Portanto, todo subespaço vetorial de R3 de dimensão 2 é, geometricamente,
um plano que passa pela origem. Reciprocamente, um plano que passa pela
origem é o espaço gerado por dois de seus vetores base e, consequentemente, é
um subespaço vetorial de R3 de dimensão 2. Assim, caracterizamos geometri-
camente todos os subespaços vetoriais de R3 com dimensão 2: os subespaços
vetoriais de R3 com dimensão 2 são os planos em R3 que passam pela origem.
TomemosW um subespaço vetorial de R3. Pelo Teorema 3.3.6, segue que
dimW ≤ 3. Pelo que acabamos de ver, temos a seguinte classi�cação dos
subespaços W de R3:
aspecto algébrico aspecto geométrico
dimW = 0 ←→ W = {(0, 0, 0)} (origem do espaço)
dimW = 1 ←→ W é uma reta que passa pela origem
dimW = 2 ←→ W é um plano que passa pela origem
dimW = 3 ←→ W = R3
A seguir apresentamos a equação vetorial e as equações paramétricas de
um plano em R3. Seja π(A, v1, v2) um plano em R3. Tomemos P ∈ R3.
1. RETAS E PLANOS EM R3 101
Temos que P ∈ π(A, v1, v2) se, e somente se, P = A + sv1 + tv2 para certos
s, t ∈ R. A equação
P = A+ sv1 + tv2 , s ∈ R e t ∈ R (1)
é chamada equação vetorial do plano π(A, v1, v2). Escrevendo P = (x, y, z),
A = (x1, y1, z1), v1 = (a1, b1, c1) e v2 = (a2, b2, c2), obtemos de (1) que
(x, y, z) = (x1, y1, z1) + s(a1, b1, c1) + t(a2, b2, c2), s, t ∈ R,
o que equivale às equações
x = x1 + sa1 + ta2 , s, t ∈ R,
y = y1 + sb1 + tb2 , s, t ∈ R, (2)
z = z1 + sc1 + tc2 , s, t ∈ R.
As equações em (2) são chamadas de equações paramétricas de π(A,v1,v2).
Vamos apresentar agora a equação cartesiana ou equação geral de um plano.
Antes, precisamos apresentar a noção de vetor normal a um plano. Chama-
mos de vetor normal ao plano π(A, v1, v2) a um vetor não nulo ortogonal aos
vetores v1 e v2 (portanto, ortogonal a todo vetor do plano).
Seja n um vetor normal ao plano π(A, v1, v2). Seja P = (x, y, z) um
ponto de π(A, v1, v2). Denotemos por v o vetor dado por P − A. Então,
v = t1v1 + t2v2 para certos t1, t2 ∈ R. Como n ⊥ v1 e n ⊥ v2 , temos que
n · v1 = n · v2 = 0. Assim, n · v = 0. Se A = (x1, y1, z1) e n = (a, b, c), temos
que n · v = 0 equivale à equação
(a, b, c) · (x− x1, y − y1, z − z1) = 0,
ou seja,
ax+ by + cz + d = 0, (3)
onde d = −ax1 − by1 − cz1 . A equação em (3) é chamada de equação geral
ou cartesiana do plano π(A, v1, v2).
102 CAPÍTULO 4. O ESPAÇO VETORIAL R3
Exemplo 5. Determinemos as equações cartesianas dos planos cartesianos
xOy, yOz e xOz.
Os vetores e1 = (1, 0, 0) e e2 = (0, 1, 0) são vetores base para o plano
cartesiano xOy e o vetor e3 é um vetor normal ao plano xOy. Como e3 =
(0, 0, 1), a equação
z + d = 0x+ 0y + 1 · z + d = 0
é uma equação cartesiana do plano xOy, onde d é um número real a ser
determinado. Como a origem pertence ao plano xOy, temos que
d = 0 + d = 0.
Assim, z = 0 é a equação cartesiana do plano xOy.
As equações x = 0 e y = 0 são as equações cartesianas dos planos yOz e
xOz, respectivamente.
Pela de�nição, vimos que um plano �ca determinado por um ponto
A em R3 e por dois vetores v1 e v2 em R3 linearmente independentes. Existem
outras maneiras de se determinar um plano. No resultado a seguir, vamos
apresentar três outras maneiras de se determinar um plano em R3.
1. RETAS E PLANOS EM R3 103
Teorema 4.1.3.
(i) Existe um único plano em R3 que passa por um ponto A e tem um vetor
não nulo n como vetor normal.
(ii) Existe um único plano em R3 que passa por três pontos A, B e C não
colineares.
(iii) Existe um único plano que passa por uma reta r e um ponto A fora
de r.
Demonstração Provaremos apenas o item (i), deixando os demais itens
para o leitor (veja Problema 1.12).
Seja A um ponto em R3 e seja n um vetor não nulo. Consideremos
W = {v ∈ R3 ; v ·n = 0}. Como n é não nulo, W é um subespaço vetorial de
R3 de dimensão 2. Assim, podemos tomar dois vetores linearmente indepen-
dentes em W , digamos, v1 e v2 . O plano π(A, v1, v2) contém A e tem n como
um vetor normal. Mais ainda, este plano é o único com tais propriedades.
De fato, consideremos π(P,w1, w2) um plano que contém A e tem n como
um vetor normal. Vejamos que π(P,w1, w2) = π(A, v1, v2). Tomemos Q em
π(P,w1, w2). Então, existem ` e m em R tais que
Q = P + `w1 +mw2 . (4)
Como π(P,w1, w2) contém A, existem p e q em R tais que
A = P + pw1 + qw2 . (5)
Tomando a diferença (4)-(5), obtemos que
Q = A+ rw1 + sw2 (6)
com r e s em R. Como w1, w2 ∈ W , existem números reais a, b, c e d tais
que {w1 = av1 + bv2
w2 = cv1 + dv2 .(7)
104 CAPÍTULO 4. O ESPAÇO VETORIAL R3
Finalmente, substituindo (7) em (6), obtemos
Q = A+ (ra+ sc)v1 + (rb+ sd)v2 ,
ou seja, Q ∈ π(A, v1, v2). Mostramos assim que π(P,w1, w2) ⊂ π(A, v1, v2).
Deixamos para o leitor veri�car a outra inclusão. �
Exemplo 6. Determinemos a equação cartesiana do plano que contém o
ponto A = (1, 1, 1) e a reta r de equações paramétricasx = 2t,
y = 3t,
z = 1 + t; t ∈ R.
Como A /∈ r, pelo Teorema 4.1.3, existe um único plano π que contém A
e r. Para determinarmos este plano, tome B ∈ r e v um vetor diretor da reta
r; digamos B = (0, 0, 1) e v = (2, 3, 1). Considere w = B − A = (−1,−1, 0).O plano π(A, v, w) é o plano procurado. Note que aqui estamos dando uma
ideia de como resolver parte do Problema 1.12, provando assim o item (iii)
do Teorema 4.1.3.
Figura 7
O vetor n = (1,−1, 1) é um vetor normal ao plano π, logo uma equação
cartesiana deste plano é dada por
x− y + z + d = 0,
1. RETAS E PLANOS EM R3 105
onde d é um número real a ser determinado. Como A ∈ π, segue que
1− 1 + 1 + d = 0,
ou seja, d = −1. Portanto, uma equação cartesiana de π é
x− y + z − 1 = 0.
Exemplo 7. Determinaremos a equação vetorial do plano que contém os
pontos A = (1, 2, 3), B = (1,−1, 0) e C = (0, 2, 1).
Como os vetores v1 = B − A = (0,−3,−3) e v2 = C − A = (−1, 0,−2)são linearmente independentes, os pontos A, B e C não pertencem a uma
mesma reta. Assim, pela parte (ii) do Teorema 4.1.3, existe um único plano
π que contém os pontos A, B e C. Este plano é o plano π(A, v1, v2) (aqui
estamos dando uma ideia de como resolver a outra parte do Problema 1.12,
provando assim o item (ii) do Teorema 4.1.3), cuja equação vetorial é dada
por
P = A+ tv1 + sv2, t, s ∈ R.
Ou seja,
(x, y, z) = (1, 2, 3) + t(0,−3,−3) + s(−1, 0,−2), t, s ∈ R.
Note que para t = s = 0, obtemos (1, 2, 3) na equação acima. Para t = 1 e
s = 0, obtemos (1,−1, 0). E, para t = 0 e s = 1, obtemos (0, 2, 1). Assim,
π(A, v1, v2) contém os pontos A, B e C.
Problemas
1.1 Mostre que se w é ortogonal a u e a v, então w é ortogonal a todo vetor
de G(u, v).
1.2* Mostre que, em R3, a dependência linear de três vetores pode ser des-
crita geometricamente como segue:
Três vetores quaisquer u, v e w são dependentes se, e somente se, estão
num mesmo plano que passa pela origem, ou seja, se eles são coplanares .
106 CAPÍTULO 4. O ESPAÇO VETORIAL R3
Este exercício é uma versão da Proposição 4.1.1 para três vetores em R3.
1.3* Determine a equação geral do plano que passa pelos pontos
A = (−1, 2, 0), B = (2,−1, 1) e C = (−1,−1, 1).
1.4 Determine uma base para cada um dos seguintes subespaços de R3:
(a) o plano 3x− 4y − z = 0;
(b) a reta x = 2t, y = −t, z = 3t;
(c) o plano x− y = 0.
1.5 As equações paramétricas de uma reta são
x = 2 + 4t, y = t− 4, z = 7− 8t (t ∈ R).
Reduzir estas equações à forma simétrica.
1.6 (Determinação de uma reta por dois pontos.) Sejam A e B dois pontos
distintos em R3. Mostre que a reta r(A, v), onde v é o vetor A−B, é a única
reta que contém A e B.
1.7 Determine as equações simétricas da reta que contém os pontos A =
(2, 3, 0) e B = (0, 1, 2).
1.8 Determine as equações reduzidas, em função da variável z, da reta que
passa pelos pontos A = (−1, 0, 1) e B = (1, 3,−2).
1.9 Qual deve ser o valor de k para que os pontos A = (3, k, 1), B = (1, 1,−1)e C = (−2, 10,−4) pertençam à mesma reta?
1.10 Represente gra�camente os planos de equações:
(a) x+ y + z = 0; (b) z − 2 = 0; (c) 2x+ y + z − 1 = 0.
1.11 Determine o valor de k para que os pontos A = (k,−1, 5), B = (7, 2, 1),
C = (−1,−3,−1) e D = (1, 0, 3) estejam no mesmo plano.
1.12 Conclua a demonstração do Teorema 4.1.3.
1.13 Determine as equações paramétricas do planox
4+y
3+z
2= 1.
2. POSIÇÕES RELATIVAS 107
1.14 Determine a equação do plano que passa pelo ponto (2,−1, 0) e contéma reta 2x− y − z + 4 = 0
x+ 2y − z + 3 = 0 .
1.15 Determine os pontos de interseção dos planos coordenados xOy, yOz e
xOz com a reta
r :
y = 2x− 3
z = −x+ 2 .
2 Posições Relativas
Vejamos a seguir como os conceitos de base e dimensão podem ser apli-
cados no estudo sobre as posições relativas entre retas, retas e planos e
planos em R3. Antes precisamos lembrar que duas retas r1 = r(A1, v1) e
r2 = r(A2, v2) em R3 são ditas coplanares quando elas pertencem a um
mesmo plano. Na linguagem algébrica, isto equivale a dizer que o conjunto
de vetores {v, v1, v2} é linearmente dependente, onde v denota o vetor A2−A1
(veja Problema 2.1). As retas r1 e r2 são ditas reversas quando não são co-
planares. Se r1 e r2 são retas reversas, então r1 ∩ r2 = ∅, ou seja, elas não
se intersectam. No caso de r1 e r2 serem coplanares um e somente um dos
casos abaixo pode ocorrer:
1) r1 ∩ r2 = ∅;
2) r1 ∩ r2 = {P}, onde P ∈ R3;
3) r1 ∩ r2 = r1 = r2 .
Se 1) ocorre, ou seja, se r1 e r2 não se intersectam, r1 e r2 são ditas retas
paralelas. Se 2) ocorre, ou seja, se r1 e r2 se intersectam em um único ponto de
R3, r1 e r2 são ditas retas concorrentes. Se 3) ocorre, ou seja, se a interseção
coincide com as retas dadas, r1 e r2 são ditas retas coincidentes. Vejamos
uma demonstração destes fatos.
108 CAPÍTULO 4. O ESPAÇO VETORIAL R3
Proposição 4.2.1. (Posições relativas de duas retas coplanares) Se-
jam r1 = r(A1, v1) e r2 = r(A2, v2) duas retas coplanares em R3. Então, r1e r2 são paralelas ou r1 e r2 são concorrentes ou r1 e r2 são coincidentes.
Demonstração Se r1 ∩ r2 = ∅, as retas são paralelas e não temos nada a
fazer. Suponhamos que r1∩r2 6= ∅. Então existe P ∈ R3 tal que P ∈ r1∩r2 .Logo,
r1 = {A1}+W1 = {P}+W1
e
r2 = {A2}+W2 = {P}+W2,
onde W1 = G(v1) e W2 = G(v2). Daí, temos que
r1 ∩ r2 = {P}+ (W1 ∩W2). (1)
Como W1 e W2 são subespaços vetoriais de R3, temos pela Proposição 3.1.3
que W1 ∩ W2 é um subespaço vetorial de W1 e de W2 . Como dimW1 =
dimW2 = 1, segue agora, pelo Teorema 3.3.6, que dim(W1∩W2) ≤ 1. Temos,
então, dois casos a considerar:
Caso 1. dim(W1 ∩W2) = 0.
Neste caso, W1 ∩W2 = {0}. Logo, por (1), segue que r1 ∩ r2 = {P}.
Caso 2. dim(W1 ∩W2) = 1.
Pelo Teorema 3.3.6, segue neste caso que W1 ∩W2 = W1 = W2 Logo, por
(1), segue que r1 ∩ r2 = r1 = r2 . �
Vejamos a seguir o que ocorre com dois planos em R3.
Proposição 4.2.2. (Posições relativas entre dois planos) Sejam dados
dois planos π1 = π(P1, v1, v2) e π2 = π(P2, v3, v4) em R3. Uma e somente
uma das possibilidades a seguir pode ocorrer:
1) π1 ∩ π2 = ∅;
2) π1 ∩ π2 = r, onde r é uma reta em R3;
3) π1 ∩ π2 = π1 = π2 .
2. POSIÇÕES RELATIVAS 109
Se 1) ocorre, os planos são ditos paralelos. Se 2) ocorre, os planos são
ditos concorrentes e, se 3) ocorre, os planos são ditos coincidentes.
Demonstração Sejam π1 = {P1} + W1 e π2 = {P2} + W2 , onde W1 =
G(v1, v2) eW2 = G(v3, v4). Se π1∩π2 = ∅, nada temos a fazer. Suponhamos
π1 ∩ π2 6= ∅. Tomemos P ∈ π1 ∩ π2 . Então
π1 = {P1}+W1 = {P}+W1
e
π2 = {P2}+W2 = {P}+W2 .
Daí, temos que
π1 ∩ π2 = {P}+ (W1 ∩W2). (2)
Como W1 ∩W2 é um subespaço vetorial de W1, segue, pelo Teorema 3.3.6,
que dim(W1 ∩W2) ≤ dimW1 = 2.
Por outro lado, dim(W1 ∩W2) 6= 0, pois, caso contrário, teríamos, pelo
Problema 3.16 do Capítulo 3, que
4 = dimW1 + dimW2 = dim(W1 +W2) ≤ dimR3 = 3,
o que é absurdo. Portanto, 0 < dim(W1 ∩W2) ≤ 2.
Se dim(W1 ∩W2) = 2, então W1 ∩W2 = W1 = W2 . Neste caso, por (2),
π1 ∩ π2 = {P}+W1 = {P}+W2 = π1 = π2 .
Se dim(W1 ∩W2) = 1, então existe um vetor v não nulo em R3 tal que
W1 ∩W2 = G(v). Seja r = r(P, v). Temos, então, neste caso que
π1 ∩ π2 = {P}+G(v) = r.
�
Terminamos esta seção, observando que, no caso de termos uma reta r
e um plano π em R3, pode ocorrer uma e apenas uma das possibilidades
abaixo:
110 CAPÍTULO 4. O ESPAÇO VETORIAL R3
1) r ∩ π = {P}, onde P é um ponto de R3;
2) r ∩ π = ∅;
3) r ∩ π = r.
Se 1) ocorre, dizemos que r e π são concorrentes; se 2) ocorre, r e π são ditos
paralelos; e, se 3) ocorre, r está contida no plano π. A demonstração destes
fatos segue de argumentos semelhantes aos usados nas Proposições 4.2.1 e
4.2.2 e é, portanto, omitida.
Problemas
2.1* Sejam r1 = r(A1, v1) e r2 = r(A2, v2) duas retas em R3. Seja v o vetor
dado por A2 − A1. As seguintes a�rmações são equivalentes:
(a) r1 e r2 são coplanares, ou seja, r1 e r2 pertencem a um mesmo plano;
(b) o conjunto {v, v1, v2} é linearmente dependente.
2.2* Estude a posição relativa das retas
r1 :
y = 2x− 3
z = −xe r2 :
x = 1− 36t
y = 4− 6t
z = 3t .
2.3 Dê a posição relativa entre o plano 5x + 3y + 13z − 1 = 0 e o plano
3x+ 8y − 3z + 8 = 0.
2.4 Veri�que se a retax− 1
−1=
y − 2
3=
z − 4
2está contida no plano de
equação 4x− 2y + 5z − 20 = 0.
2.5 Dados os planos 2ax− y + 4z + 2 = 0 e 4x+ by + 8z + c = 0, determine
a, b e c para que eles sejam coincidentes.
2.6 Dados os planos 4x−3ay+6z−8 = 0 e 2x−6y+ bz+10 = 0, determine
a e b para que sejam paralelos.
2.7 Para os dois planos a1x+ b1y + c1z + d1 = 0 e a2x+ b2y + c2z + d2 = 0,
mostre que as seguintes relações são condições necessárias e su�cientes para:
3. DETERMINANTES E GEOMETRIA 111
(a) Paralelismo: existe k 6= 0 tal que a1 = ka2, b1 = kb2 e c1 = kc2;
(b) Coincidência: existe k 6= 0 tal que a1 = ka2, b1 = kb2, c1 = kc2 e
d1 = kd2.
3 Determinantes e Geometria
Nesta seção introduziremos os determinantes de matrizes 2 × 2 e 3 × 3,
para posteriormente aplicá-los ao estudo da geometria em R3. A noção mais
geral de determinantes será estudada no Capítulo 8.
Determinantes são funções muito especiais de�nidas nos espaços das ma-
trizes quadradas com valores no corpo onde estão os coe�cientes da matriz. A
utilidade dos determinantes é múltipla. Por exemplo, eles servem, como vere-
mos no Capítulo 8, para dar um critério para invertibilidade de matrizes e um
método para o cálculo da matriz inversa, caso a matriz seja invertível. Eles
permitem dar fórmulas explícitas para as soluções de sistemas de equações
lineares. Por meio deles, de�ne-se também a importante noção de polinômio
característico de uma matriz, noção que desempenhará papel fundamental no
Capítulo 9. O conceito de determinante aparece em vários outros contextos
da Matemática. Por exemplo, em Geometria, ele aparece como a área de
um paralelogramo e o volume de um paralelepípedo e, em Análise, ele está
presente em teoremas importantes, como o Teorema da Função Inversa, o
Teorema da Função Implícita e o Teorema de Mudança de Variáveis.
Nesta seção estaremos interessados nas aplicações dos determinantes à
geometria em R3.
3.1 Determinantes
No trabalho Um Tratado sobre Álgebra em Três Partes, de Colin Ma-
claurin (Escócia, 1698 - 1746), publicado em 1748, foi apresentado o que ele
chamou de teorema geral, que era usado para resolver um sistema linear n×nonde n ≤ 4. De fato, em seu trabalho nada foi mencionado sobre o caso em
112 CAPÍTULO 4. O ESPAÇO VETORIAL R3
que n ≥ 5. O método apresentado por Maclaurin é conhecido hoje como
Regra de Cramer, após o matemático Gabriel Cramer (Suíça, 1704 - 1752)
ter utilizado os métodos de Maclaurin em seu livro sobre curvas algébricas
em 1750.
Dado um sistema linear 2× 2 nas incógnitas x e y, digamos,ax+ by = e
cx+ dy = f,(1)
sabemos do Problema 2.12 do Capítulo 2 que, se ad− bc 6= 0, as soluções são
dadas pelas fórmulas
x =ed− fbad− bc
, y =af − cead− bc
.
Vejamos agora a resolução de um sistema linear de três equações nas
incógnitas x, y e z, digamos,ax+ by + cz = m
dx+ ey + fz = n
gx+ hy + kz = p.
(2)
Este sistema foi tratado por Maclaurin de modo análogo ao caso 2 × 2,
notando que, se o número real aek− ahf + dhc− dbk+ gbf − gec é diferentede zero, então
x =mek −mfh+ bfp− bnk + cnh− cepaek − ahf + dhc− dbk + gbf − gec
,
y =nak − ncg +mfg −mdk + pcd− pafaek − ahf + dhc− dbk + gbf − gec
e
z =aep− ahn+ dhm− dbp+ gbn− gemaek − ahf + dhc− dbk + gbf − gec
·
Maclaurin notou que, tal como no caso 2 × 2, cada uma das expressões
acima tem o mesmo denominador, que consiste de somas alternadas de vários
3. DETERMINANTES E GEOMETRIA 113
produtos dos coe�cientes das incógnitas do sistema. Ele também notou que
o numerador da expressão de cada uma das incógnitas consiste de somas
alternadas de vários produtos dos coe�cientes das demais incógnitas e dos
termos independentes do sistema.
Os numeradores e os denominadores que apareceram nas soluções de Ma-
claurin são o que conhecemos hoje por determinantes. O termo determinante
foi introduzido pela primeira vez por Gauss em 1801.
Vamos agora sintetizar as soluções de Maclaurin, introduzindo os deter-
minantes.
Se A = [aij] é uma matriz 2 × 2, de�nimos o determinante da matriz A
como
det
[a11 a12
a21 a22
]= a11a22 − a21a12. (3)
Se A = [aij] é uma matriz 3 × 3, de�nimos o determinante da matriz A
como
det
a11 a12 a13
a21 a22 a23
a31 a32 a33
=
a11a22a33 − a11a23a32 + a13a21a32 − a12a21a33 + a12a23a31 − a13a22a31.(4)
Note que a expressão (4) do determinante de uma matriz quadrada A de
ordem 3 pode ser escrita como
detA = a11 det
[a22 a23
a32 a33
]− a12 det
[a21 a23
a31 a33
]+ a13 det
[a21 a22
a31 a32
]. (5)
Voltando aos sistemas lineares, temos que, se
det
[a b
c d
]6= 0,
114 CAPÍTULO 4. O ESPAÇO VETORIAL R3
então as soluções do sistema (1) podem ser escritas na forma
x = det
[e b
f d
](det
[a b
c d
])−1, y = det
[a e
c f
](det
[a b
c d
])−1.
Por outro lado, se
det
a b c
d e f
g h k
6= 0,
as soluções do sistema (2) podem ser escritas na forma:
x = det
m b c
n e f
p h k
det
a b c
d e f
g h k
−1
,
y = det
a m c
d n f
g p k
det
a b c
d e f
g h k
−1
,
z = det
a b m
d e n
g h p
det
a b c
d e f
g h k
−1
.
A expressão do determinante em (3) é muito fácil de lembrar. Basta
tomar o produto dos elementos da diagonal principal da matriz A e dele
subtrair o produto dos elementos da outra diagonal.
A expressão do determinante em (4) pode ser recuperada a partir da regra
de Sarrus1, muito utilizada no Ensino Médio.Regra de Sarrus
Exemplo 1. Vamos calcular det
1 2 0
−1 4 1
2 1 1
.1Pierre Fréderic Sarrus (França, 1768 -1861) �cou conhecido na Matemática pela regra
prática de resolução de determinantes de matrizes quadradas de ordem 3.
3. DETERMINANTES E GEOMETRIA 115
Pela regra de Sarrus, obtemos que
det
1 2 0
−1 4 1
2 1 1
= 4 + 4 + 0− (−2 + 1 + 0) = 10.
3.2 O Produto Vetorial
Um outro produto que possui importantes aplicações geométricas é o
produto vetorial em R3. Trata-se de uma operação que a partir de dois
vetores linearmente independentes em R3, associa de modo natural um vetor
ortogonal ao plano gerado por estes vetores.
Sejam dados dois vetores u = (u1, u2, u3) e v = (v1, v2, v3) em R3. Para
que um vetor w = (x1, x2, x3) seja tal que w ⊥ u e w ⊥ v, as suas coordenadas
devem ser soluções do sistema{w · u = u1x1 + u2x2 + u3x3 = 0
w · v = v1x1 + v2x2 + v3x3 = 0,(6)
que podemos reescrever como{u1x1 + u2x2 = −u3x3v1x1 + v2x2 = −v3x3.
Como u e v são linearmente independentes, uma das expressões uivj−ujvi,para i, j = 1, 2, 3, i 6= j, é não nula (cf. Problema 3.7). Podemos, sem perda
116 CAPÍTULO 4. O ESPAÇO VETORIAL R3
de generalidade, supor que u1v2−u2v1 6= 0. Assim, o sistema acima se resolve
pela fórmula do Problema 2.12 do Capítulo 2, como segue:
x1 =u2v3 − u3v2u1v2 − u2v1
x3, x2 =u3v1 − u1v3u1v2 − u2v1
x3.
Portanto, para todo x3 ∈ R, o vetor(u2v3 − u3v2u1v2 − u2v1
x3,u3v1 − u1v3u1v2 − u2v1
x3, x3
)é um vetor ortogonal a u e v. Escolhendo x3 = u1v2 − u2v1, temos que o
vetor
(u2v3 − u3v2, u3v1 − u1v3, u1v2 − u2v1)
é ortogonal a u e v, independentemente da hipótese u1v2 − u2v1 6= 0 que
�zemos.
Isto motiva a seguinte de�nição:
Dados os vetores u = (u1, u2, u3) e v = (v1, v2, v3) em R3, o produto
vetorial de u e v, denotado por u× v, é o vetor de R3 dado por
u× v = (u2v3 − u3v2, u3v1 − u1v3, u1v2 − u2v1).
Por exemplo,
(1, 0, 0)× (0, 1, 2) = (0.2− 0.1,−1.2 + 0.0, 1.1− 0.0) = (0,−2, 1).
(1, 0, 0)× (0, 1, 0) = (0, 0, 1).
(0, 1, 0)× (0, 0, 1) = (1, 0, 0).
O produto vetorial possui as propriedades a seguir.
Para quaisquer u, v, w ∈ R3 e a ∈ R, tem-se que
(i) u× v = −v × u,
(ii) u× (v + w) = (u× v) + (u× w)
(iii) (au)× v = a(u× v) = u× (av),
(iv) (u× v) ⊥ u e (u× v) ⊥ v.
3. DETERMINANTES E GEOMETRIA 117
Estas propriedades são facilmente veri�cadas e serão deixadas como exercí-
cios para o leitor.
Notemos que a expressão que de�ne o produto vetorial pode ser colocada
em uma forma mais compacta com a ajuda dos determinantes.
De fato, se considerarmos a � matriz � formal 3× 3
A =
e1 e2 e3
x1 x2 x3
y1 y2 y3
,onde {e1, e2, e3} é a base canônica de R3 e (x1, x2, x3), (y1, y2, y3) ∈ R3, e cal-
cularmos o seu determinante utilizando a fórmula (4), vamos obter que seu
�determinante� é precisamente o produto vetorial de u = (x1, x2, x3) e v =
(y1, y2, y3). Note que esta expressão é apenas formal, desprovida de qualquer
conteúdo, pois, em princípio, não faz sentido considerar o determinante de
uma matriz onde os elementos da primeira linha são vetores e os elementos
das demais linhas são números reais. Isto é um abuso de notação, que serve
apenas para memorizar a de�nição de u× v.Por exemplo, para calcularmos o produto vetorial de u = (2,−8, 3) e
v = (0, 4, 3), escrevemos
u× v = det
e1 e2 e3
2 −8 3
0 4 3
= det
[−8 3
4 3
]e1 − det
[2 3
0 3
]e2 + det
[2 −80 4
]e3
= −36e1 − 6e2 + 8e3 = (−36,−6, 8).
A seguir, vamos apresentar duas identidades envolvendo o módulo do
produto vetorial de dois vetores em R3.
Proposição 4.3.1. Sejam u e v dois vetores em R3. Tem-se que :
i) ||u× v||2 = ||u||2 ||v||2 − (u · v)2;
ii) ||u× v|| = ||u|| ||v|| sen θ, sendo θ o ângulo entre u e v, com u e v não
nulos.
118 CAPÍTULO 4. O ESPAÇO VETORIAL R3
Demonstração (i): Sejam u = (x1, y1, z1) e v = (x2, y2, z2). Temos que
u× v = det
[y1 z1
y2 z2
]e1 − det
[x1 z1
x2 z2
]e2 + det
[x1 y1
x2 y2
]e3.
Logo,
||u× v||2 = (y1z2 − z1y2)2 + (−x1z2 + z1x2)2 + (x1y2 − y1x2)2.
Por outro lado,
||u||2||v||2 = (x21 + y21 + z21)(x22 + y22 + z22)
e
(u · v)2 = (x1x2 + y1y2 + z1z2)2.
Assim,
||u× v||2 = ||u||2||v||2 − (u · v)2.
(ii): Por (i), segue que
||u× v||2 = ||u||2||v||2 − (||u|| ||v|| cos θ)2,
uma vez que
cos θ =u · v||u|| ||v||
.
Portanto,||u× v||2 = ||u||2||v||2 − ||u||2||v||2 cos2 θ
= ||u||2||v||2(1− cos2 θ)
= ||u||2||v||2 sen2θ,
mostrando que
||u× v|| = ||u|| ||v||senθ.
�
A seguir, daremos a interpretação geométrica do módulo do produto ve-
torial de dois vetores.
Sejam u e v dois vetores não nulos em R3. Consideremos o paralelogramo
ABCD determinado pelos vetores u e v, conforme a Figura 8, abaixo, onde
h denota a altura do paralelogramo e θ é o ângulo entre os vetores u e v.
3. DETERMINANTES E GEOMETRIA 119
Figura 8
Sabemos da Geometria que
Área ABCD = ||u|| · h.
Como h = ||v|| senθ, segue que
Área ABCD = ||u|| senθ.
Pela Proposição anterior, item (b), concluímos então que
Área ABCD = ||u× v||.
Pelo que vimos acima, temos o seguinte resultado:
Proposição 4.3.2. O módulo do produto vetorial de dois vetores não nulos
u e v em R3 mede a área do paralelogramo determinado por estes vetores.
Com um outro �produto� em R3, podemos obter o volume do paralele-
pípedo determinado por três vetores não nulos. Este é o produto misto que
vamos de�nir a seguir.
Sejam u = (x1, y1, z1), v = (x2, y2, z2) e w = (x3, y3, z3) três vetores em
R3. Chama-se produto misto dos vetores u, v e w ao número real
(u, v, w) = u · (v × w).
Pelas de�nições de produto escalar e produto vetorial em R3, podemos
veri�car que
u · (v × w) = det
x1 y1 z1
x2 y2 z2
x3 y3 z3
.
120 CAPÍTULO 4. O ESPAÇO VETORIAL R3
Consideremos agora u, v e w três vetores não nulos em R3. Chamemos de
P o paralelepípedo determinado por estes vetores, conforme a �gura abaixo:
Figura 9
Na �gura, h denota a altura do paralelepípedo e θ o ângulo entre u e
v × w. Como vimos anteriormente, v × w é um vetor ortogonal aos vetores
v e w. Assim,
h = ||u|| cos θ.
A área da base do paralelepípedo P é dada por
||v × w||.
Portanto, se V denota o volume do paralelepípedo, obtemos
V = ||v × w|| ||u|| cos θ = ||u · (v × w)|| = ||(u, v, w)||.
Assim, obtivemos o resultado a seguir:
Proposição 4.3.3. O módulo do produto misto de três vetores não nulos u,
v e w em R3 mede o volume do paralelepípedo determinado por estes vetores.
Problemas
3.1 Mostre que os determinantes de matrizes 2 × 2 possuem as seguintes
propriedades:
3. DETERMINANTES E GEOMETRIA 121
a) Para todos a, b, c, c′, d, d′, t ∈ R,
det
[a b
c+ tc′ d+ td′
]= det
[a b
c d
]+ t det
[a b
c′ d′
],
o mesmo valendo para a primeira linha;
b) Para todos a, b ∈ R,
det
[a b
a b
]= 0;
c) det
[1 0
0 1
]= 1.
3.2Mostre que uma função F :M(2, 2)→ R com as três propriedades acima
é tal que F = det.
3.3 Mostre que os determinantes de matrizes 3 × 3 possuem as seguintes
propriedades:
a) Para todos a, b, c, d, e, f, g, g′, h, h′, k, k′, t ∈ R,
det
a b c
d e f
g + tg′ h+ th′ k + tk′
= det
a b c
d e f
g h k
+ t det
a b c
d e f
g′ h′ k′
,o mesmo valendo para as outras duas linhas;
b) Para todos a, b, c, d, e, f, g, h, k ∈ R,
det
a b c
a b c
g h k
= det
a b c
d e f
a b c
= det
a b c
d e f
d e f
= 0,
c) det
1 0 0
0 1 0
0 0 1
= 1.
122 CAPÍTULO 4. O ESPAÇO VETORIAL R3
3.4 Mostre que, para quaisquer a, b, c e d em R, tem-se que
det
sen a cos a sen (a+ d)
sen b cos b sen (b+ d)
sen c cos c sen (c+ d)
= 0 .
3.5 Determine x ∈ R para que
det
x− 2 x+ 3 x− 1
2 1 3
3 2 1
= 60 .
3.6* Utilize o método de Maclaurin para determinar x′ e y′ em função de x
e y, onde {x = x′ cos θ − y′sen θy = x′sen θ + y′ cos θ.
3.7 Mostre que dois vetores u = (u1, u2, u3) e v = (v1, v2, v3) em R3 são
linearmente independentes se, e somente se, um dos três determinantes abaixo
é não nulo:
det
[u1 u2
v1 v2
]; det
[u1 u3
v1 v3
]; det
[u2 u3
v2 v3
].
Mostre que u× v = 0 se, e somente se, u e v são colineares.
3.8 Calcule a área do paralelogramo que tem por lados os vetores u = (1, 3, 5)
e v = (2, 1, 4).
3.9 Calcule o volume do paralelepípedo que tem por arestas os vetores u =
(1, 3, 5), v = (2, 1, 4) e w = (−2, 1,−3).
Bibliogra�a
[1] H. P. Bueno, Álgebra Linear, um segundo curso, Coleção Textos Univer-
sitários, SBM, 2006.
[2] P. Halmos, Teoria Ingênua dos Conjuntos , Editora Ciência Moderna,
2001.
[3] A. Hefez e M. L. T. Villela, Códigos Corretores de Erros , Coleção Mate-
mática e Aplicações, IMPA, 2008.
[4] A. Hefez e M. L. T. Villela, Números Complexos e Polinômios , Coleção
PROFMAT, SBM, 2012.
[5] V. J. Katz, A History of Mathematics - an Introduction, HarperCollins
College Publishers, 1993.
[6] S. Lang, Introduction to Linear Algebra, 2nd edition, Undergraduate Texts
in Mathematics, Springer, 1986.
[7] E.L. Lima, Álgebra Linear , 3a edição, Coleção Matemática Universitária,
IMPA, 1998.
[8] E.L. Lima, Geometria Analítica e Álgebra Linear , 2a edição, Coleção
Matemática Universitária, IMPA, 2010.
300
5
123
Livro: Introdução à Álgebra LinearAutores: Abramo Hefez
Cecília de Souza Fernandez
Capítulo 5: Transformações Lineares
Sumário
1 O que são as Transformações Lineares? . . . . . . 124
2 Núcleo e Imagem . . . . . . . . . . . . . . . . . . . . 130
2.1 O Núcleo . . . . . . . . . . . . . . . . . . . . . . . 130
2.2 A Imagem . . . . . . . . . . . . . . . . . . . . . . . 132
2.3 O Teorema do Núcleo e da Imagem . . . . . . . . . 134
3 Operações com Transformações Lineares . . . . . 144
124 CAPÍTULO 5. TRANSFORMAÇÕES LINEARES
As funções naturais no contexto dos espaços vetorais, as chamadas de
transformações lineares, formam uma classe muito especial de funções que
têm muitas aplicações na Física, nas Engenharias e em vários ramos da Ma-
temática.
1 O que são as Transformações Lineares?
As funções nas quais se está interessado na Álgebra Linear são as funções
cujos domínios e contradomínios são espaços vetoriais e que, além disso,
preservam as operações de adição de vetores e de multiplicação de um vetor
por um escalar. Isto é o conteúdo da de�nição a seguir.
Sejam V e W espaços vetoriais. Uma transformação linear de V em W
é uma função T : V → W que possui as seguintes propriedades:
(i) T (v1 + v2) = T (v1) + T (v2), para quaisquer v1 e v2 em V ;
(ii) T (av) = aT (v), para quaisquer v em V e a em R.
As propriedades (i) e (ii) são equivalentes à seguinte propriedade:
T (v1 + av2) = T (v1) + aT (v2), (1)
para quaisquer v1 e v2 em V e para qualquer a em R.
É esta caracterização das transformações lineares que utilizaremos, por
ser mais prática, para mostrar que determinada função entre espaços vetoriais
é uma transformação linear.
Mostra-se por indução (veja Problema 1.1) que uma função T : V → W é
uma transformação linear se, e somente se, para todos v1, . . . , vr ∈ V e todos
a1, . . . , ar ∈ R, tem-se que
T (a1v1 + · · ·+ arvr) = a1T (v1) + · · ·+ arT (vr). (2)
Vejamos a seguir alguns exemplos.
Exemplo 1. A função T : R2 → R, dada por T (x, y) = x + y, é uma
transformação linear.
1. O QUE SÃO AS TRANSFORMAÇÕES LINEARES? 125
De fato, se v1 = (x1, y1) ∈ R2, v2 = (x2, y2) ∈ R2 e a ∈ R, temos que
T (v1 + av2) = T (x1 + ax2, y1 + ay2)
= x1 + ax2 + y1 + ay2
= (x1 + y1) + a(x2 + y2)
= T (v1) + aT (v2).
Portanto, T é uma transformação linear de R2 em R.
Exemplo 2. A função T : R3 → R2, dada por T (x, y, z) = (x − y, y − z), éuma transformação linear.
De fato, se v1 = (x1, y1, z1) ∈ R3, v2 = (x2, y2, z2) ∈ R3 e a ∈ R, então
T (v1 + av2) = T (x1 + ax2, y1 + ay2, z1 + az2)
= (x1 + ax2 − (y1 + ay2), y1 + ay2 − (z1 + az2))
= ((x1 − y1) + a(x2 − y2), (y1 − z1) + a(y2 − z2))= (x1 − y1, y1 − z1) + a(x2 − y2, y2 − z2)= T (v1) + aT (v2),
mostrando que T é uma transformação linear de R3 em R2.
Exemplo 3. A função T : R→ R, dada por T (x) = 5x, é uma transformação
linear.
De fato, se x1, x2, a ∈ R, temos que
T (x1 + ax2) = 5(x1 + ax2) = 5x1 + a5x2 = T (x1) + aT (x2).
Portanto, T é uma transformação linear de R em R.
Na realidade, toda transformação linear de R em R é da forma T (x) = c·x,x ∈ R, onde c é uma constante real; e reciprocamente (veja Problema 1.2).
Exemplo 4. A função T : R2 → R3, dada por T (x, y) = (0, 0, 0), é uma
transformação linear.
De fato, dados v1 e v2 em R2 e dado a ∈ R, tem-se que
T (v1 + av2) = (0, 0, 0) = (0, 0, 0) + a(0, 0, 0) = T (v1) + aT (v2),
126 CAPÍTULO 5. TRANSFORMAÇÕES LINEARES
mostrando que T é uma transformação linear.
Mais geralmente, se V e W são espaços vetoriais, a função T : V → W ,
dada por T (v) = 0, v ∈ V , é uma transformação linear, chamada transfor-
mação nula. A transformação nula de V em W será também denotada por
0.
Exemplo 5. A função T : R2 → R2 dada por T (x, y) = (x2, y) não é uma
transformação linear.
Com efeito, se tomarmos v1 = (1, 0) e v2 = (−1, 0), então
T (v1 + v2) = (0, 0) 6= (2, 0) = T (v1) + T (v2).
Exemplo 6. Seja f(x) um polinômio arbitrariamente �xado em R[x]. A
função T : R[x] → R[x], dada por T (p(x)) = p(f(x)), é uma transformação
linear.
De fato, se p1(x), p2(x) ∈ R[x] e a ∈ R, temos que
T (p1(x) + ap2(x)) = p1(f(x)) + ap2(f(x)) = T (p1(x)) + aT (p2(x)),
mostrando que T é uma transformação linear.
Exemplo 7. Uma função T : Rn → Rm é uma transformação linear se, e
somente se, existem números reais aij, com 1 ≤ i ≤ m e 1 ≤ j ≤ n, tais que
T (x1, . . . , xn) = (a11x1 + · · ·+ a1nxn, . . . , am1x1 + · · ·+ amnxn),
fazendo jus ao adjetivo linear associado à palavra transformação. Para a
demonstração deste resultado, veja Problema 1.3.
Como a maioria dos resultados a seguir é evidente para espaços veto-
riais nulos, vamos sempre considerar o domínio e o contradomínio de uma
transformação linear como espaços vetoriais não nulos.
Como consequência da propriedade (1), temos que uma transformação
linear T : V → W transforma o vetor nulo de V no vetor nulo de W , ou seja,
T (0) = 0. De fato,
0 = T (0)− T (0) = T (0) + (−1)T (0) = T (1 · 0− 1 · 0) = T (0).
1. O QUE SÃO AS TRANSFORMAÇÕES LINEARES? 127
Porém, o fato de uma função T ter como domínio e contradomínio espaços
vetoriais e satisfazer T (0) = 0 não implica que ela seja uma transformação
linear, como mostra o Exemplo 5.
Uma propriedade importante de uma transformação linear é que ela �ca
totalmente determinada se conhecermos seus valores nos vetores de uma base
de seu domínio. Mais precisamente, temos o resultado a seguir.
Teorema 5.1.1. Seja α = {v1, v2, . . . , vn} uma base de um espaço vetorial
V . Sejam w1, w2, . . . , wn vetores de um espaço vetorial W . Então existe
uma única transformação linear T : V → W tal que T (vj) = wj para todo
1 ≤ j ≤ n.
Demonstração Tomemos v ∈ V . Como α é uma base de V , v se escreve
de modo único como uma combinação linear dos vetores de α, digamos
v = a1v1 + a2v2 + · · ·+ anvn. (3)
De�na T : V → W por
T (v) = a1w1 + a2w2 + · · ·+ anwn. (4)
A função T está bem de�nida, pois os números reais a1, a2, . . . , an são uni-
camente determinados a partir de v. Além disso, T é uma transforma-
ção linear. De fato, tomemos a em R e w em V . Suponhamos que w =
b1v1 + b2v2 + · · ·+ bnvn. Como
v + aw = (a1 + ab1)v1 + (a2 + ab2)v2 + · · ·+ (an + abn)vn,
segue que
T (v + aw) = (a1 + ab1)w1 + (a2 + ab2)w2 + · · ·+ (an + abn)wn
= (a1w1 + a2w2 + · · ·+ anwn) + a(b1w1 + b2w2 + · · ·+ bnwn)
= T (v) + aT (w).
Para mostrar que T (vj) = wj, �xe j, onde 1 ≤ j ≤ n. Como
vj = 0v1 + · · ·+ 1vj + · · ·+ 0vn,
128 CAPÍTULO 5. TRANSFORMAÇÕES LINEARES
segue de (4) que
T (vj) = 0w1 + · · ·+ 1wj + · · ·+ 0wn = wj.
Vejamos agora que T é a única função com as propriedades desejadas. Para
isto, suponhamos que S : V → W seja uma transformação linear tal que
S(vj) = wj para todo j, com 1 ≤ j ≤ n. Tomemos v ∈ V . Por (3) e pela
linearidade de S (propriedade (2)), temos que
S(v) = a1S(v1) + a2S(v2) + · · ·+ anS(vn).
Como S(vj) = wj para todo 1 ≤ j ≤ n, obtemos
S(v) = a1w1 + a2w2 + · · ·+ anwn = T (v).
Como v ∈ V foi tomado de modo arbitrário, segue que S = T . �
Exemplo 8. Para determinarmos a transformação linear T : R2 → R3 tal
que T (1, 1) = (0, 2, 1) e T (0, 2) = (1, 0, 1) devemos, pelo Teorema 5.1.1,
veri�car que α = {(1, 1), (0, 2)} é uma base de R2 e calcular as coordenadas
de um vetor de R2 na base α. Ora, como α é linearmente independente e
dimR2 = 2, temos que α é uma base de R2. Além disso, se (x, y) ∈ R2, então
(x, y) = a1(1, 1) + a2(0, 2)
se, e somente se, a1 = x e a2 =y − x2
. Portanto,
T (x, y) = xT (1, 1) +
(y − x2
)T (0, 2)
= x(0, 2, 1) +
(y − x2
)(1, 0, 1)
=
(y − x2
, 2x,x+ y
2
).
Problemas
1. O QUE SÃO AS TRANSFORMAÇÕES LINEARES? 129
1.1 Sejam V e W dois espaços vetoriais e T : V → W uma função. Prove
que as seguintes a�rmações são equivalentes:
(a) T (u+ v) = T (u) + T (v) e T (av) = aT (v), para quaisquer u e v em V e
qualquer a em R;
(b) T (u+ av) = T (u) + aT (v), para quaisquer u e v em V e qualquer a em
R;
(c) T (a1v1 + · · ·+ arvr) = a1T (v1) + · · ·+ arT (vr), para quaisquer v1, . . . , vrem V e quaisquer a1, . . . , ar em R.
1.2 Mostre que T : R → R é uma transformação linear se, e somente se,
existe c ∈ R tal que T (x) = cx, para todo x ∈ R.
1.3 Seja T : Rn → Rm uma função. Mostre que T é uma transformação linear
se, e somente se, existem números reais aij, com 1 ≤ i ≤ m e 1 ≤ j ≤ n, tais
que
T (x1, . . . , xn) = (a11x1 + · · ·+ a1nxn, . . . , am1x1 + · · ·+ amnxn).
Sugestão Para mostrar que T é da forma desejada, escreva (x1, . . . , xn) =
x1e1 + · · · + xnen, onde e1, . . . , en é a base canônica de Rn. Ponha T (ei) =
(a1i, . . . , ami) e use a igualdade (2). A recíproca é uma veri�cação fácil.
1.4* Considere V = M(n, n) e seja B em V . De�na a função T : V → V
por T (A) = AB + BA para toda matriz A em V . Mostre que T é uma
transformação linear.
1.5 Mostre que a função T :M(m,n)→M(n,m), de�nida por T (A) = At,
é uma transformação linear.
1.6 Dada uma transformação linear T tal que T (u) = 2u e T (v) = u + v,
calcule em função de u e v:
(a) T (u+ v); (b) T (3v); (c) T (−3u); (d) T (u− 5v).
1.7 Quais das funções abaixo são transformações lineares? Justi�que as res-
postas dadas.
(a) T : R3 → R3, onde T (x, y, z) = (x+ y, x− z, 0).
130 CAPÍTULO 5. TRANSFORMAÇÕES LINEARES
(b) T : R2 → R3, onde T (x, y) = (x2, x, y).
(c) T : R2 →M(2, 2), onde T (x, y) =
[2x x− yx+ y 2y
].
(d) T : R2 → R, onde T (x, y) = xy.
(e) T : R[x]2 → R[x]2, onde T (ax+ b) = ax2 + bx.
(f) T : R[x]d → R[x]d, onde T (x) = x+ a, com a ∈ R.
1.8 Determine n e m e a transformação linear T : Rn → Rm tal que:
(a) T (1, 2) = (3, 1, 1) e T (1, 1) = (1,−1, 0);
(b) T (1, 1, 1) = (2,−1, 4), T (1, 1, 0) = (3, 0, 1) e T (1, 0, 0) = (−1, 5, 1).
1.9 Sejam {v1, v2, . . . , vn} uma base de um espaço vetorial V e T : V→Wuma transformação linear. Mostre que T (v1) = T (v2) = · · · = T (vn) = 0 se,
e somente se T é a transformação nula.
2 Núcleo e Imagem
O núcleo e a imagem de uma transformação linear são dois subespaços
de seu domínio e de seu contradomínio, respectivamente, que nos fornecem
informações valiosas sobre a transformação. Há uma relação importante
entre as dimensões do domínio, do núcleo e da imagem de uma transformação
linear, que apresentaremos nesta seção e que possui muitas aplicações.
2.1 O Núcleo
Seja T : V → W uma transformação linear. O núcleo de T , denotado por
KerT , é o conjunto de vetores de V que são levados por T no vetor nulo de
W , ou seja,
KerT = {v ∈ V ; T (v) = 0}.
Note que KerT é um subconjunto não vazio de V , já que T (0) = 0. Mais
ainda, KerT é um subespaço de V . De fato, se v1, v2 ∈ KerT e se a ∈ R,
2. NÚCLEO E IMAGEM 131
então v1 + av2 ∈ KerT , pois
T (v1 + av2) = T (v1) + aT (v2) = 0 + a · 0 = 0.
O seguinte exemplo ilustra o fato de que a determinação do núcleo de
uma transformação linear, entre espaços vetoriais de dimensão �nita, recai
na determinação do conjunto solução de um sistema de equações lineares
homogêneo.
Exemplo 1. Seja T : R4 → R3 a transformação linear de�nida por
T (x, y, s, t) = (x− y + s+ t, x+ 2s− t, x+ y + 3s− 3t).
Para determinarmos KerT , devemos obter o conjunto de vetores (x, y, s, t)
em R4 tais que
T (x, y, s, t) = (x− y + s+ t, x+ 2s− t, x+ y + 3s− 3t) = (0, 0, 0).
Equivalentemente, KerT é o conjunto solução do seguinte sistema linear
homogêneo: x− y + s+ t = 0
x+ 2s− t = 0
x+ y + 3s− 3t = 0 .
Resolvendo o sistema acima, obtemos
KerT = {(−2s+ t,−s+ 2t, s, t) ; s, t ∈ R}.
Note que KerT é um subespaço vetorial de R4 de dimensão 2.
Inversamente, o conjunto solução de um sistema de equações lineares
homogêneo AX = 0, onde A = [aij], pode ser interpretado como o núcleo de
uma transformação linear. Mais precisamente, é o núcleo da transformação
linear T : Rn → Rm,
T (x1, . . . , xn) = (a11x1 + · · ·+ a1nxn, . . . , am1x1 + · · ·+ amnxn).
132 CAPÍTULO 5. TRANSFORMAÇÕES LINEARES
Se uma transformação linear T é injetiva, então a equação T (v) = 0 só
possui a solução v = 0. De fato, sendo T injetiva e como T (0) = 0, tem-se
que T (v) = 0 = T (0) implica que v = 0. Fato curioso, é que vale também a
recíproca desta propriedade, como mostraremos a seguir.
Proposição 5.2.1. Seja T : V → W uma transformação linear. Temos que
T é injetiva se, e somente se, KerT = {0}.Demonstração A implicação direta foi provada no comentário acima. Su-
ponhamos agora que KerT = {0}. Tomemos u e v vetores em V . Se T (u) =
T (v), então T (u) − T (v) = 0. Equivalentemente, T (u − v) = 0. Assim,
u − v ∈ KerT . Como KerT = {0}, segue-se que u − v = 0, logo u = v,
mostrando a injetividade de T . �
Por exemplo, a transformação linear do Exemplo 1 não é injetiva, pois
KerT 6= {(0, 0, 0, 0)}. Já a transformação linear dada por T (x, y)=(x−y, x+y),(x, y) ∈ R2, é injetiva, pois KerT = {(0, 0)}.
2.2 A Imagem
A imagem de T de uma transformação linear T : V → W é o conjunto
ImT = T (V ). Como T (0) = 0, temos que 0 ∈ ImT , logo ele é um subcon-
junto não vazio de W . Deixaremos como exercício para o leitor veri�car que,
de fato, ImT é um subespaço vetorial de W (veja Problema 2.1). A seguinte
proposição mostra como podemos determinar geradores para a imagem de
uma transformação linear.
Proposição 5.2.2. Seja T : V→W uma transformação linear. Se {v1, . . . , vn}é um conjunto de geradores de V , então {T (v1), . . . , T (vn)} é um conjunto
de geradores de ImT . Em particular, dim ImT ≤ dimV .
Demonstração Seja w ∈ ImT e tomemos v ∈ V tal que T (v) = w. Como
{v1, . . . , vn} gera V , v é uma combinação linear de v1, . . . , vn, digamos,
v = a1v1 + · · ·+ anvn.
2. NÚCLEO E IMAGEM 133
Pela linearidade de T (cf. (2) da Seção 1), temos que
w = T (v) = a1T (v1) + · · ·+ anT (vn),
ou seja, w é uma combinação linear de T (v1), . . . , T (vn). Como w é arbitrário
em ImT , segue que ImT = G(T (v1), . . . , T (vn)). �
Exemplo 2. Calculemos a imagem da transformação linear apresentada no
Exemplo 1.
Pela Proposição 5.2.2, devemos determinar o espaço gerado pela imagem
de um conjunto de geradores de R4. Vamos calcular, então, o espaço gerado
por
T (1, 0, 0, 0) = (1, 1, 1), T (0, 1, 0, 0) = (−1, 0, 1),T (0, 0, 1, 0) = (1, 2, 3) e T (0, 0, 0, 1) = (1,−1,−3).
Pelo Teorema 3.4.1, basta reduzir a matriz1 1 1
−1 0 1
1 2 3
1 −1 −3
à forma escalonada. Ora,
1 1 1
−1 0 1
1 2 3
1 −1 −3
−→
L2 → L2 + L1
L3 → L3 − L1
L4 → L4 − L1
1 1 1
0 1 2
0 1 2
0 −2 −4
−→
L3 → L3 − L2
L4 → L4 + 2L2
1 1 1
0 1 2
0 0 0
0 0 0
.
Assim, {(1, 1, 1), (0, 1, 2)} é uma base de ImT , ou seja,
ImT = {(x, x+ y, x+ 2y) ; x, y ∈ R}.
134 CAPÍTULO 5. TRANSFORMAÇÕES LINEARES
2.3 O Teorema do Núcleo e da Imagem
O seguinte resultado é um teorema importante que relaciona a dimensão
do núcleo à dimensão da imagem de uma transformação linear T : V → W ,
quando V tem dimensão �nita.
Teorema 5.2.3. (Teorema do Núcleo e da Imagem) Seja T : V → W
uma transformação linear, onde V tem dimensão �nita. Então
dimKerT + dim ImT = dimV. (1)
Demonstração Suponhamos que dimV = n. Seja α = {u1, u2, . . . , um}uma base de KerT . Como qualquer conjunto linearmente independente de
vetores em V tem no máximo n vetores (Teorema 3.3.3), segue que m ≤ n.
Vamos considerar dois casos:
Caso 1. m = n.
Neste caso, dimKerT = dimV e, consequentemente, pelo Teorema 3.3.6,
KerT = V . Isto implica que ImT = {0}, portanto, dim ImT = 0, mostrando
que a fórmula (1) é válida.
Caso 2. m < n.
Pelo Teorema 3.3.5, podemos completar α de modo a obtermos uma base
β de V , digamos β = {u1, u2, . . . , um, vm+1, . . . , vn}. Note que a fórmula (1) é
veri�cada se provarmos que {T (vm+1), . . . , T (vn)} é uma base de ImT . Pela
Proposição 5.2.2, temos que ImT = G(T (vm+1), . . . , T (vn)). Para provarmos
que esses vetores são linearmente independentes, consideremos a equação
bm+1T (vm+1) + · · ·+ bnT (vn) = 0,
que equivale a termos
bm+1vm+1 + · · ·+ bnvn ∈ KerT.
Como α é uma base de KerT , existem b1, b2, . . . , bm em R tais que
bm+1vm+1 + · · ·+ bnvn = b1u1 + b2u2 + · · ·+ bmum,
2. NÚCLEO E IMAGEM 135
ou seja,
b1u1 + b2u2 + · · ·+ bmum − bm+1vm+1 − · · · − bnvn = 0.
Sendo β uma base de V , a equação anterior se veri�ca somente se todos os
coe�cientes da combinação linear são iguais a zero. Em particular, bm+1 =
· · · = bn = 0. �
Em geral, para mostrarmos que uma função é bijetiva, devemos mostrar
que ela é injetiva e sobrejetiva. No entanto, se a função é uma transformação
linear entre espaços vetoriais de mesma dimensão �nita, então, exatamente
como no caso de funções entre conjuntos �nitos de mesma cardinalidade,
basta veri�car que ela ou é injetiva ou é sobrejetiva; a outra condição é
automaticamente satisfeita. Provaremos este fato a seguir com o auxílio do
teorema do núcleo e da imagem. Note que esse resultado não é consequência
do resultado para funções entre conjuntos �nitos, pois um espaço vetorial
sobre R, quando não nulo, é um conjunto in�nito.
Proposição 5.2.4. Seja T : V → W uma transformação linear entre es-
paços vetoriais de dimensão �nita. Se dimV = dimW , então as seguintes
a�rmações são equivalentes:
(i) T é injetiva;
(ii) T é sobrejetiva.
Demonstração Pelo Teorema do Núcleo e da Imagem,
dimKerT + dim ImT = dimV.
Sendo dimV = dimW , podemos escrever a igualdade acima como
dimKerT + dim ImT = dimW. (2)
Suponhamos que T seja injetiva. Pela Proposição 5.2.1, KerT = {0} e,
consequentemente, dimKerT = 0. Segue então, de (2), que dim ImT =
136 CAPÍTULO 5. TRANSFORMAÇÕES LINEARES
dimW , mostrando que T é sobrejetiva, já que, pelo Teorema 3.3.6, ImT =
W .
Suponhamos agora que T seja sobrejetiva, ou seja, ImT = W . Esses dois
espaços têm mesma dimensão, portanto, de (2) temos que dimKerT = 0, o
que garante que KerT = {0}. Pela Proposição 5.2.1, segue que T é injetiva.
�
Exemplo 3. Veri�quemos que a transformação linear T : M(2, 2) → R4,
dada por
T
([a b
c d
])= (a+ b, b+ c, c, a+ b+ d)
é uma função bijetiva.
Ora, como dimM(2, 2) = dimR4, segue, da Proposição 5.2.4, que basta
veri�carmos que T é uma função injetiva.
Como a igualdade
T
([a b
c d
])= (0, 0, 0, 0)
só ocorre quando a = b = c = d = 0, temos que KerT = {0}. Pela
Proposição 5.2.1, T é injetiva.
Observamos que a condição dimV = dimW , na Proposição 5.2.4, é ne-
cessária. De fato, consideremos a transformação linear T : R3 → R2 dada
por T (x, y, z) = (x, y). Temos que T é sobrejetiva, mas não é injetiva. Já a
transformação linear T : R2 → R3 dada por T (x, y) = (x, y, 0) é injetiva, mas
não é sobrejetiva.
Seja T : V → W uma transformação linear bijetiva. Logo, existe a função
inversa T−1 : W → V de T . A função T−1 é também uma transformação
linear . Com efeito, consideremos w1 e w2 emW e a em R. Como T é bijetiva,
existem únicos vetores v1 e v2 em V tais que T (v1) = w1 e T (v2) = w2.
2. NÚCLEO E IMAGEM 137
Portanto,
T−1(w1 + aw2) = T−1(T (v1) + aT (v2))
= T−1(T (v1 + av2))
= v1 + av2
= T−1(w1) + aT−1(w2).
Uma transformação linear bijetiva é chamada isomor�smo. Dois espaços
vetoriais que possuem um isomor�smo entre eles serão ditos isomorfos, o que,
em grego, signi�ca que possuem mesma forma. Os isomor�smos desempe-
nham um papel importante na Álgebra Linear.
Por exemplo, R4 eM(2, 2) são espaços vetoriais isomorfos, pois a função
T : R4 →M(2, 2) dada por
T (x, y, z, t) =
[x y
z t
]
é um isomor�smo.
Pelo Teorema 5.2.3, segue que se dois espaços vetoriais de dimensão �nita
são isomorfos, então eles têm a mesma dimensão. O próximo resultado mos-
tra que a recíproca desta a�rmação é também verdadeira, ou seja, espaços
vetoriais de mesma dimensão �nita são isomorfos.
Teorema 5.2.5. Se V e W são espaços vetoriais de dimensão n, então V e
W são isomorfos .
Demonstração Para provarmos que V eW são isomorfos, devemos mostrar
que existe uma transformação linear bijetiva de V emW . Para isto, tomemos
α = {v1, . . . , vn} e β = {w1, . . . , wn} bases de V eW , respectivamente. Dado
v ∈ V , podemos escrever de modo único
v = a1v1 + · · ·+ anvn,
com a1, . . . , an ∈ R.
138 CAPÍTULO 5. TRANSFORMAÇÕES LINEARES
De�na, então, T : V → W por T (v) = a1w1 + · · · + anwn. Pela de-
monstração do Teorema 5.1.1, T está bem de�nida e, além disso, T é uma
transformação linear.
Para provarmos que T é bijetiva basta provarmos, pela Proposição 5.2.4,
que T é injetiva. Ora, se v = a1v1 + · · ·+ anvn e
0 = T (v) = a1w1 + · · ·+ anwn,
segue-se que a1 = · · · = an = 0, pois {w1, . . . , wn} é uma base de W . Logo,
v = 0, mostrando que KerT = {0}. �
Dois espaços vetoriais V e W isomorfos são essencialmente o �mesmo
espaço vetorial�, exceto que seus elementos e suas operações de adição e
de multiplicação por escalar são escritas diferentemente. Assim, qualquer
propriedade de V que dependa apenas de sua estrutura de espaço vetorial
permanece válida em W , e vice-versa. Por exemplo, se T : V → W é um
isomor�smo de V em W , então {T (v1), . . . , T (vn)} é uma base de W se, e
somente se, {v1, . . . , vn} é uma base de V (veja Problema 2.4).
Exemplo 4. Seja W o subespaço deM(2, 2) gerado por
M1 =
[1 −5−4 2
], M2 =
[1 1
−1 5
], M3 =
[2 −4−5 7
]e M4 =
[1 −7−5 1
].
Vamos encontrar uma base e a dimensão de W .
Para encontrarmos uma base e a dimensão deW não usaremos a de�nição
de espaço gerado. Em vez disso, usaremos a noção de espaço linha, que
nos auxilia a exibir uma base de subespaços de Rn e, consequentemente, de
espaços vetoriais isomorfos a subespaços de Rn.
Ora, como T (x, y, t, z) =
[x y
t z
]é um isomor�smo de R4 em M(2, 2),
temos que W é isomorfo ao espaço G(v1, v2, v3, v4), onde v1 = (1,−5,−4, 2),v2 = (1, 1,−1, 5), v3 = (2,−4,−5, 7) e v4 = (1,−7,−5, 1). Temos que a
2. NÚCLEO E IMAGEM 139
matriz 1 −5 −4 2
1 1 −1 5
2 −4 −5 7
1 −7 −5 1
se reduz, pelas transformações elementares, à matriz
1 3 0 6
0 2 1 1
0 0 0 0
0 0 0 0
.Assim, α = {(1, 3, 0, 6), (0, 2, 1, 1)} é uma base de G(v1, v2, v3, v4) e, conse-
quentemente, α′ =
{[1 3
0 6
],
[0 2
1 1
]}é uma base de W , mostrando que
dimW = 2.
Note que, como consequência do Teorema 5.2.5, temos que todo espaço
vetorial não nulo de dimensão �nita n é isomorfo ao Rn. Dessa forma, o
estudo de espaços vetoriais de dimensão �nita pode se reduzir ao estudo
dos espaços Rn, mediante a escolha de algum isomor�smo. Assim, dado
um problema em um espaço vetorial de dimensão �nita n, reescrevemos o
problema para Rn, usando um isomor�smo, e o resolvemos neste contexto.
Com o isomor�smo utilizado, voltamos ao contexto original. Essa técnica foi
ilustrada no Exemplo 4. Um outro exemplo pode ser visto no Problema 2.6,
bem como no exemplo a seguir, em que são aplicados os conceitos de espaço
vetorial, base e dimensão, de modo a obter resultados não triviais.
Exemplo 5. Consideremos a recorrência R(1, 1), de�nida por
un+1 = un + un−1, n ≥ 2.
Vimos no Exemplo 2 da Seção 1, do Capítulo 1 e no Exemplo 5 da Seção
1, do Capítulo 3, que as sequências reais que satisfazem a esta recorrência
formam um espaço vetorial.
140 CAPÍTULO 5. TRANSFORMAÇÕES LINEARES
Observe que todo elemento (un) de R(1, 1) �ca totalmente determinado
se soubermos os valores de u1 e u2. Por exemplo, se u1 = u2 = 1, temos que
(un) é a sequência de Fibonacci.
De�namos a seguinte função:
T : R(1, 1) → R2
(un) 7→ (u1, u2) .
Note que T é uma transformação linear, pois se (un), (vn) ∈ R(1, 1) e c ∈ R,então
T ((un) + c(vn)) = T ((un + cvn))
= (u1 + cv1, u2 + cv2)
= (u1, u2) + c(v1, v2)
= T ((un)) + cT ((vn)).
Por outro lado, T é obviamente sobrejetora. T é também injetora, pois
os valores de u1 e u2 determinam univocamente a sequência (un) de R(1, 1).Logo, T é um isomor�smo de espaços vetoriais e, portanto, dimR(1, 1) =
2. Vamos determinar uma base de R(1, 1).Procuremos dentre as progressões geométricas (qn), com q 6= 0, aquelas
que satisfazem à recorrência R(1, 1). Essas devem satisfazer à condição
qn+1 = qn + qn−1.
Daí deduz-se que q deve satisfazer a equação
q2 − q − 1 = 0,
cujas raízes são
q1 =1 +√5
2, q2 =
1−√5
2.
Portanto, sendo (qn1 ) e (qn2 ) linearmente independentes (basta veri�car que
as imagens por T são linearmente independentes), eles formam uma base de
R(1, 1).
2. NÚCLEO E IMAGEM 141
Assim, todo elemento (un) de R(1, 1) é tal que
un = t1
(1 +√5
2
)n
+ t2
(1−√5
2
)n
, t1, t2 ∈ R. (3)
Portanto, dados u1 e u2, podemos determinar t1 e t2 resolvendo o sistema
de equações: {t1q1 + t2q2 = u1
t1q21 + t2q
22 = u2.
Em virtude das igualdades q21 = q1+1 e q22 = q2+1, este sistema é equivalente
ao sistema {t1q1 + t2q2 = u1
t1(q1 + 1) + t2(q2 + 1) = u2,
Por exemplo, para a sequência de Fibonacci, onde u1 = u2 = 1, resolvendo
o sistema acima, obtemos t1 = 1/√5 e t2 = −1/
√5, que substituídos em (3)
nos dão a seguinte fórmula para o termo geral da sequência de Fibonacci:
un =
(1+√5
2
)n−(
1−√5
2
)n√5
.
Finalizaremos esta seção com mais uma aplicação do Teorema do Núcleo
e da Imagem.
Exemplo 6. Determinaremos uma fórmula para a dimensão da soma de
dois subespaços de um espaco vetorial.
Sejam U e W subespaços vetoriais de dimensão �nita de um espaço ve-
torial V . Considere a transformação linear
T : U ×W → V
(u,w) 7→ u+ w
É fácil veri�car que a imagem de T é o subespaço U + W e que KerT é
isomorfo a U ∩W (veja Problema 2.5). Logo, pelo Teorema do Núcleo e da
Imagem e pelo Problema 3.15, do Capítulo 3, temos que
dimU + dimW = dimU ×W = dimKerT + dim ImT
= dim(U ∩W ) + dim(U +W ).
142 CAPÍTULO 5. TRANSFORMAÇÕES LINEARES
Assim, temos que
dim(U +W ) = dimU + dimW − dim(U ∩W ).
Problemas
2.1* Prove que a imagem de uma transformação linear T : V → W é um
subespaço vetorial de W .
2.2* Dada a transformação linear T (x, y, z) = (x+2y− z, y+2z, x+3y+ z)
em R3:
(a) Veri�que que KerT é uma reta que passa pela origem;
(b) Determine as equações paramétricas da reta obtida em (a);
(c) Veri�que que ImT é um plano que passa pela origem;
(d) Determine as equações paramétricas do plano obtido em (c).
2.3 Explique por que não existe nenhuma transformação linear sobrejetiva
T : V → W , quando dimV < dimW .
2.4* Seja T : V → W um isomor�smo. Prove que {v1, . . . , vn} é uma base
de V se, e somente se, {T (v1), . . . , T (vn)} for uma base de W .
2.5 Sejam U e W subespaços de um espaço vetorial V . Considere a função
T : U ×W → V , de�nida por T (u,w) = u+ w. Mostre que:
(a) T é uma transformação linear;
(b) A imagem de T é o subespaço U +W ;
(c) KerT = {(u,−u); u ∈ U ∩W} é isomorfo a U ∩W .
2.6* Determine a dimensão do subespaço de R[x]3, de�nido por
{p(x) = ax3 + bx2 + cx+ d ; p(−1) = 0}.
2.7 Determine o núcleo e a imagem das seguintes transformações lineares:
(a) T : R3 → R2, onde T (x, y, z) = (x− y, x− z);
2. NÚCLEO E IMAGEM 143
(b) T : R4→R3, onde T (x, y, z, w)=(2x+y− z+w, x+2y−w, 6x+2z−3w);
(c) T : R[x]→ R[x], onde T (p(x)) = x · p(x);
(d) T :M(2, 2)→M(2, 2), onde T (A) =M · A, sendo M =
[1 −1−4 4
];
(e) T : R[x]2 → R4, onde T (ax2 + bx+ c) = (a+ b, 2b+ c, a+ 2b− c, c).
2.8 Determine quais das transformações lineares do exercício anterior são
injetivas e quais são sobrejetivas.
2.9 Dada uma transformação linear T : V → W , mostre que:
(a) se é sobrejetiva, então dimW ≤ dimV ;
(b) se é injetiva, então dimV ≤ dimW .
2.10 Encontre uma transformação linear T : R3 → R3 cujo núcleo seja gerado
por (1, 2,−1) e (−1, 1, 0).
2.11 Encontre uma transformação linear T : R4 → R3 cujo núcleo seja gerado
por (1, 2, 3, 4) e (0, 1, 1, 1).
2.12 Encontre uma transformação linear T : R3 → R3 cuja imagem seja
gerada por (1, 2, 3) e (0, 1,−1).
2.13 Encontre uma transformação linear T : R3 → R4 cuja imagem seja
gerada por (1, 3,−1, 2) e (1, 0, 1,−1).
2.14 Seja T : R3 → V uma transformação linear de R3 em um espaço vetorial
V qualquer. Mostre que o núcleo de T é todo o R3, um plano pela origem,
uma reta pela origem, ou só a origem.
2.15 Seja T : V → R3 uma transformação linear de um espaço vetorial V
qualquer em R3. Mostre que a imagem de T é só a origem, uma reta pela
origem, um plano pela origem, ou todo o R3.
2.16 Dê, quando possível, exemplos de transformações lineares T satisfa-
zendo:
(a) T : R3 → R2 sobrejetiva;
(b) T : R4 → R2 com KerT = {(0, 0, 0, 0)};
144 CAPÍTULO 5. TRANSFORMAÇÕES LINEARES
(c) T : R3 → R3 com ImT = {(0, 0, 0)};(d) T : R3 → R4 com KerT = {(x, y,−x) ; x ∈ R}.
2.17 Seja T : V → R uma transformação linear não nula. Prove que existe
um vetor v ∈ V tal que T (v) = 1. Seja W o subespaço de V gerado pelo
vetor v. Prove que V = W ⊕KerT .
2.18 Sejam W1 e W2 subespaços de um espaço vetorial V tais que dimW1 +
dimW2 = dimV . Mostre que existe uma transformação linear T : V → V
tal que KerT = V1 e ImT = W2.
2.19 Considere a transformação linear T : R3 → R3 dada por
T (x, y, z) = (3x+ y,−2x− 4y + 3z, 5x+ 4y − 2z).
Determine se T é invertível. Em caso a�rmativo, encontre T−1.
2.20 Seja T : Rn → Rn a transformação linear dada por
T (x1, x2, . . . , xn) = (a1x1, a2x2, . . . , anxn).
(a) Sob quais condições sobre a1, a2, . . . , an, a função T é invertível?
(b) Supondo satisfeitas as condições determinadas em (a), encontre T−1.
2.21 Seja T : R2 → R2 a transformação linear dada por
T (x, y) = (x+ ky,−y).
Prove que T é injetiva e que T−1 = T , para cada valor real de k.
2.22 Ache um isomor�smo entre o espaço vetorial V das matrizes simétricas
n× n e o espaço vetorial W das matrizes triangulares inferiores n× n.
3 Operações com Transformações Lineares
Nesta seção, apresentaremos as operações usuais com as transformações
lineares, obtendo novas transformações lineares a partir de transformações
lineares dadas.
3. OPERAÇÕES COM TRANSFORMAÇÕES LINEARES 145
Sejam T : V → W e S : V → W transformações lineares. De�nimos a
soma de T e S, denotada por T + S, como a função T + S : V → W dada
por
(T + S)(v) = T (v) + S(v), (1)
para todo v ∈ V . Se k ∈ R, de�nimos o produto de k por T , denotando-o
kT , como a função kT : V → W dada por
(kT )(v) = kT (v), (2)
para todo v ∈ V . As funções T+S e kT são, de fato, transformações lineares,
pois para qualquer a em R e para quaisquer v1 e v2 em V temos que
(T + S)(v1 + av2) = T (v1 + av2) + S(v1 + av2)
= T (v1) + aT (v2) + S(v1) + aS(v2)
= [T (v1) + S(v1)] + a[T (v2 + S(v2)]
= (T + S)(v1) + a(T + S)(v2)
e
(kT )(v1 + av2) = kT (v1 + av2) = k[T (v1) + aT (v2)]
= kT (v1) + akT (v2)
= (kT )(v1) + a(kT )(v2).
Denotemos por (V,W ) o conjunto de todas as transformações lineares de
V em W . As operações descritas em (1) e (2) de�nem uma adição e uma
multiplicação por escalar em (V,W ), tornando-o um espaço vetorial (veja
Problema 3.4). Se W = R, o espaço (V,R) é chamado espaço dual de V e
seus elementos chamados de funcionais lineares em V .
A composição de duas transformações lineares T : V → W e S : W → U
é a composição usual de funções:
(S ◦ T )(v) = S(T (v)), v ∈ V.
146 CAPÍTULO 5. TRANSFORMAÇÕES LINEARES
A função S◦T é também uma transformação linear. Com efeito, se v1, v2 ∈ Ve se a ∈ R, então
(S ◦ T )(v1 + av2) = S(T (v1 + av2)) = S(T (v1) + aT (v2))
= S(T (v1)) + aS(T (V2)) = (S ◦ T )(v1) + a(S ◦ T )(v2).
Exemplo 1. Sejam T : R3 → R3 e S : R3 → R3 transformações lineares
dadas por
T (x, y, z) = (2x, x− y, y + z) e S(x, y, z) = (x+ 2z, y,−z).
Determinaremos T + S, 2S e T ◦ S.Temos
(T + S)(x, y, z) = T (x, y, z) + S((x, y, z))
= (2x, x− y, y + z) + (x+ 2z, y,−z)= (3x+ 2z, x, y),
(2S)(x, y, z) = 2S(x, y, z) = 2(x+ 2z, y,−z) = (2x+ 4z, 2y,−2z)
e
(T ◦S)(x, y, z) = T (S(x, y, z)) = T (x+2z, y,−z) = (2x+4z, x−y+2z, y−z).
Sejam T : V → V uma transformação linear e n ∈ N \ {0}. De�nimos
a n-ésima potência de T , denotando-a por T n, como a função T n : V → V
dada por
T n = T ◦ · · · ◦ T︸ ︷︷ ︸n vezes
.
Pelo que vimos anteriormente, T n é uma transformação linear. De�nimos T 0
como a função identidade em V , ou seja,
T 0 = IV .
Se T : V → V é um isomor�smo, a transformação linear T−n : V → V é
de�nida por
T−n = T−1 ◦ · · · ◦ T−1︸ ︷︷ ︸n vezes
.
3. OPERAÇÕES COM TRANSFORMAÇÕES LINEARES 147
O próximo resultado, cuja demonstração é deixada como exercício (veja
Problema 3.9), relaciona a composição com a adição e a multiplicação por
escalar de transformações lineares.
Proposição 5.3.1. Sejam T e T ′ transformações lineares de V em W e
sejam S e S ′ transformações lineares de W em U . Então:
(a) S ◦ (T + T ′) = S ◦ T + S ◦ T ′;(b) (S + S ′) ◦ T = S ◦ T + S ′ ◦ T ;(c) k(S ◦ T ) = (kS) ◦ T = S ◦ (kT ), onde k ∈ R.
Problemas
3.1* Considere a transformação linear T : R3 → R4 dada por T (x, y, z) =
(x + y, z, x − y, y + z). Calcule (T ◦ S)(x, y), onde S : R2 → R3 é dada por
S(x, y) = (2x+ y, x− y, x− 3y).
3.2 Sejam T : V → W e S : V → W transformações lineares entre espaços
vetoriais de mesma dimensão. Se S◦T = IV , prove que T ◦S = IW e S = T−1.
3.3 Sejam T : R2 → R2 e S : R2 → R2 transformações lineares dadas por
T (x, y) = (x+ y, 0) e S(x, y) = (−y, x). Encontre expressões para de�nir:
(a) T + S; (b) 5T − 4S; (c) S ◦ T ;
(d) T ◦ S; (e) T 3; (f) S−3.
3.4 Prove que (V,W ), com as operações dadas em (1) e (2), é um espaço
vetorial.
3.5Mostre que as seguintes transformações lineares T, S e Q são linearmente
independentes:
(a) T, S,Q ∈ (R3,R2), de�nidas por T (x, y, z) = (x+y+z, x+y), S(x, y, z) =
(2x+ z, x+ y) e Q(x, y, z) = (2y, x);
(b) T, S,Q ∈ (R3,R), de�nidas por T (x, y, z) = x+ y + z, S(x, y, z) = y + z
e Q(x, y, z) = x− z.
148 CAPÍTULO 5. TRANSFORMAÇÕES LINEARES
3.6 Seja T : V → V uma transformação linear. Prove que T 2 = 0 se, e
somente se, ImT ⊂ KerT .
3.7 Prove que se T : V → V e S : V → V são transformações lineares não
nulas tais que T ◦ S = 0, então T não é injetiva.
3.8 Dada a transformação linear T (x, y, z) = (ay + bz, cz, 0) de R3 em R3,
mostre que T 3 = 0.
3.9 Prove a Proposição 5.3.1.
3.10 Dada a transformação linear T (x, y) = (ac+ by, cx+ dy) de R2 em R2,
mostre que:
(a) T 2 − (a+ d)T = (bc− ad) IR2 ;
(b) Se ad− bc 6= 0, então existe uma transformação linear S de R2 em R2 tal
que S ◦ T = T ◦ S = IR2 .
3.11 Seja T : W → U uma transformação linear injetiva. Prove que se
S1, S2 ∈ (V,W ) satisfazem a igualdade T ◦ S1 = T ◦ S2, então S1 = S2.
3.12 Seja T : V → W uma transformação linear sobrejetiva. Prove que se
S1, S2 ∈ (W,U) satisfazem a igualdade S1 ◦ T = S2 ◦ T , então S1 = S2.
3.13 Prove que se T : V → V é uma transformação linear tal que T 2 = 0,
então a transformação IV −T é invertível.
3.14 Seja V um espaço vetorial. Suponhamos que V = W1 ⊕ · · · ⊕ Ws .
Considere a função T : V → V de�nida por T (v) = wi , onde v = w1 + · · ·+wi + · · ·+ ws , com wi ∈ Wi, para cada 1 ≤ i ≤ s. Mostre que:
(a) T é uma transformação linear; (b) T 2 = T .
A transformação T é chamada de projeção de V em seu subespaço vetorial
Wi.
3.15 Seja T : V→V uma transformação linear tal que T 2=T . Mostre que:
(a) T (v) = v para todo v ∈ Im T ;
(b) V = KerT ⊕ Im T ;
(c) T é a projeção de V em sua imagem.
3. OPERAÇÕES COM TRANSFORMAÇÕES LINEARES 149
3.16 Seja T : V → V uma transformação linear. Mostre que T é uma proje-
ção se, e somente se, T 2 = T .
3.17 Sejam T e S duas transformações lineares entre os espaços vetoriais de
dimensão �nita V e W . Mostre que:
(a) Se KerT = KerS, então existe um isomor�smo T1 : W → W tal que
S = T1 ◦ T ;(b) Se ImT = ImS, então existe um isomor�smo T2 : V → V tal que S =
T ◦ T2.
Bibliogra�a
[1] H. P. Bueno, Álgebra Linear, um segundo curso, Coleção Textos Univer-
sitários, SBM, 2006.
[2] P. Halmos, Teoria Ingênua dos Conjuntos , Editora Ciência Moderna,
2001.
[3] A. Hefez e M. L. T. Villela, Códigos Corretores de Erros , Coleção Mate-
mática e Aplicações, IMPA, 2008.
[4] A. Hefez e M. L. T. Villela, Números Complexos e Polinômios , Coleção
PROFMAT, SBM, 2012.
[5] V. J. Katz, A History of Mathematics - an Introduction, HarperCollins
College Publishers, 1993.
[6] S. Lang, Introduction to Linear Algebra, 2nd edition, Undergraduate Texts
in Mathematics, Springer, 1986.
[7] E.L. Lima, Álgebra Linear , 3a edição, Coleção Matemática Universitária,
IMPA, 1998.
[8] E.L. Lima, Geometria Analítica e Álgebra Linear , 2a edição, Coleção
Matemática Universitária, IMPA, 2010.
300
6
150
Livro: Introdução à Álgebra LinearAutores: Abramo Hefez
Cecília de Souza Fernandez
Capítulo 6: Transformações Lineares eMatrizes
Sumário
1 Matriz de uma Transformação Linear . . . . . . . 151
2 Operações com Transformações Lineares e Ma-
trizes . . . . . . . . . . . . . . . . . . . . . . . . . . . 158
3 Operadores Lineares em R2 e em R3 . . . . . . . . 163
4 Mudança de Base e Matrizes Semelhantes . . . . 171
1. MATRIZ DE UMA TRANSFORMAÇÃO LINEAR 151
Neste capítulo, mostramos como associar matrizes a transformações line-
ares, reduzindo as operações com transformações lineares a operações com
matrizes, o que permite ganhar computabilidade.
1 Matriz de uma Transformação Linear
Nesta seção, veremos que se V e W são espaços vetoriais de dimensão
�nita, com bases �xadas, então uma transformação linear T : V → W pode
ser representada por uma matriz. A vantagem de uma tal representação é
que muitos problemas associados às transformações lineares entre espaços
de dimensão �nita podem ser resolvidos com a teoria das matrizes, como
veremos na próxima seção e nos capítulos a seguir.
Seja T : V→W uma transformação linear, em que dimV=n e dimW=m.
Sejam α = {v1, v2, . . . , vn} e β = {w1, w2, . . . , wm} bases de V e W , respec-
tivamente. Como β é uma base de W , podemos determinar de modo único
números reais aij, com 1 ≤ i ≤ n, 1 ≤ j ≤ m, tais que
T (vi) = a1iw1 + · · ·+ ajiwj + · · ·+ amiwm. (1)
Tomemos agora v em V . Temos que v = k1v1 + · · · + knvn, em que ki ∈ Rpara 1 ≤ i ≤ n. Pela linearidade de T e por (1), segue que
T (v) = k1T (v1) + · · ·+ knT (vn)
= k1(a11w1 + · · ·+ am1wm) + · · ·+ kn(a1nw1 + · · ·+ amnwm)
= (a11k1 + · · ·+ a1nkn)w1 + · · ·+ (am1k1 + · · ·+ amnkn)wm.
Logo,
[T (v)]β =
a11k1 + · · ·+ a1nkn...
am1k1 + · · ·+ amnkn
=
a11 · · · a1n...
...
am1 · · · amn
k1...kn
= [T ]αβ · [v]α,
(2)
152 CAPÍTULO 6. TRANSFORMAÇÕES LINEARES E MATRIZES
onde de�nimos
[T ]αβ =
a11 · · · a1n...
...
am1 · · · amn
.A matriz [T ]αβ , que representa T em relação às bases α e β, é chamada a
matriz de T nas bases α e β. Por (2), temos a expressão
[T (v)]β = [T ]αβ · [v]α para todo v em V . (3)
Observemos que [T ]αβ é uma matriz de ordem m × n tal que, para cada
1 ≤ i ≤ n, a i-ésima coluna de [T ]αβ é dada pelas coordenadas de T (vi) na
base β.
Exemplo 1. Sejam α = {(1, 1), (0, 2)} e β = {(1, 0, 1), (0, 1, 0), (1, 2, 0)},bases de R2 e R3, respectivamente. Calculemos [T ]αβ , onde T : R2 → R3 é
dada por T (x, y) = (2x, x− y, 2y).Como T é uma transformação linear de R2 em R3, [T ]αβ é uma matriz
3× 2, digamos
[T ]αβ =
a11 a12
a21 a22
a31 a32
.Pelo que vimos, a11, a21 e a31 são as coordenadas de T (1, 1) na base β e
a12, a22 e a32 são as coordenadas de T (0, 2) na base β. Ou seja,
T (1, 1) = (2, 0, 2) = a11(1, 0, 1) + a21(0, 1, 0) + a31(1, 2, 0)
e
T (0, 2) = (0,−2, 4) = a12(1, 0, 1) + a22(0, 1, 0) + a32(1, 2, 0).
Equivalentemente,a11 + a31 = 2
a21 + 2a31 = 0
a11 = 2
e
a12 + a32 = 0
a22 + 2a32 = −2
a12 = 4 .
1. MATRIZ DE UMA TRANSFORMAÇÃO LINEAR 153
Resolvendo os sistemas lineares acima, obtemos
a11 = 2, a21 = 0, a31 = 0, a12 = 4, a22 = 6 e a32 = −4.
Portanto,
[T ]αβ =
2 4
0 6
0 −4
.No exemplo anterior, determinamos [T ]αβ a partir da transformação linear
T . No próximo exemplo, vamos considerar o problema inverso: dada a matriz
[T ]αβ , determinar T a partir desta matriz.
Exemplo 2. Sejam α e β as bases dadas no Exemplo 1. Determine a
transformação linear T : R2 → R3 tal que
[T ]αβ =
1 0
1 2
0 1
.Para determinar T usaremos a expressão (3). Assim, computemos inici-
almente [v]α.
Ora, se (x, y) ∈ R2, então
(x, y) = x(1, 1) +
(y − x2
)(0, 2),
o que nos dá
[(x, y)]α =
xy − x2
.Portanto,
[T (x, y)]β =
1 0
1 2
0 1
xy − x2
=
x
yy − x2
e, consequentemente,
154 CAPÍTULO 6. TRANSFORMAÇÕES LINEARES E MATRIZES
T (x, y) = x(1, 0, 1) + y(0, 1, 0) +
(y − x2
)(1, 2, 0)
=
(y + x
2, 2y − x, x
).
O Exemplo 2 pode ser resolvido por um outro método. De fato, sabemos
que, na base β, a primeira coluna de [T ]αβ nos dá as coordenadas de T (1, 1)
e a segunda coluna nos dá as coordenadas de T (0, 2).
Assim,
T (1, 1) = 1(1, 0, 1) + 1(0, 1, 0) + 0 · (1, 2, 0) = (1, 1, 1)
e
T (0, 2) = 0 · (1, 0, 1) + 2(0, 1, 0) + 1(1, 2, 0) = (1, 4, 0).
Para (x, y) ∈ R2 arbitrário, temos
(x, y) = x(1, 1) +
(y − x2
)(0, 2).
Agora, pela linearidade de T , segue que
T (x, y) = x(1, 1, 1) +
(y − x2
)(1, 4, 0)
=
(y + x
2, 2y − x, x
),
como encontrado anteriormente.
Quando a transformação linear for de um espaço vetorial V nele mesmo,
ela será chamada de operador em V .
Exemplo 3. Consideremos o operador identidade em um espaço vetorial V ;
isto é, o operador de�nido por IV (v) = v para todo v ∈ V .Tem-se que [IV ]
αα é a matriz identidade de ordem n. De fato, para cada
1 ≤ j ≤ n, a j-ésima coluna de [IV ]αα é dada pelas coordenadas de IV (vj) na
base α. Mas, para cada 1 ≤ j ≤ n,
IV (vj) = vj = 0v1 + · · ·+ 0vj−1 + 1vj + 0vj+1 + · · ·+ 0vn,
1. MATRIZ DE UMA TRANSFORMAÇÃO LINEAR 155
o que implica que [IV ]αα é a matriz identidade de ordem n:
[IV ]αα =
1 · · · 0 · · · 0
0 0 0...
......
0 · · · 1 · · · 0...
......
0 · · · 0 · · · 1
.
↑ ↑ ↑coordenadas coordenadas coordenadas
de IV (v1) de IV (vj) de IV (vn)
na base α na base α na base α
Seja T : V → W uma transformação linear entre espaços vetoriais de
dimensão �nita. Vimos que, uma vez �xadas bases α e β de V e W , res-
pectivamente, existe uma única matriz [T ]αβ que representa T nessas bases.
Uma pergunta natural é o que ocorre com a matriz [T ]αβ se diferentes bases
são escolhidas. Consideremos a transformação linear dada no Exemplo 1. Se
α e β são as bases canônicas de R2 e R3, respectivamente, então
[T ]αβ =
2 0
1 −10 2
.Assim, podemos ter matrizes diferentes representando uma mesma trans-
formação linear. Isto deixa bastante claro que, embora uma transformação
linear T : V → W não dependa de bases particulares escolhidas para V e W ,
a matriz associada depende dessas bases.
Terminamos esta seção observando que escolhidas bases quaisquer α e β
de Rn e Rm, respectivamente, uma matriz A ∈ M(m,n) de�ne uma trans-
formação linear T : Rn → Rm como segue:
[T (v)]β = A · [v]α, v ∈ Rn.
156 CAPÍTULO 6. TRANSFORMAÇÕES LINEARES E MATRIZES
Mais ainda, tem-se que [T ]αβ = A (veja Problema 1.2).
Em particular, se α e β são as bases canônicas de Rn e Rm, respectiva-
mente, então a transformação linear T é chamada transformação multiplica-
ção por A, sendo representada por TA.
Exemplo 4. Seja A = [aij] uma matriz de ordem m× n. Temos que
TA(x1, . . . , xn) =
a11 a12 . . . a1n
a21 a22 . . . a2n...
......
am1 am2 . . . amn
x1
x2...
xn
=
a11x1 + a12x2 + · · ·+ a1nxn
a21x1 + a22x2 + · · ·+ a2nxn...
am1x1 + am2x2 + · · ·+ amnxn
= x1w1 + x2w2 + · · ·+ xnwn,
onde w1, . . . , wn são os vetores colunas da matriz A.
Assim, temos que ImTA é o subespaço de Rm gerado pelas colunas da
matriz A, chamado espaço coluna de A e denotado por C(A). Por outro
lado, o núcleo KerTA de TA é o conjunto solução Sh(A) do sistema linear
homogêneo AX = 0.
Problemas
1.1 Dadas duas transformações lineares T, T ′ : V → W e bases α e β de V e
W , respectivamente, mostre que se [T ]αβ = [T ′]αβ , então T = T ′.
1.2* Sejam dados dois espaços vetoriais V e W de dimensões n e m, respec-
tivamente. Seja α uma base de V e β uma base de W . Dada uma matriz
A ∈M(m,n), considere a função T : V → W de�nida por
[T (v)]β = A[v]α, v ∈ V.
1. MATRIZ DE UMA TRANSFORMAÇÃO LINEAR 157
Mostre que:
(a) T é uma transformação linear;
(b) [T ]αβ = A.
1.3 Sejam A e B matrizes emM(m,n) e β uma base de um espaço vetorial
V . Mostre que se A[v]β = B[v]β para todo v ∈ V , então A = B.
1.4* Sejam T : Rn → Rm uma transformação linear e α e β bases de Rn e de
Rm, respectivamente. Se r é o posto da matriz [T ]αβ , mostre que
dim ImT = r e dimKerT = n− r.
1.5 Dadas as bases α = {(1, 1, 1), (0, 1, 0), (0, 1, 1)} de R3 e β = {(1, 2), (0, 1)}de R2, ache a transformação linear T : R3 → R2 tal que
[T ]αβ =
[1 0 2
−1 −1 1
].
1.6 Dado o operador linear T : R3 → R3, T (x, y, z) = (x−y, y−x, x−z), en-contre [T ]αβ , onde α é a base canônica de R3 e β = {(1, 0, 1), (0, 1, 1), (1, 1, 0)}.
1.7 Seja T : R3 → R3 a multiplicação pela matriz 1 3 4
3 4 7
−2 2 0
.(a) Mostre que KerT é uma reta que passa pela origem e encontre as equações
paramétricas desta reta.
(b) Mostre que ImT é um plano que passa pela origem e encontre a equação
cartesiana deste plano.
1.8 Dado o operador linear T (x, y, z) = (x− 2y+ z,−x+4y− 2z, x) em R3,
com base α = {(1, 0,−1), (0, 1, 2), (1, 2, 0)}, encontre uma base β de R3 tal
158 CAPÍTULO 6. TRANSFORMAÇÕES LINEARES E MATRIZES
que
[T ]αβ =
1 0 0
0 0 0
0 0 1
.1.9 Seja T : R[x]2 → R[x]2 a transformação linear T (p(x)) = p(2x + 1)
(veja Exemplo 6, Seção 1, Capítulo 5). Encontre [T ]ββ em relação à base
β = {1, x, x2}.
1.10 Suponha que V e W tenham dimensão �nita. Mostre a matriz, em
quaisquer bases de V e de W , da transformação nula 0: V → W é a matriz
nula.
1.11 Seja α = {v1, v2, v3, v4} uma base de um espaço vetorial V . Encontre a
matriz [T ]αα da transformação linear T : V → V de�nida por
T (v1) = v2, T (v2) = v3, T (v3) = v4 e T (v4) = v1.
1.12 Seja T : R2 →M(2, 2) a transformação linear de�nida por
[T ]αβ =
1 −2−1 0
2 1
1 −1
,onde α e β são as bases canônicas de R2 eM(2, 2), respectivamente.
(a) Determine os vetores v ∈ R2 tais que T (v) = I2;
(b) Determine T (3,−1).
2 Operações com Transformações Lineares e Ma-
trizes
Sejam T e T ′ transformações lineares de V emW . Sejam α = {v1, . . . , vn}e β = {w1, . . . , wm} bases de V em W , respectivamente. Estamos interessa-
dos em veri�car se existe alguma relação entre as matrizes [T + T ′]αβ , [T ]αβ e
2. OPERAÇÕES COMTRANSFORMAÇÕES LINEARES EMATRIZES159
[T ′]αβ . Notemos que se 1 ≤ j ≤ n, então
[(T + T ′)(vj)]β = [T (vj) + T ′(vj)]β = [T (vj)]β + [T ′(vj)]β,
mostrando que a j-ésima coluna de [T + T ′]αβ é a soma da j-ésima coluna de
[T ]αβ com a j-ésima coluna de [T ]αβ . Demonstramos assim o seguinte resultado:
Proposição 6.2.1. Sejam T e T ′ transformações lineares de V em W , onde
V e W são espaços vetoriais de dimensão �nita. Se α e β são bases de V e
W , respectivamente, então
[T + T ′]αβ = [T ]αβ + [T ′]αβ .
Deixamos como exercício para o leitor (veja Problema 2.3) demonstrar a
próxima proposição, que é um resultado análogo ao anterior para a multipli-
cação por escalar de transformações lineares.
Proposição 6.2.2. Seja T : V → W uma transformação linear, onde V e
W são espaços vetoriais de dimensão �nita. Se α e β são bases de V e W ,
respectivamente, então
[kT ]αβ = k[T ]αβ ,
onde k é um número real arbitrário.
Decorre, das duas proposições acima, que [T+kT ′]αβ = [T ]αβ+k[T′]αβ , o que
mostra, em virtude dos Problemas 1.1 e 1.2, da Seção 1, que dados espaços
vetoriais V e W , de dimensões respectivamente, n e m, e �xadas bases α de
V e β de W , a aplicação
L(V,W ) → M(m,n)
T 7→ [T ]αβ
é um isomor�smo de espaços vetoriais. Portanto, temos que
dimL(V,W ) = dimM(m,n) = nm.
No próximo resultado veremos que a composta de duas transformações
lineares pode ser representada por um produto de matrizes. Esta é uma das
principais razões da importância do estudo de matrizes.
160 CAPÍTULO 6. TRANSFORMAÇÕES LINEARES E MATRIZES
Proposição 6.2.3. Sejam T : V → W e S : W → U transformações lineares,
em que V,W e U são espaços vetoriais de dimensão �nita. Se α, β e γ são
bases de V,W e U , respectivamente, então
[S ◦ T ]αγ = [S]βγ · [T ]αβ . (1)
Demonstração Consideremos α = {v1, . . . , vn}. Denotemos por Cj(M) a
j-ésima coluna de uma matriz M arbitrária. Se A e B são matrizes para as
quais a matriz AB está de�nida, segue da de�nição de produto que
Cj(AB) = A · Cj(B). (2)
Para demonstrar (1) basta provar que, para cada j, com 1 ≤ j ≤ n, tem-se
que Cj([S ◦ T ]αγ ) = Cj([S]βγ · [T ]αβ). Ora, �xe um índice j. De (2), segue que
Cj([S]βγ · [T ]αβ) = [S]βγ · Cj([T ]αβ) = [S]βγ · [T (vj)]β.
Por outro lado, de (3), da Seção 1, segue que
Cj([S ◦ T ]αγ ) = [(S ◦ T )(vj)]γ = [S(T (vj))]γ = [S]βγ · [T (vj)]β,
o que prova o desejado. �
Exemplo 1. Sejam T : R2 → R3 e S : R3 → R2 transformações lineares
cujas matrizes são
[T ]αβ =
1 0
2 1
−1 1
e [S]βγ =
[1 0 1
0 0 1
],
sendo α = {(1, 0), (1, 1)}, β = {(1, 1, 1), (1, 0, 1), (0, 0, 1)} e γ = {(1, 0), (0, 2)}.Vamos encontrar a transformação linear S ◦ T .
Para determinarmos S ◦ T , vamos primeiramente determinar [S ◦ T ]αγ .Pela Proposição 6.2.3,
[S ◦ T ]αγ =
[1 0 1
0 0 1
] 1 0
2 1
−1 1
=
[0 1
−1 1
].
2. OPERAÇÕES COMTRANSFORMAÇÕES LINEARES EMATRIZES161
Agora por (3), da Seção 1, temos que, para qualquer (x, y) ∈ R2,
[(S ◦ T )(x, y)]γ =
[0 1
−1 1
][(x, y)]α
=
[0 1
−1 1
][x− yy
]
=
[y
2y − x
]e, consequentemente,
(S ◦ T )(x, y) = y(1, 0) + (2y − x)(0, 2) = (y, 4y − 2x).
Vimos que se T é uma transformação linear bijetiva, T−1 é também uma
transformação linear. O resultado a seguir, que é uma consequência da Pro-
posição 6.2.3, nos apresenta uma relação entre as matrizes que representam
T e T−1, quando �xadas bases do domínio e do contradomínio de T .
Teorema 6.2.4. Seja T : V → W um isomor�smo, onde V e W são espaços
vetoriais de dimensão �nita. Se α é uma base de V e β é uma base de W ,
então
[T−1]βα = ([T ]αβ)−1.
Demonstração Como T−1 é a inversa de T , temos que T−1 ◦ T é a função
identidade em V , ou seja,
T−1 ◦ T = IV .
Pela Proposição 6.2.3,
[IV ]αα = [T−1 ◦ T ]αα = [T−1]βα · [T ]αβ . (3)
Se dimV = n, pelo Exemplo 3, da Seção 1, temos que [IV ]αα é a matriz
identidade de ordem n. Assim, de (3), segue-se que [T ]αβ é invertível e sua
inversa é a matriz [T−1]βα. �
Corolário 6.2.5. Seja T : V → W uma transformação linear, onde V e W
são espaços vetoriais de mesma dimensão �nita. Sejam α e β bases de V
162 CAPÍTULO 6. TRANSFORMAÇÕES LINEARES E MATRIZES
e W , respectivamente. Temos que T é invertível se, e somente se, a matriz
[T ]αβ é invertível.
Demonstração Uma implicação resulta de (3). A outra, do fato que a
transformação linear L(V,W ) → M(n, n), onde n = dimV = dimW , é
sobrejetora e transforma composição de transformações lineares em produtos
de matrizes.
�
Exemplo 2. Seja T : R2 → R2 a transformação linear dada por T (x, y) =
(4x − 3y,−2x + 2y). Vamos veri�car que T é invertível e vamos encontrar
T−1.
Para veri�carmos que T é invertível, podemos calcular KerT e usar a
Proposição 5.2.4, ou, ainda, podemos calcular [T ]αα, onde α é uma base qual-
quer de R2, e usar o Corolário 6.2.5. Vamos aqui optar pelo segundo método.
Ora, se α é a base canônica de R2, então
[T ]αα =
[4 −3−2 2
].
Utilizando a técnica exposta logo após a Proposição 2.1.7, podemos veri�car
que a matriz acima é invertível e a sua inversa é a matriz[1 3/2
1 2
].
Portanto, devido ao Teorema 6.2.4, temos que
[T−1]αα = ([T ]αα)−1 =
[1 3/2
1 2
].
A transformação linear T−1 é, então, determinada usando a fórmula (3) da
Seção 1, como segue:
[T−1(x, y)]α = [T−1]αα [(x, y)]α =
[1 3/2
1 2
][x
y
]=
[x+ 3
2y
x+ 2y
],
3. OPERADORES LINEARES EM R2 E EM R3 163
o que fornece
T−1(x, y) = (x+3
2y, x+ 2y).
Problemas
2.1 Sejam
A =
1 0 1
0 2 −10 0 1
e B =
1 1 −10 0 1
−1 2 0
.Determine a transformação linear T : R3 → R3 tal que TA = TB ◦ T .
2.2 Considere as matrizes
A =
1 2
0 1
1 −1
e B =
1 1 1
−1 0 0
1 2 1
.Determine:
(a) KerTA; (b) ImTA; (c) KerTB;
(d) ImTB; (e) Ker(TB ◦ TA); (f) Im(TB ◦ TA).
2.3 Prove a Proposição 6.2.2.
3 Operadores Lineares em R2 e em R3
Dentre os operadores lineares mais importantes em R2 e em R3 estão os
que produzem re�exões, projeções e rotações. A seguir, passamos a estudar
alguns destes operadores.
Re�exões Consideremos o operador linear T : R2 → R2, chamado de re�e-
xão em torno do eixo Ox, que transforma cada vetor v = (x, y) ∈ R2 em sua
imagem simétrica em relação ao eixo Ox.Figura 10
Se escrevermos w = T (v) = (w1, w2), obtemos as equações
w1 = x = 1x+ 0y, w2 = −y = 0x− 1y.
164 CAPÍTULO 6. TRANSFORMAÇÕES LINEARES E MATRIZES
Assim, se α denota a base canônica de R2, segue que
[T (v)]α =
[1 0
0 −1
][v]α.
Em geral, os operadores lineares de R2 ou de R3 que levam cada vetor em
seu simétrico em relação a alguma reta ou plano são chamados de re�exões .
Abaixo, apresentamos algumas das re�exões mais comuns em R2 e R3. Fi-
xamos a notação α para denotar a base canônica de R2 ou de R3.
3. OPERADORES LINEARES EM R2 E EM R3 165
Operador Equações Matriz [T ]αα
Re�exão em torno
do eixo Oy
{w1 = −xw2 = y
[−1 0
0 1
]
Re�exão em torno
da reta y = x
{w1 = y
w2 = x
[0 1
1 0
]
Re�exão em torno
do plano xOy
w1 = x
w2 = y
w3 = −z
1 0 0
0 1 0
0 0 −1
Re�exão em torno
do plano yOz
w1 = −xw2 = y
w3 = z
−1 0 0
0 1 0
0 0 1
Re�exão em torno
do plano xOz
w1 = x
w2 = −yw3 = z
1 0 0
0 −1 0
0 0 1
Projeções Consideremos o operador linear T : R2 → R2 que transforma
cada vetor v = (x, y) ∈ R2 em sua projeção ortogonal sobre o eixo Ox
(Figura 11). Se escrevermos w = T (v) = (w1, w2), obteremos as equações
w1 = x = 1x+ 0y, w2 = 0 = 0x+ 0y.
Assim, se α denota a base canônica de R2, temos
[T (v)]α =
[1 0
0 0
][v]α.
Figura 11
Em geral, uma projeção (ou, mais precisamente, uma projeção ortogonal)
de R2 ou R3 é um operador linear que transforma cada vetor em sua projeção
166 CAPÍTULO 6. TRANSFORMAÇÕES LINEARES E MATRIZES
ortogonal sobre alguma reta ou algum plano que passa pela origem. A seguir,
apresentamos algumas das projeções mais comuns.
Operador Equações Matriz [T ]αα
Projeção sobre
o eixo Oy
{w1 = 0
w2 = y
[0 0
0 1
]
Projeção sobre
o plano xOy
w1 = x
w2 = y
w3 = 0
1 0 0
0 1 0
0 0 0
Projeção sobre
o plano yOz
w1 = 0
w2 = y
w3 = z
0 0 0
0 1 0
0 0 1
Projeção sobre
o plano xOz
w1 = x
w2 = 0
w3 = z
1 0 0
0 0 0
0 0 1
Rotações Consideremos o operador linear T : R2 → R2 que gira cada vetor
v = (x, y) ∈ R2 de um ângulo �xado θ (Figura 12). T é chamado de rotação
por θ em R2. Figura 12
3. OPERADORES LINEARES EM R2 E EM R3 167
Se escrevermos w = T (v) = (w1, w2), segue da trigonometria que
x = r cosφ, y = r senφ (1)
e
w1 = r cos(θ + φ), w2 = r sen(θ + φ), (2)
onde r denota o comprimento de v e φ denota o ângulo entre v e o eixo Ox
positivo no sentido anti-horário. Aplicando identidades trigonométricas em
(2), temos {w1 = r cos θ cosφ− r sen θ senφw2 = r sen θ cosφ+ r cos θ senφ.
Substituindo (1) nas expressões acima, obtemos as equações{w1 = x cos θ − y sen θw2 = x sen θ + y cos θ.
(3)
Assim, se α denota a base canônica de R2, obtemos
[T (v)]α =
[cos θ − sen θ
sen θ cos θ
][v]α.
Em geral, uma rotação de vetores em R3 é feita em relação a uma reta
partindo da origem, chamada eixo de rotação. À medida que um vetor gira
em torno do eixo de rotação, ele varre uma porção de um cone (Figura 13).
168 CAPÍTULO 6. TRANSFORMAÇÕES LINEARES E MATRIZES
O ângulo de rotação, que é medido na base do cone, é descrito no sentido
horário ou anti-horário em relação a um ponto de vista ao longo do eixo de
rotação olhando para a origem. Por exemplo, na Figura 13, o vetor T (v)
resulta da rotação no sentido anti-horário do vetor v em torno do eixo Ox
por um ângulo θ. Assim como em R2, os ângulos são positivos se gerados
por rotações no sentido anti-horário e negativos se gerados por rotações no
sentido horário.
Figura 13
Na tabela a seguir, apresentamos as rotações em R3 cujos eixos de rotação
são os eixos coordenados.
3. OPERADORES LINEARES EM R2 E EM R3 169
Operador Equações Matriz [T ]αα
Rotação anti-horária
em torno do eixo Ox
por um ângulo θ
w1 = x
w2 = y cos θ − z sen θw3 = y sen θ + z cos θ
1 0 0
0 cos θ − sen θ
0 sen θ cos θ
Rotação anti-horária
em torno do eixo Oy
por um ângulo θ
w1 = x cos θ + z sen θ
w2 = y
w3 = −x sen θ + z cos θ
cos θ 0 sen θ
0 1 0
− sen θ 0 cos θ
Rotação anti-horária
em torno do eixo Oz
por um ângulo θ
w1 = x cos θ − y sen θw2 = x sen θ + y cos θ
w3 = z
cos θ − sen θ 0
sen θ cos θ 0
0 0 1
Para cada uma das rotações na tabela acima, uma das componentes do
vetor permanece inalterada durante a rotação e a relação entre as duas outras
componentes pode ser deduzida da mesma forma que deduzimos (3).
Sabemos que a multiplicação por escalar de um vetor em R2 e em R3, de-
pendendo do valor do escalar, produz no vetor uma dilatação, contração ou
inversão. Podemos representar estes efeitos geométricos por meio de opera-
dores lineares. De fato, o operador linear Ta : R2 → R2, dado por Ta(v) = av,
em que a ∈ R e v ∈ R2, dilata v, se a ≥ 1; contrai v, se 0 ≤ a < 1; inverte
o sentido de v, se a < 0. No caso particular de a = −1, o operador Ta é
chamado re�exão em torno da origem. O que acabamos de ver vale também
para R3 (Figura 14). Figura 14
Exemplo 1. Determinemos se T1 ◦ T2 = T2 ◦ T1, onde T1 : R2 → R2 é a
projeção ortogonal sobre o eixo Ox e T2 : R2 → R2 é a projeção ortogonal
sobre o eixo Oy.
Como vimos na Seção 2, compor transformações lineares é equivalente a
multiplicar as matrizes que representam estas transformações. Seja α a base
170 CAPÍTULO 6. TRANSFORMAÇÕES LINEARES E MATRIZES
canônica de R2. Como
[T1]αα =
[1 0
0 0
]e [T2]
αα =
[0 0
0 1
],
segue que T1 ◦ T2 é dada pelo produto[1 0
0 0
][0 0
0 1
]=
[0 0
0 0
](4)
e que T2 ◦ T1 é dada pelo produto[0 0
0 1
][1 0
0 0
]=
[0 0
0 0
]. (5)
De (4) e (5), obtemos que T1 ◦ T2 e T2 ◦ T1 são o operador nulo em R2.
Portanto, T1 ◦ T2 = T2 ◦ T1.
Problemas
3.1* Encontre a matriz na base canônica para a composição de uma rotação
de 90◦ seguida de uma re�exão em torno da reta y = x, em R2.
3.2* Determine a inversa do operador linear em R3 dado por uma re�exão
em torno do plano xOy.
3.3 Sejam T : R2 → R2 a re�exão em torno do eixo Oy e S : R2 → R2 a
re�exão em torno do eixo Ox. Mostre que S ◦ T = T ◦ S.
4. MUDANÇA DE BASE E MATRIZES SEMELHANTES 171
3.4 Sejam T : R2 → R2 a re�exão em torno da reta y = x e S : R2 → R2 a
projeção ortogonal sobre o eixo Oy. Mostre que S ◦ T 6= T ◦ S.
3.5 Mostre que se T : R3 → R3 é uma projeção ortogonal sobre um dos eixos
coordenados, então os vetores T (v) e v − T (v) são ortogonais, para cada v
em R3.
3.6 Seja T : R3 → R3 a projeção ortogonal sobre o plano xOy. Mostre que
uma reta ortogonal ao plano xOy é levada por T a um mesmo ponto deste
plano.
3.7 Determine a matriz na base canônica de T : R2 → R2, em que
(a) T dilata os vetores de R2 por 3, em seguida re�ete estes vetores em torno
da reta y = x e depois projeta estes vetores ortogonalmente sobre o eixo Oy;
(b) T contrai os vetores de R2 por1
2, em seguida gira estes vetores pelo
ânguloπ
4e depois re�ete estes vetores em torno do eixo Ox.
4 Mudança de Base e Matrizes Semelhantes
Um problema comum no estudo de espaços vetoriais de dimensão �nita é
conhecer as relações entre as coordenadas de um vetor em diferentes bases.
Como a noção de base é a generalização para espaços vetoriais arbitrários da
noção de sistemas de coordenadas em R2 e R3, mudar de base é análogo a
mudar de eixos coordenados em R2 ou R3.
Dado um espaço vetorial V arbitrário de dimensão �nita e duas bases α e
β de V , podemos obter uma relação entre as matrizes [v]α e [v]β de um vetor
v em V , usando, para isto, o operador identidade em V .
Com efeito, pela expressão (3) da Seção 1, para todo v ∈ V , temos que
[v]β = [IV ]αβ · [v]α. (1)
A matriz [IV ]αβ é chamada matriz mudança de base de α para β, pois, pela
igualdade (1), ela nos permite obter as coordenadas de um vetor v em V em
relação à base β uma vez conhecidas suas coordenadas na base α.
172 CAPÍTULO 6. TRANSFORMAÇÕES LINEARES E MATRIZES
Exemplo 1. Considerando a base canônica α de R2 e a outra base β =
{(1, 1), (1, 2)}, temos que
[IR2 ]αβ =
[a1 b1
a2 b2
],
onde a1, a2, b1, b2 são números reais satisfazendo o sistema de equações(1, 0) = a1(1, 1) + a2(1, 2)
(0, 1) = b1(1, 1) + b2(1, 2).
Resolvendo as equações acima, obtemos a1 = 2, a2 = −1, b1 = −1 e
b2 = 1. Portanto,
[IR2 ]αβ =
[2 −1−1 1
].
Seja agora v = (x, y) em R2. Se
[v]β =
[x′
y′
],
então [x′
y′
]=
[2 −1−1 1
][x
y
],
o que garante que
x′ = 2x− y e y′ = −x+ y
são as coordenadas de v na base β. Ou seja,
(x, y) = (2x− y)(1, 1) + (−x+ y)(1, 2).
A Figura 15 ilustra como a determinação do par (2,3) em R2 depende da
base com a qual estamos trabalhando.
4. MUDANÇA DE BASE E MATRIZES SEMELHANTES 173
Figura 15
O próximo resultado mostra que uma matriz mudança de base é invertível
e que sua inversa também é uma matriz mudança de base.
Teorema 6.4.1. Sejam α e β duas bases de um espaço de dimensão �nita
V . Temos que a matriz [IV ]αβ é invertível e sua inversa é a matriz [IV ]βα. Ou
seja,
([IV ]αβ)−1 = [IV ]
βα.
Demonstração Como IV é um isomor�smo e I−1V = IV , o resultado segue
do Teorema 6.2.4. �
Sejam α e β duas bases de um espaço vetorial de dimensão �nita V e T
um operador linear em V . Com as matrizes mudança de base podemos obter
uma relação entre as matrizes [T ]αα e [T ]ββ. De fato, como T = IV ◦T ◦ IV ,segue, da Proposição 6.2.3, que
[T ]αα = [IV ◦T ◦ TV ]αα = [IV ]βα · [T ]
ββ · [IV ]
αβ ,
ou seja
[T ]αα = [IV ]βα · [T ]
ββ · [IV ]
αβ . (2)
No entanto, pelo Teorema 6.4.1, temos que [IV ]βα é a inversa de [IV ]αβ . Assim,
se denotarmos [IV ]αβ por P , a equação (2) pode ser reescrita como
[T ]αα = P−1 [T ]ββ P .
174 CAPÍTULO 6. TRANSFORMAÇÕES LINEARES E MATRIZES
Com isto, demonstramos o seguinte resultado:
Teorema 6.4.2. Sejam α e β duas bases de um espaço vetorial de dimensão
�nita V . Se T é um operador linear em V , então
[T ]αα = P−1 · [T ]ββ · P, (3)
onde P = [IV ]αβ .
A relação dada na expressão (3) é de tal importância que existe uma ter-
minologia associada a ela. Sejam A e B matrizes quadradas de mesma ordem.
Dizemos que B é semelhante a A, quando existir uma matriz invertível P tal
que B = P−1AP . É fácil veri�car que se uma matriz B é semelhante a uma
matriz A, então A também é semelhante a B. Assim, dizemos simplesmente
que A e B são semelhantes . Por (3), temos que [T ]αα e [T ]ββ são semelhantes.
Exemplo 2. Para veri�car se as matrizes
A =
[5 2
−8 −3
]e B =
[1 2
0 1
]são semelhantes, devemos encontrar uma matriz invertível P tal que
PA = BP.
Se tal matriz P existir, ela necessariamente é uma matriz quadrada de ordem
2; digamos
P =
[x y
z t
].
Assim, [x y
z t
][5 2
−8 −3
]=
[1 2
0 1
][x y
z t
],
o que é equivalente ao sistema linear homogêneo4x− 8y − 2z = 0
2x− 4y − 2t = 0
4z − 8t = 0,
4. MUDANÇA DE BASE E MATRIZES SEMELHANTES 175
que admite a solução não trivial (3, 1, 2, 1). Portanto, obtemos a matriz
invertível
P =
[3 1
2 1
],
que satisfaz A = P−1BP .
Problemas
4.1 Sejam dadas as bases de R2
α = {(1, 1), (0, 2)}, β = {(1, 2), (2, 1)} e γ = {(1, 0), (0, 1)}.
(a) Determine[IR2
]αβ,[IR2
]αγ,[IR2
]γβ.
(b) Se v = (4,−1), encontre [v]β usando uma matriz mudança de base.
4.2 Se[IR2
]αβ=
[−1 2
4 −11
]e β = {(3, 5), (1, 2)}, encontre a base α.
4.3 Determine[IR3
]βα, sabendo que
[IR3
]αβ=
0 1 0
1 1 0
1 1 1
.4.4 Encontre três matrizes semelhantes à matriz[
1 1
−1 2
].
4.5 Mostre que não são semelhantes as matrizes[3 1
−6 −2
]e
[−1 2
1 0
].
4.6 Sejam A e B matrizes semelhantes. Prove que:
(a) At e Bt são semelhantes;
(b) Se A e B são invertíveis, então A−1 e B−1 são semelhantes.
176 CAPÍTULO 6. TRANSFORMAÇÕES LINEARES E MATRIZES
4.7 Mostre que a semelhança de matrizes é uma relação de equivalência, ou
seja: (i) A é semelhante a A; (ii) se A é semelhante a B, então B é semelhante
a A; (iii) se A é semelhante a B e B a C, então A é semelhante a C.
4.8* Seja A = (aij) uma matriz quadrada de ordem n. De�ne-se o traço de
A como
trA = a11 + · · ·+ ann.
a) Mostre que tr :M(n, n)→ R é um funcional linear.
b) Se A,B ∈M(n, n), mostre que
trAB = trBA.
c) Seja T : V → V um operador linear, onde V é um espaço n-dimensional,
e seja α uma base de V . De�na trT = tr[T ]αα. Mostre que esta de�nição
independe da base de V escolhida; ou seja, se β é uma outra base de V , então
tr[T ]αα = tr[T ]ββ. Conclua que assim temos bem de�nido um funcional linear
tr : L(V, V )→ R, de�nido por T 7→ trT .
Bibliogra�a
[1] H. P. Bueno, Álgebra Linear, um segundo curso, Coleção Textos Univer-
sitários, SBM, 2006.
[2] P. Halmos, Teoria Ingênua dos Conjuntos , Editora Ciência Moderna,
2001.
[3] A. Hefez e M. L. T. Villela, Códigos Corretores de Erros , Coleção Mate-
mática e Aplicações, IMPA, 2008.
[4] A. Hefez e M. L. T. Villela, Números Complexos e Polinômios , Coleção
PROFMAT, SBM, 2012.
[5] V. J. Katz, A History of Mathematics - an Introduction, HarperCollins
College Publishers, 1993.
[6] S. Lang, Introduction to Linear Algebra, 2nd edition, Undergraduate Texts
in Mathematics, Springer, 1986.
[7] E.L. Lima, Álgebra Linear , 3a edição, Coleção Matemática Universitária,
IMPA, 1998.
[8] E.L. Lima, Geometria Analítica e Álgebra Linear , 2a edição, Coleção
Matemática Universitária, IMPA, 2010.
300
7
177
Livro: Introdução à Álgebra LinearAutores: Abramo Hefez
Cecília de Souza Fernandez
Capítulo 7: Espaços com ProdutoInterno
Sumário
1 Produto Interno . . . . . . . . . . . . . . . . . . . . 178
2 Ângulos entre Vetores e Ortogonalidade . . . . . . 181
3 Bases Ortonormais . . . . . . . . . . . . . . . . . . . 188
3.1 Conjuntos Ortogonais . . . . . . . . . . . . . . . . 188
3.2 Ortogonalização de Gram-Schmidt . . . . . . . . . 192
4 Operadores em Espaços com Produto Interno . . 198
4.1 O Operador Adjunto . . . . . . . . . . . . . . . . . 199
4.2 Operadores Ortogonais . . . . . . . . . . . . . . . . 202
178 CAPÍTULO 7. ESPAÇOS COM PRODUTO INTERNO
Neste capítulo, apresentaremos a noção de produto interno em espaços
vetoriais. Esta noção, como veremos, generaliza a noção de produto escalar
em R2 e em R3 e enriquece a estrutura de um espaço vetorial, permitindo
de�nir vários conceitos de caráter geométrico previamente estudados em R2
e R3.
1 Produto Interno
Seja V um espaço vetorial. Um produto interno em V é uma função que a
cada par de vetores u e v em V associa um número real, denotado por 〈u, v〉,que satisfaz as seguintes condições:
Para quaisquer vetores u, v e w de V e qualquer número real k,
PI 1 〈v, v〉 ≥ 0;
PI 2 〈v, v〉 = 0 se, e somente se, v = 0;
PI 3 〈u, v〉 = 〈v, u〉;PI 4 〈u+ v, w〉 = 〈u,w〉+ 〈v, w〉;PI 5 〈ku, v〉 = k〈u, v〉.
Um espaço vetorial com um produto interno é chamado, abreviadamente,
de espaço com produto interno.
Exemplo 1. Sejam u = (x1, x2, . . . , xn) e v = (y1, y2, . . . , yn) vetores em Rn.
De�nimos
〈u, v〉 = x1y1 + x2y2 + · · ·+ xnyn . (1)
Note que
〈u, u〉 = x21 + · · ·+ x2n ≥ 0,
e que
〈u, v〉 = x1y1 + x2y2 + · · ·+ xnyn = y1x1 + y2x2 + · · ·+ ynxn = 〈v, u〉,
mostrando que as condições 1 e 3 da de�nição de produto interno são satis-
feitas. A condição 2 também é satisfeita já que
〈u, u〉 = x21 + · · ·+ x2n = 0 ⇐⇒ x1 = · · · = xn = 0 ⇐⇒ u = 0.
1. PRODUTO INTERNO 179
Se w = (z1, z2, . . . , zn), então
〈u+ v, w〉 = (x1 + y1)z1 + (x2 + y2)z2 + · · ·+ (xn + yn)zn
= (x1z1 + x2z2 + · · ·+ xnzn) + (y1z1 + y2z2 + · · ·+ ynzn)
= 〈u,w〉+ 〈v, w〉,
mostrando que a condição 4 é satisfeita. A condição 5 também é satisfeita,
pois se k ∈ R, então
〈ku, v〉 = (kx1)y1+(kx2)y2+· · ·+(kxn)yn = k(x1y1+x2y2+· · ·+xnyn) = k〈u, v〉.
Assim, (1) de�ne um produto interno em Rn, chamado de produto interno
usual de Rn ou produto escalar de Rn, generalizando a noção de produto
escalar de R2 e de R3.
Exemplo 2. Sejam p(x) = a0 + a1x+ a2x2 e q(x) = b0 + b1x+ b2x
2 vetores
em R[x]2. De�na
〈p(x), q(x)〉 = a0b0 + a1b1 + a2b2 . (2)
Temos que (2) de�ne um produto interno em R[x]2. De fato, por meio do
isomor�smo de espaços vetoriais,
T : R[x]2 → R3
a0 + a1x+ a2x2 7→ (a0, a1, a2)
o produto 〈p(x), q(x)〉 não é outro que o produto interno usual de R3.
O próximo resultado apresenta algumas propriedades básicas dos produ-
tos internos.
Proposição 7.1.1. Seja V um espaço com produto interno. Se u, v, w ∈ Ve se k ∈ R, então
(i) 〈0, u〉 = 〈u, 0〉 = 0;
(ii) 〈u, v + w〉 = 〈u, v〉+ 〈u,w〉;
(iii) 〈u, kv〉 = k〈u, v〉;
180 CAPÍTULO 7. ESPAÇOS COM PRODUTO INTERNO
(iv) 〈u, v − w〉 = 〈u, v〉 − 〈u,w〉.
Demonstração Provaremos apenas (ii) e deixaremos os demais itens como
exercício (ver Problema 1.3).
De fato, pela condições PI 3 e PI 4 da de�nição de produto interno temos
que
〈u, v + w〉 = 〈v + w, u〉 = 〈v, u〉+ 〈w, u〉 = 〈u, v〉+ 〈u,w〉.
�
Seja V um espaço com produto interno. De�nimos a norma do vetor v
de V , ou comprimento de v, denotado por ||v||, como o número real
||v|| = 〈v, v〉1/2.
Se ||v|| = 1, dizemos que v é um vetor unitário.
A distância d(u, v) entre dois vetores u e v de V é de�nida como
d(u, v) = ||u− v|| =√〈u− v, u− v〉.
Por exemplo, se u = (x1, x2, . . . , xn) e v = (y1, y2, . . . , yn) são vetores de
Rn com o produto interno usual, então
||u|| = 〈u, u〉1/2 =√x21 + x22 + · · ·+ x2n
e
d(u, v) = ||u− v|| = 〈u− v, u− v〉1/2
=√
(x1 − y1)2 + (x2 − y2)2 + · · ·+ (xn − yn)2.
Observe que, no caso de R2 e R3, ||u|| e d(u, v) são precisamente a norma
e a distância usuais de R2 e de R3.
Problemas
1.1* Sejam u = (x1, x2) e v = (y1, y2) vetores em R2.
2. ÂNGULOS ENTRE VETORES E ORTOGONALIDADE 181
(a) Mostre que
〈u, v〉 =1
9x1y1 +
1
4x2y2
de�ne um produto interno em R2.
(b) Esboce o círculo unitário no sistema de coordenadas xy em R2, usando
a distância obtida a partir do produto interno em (a).
(c) Esboce o círculo unitário no sistema de coordenadas xy em R2, usando a
distância obtida a partir do produto interno usual.
(d) Você nota alguma diferença entre os círculos obtidos em (a) e em (b)?
1.2 Sejam u = (x1, x2) e v = (y1, y2) vetores em R2. Mostre que as expressões
a seguir de�nem produtos internos em R2.
(a) 〈u, v〉 = 3x1y1 + 5x2y2 .
(b) 〈u, v〉 = 4x1y1 + x2y1x1y2 + 4x2y2 .
1.3 Conclua a demonstração da Proposição 7.1.1.
1.4 Suponha que u, v e w sejam vetores tais que
〈u, v〉 = 2, 〈u,w〉 = −3, 〈v, w〉 = 5, ||u|| = 1, ||v|| = 2 e ||w|| = 1.
Calcule o valor de cada uma das seguintes expressões:
(a) 〈u+ v, v + w〉; (b) 〈2v + w, 2u− v〉; (c) ||u+ v + w||.
2 Ângulos entre Vetores e Ortogonalidade
Recordemos que no Capítulo 4 vimos que o ângulo θ, com 0 ≤ θ ≤ π,
entre dois vetores não nulos u e v em R3, dotado do produto escalar, satisfaz
a igualdade
cos θ =u · v||u|| ||v||
· (1)
Nosso primeiro objetivo nesta seção será o de de�nir o conceito de ângulo
entre dois vetores não nulos de um espaço com produto interno, utilizando
182 CAPÍTULO 7. ESPAÇOS COM PRODUTO INTERNO
(1), onde o produto escalar é substituído pelo produto interno. Para que
uma tal de�nição faça sentido, devemos assegurar que
|〈u, v〉|||u|| ||v||
≤ 1
para quaisquer dois vetores não nulos u e v de V . Veremos, no próximo
resultado, que isto sempre ocorre.
Teorema 7.2.1. (Desigualdade de Cauchy-Schwarz) Se u e v são ve-
tores de um espaço com produto interno V , então
|〈u, v〉| ≤ ||u|| ||v||, (2)
com igualdade valendo se, e somente se, u e v são linearmente dependentes.
Demonstração A desigualdade é clara se u é o vetor nulo de V . Supo-
nhamos, então, u diferente do vetor nulo. Para qualquer t ∈ R, temos que
〈tu+ v, tu+ v〉 ≥ 0, ou seja, para qualquer t ∈ R,
〈u, u〉t2 + 2〈u, v〉t+ 〈v, v〉 ≥ 0. (3)
De�namos p(t) = 〈u, u〉t2 + 2〈u, v〉t+ 〈v, v〉, t ∈ R. Por (3), p é uma função
polinomial não negativa. Além disso, como o coe�ciente do termo quadrático
é não negativo, segue que o discriminante ∆ de p(t) é um número real não
positivo. Portanto,
∆ = 4〈u, v〉2 − 4〈u, u〉〈v, v〉= 4〈u, v〉2 − 4||u||2 ||v||2 ≤ 0,
o que equivale a
〈u, v〉2 ≤ ||u||2 ||v||2.
Extraindo a raiz quadrada em ambos os lados da desigualdade acima, obte-
mos (2). Deixaremos a parte que trata da igualdade em (2) como exercício
(cf. Problema 2.3) �
2. ÂNGULOS ENTRE VETORES E ORTOGONALIDADE 183
Cabe observar que o Teorema 7.2.1 foi provado, em 1821, por Augustin
Cauchy (França, 1789 - 1857) para V = Rn, com o produto interno usual. O
resultado geral, para um espaço com produto interno arbitrário, foi provado
em 1885, por Hermann Schwarz (Alemanha, 1843 - 1921).
Vamos agora de�nir a noção de ângulo em espaços com produto interno
arbitrários. Suponhamos que u e v são vetores não nulos de um espaço
com produto interno V . Dividindo ambos os lados da desigualdade (2) por
||u|| ||v||, obtemos|〈u, v〉|||u|| ||v||
≤ 1
ou, equivalentemente,
−1 ≤ 〈u, v〉||u|| ||v||
≤ 1. (4)
Como cos θ assume, uma única vez, cada valor no intervalo [−1, 1] quando θ
varia no intervalo [0, π], segue de (4) que existe um único θ ∈ [0, π] tal que
cos θ =〈u, v〉||u|| ||v||
· (5)
De�nimos o ângulo entre u e v como o número real θ acima mencionado.
Parece estranho de�nir a norma de um vetor e o ângulo entre dois vetores
em um espaço vetorial abstrato com produto interno, já que em geral não
temos uma representação geométrica associada a estes espaços. Contudo,
muitas de�nições e teoremas básicos da Geometria continuam valendo neste
grau de generalidade.
Por exemplo, sabemos da Geometria de R2 que o comprimento de um
lado de um triângulo não excede a soma dos comprimentos dos outros dois
(Figura 16(a)). Veremos a seguir que este resultado vale em todos os espaços
com produto interno (veja Proposição 7.2.2(iv)). Um outro resultado da
Geometria a�rma que a soma dos quadrados das diagonais de um paralelo-
gramo coincide com a soma dos quadrados dos quatro lados (Figura 16(b)).
Este resultado também vale em qualquer espaço com produto interno (veja
Problema 2.2). Figura 16(a) Figura 16(b)
184 CAPÍTULO 7. ESPAÇOS COM PRODUTO INTERNO
Assim, o produto interno é uma noção que enriquece a estrutura de um
espaço vetorial, permitindo generalizar várias noções de caráter geométrico
em R2 e em R3 para espaços vetoriais mais gerais.
Proposição 7.2.2. (Propriedades da norma) Se u e v são vetores em
um espaço V com produto interno e se k ∈ R, então:
(i) ||u|| ≥ 0;
(ii) ||u|| = 0 se, e somente se, u = 0;
(iii) ||ku|| = |k| ||u||;(iv) ||u+ v|| ≤ ||u||+ ||v|| (desigualdade triangular).
Demonstração Provaremos o item (iv) e deixaremos os demais itens como
exercícios (veja Problema 2.4). Temos
||u+ v||2 = 〈u+ v, u+ v〉 = 〈u, u〉+ 〈u, v〉+ 〈v, u〉+ 〈v, v〉= ||u||2 + 2〈u, v〉+ ||v||2 ≤ ||u||2 + 2|〈u, v〉|+ ||v||2, (6)
pois x ≤ |x| para todo x ∈ R. Por (2),
||u||2 + 2|〈u, v〉|+ ||v||2 ≤ ||u||2 + 2||u|| ||v||+ ||v||2
= (||u||+ ||v||)2. (7)
De (6) e (7), segue que
||u+ v||2 ≤ (||u||+ ||v||)2.
Extraindo as raízes quadradas em ambos os lados da desigualdade acima
obtemos a desigualdade desejada. �
2. ÂNGULOS ENTRE VETORES E ORTOGONALIDADE 185
No próximo resultado apresentamos algumas propriedades da noção de
distância entre dois vetores de um espaço com produto interno. A veri�cação
dessas propriedades é simples e usa a Proposição 7.2.2. Portanto, deixaremos
a sua demonstração como exercício para o leitor (veja Problema 2.5).
Proposição 7.2.3. (Propriedades da distância) Se u, v e w são vetores
em um espaço com produto interno V , então:
(i) d(u, v) ≥ 0;
(ii) d(u, v) = 0 se, e somente se, u = v;
(iii) d(u, v) = d(v, u);
(iv) d(u, v) ≤ d(u,w) + d(w, v) (desigualdade triangular).
O próximo objetivo desta seção é de�nir a noção de ortogonalidade em
um espaço com produto interno. Comecemos com a noção de ortogonalidade
entre dois vetores.
Sejam u e v dois vetores não nulos de um espaço com produto interno
V e seja θ o ângulo entre eles. Segue de (5) que cos θ = 0 se, e somente se,
〈u, v〉 = 0. Equivalentemente, temos θ = π/2 se, e somente se 〈u, v〉 = 0.
Convencionamos que se u ou v é o vetor nulo, o ângulo entre eles é π/2.
Assim, dizemos que dois vetores quaisquer u e v em V são ortogonais quando
〈u, v〉 = 0.
A seguir, introduziremos a noção de ortogonalidade entre um vetor e um
subespaço.
Sejam v um vetor de V e W um subespaço de V . Dizemos que v é
ortogonal a W se v é ortogonal a cada vetor de W . O conjunto de todos os
vetores de V que são ortogonais a W é chamado complemento ortogonal de
W e é denotado por W⊥.
Exemplo 1. Seja R3 com o produto interno usual e seja W o plano de
equação cartesiana x + y + z = 0. O vetor v = (1, 1, 1) é ortogonal a W ,
pois v é um vetor normal a este plano. Para determinarmos W⊥, devemos
186 CAPÍTULO 7. ESPAÇOS COM PRODUTO INTERNO
encontrar um vetor (a, b, c) em R3 que seja ortogonal a todo vetor de W .
Como um vetor de W é da forma (−y − z, y, z), para y, z ∈ R, devemos
encontrar (a, b, c) tal que
(−y − z, y, z) · (a, b, c) = 0
Fazendo, na igualdade acima, y = 0 e z = 1, obtemos a = c; e, fazendo y = 1
e z = 0, obtemos a = b. Portanto,
W⊥ = {(a, a, a); a ∈ R},
ou seja, W⊥ é a reta que passa pela origem que tem v como um vetor diretor.
Terminamos esta seção apresentando algumas propriedades do comple-
mento ortogonal.
Proposição 7.2.4. Seja W um subespaço de um espaço com produto interno
V . Então:
(i) W⊥ é um subespaço de V ;
(ii) W ∩W⊥ = {0};(iii) (W⊥)⊥ = W .
Demonstração Provaremos apenas (i), deixando as demonstrações das
demais propriedades para o leitor (veja Problema 2.10).
Primeiramente, é claro que 0 ∈ W⊥. Tomemos u e v em W⊥ e a em R.Se w ∈ W , então
〈u+ av, w〉 = 〈u,w〉+ a〈v, w〉 = 0 + a0 = 0,
mostrando que u + av é ortogonal a w. Como w ∈ W foi tomado de modo
arbitrário, temos que u + av é ortogonal a cada vetor de W , ou seja u + av
está em W⊥. Pelo Corolário 3.1.2, segue que W⊥ é um subespaço de V . �
No Capítulo 1 tivemos a oportunidade de mostrar que dois sistemas line-
ares homogêneos com matrizes associadas equivalentes possuem conjuntos de
2. ÂNGULOS ENTRE VETORES E ORTOGONALIDADE 187
soluções iguais. Vamos, no exemplo a seguir, mostrar que vale uma recíproca
dessa propriedade.
Exemplo 2. Seja dado um sistema linear homogêneo AX = 0, com m equa-
ções e n incógnitas cujo espaço solução é denotado por Sh(A). Chamemos de
TA a transformação linear de Rn para Rm determinada por A e pelas bases
canônicas dos dois espaços vetoriais (cf. Exemplo 4, Seção 1 do Capítulo 6).
Como as soluções do sistema são os vetores de Rn que são ortogonais aos
vetores linhas de A, temos, pelo Problema 2.11, que Sh(A) = (L(A))⊥.
Problemas
2.1 Suponha que R3 e R4 têm o produto interno usual. Em cada item abaixo,
encontre o cosseno do ângulo entre u e v:
(a) u = (−1, 5, 2) e v = (2, 4,−9);
(b) u = (1, 0, 1, 0) e v = (1, 1, 1, 1);
(c) u = (2, 1, 0,−1) e v = (4, 0, 0, 0).
2.2* Mostre que a seguinte identidade vale para quaisquer vetores u e v de
um espaço com produto interno:
||u+ v||2 + ||u− v||2 = 2||u||2 + 2||v||2.
2.3 Mostre que vale a igualdade na desigualdade de Cauchy-Schwarz se, e
somente se, u e v são linearmente dependentes.
2.4 Conclua a demonstração da Proposição 7.2.2.
2.5 Prove a Proposição 7.2.3.
2.6 Use a desigualdade de Cauchy-Schwarz para mostrar, para quaisquer
valores reais de a, b e θ, que
(a cos θ + b sen θ)2 ≤ a2 + b2.
2.7 Seja {v1, v2, . . . , vn} uma base de um espaço com produto interno V .
Mostre que o vetor nulo de V é o único vetor de V que é ortogonal a todos
os vetores da base.
188 CAPÍTULO 7. ESPAÇOS COM PRODUTO INTERNO
2.8 Seja V um espaço com produto interno. Mostre que se u e v são vetores
ortogonais de V tais que ||u|| = ||v|| = 1, então ||u− v|| =√
2.
2.9* (Uma generalização do Teorema de Pitágoras) Seja {v1, v2, . . . , vn} umconjunto ortogonal de vetores de um espaço com produto interno. Então
||v1 + v2 + · · ·+ vn||2 = ||v1||2 + ||v2||2 + · · ·+ ||vn||2.
2.10 Conclua a demonstração da Proposição 7.2.4.
2.11 Seja β um conjunto de geradores de W , onde W é um subespaço de um
espaço com produto interno V . Mostre que W⊥ consiste de todos os vetores
de V que são ortogonais a cada vetor do conjunto β.
2.12* Seja W o subespaço de R5 gerado pelos vetores u = (1, 2, 3,−1, 2) e
v = (2, 1, 3, 2,−1). Determine uma base de W⊥.
2.13 Suponha que R4 tem o produto interno usual e seja v = (1,−1, 0,−2).
Determine se v é ortogonal ao subespaço de R4 gerado pelos vetores v1 =
(−1, 1, 3, 0) e v2 = (4, 0, 2, 2).
2.14 Seja W o plano de equação cartesiana x− 2y− 3z− 1 = 0. Obtenha as
equações paramétricas para W⊥.
3 Bases Ortonormais
Veremos nesta seção que um espaço vetorial, com produto interno, possui
bases que se destacam das demais, chamadas de bases ortonormais. Traba-
lhar com este tipo de base torna V geometricamente muito parecido com o
espaço Rn, onde n = dimV .
Ao longo desta seção, V será sempre um espaço com produto interno 〈 , 〉,de dimensão �nita n > 0.
3.1 Conjuntos Ortogonais
Um conjunto de vetores em V é chamado conjunto ortogonal se quaisquer
dois vetores distintos do conjunto são ortogonais.
3. BASES ORTONORMAIS 189
Por exemplo, o conjunto {(1, 2, 1), (2, 1,−4), (3,−2, 1)} é um conjunto
ortogonal em R3 com seu produto interno usual.
Um conjunto ortogonal no qual cada vetor tem norma 1 é chamado con-
junto ortonormal . Se v é um vetor não nulo em um espaço com produto
interno, segue da Proposição 7.2.2(iii) que o vetor ||v||−1 v tem norma 1.
O processo de multiplicar um vetor não nulo pelo inverso de sua norma para
obter um vetor de norma 1 é chamado de normalização. Assim, um con-
junto ortogonal de vetores não nulos pode ser sempre transformado em um
conjunto ortonormal, normalizando-se cada um de seus vetores.
O próximo resultado relaciona a noção de ortogonalidade com a noção de
independência linear.
Proposição 7.3.1. Todo conjunto ortogonal de vetores não nulos de V é
linearmente independente.
Demonstração Seja {v1, . . . , vr} um conjunto de vetores ortogonais de V
com produto interno. Consideremos a equação
a1v1 + a2v2 + · · ·+ arvr = 0.
Vamos mostrar que ai = 0, para todo 1 ≤ i ≤ r. Fixe 1 ≤ i ≤ r. Então,
〈a1v1 + · · ·+ arvr, vi〉 = a1〈v1, vi〉+ · · ·+ ai〈vi, vi〉+ ai+1〈vi+1, vi〉+ · · ·+ ar〈vr, vi〉
= ai〈vi, vi〉, (1)
já que 〈vj, vi〉 = 0 sempre que j 6= i. Por outro lado
〈a1v1 + a2v2 + · · ·+ arvr, vi〉 = 〈0, vi〉 = 0. (2)
De (1) e (2), segue que ai〈vi, vi〉 = 0 e como vi é um vetor não nulo, temos
necessariamente que ai = 0. Como i foi tomado de modo arbitrário em seu
intervalo de variação, o resultado segue. �
A recíproca do resultado acima é obviamente falsa, pois, por exemplo,
o conjunto {(1, 1), (1, 0)} de vetores em R2 com o produto interno usual é
linearmente independente, mas não é um conjunto ortogonal.
190 CAPÍTULO 7. ESPAÇOS COM PRODUTO INTERNO
Se α={v1, . . . , vn} é um conjunto ortogonal de vetores não nulos de V ,
segue da proposição anterior que α é uma base de V . Uma base consistindo
de vetores ortogonais é chamada base ortogonal e uma base consistindo de
vetores ortonormais é chamada base ortonormal.
Por exemplo, a base canônica de Rn com o produto interno usual é uma
base ortonormal.
Vimos que se V é um espaço vetorial e α é uma base de V então, em
geral, é necessário resolver um sistema linear a �m de escrever um vetor
de V em termos da base α. O próximo resultado mostra que quando V é
um espaço com produto interno e α é uma base ortonormal de V , então é
bastante simples encontrar as coordenadas de um vetor de V em relação a
base α.
Teorema 7.3.2. Se α={v1, v2, . . ., vn} é uma base ortonormal de V , então,
para todo v ∈ V , podemos escrever
v = 〈v, v1〉v1 + 〈v, v2〉v2 + · · ·+ 〈v, vn〉vn .
Demonstração Seja v = a1v1 + a2v2 + · · ·+ anvn a escrita de v na base α.
Fixe i, com 1 ≤ i ≤ n. Temos
〈v, vi〉 = 〈a1v1 + a2v2 + · · ·+ anvn, vi〉= a1〈v1, vi〉+ · · ·+ ai〈vi, vi〉+ · · ·+ an〈vn, vi〉 = ai,
já que 〈vj, vi〉 = 0 se j 6= i e 〈vi, vi〉 = ||vi||2 = 1. Como i foi tomado de
modo arbitrário, a demonstração está completa. �
Se β = {v1, v2, . . . , vn} é uma base ortogonal de V , normalizando cada
um dos vetores de β, obtemos a base ortonormal α de V , onde
α =
{v1||v1||
,v2||v2||
, . . . ,vn||vn||
}.
Pelo Teorema 7.3.2, para cada vetor v em V , temos que
v = 〈v, v1||v1||
〉 v1||v1||
+ · · ·+ 〈v, vn||vn||
〉 vn||vn||
=〈v, v1〉||v1||2
v1 + · · ·+ 〈v, vn〉||vn||2
vn.
3. BASES ORTONORMAIS 191
O número real
ai =〈v, vi〉||vi||2
é chamado de coe�ciente de Fourier1 de v em relação ao vetor vi . Este
escalar admite uma interpretação geométrica relacionada com a noção de
projeção. Para apresentarmos esta interpretação geométrica, vamos precisar
do seguinte resultado.
Proposição 7.3.3. Seja w um vetor não nulo de V . Se v ∈ V , então
k =〈v, w〉〈w,w〉
=〈v, w〉||w||2
(3)
é o único número real tal que v′ = v − kw é ortogonal a w.
Demonstração Para que v′ seja ortogonal a w devemos ter 〈v−kw,w〉=0,
ou seja, 〈v, w〉 = k〈w,w〉, mostrando que k =〈v, w〉〈w,w〉
· Reciprocamente, su-
ponhamos que k =〈v, w〉〈w,w〉
· Então,
〈v − kw,w〉 = 〈v, w〉 − k〈w,w〉 = 〈v, w〉 − 〈v, w〉〈w,w〉
〈w,w〉 = 0,
o que mostra que v − kw é ortogonal a w. �
O escalar k em (3) é o coe�ciente de Fourier de v em relação ao vetor
w. A projeção de v ao longo de w (Figura 17) é denotada por projw(v) e é
de�nida por
projw(v) = kw =〈v, w〉〈w,w〉
w.Figura 17
O próximo resultado, cuja demonstração é deixada como exercício (veja
Problema 3.2), generaliza a Proposição 7.3.3.
1Em homenagem a Jean-Baptiste Fourier (França, 1768 - 1830), conhecido na Mate-
mática por iniciar a investigação sobre o desenvolvimento de funções periódicas em séries
trigonométricas convergentes, chamadas séries de Fourier, e sua aplicação aos problemas
de condução de calor.
192 CAPÍTULO 7. ESPAÇOS COM PRODUTO INTERNO
Proposição 7.3.4. Suponhamos que {w1, w2, . . . , wr} seja um conjunto or-
togonal de vetores não nulos de V . Se v ∈ V , então
ki =〈v, wi〉||wi||2
, 1 ≤ i ≤ r,
são os únicos números reais tais que o vetor
v′ = v − k1w1 − k2w2 − · · · − krwr
é ortogonal aos vetores w1, w2, . . . , wr.
3.2 Ortogonalização de Gram-Schmidt
Vimos na seção anterior que trabalhar com bases ortonormais é bastante
conveniente. Veremos a seguir que todo espaço com produto interno, não
nulo, de dimensão �nita tem uma base ortonormal.
A construção dada na prova do resultado abaixo é chamada de processo
de ortogonalização de Gram-Schmidt, pois leva os nomes de Jorgen Peder-
sen Gram (Dinamarca, 1850 - 1916) e de Erhard Schmidt (Alemanha, 1876
- 1959). Cabe observar que a construção de Gram-Schmidt pode ser en-
contrada, de modo implícito, em trabalhos de Pierre Simon Laplace2 e de
Cauchy.
2Pierre Simon Laplace (França 1749 � 1827) foi um importante matemático, físico e
astrônomo, conhecido por suas contribuições à mecânica celeste à teoria de probabilidades,
bem como por suas aplicações da matemática à física.
3. BASES ORTONORMAIS 193
Teorema 7.3.5. O espaço V possui uma base ortogonal.
Demonstração Seja {v1, v2, . . . , vn} uma base de V . Tomemos (veja Figura
18)
w1 = v1,
w2 = v2 −〈v2, w1〉||w1||2
w1,
w3 = v3 −〈v3, w1〉||w1||2
w1 −〈v3, w2〉||w2||2
w2,
...
wn = vn −〈vn, w1〉||w1||2
w1 − · · · −〈vn, wn−1〉||wn−1||2
wn−1.
Pela Proposição 7.3.4, o conjunto {w1, w2, . . . , wn} é um conjunto ortogo-
nal. Além disso, como o conjunto {v1, v2, . . . , vn} é linearmente independente,
cada vetor wi é não nulo. Assim, o conjunto {w1, w2, . . . , wn} é um conjunto
ortogonal de vetores não nulos de V . Como, por de�nição, n = dimV , segue
pela Proposição 7.3.1 que {w1, w2, . . . , wn} é uma base ortogonal de V . �
Figura 18
Decorre da proposição acima que se V tem uma base ortogonal, ele tem
uma base ortonormal, pois os vetores de uma base ortogonal podem ser
normalizados para produzir uma base ortonormal de V .
194 CAPÍTULO 7. ESPAÇOS COM PRODUTO INTERNO
Exemplo 1. Considere R3 com o produto interno usual. Apliquemos o
processo de Gram-Schmidt ao conjunto {(1, 0, 0), (1, 1, 1), (0, 0, 1)} para ob-
termos uma base ortogonal {w1, w2, w3} de R3.
Façamos
w1 = (1, 0, 0),
w2 = (1, 1, 1)− 〈(1, 1, 1), (1, 0, 0)〉||(1, 0, 0)||2
(1, 0, 0) = (0, 1, 1),
w3 = (0, 0, 1)− 〈(0, 0, 1), (1, 0, 0)〉||(0, 1, 1)||2
(1, 0, 0)
−〈(0, 0, 1), (0, 1, 1)〉||(0, 1, 1)||2
(0, 1, 1) =
(0,−1
2,1
2
).
Assim, {(1, 0, 0), (0, 1, 1), (0,−12, 12)} é uma base ortogonal de R3.
Uma consequência importante do Teorema 7.3.5, que demonstraremos a
seguir, é o fato de que V=W⊕W⊥, ondeW é um subespaço de V . Em outras
palavras, cada vetor v de V pode ser escrito de modo único como
v = w1 + w2 , (4)
onde w1 ∈ W e w2 ∈ W⊥. O vetor w1 é chamado projeção ortogonal de v
em W e é denotado por projW (v). O vetor w2 é chamado componente de v
ortogonal a W e é denotado por projW⊥(v) (Figura 19). Por (4), temos então
que v = projW (v) + projW⊥(v).Figura 19
Teorema 7.3.6. Se W é um subespaço de V , então
V = W ⊕W⊥.
Demonstração Pela Proposição 7.2.4(ii), W ∩W⊥ = {0}. Vejamos que
V = W + W⊥. Pelo processo de ortogonalização de Gram-Schmidt, existe
3. BASES ORTONORMAIS 195
uma base ortonormal {v1, v2, . . . , vn} de W . Tomemos v ∈ V . De�na
w1 = 〈v, v1〉v1 + 〈v, v2〉v2 + · · ·+ 〈v, vn〉vn,w2 = v − w1 .
Note que w1 + w2 = w1 + (v − w1) = v. Além disso, w1 ∈ W , pois w1 é
uma combinação linear dos vetores da base de W . Portanto, resta mostrar
que w2 ∈ W⊥, ou seja, w2 é ortogonal a W . Para isto, seja w ∈ W . Pelo
Teorema 7.3.2,
w = 〈w, v1〉v1 + 〈w, v2〉v2 + · · ·+ 〈w, vn〉vn .
Assim,
〈w2, w〉 = 〈v − w1, w〉 = 〈v, w〉 − 〈w1, w〉= 〈w, v1〉〈v, v1〉+ · · ·+ 〈w, vn〉〈v, vn〉−(〈v, v1〉〈v1, w〉+ · · ·+ 〈v, vn〉〈vn, w〉
)= 0.
Como w ∈ W foi tomado de modo arbitrário, segue que w2 é ortogonal a W .
�
Exemplo 2. Retomemos o Exemplo 1 da Seção 2, onde V = R3 e onde
W = {(x, y, z); x + y + z = 0} e W⊥ = {(x, y, z); x = y = z}. Note que
W ∩W⊥ = {0}.
196 CAPÍTULO 7. ESPAÇOS COM PRODUTO INTERNO
Como
dim(W +W⊥) = dimW + dimW⊥ − dim(W ∩W⊥),
segue que dim(W + W⊥) = 3, já que temos dimW = 2, dimW⊥ = 1 e
dim(W ∩W⊥) = 0. Portanto, W + W⊥ = R3. Consequentemente, temos
que R3 = W ⊕W⊥, como aliás deveria ser pelo Teorema 7.3.6.
Para cada (x, y, z) ∈ R3, temos que
(x, y, z) =(2x−y−z
3, −x+2y−z
3, −x−y+2z
3
)+(x+y+z
3, x+y+z
3, x+y+z
3
)∈ W +W⊥.
Mais ainda, a escrita acima é única. Em outras palavras, todo vetor de R3
se expressa, de forma única, como a soma de um elemento e W com um
elemento de W⊥. A �gura abaixo mostra a decomposição do vetor (0, 3, 0).
Figura 20
Exemplo 3. Seja AX = 0 um sistemam×n de equações lineares homogêneo,
cujo conjunto solução denotamos por Sh(A). Seja TA a transformação linear
associada à matriz A. Sabemos (cf. Exemplo 2, Seção 2) que
KerTA = Sh(A) = (L(A))⊥.
Por outro lado, pelo Exemplo 4, Seção 1, Capítulo 6, temos que
ImTA = C(A).
3. BASES ORTONORMAIS 197
Pelo Teorema do Núcleo e da Imagem, temos que
n = dim KerTA + dim ImTA = dim(L(A))⊥ + dim C(A).
Pelo Teorema 7.3.6, temos que
n = dimL(A) + dim(L(A))⊥ = pA + dimSh(A).
Daí decorre que
dimSh(A) = n− pA,
e que
dim C(A) = dimL(A).
Assim, o posto por linhas de uma matriz A, que por de�nição é igual à
dimensão do espaço linha L(A) de A, coincide com o posto de A por colunas,
ou seja com a dimensão do espaço coluna C(A) da matriz A.
Problemas
3.1* Seja V um espaço com produto interno de dimensão �nita n. Se α é
uma base ortonormal de V e se
[v]α =
a1
a2...
an
e [w]α =
b1
b2...
bn
,então:
(a) ||v|| =√a21 + a22 + · · ·+ a2n;
(b) d(v, w) =√
(a1 − b1)2 + (a2 − b2)2 + · · ·+ (an − bn)2;
(c) 〈v, w〉 = a1b1 + a2b2 + · · ·+ anbn .
O exercício anterior mostra que trabalhando com bases ortonormais, o
cálculo de normas e produtos internos arbitrários se reduz ao cálculo de nor-
mas e produtos internos das matrizes das coordenadas, como em Rn com sua
norma e produto interno usuais .
198 CAPÍTULO 7. ESPAÇOS COM PRODUTO INTERNO
3.2 Prove a Proposição 7.3.4.
3.3 Mostre que os vetores
v1 =
(4
5,3
5, 0
), v2 =
(− 3
5,4
5, 0
)e v3 = (0, 0, 1)
formam uma base ortonormal para R3 com o produto interno usual. Em
seguida, expresse o vetor v = (1,−1, 2) nesta base.
3.4* Seja W um subespaço de dimensão �nita de um espaço com produto
interno V . Prove que:
(a) Se {w1, w2, . . . , wn} é uma base ortonormal deW e v é um vetor qualquer
de V , então projW (v) = 〈v, w1〉w1 + 〈v, w2〉w2 + · · ·+ 〈v, wn〉wn ;
(b) Se {w1, w2, . . . , wn} é uma base ortogonal de W e v é um vetor qualquer
de V , então
projW (v) =〈v, w1〉||w1||2
w1 +〈v, w2〉||w2||2
w2 + · · ·+ 〈v, wn〉||wn||2
wn .
3.5 Considere R4 com o produto interno usual. Use o processo de Gram-
Schmidt para transformar a base {v1, v2, v3, v4} em uma base ortogonal, onde
v1 = (0, 2, 1, 0), v2 = (1,−1, 0, 0), v3 = (1, 2, 0,−1) e v4 = (1, 0, 0, 1).
3.6 Seja W o subespaço de R4 gerado pelos vetores
v1 = (1, 1, 1, 1), v2 = (1,−1, 2,−2) e v3 = (−1,−5, 1,−7).
Ache a projeção ortogonal de v = (1, 2,−3, 4) em W .
3.7 Construa, a partir do vetor v = (2, 1, 0), uma base ortonormal de R3 com
o produto interno usual.
4 Operadores em Espaços com Produto Interno
Nesta seção, vamos de�nir importantes operadores em espaços com pro-
duto interno. Mais precisamente, mostraremos a existência do operador ad-
junto de um operador linear e, a partir deste, introduzir as noções de operado-
res simétricos e operadores ortogonais. Estes operadores estão relacionados
4. OPERADORES EM ESPAÇOS COM PRODUTO INTERNO 199
com o Teorema Espectral, um dos teoremas mais importantes da Álgebra
Linear, conforme veremos no Capítulo 9.
Nesta seção, continuaremos supondo que V é um espaço com produto
interno de dimensão �nita n > 0.
4.1 O Operador Adjunto
Dado um vetor v ∈ V , a ele associamos de modo natural um funcional
linear em V , como segue:
φv : V → Ru 7→ 〈u, v〉 .
De fato, φv é um funcional linear, pois, para todos u1, u2 ∈ V e todo
a ∈ R, temos
φv(u1 + au2) = 〈u1 + au2, v〉 = 〈u1, v〉+ a〈u2, v〉 = φv(u1) + aφv(u2).
Assim, cada v em V de�ne um funcional linear φv em V , ou seja, um ele-
mento de (V,R). A recíproca deste fato é também verdadeira, como mostra
o seguinte resultado.
Teorema 7.4.1. Dado um funcional linear φ em V , existe um único vetor
v ∈ V tal que φ = φv.
Demonstração Seja φ ∈ (V,R) e �xe uma base ortonormal {v1, v2, . . . , vn}de V . Pelo Teorema 7.3.2, todo elemento u ∈ V se escreve como
u = 〈u, v1〉v1 + 〈u, v2〉v2 + · · ·+ 〈u, vn〉vn.
Existência: Tomemos v = φ(v1)v1 + φ(v2)v2 + · · ·+ φ(vn)vn.
Por um lado, temos
φ(u) = φ(〈u, v1〉v1 + 〈u, v2〉v2 + · · ·+ 〈u, vn〉vn
)= 〈u, v1〉φ(v1) + 〈u, v2〉φ(v2) + · · ·+ 〈u, vn〉φ(vn).
(1)
200 CAPÍTULO 7. ESPAÇOS COM PRODUTO INTERNO
Por outro lado,
〈u, v〉 = 〈u, φ(v1)v1 + φ(v2)v2 + · · ·+ φ(vn)vn〉= φ(v1)〈u, v1〉+ φ(v2)〈u, v2〉+ · · ·+ φ(vn)〈u, vn〉.
(2)
Juntando (1) e (2) obtemos que φ(u) = 〈u, v〉 = φv(u), para todo u ∈ V .Unicidade: Suponhamos que v′ tenha a propriedade 〈u, v′〉 = 〈u, v〉, paratodo u ∈ V . Logo 〈u, v − v′〉 = 0, para todo u ∈ V . Portanto, v − v′
é ortogonal a todos os vetores de V , o que, em virtude do Problema 2.7,
acarreta que v = v′. �
Observe que o Teorema 7.4.1 garante que a função v 7→ φv, onde φv(u) =
〈u, v〉 (u ∈ V ), é um isomor�smo entre V e (V,R) (cf. Problema 4.4).
Teorema 7.4.2. Dado um operador linear T em V , existe um único operador
linear T ∗ em V tal que
〈T (v), w〉 = 〈v, T ∗(w)〉, para quaisquer v, w ∈ V.
Demonstração Tome w ∈ V . Como a função de�nida por v 7→ 〈T (v), w〉é um funcional linear em V (veri�que), segue, do Teorema 7.4.1, que existe
um único vetor w′ ∈ V tal que
〈T (v), w〉 = 〈v, w′〉, para todo v ∈ V.
Basta de�nir T ∗(w) = w′. A demonstração do Teorema 7.4.1 também nos
mostra que se {v1, . . . , vn} é uma base ortonormal de V , então
T ∗(w) = w′ = 〈T (v1), w〉v1 + · · ·+ 〈T (vn), w〉vn.
Daí, vê-se claramente que T ∗ é linear. �
O operador T ∗ é chamado de operador adjunto de T . Assim, o Teorema
7.4.2 a�rma que todo operador linear T , em um espaço com produto interno
de dimensão �nita, possui um operador adjunto T ∗.
O próximo resultado mostra como podemos obter T ∗ a partir de uma
representação matricial de T .
4. OPERADORES EM ESPAÇOS COM PRODUTO INTERNO 201
Proposição 7.4.3. Para toda base ortonormal α de V e para todo operador
linear T em V , temos que
[T ∗]αα = ([T ]αα)t.
Para demonstrarmos a proposição acima, vamos precisar do seguinte re-
sultado, cuja demonstração �ca como exercício para o leitor (veja Problema
4.5).
Lema 7.4.4. Seja α = {v1, . . . , vn} uma base ortonormal de V . Se A =
[aij]n×n é a matriz que representa um oprerador T em V , com relação à base
α (ou seja, A = [T ]αα), então
aij = 〈T (vj), vi〉, para todos i, j, 1 ≤ i, j ≤ n.
Demonstração da Proposição 7.4.3. Considere as matrizes [T ]αα = [aij]n×n
e [T ∗]αα = [bij]n×n. Pelo Lema 7.4.4,
aij = 〈T (vj), vi〉 e bij = 〈T ∗(vj), vi〉, para todos i, j, 1 ≤ i, j ≤ n.
Logo,
bij = 〈T ∗(vj), vi〉 = 〈vi, T ∗(vj)〉 = 〈T (vi), vj〉 = aji,
para todos i, j, com 1 ≤ i, j ≤ n, provando o resultado. �
Um operador linear T : V → V é dito ser um operador simétrico quando
T ∗ = T .
Pela Proposição 7.4.3, observamos que se T é um operador simétrico em
V , então para toda base ortonormal α de V temos
[T ]αα = ([T ]αα)t.
Assim, T : V → V é simétrico se, e somente se, [T ]αα é uma matriz simé-
trica. Observemos que o fato de um operador ser simétrico não depende da
base ortonormal escolhida. Portanto, se [T ]αα for uma matriz simétrica em
202 CAPÍTULO 7. ESPAÇOS COM PRODUTO INTERNO
uma determinada base ortonormal α, então [T ]ββ será também simétrica para
qualquer outra base ortonormal β.
Exemplo 1. Seja T : R3 → R3 o operador linear de�nido por T (x, y, z) =
(2x− y + z,−x+ y + 3z, x+ 3y). Se α é a base canônica de R3, então
[T ]αα =
1 −1 1
−1 1 3
1 3 0
é uma matriz simétrica e, portanto, T é um operador simétrico.
4.2 Operadores Ortogonais
Um operador linear T : V → V é dito ser um operador ortogonal quando
T ∗T = TT ∗ = IV .
Em outras palavras, T é um operador ortogonal quando T é invertível e
T ∗ = T−1.
Diremos que um operador T em V preserva norma, preserva distância, ou
preserva produto interno, quando, para todos u, v ∈ V , se tenha ||T (v)|| =
||v||, d(T (u), T (v)) = d(u, v), ou 〈T (u), T (v)〉 = 〈u, v〉, respectivamente.
O resultado a seguir caracteriza os operadores ortogonais.
Teorema 7.4.5. Seja T : V → V um operador linear. As seguintes a�rma-
ções são equivalentes:
(i) T é ortogonal;
(ii) T preserva a norma;
(iii) T preserva a distância;
(iv) T preserva o produto interno;
(v) T transforma toda base ortonormal de V numa base ortonormal de V ;
4. OPERADORES EM ESPAÇOS COM PRODUTO INTERNO 203
(vi) T transforma alguma base ortonormal de V numa base ortonormal
de V .
Demonstração (i) ⇒ (ii) Se v ∈ V , então pelo Teorema 7.4.2.
||T (v)||2 = 〈T (v), T (v)〉 = 〈v, T ∗(T (v))〉 = 〈v, IV (v)〉 = 〈v, v〉 = ||v||2.
(ii) ⇒ (iii) Se v, u ∈ V , então
d(T (v), T (u)) = ||T (v)− T (u)|| = ||T (v − u)|| = ||v − u|| = d(v, u).
(iii) ⇒ (iv) Se v, u ∈ V , então d(T (v + u), 0) = d(v + u, 0). Ou seja,
||T (v + u)||2 = ||v + u||2. (3)
Note que
||T (v + u)||2 = 〈T (v), T (v)〉+ 2〈T (v), T (u)〉+ 〈T (u), T (u)〉
e
||v + u||2 = 〈v, v〉+ 2〈v, u〉+ 〈u, u〉 . (4)
Como
〈v, v〉 = (d(v, 0))2 = (d(T (v), 0))2 = 〈T (v), T (v)〉,
o mesmo valendo para u, temos de (3) e (4) que 〈T (v), T (u)〉 = 〈v, u〉, como
desejado.
(iv) ⇒ (i) Se v, u ∈ V , então pelo Teorema 7.4.2
〈v, u〉 = 〈T (v), T (u)〉 = 〈v, T ∗(T (u))〉,
mostrando que, para todos u, v ∈ V ,
〈v, (T ∗T − IV )(u)〉 = 0.
Pelo Problema 2.8, temos que (T ∗T − IV )(u) = 0, para todo u ∈ V , o que
acarreta que T ∗T = IV , logo T é ortogonal.
204 CAPÍTULO 7. ESPAÇOS COM PRODUTO INTERNO
(i) ⇒ (v) Seja {v1, v2, . . . , vn} uma base ortonormal de V . Então
〈T (vi), T (vj)〉 = 〈vi, vj〉 =
0 se i 6= j
1 se i = j.
Logo, o conjunto {T (v1), T (v2), . . . , T (vn)} é ortonormal e, consequentemente,
linearmente independente (Proposição 7.3.1). Como dimV=n, concluímos
que esse conjunto é uma base de V .
(v) ⇒ (vi) Esta implicação é óbvia.
(vi) ⇒ (iv) Seja {v1, v2, . . . , vn} uma base ortonormal de V tal que
{T (v1), T (v2), . . . , T (vn)} também é uma base ortonormal de V . Sejam v
e u em V . Se
v = a1v1 + a2v2 + · · ·+ anvn e u = b1v1 + b2b2 + · · ·+ bnvn ,
então
〈v, u〉 =n∑i=1
n∑j=1
aibj〈vi, vj〉 =n∑i=1
n∑j=1
aibj . (5)
Por outro lado, temos
T (v) = a1T (v1) + a2T (v2) + · · ·+ anT (vn) e
T (u) = b1T (v1) + b2T (v2) + · · ·+ bnT (vn),
donde
〈T (v), T (u)〉 =n∑i=1
n∑j=1
aibj〈T (vi), T (vj)〉 =n∑i=1
n∑j=1
aibj. (6)
Assim, de (5) e (6), concluímos que 〈T (v), T (u)〉 = 〈v, u〉, como desejado. �
Exemplo 2. Consideremos o operador linear T : R2 → R2 dado por T (x, y) =
(x cos θ−y sen θ, x sen θ+y cos θ). Lembremos da Seção 3, do Capítulo 6, que
T é o operador rotação por um ângulo θ em R2. Note que se α é a base canô-
nica de R2, o conjunto {T (1, 0), T (0, 1)} = {(cos θ, sen θ), (− sen θ, cos θ)} é
4. OPERADORES EM ESPAÇOS COM PRODUTO INTERNO 205
uma base ortonormal em R2. Assim, pelo Teorema 7.4.5, T é um operador
ortogonal em R2.
Para relacionarmos a propriedade de um operador ser ortogonal com pro-
priedades de suas matrizes associadas, estabelecemos a de�nição a seguir.
Uma matriz A ∈M(n, n) é dita ser ortogonal quando
AAt = AtA = In.
Em outras palavras, A é uma matriz ortogonal se A é invertível e At = A−1.
Segue imediatamente da de�nição que uma matriz A é ortogonal se, e
somente se, a matriz At é ortogonal.
Por exemplo, a matriz de rotação em R3 dada por
A =
cos θ − sen θ 0
sen θ cos θ 0
0 0 1
é uma matriz ortogonal.
Com o resultado a seguir podemos veri�car mais facilmente se uma matriz
é ortogonal ou não.
Proposição 7.4.6. Para uma matriz A =[aij]n×n , as seguintes a�rmações
são equivalentes:
(i) A é ortogonal;
(ii) As colunas de A formam um conjunto ortonormal em Rn;
(iii) As linhas de A formam um conjunto ortonormal em Rn.
Demonstração (i) ⇔ (ii) Chamemos AtA =[bij]n×n . Pela de�nição de
produto de matrizes, o elemento bij é dado por
bij = a1i a1j + a2i a2j + · · ·+ ani anj
= 〈(a1i, a2i, . . . , ani), (a1j, a2j, . . . , anj)〉.
206 CAPÍTULO 7. ESPAÇOS COM PRODUTO INTERNO
Portanto, daí segue-se que
AtA = In se, e somente se,
〈(a1i, a2i, . . . , ani), (a1j, a2j, . . . , anj)〉 =
0 se i 6= j
1 se i = j,
provando o desejado.
(i) ⇔ (iii) Basta utilizar o fato que A é ortogonal se, e somente se, At é
ortogonal, que as linhas de At são as colunas de A e aplicar o que foi provado
acima. �
Teorema 7.4.7. Se α e β são bases ortonormais de V , então a matriz
mudança de base[IV]αβé uma matriz ortogonal.
Demonstração Sejam α = {v1, v2, . . . , vn} e β = {w1, w2, . . . , wn}. Supo-
nhamos [IV ]αβ = [aij]. Para cada i, com 1 ≤ i ≤ n, temos que
vi = a1iw1 + a2iw2 + · · ·+ aniwn.
Ora, como vi e vj são ortogonais, quando i 6= j, então
0 = 〈vi, vj〉 = a1ia1j + a2ia2j + · · ·+ anianj
= 〈(a1i, a2i, . . . , ani), (a1j, a2j, . . . , anj)〉, (7)
pois β é ortonormal. De (7) concluímos que as colunas de [IV ]αβ formam
vetores ortogonais em Rn. Vejamos agora que cada coluna de [IV ]αβ forma
um vetor unitário em Rn. De fato, se 1 ≤ i ≤ n, então
1 = 〈vi, vi〉 = a21i + a22i + · · ·+ a2ni ,
já que β é ortonormal. Assim, as colunas de [IV ]αβ formam vetores unitários
em Rn. Pela Proposição 7.4.6, [IV ]αβ é uma matriz ortogonal. �
Terminaremos a seção mostrando a relação entre os operadores ortogonais
e as matrizes ortogonais.
Sejam dados um espaço vetorial, com uma base α = {v1, . . . , vn}, e uma
matriz quadrada A = [aij] de ordem n. Podemos, como feito na Seção 1
4. OPERADORES EM ESPAÇOS COM PRODUTO INTERNO 207
do Capítulo 6 para Rn e a base canônica, associar à matriz A um operador
linear TA, de�nido como segue:
TA(v) = (a11x1 + · · ·+ a1nxn, . . . , an1x1 + · · ·+ annxn),
onde x1, . . . , xn são as coordenadas de v relativamente à base α, ou seja
v = x1v1 + · · ·+ xnvn.
Proposição 7.4.8. Sejam α uma base ortonormal de V e T um operador
linear em V . Seja A ∈M(n, n).
(i) T é ortogonal se, e somente se, [T ]αα é ortogonal.
(ii) A é ortogonal se, e somente se, TA é ortogonal.
Demonstração Provaremos apenas o item (i), deixando a demonstração
do item (ii) para o leitor (veja Problema 4.10).
De fato, se α = {v1, v2, . . . , vn} é uma base ortonormal de V e se T é um o-
perador ortogonal em V então, pelo Teorema 7.4.5, β = {T (v1), T (v2), . . . , T (vn)}é uma base ortonormal de V . Se [T ]αα = [aij], então, para todo i, com
1 ≤ i ≤ n, temos
T (vi) = a1i v1 + a2i v2 + · · ·+ ani vn.
Como β é ortonormal, segue que 〈T (vi), T (vj)〉 = 0 se i6=j e 〈T (vi), T (vi)〉=1.
Por outro lado, sendo α é ortogonal, temos que
a1ia1j + a2ia2j + · · ·+ anianj =
〈a1i v1 + a2i v2 + · · ·+ ani vn, a1j v1 + a2j v2 + · · ·+ anj vn〉 =
〈T (vi), T (vj)〉 =
0 se i 6= j
1 se i = j,(8)
mostrando assim que as colunas de [T ]αα formam um conjunto ortonormal em
Rn. Pela Proposição 7.4.6, [T ]αα é uma matriz ortogonal.
208 CAPÍTULO 7. ESPAÇOS COM PRODUTO INTERNO
Suponhamos agora que [T ]αα = [aij] é uma matriz ortogonal. Para mos-
trarmos que T é ortogonal basta provarmos, pelo Teorema 7.4.5, que o con-
junto {T (v1), T (v2), . . . , T (vn)} é ortonormal em V . Mas isto pode ser facil-
mente veri�cado a partir de (8). �
Problemas
4.1* Sejam S e T operadores lineares num espaço com produto interno de
dimensão �nita e seja k ∈ R. Prove que:
(a) (S + T )∗ = S∗ + T ∗; (b) (kT )∗ = kT ∗;
(c) (ST )∗ = T ∗S∗; (d) (T ∗)∗ = T .
4.2 Considere o funcional linear φ : R3 → R de�nido por φ(x, y, z) = x +
4y − 5z. Encontre o vetor v em R3 tal que φ = φv.
4.3 Seja T : R3 → R3 dado por T (x, y, z) = (2x + 2y, 3x − 4z, y). Encontre
T ∗(x, y, z).
4.4 Mostre que a função
V → (V,R)
v 7→ φv
onde φv(u) = 〈u, v〉, para todo u ∈ V , é um isomor�smo de espaços vetoriais.
Mostre com isto que podemos transportar o produto interno de V para (V,R),
do seguinte modo:
〈φu, φv〉 = 〈u, v〉.
4.5 Demonstre o Lema 7.4.4.
4.6 Dentre os seguintes operadores lineares, veri�car quais são ortogonais:
(a) T : R2 → R2, T (x, y) = (−y,−x);
(b) T : R2 → R2, T (x, y) = (x+ y, x− y);
(c) T : R3 → R3, T (x, y, z) = (z, x,−y);
(d) T : R3 → R3, T (x, y, z) = (x, y cos θ + z sen θ,−y sen θ + z cos θ).
4. OPERADORES EM ESPAÇOS COM PRODUTO INTERNO 209
4.7* Encontre uma matriz ortogonal [aij] de ordem 3 cuja primeira linha é
dada por
a11 =1
3, a12 =
2
3, e a13 =
2
3·
4.8 Mostre que o produto de matrizes ortogonais é uma matriz ortogonal.
4.9 Construa uma matriz ortogonal A = [aij] cuja primeira coluna seja:
(a) a11 =2√5, a21 =
−1√5;
(b) a11 =1
3, a21 =
−2
3e a31 =
−2
3·
4.10 Conclua a demonstração da Proposição 7.4.8.
Bibliogra�a
[1] H. P. Bueno, Álgebra Linear, um segundo curso, Coleção Textos Univer-
sitários, SBM, 2006.
[2] P. Halmos, Teoria Ingênua dos Conjuntos , Editora Ciência Moderna,
2001.
[3] A. Hefez e M. L. T. Villela, Códigos Corretores de Erros , Coleção Mate-
mática e Aplicações, IMPA, 2008.
[4] A. Hefez e M. L. T. Villela, Números Complexos e Polinômios , Coleção
PROFMAT, SBM, 2012.
[5] V. J. Katz, A History of Mathematics - an Introduction, HarperCollins
College Publishers, 1993.
[6] S. Lang, Introduction to Linear Algebra, 2nd edition, Undergraduate Texts
in Mathematics, Springer, 1986.
[7] E.L. Lima, Álgebra Linear , 3a edição, Coleção Matemática Universitária,
IMPA, 1998.
[8] E.L. Lima, Geometria Analítica e Álgebra Linear , 2a edição, Coleção
Matemática Universitária, IMPA, 2010.
300
8
210
Livro: Introdução à Álgebra LinearAutores: Abramo Hefez
Cecília de Souza Fernandez
Capítulo 8: Determinantes
Sumário
1 Propriedades dos Determinantes . . . . . . . . . . 211
1.1 Propriedades Características . . . . . . . . . . . . . 211
1.2 Propriedades Adicionais das Funções D . . . . . . 212
1.3 Propriedade Multiplicativa . . . . . . . . . . . . . . 215
2 Existência de Determinantes . . . . . . . . . . . . . 218
3 Matriz Adjunta . . . . . . . . . . . . . . . . . . . . . 220
4 Regra de Cramer . . . . . . . . . . . . . . . . . . . . 224
1. PROPRIEDADES DOS DETERMINANTES 211
1 Propriedades dos Determinantes
Estudaremos nesta seção as propriedades dos determinantes de matrizes
quadradas, dividindo-as em três categorias, a saber:
1) Propriedades características, aquelas que bastam para determinar as fun-
ções determinantes;
2) Propriedades adicionais, aquelas que seguem de modo quase direto das
propriedades características;
3) Propriedade multiplicativa, que relaciona determinantes de produtos de
matrizes com os determinantes dos fatores. Essa propriedade é consequência
das propriedades características e de propriedades das matrizes anteriormente
estudadas.
1.1 Propriedades Características
Seja K um corpo1 e seja n um número natural, com n ≥ 2. Denotaremos
porMK(n), ou simplesmente porM(n), o espaço das matrizes quadradas de
ordem n com entradas no corpo K. Nosso objetivo, neste capítulo, é estender
a n > 3 a noção de determinante de uma matriz emM(n) que introduzimos
no Capítulo 4 nos casos n = 2 e n = 3.
Dada uma matriz A ∈ M(n), denotaremos por A1, . . . , An ∈ Kn os seus
vetores linhas e escrevemos
A =
A1
...
An
.Queremos �xar a nossa atenção sobre as funções D : M(n) → K que
possuem as seguintes propriedades:
(D1) D é linear como função de cada linha separadamente.
1O leitor pode �xar sua atenção nos casos K = R ou K = C, se com isto se sentir mais
confortável.
212 CAPÍTULO 8. DETERMINANTES
Isto signi�ca que se Aj = A′j + tA′′j , onde A′j, A
′′j ∈ Kn e t ∈ K, então
D
A1
...
A′j + tA′′j...
An
= D
A1
...
A′j...
An
+ tD
A1
...
A′′j...
An
.
(D2) Se duas linhas adjacentes Aj e Aj+1 de A são iguais, então D(A) = 0.
(D3) Se In representa a matriz identidade deM(n), então D(In) = 1.
Estas propriedades são satisfeitas, por exemplo, pelas funções determi-
nantes det : M(2) → K e det : M(3) → K introduzidas na Seção 3 do
Capítulo 4 (veja Problemas 3.1 e 3.3 do Capítulo 4.)
As Propriedades (D1) e (D2) de uma função D acarretam várias outras
propriedades, como veremos a seguir. Essas propriedades, juntamente com a
Propriedade (D3), determinam uma única função que chamaremos de função
determinante, ou simplesmente, determinante, conforme veremos na Seção 2.
Nas próximas subseções estudaremos mais propriedades de tais funções
D.
1.2 Propriedades Adicionais das Funções D
Nesta seção estudaremos as propriedades das funções D que decorrem
das Propriedades (D1) e (D2) da seção anterior.
Proposição 8.1.1. Seja j um número natural com 1 ≤ j ≤ n− 1. Se A′ é
a matriz obtida de A por meio de uma transformação elementar Lj ↔ Lj+1,
então D(A′) = −D(A).
Demonstração Considere a matriz B tal que Bj = Bj+1 = Aj + Aj+1 e
Bi = Ai, se i 6= j e i 6= j + 1.
Da Propriedade (D2) temos que D(B) = 0. Da Propriedade (D1) (utili-
1. PROPRIEDADES DOS DETERMINANTES 213
zada duas vezes), obtemos a igualdade
0 = D(B) = D
A1
...
Aj
Aj
...
An
+D
A1
...
Aj
Aj+1
...
An
+D
A1
...
Aj+1
Aj
...
An
+D
A1
...
Aj+1
Aj+1
...
An
,
da qual segue-se o resultado, pois sabemos, por (D2), que
D
A1
...
Aj
Aj
...
An
= D
A1
...
Aj+1
Aj+1
...
An
= 0.
�
Corolário 8.1.2. Se A é uma matriz com duas linhas iguais, então D(A) =
0.
Demonstração Com uma troca de linhas, podemos transformar a matriz A
em uma matriz A′ com duas linhas adjacentes iguais. Logo, pela proposição
anterior e pela Propriedade (D2), temos que
D(A) = ±D(A′) = 0.
�
Corolário 8.1.3. Se A′ é uma matriz obtida de A por uma transformação
elementar Li ↔ Lj, i, j = 1, . . . , n, com i 6= j, então D(A′) = −D(A).
Demonstração Usando a mesma ideia da prova da Proposição 8.1.1, con-
siderando neste caso a matriz B tal que Bi = Bj = Ai + Aj e Bk = Ak, se
k 6= i, j, obtemos o resultado com auxílio do Corolário 8.1.2. �
214 CAPÍTULO 8. DETERMINANTES
Corolário 8.1.4. Se uma matriz A′ é obtida de uma matriz A na qual
somamos a uma linha um múltiplo de outra, mantendo as demais inalteradas,
então D(A′) = D(A).
Demonstração Para i < j, sejam
A =
A1
...
Ai
...
Aj
...
An
, A′ =
A1
...
Ai + tAj
...
Aj
...
An
.
Temos da propriedade (D1) que
D(A′) = D(A) + tD(A′′), (1)
onde
A′′ =
A1
...
Aj
...
Aj
...
An
.
Pelo Corolário 8.1.2, temos que D(A′′) = 0, logo o resultado segue da igual-
dade (1), acima. �
Corolário 8.1.5. Se uma matriz A′ é obtida de uma matriz A na qual
somamos a uma linha uma combinação linear de outras, mantendo as demais
inalteradas, então D(A′) = D(A).
Demonstração Use repetidamente o Corolário 8.1.4. �
1. PROPRIEDADES DOS DETERMINANTES 215
Corolário 8.1.6. Se os vetores linhas de uma matriz A são linearmente
dependentes, então D(A) = 0.
Demonstração Se os vetores linhas da matriz são linearmente dependentes,
então uma das linhas é combinação linear das demais, seguindo-se o resultado
do Corolário 8.1.5.
1.3 Propriedade Multiplicativa
Nesta subseção, mostraremos como funções D possuindo as Propriedades
(D1), (D2) e (D3) da Seção 1 se comportam em relação à multiplicação de
matrizes.
Proposição 8.1.7. Sejam A e B elementos deM(n) e seja D : M(n)→ K
uma função possuindo as Propriedades (D1), (D2) e (D3).
(i) Se E é uma matriz elementar, então D(EA) = D(E)D(A).
(ii) Se A e B são matrizes equivalentes por linhas, então
D(A) 6= 0 ⇐⇒ D(B) 6= 0.
(iii) A é invertível se, e somente se, D(A) 6= 0.
(iv) D(AB) = D(A)D(B).
Demonstração (i) Seja E1 a matriz elementar obtida operando sobre In
com Li ↔ Lj. Temos que E1A é a matriz obtida de A mediante a operação
Li ↔ Lj, logo, pelo Corolário 8.1.3, temos que D(E1A) = −D(A). Por outro
lado, do Problema 1.3(a), temos que D(E1) = −1, o que acarreta o resultado
neste caso.
Seja E2 a matriz elementar obtida de In mediante a operação Li → Li +
tLj. Temos, pelo Corolário 8.1.4, que D(E2A) = D(A) e pelo Problema
1.3(a) temos que D(E2) = 1, daí obtendo o resultado neste caso também.
Finalmente, se E3 é a matriz elementar correspondente a Li → cLi, temos
de (D1) que D(E3A) = cD(A) e, pelo Problema 1.3(a), D(E3) = c. Logo,
D(E3A) = D(E3)D(A).
216 CAPÍTULO 8. DETERMINANTES
ii) A e B são equivalentes se, e somente se, B = Er · · ·E1A, onde E1, . . . , Er
são matrizes elementares. De (i), por indução, temos que
D(B) = D(Er) · · ·D(E1)D(A).
Como D(E) 6= 0, para toda matriz elementar E, vale o resultado.
iii) Se A é invertível, do Teorema 2.1.6, temos que A é equivalente a In, logo
por (ii) segue-se que D(A) 6= 0, já que D(In) = 1 6= 0.
Reciprocamente, se D(A) 6= 0, seja B a matriz equivalente a A na forma
escalonada. Como por (ii) temos que D(B) 6= 0, segue-se que B = In. Daí,
A é equivalente a In, logo, pelo Teorema 2.1.6, tem-se que A é invertível.
iv) Se A não é invertível, então AB é não invertível. Logo, por (iii), temos
que D(AB) = 0 e D(A) = 0, seguindo-se o resultado neste caso. Se A é
invertível, então, pelo Teorema 2.1.6, A = E1 · · ·Er onde os Ei's são matrizes
elementares. Portanto, por indução utilizando (i), temos que
D(AB) = D(E1) · · ·D(Er)D(B) = D(E1 · · ·Er)D(B) = D(A)D(B).
�
Teorema 8.1.8. Se existirem duas funções D : M(n) → K e D′ : M(n) →K satisfazendo as condições (D1), (D2) e (D3), então D = D′.
Demonstração Seja A ∈M(n). Se A não é invertível, então da Proposição
8.1.7(iii) temos que D(A) = 0 = D′(A).
Se A é invertível, logo, A = E1 · · ·Er, onde os Ei's são matrizes elementa-
res. Pela Proposição 8.1.7(iv), temos queD(A) = D(E1) · · ·D(Er) eD′(A) =
D′(E1) · · ·D′(Er). Pelo Problema 1.3(b), temos que D(Ei) = D′(Ei), para
todo i = 1, . . . , r, logo D(A) = D′(A). �
Assim, temos assegurada a unicidade de uma função D : M(n) → K,
possuindo as Propriedades (D1), (D2) e (D3), caso tal função exista. Vamos,
na próxima seção, mostrar que tal função existe, a qual passaremos a denotar
por det e a chamar de função determinante. Para n = 2 e n = 3, as funções
det : M(2)→ K e det : M(3)→ K, que introduzimos no Capítulo 4, são as
1. PROPRIEDADES DOS DETERMINANTES 217
únicas funções que possuem as Propriedades (D1), (D2) e (D3), com domínios
M(2) eM(3), respectivamente.
Problemas
1.1 Mostre que se a matriz A ∈M(n) possui uma linha nula, então D(A) =
0.
1.2 Seja D : M(n)→ K uma função que possui as Propriedades (D1) e (D2).
Mostre que se A é a matriz diagonal Diag(a11, . . . , ann) (com a notação do
Problema 2.15, Capítulo 1), então
D(Diag(a11, . . . , ann)) = a11 . . . annD(In).
Em particular, conclua que D(c In) = cnD(In), onde c ∈ K.
1.3 Seja D : M(n) → K, possuindo as Propriedades (D1) e (D2), e sejam
E1, E2 e E3 matrizes elementares obtidas da matriz identidade In mediante,
respectivamente, uma operação do tipo Li ↔ Lj, Li → Li + tLj, Li → cLi,
para i 6= j.
a) Mostre que
D(E1) = −D(In), D(E2) = D(In) e D(E3) = cD(In).
b) Se D,D′ : M(n)→ K possuem as propriedades (D1), (D2) e (D3), então
D(E1) = D′(E1) = −1, D(E2) = D′(E2) = 1 e D(E3) = D′(E3) = c.
1.4 Seja A uma matriz invertível de ordem n e suponha que exista a função
det : M(n)→ K. Mostre que
det(A−1) =1
detA.
1.5 Seja E ∈ M(n) uma matriz elementar. Com a mesma hipótese do
problema anterior, mostre que det(Et) = det(E).
Sugestão Utilize o Problema 2.1.9.
218 CAPÍTULO 8. DETERMINANTES
2 Existência de Determinantes
Nesta seção, estabeleceremos a existência das funções determinantes para
valores de nmaiores do que 3, que já sabemos existirem para n = 2 e n = 3. A
demonstração de tal existência será feita por indução sobre n. Mostraremos
que se existe uma função D′ : M(n − 1) → K que possui as Propriedades
(D1), (D2) e (D3), então existe uma função D : M(n) → K que possui as
mesmas propriedades.
Na realidade, mostraremos que a função D pode ser obtida de vários
modos possíveis a partir de D′, o que permitirá certa �exibilidade no cálculo
de D(A), onde A é uma matriz quadrada de ordem n.
Sejam n ≥ 2 e A ∈ M(n). Para cada par (i, j) ∈ N2, com 1 ≤ i, j ≤n, de�ne-se a matriz A(i|j) como a matriz (n − 1) × (n − 1) obtida de A
suprimindo-se a i-ésima linha e a j-ésima coluna.
Nosso resultado está contido no próximo teorema.
Teorema 8.2.1. Sejam n ≥ 3 e D′ : M(n− 1)→ K satisfazendo as condi-
ções (D1), (D2) e (D3). Dado j com 1 ≤ j ≤ n, a função Dj : M(n) → K
de�nida por
Dj(A) =n∑
i=1
(−1)i+jaijD′(A(i|j)),
onde A = [aij] ∈M(n), também satisfaz as condições (D1), (D2) e (D3).
Demonstração Fixemos j. Para cada i, temos que D′(A(i|j)) é indepen-
dente da linha i, ou seja, dos elementos aik, k = 1, . . . , n, e é separadamente
linear em cada uma das n−1 linhas restantes de A. Por outro lado, (−1)i+jaij
é independente das entradas de A(i|j) e é linear na linha i de A. É, portanto,fácil veri�car que (−1)i+jaijD
′(A(i|j)) é separadamente linear nas linhas de
A. Logo, Dj é uma soma de funções de A que são separadamente lineares
na linhas de A, donde se conclui que Dj possui a Propriedade (D1). Para
provar que Dj possui a Propriedade (D2), suponhamos que A ∈M(n) tenha
as linhas Ak e Ak+1 iguais.
Se i 6= k e i 6= k + 1, a matriz A(i|j) tem duas linhas iguais, logo
2. EXISTÊNCIA DE DETERMINANTES 219
D′(A(i|j)) = 0. Daí temos
Dj(A) = (−1)k+jakjD′(A(k|j)) + (−1)k+j+1ak+1,jD
′(A(k + 1|j)).
Mas, akj = ak+1,j e A(k|j) = A(k + 1|j), logo Dj(A) = 0, já que as duas
parcelas que compõem Dj(A) são uma simétrica da outra.
Finalmente, sendo δij as entradas da matriz In, temos que
Dj(In) =n∑
i=1
(−1)i+jδijD′(In(i|j)) = δjjD
′(In(j|j)) = D′(In−1) = 1,
já que In(j|j) = In−1 e D′(In−1) = 1, mostrando que Dj possui a Propriedade
(D3). �
Esse teorema nos mostra que para calcular o determinante de uma matriz
A, escolhe-se uma coluna j qualquer de A, obtendo
det(A) =n∑
i=1
(−1)i+jaij det(A(i|j)),
que é usualmente chamado de desenvolvimento de Laplace de det(A) segundo
os elementos da coluna j.
Exemplo 1. Calculemos det(A), onde
A =
2 3 1 0
0 1 3 2
0 5 −1 0
1 −2 1 1
.Temos do Teorema 8.2.1, desenvolvendo segundo os elementos da primeira
coluna, que
det(A) = 2 det
1 3 2
5 −1 0
−2 1 1
− det
3 1 0
1 3 2
5 −1 0
.Calculando os determinantes 3 × 3, acima, pela Regra de Sarrus, obtemos
que det(A) = −36.
220 CAPÍTULO 8. DETERMINANTES
Problemas
2.1 Mostre que se uma matriz A possui uma coluna nula, então det(A) = 0.
2.2* Prove que o determinante de uma matriz triangular superior (resp.
inferior) é o produto dos elementos de sua diagonal principal. Mostre que uma
tal matriz é invertível se, e somente se, suas entradas na diagonal principal
são todas não nulas.
2.3* Seja a ∈ R. Prove que
det
1 1 1 1
1 a a2 a3
1 a2 a3 a4
1 a3 a4 a5
= 0.
2.4 Considere a matriz de Vandermonde2
A =
1 a1 a21 . . . an−11
1 a2 a22 . . . an−12...
......
...
1 an a2n . . . an−1n
.Mostre que
det(A) =∏i<j
(aj − ai).
3 Matriz Adjunta
Seja A = [aij] ∈ M(n). De�ne-se o cofator do elemento aij da matriz A
como
∆ij(A) = (−1)i+j det(A(i|j)).
A matriz [∆ij(A)] ∈ M(n) será chamada de matriz dos cofatores da
matriz A e sua transposta será chamada de matriz adjunta de A e denotada
adj(A).
2Em homenagem a Alexandre-Theóphile Vandermonde (França 1735 � 1796).
3. MATRIZ ADJUNTA 221
Exemplo 1. Seja
A =
1 0 0
1 2 1
0 0 −1
.Temos que ∆11(A) = −2, ∆12(A) = 1, ∆13(A) = ∆21(A) = ∆23(A) =
∆31(A) = 0, ∆22(A) = ∆32(A) = −1 e ∆33(A) = 2. Logo,
[∆ij(A)] =
−2 1 0
0 −1 0
0 −1 2
.Portanto,
adj(A) =
−2 0 0
1 −1 −1
0 0 2
.A seguir, veremos uma relação entre uma matriz e a sua adjunta.
Proposição 8.3.1. Seja A uma matriz quadrada de ordem n. Então
adj(A) · A = det(A) In .
Demonstração Denotemos por B a matriz adj(A) · A. Queremos mostrar
que
bij =
{det(A), se i = j
0, se i 6= j .
Denotando ∆ij(A) por ∆ij, temos que
[bij] =
∆11 . . . ∆n1
......
∆1i . . . ∆ni
......
∆1n . . . ∆nn
a11 . . . a1j . . . an1...
......
ai1 . . . aij . . . ain...
......
an1 . . . anj . . . ann
.
222 CAPÍTULO 8. DETERMINANTES
Logo, pelo Teorema 8.2.1,
bjj =n∑
i=1
aij∆ij = det(A).
Por outro lado, seja i 6= j. Supondo, sem perda de generalidade, que i < j,
temos
bij =n∑
k=1
akj∆ki =n∑
k=1
(−1)i+kakj det(A(k|i)),
que é o determinante da matriza11 . . . a1j . . . a1j . . . an1...
......
...
an1 . . . anj . . . anj . . . ann
,desenvolvido segundo os elementos da i-ésima coluna, o qual é nulo. �
Corolário 8.3.2. Se A é uma matriz invertível, então
A−1 =1
det(A)adj(A).
Demonstração Se A é invertível, então det(A) 6= 0 e, portanto,(1
det(A)adj(A)
)· A = In,
o que implica que
A−1 =1
det(A)adj(A).
�
A expressão acima para a inversa de uma matriz A de ordem n é muito
interessante do ponto de vista teórico, mas pouco útil do ponto de vista
prático, pois para utilizá-la para calcular a inversa de A seria necessário
calcular n2 determinantes de ordens n− 1 (os cofatores dos elementos de A).
Isto é computacionalmente impraticável se n é grande. Por outro lado, o
3. MATRIZ ADJUNTA 223
método de inversão por escalonamento apresentado na Seção 1 do Capítulo
2 é computacionalmente muito mais e�caz.
Vamos, a seguir, relacionar o determinante de uma matriz com o de sua
transposta.
Sabemos do Problema 1.5 que se E é uma matriz elementar qualquer,
então det(Et) = det(E).
Seja A uma matriz quadrada de ordem n, qualquer. Logo, existem matri-
zes elementares E1, . . . , Er tais que Er · · ·E1A = B, onde ou B é uma matriz
com a última linha nula, ou B = In.
Se B possui uma linha nula, Bt terá uma coluna nula, logo det(B) =
det(Bt) = 0 (cf. Problema 2.1). Se B = In, então det(B) = det(Bt) = 1.
Podemos escrever
A = F1 · · ·FrB, (1)
onde Fi = E−1i , i = 1, . . . , n, são também matrizes elementares (cf. Corolário
2.1.5). Tomando transpostas em (1), obtemos
At = BtF tr · · ·F t
1. (2)
Tomando, agora, determinantes em (1) e (2), obtemos
det(A) = det(F1) · · · det(Fr) det(B) e det(At) = det(Bt) det(F tr) · · · det(F t
1),
o que acarreta que det(At) = det(A), pois det(B) = det(Bt) e det(Fi) =
det(F ti ), para todo 1 ≤ i ≤ r.
Assim, provamos o seguinte resultado:
Proposição 8.3.3. O determinante de uma matriz quadrada é igual ao
determinante de sua transposta.
Portanto, toda a�rmação sobre o determinante de uma matriz quadrada,
relativamente a suas linhas, também vale para suas colunas e vice-versa. As-
sim, em particular, podemos calcular determinantes usando desenvolvimentos
de Laplace segundo os elementos de uma linha Li, ou seja,
det(A) =n∑
j=1
(−1)i+jaij det(A(i|j)).
224 CAPÍTULO 8. DETERMINANTES
Problemas
3.1 Mostre que a inversa de uma matriz triangular inferior é triangular infe-
rior e a inversa de uma matriz triangular superior é triangular superior.
3.2 Mostre que se det(A) = 1 e todas as entradas de A são números inteiros,
então todas as entradas de A−1 também são números inteiros.
3.3 Mostre que se A é invertível, então adj(A) é invertível e
(adj(A))−1 = adj(A−1).
3.4 Como é afetada a matriz inversa A−1 se
a) permutarmos em A a i-ésima com a j-ésima linha?
b) a i-ésima linha de A é multiplicada por uma constante k não nula?
c) a i-ésima linha de A é somada à k vezes a j-ésima linha?
4 Regra de Cramer
Nesta seção, mostraremos como expressar a solução única de um sistema
de n equações com n incógnitas AX = B, onde A é uma matriz invertível.
É a chamada Regra de Cramer, que apresentamos para n = 2 e n = 3 na
Seção 3 do Capítulo 4, que se relaciona naturalmente com os determinantes
e que serviu de motivação para a sua introdução e posterior estudo de suas
propriedades.
Teorema 8.4.1. (Regra de Cramer) Seja AX = B um sistema linear
n× n. Se det(A) 6= 0, então o sistema tem uma única solução dada por
xj =det(A(j))
det(A), j = 1, . . . , n,
onde A(j) denota a matriz obtida de A substituindo a sua j-ésima coluna pela
única coluna de B.
4. REGRA DE CRAMER 225
Demonstração Como det(A) 6= 0, segue-se da Proposição 8.1.7(iii) que A
é invertível. Portanto, a solução do sistema é dada por
X = A−1 ·B =1
det(A)adj(A) ·B
=1
det(A)
∆11 . . . ∆n1
∆12 . . . ∆n2
......
∆1n . . . ∆nn
b1
b2...
bn
=1
det(A)
b1∆11 + b2∆21 + · · ·+ bn∆n1
b1∆12 + b2∆22 + · · ·+ bn∆n2
...
b1∆1n + b2∆2n + · · ·+ bn∆nn
,mostrando que o elemento da j-ésima linha da matriz X é
xj =b1∆1j + b2∆2j + · · ·+ bn∆nj
det(A). (1)
Considerando a matriz
A(j) =
a11 . . . a1,j−1 b1 a1,j+1 . . . a1n...
......
......
......
an1 . . . an,j−1 bn an,j+1 . . . ann
,tem-se claramente que
b1∆1j + · · ·+ bn∆nj = det(A(j)),
o que conclui a prova, em vista de (1). �
Exemplo 1. Usemos a regra de Cramer para resolver o sistema linearx1 + 2x2 + x3 = 5
−x1 + 2x2 + 2x3 = 0
x1 + 2x2 + 3x3 = −1.
226 CAPÍTULO 8. DETERMINANTES
Temos que
A =
1 2 1
−1 2 2
1 2 3
, A(1) =
5 2 1
0 2 2
−1 2 3
, A(2) =
1 5 1
−1 0 2
1 −1 3
e
A(3) =
1 2 5
−1 2 0
1 2 −1
.Como det(A) = 8 6= 0, det(A(1)) = 8, det(A(2)) = 28 e det(A(3)) = −24,
a Regra de Cramer nos dá
x1 = 1, x2 = 7/2 e x3 = −3.
Problemas
4.1 Resolva pela regra de Cramer os seguintes sistemas lineares:
(a)
2x+ y + 3z = 0
4x+ 2y + 2z = 0
2x+ 5y + 3z = 0 ;
(b)
−2x− y + 2w = 1
3x+ y − 2z − 2w = 0
−4x− y + 2z + 3w = 2
3x+ y − z − 2w = −1 .
Bibliogra�a
[1] H. P. Bueno, Álgebra Linear, um segundo curso, Coleção Textos Univer-
sitários, SBM, 2006.
[2] P. Halmos, Teoria Ingênua dos Conjuntos , Editora Ciência Moderna,
2001.
[3] A. Hefez e M. L. T. Villela, Códigos Corretores de Erros , Coleção Mate-
mática e Aplicações, IMPA, 2008.
[4] A. Hefez e M. L. T. Villela, Números Complexos e Polinômios , Coleção
PROFMAT, SBM, 2012.
[5] V. J. Katz, A History of Mathematics - an Introduction, HarperCollins
College Publishers, 1993.
[6] S. Lang, Introduction to Linear Algebra, 2nd edition, Undergraduate Texts
in Mathematics, Springer, 1986.
[7] E.L. Lima, Álgebra Linear , 3a edição, Coleção Matemática Universitária,
IMPA, 1998.
[8] E.L. Lima, Geometria Analítica e Álgebra Linear , 2a edição, Coleção
Matemática Universitária, IMPA, 2010.
300
9
227
Livro: Introdução à Álgebra LinearAutores: Abramo Hefez
Cecília de Souza Fernandez
Capítulo 9: Diagonalização deOperadores
Sumário
1 Autovalores e Autovetores . . . . . . . . . . . . . . 228
2 Polinômio Característico . . . . . . . . . . . . . . . 234
3 Diagonalização de Operadores . . . . . . . . . . . . 244
4 O Teorema Espectral para Operadores Simétricos 251
5 Reconhecimento de Cônicas . . . . . . . . . . . . . 255
228 CAPÍTULO 9. DIAGONALIZAÇÃO DE OPERADORES
Vimos no Capítulo 6 que um operador linear em V , onde V tem dimensão
�nita, pode ser representado por uma matriz. Sendo as matrizes diagonais
as mais simples do ponto de vista das operações matriciais (cf. Problema
2.15, Capítulo 1), nos perguntamos se dado um operador linear T , é sempre
possível representá-lo por uma matriz diagonal? Mais precisamente, quere-
mos saber se para todo operador T existe uma base α de V tal que [T ]αα seja
uma matriz diagonal.
A resposta é que nem sempre existe uma tal base. Por exemplo, o opera-
dor T em R2, cuja matriz na base canônica é dada por
A =
[0 0
1 0
],
não adimite uma tal representação. De fato, se fosse possível achar uma base
α tal que a matriz de T nesta base é diagonal, teríamos PAP−1 = C, onde
P é uma matriz 2 × 2 invertível e C uma matriz diagonal. Como A2 = 0,
isto acarretaria que
C2 =(PAP−1
)2= PA2P−1 = 0.
Logo, C = 0, o que implicaria que A = 0; uma contradição.
Diremos que operador de�nido sobre um espaço vetorial V de dimen-
são �nita é diagonalizável, quando for possível representá-lo por uma matriz
diagonal em alguma base de V .
O resultado central deste capítulo é uma versão de um teorema chamado
Teorema Espectral que garante que todo operador simétrico é diagonalizável.
1 Autovalores e Autovetores
Seja T : V → V um operador linear. Um número real c será dito um
autovalor de T se existir um vetor não nulo v em V tal que T (v) = cv. O
vetor v é chamado de autovetor de T associado a c.
1. AUTOVALORES E AUTOVETORES 229
Observemos que se v é um autovetor de um operador T associado a um
autovalor c, então todo múltiplo por escalar de v é também um autovetor de
T associado a c. Mais ainda, se A(c) = {v ∈ V ; T (v) = cv}, então A(c) éum subespaço vetorial de V (veja Problema 1.1), chamado autoespaço de T
associado a c. Note que A(c) é formado pelo vetor nulo de V e por todos os
autovetores de T associados a c.
Vejamos a seguir alguns exemplos.
Exemplo 1. Seja T : R2 → R2 o operador linear dado por T (x, y) =
(4x − y, 2x + y). Queremos determinar c ∈ R e v = (x, y) ∈ R2, não
nulo, tais que T (x, y) = c(x, y), ou seja, tais que (4x − y, 2x + y) = c(x, y).
Equivalentemente, queremos determinar c ∈ R e v = (x, y) ∈ R2, não nulo,
tais que 4x− y = cx
2x+ y = cy.(1)
Da primeira equação do sistema (1), temos y = 4x − cx. Substituindo este
valor de y na segunda equação do sistema, obtemos
x(c2 − 5c+ 6) = 0, (2)
que é satisfeita se x = 0 ou c2 − 5c + 6 = 0. Se x = 0, então y = 0. Mas,
v = (x, y) não é o vetor nulo. Assim, segue de (2) que c2 − 5c + 6 = 0.
Portanto, c = 2 e c = 3 são os autovalores de T . Vamos agora calcular os
autovetores de T associados a c = 2. De (1) obtemos o sistema4x− y = 2x
2x+ y = 2y,
que equivale à equação 2x − y = 0, cujo conjunto solução é dado por
{(x, 2x) ; x ∈ R}. Assim, os autovetores de T associados a c = 2 são os
vetores da forma (x, 2x), em que x ∈ R, x 6= 0. Para calcularmos os autove-
tores de T associados a c = 3, devemos resolver o sistema4x− y = 3x
2x+ y = 3y,
230 CAPÍTULO 9. DIAGONALIZAÇÃO DE OPERADORES
que equivale a resolver a equação x − y = 0, cujo conjunto solução é dado
por {(x, x) ; x ∈ R}. Assim, os autovetores de T associados a c = 3 são os
vetores da forma (x, x), com x ∈ R, x 6= 0.
Exemplo 2. Seja T : R2 → R2 o operador linear dado por T (x, y) = (−y, x).Se c ∈ R e v = (x, y) ∈ R2, v 6= 0, são tais que T (x, y) = c(x, y), então
(−y, x) = c(x, y).
Equivalentemente, cx = −y
cy = x,(3)
donde obtemos a equação (c2+1)y = 0. Como c ∈ R, a equação (c2+1)y = 0
é veri�cada somente se y = 0. Mas se y = 0, segue da segunda equação do
sistema (3) que x = 0. Como v não é o vetor nulo, isso não pode ocorrer.
Concluímos, então, que T não tem autovalores nem autovetores.
Portanto, o exemplo acima nos mostra que:
Nem todo operador linear possui autovalores e autovetores.
O estudo de autovalores teve início com Cauchy no começo do século
XIX em seu trabalho sobre formas quadráticas. Contudo, os primeiros pro-
blemas envolvendo autovalores apareceram, de forma implícita, durante o
século XVIII, com o estudo de soluções de sistemas de equações diferenci-
ais lineares com coe�cientes constantes. Jean le Rond d'Alembert (França,
1717 - 1783), em seus trabalhos datando entre 1743 e 1758, e motivado pelo
estudo do movimento de uma corda com um número �nito de massas (aqui,
por simplicidade, consideramos apenas três), chegou no seguinte sistema:
d2yidt2
+3∑j=1
aijyj = 0, i = 1, 2, 3.
Para resolver este sistema, d'Alembert decidiu multiplicar a i-ésima equação
por uma constante vi, para cada i, e somar as equações, obtendo3∑i=1
vid2yidt2
+3∑
i,j=1
viaijyj = 0.
1. AUTOVALORES E AUTOVETORES 231
Denotando B = [aij]t e se os vi's são escolhidos de modo que, para alguma
constante λ,3∑i=1
viaij + λvj = 0, para j = 1, 2, 3,
isto é, se (v1, v2, v3) é um autovetor correspondente ao autovalor λ do opera-
dor TB, a substituição u = v1y1 + v2y2 + v3y3 reduz o sistema original a uma
única equação diferenciald2u
dt2− λu = 0,
que é facilmente resolvida com métodos desenvolvidos por Euler1.
A seguinte proposição mostra que autovetores associados a autovalores
distintos são linearmente independentes.
Proposição 9.1.1. Seja T : V→V um operador linear e sejam c1, c2, . . . ,
cr autovalores distintos de T . Se v1, v2, . . . , vr são autovetores associados
aos autovalores c1, c2, . . . , cr, respectivamente, então {v1, v2, . . . , vr} é linear-
mente independente.
Demonstração A prova será feita por indução sobre r. O resultado é válido
para r = 1, pois se T : V → V é um operador linear com autovalor c1 e se v1é um autovetor de T associado a c1, então {v1} é linearmente independente,
pois v1 6= 0. Suponhamos agora o resultado válido para r−1 e vamos prová-lo
para r, r ≥ 2. Para isto, consideremos a equação
a1v1 + a2v2 + · · ·+ arvr = 0, (4)
1Leonhard Paul Euler (Suíça, 1707 - 1783) é considerado o matemático mais prolífero de
toda a história. Era também astrônomo, físico, engenheiro e químico. A coleção completa
dos livros e trabalhos cientí�cos de Euler (mais de 870 artigos e livros) chega a mais
de oitenta volumes. Ele deu grandes contribuições à geometria analítica, trigonometria,
cálculo in�nitesimal e teoria dos números, continuando a trabalhar mesmo depois de ter
�cado quase cego em 1771. Sua prodigiosa memória permitia que realizasse complexos e
longos cálculos mentais e, dessa forma, ditar seus artigos para seus �lhos e outros, até a
sua morte.
232 CAPÍTULO 9. DIAGONALIZAÇÃO DE OPERADORES
onde a1, a2, . . . , ar são números reais. Aplicando T em (4), obtemos
a1(c1v1) + a2(c2v2) + · · ·+ ar(crvr) = 0, (5)
já que T (vj) = cjvj, para todo 1 ≤ j ≤ r. Por outro lado, T possui pelo
menos um autovalor não nulo. Sem perda de generalidade, suponhamos que
cr 6= 0. Multiplicando (4) por cr, obtemos
a1(crv1) + a2(crv2) + · · ·+ ar(crvr) = 0. (6)
De (5) e (6),
a1(c1 − cr)v1 + a2(c2 − cr)v2 + · · ·+ ar−1(cr−1 − cr)vr−1 = 0. (7)
Pela hipótese de indução, {v1, v2, . . . , vr−1} é linearmente independente. Por-
tanto, de (7), segue-se que
aj(cj − cr) = 0 para todo 1 ≤ j ≤ r − 1. (8)
Como os autovalores c1, c2, . . . , cr são todos distintos, de (8) obtemos que
aj = 0 para todo 1 ≤ j ≤ r−1. Substituindo estes valores em (4), concluímos
que ar = 0 também, já que vr 6= 0. Portanto, {v1, v2, . . . , vr} é independente.�
Corolário 9.1.2. Seja T : V → V um operador linear. Se dimV = n e T
possui n autovalores distintos, então V possui uma base formada por auto-
vetores de T .
Demonstração Pela Proposição 9.1.1, n autovalores distintos implicam na
existência de um conjunto de autovetores {v1, v2, . . . , vn} linearmente inde-
pendente. Como G(v1, v2, . . . , vn) ⊂ V e dimG(v1, v2, . . . , vn) = n = dimV ,
temos que G(v1, v2, . . . , vn) = V , logo {v1, v2, . . . , vn} é uma base de V . �
Na Seção 3, veremos que a existência de uma base de V formada por
autovetores de um operador linear T : V → V é equivalente à existência de
uma representação deste operador por uma matriz diagonal. Antes, porém,
na próxima seção, vamos introduzir a noção de polinômio característico que
1. AUTOVALORES E AUTOVETORES 233
nos permitirá determinar mais facilmente os autovalores e autovetores de um
operador linear.
Problemas
1.1* Seja T : V → V um operador linear e c ∈ R um autovalor de T . Prove
que o autoespaço A(c) de T associado a c é um subespaço vetorial de V .
1.2 Determine os autovalores e os autovetores das seguintes transformações
lineares:
(a) T : R2 → R2 dada por T (x, y) = (x− y, x);
(b) T : R3 → R3 dada por T (x, y, z) = (x,−2x− y, 2x+ y + 2z);
(c) T : R[x]2 → R[x]2 dada por T (ax2 + bx+ c) = ax2 + cx+ b;
(d) T :M(2)→M(2) dada por T
([a b
c d
])=
[2c a+ c
b− 2c d
].
1.3 Determine os autovalores e os autovetores dos seguintes operadores cujas
matrizes na base canônica são:
(a) A =
[2 2
2 2
]; (b) A =
1 0 0
−1 0 −21 1 3
; (c) A =
4 0 2 0
0 2 0 0
0 0 2 0
0 −1 0 0
.1.4 Suponha que c é um autovalor de um operador invertível T . Mostre que
c−1 é um autovalor de T−1.
1.5 Determine T (x, y, z) sabendo que T : R3 → R3 é um operador linear
com autoespaços, associados aos autovalores c1 = 1 e c2 = 3, dados por
{(x, x+ y, y) ; x, y ∈ R} e {(0, x, 2x) ; x ∈ R}, respectivamente.
1.6* Os autovalores de um operador linear T : R3 → R3 são c1 = 1, c2 = 2
e c3 = −1, sendo v1 = (1, 1, 1), v2 = (0, 1, 1) e v3 = (−1, 1, 0) os respectivosautovetores associados. Determine T (x, y, z).
1.7 Suponha que v é um autovetor dos operadores T e S. Mostre que v é
também um autovetor do operador aT+bS, onde a, b são escalares quaisquer.
234 CAPÍTULO 9. DIAGONALIZAÇÃO DE OPERADORES
1.8 Encontre uma matriz 3× 3 com autovalores c = 0, 1 e −1 e autovetores
associados v1 = (0, 1,−1), v2 = (1,−1, 1) e v3 = (0, 1, 1), respectivamente.
2 Polinômio Característico
Seja A uma matriz quadrada de ordem n. A matriz t In−A, onde t é uma
indeterminada, é chamada matriz característica de A. O determinante dessa
matriz é um polinômio em t, chamado polinômio característico da matriz A
e denotado por PA(t).
Exemplo 1. Seja A =
[4 −12 1
]a matriz, na base canônica, do operador do
Exemplo 1, da Seção 1. A matriz característica de A é a matriz
tI2 − A =
[t− 4 1
−2 t− 1
]e o polinômio característico de A é o polinômio
PA(t) = det
[t− 4 1
−2 t− 1
]= t2 − 5t+ 6.
Exemplo 2. Consideremos a matriz A =
[0 −11 0
], na base canônica, do
operador do Exemplo 2, da Seção 2. A matriz característica de A é a matriz[t 1
−1 t
]e o polinômio característico de A é o polinômio
PA(t) = t2 + 1.
Observemos que as raízes do polinômio do Exemplo 1, ou seja, os números
reais t0 tais que PA(t0) = 0, são os autovalores do operador dado no Exemplo
1 da Seção 1. Note que o operador do Exemplo 2, da Seção 1, não tem
2. POLINÔMIO CARACTERÍSTICO 235
autovalores e o polinômio característico de sua matriz associada não tem
raízes. Surge, então, naturalmente a seguinte pergunta:
Existe uma relação entre os autovalores de um operador e as raízes do
polinômio característico de alguma matriz associada a ele?
A resposta é a�rmativa e é dada pelo resultado a seguir.
Teorema 9.2.1. Seja T : V → V um operador linear e seja α = {v1, v2, . . . , vn}uma base de V . Então:
(i) v é um autovetor de T associado a t0 se, e somente se, [v]α é uma
solução não trivial do sistema linear AX = 0, onde A = t0In − [T ]αα;
(ii) t0 ∈ R é um autovalor de T se, e somente se, t0 é uma raiz do polinômio
característico da matriz [T ]αα, ou seja, P[T ]αα(t0) = 0.
Demonstração (i): Seja t0 um autovalor de T e v um autovetor de T
associado a t0. Como [T (v)]α = [T ]αα [v]α e T (v) = t0v, temos
[t0 v]α = [T ]αα [v]α,
ou seja, t0In[v]α = [T ]αα [v]α. Equivalentemente,
(t0In − [T ]αα)[v]α = 0. (9)
(ii): Consideremos o sistema linear AX = 0, onde A = t0In − [T ]αα. De (9),
segue que AX = 0 tem uma solução não trivial, a saber [v]α, já que v não é o
vetor nulo. Pelo Corolário 2.2.7, A não é invertível. Assim, pela Proposição
8.1.7(iii), P[T ]αα(t0) = 0, provando que t0 é uma raiz de P[T ]αα .
Reciprocamente, se t0 ∈ R é uma raiz de P[T ]αα , então P[T ]αα(t0) = 0.
Portanto, o sistema linear AX = 0, onde A = t0In − [T ]αα, tem uma solução
X1 =[x1 x2 . . . xn
]tnão nula, pois detA = 0 (cf. Corolário 2.2.7 e
Proposição 8.1.7(iii)). Vamos provar que t0 é um autovalor de T e que v =
x1v1 + x2v2 + · · ·+ xnvn é um autovetor de T associado a t0. De fato, como
X1 é uma solução do sistema AX = 0, temos AX1 = 0. Equivalentemente,
(t0In − [T ]αα)X1 = t0X1 − [T ]ααX1 = 0,
236 CAPÍTULO 9. DIAGONALIZAÇÃO DE OPERADORES
ou seja,
[t0v]α = t0[v]α = [T ]αα[v]α = [T (v)]α, (10)
pois, pela construção de v, X1 = [v]α. De (10), obtemos que [T (v)]α =
[t0v]α, isto é, as coordenadas dos vetores T (v) e t0v na base α são iguais.
Consequentemente, estes vetores são iguais, ou seja, T (v) = t0v. Como por
construção v 6= 0, segue-se que t0 é um autovalor de T e v é um autovetor de
T associado a t0. �
Exemplo 5. Vamos refazer o Exemplo 1 da Seção 1, utilizando o Teorema
9.2.1. Reconsidere o operador linear T : R2 → R2 dado por T (x, y) = (4x −y, 2x+ y) e seja α a base canônica de R2. Temos
P[T ]αα(t) = det
[t− 4 1
−2 t− 1
]= t2 − 5t+ 6.
Como t2 − 5t + 6 = 0 somente para t1 = 2 e t2 = 3, o Teorema 9.2.1 nos
mostra que t1 e t2 são os únicos autovalores de T . Para determinarmos os
autovetores de T associados a t1, devemos resolver o sistema linear[t1 − 4 1
−2 t1 − 1
][x1
x2
]=
[0
0
],
ou seja, [−2 1
−2 1
][x1
x2
]=
[0
0
],
que equivale à equação linear −2x1 + x2 = 0. Assim, o autoespaço de T
associado a t1 é {(x, 2x) ; x ∈ R}. Agora, para determinarmos os autovetores
de T associados a t2, devemos resolver o sistema linear[t2 − 4 1
−2 t2 − 1
][t1
t2
]=
[0
0
],
ou seja, [−1 1
−2 2
][t1
t2
]=
[0
0
],
2. POLINÔMIO CARACTERÍSTICO 237
que equivale à equação linear −x1 + x2 = 0. Assim, o autoespaço de T
associado a t2 é {(x, x) ; x ∈ R}.
Exemplo 4. Seja T :M(2)→M(2) o operador linear dado por T (A) = At,
onde A ∈M(2). Seja α a base canônica deM(2). Temos
P[T ]αα(t) = det
t− 2 0 0 0
0 t −1 0
0 −1 t 0
0 0 0 t− 1
= (t− 1)3(t+ 1).
Portanto, t1 = 1 e t2 = −1 são os autovalores de T . Pelo Teorema 9.2.1,
M =
[x y
z w
]é um autovetor associado a t1 = 1 se, e somente se,
0 0 0 0
0 1 −1 0
0 −1 1 0
0 0 0 0
x
y
z
w
=
0
0
0
0
.Assim, {[
x y
y w
]; x, y, w ∈ R
}é o autoespaço associado a t1 = 1. Agora, para calcularmos os autovetores
M =
[x y
z w
]associados a t2 = −1, devemos resolver o sistema linear
−2 0 0 0
0 −1 −1 0
0 −1 −1 0
0 0 0 −2
x
y
z
w
=
0
0
0
0
.Como o conjunto solução do sistema acima é dado por x = w = 0 e y = −z,segue que {[
0 y
−y 0
]; y ∈ R
}
238 CAPÍTULO 9. DIAGONALIZAÇÃO DE OPERADORES
é o autoespaço associado a t2.
Observemos que, nos exemplos acima, tomamos α sendo sempre a base
canônica. Isto não representa nenhum problema, pois o método de cálculo
dos autovalores e autovetores de um operador T , dado pelo Teorema 9.2.1,
independe da base escolhida. O que não é totalmente claro é se o polinômio
característico independe da base escolhida. De fato, o polinômio caracterís-
tico de T independe da escolha da base, pois dadas α e β bases do espaço
vetorial V , temos que P[T ]αα(t) = P[T ]ββ(t) (veja Problema 2.3).
O polinômio característico possui várias propriedades, das quais damos
abaixo a mais básica.
Lema 9.2.2. Seja B uma matriz quadrada de ordem n com entradas po-
linômiais, de graus ≤ 1, numa indeterminada t, tal que em cada linha e em
cada coluna há no máximo um polinômio não constante, então detA é um
polinômio de grau menor ou igual do que n.
Demonstração A prova pode ser feita sem di�culdade por indução sobre
n, utilizando o desenvolvimento de Laplace com relação à primeira linha, por
exemplo. �
Proposição 9.2.3. Dada uma matriz A ∈M(n), o polinômio característico
pA(t) de A é um polinômio mônico de grau n com coe�cientes em R e cujos
coe�cientes de tn−1 e de t0 são − trA e (−1)n detA.Demonstração Escrevamos A = (aij), logo
pA(t) = det
t− a11 −a12 · · · −a1n−a21 t− a22 · · · −a2n...
......
an1 −an2 · · · t− ann
.
Pelo Lema anterior, pA(t) é um polinômio de grau no máximo n. Desenvol-
vendo o determinate segundo os elementos da primeira linha e utilizando o
2. POLINÔMIO CARACTERÍSTICO 239
Lema 9.2.2 (repetidas vezes), temos que
pA(t) = (t− a11) det
t− a22 · · · −a2n...
...
−an2 · · · t− ann
+ polinômio de grau < n− 1.
Repetindo o procedimento, vemos que
pA(t) = (t− a11)(t− a22) · · · (t− ann) + polinômio de grau < n− 1.
Segue-se que pA(t) é um polinômio mônico de grau n em t e que o coe�ciente
de tn−1 é − trA.
Por outro lado, o coe�ciente de t0 em pA(t) = det(t In−A) é precisamente
PA(0) = det(−A) = (−1)n detA.
�
Sejam dados um polinômio p(t) = artr + ar−1t
r−1 + · · · + a1t + a0, com
coe�cientes reais, e uma matriz quadrada A de ordem n, de�ne-se
p(A) = arAr + ar−1A
r−1 + · · ·+ a1A+ a0 In,
que é uma matriz quadrada de ordem n.
A seguir, apresentamos um dos importantes Teoremas básicos da Álgebra
Linear, o chamado Teorema de Cayley-Hamilton2.
Teorema 9.2.4. (Cayley-Hamilton) Seja A ∈ M(n) e seja PA(t) o po-
linômio característico de A. Então, PA(A) = 0, onde 0 é a matriz nula de
M(n).
2William Rowan Hamilton (Irlanda, 1805 - 1865) deu várias contribuições à Física e à
Matemática. Com apenas 22 anos de idade, foi nomeado Royal Astronomer na Irlanda,
diretor do Observatório de Dunsek e professor de Astronomia. Deu o primeiro exemplo de
uma álgebra não comutativa com a criação dos quatérnios. Os métodos dos quatérnios,
tempos depois, motivaram a introdução da análise vetorial. Hamilton escreveu também
sobre ótica e dinâmica. De fato, Hamilton é atualmente mais conhecido por seus trabalhos
em dinâmica do que por seus trabalhos em matemática.
240 CAPÍTULO 9. DIAGONALIZAÇÃO DE OPERADORES
Demonstração Como PA(t) é um polinômio mônico de grau n em t, pode-
mos escrever
PA(t) = tn + bn−1tn−1 + · · ·+ b1t+ b0, (11)
onde b0, . . . , bn−1 são números reais. Seja C(t) a matriz adjunta da matriz
t In−A. Como C(t) é, por de�nição, a transposta da matriz cujas entradas
são os cofatores de t In−A, logo são polinômios em t de grau menor ou igual
que n− 1. Assim, podemos escrever
C(t) = Cn−1tn−1 + · · ·+ C1t+ C0, (12)
onde C0, C1, . . . , Cn−1 são matrizes quadradas de ordem n, que não dependem
de t. Pela Proposição 8.3.1, temos
(t In−A)C(t) = PA(t) In,
já que, por de�nição, PA(t) = det(t In−A). Equivalentemente, por (11) e
(12),
(t In−A)(Cn−1tn−1 + · · ·+ C1t+ C0) = (tn + bn−1tn−1 + · · ·+ b1t+ b0) In .
Da igualdade anterior, obtemos
Cn−1 = In
Cn−2 − ACn−1 = bn−1 In
Cn−3 − ACn−2 = bn−2 In...
C0 − AC1 = b1 In
−AC0 = b0 In .
Multiplicando cada uma das equações acima por An, An−1, . . . , A, In, respec-
2. POLINÔMIO CARACTERÍSTICO 241
tivamente, temos
AnCn−1 = An
An−1Cn−2 − AnCn−1 = bn−1An−1
An−2Cn−3 − An−1Cn−2 = bn−2An−2
...
AC0 − A2C1 = b1A
−AC0 = b0 In .
Somando membro a membro as equações acima, resulta
PA(A) = An + bn−1An−1 + · · ·+ b1A+ b0 In = 0.
�
Exemplo 5. Consideremos a matriz
A =
[1 3
−1 0
].
O polinômio característico de A é
PA(t) = det(t In−A) = det
[t− 1 −31 t
]= t2 − t+ 3.
Pelo Teorema de Cayley-Hamilton, PA(A) = 0.
Vamos agora veri�car esta igualdade diretamente. De fato,
PA(A) = A2 − A+ 3 I2
=
[1 3
−1 0
]2−
[1 3
−1 0
]+ 3
[1 0
0 1
]
=
[−2 3
−1 −3
]+
[−1 −31 0
]+
[3 0
0 3
]
=
[0 0
0 0
].
242 CAPÍTULO 9. DIAGONALIZAÇÃO DE OPERADORES
Uma consequência imediata do Teorema de Cayley-Hamilton é que a po-
tência An, de uma matriz A ∈M(n), pode ser escrita como uma combinação
linear das potências de A com expoentes menores do que n, pois se
PA(t) = tn + bn−1tn−1 + · · ·+ b1t+ b0,
então PA(A) = 0, o que equivale a
An = −bn−1An−1 − · · · − b1A− b0 In .
Exemplo 6. Consideremos novamente a matriz
A =
[1 3
−1 0
]
do Exemplo 5. Vimos que A2 − A+ 3 I2 = 0; ou seja, A2 = A− 3 I2.
Para obtermos A3, façamos
A3 = AA2 = A(A− 3 I2) = A2 − 3A = −2A− 3 I2 .
Para obtermos A4, façamos
A4 = AA2 = A(−2A−3 I2) = −2A2−3A = −2(A−3 I2)−3A = −5A+6 I2 .
Este procedimento mostra que, em geral, se A ∈ M(2), então para todo
m ∈ N \ {0}, a matriz Am se escreve como combinação linear de I2 e A.
Observamos �nalmente que, dada uma matriz A ∈M(n), calcular potên-
cias Ak, k ∈ N, pode ser muito trabalhoso. O Teorema de Cayley-Hamilton
nos dá uma forma de calcular estas potências. Veremos, no �nal da Seção 3
deste capítulo, que o cálculo de Ak �ca bastante simpli�cado se a matriz A
tiver a propriedade de ser diagonalizável.
A leitura do restante desta seção é facultativa, pois não utilizaremos as
informações aí contidas, exceto na Proposição 9.4.4, que também não será
empregada em nenhuma outra parte do texto.
2. POLINÔMIO CARACTERÍSTICO 243
Um outro polinômio que desempenha papel fundamental é o polinômio
mínimo de uma matriz A, ou de um operador T .
Consideremos o conjunto
I(A) = {p(t) ∈ R[t]; p(A) = 0}.
Este conjunto possui um polinômio não identicamente nulo, pois pelo Teo-
rema de Cayley-Hamilton, pA(t) ∈ I(A).De�nimos o polinômio mínimo de A como o polinômio mA(t) mônico de
menor grau em I(A).
É fácil veri�car (veja Problema 2.2) que se A é uma matriz quadrada,
p ∈ R[t] tal que p(A) = 0 e P é uma matriz invertível de mesma or-
dem que A, então p(A) = 0 se, e somente se, p(P−1AP ) = 0. Portanto,
I(A) = I(P−1AP ), mostrando que o conjunto I(T ) está bem de�nido para
um operador T . Deduzimos daí que faz sentido falar do polinômio mínimo
mT (t) de um operador T .
O próximo resultado nos dará algumas informações importantes sobre
polinômios mínimos.
Proposição 9.2.5. Seja T : V → V um operador linear sobre um espaço V
de dimensão �nita. Temos que:
(i) Se p1(t), p2(t) ∈ I(T ), então p1(t) + p2(t) ∈ I(T );
(ii) Se p(t) ∈ I(T ) e q(t) ∈ R[t], então p(t)q(t) ∈ I(T );
(iii) Se p(t) ∈ I(T ), então mT (t) divide p(t).
Demonstração As duas primeiras propriedades são de veri�cação imediata.
Vamos provar (iii). Seja p(t) ∈ I(t). Pelo algoritmo da divisão euclidiana (cf.
[4]), temos que existem polinômios h(t), r(t) ∈ R[t], com r(t) = 0, ou grau
de r(t) menor do que o grau de mT (t) tais que p(T ) = mT (t)h(t) + r(t). Da
igualdade r(t) = p(t) −mT (t)h(t) = 0, tem-se que r(A) = 0 e r(t) ∈ I(T ).Como mT (t) é um polinômio de grau mínimo que se anula em A, precisamos
ter r(t) = 0, o que mostra que mT (t) divide p(t). �
244 CAPÍTULO 9. DIAGONALIZAÇÃO DE OPERADORES
Note que o item (iii) prova a unicidade de mT (t). De fato, se mT (t) e
m′T (t) são dois polinômios mínimos, então cada um divide o outro, e como
eles são mônicos, eles são necessariamente iguais. A propriedade (iii) tam-
bém nos diz que o polinômio mínimo de um operador divide seu polinômio
característico.
Problemas
2.1* Determine os autovalores e os autovetores do operador cuja matriz na
base canônica é dada por
A =
[2 −3−1 4
].
2.2* Prove que uma matriz quadrada A é invertível se, e somente se, c = 0
não é raiz do polinômio característico de A.
2.3 Sejam A e P duas matrizes quadradas de mesma ordem, com P invertível.
Mostre que se p(t) ∈ R[t], então p(P−1AP ) = P−1p(A)P .
2.4 Prove que matrizes semelhantes têm os mesmos polinômios característi-
cos.
2.5 Seja A uma matriz quadrada de ordem n semelhante a uma matriz trian-
gular inferior B. Mostre que os autovalores de A são exatamente os elementos
da diagonal principal de B.
3 Diagonalização de Operadores
Dado um operador linear T : V → V , nosso objetivo é obter, se possível,
uma base α de V na qual a matriz [T ]αα seja uma matriz diagonal. O re-
sultado a seguir caracterizará tais bases associadas ao operador que se quer
diagonalizar.
Teorema 9.3.1. Um operador linear T : V → V admite uma base β em
relação à qual a matriz [T ]ββ é diagonal se, e somente se, essa base β for
formada por autovetores de T .
3. DIAGONALIZAÇÃO DE OPERADORES 245
Demonstração Suponhamos que β = {v1, v2, . . . , vn} é uma base de V tal
que [T ]ββ é diagonal, digamos
[T ]ββ =
a1 0 · · · 0
0 a2 · · · 0...
.... . .
...
0 0 · · · an
.Como, para cada 1 ≤ j ≤ n,
T (vj) = 0v1 + · · ·+ 0vj−1 + ajvj + 0vj+1 + · · ·+ 0vn = ajvj,
segue que aj é um autovalor de T e vj é um autovetor de T associado a aj.
Portanto, β é uma base formada de autovetores de T .
Suponhamos agora que β = {u1, u2, . . . , un} é uma base de V formada
por autovetores de T . Existem, então, números reais b1, b2, . . . , bn tais que,
para cada 1 ≤ j ≤ n, T (uj) = bjuj. Observamos que os bj's não são necessa-
riamente todos distintos. Pela de�nição de [T ]ββ, temos
[T ]ββ =
b1 0 · · · 0
0 b2 · · · 0...
......
0 0 · · · bn
,ou seja, [T ]ββ é uma matriz diagonal. �
Na demonstração do Teorema 9.3.1 �ca claro que, se um operador linear
T tem uma representação por uma mariz diagonal [T ]ββ, então as entradas da
diagonal principal de [T ]ββ são dadas pelos autovalores de T . Mais ainda, a
ordem em que os autovalores aparecem na diagonal principal da matriz é a
mesma em que seus respectivos autovetores são dados na base β.
Se T é um operador linear em um espaço V de dimensão n, o Teorema
9.3.1 nos diz que T é diagonalizável se, e somente se, T tem n autovetores
linearmente independentes. Em particular, pelo Corolário 9.1.2, se T tem n
autovalores distintos, então T é diagonalizável.
246 CAPÍTULO 9. DIAGONALIZAÇÃO DE OPERADORES
Vejamos a seguir alguns exemplos.
Exemplo 1. O operador linear T do Exemplo 1 da Seção 1 é diagonalizável.
Uma representação diagonal para T é dada por
[T ]αα =
[2 0
0 3
],
onde α = {(1, 2), (1, 1)}. Uma outra representação diagonal para T é dada
por
[T ]ββ =
[3 0
0 2
],
sendo β = {(1, 1), (1, 2)}.
Exemplo 2. O operador linear T do Exemplo 4 da Seção 2 é diagonalizável.
Uma representação diagonal para T é dada por
[T ]αα
1 0 0 0
0 1 0 0
0 0 1 0
0 0 0 −1
,com
α =
{[1 0
0 0
],
[0 1
1 0
],
[0 0
0 1
],
[0 1
−1 0
]}.
Exemplo 3. Consideremos o operador linear T : R3 → R3 dado por
T (x, y, z) = (x + y, y, z). O operador T não é diagonalizável, pois o autoes-
paço associado a seu único autovalor, k = 1, é dado por {(x, 0, z) ; x, z ∈ R}.
Vimos na Seção 1 do Capítulo 6 que toda matriz A ∈ M(m,n) de�ne
uma transformação linear TA : Rn → Rm. Em particular, se A é uma matriz
quadrada de ordem n, então A de�ne um operador linear TA em Rn. Dizemos
que a matriz A é diagonalizável quando TA é diagonalizável. No caso de TAser diagonalizável, pelo Teorema 9.3.1, existe uma base β de Rn formada de
autovetores de TA. Ou seja, existe uma representação diagonal D, a saber
3. DIAGONALIZAÇÃO DE OPERADORES 247
D = [TA]ββ, para o operador TA. Como [TA]
αα = A, onde α denota a base
canônica de Rn, segue, do Teorema 6.4.2, que
D = P−1AP,
com P = [IRn ]βα. Isto motiva a seguinte versão matricial do Teorema 9.3.1,
cuja condição necessária acabamos de demonstrar.
Teorema 9.3.2. Uma matriz A ∈ M(n) é diagonalizável se, e somente se,
existe uma matriz P invertível de ordem n tal que P−1AP é uma matriz
diagonal .
Demonstração Para provarmos a condição su�ciente, tomemos que β =
{v1, v2, . . . , vn}, onde vj é o vetor j-ésima coluna de P . Seja α a base canônica
de Rn. Pelo Teorema 6.3.2, temos
[TA]ββ = [IRn ]
αβ [TA]
αα [IRn ]
βα.
Equivalentemente,
[TA]ββ = P−1AP,
já que [IRn ]βα = P pela maneira como β foi construída. Como P−1AP é uma
matriz diagonal, segue-se que [TA]ββ é uma matriz diagonal. Portanto, TA é
diagonalizável e, então, A também o é. �
No Teorema 9.3.2, a matriz P é chamada de matriz que diagonaliza A.
Vejamos a seguir alguns exemplos.
Exemplo 4. A matriz
A =
1 0 2
0 1 3
0 0 −1
é diagonalizável. De fato, seja α a base canônica de R3. Então
P[TA]αα(t) = PA(t) = det
t− 1 0 −20 t− 1 −30 0 t+ 1
= 0 para t = 1 ou t = −1.
248 CAPÍTULO 9. DIAGONALIZAÇÃO DE OPERADORES
O autoespaço associado ao autovalor t = 1 é o conjunto solução do sistema
linear 0 0 −20 0 −30 0 2
xyz
=
000
,ou seja, é o conjunto {(x, y, 0) ; x, y ∈ R}. Já o autoespaço associado ao
autovalor t = −1 é o conjunto solução do sistema linear−2 0 −20 −2 −30 0 0
xyz
=
000
,ou seja, é o conjunto {(−z,−3/2z, z) ; z ∈ R}. Tome β = {(1, 1, 0), (1, 0, 0),(1, 3/2,−1)}. Temos que β é uma base de R3 formada de autovetores de TA.
Assim, TA é diagonalizável e, portanto, A é diagonalizável. A matriz
P =
1 1 1
1 0 3/2
0 0 −1
é uma matriz que diagonaliza A e a matriz
D =
1 0 0
0 1 0
0 0 −1
é uma representação diagonal para TA.
Exemplo 5. Consideremos a matriz
B =
1 −1 2
0 1 3
0 0 −1
.A matriz B não é diagonalizável, pois TB não é diagonalizável. Note que TBe TA têm os mesmos autovalores. Porém, o autoespaço de TB associado a
3. DIAGONALIZAÇÃO DE OPERADORES 249
t = 1 é dado por {(x, 0, 0) ; x ∈ R} e o autoespaço de TB associado a t = −1é dado por {(−7/4z,−3/2z, z) ; z ∈ R}. Assim, não é possível obter uma
base de R3 formada por autovetores de TB.
Terminamos esta seção, observando que o cálculo de potências de matrizes
é uma tarefa de custo computacional muito elevado, pois é necessário calcular
m− 1 produtos de matrizes para calcular Am. Entretanto, se soubermos que
A é uma matriz diagonalizável, o cálculo de Am �ca bastante simpli�cado.
De fato, se A ∈M(n) e se P ∈M(n) é invertível, então é fácil veri�car que
(P−1AP )m = P−1AmP.
Logo, se A é diagonalizável e se P−1AP = D é uma matriz diagonal, temos
que
Dm = P−1AmP,
ou equivalentemente,
Am = PDmP−1,
que é calculável (cf. Problema 2.15, Capítulo 1) com apenas duas multipli-
cações de matrizes.
Exemplo 6. Determinemos a matriz A50, sendo
A =
[1 2
0 −1
].
Veri�quemos que A é diagonalizável e encontremos uma matriz P que
diagonaliza A. Ora,
det(t I−A) = det
[t− 1 −20 t+ 1
]= (t− 1)(t+ 1),
que se anula para t = 1 e para t = −1. Logo, estes são os autovalores de A.
Resolvendo as equações matriciais[0 −20 2
][x
y
]=
[0
0
]
250 CAPÍTULO 9. DIAGONALIZAÇÃO DE OPERADORES
e [−2 −20 0
][x
y
]=
[0
0
],
obtemos os autoespaços associados aos autovalores 1 e −1, respectivamente.
Tomemos, então, v1 = (1, 0) um autovetor para t = 1 e v2 = (1,−1) um
autovetor para t = −1. Temos,
D = P−1AP,
com
D =
[1 0
0 −1
]e P =
[1 1
0 −1
].
Como D50 = I2, segue-se que
A50 = P−1D50 P = P−1 I2 P = I2 .
Problemas
3.1* Seja T : R3 → R3 o operador linear dado por
[T ]αα =
1 2 0
1 −1 0
−1 0 2
,onde α = {(1, 1, 1), (0, 1, 0), (0, 0, 1)} é uma base de R3. Veri�que que T é
diagonalizável.
3.2 Seja A ∈M(n). Verdadeiro ou falso? Justi�que a resposta.
(a) Se A é diagonalizável e A é invertível, então A−1 é diagonalizável.
(b) A e At têm os mesmos autovalores.
(c) A e At têm os mesmos autovetores.
(d) Se A é diagonalizável, então existe uma única matriz P tal que P−1AP
é uma matriz diagonal.
4. O TEOREMA ESPECTRAL PARA OPERADORES SIMÉTRICOS251
3.3 Determine nos itens abaixo se A é diagonalizável. Em caso a�rmativo,
encontre uma matriz P que diagonaliza A e determine P−1AP .
(a) A =
4 0 0
1 4 0
0 1 4
. (b) A =
[2 4
3 1
]. (c) A =
1 −2 −20 1 0
0 2 3
.3.4 Para quais valores de c as matrizes abaixo são diagonalizáveis?
(a) A =
[1 1
0 c
].
(b) A =
[1 c
0 1
].
3.5 Seja A =
1 −2 8
0 −1 0
0 0 −1
. Calcule:
(a) A100; (b) A1321; (c) A−100.
3.6* Seja T : R2 → R2 o operador linear dado por T (x, y) = (2x− 2y,−x+3y). Determine uma base de R2 em relação à qual a matriz do operador T é
diagonal.
3.7 Seja T : V → V um operador simétrico. Sejam c1 e c2 autovalores dis-
tintos de T . Se v1 e v2 são autovetores associados a c1 e c2 respectivamente,
prove que v1 e v2 são ortogonais.
4 O Teorema Espectral para Operadores Simé-
tricos
Vimos na seção anterior que se T : V → V é um operador diagonalizável,
então existe uma base de V formada por autovetores de T .
Nesta seção, veremos que se V é um espaço com produto interno e se
T : V → V é um operador simétrico, então existe uma base ortonormal de
V formada por autovetores de T . Em particular, todo operador simétrico é
252 CAPÍTULO 9. DIAGONALIZAÇÃO DE OPERADORES
diagonalizável. Este resultado é conhecido como Teorema Espectral e é um
dos resultados mais importantes da Álgebra Linear.
Antes de prosseguir, faremos algumas observações importantes sobre a
possibilidade de estendermos a maioria das noções e resultados estabelecidos
sobre o corpo R ao corpo C. Em particular, todos os resultados que foram
provados até o momento que envolvem sistemas lineares e determinantes são
válidos sobre um corpo arbitrário K. Utilizamos K = R, apenas para que o
leitor trabalhasse em um contexto concreto que lhe é familiar. Neste ponto
precisaremos considerar K = C também. Do mesmo modo que de�nimos
transformações lineares entre espaços vetoriais sobre o corpo R, poderíamos
tê-lo feito sobre um corpo qualquer K. Neste contexto mais geral, faz todo
o sentido de�ninir autovalores e autovetores, para os quais podemos utilizar
um análogo do Teorema 9.2.1. Continua valendo também neste contexto
o Teorema de Cayley-Hamilton. Dado um operador linear T : Rn → Rn,
podemos estendê-lo a um operador TC : Cn → Cn do seguinte modo: se
z = x + iy ∈ Cn, onde x, y ∈ Rn, de�ne-se TC(z) = T (x) + iT (y). Os
polinômios característicos de T e de TC coincidem, mas TC pode possuir mais
autovalores e autovetores do que T .
Proposição 9.4.1. Seja V um espaço vetorial de dimensão �nita sobre R.Se T : V → V é um operador simétrico e α uma base de V , então, todas as
raízes do polinômio característico P[T ]αα em C são números reais .
Demonstração Seja A = [T ]αα. O Teorema Fundamental da Álgebra (cf.
[4]) garante que o polinômio característico PA tem pelo menos uma raiz
complexa; digamos λ. Logo, o sistema (t In−A)Z = 0 possui uma solução
não trivial Z =[z1 . . . zn
]t, com coe�cientes complexos.
Sendo A uma matriz simétrica real, temos que (veja Problema 4.1)
(AZ)tZ = Z tAZ,
e como AZ = λZ, temos, da igualdade acima, que
λ ZtZ = (λZ)tZ = (AZ)tZ = ZtAZ = Z tλZ = λZ tZ.
4. O TEOREMA ESPECTRAL PARA OPERADORES SIMÉTRICOS253
Como
Z tZ = z1 z1 + · · ·+ zn zn = |z1|2 + · · ·+ |zn|2 6= 0.
segue que λ = λ, logo λ ∈ R.Falta ainda mostrar que associado a λ existe um autovetor em Rn. Escre-
vamos Z = X+iY , onde X e Y têm entradas reais, com X 6= 0 ou Y 6= 0 (re-
corde que Z 6= 0). Da equação AZ = λZ, temos que AX+ iAY = λX+ iλY ,
o que implica que AX = λX e AY = λY . Logo, temos que X ou Y é um
autovetor associado a λ com entradas reais. �
Teorema 9.4.2. (Teorema Espectral) Seja V um espaço vetorial de
dimensão �nita sobre R. Se T : V → V é um operador simétrico, então
existe uma base ortonormal β de V tal que [T ]ββ é diagonal .
Demonstração Faremos a prova por indução sobre a dimensão de V . Deno-
taremos a matriz [T ]αα por A. Se dimV = 1, o resultado é óbvio. Suponhamos
que n ≥ 1 e que o resultado é válido para espaços de dimensão n. Seja V um
espaço vetorial tal que dimV = n + 1. Seja α uma base de V e seja c uma
raiz complexa do polinômio PA. Pela Proposição 9.4.1, c ∈ R. Portanto,
c é um autovalor de T . Seja v um autovetor unitário de T associado a c.
Consideremos o subespaço
W = {w ∈ V ; 〈w, v〉 = 0}.
Note que W = G(v)⊥. A�rmamos que T (W ) ⊂ W . De fato, seja w ∈ W .
Como T é um operador simétrico, temos que
〈T (w), v〉 = 〈w, T (v)〉 = 〈w, cv〉 = c〈w, v〉 = c 0 = 0,
donde T (w) ∈ W . Assim, podemos considerar o operador restrição
S = T |W ∈ L(W,W ),
que é também um operador simétrico. Além disso, como dimG(u) = 1, se-
gue do Teorema 7.3.6 que dimW = n. Assim, podemos aplicar a hipótese
254 CAPÍTULO 9. DIAGONALIZAÇÃO DE OPERADORES
de indução ao operador S para garantir a existência de uma base ortonormal
{v1, v2, . . . , vn} de W formada por autovetores de S (logo de T ). Conse-
quentemente, β = {v, v1, . . . , vn} é uma base ortonormal de V formada por
autovetores de T . Daí, [T ]ββ é diagonal. �
O próximo resultado é a versão matricial do Teorema 9.4.2.
Teorema 9.4.3. (Teorema Espectral, versão matricial) Se A ∈MR(n)
é simétrica, então existe uma matriz ortogonal P ∈MR(n) tal que P−1AP (=
P tAP ) é diagonal.
Demonstração Seja A ∈ MR(n) uma matriz simétrica. Então o operador
TA ∈ L(Rn,Rn) também é simétrico. Pelo Teorema 9.4.2, existe uma base
ortonormal β de Rn tal que [TA]ββ = D é diagonal. Se α é a base canônica de
Rn, então
D = [TA]ββ = [IRn ]
αβ [TA]
αα [IRn ]
βα = P−1AP,
sendo P = [IRn ]βα. Como α e β são bases ortonormais, segue do Teorema
7.4.7 que P é uma matriz ortogonal, ou seja, P−1 = P t. �
Quando existe uma matriz ortogonal P ∈ MR(n) tal que P−1AP é dia-
gonal, dizemos que A é ortogonalmente diagonalizável e que P diagonaliza A
ortogonalmente.
A seguir daremos uma propriedade que relaciona as raízes do polinômio
mínimo e do polinômio característico de uma matriz (ou de um operador).
Proposição 9.4.4 Se T é um operador sobre um espaço vetorial de dimensão
�nita, então as raízes do polinômio característico pT (t) e as do polinômio
mínimo mT (t) são as mesmas (podendo ter multiplicidades distintas).
Demonstração É óbvio que as raízes do polinômio mínimo são raízes do
polinômio característico, pois o polinômio mínimo divide o polinômio carac-
terístico (cf. Proposição 9.2.5).
Reciprocamente, vamos provar que toda raiz de pT (t) em C é raiz de
qualquer polinômio p(t) tal que p(T ) = 0. De fato, seja t0 uma raiz de pT (t),
logo existe v ∈ Cn \ {0} tal que Tv = t0v. Mas,
0 = p(T )v = p(t0)v.
5. RECONHECIMENTO DE CÔNICAS 255
Como v 6= 0, segue que p(t0) = 0. �
Problemas
4.1 Seja A = [aij] ∈MC(m,n). De�ne-se A = [aij]. Mostre que
(a) λA = λ A, para todo λ ∈ C.
(b) AB = A B, para todo B ∈MC(n, p).
4.2 Prove a recíproca do Teorema Espectral. Mais precisamente, prove que
se V é um espaço sobre R com produto interno e se β é uma base ortonormal
de V formada por autovetores do operador T : V → V , então o operador T
é simétrico.
4.3 Prove a recíproca da versão matricial do Teorema Espectral. Mais pre-
cisamente, prove que se A ∈ MR(n) é uma matriz ortogonalmente diagona-
lizável, então a matriz A é simétrica.
5 Reconhecimento de Cônicas
Nesta seção mostraremos como por meio do teorema Espectral é possível
fazer o reconhecimento de cônicas. Como nosso objetivo aqui não é o de
introduzir cônicas, indicamos o livro [8] como referência para o leitor.
Consideremos a equação geral do segundo grau nas duas variáveis x e y:
ax2 + bxy + cy2 + dx+ ey + f = 0, (1)
onde a, b, c, d, e e f são números reais dados. É possível mostrar que a equa-
ção acima representa uma cônica ou uma reta ou duas retas ou um ponto ou
nenhum lugar geométrico em R2. Como exemplo, vejamos que lugar geomé-
trico em R2 cada uma das equações abaixo representa.
1. x2 + y2 + 1 = 0;
2. 2x2 + 4y2 = 0;
3. x2 − 9 = 0;
256 CAPÍTULO 9. DIAGONALIZAÇÃO DE OPERADORES
4. 4x2 + 9y2 − 8x− 36y + 4 = 0;
5. y2 + 6y2 − 8x+ 1 = 0.
1. Esta equação representa nenhum lugar geométrico em R2, pois
{(x, y) ∈ R2 ; x2 + y2 + 1 = 0} = {(x, y) ∈ R2 : x2 + y2 = −1} = ∅;
2. Esta equação representa a origem do plano cartesiano, pois
2x2 + 4y2 = 0
equivale à equação x2 = −2y2, que é veri�cada somente para x = y = 0;
3. Esta equação representa duas retas em R2. Mais precisamente, as retas
x = 3 e x = −3;
4. Esta equação representa uma elipse. De fato, seja (x, y) ∈ R2 tal que
4x2+9y2− 8x− 36y+4 = 0. Note que esta equação é equivalente à equação
4(x2 − 2x) + 9(y2 − 4y) = −4.
Completando os quadrados da equação anterior, obtemos
4(x− 1)2 + 9(y − 2)2 = 36,
ou seja,(x− 1)2
9+
(y − 2)2
4= 1,
que é a equação reduzida de uma elipse de centro (1,2) e eixos maior e menor
medindo 6 e 4, respectivamente (Figura 21).Figura 21
5. Esta equação representa uma parábola. De fato, seja (x, y) ∈ R2 tal que
y2 + 6y − 8x+ 1 = 0. Note que esta equação é equivalente à equação
(y2 + 6y) = 8x− 1.
5. RECONHECIMENTO DE CÔNICAS 257
Completando o quadrado da equação acima, obtemos
(y + 3)2 = 8(x+ 1),
que é a equação reduzida de uma parábola de vértice (−1,−3) e parâmetro
2 (Figura 22).
258 CAPÍTULO 9. DIAGONALIZAÇÃO DE OPERADORES
Figura 22
Observemos que em todos os exemplos anteriores o termo xy da equação
(2), chamado termo misto da equação, não aparece. A técnica usualmente
utilizada nesse caso é a técnica de completar quadrados. Porém, em equações
em que o termo misto aparece, precisamos de uma álgebra mais avançada
para reduzirmos a equação dada. Por exemplo, como determinar o lugar
geométrico em R2 representado pela equação
2x2 + 2xy + 2y2 + 7√2x+ 5
√2y + 10 = 0? (2)
Para respondermos esta pergunta, vamos usar o Teorema Espectral. Pri-
meiramente, note que a equação (2) equivale a equação matricial
[x y]
[2 1
1 2
][x
y
]+ [7√2 5√2]
[x
y
]+ [10] = [0]. (3)
Chame A =
[2 1
1 2
]. Como A é uma matriz simétrica, pelo Teorema
Espectral, A é ortogonalmente diagonalizável. De fato, os autovalores de
A são t1 = 3 e t2 = 1. O vetor unitário v1 =(
1√2, 1√
2
)e o vetor uni-
tário v2 =(− 1√
2, 1√
2
)são autovetores de t1 e t2, respectivamente. Assim,
β = {v1, v2} é uma base ortonormal de R2 formada por autovetores de TA.
5. RECONHECIMENTO DE CÔNICAS 259
Seja P = [IR2 ]βα, onde α é a base canônica de R2. Chame D = P−1AP .
Temos
P =
[1√2− 1√
21√2
1√2
]e D =
[3 0
0 1
].
Como A = P DP t, já que P−1 = P t, segue de (3) que
[x y]P
[3 0
0 1
]· P t
[x
y
]+ [7√2 5√2]
[x
y
]+ [10] = [0]. (4)
Observemos que o produto matricial P t
[x
y
]é a matriz das coordenadas de
um vetor v = (x, y) ∈ R2 em relação à base β, pois
P t
[x
y
]= [IR2 ]αβ [v]α.
Chamemos [v]β de
[x′
y′
]. Substituindo em (4), obtemos
[x′ y′]
[3 0
0 1
][x′
y′
]+ [7√2 5√2]
[1√2− 1√
21√2
1√2
][x′
y′
]+ [10] = [0]
ou seja,
3x′2 + y
′2 + 12x′ − 2y′ + 10 = 0. (5)
Com a mudança da base canônica α para a base β, reduzimos a equação (2)
à equação (5), que não apresenta o termo misto x′y′. Agora, vamos reduzir
(5) completando quadrados. Ora,
3x′2 + y
′2 + 12x′ − 2y′ + 10 = 0
equivale à equação
3(x′ + 2)2 + (y′ − 1)2 = 3,
ou seja,
(x′ + 2)2 +(y′ − 1)2
3= 1.
260 CAPÍTULO 9. DIAGONALIZAÇÃO DE OPERADORES
Portanto, a equação (2) representa uma elipse. Para esboçarmos o grá�co
dessa elipse, precisamos considerar as novas coordenadas x′ e y′. Assim,
nesse sistema de coordenadas, a elipse tem centro (−2, 1), semi-eixo menor
medindo 1 e semi-eixo maior medindo√3, sendo este semi-eixo paralelo ao
eixo y′ (Figura 23).
Figura 23
Generalizaremos este procedimento a seguir.
Seja dada a equação
ax2 + bxy + cy2 + dx+ ey + f = 0.
Esta é equivalente à equação matricial
[x y]
[a b/2
b/2 c
][x
y
]+ [d e]
[x
y
]+ [f ] = [0]. (6)
Seja A =
[a b/2
b/2 c
]. Como A é uma matriz simétrica, pelo Teorema Es-
pectral, existe uma base ortonormal β de R2 formada de autovetores de TA.
Assim, se t1 e t2 são autovalores de TA (pode ser que t1 = t2), existem auto-
vetores v1 e v2 associados a t1 e t2, respectivamente, tais que β = {v1, v2} é
5. RECONHECIMENTO DE CÔNICAS 261
uma base ortonormal de R2. A matriz P = [IR2 ]βα, onde α é a base canônica
de R2, diagonaliza A ortogonalmente, já que
D = P−1AP
é a matriz diagonal
[k1 0
0 k2
]com P−1 = P t. Portanto,
A = P DP t. (7)
Substituindo (7) em (6), obtemos a equação matricial
([x y]P )D
(P t
[x
y
])+ [d e]
[x
y
]+ [f ] = [0]. (8)
O produto matricial P t
[x
y
], que aparece na equação (8), é a matriz das
coordenadas de um vetor v = (x, y) ∈ R2 em relação à base β, pois
P t
[x
y
]= [IR2 ]αβ [v]α.
Chamemos [v]β de
[x′
y′
]. Substituindo em (8), obtemos
[x′ y′]D
[x′
y′
]+ [d e]P
[x′
y′
]+ [f ] = [0] (9)
uma vez que [x′
y′
]= P t
[x
y
]implica que
[x′ y′] =
(P t
[x
y
])t
=
[x
y
]t(P t)t = [x y]P
e
P
[x′
y′
]= P
(P t
[x
y
])= (P P−1)
[x
y
]=
[x
y
].
262 CAPÍTULO 9. DIAGONALIZAÇÃO DE OPERADORES
Se v1 = (x1, y1) e vv = (x2, y2), obtemos de (9) a equação
[x′ y′]
[k1 0
0 k2
][x′
y′
]+ [d e]
[x1 x2
y1 y2
][x′
y′
]+ [f ] = [0],
ou seja, obtemos a equação
k1x′2 + k2y
′2 + (dx1 + ey1)x′ + (dx2 + ey2)y
′ + f = 0. (10)
Como a equação (10) não apresenta o termo misto x′y′, podemos com-
pletar os quadrados, e assim determinar o lugar geométrico em R2 dado por
ax2 + bxy + cy2 + dx+ ey + f = 0.
Problemas
5.1* Que lugar geométrico em R2 as equações abaixo representam?
(a) x2 − 4x− 2y + 4 = 0.
(b) 4x2 − 3y2 + 24xy − 156 = 0.
5.2 Que lugar geométrico de R2 as equações abaixo representam? Esboce o
grá�co, quando possível.
(a) x2 + y2 − 2x− 2y + 4 = 0.
(b) 16x2 + 9y2 − 96x+ 72y + 144 = 0.
(c) 2x2 + 2√2xy + y2 − 12 = 0.
(d) x2 + 2xy + y2 = 0.
(e) 7x2 − 8xy + y2 − 17√5x+ 11
√5y + 41 = 0.
(f) x2 + xy + y2 + 5√2x+ 4
√2y + 1 = 0.
(g) 16x2 − 24xy + 9y2 − 15x− 20y + 50 = 0.
(h) 5x2 + 4xy + 2y2 − 12 = 0.
(i) 2x2 + 2√6xy + y2 − 16 = 0.
Bibliogra�a
[1] H. P. Bueno, Álgebra Linear, um segundo curso, Coleção Textos Univer-
sitários, SBM, 2006.
[2] P. Halmos, Teoria Ingênua dos Conjuntos , Editora Ciência Moderna,
2001.
[3] A. Hefez e M. L. T. Villela, Códigos Corretores de Erros , Coleção Mate-
mática e Aplicações, IMPA, 2008.
[4] A. Hefez e M. L. T. Villela, Números Complexos e Polinômios , Coleção
PROFMAT, SBM, 2012.
[5] V. J. Katz, A History of Mathematics - an Introduction, HarperCollins
College Publishers, 1993.
[6] S. Lang, Introduction to Linear Algebra, 2nd edition, Undergraduate Texts
in Mathematics, Springer, 1986.
[7] E.L. Lima, Álgebra Linear , 3a edição, Coleção Matemática Universitária,
IMPA, 1998.
[8] E.L. Lima, Geometria Analítica e Álgebra Linear , 2a edição, Coleção
Matemática Universitária, IMPA, 2010.
300
10
263
Livro: Introdução à Álgebra LinearAutores: Abramo Hefez
Cecília de Souza Fernandez
Capítulo 10: Soluções e Respostas
264 CAPÍTULO 10. SOLUÇÕES E RESPOSTAS
Capítulo 1
2.1* Temos
2A =
[2 −4 6
8 2 0
], 3B =
[−3 6 0
3 −6 0
]e 2A− 3B =
[5 −10 6
5 8 0
].
2.2 x = 10, y = 3 e z = 1.
2.3
(a)
[−1 5 −42 1 −2
]. (b)
−2−2−6
. (c)
[−3−1
].
(d)
−1 1
−1 1
−3 3
. (e)
[−5−2
]. (f)
[3 −4 1
].
2.4* (a) Não. Porque para se determinar c63, a matriz A deveria ter, no
mínimo, 6 linhas.
(b) Por de�nição,
c36 =5∑
k=1
a3k · bk6.
Assim,
c36 =5∑
k=1
(3− k)6 =5∑
k=1
(18− 6k) = 0.
2.6* Se X é uma matriz que comuta com A, então X é uma matriz quadrada
de ordem 2. Assim, vamos determinar as matrizes
X =
[a b
c d
]tais que AX = XA. Ora,[
a b
c d
][1 0
0 3
]=
[1 0
0 3
]·
[a b
c d
],
265
se, e somente se, [a 3b
c 3d
]=
[a b
3c 3d
].
Portanto,
X =
[a b
c d
]comuta com A se, e somente se, b = c = 0 e a e d são números reais quaisquer.
2.7 (b) M =
[x y
0 x
], com x e y números reais quaisquer.
2.10* (a)
At =
1 0
2 −13 4
.(b) Seja A = (aij)n×n uma matriz triangular superior e seja At = [bij]n×n a
transposta de A. Por de�nição,
bij = aji,
para todo 1 ≤ i, j ≤ n. Mas, se j > i, segue que aji = 0, já que A é uma
matriz triangular superior. Portanto, bij = 0 sempre que i < j, ou seja, At é
uma matriz triangular inferior.
(c) Sejam A = [aij]m×n e B = [bij]m×n. Seja k ∈ R. Então,
(A+B)t = [aji + bji]n×m = [aji]n×m + [bji]n×m = At +Bt
e
(kA)t = [kaji]n×m = k[aji]n×m = kAt.
(d) Sejam A = [aij]m×n e B = [bij]n×p. Então, AB = [cij]m×p, com
cij =n∑k=1
aik · bkj,
266 CAPÍTULO 10. SOLUÇÕES E RESPOSTAS
para todo 1 ≤ i ≤ m e 1 ≤ j ≤ p, e BtAt = [dij]p×m, com
dij =n∑k=1
bki · ajk,
para todo 1 ≤ i ≤ p e 1 ≤ j ≤ m. Como (AB)t = [eij]p×m onde, para todo
1 ≤ i ≤ p e 1 ≤ j ≤ m,
eij = cji,
segue que
eij =n∑k=1
ajk · bki =n∑k=1
bki · ajk = dij,
para todo 1 ≤ i ≤ p e 1 ≤ j ≤ m. Portanto, (AB)t = BtAt.
(e) Seja A = [aij]m×n. Então At = [aji]n×m, portanto, (At)t = [aij]n×m = A.
2.11* (a) Pelo Problema 2.10, itens (c) e (e), temos (B+Bt)t = Bt+(Bt)t =
Bt + B = B + Bt, onde na última igualdade usamos o fato que a adição de
matrizes é comutativa. Agora pelo itens (d) e (e) do problema 2.10, temos
(B ·Bt)t = (Bt)t ·Bt = B ·Bt.
(b) Pelo Problema 2.10, item (c), segue que (B − Bt)t = Bt + (−Bt)t =
Bt −B = −(B −Bt).
(c) Segue imediatamente de (a) e (b).
(d) Seja B uma matriz quadrada que se escreve com B = B1 + B2, onde
B1 é simétrica e B2 é antissimétrica. Então, Bt1 = B1 e Bt
2 = −B2. Como
Bt = Bt1 +Bt
2, segue que Bt = B1 −B2. Assim,
B = B1 +B2 e Bt = B1 −B2
implicam que
B1 =B +Bt
2e B2 =
B −Bt
2.
2.16 (a) X = C−1B. (b) X = (A−1)t. (c) X = B−1A−1C.
267
Capítulo 2
1.1* (a)[2 1
−1 3
]−→
e1 : L1↔L2
[−1 3
2 1
]−→
e2 : L1→−L1
[1 −32 1
]−→
e3 : L2→L2−2L1[1 −30 7
]−→
e4 : L2→ 17L2
[1 −30 1
]−→
e5 : L1→L1+3L2
[1 0
0 1
].
(b) Sim. Porque a forma escalonada de A é a matriz identidade de ordem 2.
(c) Temos
A−1 = E5 · E4 · E3 · E2 · E1,
onde E1 = e1(I), E2 = e2(I), E3 = e3(I), E4 = e4(I) e E5 = e5(I). Assim,
A−1 =
[1 3
0 1
][1 0
0 1/7
][1 0
−2 1
][−1 0
0 1
][0 1
1 0
].
Computando o produto acima, obtemos
A−1 =
[3/7 −1/71/7 2/7
].
1.2 (a) A−1 =
[3 −7−5 12
]. (b) B−1 =
−1 −1 0
0 −1 −11 −1 −3
.
(c) C−1 =
1 −1 0 2
−1 2 2 0
0 −1 0 1
1 0 1 2
.
1.4 (a)
1 0 −7/2 5/2
0 1 3 −20 0 0 0
. (b)
1 2 0 0 4/3
0 0 1 0 0
0 0 0 1 −1/6
.
268 CAPÍTULO 10. SOLUÇÕES E RESPOSTAS
(c)
1 0 4/11 13/11
0 1 −5/11 3/11
0 0 0 0
0 0 0 0
.1.8* (a) Sejam A e B matrizes quadradas de mesma ordem n tais que AB =
I. Suponhamos que A não é invertível. Então, pelo Corolário 2.1.7, A não
tem posto n, logo A é equivalente por linhas a uma matriz com uma linha
nula, ou seja, existem matrizes elementares E1, . . . , Es tais que Es . . . E2E1A
tem uma linha nula. Portanto, temos Es · · ·E2E1AB = C, onde C também
é uma matriz com uma linha nula (cf. Problema 2.13(a), Capítulo 1). Dessa
forma, AB = (E−11 . . . E−11 )C e, portanto, também AB é uma matriz com
uma linha nula. Mas isso contradiz o fato de que AB = I. Portanto, A é
invertível. Consequentemente,
A−1 = A−1I = A−1(AB) = (A−1A)B = IB = B.
Assim AB = I se, e somente se, BA = I, pois se AB = I, pelo o que vimos
acima B = A−1 e, então, BA = A−1A = I. E reciprocamente, se BA = I,
pelo o que vimos acima A = B−1 e, então, AB = B−1B = I.
(b) SeA eB são invertíveis, temos da Proposição 1.2.4(b) queAB é invertível.
Reciprocamente, se AB é invertível, então existe C tal (AB)C = C(AB) = I.
Logo, como A(BC) = (AB)C = I, pelo item (a), temos que A é invertível.
Por outro lado, como (CA)B = C(AB) = I, pelo item (a), tem-se que B é
invertível.
2.1* Como os termos independentes do sistema são todos iguais a zero, estes
não se alteram por transformações elementares. Por isso, para resolvermos
um sistema linear homogêneo pelo método de escalonamento, basta conside-
rarmos a matriz dos coe�cientes. Ora,0 1 3 −22 1 −4 3
2 3 2 −1−4 −3 5 −4
−→L1↔L3
2 3 2 −12 1 −4 3
0 1 3 −2−4 −3 5 −4
−→
L2 → L2 − L1
L4 → L4 + 2L1
269
2 3 2 −10 −2 −6 4
0 1 3 −20 3 9 −6
−→L1 → L1 − L4
2 0 −7 5
0 −2 −6 4
0 1 3 −20 3 9 −6
−→
L1 → 1/2L2
L2 → L2 + 2L3
L4 → L4 − 3L31 0 −7/2 5/2
0 0 0 0
0 1 3 −20 0 0 0
−→L2 ↔ L3
1 0 −7/2 5/2
0 1 3 −20 0 0 0
0 0 0 0
,donde concluímos que x = 7/2z− 5/2t e que y = −3z + 2t. Fazendo z = a e
t = b, onde a e b ∈ R, obtemos que o conjunto solução do sistema dado é
S = {(72a− 5
2b, −3a+ 2b, a, b) ; a, b ∈ R}.
2.2* Note que1 2 −3 m
2 6 −11 n
1 −2 7 p
−→L2 → L2 − 2L1
L3 → L3 − L1
1 2 −3 m
0 2 −5 n− 2m
0 −4 10 p−m
−→
L3 → L3 + 2L2
1 2 −3 m
0 2 −5 n− 2m
0 0 0 p+ 2n− 5m
,o que implica que o sistema dado é possível se, e somente se, p+2n−5m = 0.
Assim, por exemplo, para m = 1, n = 2 e p = 1 o sistema tem solução. Note
que se p + 2n − 5m = 0 o sistema terá, de fato, mais de uma solução. Em
outras palavras, o sistema não pode ter solução única.
2.3
X =
[1 0 −13 2 1
].
2.4 101
.
270 CAPÍTULO 10. SOLUÇÕES E RESPOSTAS
2.5 (a) Sejam S1 e S2 os conjuntos soluções de AX = B1 e AX = B2,
respectivamente. Então
S1 = {(1/2 + 7/8t, 1/2 + 1/4t, 1/2− 11/8t) t ∈ R}
e
S2 = {(1/4 + 7/8t, 1/4t, 3/4− 11/8t) ; t ∈ R}.
(b)
{(5/4 + 7/8t, 3/2 + 1/4t, 3/4− 11/8t) ; t ∈ R}.
2.8 a = 2, b = −1, c = 1.
2.9
(a) (i) k 6= 3; {(3k + 6,−2k − 4,−1)}.
(ii) Não existe k ∈ R.
(iii) k = 3; {(5− 10z,−3 + 7z, z) z ∈ R}.
(b) (i) k 6= 1 e k 6= −2; {(1/(k + 2), 1/(k + 2), 1/(k + 2) )}.
(ii) k = −2.
(iii) k = 1; {(1− y − z, y, z) y, z ∈ R}.
(c) (i) k 6= 1 e k 6= −1; {(0, 0, 0)}.
(ii) Não existe k ∈ R.
(iii) k = ±1; {(−z, 0, z) : z ∈ R} para k = 1 e {(z, 0, z) : z ∈ R}para k = −1.
2.10 −5a+ 2b+ c = 0.
2.11 (a) a = −3. (b) a = 2. (c) a 6= −3 e a 6= 2.
271
Capítulo 3
1.1* Seja W um subconjunto não vazio de um espaço vetorial V . Queremos
mostrar que W é um subespaço vetorial se, e somente se, au+ bv ∈ W para
quaisquer a, b ∈ R e para quaisquer u, v ∈ W .
(⇒) Como W é um espaço vetorial, temos au, bv ∈ W . Logo a soma au+ bv
é um elemento de W .
(⇐) Temos que tanto a adição como a multiplicação por escalar de�nidas
em V quando restritas a W são fechadas, ou seja, se u, v ∈ W e a ∈ Rentão u + v = 1u + 1v ∈ W e au = au + 0v ∈ W . Como a adição e a
multiplicação por escalar satisfazem as condições (ii), (iii), (vii), (viii), (ix)
e (x) para quaisquer a, b ∈ R e para quaisquer u, v ∈ V , elas continuam
satisfazendo estas propriedades para quaisquer a, b ∈ R e para quaisquer
u, v ∈ W . Resta só veri�car as condições (iv) e (v). Seja w ∈ W . Então
temos o = 0w + 0w ∈ W e −w = (−1)w + 0w ∈ W .
1.2 (a) É. (b) Não é. Note que (0, 0) /∈ W .
(c) Não é. Temos (1, 1) ∈ W , mas 2(1, 1) /∈ W . (d) É.
1.3 (a) É. (b) Não é. Note que (1, 0, 0) ∈ W , mas −1(1, 0, 0) /∈ W .
(c), (d), (e) É.
1.4 (a), (b), (c) É. (d) Não é. Temos I3 ∈ W , mas 2I3 /∈ W .
(e) Não é. A matriz nula não pertence a W .
1.5 (a) Não é. Temos p(x) = 1 + x+ x2 ∈ W , mas 12p(x) /∈ W .
(b), (c) É. (d) Não é. Temos p(x) = x2 ∈ W , mas −1p(x) /∈ W .
1.6 (a) V ∩W = W e V +W = V .
(b) V ∩W = {[aij]2×2 ; a11 = a12 = a21 = a22};V +W = {[aij]2×2 ; a11 = −a12 + a21 + a22}.
(c) V ∩W = {(0, 0, 0)} e V +W = R3.
(d) V ∩W = {(0, 0, 0, 0)} e V +W = R4.
(e) V ∩W = {(0, 0, 0)} e V +W = {(x, x, y) ; x, y ∈ R}.
As somas dadas em (c) e (d) são somas diretas.
272 CAPÍTULO 10. SOLUÇÕES E RESPOSTAS
1.11* Queremos determinar a, b, c ∈ R de modo que o vetor w = (a, b, c)
seja combinação linear de u = (2,−6, 4) e v = (2,−1, 1). Para w ser uma
combinação linear de u e v devem existir dois números reais x e y tais que
(a, b, c) = xu+ yv = (2x+ 2y,−6x− y, 4x+ y).
Equivalentemente, (x, y) deve ser uma solução do sistema linear2x+ 2y = a
−6x− y = b
4x+ y = c .
Somando as três equações, obtemos 2y = a+b+c e somando as duas últimas,
temos b+ c = −2x. Assim as coordenadas a, b, c devem satisfazer a equação
a = 3b+ 5c.
1.12* (a) Dado α = {(−1, 3, 1), (1,−2, 4)}, o espaço gerado por α, G(α),
é por de�nição o conjunto de todas as combinações lineares de (−1, 3, 1) e(1,−2, 4). Assim
G(α) = {a(−1, 3, 1) + b(1,−2, 4) ; a, b ∈ R}= {(−a+ b, 3a− 2b, a+ 4b) ; a, b ∈ R}.
Geometricamente, G(α) é um plano que passa pela origem. Se (x, y, z) ∈ R3
é um elemento de G(α), então
x = −a+ b,
y = 3a− 2b,
z = a+ 4b,
(1)
onde a, b ∈ R. As equações em (1) são as equações paramétricas de G(α).
(b) O vetor (5, k, 11) ∈ G(α), se
5 = −a+ b
k = 3a− 2b
11 = a+ 4b,
273
para certos a e b em R. Resolvendo o sistema−a+ b = 5
a+ 4b = 11,
obtemos a = −a5e b = 16
5. Portanto, k = 3a− 2b = −59
5.
1.13 (a) {(2, 1, 0), (−3, 0, 1)}. (b) {(1, 1, 0,−1), (0, 0, 1, 0)}.
(c) {1 + x2, x− 12x2}. (d)
{[1 0
−1 0
],
[0 0
1 1
]}.
1.15 (a), (c) e (d).
1.16 (a) −1p1(x)− 2p2(x) + 2p3(x).
(b) 3p1(x) + 0p2(x)− 2p3(x).
(c) 2p1(x)− 1p2(x) + 0p3(x).
2.1* Sejam f(x) = x3 + 4x2 − 2x + 3, g(x) = x3 + 6x2 − x + 4 e h(x) =
2x3 + 8x2 − 8x + 7 e sejam a, b, c ∈ R tais que af(x) + bg(x) + ch(x) = 0.
Temos a+ b+ 2c = 0
4a+ 6b+ 8c = 0
2a+ b+ 8c = 0
3a+ 4b+ 7c = 0 .
Resolvendo o sitema, obtemos a = b = c = 0, Assim, os três polinômios são
linearmente independentes.
2.2 (a) e (b) independentes, (c) dependente.
2.3 (a), (b) e (c) independentes.
2.4 a = −1 ou a = 2.
3.1* Seja V um espaço vetorial de dimensão n. Queremos mostrar que qual-
quer conjunto linearmente independente com n vetores forma uma base de
274 CAPÍTULO 10. SOLUÇÕES E RESPOSTAS
V . Sejam v1, v2, . . . , vn vetores linearmente independentes. Se estes vetores
não geram V , então existe um vetor w ∈ V que não pode ser escrito como
combinação linear deles. Sejam α1, . . . , αn, β ∈ R tais que
α1v1 + · · ·+ αnvn + βw = 0.
Observemos que se β = 0, então αi = 0 para todo i = 1, . . . , n, pois os
vetores v1, v2, . . . , vn são linearmente independentes. Se β 6= 0, então
− 1
β(α1v1 + · · ·+ αnvn) = w,
o que contradiz a escolha de w. Assim, β = α1 = · · · = αn = 0. Como temos
que o conjunto com n+1 vetores formado por v1, v2, . . . , vn, w é linearmente
independente, então a dimensão de V é pelo menos n+ 1. Absurdo.
Agora vamos provar que todo conjunto formado por n geradores não
nulos é linearmente independente. Sejam v1, v2, . . . , vn vetores não nulos que
geram o espaço V . Sabemos que sempre é possível extrair dentre eles um
subconjunto linearmente independente, digamos v1, . . . , vk. A�rmamos que
estes k vetores ainda geram V . De fato, como v1, . . . , vk, vk+1 é linearmente
dependente, devemos ter que
α1v1 + · · ·+ αkvk + βvk+1 = 0,
onde os escalares não são todos nulos. Mais ainda, note que β 6= 0. Assim,
vk+1 pode ser escrito como uma combinação linear dos vetores v1, . . . , vk.
Analogamente, mostramos que cada vk+j, com 1 ≤ j ≤ n− k, também pode
ser escrito como uma combinação linear dos vetores v1, . . . , vk. Desta forma,
pela Proposição 3.1.7, concluímos a prova da a�rmação. Portanto, os vetores
v1, . . . , vk formam uma base de V . Como dimV = n, segue que k = n, ou
seja, o conjunto original já era linearmente independente.
3.2* Seja V o espaço das matrizes simétricas 2× 2, ou seja,
V =
{[a b
b c
]a, b, c ∈ R
}.
275
Vejamos que o conjunto β é uma base de V , onde
β =
{[1 0
0 0
],
[0 1
1 0
],
[0 0
0 1
]}.
De fato, β gera V , uma vez que todo elemento de V é da forma[a b
b c
]= a
[1 0
0 0
]+ b
[0 1
1 0
]+ c
[0 0
0 1
].
Sejam a, b, c ∈ R tais que
a
[1 0
0 0
]+ b
[0 1
1 0
]+ c
[0 0
0 1
]=
[0 0
0 0
].
Temos que a = b = c = 0, o que mostra que β é linearmente independente.
3.3* (a) Temos que
U = {(a, b, c, d) ; b+ c+ d = 0)} = {(a, b, c,−(b+ c)) ; a, b, c ∈ R}.
A�rmamos que BU = {(1, 0, 0, 0), (0, 1, 0,−1), (0, 0, 1,−1)} é uma base de U .
De fato, se (a, b, c, d) ∈ U , então
(a, b, c, d) = a(1, 0, 0, 0) + b(0, 1, 0,−1) + c(0, 0, 1,−1)
e se α, β, γ ∈ R são tais que
α(1, 0, 0, 0) + β(0, 1, 0,−1) + γ(0, 0, 1,−1) = 0,
segue que α = β = γ = 0. Portanto, BU é uma base de U e a dimensão de
U é três.
(b) Temos que
W = {(a, b, c, d) ; a+ b = 0, c = 2d} = {(a,−a, 2d, d) ; a, d ∈ R}.
A�rmamos que BW = {(1,−1, 0, 0), (0, 0, 0, 2, 1)} é uma base de W . Seja
(a, b, c, d) ∈ W . Então
(a, b, c, d) = a(1,−1, 0, 0) + d(0, 0, 2, 1)
276 CAPÍTULO 10. SOLUÇÕES E RESPOSTAS
e se α, β ∈ R são tais que
α(1,−1, 0, 0) + β(0, 0, 2, 1) = (α,−α, 2β, β) = 0,
segue que α = β = 0. Portanto, BW é uma base de W e a dimensão de W é
dois.
(c) Temos que
U∩W = {(a, b, c, d) ; b+c+d = 0, a+b = 0, c = 2d} = {(3d,−3d, 2d, d) ; d ∈ R}.
A�rmamos que B = {(3,−3, 2, 1)} é uma base de U ∩ W . De fato, se
(a, b, c, d) ∈ U ∩W , então
(a, b, c, d) = (3d,−3d, 2d, d) = d(3,−3, 2, 1).
Portanto, B é uma base de U ∩W e a dimensão de U ∩W é um.
(d) Observe que
dim(U +W ) = dimU + dimW − dim(U ∩W ) = 4.
Logo, U +W = R4. Assim, podemos escolher como base de U +W qual-
quer base de R4. Por exemplo, a base canônica {(1, 0, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0),(0, 0, 0, 1)}.
3.4 (a) dependente, já que v3 = 2v1 − 2v2.
(b) β = {(1, 1, 0), (0, 1,−1)}.(c) dim(G(α)) = 2, porque β é uma base para G(α).
3.6 Os vetores formam uma base paraM(2, 2).
3.9 4.
3.10 (a) 2. (b) Não. Porque
[2 1
3 4
]/∈ W .
3.11 (a) {(−3, 1,−3, 5)}, 1.(b) {(−1, 1, , 0, 0), (2, 0, 1, 0), (−1, 0, 0, 1)}, 3.
277
3.13 (a) 11/28, 1/14. (b) 1,−1. (c) 2, 0,−1.
4.1* Seja U ⊆ R4 gerado pelos vetores (1,−2, 3,−3), (2, 3, 1,−4), (3, 8,−3,−5).
(a) Sejam a, b, c ∈ R tais que
a(1,−2, 3,−3) + b(2, 3, 1,−4) + c(3, 8,−3,−5) = 0.
Temos que a, b, c devem satisfazer o sistema lineara+ 2b+ 3c = 0
−2a+ 3b+ 8c = 0
3a+ b− 3c = 0
−3a− 4b− 5c = 0 .
Somando as duas últimas equações obtemos 3b = −8c e substituindo na se-
gunda equação obtemos 2a = 0. Assim, a = b = c = 0. Logo, (1,−2, 3,−3),(2, 3, 1,−4), (3, 8,−3,−5) é uma base de U e sua dimensão é três.
(b) Chamemos u1 = (1,−2, 3,−3), u2 = (2, 3, 1,−4) e u3 = (3, 8,−3,−5).Devemos achar um vetor v ∈ R4 de modo que o conjunto B = {u1, u2, u3, v}seja linearmente independente, ou seja, devemos achar um vetor v que não
seja combinação linear dos vetores u1, u2 e u3. Ora, U é o espaço gerado por
u1, u2 e u3. Equivalentemente, U é o espaço linha da matriz
A =
1 −2 3 −32 3 1 −43 8 −3 −5
.Reduzindo a matriz A a sua forma escalonada obtemos a matriz
R =
1 0 0 −30 1 0 0
0 0 1 0
.
278 CAPÍTULO 10. SOLUÇÕES E RESPOSTAS
Os vetores linha não nulos da matriz R são w1 = (1, 0, 0,−3), w2 = (0, 1, 0, 0)
e w3 = (0, 0, 1, 0). Assim,
U = G(u1, u2, u3)
= G(w1, w2, w3)
= {a(1, 0, 0,−3) + b(0, 1, 0, 0) + c(0, 0, 1, 0) ; a, b, c ∈ R}= {(a, b, c,−3a) ; a, b, c ∈ R}.
Portanto, para um vetor v ∈ R4 não ser combinação linear dos vetores u1, u2e u3, basta v não ser da forma (a, b, c,−3a), onde a, b, c ∈ R. Desse modo,
tomemos v = (1, 0, 0, 0). O conjunto B = {u1, u2, u3, v} é linearmente inde-
pendente e, portanto, é uma base de R4.
4.2* Seja U ⊆ R4 gerado pelos vetores u1 = (2, 4,−2, 6), u2 = (1, 2, 1/2,−1)e u3 = (3, 6, 3,−5) e seja W ⊆ R4 gerado pelos vetores w1 = (1, 2,−4, 11)e w2 = (2, 4,−5, 14). Para mostrarmos que U = W , basta mostrar, pela
Proposição 3.1.7, que cada vetor ui é combinação linear dos vetores w1 e w2
para i = 1, 2, 3 e que, para j = 1, 2, cada vetor wj é combinação linear dos
vetores u1, u2 e u3.
Vamos mostrar que u1 é combinação linear dos vetores w1 e w2. Para isto,
temos que achar a, b,∈ R tais que u1 = aw1 + bw2. Como u1 = −2w1 + 2w2,
mostramos o que queríamos. Analogamente podemos ver que
u2 = −2w1 + (3/2)w2,
u3 = −7w1 − (5/7)w2,
w1 = (5/4)u1 + 0u2 − (1/2)u3,
w2 = (13/8)u1 + 1u2 − (3/4)u3.
4.3 Os vetores formam uma base para R3.
4.4 {w1, w2} é uma base para W , pois {w1, w2} é independente e w3 ∈G(w1, w2) já que w3 = 2w1 + 6w2. Portanto, dimW = 2.
279
O conjunto {w1, w2, (0, 0, 1, 0), (0, 0, 0, 1)} estende {w1, w2} a uma base
de R4.
4.5 (0, 0, 0, 1, 0) e (0, 0, 0, 0, 1).
Capítulo 4
1.2* Sejam u, v e w três vetores quaisquer em R3. Podemos supor que u e v
são não nulos.
(⇒) Se u, v e w são dependentes, existem a, b, c ∈ R não simultaneamente
nulos tais que au+ bv+ cw = 0. Se a 6= 0, temos que u = −(b/a)v− (c/a)w,
o que mostra que u, v e w pertencem ao plano que passa pela origem que tem
v e w como vetores base.
(⇐) Suponhamos que u, v e w pertencem a um plano π que passa pela origem.
Sabemos que π é um subespaço de R3 de dimensão dois. Assim, qualquer
conjunto com mais de dois elementos de π será dependente, em particular,
{u, v, w} é dependente.
1.3* Consideremos v1 = B − A = (3,−3, 1) e v2 = C − A = (0,−3, 1). Sejaπ o plano que passa pelos pontos A,B e C. Um vetor normal n ao plano π é
dado pelo produto vetorial de v1 e v2. Logo, n = v1 × v2 = (0, 3, 6) é um tal
vetor. Assim, 3y + 6z + d = 0 é uma equação geral do plano π, onde d é um
número real a se determinar. Como A ∈ π, segue que 3(2) + 6(0) + d = 0, o
que nos dá que d = −6. Assim, 3y + 6y − 6 = 0 é a equação geral do plano
π.
1.4 (a) {(1, 0, 3), (0, 1,−4)}. (b) {(2,−1, 3)}. (c) {(1, 1, 0), (0, 0, 1)}.
1.5x−24
= y + 4 = z−7−8 .
1.7 x− 2 = y − 3 = −z.
1.8 x = 2z+1−3 , y = 1− z.
1.9 k = −5.
280 CAPÍTULO 10. SOLUÇÕES E RESPOSTAS
1.11 k = −21/7.
1.13 x = −4/3t−2s, y = t, z = 2+s, sendo t e s números reais quaisquer.
1.14 x = 2− 7t+ 3s, y = −1 + t+ s, z = −5t+ 2s, sendo t e s números
reais quaisquer.
1.15 (2, 1, 0), (0,−3, 2), (3/2, 0, 1/2), respectivamente.
2.1* (a)⇒ (b): Suponhamos que r1 e r2 estejam num mesmo plano, digamos
π(Q, u1, u2). Ora, como r1 ⊂ π e r2 ⊂ π, segue que A1 ∈ π e A2 ∈ π. Assim,
existem m,n, t, s ∈ R tais que
A1 = Q+mu1 + nu2 (1)
e
A2 = Q+ tu1 + su2. (2)
Consequentemente, v ∈ G(u1, u2). Como A1 + v1 ∈ r1 e A2 + v2 ∈ r2, segueque existem a, b, c, d ∈ R tais que
A1 + v1 = Q+ au1 + bu2 (3)
e
A2 + v2 = Q+ cu1 + du2, (4)
já que A1 + v1, A2 + v2 ∈ π. Substituindo (1) em (3) e substituindo (2) em
(4), concluímos que v1 ∈ G(u1, u2) e v2 ∈ G(u1, u2). Mostramos, então, que
{v, v1, v2} ⊂ G(u1, u2). Como dim(G(u1, u2)) = 2, qualquer conjunto com
mais de dois vetores é dependente. Portanto, {v, v1, v2} é dependente.
(b)⇒ (a): Os vetores v, v1 e v2 pertencem a um mesmo plano que passa pela
origem, digamos π = π(0, w1, w2). Assim, existem a, b, c, d, e, f ∈ R tais que
v = aw1 + bw2,
v1 = cw1 + dw2,
v2 = ew1 + fw2.
281
Tome P ∈ r1. Então, existe t ∈ R tal que P = A1 + tv1 = A1 + (tc)w1 +
(td)w2, mostrando que r1⊂π(A1, w1, w2). A�rmamos que r2⊂π(A1, w1, w2)
também. Ora, se P ∈ r2, então existe t ∈ R tal que P = A2 + tv2 =
A1 + aw1 + bw2 + (te)w1 + (tf)w2 = A1 + (a+ te)w1 + (b+ tf)w2, mostrando
que P ∈ π(A1, w1, w2). Portanto, ambas as retas r1 e r2 pertencem ao plano
π(A1, w1, w2).
2.2* Note que
r1 = {(0,−3, 0) + t(1, 2,−1) ; t ∈ R}
e
r2 = {(1, 4, 0) + t(−36,−6, 3) ; t ∈ R}.
Devemos veri�car se o conjunto {(1, 2,−1), (−36,−6, 3), v}, em que v =
(1, 7, 0), é linearmente independente ou não. É fácil veri�car que é line-
armente independente. Assim, as retas são reversas.
2.3 Concorrentes.
2.5 a = 1, b = −2, c = 4.
2.6 a = 4, b = 3.
3.5 x = 10.
3.6* Devemos resolver pela regra de Cramer o sistema linear AX = B, onde
A =
[cos θ − sen θ
sen θ cos θ
], X =
[x′
y′
]e B =
[x
y
].
Como detA = 1, segue pela regra de Cramer que
x′ =detA1
detA= detA1 e y′ =
detA2
detA= detA2,
em que
A1 =
[x − sen θ
y cos θ
]e A2 =
[cos θ x
sen θ y
].
Portanto,
x′ = x cos θ + y sen θ e y′ = −x sen θ + y cos θ.
282 CAPÍTULO 10. SOLUÇÕES E RESPOSTAS
Capítulo 5
1.4* Sejam A,C ∈ V e sejam a, c ∈ R. Temos
T (aA+ cC) = (aA+ cC)B +B(aA+ cC)
= aAB + cCB + aBA+ cBC
= a(AB +BA) + c(CB +BC)
= aT (A) + cT (C),
mostrando que T é uma transformação linear.
1.6 (a) T (u+ v) = 3u+ v. (b) T (3v) = 3u+ 3v.
(c) T (−3u) = −6u. (d) T (u− 5v) = −3u− 5v.
1.7 (a), (c) e (e) são transformações lineares.
(b) Não, pois T (2(1, 1)) 6= 2T (1, 1).
(d) Não, pois T (−1(1, 1)) 6= −1T (1, 1).(f) É linear somente se a = 0.
1.8 (a) n = 2, m = 3 e T (x, y) = (−x+ 2y,−3x+ 2y, y − x).(b) n = m = 3 e T (x, y, z) = (−x+ 4y − z, 5x− 5y − z, x+ 3z).
2.1* Para mostrarmos que a imagem de T é um subespaço vetorial de W ,
devemos mostrar que se w1, w2 ∈ ImT e a ∈ R, então w1 + w2, aw1 ∈ ImT .
Ora, como w1, w2 ∈ ImT , existem v1, v2 ∈ V tais que T (v1) = w1 e T (v2) =
w2. Assim w1+w2 = T (v1)+T (v2) = T (v1+v2) e, portanto, w1+w2 ∈ ImT .
Como aw1 = aT (v1) = T (av1), temos que aw1 ∈ ImT .
2.2* (a) Pela de�nição, (x, y, z) ∈ KerT quando (x, y, z) é solução do sistema
linear x+ 2y − z = 0
y + 2z = 0
x+ 3y + z = 0.
Resolvendo o sistema acima, obtemos x = 5z e y = −2z, com z ∈ R. Assim,
KerT = {(5z,−2z, z) ; z ∈ R}. Como KerT é um subespaço de R3 e sua
dimensão é 1, KerT é uma reta que passa pela origem.
283
(b) x = 5t
y = −2t, t ∈ R
z = t
.
(c) Como dimKerT = 1, segue do teorema do núcleo e da imagem que
dim ImT = 2. Portanto, Im T é um plano que passa pela origem.
(d) Ora,
ImT = G(T (1, 0, 0), T (0, 1, 0), T (0, 0, 1))
= G(((1, 0, 1), (2, 1, 3), (−1, 2, 1))= G((1, 0, 1), (2, 1, 3)),
já que (−1, 2, 1) = −5(1, 0, 1) + 2(2, 1, 3). Portanto,
ImT = π(0, v1, v2),
onde v1 = (1, 0, 1) e v2 = (2, 1, 3). Assim,x = m+ 2n
y = n, m, n ∈ R
z = m+ 3n
são as equações paramétricas procuradas.
2.4* Se {v1, . . . , vn} é uma base de V , então {T (v1), . . . , T (vn)} gera ImT .
Como dim ImT = n, segue que {T (v1), . . . , T (vn)} é uma base de ImT e,
consequentemente, uma base de W , já que ImT = W . Suponhamos agora
que {T (v1), . . . , T (vn)} é uma base de W . Para provarmos que {v1, . . . , vn}é uma base de V , basta mostrar que este conjunto é independente. Sejam
a1, . . . , an ∈ R tais que a1v1+· · ·+anvn = 0. Temos a1T (v1)+· · ·+anT (vn) =0, portanto, ai = 0 para todo 1 ≤ i ≤ n.
2.6* Vamos resolver este exercício de dois modos:
284 CAPÍTULO 10. SOLUÇÕES E RESPOSTAS
1o) Usando R[x]3: se p(x)=ax3 + bx2 + cx + d∈W , então a − b + c − d=0.
Assim,p(x) = (b− c+ d)x3 + bx2 + cx+ d
= b(x3 + x2) + c(−x3 + x) + d(x3 + 1).(1)
Chamando q1(x) = x3 + x2, q2(x) = −x3 e q3(x) = x3 + 1 temos, por (1),
que W = G(q1(x), q2(x), q3(x)). Como {q1(x), q2(x), q3(x)} é independente,
segue que este conjunto é uma base de W . Portanto, dimW = 3.
2o) Usando o fato que R[x]3 é isomorfo ao R4: a função T : R[x]3 → R4 dada
por T (ax3 + bx2 + cx + d) = (a, b, c, d) é um isomor�smo. Como T (W ) =
{(b− c+ d, b, c, d) ; b, c, d ∈ R}, para determinarmos a dimensão de W , basta
determinarmos a dimensão de T (W ). Consideremos v1 = (1, 1, 0, 0), v2 =
(−1, 0, 1, 0) v3 = (1, 0, 0, 1). Como {v1, v2, v3} é independente e gera T (W ),
já que
(b− c, d, b, c, d) = bv1 + cv2 + dv3,
segue que {v1, v2, v3} é uma base para T (W ). Portanto, dimT (W ) = 3 e,
consequentemente, dimW = 3.
2.7 (a) KerT = {(x, x, x) ; x ∈ R}, Im T = R2.
(b) KerT = {(0, 1/2w, 3/2w,w) ; w ∈ R}, Im T = R3.
(c) KerT = {0}, Im T = {p(x) = ax3 + bx2 + cx ; a, b, c ∈ R}.
(d) KerT =
{[a b
a b
]; a, b ∈ R
}, Im T =
{[a b
−4a −4b
]; a, b ∈ R
}.
(e) KerT = {0}, Im T = {(a+ b, 2b+ c, a+ 2b− c, c) ; a, b, c ∈ R}.
2.8 injetivas: (c) e (e); sobrejetivas: (a) e (b).
2.10 T (x, y, z) = (0, 0, x+y+3z3
).
2.11 T (x, y, z, t) = (−x− y + z, t− 2x− y, 0).
2.12 T (x, y, z) = (x, 2x+ y, 3x− y).
2.13 T (x, y, z) = (y + z, 3y,−y + z, 2y − z).
2.16 (a) T (x, y, z) = (x, y). (b) Não é possível.
285
(c) T (x, y, z) = (0, 0, 0). (d) T (x, y, z) = (x+ z, 0, 0, 0).
2.19 É invertível;
T−1(x, y, z) = (4x− 2y − 3z,−11x+ 6y + 9z,−12x+ 7y + 10z).
2.20 (a) ai 6= 0 para todo 1 ≤ i ≤ n.
(b) T−1(x1, x2, . . . , xn) = (a−11 x1, a−12 x2, . . . , a
−1n xn).
2.22 T : V → W dada por T ([aij]) = [bij], com bij = aij se i > j e bij = 0 se
i < j.
3.1* Como T : R3 → R4 está dada por T (x, y, z) = (x + y, z, x− y, y + z) e
S : R2 → R3 está dada por S(x, y) = (2x+ y, x− y, x− 3y), obtemos
(T ◦ S)(x, y) = T (2x+ y, x− y, x− 3y)
= ((2x+ y) + (x− y), x− 3y, (2x+ y)− (x− y),(x− y) + (x− 3y))
= (3x, x− 3y, x+ 2y, 2x− 4y).
3.3 (a) (T + S)(x, y) = (x, x).
(b) (5T − 4S)(x, y) = (5x+ 9y,−4x).(c) (S ◦ T )(x, y) = (0, x+ y).
(d) (T ◦ S)(x, y) = (x− y, 0).(e) T 3(x, y) = T (x, y).
(f) S−3(x, y) = (−y, x).
Capítulo 6
1.2* (a) Sejam α = {v1, . . . , vn} uma base de Rn e β = {w1, . . . , wm} uma
base de Rm. Sejam u, v ∈ Rn e a ∈ R. Digamos que u = x1v1 + · · ·+ xnvn e
v = y1v1 + · · ·+ ynvn. Logo, u+ av = (x1 + ay1)v1 + · · ·+ (xn+ ayn)vn. Pela
de�nição de T ,
[T (u+ av)]β = A[u+ av]α = A[u]α + aA[v]α = [T (u)]β + a[T (v)]β,
286 CAPÍTULO 10. SOLUÇÕES E RESPOSTAS
onde a segunda igualdade segue das propriedades do produto de matrizes.
Logo, T é uma transformação linear.
(b) Pela de�nição da matriz [T ]αβ , sabemos que a primeira coluna desta
matriz é [T (v1)]β e usando a de�nição de T vemos que [T (v1)]β é precisamente
a primeira coluna de A. Procedemos de maneira análoga para as outras
colunas.
1.4* Basta mostrar que dim ImT = r, pois dimKerT = dimV − dim ImT .
O posto da matriz nos diz que temos r colunas linearmente independentes e
que qualquer conjunto com mais de r colunas será linearmente dependente.
Por outro lado, sabemos que as colunas da matriz geram a imagem e que
podemos obter a partir delas uma base para ImT escolhendo um subconjunto
linearmente independente maximal. Assim pelo visto acima, este conjunto
conterá exatamente r colunas.
1.5 T (x, y, z) = (−x+ 2z,−4x− y + 6z).
1.6
[T ]αβ =
3/2 −1 −1/2−1/2 1 −1/2−1/2 0 1/2
.
1.8 β = {(0, 1, 1), (1, 0, 0), (−3, 7, 1)}.
1.9
[T ]ββ =
1 1 1
0 2 4
0 0 4
.
1.11
[T ]αα =
0 0 0 1
1 0 0 0
0 1 0 0
0 0 1 0
.
287
1.12 a) Não existe v ∈ R2 tal que T (v) = I2.
(b) T (3,−1) =
[5 −35 4
].
2.1 T (x, y, z) = (23x+ 4
3y − 1
3z, 1
3x+ 2
3y + 1
3z, 2y − z)}.
2.2 (a) KerTA = {0}. (b) Im TA = G((1, 0, 1), (2, 1,−1)).(c) KerTB = {0}. (d) Im TB = R3.
(e) Ker(TB ◦ TA) = {0}. (f) Im (TB ◦ TA) = G((2,−1, 2), (2,−2, 3)).
3.1* Vejamos qual é a imagem de cada vetor da base canônica de R2. O vetor
(1, 0) se transforma no vetor (0, 1) pela rotação e depois no vetor (0, 1) pela
re�exão. Já o vetor (0, 1) se transforma no vetor (−1, 0) pela rotação e depoisno vetor (0,−1). Assim, a matriz desta transformação na base canônica é
A =
[1 0
0 −1
].
3.2* Vamos determinar a matriz da transformação na base canônica, pois
sabemos que a inversa desta matriz é a matriz da transformação inversa.
Temos
A =
1 0 0
0 1 0
0 0 −1
.Neste caso, a matriz inversa é igual à matriz. Assim a transformação inversa
é a própria transformação.
3.7 (a)
[0 0
3 0
]. (b)
[ √24−√24
−√24−√24
].
4.1 (a)
[13
43
13−2
3
],
[1 0
1 2
],
[1 0
−12
12
]. (b) [v]β =
[−23
].
4.2 α = {(1, 3), (−5,−12)}.
4.3
−1 1 0
1 0 0
0 −1 1
.
288 CAPÍTULO 10. SOLUÇÕES E RESPOSTAS
4.8* A demonstração de (a) não apresenta di�culdade. Vamos provar (b).
Escrevamos A = (aij) e B = (blk). Temos que (AB)ii =∑n
j=1 aijbji e
(BA)jj =∑n
i=1 bjiaij . Assim,
trAB =∑n
i=1
∑nj=1 aijbji =
∑nj=1
∑ni=1 aijbji
=∑n
j=1
∑ni=1 bjiaij = trBA.
Vamos provar (c). De fato, existe uma matriz invertível P tal que [T ]αα =
P−1[T ]ββP , logo
tr[T ]αα = trP−1[T ]ββP = tr[T ]ββP−1P = tr[T ]ββ.
Capítulo 7
1.1* (a) Sejam u = (x1, x2), v = (y1, y2) e w = (z1, z2) em R2 e seja c em R.Temos:
1. 〈u, u〉 = 19x21 +
14x22 ≥ 0;
2. 〈u, u〉 = 19x21 +
14x22 = 0 se, e somente se x1 = x2 = 0, ou equivalente-
mente u = 0;
3. 〈u, v〉 = 19x1y1 +
14x2y2 =
19y1x1 +
14y2x2 = 〈v, u〉;
4. 〈u+ v, w〉 = 19(x1 + y1)z1 +
14(x2 + y2)z2 = (1
9x1z1 +
14x2z2) + (1
9y1z1 +
14y2z2) = 〈u,w〉+ 〈v, w〉;
5. 〈cu, v〉 = 19(cx1)y1 +
14(cx2)y2 = c(1
9x1y1 +
14x2y2) = c〈u, v〉.
Portanto, a expressão dada de�ne um produto interno em R2.
(b) Se V é um espaço com produto interno, então o conjunto dos vetores v
de V que satisfazem ||v|| = 1 é chamado de círculo unitário de V . Assim, o
círculo unitário de R2 usando o produto interno em (a) é dado pelo conjunto
dos vetores v = (x, y) em R2 tais que
||v|| = 〈v, v〉1/2 =√
1
9x2 +
1
4y2 = 1,
289
ou equivalentemente,x2
9+y2
4= 1.
A equação acima representa uma elipse de centro na origem e eixos maior e
menor paralelos aos eixos coordenados (Figura 24).
(c) Se v = (x, y) ∈ R2, então
||v|| = 〈v, v〉1/2 =√x2 + y2 = 1,
se, e somente se
x2 + y2 = 1.
A equação acima representa um círculo de centro na origem e raio 1 (Fi-
gura 24).
(d) Sim. O círculo unitário com a norma dada pelo produto interno em (a)
tem um formato elíptico.
Figura 24
1.4 (a) 8. (b) −11. (c) 14.
2.1 (a) 0. (b)√22. (c)
√63.
290 CAPÍTULO 10. SOLUÇÕES E RESPOSTAS
2.2* Sejam u e v dois vetores de um espaço com produto interno. Então
||u+ v||2 + ||u− v||2 = 〈u+ v, u+ v〉+ 〈u− v, u− v〉= 〈u, u〉+ 2〈u, v〉+ 〈v, v〉+ 〈u, u〉 − 2〈u, v〉+ 〈v, v〉
= 2〈u, u〉+ 2〈v, v〉= 2||u||2 + 2||v||2.
2.9* Faremos a prova por indução sobre n. Se n = 2, então
||v1 + v2||2 = 〈v1 + v2, v1 + v2〉= 〈v1, v1〉+ 2〈v1, v2〉+ 〈v2, v2〉= ||v1||2 + ||v2||2,
já que 〈v1, v2〉 = 0. Suponhamos agora o resultado válido para n = k − 1.
Vamos mostrar que ele é válido para n = k. De fato, pelo caso n = 2 e pela
hipótese de indução, segue que
||v1 + · · ·+ vk−1 + vk||2 = ||v1 + · · ·+ vk−1||2 + ||vk||2
= ||v1||2 + · · ·+ ||vk−1||2 + ||vk||2,
pois 〈v1 + · · · + vk−1, vk〉 = 〈v1, vk〉 + · · · + 〈vk−1, vk〉 = 0. Por indução, o
resultado vale para todo n ∈ N \ {0}.
2.12* O conjunto {u, v} é uma base de W . Para mostrar que um vetor v
em R5 ∈ W⊥, ou seja, que 〈v, w〉 = 0 para todo w ∈ W , basta mostrar
que 〈v, u〉 = 〈v, v〉 = 0. Tomemos v = (x, y, z, w, t) ∈ R5. Temos que
〈v, u〉 = 〈v, v〉 = 0 se, e somente se,x+ 2y + 3z − w + 2t = 0
2x+ y + 3z − 2w − t = 0.
291
Equivalentemente,
x = 5z + w +4
3t e y = −z − 5
3t,
onde z, w, t ∈ R.Portanto,
W⊥ = {(5z + w +4
3t,−z − 5
3t, z, w, t) ; z, w, t ∈ R}.
Assim,
α = {(5,−1, 1, 0, 0), (1, 0, 0, 1, 0), (4/3,−5/3, 0, 0, 1)}
é uma base para W⊥.
2.13 Basta veri�car que 〈v, v1〉 = 0 e 〈v, v2〉 = 0, pois 〈v, av1 + bv2〉 =
a〈v, v1〉+ b〈v, v2〉 = 0, para quaisquer a e b em R.
2.14 x = 1 + t, y = −2t, z = −3t, sendo t ∈ R.
3.1 (a) Suponhamos que α = {v1, v2, . . . , vn}. Então
v = a1v1 + a2v2 + · · ·+ anvn,
já que a1, a2, . . . , an são as coordenadas de v na base α. Como α é um
conjunto ortogonal, segue pelo Problema 2.9 que
||v||2 = ||a1v1 + a2v2 + · · ·+ anvn||2
= ||a1v1||2 + ||a2v2||2 + · · ·+ ||anvn||2.
Pela Proposição 7.2.2(c), temos
||a1v1||2 + ||a2v2||2 + · · ·+ ||anvn||2
= |a1|2||v1||2 + |a2|2||v2||2 + · · ·+ |a2n||vn||2
= a21 + a22 + · · ·+ a2n,
pois ||v1|| = ||v2|| = · · · = ||vn|| = 1. Portanto,
||v||2 = a21 + a22 + · · ·+ a2n.
292 CAPÍTULO 10. SOLUÇÕES E RESPOSTAS
Extraindo as raízes quadradas de ambos os lados da igualdade acima obtemos
||v|| =√a21 + a22 + · · ·+ a2n.
(b) Por de�nição, d(v, w) = ||v − w||. Como
v − w = (a1 − b1)v1 + (a2 − b2)v2 + · · ·+ (an − bn)vn,
segue do item (a) que
d(v, w) =√
(a1 − b1)2 + (a2 − b2)2 + · · ·+ (an − bn)2.
(c) Ora,
〈v, w〉 = 〈a1v1 + a2v2 + · · ·+ anvn, b1v1 + b2v2 + · · ·+ bnvn〉= a1b1〈v1, v1〉+ a1b2〈v1, v2〉+ · · ·+ a1bn〈v1, vn〉+ a2b1〈v2, v1〉+ a2b2〈v2, v2〉+ · · ·+ a2bn〈2, vn〉+ · · ·+ anb1〈vn, v1〉+ anb2〈vn, v2〉+ · · ·+ anbn〈vn, vn〉
= a1b1 + a2b2 + · · ·+ anbn,
já que 〈vi, vj〉 = 0 sempre que i 6= j e 〈vi, vi〉 = 1 para todo i.
3.4* (a) Pelo Teorema 14, v = v1+v2 onde v1 = projWv ∈ W e v2 = v−v1 ∈W⊥. Como v1 ∈ W e {w1, w2, . . . , wn} é uma base de W , v1 se escreve de
modo único como combinação linear dos vetores w1, w2, . . . , wn, digamos
v1 = a1w1 + a2w2 + · · ·+ anwn. (1)
Vamos mostrar que, para cada 1 ≤ i ≤ n, ai = 〈v, wi〉. Ora como
v − v1 ∈ W⊥, segue que 〈v − v1, w〉 = 0 para todo w ∈ W . Em particular,
〈v − v1, wi〉 = 0 para todo 1 ≤ i ≤ n. Consequentemente,
〈v, wi〉 = 〈v1, wi〉 para todo 1 ≤ i ≤ n.
Fixemos agora 1 ≤ i ≤ n. Temos
〈v, wi〉 = 〈v1, wi〉 = 〈a1w1 + a2w2 + · · ·+ anwn, wi〉 = ai, (2)
293
pois {w1, w2, . . . , wn} é um conjunto ortonormal. Substituindo (2) em (1),
obtemos
projWv = 〈v, w1〉w1 + 〈v, w2〉w2 + · · ·+ 〈v, wn〉wn.
(b) A demonstração é análoga à prova acima, sendo que, neste caso, para
cada 1 ≤ i ≤ n
〈v, wi〉 = ai〈wi, wi〉 = ai||wi||2
e, consequentemente,
ai =〈v, wi〉||wi||2
.
3.5 {w1, w2, w3, w4}, sendo w1 = (0, 2, 1, 0), w2 = (1,−1/5, 2/5, 0),w3 = (1/2, 1/2,−1,−1) e w4 = ( 4
15, 415,− 8
15, 45).
3.6 (−1/2, 5/2,−2, 4).
3.7 {(2/√5, 1/√5, 0), (−1/
√5, 2/√5, 0), (0, 0, 1)}.
4.1* Sejam S e T operadores lineares num espaço com produto interno de
dimensão �nita V e seja k ∈ R. Sejam u, v ∈ V quaisquer.
(a) 〈(S + T )(u), v〉 = 〈S(u), v〉+ 〈T (u), v〉 = 〈u, S∗(v)〉+ 〈u, T ∗(u)〉= 〈u, (S∗ + T ∗)(v)〉;
Assim, (T + S)∗ = T ∗ + S∗.
(b) 〈(kT )(u), v〉 = k〈T (u), v〉 = 〈u, T ∗(v)〉 = 〈u, kT ∗(v)〉;
Logo, (kT )∗ = kT ∗.
(c) 〈(ST )(u), v〉 = 〈T (u), S∗(v)〉 = 〈u, T ∗(S∗(v))〉;
Assim, (ST )∗ = T ∗S∗.
(d) 〈T ∗(u), v〉 = 〈v, T ∗(u)〉 = 〈T (v), u〉 = 〈u, T (v)〉.
Logo, (T ∗)∗ = T .
4.2 u = (1, 4,−5).
4.3 T ∗(x, y, z) = (2x+ 3y, 2x+ z,−4y).
294 CAPÍTULO 10. SOLUÇÕES E RESPOSTAS
4.6 (a), (c) e (d) são operadores ortogonais.
4.7* A segunda linha (a, b, c) deve satisfazer duas condições: a2+b2+c2 = 1 e
a+2b+2c = 0. Assim, 5b2+5c2+8bc = 1. Escolhendo c = 0, obtemos b =√55
e a = −2√5
5. Para a terceira linha (d, e, f), queremos que d2 + e2 + f 2 = 1,
d + 2e + 2f = 0 e que −2e + f = 0, ou seja, devemos ter que d = −2√5
15,
e = −4√5
15e f = 5
√5
15.
4.9 (a)
[2√5
1√5
− 1√5
2√5
].
(b)
13−2
323
−23−2
3−1
3
−23
13
23
.
Capítulo 8
2.2* Por indução sobre n. Para n = 2, o resultado é óbvio. Suponhamos o
resultado válido para n − 1 e seja A = [aij] uma matriz triangular superior
de ordem n. Então aij = 0 para todo j < i.
Pelo Teorema 8.2.1,
detA = a11 det(A(1|1)),
já que ai1 = 0 para todo 2 ≤ i ≤ n. Como a matriz A(1|1) é uma matriz
triangular superior de ordem n − 1, com a22, . . . , ann como elementos da
diagonal principal, temos, pela hipótese de indução, que
detA(1|1) = a22 . . . ann,
o que termina a prova o resultado.
2.3* Seja a ∈ R. Fazendo o desenvolvimento de Laplace pela primeira linha
295
obtemos
detA = det
a a2 a3
a2 a3 a4
a3 a4 a5
− det
1 a2 a3
1 a3 a4
1 a4 a5
+det
1 a a3
1 a2 a4
1 a3 a5
− det
1 a a2
1 a2 a3
1 a3 a4
= a det
a a a3
a2 a2 a4
a3 a3 a5
− a det1 a2 a2
1 a3 a3
1 a4 a4
+a2 det
1 a a
1 a2 a2
1 a3 a3
− det
1 a a
1 a2 a2
1 a3 a3
.Note que cada uma das matrizes anteriores tem duas colunas iguais e, por-
tanto, cada uma delas tem determinante nulo. Consequentemente, detA = 0.
4.1 (a) {(0, 0, 0)}. (b) {(−1, 3, 1,−1)}.
Capítulo 9
1.1* A(c) = {v ∈ V ;T (v) = cv}. Tomemos v e w em A(c) e tomemos a e b
em R. Pela linearidade de T , T (av+ bw) = aT (v)+ bT (w). Como T (v) = cv
e T (w) = cw, segue que T (av+bw) = a(cv)+b(cw) = c(av+bw), mostrando
que av + bw ∈ A(c). Portanto, A(c) é um subespaço vetorial de V .
1.2 (a) Não tem autovalores e autovetores.
(b) 1, {(x,−x,−x) ;x 6=0}; −1, {(0,−3x, x) ;x 6=0}; 2, {(0, 0, x) ;x 6=0}.
(c) 1, {ax2 + bx+ b ; a 6= 0 ou b 6= 0}; −1, {ax− a ; a 6= 0}.
296 CAPÍTULO 10. SOLUÇÕES E RESPOSTAS
(d) 1,
{[0 0
0 a
]; a 6= 0
};
−1,
{[−2a a
a 0
]; a 6= 0
};
−2,
{[a 0
−a 0
]; a 6= 0
}.
1.3 (a) c = 0, {(x,−x) ;x 6= 0}; c = 4, {(x, x) ;x 6= 0}.
(b) c = 1, {(−y − 2z, y, z) ; y 6= 0 ou z 6= 0}; c = 2, {(0, y,−y) ; y 6= 0}.
(c) c = 0, {(0, 0, 0, x) ;x 6= 0}; c = 2, {(−x,−2y, x, y) ;x 6= 0 ou y 6= 0};c = 4, {(x, 0, 0, 0) ;x 6= 0}.
1.5 T (x, y, z) = (x, 2x− y + 2z, 4x− 4y + 5z).
1.6* Seja (x, y, z) em R3. Então,
(x, y, z) = (x+ y − z)(1, 1, 1) + (−x− y + 2z)(0, 1, 1) + (y − z)(−1, 1, 0),
o que pela linearidade de T nos dá que
T (x, y, z) = (x+y−z)T (1, 1, 1)+(−x−y+2z)T (0, 1, 1)+(y−z)T (−1, 1, 0).
Como T (1, 1, 1) = (1, 1, 1), T (0, 1, 1) = (0, 2, 2) e T (−1, 1, 0) = (1,−1, 0),segue que
T (x, y, z) = (x+ y − z)(1, 1, 1) + (−x− y + 2z)(0, 2, 2) + (y − z)(1,−1, 0)= (x+ 2y − 2z),−x− 2y + 4z,−x− y + 3z).
1.8 1 0 0
−1 −12−1
2
1 −12−1
2
.
297
2.1* Calcular os autovalores e os autovetores de uma matriz A nada mais é
do que calcular os autovalores e os autovetores de TA. Assim,
det
[c− 2 3
1 c− 4
]= c2 − 6c+ 5,
nos dando que c = 1 e c = 5 são os autovalores de A. O conjunto solução do
sistema linear [−1 3
1 −3
][x
y
]=
[0
0
]é dado por {(3x, x) ;x ∈ R} e o conjunto solução do sistema linear[
3 3
1 1
][x
y
]=
[0
0
]
é dado por {(x,−x) ;x ∈ R}. Assim, os autovetores associados a c = 1 são
os vetores da forma (3x, x), x 6= 0 e os autovetores associados a c = 4 são os
vetores da forma (x,−x), x 6= 0.
2.2* Seja A ∈M(n). A matriz A é invertível se, e somente se, KerTA = {0}.Agora, KerTA = {0} se, e somente se, não existe v ∈ Rn, não nulo, tal que
TA(v) = 0 = 0 · v. Portanto, A é invertível se, e somente se, c = 0 não é um
autovalor de A.
3.1* Sabemos que o cálculo dos autovalores de T independe da base consi-
derada em R3. Assim,
det
t− 1 −2 0
−1 t+ 1 0
1 0 t− 2
= (t− 2)(t−√3)(t+
√3).
Portanto, T tem três autovalores distintos. Como dimR3 = 3, existe uma
base de R3 formada de autovetores de T e, assim, T é diagonalizável.
3.2 (a) verdadeiro (b) verdadeiro (c) falso (d) falso
3.3 (a) Não é diagonalizável.
298 CAPÍTULO 10. SOLUÇÕES E RESPOSTAS
(b) P =
[1 4
−1 3
]. (c) P =
0 1 −11 0 0
−1 0 1
.3.4 (a) c 6= 1. (b) c = 0.
3.5 (a) I3. (b) A. (c) I3.
3.6* Seja α a base canônica de R2. Então,
P[T ]αα(t) = det
[t− 2 2
1 t− 3
]= t2 − 5t+ 4,
o que nos dá que c1 = 1 e c2 = 4 são os autovalores de T . O conjunto solução
do sistema linear [−1 2
1 −2
][x
y
]=
[0
0
]e o conjunto solução do sistema linear[
2 2
1 1
][x
y
]=
[0
0
]
é o autoespaço associado a c1 = 1 e o autoespaço associado a c2 = 4, respec-
tivamente. Assim, (2, 1) é um autovetor associado a c1 = 1 e (1,−1) é um
autovetor associado a c2 = 4. Portanto, β = {(2, 1), (1,−1)} é uma base de
R2 tal que [T ]ββ é uma matriz diagonal.
5.1* (a) Temos que
x2 − 4x− 2y + 4 = 0 ⇐⇒ (x− 2)2 = 2y ⇐⇒ y =1
2(x− 2)2.
Portanto, a equação representa uma parábola.
(b) A equação 4x2 − 3y2 + 24xy − 156 = 0 equivale a equação matricial
[x y
] [ 4 12
12 −3
][x
y
]+ [−156] = [0]. (1)
299
A matriz
A =
[4 12
12 −3
]é simétrica. Logo, pelo Teorema Espectral, A é ortogonalmente diagona-
lizável. De fato, c1 = 13 e c2 = −12 são os autovalores de A. O vetor
v1 = (4/5, 3/5) é um autovetor associado a c1 = 13 e o vetor v2 = (−3/5, 4/5)é um autovetor associado a c2 = −12. Logo, a base β = {v1, v2} é uma base
ortonormal de R2 formada por autovetores. Seja P = [IR2 ]βα, onde α é a base
canônica de R2. Chame D = P−1AP . Temos
P =
[45−3
535
45
]e D =
[13 0
0 −12
]. (2)
Chamando [v]β de
[x′
y′
], onde v = (x, y) ∈ R2, de (1) e (2) obtemos a equação
matricial [x′ y′
] [13 0
0 −12
][x′
y′
]+ [−156] = [0],
que equivale a equação
13x′2 − 12y′2 − 156 = 0,
ou seja,x′2
12− y′2
13= 1.
Portanto, a equação 4x2 − 3y2 + 24xy − 156 = 0 representa uma hipérbole.
5.2
(a) ∅. (b) elipse. (c) duas retas paralelas.
(d) uma reta. (e) hipérbole. (f) elipse.
(g) parábola. (h) elipse. (i) hipérbole.