273
T ´ opicos de ´ Algebra Linear: Decomposic ¸ ˜ oes Matriciais e Aplicac ¸ ˜ oes Humberto Jos´ e Bortolossi Universidade Federal Fluminense VERS ˜ AO 1.0 2 de fevereiro de 2017 Por favor, envie suas sugest˜oes, corre¸c˜ oes e cr´ ıticas para [email protected]ff.br.

Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

  • Upload
    others

  • View
    2

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page

Topicos de Algebra Linear:Decomposicoes Matriciais e Aplicacoes

Humberto Jose BortolossiUniversidade Federal Fluminense

VERSAO 1.0

2 de fevereiro de 2017

Por favor, envie suas sugestoes, correcoes e crıticas [email protected].

Page 2: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 1

Sumario

1 Espacos Vetoriais 41.1 Espacos Vetoriais . . . . . . . . . . . . . . . . . . . . . 41.2 Subespacos Vetoriais . . . . . . . . . . . . . . . . . . . 71.3 Operacoes com Subespacos Vetoriais . . . . . . . . . . 81.4 Combinacoes Lineares e Geradores . . . . . . . . . . . 101.5 Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . 131.6 Espacos Finitamente Gerados . . . . . . . . . . . . . . 141.7 Coordenadas . . . . . . . . . . . . . . . . . . . . . . . 181.8 Aplicacao: EDOs . . . . . . . . . . . . . . . . . . . . . 191.9 Exercıcios . . . . . . . . . . . . . . . . . . . . . . . . . 22

2 Revisao: Transformacoes Lineares 272.1 Transformacoes Lineares . . . . . . . . . . . . . . . . . 272.2 Nucleo e Imagem . . . . . . . . . . . . . . . . . . . . . 322.3 Isomorfismos . . . . . . . . . . . . . . . . . . . . . . . 342.4 A Matriz de Uma Transformacao Linear . . . . . . . . 352.5 Posto . . . . . . . . . . . . . . . . . . . . . . . . . . . 382.6 Exercıcios . . . . . . . . . . . . . . . . . . . . . . . . . 40

3 Sistemas Lineares e A Decomposicao LU 453.1 Cisalhamentos . . . . . . . . . . . . . . . . . . . . . . 453.2 Motivacao: Sistemas Lineares 2 por 2 . . . . . . . . . 503.3 Motivacao: Sistemas Lineares 3 por 3 . . . . . . . . . 533.4 A Decomposicao LU . . . . . . . . . . . . . . . . . . . 573.5 Resolucao de Sistemas Lineares . . . . . . . . . . . . . 683.6 Pivotamento Parcial . . . . . . . . . . . . . . . . . . . 72

1

Page 3: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 2

2 Sumario

3.7 Aplicacao: O Metodo de Newton . . . . . . . . . . . . 823.8 Variantes da Decomposicao LU . . . . . . . . . . . . . 853.9 Aplicacao: Classificacao de Pontos Crıticos . . . . . . 863.10 Exercıcios . . . . . . . . . . . . . . . . . . . . . . . . . 90

4 Ortogonalidade e A Decomposicao QR 1004.1 Produto Interno e Norma . . . . . . . . . . . . . . . . 1004.2 Ortogonalidade . . . . . . . . . . . . . . . . . . . . . . 1054.3 Gram-Schmidt . . . . . . . . . . . . . . . . . . . . . . 1074.4 Matrizes Ortogonais . . . . . . . . . . . . . . . . . . . 1124.5 A Decomposicao QR . . . . . . . . . . . . . . . . . . . 1144.6 Aplicacao: O Metodo dos Mınimos Quadrados . . . . 1164.7 Householder e Givens . . . . . . . . . . . . . . . . . . 1234.8 Subespacos Ortogonais . . . . . . . . . . . . . . . . . . 1304.9 O Teorema Fundamental da Algebra Linear . . . . . . 1324.10 Exercıcios . . . . . . . . . . . . . . . . . . . . . . . . . 134

5 SVD e A Pseudoinversa 1435.1 Autovalores e O Teorema Espectral . . . . . . . . . . . 1435.2 Valores Singulares . . . . . . . . . . . . . . . . . . . . 1505.3 A Decomposicao em Valores Singulares (SVD) . . . . 1545.4 Aplicacao: Imagens Digitais . . . . . . . . . . . . . . . 1605.5 Mınimos Quadrados e A Pseudoinversa . . . . . . . . . 1625.6 Exercıcios . . . . . . . . . . . . . . . . . . . . . . . . . 167

6 Programacao Linear 1696.1 Definicoes . . . . . . . . . . . . . . . . . . . . . . . . . 1696.2 O Teorema Fundamental da Programacao Linear . . . 1736.3 Relacoes com Convexidade . . . . . . . . . . . . . . . . 1776.4 O Metodo Simplex . . . . . . . . . . . . . . . . . . . . 1816.5 Dualidade . . . . . . . . . . . . . . . . . . . . . . . . . 1916.6 Exercıcios . . . . . . . . . . . . . . . . . . . . . . . . . 197

7 Teoria dos Jogos 1997.1 O que e um jogo? . . . . . . . . . . . . . . . . . . . . . 1997.2 Solucoes de um jogo em estrategias puras . . . . . . . 2027.3 Estrategias mistas . . . . . . . . . . . . . . . . . . . . 2137.4 Solucoes de um jogo em estrategias mistas . . . . . . . 217

Page 4: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 3

Sumario 3

7.5 O Teorema de Equilıbrio de Nash . . . . . . . . . . . . 2277.6 Jogos de Soma Zero . . . . . . . . . . . . . . . . . . . 2287.7 Exercıcios . . . . . . . . . . . . . . . . . . . . . . . . . 242

A Respostas de Exercıcios Selecionados 248

Bibliografia 267

Indice 269

Page 5: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 4

Capıtulo 1

Espacos Vetoriais

1.1 Espacos Vetoriais

Definicao 1.1 (Espaco Vetorial) Sejam

(1) V �= ∅ um conjunto de vetores,

(2) K = Q ou K = R ou K = C um conjunto de escalares,

(3) +: V × V → V(u,v) �→ u+ v

uma operacao de adicao de veto-

res e

(4) · : K× V → V(α,v) �→ α · v

uma operacao de multiplicacao de

vetor por escalar.

Diremos que (V,K,+, · ) e um espaco vetorial se as seguintescondicoes forem satisfeitas ∀α, β ∈ K e ∀u,v,w ∈ V :

(A1) (comutatividade) u+ v = v+ u,

4

Page 6: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 5

[SEC. 1.1: ESPACOS VETORIAIS 5

(A2) (associatividade) (u+ v) +w = u+ (v+w),

(A3) (vetor nulo) ∃0 ∈ V tal que ∀v ∈ V , v+ 0 = 0+ v = v,

(A4) (inverso aditivo) ∀v ∈ V , ∃w ∈ V tal que v+w = 0,

(M1) (associatividade) (α · β) · v = α · (β · v),(M2) (multiplicacao por 1) 1 · v = v,

(D1) (distributividade) α · (u+ v) = α · u+ α · v,(D2) (distributividade) (α+ β) · v = α · v+ β · v.

Notacoes: se w e o inverso aditivo de v, entao escreveremos w = −v.Tambem escrevemos u− v para representar u+ (−v).

Exemplo 1.1 (O espaco vetorial das n-uplas ordenadas)O conjunto de vetores

V = Rn = {(v1, . . . , vn) | v1 ∈ R, . . . , vn ∈ R}com o conjunto de escalares K = R e as operacoes

u+ v = (u1, . . . , un) + (v1, . . . , vn) = (u1 + v1, . . . , un + vn),

α · u = α · (u1, . . . , un) = (α · u1, . . . , α · un)

constituem um espaco vetorial (exercıcio!).

Exemplo 1.2 (O espaco vetorial das sequencias reais)O con-junto de vetores

V = R∞ = {(v1, . . . , vi, . . .) | v1 ∈ R, . . . , vi ∈ R, . . .}com o conjunto de escalares K = R e as operacoes

u+ v = (u1, . . . , ui, . . .) + (v1, . . . , vi, . . .) = (u1 + v1, . . . , ui + vi, . . .),

α · u = α · (u1, . . . , ui, . . .) = (α · u1, . . . , α · ui, . . .)

constituem um espaco vetorial (exercıcio!).

Page 7: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 6

6 [CAP. 1: ESPACOS VETORIAIS

Exemplo 1.3 (O espaco vetorial das matrizes reais m × n)O conjunto de vetores

V = Mm×n(R)

=

⎧⎪⎨⎪⎩⎡⎢⎣ a11 · · · a1n

.... . .

...am1 · · · amn

⎤⎥⎦∣∣∣∣∣∣∣ aij ∈ R para 1 ≤ i ≤ m e 1 ≤ j ≤ n

⎫⎪⎬⎪⎭com o conjunto de escalares K = R e as operacoes

u+ v =

⎡⎢⎣ u11 · · · u1n

.... . .

...um1 · · · umn

⎤⎥⎦+

⎡⎢⎣ v11 · · · v1n...

. . ....

vm1 · · · vmn

⎤⎥⎦=

⎡⎢⎣ u11 + v11 · · · u1n + v1n...

. . ....

um1 + vm1 · · · umn + vmn

⎤⎥⎦ ,

α · u = α ·

⎡⎢⎣ u11 · · · u1n

.... . .

...um1 · · · umn

⎤⎥⎦ =

⎡⎢⎣ α · u11 · · · α · u1n

.... . .

...α · um1 · · · α · umn

⎤⎥⎦constituem um espaco vetorial (exercıcio!).

Exemplo 1.4 (O espaco vetorial das funcoes reais) O con-junto de vetores

V = F(X,R)

= conjunto de todas as funcoes f de X em R com X �= ∅

com o conjunto de escalares K = R e as operacoes

f + g : X → Rx �→ (f + g)(x)= f(x) + g(x)

,

α · f : X → Rx �→ (α · f)(x) = α · f(x)

constituem um espaco vetorial (exercıcio!).

Page 8: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 7

[SEC. 1.2: SUBESPACOS VETORIAIS 7

Proposicao 1.1 Em um espaco vetorial valem as seguintespropriedades:

(1) O vetor nulo e unico.

(2) O inverso aditivo de um vetor e unico.

(3) Se u+w = v+w, entao u = v.

(4) 0 · v = 0 e α · 0 = 0.

(5) Se α �= 0 e v �= 0, entao α · v �= 0.

(6) (−1) · v = −v.(7) −0 = 0.

(8) −(−v) = v.

Demonstracao: Vamos demonstrar que o vetor nulo de um espacovetorial e unico. Considere 0 e 0 dois vetores nulos do espaco vetorial.Temos que:

0(A3)= 0+ 0

(A3)= 0.

As demonstracoes das demais propriedades ficam como exercıcio.

1.2 Subespacos Vetoriais

Definicao 1.2 (Subespaco Vetorial) Sejam (V,K,+, · )um espaco vetorial. Um subespaco vetorial de V e um sub-conjunto W ⊆ V com as seguintes propriedades:

(1) 0 ∈W .

(2) Se w1,w2 ∈ W , entao w1 +w2 ∈W .

(3) Se α ∈ K e w ∈W , entao α ·w ∈W .

Page 9: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 8

8 [CAP. 1: ESPACOS VETORIAIS

Note que, em particular,(W,K, +|W×W , · |

K×W)e, em si mesmo,

um espaco vetorial. {0} e V sao sempre subespacos de V , para qual-quer espaco vetorial V .

Exemplo 1.5 W = {(v1, v2, . . . , vn) ∈ Rn | v1 = 0} e subespacode Rn.

Exemplo 1.6 W = {A ∈ Mn×n(R) | A = AT } (conjunto das matri-zes reais simetricas) e subespaco deMn×n(R).

Exemplo 1.7 W = {f ∈ F(R,R) | f e contınua} (conjunto das fun-coes reais contınuas) e subespaco de F(R,R).

Exemplo 1.8 O conjunto definido por

W =

⎧⎪⎨⎪⎩(x1, . . . , xn) ∈ Rn

∣∣∣∣∣∣∣a11 · x1 + · · · + a1n · xn = 0,

...am1 · x1 + · · · + amn · xn = 0.

⎫⎪⎬⎪⎭(solucoes de um sistema linear homogeneo) e subespaco de Rn.

1.3 Operacoes com Subespacos Vetoriais

Proposicao 1.2 (Intersecao) Seja {Wλ}λ∈Λ uma colecao desubespacos vetoriais de um espaco vetorial V . Entao, a in-tersecao

W =⋂λ∈Λ

tambem e um subespaco vetorial de V .

Demonstracao:

(1) Para todo λ ∈ Λ, temos que 0 ∈ Wλ, pois cada Wλ e subespacovetorial de V . Logo, 0 ∈W =

⋂λ∈Λ Wλ.

Page 10: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 9

[SEC. 1.3: OPERACOES COM SUBESPACOS VETORIAIS 9

(2) Se w1,w2 ∈ W =⋂

λ∈Λ Wλ, entao w1,w2 ∈ Wλ, para todoλ ∈ Λ. Como cada Wλ e subespaco vetorial, segue-se que w1 +w2 ∈Wλ, ∀λ ∈ Λ. Logo, w1 +w2 ∈W =

⋂λ∈ΛWλ.

(3) Se α ∈ K e w ∈W =⋂

λ∈ΛWλ, entao w ∈ Wλ, para todo λ ∈ Λ.Como cada Wλ e subespaco vetorial, segue-se que α · w ∈ Wλ,∀λ ∈ Λ. Logo, α ·w ∈W =

⋂λ∈ΛWλ.

Observacao. Uniao de subespacos nao e, em geral, um subespaco.Note que W1 = {(x, 0) ∈ R2 | x ∈ R} e W2 = {(0, y) ∈ R2 | y ∈ R}sao subespacos de R2, mas W = W1 ∪W2 nao e subespaco de R2.De fato: w1 = (1, 0) ∈ W , w2 = (0, 1) ∈ W , mas w = w1 + w2 =(1, 1) �∈ W .

Proposicao 1.3 (Soma) Sejam W1 e W2 dois subespacos deum espaco vetorial V . Entao, a soma

W = W1 +W2 = {w1 +w2 ∈ V | w1 ∈W1 e w2 ∈ W2}

tambem e um subespaco de V .

Demonstracao: Exercıcio.

Definicao 1.3 (Soma Direta) Dizemos que W e soma diretados subespacos W1 e W2 se

W1 +W2 = W e W1 ∩W2 = {0}.

Notacao: W = W1 ⊕W2. Mais geralmente, dizemos que W e asoma direta dos subespacos W1, . . . , Wk se, e somente se,

W = W1 + · · ·+Wk

e

∀j ∈ {1, . . . , k},Wj ∩ (W1 + · · ·+Wj−1 +Wj+1 + · · ·Wk) = {0}.

Page 11: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 10

10 [CAP. 1: ESPACOS VETORIAIS

Exemplo 1.9 Sao exemplos de soma direta de subespacos vetoriais:

(1) R2 = W1 ⊕ W2, onde W1 = {(x, 0) ∈ R2 | x ∈ R} e W2 ={(0, y) ∈ R2 | y ∈ R};

(2) Mn×n(K) = W1 ⊕W2, onde W1 = {A ∈ Mn×n(K) | A = AT } eW2 = {A ∈Mn×n(K) | A = −AT };

(3) F(R,R) = W1 ⊕ W2, onde W1 = {f ∈ F(R,R) | f e par} eW2 = {f ∈ F(R,R) | f e ımpar}.

1.4 Combinacoes Lineares e Geradores

Definicao 1.4 Seja V um espaco vetorial.

(1) Um vetor v ∈ V e uma combinacao linear dos vetoresv1, . . . ,vk ∈ V se existem escalares α1, . . . , αk ∈ K taisque

v = α1 · v1 + · · ·+ αk · vk =

k∑i=1

αi · vi.

(2) Seja B um subconjunto de V . O subespaco gerado por B,denotado por [B], e o conjunto formado por todo todo ele-mento de V que e uma combinacao linear de um numerofinito de elementos de B. Convencao: [∅] = {0}.

(3) Se [B] = V , dizemos que B e um conjunto de geradoresde V .

Exemplo 1.10

(1) [(1, 0), (0, 1)] = R2.

Page 12: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 11

[SEC. 1.4: COMBINACOES LINEARES E GERADORES 11

(2) [(1, 0), (0, 1), (1, 1)] = R2.

(3) [R2] = R2.

(4) [1, x, . . . , xn, . . .] = P(R), onde P(R) e o espaco vetorial dospolinomios com coeficientes reais.

Observacao (combinacoes lineares e sistemas lineares). Noteque ⎧⎪⎨⎪⎩

a11 · x1 + · · · + a1n · xn = b1,...

am1 · x1 + · · · + amn · xn = bm.

x1 ·

⎡⎢⎣ a11...

am1

⎤⎥⎦+ · · ·+ xn ·

⎡⎢⎣ a1n...

amn

⎤⎥⎦ =

⎡⎢⎣ b1...bm

⎤⎥⎦ .

Moral: o sistema linear possui solucao se, e somente se, o vetor(b1, . . . , bm) pode ser escrito como combinacao linear dos vetores(a11, . . . , am1), . . . , (a1n, . . . , amn).

Observacao (combinacoes lineares e multiplicacao de ma-trizes). Note que

ym×1 = Bm×r · xr×1 ⎡⎢⎢⎣

y1...ym

⎤⎥⎥⎦ =

⎡⎢⎢⎣ |b1

|· · ·

|br

|

⎤⎥⎥⎦ ·⎡⎢⎢⎣

x1

...xr

⎤⎥⎥⎦ ⎡⎢⎢⎣

y1...ym

⎤⎥⎥⎦ = x1 ·

⎡⎢⎢⎣ |b1

|

⎤⎥⎥⎦+ · · ·+ xr ·

⎡⎢⎢⎣ |br

|

⎤⎥⎥⎦ .

Page 13: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 12

12 [CAP. 1: ESPACOS VETORIAIS

Moral: se y = B · x, entao y e combinacao linear das colunas damatriz B.

Observacao (combinacoes lineares e multiplicacao de ma-trizes). Note que

Am×n = Bm×r ·Cr×n ⎡⎢⎢⎣ |

a1

|· · ·

|an

|

⎤⎥⎥⎦=⎡⎢⎢⎣ |

b1

|· · ·

|br

|

⎤⎥⎥⎦ ·⎡⎢⎢⎣

c11...cr1

· · ·c1r...

crn

⎤⎥⎥⎦ ⎡⎢⎢⎣ |

aj

|

⎤⎥⎥⎦ =

⎡⎢⎢⎣ |b1

|· · ·

|br

|

⎤⎥⎥⎦ ·⎡⎢⎢⎣

c1j...crj

⎤⎥⎥⎦ ,

para todo 1 ≤ j ≤ n. Moral: se A = B · C, entao as colunas damatriz A sao combinacoes lineares das colunas da matriz B.

Observacao (gerados e a escolha do corpo K). Note que

B = {(1, 0), (0, 1)}

e um conjunto gerador de V = C2 sobre K = C. De fato: ∀(z1, z2) ∈C2, (z1, z2) = z1 · (1, 0) + z2 · (0, 1). Mas B = {(1, 0), (0, 1)} naoe um conjunto gerador de V = C2 sobre K = R. Por exemplo,(i, 0) �∈ [(1, 0), (0, 1)]. Por outro lado,

B = {(1, 0), (0, 1), (i, 0), (0, i)}

Page 14: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 13

[SEC. 1.5: BASES 13

e um conjunto gerador de V = C2 sobre K = R, uma vez que se(z1, z2) ∈ C, z1 = a1 + b1 i, z2 = a2 + b2 i, a1, a2, b1, b2 ∈ R, entao

(z1, z2) = a1 · (1, 0) + a2 · (0, 1) + b1 · (i, 0) + b2 · (0, i).

1.5 Bases

Definicao 1.5 Sejam (V,K,+, · ) um espaco vetorial e B umsubconjunto de V .

(1) Dizemos que B e um conjunto linearmente independente(LI) se, para qualquer escolha de vetores v1, . . . ,vk ∈ Btais que

α1 · v1 + · · ·+ αk · vk = 0 ⇒ α1 = · · · = αk = 0,

onde α1, . . . , αk ∈ K. Por convencao, ∅ e LI.

(2) Dizemos que B e linearmente dependente (LD) se ele naofor LI.

Exemplo 1.11

(1) {(1, 0, . . . , 0), (0, 1, . . . , 0), . . . , (0, 0, . . . , 1)} e LI em (Rn,R,+, · ).(2) {(1, 0), (0, 1), (i, 0), (0, i)} e LI em (C2,R,+, · ).(3) {(1, 0), (0, 1), (i, 0), (0, i)} e LD em (C2,C,+, · ). De fato: note

que i · (1, 0) + 0 · (0, 1)− 1 · (i, 0) + 0 · (0, i) = (0, 0).

(4) O conjunto infinito{fn : [a, b] → R

t �→ fn(t) = tn

}∣∣∣∣n∈N

e um conjunto LI em C([a, b],R). De fato: pelo teorema funda-mental da algebra,

(∀t ∈ [a, b], α1 · tn1 + · · ·+αk · tnk = 0)⇒ α1 = · · · = αk = 0.

Page 15: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 14

14 [CAP. 1: ESPACOS VETORIAIS

Definicao 1.6 (Base) Sejam (V,K,+, · ) um espaco vetoriale B um subconjunto de V . Dizemos que B e uma base de V se Bfor um conjunto gerador de V e B for linearmente independente.

Exemplo 1.12

(1) {(1, 0, . . . , 0), (0, 1, . . . , 0), . . . , (0, 0, . . . , 1)} e uma base do espacovetorial (Rn,R,+, · ). Ela e denominada base canonica de Rn.

(2) {(1, 0), (0, 1), (i, 0), (0, i)} e uma base de (C2,R,+, · ).(3) {(1, 0), (0, 1)} e uma base de (C2,C,+, · ).(4) O conjunto infinito{

fn : [a, b] → Rt �→ fn(t) = tn

}∣∣∣∣n∈N∪{0}

e uma base de P([a, b],R) = conjunto das funcoes polinomiaisde [a, b] em R sobre K = R.

1.6 Espacos Finitamente Gerados

Definicao 1.7 (Espacos finitamente gerados) Dizemosque um espaco vetorial (V,K,+, · ) e finitamente gerado se elepossui um conjunto gerador finito.

Exemplo 1.13

(1) (R2,R,+, · ) e finitamente gerado pelo conjunto B = {(1, 0), (0, 1)}.(2) (R2,Q,+, · ) nao e finitamente gerado. De fato: Q e enumeravel

e uniao finita de conjuntos enumeraveis e ainda enumeravel, con-tudo R2 nao e enumeravel.

Page 16: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 15

[SEC. 1.6: ESPACOS FINITAMENTE GERADOS 15

(3) (Pn([a, b],R),R,+, · ) nao e finitamente gerado.

(4) (Pn([a, b],R),R,+, · ) e finitamente gerado pelo conjunto B ={1, x, . . . , xn}.

Proposicao 1.4 Se B = {v1, . . . ,vk} e um conjunto geradorde V , entao todo conjunto LI de V possui no maximo k elemen-tos.

Demonstracao: Vamos mostrar que todo subconjunto de V com maisdo que k vetores e LD. Seja X = {u1, . . . ,um} um subconjunto de Vcom m > k elementos. Como B = {v1, . . . ,vk} e um conjunto gera-dor para V , existem escalares aij , com 1 ≤ i ≤ k e 1 ≤ j ≤ m taisque ⎧⎪⎨⎪⎩

u1 = a11 · v1 + · · ·+ ak1 · vk =∑k

i=1 ai1 · vi,...

um = a1m · v1 + · · ·+ akm · vk =∑k

i=1 aim · vi.

Vamos agora estudar as combinacoes lineares de u1, . . . ,um em ter-mos de v1, . . . , vk:

x1 · u1 + · · ·+ xm · um

=

x1 · (a11 · v1 + · · ·+ ak1 · vk) + · · ·+ xm · (a1m · v1 + · · ·+ akm · vk)

=

(a11 · x1 + · · ·+ a1m · xm) · v1 + · · ·+ (ak1 · x1 + · · ·+ akm · xm) · vk.

Para mostrar que {u1, . . . ,um} e LD, precisamos exibir x1, . . . , xm

nao todos nulos tais que a combinacao linear acima resulta no vetornulo. Para isto, basta exibir x1, . . . , xm nao todos nulos tais que⎧⎪⎨⎪⎩

a11 · x1 + · · ·+ a1m · xm = 0,...

ak1 · x1 + · · ·+ akm · xm = 0.

Page 17: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 16

16 [CAP. 1: ESPACOS VETORIAIS

Ou seja, o sistema linear homogeneo abaixo deve ter pelo menos umasolucao (x1, . . . , xm) nao nula:⎧⎪⎨⎪⎩

a11 · x1 + · · ·+ a1m · xm = 0,...

ak1 · x1 + · · ·+ akm · xm = 0.

Mas isto acontece, porque o numero de equacoes (k) e menor do queo numero de variaveis (m).

Corolario 1.1 Se (V,K,+, · ) e um espaco vetorial nao nulo fi-nitamente gerado, entao toda base de V possui o mesmo numerode elementos, denominado dimensao de V .

Demonstracao: Sejam B e B′ duas bases de V . Como V e finitamentegerado e B e B′ sao LI, pela proposicao anterior, B e B′ sao conjuntosfinitos. Sejam entao m = #B e m′ = #B′. Como [B] = V e B′ e LI,pela proposicao anterior, m′ ≤ m. Do mesmo modo, Como [B′] = Ve B e LI, pela proposicao anterior, m ≤ m′. Logo, m = m′.

Exemplo 1.14 dimR(Rn) = n. dimR(C2) = 4. dimC(C2) = 2.dimR(P([a, b],R)) = ∞. dimR(Mm×n(R)) = m · n. dimK({0}) = 0(lembre-se que, por convencao, ∅ e LI e [∅] = {0}).

Corolario 1.2 Seja (V,K,+, · ) um espaco vetorial de di-mensao n ≥ 1.

(1) Todo conjunto de vetores com mais do que n elementos eLD.

(2) Nenhum conjunto com menos do que n elementos pode ge-rar V .

Demonstracao: Exercıcio.

Page 18: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 17

[SEC. 1.6: ESPACOS FINITAMENTE GERADOS 17

Proposicao 1.5 Seja B = {v1, . . . ,vk} um subconjunto LI deum espaco vetorial V . Se v �∈ [B], entao {v1, . . . ,vk,v} tambeme LI.

Demonstracao: Suponha, por absurdo, que {v1, . . . ,vk,v} seja LD.Entao existem escalares α1, . . . , αk, α nao todos nulos tais que

α1 · v1 + · · ·+ αk · vk + α · v = 0.

Obrigatoriamente, α �= 0 pois, caso contrario, {v1, . . . ,vk} seria LD.Entao,

v = −α1

α· v1 − · · · − αk

α· vk ∈ [B].

Uma contradicao.

Teorema 1.1 (completamento de base)

(1) Todo espaco vetorial nao nulo finitamente gerado possuiuma base.

(2) Se B e subconjunto LI de um espaco vetorial V finitamentegerado, entao existe base de V que contem B.

Demonstracao: Exercıcio (basta usar sucessivamente a proposicaoanterior para construi uma base).

Teorema 1.2 Seja V um espaco vetorial e sejam W1, W2 doissubespacos vetoriais de V , ambos de dimensao finita. Entao

dimK(W1 +W2) = dimK(W1) + dimK(W2)− dimK(W1 ∩W2).

Demonstracao: Exercıcio.

Page 19: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 18

18 [CAP. 1: ESPACOS VETORIAIS

1.7 Coordenadas

Proposicao 1.6 Seja V um espaco vetorial de dimensao n ≥ 1e seja B ⊆ V . As duas afirmacoes abaixo sao equivalentes.

(a) B e uma base de V .

(b) Todo elemento de V se escreve de maneira unica como com-binacao linear de elementos de B.

Demonstracao:

[(a) ⇒ (b)] Como B e base de V , certamente B gera V . Logo, todovetor v de V se escreve como combinacao linear de elementos de B.Resta mostrar que os coeficientes desta combinacao linear sao unicos.Vamos escrever B = {v1, . . . ,vn} e supor que

v = α1 · v1 + · · ·+ αn · vn = β1 · v1 + · · ·+ βn · vn.

Logo, (α1 − β1) · v1 + · · ·+ (αn − βn) · vn = 0. Como {v1, . . . ,vn} eLI, segue-se que α1 = β1, . . . , αn = βn.

[(b) ⇒ (a)] Como, por hipotese, todo elemento v se escreve de ma-neira unica como combinacao linear de elementos de B, segue-seque B gera V . Resta mostrar que B e LI. Seja v1, . . . ,vk ∈ V eα1, . . . , αk ∈ K tais que

α1 · v1 + · · ·+ αk · vk = 0.

Temos tambem que:

0 · v1 + · · ·+ 0 · vk = 0.

Como, por hipotese, todo vetor se escreve de maneira unica comocombinacao linear de elementos de B, segue-se que

α1 = · · · = αk = 0.

Isto mostra que B e LI.

Page 20: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 19

[SEC. 1.8: APLICACAO: EDOS 19

Definicao 1.8 (Coordenadas) Seja B = {v1, . . . ,vn} umabase de V . Fixando-se a ordem dos elementos desta base, pelaproposicao anterior, cada elemento v de V fica determinado demaneira unıvoca pelos coeficientes α1, . . . , αn da combinacaolinear

v = α1 · v1 + · · ·+ αn · vn.

A n-upla ordenada

[v]B = (α1, . . . , αn)B

sera denominada coordenadas do vetor v com relacao a base B.

1.8 Aplicacao: EDOs

Seja W o conjunto das solucoes da equacao diferencial linear ho-mogenea de ordem k com coeficientes constantes:

y(k) + ak−1y(k−1) + · · ·+ a1y′ + a0y = 0.

Isto significa que:

(1) y ∈ F(R,R),(2) y tem derivada ate ordem k para qualquer x ∈ R e

(3) ∀x ∈ R,

y(k)(x) + ak−1y(k−1)(x) + · · ·+ a1y′(x) + a0y(x) = 0.

W e um subespaco de F(R,R) (exercıcio!). Mais ainda: W e umsubespaco de C∞(R,R) (exercıcio!).

O objetivo desta secao e demonstrar que W e um subespaco ve-torial de dimensao k. Para isto, vamos precisar do seguinte teorema,cuja demonstracao pode ser encontrada em [14].

Page 21: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 20

20 [CAP. 1: ESPACOS VETORIAIS

Teorema 1.3 (Existencia e Unicidade) Existe uma unicasolucao y : R→ R para o problema de valor inicial{

y(k)(x) + ak−1y(k−1)(x) + · · ·+ a1y′(x) + a0y(x) = 0,

y(0) = c0, y′(0) = c1, . . . , y(k−1)(0) = ck−1.

Teorema 1.4 O subespaco W das solucoes da equacao diferen-cial linear homogenea de ordem k com coeficientes constantes

y(k) + ak−1y(k−1) + · · ·+ a1y′ + a0y = 0.

tem dimensao k.

Demonstracao: Usando o teorema de existencia e unicidade, sejam,respectivamente, y1, y2, . . . , yk as solucoes dos seguintes problemasde valor inicial:{

y(k)(x) + ak−1y(k−1)(x) + · · ·+ a1y′(x) + a0y(x) = 0,

y(0) = 1, y′(0) = 0, . . . , y(k−1)(0) = 0,{y(k)(x) + ak−1y(k−1)(x) + · · ·+ a1y

′(x) + a0y(x) = 0,

y(0) = 0, y′(0) = 1, . . . , y(k−1)(0) = 0,

...{y(k)(x) + ak−1y(k−1)(x) + · · ·+ a1y

′(x) + a0y(x) = 0,

y(0) = 0, y′(0) = 1, . . . , y(k−1)(0) = 1.

Vamos mostrar que B = {y1, . . . , yk} e uma base de W e, desse modo,teremos estabelecido que a dimensao de W e k. Para mostrar queB = {y1, . . . , yk} e uma base de W , vamos mostrar que B gera W eque B e LI.

Seja z ∈ W . Afirmamos que

z = z(0)y1 + z′(0)y2 + · · ·+ z(k−1)(0)yk

Page 22: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 21

[SEC. 1.8: APLICACAO: EDOS 21

(de modo que B gera W ). De fato: note que a funcao f definida por

f = z(0)y1 + z′(0)y2 + · · ·+ z(k−1)(0)yk

tambem satisfaz o problema de valor inicial:{y(k)(x) + ak−1y(k−1)(x) + · · ·+ a1y

′(x) + a0y(x) = 0,

y(0) = z(0), y′(0) = z′(0), . . . , y(k−1)(0) = z(k−1)(0).

Note tambem que a propria funcao z satisfaz o mesmo problema devalor inicial:{

y(k)(x) + ak−1y(k−1)(x) + · · ·+ a1y′(x) + a0y(x) = 0,

y(0) = z(0), y′(0) = z′(0), . . . , y(k−1)(0) = z(k−1)(0).

Pelo Teorema de Existencia e Unicidade, segue-se que

z = f = z(0)y1 + z′(0)y2 + · · ·+ z(k−1)(0)yk.

Sejam α1, . . . , αk escalares tais que α1y1 + α2y2 + · · ·αkyk = 0.Sendo assim,

α1y′1 + α2y

′2 + · · ·αky

′k = 0,

α1y′′1 + α2y

′′2 + · · ·αky

′′k = 0,

...

α1y(k−1)1 + α2y

(k−1)2 + · · ·αky

(k−1)k = 0.

Agora

α1y1 + α2y2 + · · ·αkyk = 0⇒ α1y1(0) + α2y2(0) + · · ·αkyk(0) = 0⇒ α1 = 0,

α1y′1 + α2y

′2 + · · ·αky

′k = 0⇒ α1y

′1(0) + α2y

′2(0) + · · ·αky

′k(0) = 0⇒ α2 = 0,

...

α1y(k−1)1 + α2y

(k−1)2 + · · ·αky

(k−1)k = 0

⇓α1y

(k−1)1 (0) + α2y

(k−1)2 (0) + · · ·αky

(k−1)k (0) = 0

⇓αk = 0.

Page 23: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 22

22 [CAP. 1: ESPACOS VETORIAIS

Isto demonstra que B = {y1, y2, . . . , yk} e LI.

1.9 Exercıcios

[01] Sejam V = {(a, b) ∈ R2 | a > 0 e b > 0} e K = R. Defina asoperacoes

⊕ : V × V → V((a, b), (c, d)) �→ (a, b)⊕ (c, d) = (a · c, b · d)

e

� : K× V → V(α, (a, b)) �→ α� (a, b) = (aα, bα).

(a) Mostre que ⊕ e � estao bem definidas, isto e, que se α ∈ Ke (a, b), (c, d) ∈ V , entao (a, b)⊕ (c, d) ∈ V e α� (a, b) ∈ V .

(b) Mostre que (V,K,⊕,�) e um espaco vetorial.

[02] Demonstre as propriedades abaixo.

(1) O vetor nulo e unico.

(2) O inverso aditivo e unico.

(3) Se u+w = v+w, entao u = v.

(4) 0 · v = 0 e α · 0 = 0.

(5) Se α �= 0 e v �= 0, entao α · v �= 0.

(6) (−1) · v = −v.(7) −0 = 0.

(8) −(−v) = v.

[03] Sejam V = R2 e K = R. Defina as operacoes ⊕ : V × V → V e� : K×V → V por (x1, y1)⊕(x2, y2) = (x1+x2+1, y1+y2+1) eα� (x, y) = (α ·x, α ·y). (V,K,⊕,�) e um espaco vetorial? Emcaso negativo, quais condicoes da definicao de espaco vetorialsao violadas?

Page 24: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 23

[SEC. 1.9: EXERCICIOS 23

[04] Os conjuntos W1 = {A ∈ Mn×n(K) | det(A) = 0} e W2 ={A ∈ Mn×n(K) | det(A) �= 0} sao subespacos vetoriais de V =Mn×n(K)? Justifique a sua resposta!

[05] Os conjuntos W1 = {A ∈ Mn×n(K) | tr(A) = 0} e W2 ={A ∈ Mn×n(K) | tr(A) �= 0} sao subespacos vetoriais de V =Mn×n(K)? Justifique a sua resposta! Lembre-se que se A =(aij), com 1 ≤ i, j ≤ n, entao

tr(A) = a11 + a22 + · · ·+ ann =

n∑i=1

aii.

[06] (a) Mostre que o conjunto C([a, b],R) de todas as funcoesf : [a, b]→ R contınuas e um espaco vetorial sobre K = R.

(b) O conjunto W = {f ∈ C([a, b],R) | f(a) = f(b)} e um su-bespaco vetorial de C([a, b],R)? Justifique a sua resposta!

[07] (a) Mostre que o conjunto C∞(R,R) de todas as funcoes f : R→R infinitamente derivaveis e um espaco vetorial sobre K =R.

(b) O conjunto W = {f ∈ C∞(R,R) | f ′′ − 2f ′ + f = 0} e umsubespaco vetorial de C∞(R,R)? Justifique a sua resposta!

[08] Dada uma matriz M ∈Mn×n(K), seja W o conjunto de todasas matrizes emMn×n(K) que comutam com M :

W = {A ∈ Mn×n(K) | AM = MA}.

O conjunto W e um subespaco vetorial deMn×n(K)? Justifi-que a sua resposta!

[09] Mostre que se W1 e W2 sao subespacos de V , entao, W1 +W2

tambem e subespaco de V .

[10] Se W e um subespaco vetorial de V , o que e W +W?

[11] Sejam, W , W1 e W2 subespacos de um espaco vetorial V . De-monstre ou de um contraexemplo: se W1+W = W2+W , entaoW1 = W2.

Page 25: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 24

24 [CAP. 1: ESPACOS VETORIAIS

[12] Sejam W , W1 e W2 subespacos de V , com W1 ⊆W e W2 ⊆W .Mostre que as duas afirmacoes a seguir sao equivalentes.

(a) W = W1 ⊕W2.

(b) Todo vetor w ∈ W se escreve de maneira unica comosoma w = w1 +w2, onde w1 ∈W1 e w2 ∈W2.

[13] (a) Sejam

W1 = {A ∈Mn×n(K) | A = AT }e

W2 = {A ∈ Mn×n(K) | A = −AT }.Mostre queMn×n(K) = W1 ⊕W2.

(b) Sejam

W1 = {f ∈ F(R,R) | f e par}e

W2 = {f ∈ F(R,R) | f e ımpar}.Mostre que F(R,R) = W1 ⊕W2.

[14] Sejam W1 e W2 subespacos vetoriais de V . Mostre que W1∪W2

e um subespaco vetorial de V se, e somente se, W1 ⊆ W2 ouW2 ⊆W1.

[15] Se B um subconjunto de um espaco vetorial V .

(a) Mostre que [B] e um subespaco vetorial de V .

(b) Mostre que [B] e a intersecao de todos os subespacos veto-riais de V que contem o conjunto B. Mais precisamente,mostre que

[B] =⋂

W⊇BW e subespaco de V

W.

[16] Mostre que um subconjunto B de um espaco vetorial V e LI se,e somente se, cada subconjunto finito de B e LI.

[17] Se os vetores v1, . . . ,vk sao LI, prove que o mesmo se da comos vetores v1,v2 − v1, . . . ,vk − v1. Vale a recıproca?

Page 26: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 25

[SEC. 1.9: EXERCICIOS 25

[18] Ache uma base de Mm×n(C) como espaco vetorial sobre K =C. Quantos elementos tem esta base? E se considerarmosMm×n(C) como espaco vetorial sobre R?

[19] Prove que {1, ex, e2x, e3x, e4x} e um subconjunto linearmenteindependente de C∞(R,R).

[20] Encontre uma base para o espaco vetorial

W =

⎧⎨⎩(x, y, w) ∈ R4

∣∣∣∣∣∣5 x+ y + 2 z − 3w = 0,6 x+ y − 3 z + 2w = 0,3 x+ y + 12 z + 2w = 0.

⎫⎬⎭[21] Encontre um contraexemplo para a seguinte afirmacao: se B =

{v1,v2,v3,v4} e uma base para (R4,R,+, · ) e W e subespacovetorial de R4, entao algum subconjunto de B e uma base de W .

[22] Dado o conjunto finito X = {p1, . . . , pk}, obtenha uma basepara o espaco vetorial F(X,R).

[23] (a) Encontre uma base para o espaco vetorial das matrizes reaissimetricas:

W1 = {A ∈Mn×n(R) | A = AT }.

(b) Encontre uma base para o espaco vetorial das matrizes anti-simetricas:

W2 = {A ∈ Mn×n(K) | A = −AT }.

[24] Mostre que se V = W1 ⊕W2, entao dimK(V ) = dimK(W1) +dimK(W2).

[25] Seja V um espaco vetorial e sejam W1, W2 dois subespacosvetoriais de V , ambos de dimensao finita. Mostre que

dimK(W1 +W2) = dimK(W1) + dimK(W2)− dimK(W1 ∩W2).

[26] Sejam W1 eW2 subespacos de dimensao 3 de um espaco vetorialde dimensao 5. Mostre que W1 ∩W2 �= {0}.

Page 27: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 26

26 [CAP. 1: ESPACOS VETORIAIS

[27] Sejam x0 < x1 < x2 < · · · < xn numeros reais. Defina os n+ 1polinomios de grau n:

pi(x) =

n∏k=0k �=i

(x− xk)

n∏k=0k �=i

(xi − xk)

=(x− x0) · · · (x− xi−1) · (x− xi+1) · (x− xn)

(xi − x0) · · · (xi − xi−1) · (xi − xi+1) · (xi − xn),

para i = 0, . . . , n. Suponha que n = 3, x0 = 1, x1 = 2, x2 = 3e x3 = 4.

(a) Calcule p0(x), p1(x), p2(x) e p3(x).

(b) Mostre que {p0, p1, p2, p3} forma uma base para o espacovetorial V = P3(R) das funcoes polinomiais reais de graumenor do que ou igual a 3. Dica:

pi(xj) = δij =

{0, se i �= j,1, se i = j.

(c) Calcule as coordenadas de q(x) = 2+3 x+4 x2+5 x3 nestabase.

(d) Mostre que o item (b) vale para um n ≥ 1 qualquer econclua que

p(x) =

n∑i=0

yipi(x) =

n∑i=0

yi

n∏k=0k �=i

(x− xk)

n∏k=0k �=i

(xi − xk)

e uma expressao para o polinomio de Lagrange que in-terpola os pontos (x0, y0), . . . , (xn, yn), isto e, o unico po-linomio p de grau ≤ n tal que p(xi) = yi para todo i =0, . . . , n.

Page 28: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 27

Capıtulo 2

Revisao:TransformacoesLineares

2.1 Transformacoes Lineares

Definicao 2.1 (Transformacao Linear) Sejam U e Vespacos vetoriais sobre K. Uma funcao T : U → V e uma trans-formacao linear se

(1) ∀u1,u2 ∈ U,T(u1 + v2) = T(u1) +T(u2).

(2) ∀α ∈ K, ∀u ∈ U,T(α · u) = α ·T(u).

Proposicao 2.1 Sejam U e V espacos vetoriais sobre K eT : U → V uma transformacao linear.

(1) T(0U ) = 0V .

(2) T(−u) = −T(u).

27

Page 29: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 28

28 [CAP. 2: REVISAO: TRANSFORMACOES LINEARES

(3) ∀α1, . . . , αk ∈ K, ∀u1, . . . ,uk ∈ U ,

T

(k∑

i=1

αi · ui

)=

k∑i=1

αi ·T(ui).

Demonstracao: Vamos demonstrar a propriedade (1). As demons-tracoes das demais propriedades ficam como exercıcio. Temos queT(0U ) = T(0 · 0U ) = 0 ·T(0U ) = 0V .

Exemplo 2.1 Sao exemplos de transformacoes lineares:

(1) T : U → Vu �→ T(u) = 0V

(funcao nula).

(2) Id : U → Uu �→ T(u) = u

(funcao identidade em U).

(3) T : Mn×1(K) → Mm×1(K)⎡⎢⎣ x1

...xn

⎤⎥⎦ �→

⎡⎢⎣ y1...ym

⎤⎥⎦ =

⎡⎢⎣ a11 · · · a1n...

. . ....

am1 · · · amn

⎤⎥⎦⎡⎢⎣ x1

...xn

⎤⎥⎦ .

(4) T : C∞(R,R) → C∞(R,R)f �→ T (f) = f ′

(derivada).

(5) T : C([a, b],R) → R

f �→ T (f) =

∫ b

a

f(x) dx

(integral).

Exemplo 2.2 Rotacoes no plano em torno da origem sao trans-formacoes lineares (Figura 2.1 (a)): Rθ(u + v) = Rθ(u) + Rθ(v)(Figura 2.1 (b)) e Rθ(α · v) = α ·Rθ(u) (Figura 2.1 (c)).

Page 30: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 29

[SEC. 2.1: TRANSFORMACOES LINEARES 29

(a)

(b)

(c)

Figura 2.1: Rotacoes no plano em torno da origem sao trans-formacoes lineares.

Page 31: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 30

30 [CAP. 2: REVISAO: TRANSFORMACOES LINEARES

Teorema 2.1 Seja B = {u1, . . . ,un} base de U . Se{v1, . . . ,vn} ⊆ V (nao necessariamente uma base de V ), entaoexiste uma unica transformacao linear T : U → V tal que

T(u1) = v1, . . . , T(un) = vn.

Demonstracao:

(Existencia) Seja u ∈ U . Como B e base de U , existem unicos α1,. . . , αn ∈ K tais que u =

∑ni=1 αi · ui. Defina T(u) =

∑ni=1 αi · vi.

T e linear e T(ui) = vi, ∀i = 1, . . . , n (exercıcio!).

(Unicidade) Considere agora S : U → V outra transformacao lineartal que S(ui) = vi, ∀i = 1, . . . , n. Entao ∀u ∈ U ,

S(u) = S

(n∑

i=1

αi · ui

)=

n∑i=1

αi · S(ui) =n∑

i=1

αi · vi

=

n∑i=1

αi ·T(ui) = T

(n∑

i=1

αi · ui

)= T(u).

Exemplo 2.3 Seja T : R2 → R2 uma transformacao linear tal queT(1, 0) = (1, 2) e T(0, 1) = (3, 4). Entao

T(2, 3) = T(2 · (1, 0) + 3 · (0, 1)) = 2 ·T(1, 0) + 3 ·T(0, 1)

= 2 · (1, 2) + 3 · (3, 4) = (11, 16).

Exemplo 2.4 Seja Rθ : R2 → R2 a rotacao, em torno da origem, deum angulo θ. Como calcular Rθ(x, y)? Pelo teorema anterior, bastacalcular Rθ(1, 0) e Rθ(0, 1). Pela Figura 2.2, vemos que

Rθ(1, 0) = (+ cos(θ),+sen(θ)), Rθ(0, 1) = (− sen(θ),+cos(θ)).

Logo,

Rθ(x, y) = Rθ

(x · (1, 0) + y · (0, 1)) = x ·Rθ(1, 0) + y ·Rθ(0, 1)

= x · (+ cos(θ),+sen(θ))+ y · (− sen(θ),+cos(θ)

)=

(cos(θ) · x− sen(θ) · y, sen(θ) · x+ cos(θ) · y) .

Page 32: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 31

[SEC. 2.1: TRANSFORMACOES LINEARES 31

Figura 2.2: Para calcular Rθ(x, y), basta saber Rθ(1, 0) e Rθ(0, 1).

Matricialmente,

([xy

])=

[cos(θ) − sen(θ)sen(θ) cos(θ)

]·[

xy

].

Teorema 2.2 Sejam U e V espacos vetoriais sobre K. Entao

(1) Se S : U → V eT : U → V sao duas transformacoes lineares,entao S+T : U → V tambem e uma transformacao linear.

(2) Se α ∈ K e T : U → V e uma transformacao linear, entaoα ·T : U → V tambem e uma transformacao linear.

(3) Corolario: L (U, V ) = {T : U → V | T e linear} e umespaco vetorial.

Demonstracao: Exercıcio.

Teorema 2.3 Sejam U , V e W espacos vetoriais sobre K.

Page 33: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 32

32 [CAP. 2: REVISAO: TRANSFORMACOES LINEARES

(1) Se T : U → V e S : V → W sao transformacoes lineares,entao S ◦T : U →W tambem e uma transformacao linear.Em outras palavras, composicao de transformacoes linearestambem e uma transformacao linear.

(2) Se T : U → V e uma transformacao linear inversıvel, entaosua inversa T−1 : V → U tambem e uma transformacaolinear.

Demonstracao: Exercıcio.

2.2 Nucleo e Imagem

Definicao 2.2 (Nucleo e Imagem) Seja T : U → V umatransformacao linear.

(1) O nucleo de T e o conjunto

Ker(T) = {u ∈ U | T(u) = 0}.

(2) A imagem de T e o conjunto

Im(T) = {v ∈ V | ∃u ∈ U com T(u) = v}.

Proposicao 2.2 Ker(T) e subespaco vetorial de U e Im(T) esubespaco vetorial de V .

Demonstracao: Exercıcio.

Lema 2.1 Seja T : U → V uma transformacao linear. SeB = {u1, . . . ,un} e uma base de U , entao {T(u1), . . . ,T(un)}gera Im(T).

Page 34: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 33

[SEC. 2.2: NUCLEO E IMAGEM 33

Demonstracao: Seja v = T(u) ∈ Im(T). Como B e base de U ,

u = α1 · u1 + · · ·+ αn · un.

Entao:

v = T(u) = T(α1 ·u1+ · · ·+αn ·un) = α1 ·T(u1)+ · · ·+αn ·T(un).

Assim, v ∈ [T(u1), . . . ,T(un)].

Teorema 2.4 (do nucleo e da imagem) Seja T : U → Vuma transformacao linear entre espacos vetoriais de dimensaofinita. Entao

dimK(U) = dimK(Ker(T)) + dimK(Im(T)).

Demonstracao: Suponha Ker(T) �= {0} e seja {u1, . . . ,uk} basede Ker(T). Se k = dimK(U), o resultado e imediato. Se k < dimK(U),complete {u1, . . . ,uk} para obter uma base de U :

{u1, . . . ,uk, u1, . . . , un−k}.Temos que {T(u1), . . . ,T(un−k)} gera Im(T) pois, pelo lema,

[T(u1), . . . ,T(uk),T(u1), . . . ,T(un−k)] = [T(u1), . . . ,T(un−k)]= Im(T).

Agora, {T(u1), . . . ,T(un−k)} e LI. De fato:

α1 ·T(u1) + · · ·+ αn−k ·T(un−k) = 0

⇓T(α1 · u1 + · · ·+ αn−k · un−k) = 0

⇓α1 · u1 + · · ·+ αn−kun−k ∈ Ker(T)

⇓α1 · u1 + · · ·+ αn−kun−k = α1 · u1 + · · ·+ αk · uk

⇓−α1 · u1 − · · · − αk · uk + α1 · u1 + · · ·+ αn−kun−k = 0

Page 35: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 34

34 [CAP. 2: REVISAO: TRANSFORMACOES LINEARES

⇓α1 = 0, . . . , αk = 0, α1 = 0, . . . , αn−k = 0.

Logo dimK(Im(T)) = n−k, o que estabelece o resultado. O caso Ker(T) ={0} e analogo e ficara como exercıcio.

2.3 Isomorfismos

Definicao 2.3 (Isomorfismo) Dizemos que uma trans-formacao linear T : U → V e um isomorfismo se T e inversıvel,isto e, se existe T−1 : V → U tal que

T ◦T−1 = IdV e T−1 ◦T = IdU .

Lembramos que T : U → V e inversıvel se, e somente se, T ebijetiva, isto e, T e injetiva e sobrejetiva.

Exemplo 2.5 Se A e uma matriz inversıvel, entao

T : Mn×1(K) → Mn×1(K)⎡⎢⎣ x1

...xn

⎤⎥⎦ �→

⎡⎢⎣ y1...yn

⎤⎥⎦ =

⎡⎢⎣ a11 · · · a1n...

. . ....

an1 · · · ann

⎤⎥⎦︸ ︷︷ ︸

A

⎡⎢⎣ x1

...xn

⎤⎥⎦e um isomorfismo.

Proposicao 2.3 Seja T : U → V uma transformacao linear.Entao

T e injetiva ⇔ Ker(T) = {0}.

Demonstracao: Exercıcio.

Page 36: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 35

[SEC. 2.4: A MATRIZ DE UMA TRANSFORMACAO LINEAR 35

Proposicao 2.4 Seja T : U → V uma transformacao linear en-tre espacos de dimensao finita, com dimK(U) = dimK(V ). Entao

T e injetiva ⇔ T e sobrejetiva

⇔ T e um isomorfismo.

Demonstracao: Exercıcio.

Teorema 2.5 Sejam U e V espacos vetoriais de dimensao fi-nita. Se dimK(U) = dimK(V ), entao U e V sao isomorfos. Emparticular, todo espaco vetorial de dimensao n e isomorfo a Kn.

Demonstracao: Se B = {u1, . . . ,un} e base de U e C = {v1, . . . ,vn},entao a aplicacao definida por

T(u) = T(α1 · u1 + · · ·+ αn · un) = α1 · v1 + · · ·+ αn · vn

e um isomorfismo entre U e V .

2.4 A Matriz de Uma Transformacao Li-near

Definicao 2.4 (Coordenadas) Seja B = {v1, . . . ,vn} umabase de V . Fixando-se a ordem dos elementos desta base, pelaproposicao anterior, cada elemento v de V fica determinado demaneira unıvoca pelos coeficientes α1, . . . , αn da combinacaolinear

v = α1 · v1 + · · ·+ αn · vn.

A n-upla ordenada

[v]B = (α1, . . . , αn)B

Page 37: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 36

36 [CAP. 2: REVISAO: TRANSFORMACOES LINEARES

sera denominada coordenadas do vetor v com relacao a base B.

Definicao 2.5 (Matriz de uma transformacao linear)Sejam T : U → V uma transformacao linear, U = {u1, . . . ,un}uma base ordenada de U e V = {v1, . . . ,vm} uma base ordenadade V . Existem escalares aij ∈ K, com 1 ≤ i ≤ m e 1 ≤ j ≤ n,tais que

T(u1) = a11 · v1 + a21 · v2 + · · ·+ am1 · vm,T(u2) = a12 · v1 + a22 · v2 + · · ·+ am2 · vm,

...T(un) = a1n · v1 + a2n · v2 + · · ·+ amn · vm.

A matriz de T com relacao as bases U e V e

[T]VU =

⎡⎢⎢⎢⎣a11 a12 · · · a1na21 a22 · · · a2n...

.... . .

...am1 am2 · · · amn

⎤⎥⎥⎥⎦m×n

.

Exemplo 2.6 Seja T : R3 → R2 definida por

T(x, y, z) = (x+ y, x+ z).

Se U = {(1, 0, 0), (0, 1, 0), (0, 0, 1)} e V = {(1, 0), (0, 1)} entao

T(1, 0, 0) = (1, 1) = 1 · (1, 0) + 1 · (0, 1),T(0, 1, 0) = (1, 0) = 1 · (1, 0) + 0 · (0, 1),T(0, 0, 1) = (0, 1) = 0 · (1, 0) + 1 · (0, 1).

Logo: [T]VU =

[1 1 01 0 1

].

Page 38: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 37

[SEC. 2.4: A MATRIZ DE UMA TRANSFORMACAO LINEAR 37

Exemplo 2.7 Seja T : R3 → R2 definida por

T(x, y, z) = (x+ y, x+ z).

Se U = {(1, 0, 0), (0, 1, 0), (0, 0, 1)} e V = {(1, 0), (1, 1)}, entaoT(1, 0, 0) = (1, 1) = 0 · (1, 0) + 1 · (1, 1),T(0, 1, 0) = (1, 0) = 1 · (1, 0) + 0 · (1, 1),T(0, 0, 1) = (0, 1) = −1 · (1, 0) + 1 · (1, 1).

Logo: [T]˜VU =

[0 1 −11 0 1

].

Observacao. Varias definicoes e operacoes com transformacoes li-neares podem ser traduzidas em termos matriciais. A tabela abaixoexibe algumas destas relacoes.

Transformacao Matriz

T[T]VU

T(u)[T]VU ·

[u]U

S+ α ·T [S]VU + α · [T]V

U

S ◦T [S]WV ·

[T]VU

T−1([

T]VU

)−1u ∈ Ker(T)

[T]VU ·

[u]U =

[0]

v ∈ Im(T) O sistema[T]VU · x =

[v]V tem solucao.

Teorema 2.6 (mudanca de base) Sejam U e U bases de U e

sejam V e V bases de V . Entao

Page 39: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 38

38 [CAP. 2: REVISAO: TRANSFORMACOES LINEARES

[T

]˜V˜U =

[IdV

]˜VV ·

[T

]VU ·

[IdU

]U˜U .

Se U = V , entao[T

]˜U˜U =

([IdV

]U˜U)−1· [ T

]UU ·

[IdU

]U˜U .

2.5 Posto

Definicao 2.6 (Posto) Seja T : U → V uma transformacaolinear entre espacos vetoriais de dimensao finita. O posto de Te a dimensao da imagem de T: rank(T) = dimK(Im(T)).

Observacao. rank(T) = numero maximo de colunas LI de[T]VU .

De fato:

v ∈ Im(T)

O sistema

[T]VU · x =

[v]V tem solucao.

O sistema

⎡⎢⎣ a11 · · · a1n...

. . ....

am1 · · · amn

⎤⎥⎦V

U

·

⎡⎢⎣ x1

...xn

⎤⎥⎦ =[v]V

tem solucao.

O sistema x1 ·

⎡⎢⎣ a11...

am1

⎤⎥⎦+ · · ·+ xn ·

⎡⎢⎣ a1n...

amn

⎤⎥⎦ =[v]V

tem solucao.

Page 40: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 39

[SEC. 2.5: POSTO 39

[v]V

pertence ao espaco gerado pelas colunas⎧⎪⎨⎪⎩⎡⎢⎣ a11

...am1

⎤⎥⎦ , . . . ,

⎡⎢⎣ a1n...

amn

⎤⎥⎦⎫⎪⎬⎪⎭ .

Definicao 2.7 (Posto segundo colunas e segundo li-nhas)

(1) O posto segundo colunas de uma matriz A ∈ Mm×n(K) e onumero maximo de colunas linearmente independentes.

(2) O posto segundo linhas de uma matriz A ∈Mm×n(K) e onumero maximo de linhas linearmente independentes.

Teorema 2.7 Para toda matriz A ∈ Mm×n(K), o posto se-gundo linhas e o posto segundo colunas sao iguais.

Demonstracao: Sejam A uma matriz com posto segundo colunasigual a r, C(A) o espaco gerado pelas colunas de A e R(A) o espacogerado pelas colunas de A. Como dimK(C(A)) = r, existem colunasb1, . . . , br de A que formam uma base para C(A). Seja B a matrizm × r definida por [b1, . . . ,br]. Como toda coluna de A e umacombinacao linear de b1, . . . , br, podemos escrever que

A = B ·Cpara algumas matriz Cr×n. Entao AT = CT · BT . Sendo assim,as linhas de A (colunas de AT ) sao combinacoes lineares das linhasde C (colunas de CT ). Portanto, R(A) ⊆ R(C). Assim,

dimK(R(A)) ≤ dimK(R(C)) ≤ r = dimK(C(A)).

Trocando-seA porAT acima, segue-se que dimK(C(A)) ≤ dimK(R(A)).Logo dimK(C(A)) = dimK(R(A)).

Page 41: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 40

40 [CAP. 2: REVISAO: TRANSFORMACOES LINEARES

2.6 Exercıcios

[01] Mostre que cada uma das transformacoes abaixo e linear.

(a) T : R3 → R dada por T(x, y, z) = x+ 2 y + z.

(b) T : P(R)→ P(R) dada por (T(p))(x) = x2 · p′′(x).(c) T :M2×2(R) �→ M2×2(R) dada por T(X) = MX −XM ,

onde

M =

[1 20 1

][02] (Rotacoes) No texto deste capıtulo calculamos a formula para

a rotacao de (x, y) em torno da origem (0, 0) por um angulo θ:

Rθ(x, y) =(cos(θ) · x− sen(θ) · y, sen(θ) · x+ cos(θ) · y) .

Calcule agora a formula para a rotacao de (x, y) em tornode (a, b) por um angulo θ.

[03] (Cisalhamentos) Um cisalhamento em R2 e uma aplicacaoT : R2 → R2 da forma

T(x, y) = (x, p · x+ y),

onde p e uma constante.

(a) Mostre que T e uma transformacao linear.

(b) Desenhe a imagem por T do quadrado [0, 1]× [0, 1].

[04] Mostre que L (U, V ) = {T : U → V | T e linear} e um espacovetorial.

[05] (a) Mostre que as seguintes transformacoes lineares

T11 : R2 → R2

(x1, x2) �→ T11(x1, x2) = (x1, 0),

T12 : R2 → R2

(x1, x2) �→ T12(x1, x2) = (0, x1),

T21 : R2 → R2

(x1, x2) �→ T21(x1, x2) = (x2, 0),

Page 42: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 41

[SEC. 2.6: EXERCICIOS 41

T22 : R2 → R2

(x1, x2) �→ T22(x1, x2) = (0, x2)

formam uma base para L (R2,R2). Conclua que

dimR(L (R2,R2)) = 4.

(b) Mais geralmente, mostre que as seguintes transformacoeslineares de Rn para Rm⎧⎪⎪⎪⎨⎪⎪⎪⎩

T1 1 (x1, x2, . . . , xn) = (x1, 0, . . . , 0),T1 2 (x1, x2, . . . , xn) = (0, x1, . . . , 0),

...T1m(x1, x2, . . . , xn) = (0, 0, . . . , x1),⎧⎪⎪⎪⎨⎪⎪⎪⎩T2 1 (x1, x2, . . . , xn) = (x2, 0, . . . , 0),T2 2 (x1, x2, . . . , xn) = (0, x2, . . . , 0),

...T2m(x1, x2, . . . , xn) = (0, 0, . . . , x2),

...

⎧⎪⎪⎪⎨⎪⎪⎪⎩Tn 1 (x1, x2, . . . , xn) = (xn, 0, . . . , 0),Tn 2 (x1, x2, . . . , xn) = (0, xn, . . . , 0),

...Tnm(x1, x2, . . . , xn) = (0, 0, . . . , xn)

formam uma base para L (Rn,Rm). Conclua que

dimR(L (Rn,Rm)) = n ·m.

[06] Mostre que a composicao de transformacoes lineares e aindauma transformacao linear.

[07] Mostre que uma funcao T : Rn → R e uma transformacao linearse, e somente se, existem a1, . . . , an ∈ R tais que

T (x1, . . . , xn) =

n∑i=1

ai · xi.

Page 43: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 42

42 [CAP. 2: REVISAO: TRANSFORMACOES LINEARES

[08] Seja T : U → V uma transformacao linear. Diga se cada umadas sentencas abaixo e verdadeira ou falsa. Caso ela seja verda-deira, apresente uma demonstracao e, caso ela seja falsa, apre-sente um contra-exemplo.

(a) Se u ∈ U e tal que T(u) = 0, entao u = 0.

(b) Se T(u) = T(u1) +T(u2), entao u = u1 + u2.

(c) Se u e combinacao linear de u1, . . . ,uk, entao T(u) e com-binacao linear de T(u1), . . . ,T(uk).

(d) Se {T(u1), . . . ,T(uk)} e LI em V , entao {u1, . . . ,uk} e LIem U .

(e) Se {u1, . . . ,uk} e LI em U , entao {T(u1), . . . ,T(uk)} e LIem V .

( f ) Se [T(u1), . . . ,T(uk)] = V , entao [u1, . . . ,uk] = U .

(g) Se [u1, . . . ,uk] = U , entao [T(u1), . . . ,T(uk)] = V .

(h) Se U = V e [T(u1), . . . ,T(uk)] = U , entao [u1, . . . ,uk] =U .

( i ) Se U = V e [u1, . . . ,uk] = U , entao [T(u1), . . . ,T(uk)] =U .

[09] Mostre que se T : U → V e uma transformacao linear inversıvel,entao sua inversa T−1 : V → U tambem e uma transformacaolinear.

[10] (a) Mostre que T : R∞ → R∞ definido por T(x1, x2, . . .) =(0, x1, x2, x3, . . .) e uma transformacao linear injetiva, masnao sobrejetiva.

(b) Mostre que S : R∞ → R∞ definido por S(x1, x2, . . .) =(x2, x3, x4, . . .) e uma transformacao linear sobrejetiva, masnao injetiva.

[11] Diga se cada uma das sentencas abaixo e verdadeira ou falsa.Caso ela seja verdadeira, apresente uma demonstracao e, casoela seja falsa, apresente um contra-exemplo.

(a) Se T : Rn → Rm e injetiva, entao dimR(Im(T)) = n.

Page 44: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 43

[SEC. 2.6: EXERCICIOS 43

(b) Se T : Rn → Rm e sobrejetiva, entao dimR(Ker(T)) = n−m.

(c) Se S,T ∈ L (Rn,Rn), com dimR(Im(S)) = dimR(Im(T)),entao

dimR(Im(S ◦T)) = dimR(Im(T ◦ S)) = dimR(Im(S)).

[12] Sejam S,T ∈ L (U,U). Diga se cada uma das sentencas abaixoe verdadeira ou falsa. Caso ela seja verdadeira, apresente umademonstracao e, caso ela seja falsa, apresente um contra-exemplo.

(a) Se S ◦T e inversıvel, entao S e T sao inversıveis.

(b) Se S ◦ T e inversıvel e dimK(U) < ∞, entao S e T saoinversıveis.

[13] Sejam T : U → V e S : V → W transformacoes lineares. Digase cada uma das sentencas abaixo e verdadeira ou falsa. Casoela seja verdadeira, apresente uma demonstracao e, caso ela sejafalsa, apresente um contra-exemplo.

(a) Se S ◦T e sobrejetiva, entao S e sobrejetiva.

(b) Se S ◦T e sobrejetiva, entao T e sobrejetiva.

(c) Se S ◦T e injetiva, entao S e injetiva.

(d) Se S ◦T e injetiva, entao T e injetiva.

Mostre ainda que, se U = V = W e U tem dimensao finita,entao estas quatro sentencas sao verdadeiras.

[14] Calcule (S−1 ◦T ◦ S)1000.[15] SejaT : R2 → R2 o operador linear cuja matriz na base canonica C =

{(1, 0), (0, 1)} eA =

[8 −212 −2

].

(a) Calcule a matriz B de T na base

C = {(1, 3), (2, 4)}.

(b) Calcule uma matriz P tal que A = P−1 ·B ·P.

Page 45: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 44

44 [CAP. 2: REVISAO: TRANSFORMACOES LINEARES

(c) Calcule An, onde n e um numero natural positivo.

[16] Seja T : V → V um operador linear definido em um espacovetorial bidimensional V . Se a matriz de T com relacao a umabase V de V e [

T]VV =

[a bc d

],

mostre que

T2 − (a+ d) ·T+ (a · d− b · c) · IdV = 0.

[17] Seja A uma matriz real com 64 linhas e 17 colunas. Se oposto de A e 11, quantos vetores independentes satisfazem aequacao A · x = 0? E quantos vetores independentes satisfa-zem AT · y = 0?

[18] Sejam A e B matrizes tais que o produto AB esta definido.Mostre que

rank(AB) ≤ min{rank(A), rank(B)}.

[19] Seja A uma matriz m×n de posto r, r �= 0. Mostre que existemmatrizes B e C de ordens m× r e r × n, respectivamente, taisque rank(B) = rank(C) = r e A = BC. Esta decomposicao edenominada rank factorization da matriz A.

[20] Sejam A e B matrizes m × n. Mostre que rank(A + B) ≤rank(A) + rank(B).

Page 46: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 45

Capıtulo 3

Sistemas Lineares eA Decomposicao LU

3.1 Cisalhamentos

Definicao 3.1 (Cisalhamentos no Plano) Um cisalha-mento horizontal (isto e, na direcao do eixo x) de razao p noplano e uma transformacao linear T : R2 → R2 da forma

T(x, y) = (x+ p · y, y).

Em termos matriciais,[xy

]= T

([xy

])=

[1 p0 1

]·[

xy

].

Um cisalhamento vertical (isto e, na direcao do eixo y) de razao pno plano e uma transformacao linear T : R2 → R2 da forma

T(x, y) = (x, p · x+ y).

Em termos matriciais,

45

Page 47: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 46

46 [CAP. 3: SISTEMAS LINEARES E A DECOMPOSICAO LU

[xy

]= T

([xy

])=

[1 0p 1

]·[

xy

].

Cisalhamentos horizontais transformam quadrados em paralelo-gramos de mesma altura, mantendo as medidas dos lados horizontaisdo quadrado. Por exemplo, o cisalhamento horizontal de razao 1transforma o quadrado de vertices

(0, 0), (2, 0), (2, 2) e (0, 2)

no paralelogramo de vertices

(0, 0), (0, 2), (4, 2) e (2, 2)

(veja a Figura 3.1).

T→

Figura 3.1: A imagem de um quadrado por um cisalhamento hori-zontal de razao 1.

Cisalhamentos verticais tambem transformam quadrados em pa-ralelogramos de mesma altura mas, agora, eles mantem as medidasdos lados verticais do quadrado. Por exemplo, o cisalhamento verticalde razao 1 transforma o quadrado de vertices

(0, 0), (2, 0), (2, 2) e (0, 2)

Page 48: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 47

[SEC. 3.1: CISALHAMENTOS 47

no paralelogramo de vertices

(0, 0), (2, 2), (2, 4) e (0, 2)

(veja a Figura 3.2).

T→

Figura 3.2: A imagem de um quadrado por um cisalhamento verticalde razao 1.

Teorema 3.1

(a) Um cisalhamento vertical de razao p no plano e uma trans-formacao linear inversıvel e sua inversa e um cisalhamentovertical de razao −p.

(b) Um cisalhamento horizontal de razao p no plano e umatransformacao linear inversıvel e sua inversa e um cisalha-mento horizontal de razao −p.

Demonstracao: Na base canonica, a matriz associada a um cisalha-mento vertical de razao p e dada por

A =

[1 0p 1

].

Page 49: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 48

48 [CAP. 3: SISTEMAS LINEARES E A DECOMPOSICAO LU

Esta matriz e inversıvel e sua inversa e dada por

B =

[1 0−p 1

],

pois AB = I. Note que B e a matriz associada a um cisalhamentovertical de razao −p. Isto demonstra o item (a). A demonstracao doitem (b) fica como exercıcio.

Como veremos mais adiante, o metodo de eliminacao gaussianae a decomposicao LU estao fortemente relacionados com cisalhamen-tos verticais. No caso de sistemas lineares com mais do que duasvariaveis, vamos precisar de cisalhamentos verticais que agem emcada plano coordenado. Por exemplo, em R3, vamos precisar dasmatrizes

Exy =

⎡⎣ 1 0 0p 1 00 0 1

⎤⎦ ,

Exz =

⎡⎣ 1 0 00 1 0p 0 1

⎤⎦ ,

Eyz =

⎡⎣ 1 0 00 1 00 p 1

⎤⎦ .

AmatrizExy define um cisalhamento na direcao do eixo y no plano xy(a componente na direcao do eixo z permanece inalterada). Por suavez, a matriz Exz define um cisalhamento na direcao do eixo z noplano xz (a componente na direcao do eixo y permanece inalterada).Por fim, a matriz Eyz define um cisalhamento na direcao do eixo z noplano yz (a componente na direcao do eixo x permanece inalterada).Estas matrizes sao inversıveis e elas definem cisalhamentos do mesmotipo que suas inversas:

E−1xy =

⎡⎣ 1 0 0−p 1 00 0 1

⎤⎦ ,

Page 50: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 49

[SEC. 3.1: CISALHAMENTOS 49

E−1xz =

⎡⎣ 1 0 00 1 0−p 0 1

⎤⎦ ,

E−1yz =

⎡⎣ 1 0 00 1 00 −p 1

⎤⎦ .

Observacao. Tambem chamaremos as matrizes acima de cisalha-mentos, embora alguns autores, para dimensoes maiores do que 2,usem o nome cisalhamento para outro tipo de transformacao. Porexemplo, em R3, existem tres cisalhamentos:

Cx =

⎡⎣ 1 0 0p 1 0p 0 1

⎤⎦ ,

Cy =

⎡⎣ 1 p 00 1 00 p 1

⎤⎦ ,

Cz =

⎡⎣ 1 0 p0 1 p0 0 1

⎤⎦ ,

nas direcoes dos eixos x, y e z, respectivamente.

Observacao. No endereco http://www.uff.br/cdme/tl2x2/ o lei-tor encontrara um aplicativo interativo que permite estudar a geo-metria das transformacoes lineares do plano no plano. As imagensdas Figuras 3.1 e 3.2 foram geradas com este aplicativo. Sugerimosas seguintes matrizes para serem usadas com o aplicativo:

(a) rotacao de 90◦ em torno da origem no sentido anti-horario:

M =

[0 −11 0

],

(b) uma homotetia em relacao a origem:

M =

[2 00 2

],

Page 51: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 50

50 [CAP. 3: SISTEMAS LINEARES E A DECOMPOSICAO LU

(c) projecao no eixo x:

M =

[1 00 0

],

(d) projecao no eixo y:

M =

[0 00 1

],

(e) reflexao com relacao ao eixo x:

M =

[ −1 00 1

],

( f ) reflexao com relacao ao eixo y:

M =

[1 00 −1

].

3.2 Motivacao: Sistemas Lineares 2 por 2

Vamos apresentar duas interpretacoes geometricas para a solucaodo sistema linear {

2 x− y = 1,x+ y = 5,

uma interpretando as linhas e a outra interpretando as colunas dosistema.

Na interpretacao segundo as linhas, cada linha do sistema repre-senta a equacao de uma reta. Resolver o sistema consiste, entao, emdeterminar o ponto de intersecao destas retas (Figura 3.3 (a)).

Na interpretacao segundo as colunas, os coeficientes de x e de ye os termos independentes do sistema sao considerados como vetoresno plano:

u =

[21

], v =

[ −11

], w =

[15

].

Page 52: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 51

[SEC. 3.2: MOTIVACAO: SISTEMAS LINEARES 2 POR 2 51

(a)

(b)

Figura 3.3: Interpretacao geometrica (a) segundo as linhas e (b) se-gundo as colunas do sistema.

Page 53: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 52

52 [CAP. 3: SISTEMAS LINEARES E A DECOMPOSICAO LU

Resolver o sistema consiste, entao, em determinar os coeficientes se t de uma combinacao linear de u e v que seja igual ao vetor w:w = s · u+ t · v (Figura 3.3 (b)).

O metodo classico da eliminacao gaussiana procura resolver o sis-tema usando operacoes elementares sobre as linhas da matriz aumen-tada, de forma a deixa-la na forma escalonada:[

2 −1 51 1 5

]L2←L2− 1

2L1→[

2 −1 50 3/2 5/2

].

Observamos a operacao elementar L2 ← L2− 12L1 pode ser codificada

em termos matriciais:[1 0−1/2 1

] [2 −1 51 1 5

]=

[2 −1 50 3/2 5/2

].

Escrevendo

E =

[1 0−1/2 1

], A =

[2 −11 1

]e U =

[2 −10 3/2

],

segue-se queEA = U.

Note que E e uma matriz triangular inferior (isto e, todos os elemen-tos da matriz acima da diagonal principal sao iguais a zero) e que Edefine um cisalhamento vertical (na direcao do eixo y). Note tambemque a matriz U, por sua vez, e triangular superior (isto e, todos oselementos da matriz abaixo da diagonal principal sao iguais a zero).Pelo Teorema 3.1, a matriz E e inversıvel e sua inversa L = E−1

tambem e um cisalhamento:

L =

[1 0

1/2 1

].

Assim:

EA = U ⇒ LEA = LU ⇒ IA = LU ⇒ A = LU.

Resumindo: atraves do metodo da eliminacao gaussiana, conseguimosescrever a matrizA como produto de uma matriz L triangular inferior

Page 54: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 53

[SEC. 3.3: MOTIVACAO: SISTEMAS LINEARES 3 POR 3 53

com todos os elementos da diagonal principal iguais a 1 por umamatriz triangular superior U.

O cisalhamento E faz uma troca de variaveis de tal modo que o ve-tor u e levado em um vetor que e paralelo ao eixo x (Figura 3.4 (b)).Neste novo sistema de coordenadas, o sistema linear correspondentee mais simples de se resolver, pois uma das retas e paralela ao eixo x(Figura 3.4 (a)).

3.3 Motivacao: Sistemas Lineares 3 por 3

Vamos ver mais um exemplo, agora em dimensao 3. Considereo seguinte sistema linear:

⎧⎨⎩ 4 x− 2 y + 2 z = 5,2 x+ 4 y = 5,x+ 2 y + 4 z = 5.

Na interpretacao segundo as linhas, cada linha do sistema repre-senta a equacao de um plano. Resolver o sistema consiste, entao, emdeterminar o ponto de intersecao destes tres planos.

Na interpretacao segundo as colunas, os coeficientes de x, de y ede z e dos termos independentes do sistema sao considerados comovetores no plano:

v1 =

⎡⎣ 421

⎤⎦ , v2 =

⎡⎣ −242

⎤⎦ , v3 =

⎡⎣ 202

⎤⎦ , w =

⎡⎣ 555

⎤⎦ .

Resolver o sistema consiste, entao, em determinar os coeficientes s1,s2 e s3 de uma combinacao linear de v1, v2 e v que seja igual aovetor w: w = s1 · v1 + s2 · v2 + s3 · v3.

Vamos agora escalonar a matriz aumentada associado ao sistemalinear:

Page 55: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 54

54 [CAP. 3: SISTEMAS LINEARES E A DECOMPOSICAO LU

(a)

(b)

Figura 3.4: Interpretacao geometrica (a) segundo as linhas e (b) se-gundo as colunas do sistema.

Page 56: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 55

[SEC. 3.3: MOTIVACAO: SISTEMAS LINEARES 3 POR 3 55⎡⎣ 4 −2 2 52 4 0 51 2 4 5

⎤⎦ L2←L2− 12L1→

⎡⎣ 4 −2 2 50 5 −1 5/21 2 4 5

⎤⎦L3←L3− 1

4L1→⎡⎣ 4 −2 2 5

0 5 −1 5/20 5/2 7/2 5/4

⎤⎦L3←L3− 1

2L2→⎡⎣ 4 −2 2 5

0 5 −1 5/20 0 4 5/2

⎤⎦Como no caso 2 por 2, as operacoes elementares aplicadas acimapodem ser codificadas em termos matriciais:⎡⎣ 1 0 0

0 1 00 −1/2 1

⎤⎦︸ ︷︷ ︸

E3

⎡⎣ 1 0 00 1 0−1/4 0 1

⎤⎦︸ ︷︷ ︸

E2

⎡⎣ 1 0 0−1/2 1 00 0 1

⎤⎦︸ ︷︷ ︸

E1

⎡⎣ 4 −2 22 4 01 2 4

⎤⎦︸ ︷︷ ︸

A

=⎡⎣ 4 −2 22 5 −10 0 4

⎤⎦︸ ︷︷ ︸

U

.

As matrizes E1, E2 e E3 sao cisalhamentos, triangulares inferiores,inversıveis e com todos os elementos da diagonais principal iguais a 1.As inversas de E1, E2 e E3 sao faceis de se calcular:

E−11 =

⎡⎣ 1 0 01/2 1 00 0 1

⎤⎦ ,

E−12 =

⎡⎣ 1 0 00 1 01/4 0 1

⎤⎦ ,

E−13 =

⎡⎣ 1 0 00 1 00 1/2 1

⎤⎦ .

Page 57: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 56

56 [CAP. 3: SISTEMAS LINEARES E A DECOMPOSICAO LU

Uma vez que E3E2E1A = U, segue-se que A = LU, onde

L = E−11 E−12 E−13 =

⎡⎣ 1 0 01/2 1 01/4 1/2 1

⎤⎦ .

E importante notar que a ordem em que as operacoes sao efetuadase importante para obter a estrutura da matriz L, isto e, triangularinferior com todos os elementos da diagonal principal iguais a 1. Maisprecisamente, as operacoes elementares sao realizadas na seguinteordem:

L1 ← L1 − l21 · L2, L1 ← L1 − l31 · L3 e L2 ← L2 − l32L2.

As matrizes que codificam estas operacao sao dadas respectivamentepor

E−11 =

⎡⎣ 1 0 0−l21 1 00 0 1

⎤⎦ ,

E−12 =

⎡⎣ 1 0 00 1 0−l31 0 1

⎤⎦ ,

E−13 =

⎡⎣ 1 0 00 1 00 −l32 1

⎤⎦ ,

de forma que E3E2E1A = U e uma matriz triangular superior. As-sim,

A = E−11 E−12 E−13 U

=

⎡⎣ 1 0 0l21 1 00 0 1

⎤⎦⎡⎣ 1 0 00 1 0l31 0 1

⎤⎦⎡⎣ 1 0 00 1 00 l32 1

⎤⎦U

Page 58: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 57

[SEC. 3.4: A DECOMPOSICAO LU 57

=

⎡⎣ 1 0 0l21 1 00 0 1

⎤⎦⎡⎣ 1 0 00 1 0l31 l32 1

⎤⎦U

=

⎡⎣ 1 0 0l21 1 0l31 l32 1

⎤⎦︸ ︷︷ ︸

L

U

As contas acima tambem mostram quais sao os elementos da ma-triz L que estao abaixo da diagonal principal: estes elementos saojustamente os coeficientes l21, l31 e l32 usados nas operacoes elemen-tares no processo de eliminacao gaussiana.

3.4 A Decomposicao LU

Definicao 3.2 (A Decomposicao LU) Seja A uma ma-triz n×n. Dizemos que as matrizes L e U formam uma decom-posicao LU para a matriz A se:

(a) L e U sao matrizes n× n,

(b) A = LU,

(c) U e uma matriz triangular superior (isto e, se U = (uij),entao uij = 0 para todo i > j),

(d) L e uma matriz triangular inferior com todos os elementosda diagonal principal iguais a 1 (isto e, se L = (lij), entaolij = 0 para todo i < j e lii = 1 para todo i).

Exemplo 3.1 As matrizes

L =

[1 01/2 1

]e U =

[2 −10 2/3

]formam uma decomposicao LU para a matriz

A =

[2 −11 1

].

Page 59: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 58

58 [CAP. 3: SISTEMAS LINEARES E A DECOMPOSICAO LU

Exemplo 3.2 As matrizes

L =

⎡⎣ 1 0 01/2 1 01/4 1/2 1

⎤⎦ e U =

⎡⎣ 4 −2 22 5 −10 0 4

⎤⎦formam uma decomposicao LU para a matriz

A =

⎡⎣ 4 −2 22 4 01 2 4

⎤⎦ .

Observacao. Nem toda matriz possui uma decomposicao LU. Con-sidere, por exemplo, a matriz

A =

⎡⎣ 1 2 32 4 72 5 3

⎤⎦ .

Suponha, por absurdo, que A tenha uma decomposicao LU:⎡⎣ 1 2 32 4 72 5 3

⎤⎦ =

⎡⎣ 1 0 0l21 1 0l31 l32 1

⎤⎦⎡⎣ u11 u12 u13

0 u22 u23

0 0 u33

⎤⎦ .

Temos assim que u11 = 1, u12 = 2 e u13 = 3. Logo, l21 = 2 e2 l21 + u22 = 4 e 3 l21 + u23 = 7, de modo que u22 = 0 e u23 = 1.Consequentemente, l31 = 3 e 2 l31 + l32u22 = 5. Mas 2 l31 + l32u22 =2 (3) + l32 (0) = 6 que e diferente de 5, uma contradicao.

Observacao. Existem matrizes que nao possuem uma decompo-sicao LU mesmo se nao exigirmos que a matriz L tenha todos oselementos da diagonal principal iguais a 1. Considere, por exemplo,a matriz

A =

[0 11 1

]e suponha, por absurdo, que A possua uma decomposicao da forma:[

0 11 1

]=

[a 0b c

] [x y0 z

].

Page 60: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 59

[SEC. 3.4: A DECOMPOSICAO LU 59

Segue-se entao que ax = 0, de modo que a = 0 ou x = 0. Mas, sea = 0, entao[

0 0b c

] [x y0 z

]=

[0 0bx by + cz

]�=[

0 11 1

],

uma contradicao. Por outro lado, se x = 0, entao[a 0b c

] [0 y0 z

]=

[0 ay0 by + cz

]�=

[0 11 1

],

tambem uma contradicao.

Proposicao 3.1

(a) Se L e uma matriz triangular inferior inversıvel, entao suainversa L−1 tambem e triangular inferior.

(b) Se L tem todos os elementos de sua diagonal principal iguaisa 1, entao o mesmo ocorre com sua inversa L−1.

Demonstracao:

(a) Observe inicialmente que se L e uma matriz inversıvel, entaotodos os elementos de sua diagonal principal sao diferentes de 0pois, caso contrario, o determinante de L (que e igual ao produtodos elementos da diagonal principal) seria igual a zero e L naoseria inversıvel. Escrevendo

L =

⎡⎢⎢⎢⎢⎢⎣l11 0 0 · · · 0l21 l22 0 · · · 0l31 l32 l33 · · · 0...

......

. . ....

ln1 ln2 ln3 · · · lnn

⎤⎥⎥⎥⎥⎥⎦e

L−1 =

⎡⎢⎢⎢⎢⎢⎣a11 a12 a13 · · · a1na21 a22 a23 · · · a2na31 a32 a33 · · · a3n...

......

. . ....

an1 an2 an3 · · · ann

⎤⎥⎥⎥⎥⎥⎦ ,

Page 61: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 60

60 [CAP. 3: SISTEMAS LINEARES E A DECOMPOSICAO LU

temos que⎡⎢⎢⎢⎢⎢⎣l11 0 0 · · · 0l21 l22 0 · · · 0l31 l32 l33 · · · 0...

......

. . ....

ln1 ln2 ln3 · · · lnn

⎤⎥⎥⎥⎥⎥⎦︸ ︷︷ ︸

L

⎡⎢⎢⎢⎢⎢⎣a11 a12 a13 · · · a1na21 a22 a23 · · · a2na31 a32 a33 · · · a3n...

......

. . ....

an1 an2 an3 · · · ann

⎤⎥⎥⎥⎥⎥⎦︸ ︷︷ ︸

L−1

=⎡⎢⎢⎢⎢⎢⎣1 0 0 · · · 00 1 0 · · · 00 0 1 · · · 0...

......

. . ....

0 0 0 · · · 1

⎤⎥⎥⎥⎥⎥⎦︸ ︷︷ ︸

I

Multiplicando-se sucessivamente a primeira linha de L pelas co-lunas 1, 2, 3, . . . , n de L−1, obtemos as seguintes igualdades:

l11a11 = 1, l11a12 = 0, l11a13 = 0, . . . , l11a1n = 0.

Lembrando que l11 �= 0, segue-se que

a11 = 1/l11, a12 = 0, a13 = 0, . . . , a1n = 0.

Multiplicando-se sucessivamente a segunda linha de L pelas colu-nas 2, 3, 4, . . . , n de L−1 e usando que a12 = a13 = · · · = a1n = 0,obtemos as seguintes igualdades:

l22a22 = 1, l22a23 = 0, l22a24 = 0, . . . , l22a2n = 0.

Lembrando que l22 �= 0, segue-se que

a22 = 1/l22, a23 = 0, a24 = 0, . . . , a2n = 0.

Prosseguindo-se com este processo, vemos que todos os elementosde L−1 acima de sua diagonal principal sao iguais a zero e, assim,L−1 e uma matriz triangular inferior.

Page 62: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 61

[SEC. 3.4: A DECOMPOSICAO LU 61

(b) Note que, em (a), se lii = 1 para todo i = 1, . . . , n, entao aii =1/lii = 1 para todo i = 1, . . . , n.

Proposicao 3.2 Se U e uma matriz triangular superior in-versıvel, entao sua inversa U−1 tambem e triangular superior.

Demonstracao: Exercıcio.

Proposicao 3.3 Se L1 e L2 sao duas matrizes triangulares in-feriores, entao o produto L1L2 tambem e triangular inferior.Se L1 e L2 tem todos os elementos de suas diagonais principaisiguais a 1, entao o mesmo ocorre com produto L1L2.

Demonstracao: Basta observar a estrutura⎡⎢⎢⎢⎢⎢⎣∗ 0 0 · · · 0∗ ∗ 0 · · · 0∗ ∗ ∗ · · · 0...

......

. . ....

∗ ∗ ∗ · · · ∗

⎤⎥⎥⎥⎥⎥⎦

⎡⎢⎢⎢⎢⎢⎣∗ 0 0 · · · 0∗ ∗ 0 · · · 0∗ ∗ ∗ · · · 0...

......

. . ....

∗ ∗ ∗ · · · ∗

⎤⎥⎥⎥⎥⎥⎦ .

Proposicao 3.4 O produto de duas matrizes triangulares su-periores e ainda triangular superior.

Demonstracao: Exercıcio.

Teorema 3.2 Se A e inversıvel e possui uma decomposicao LU(com todos os elementos da diagonal principal de L iguais a 1),entao esta decomposicao e unica.

Demonstracao: Suponha que existem duas decomposicoes LU paraa matriz A: A = LU = LU. Como A e inversıvel, U e U tambemsao inversıveis (por que?). Entao

LU = LU ⇒ L−1LU = U ⇒ L−1L = UU−1.

Page 63: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 62

62 [CAP. 3: SISTEMAS LINEARES E A DECOMPOSICAO LU

Seja D = L−1L = UU−1. Com o produto de matrizes triangularesinferiores e triangular inferior e o produto de matrizes triangularessuperior e triangular superior, concluımos que D e, ao mesmo tempo,triangular inferior e triangular superior. Sendo assim,D e uma matrizdiagonal. Como todos elementos das diagonais principais de L−1 e Lsao iguais a 1, segue-se que D e a matriz identidade. Assim,

L−1

L = I ⇒ L = L e UU−1 = I ⇒ U = U.

Definicao 3.3 (Menor de uma matriz) Seja A uma matrizn×n. Ummenor de ordem k e o determinante de uma submatrizk × k de A obtida removendo-se n − k linhas e n − k colunasde A.

Exemplo 3.3 Considere a matriz 3× 3

A =

⎡⎣ a b cd e fg h i

⎤⎦ .

Os menores de ordem 1 da matriz A sao dados por

|a|, |b|, |c|, |d|, |e|, |f |, |g|, |h| e |i|.Os menores de ordem 2 da matriz A sao dados por∣∣∣∣ e f

h i

∣∣∣∣ , ∣∣∣∣ d fg i

∣∣∣∣ , ∣∣∣∣ d eg h

∣∣∣∣ ,∣∣∣∣ b ch i

∣∣∣∣ , ∣∣∣∣ a cg i

∣∣∣∣ , ∣∣∣∣ a bg h

∣∣∣∣ ,∣∣∣∣ b ce f

∣∣∣∣ , ∣∣∣∣ a cd f

∣∣∣∣ , ∣∣∣∣ a bd e

∣∣∣∣ .O menor de ordem 3 da matriz A e dado por

Page 64: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 63

[SEC. 3.4: A DECOMPOSICAO LU 63∣∣∣∣∣∣a b cd e fg h i

∣∣∣∣∣∣ .O sımbolo |A| denota o determinante da matriz A (nao confundacom o modulo de um numero real).

Definicao 3.4 (Menor principal de uma matriz) Um me-nor principal de ordem k e um menor de ordem k no qual as mes-mas linhas e colunas foram removidas. Mais especificamente, seas linhas i1, . . . , in−k foram removidas, entao as colunas remo-vidas sao as de ındices i1, . . . , in−k.

Exemplo 3.4 Considere a matriz 3× 3

A =

⎡⎣ a b cd e fg h i

⎤⎦ .

Os menores principais de ordem 1 da matriz A sao dados por

|a|, |e| e |i|.Os menores principais de ordem 2 da matriz A sao dados por∣∣∣∣ e f

h i

∣∣∣∣ , ∣∣∣∣ a cg i

∣∣∣∣ , ∣∣∣∣ a bd e

∣∣∣∣ .O menor principal de ordem 3 da matriz A e dado por∣∣∣∣∣∣

a b cd e fg h i

∣∣∣∣∣∣ .O sımbolo |A| denota o determinante da matriz A (nao confundacom o modulo de um numero real).

Definicao 3.5 (Menor principal lıder de uma matriz)Um menor principal lıder de ordem k e um menor principal deordem k onde foram removidas as ultimas n− k linhas e n− kcolunas.

Page 65: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 64

64 [CAP. 3: SISTEMAS LINEARES E A DECOMPOSICAO LU

Exemplo 3.5 Considere a matriz 3× 3

A =

⎡⎣ a b cd e fg h i

⎤⎦ .

Os menores principais lıderes de ordem 1, 2 e 3 de A sao dados,respectivamente, por

|a|,∣∣∣∣ a bd e

∣∣∣∣ e

∣∣∣∣∣∣a b cd e fg h i

∣∣∣∣∣∣ .O sımbolo |A| denota o determinante da matriz A (nao confundacom o modulo de um numero real).

Teorema 3.3 As seguintes sentencas sao equivalentes:

(1) Existe uma unica decomposicao A = LU com L triangularinferior com todos os elementos de sua diagonal principaliguais a 1 e U inversıvel.

(2) Todos os menores principais lıderes de A sao diferentes dezero.

Observacao (multiplicacao por blocos). A demonstracao queapresentaremos faz uso da multiplicacao por blocos. Por exemplo, se

M =

⎡⎢⎣ Ar×r Br×(n−r)

C(n−r)×r D(n−r)×(n−r)

⎤⎥⎦e

M =

⎡⎢⎣ Ar×r Br×(n−r)

C(n−r)×r D(n−r)×(n−r)

⎤⎥⎦

Page 66: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 65

[SEC. 3.4: A DECOMPOSICAO LU 65

entao

MM =

⎡⎢⎣ AA+BC AB+BD

CA+DC CB+DD

⎤⎥⎦ .

Um exemplo mais explıcito e apresentado na Figura 3.5. E possıvelfazer multiplicacoes por blocos mesmo que os blocos diagonais naosejam quadrados (veja o Exercıcio [12] na pagina 92).

Demonstracao do Teorema 3.3: [(1)⇒ (2)] Para cada k ∈ {1, . . . , n},escreva A em blocos

A =

[A11 A12

A21 A22

],

com A11 um bloco principal k × k. Por hipotese, A possui umadecomposicao LU: A = LU. A decomposicao em blocos da matriz Ainduz decomposicoes em blocos em L e U:[

A11 A12

A21 A22

]=

[L11 0L21 L22

] [U11 U12

0 U22

]=

[L11U11 L11U12

L21U11 L21U12 + L22U22

]Assim, A11 = L11U11, com L11 uma matriz triangular inferior comos elementos de sua diagonal principal todos iguais a 1 e U11 umamatriz triangular superior. Observe que

det(A11) = det(L11U11) = det(L11) · det(U11)

= 1 ·k∏

i=1

(U11)ii =k∏

i=1

(U11)ii

= produto dos elementos da diagonal principal de U11.

Como U e triangular superior e inversıvel, segue-se que todos os ele-mentos de sua diagonal principal devem ser diferentes de zero pois,caso contrario, o determinante de U seria igual a zero (lembre-se queo determinante de uma matriz triangular superior e igual ao produtodos elementos de sua diagonal principal). Uma vez que os elemen-tos da diagonal principal de U11 tambem sao elementos da diagonal

Page 67: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 66

66 [CAP. 3: SISTEMAS LINEARES E A DECOMPOSICAO LU

⎡ ⎢ ⎢ ⎢ ⎢ ⎣ab

c

de

f

gh

i

⎤ ⎥ ⎥ ⎥ ⎥ ⎦⎡ ⎢ ⎢ ⎢ ⎢ ⎣ab

c

de

f

gh

i

⎤ ⎥ ⎥ ⎥ ⎥ ⎦

=

⎡ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎣⎡ ⎢ ⎣ab

df

⎤ ⎥ ⎦⎡ ⎢ ⎣ab

cd

⎤ ⎥ ⎦+⎡ ⎢ ⎣c f

⎤ ⎥ ⎦[ gh

]⎡ ⎢ ⎣ab

df

⎤ ⎥ ⎦⎡ ⎢ ⎣c f

⎤ ⎥ ⎦+⎡ ⎢ ⎣c f

⎤ ⎥ ⎦[ i

]

[ gh

]⎡ ⎢ ⎣ab

de

⎤ ⎥ ⎦+[ i

][g

h

][ g

h

]⎡ ⎢ ⎣c f

⎤ ⎥ ⎦+[ i

][i

]⎤ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎦

Figura

3.5:Um

exem

plo

demultiplicacaoporblocos.

Page 68: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 67

[SEC. 3.4: A DECOMPOSICAO LU 67

principal de U, segue-se que

det(A11) =

k∏i=1

(U11)ii �= 0.

Assim, para cada k ∈ {1, . . . , n}, o k-esimo menor principal lıderde A e diferente de zero.

[(2) ⇒ (1)] A demonstracao sera feita por inducao no tamanho nda matriz A. Se n = 1, entao A =

[a]. Como a �= 0 (pois, por

hipotese, todos os menores principais lıderes de A sao diferentes dezero), segue-se que

A =[1]︸ ︷︷ ︸

L

[a]︸ ︷︷ ︸

U

,

com L matriz triangular inferior com todos os elementos de sua di-agonal principal iguais a 1 e U matriz triangular superior inversıvel.Vamos agora tratar do passo indutivo: seja M uma matriz (n+1)×(n + 1) cujos menores principais lıderes de todas as ordens sao dife-rentes de zero. Escreva

M =

[An×n bn×1(cT )1×n δ1×1

].

Como os menores principais lıderes de todas as ordens de A (quetambem menores principais lıderes de M) sao diferentes de zero, pelahipotese de inducao, existem unicas matrizes L (triangular inferiorcom todos os elementos de sua diagonal principal iguais a 1) e U(triangular superior inversıvel) tais que

A = LU.

Vamos determinar matrizes un×1, �n×1 e η1×1 tais que

L =

[L 0

�T 1

]e U =

[U u0 η

]formem uma decomposicao LU para a matriz M: M = LU. Agora,[

An×n bn×1(cT )1×n δ1×1

]=

[L 0

�T 1

] [U u0 η

]=

[LU Lu

�TU �T c+ η

].

Page 69: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 68

68 [CAP. 3: SISTEMAS LINEARES E A DECOMPOSICAO LU

Assim, u, � e η1×1 devem satisfazer as equacoes matriciais

b = Lu, cT = �TU e �T + η = δ.

Como L e inversıvel, temos que

b = Lu ⇒ Lu = b ⇒ u = L−1b.

Como U e inversıvel, sua transposta UT tambem e inversıvel e, por-tanto,

cT = �TU ⇒ (�TU)T = (cT )T ⇒ UT � = c ⇒ � = (UT )−1c.

Temos tambem que

�T + η = δ ⇒ η = δ − �Tu = δ −U−1cT .

Resta mostrar que U e inversıvel. Como det(U) = det(U) · η edet(U) �= 0 (pois U e inversıvel), basta mostrar que η �= 0. Mas

det(M) = det(L) · det(U) = 1 · det(U) · η = det(U) · η. Uma vezque det(M) �= 0 (poisM e inversıvel) segue-se que η �= 0. A unicidadeda decomposicao LU segue-se do Teorema 3.2.

Observacao. OTeorema 3.2 da uma caracterizacao para a existenciade decomposicoes LU de matrizes inversıveis. O artigo [11] de Okuneve Johnson, publicado em 1997, da uma caracterizacao para matrizesgerais, nao necessariamente inversıveis.

3.5 Resolucao de Sistemas Lineares

Algoritmo 3.1 (Resolucao de sistemas lineares usandoa decomposicao LU) Para resolver um sistema linear Ax =b, os passos sao os seguintes:

Passo 1. Obtenha a decomposicao LU da matriz A (Algo-ritmo 3.2). Note entao que o sistema Ax = b e equi-valente ao sistema LUx = b.

Passo 2. Resolva o sistema linear especial Ly = b usando subs-tituicao progressiva (Algoritmo 3.3).

Page 70: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 69

[SEC. 3.5: RESOLUCAO DE SISTEMAS LINEARES 69

Passo 3. Resolva o sistema linear especialUx = u usando subs-tituicao retroativa (Algoritmo 3.4).

A seguir descrevemos e contaremos o numero de multiplicacoes/di-visoes dos Algoritmos 3.2, 3.3 e 3.4. Para isto, as identidades abaixoserao uteis:

s∑p=r

1 = s− r + 1, (3.1)

s∑p=1

p =(1 + s) s

2=

s2

2+

s

2(3.2)

s∑p=1

p2 =s (s+ 1) (2 s+ 1)

6=

s3

3+

s2

2+

s

6. (3.3)

Algoritmo 3.2 (Decomposicao LU, Golub e Van Loan,pagina 99)

for k = 1 : n− 1for i = k + 1 : n

A(i, k) = A(i, k)/A(k, k);for j = k + 1 : n

A(i, j) = A(i, j)−A(i, k) ·A(k, j);end

endend

O numero de multiplicacoes/divisoes do Algoritmo 3.2 e o seguinte:

n−1∑k=1

n∑i=k+1

⎛⎝1 +

n∑j=k+1

1

⎞⎠ =

n−1∑k=1

n∑i=k+1

(1 + n− k)

=

n−1∑k=1

((1 + n− k)

(n∑

i=k+1

1

))

Page 71: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 70

70 [CAP. 3: SISTEMAS LINEARES E A DECOMPOSICAO LU

=

n−1∑k=1

((1 + n− k) (n− k))

=n−1∑k=1

((n+ n2)− (2n+ 1) k + k2

)Logo,

n−1∑k=1

n∑i=k+1

⎛⎝1 +

n∑j=k+1

1

⎞⎠ = (n+ n2)

n−1∑k=1

1− (2n+ 1)

n−1∑k=1

k +

n−1∑k=1

k2.

Usando entao as Formulas 3.1, 3.2 e 3.3, obtemos que

n−1∑k=1

n∑i=k+1

⎛⎝1 +n∑

j=k+1

1

⎞⎠ =n3

3− n

3.

Algoritmo 3.3 (Substituicao progressiva: Ly = b)

y(1) = b(1)for i = 2 : n

s = 0;for k = 1 : i− 1

s = s+ L(i, k) · y(k);endy(i) = b(i)− s;

end

O numero de multiplicacoes/divisoes do Algoritmo 3.3 e o seguinte:

n∑i=2

i−1∑k=1

1 =n2

2− n

2.

Page 72: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 71

[SEC. 3.5: RESOLUCAO DE SISTEMAS LINEARES 71

Algoritmo 3.4 (Substituicao regressiva: Ux = y)

for j = n : −1 : 1s = 0;for k = j + 1 : n

s = s+ U(k, j) · x(j);endx(j) = (y(j)− s)/U(j, j);

end

O numero de multiplicacoes/divisoes do Algoritmo 3.4 e o seguinte:

∑j=1

⎛⎝⎛⎝ n∑k=j+1

1

⎞⎠+ 1

⎞⎠ =n2

2+

n

2.

Observacao. A Regra de Cramer usa determinantes para se resolversistemas lineares. Se estes determinantes forem calculados usando-sea Regra de Laplace, o numero de multiplicacoes cresce muito com otamanho n da matriz. Se cn e o numero de multiplicacoes necessariaspara se calcular o determinante de uma matriz n × n pela Regra deLaplace, entao c1 = 0 e c2 = 2. Observe para que o caso n = 3, aRegra de Laplace tem a seguinte estrutura:∣∣∣∣∣∣

∗ ∗ ∗∗ ∗ ∗∗ ∗ ∗

∣∣∣∣∣∣ = (∗) ·∣∣∣∣ ∗ ∗∗ ∗

∣∣∣∣− (∗) ·∣∣∣∣ ∗ ∗∗ ∗

∣∣∣∣+ (∗) ·∣∣∣∣ ∗ ∗∗ ∗

∣∣∣∣ .Logo, c3 = 3 + 3 · c2. Mais geralmente, cn = n + n · cn−1 para todon ≥ 2. Em particular,

cn ≥ n · cn−1 ≥ n · (n− 1) · cn−2 ≥ n · (n− 1) · · · · · 3 · 2 = n!.

Uma maneira mais eficiente de se calcular o determinante de umamatriz e atraves de sua decomposicao LU: se A = LU, entao

det(A) = det(LU) = det(L) · det(U) = 1 ·n∏

i=1

Uii =

n∏i=1

Uii.

Page 73: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 72

72 [CAP. 3: SISTEMAS LINEARES E A DECOMPOSICAO LU

Observacao. Note que o Algoritmo 3.2 armazena os elementos dasmatrizes L e U da decomposicao LU da matriz A na propria ma-triz A: se A = (aij), L = (lij) e U = (uij), entao

lij = aij para todo i > j e uij = aij para todo i ≤ j.

Ja sabemos que os elementos da diagonal principal de L sao todosiguais a 1 e, portanto, eles nao precisam ser armazenados. Alem daeconomia de armazenamento dos dados, este esquema tem outra van-tagem: caso seja necessario resolver varios sistemas lineares Ax = bcom a mesma matriz A, mas com diferentes valores de b, basta calcu-lar a decomposicao LU de A uma unica vez (a um preco n3/3−n/3)e, entao, usar os algoritmos de substituicao progressiva e regressivapara cada novo valor de b (a um preco n2). Um exemplo tıpicoonde isto acontece e a tarefa de se calcular a inversa de uma matrizinversıvel A: as colunas de A−1 sao solucoes dos sistemas lineares

Ax = e1, Ax = e2, . . . , Ax = en,

onde e1, e2, . . . , en sao os vetores da base canonica de Rn. E possıveldemonstrar que sao necessarias 4n3/3− n/3 multiplicacoes/divisoespara calcular a inversa de uma matriz n× n com este esquema. Se ometodo de escalonamento fosse usado (isto e, fazer operacoes elemen-tares na matriz aumentada

[A I

]ate transforma-la em uma ma-

triz da forma[I B

], de modo que B = A−1), seriam necessarias

4n3/3 + n2/2− 5n/6 multiplicacoes/divisoes.

3.6 Pivotamento Parcial

O Algoritmo 3.2 pode falhar, mesmo para matrizes inversıveis.Vejamos um exemplo:⎡⎣ 1 1 1

2 2 54 6 8

⎤⎦ L2←L2−2L1→⎡⎣ 1 1 1

0 0 34 6 8

⎤⎦L3←L3−4L1→

⎡⎣ 1 1 10 0 30 2 4

⎤⎦ .

Page 74: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 73

[SEC. 3.6: PIVOTAMENTO PARCIAL 73

Note que o algoritmo nao pode continuar, uma vez que o elemento nasegunda linha e na segunda coluna da ultima matriz (o elemento pivo)e igual a zero. E necessario introduzir uma nova operacao elementar,a permutacao de linhas da matriz,⎡⎣ 1 1 1

0 0 30 2 4

⎤⎦ L2↔L3→⎡⎣ 1 1 1

0 2 40 0 3

⎤⎦ ,

a qual, como os cisalhamentos, tambem pode ser codificada atravesda multiplicacao por uma matriz de permutacao P:⎡⎣ 1 0 0

0 0 10 1 0

⎤⎦︸ ︷︷ ︸

P

⎡⎣ 1 1 10 0 30 2 4

⎤⎦ =

⎡⎣ 1 1 10 2 40 0 3

⎤⎦ .

Trataremos agora de algumas propriedades de matrizes de per-mutacao. Sejam r, s ∈ {1, . . . , n}, com r �= s. A matriz de per-mutacao elementar Ers e matriz obtida permutando-se as linhas re s da matriz identidade In×n:

Ers =

⎡⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎣

1. . . 0

10 · · · 1 r...

. . ....

1 · · · 0 s1

0 . . .

1r s

⎤⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎦.

Note que as colunas r e s tambem foram permutadas. Destacamosas seguintes propriedades das matrizes de permutacao elementares:

(1) ErsA e a matriz obtida permutando-se as linhas r e s de A.

Page 75: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 74

74 [CAP. 3: SISTEMAS LINEARES E A DECOMPOSICAO LU

Exemplo: ⎡⎣ 1 0 00 0 10 1 0

⎤⎦︸ ︷︷ ︸

E23

⎡⎣ 1 2 34 5 67 8 9

⎤⎦︸ ︷︷ ︸

A

=

⎡⎣ 1 2 37 8 94 5 6

⎤⎦︸ ︷︷ ︸

E23A

.

(2) AErs e a matriz obtida permutando-se as colunas r e s de A.Exemplo: ⎡⎣ 1 2 3

4 5 67 8 9

⎤⎦︸ ︷︷ ︸

A

⎡⎣ 1 0 00 0 10 1 0

⎤⎦︸ ︷︷ ︸

E23

=

⎡⎣ 1 3 24 6 57 9 8

⎤⎦︸ ︷︷ ︸

E23A

.

E interessante interpretar a igualdade acima em termos de com-binacoes lineares e multiplicacao por matrizes (veja a primeiraobservacao na pagina 12).

(3) Ers e inversıvel, pois det(Ers) = −1 (lembre-se que para termosuma permutacao, r �= s). Mais ainda: E−1rs = Ers.

(4) ETrs = Ers.

Mais geralmente, dizemos que uma matriz P e uma matriz depermutacao se ela se escreve como produto de matrizes de permutacaoelementares:

P = ErkskErk−1sk−1· · ·Er2s2Er1s1 .

Note entao que (1) cada linha de uma matriz de permutacao P possuiapenas um elemento igual a 1, sendo todos os demais iguais a 0,e (2) cada coluna de uma matriz de permutacao P possui apenas umelemento igual a 1, sendo todos os demais iguais a 0. Uma matriz depermutacao e inversıvel e sua inversa e igual a

P−1 = PT .

De fato: note que

Page 76: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 75

[SEC. 3.6: PIVOTAMENTO PARCIAL 75

PTP

=

(ErkskErk−1sk−1· · ·Er2s2Er1s1)

T (ErkskErk−1sk−1· · ·Er2s2Er1s1)

=

ETr1s1E

Tr2s2 · · ·ET

rk−1sk−1ET

rkskErksk︸ ︷︷ ︸I

Erk−1sk−1· · ·Er2s2Er1s1

=

ETr1s1E

Tr2s2 · · ·ET

rk−1sk−1Erk−1sk−1︸ ︷︷ ︸I

· · ·Er2s2Er1s1

=

I.

Ao contrario das matrizes de permutacao elementares, uma matrizde permutacao nao e necessariamente simetrica. De fato, considere

P = E12E13 =

⎡⎣ 0 1 01 0 00 0 1

⎤⎦⎡⎣ 0 0 10 1 01 0 0

⎤⎦ =

⎡⎣ 0 1 00 0 11 0 0

⎤⎦ .

Em termos das matrizes de permutacao elementares, temos que

PT = (E12E13)T = ET

13ET12 = E13E12 �= P.

Em outras palavras, permutar primeiro as linhas 1 e 3 de uma matrizpara, depois, permutar as linhas 1 e 2, nao produz o mesmo resultadodo que permutar primeiro as linhas 1 e 2 para, depois, permutaras linhas 1 e 3.

Vamos ver como o metodo de pivotamento parcial age em umamatriz A de tamanho 3 por 3.

(1) Dada a matriz A, pode acontecer do elemento a11 ser igual a 0e, assim, nao seria possıvel executar logo o primeiro passo daeliminacao gaussiana. Devemos, portanto, procurar por um ele-mento nao nulo nos elementos restantes da coluna e, entao, fazera permutacao das linhas correspondentes. A ideia e procurar pelomaior elemento em modulo (o elemento pivo). Mais ainda, por

Page 77: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 76

76 [CAP. 3: SISTEMAS LINEARES E A DECOMPOSICAO LU

razoes numericas, como veremos mais adiante, mesmo que a11seja diferente de 0, e conveniente troca-lo por um elemento que,em modulo, seja maior do que |a11|. Vamos indicar esta per-mutacao com a notacao

P1,1+ .

O “1+” indica que a linha 1 foi trocada por uma linha i, comi > 1, ou que nao houve troca, pois o elemento a11 ja e, emmodulo, o maior elemento entre os elementos procurados (e, nestecaso, P1,1+ = I). Se a matriz A e inversıvel, algum elementoda primeira coluna de A e diferente de 0 pois, caso contrario,o determinante de A seria igual a 0. Se a coluna 1 da matriz Afor nula, basta entao para a coluna 2 e repetir o processo aquidescrito.

(2) Se o elemento pivo na posicao (1, 1) deP1,1+A e diferente de zero,podemos entao aplicar as operacoes elementares da eliminacaogaussiana: os cisalhamentos. Vamos usar as notacoes E1,2 e E1,3

para indica-los:E1,3E1,2P1,1+ .

(3) A proxima etapa e trocar o elemento na posicao (2, 2) da ma-triz E1,3E1,2P1,1+ pelo elemento de maior modulo na segundacoluna a partir da posicao (2, 2) (nesta etapa, nao consideramosmais a primeira linha). Esta operacao e codificada por uma ma-triz de permutacao P2,2+?

P2,2+E1,3E1,2P1,1+ .

(4) Podemos entao aplicar a ultima operacao elementar, um cisalha-mento, obtendo a matriz superior:

U = E2,3P2,2+E1,3E1,2P1,1+ .

(5) As estruturas das matrizes P1,1+ , P2,2+ , E1,2, E2,3, E1,3 e a or-dem em que elas aparecem na construcao da matriz U permitemobter uma decomposicao matricial da forma

PA = LU.

Page 78: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 77

[SEC. 3.6: PIVOTAMENTO PARCIAL 77

De fato: como as matrizes de permutacao elementares sao in-versıveis, podemos reescrever a equacao

E2,3P2,2+E1,3E1,2P1,1+ = U

da seguinte maneira:

E2,3(P2,2+E1,3E1,2P−12,2+)(P2,2+P1,1+)A = U,

ou, ainda, como P−12,2+ = P2,2+ ,

E2,3(P2,2+E1,3E1,2P2,2+)(P2,2+P1,1+)A = U.

O produto E1,3E1,2 tem a seguinte estrutura

E1,3E1,2 =

⎡⎣ 1 0 0∗ 1 0∗ 0 1

⎤⎦ .

Se P2,2+ nao e a matriz identidade, os produtos

P2,2+

⎡⎣ 1 0 0∗ 1 0∗ 0 1

⎤⎦P2,2+

“trocam” as duas ultimas linhas e as duas ultimas colunas de E1,3E1,2,logo P2,2+E1,3E1,2P2,2+ tem a mesma estrutura de E1,3E1,2:

P2,2+E1,3E1,2P2,2+ =

⎡⎣ 1 0 0∗ 1 0∗ 0 1

⎤⎦ .

Portanto, a estrutura da matriz E2,3(P2,2+E1,3E1,2P2,2+) e daforma triangular inferior:

E2,3(P2,2+E1,3E1,2P2,2+) =

⎡⎣ 1 0 0∗ 1 0∗ ∗ 1

⎤⎦ .

Como a inversa de matriz triangular inferior com todos os elemen-tos da diagonal principal iguais a 1 e ainda uma matriz triangular

Page 79: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 78

78 [CAP. 3: SISTEMAS LINEARES E A DECOMPOSICAO LU

inferior com todos os elementos da diagonal principal iguais a 1(Proposicao 3.1), segue-se que

P2,2+P1,1+︸ ︷︷ ︸P

A = LU.

Como exercıcio, tente repetir o metodo acima para matrizes 4 por 4e convenca-se que ele pode ser generalizado para o caso geral.

Proposicao 3.5 Toda matriz A (nao necessariamente qua-drada ou inversıvel) possui uma decomposicao da forma

PA = LU,

onde P e uma matriz de permutacao, L e uma matriz triangularinferior e U e uma matriz tal que uij = 0 para i > j. Se A temtamanho m por n, entao P e L tem tamanho m por m e U temtamanho m por n.

Observacao. A escolha do pivo como o maior elemento em moduloaumenta a estabilidade numerica do metodo. Como exemplo, consi-dere a matriz

A =

[10−20 11 1

].

Sem pivotamento, com aritmetica exata, obtemos

L =

[1 0

1020 1

]e U =

[10−20 10 1− 1020

].

Mas, no computador, estas matrizes sao arredondadas para

L =

[1 0

1020 1

]e U =

[10−20 10 −1020

],

de forma que

LU =

[10−20 11 0

].

Page 80: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 79

[SEC. 3.6: PIVOTAMENTO PARCIAL 79

Se resolvermos o sistema Ax = b para b = [ 1 0 ]T , sem pivota-

mento, isto e, com as matrizes L e U, teremos{y1 = 1,

1020 y1 + y2 = 0⇒

[y1y2

]=

[1

−10−20]

e{10−20 x1 + x2 = y1 = 1,

−1020 x2 = y2 = −1020 ⇒[

x1

x2

]=

[01

],

enquanto que a solucao correta e

(x1, x2) =

(1

10−20 − 1,

1

1− 10−20

)≈ (−1, 1).

Agora, usando o pivotamento parcial, com aritmetica exata, obtemosas matrizes

L =

[1 0

10−20 1

], U =

[1 10 1− 10−20

]e P =

[0 11 0

].

Mas, no computador, a matriz U e arredondada para

U =

[1 10 1

].

Se resolvermos o sistema Ax = b para b = [ 1 0 ]T , com pivota-

mento, isto e, com as matrizes L e U, teremos

Ax = b⇔ PAx = Pb⇔ LUx = Pb.

Agora, dado que Pb = [ 0 1 ]T , temos que{y1 = 0,

10−20 y1 + y2 = 1⇒

[y1y2

]=

[01

]e {

x1 + x2 = y1 = 0,x2 = y2 = 1

⇒[

x1

x2

]=

[ −11

],

enquanto que a solucao correta e

(x1, x2) =

(1

10−20 − 1,

1

1− 10−20

)≈ (−1, 1).

Page 81: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 80

80 [CAP. 3: SISTEMAS LINEARES E A DECOMPOSICAO LU

Definicao 3.6 (Matriz estritamente diagonal domi-nante) Dizemos que uma matriz A de tamanho n por n eestritamente diagonal dominante se, para todo i = 1, . . . , n,

|aii| >n∑

j=1j �=i

|aij |.

Exemplo 3.6 A matriz

⎡⎣ 2 −1 0−1 3 −10 −1 2

⎤⎦ e estritamente diagonal

dominante. A matriz

[5 14 2

]nao e estritamente diagonal domi-

nante.

Proposicao 3.6 Se AT e estritamente diagonal dominante,entao a decomposicao LU de A pode ser calculada sem pivo-tamento de linhas.

Demonstracao: A demonstracao sera feita por inducao sobre o tama-nho n da matriz A. Se n = 1, o resultado e evidente:

A = [ a11 ] = [ 1 ][ a11 ] = LU.

Suponha agora que toda matriz de tamanho n por n cuja transpostae estritamente diagonal dominante possui uma decomposicao LU quepode ser calculada sem pivotamento de linhas e considere uma ma-triz A de tamanho n+1 por n+1 cuja transposta AT e estritamentediagonal dominante. Escreva A da seguinte maneira:

A =

[α wT

v C

],

onde α e um escalar (uma matriz 1 por 1). Uma vez que AT eestritamente diagonal dominante, segue-se que, em particular, α �=0. Os cisalhamentos correspondentes as operacoes elementares para

Page 82: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 81

[SEC. 3.6: PIVOTAMENTO PARCIAL 81

a primeira coluna da matriz A podem ser codificados atraves damatriz

E =

[1 0T

−v/α I

]de modo que

EA =

[1 0T

−v/α I

] [α wT

v C

]=

[α wT

0 C− vwT /α

]=

[1 0T

0 C− vwT /α

] [α wT

0 I

].

Portanto,

A = E−1[

1 0T

0 C− vwT /α

] [α wT

0 I

]=

[1 0T

v/α I

] [1 0T

0 C− vwT /α

] [α wT

0 I

]=

[1 0T

v/α I

] [1 0T

0 B

] [α wT

0 I

],

onde B = C − vwT /α. Se mostramos que BT e estritamente dia-gonal dominante, entao, pela hipotese de inducao, B tera uma de-composicao LU (B = LBUB) e, a partir desta decomposicao LUpara B, sera possıvel construir uma decomposicao LU para A (sempivotamentos de linhas):

A =

[1 0T

v/α I

] [1 0T

0 LBUB

] [α wT

0 I

]=

[1 0T

v/α LB

] [α wT

0 UB

]= LAUA.

Para mostrar que BT e estritamente diagonal dominante, observeprimeiro que, por AT ser estritamente diagonal dominante,

n∑i=1i�=j

|cij | < |cjj | − |wj | e

n∑i=1i�=j

|vi| < |α| − |vj |

Page 83: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 82

82 [CAP. 3: SISTEMAS LINEARES E A DECOMPOSICAO LU

para todo 1 ≤ j ≤ n. Como queremos mostrar que a transposta damatriz B e estritamente diagonal dominante, vamos entao compararo modulo de cada elemento da diagonal principal da matriz B coma soma dos modulos dos demais elementos na mesma coluna:

n∑i=1i�=j

|bij | =

n∑i=1i�=j

∣∣∣cij − viwj

α

∣∣∣ (∗)≤

n∑i=1i�=j

|cij |+ |wj ||α|

n∑i=1i�=j

|vi|

< (|cjj | − |wj |) + |wj ||α| (|α| − |vj |) = |cjj | −

∣∣∣wjvjα

∣∣∣(∗∗)≤

∣∣∣cjj − wjvjα

∣∣∣ = |bjj |,

onde, em (∗), usamos a desigualdade triangular e o fato de |wj |/|α|nao depender de i e, em (∗∗), usamos a desigualdade |x|−|y| ≤ |x−y|para todo x, y ∈ R.

3.7 Aplicacao: O Metodo de Newton

O metodo de Newton e um algoritmo numerico que tem comofinalidade calcular uma aproximacao de uma raiz de funcao real deuma variavel, isto e, aproximar um numero real p tal que f(p) = 0,com f : R → R. A ideia do metodo e muito simples. A partir deuma aproximacao inicial x0, calculamos a equacao da reta tangenteao grafico de f no ponto x0,

y = g(x) = f(x0) + f ′(x0)(x − x0).

Observe que encontrar uma raiz da aproximacao g e mais facil do queencontrar uma raiz da funcao original f :

y = g(x) = f(x0) + f ′(x0)(x − x0)⇒ x = x0 − f(x0)

f ′(x0).

O numero x1 = x0 − f(x0)/f′(x0) (Figura 3.6) e uma outra apro-

ximacao da raiz p de f (estamos supondo, evidentemente, que f ′(x0) �=0). Basta agora repetir o processo, trocando x0 por x1 para calcular

Page 84: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 83

[SEC. 3.7: APLICACAO: O METODO DE NEWTON 83

Figura 3.6: Um passo do metodo de Newton.

x2, e assim por diante. Espera-se que a sequencia gerada por estaconstrucao convirja para a raiz p de f .

O metodo de Newton pode ser generalizado para funcoes vetoriaisdo tipo

F : Rn → Rn,

seguindo a mesma construcao do caso escalar. A partir de uma apro-ximacao inicial x0, calculamos a equacao da aproximacao (afim) de Fno ponto x0,

y = G(x) = F(x0) +DF(x0)(x− x0),

onde DF(x0), de tamanho n × n, e a matriz jacobiana de F noponto x0:

DF(x0) =

⎡⎢⎢⎢⎢⎢⎣∂F1

∂x1(x0) · · · ∂F1

∂xn(x0)

.... . .

...∂Fn

∂x1(x0) · · · ∂Fn

∂xn(x0)

⎤⎥⎥⎥⎥⎥⎦n×n

,

Page 85: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 84

84 [CAP. 3: SISTEMAS LINEARES E A DECOMPOSICAO LU

onde F1, . . . , Fn : Rn → R sao as funcoes coordenadas de F:

F(x) = (F1(x), . . . , Fn(x)).

Observe que encontrar uma raiz da aproximacao G e mais facildo que encontrar uma raiz da funcao original F:

F(x0) +DF(x0)(x− x0) = 0⇒ DF(x0)(x− x0) = −F(x0)⇒x− x0 = −[DF(x0)]

−1F(x0)⇒ x = x0 − [DF(x0)]−1F(x0).

O ponto x1 = x0 − [DF(x0)]−1F(x0) e uma outra aproximacao da

raiz p de F (estamos supondo, evidentemente, que a matriz DF(x0)seja inversıvel). Basta agora repetir o processo, trocando x0 por x1

para calcular x2, e assim por diante.No caso escalar, a derivada f ′(p′) e um numero e, portanto, faz

sentido dividir por f ′(p). No caso vetorial, a derivada e uma matrize, portanto, a divisao e substituıda pelo uso da inversa. Se usarmosa notacao

1

f(x0)= [f(x0)]

−1,

a formula de iteracao para o caso vetorial fica muito parecida com ocaso escalar.

Numericamente, dado o ponto x0, nao se calcula o ponto x1 pelaformula

x1 = x0 − [DF(x0)]−1F(x0),

pois calcular a inversa de uma matriz e computacionalmente caro. Oque se faz e resolver o sistema linear (algo mais barato, que pode serfeito com a decomposicao LU):

DF(x0) z = −F(x0)

e, entao, tomar x1 = x0 + z.O metodo de Newton e uma manifestacao de uma ideia central na

teoria do calculo: para se resolver um problema nao-linear (em geralmuito difıcil), o que se faz e tentar simplificar o problema com umaaproximacao afim (o papel da derivada e fundamental nesta parte),resolver o problema no caso simplificado (algo mais facil de se fazer)

Page 86: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 85

[SEC. 3.8: VARIANTES DA DECOMPOSICAO LU 85

e, entao, relacionar a solucao do problema simplificado com a solucaodo problema original.

Naturalmente, a exemplo do caso escalar, a sequencia gerada pelometodo de Newton vetorial pode nao convergir. Nao estudaremos,aqui, questoes de convergencia, testes de parada e detalhes de imple-mentacao. Indicamos, ao leitor interessado, as referencias [06, 07, 10].

3.8 Variantes da Decomposicao LU

Definicao 3.7 (A Decomposicao LDU) Seja A uma ma-triz n × n. Dizemos que as matrizes L, D e U formam umadecomposicao LDU para a matriz A se:

(a) L, D e U sao matrizes n× n,

(b) A = LDU,

(c) U e uma matriz triangular superior com todos os elementosda diagonal principal iguais a 1 (isto e, se U = (uij), entaouij = 0 para todo i > j e uii = 1 para todo i),

(d) D e uma matriz diagonal,

(e) L e uma matriz triangular inferior com todos os elementosda diagonal principal iguais a 1 (isto e, se L = (lij), entaolij = 0 para todo i < j e lii = 1 para todo i).

Teorema 3.4 Se A e inversıvel e possui uma decom-posicao LDU (com todos os elementos da diagonal principalde L e de U iguais a 1), entao esta decomposicao e unica.

Demonstracao: Sejam A = LDU e A = LDU duas decomposi-coes LDU para A. Como as matrizes DU e DU sao matrizes tri-angulares superiores, A = L(DU) e A = L(DU) sao duas decom-posicoes LU para a matriz A. Assim, pelo Teorema 3.2,

L = L e DU = DU.

Page 87: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 86

86 [CAP. 3: SISTEMAS LINEARES E A DECOMPOSICAO LU

Como as matrizesU e U tem todos os elementos da diagonal principaliguais a 1, segue-se que

D = D.

Mas D = D e uma matriz inversıvel (pois A e uma matriz inversıvel).Portanto,

U = U.

Observacao. Note que se A e simetrica e possui uma decomposi-cao LDU, entao pelo Teorema 3.4, esta decomposicao e da forma

A = LTDL.

Mais ainda: se todos os elementos da diagonal principal da matrizdiagonal D = (dij) sao maiores do que zero, entao

A = LTL,

com L =√DL, onde

√D representa a matriz diagonal

√D =

⎡⎢⎢⎢⎣√d11 0 · · · 00

√d22 · · · 0

......

. . ....

0 0 · · · √dnn

⎤⎥⎥⎥⎦ .

Definicao 3.8 (A Decomposicao de Cholesky) Seja Auma matriz n × n. Dizemos que a matriz L forma uma de-composicao de Cholesky para a matriz A se L e uma matriztriangular inferior e A = LTL.

3.9 Aplicacao: Classificacao de Pontos

Crıticos

Definicao 3.9 (Matriz positiva definida) Dizemos queuma matriz A simetrica e positiva definida se

xTAx > 0 para todo x ∈ Rn,x �= 0.

Page 88: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 87

[SEC. 3.9: APLICACAO: CLASSIFICACAO DE PONTOS CRITICOS 87

Matrizes positivas definidas aparecem, por exemplo, na classificacaode pontos crıticos de funcoes reais de varias variaveis: se f : Rn → Re uma funcao de classe C2, p e um ponto crıtico de f (isto e, se aderivada de f em p e igual a 0) e a matriz hessiana de f em p,

D2f(p) =

(∂f2

∂xi∂xj(p)

),

e positiva definida, entao p e um ponto de mınimo local de f . Ademonstracao deste fato (que nao faremos aqui) usa a aproximacaode f por seu polinomio de Taylor de ordem 2:

f(x) ≈ f(p) +Df(p) (x− p) +1

2(x− p)TD2f(p)(x − p).

Existem varias maneiras de determinar se uma matriz simetrica Ae positiva definida. Os dois proximos teoremas apresentam duas ca-racterizacoes de matrizes positivas definidas.

Teorema 3.5 Seja A uma matriz real simetrica. Mostre queas duas sentencas abaixo sao equivalentes.

(1) A e positiva definida.

(2) A possui uma unica decomposicao na formaA = LLT , ondeL e uma matriz triangular inferior com diagonal positiva.

Demonstracao:

(1) ⇒ (2): como vTAv > 0 para todo v �= 0, segue-se que A e in-versıvel (veja o Exercıcio [16]). Mais ainda, considerando-se os veto-res da forma v = [ v1 · · · vk 0 · · · 0 ]T , vemos que as submatrizescorrespondentes aos menores principais lıderes sao tambem positivasdefinidas. Em particular, todos os menores principais lıderes da ma-triz A sao diferentes de zero. Assim, pelo Teorema 3.3 na pagina 64,A tem uma uma decomposicao LU, onde L tem todos os elementosda diagonal principal iguais a 1. Como A e simetrica, segue-se que

LU = UTLT .

Page 89: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 88

88 [CAP. 3: SISTEMAS LINEARES E A DECOMPOSICAO LU

Sendo assim,U(LT

)−1 = L−1UT .

O lado esquerdo desta equacao e uma matriz triangular superior,enquanto que o lado direito e uma matriz triangular inferior. Assim,

U(LT

)−1 = L−1UT = D

e uma matriz diagonal. Concluımos entao que U(LT

)−1 = D e,portanto, U = DLT . Podemos entao escrever que A = LDLT .Todos os elementos da diagonal principal de D sao positivos, pois

dkk = eTkDek

=(LT (LT )−1ek

)TD(LT (LT )−1ek)

=((LT )−1ek

)TLDLT ((LT )−1ek)

= vTAv > 0,

onde v = (LT )−1ek, com ek o k-esimo vetor da base canonica. Agora,

se D representa a matriz diagonal com dii =√dii, vemos que

A = LDDTLT = (LD)(LD)T = LLT ,

onde L = LD. Isto mostra que A tem uma decomposicao de Cho-lesky.

(2)⇒ (1): como L e inversıvel, segue-se que LT tambem e inversıvel.Assim, LTv �= 0, para todo v �= 0. Portanto,

vTAv = vTLLTv = (LTv)T (LTv) =∥∥LTv

∥∥2 > 0.

Isto mostra que A e positiva definida.

Teorema 3.6 Seja A uma matriz real simetrica. Mostre queas duas sentencas abaixo sao equivalentes.

(1) A e positiva definida.

(2) Todos os menores principais lıderes de A sao positivos.

Page 90: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 89

[SEC. 3.9: APLICACAO: CLASSIFICACAO DE PONTOS CRITICOS 89

Demonstracao:(1) ⇒ (2): se A e positiva definida, entao A = LLT para algumamatriz triangular inferior L com diagonal positiva. Decompondo Aem blocos:[

A11 A12

A21 A22

]=

[L11 L12

L21 L22

] [LT11 LT

21

LT12 LT

22

].

Portanto, det(A11) = det(L11LT11) = (det(A11))

2> 0. Aplicando

este argumento para blocos A11 de tamanho k×k, para k = 1, . . . , n,concluımos que todos os menores principais lıderes deA sao positivos.

(2) ⇒ (1): como, por hipotese, todos os menores principais lıderessao positivos, em particular, eles sao diferentes de zero. Assim, peloTeorema 3.3 na pagina 64,A tem uma uma decomposicao LU, onde Ltem todos os elementos da diagonal principal iguais a 1. Como A esimetrica, segue-se que

LU = UTLT .

Sendo assim,U(LT

)−1 = L−1UT .

O lado esquerdo desta equacao e uma matriz triangular superior,enquanto que o lado direito e uma matriz triangular inferior. Assim,

U(LT

)−1 = L−1UT = D

e uma matriz diagonal. Concluımos entao que U(LT

)−1 = D e,portanto, U = DLT . Podemos entao escrever que A = LDLT .Note que os menores principais lıderes |Ak| de ordem k de A iguaisa d11 · · · · · dkk. Como, por hipotese,

|A1| = d11 > 0, |A2| = d11 · d22 > 0, . . . , |An| = d11 · · · · · dnn > 0,

concluımos que todos os elementos da diagonal principal de D saopositivos. Agora, se D representa a matriz diagonal com dii =

√dii,

vemos que

A = LDDTLT = (LD)(LD)T = LLT ,

Page 91: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 90

90 [CAP. 3: SISTEMAS LINEARES E A DECOMPOSICAO LU

onde L = LD. Isto mostra que A tem uma decomposicao de Cho-lesky A = LLT , onde L tem diagonal positiva. Logo, pelo teoremaanterior, A e positiva definida.

3.10 Exercıcios

[01] Mostre que se A e uma matriz inversıvel, entao AT tambem einversıvel e (AT )−1 = (A−1)T .

[02] Se A e B sao matrizes reais tais que AB = I, entao dizemosque B e uma inversa a direita de A e que A e uma inversa aesquerda de B. Por exemplo,[

1 0 00 1 0

]⎡⎣ 1 00 12 3

⎤⎦ =

[1 00 1

].

(a) De um exemplo de uma matriz com mais do que uma in-versa a direita.

(b) Mostre que uma matriz quadrada nao pode possuir maisdo que uma inversa a direita.

(c) Mostre que se A e B sao duas matrizes quadradas tais queAB = I, entao BA = I. Em outras palavras, se A possuiuma inversa B a direita, entao B tambem e a inversa aesquerda de A.

[03] Interprete geometricamente o sistema linear{x+ y = 4

2 x− 2 y = 4

em termos das linhas (intersecao de retas) e das colunas (com-binacao linear de vetores).

[04] Usando eliminacao gaussiana, obtenha a decomposicao LU damatriz

A =

⎡⎣ −1 1 −42 2 03 3 2

⎤⎦ .

Page 92: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 91

[SEC. 3.10: EXERCICIOS 91

Em seguida, use esta decomposicao para resolver o sistema li-near Ax = b, onde

b =

⎡⎣ 011/2

⎤⎦ .

[05] Usando eliminacao gaussiana, obtenha a decomposicao LU damatriz

A =

⎡⎢⎢⎣−1 1 0 −31 0 3 10 1 −1 −13 0 1 2

⎤⎥⎥⎦ .

Em seguida, use esta decomposicao para resolver o sistema li-near Ax = b, onde

b =

⎡⎢⎢⎣4031

⎤⎥⎥⎦ .

[06] Encontre todas as decomposicoes LU da matriz

A =

[1 53 15

],

onde L tem todos os elementos da diagonal principal iguais a 1.

[07] Mostre que toda matriz da forma

A =

[0 a0 b

]possui infinitas decomposicoes LU.

[08] Verdadeiro ou falso? Se uma matriz A possui uma decomposi-cao LU, onde L tem todos os elementos da diagonal principaliguais a 1, entao A tambem possui uma decomposicao LU ondeU tem todos os elementos da diagonal principal iguais a 1 e Le uma matriz triangular inferior qualquer.

Page 93: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 92

92 [CAP. 3: SISTEMAS LINEARES E A DECOMPOSICAO LU

[09] Suponha que voce saiba as entradas de uma matriz A inversıvele as entradas da componente U da decomposicao LU de A.Que algoritmo voce usaria para calcular L?

[10] Escreva um pseudocodigo para a solucao por substituicao pro-gressiva de um sistema linear da forma Ly = b, onde L e umamatriz triangular inferior com todos os elementos da diagonalprincipal iguais a 1.

[11] No MATLAB, a funcao rand(m,n) gera uma matriz m× n cujasentradas sao numeros aleatorios distribuıdos uniformemente nointervalo [0, 1]. Considere os seguintes comandos:

n = 3; A = rand(n, n); B = 0.5∗(A + A’);C = 0.5∗(A − A’);

que definem as variaveis n (dimensao), A (matriz quadrada ge-rada de maneira aleatoria), B e C.

(a) Para diferentes valores de x (por exemplo, atribuindo-sex = rand(n, 1)), calcule as expressoes x’∗A∗x e x’∗B∗x noMATLAB. O que voce observa? Tente fazer uma conjecturae prove-a!

(b) Para diferentes valores de x (por exemplo, atribuindo-sex = rand(n, 1)), calcule a expressao x’∗C∗x no MATLAB. Oque voce observa? Tente fazer uma conjectura e prove-a!

[12] Efetue a multiplicacao A · B das duas matrizes A e B da-das abaixo usando (1) o metodo da multiplicacao por blocos e(2) o produto convencional de matrizes.

A =

⎡⎢⎢⎢⎢⎢⎢⎢⎣

1 2 1 −1 0 1

−1 10 11 −11 0

1 0 −1 1−1 1 0 10 0 1 01 2 1 0

⎤⎥⎥⎥⎥⎥⎥⎥⎦,

Page 94: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 93

[SEC. 3.10: EXERCICIOS 93

B =

⎡⎢⎢⎢⎢⎢⎢⎢⎢⎢⎣

1 0 1−1 1 2

2 10 1

1 0 1−1 1 02 1 00 1 1

1 20 1−2 1−1 1

⎤⎥⎥⎥⎥⎥⎥⎥⎥⎥⎦.

[13] Seja

A =

[B C0 I

],

onde B e C sao matrizes n× n, 0 e a matriz nula n× n e I e amatriz identidade n× n. Mostre que se B− I for nao singular(isto e, se B− I for inversıvel), entao, para todo k ≥ 1,

Ak =

[Bk (Bk − I)(B− I−1)C0 I

].

[14] Seja A uma matriz n× n inversıvel, e sejam u e v dois vetoresem Rn. Encontre condicoes necessarias e suficientes para que amatriz

A =

[A uvT 0

]seja inversıvel, e apresente uma formula para a inversa quandoela existir.

[15] O codigo abaixo e uma implementacao em MATLAB do metodode Newton. Voce deve armazena-lo em um arquivo com o nomenewton sm.m.

function [ x ,R, i t e r ] =newton sm ( newton f f , newton df , x0 , . . .

t o l , nmax , va ra rg in )i t e r = 0 ; e r r = t o l + 1 ; x = x0 ;while e r r > t o l & i t e r <= nmax

FF = feval ( newton f f , x , va ra rg in { : } ) ;DF = feval ( newton df , x , va ra rg in { : } ) ;d e l t a = − DF\FF;

Page 95: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 94

94 [CAP. 3: SISTEMAS LINEARES E A DECOMPOSICAO LU

x = x + de l t a ;e r r = norm( d e l t a ) ;i t e r = i t e r + 1 ;

endR = norm( feval ( newton f f , x , va ra rg in { : } ) ) ;i f i t e r >= nmax

fprintf ( ’Too many i t e r a t i o n s . ’ ) ;fprintf ( ’ Res idua l : %e .\n ’ , R) ;

elsefprintf ( ’ Success with %i s tep ( s ) . ’ ) ;fprintf ( ’ Res idua l : %e .\n ’ , i t e r , R) ;

endreturn

Para usa-lo, por exemplo, para encontrar um zero da funcao

F(x1, x2) = (x21 + x2

2 − 1, sen(πx1/2) + x32),

isto e, para encontrar uma solucao do sistema nao linear{x21 + x2

2 − 1 = 0,sen(πx1/2) + x3

2 = 0

voce deve criar funcoes de nomes newton ff e newton df queespecificam, respectivamente, F e sua matriz jacobiana DF:

function FF = newton f f ( x )FF(1 ,1 ) = x (1)ˆ2 + x (2)ˆ2 − 1 ;FF(2 ,1 ) = sin (pi∗x (1 )/2 ) + x (2 )ˆ 3 ;return

function DF = newton df ( x )p i2 = 0 .5∗ pi ;DF(1 ,1 ) = 2∗x ( 1 ) ;DF(1 ,2 ) = 2∗x ( 2 ) ;DF(2 ,1 ) = pi2 ∗cos ( p i2 ∗x ( 1 ) ) ;DF(2 ,2 ) = 3∗x (2 ) ˆ 2 ;return

Page 96: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 95

[SEC. 3.10: EXERCICIOS 95

Feito isto, basta definir o valor inicial x0, a tolerancia tol eo numero maximo de iteracoes maxiter e, entao, fazer a cha-mada da funcao newton sm:

x0 = [ 1 ; 1 ] ; t o l=1e−5; maxiter =10;[ x ,F , i t e r ] = newton sm ( @newton ff ,

@newton df ,x0 , to l , maxiter ) ;

(a) Usando o codigo MATLAB descrito acima para o metodo deNewton, calcule uma aproximacao de uma solucao do sis-tema nao linear{

1 + x2 − y2 + ex cos(y) = 0,2 xy + ex sen(y) = 0

tomando x0 = [−1; 4] como valor inicial.

(b) Usando o codigo MATLAB descrito acima para o metodo deNewton, calcule uma aproximacao de uma solucao do sis-tema nao linear ⎧⎨⎩

xy − z2 = 1,xyz − x2 + y2 = 1,

ex − ey + z = 3.

tomando x0 = [1; 1; 1] como valor inicial. O que acontece,se voce iniciar o algoritmo com x0 = [0; 0; 1]? Explique!

[16] Mostre que se uma matrizAn×n e positiva definida, entaoAn×ne uma matriz inversıvel.

[17] (Equacoes diferenciais) O objetivo deste exercıcio e mostrarcomo sistemas lineares podem ser usados para obter uma apro-ximacao do seguinte problema de contorno:{ −u′′(x) + c(x)u(x) = f(x), para todo x ∈ (0, 1),

u(0) = α, u(1) = β,(3.4)

onde α e β sao duas constantes reais, c e uma funcao contınuanao-negativa definida em [0, 1] e f e uma funcao contınua defi-nida em [0, 1]. Defina, para 0 ≤ i ≤ n,

xi =i

n, ui = u(xi), ci = c(xi), fi = f(xi).

Page 97: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 96

96 [CAP. 3: SISTEMAS LINEARES E A DECOMPOSICAO LU

(a) Mostre que

limh→0

u(p+ h)− 2 u(p) + u(p− h)

h2= u′′(p)

(dica: use a regra de L’Hopital). Tomando p = xi e h =1/n, conclua que

−u′′(xi) ≈ 2 u(xi)− u(xi−1)− u(xi+1)

n−2. (3.5)

Substituindo −u′′(xi) pela aproximacao discreta 3.5 na equacaodiferencial 3.4, mostre que os valores ui satisfazem as seguintesn− 1 equacoes algebricas:

2 ui − ui−1 − ui+1

n−2+ ciui = fi, 1 ≤ i ≤ n− 1,

mais as duas condicoes de contorno: u0 = α, un = β. Concluaque u = [ u1 · · · un−1 ]T satisfaz o sistema linear

Au = b,

onde

b =

⎡⎢⎢⎢⎢⎢⎢⎢⎢⎢⎣

f1 + αn2

f2

...

fn−2

fn−1 + βn2

⎤⎥⎥⎥⎥⎥⎥⎥⎥⎥⎦e

A = n2

⎡⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎣

2 +c1n2

−1 0 · · · 0

−1 2 +c2n2

. . .. . .

...

0. . .

. . . −1 0...

. . . −1 2 +cn−2n2

−10 · · · 0 −1 2 +

cn−1n2

⎤⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎦.

Page 98: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 97

[SEC. 3.10: EXERCICIOS 97

Observe que c(x) > 0 para todo x ∈ [0, 1], entao A e umamatriz estritamente diagonal dominante.

(b) Mostre que

vTAv =

n−1∑i=1

civ2i + n2

[v21 + v2n−1 +

n−1∑i=2

(vi − vi−1)2].

Conclua que A e positiva definida, logo inversıvel.

(c) Considerando n = 20, c(x) = 4 para todo x ∈ [0, 1],f(x) = 4(π2 + 1)x sen(2πx) − 4 π cos(2 πx) e α = β = 0,use o MATLAB para resolver o sistema linear correspondente.Com os valores de ui, desenhe, em um mesmo sistema deeixos coordenados, os pontos (xi, ui) e o grafico da solucaoy = u(x) = x sen(2 π x) deste problema de valor inicial.

[18] (Opcional: splines cubicos) Sejam (x1, y1), (x2, y2), . . . ,(xn, yn) pontos no plano. Por comodidade, vamos supor quex1 < x2 < · · · < xn. Queremos encontrar uma funcao

f : [x1, xn] =

n⋃j=1

[xj , xj+1]→ R

que seja de classe C2, satisfazendo f(xj) = yj e de tal maneiraque f restrita ao intervalo [xj , xj+1],

f |[xj,xj+1],

seja uma funcao polinomial de grau ≤ 3. Para isto, inicial-mente, vamos supor que sejam conhecidos os valores de d2f/dx2

nos pontos xj :

y′′j :=d2f

dx2(xj).

Lembrando que, para x ∈ [xj , xj+1], a funcao l(x) = A(x) yj +B(x) yj+1, com

A(x) :=xj+1 − x

xj+1 − xje B(x) :=

x− xj

xj+1 − xj= 1−A(x),

Page 99: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 98

98 [CAP. 3: SISTEMAS LINEARES E A DECOMPOSICAO LU

fornece uma interpolacao linear por partes para os pontos (x1, y1),. . . , (xn, yn), vamos procurar nossa funcao f na forma

f(x) = l(x) + C(x) y′′j +D(x) y′′j+1

= A(x) yj +B(x) yj+1 + C(x) y′′j +D(x) y′′j+1,

com C = C(x) e D = D(x) funcoes polinomiais de grau ≤ 3.Como queremos que f(xj) = yj, as funcoes C e D devem satis-fazer

C(xj) = C(xj+1) = D(xj) = D(xj+1) = 0, (3.6)

para todo j = 1, . . . , n. Mais ainda, como f deve ser de classeC2,e razoavel tomar

d2C

dx2(x) =

xj+1 − x

xj+1 − xje

d2D

dx2(x) =

x− xj

xj+1 − xj. (3.7)

(a) Mostre que se C e D satisfazem as condicoes 3.6 e 3.7,entao, obrigatoriamente,

C(x) =1

6

((A(x))3 −A(x)

)(xj+1 − xj)

2 (3.8)

e

D(x) =1

6

((B(x))3 −B(x)

)(xj+1 − xj)

2. (3.9)

Dica: integre as equacoes 3.7 duas vezes sucessivamente euse as condicoes de contorno 3.6!

(b) Mostre que

df

dx(x) =

yj+1 − yjxj+1 − xj

− 3 (A(x))2 − 1

6(xj+1 − xj) y

′′j +

3 (B(x))2 − 1

6(xj+1 − xj) y

′′j+1 (3.10)

e qued2f

dx2(x) = A(x) y′′j +B(x) y′′j+1. (3.11)

Conclua que, de fato, (d2f/dx2)(xj) = y′′j , para cada j =1, . . . , n.

Page 100: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 99

[SEC. 3.10: EXERCICIOS 99

(c) Como f deve ser de classe C2, em particular, sua deri-vada df/dx deve ser contınua em cada ponto xj , para j =2, . . . , n− 1. Assim

df

dx(xj−) = df

dx(xj+),

com j = 2, . . . , n− 1. A partir desta equacao, conclua queos y′′j satisfazem as equacoes

xj − xj−16

y′′j−1 +xj+1 − xj−1

3y′′j +

xj+1 − xj

6y′′j+1

=

yj+1 − yjxj+1 − xj

− yj − yj−1xj − xj−1

, (3.12)

isto e, os y′′j satisfazem um sistema linear tridiagonal comn− 2 equacoes e n variaveis.

O sistema linear definido por 3.12 e indeterminado. Existemduas maneiras classicas de obter um sistema determinado.

(1) Tomar y′′1 = y′′n = 0. A funcao interpoladora f , nestecaso, e denominada spline cubico natural.

(2) Fornecer os valores das derivadas de ordem 1 de f nospontos x1 e xn e acrescentar as equacoes 3.10 com x = x1

e x = xn as equacoes do sistema 3.12.

(d) Escreva o sistema linear 3.12 para o conjunto de pontos

C = {(0, 1), (1, 1), (2, 1), (3,−1), (4,−1), (5,−1)}usando as abordagens (a) e (b). No caso (b), suponha que

df

dx(0) = 0 e

df

dx(5) = −1.

Resolva cada sistema e, em um mesmo sistema de eixo co-ordenados, desenhe os pontos de C e os dois splines inter-poladores.

Page 101: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 100

Capıtulo 4

Ortogonalidade eA Decomposicao QR

4.1 Produto Interno e Norma

Definicao 4.1 (Produto interno) Seja (V,K,+, · ) umespaco vetorial. Dizemos que a funcao 〈 , 〉 : V × V → K eum produto interno em V se:

(P1) 〈u+ v,w〉 = 〈u,v〉+ 〈v,w〉, para todo u,v,w ∈ V .

(P2) 〈λ · u,v〉 = λ·〈u,v〉, para todo λ ∈ K, para todo u,v ∈ V .

(P3) 〈u,v〉 = 〈v,u〉, para todo u,v ∈ V .

(P4) 〈u,u〉 > 0, para todo u �= 0.

Observacao. Se, em (P3). trocassemos a condicao 〈u,v〉 = 〈v,u〉pela condicao 〈u,v〉 = 〈v,u〉, entao terıamos uma contradicao parao caso K = C. De fato: por um lado, 〈v,v〉 > 0 para todo v �= 0.Por outro lado,

〈i · v, i · v〉 = i · 〈v, i · v〉 = i · 〈i · v,v〉 = i2 · 〈v,v〉 = −〈v,v〉 < 0,

100

Page 102: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 101

[SEC. 4.1: PRODUTO INTERNO E NORMA 101

para todo v �= 0, uma contradicao.

Proposicao 4.1 Se 〈 , 〉 : V × V → K e um produto internoem um espaco vetorial (V,K,+, · ), entao(1) 〈0,v〉 = 〈v,0〉 = 0, para todo v ∈ V .

(2) 〈u,v+w〉 = 〈u,v〉+ 〈u,w〉, para todo u,v,w ∈ V .

(3) 〈v,v〉 = 0 se, e somente se, v = 0.

(4) 〈u, λ · v〉 = λ · 〈u,v〉, para todo λ ∈ K, para todo u,v ∈ V .

Demonstracao:

(1) 〈0,v〉 = 〈0 · 0,v〉 = 0 · 〈0,v〉 = 0.

(2) 〈u,v+w〉 = 〈v+w,u〉 = 〈v,u〉+ 〈w,u〉 = 〈v,u〉 + 〈w,u〉 =〈u,v〉+ 〈u,w〉.

(3) Se 〈v,v〉 = 0, entao, por (P4), v = 0. Por outro lado, se v = 0,entao por (1), 〈v,v〉 = 0.

(4) Exercıcio.

Exemplo 4.1

〈u,v〉 = 〈(u1, . . . , un), (v1, . . . , vn)〉 = u1v1 + · · ·+ unvn

= vTu =[v1 · · · vn

]⎡⎢⎣ u1

...un

⎤⎥⎦e um produto interno em (Rn,R,+, · ).

Exemplo 4.2

〈z,w〉 = 〈(z1, . . . , zn), (w1, . . . , wn)〉 = z1w1 + · · ·+ znwn

e um produto interno em (Cn,C,+, · ).

Page 103: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 102

102 [CAP. 4: ORTOGONALIDADE E A DECOMPOSICAO QR

Exemplo 4.3 Se An×n e uma matriz simetrica positiva definida,entao 〈u,v〉 = vTAu e um produto interno em (Rn,R,+, · ). Note,por exemplo, que

〈u,v〉 = vTAu(∗)= (vTAu)T = uTAT (vT )T = uTAv = 〈v,u〉 ,

onde, em (∗), usamos que toda matriz 1 por 1 e simetrica.

Exemplo 4.4 Se B e uma matriz inversıvel qualquer, entao 〈u,v〉 =vTBTBu e um produto interno em (Rn,R,+, · ). Note, por exemplo,que para todo u �= 0,

〈u,u〉 = uTBTBu = (Bu)T (Bu)(∗)= vTv = v21 + · · ·+ v2n

(∗∗)> 0,

onde, em (∗), usamos a troca de variavel v = Bu. A desigual-dade (∗∗) e verdadeira, pois se u �= 0 e B e inversıvel, entao v =Bu �= 0 e, portanto, vTv = v21 + · · ·+ v2n > 0.

Exemplo 4.5

〈f, g〉 =∫ b

a

f(x)g(x) dx

e um produto em (C([a, b]),R,+, · ), o espaco vetorial das funcoesreais contınuas definidas no intervalo [a, b]. Para mostrar que 〈 , 〉satisfaz a propriedade (P4), o seguinte resultado de calculo sera ne-cessario: se F e uma funcao contınua nao negativa definida no in-tervalo [a, b] e se existe p ∈ [a, b] tal que F (p) > 0, entao existe umintervalo aberto I tal que p ∈ I e F (x) > 0 para todo x ∈ I ∩ [a, b].Em particular, ∫ b

a

F (x) dx > 0.

Assim, se f ∈ C([a, b]) e f �= 0, entao F = f · f ≥ 0 e, portanto,

〈f, f〉 =∫ b

a

f(x)f(x) dx =

∫ b

a

[f(x)]2 dx > 0.

Page 104: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 103

[SEC. 4.1: PRODUTO INTERNO E NORMA 103

Definicao 4.2 (Norma) Se (V,K,+, · ) um espaco vetorialcom produto interno 〈 , 〉 : V × V → K, denominaremos a fun-cao

|| || : V → Kv �→ ||v|| = √〈v,v〉

de norma associada ao produto interno 〈 , 〉 em V .

Proposicao 4.2

(1) ||v|| ≥ 0, para todo v ∈ V .

(2) ||v|| = 0 se, e somente se, v = 0.

(3) ||α · v|| = α · ||v||, para todo α ∈ K, para todo v ∈ V .

Demonstracao: Exercıcio.

Teorema 4.1 (Desigualdade de Cauchy-Schwarz) Paratodo u,v ∈ V ,

| 〈u,v〉 | ≤ ||u|| ||v||.Mais ainda: a igualdade vale se, e somente se, {u,v} for LD.

Demonstracao: Se v = 0, o resultado e imediato. Suponha entaoque v �= 0. Agora, para todo α, β ∈ K e para todo u ∈ V ,

0 ≤ 〈αu− β v, αu− β v〉= αα 〈u,u〉 − βα 〈v,u〉 − αβ 〈u,v〉+ ββ 〈v,v〉= |α|2||u||2 − 2Re(αβ 〈u,v〉) + |β|2||v||2.

Escolhendo α = ||v||2 e β = 〈u,v〉, segue-se que

αβ 〈u,v〉 = ||v||2|β|2 ∈ R.

Logo,

0 ≤ 〈αu− β v, αu− β v〉

Page 105: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 104

104 [CAP. 4: ORTOGONALIDADE E A DECOMPOSICAO QR

= ||v||4||u||2 − 2 ||v||2|β|2 + | 〈u,v〉 |2||v||2= ||v||4||u||2 − 2 ||v||2| 〈u,v〉 |2 + ||v||2| 〈u,v〉 |2= ||v||2 (||u||2||v||2 − | 〈u,v〉 |2) .

Uma vez que ||v||2 > 0, concluımos que ||u||2||v||2 − | 〈u,v〉 |2 ≥ 0.Sendo assim, | 〈u,v〉 |2 ≤ ||u||2||v||2 e, portanto,

| 〈u,v〉 | ≤ ||u|| ||v||.Agora, se | 〈u,v〉 | = ||u||||v||, entao | 〈u,v〉 |2 = ||u||2||v||2 e, por-tanto,

0 ≤ 〈αu− β v, αu− β v〉 = ||v||2 (||u||2||v||2 − | 〈u,v〉 |2) = 0,

ou seja, 〈αu− β v, αu− β v〉 = 0. Mas, entao

αu− β v = 0.

Uma vez que α = ||v|| �= 0, a igualdade acima mostra que o con-junto {u,v} e LD. Por outro lado, se {u,v} e LD, entao u = λv.Assim,

| 〈u,v〉 | = | 〈λv,v〉 | = |λ| | 〈v,v〉 | = |λ| ||v||2 = |λ| ||v|| ||v||= ||λv|| ||v|| = ||u|| ||v||.

Corolario 4.1 (Desigualdade triangular) Para todou,v ∈ V ,

||u+ v|| ≤ ||u||+ ||v||.

Demonstracao:

||u+ v||2 = 〈u+ v,u+ v〉 = ||u||2 + 〈u,v〉+ 〈v,u〉+ ||v||2

= ||u||2 + 2 Re(〈u,v〉) + ||v||2(∗)≤ ||u||2 + 2 | 〈u,v〉 |+ ||v||2(∗∗)≤ ||u||2 + 2 ||u||||v||+ ||v||2 = (||u||+ ||v||)2.

Portanto, ||u + v|| ≤ ||u|| + ||v||. Note que, em (*), usamos queRe(z) ≤ |Re(z)| ≤ |z| para todo numero complexo z e, em (**),

Page 106: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 105

[SEC. 4.2: ORTOGONALIDADE 105

usamos a Desigualdade de Cauchy-Schwarz.

4.2 Ortogonalidade

Definicao 4.3 Seja (V,K,+, · ) um espaco vetorial com pro-duto interno 〈 , 〉 : V × V → K. Dizemos que dois vetores ue v sao ortogonais se 〈u,v〉 = 0. Um conjunto A e ortogonal separa todo u,v ∈ A, com u �= v, u e v sao ortogonais. Um con-junto A e ortonormal se ele e ortogonal e, alem disto, ||v|| = 1,para todo v ∈ A.

Exemplo 4.6 A = {(1, 0, . . . , 0), (0, 1, . . . , 0), . . . , (0, 0, . . . , 1)} e umconjunto ortonormal em (Rn,R,+, · ) com o produto interno canonicodescrito no Exemplo 4.1.

Exemplo 4.7 A = {fn ∈ C([0, 2 π]) | fn(x) = cos(nx), n ∈ N} e umconjunto ortogonal em C([0, 2 π]) com o produto interno descrito noExemplo 4.5, pois

〈fn, fm〉 =∫ 2π

0

cos(nx) cos(mx) dx =

⎧⎨⎩ 0, se m �= n,π, se m = n �= 0,2 π, se m = n = 0.

Assim, e0(x) = 1/√2 π e en(x) = cos(nx)/

√π, para n ∈ N, formam

um conjunto ortonormal infinito em (C([0, 2 π]),R,+, · ).

Proposicao 4.3 Seja (V,K,+, · ) um espaco vetorial com pro-duto interno 〈 , 〉 : V × V → K e seja A um subconjunto orto-gonal de V formado por vetores nao nulos.

Page 107: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 106

106 [CAP. 4: ORTOGONALIDADE E A DECOMPOSICAO QR

(a) Se v ∈ [v1, . . . ,vk], com v1, . . . ,vk ∈ A, entao

v =

k∑i=1

〈v,vi〉||vi||2 vi.

(b) A e LI.

Demonstracao:

(a) Se v ∈ [v1, . . . ,vk], entao existem escalares αi ∈ K tais que

v =∑k

i=1 αivi. Logo,

〈v,vj〉 =

⟨k∑

i=1

αivi,vj

⟩=

k∑i=1

αi 〈vi,vj〉 = αj 〈vj ,vj〉

= αj ||vj ||2.Sendo assim, αj = 〈v,vj〉 /||vj ||2 e, portanto,

v =

k∑i=1

〈v,vi〉||vi||2 vi.

(b) Observe que

k∑i=1

αivi = 0 ⇒⟨

k∑i=1

αivi,vj

⟩= 〈0,vj〉 = 0

⇒k∑

i=1

αi 〈v,vj〉 = 0 ⇒ αj 〈vj ,vj〉 = 0

(∗)⇒ αj = 0,

para todo j = 1, . . . , k. Isto mostra que o conjunto A e LI. Noteque, em (*), usamos que 〈vj ,vj〉 = ||vj ||2 �= 0, pois vj �= 0.

Page 108: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 107

[SEC. 4.3: GRAM-SCHMIDT 107

Corolario 4.2 Se {v1, . . . ,vn} e uma base ortonormal de Ve v ∈ V , entao

v =

n∑i=1

〈vi,v〉vi.

4.3 Gram-Schmidt

Teorema 4.2 (O processo de ortonormalizacao deGram-Schmidt) Seja {v1, . . . ,vk} um subconjunto LI de umespaco vetorial (V,K,+, · ) com produto interno 〈 , 〉 : V ×V →K. Para cada i = 1, . . . , k, defina

wi = vi −i−1∑j=1

〈vi,wj〉wj e wi =wj

||wj || .

Entao o conjunto {w1, . . . ,wk} e ortonormal (e, em particu-lar, LI) e

[w1] = [v1],[w1,w2] = [v1,v2],

...[w1,w2, . . . ,wk] = [v1,v2, . . . ,vk].

Demonstracao: A prova sera feita por inducao em k. O caso k =1 e imediato. Suponha entao que obtivemos vetores {w1, . . . ,wr}ortonormais tais que

[w1] = [v1],[w1,w2] = [v1,v2],

...[w1,w2, . . . ,wr] = [v1,v2, . . . ,vr].

Page 109: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 108

108 [CAP. 4: ORTOGONALIDADE E A DECOMPOSICAO QR

Defina

wr+1 = vr+1 −r∑

j=1

〈vi,wj〉wj e wr+1 =wr+1

||wr+1|| .

Note que:

(1) wr+1 �= 0, pois vr+1 �∈ [v1, . . . ,vr] = [w1, . . . ,wr] e o conjunto{v1, . . . ,vr,vr+1} e LI.

(2) ||wr+1|| = 1.

(3) {w1, . . . ,wr,wr+1} e ortogonal, pois para todo s ≤ r,

〈wr+1,ws〉 =〈vr+1,ws〉 −

∑rj=1 〈vr+1,wj〉 〈wj ,ws〉∣∣∣∣∣∣vr+1 −∑r

j=1 〈vi,wj〉wj

∣∣∣∣∣∣=

〈vr+1,ws〉 − 〈vr+1,ws〉∣∣∣∣∣∣vr+1 −∑r

j=1 〈vi,wj〉wj

∣∣∣∣∣∣ = 0.

(4) [w1, . . . ,wr,wr+1] = [v1, . . . ,vr,vr+1]. De fato: pela definicaode wr+1, segue-se que

wr+1 ∈ [w1, . . . ,wr,vr+1] = [v1, . . . ,vr,vr+1].

Logo,

[w1, . . . ,wr,wr+1] ⊆ [v1, . . . ,vr,vr+1].

Dado que dimK([w1, . . . ,wr,wr+1]) = dimK([v1, . . . ,vr,vr+1]) =r + 1, vemos que [w1, . . . ,wr,wr+1] = [v1, . . . ,vr,vr+1].

E interessante observar a geometria do processo em R2: considere doisvetores v1 e v2 tais que {v1,v2} e LI. O primeiro passo do processode ortonormalizacao de Gram-Schmidt define

w1 = v1 e w1 =w1

||w1|| =v1

||v1|| .

Page 110: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 109

[SEC. 4.3: GRAM-SCHMIDT 109

0

Figura 4.1: O processo de ortonormalizacao de Gram-Schmidt em R2.

Queremos calcular agora w2 tal que w2 seja ortogonal a w1. Paraisto, basta encontrar um vetor ? tal que ? seja um multiplo de w1

e w2 = v2 − ? seja ortogonal a w1 (Figura 4.1), isto e,

? = αw1 e⟨v2 − ? ,w1

⟩= 0.

Sendo assim, 〈v2 − αw1,w1〉 = 0. Logo, α = 〈v2,w1〉 e, portanto,? = 〈v2,w1〉w1. Consequentemente,

w2 = v2 − ? = v2 − 〈v2,w1〉w1 e w2 =w1

||w2|| .

Note que ? e a projecao ortogonal de v2 na direcao de w1. Vemosassim que sao as projecoes ortogonais que sustentam o processo deortonormalizacao de Gram-Schmidt.

Corolario 4.3 Todo espaco vetorial de dimensao finita comproduto interno possui uma base ortonormal.

Exemplo 4.8 Considere

v1 =

⎡⎣ 340

⎤⎦ , v2 =

⎡⎣ 001

⎤⎦ e v3 =

⎡⎣ 010

⎤⎦ .

Page 111: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 110

110 [CAP. 4: ORTOGONALIDADE E A DECOMPOSICAO QR

Usando o processo de ortonormalizacao de Gram-Schmidt, temos ini-cialmente que

w1 = v1 =

⎡⎣ 340

⎤⎦ e w1 =w1

||w1|| =⎡⎣ 3

5450

⎤⎦ .

No passo seguinte, obtemos que

w2 = v2 − 〈v2,w1〉w1 =

⎡⎣ 001

⎤⎦− 0

⎡⎣ 35450

⎤⎦ =

⎡⎣ 001

⎤⎦e

w2 =w2

||w2|| =⎡⎣ 0

01

⎤⎦ .

Por ultimo, segue-se que

w3 = v3 − 〈v3,w1〉w1 − 〈v3,w2〉w2

=

⎡⎣ 010

⎤⎦− 4

5

⎡⎣ 35450

⎤⎦− 0

⎡⎣ 001

⎤⎦ =

⎡⎣ −12259250

⎤⎦e

w3 =w3

||w3|| =⎡⎣ −4

5350

⎤⎦ .

Observacao. No processo de ortonormalizacao descrito no exemploanterior, dado que w1 = v1 e w1 = w1/||w1||, segue-se que

v1 = ||w1||w1.

Do mesmo modo, uma vez que w2 = v2−〈v2,w1〉w1 w2 = w2/||w2||,concluımos que

v2 = 〈v2,w1〉w1 + ||w2||w2.

Page 112: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 111

[SEC. 4.3: GRAM-SCHMIDT 111

Finalmente, uma vez que w3 = v3 − 〈v3,w1〉w1 − 〈v3,w2〉w2 w3 =w3/||w3||, segue-se que

v3 = 〈v3,w1〉w1 + 〈v3,w2〉w2 + ||w3||w3.

Resumindo:

v1 = ||w1|| w1,

v2 = 〈v2,w1〉 w1 + ||w2|| w2,

v3 = 〈v3,w1〉 w1 + 〈v3,w2〉 w2 + ||w3|| w3.

Estas relacoes podem ser codificadas usando-se multiplicacao de ma-trizes (veja a primeira observacao na pagina 12):⎡⎢⎢⎣ |

v1

|

|v2

|

|v3

|

⎤⎥⎥⎦

=⎡⎢⎢⎣ |w1

|

|w2

|

|w3

|

⎤⎥⎥⎦ ·⎡⎢⎢⎣ ||w1|| 〈v2,w1〉 〈v3,w1〉

0 ||w2|| 〈v3,w2〉0 0 ||w3||

⎤⎥⎥⎦ .

Desta maneira, se

A =

⎡⎢⎢⎣ |v1

|

|v2

|

|v3

|

⎤⎥⎥⎦e uma matriz inversıvel, isto e, se o conjunto {v1,v2,v3} e LI, o pro-cesso de ortonormalizacao de Gram-Schmidt obtem, para A, umadecomposicao da forma

A = QR

onde a matriz R e triangular superior inversıvel com todos os ele-

Page 113: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 112

112 [CAP. 4: ORTOGONALIDADE E A DECOMPOSICAO QR

mentos de sua diagonal principal positivos e a matriz

Q =

⎡⎢⎢⎣ |w1

|

|w2

|

|w3

|

⎤⎥⎥⎦possui a seguinte propriedade: QTQ = I, isto e, Q e uma matrizortogonal.

Note que o processo e geral: se A e uma matriz de tamanho mpor k cujas colunas v1, . . . , vk sao LI, entao as equacoes do processode ortonormalizacao de Gram-Schmidt

wi = vi −i−1∑j=1

〈vi,wj〉wj e wi =wj

||wj || .

garantem que A = QR, onde Q e uma matriz ortogonal de tamanhom por k e R e uma matriz triangular superior inversıvel de tamanho kpor k cujos elementos rij satisfazem

rij =

⎧⎨⎩ 0, se i > j,||wi||, se i = j,〈vj ,wi〉 , se i < j.

4.4 Matrizes Ortogonais

Definicao 4.4 (Matriz ortogonal) Dizemos que uma ma-triz Q de tamanho m por n e ortogonal se QTQ = I.

Proposicao 4.4 Seja Q uma matriz quadrada ortogonal.Entao:

(1) Q−1 = QT .

(2) Q−1 e ortogonal.

(3) det(Q) = 1 ou Q = −1.

Page 114: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 113

[SEC. 4.4: MATRIZES ORTOGONAIS 113

Demonstracao: Vamos demonstrar o item (2). Os demais itens ficaraocomo exercıcios. Note que

QQ−1 = I ⇒ (QQ−1)T = IT = I ⇒ (Q−1)TQT = I

⇒ (Q−1)TQ−1 = I.

Como (Q−1)TQ−1 = I, segue-se que Q−1 e uma matriz ortogonal.

Proposicao 4.5 O produto de duas matrizes ortogonais eainda uma matriz ortogonal.

Demonstracao: Exercıcio.

Proposicao 4.6 Sejam Q uma matriz quadrada, 〈 , 〉 o pro-duto interno canonico em Rn e || · || a norma associada a 〈 , 〉.As seguintes sentencas sao equivalentes:

(1) Q e uma matriz ortogonal.

(2) ||Qv|| = ||v|| para todo v ∈ Rn (Q preserva norma).

(3) ||Qu −Qv|| = ||u − v||, para todo u,v ∈ Rn (Q preservadistancia).

(4) 〈Qu,Qv〉 = 〈u,v〉, para todo u,v ∈ Rn (Q preserva pre-serva produto interno).

(5) Se {u1, . . . ,un} e uma base ortonormal de Rn, entao{Qu1, . . . ,Qun} e tambem base ortonormal de Rn.

Demonstracao: Vamos comecar demonstrando que (3) ⇒ (4). Pelaidentidade de polarizacao

〈u,v〉 = 1

4||u+ v||2 − 1

4||u− v||2,

Page 115: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 114

114 [CAP. 4: ORTOGONALIDADE E A DECOMPOSICAO QR

temos que

〈Qu,Qv〉 =1

4||Qu+Qv||2 − 1

4||Qu−Qv||2

=1

4||Qu−Q(−v)||2 − 1

4||Qu−Qv||2

(3)=

1

4||u− (−v)||2 − 1

4||u− v||2

=1

4||u+ v||2 − 1

4||u− v||2 = 〈u,v〉 .

Agora vamos demonstrar que (4)⇒ (1). A condicao (4), em termosmatriciais, significa que, para todo u,v ∈ Rn, uTQTQv = uTv.Desta maneira,

(QTQ)ij = eTi QTQej

(4)= eTi ej = δij =

{0, se i �= j,1, se i = j.

Portanto, QTQ = I. Assim, estabelecemos que

(3)⇒ (4)⇒ (1).

As demonstracoes das demais implicacoes ficam como exercıcios.

4.5 A Decomposicao QR

Definicao 4.5 (A Decomposicao QR) Seja A uma ma-triz m × n. Dizemos que as matrizes Q e R formam uma de-composicao QR para a matriz A se:

(a) Q e uma matriz m× n e R e uma matriz n× n,

(b) A = QR,

(c) Q e uma matriz ortogonal (isto e, se QTQ = I),

(d) R e uma matriz triangular superior com todos os elementosda diagonal principal maiores do que ou iguais a 0.

Page 116: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 115

[SEC. 4.5: A DECOMPOSICAO QR 115

Proposicao 4.7 Toda matriz A inversıvel possui uma unicadecomposicao QR, isto e, existem unicas matrizes Q ortogonale R triangular superior com todos os elementos de sua diagonalprincipal positivos, tais que A = QR.

Demonstracao: Como vimos, a existencia de uma decomposicao QRe consequencia do processo de ortonormalizacao de Gram-Schmidt.Vamos demonstrar agora a unicidade desta decomposicao. Suponhaque A possua duas decomposicoes QR: A = QR = QR. Portanto,

Q−1Q = RR−1.

Desta maneira, a matriz Q−1Q = RR−1 e, ao mesmo tempo, or-togonal (como produto de matrizes ortogonais) e triangular superior(como produto de matrizes triangulares superiores). Logo, a ma-

triz Q−1Q e da seguinte forma:

M = Q−1Q =

⎡⎢⎢⎢⎣∗ ∗ · · · ∗0 ∗ · · · ∗...

.... . .

...0 0 . . . ∗

⎤⎥⎥⎥⎦ .

Como as colunas da matriz M formam um conjunto ortonormal, con-cluımos que a primeira coluna w1 de M e igual a ±e1. Pelo mesmomotivo, a segunda coluna de M e tal que 〈w2,±e1〉 = 0 e ||w2|| = 1.Sendo assim, w2 = ±e2. Prosseguindo com este argumento, con-cluımos que a j-esima coluna wj de M e igual a ±ej . Portanto, M euma matriz diagonal cujos elementos da diagonal principal pertencemao conjunto {−1, 1}. Mas M = Q−1Q = RR−1 e todos os elementos

das diagonais principais de R, R, R−1 e, portanto, todos os elemen-tos da diagonal principal de RR−1 sao positivos. Isto mostra quewj = ej para todo j = 1, . . . , n. Em outras palavras,

Q−1Q = RR−1 = I.

Mas, se Q−1Q = RR−1 = I, entao

Q = Q e R = R.

Page 117: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 116

116 [CAP. 4: ORTOGONALIDADE E A DECOMPOSICAO QR

4.6 Aplicacao: O Metodo dos Mınimos

Quadrados

Proposicao 4.8 Seja W um subespaco vetorial de dimensaofinita de um espaco vetorial (V,K,+, · ) com produto interno〈 , 〉 : V × V → K. Se v ∈ V , entao existe um unico w ∈ Wque minimiza a funcao

f(w) = ||v−w||2.

Mais ainda: v − w ∈ W⊥ = {v ∈ V | 〈w,v〉 = 0, ∀w ∈ W}.O vetor w e denominada a projecao ortogonal de v em W .

Demonstracao: Se v ∈ W , entao w = v e f(w) = ||v − w||2 =||v − v||2 = 0. Suponha entao que v �∈ W . Seja {w1, . . . ,wk} umabase ortonormal de W . Defina

w =

k∑j=1

〈v,wj〉wj .

Afirmamos que v− w ∈W⊥. De fato:

〈v− w,wi〉 =⟨v−

k∑j=1

〈v,wj〉wj ,wi

⟩= 〈v,wi〉 − 〈v,wi〉 = 0.

Sendo assim, para todo w ∈W ,

f(w) = ||v−w||2 = ||(v − w) + (w−w)||2(∗)= ||v− w||2 + ||w−w||2 ≥ ||v− w||2 = f(w).

Note que, em (∗), usamos o Teorema de Pitagoras (Exercıcio [03]deste capıtulo). Isto estabelece a existencia do ponto de mınimoglobal de f em W . Para demonstrar a unicidade, observe que, peladesigualdade acima,

f(w) = f(w) ⇔ ||v− w||2 = ||v−w||2 ⇔ ||w−w||2 = 0

⇔ w = w.

Page 118: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 117

[SEC. 4.6: APLICACAO: O METODO DOS MINIMOS QUADRADOS 117

Como ja vimos, se um sistema linear Ax = b nao possui solucao,entao o vetor b nao pertence ao espaco gerado pelas colunas a1, . . . , anda matriz A, isto e, b �∈ Im(A) = C(A). Nesta situacao, algo quepode ser feito e o seguinte: procurar dentre os vetores da imagemde A, por aquele que esta mais proximo de b:

minw∈Im(A)=C(A)

||b−w||2 = minx∈Rn

||b−Ax||2.

Pela Proposicao 4.8, sabemos que o mınimo ocorre em um unico pontow ∈ Im(A) = C(A) que satisfaz a seguinte condicao:

b− w e perpendicular as colunas de A. (∗)Agora, como w ∈ Im(A) = C(A), existe pelo menos um vetor x ∈ Rn

tal que w = Ax. Em termos de x, a condicao (∗) significa que b−Axe perpendicular as colunas a1, . . . , an de A (Figura 4.2).

Figura 4.2: b − Ax e perpendicular ao espaco gerado pelas colu-nas a1, . . . , an da matriz A.

Desta maneira, aT1 (b −Ax) = 0, . . . , aTn (b −Ax) = 0, ou seja,AT (b−Ax) = 0 ou, ainda,

ATAx = ATb. (∗∗)

Page 119: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 118

118 [CAP. 4: ORTOGONALIDADE E A DECOMPOSICAO QR

As equacoes definidas por (∗∗) sao denominadas equacoes normaispara o sistema Ax = b. Note que, em virtude da Proposicao 4.8,sempre existe pelo menos um x ∈ Rn que e solucao do sistema li-near (∗∗). Caso exista mais de um x tal que ATAx = ATb, e usualescolher aquele de menor norma.

Exemplo 4.9 Considere

A =

⎡⎣ 1 21 30 0

⎤⎦ e b =

⎡⎣ 456

⎤⎦ .

O sistema linear Ax = b nao possui solucao. Usando o metodo dosmınimos quadrados, vamos procurar por x ∈ R3 tal que ||b −Ax||2seja mınimo. Uma vez que

ATA =

[2 55 13

]e ATb =

[923

]as equacoes normais nos dao que

x = (ATA)−1ATb =

[21

]e Ax =

⎡⎣ 450

⎤⎦ .

Exemplo 4.10 Frequentemente, quando fazemos experimentos ouobservacoes estatısticas, obtemos dados que podemos dispor em umatabela:

x y

x1 y1x2 y2...

...xn yn

.

Gostarıamos de descobrir se os dados obtidos podem estar relacio-nados de alguma maneira. Em geral, a primeira coisa que tentamosverificar e se os dados satisfazem a equacao de uma reta. No caso

Page 120: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 119

[SEC. 4.6: APLICACAO: O METODO DOS MINIMOS QUADRADOS 119

particular em que a tabela possui apenas dois pontos (com x1 �= x2),sabemos que existe uma unica reta que passa por eles. Por exemplo,a reta que passa pelos dois pontos da tabela

x y

1 25 7

e dada pela equacao

y =5

4x+

3

4.

Contudo, se a tabela possui tres ou mais pontos, seria muita sorteencontrar uma reta y = a x+b tal que yi = a xi+b para todo i. Nestecaso, a ideia e usar o metodo dos mınimos quadrados para obter umareta representativa. O sistema linear⎧⎪⎪⎪⎨⎪⎪⎪⎩

a x1 + b = y1,a x2 + b = y2,

...a xn + b = yn,

se escreve, em termos matriciais, da seguinte forma:⎡⎢⎢⎢⎣x1 1x2 1...

...xn 1

⎤⎥⎥⎥⎦︸ ︷︷ ︸

A

[ab

]=

⎡⎢⎢⎢⎣y1y2...yn

⎤⎥⎥⎥⎦︸ ︷︷ ︸

b

.

Uma vez que

ATA =

⎡⎢⎢⎢⎣n∑

i=1

x2i

n∑i=1

xi

n∑i=1

xi n

⎤⎥⎥⎥⎦ e ATb =

⎡⎢⎢⎢⎣n∑

i=1

xiyi

n∑i=1

yi

⎤⎥⎥⎥⎦ ,

Page 121: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 120

120 [CAP. 4: ORTOGONALIDADE E A DECOMPOSICAO QR

as equacoes normais nos dao que[ab

]= (ATA)−1ATb

=

⎡⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎣

n

n∑i=1

xiyi −(

n∑i=1

xi

)(n∑

i=1

yi

)

n

n∑i=1

x2i −

(n∑

i=1

xi

)2

(n∑

i=1

x2i

)(n∑

i=1

yi

)−(

n∑i=1

xi

)(n∑

i=1

yi

)

n

n∑i=1

x2i −

(n∑

i=1

xi

)2

⎤⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎦.

Para cada i = 1, . . . , n, a expressao di = |a xi + b − yi| representaa distancia vertical do ponto (xi, yi) ate a reta y = a x + b, isto e,o desvio da reta com relacao ao ponto (Figura 4.3). Neste contexto,

(x2, y2)

(x

x

3, y3)( , ax1+b

axy += b

)

( , ax2 x2+b )

( , ax3 x3+b)

(x1, y

y

0

1)

d1

d2

d3

x1

Figura 4.3: A distancia vertical agregada entre os tres pontos (x1, y1),(x2, y2), (x3, y3) e a reta y = ax+ b.

Page 122: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 121

[SEC. 4.6: APLICACAO: O METODO DOS MINIMOS QUADRADOS 121

os valores para a e b dados pelas equacoes normais,

a =

nn∑

i=1

xiyi −(

n∑i=1

xi

)(n∑

i=1

yi

)

n

n∑i=1

x2i −

(n∑

i=1

xi

)2

e

b =

(n∑

i=1

x2i

)(n∑

i=1

yi

)−(

n∑i=1

xi

)(n∑

i=1

yi

)

n

n∑i=1

x2i −

(n∑

i=1

xi

)2

sao justamente aqueles que minimizam a soma dos quadrados dosdesvios:

s(a, b) = d21 + d22 + · · ·+ d2n =

n∑i=1

(a xi + b− yi)2.

Tambem e possıvel deduzir os valores de a e b otimos usando tecnicasde calculo diferencial. O leitor interessado pode consultar o Capıtu-lo 11 do livro [02].

Observacao. Vamos agora obter uma formula explıcita para a proje-cao ortogonal de um vetor b ∈ Rm no espaco W = C(A) gerado pelascolunas de uma matriz A ∈ Mm×n(R), para o caso em que ATA euma matriz inversıvel. Seja

PrC(A) : Rm → C(A)b �→ PrC(A)(b)

a projecao ortogonal de Rm emW = C(A). Sabemos que PrC(A)(b) =Ax para algum x ∈ argminx∈Rn ||b−Ax||2. Mais ainda, tambem sa-bemos que x satisfaz as equacoes normais ATAx = ATb. Se ATAe uma matriz inversıvel, entao x = (ATA)−1ATb e, portanto,

PrC(A)(b) = Ax = A(ATA)−1AT︸ ︷︷ ︸M

b.

Page 123: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 122

122 [CAP. 4: ORTOGONALIDADE E A DECOMPOSICAO QR

Observacao. A matriz M = A(ATA)−1AT satisfaz duas proprie-dades:

1. M2 = M. De fato:

M2 = MM = A(ATA)−1 ATA(ATA)−1︸ ︷︷ ︸I

AT

= A(ATA)−1AT = M.

2. MT = M. De fato:

MT = (AT )T ((ATA)−1)TAT (∗)= (AT )T ((ATA)T )−1AT

= A(ATA)−1AT = M.

Note que, em (∗), usamos o seguinte resultado: se B e uma matrizinversıvel, entao (B−1)T = (BT )−1. Com efeito:

BB−1 = I⇒ (B−1)TBT = IT = I⇒ (BT )−1 = (B−1)T .

Sera que toda matrizP que satisfaz as duas propriedades acima e umaprojecao? A resposta e sim, de acordo com a proxima proposicao.

Proposicao 4.9 Se P e uma matriz n por n, simetrica, satis-fazendo P2 = P, entao P e a projecao de Rn no subespacovetorial W = C(P).

Demonstracao: Basta mostrar que b−Pb e ortogonal a W = C(P),isto e, que para todo y ∈ W = C(P), (b − Pb)Ty = 0. Mas,se y ∈ W = C(P) = Im(P), entao y = Pc, para algum c ∈ Rn.Entao,

(b−Pb)Ty = (b−Pb)TPc = (bT − bTPT )Pc

= (bT − bTP)Pc = bTPc− bTP2c

= bTPc− bTPc = 0.

Observacao. A decomposicao QR simplifica o problema dos mınimosquadrados. De fato, se A e uma matriz cujas colunas sao LI e A =

Page 124: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 123

[SEC. 4.7: HOUSEHOLDER E GIVENS 123

QR, entao as equacoes normais ficam assim:

ATAx = ATb ⇔ (QR)TQRx = (QR)Tb

⇔ RTQTQRx = RTQTb

⇔ RTRx = RTQTb

⇔ Rx = QTb.

Lembre-se que se as colunas de A sao LI, entao R e RT sao matrizesinversıveis.

4.7 Householder e Givens

Se A e uma matriz cujas colunas sao LI, vimos que o processo deortonormalizacao de Gram-Schmidt, atraves de projecoes ortogonais,obtem uma decomposicao QR para A. Nesta secao veremos duasoutras maneiras de construir a decomposicao QR de uma matriz:atraves das transformacoes de Householder (que usam reflexoes) eas rotacoes de Givens.

Dado um vetor u ∈ Rn, com ||u|| = 1, queremos encontrar a ma-triz da transformacao linear

H : Rn → Rn

x �→ Hx,

que, a cada x ∈ Rn, associa Hx, que e a reflexao de x com relacaoao hiperplano {u}⊥ (Figura 4.4).

Note que Hx = x − 2Px, onde Px e a projecao ortogonal de xno subespaco vetorial W = [u]. Ja sabemos que Px = 〈x,u〉u.Portanto,

Hx = x− 2Px = x− 2 〈x,u〉u = x− 2uTxu.

Uma vez que uTx e uma matriz 1 por 1, vale que uTxu = uuTx.Desta maneira,

Hx = x− 2uuTx = (I− 2uuT )x ⇒ H = I− 2uuT .

A matriz H e ortogonal, pois

HTH = (I− 2uuT )T (I− 2uuT ) = (I− 2uuT )(I− 2uuT )

= I− 2uuT − 2uuT + 4uuTu︸︷︷︸1

uT = I.

Page 125: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 124

124 [CAP. 4: ORTOGONALIDADE E A DECOMPOSICAO QR

Figura 4.4: Hx e a reflexao de x com relacao ao hiperplano {u}⊥.

A ideia agora e determinar uma matriz H1 = I−2uuT (denominadamatriz de Householder) tal que,

H1

⎡⎢⎢⎢⎢⎢⎢⎣ v1

⎤⎥⎥⎥⎥⎥⎥⎦︸ ︷︷ ︸

A

=

⎡⎢⎢⎢⎢⎢⎢⎣||v1||0...00

B

⎤⎥⎥⎥⎥⎥⎥⎦ ,

Page 126: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 125

[SEC. 4.7: HOUSEHOLDER E GIVENS 125

o primeiro passo para obter uma matriz R triangular superior comdiagonal positiva. Como determinar o vetor u? A reflexao H1 develevar v1 em ||v1|| e1. Para isto, basta considerar

u =v1 − ||v1|| e1||v1 − ||v1|| e1|| .

A Figura 4.5 ilustra o motivo de tal escolha. Tambem nao e difıcilverificar diretamente que, com esta escolha de u, H1v1 = ||v1|| e1.O proximo passo e determinar uma nova matriz H2 de tal forma que

Figura 4.5: A transformacao de Householder que leva v1 em ||v1|| e1.

H2H1A =

⎡⎢⎢⎢⎢⎢⎣||v1|| ∗ ∗ · · · ∗0 ∗ ∗ ∗ ∗0 0 ∗ ∗ ∗...

......

. . ....

0 0 ∗ · · · ∗

⎤⎥⎥⎥⎥⎥⎦ ,

Isto pode ser feito tomando-seH2 com a seguinte estrutura em blocos:

H2 =

[1 0T

0 I− 2wwT

],

Page 127: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 126

126 [CAP. 4: ORTOGONALIDADE E A DECOMPOSICAO QR

onde a matriz de Householder I − 2wwT e calculada de maneiracompletamente analoga ao que foi feito para a matriz inicial A mas,agora, operando sobre o bloco B. Repetindo-se de maneira indutivaeste processo, obtemos uma equacao matricial da forma

Hn · · ·H2H1A = R,

onde as matrizes H1, H2, . . . , Hn sao ortogonais e a matriz R etriangular superior com todos os elementos da diagonal principal di-ferentes de zero. A decomposicao QR e entao dada, em princıpio,por

A = HT1 H

T2 · · ·HT

n︸ ︷︷ ︸Q

R.

Pode acontecer (como veremos no proximo exemplo), do ultimo ele-mento rnn da diagonal principal de R ser negativo. Neste caso, bastamultiplicar a linha n de R e a coluna n de Q por −1 para obter, nofinal, uma decomposicao QR com R triangular superior com diagonalpositiva.

Exemplo 4.11 Vamos calcular a decomposicao QR da matriz

A =

⎡⎣ 3 0 04 0 10 1 0

⎤⎦usando as transformacoes de Householder.

Passo 1. Temos que

v1 =

⎡⎣ 340

⎤⎦ , ||v1|| = 5, u = v1 − ||v1|| e1 =

⎡⎣ −240

⎤⎦ ,

u =u

||u|| =1√20

⎡⎣ −240

⎤⎦ , H1 = I− 2uuT =

⎡⎣ 35

45 0

45 −3

5 00 0 1

⎤⎦ ,

H1A =

⎡⎣ 5 0 45

0 0 −35

0 1 0

⎤⎦ .

Page 128: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 127

[SEC. 4.7: HOUSEHOLDER E GIVENS 127

Passo 2. Temos que

B =

[0 −3

51 0

]v2 =

[01

], ||v2|| = 1, u = v1 − ||v1|| e1 =

[ −11

],

u =u

||u|| =1√2

[ −11

],

H2 =

⎡⎣ 0 0 0

00

I− 2uuT

⎤⎦ =

⎡⎣ 1 0 00 0 10 1 0

⎤⎦ ,

H2H1A =

⎡⎣ 5 0 45

0 1 00 0 −3

5

⎤⎦ .

Desta maneira, vemos que

A = HT1 H

T2

⎡⎣ 5 0 45

0 1 00 0 −3

5

⎤⎦ =

⎡⎣ 35 0 4

545 0 −3

50 1 0

⎤⎦⎡⎣ 5 0 45

0 1 00 0 −3

5

⎤⎦ .

Observe que o elemento (3, 3) da matriz triangular superior e nega-tivo. Para obter uma decomposicao QR, basta multiplicar a terceiralinha da matriz triangular superior e a terceira coluna da matriz or-togonal por −1:

A =

⎡⎣ 35 0 −4

545 0 3

50 1 0

⎤⎦︸ ︷︷ ︸

Q

⎡⎣ 5 0 45

0 1 00 0 3

5

⎤⎦︸ ︷︷ ︸

R

.

Para modificar, via multiplicacoes por matrizes ortogonais, umadata matriz em uma matriz triangular superior, o metodo de Givens

Page 129: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 128

128 [CAP. 4: ORTOGONALIDADE E A DECOMPOSICAO QR

emprega rotacoes da forma

G =

⎡⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎣

1. . . 0

1c · · · −s p...

. . ....

s · · · c q1

0 . . .

1p q

⎤⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎦de tal maneira que

G

⎡⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎣

∗...∗a p...b q∗...∗

⎤⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎦=

⎡⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎣

∗...∗√

a2 + b2 p...0 q∗...∗

⎤⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎦.

Escolhendo-se entao valores sucessivos de p e q adequados, e possıvel“colocar zeros” nos elementos (i, j), com i > j, da matriz inicial.Note que, no plano xpxq, os valores de c (cosseno) e s (seno) saodeterminados por[

c −ss c

] [ab

]=

[ √a2 + b2

0

]e c2 + s2 = 1,

isto e,

ac− bs =√a2 + b2, bc+ as = 0 e c2 + s2 = 1,

Page 130: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 129

[SEC. 4.7: HOUSEHOLDER E GIVENS 129

cuja solucao e dada explicitamente por

c =a√

a2 + b2e s =

−b√a2 + b2

.

Exemplo 4.12 Vamos calcular a decomposicao QR da matriz

A =

⎡⎣ 3 0 04 0 10 1 0

⎤⎦usando as rotacoes de Givens.

Passo 1. Temos que

a = 3, b = 4,√a2 + b2 = 5, c = 3/5, s = −4/5,

G1 =

⎡⎣ 35

45 0

−45

35 0

0 0 1

⎤⎦ , G1A =

⎡⎣ 5 0 45

0 0 35

0 1 0

⎤⎦ .

Passo 2. Temos que

a = 0, b = 1,√a2 + b2 = 1, c = 0, s = −1,

G2 =

⎡⎣ 1 0 00 0 00 −1 1

⎤⎦ , G2G1A =

⎡⎣ 5 0 45

0 1 00 0 −3

5

⎤⎦ .

Desta maneira, vemos que

A = GT1 G

T2

⎡⎣ 5 0 45

0 1 00 0 −3

5

⎤⎦ =

⎡⎣ 35 0 4

545 0 −3

50 1 0

⎤⎦⎡⎣ 5 0 45

0 1 00 0 −3

5

⎤⎦ .

Observe que o elemento (3, 3) da matriz triangular superior e nega-tivo. Para obter uma decomposicao QR, basta multiplicar a terceira

Page 131: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 130

130 [CAP. 4: ORTOGONALIDADE E A DECOMPOSICAO QR

linha da matriz triangular superior e a terceira coluna da matriz or-togonal por −1:

A =

⎡⎣ 35 0 −4

545 0 3

50 1 0

⎤⎦︸ ︷︷ ︸

Q

⎡⎣ 5 0 45

0 1 00 0 3

5

⎤⎦︸ ︷︷ ︸

R

.

Observacao. O numero de operacoes (multiplicacoes e divisoes)necessarias para se resolver um problema de mınimos quadrados (istoe, o calculo da decomposicao QR e a resolucao do sistema lineartriangular superior) e igual a

2n2m− 2n3/3

para o processo de ortonormalizacao de Gram-Schmidt e para as trans-formacoes de Householder. Para as rotacoes de Givens, este numeroe igual a

3n2m− n3.

O processo de Gram-Schmidit nao e numericamente estavel. Maisdetalhes em [05, paginas 109, 121 e 123] e [07, paginas 225 e 227].

4.8 Subespacos Ortogonais

Definicao 4.6 (Conjunto ortogonal) Seja S um subcon-junto (nao necessariamente um subespaco vetorial) de espacovetorial (V,K,+, · ) um espaco vetorial com produto interno〈 , 〉 : V × V → K. O conjunto ortogonal a S e

S⊥ = {v ∈ V | 〈s,v〉 = 0, para todo s ∈ S}.

Observacoes.

(1) S⊥ e um subespaco vetorial de V , mesmo que S nao o seja.

(2) {0}⊥ = V .

Page 132: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 131

[SEC. 4.8: SUBESPACOS ORTOGONAIS 131

(3) V ⊥ = {0}.(4) Se B e uma base de V , entao B⊥ = {0}.

Proposicao 4.10 Sejam (V,K,+, · ) um espaco vetorial comproduto interno 〈 , 〉 : V × V → K, W um subespaco veto-rial de V e {w1, . . . ,wk} um conjunto gerador de W (isto e,[w1, . . . ,wk] = W ). Entao

v ∈W⊥ se, e somente se, 〈v,wi〉 = 0, ∀i = 1, . . . , k.

Demonstracao: Exercıcio.

Proposicao 4.11 Sejam (V,K,+, · ) um espaco vetorial de di-mensao finita com produto interno 〈 , 〉 : V × V → K e W umsubespaco vetorial de V . Entao

V = W ⊕W⊥.

Demonstracao: Seja BW = {w1, . . . , wk} uma base de W . Pelo pro-cesso de ortonormalizacao de Gram-Schmidt, existe um conjunto or-tonormal {w1, . . . ,wk} tal que

W = [w1, . . . ,wk].

Complete o conjunto {w1, . . . ,wk} para obter uma base de V , diga-mos, {w1, . . . ,wk, u1, . . . , un−k}. Novamente pelo processo de or-tonormalizacao de Gram-Schmidt, existe um conjunto ortonormal{w1, . . . ,wk,u1, . . . ,un−k} que e base de V . Assim, se v ∈ V , entao

v =

k∑i=1

〈v,wi〉wi︸ ︷︷ ︸∈W

+

n−k∑j−1〈v,uj〉uj︸ ︷︷ ︸∈W⊥

.

Isto mostra que V = W +W⊥. Agora, se v ∈W ∩W⊥, entao v ⊥ v,isto e, 〈v,v〉 = ||v||2 = 0. Logo, v = 0 e, portanto, V = W ⊕W⊥.

Page 133: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 132

132 [CAP. 4: ORTOGONALIDADE E A DECOMPOSICAO QR

Corolario 4.4 Sejam (V,K,+, · ) um espaco vetorial de di-mensao finita com produto interno 〈 , 〉 : V × V → K e Wum subespaco vetorial de V . Entao

dimK(V ) = dimK(W ) + dimK(W⊥).

4.9 O Teorema Fundamental da AlgebraLinear

Seja A : Rn → Rm uma transformacao linear. Sem risco de con-fusao, vamos denotar por A a matriz desta transformacao linear comrelacao as bases canonicas de Rn e Rm. Note, entao, que A temtamanho m× n. Defina a transformacao linear adjunta

AT : Rm → Rn

como a transformacao linear cuja matriz com relacao as bases cano-nicas de Rm e Rn e a matriz AT , a matriz transposta de A (vejatambem o Exercıcio [21] deste capıtulo).

Observe que os conjuntos Ker(A) e Im(AT ) = R(A) sao su-bespacos vetoriais de Rn e que os conjuntos Im(A) = C(A) e Ker(AT )(o nucleo a esquerda) sao subespacos vetoriais de Rm.

Seja r = dimR(Im(A)) = dimR(C(A)) o posto de A. Temos entaoos seguintes fatos:

(1) dimR(Ker(A)) = n− r (pelo Teorema do Nucleo e da Imagem).

(2) dimR(Im(AT )) = dimR(R(A)) = dimR(C(A)) = r Note que, napenultima igualdade, usamos o fato de que o posto segundo linhasde uma matriz e igual ao seu posto segundo colunas (Teorema 2.7na pagina 39).

(3) dimR(Ker(AT )) = m − dimR(Im(AT )) = m − r. Note que, naprimeira igualdade, usamos o Teorema do Nucleo e da Imagem.

Page 134: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 133

[SEC. 4.9: O TEOREMA FUNDAMENTAL DA ALGEBRA LINEAR 133

(4) Ker(A) = (R(A))⊥ = (C(AT ))⊥ = (Im(AT ))⊥. Com efeito:uma vez que dimR(Im(AT )) = r temos que dimR((Im(AT ))⊥) =n− r (pelo Corolario 4.4). Como dimR(Ker(A)) = n− r, vemosque os subespacos vetoriais (de Rn) Im(AT ) e Ker(A) possuema mesma dimensao. Mas Ker(A) ⊆ (Im(AT ))⊥, pois

x ∈ Ker(A) ⇒ Ax = 0 ⇒ xTAT = 0T

⇒ xTATy = 0, ∀y ∈ Rm

⇒ 〈ATy,x〉 = 0, ∀y ∈ Rm

⇒ x ∈ (Im(AT ))⊥.

Portanto, Ker(A) = (Im(AT ))⊥ e, assim,

Rn = Ker(A)⊕ Im(AT ).

(5) Ker(AT ) = (C(A))⊥ = (Im(A))⊥. Com efeito: uma vez quedimR(Im(A)) = r segue-se que dimR((Im(A))⊥) = m − r (peloCorolario 4.4). Como dimR(Ker(AT )) = m − r, vemos que ossubespacos vetoriais (de Rm) Im(A) e Ker(AT ) possuem a mesmadimensao. Mas Ker(AT ) ⊆ (Im(A))⊥, pois

y ∈ Ker(AT ) ⇒ ATy = 0 ⇒ yTA = 0T

⇒ yTAx = 0, ∀x ∈ Rn

⇒ 〈Ax,y〉 = 0, ∀x ∈ Rn

⇒ y ∈ (Im(A))⊥.

Portanto, Ker(AT ) = (Im(A))⊥ e, assim,

Rm = Ker(AT )⊕ Im(A).

Demonstramos entao o Teorema Fundamental da Algebra Linear:

Teorema 4.3 (Fundamental da Algebra Linear) SejaA : Rn → Rm uma transformacao linear.

Page 135: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 134

134 [CAP. 4: ORTOGONALIDADE E A DECOMPOSICAO QR

Parte 1: Os quatro subespacos fundamentais, Im(A) = C(A),Ker(A), Im(AT ) = R(A) e Ker(AT ), tem as seguintesdimensoes:

1. Im(A) = C(A) tem dimensao r.

2. Ker(A) tem dimensao n− r.

3. Im(AT ) = R(A) tem dimensao r.

4. Ker(AT tem dimensao m− r.

Parte 2: Ker(A) = (Im(AT ))⊥ e Ker(AT ) = (Im(A))⊥. Emparticular,

Rn = Ker(A)⊕ Im(AT ), Rm = Ker(AT )⊕ Im(A)

e (conforme a Figura 4.6)

A : Rn = Ker(A)⊕ Im(AT ) → Rm = Ker(AT )⊕ Im(A)x = xK + xR �→ A(x) = A(xR).

4.10 Exercıcios

[01] Seja T : U → V uma transformacao linear injetora. Se 〈·, ·〉V eum produto escalar em V , mostre que

〈u1,u2〉U = 〈T(u1),T(u2)〉Vdefine um produto escalar em U .

Corolario: se U e um subespaco vetorial de V e V possui umproduto interno 〈·, ·〉V , entao considerando-se T como a in-clusao natural de U em V (isto e, a transformacao identi-dade restrita a U), pelo resultado anterior, teremos como con-sequencia que 〈·, ·〉V restrito a U × U e um produto internoem U .

[02] (Identidades de polarizacao) Considere um espaco veto-rial (V,K,+, · ) com produto interno 〈·, ·〉 : V × V → K.

Page 136: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 135

[SEC. 4.10: EXERCICIOS 135

Figura

4.6:O

TeoremaFundamentaldaAlgeb

raLinear.

Page 137: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 136

136 [CAP. 4: ORTOGONALIDADE E A DECOMPOSICAO QR

(a) Mostre que se K = R, entao

〈u,v〉 = 1

4||u+ v||2 − 1

4||u− v||2.

(b) Mostre que se K = C, entao

〈u,v〉 = 1

4||u+v||2− 1

4||u−v||2+ i

4||u+iv||2− i

4||u−iv||2.

[03] (O Teorema de Pitagoras) Demonstre o Teorema de Pita-goras: se u e v sao vetores ortogonais, entao

||u+ v||2 = ||u||2 + ||v||2.[04] Use a desigualdade de Schwarz em R3 para provar que, dados

valores reais positivos a1, a2 e a3 em R, entao

(a1 + a2 + a2)

(1

a1+

1

a2+

1

a3

)≥ 9.

[05] Mostre que o produto de duas matrizes ortogonais e ortogonal.

[06] Demonstre a Proposicao 4.6.

[07] Mostre que a matriz de rotacao Rθ (veja o Exemplo 2.4 napagina 30) e uma matriz ortogonal. O que e RaRb? Deduza asidentidades trigonometricas para sen(a+ b) e cos(a+ b) a partirda multiplicacao RaRb.

[08] Seja u ∈ Rn um vetor unitario. Mostre que Q = I − 2uuT

e uma matriz ortogonal (ela e uma reflexao com relacao aoplano {v ∈ Rn | uTv = 0}, tambem conhecida como trans-formacao de Householder). Calcule Q quando

uT =[

1/2 1/2 −1/2 −1/2 ].

[09] Aplique o processo de ortonormalizacao de Gram-Schmidt paraos vetores

v1 =

⎡⎣ 001

⎤⎦ , v2 =

⎡⎣ 011

⎤⎦ e v3 =

⎡⎣ 111

⎤⎦e escreva o resultado na forma A = QR.

Page 138: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 137

[SEC. 4.10: EXERCICIOS 137

[10] Mostre que se 〈u,v〉 = 0 para todo v ∈ V , entao u = 0.

[11] (a) Mostre que se A,B ∈ Mn×n(R), entao tr(AB) = tr(BA).

(b) Mostre que se A ∈ Mn×n(R), entao tr(AT ) = tr(A).

(c) Mostre que se A ∈Mn×n(R) e tr(ATA) = 0, entao A = 0.

(d) Mostre que

〈A,B〉 = tr(ATB)

define um produto interno em V =Mn×n(R).

[12] Sejam

A =

⎡⎣ 1 00 11 11

⎤⎦ , x =

[x1

x2

]e b =

⎡⎣ 134

⎤⎦ .

Calcule os pontos crıticos da funcao f(x1, x2) = ||b − Ax||2(aqui || · || e a norma euclidiana) e os compare com a solucaodas equacoes normais ATAx = ATb.

[13] Seja P a projecao em um subespaco vetorial W e Q a projecaono complemento ortogonalWT . O que eP+Q? E PQ? Mostreque P−Q e igual a sua propria inversa.

[14] Mostre que se P = PTP, entao P e uma matriz de projecao.

[15] Seja P a matriz de projecao de um vetor em R3 no plano-xy.Desenhe uma figura para descrever o efeito damatriz de reflexaoH = I− 2P. Explique geometricamente e algebricamente, porque H2 = I.

[16] SePC = A(ATA)−1AT e a projecao sobre o espaco das colunasde A, qual e a projecao PR sobre o espaco das linhas de A?

[17] Mostre que a melhor aproximacao pelo metodos dos quadradosmınimos para um conjunto de medidas y1, . . . , ym por uma retahorizontal (isto e, por uma funcao constante y = c) e a media

c =y1 + · · ·+ ym

m.

Page 139: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 138

138 [CAP. 4: ORTOGONALIDADE E A DECOMPOSICAO QR

Em termos estatısticos, a escolha y que minimiza o erro E2(y) =(y1− y)2 + · · ·+(ym− y)2 e igual a media da amostra. O valorE2(y) e denominado a variancia σ2 da amostra.

[18] (O algoritmo QR) Texto extraıdo do livro Numerical Com-puting with Matlab, escrito por Cleve Moler, programador ori-ginal do MATLAB:

“The QR algorithm is one of the most important,widely used, and successful tools we have in technicalcomputation. Several variants of it are in the math-ematical core of Matlab. They compute the eigen-values of real symmetric matrices, real nonsymmetricmatrices, and pairs of complex matrices, and the sin-gular values of general matrices.”

Dada uma matriz A0 = A, calcule sua decomposicao QR:

A0 = Q0R0

e, entao, troque permute os fatores:

A1 = R0Q0.

As matrizes A1 e A0 sao matrizes semelhantes, uma vez queQ−10 A0Q0 = Q−10 (Q0R0)Q0 = A1. Desta maneira, a conti-nuacao do processo sempre obtem uma matriz com os mesmosautovalores da matriz original:

Ak = QkRk e, entao, Ak+1 = RkQk.

Sob certas hipoteses, e possıvel mostrar que Ak converge parauma matriz triangular cujos elementos da diagonal principalsao os autovalores da matriz A. Este metodo numerico para secalcular autovalores e conhecido como unshift QR algorithm.Para detalhes, aperfeicoamentos e demonstracoes do algoritmo,consulte o livro [05]. O objetivo deste exercıcio e fazer experi-mentos com o algoritmo QR no MATLAB.

(a) Escolha quatro numeros reais distintos: r = [1 2 3 4].

Page 140: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 139

[SEC. 4.10: EXERCICIOS 139

(b) Defina uma matriz A cujos autovalores sejam as entradasdo vetor r. Dica: calculo os valores das constantes c0, c1,c2 e c3 tais que

c0 + c1x+ c2x2 + c3x

3 + x4 = (x− 1)(x− 2)(x− 3)(x− 4)

e tome A como a matriz companheira:

A =

⎡⎢⎢⎣0 0 0 −c01 0 0 −c10 1 0 −c20 0 1 −c3

⎤⎥⎥⎦ .

(c) Aplique a interacao QR:

n = 40; for i=1:n [Q, R] = qr(A); A = R∗Q; end; A.

[19] Considere a transformacao de Householder H = I−2uuT , onde

u =v− ||v||e1||v− ||v||e1|| ,

com e1 o primeiro vetor da base canonica deMn×1(R). Mostreque

Hv = ||v||e1.

[20] Calcule a decomposicao QR das matrizes

A =

⎡⎣ 1 1 11 1 01 0 0

⎤⎦ e B =

⎡⎣ 0 0 10 1 11 1 1

⎤⎦usando (a) o processo de ortonormalizacao de Gram-Schmidt,(b) as transformacoes de Householder e (c) as rotacoes de Gi-vens.

[21] (Transformacao adjunta) Sejam U e V espacos vetoriais dedimensao finita com produto interno e seja T : U → V umatransformacao linear.

Page 141: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 140

140 [CAP. 4: ORTOGONALIDADE E A DECOMPOSICAO QR

(a) Dado v ∈ V , mostre que existe um unico vetor u ∈ U talque

〈T(u),v〉V = 〈u, u〉Upara todo u ∈ U .

(b) O item (a) permite definir uma aplicacao

T∗ : V → Uv �→ T∗(v) = u,

onde u e o unico vetor em U tal que 〈T(u),v〉V = 〈u, u〉U .Mostre que T∗ e uma transformacao linear, denominadaadjunta de T.

(c) Sejam BU e BV bases ortonormais de U e V , respectiva-mente. Mostre que se A = (aij) e a matriz de T comrelacao as bases U e V , entao a matriz de T∗ com relacaoas estas mesmas bases e A∗ = (aji). Note que se K = R,entao A∗ = AT .

[22] Seja V = C([−1, 1],R) com o produto interno dado por

〈f, g〉 =∫ 1

−1f(x) · g(x) dx.

SejaW ⊂ V o subespaco vetorial formado pelas funcoes ımpares,isto e,

W = {f ∈ V | f(−x) = −f(x) para todo x ∈ [−1, 1]}.Determine o complemento ortogonal W⊥ de W .

[23] Seja V = C([0, 2 π],R) com o produto interno dado por

〈f, g〉 =∫ 2π

0

f(x) · g(x) dx.

Determine argming∈W ||f−g||2, onde W = [1, cos, sen] e f(x) =x− 1.

[24] Seja V um espaco vetorial de dimensao finita com produtointerno. Se W e um subespaco vetorial de V , mostre que(W⊥)⊥ = W .

Page 142: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 141

[SEC. 4.10: EXERCICIOS 141

[25] Seja B = {v1, . . . ,vn} uma base de um espaco vetorial V comproduto interno. Mostre que B⊥ = {0}.

[26] Mostre que o sistema Ax = b possui pelo menos uma solucaose, e somente se,

ATy = 0 ⇒ bTy = 0.

[27] Seja A uma matriz real m × n. Mostre que a transformacaolinear

T : R(A) → C(A)x �→ T(x) = Ax

e inversıvel. Aqui R(A) representa o espaco vetorial geradopelas linhas de A e C(A) representa o espaco vetorial geradopelas colunas de A.

[28] O Teorema Fundamental da Algebra Linear e frequentementeenunciado na forma da alternativa de Fredholm: para quaisquerA e b, um, e somente um, dos sistemas abaixo possui pelomenos uma solucao:

(1) Ax = b.

(2) ATy = 0 e yTb �= 0.

Em outras palavras, ou b esta em C(A) ou existe y ∈ Ker(AT )tal que yTb �= 0. Mostre que, de fato, o sistemas (1) e (2) naopodem possuir pelo menos uma solucao simultaneamente.

[29] Seja T : Rn → Rn a projecao em W = [u], com u �= 0, usando-se o produto interno canonico em Rn.

(a) Mostre que, para todo x ∈ Rn, T(x) = Ax, onde A =uuT /||u||2.

(b) Mostre que A2 = A.

(c) Mostre que tr(A) = 1.

(d) A e uma matriz inversıvel? Justifique a sua resposta!

[30] Diga se cada uma das sentencas abaixo e verdadeira ou falsa.Se ela for verdadeira, apresente uma demonstracao. Se ela forfalsa, apresente um contra-exemplo.

Page 143: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 142

142 [CAP. 4: ORTOGONALIDADE E A DECOMPOSICAO QR

(a) Sejam U e V subespacos vetoriais de um espaco vetorialcom produto interno. Se U e ortogonal a V , entao U⊥ eortogonal a V ⊥.

(b) Se U e ortogonal a V e V e ortogonal a W , entao U eortogonal a W .

Page 144: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 143

Capıtulo 5

SVD e A Pseudoinversa

5.1 Autovalores e O Teorema Espectral

Definicao 5.1 Seja A ∈ Mn×n(R). Dizemos que λ ∈ C e umautovalor da matriz A se existe v ∈ Cn, com v �= 0, tal que

Av = λv.

Neste caso, dizemos que v e um autovetor de A associado ao au-tovalor λ.

Proposicao 5.1 Seja A ∈ Mn×n(R). As seguintes sentencassao equivalentes:

(1) λ e um autovalor de A.

(2) A matriz A− λI nao e inversıvel.

(3) Ker(A− λI) �= {0}.(4) λ e raiz do polinomio caracterıstico p(x) = det(A− xI).

143

Page 145: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 144

144 [CAP. 5: SVD E A PSEUDOINVERSA

Demonstracao: Exercıcio.

Proposicao 5.2 Se A ∈ Mn×n(R) e simetrica, entao todosos autovalores de A sao reais.

Demonstracao: (Seguindo [01]) Seja λ = a + b i um autovalor de A(com a, b ∈ R). Uma vez que det(A− λI) = 0, temos que

det((A− a I)− b i I) = 0.

Multiplicando-se os dois lados desta igualdade por det((A − a I) +b i I), obtemos que

det((A− a I)− b i I) det((A− a I) + b i I) = 0

Desta maneira,

det(((A− a I)− b i I)((A− a I) + b i I)) = det((A− a I)2 + b2 I) = 0.

Em particular, a matriz (A− a I)2 + b2 I nao e inversıvel. Por outrolado, uma vez que A e simetrica,

xT (A− a I)2 x = xT (A− a I)T (A− a I)x

= ((A − a I)x)T ((A− a I)x)

= ||(A− a I)x||2 ≥ 0

para todo x ∈ Rn, isto e, a matriz A − a I e positiva semidefinida.Suponha, por absurdo, que b seja diferente de 0. Entao b2I seriapositiva definida e, como a soma de uma matriz positiva semidefinidacom uma matriz positiva definida e ainda positiva definida, segue-seque (A − a I)2 + b2 I tambem seria positiva definida. Mas matrizespositivas definidas sao inversıveis (Exercıcio [16] do Capıtulo 3), umacontradicao. Assim, b = 0 e λ ∈ R.

Proposicao 5.3 Seja A ∈ Mn×n(R) uma matriz simetrica. Seλ1 e λ2 sao dois autovalores de A, com λ1 �= λ2, e se v1 e v2 saoautovetores associados aos autovalores λ1 e λ2, respectivamente,entao v1 e v2 sao ortogonais.

Page 146: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 145

[SEC. 5.1: AUTOVALORES E O TEOREMA ESPECTRAL 145

Demonstracao: Temos que Av1 = λ1v1 e Av2 = λ2v2. Portanto,

〈Av1,v2〉 = vT2 Av1 = vT

2 (λ1v1) = λ1vT2 v1 = λ1 〈v1,v2〉 .

Por outro lado,

〈Av1,v2〉 = vT2 Av1 = vT

2 ATv1 = (Av2)

Tv1 = (λ2v2)Tv1

= λ2vT2 v1 = λ2 〈v1,v2〉 .

Logo, λ1 〈v1,v2〉 = λ2 〈v1,v2〉. Uma vez que λ1 �= λ2, devemos ter〈v1,v2〉 = 0. Portanto, v1 e v2 sao ortogonais.

Teorema 5.1 (Teorema Espectral para matrizes reaissimetricas) Se A ∈ Mn×n(R) e uma matriz simetrica, entaoexiste matriz ortogonal Q tal que

QTAQ = D = diag(λ1, . . . , λn),

isto e, QTAQ e uma matriz diagonal cujos elementos da diago-nal principal sao os autovalores de A.

Demonstracao: (Seguindo [01]) O caso n = 1 e imediato. Suponhaentao que, para toda matrizB real simetrica de tamanho n×n, existauma matriz ortogonal Q tal que QTBQ e uma matriz diagonal cujoselementos da diagonal principal sao os autovalores de B. Seja q1 umautovetor associado a um autovalor λ1 de A. Sem perda de genera-lidade, podemos supor que ||q1|| = 1. Seja Q uma matriz ortogonalcuja primeira coluna e q1. Tal matriz sempre existe: complete o con-junto {q1} para obter uma base de Rn e, entao, use o processo deortonormalizacao de Gram-Schmidt para obter uma base ortonormal{q1, . . . , qn}. Desta maneira:

M = QTAQ =

⎡⎢⎢⎢⎣λ1 0 · · · 00... B0

⎤⎥⎥⎥⎦ .

Page 147: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 146

146 [CAP. 5: SVD E A PSEUDOINVERSA

De fato: se M = (mij) e M = QTAQ, entao mij = qTi Aqj . Por-

tanto,

mi1 = qTi Aq1 = λ1q

Ti qj =

{λ1, se i = 1,0, se i ≥ 2.

Uma vez que A e simetrica, segue-se que M = QTAQ tambem esimetrica e, entao m1i = 0 para todo i ≥ 2. Observe agora queos autovalores de QTAQ sao os mesmos valores de A: λ1, . . . , λn

(exercıcio!). Portanto, os autovalores de B sao λ2, . . . , λn. Uma vez

que M = QTAQ e uma matriz simetrica, segue-se que B tambem esimetrica. Pela hipotese de inducao,

QTBQ = diag(λ2, . . . , λn).

Defina

Q = Q

⎡⎢⎢⎢⎣1 0 · · · 00... Q0

⎤⎥⎥⎥⎦ .

Note entao que QTAQ = diag(λ1, . . . , λn).

Observacao. Se q1, . . . ,qn sao as colunas da matriz Q no enunciadodo Teorema Especial, entao

QTAQ = diag(λ1, . . . , λn) ⇔ AQ = Q diag(λ1, . . . , λn)

⇔ Aqi = λiqi, ∀i = 1, . . . , n,

isto e, qi e um autovetor associado ao autovalor λi. Note tambemque se QTAQ = diag(λ1, . . . , λn), entao

A = Qdiag(λ1, . . . , λn)QT

ou, ainda,

A = λ1q1qT1 + · · ·+ λnqnq

Tn .

Esta ultima igualdade e conhecida como a decomposicao espectral damatriz A.

Page 148: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 147

[SEC. 5.1: AUTOVALORES E O TEOREMA ESPECTRAL 147

Teorema 5.2 Seja A uma matriz simetrica n× n. Defina

m = min||x||=1

xTAx e M = max||x||=1

xTAx.

Entao

1. m e o menor autovalor de A e o mınimo ocorre quando x eum autovetor unitario associado,

2. M e o maior autovalor de A e o maximo ocorre quando x eum autovetor unitario associado.

Demonstracao: Pelo Teorema Espectral, considere uma base ortonor-mal {v1, . . . ,vn} de autovetores associados aos autovalores λ1, . . . ,λn. Se

x =n∑

i=1

αivi,

entao ||x||2 = α21 + · · ·+ α2

n e ||x|| = 1⇔ α21 + · · ·+ α2

n = 1. Temostambem que

xTAx =

(n∑

i=1

αivi

)T

A

⎛⎝ n∑j=1

αjvj

⎞⎠=

(n∑

i=1

αivTi

)⎛⎝ n∑j=1

αjAvj

⎞⎠=

(n∑

i=1

αivTi

)⎛⎝ n∑j=1

αjλjvj

⎞⎠=

n∑i=1

n∑j=1

αiαjλjvTi vj

=

n∑i=1

λiα2i .

Page 149: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 148

148 [CAP. 5: SVD E A PSEUDOINVERSA

Desta maneira,

M = max||x||=1

xTAx = maxα2

1+···+α2n=1

n∑i=1

λiα2i .

Sem perda de generalidade, vamos supor que

λ1 ≥ λ2 ≥ · · · ≥ λn.

Note agora que⎧⎪⎪⎪⎨⎪⎪⎪⎩λ1α

21 = λ1α

21,

λ2α22 ≤ λ1α

22,

...λnα

2n ≤ λ1α

2n.

⇒n∑

i=1

λiα2i ≤ λ1

n∑i=1

α2i = λ1 · 1 = λ1.

Assim, M ≤ λ1. Tomando α2 = · · · = αn = 0 e α1 = 1, vemos queM = λ1 e este valor e atingido em x = 1v1 + 0v2 + · · ·+ 0vn = v1.Um argumento analogo mostra que m = λn e o mınimo e atingidoem x = vn.

Agora, se (α∗1, . . . , α∗n) e outro ponto que maximiza f(α1, . . . , αn) =∑n

i=1 λiα2i sujeito a

∑ni=1 α

2i = 1, entao

λ1 = f(α∗1, . . . , α∗n) = λ1(α

∗1)

2 + · · ·+ λn(α∗n)

2.

Por outro lado,

λ1 = λ1 · 1 = λ1((α∗1)

2 + · · ·+ (α∗n)2)) = λ1(α

∗1)

2 + · · ·+ λ1(α∗n)

2.

Sendo assim, subtraindo-se as duas equacoes, vemos que

(λ1 − λ2)(α∗2)

2 + · · ·+ (λ1 − λn)(α∗n)

2 = 0.

Desta maneira, para os autovalores λi diferentes de λ1, obrigatoria-mente α∗i = 0. Desta maneira

x =

n∑i=1

α∗i vi =

n∑i=1

λi=λ1

α∗i vi

Page 150: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 149

[SEC. 5.1: AUTOVALORES E O TEOREMA ESPECTRAL 149

e autovetor associado ao autovalor λ1. Um mesmo argumento mostraque qualquer outro ponto de mınimo global de x �→ xTAx sujeitoa ||x|| = 1 deve ser um autovetor associado ao autovalor λn.

Teorema 5.3 Sejam A, v1 e λ1, como no enunciado e na de-monstracao do Teorema 5.2. Entao o maximo de

f(x) = xTAx

sujeito as restricoes

xTx = ||x||2 = 1 e xTv1 = 0

e o segundo maior autovalor λ2 de A e o maximo e atingidoquando x e um autovetor unitario correspondente.

Demonstracao: Como antes, o problema de maximizar f(x) = xTAxsujeito a ||x|| = 1 e xTv1 = 0 e equivalente a maximizar

f(α1, . . . , αn) =

n∑i=1

λiα2i

sujeito a

α21 + · · ·+ α2

n = 1 e α1 = 0.

Note que a condicao α1 = 0 e consequencia da restricao xTv1 = 0.Agora, como antes,⎧⎪⎪⎪⎨⎪⎪⎪⎩

λ2α22 = λ2α

22,

λ3α22 ≤ λ2α

22,

...λnα

2n ≤ λ2α

2n.

⇒n∑

i=2

λiα2i ≤ λ2

n∑i=2

α2i = λ2 · 1 = λ2.

O maximo ocorre quando α1 = α3 = · · · = αn = 0 e α2 = 1.

Page 151: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 150

150 [CAP. 5: SVD E A PSEUDOINVERSA

Teorema 5.4 Seja A uma matriz n × n simetrica com umadiagonalizacao ortogonalA = Q diag(λ1, · · · , λn)Q

T , com λ1 ≥λ2 ≥ · · · ≥ λn. Entao, para k = 2, . . . , n, o valor maximo de

f(x) = xTAx

sujeito as restricoes

xTx = 1, xTv1 = 0, . . . , xTvk−1 = 0,

e o autovalor λk e este maximo ocorre quando x e um autovetorunitario correspondente.

Demonstracao: Analoga a demonstracao do Teorema 5.3.

5.2 Valores Singulares

Exemplo 5.1 A matriz

A =

[4 11 148 7 −2

]define uma transformacao linear x �→ T(x) = Ax de R3 para R2.Se B = {(x1, x2, x3 ∈ R3 | x2

1 + x22 + x2

3 = 1}, entao a imagem T(B)de B por T e uma elipse de centro na origem (0, 0), como ilustraa Figura 5.1. Vamos determinar um vetor unitario x ∈ B para o qual||Ax|| e maximo (isto e, ||Ax|| e um ponto da elipse mais afastadoda origem (0, 0)).

Observe que o ponto otimo que maximiza ||Ax|| e o mesmo pontootimo que maximiza ||Ax||2 (que e uma funcao mais facil de se estu-dar). Agora

||Ax||2 = 〈Ax,Ax〉 = xTATAx.

A matriz ATA e simetrica. Assim, o problema de maximizar f(x) =xT (ATA)x sujeito a ||x|| = 1 pode ser resolvido atraves do Teo-

Page 152: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 151

[SEC. 5.2: VALORES SINGULARES 151

Figura

5.1:Im

agem

T(B

)deumaesfera

unitariaB

porumatransform

acaolinearT.

Page 153: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 152

152 [CAP. 5: SVD E A PSEUDOINVERSA

rema 5.2. Temos que

ATA =

⎡⎣ 80 100 40100 170 14040 140 200

⎤⎦ .

Os autovalores de ATA sao λ1 = 360, λ2 = 90 e λ3 = 0. Os autove-tores correspondentes sao:

v1 =

⎡⎣ 1/32/32/3

⎤⎦ , v2 =

⎡⎣ −2/3−1/32/3

⎤⎦ e v3 =

⎡⎣ 2/3−2/31/3

⎤⎦ .

O valor maximo de f(x) = xT (ATA)x sujeito a ||x|| = 1 e λ1 = 360que e obtido fazendo-se x = v1. O vetor

Av1 = A

⎡⎣ 1/32/32/3

⎤⎦ =

[186

]

e um dos pontos da elipse mais afastado da origem (o ponto V1 na Fi-gura 5.1).

Se A ∈ Mm×n(R), entao ATA e simetrica e, entao, pelo Te-orema Espectral, ortogonalmente diagonalizavel. Seja {v1, . . . ,vn}uma base ortonormal formada pelos autovalores de ATA. Assim,

0 ≤ ||Avi||2 = vTi A

TAvi = vTi λivi = λiv

Ti vi = λi||vi||2 = λi,

para todo i = 1, . . . , n. Isto mostra que todos os autovalores de ATAsao nao negativos. Reordenando se necessario, podemos assumir queλ1 ≥ λ2 ≥ · · · ≥ λn ≥ 0.

Definicao 5.2 (Valores singulares) Seja A ∈ Mm×n(R)e sejam λ1 ≥ λ2 ≥ · · · ≥ λn ≥ 0 os autovalores de ATA.Os valores singulares da matriz A sao as raızes quadradas dosautovalores de ATA:

σi =√λi.

Page 154: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 153

[SEC. 5.2: VALORES SINGULARES 153

Uma vez que λi = ||Avi||2, vemos que os valores singulares sao,portanto, as normas dos vetores ||Av1||, . . . , ||Avn||.

Exemplo 5.2 Seja A a matriz do Exemplo 5.1. Os autovaloresde ATA sao 360, 90 e 0. Assim, os valores singulares de A sao

σ1 =√360 = 6

√10, σ2 =

√90 = 3

√10, e σ3 = 0.

Note que

σ1 = max||x||=1

||Ax||, com o maximo atingido em x = v1

eσ2 = max

||x||=1

xT v1=0

||Ax||, com o maximo atingido em x = v2.

Para o vetor v2 no Exemplo 5.1,

Av2 =

[4 11 148 7 −2

]⎡⎣ −2/3−1/32/3

⎤⎦ =

[3−9

],

que corresponde ao ponto V2 na Figura 5.1. Note, entao, que os doisprimeiros valores singulares determinam os comprimentos dos doissemieixos da elipse T(B).

Teorema 5.5 Seja A ∈ Mm×n(R) uma matriz que possui exa-tamente r valores singulares nao nulos:

σ1 ≥ σ2 ≥ · · · ≥ σr > 0, σr+1 = σr+2 = · · · = σn = 0.

Entao o posto de A e r.

Demonstracao: Seja {v1, . . . ,vn} base ortonormal de autovetoresde ATA cujos autovalores satisfazem λ1 ≥ λ2 ≥ · · · ≥ λn. Assim,para i �= j,

〈Avi,Avj〉 = vTj A

TAvi = vTj λivi = λiv

Tj vi = 0.

Page 155: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 154

154 [CAP. 5: SVD E A PSEUDOINVERSA

Portanto, {Av1, . . . ,Avn} e um conjunto ortogonal que gera C(A) =Im(A). Uma vez que σi = ||Avi||, se

σ1 ≥ σ2 ≥ · · · ≥ σr > 0, σr+1 = σr+2 = · · · = σn = 0,

entao

Av1 �= 0, Av2 �= 0, . . . , Avr �= 0,

Avr+1 = Avr+2 = · · · = Avn = 0.

Logo, o conjunto de vetores nao nulos {Av1, . . . ,Avr} e LI e gerao subespaco vetorial C(A) = Im(A). Sendo assim, rank(A) = r.

5.3 A Decomposicao em Valores Singula-res (SVD)

Teorema 5.6 Seja A ∈ Mm×n(R) uma matriz com posto r.Entao existe uma matriz

Σm×n =

[Dr×r 0r×(n−r)

0(m−r)×r 0(m−r)×(n−r)

],

onde os elementos da diagonal principal da matriz D sao os rvalores singulares nao nulos de A:

σ1 ≥ σ2 ≥ · · · ≥ σr > 0,

e existem matrizes ortogonais Um×m e Vn×n tais que

A = UΣVT .

As colunas de U sao denominadas de vetores singulares a es-querda e as coluna de V de vetores singulares a direita. O pro-duto UΣVT e denominado uma SVD (singular value decompo-sition) para a matriz A.

Page 156: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 155

[SEC. 5.3: A DECOMPOSICAO EM VALORES SINGULARES (SVD) 155

Demonstracao: Como na demonstracao do Teorema 5.5, sejam λi

e σi comσi =

√λi = ||Avi|| > 0, ∀1 ≤ i ≤ r,

e{Av1, . . . ,Avr} base ortogonal de C(A).

Para cada 1 ≤ i ≤ r, defina

ui =1

||Avi|| Avi =1

σiAvi,

de modo queAvi = σiui, para i = 1, . . . , r.

Entao {u1, . . . ,ur} e uma base ortonormal para C(A) = Im(A). Es-tenda este conjunto para uma base ortonormal de Rm (usando o te-orema de completamento de bases e o processo de ortonormalizacaode Gram-Schmidt): {u1, . . . ,ur,ur+1, . . . ,um}. Defina:

U =

⎡⎢⎢⎣ |u1

|· · ·

|um

|

⎤⎥⎥⎦ e V =

⎡⎢⎢⎣ |v1

|· · ·

|vn

|

⎤⎥⎥⎦ .

As matrizes U e V sao ortogonais e

AV =

⎡⎢⎢⎣ |Av1

|· · ·

|Avr

|

|0|

· · ·|0|

⎤⎥⎥⎦

=

⎡⎢⎢⎣ |σ1u1

|· · ·

|σrur

|

|0|

· · ·|0|

⎤⎥⎥⎦ .

Portanto,

AV =

⎡⎢⎢⎣ |u1

|· · ·

|ur

|

|ur+1

|· · ·

|um

|

⎤⎥⎥⎦ ·Σ= UΣ,

Page 157: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 156

156 [CAP. 5: SVD E A PSEUDOINVERSA

onde

Σ =

[diag(σ1, . . . , σr) 0

0 0

]m×n

.

Mas, se AV = UΣ, entao A = UΣVT .

Observacao. A decomposicao em valores singulares de uma ma-triz nao e unica, pois ela depende de como a base {u1, . . . ,ur} foi

estendida. Contudo, se A = UΣVT e outra decomposicao em valo-res singulares para a matriz A, entao os elementos (Σ)ii de Σ saoobrigatoriamente os valores singulares de A. De fato: observe que seA = UΣVT , entao

ATA = (UΣVT )T (UΣVT ) = VT ΣT UT UΣV

= VT ΣT ΣV = VT DV.

Agora, se

Σ =

[diag(σ1, . . . , σr) 0

0 0

]m×n

,

entao

D = ΣT Σ =

[diag((σ1)

2, . . . , (σr)2) 0

0 0

]n×n

.

Assim, os autovalores de ATA (os quadrados dos valores singulares

de A) sao os mesmos autovalores de VT DV. Uma vez V e umamatriz ortogonal, concluımos que os autovalores de ATA sao (σ1)

2,. . . , (σr)

2). Desta maneira, σ1, . . . , σr sao os valores singulares naonulos de A.

Exemplo 5.3 Seja A a matriz do Exemplo 5.1. Dos calculos feitosneste exemplo e no Exemplo 5.2, temos que

u1 =1

σ1Av1 =

[3/√10

1/√10

]e u2 =

1

σ2Av2 =

[1/√10

−3/√10].

O conjunto {u1,u2} e uma base ortonormal de R2. Logo nao e ne-cessario fazer um completamente de base. Colocando U = [ u1 u2 ],V = [ v1 v2 v3 ],

D =

[6√10 0

0 3√10

]e Σ =

[6√10 0 0

0 3√10 0

],

Page 158: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 157

[SEC. 5.3: A DECOMPOSICAO EM VALORES SINGULARES (SVD) 157

obtemos uma SVD para a matriz A:

A

=[4 11 148 7 −2

]

=[3/√10 1/

√10

1/√10 −3/√10

] [6√10 0 0

0 3√10 0

]⎡⎣ 1/3 −2/3 2/32/3 −1/3 −2/32/3 2/3 1/3

⎤⎦T

=

UΣVT .

Exemplo 5.4 Neste exemplo vamos calcular uma decomposicao emvalores singulares da matriz

A =

⎡⎣ 1 −1−2 22 −2

⎤⎦ .

Observe que ATA =

[9 −9−9 9

], cujos autovalores sao λ1 = 18

e λ2 = 0. Os autovetores correspondentes sao

v1 =

[1/√2

−1/√2]

e v2 =

[1/√2

1/√2

].

Agora,

Av1 =

⎡⎣ 2/√2

−4/√24/√2

⎤⎦ , σ1 = ||Av1|| = 3√2, u1 =

1

σ1Av1 =

⎡⎣ 1/3−2/32/3

⎤⎦e

Av2 = 0.

Precisamos agora estender o conjunto {u1} para uma base ortonormalde R3. Note que (x1, x2, x3) ∈ {u1}⊥ ⇔ 〈(x1, x2, x3),u1〉 = 0 ⇔x1 − 2 x2 + 2 x3 = 0⇔ x1 = 2 x2 − 2 x3, isto e,

Page 159: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 158

158 [CAP. 5: SVD E A PSEUDOINVERSA

⎡⎣ x1

x2

x3

⎤⎦ ∈⎧⎨⎩⎡⎣ 1/3−2/32/3

⎤⎦⎫⎬⎭⊥

⇔⎡⎣ x1

x2

x3

⎤⎦ = x2

⎡⎣ 210

⎤⎦︸ ︷︷ ︸

u2

+ x3

⎡⎣ −201

⎤⎦︸ ︷︷ ︸

u3

.

O conjunto {u1, u2, u3} e ortogonal. Usando o processo de ortonor-malizacao de Gram-Schmidt, obtemos

u2 =

⎡⎣ 2/√5

1/√50

⎤⎦ e u3 =

⎡⎣ −2/√454/√45

5/√45

⎤⎦de modo que {u1,u2,u3} e base ortonormal de R3. Desta maneira,obtemos a seguinte SVD para a matriz A:

A

=⎡⎣ 1 −1−2 22 −2

⎤⎦

=⎡⎣ 1/3 −2/√5 −2/√45−2/3 1/

√5 4/

√45

2/3 0 5/√45

⎤⎦⎡⎣ 3√2 00 00 0

⎤⎦[2/√2 2/

√2

−2/√2 2/√2

]

=

UΣVT .

Teorema 5.7 Seja A ∈ Mm×n(R) uma matriz com posto r eseja

UΣVT

uma SVD para A. Entao:

(1) As primeiras r colunas de U formam uma base ortonormalpara Im(A) = C(A).

Page 160: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 159

[SEC. 5.3: A DECOMPOSICAO EM VALORES SINGULARES (SVD) 159

(2) As ultimasm−r colunas deU formam uma base ortonormalpara Ker(AT ).

(3) As ultimas n−r colunas de V formam uma base ortonormalpara Ker(A).

(4) As primeiras r colunas de V formam uma base ortonormalpara Im(AT ) = C(AT ) = R(A).

Demonstracao: Se A = UΣVT , entao AV = UΣ, isto e,

AV =

⎡⎢⎢⎣ |Av1

|· · ·

|Avr

|

|Avr+1

|· · ·

|Avn

|

⎤⎥⎥⎦

=

⎡⎢⎢⎣ |σ1u1

|· · ·

|σrur

|

|0|

· · ·|0|

⎤⎥⎥⎦ ,

com σ1 ≥ · · · ≥ σr > 0.

Da desigualdade acima, vemos que ui = Avi/σi ∈ Im(A), paratodo i = 1, . . . , r. Logo, [u1, . . . ,ur] ⊆ Im(A). Como {u1, . . . ,ur}e LI e dimR(Im(A)) = r, concluımos que [u1, . . . ,ur] = Im(A).Desta maneira, {u1, . . . ,ur} e uma base ortonormal para Im(A) =C(A). Por ortogonalidade e pelo Teorema Fundamental da AlgebraLinear, segue-se que o conjunto {ur+1, . . . ,um} e base ortonormalpara (Im(A))⊥ = Ker(AT ).

A partir da igualdade AV = UΣ, vemos tambem que Avi = 0,para todo i = r + 1, . . . , n. Logo, [vr+1, . . . ,vn] ⊆ Ker(A). ComodimR(Ker(A)) = n − r, concluımos que [vr+1, . . . ,vn] = Ker(A).Desta maneira, {vr+1, . . . ,vn} e uma base ortonormal para Ker(A).Novamente, por ortogonalidade e pelo Teorema Fundamental da Al-gebra Linear, segue-se que o conjunto {v1, . . . ,vr} e base ortonormalpara (Ker(A))⊥ = Im(AT ) = C(AT ) = R(A).

Page 161: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 160

160 [CAP. 5: SVD E A PSEUDOINVERSA

5.4 Aplicacao: Imagens Digitais

Imagens digitais em tons de cinza (grayscale em ingles) podemser representadas por matrizes. Cada elemento da matriz determinaa intensidade do pixel correspondente. Por conveniencia, a maioriados arquivos digitais atuais usam numeros inteiros entre 0 (para in-dicar a cor preta, ausencia de intensidade) e 255 (para indicar a corbranca, intensidade maxima), totalizando entao 256 tons de cinzadiferentes.

Considere agora a situacao em que uma imagem A em tons decinza, de tamanho 1000 por 1000, deve ser transmitida por um satelitepara um laboratorio na Terra. Em princıpio, o satelite teria que en-viar 1 milhao de numeros. O que pode ser feito e o seguinte: o satelitecalcula uma SVD para A: A = UΣVT . Se u1, . . . ,um sao as colu-nas de U; v1, . . . ,vn sao as colunas de V e σ1 ≥ · · · ≥ σr > 0 saoos valores singulares nao nulos de A, entao

A = σ1u1vT1 + σ2u2v

T2 + · · ·+ σrurv

Tr .

Como, tipicamente, apenas os primeiros valores singulares σi sao sig-nificantes (os demais sao “pequenos”), basta entao que o satelite en-vie, digamos, as 20 primeiras colunas de U e de V e os 20 primeirosnumeros σi (totalizando entao apenas 20·1000+20·1000+20 = 40020numeros que devem ser enviados). Ao receber estes dados, o labo-ratorio na Terra calcula a matriz

σ1u1vT1 + σ2u2v

T2 + · · ·+ σ20u20v

T20

que dara uma aproximacao da imagem original. Vamos ver umexemplo: a imagem abaixo, o quadrado magico extraıdo da gra-vura Melencolia I do artista renascentista alemao Albrecht Durer(1471–1528), tem 359 × 371 = 133189 pixels. A partir da SVD damatriz correspondente a este imagem, podemos calcular as matrizesσ1u1v

T1 + σ2u2v

T2 + · · ·+ σrurv

Tr para r = 1, 10, 35 e 50. Estas ma-

trizes geram aproximacoes para a imagem original, como ilustra a Fi-gura 5.2. Note que a imagem original corresponde ao caso r = 359.

Page 162: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 161

[SEC. 5.4: APLICACAO: IMAGENS DIGITAIS 161

Figura 5.2: Quadrado magico da gravura Melencolia I de AlbrechtDurer.

r = 1 r = 10

r = 35 r = 50

Figura 5.3: Aproximacoes da imagem original para r = 1, r = 10,r = 35 e r = 10.

Page 163: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 162

162 [CAP. 5: SVD E A PSEUDOINVERSA

5.5 Mınimos Quadrados e A Pseudoin-

versa

Na Secao 4.6 do Capıtulo 4, estudamos o seguinte problema deotimizacao:

minx∈Rn

||b−Ax||.

Vimos que um ponto de mınimo sempre existe e ele deve satisfazeras equacoes normais

ATAx = ATb.

Se ATA e uma matriz inversıvel, entao a solucao e unica: x =(ATA)−1ATb. O que fazer quando a matriz ATA nao e inversıvele existem infinitas solucoes? A ideia e entao procurar por um ele-mento x+ de menor norma que satisfaca as equacoes normais. Nestasecao veremos como obter uma formula explıcita para x+ em termosde uma SVD para a matriz A.

Exemplo 5.5 Considere:

A =

⎡⎣ σ1 0 0 00 σ2 0 00 0 0 0

⎤⎦ , x =

⎡⎢⎢⎣x1

x2

x3

x4

⎤⎥⎥⎦ e b =

⎡⎣ b1b2b3

⎤⎦ ,

com σ1 ≥ σ2 > 0. Qual e um x que minimiza ||b−Ax||?

ATAx = ATb ⇒

⎡⎢⎢⎣σ21 0 0 00 σ2

2 0 00 0 0 00 0 0 0

⎤⎥⎥⎦⎡⎢⎢⎣

x1

x2

x3

x4

⎤⎥⎥⎦ =

⎡⎢⎢⎣σ1b1σ2b200

⎤⎥⎥⎦

⇒ x =

⎡⎢⎢⎣b1/σ1

b2/σ2

x3

x4

⎤⎥⎥⎦ .

Agora, qual e x+ de tamanho mınimo que minimiza ||b−Ax||? Res-

Page 164: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 163

[SEC. 5.5: MINIMOS QUADRADOS E A PSEUDOINVERSA 163

posta:

x+ =

⎡⎢⎢⎣b1/σ1

b2/σ2

00

⎤⎥⎥⎦ =

⎡⎢⎢⎣1/σ1 0 00 1/σ2 00 0 00 0 0

⎤⎥⎥⎦︸ ︷︷ ︸

A+

⎡⎣ b1b2b3

⎤⎦ = A+b.

Exemplo 5.6 Considere:

A = Σ =

[diag(σ1, . . . , σr) 0

0 0

]m×n

, x =

⎡⎢⎣ x1

...xn

⎤⎥⎦ e

b =

⎡⎢⎣ b1...bm

⎤⎥⎦ ,

com σ1 ≥ · · · ≥ σr > 0. Seguindo os mesmos passos do exemploanterior, e possıvel demonstrar que o vetor x+ de tamanho mınimoque minimiza ||b−Σx|| e

x+ =

⎡⎢⎢⎢⎢⎢⎢⎢⎢⎣

b1/σ1

...br/σr

0...0

⎤⎥⎥⎥⎥⎥⎥⎥⎥⎦=

[diag(1/σ1, . . . , 1/σr) 0

0 0

]︸ ︷︷ ︸

Σ+

n×m

⎡⎢⎣ b1...bm

⎤⎥⎦

= Σ+b.

Exemplo 5.7 Mais geralmente, considere uma matriz real A de ta-manho m por n. Seja UΣVT uma SVD para A. Afirmamos queo vetor x+ de tamanho mınimo que minimiza ||b−Σx|| e x+ = A+b,onde

A+ = VΣ+UT .

Page 165: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 164

164 [CAP. 5: SVD E A PSEUDOINVERSA

De fato: note que

||b−Ax|| = ||b−UΣVTx|| (1)= ||UTb−ΣVTx|| (2)= ||UTb−Σy||,

onde, em (1) usamos o fato de que UT e ortogonal, logo preservanorma e, em (2), fizemos a troca de variaveis y = VTx (note que estatroca de variaveis preserva norma: ||y|| = ||x||, pois VT e ortogonal).Desta maneira,

minx∈Rn

||x|| mınima

||b−Ax|| = miny∈Rn

||y|| mınima

||UTb−Σy||.

Em y, o problema que temos e exatamente aquele estudado no exem-plo anterior. Sendo assim, o vetor y de tamanho mınimo que mini-miza ||UTb−Σy|| e

y+ = Σ+UTb.

Desta maneira,

y+ = Σ+UTb ⇒ VTx+ = Σ+UTb ⇒ V−1x+ = Σ+UTb

⇒ x+ = VΣ+UTb x+ = A+b.

Definicao 5.3 Seja UΣVT uma SVD para uma matriz A.A pseudoinversa de A e a matriz

A+ = VΣ+UT .

Proposicao 5.4

(1) Se b ∈ Rm, entao x+ = A+b ∈ R(A).

(2) A projecao ortogonal de b em C(A) e AA+b.

(3) A+∣∣C(A)

= (A|R(A))−1.

Demonstracao:

Page 166: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 165

[SEC. 5.5: MINIMOS QUADRADOS E A PSEUDOINVERSA 165

(1) De fato:

A+b

=

VΣ+UTb

=⎡⎢⎢⎣ |σ1v1

|· · ·

|σrvr

|

|0|

· · ·|0|

⎤⎥⎥⎦ (UTb)

e uma combinacao linear dos vetores {σ1v1, . . . , σrvr} (que ge-ram R(A)) cujos coeficientes da combinacao linear sao os ele-mentos do vetor UTb. Assim, x+ = A+b ∈ R(A).

(2) Como x+ e uma solucao do problema minx∈Rn ||b−Ax||, segue-se que Ax+ = AA+b e a projecao ortogonal de b em C(A),em virtude da Proposicao 4.8. Tambem e possıvel verificar esteresultado diretamente:

AT (b−AA+b) = ATb−ATAA+b

= VΣTUTb−VΣTΣVTVΣ+UTb

= VΣTUTv−VΣTΣΣ+UTb(∗)= VΣTUTb−VΣTUTb

= 0.

Note que, em (∗), usamos que

ΣΣ+ =

[Ir×r 00 0

]e ΣT (ΣΣ+) = ΣT .

(3) De fato: vamos mostrar que AA+b = b para todo b ∈ Im(A)e A+Ax = x para todo x ∈ R(A). Para isto, sera util dividiras matrizes U e V em blocos:

U =[U1 U2

]e V =

[V1 V2

],

Page 167: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 166

166 [CAP. 5: SVD E A PSEUDOINVERSA

com U1 uma matriz r×m e V1 uma matriz r×n. De acordo como Teorema 5.7, as colunas de U2 formam uma base para Ker(AT )e as colunas de V2 formam uma base para Ker(A). Assim, se b ∈Im(A) e x ∈ R(A), entao

UT2 b = 0 e VT

2 x = 0.

Agora, para todo b ∈ Im(A),

AA+b = (UΣVT )(VΣ+UT )b = UΣΣ+UTb

=[U1 U2

] [ Ir×r 00 0

] [UT

1

UT2

]b

=[U1 U2

] [ Ir×r 00 0

] [UT

1 b

UT2 b

]=

[U1 U2

] [ UT1 b0

]=

[U1 U2

] [ UT1 b

UT2 b

]=

[U1 U2

] [ UT1

UT2

]b = UUTb = b

e, para todo x ∈ R(A),

A+Ax = (VΣ+UT )(UΣVT )x = VΣ+ΣVTx

=[V1 V2

] [ Ir×r 00 0

] [VT

1

VT2

]x

=[V1 V2

] [ Ir×r 00 0

] [VT

1 b

VT2 b

]=

[V1 V2

] [ VT1 x0

]=[V1 V2

] [ VT1 x

VT2 x

]=

[V1 V2

] [ VT1

VT2

]x = VVTx = x.

Page 168: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 167

[SEC. 5.6: EXERCICIOS 167

5.6 Exercıcios

[01] Seja Q uma matriz ortogonal. Mostre que A e QTAQ possuemos mesmos autovalores.

[02] Seja A uma matriz real n × n simetrica. Sejam λ1, . . . , λn osn autovalores de A. Suponha que |λ1| ≥ |λ2| ≥ · · · ≥ |λn|.Considere o problema de otimizacao

M = max||x||=1

||Ax||

Mostre que M = |λ1| e que o valor maximo ocorre quando xe um autovetor unitario correspondente ao autovalor λ1. Aqui,|| · || e a normal euclidiana usual.

[03] Se uma decomposicao em valores singulares da matriz A e A =UΣVT , encontre uma SVD para AT . Como estao relacionadosos valores singulares de A e AT ?

[04] Mostre que se Q e uma matriz ortogonalm×m, entao QA temos mesmos valores singulares que A.

[05] Calcule uma decomposicao SVD da matriz

A =

⎡⎣ 1 10 1−1 1

⎤⎦ .

[06] Calcule uma SVD da matriz A =

[3 2 22 3 −2

].

[07] Mostre que seA tem posto r, entaoATA tambem tem posto r.

[08] Mostre, atraves de um exemplo, que a decomposicao SVD deuma matriz pode nao ser unica.

[09] Suponha que uma matrizA inversıvel tenha uma SVD na formaA = UΣVT . Encontre uma SVD para A−1.

[10] Mostre que se A e uma matriz quadrada, entao o | det(A)|(o valor absoluto do determinante de A) e igual ao produto dosvalores singulares de A.

Page 169: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 168

168 [CAP. 5: SVD E A PSEUDOINVERSA

[11] Mostre que se A e positiva definida e simetrica, entao os valoressingulares de A coincidem com os autovalores de A.

[12] Sejam A ∈ Mm×n(R) e B ∈ Mp×n(R). Se a1, . . . , an saoas colunas de A e b1, . . . ,bn sao as colunas de B, mostre que

ABT = a1bT1 + · · ·+ anb

Tn .

[13] Seja A uma matriz m×n cujos valores singulares nao nulos saoσ1, . . . , σr , os vetores singulares a esquerda sao u1, . . . , um eos vetores singulares a direita sao v1, . . . , vn. Mostre que Apode ser escrita como soma de matrizes de posto 1:

A = σ1u1vT1 + σ2u2v

T2 + · · ·+ σrurv

Tr .

[14] Mostre que se A tem colunas linearmente independentes, entaoA+ = (ATA)−1AT .

[15] Vale sempre que (AB)+ = B+A+? Justifique a sua resposta!

[16] Se A e uma matriz quadrada inversıvel, quem e sua a pseudoin-versa A+?

[17] Se Q e uma matriz m × n com colunas ortonormais, quem ea sua pseudoinversa Q+?

[18] Mostre que a pseudo-inversa X = A+ de A satisfaz as quatrocondicoes de Moore-Penrose:

AXA = A, XAX = X, (AX)T = AX e (XA)T = XA.

Observacao: e possıvel demonstrar que a pseudo-inversa A+

deA e a unica matrizX que satisfaz estas quatro propriedades.

Page 170: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 169

Capıtulo 6

Programacao Linear

6.1 Definicoes

Um programa linear e um problema de otimizacao onde a funcaoque queremos otimizar e as restricoes sao todas lineares. Por exemplo,

minimizarx1,x2∈R

x1 + x2

sujeito a 3 x1 + 2 x2 ≥ 8,x1 + 5 x2 ≥ 7,

x1 ≥ 0,x2 ≥ 0

(6.1)

e um programa linear. Para resolve-lo, precisamos encontrar umponto (x1, x2) do conjunto admissıvel

K = {(x1, x2) ∈ R2 | 3 x1 + 2 x2 ≥ 8, x1 + 5 x2 ≥ 7, x1 ≥ 0, x2 ≥ 0}que torna o valor da funcao objetivo o(x1, x2) = x1 + x2 o menorpossıvel. O conjunto K esta desenhado na Figura 6.1. Por inspecao,vemos que a solucao otima e dada por (x∗1, x

∗2) = (2, 1). Este ponto e

a intersecao da curva de nıvel f(x1, x2) = x1 + x2 = c “mais baixa”que intercepta o conjunto admissıvel.

Dizemos que um programa linear esta na forma padrao se todasas variaveis de decisao sao nao-negativas e se todas as restricoes sao

169

Page 171: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 170

170 [CAP. 6: PROGRAMACAO LINEAR

x 1

x 2

4

3

1

720 3

Figura 6.1: O conjunto admissıvel do programa linear 6.1.

em igualdade:

minimizarx1,...,xn

∈ R c1x1 + · · ·+ cnxn

sujeito a a11x1 + · · · + a1nxn = b1,...

......

......

am1x1 + · · · + amnxn = bm,

e x1 ≥ 0, . . . , xn ≥ 0.

Todo programa linear pode ser reescrito na forma padrao com o usode variaveis de folga. Por exemplo, uma restricao da forma

ai1x1 + · · ·+ ainxn ≥ bi

pode ser substituıda, de maneira equivalente, pelas restricoes

ai1x1 + · · ·+ ainxn − yi = bi e yi ≥ 0.

Se uma variavel de decisao xi pode assumir qualquer valor real, isto e,se nao existe restricao de nao-negatividade em xi, entao podemos

Page 172: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 171

[SEC. 6.1: DEFINICOES 171

substituir xi por ui − vi, a diferenca de dois numeros positivos. Secolocarmos o programa linear 6.1 na forma padrao, obtemos o se-guinte PL:

minimizarx1,x2,y1,y2∈R

x1 + x2

sujeito a 3 x1 + 2 x2 − y1 = 8,x1 + 5 x2 − y2 = 7,

x1 ≥ 0,x2 ≥ 0,y1 ≥ 0,y2 ≥ 0.

(6.2)

Um programa linear pode ser escrito de forma mais compactausando-se matrizes e vetores:

minimizarx∈Rn

cTx

sujeito a Ax = b e x ≥ 0,(6.3)

onde x ∈ Rn, c ∈ Rn, b ∈ Rm e A e uma matriz m × n. Noteque o conjunto admissıvel K = {x ∈ Rn | Ax = b e x ≥ 0} de umprograma linear, quando nao-vazio, e um politopo convexo, e queas hiperfıcies de nıvel da funcao objetivo sao hiperplanos.

Problemas de maximizacao podem ser transformados em proble-mas de minimizacao substituindo-se a funcao objetivo o por −o. Maisprecisamente, x∗ e uma solucao otima de

maximizarx∈Rn

cTx

sujeito a Ax = b e x ≥ 0,

se, e somente se, x∗ tambem e solucao de

minimizarx∈Rn

−cTxsujeito a Ax = b e x ≥ 0.

Na teoria de programacao linear, assume-se que m < n (existemmais incognitas do que restricoes em igualdade) e que o posto da ma-triz A e m, isto e, as m linhas de A sao linearmente independentes.

Page 173: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 172

172 [CAP. 6: PROGRAMACAO LINEAR

Sabemos, entao, que existem m colunas de A que sao linearmente in-dependentes. Renomeando-se ındices se necessario, podemos assumirque estas colunas sejam asm primeiras. Isto induz uma decomposicaode A, de x e de c:

A =[B N

], x =

[xB

xN

], c =

[cBcN

],

onde B e uma matriz m × m inversıvel. Com esta decomposicao,o Problema 6.3 pode ser escrito na forma

minimizarxB∈Rm,xN∈Rn−m

cTBxB + cTNxN

sujeito a BxB +NxN = b,xB ≥ 0,xN ≥ 0.

(6.4)

Como o sistema linear Ax = b e equivalente a BxB + NxN = b,segue-se entao que existe uma solucao x de Ax = b na forma[

xB

0

].

Esta solucao e denominada solucao basica do sistema linear Ax =b associada a base B. As componentes de xB sao denominadasvariaveis basicas. Se em uma solucao basica, pelo menos uma dasvariaveis basicas e igual a zero, dizemos entao que a solucao basica edegenerada.

Exemplo 6.1 Considere

A =

[1 0 10 1 1

]e b =

[10

].

(1) Se B =

[1 00 1

], entao xB =

⎡⎣ 100

⎤⎦ e uma solucao basica

degenerada do sistema Ax = b.

(2) Se B =

[1 10 1

], entao xB =

⎡⎣ 100

⎤⎦ e uma solucao basica

degenerada do sistema Ax = b.

Page 174: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 173

[SEC. 6.2: O TEOREMA FUNDAMENTAL DA PROGRAMACAO LINEAR 173

(3) Se B =

[0 11 1

], entao xB =

⎡⎣ 0−11

⎤⎦ e uma solucao basica

nao degenerada do sistema Ax = b.

Observacao. Uma variavel basica nula pode ser trocada por umavariavel nao basica que tambem e nula.

6.2 O Teorema Fundamental da Progra-

macao Linear

Teorema 6.1 (Teorema Fundamental da ProgramacaoLinear) Considere um programa linear na forma padrao 6.3,com A matriz m× n de posto m.

(a) Se o programa linear possui um ponto admissıvel, entao elepossui um ponto admissıvel que e uma solucao basica dosistema linear Ax = b.

(b) Se o programa linear possui um ponto otimo, entao ele pos-sui um ponto otimo que e uma solucao basica do sistemalinear Ax = b.

Demonstracao:

(a) Seja x = [ x1 · · · xn ]T um ponto admissıvel, isto e, um pontoque satisfaz

Ax = b e x≥0. (∗)Denotando-se por a1, . . . , an as colunas da matriz A, segue-seque

Ax = b⇔ x1a1 + · · ·+ xnan = b.

Suponha que p destas variaveis x1, . . . , xn sejam diferentes dezero. Sem perda, podemos supor que estas sejam as p primeirascolunas. Logo,

x1a1 + · · ·+ xpap = b.

Page 175: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 174

174 [CAP. 6: PROGRAMACAO LINEAR

Caso 1. Se {a1, . . . , ap} e LI, entao p ≤ m. Se p = m, entao[ x1 · · · xp 0 · · · 0 ]T e uma solucao basica de (∗). Se p < m,entao existem outras m − p colunas (entre as n− p colunas res-tantes) que, junto com {a1, . . . , ap} formam um conjunto LI. Fa-zendo as variaveis xi correspondentes iguais a zero, obtemos umasolucao basica (degenerada) admissıvel para (∗).

Caso 2. Se {a1, . . . , ap} LD, entao existem constantes y1, . . . ,yp nao todas nulas tais que

y1a1 + · · ·+ ypap = 0.

Sem perda, podemos supor que pelo menos um dos yi e posi-tivo (caso contrario, basta multiplicar a equacao acima por −1).Defina

z(ε) = x− εy,

onde y = [ y1 · · · yp 0 · · · 0 ]T . Note que

Az(ε) = Ax− εAy = b− ε 0 = b, ∀ε ∈ R.

Agora, zi = 0, zi < 0 ou zi > 0 dependendo de ε e yi. Note que,quando ε = 0,

z(0) = x = [ x1︸︷︷︸>0

. . . xp︸︷︷︸>0

0 . . . 0 ]T≥0.

Agora, se ε aumenta, xi − εyi aumenta, diminui ou permanececonstante dependendo se yi < 0, yi > 0 ou yi = 0, respectiva-mente. Aumente ε ate que uma ou mais componentes de z(ε) seanulem:

ε = min

{xi

yi

∣∣∣∣ yi > 0, i = 1, . . . , p

}.

Para este valor de ε, z(ε) satisfaz (∗) e tem no maximo p − 1componentes positivas. Se as p− 1 colunas forem LI, caımos noCaso 1. Se elas forem LD, repetimos o processo.

Page 176: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 175

[SEC. 6.2: O TEOREMA FUNDAMENTAL DA PROGRAMACAO LINEAR 175

(b) Seja x∗ = [ x∗1 · · · x∗n ]T uma solucao otimo admissıvel. Comoantes, supondo que as p primeiras componentes sao maiores doque zero, temos dois casos a considerar.

Caso 1. Se {a1, . . . , ap} e LI, entao p ≤ m. Se p = m, entao[ x∗1 · · · x∗p 0 · · · 0 ]T e uma solucao basica admissıvel otima parao programa linear

minimizarx∈Rn

cTx

sujeito a Ax = b e x ≥ 0.(∗∗)

Se p < m, entao existem outrasm−p colunas (entre as n−p colu-nas restantes) que, junto com {a1, . . . , ap} formam um conjuntoLI. Fazendo as variaveis xi correspondentes iguais a zero, obte-mos uma solucao basica (degenerada) admissıvel otima para (∗∗).

Caso 2. Se {a1, . . . , ap} e LD, como antes, considere z(ε) =x∗ − εy. Note que, para todo ε tal que

max

{x∗iyi

∣∣∣∣ yj < 0, i = 1, . . . , p

}< ε <

min

{x∗iyi

∣∣∣∣ yj > 0, i = 1, . . . , p

},

z(ε) satisfaz as restricoes (∗). Se nao existir yj < 0, entao z(ε)satisfaz as restricoes (∗) para todo ε tal que

−∞ < ε < min

{x∗iyi

∣∣∣∣ yj > 0, i = 1, . . . , p

}.

Pelo fato de x∗ ser uma solucao otima, obrigatoriamente cTy = 0(pois caso contrario, basta, de 0, aumentar ε se cTy < 0 ou dimi-nuir ε se cTy > 0 para obter um ponto z(ε) admissıvel cujo valorda funcao objetivo e menor). Assim, cT z(ε) = cTx∗. Tomando

ε = min

{xi

yi

∣∣∣∣ yi > 0, i = 1, . . . , p

},

Page 177: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 176

176 [CAP. 6: PROGRAMACAO LINEAR

z(ε) e ainda uma solucao admissıvel otima com no maximo p− 1coordenadas positivas. Se as respectivas colunas sao LI, caımosno Caso 1. Se elas forem LD, repetimos o processo.

Teorema 6.2 Seja B uma base do Problema 6.3 e seja

x =

[B−1b0

]a solucao basica correspondente. Temos que x e admissıvel se,e somente se, B−1b≥0. Mais ainda, x e otimo se, e somente se,

cTB B−1A ≤ c.

Demonstracao: Por construcao,

x =

[B−1b0

]satisfaz a restricao Ax = b. Assim, para que x seja admissıvel, bastaque x ≥ 0, isto e, basta que B−1b≥0. Para obter a condicao deotimalidade, seja

x =

[xB

xN

]um ponto admissıvel qualquer. Entao BxB +NxN = b e, portanto,xB = B−1b−B−1NxN. Desta maneira,

x =

[B−1b0

]e otimo

[cTB cTN

] [ B−1b0

]≤ [

cTB cTN] [ xB

xN

], ∀xB, xN ≥ 0

cTBB

−1b ≤ cTBxB + cTNxN, ∀xB, xN ≥ 0

Page 178: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 177

[SEC. 6.3: RELACOES COM CONVEXIDADE 177

cTBB−1b ≤ cTB(B

−1b−B−1NxN) + cTNxN, ∀xN ≥ 0

cTBB

−1NxN ≤ cTNxN, ∀xN ≥ 0

cTBB

−1N ≤ cTN

cTBB

−1A ≤ cT .

6.3 Relacoes com Convexidade

Definicao 6.1 (Conjuntos convexos) Dizemos que U ⊂ Rn

e um conjunto convexo se, e somente se, para todo p,q ∈ Utem-se

(1− t) · p+ t · q ∈ U,

para todo t ∈ [0, 1], isto e, se o segmento de reta que une doispontos quaisquer de U esta sempre contido em U .

(a) (b)

Figura 6.2: O conjunto da esquerda e convexo enquanto que o dadireita nao o e.

Page 179: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 178

178 [CAP. 6: PROGRAMACAO LINEAR

Teorema 6.3 Seja {Uλ}λ∈Λ uma famılia de conjuntos convexosem Rn Entao ⋂

λ∈ΛUλ

tambem e um conjunto convexo em Rn.

O proximo teorema da uma interpretacao geometrica para pontosadmissıveis que sao solucoes basicas: eles correspondem aos pontosextremos (vertices) do politopo K = {x ∈ Rn | Ax = b e x ≥ 0}.

Definicao 6.2 (Ponto Extremo) Dizemos que um ponto xem um conjunto convexo U e ponto extremo de U se nao existemdois outros pontos distintos x1 e x2 em U tais que x = αx1 +(1− α)x2 para algum α no intervalo (0, 1).

Na Figura 6.3, x1, x2 e x3 sao os unicos pontos extremos doconjunto admissıvel K do PL 6.1. O ponto x4 nao e um ponto ex-tremo de K, pois ele pode ser escrito como uma combinacao con-vexa de x2 ∈ K e x3 ∈ K. Como x6 = αx5 + (1 − α)x7 paraalgum α ∈ (0, 1), vemos que o ponto x6 (no interior do conjuntoadmissıvel) tambem nao e um ponto extremo de K.

Teorema 6.4 (Equivalencia entre Pontos Extremos eSolucoes Basicas) Seja A uma matriz m × n de posto m,b um vetor em Rm e K = {x ∈ Rn | Ax = b e x ≥ 0} o con-junto admissıvel de 6.3. Entao x e um ponto extremo de Kse, e somente se, x e um ponto admissıvel que e solucao basicade Ax = b.

Demonstracao:(⇐) Seja x uma solucao basica admissıvel de

minimizarx∈Rn

cTx

sujeito a Ax = b e x ≥ 0.(∗)

Page 180: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 179

[SEC. 6.3: RELACOES COM CONVEXIDADE 179

0 x 1

x 2

4

3

1

72 3

x2

x3

x1

x4

x5

x7x6

Figura 6.3: x1, x2 e x3 sao os unicos pontos extremos do conjuntoadmissıvel do PL 6.1.

Sem perda de generalidade, podemos assumir que x corresponde a es-colha das m primeiras colunas de A como colunas LI. Assim,

x = [ x1 · · · xm 0 · · · 0 ]T .

Suponha, por absurdo, que x nao seja um ponto extremo deK. Sendoassim, existem y, z ∈ K e α ∈ (0, 1) tais que x = (1 − α)y + α z,isto e,

[ x1 · · · xm 0 · · · 0 ]T

=

(1− α) [ y1 · · · ym ym+1 · · · yn ]T + α [ z1 · · · zm zm+1 · · · zn ]T .

Logo, (1−α) yi+α zi = 0, para todo i = m+1, . . . , n. Mas 1−α > 0,yi ≥ 0, α > 0 e zi ≥ 0. Sendo assim, yi = 0 e zi = 0 para todo i =m+ 1, . . . , n. Escrevendo

x = [ x 0 ], y = [ y 0 ], z = [ z 0 ], A = [ B N ]

e lembrando que x, y e z satisfazem a restricao Ax = b, temos entao

Page 181: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 180

180 [CAP. 6: PROGRAMACAO LINEAR

que

Ax = b ⇒ [B N

] [ x0

]⇒ Bx = b,

Ay = b ⇒ [B N

] [ y0

]⇒ By = b,

Ax = z ⇒ [B N

] [ z0

]⇒ Bz = b.

Como B e uma matriz m por m inversıvel, segue-se que x = y = z =B−1b e, portanto, x = y = z.

(⇒) Seja x um ponto extremo de K. Suponha, sem perda de gene-ralidade, que as componentes nao nulas de x sejam as k primeiras.Vamos mostrar que as colunas a1, . . . , ak formam um conjunto LI e,com isto, x e uma solucao basica admissıvel. Suponha, por absurdo,que {a1, . . . , ak} seja LD. Entao existem escalares α1, . . . , αk naotodos nulos tais que

α1 a1 + · · ·αk ak = 0.

Seja y = [ α1 · · · αk 0 · · · 0 ]T . Como xi > 0 para todo i = 1, . . . , k,e possıvel escolher ε > 0 tal que

x− εy≥0 e x+ εy≥0.

Note que z1 = x− εy ∈ K, z2 = x+ εy ∈ K e

x =1

2(x− εy) +

1

2(x+ εy) .

Isto nao pode ocorrer, uma vez que x e um ponto extremo deK. Logo,{a1, . . . , ak} e LI e x e uma solucao basica admissıvel (possivelmentedegenerada) de (∗).

Corolario 6.1 Se K = {x ∈ Rn | Ax = b e x ≥ 0} e nao va-zio, entao ele possui pelo menos um ponto extremo.

Demonstracao: Se K e nao vazio, entao ele possui um ponto ad-missıvel. Pelo Teorema Fundamental da Programacao Linear, existe

Page 182: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 181

[SEC. 6.4: O METODO SIMPLEX 181

entao uma solucao admissıvel basica. Pelo Teorema 6.4, esta solucaoadmissıvel basica e um ponto extremo de K.

Corolario 6.2 Se existe uma solucao otima para um programalinear, entao existe uma solucao otima que e um ponto extremodo conjunto admissıvel.

Corolario 6.3 O conjunto K = {x ∈ Rn | Ax = b e x ≥ 0}possui um numero finito de pontos extremos.

Demonstracao: Existe um numero finito de solucoes basicas, logo Kpossui um numero finito de pontos extremos.

6.4 O Metodo Simplex

O metodo simplex e um algoritmo inventado pelo matematicoamericano George Bernard Dantzig (1914–2005) para se resolver pro-gramas lineares numericamente. Essencialmente, o que o metodosimplex faz e, a partir de um dos pontos extremos do conjunto ad-missıvel K (uma solucao basica admissıvel), pular de um ponto ex-tremo a outro ponto extremo adjacente ate atingir o ponto extremocorrespondente a solucao otimo do programa linear.

A organizacao do metodo se faz atraves de tableaux (plural detableau, em frances), tabelas onde se registram os coeficientes dasrestricoes e da funcao objetivo. Inicialmente, o tableau fica assim:⎡⎢⎣ A b

cT 0T

⎤⎥⎦ .

A Fase I do metodo simplex consiste em obter uma solucao basicaadmissıvel. O Exercıcio [02] deste capıtulo da os detalhes de como

Page 183: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 182

182 [CAP. 6: PROGRAMACAO LINEAR

fazer isto. De posse de uma solucao basica admissıvel, reordena-mos o tableau de forma a separar o bloco da matriz A em dois sub-blocos: o sub-bloco B formado pelas colunas de A correspondentesas variaveis basicas e o sub-bloco N formado pelas colunas de A cor-respondentes as variaveis nao basicas. Esta particao de A induz umaparticao nos coeficientes da funcao objetivo e nas variaveis de decisao:

cT =[cTB cTN

], x =

[xB

xN

].

O tableau, com estas particoes, fica entao assim:⎡⎢⎣ B N b

cTB cTN 0T

⎤⎥⎦ . (∗)

Note que a matrizB e inversıvel e que a solucao basica correspondentea B e dada por

x =

[B−1b0

].

Usando escalonamentos no tableau (∗), obtemos um novo tableau ondeas variaveis basicas aparecem uma por linha, com coeficientes iguaisa 1 (a ultima linha ainda nao foi escalonada):⎡⎢⎣ I B−1N B−1b

cTB cTN 0T

⎤⎥⎦ . (∗∗)

A ideia agora e reescrever a funcao objetivo em termos das variaveisnao basicas xN. Uma vez que xB +B−1NxN = B−1b, segue-se quexB = B−1b−B−1NxN. Portanto,

cTx = cTBxB + cTNxN = cTB(B−1b−B−1NxN) + cTNxN

= (cTN − cTBB−1N)xN + cTBB

−1b.

O coeficiente (cTN−cTBB−1N) de xN e o termo independente cTBB−1b

(este ultimo, com sinal trocado) aparecem no tableau se fizermos o es-

Page 184: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 183

[SEC. 6.4: O METODO SIMPLEX 183

calonamento da ultima linha de (∗∗):⎡⎢⎣ I B−1N B−1b

0T cTN − cTBB−1N −cTBB−1b

⎤⎥⎦ .

Seja rT = cTN − cTBB−1N. Note que na solucao basica, xN = 0 e

cTx = rTxN + cTBB−1b = cTBB

−1b.

Se alguma entrada de r e negativa, podemos aumentar (de zero!)a coordenada de xN correspondente a esta entrada de forma a dimi-nuir o valor da funcao objetivo. Note que, com isto, uma variavel quee nao basica se tornara basica e, em consequencia, uma variavel que ebasica devera se tornar nao basica. Se mais do que uma componentede r e negativa, escolheremos aquela que e mais negativa. Mais pre-cisamente, se rT = [ r1 . . . rn−m ], ri e a componente mais negativade r, u e a i-esima coluna de N e

xN =

⎡⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎣

0...0α0...0

⎤⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎦← posicao i,

entao xB = B−1b−B−1NxN = B−1b−B−1(αu) = B−1b−αB−1u.Portanto, xB≥0 para

0 ≤ α ≤ min

{(B−1b)j(B−1u)j

∣∣∣∣ (B−1u)j > 0

}.

Assim, a variavel basica que se tornara nao basica e aquela de ındice ktal que

(B−1b)k(B−1u)k

= α = min

{(B−1b)j(B−1u)j

∣∣∣∣ (B−1u)j > 0

}.

Page 185: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 184

184 [CAP. 6: PROGRAMACAO LINEAR

Se (B−1u)i < 0 para todo i, entao α poder arbitrariamente grande,mantendo-se admissibilidade e fazendo com que a funcao objetivotenda a −∞. O programa linear nao possui solucao neste caso.Se o vetor r tem todas as componentes nao negativas, entao nao epossıvel diminuir o valor da funcao objetivo. Assim, a solucao basicaadmissıvel atual e uma solucao otima (veja as condicoes de otimali-dade dadas no Teorema 6.2). Este e o teste de parada do metodosimplex.

Algoritmo 6.5 (Passo do Simplex)

(1) Calcule λT = cTBB−1 e r = cN − λTN.

(2) Se r≥0, pare. A solucao basica admissıvel e otima.

Se ri e a componente mais negativa de r, escolhaa i-esima coluna de N para entrar no conjunto de variaveisbasicas. Denote esta coluna por u.

(3) Calcule v = B−1u.

(4) Calcule

α = min

{(B−1b)j(v)j

∣∣∣∣ (v)j > 0

}.

Se nao existe i tal que (v)i > 0, entao a funcao objetivotente a −∞ no conjunto admissıvel. Se

(B−1b)k(v)k

= α = min

{(B−1b)j(B−1u)j

∣∣∣∣ (B−1u)j > 0

},

entao a variavel associada a k-esima coluna de B deixara oconjunto de variaveis basicas.

(5) Atualize B e a solucao xB = B−1b. Volte para a Etapa (1).

Observacao. Note que, no Algoritmo 6.5, os objetos que precisamoscalcular sao solucoes de tres sistemas lineares que podem ser obtidos

Page 186: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 185

[SEC. 6.4: O METODO SIMPLEX 185

atraves de decomposicoes LU:

λT = cTBB−1 ⇔ λTB = cTB ⇔ BTλ = cB,

v = B−1u⇔ Bu = v, xB = B−1b⇔ BxB = b.

Exemplo 6.2 Vamos usar o metodo simplex para encontrar umasolucao otima do seguinte programa linear:

minimizarx1,x2∈R

x1 + x2

sujeito a x1 + 2 x2 ≥ 6,2 x1 + x2 ≥ 6,

x1 ≥ 0,x2 ≥ 0.

Devemos primeiro reescreve-lo na forma padrao (com a inclusao deduas variaveis de folga):

minimizarx1,x2,x3,x4∈R

x1 + x2

sujeito a x1 + 2 x2 − x3 = 6,2 x1 + x2 − x4 = 6,

x1 ≥ 0,x2 ≥ 0,x3 ≥ 0,x4 ≥ 0.

Usando x2 e x3 como varias basicas (de forma que x1 = 0 e x4 = 0),obtemos o seguinte tableau:

x2 x3 x1 x4 b2 −1 1 0 61 0 2 −1 61 0 1 0 0

.

Escalonando, obtemos

x2 x3 x1 x4 b1 0 2 −1 60 1 3 −2 60 0 −1 1 −6

.

Page 187: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 186

186 [CAP. 6: PROGRAMACAO LINEAR

A solucao basica admissıvel correspondente e

(x2, x3, x1, x4) = (6, 6, 0, 0).

No proximo passo, a variavel x1 entrara no conjunto de variaveisbasicas (pois r1 = −1 < 0). Para descobrir quem saira, observe que:

x2 saira para 2 x1 = 6, isto e, para x1 = 3,x3 saira para 3 x1 = 6, isto e, para x1 = 2.

Como 2 < 3, descobrimos que x3 saira do conjunto de variaveisbasicas. Isto nos leva ao proximo tableau:

x2 x1 x3 x4 b1 2 0 −1 60 3 1 −2 60 −1 0 1 −6

.

Escalonando, obtemos

x2 x1 x3 x4 b1 0 −2/3 1/3 20 1 1/3 −2/3 20 0 1/3 1/3 −4

.

Como r1 = 1/3 > 0 e r2 = 1/3 > 0, concluımos que a solucao basicaadmissıvel

(x2, x1, x3, x4) = (2, 2, 0, 0)

e uma solucao otimo do programa linear, com custo otimo igual a 4.A Figura 6.4 exibe o conjunto admissıvel do programa linear iniciale indica as solucoes basicas obtidas pelo metodo simplex.

Exemplo 6.3 Vamos usar o metodo simplex para encontrar umasolucao otima do seguinte programa linear:

minimizarx1,x2∈R

−x1 − 2 x2

sujeito a x1 + 3 x2 ≤ 9,x1 + x2 ≤ 5,

x1 ≤ 4,x1 ≥ 0,x2 ≥ 0.

Page 188: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 187

[SEC. 6.4: O METODO SIMPLEX 187

x 2

x 10 2 6

2

6 Solução básica 1

Solução básica ótima

Figura 6.4: O conjunto admissıvel do programa linear do Exem-plo 6.2.

O programa linear na forma padrao fica assim:

minimizarx1,x2,x3,x4,x5∈R

−x1 − 2 x2

sujeito a x1 + 3 x2 + x3 = 9,x1 + x2 + x4 = 5,

x1 + x5 = 4,x1 ≥ 0,x2 ≥ 0,x3 ≥ 0,x4 ≥ 0,x5 ≥ 0.

Usando x3, x4 e x5 como varias basicas (de forma que x1 = 0 ex2 = 0), obtemos o seguinte tableau:

Page 189: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 188

188 [CAP. 6: PROGRAMACAO LINEAR

x3 x4 x5 x1 x2 b1 0 0 1 3 90 1 0 1 1 50 0 1 1 0 40 0 0 −1 −2 0

.

A solucao basica admissıvel correspondente e

(x3, x4, x5, x1, x2) = (9, 5, 4, 0, 0).

No proximo passo, a variavel x2 entrara na base (pois r2 = −2 < 0 er2 < r1 = −1 < 0). Para descobrir quem saira, observe que:

x3 saira para 3 x2 = 9, isto e, para x2 = 3,x4 saira para x2 = 5.

Como 3 < 5, descobrimos que x3 saira do conjunto de variaveisbasicas. Isto nos leva ao proximo tableau:

x2 x4 x5 x1 x3 b3 0 0 1 1 91 1 0 1 0 50 0 1 1 0 4−2 0 0 −1 0 0

.

Escalonando, obtemos

x2 x4 x5 x1 x3 b1 0 0 1/3 1/3 30 1 0 2/3 −1/3 20 0 1 1 0 40 0 0 −1/3 2/3 6

.

A solucao basica admissıvel correspondente e

(x2, x4, x5, x1, x3) = (3, 2, 4, 0, 0).

No proximo passo, a variavel x1 entrara na base e a variavel x4 saira(pois r1 = −1/3 < 0). Para descobrir quem saira, observe que:

x2 saira para x1/3 = 3, isto e, para x1 = 9,x4 saira para 2 x1/3 = 2, isto e, para x1 = 3,x5 saira para x1 = 4.

Page 190: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 189

[SEC. 6.4: O METODO SIMPLEX 189

Como 3 < 4 < 5, descobrimos que x4 saira do conjunto de variaveisbasicas.

x2 x1 x5 x4 x3 b1 1/3 0 0 1/3 30 2/3 0 1 −1/3 20 1 1 0 0 40 −1/3 0 0 2/3 6

.

Escalonando, obtemos

x2 x1 x5 x4 x3 b1 0 0 −1/2 1/2 20 1 0 3/2 −1/2 30 0 1 −3/2 1/2 10 0 0 1/2 1/2 7

.

A solucao basica admissıvel correspondente e

(x2, x1, x5, x4, x3) = (3, 2, 4, 0, 0).

Esta solucao e otima com custo otimo igual a −7. A Figura 6.5 exibeo conjunto admissıvel do programa linear inicial e indica as solucoesbasicas obtidas pelo metodo simplex.

Observacao. Note que, para o programa linear com o seguinte ta-bleau

x2 x3 x1 x4 b1 0 2 −1 60 1 −3 −2 60 0 −1 1 −6

,

vale que x3 − 3 x1 = 6, isto e, x3 = 6 + 3 x1. Assim, x1 pode sertomado arbitrariamente grande, mantendo-se admissibilidade (comx3 sempre positivo) e fazendo com que a funcao objetivo tenda a −∞.O programa linear nao possui entao solucao otima.

Observacao. Caso solucoes basicas admissıveis degeneradas apa-recam durante a execucao do metodo simplex, este pode entrar em

Page 191: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 190

190 [CAP. 6: PROGRAMACAO LINEAR

x 2

x 10

1

2

3

3 4Solução básica 1

Solução básica 2

Solução básica ótima

Figura 6.5: O conjunto admissıvel do programa linear do Exem-plo 6.3.

um ciclo repetitivo sem chegar na solucao admissıvel otima. Existemadaptacoes do metodo simplex que evitam estes ciclos. Para detalhes,indicamos a referencia [09].

Observacao. Existem programas lineares para os quais o numerode operacoes necessarios pelo metodo simplex para encontrar umasolucao otima depende exponencialmente das dimensoes do problema.Este e o caso dos programas lineares idealizados por Victor Klee eGeorge Minty em 1972:

maximizarx1,...,xn∈R

n∑j=1

10n−j xj

sujeito a 2

i−1∑j=1

xj + xi ≤ 100i−1, i = 1, . . . , n,

xj ≥ 0, j = 1, . . . , n.

Nao obstante, o metodo simplex tem mostrado desempenho eficiente

Page 192: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 191

[SEC. 6.5: DUALIDADE 191

em problemas praticos.

Observacao. Em 1979, o matematico Leonid Genrikhovich Kha-chiyan (1952–2005) propos um algoritmo (baseado no metodo doselipsoides de Naum Zuselevich Shor (1937-2006)) que, teoricamente,permite resolver programas lineares em tempo polinomial. Com isto,ficou estabelecido que programas lineares sao problemas de comple-xidade polinomial. O algoritmo de Khachiyan teve pouco impactopratico, pois ele se mostrou menos eficiente que o algoritmo sim-plex em aplicacoes. Contudo, o algoritmo inspirou novos algoritmospara o calculo de solucoes de programas lineares: os assim denomi-nados algoritmos de pontos interiores. Ao contrario do metodo sim-plex, os algoritmos de pontos interiores geram pontos que caminhampelo interior do conjunto admissıvel ate encontrar a solucao otima.Em 1984, o matematico Narendra K. Karmarkar (nascido em 1957)propos um algoritmo de ponto interior competitivo com o metodosimplex. Para mais detalhes sobre os algoritmos de pontos interiors,indicamos as referencias [08, 09].

6.5 Dualidade

Definicao 6.3 (O problema dual) O problema dual de

minimizarx∈Rn

cTx

sujeito a Ax ≥ b e x ≥ 0,(6.5)

e o programa linear

maximizarλ∈Rm

λTb

sujeito a ATλ ≤ c e λ ≥ 0,(6.6)

onde λTb =∑m

i=1 λibi. O problema 6.6 e denominado o pro-blema dual de 6.5. Neste contexto, o problema 6.5 e denominadoproblema primal.

Page 193: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 192

192 [CAP. 6: PROGRAMACAO LINEAR

Por exemplo, o problema dual do programa linear 6.1 e

minimizarλ1,λ2∈R

8λ1 + 7λ2

sujeito a 3λ1 + λ2 ≤ 1,2λ1 + 5λ2 ≤ 1,

λ1 ≥ 0,λ2 ≥ 0.

(6.7)

O problema dual de qualquer programa linear pode ser encontradoconvertendo-o para o formato 6.5. Por exemplo, como Ax = b se,e somente se, Ax ≥ b e −Ax ≥ −b, o programa linear na formapadrao 6.3 pode ser escrito na forma do problema primal 6.5 da se-guinte maneira equivalente

minimizarx∈Rn

cTx

sujeito a

[A−A

]x ≥

[b−b

]e x ≥ 0.

Particionando-se agora as variaveis duais na forma (u,v), o problemadual deste ultimo PL e

minimizarx∈Rn

uTb− vTb

sujeito a ATu−ATv ≤ c,u ≥ 0 e v ≥ 0.

Fazendo-se λ = u−v, o problema acima pode ser simplificado, o quenos leva ao seguinte par de problemas duais:

Par Dual 6.1

(problema primal)

minimizarx∈Rn

cTx

sujeito a Ax = b,x ≥ 0,

(problema dual)

maximizarλ∈Rm

λTb

sujeito a ATλ ≤ c.

Page 194: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 193

[SEC. 6.5: DUALIDADE 193

Outros pares de problemas duais de interesse sao dados a seguir.

Par Dual 6.2

(problema primal)

maximizarx∈Rn

cTx

sujeito a Ax = b,x ≥ 0,

(problema dual)

minimizarλ∈Rm

λTb

sujeito a ATλ ≥ c.

Par Dual 6.3 (O da Definicao 6.3)

(problema primal)

minimizarx∈Rn

cTx

sujeito a Ax ≥ b,x ≥ 0,

(problema dual)

maximizarλ∈Rm

λTb

sujeito a ATλ ≤ c,λ ≥ 0.

Par Dual 6.4

(problema primal)

maximizary∈Rm

bTy

sujeito a Ay ≤ c,y ≥ 0,

(problema dual)

minimizarx∈Rn

cTx

sujeito a xTA ≥ bT,x ≥ 0.

Teorema 6.5 (Teorema fraco da dualidade) Se x e λ saoadmissıveis para os problemas 6.3 e 6.6, respectivamente, entaocTx ≥ λTb.

Page 195: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 194

194 [CAP. 6: PROGRAMACAO LINEAR

Demonstracao: Temos que

λTb(1)

≤ λTAx(2)

≤ cTx,

onde, em (1), usamos que λ≥0 e b≤Ax e, em (2), usamos que x≥0e λTA≤cT .

Observacao. Este teorema mostra que um ponto admissıvel paraum dos problemas fornece uma cota para o valor da funcao objetivodo outro problema. Os valores associados com o problema primal saosempre maiores ou iguais aos valores associados com o problema dual.Como corolario, vemos que se um par de pontos admissıveis pode serencontrado para os problemas primal e dual com valores iguais dafuncao objetivo, entao estes pontos sao otimos.

Corolario 6.4 Se x∗ e λ∗ sao pontos admissıveis para os pro-blemas primal e dual na Definicao 6.3, respectivamente, e

cTx∗ = (λ∗)Tb,

entao x∗ e λ∗ sao pontos admissıveis otimos para seus respec-tivos problemas.

Teorema 6.6 (do equilıbrio) Suponha que x e λ satisfacamas seguintes condicoes de folgas complementares:

se ( Ax )i > (b)i, entao (λ)i = 0 e

se (λTA)j < (c)j , entao (x)j = 0.(6.8)

Entao x e λ sao solucoes otimas para os problemas primal e dualda Definicao 6.3, respectivamente. Reciprocamente, solucoesadmissıveis otimas para estes problemas devem satisfazer ascondicoes 6.8.

Demonstracao: Vamos mostrar que se as condicoes 6.8 sao satisfeitas,entao x e λ sao tais que

cTx∗ = (λ∗)Tb

Page 196: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 195

[SEC. 6.5: DUALIDADE 195

e, com isto, pelo corolario anterior, x e λ sao solucoes otimas paraos respectivos problemas primal e dual. Temos que

bTλ = λTb(1)

≥ λT (Ax) = (λTA)x(2)

≥ cTx

onde, em (1), usamos que (λT )i = 0 toda vez que (b)i < (Ax)i e,em (2), usamos que (x)i = 0 toda vez que (cT )i > (λTA)i. Como,pelo Teorema Fraco da Dualidade, λTb≤cTx, temos a igualdade:cTx∗ = (λ∗)Tb.

Se x e λ sao solucoes admissıveis otimos para seus respectivos pro-blemas, entao cTx = bTλ. Na demonstracao do Teorema Fraco daDualidade vimos que λTb≤λTAx≤cTx, Portanto,

bTλ = λTb = λTAx e cTx = λTAx.

Entao, obrigatoriamente,

(Ax)i > (b)i ⇒ (λ)i = 0 e (λTA)j < (c)j ⇒ (x)j = 0.

Teorema 6.7 (Teorema forte de dualidade) Se o proble-ma primal ou o problema dual possui uma solucao admissıvelotima, entao os dois problemas possuem solucoes otimas. Maisainda, para estas solucoes otimas, os valores das funcoes obje-tivos sao iguais. Se nao existem solucoes otimas, entao duaspossibilidades podem ocorrer: (a) os conjuntos admissıveis dosdois problemas sao ambos vazios ou (b) um e vazio e o outrotem funcao objetivo nao limitada (o maximo e +∞ e o mınimoe −∞).

Demonstracao: Vamos supor que o problema primal tenha uma solu-cao admissıvel otima e vamos mostrar que o problema dual tambempossui uma solucao otima. O caso em que o dual possui uma solucaootima e tratado da mesma maneira, convertendo o problema dualpara a forma

minimizarλ∈Rm

−λTb

sujeito a −ATλ ≥− c,λ ≥ 0.

Page 197: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 196

196 [CAP. 6: PROGRAMACAO LINEAR

Agora, usando variaveis de folga, podemos reescrever as restricoes doproblema dual na seguinte forma:

[A −I ] [ x

w

]= b,

[xw

]≥0.

Apos varios passos do metodo simplex, obtemos uma matriz da forma[B N

]com custo cT = [ cTB cTN ]. Em um ponto otimo, vale que

r = cTN − cTBB−1N≥0

e

cTx =[cTB cTN

] [ B−1b0

]= cTBB

−1b

e o custo mınimo. Escolhendo λT = cTBB−1, vemos que

λTb = cTBB−1b = cTx.

Resta mostrar que λ satisfaz as restricoes do problema dual λTA≤cT ,isto e, dualizando em igualdades,

λT[A −I ]≤cT .

Aplicando-se na desigualdade acima as mesmas operacoes usadas noproblema primal que conduziram a solucao otima, obtemos que

λT[B N

]≤ [cTB cTN

].

Mas, se λT = cTBB−1, entao

λTB = cTBB−1B = cTB e λTN = cTBB

−1N≤cTN.

A desigualdade ocorre pela condicao de otimalidade: r = cTN −cTBB

−1N≥0.

O conjunto admissıvel do problema dual 6.7 do programa linear 6.1esta desenhado na Figura 6.6. Por inspecao, vemos que a solucao

Page 198: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 197

[SEC. 6.6: EXERCICIOS 197

otima e dada por (λ∗1, λ∗2) = (4/13, 1/13). Este ponto e a intersecao da

curva de nıvel g(λ1, λ2) = 8λ1 + 7λ2 = c “mais alta” que interceptao conjunto admissıvel. Lembrando que (x∗1, x

∗2) = (2, 1) e a solucao

do problema primal 6.1, vemos que

f(x∗1, x∗2) = x∗1 + x∗2 = 3 = 8λ∗1 + 7λ∗2 = g(λ∗1, λ

∗2),

como afirma o teorema forte da dualidade.

¸1

¸2

0

3/8

3/7

1/3

1/5

(4/13, 1/13)

Figura 6.6: O conjunto admissıvel do problema dual 6.7 do programalinear 6.1.

6.6 Exercıcios

[01] Mostre que o conjunto admissıvel {x ∈ Rn | Ax = b e x≥0} deum programa linear na forma padrao e um subconjunto convexode Rn.

[02] A Fase I do metodo simplex consiste em encontrar uma solucao

Page 199: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 198

198 [CAP. 6: PROGRAMACAO LINEAR

basica e admissıvel inicial para o programa linear

minimizarx∈Rn

cTx

sujeito a Ax = b,x≥0.

Apos uma troca conveniente de sinais para tornar b≥0, consi-dere o seguinte problema auxiliar:

minimizarx∈Rn,w∈Rm

�Tw

sujeito a Ax+w = b,x≥0,w≥0.

Mostre que, para este novo problema, a solucao (x,w) = (0,b)e, ao mesmo tempo, basica e admissıvel. O metodo simplexpode entao ser usado para obter uma solucao otima (x∗,w∗).Se w∗ = 0, mostre que x∗ e uma solucao basica e admissıvelpara o programa linear inicial.

[03] Use o metodo simplex para resolver o programa linear abaixo.

minimizarx1,x2∈R

2 x1 + x2

sujeito a x1 + x2 ≥ 4,x1 + 3 x2 ≥ 12,x1 − x2 ≥ 0,x1 ≥ 0,

x2 ≥ 0.

Page 200: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 199

Capıtulo 7

Teoria dos Jogos

7.1 O que e um jogo?

A teoria dos jogos pode ser definida como a teoria dos modelosmatematicos que estuda a escolha de decisoes otimas sob condicoesde conflito. O elemento basico em um jogo e o conjunto de jogadoresque dele participam. Cada jogador tem um conjunto de estrategias.Quando cada jogador escolhe sua estrategia, temos entao uma si-tuacao ou perfil no espaco de todas as situacoes (perfis) possıveis.Cada jogador tem interesse ou preferencias para cada situacao nojogo. Em termos matematicos, cada jogador tem uma funcao uti-lidade que atribui um numero real (o ganho ou payoff do jogador)a cada situacao do jogo. Mais especificamente, um jogo tem os se-guintes elementos basicos: existe um conjunto finito de jogadores,representado por

G = {g1, g2, . . . , gn},e cada jogador gi ∈ G possui um conjunto finito

Si = {si1, si2, . . . , simi}

de opcoes, denominadas estrategias puras do jogador gi (mi ≥ 2).Um vetor

s = (s1j1 , s2j2 , . . . , snjn),

199

Page 201: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 200

200 [CAP. 7: TEORIA DOS JOGOS

onde siji e uma estrategia pura para o jogador gi ∈ G, e denomi-nado um perfil de estrategias puras. O conjunto de todos os perfis deestrategias puras formam, portanto, o produto cartesiano

S =n∏

i=1

Si = S1 × S2 × · · · × Sn,

denominado espaco de estrategias puras do jogo. Para cada joga-dor gi ∈ G, existe uma funcao utilidade

ui : S → Rs �→ ui(s)

que associa o ganho (payoff) ui(s) do jogador gi a cada perfil deestrategias puras s ∈ S. Esta funcao utilidade e uma forma de re-presentar a preferencia do jogador gi com relacao aos varios perfis deestrategias do jogo.

Jogos descritos nesta forma sao denominados jogos estrategicos oujogos na forma normal . Neles, cada jogador deve fazer a sua escolhade estrategia sem o conhecimento das escolhas dos demais jogadores.Admite-se, contudo, que cada jogador conhece toda a estrutura dojogo. Por este motivo, jogos deste tipo tambem sao denominadosjogos nao-cooperativos de informacao completa.

Assume-se tambem que os jogadores sejam racionais, isto e, elessempre escolherao acoes que maximizem a sua funcao utilidade. Alemde ser racional, cada jogador (1) sabe que seus adversarios tambemsao racionais, (2) sabe que eles sabem que o jogador sabe que eles saoracionais, ad infinitum.

Exemplo 7.1 (O dilema do prisioneiro) Possivelmente o exem-plo mais conhecido na teoria dos jogos e o dilema do prisioneiro. Elefoi formulado por Albert W. Tucker em 1950, em um seminario parapsicologos na Universidade de Stanford, para ilustrar a dificuldade dese analisar certos tipos de jogos.

A situacao e a seguinte: dois ladroes, Al e Bob, sao capturadose acusados de um mesmo crime. Presos em selas separadas e sempoderem se comunicar entre si, o delegado de plantao faz a seguinteproposta: cada um pode escolher entre confessar ou negar o crime.Se nenhum deles confessar, ambos serao submetidos a uma pena de

Page 202: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 201

[SEC. 7.1: O QUE E UM JOGO? 201

1 ano. Se os dois confessarem, entao ambos terao pena de 5 anos. Masse um confessar e o outro negar, entao o que confessou sera libertadoe o outro sera condenado a 10 anos de prisao. Neste contexto, temos

G = {Al,Bob},SAl = {confessar, negar}, SBob = {confessar, negar},

S = SAl × SBob =

{(confessar, confessar), (confessar, negar),(negar, confessar), (negar, negar)}.

As duas funcoes utilidade

uAl : S → R e uBob : S → Rsao dadas por

uAl(confessar, confessar) = −5, uAl(confessar, negar) = 0,

uAl(negar, confessar) = −10, uAl(negar, negar) = −1,

(que representam os ganhos de Al) e

uBob(confessar, confessar) = −5, uBob(confessar, negar) = −10,uBob(negar, confessar) = 0, uBob(negar, negar) = −1

(que representam os ganhos de Bob). E uma pratica representar ospayoffs dos jogadores atraves de uma matriz, denominada matriz depayoffs.

Bobconfessar negar

Al

confessar (−5,−5) (0,−10)

negar (−10, 0) (−1,−1)

Nesta matriz, os numeros de cada celula representam, respectiva-mente, os payoffs de Al e Bob para as escolhas de Al e Bob corres-pondentes a celula.

Page 203: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 202

202 [CAP. 7: TEORIA DOS JOGOS

Exemplo 7.2 (A batalha dos sexos) Um homem e a sua mulherdesejam sair para passear. O homem prefere assistir a um jogo defutebol enquanto que sua mulher prefere ir ao cinema. Se eles foremjuntos para o futebol, entao o homem tem satisfacao maior do que amulher. Por outro lado, se eles forem juntos ao cinema, entao a mu-lher tem satisfacao maior do que o homem. Finalmente, se eles saıremsozinhos, entao ambos ficam igualmente insatisfeitos. Esta situacaotambem pode ser modelada como um jogo estrategico. Temos:

G = {homem,mulher},Shomem = {futebol, cinema}, Smulher = {futebol, cinema},

S = Shomem × Smulher =

{(futebol, futebol), (futebol, cinema),

(cinema, futebol), (cinema, cinema)}.As duas funcoes utilidade uhomem : S → R e umulher : S → R saodescritas pela seguinte matriz de payoffs:

Mulherfutebol cinema

Homem

futebol (10, 5) (0, 0)

cinema (0, 0) (5, 10)

.

7.2 Solucoes de um jogo em estrategias

puras

Uma solucao de um jogo e uma prescricao ou previsao sobre o re-sultado do jogo. Existem varios conceitos diferentes de solucao. Nestasecao, investigaremos os dois conceitos mais comuns: dominancia eequilıbrio de Nash.

Considere o dilema do prisioneiro. Como encontrar uma solucaopara o dilema de Al e Bob, isto e, que estrategias sao plausıveis

Page 204: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 203

[SEC. 7.2: SOLUCOES DE UM JOGO EM ESTRATEGIAS PURAS 203

se os dois prisioneiros querem minimizar1 o tempo de cadeia? Seanalisarmos o jogo do ponto de vista de Al, ele pode raciocinar daseguinte maneira:

“Duas coisas podem acontecer: Bob pode confessar ouBob pode negar. Se Bob confessar, entao e melhor paramim confessar tambem. Se Bob nao confessar, entao eufico livre se eu confessar. Em qualquer um dos casos, emelhor para mim confessar. Entao, eu confessarei.”

Se analisarmos agora o jogo do ponto de vista de Bob, podemosaplicar a mesma linha de raciocınio e concluir que Bob tambem iraconfessar. Assim, ambos confessarao e ficarao presos por 5 anos.

Em termos da teoria dos jogos, dizemos que (1) os dois joga-dores possuem uma estrategia dominante, isto e, todas menos umaestrategia e estritamente dominada, (2) que o jogo e resoluvel por do-minancia estrita iterada e (3) que o jogo termina em uma solucao quee um equilıbrio de estrategia dominante, conceitos que definiremos aseguir.

Dominancia em estrategias puras

Frequentemente, iremos discutir perfis de estrategia na qual ape-nas a estrategia de um unico jogador gi ∈ G ira variar, enquanto queas estrategias de seus oponentes permanecerao fixas. Denote por

s−i = (s1j1 , . . . , s(i−1)ji−1, s(i+1)ji+1

, . . . , snjn) ∈S−i = S1 × · · · × Si−1 × Si+1 × · · · × Sn

uma escolha de estrategia para todos os jogadores, menos o jogador gi.Desta maneira, um perfil de estrategias pode ser convenientementedenotado por

s = (siji , s−i) = (s1j1 , . . . , s(i−1)ji−1, siji , s(i+1)ji+1

, . . . , snjn).

1No Exemplo 7.1, os payoffs foram definidos como numeros ≤ 0. Desta ma-neira, minimizar o tempo de cadeia e equivalente a maximizar o payoff.

Page 205: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 204

204 [CAP. 7: TEORIA DOS JOGOS

Definicao 7.1 (Estrategia Pura Estritamente Domi-nada) Dizemos que uma estrategia pura sik ∈ Si do joga-dor gi ∈ G e estritamente dominada pela estrategia sik′ ∈ Si se,independentemente das escolhas dos demais jogadores, o joga-dor gi ganhar mais escolhendo sik′ do que sik, isto e, se

ui(sik′ , s−i) > ui(sik, s−i),

para todo s−i ∈ S−i.

Definicao 7.2 (em estrategias puras)

(a) (Dominancia Estrita Iterada) Dominancia estrita ite-rada e o processo no qual, sequencialmente, se eliminam asestrategias que sao estritamente dominadas.

(b) (Equilıbrio de Estrategia Estritamente Dominan-te) Quando o processo de dominancia estrita iterada reduzo jogo para um unico perfil de estrategias puras s∗, dizemosque s∗ e um equilıbrio de estrategia estritamente dominante.

Exemplo 7.3 Considere o jogo determinado pela matriz de payoffsabaixo.

g2s21 s22 s23 s24

g1

s11 (5, 2) (2, 6) (1, 4) (0, 4)

s12 (0, 0) (3, 2) (2, 1) (1, 1)

s13 (7, 0) (2, 2) (1, 1) (5, 1)

s14 (9, 5) (1, 3) (0, 2) (4, 8)

Page 206: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 205

[SEC. 7.2: SOLUCOES DE UM JOGO EM ESTRATEGIAS PURAS 205

Neste jogo, para o jogador g2, a estrategia s21 e estritamente domi-nada pela estrategia s24 e, assim, a primeira coluna da matriz podeser eliminada.

g2s22 s23 s24

g1

s11 (2, 6) (1, 4) (0, 4)

s12 (3, 2) (2, 1) (1, 1)

s13 (2, 2) (1, 1) (5, 1)

s14 (1, 3) (0, 2) (4, 8)

Agora, nesta matriz reduzida, para o jogador g1, as estrategias s11e s14 sao estritamente dominadas pelas estrategias s12 e s13, respec-tivamente. Portanto, as linhas 1 e 4 podem ser eliminadas. Alemdisso, a estrategia s23 do jogador g2 e estritamente dominada pela es-trategia s22. Assim, a coluna 2 tambem pode ser eliminada. Obtemosentao uma matriz reduzida 2× 2.

g2s22 s24

g1s12 (3, 2) (1, 1)

s13 (2, 2) (5, 1)

Finalmente, a estrategia s24 do jogador g2 e estritamente dominadapela estrategia s22 e, na matriz 2 × 1 resultante, a estrategia s13 dojogador g1 e estritamente dominada pela estrategia s12. Vemos entaoque (s12, s22) e o equilıbrio de estrategias estritamente dominantes dojogo: o jogador g1 escolhe a estrategia s12 (ganhando 3) e o jogador g2escolhe a estrategia s22 (ganhando 2).

Note que, em cada passo do processo de eliminacao das estrategiasestritamente dominadas, o jogo e substituıdo por um outro jogo

Page 207: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 206

206 [CAP. 7: TEORIA DOS JOGOS

mais simples, no sentido de que o conjunto de estrategias purasde um jogador (aquele que tem uma estrategia estritamente domi-nada) e substituıdo por um subconjunto com menos elementos (ob-tido removendo-se justamente as estrategias que sao estritamente do-minadas). No exemplo acima, os conjuntos de estrategias puras ini-ciais dos dois jogadores sao dados, respectivamente, por

S1 = {s11, s12, s13, s14} e S2 = {s21, s22, s23, s24}.Como a estrategia pura s21 e estritamente dominada por s24, o con-junto S2 e substituıdo por {s22, s23, s24} = S2−{s21}. O conjunto S1

permanece o mesmo. Sendo assim, podemos substituir o jogo originalpor um mais simples, onde os conjuntos de estrategias puras dos doisjogadores sao dados por

S(1)1 = {s11, s12, s13, s14} e S

(1)2 = {s22, s23, s24}.

As funcoes utilidade do novo jogo sao as restricoes das funcoes utili-dade do jogo original aos novos conjuntos de estrategias puras:

u1|S(1)1

e u2|S(1)2

.

Para o novo jogo, vemos que as estrategias s11 e s14 sao estritamentedominadas pelas estrategias s12 e s13, respectivamente. Logo, pode-mos simplificar o jogo mais uma vez, considerando os conjuntos deestrategias puras

S(2)1 = {s12, s13} e S

(2)2 = {s22, s23, s24}.

Seguindo com as outras eliminacoes, terminamos com um jogo muitosimples, onde cada conjunto de estrategias puras e unitario:

S(5)1 = {s12} e S

(5)2 = {s22}.

Este processo de eliminacao gerou, portanto, uma cadeia de espacosde estrategias puras:

S = S1 × S2 � S(1) = S(1)1 × S

(1)2 � S(2) = S

(2)1 × S

(2)2 � · · ·

� S(5) = S(5)1 × S

(5)2 = {(s12, s22)}.

Page 208: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 207

[SEC. 7.2: SOLUCOES DE UM JOGO EM ESTRATEGIAS PURAS 207

Neste exemplo, a tecnica de dominancia estrita iterada forneceu umunico perfil de estrategias como solucao do jogo, no caso, o perfil

(s12, s22) ∈ S(5)1 × S

(5)2 .

Contudo, pode acontecer da tecnica fornecer varios perfis ou, atemesmo, fornecer todo o espaco de estrategias, como e o caso da bata-lha dos sexos, onde nao existem estrategias estritamente dominadas.

Um outro conceito importante e o de estrategia pura fracamentedominada.

Definicao 7.3 (Estrategia Pura Fracamente Domi-nada) Dizemos que uma estrategia pura sik ∈ Si do joga-dor gi ∈ G e fracamente dominada pela estrategia sik′ ∈ Si

seui(sik′ , s−i) ≥ ui(sik, s−i),

para todo s−i ∈ S−i e, pelo menos para algum s•−i ∈ S−i,

ui(sik′ , s•−i) > ui(sik, s•−i).

Em outras palavras, sik ∈ Si e fracamente dominada porsik′ ∈ Si se, independentemente das escolhas dos demais joga-dores, o jogador gi nada perde se trocar a estrategia sik ∈ Si

pela estrategia sik′ ∈ Si e, pelo menos para uma escolha dosdemais jogadores, esta troca da ao jogador gi um ganho maior.

Definicao 7.4

(a) (Dominancia Fraca Iterada) Dominancia fraca iteradae o processo no qual, sequencialmente, se eliminam as es-trategias que sao fracamente dominadas.

(b) (Equilıbrio de Estrategia Fracamente Dominante)Quando o processo de dominancia fraca iterada reduz o jogopara um unico perfil de estrategias puras s∗, dizemos ques∗ e um equilıbrio de estrategia fracamente dominante.

Page 209: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 208

208 [CAP. 7: TEORIA DOS JOGOS

Exemplo 7.4 Considere o jogo cuja matriz de payoffs e dada por:

g2s21 s22

g1s11 (1, 1) (1, 0)

s12 (1, 0) (0, 1)

.

A estrategia s12 do jogador g1 e fracamente dominada pela estra-tegia s11. Eliminando-a, obtemos a matriz reduzida:

g2s21 s22

g1 s11 (1, 1) (1, 0)

.

Vemos agora que a estrategia s22 do jogador 2 e estritamente do-minada pela estrategia s21. Sendo assim, (s11, s21) e o equilıbrio deestrategias fracamente dominadas do jogo.

Uma pergunta natural e se o processo de eliminacao das estrategiasdominadas depende ou nao da ordem em que sao realizadas. Parao caso de estrategias estritamente dominadas, pode-se mostrar queesta ordem e irrelevante, isto e, independentemente da ordem emque as estrategias (estritamente dominadas) sao eliminadas, obtem-sesempre a mesma matriz reduzida no final do processo. Por outro lado,o processo de eliminacao das estrategias fracamente dominadas podeconduzir a resultados diferentes, dependendo da ordem de eliminacao.Considere, por exemplo, o jogo:

g2

s21 s22 s23

g1s11 (0, 2) (0, 0) (1, 0)

s12 (0, 3) (1, 0) (0, 0)

.

Page 210: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 209

[SEC. 7.2: SOLUCOES DE UM JOGO EM ESTRATEGIAS PURAS 209

Eliminando-se, em sequencia, as estrategias s23 (que e estritamentedominada por s21), s11 (que e fracamente dominada por s12) e s22(que e estritamente dominada por s21), obtemos (s12, s21) como res-posta. Agora, eliminando-se, em sequencia, as estrategias s22 (quee estritamente dominada por s21), s12 (que e fracamente dominadapor s11) e s23 (que e estritamente dominada por s21), obtemos outraresposta: (s11, s21).

Equilıbrio de Nash em estrategias puras

Uma solucao estrategica ou equilıbrio de Nash de um jogo e umperfil de estrategias onde cada jogador nao tem incentivo de mudarsua estrategia se os demais jogadores nao o fizerem.

Definicao 7.5 (Equilıbrio de Nash) Dizemos que um perfilde estrategias

s∗ = (s∗1, . . . , s∗(i−1), s

∗i , s∗(i+1), . . . , s

∗n) ∈ S

e um equilıbrio de Nash se

ui(s∗i , s∗−i) ≥ ui(siji , s

∗−i)

para todo i = 1, . . . , n e para todo ji = 1, . . . ,mi, com mi ≥ 2.

Exemplo 7.5

(a) No dilema do prisioneiro (Exemplo 7.1), o perfil de estrategias(confessar, confessar) e um equilıbrio de Nash. De fato:

uAl(confessar, confessar) = −5 > −10 = uAl(negar, confessar)

e

uBob(confessar, confessar) = −5 > −10 = uBob(confessar, negar).

Estas desigualdades mostram que, para o perfil de estrategias(confessar, confessar), um prisioneiro nao se sente motivado a

Page 211: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 210

210 [CAP. 7: TEORIA DOS JOGOS

mudar a sua estrategia se o outro nao o fizer (ele nao vai ficarmenos tempo na cadeia fazendo isto).

Ja o perfil (negar, confessar) nao e um equilıbrio de Nash dojogo pois, neste caso, dado que Bob decide confessar, Al ficamenos tempo na cadeia se mudar a sua estrategia de negar paraconfessar. Em outras palavras, para o perfil (negar, confessar),Al se sente motivado a mudar a sua estrategia se Bob nao o fizer.

Os perfis (confessar, negar) e (negar, negar) tambem nao saoequilıbrios de Nash. Em (confessar, negar), Bob se sente moti-vado a mudar a sua estrategia se Al nao o fizer e, em (negar,negar), cada um dos prisioneiros se sente motivado a mudar asua estrategia se o outro nao o fizer. Desta maneira, vemos queo unico equilıbrio de Nash do jogo e (confessar, confessar).

(b) Na batalha dos sexos (Exemplo 7.2), os perfis de estrategia (fu-tebol, futebol) e (cinema, cinema) sao os unicos equilıbrios deNash do jogo.

(c) No Exemplo 7.3, o unico equilıbrio de Nash do jogo e o perfil deestrategias (s12, s22).

Existem, contudo, jogos que nao possuem equilıbrios de Nash emestrategias puras. Este e o caso, por exemplo, do jogo de compararmoedas (matching pennies).

Exemplo 7.6 (Comparar moedas) Nesse jogo, dois jogadores exi-bem, ao mesmo tempo, a moeda que cada um esconde em sua mao.Se ambas as moedas apresentam cara ou coroa, o segundo jogadorda sua moeda para o primeiro. Se uma das moedas apresenta cara,enquanto a outra apresenta coroa, e a vez do primeiro jogador darsua moeda para o segundo. Esse jogo se encontra representado porsua matriz de payoffs dada abaixo.

g2s21 s22

g1s11 (+1,−1) (−1,+1)

s12 (−1,+1) (+1,−1)

Page 212: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 211

[SEC. 7.2: SOLUCOES DE UM JOGO EM ESTRATEGIAS PURAS 211

Observe que o perfil de estrategias (s11, s21) nao e um equilıbrio deNash em estrategias puras, pois se o jogador g1 mantiver a sua es-trategia s11, o jogador g2 tera um ganho maior se mudar sua es-trategia de s21 para s22, isto e, ele se sente motivado a mudar a suaestrategia se o jogador g1 nao mudar a sua escolha. O mesmo com-portamento ocorre para o perfil de estrategias (s12, s22). Ja, para osperfis (s11, s22) e (s12, s21), e o jogador g1 que se sente motivado amudar de estrategia para ganhar mais, se o jogador g2 mantiver a suaestrategia. Isto mostra que o jogo de comparar moedas nao possuiequilıbrios de Nash em estrategias puras.

Existe uma maneira conveniente de se caracterizar equilıbrios deNash atraves das funcoes de melhor resposta. De maneira informal,a melhor resposta de um jogador para uma determinada escolha deestrategias dos demais jogadores e o conjunto de estrategias do jo-gador que maximizam o seu ganho quando os demais jogadores naomudam as suas escolhas. Mais precisamente, temos a seguinte

Definicao 7.6 (Funcoes de melhor resposta) A funcao demelhor resposta do jogador gi e a aplicacao

MRi : S−i → 2Si

definida por

MRi(s−i) = argmaxsi∈Siui(si, s−i)

= {s∗i ∈ Si | ∀si ∈ Si, ui(s∗i , s−i) ≥ ui(si, s−i)},

com s−i ∈ S−i (aqui 2Si representa o conjunto das partes de Si).A funcao de melhor resposta do jogo e a aplicacao

MR: S → 2S

definida por

MR(s) = (MR1(s−1),MR2(s−2), . . . ,MRn(s−n)),

Page 213: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 212

212 [CAP. 7: TEORIA DOS JOGOS

com s ∈ S. Observacao: alguns autores usam as notacoesMRi : S−i ⇒ Si e MRi : S−i →→ Si para representar a funcaode melhor resposta MRi : S−i → 2Si .

Exemplo 7.7

(a) No dilema do prisioneiro (Exemplo 7.1), temos

MRAl : SBob →→ SAl

confessar �→ {confessar}negar �→ {confessar}

MRBob : SAl →→ SBob

confessar �→ {confessar}negar �→ {confessar}.

(b) Na batalha dos sexos (Exemplo 7.2), temos

MRHomem : SMulher →→ SHomem

futebol �→ {futebol}cinema �→ {cinema}

MRMulher : SHomem →→ SMulher

futebol �→ {futebol}cinema �→ {cinema}.

(c) No Exemplo 7.3, temos

MR1(s21) = {s14}, MR1(s22) = {s12},MR1(s23) = {s12}, MR1(s24) = {s13},MR2(s11) = {s22}, MR2(s12) = {s22},MR2(s13) = {s22}, MR2(s14) = {s24}.

(d) No jogo de comparar moedas (Exemplo 7.6), temos

MR1(s21) = {s11}, MR1(s22) = {s12},MR2(s11) = {s22}, MR2(s12) = {s21}.

Page 214: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 213

[SEC. 7.3: ESTRATEGIAS MISTAS 213

A proxima proposicao e uma consequencia direta das definicoesde equilıbrio de Nash e funcoes de melhor resposta.

Proposicao 7.1 s∗ = (s∗1, . . . , s∗i , . . . , s

∗n) ∈ S e um equilıbrio

de Nash em estrategias puras se, e somente se, s∗i ∈ MRi(s∗−i)

para todo i = 1, . . . , n.

Valem as seguintes relacoes entre dominancia e equilıbrio de Nashem estrategias puras: (1) o processo de dominancia estrita iterada naopode eliminar um equilıbrio de Nash ao simplificar um jogo e (2) se oprocesso de dominancia estrita iterada deixa apenas um unico perfilde estrategias puras s∗, entao s∗ e o unico equilıbrio de Nash do jogo.Demonstracoes destes fatos podem ser encontradas em [03].

7.3 Estrategias mistas

Como vimos no jogo de comparar moedas do Exemplo 7.6, existemjogos que nao possuem equilıbrios de Nash em estrategias puras. Umaalternativa para estes casos e a de considerar o jogo do ponto de vistaprobabilıstico, isto e, ao inves de escolher um perfil de estrategiaspuras, o jogador deve escolher uma distribuicao de probabilidade sobresuas estrategias puras.

Uma estrategia mista pi para o jogador gi ∈ G e uma distribuicaode probabilidades sobre o conjunto Si de estrategias puras do jogador,isto e, pi e um elemento do conjunto

Δmi =

{(x1, . . . , xmi) ∈ Rmi | x1 ≥ 0, . . . , xmi ≥ 0 e

mi∑k=1

xk = 1

}.

Assim, se pi = (pi1, pi2, . . . , pimi), entao

pi1 ≥ 0, pi2 ≥ 0, . . . , pimi≥ 0 e

mi∑k=1

pik = 1.

Note que cada Δmi e um conjunto compacto e convexo. NasFiguras 7.1 e 7.2 temos os desenhos de Δ2 e Δ3, respectivamente. Os

Page 215: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 214

214 [CAP. 7: TEORIA DOS JOGOS

pontos extremos (vertices) de Δmi , isto e, os pontos da forma

e1 = (1, 0, . . . , 0, 0), e2 = (0, 1, . . . , 0, 0), . . . , emi = (0, 0, . . . , 0, 1)

dao, respectivamente, probabilidade 1 as estrategias puras si1, si2,. . . , simi . Desta maneira, podemos considerar a distribuicao de pro-babilidade ek como a estrategia mista que representa a estrategiapura sik do jogador gi.

10

1

x1

x2

Figura 7.1: Δ2 ={(x1, x2) ∈ R2 | x1 ≥ 0, x2 ≥ 0 e x1 + x2 = 1

}.

O espaco de todos os perfis de estrategia mista e o produto car-tesiano

Δ = Δm1 ×Δm2 × · · · ×Δmn ,

denominado espaco de estrategias mistas. Como o produto cartesianode conjuntos compactos e convexos e compacto e convexo, vemos queΔ e compacto e convexo.

Um vetor p ∈ Δ e denominado um perfil de estrategias mistas.Como no caso de estrategias puras, usaremos a notacao p−i pararepresentar as estrategias mistas de todos os jogadores, excluindo-sea do jogador gi. Desta maneira, escreveremos

(pi,p−i)

Page 216: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 215

[SEC. 7.3: ESTRATEGIAS MISTAS 215

0

1

1

1

x1

x2

x3

Figura 7.2: Δ3 ={(x1, x2, x3) ∈ R3 | x1 ≥ 0, x2 ≥ 0, x3 ≥ 0 e x1 +

x2 + x3 = 1}.

para representar p = (p1, . . . ,pi, . . . ,pn). Como a estrategia pura sikpode ser identificada com a distribuicao de probabilidades que dapeso 1 a sik e peso 0 as demais estrategias do jogador gi, usaremos

(sik,p−i)

como uma notacao alternativa para o perfil de estrategias mistas(ek,p−i). Do mesmo modo, usaremos

(pi, s−i)

para indicar o perfil de estrategias mistas onde o jogador gi escolhea distribuicao de probabilidades pi e os demais jogadores escolhemdistribuicoes que dao peso 1 as estrategias puras em s−i.

Cada perfil de estrategias mistas p = (p1, . . . ,pn) ∈ Δ determinaum payoff esperado (utilidade esperada), uma media dos payoffs pon-derada pelas distribuicoes de probabilidades p1, . . . , pn. Mais preci-

Page 217: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 216

216 [CAP. 7: TEORIA DOS JOGOS

samente, se

p = (p1,p2, . . . ,pn)

= (p11, p12, . . . , p1m1︸ ︷︷ ︸p1

; p21, p22, . . . , p2m2︸ ︷︷ ︸p2

; . . . ; pn1, pn2, . . . , pnmn︸ ︷︷ ︸pn

),

entao

ui(p) =

m1∑j1=1

m2∑j2=1

· · ·mn∑jn=1

p1j1 · p2j2 · · · pnjn · ui(s1j1 , s2j2 , . . . , snjn).

(7.1)Cuidado com o abuso de notacao: estamos usando ui para representara funcao utilidade tanto em estrategias puras quanto em estrategiasmistas.

Como exemplo, considere o jogo de comparar moedas na pagi-na 210. Se g1 escolhe a distribuicao de probabilidade p1 = (1/4, 3/4)e g2 escolhe a distribuicao de probabilidade p2 = (1/3, 2/3), entaoos payoffs esperados associados ao perfil de estrategias mistas p =(p1,p2) = (1/4, 3/4; 1/3, 2/3) sao dados por

u1(p) =

2∑j1=1

2∑j2=1

p1j1 · p2j2 · u1(s1j1 , s2j2)

= p11 · p21 · u1(s11, s21) + p11 · p22 · u1(s11, s22) +

p12 · p21 · u1(s12, s21) + p12 · p22 · u1(s12, s22)

=1

4· 13· (+1) +

1

4· 23· (−1) + 3

4· 13· (−1) + 3

4· 23· (+1)

= +1

6

e, analogamente,

u2(p) =

2∑j1=1

2∑j2=1

p1j1 · p2j2 · u2(s1j1 , s2j2)

= p11 · p21 · u2(s11, s21) + p11 · p22 · u2(s11, s22) +

p12 · p21 · u2(s12, s21) + p12 · p22 · u2(s12, s22)

Page 218: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 217

[SEC. 7.4: SOLUCOES DE UM JOGO EM ESTRATEGIAS MISTAS 217

=1

4· 13· (−1) + 1

4· 23· (+1) +

3

4· 13· (+1) +

3

4· 23· (−1)

= −1

6.

7.4 Solucoes de um jogo em estrategiasmistas

Todos os criterios basicos para solucoes de jogos em estrategiaspuras podem ser estendidos para estrategias mistas.

Dominancia em estrategias mistas

Definicao 7.7 (Estrategia Mista Estritamente Domi-nada) Dizemos que uma estrategia mista pi ∈ Δmi do joga-dor gi ∈ G e estritamente dominada pela estrategia p′i ∈ Δmi

se, independentemente das escolhas de distribuicoes de proba-bilidade dos demais jogadores, o jogador gi ganha mais esco-lhendo p′i do que pi, isto e, se

ui(p′i,p−i) > ui(pi,p−i),

para todo p−i ∈ Δ−i = Δm1×· · ·×Δmi−1×Δmi+1×· · ·×Δmn .

Como os payoffs ui(p′i,p−i) e ui(pi,p−i) sao, respectivamente,

combinacoes convexas dos payoffs ui(p′i, s−i) e ui(pi, s−i),

segue-se que a condicao acima e equivalente a

ui(p′i, s−i) > ui(pi, s−i),

para todos perfis de estrategias puras s−i ∈ S−i.

Exemplo 7.8 Considere o jogo com a seguinte matriz de payoffs :

Page 219: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 218

218 [CAP. 7: TEORIA DOS JOGOS

g2s21 s22

g1

s11 (5, 3) (0, 0)

s12 (0, 0) (5, 3)

s13 (2, 1) (2, 1)

.

A estrategia mista p1 = (0, 0, 1) ∈ Δ3 do jogador g1 e estritamentedominada pela estrategia mista p′1 = (1/2, 1/2, 0) ∈ Δ3, pois

u1(p′1,p2) = u1

(1

2,1

2, 0; p21, p22

)=

5

2· p21 + 5

2· p22 =

5

2

>

u1(p1,p2) = u1

(0 , 0 , 1; p21, p22

)= 2 · p21 + 2 · p22 = 2

para todo p2 = (p21, p22) ∈ Δ2. Como p1 = (0, 0, 1) representaa estrategia pura s13 do jogador g1, este exemplo tambem mostraque uma estrategia pura pode nao ser dominada por nenhuma outraestrategia puras mas, ainda sim, ser dominada por uma estrategiamista.

Definicao 7.8 (Dominancia Estrita Iterada em Estra-

tegias Mistas) Sejam S(0)i = Si e Δ

(0)mi = Δmi . Defina, recur-

sivamente,

S(n)i = {s ∈ S

(n−1)i | �pi ∈ Δ(n−1)

mital que

∀s−i ∈ S(n−1)−i , ui(pi, s−i) > ui(s, s−i)}

e

Page 220: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 219

[SEC. 7.4: SOLUCOES DE UM JOGO EM ESTRATEGIAS MISTAS 219

Δ(n)mi

= {pi = (pi1, . . . , pimi) ∈ Δmi |∀k = 1, . . . ,mi, pik > 0 somente se sik ∈ S

(n)i }.

A intersecao

S∞i =

∞⋂n=0

S(n)i

e o conjunto de estrategias puras que sobrevivem a remocaoiterada de estrategias estritamente dominadas e

Δ∞mi= {pi ∈ Δmi | �p′i ∈ Δmi

tal que ∀s−i ∈ S(∞)−i , ui(p

′i, s−i) > ui(pi, si)}

e o conjunto de todas as estrategias mistas do jogador gi quesobreviveram a tecnica de dominancia estrita iterada.

Note que S(n)

i e o conjunto de estrategias puras em S(n−1)

i que nao saoestritamente dominadas pelas estrategias mistas em Δ(n−1)

mie que Δ(n)

mi

e o conjunto de estrategias mistas que da probabilidades positivasapenas para as estrategias puras em S(n)

i .

Definicao 7.9 (Equilıbrio de Estrategia EstritamenteDominante) Se, no processo de dominancia estrita iterada, oconjunto S∞ = S∞1 × · · · × S∞n e unitario, isto e, se

S∞ = {s∗},

entao dizemos que s∗ e um equilıbrio de estrategia estritamentedominante.

Como no caso de estrategias puras, e possıvel mostrar que os conjun-tos S∞ = S∞1 ×· · ·×S∞n e Δ∞ = Δ∞m1

×· · ·×Δ∞mnnao dependem da

ordem em que as estrategias estritamente dominadas sao removidas.Nao apresentaremos a demonstracao deste fato aqui. O leitor interes-

Page 221: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 220

220 [CAP. 7: TEORIA DOS JOGOS

sado podera encontra-la (bem como as definicoes e resultados sobreestrategias mistas fracamente dominadas) nas referencias [04, 12].

Equilıbrio de Nash em estrategias mistas

Definicao 7.10 (Equilıbrio de Nash) Dizemos que um per-fil de estrategias mistas

p∗ = (p∗1,p∗2, . . . ,p

∗n) ∈ Δ = Δm1 ×Δm2 × · · · ×Δmn

e um equilıbrio de Nash se

ui(p∗i ,p∗−i) ≥ ui(p,p

∗−i)

para todo p ∈ Δmi , isto e, nenhum jogador sente motivacaode trocar a sua estrategia mista se os demais jogadores nao ofizerem.

Exemplo 7.9

(a) No dilema do prisioneiro (Exemplo 7.1), o perfil de estrategiasmistas

p∗ = (p∗1,p∗2) = (1, 0; 1, 0)

e um equilıbrio de Nash, pois

u1(p1,p∗2) = u1(p11, p12; 1, 0) = 5 · p11 − 10 ≤

− 5 = u1(1, 0; 1, 0) = u1(p∗1,p∗2)

para todo p1 = (p11, p12) ∈ Δ2 e

u2(p∗1,p2) = u2(1, 0; p21, p22) = 5 · p21 − 10 ≤

− 5 = u2(1, 0; 1, 0) = u2(p∗1,p∗2)

para todo p2 = (p21, p22) ∈ Δ2. Observe que este equilıbriocorresponde ao equilıbrio em estrategias puras

s∗ = (confessar, confessar).

Page 222: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 221

[SEC. 7.4: SOLUCOES DE UM JOGO EM ESTRATEGIAS MISTAS 221

Mostraremos mais adiante que este e o unico equilıbrio de Nashem estrategias mistas do jogo.

(b) Na batalha dos sexos (Exemplo 7.2), os equilıbrios de Nash emestrategias mistas sao

(1, 0; 1, 0), (0, 1; 0, 1) e (2/3, 1/3; 1/3, 2/3).

Os dois primeiros perfis de estrategias mistas correspondem asestrategias puras (futebol, futebol) e (cinema, cinema), respec-tivamente. Mostraremos mais adiante que estes sao os unicosequilıbrios de Nash em estrategias mistas do jogo.

(c) No Exemplo 7.3, o unico equilıbrio de Nash em estrategia mistae o ponto

(0, 1, 0, 0; 0, 1, 0, 0)

que corresponde ao equilıbrio de Nash (s12, s22) em estrategiaspuras.

(d) No jogo de comparar moedas do Exemplo 7.6, o unico equilıbriode Nash em estrategias mistas e o ponto

(1/2, 1/2; 1/2, 1/2).

Como no caso de estrategias puras, podemos caracterizar equilı-brios de Nash em estrategias mistas atraves das funcoes de melhorresposta. Considere um jogo com espaco de estrategias mistas Δ =Δm1×· · ·×Δmi×· · ·×Δmn . No que se segue, usaremos as seguintesnotacoes:

Δ(Si) = Δmi e Δ(S−i) = Δm1 × · · · ×Δmi−1 ×Δmi+1 × · · ·Δmn .

Page 223: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 222

222 [CAP. 7: TEORIA DOS JOGOS

Definicao 7.11 (Funcoes de melhor resposta em estra-tegias mistas) A funcao de melhor resposta do jogador gi e aaplicacao

MRi : Δ(S−i)→ 2Δ(Si)

definida por MRi(p−i) = argmaxpi∈Δ(Si) ui(pi,p−i), isto e,

MRi(p−i)

=

{p∗i ∈ Δ(Si) | ∀pi ∈ Δ(Si), ui(p∗i ,p−i) ≥ ui(pi,p−i)},

com p−i ∈ Δ(S−i). A funcao de melhor resposta do jogo e aaplicacao

MR: Δ→ 2Δ

definida por

MR(p) = (MR1(p−1),MR2(p−2), . . . ,MRn(p−n)),

com p ∈ Δ.

Note que, como Δ(Si) e um conjunto compacto nao-vazio e afuncao pi �→ ui(pi,p−i) e contınua, podemos usar o teorema de Wei-erstrass para garantir que MRi(p−i) = argmaxpi∈Δ(Si) ui(pi,p−i) eum conjunto nao-vazio para todo p−i ∈ Δ(S−i).

A proxima proposicao e uma consequencia direta das definicoesde equilıbrio de Nash e funcoes de melhor resposta em estrategiasmistas.

Proposicao 7.2 p∗ = (p∗1, . . . ,p∗i , . . . ,p∗n) ∈ Δ e um equilıbrio

de Nash em estrategias mistas se, e somente se, p∗i ∈MRi(p∗−i)

para todo i = 1, . . . , n, isto e, p∗ ∈ MR(p∗).

Exemplo 7.10 Suponha que, na batalha dos sexos (Exemplo 7.2),a mulher escolha a estrategia mista p2 = (1/2, 1/2). Qual e a melhor

Page 224: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 223

[SEC. 7.4: SOLUCOES DE UM JOGO EM ESTRATEGIAS MISTAS 223

resposta do homem a esta estrategia da mulher? Para responder aesta pergunta, observe inicialmente que

uHomem(p1,p2) = uHomem(p11, p12; p21, p22)

= p11 · p21 · uHomem(futebol, futebol) +

p11 · p22 · uHomem(futebol, cinema) +

p12 · p21 · uHomem(cinema, futebol) +

p12 · p22 · uHomem(cinema, cinema)

= 10 · p11 · p21 + 5 · p12 · p22e, portanto, uHomem(p11, p12; 1/2, 1/2) = 5 · p11 + (5/2) · p12. Destamaneira,

MRHomem(1/2, 1/2) = argmax(p11,p12)∈Δ2(5 · p11 + (5/2) · p12).

Segue-se que a melhor resposta do homem a estrategia mista p2 =(1/2, 1/2) da mulher e obtida resolvendo-se o seguinte problema deotimizacao:

maximizar 5 · p11 + (5/2) · p12sujeito a p11 + p12 = 1,

p11 ≥ 0,p12 ≥ 0,

cuja solucao e (p∗11, p∗12) = (1, 0). Sendo assim, MRHomem(1/2, 1/2) =

{(1, 0)}.No caso de jogos com apenas dois jogadores, cada um com apenasduas estrategias puras, e possıvel escrever as estrategias mistas deuma maneira mais simplificada:

Δ2 = {(p, 1− p) ∈ R2 | 0 ≤ p ≤ 1},

isto e, cada elemento de Δ2 pode ser identificado com um numero realno intervalo [0, 1]. Com isto, as funcoes de melhor resposta podemser reescritas de forma a depender de apenas de um numero real. Porexemplo, se o homem escolhe uma estrategia mista (p, 1 − p) ∈ Δ2,qual e a melhor resposta da mulher a esta estrategia do homem?

Page 225: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 224

224 [CAP. 7: TEORIA DOS JOGOS

Escrevendo as estrategias mistas da mulher na forma (q, 1− q) ∈ Δ2,vemos que

uMulher(p, 1− p; q, 1− q) = 15 pq + 10− 10 q − 10 p

= 5 (3 p− 2) q + 10 (1− p).

Sendo assim,

MRMulher(p) = argmax(q,1−q)∈Δ2(5 (3 p− 2) q + 10 (1− p))

= argmaxq∈[0,1](5 (3 p− 2) q + 10 (1− p)),

onde, por simplicidade, estamos escrevendo MRMulher(p) no lugarde MRMulher(p, 1−p). Assim, dada a escolha de p ∈ [0, 1] do homem,a mulher quer encontrar os valores de q ∈ [0, 1] que maximizam o valorde sua utilidade uMulher = 5 (3 p− 2) q + 10 (1− p). Se p ∈ [0, 2/3),entao 3 p− 2 < 0 e, para maximizar a sua utilidade, a mulher deveraescolher q = 0. Se p = 2/3, entao 3 p− 2 = 0 e, portanto, a utilidadeuMulher = 10 (1 − p) da mulher nao dependera de q. Neste caso, amulher podera escolher qualquer valor de q em [0, 1]. Se p ∈ (2/3, 1],entao 3 p− 2 > 0 e, para maximizar a sua utilidade, a mulher deveraescolher q = 1. Mostramos entao que

MRMulher(p) =

⎧⎨⎩ {0}, se p ∈ [0, 2/3),[0, 1], se p = 2/3,{1}, se p ∈ (2/3, 1].

Esta funcao de melhor resposta pode ser representada graficamente,como mostra a Figura 7.3.Do mesmo modo, se a mulher escolhe uma estrategia mista (q, 1−q) ∈Δ2, entao

uHomem(p, 1− p; q, 1− q) = 15 pq + 5− 5 q − 5 p

= 5 (3 q − 1) p+ 5 (1− q),

de modo que

MRHomem(q) = argmax(p,1−p)∈Δ2(5 (3 q − 1) p+ 5 (1− q))

= argmaxp∈[0,1](5 (3 q − 1) p+ 5 (1− q)).

Page 226: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 225

[SEC. 7.4: SOLUCOES DE UM JOGO EM ESTRATEGIAS MISTAS 225

1 p (Homem)0

1

q

2/3

(Cinema)

(Cinema)

(Futebol)

(Mulher)

(Futebol)

Figura 7.3: Representacao grafica da funcao de melhor resposta damulher no jogo da batalha dos sexos.

Assim, dada a escolha de q ∈ [0, 1] da mulher, o homem quer en-contrar os valores de p ∈ [0, 1] que maximizam o valor de sua utili-dade uHomem = 5 (3 q − 1) p + 5 (1 − q). Se q ∈ [0, 1/3), entao 3 q −1 < 0 e, para maximizar a sua utilidade, o homem devera esco-lher p = 0. Se q = 1/3, entao 3 q − 1 = 0 e, portanto, a utilidadeuHomem = 5 (1 − q) do homem nao dependera de p. Neste caso, ohomem podera escolher qualquer valor de p em [0, 1]. Se q ∈ (1/3, 1],entao 3 q− 1 > 0 e, para maximizar a sua utilidade, o homem deveraescolher p = 1. Mostramos entao que

MRHomem(q) =

⎧⎨⎩ {0}, se q ∈ [0, 1/3),[0, 1], se q = 1/3,{1}, se q ∈ (1/3, 1].

Esta funcao de melhor resposta pode ser representada graficamente,como mostra a Figura 7.4.

Agora, pela Proposicao 7.2, segue-se que um perfil de estrategiasmistas (p∗, 1− p∗; q∗, 1− q∗) e um equilıbrio de Nash se, e somente se,q∗ ∈ MRMulher(p

∗) e p∗ ∈ MRHomem(q∗). Desta maneira, os valores

de p∗ e q∗ que geram equilıbrios de Nash correspondem aos pontosde intersecao entre as representacoes graficas das funcoes de melhor

Page 227: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 226

226 [CAP. 7: TEORIA DOS JOGOS

1 q (Mulher)0

1

p

1/3

(Cinema)

(Cinema)

(Futebol)

(Homem)

(Futebol)

Figura 7.4: Representacao grafica da funcao de melhor resposta dohomem no jogo da batalha dos sexos.

resposta da mulher e do homem, quando representadas em um mesmosistema de eixos, como ilustra a Figura 7.5.

Vemos, portanto, que a batalha dos sexos possui apenas 3 equilıbriosde Nash em estrategias mistas:

(0, 1; 0, 1), (2/3, 1/3; 1/3, 2/3) e (1, 0; 1, 0),

que correspondem, respectivamente, aos tres unicos pontos de inter-secao (p∗, q∗) = (0, 0), (p∗, q∗) = (2/3, 1/3) e (p∗, q∗) = (1, 1) dasduas representacoes graficas.

Como vimos no jogo de comparar moedas no Exemplo 7.6, existemjogos que nao possuem equilıbrios de Nash em estrategias puras e, ateagora, todos os jogos apresentados em nossos exemplos possuem pelomenos um equilıbrio de Nash em estrategias mistas. Uma perguntanatural e se a existencia de equilıbrios de Nash em estrategias mistase um resultado geral ou nao. A resposta e sim! No proximo capıtuloapresentaremos e demonstraremos o teorema de equilıbrio de Nash,que garante a existencia de equilıbrios em estrategias mistas parajogos finitos.

Valem as seguintes relacoes entre dominancia e equilıbrio de Nashem estrategias mistas: (1) o processo de dominancia estrita iterada

Page 228: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 227

[SEC. 7.5: O TEOREMA DE EQUILIBRIO DE NASH 227

1 p (Homem)0

1

q

2/3

1/3

(Cinema)

(Cinema)

(Futebol)

(Mulher)

(Futebol)

Figura 7.5: Calculando os equilıbrios de Nash usando as representa-coes graficas das duas funcoes de melhor resposta.

em estrategias mistas nao pode eliminar um equilıbrio de Nash e (2) seo processo de dominancia estrita iterada em estrategias mistas deixaapenas um unico perfil de estrategias, entao este perfil e um equilıbriode Nash do jogo. Nao apresentaremos as demonstracoes destes re-sultados aqui. O leitor interessado podera encontra-las nas referen-cias [04, 12].

7.5 O Teorema de Equilıbrio de Nash

O teorema de equilıbrio de Nash estabelece que todo jogo finitopossui pelo menos um equilıbrio de Nash em estrategias mistas. Esteresultado foi provado por John Forbes Nash Jr. em sua tese de dou-torado em 1949 na Universidade de Princeton.

Teorema 7.1 (do equilıbrio de Nash) Todo jogo definidopor matrizes de payoffs possui um equilıbrio de Nash.

Nao daremos uma demonstracao deste teorema aqui. O leitor inte-ressado pode consultar a referencia [03], que apresenta duas demons-tracoes obtidas atraves de dois teoremas de ponto fixo: o de Brouwer

Page 229: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 228

228 [CAP. 7: TEORIA DOS JOGOS

e o de Kakutani. Contudo, na proxima secao, daremos uma demons-tracao do Teorema de Equilıbrio de Nash para uma classe especialde jogos, os jogos de soma zero. Nestes jogos, a soma dos payoffs dosdois jogadores e sempre zero: o que um jogador ganha, o outro perde.Veremos tambem que, para este tipo de jogo, os equilıbrios de Nashem estrategias mistas podem ser facilmente calculados resolvendo-seum problema de programacao linear.

7.6 Jogos de Soma Zero

Jogos de soma constante com dois jogadores

Definicao 7.12 (Jogos de soma constante com dois jo-gadores) Um jogo de soma constante com dois jogadores e umjogo com dois jogadores, comumente denominados jogador linhae jogador coluna, com estrategias Sjogador linha = {1, 2, . . . ,m} eSjogador coluna = {1, 2, . . . , n} e matriz de payoffs

jogador coluna1 2 · · · n

jogadorlinha

1 (a11, b11) (a12, b12) · · · (a1n, b1n)

2 (a21, b21) (a22, b22) · · · (a2n, b2n)

......

.... . .

...

m (am1, bm1) (am2, bm2) · · · (amn, bmn)

satisfazendo aij + bij = c = constante, para todo i = 1, . . . ,me j = 1, . . . , n. No caso particular em que a constante c e zero,dizemos que o jogo tem soma zero.

Em termos de estrategias mistas, se p = (p1, . . . , pm) ∈ Δm e umadistribuicao de probabilidades para as estrategias puras do jogador

Page 230: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 229

[SEC. 7.6: JOGOS DE SOMA ZERO 229

linha e q = (q1, . . . , qn) ∈ Δn e uma distribuicao de probabilidadespara as estrategias puras do jogador coluna, entao o payoff esperadopara o jogador linha e

ul(p, q) =m∑i=1

n∑j=1

piqjaij

=[p1 p2 · · · pm

]⎡⎢⎢⎢⎣

a11 a12 · · · a1na21 a22 · · · a2n...

.... . .

...am1 am2 · · · amn

⎤⎥⎥⎥⎦⎡⎢⎢⎢⎣

q1q2...qn

⎤⎥⎥⎥⎦ ,

isto e,

ul(p, q) = pTAq, com A =

⎡⎢⎢⎢⎣a11 a12 · · · a1na21 a22 · · · a2n...

.... . .

...am1 am2 · · · amn

⎤⎥⎥⎥⎦ .

Analogamente, o payoff esperado para o jogador coluna e dado por

uc(p, q) = pTBq, com B =

⎡⎢⎢⎢⎣b11 b12 · · · b1nb21 b22 · · · b2n...

.... . .

...bm1 bm2 · · · bmn

⎤⎥⎥⎥⎦ .

Uma vez que o jogo tem soma constante, vemos que

A+B =

⎡⎢⎢⎢⎣a11 a12 · · · a1na21 a22 · · · a2n...

.... . .

...am1 am2 · · · amn

⎤⎥⎥⎥⎦+

⎡⎢⎢⎢⎣b11 b12 · · · b1nb21 b22 · · · b2n...

.... . .

...bm1 bm2 · · · bmn

⎤⎥⎥⎥⎦

=

⎡⎢⎢⎢⎣c c · · · cc c · · · c...

.... . .

...c c · · · c

⎤⎥⎥⎥⎦ ,

Page 231: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 230

230 [CAP. 7: TEORIA DOS JOGOS

isto e,

A+B = C =

⎡⎢⎢⎢⎣c c · · · cc c · · · c...

.... . .

...c c · · · c

⎤⎥⎥⎥⎦ = c

⎡⎢⎢⎢⎣1 1 · · · 11 1 · · · 1...

.... . .

...1 1 · · · 1

⎤⎥⎥⎥⎦ = c 1 ,

onde 1 denota a matriz m × n formada com 1 em todas as suasentradas. Sendo assim, e facil de ver que

uc(p, q) = pTBq = pT (c 1 − A)q = cpT 1 q− pTAq = c− ul(p, q)

onde, na ultima igualdade, usamos que pT 1 q = 1, pois p e q saodistribuicoes de probabilidades e, por isto,

m∑i=1

pi = 1 e

n∑j=1

qj = 1.

Em particular, vale a seguinte propriedade importante:

ul(p∗, q∗) ≥ ul(p, q

∗) ⇔ uc(p∗, q∗) ≤ uc(p, q

∗). (7.2)

Equilıbrio de Nash em estrategias puras

Definicao 7.13 (Ponto de sela) Dizemos que um elementoaij de uma matriz A e um ponto de sela da matriz A se ele forsimultaneamente um mınimo em sua linha e um maximo em suacoluna, isto e, se

aij ≤ ail para todo l = 1, . . . , n e

aij ≥ akj para todo k = 1, . . . ,m.

O termo ponto de sela vem do fato que se desenharmos o graficodos payoffs do jogador linha, a vizinhanca do ponto de sela lembra oformato de uma sela de cavalo (Figura 7.6).

Page 232: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 231

[SEC. 7.6: JOGOS DE SOMA ZERO 231

ColunasLinhas

payoff

Figura 7.6: Ponto de sela.

Teorema 7.2 O elemento aij e um ponto de sela da matriz Ase, e somente se, o par (i, j) e um equilıbrio de Nash em es-trategias puras para o jogo.

Demonstracao:(⇒) Seja aij um ponto de sela da matriz A. Como aij e maximo

em sua coluna, vale que

ul(i, j) = aij ≥ akj = ul(k, j)

para todo k = 1, . . . ,m, isto e, o jogador linha nao pode aumentar oseu payoff se o jogador coluna mantiver a escolha da coluna j. Poroutro lado, como aij e mınimo em sua linha, vale que

uc(i, j) = bij = c− aij ≥ c− ail = bil = uc(i, l)

Page 233: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 232

232 [CAP. 7: TEORIA DOS JOGOS

para todo l = 1, . . . , n, isto e, o jogador coluna nao pode aumentaro seu payoff se o jogador linha mantiver a escolha da linha i. Istomostra que o perfil de estrategias puras (i, j) e um equilıbrio de Nashdo jogo.

(⇐) Seja (i, j) e um equilıbrio de Nash do jogo. A partir dasconsideracoes acima, e facil de ver que aij e maximo em sua colunae mınimo em sua linha e que, portanto, aij e um ponto de sela damatriz A.

Teorema 7.3 Se aij e ars sao dois pontos de sela da matriz A,entao ais e arj tambem sao pontos de sela da matriz A e

aij = ars = ais = arj.

Demonstracao: Considere a matriz

A =

⎡⎢⎢⎢⎢⎢⎢⎢⎣

......

· · · aij · · · ais · · ·...

. . ....

· · · arj · · · ars · · ·...

...

⎤⎥⎥⎥⎥⎥⎥⎥⎦.

Como aij e ars sao pontos de sela, sabemos que eles sao mınimosem suas respectivas linhas e maximos em suas respectivas colunas.Assim,

aij ≤ ais ≤ ars e aij ≥ arj ≥ ars,

e, portanto,

aij = ais = arj = ars.

Observe que ais e mınimo em sua linha, pois aij = ais e mınimoda mesma linha e que ais e maximo em sua coluna, pois ars = aise maximo da mesma coluna. Analogamente, arj e mınimo em sualinha, pois ars = arj e mınimo da mesma linha e arj e maximo em

Page 234: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 233

[SEC. 7.6: JOGOS DE SOMA ZERO 233

sua coluna, pois arj = aij e maximo da mesma coluna. Concluımosentao que ais e arj tambem sao pontos de sela da matriz A.

O payoff mınimo do jogador linha, se ele escolher a linha k, e dadopor

ak = min1≤l≤n

akl.

Analogamente, o payoff mınimo do jogador coluna, se ele escolher acoluna l, e dado por c− al, onde

al = max1≤k≤m

akl.

Definavl(A) = max

1≤k≤mak = max

1≤k≤mmin

1≤l≤nakl

evc(A) = min

1≤l≤nal = min

1≤l≤nmax

1≤k≤makl.

Teorema 7.4 Para toda matriz A, tem-se vc(A) ≥ vl(A).

Demonstracao: Temos que para todo k = 1, . . . ,m e j = 1, . . . , n,akj ≥ min

1≤l≤nakl.

Assim,max

1≤k≤makj ≥ max

1≤k≤mmin

1≤l≤nakl = vl(A),

para todo j = 1, . . . , n. Consequentemente,

vc(A) = min1≤j≤n

max1≤k≤m

akj ≥ max1≤k≤m

min1≤l≤n

akl = vl(A).

O proximo teorema caracteriza a existencia de pontos de sela e,portanto, a existencia de equilıbrios de Nash em estrategias puras,em termos das funcoes vl e vc.

Teorema 7.5 Uma matriz A tem um ponto de sela se, e so-mente se, vl(A) = vc(A).

Page 235: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 234

234 [CAP. 7: TEORIA DOS JOGOS

Demonstracao:

(⇒) Se aij e um ponto de sela da matriz A, entao vale queaij = min1≤l≤n ail = ai. Como vl(A) = max1≤k≤m ak, e claro quevl(A) ≥ ai = aij . Por outro lado, aij = max1≤k≤m akj = aj. Comovc(A) = min1≤l≤n al, segue-se que vc(A) ≤ aj = aij . Combinandoestas duas desigualdades, concluımos que vc(A) ≤ aij ≤ vl(A). Mas,pelo teorema anterior, vc(A) ≥ vl(A) e, sendo assim, vc(A) = vl(A).

(⇐) Como vl(A) = max1≤r≤m ar, existe uma linha i tal quevl(A) = ai. Como, por sua vez, ai = min1≤s≤n ais, existe uma co-luna l tal que ai = ail. Assim, vl(A) = ai = ail. Analogamente, comovc(A) = min1≤s≤n as, existe uma coluna j tal que vc(A) = aj . Como,por sua vez, aj = max1≤r≤m arj , existe uma linha k tal que aj = akj .Assim, vc(A) = aj = akj . Uma vez que, por hipotese, vl(A) = vc(A),temos que

ail = ai = vl(A) = vc(A) = aj = akj .

Afirmamos que aij e um ponto de sela da matriz A. Com efeito, aij ≤aj = ai ≤ ais, para todo s = 1, . . . , n, isto e, aij e o mınimo de sualinha. Por outro lado, aij ≥ ai = aj ≥ arj, para todo r = 1, . . . ,m,isto e, aij e o maximo de sua coluna. Portanto, aij e um ponto desela da matriz A.

Corolario 7.1 Um jogo de dois jogadores com soma constantedefinido pela matriz de payoffs A do jogador linha tem umequilıbrio de Nash em estrategias puras se, e somente se,

vl(A) = vc(A).

Exemplo 7.11 Considere o jogo de soma zero cujos payoffs do jo-gador linha sao dados pela matriz A abaixo.

Page 236: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 235

[SEC. 7.6: JOGOS DE SOMA ZERO 235

A =

mınimo das linhas⎡⎢⎢⎢⎣⎤⎥⎥⎥⎦

3 1 1 0 0

0 1 2 0 0

1 0 2 1 0

3 1 2 2 1

maximo das colunas 3 1 2 2

Como vl(A) = maximo dos mınimos das linhas = 1 = vc(A) = mınimodos maximos das colunas, segue-se que o jogo possui um equilıbriode Nash em estrategias puras. De fato, a42 e um ponto de sela damatriz A.

Exemplo 7.12 Considere o jogo de soma zero cujos payoffs do jo-gador linha sao dados pela matriz A abaixo.

A =

mınimo das linhas⎡⎢⎢⎢⎣⎤⎥⎥⎥⎦

3 2 1 0 0

0 1 2 0 0

1 0 2 1 0

3 1 2 2 1

maximo das colunas 3 2 2 2

Como vl(A) = maximo dos mınimos das linhas = 1 < 2 = vc(A) =mınimo dos maximos das colunas, segue-se que o jogo nao possui umequilıbrio de Nash em estrategias puras.

Equilıbrio de Nash em estrategias mistas

Defina

vl(A) = maxp∈Δm

minq∈Δn

pTAq e vc(A) = minq∈Δn

maxp∈Δm

pTAq.

Page 237: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 236

236 [CAP. 7: TEORIA DOS JOGOS

Teorema 7.6 Para toda matriz A, tem-se vc(A) ≥ vl(A).

Demonstracao: Temos que para todo p ∈ Δm,

pTAq ≥ miny∈Δn

pTAy.

Assim,maxp∈Δm

pTAq ≥ maxp∈Δm

miny∈Δn

pTAy = vl(A).

Consequentemente,

vc(A) = minq∈Δn

maxp∈Δm

pTAq ≥ maxp∈Δm

miny∈Δn

pTAy = vl(A).

O proximo teorema caracteriza a existencia de equilıbrios de Nashem estrategias mistas em termos das funcoes vl e vc.

Teorema 7.7 Um perfil de estrategias mistas (p∗, q∗) e umequilıbrio de Nash de um jogo de dois jogadores com soma cons-tante definido pela matriz de payoffs A do jogador linha se, esomente se,

vl(A) = vc(A) = p∗TAq∗.

Demonstracao:(⇒) Se (p∗, q∗) e um equilıbrio de Nash, entao

p∗TAq∗ = ul(p∗, q∗) ≥ ul(p, q

∗) = pTAq∗,

para todo p ∈ Δm. Em particular,

p∗TAq∗ = maxp∈Δm

pTAq∗ ≥ miny∈Δn

maxp∈Δm

pTAy = vc(A).

Vale tambem que

p∗TAq∗ = c− uc(p∗, q∗) ≤ c− uc(p

∗, q) = p∗TAq,

para todo q ∈ Δn. Em particular,

p∗TAq∗ = minq∈Δn

p∗TAq ≤ maxx∈Δm

minq∈Δn

xTAq = vl(A).

Page 238: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 237

[SEC. 7.6: JOGOS DE SOMA ZERO 237

Desta maneira, vl(A) ≥ vc(A). Como, pelo teorema anterior, vl(A) ≤vc(A), concluımos que vl(A) = vc(A).

(⇐) Como vl(A) = maxp∈Δm minq∈Δn pTAq, existe p∗ ∈ Δm talque

vl(A) = minq∈Δn

p∗TAq.

Analogamente, como vc(A) = minq∈Δn maxp∈Δm pTAq, existe q∗ ∈Δm tal

vc(A) = maxp∈Δm

pTAq∗.

Uma vez que, por hipotese, vl(A) = vc(A), temos que

minq∈Δn

p∗TAq = vl(A) = vc(A) = maxp∈Δm

pTAq∗.

Afirmamos que (p∗, q∗) e um equilıbrio de Nash do jogo. Com efeito,

ul(p∗, q∗) = p∗TAq∗ ≥ min

q∈Δn

p∗TAq =

maxp∈Δm

pTAq∗ ≥ xTAq∗ = ul(x, q∗),

para todo x ∈ Δm. Por outro lado,

uc(p∗, q∗) = c− p∗TAq∗ ≥ c− max

p∈Δm

pTAq∗ =

c− minq∈Δn

p∗TAq ≥ c− p∗TAy = uc(p∗, y),

para todo y ∈ Δn. Desta maneira, (p∗, q∗) e um equilıbrio de Nashdo jogo.

O teorema minimax de von Neumann

O proximo teorema estabelece que, para jogos de dois jogadorescom soma zero, vl(A) = vc(A) sempre. Sendo assim, pelo teorema 7.7,segue-se que, para esta classe de jogos, sempre existe pelo menos umequilıbrio de Nash em estrategias mistas.

Page 239: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 238

238 [CAP. 7: TEORIA DOS JOGOS

Teorema 7.8 (minimax de von Neumann) Para todo jogode soma zero com dois jogadores, representado pela matrizde payoffs A do jogador linha, sempre existe um perfil de es-trategias mistas (p∗, q∗) ∈ Δm ×Δn satisfazendo

vl(A) = maxp∈Δm

minq∈Δn

pTAq

=

p∗TAq∗

=minq∈Δn

maxp∈Δm

pTAq = vc(A).

Em particular, (p∗, q∗) e um equilıbrio de Nash do jogo.

Daremos uma demonstracao deste teorema minimax de von Neu-mann usando o teorema de dualidade da teoria de programacao linear.Lembramos que um problema de programacao linear e um problemade otimizacao com funcao objetivo e restricoes lineares:

(problema primal)

maximizar bTysujeito a Ay ≤ c,

y ≥ 0,

onde as desigualdades devem ser interpretadas componente a com-ponente. A cada problema de programacao linear (problema primal)podemos associar um outro problema de otimizacao (problema dual):

(problema dual)

minimizar cTx

sujeito a xTA ≥ bT ,x ≥ 0.

Page 240: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 239

[SEC. 7.6: JOGOS DE SOMA ZERO 239

Teorema 7.9 (da dualidade em programacao linear)

(a) O problema primal possui uma solucao se, e somente se, oproblema dual possui uma solucao.

(b) Se y∗ e solucao do problema primal e x∗ e solucao do pro-blema dual, entao cTx∗ = bTy∗.

Uma demonstracao do teorema de dualidade pode ser encontradaem [?, ?].

Demonstracao do teorema minimax: sem perda de generalidade,podemos assumir que todas as entradas da matriz de payoffs A do jo-gador linha sao positivas. Caso contrario, basta substituir A por A =A + D e B = −A por B = −D + B, onde D = d 1 , com d >max1≤i≤m,1≤j≤n |aij |. Observe que A+ B = 0 (isto e, o jogo definido

pelas matrizes A e B tem soma zero) e que (p∗, q∗) e um equilıbriode Nash para o jogo definido pela matriz A se, e somente se, (p∗, q∗)e um equilıbrio de Nash para o jogo definido pela matriz A.

Sejam c = (1, 1, . . . , 1)T e b = (1, 1, . . . , 1)T . Considere os proble-mas de programacao linear:

(problema primal)

maximizar bTysujeito a Ay ≤ c,

y ≥ 0,

(problema dual)

minimizar cTx

sujeito a xTA ≥ bT ,x ≥ 0.

Passo 1: o problema dual possui uma solucao.Como A > 0, o conjunto admissıvel

X = {x ∈ Rm | xTA ≥ bT e x ≥ 0}e nao vazio. Por outro lado, como c = (1, 1, . . . , 1)T , a funcao ob-jetivo do problema e escrita como x = (x1, x2, . . . , xm) �→ cTx =x1 + x2 + · · ·+ xm. Assim, o problema dual consiste em encontrar oponto do conjunto X mais proximo da origem segundo a norma dasoma || · ||1, um problema que certamente possui uma solucao pois,se p ∈ X , entao podemos “compactificar” o conjunto admissıvel in-cluindo a restricao ||x||1 ≤ ||p||1 e, com isso, podemos usar o teoremade Weierstrass para garantir a existencia de um mınimo.

Page 241: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 240

240 [CAP. 7: TEORIA DOS JOGOS

Passo 2: construcao do equilıbrio de Nash.Dado que o problema dual possui uma solucao, pelo teorema de

dualidade, o problema primal tambem possui. Mais ainda: se x∗ esolucao do problema dual e y∗ e solucao do problema primal, entao

cTx∗ = (x∗)TAy∗ = bTy∗.

Seja θ = cTx∗ = bTy∗ (que e > 0 pois (0, 0, . . . , 0) nao e admissıvel)e defina

p∗ =x∗

θe q∗ =

y∗

θ.

Afirmamos que (p∗, q∗) e um equilıbrio de Nash do jogo. Com efeito:claramente p∗ ∈ Δm e q∗ ∈ Δn, pois p

∗ ≥ 0 (ja que x∗ ≥ 0 e θ > 0),q∗ ≥ 0 (ja que y∗ ≥ 0 e θ > 0),

m∑i=1

pi =m∑i=1

x∗iθ

=cTx∗

θ=

θ

θ= 1

em∑j=1

qj =

n∑j=1

y∗jθ

=bTy∗

θ=

θ

θ= 1.

Agora, como x∗TA ≥ bT , temos que para todo q ∈ Δn, x∗TAq ≥

bTq =∑n

j=1 qj = 1. Mas p∗ = x∗/θ. Desta maneira, p∗TAq ≥ θ =

p∗TAq∗, para todo q ∈ Δn. Consequentemente,

uc(p∗, q∗) = −p∗TAq∗ ≥ −p∗TAq = uc(p

∗, q)

para todo q ∈ Δn. Mostramos entao que o jogador coluna nao podeaumentar o seu payoff esperado trocando q∗ por q, se o jogador linhamantiver a escolha p∗. Analogamente, como Ay ≤ c, temos quepara todo p ∈ Δm, pTAy∗ ≤ pT c =

∑mi=1 pi = 1. Mas y∗ =

q∗/θ. Desta maneira, p∗Aq∗ ≤ θ = p∗TAq∗, para todo p ∈ Δm.Consequentemente,

ul(p∗, q∗) = p∗TAq∗ ≥ pTAq∗ = ul(p, q

∗),

para todo p ∈ Δm. Mostramos entao que o jogador linha nao podeaumentar o seu payoff esperado trocando p∗ por p, se o jogador co-

Page 242: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 241

[SEC. 7.6: JOGOS DE SOMA ZERO 241

luna mantiver a escolha q∗. Concluımos, portanto, que (p∗, q∗) e umequilıbrio de Nash do jogo.

Alem de estabelecer a existencia de equilıbrios de Nash, a demons-tracao que demos sugere uma maneira de calcula-los: resolvendo-sedois problemas de programacao linear.

Exemplo 7.13 Considere o seguinte jogo de soma zero:

Cc1 c2

Ll1 (85/100,−85/100) (70/100,−70/100)

l2 (60/100,−60/100) (90/100,−90/100)

Para encontrar um equilıbrio de Nash, devemos resolver os seguintesproblemas de programacao linear

(problema primal)

maximizar y1 + y2

sujeito a

[85/100 70/10060/100 90/100

] [y1y2

]≤

[11

],[

y1y2

]≥

[00

],

(problema dual)

minimizar x1 + x2

sujeito a[x1 x2

] [ 85/100 70/10060/100 90/100

]≥ [

1 1],[

x1

x2

]≥

[00

],

isto e,

(problema primal)

maximizar y1 + y2sujeito a 17y1 + 14y2 ≤ 20,

6y1 + 9y2 ≤ 10,y1 ≥ 0,y2 ≥ 0,

(problema dual)

minimizar x1 + x2

sujeito a 7x1 + 12x2 ≥ 20,7x1 + 9x2 ≥ 10,

x1 ≥ 0,x2 ≥ 0.

Page 243: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 242

242 [CAP. 7: TEORIA DOS JOGOS

A solucao do problema dual e x∗ = (20/23, 10/23) (Figura 7.7) e asolucao do problema primal e y∗ = (40/69, 50/69), com

θ = x∗1 + x∗2 = y∗1 + y∗2 =30

23.

x2

0 20/23 30/23

10/23

30/23

x1

Figura 7.7: Solucao do problema dual.

Desta maneira, o unico equilıbrio de Nash para o problema e dadopelo ponto (p∗, q∗), onde

p∗ =x∗

θ=

(2

3,1

3

)e q∗ =

y∗

θ=

(4

9,5

9

).

7.7 Exercıcios

[01] Use o processo de dominancia estrita iterada para reduzir o jogocuja matriz de payoffs e dada abaixo.

Page 244: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 243

[SEC. 7.7: EXERCICIOS 243

0 40/69 30/23

30/23

50/69

y1

y1

Figura 7.8: Solucao do problema primal.

g2s21 s22 s23 s24

g1

s11 (3, 0) (1, 1) (5, 4) (0, 2)

s12 (1, 1) (3, 2) (6, 0) (2,−1)

s13 (0, 2) (4, 4) (7, 2) (3, 0)

[02] Considere a matriz de payoffs para os jogadores L (linhas) e C(colunas), a seguir:

Cc1 c2

L

l1 (3, 3) (0, 1)

l2 (1, 1) (2, 3)

Pede-se:

Page 245: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 244

244 [CAP. 7: TEORIA DOS JOGOS

(a) Determinar se existe alguma estrategia estritamente domi-nante para algum jogador.

(b) Determinar se existe algum equilıbrio de Nash (em estrate-gias puras). Caso exista mais do que um equilıbrio, quantose quais sao.

[03] A partir da matriz de payoffs a seguir para os jogadores L (li-nhas) e C colunas,

Cc1 c2

L

l1 (3, 2) (4, 4)

l2 (1, 1) (9, 2)

determine:

(a) Se algum jogador possui alguma estrategia dominante.

(b) Quantos equilıbrios de Nash em estrategias puras existem.

[04] Considere um jogo com tres jogadores: A, B e C. As estrategiasdo jogador A sao {x1, x2, x3}, as estrategias do jogador B sao{y1, y2} e as estrategias do jogador C sao {z1, z2, z3, z4}. Seo jogador B escolhe a estrategia y1, os payoffs sao dados pelamatriz

Cz1 z2 z3 z4

A

x1 (5, 0, 2) (1, 0, 1) (3, 0, 6) (1, 2, 1)

x2 (3, 2, 2) (9, 1, 8) (2, 0, 5) (2, 0, 2)

x3 (1, 0, 0) (1, 0, 9) (4, 0, 8) (3, 0, 3)

Por outro lado, se o jogador B escolhe a estrategia y2, entao ospayoffs sao dados por

Page 246: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 245

[SEC. 7.7: EXERCICIOS 245

Cz1 z2 z3 z4

A

x1 (0, 1, 1) (0, 1, 2) (2, 1, 3) (0, 3, 9)

x2 (0, 3, 2) (1, 2, 3) (2, 1, 8) (2, 1, 0)

x3 (1, 1, 0) (2, 1, 1) (3, 2, 2) (3, 1, 3)

Use a tecnica de dominancia estrita iterada para reduzir a ma-triz deste jogo.

[05] Repita o exercıcio anterior com a matriz de payoffs

Cz1 z2 z3 z4

A

x1 (1, 2, 9) (2, 9, 9) (3, 7, 9) (2, 8, 9)

x2 (3, 8, 3) (4, 5, 4) (4, 1, 3) (3, 9, 3)

x3 (2, 9, 9) (3, 9, 9) (3, 9, 9) (2, 9, 9)

caso o jogador B escolha a estrategia y1 e a matriz de payoffs

Cz1 z2 z3 z4

A

x1 (2, 1, 9) (3, 9, 9) (2, 9, 9) (1, 9, 9)

x2 (4, 9, 1) (4, 2, 2) (3, 2, 1) (2, 2, 1)

x3 (1, 9, 9) (2, 9, 9) (2, 9, 9) (1, 9, 9)

caso ele escolha a estrategia y2.

Page 247: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 246

246 [CAP. 7: TEORIA DOS JOGOS

[06] Considere um jogo com tres jogadores: A, B e C. As estrategiasdo jogador A sao {x1, x2, x3}, as estrategias do jogador B sao{y1, y2} e as estrategias do jogador C sao {z1, z2, z3, z4}. Seo jogador B escolhe a estrategia y1, os payoffs sao dados pelamatriz

Cz1 z2 z3 z4

A

x1 (1, 2, 1) (2, 3, 1) (1, 0, 2) (1, 4, 1)

x2 (2, 0, 1) (1, 2, 1) (3, 1, 3) (3, 2, 1)

x3 (1, 0, 1) (1, 1, 1) (2, 5, 1) (1, 3, 1)

Por outro lado, se o jogador B escolhe a estrategia y2, entao ospayoffs sao dados por

Cz1 z2 z3 z4

A

x1 (0, 0, 0) (1, 2, 3) (1, 3, 0) (1, 1, 1)

x2 (2, 1, 0) (1, 5, 1) (2, 2, 3) (1, 5, 2)

x3 (2, 1, 1) (1, 0, 1) (1, 0, 4) (1, 5, 3)

Calcule os equilıbrios de Nash em estrategias puras deste jogo.

[07] Calcule os pontos de sela da matriz

A =

⎡⎢⎢⎣24 23 22 2510 22 20 1927 25 22 2320 28 16 15

⎤⎥⎥⎦ .

[08] Como no Exemplo 7.13, escreva os problemas primal e dual dojogo de comparar moedas (Exemplo 7.6, pagina 210). Resolva

Page 248: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 247

[SEC. 7.7: EXERCICIOS 247

estes problemas de otimizacao para encontrar o equilıbrio deNash em estrategias mistas do jogo.

[09] Mostre como encontrar pelo menos um equilıbrio de Nash deum jogo de soma zero 2× 2 geral.

[10] Encontre pelo menos um equilıbrio de Nash em estrategias mis-tas do jogo de soma zero definido pela matriz

A =

[ −1 +5 +1 −2+1 −3 −2 +5

].

[11] Sejam p∗ ∈ Δm e q∗ ∈ Δn duas estrategias mistas de um jogode soma zero com dois jogadores. Mostre que se o mınimo dosganhos medios do jogador linha usando p∗ e igual ao maximodas perdas medias do jogador coluna usando q∗, isto e, se

min1≤l≤n

ul(p∗, el) = max

1≤k≤m(−uc(ek, q

∗)),

entao (p∗, q∗) e um equilıbrio de Nash do jogo. Aqui ek re-presenta o k-esimo vetor da base canonica de Rm e el o l-esimo vetor da base canonica de Rn. Use este resultado paramostrar que as estrategias mistas p∗ = (6/37, 20/37, 0, 11/37)e q∗ = (14/37, 4/37, 0, 19/37, 0) constituem um equilıbrio deNash do jogo de soma zero definido pela matriz

A =

⎡⎢⎢⎣5 8 3 1 64 2 6 3 52 4 6 4 11 3 2 5 3

⎤⎥⎥⎦ .

[12] Considere um jogo de soma zero definido por uma matriz Ainversıvel que possui um equilıbrio de Nash (p∗, q∗) totalmentemisto (isto e, 0 < p∗i , q

∗j < 1 para todo i, j ∈ {1, . . . , n}). Mostre

que

p∗ =�TA−1

�TA−1�e q∗ =

A−1��TA−1�

,

onde � =[1 · · · 1

]T.

Page 249: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 248

Apendice A

Respostas de ExercıciosSelecionados

Capıtulo 1

[11] A sentenca e falsa: W = R2, W1 = [(1, 0)] e W2 = [(0, 1)] e umcontraexemplo.

[14] (⇒) Suponha, por absurdo, que W1 ∪W2 seja um subespacovetorial de V , masW1 �⊆W2 eW2 �⊆W1. Entao existew1 ∈ W1

tal que w1 �∈ W2 e existe w2 ∈ W2 tal que w2 �∈ W1. ComoW1 ⊆W1 ∪W2 e W2 ⊆W1 ∪W2, segue-se que w = w1 +w2 ∈W1 ∪W2. Agora w �∈ W1 pois, caso contrario, w2 = w − w1

seria um elemento de W1. Do mesmo modo, w �∈ W2 pois,caso contrario, w1 = w−w2 seria um elemento de W2. Assim,w �∈ W1 e w �∈ W2. Consequentemente, w �∈ W1 ∪W2, umacontradicao.

(⇒) Se W1 ⊆ W2 ou W2 ⊆ W1 entao W1 ∪ W2 = W2 ouW1 ∪W2 = W1. Em qualquer um dos dois casos, W1 ∪W2 esubespaco vetorial de V .

[25] Seja B = {w1, . . . ,wr} uma base de W1 ∩W2. Usando o Te-orema 1.1, use B para construir bases de W1 e W2: B1 =

248

Page 250: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 249

249

{v1, . . . ,vr, v1, . . . , vs} e B2 = {v1, . . . ,vr, v1, . . . , vt}. Se mos-tramos que

A = {v1, . . . ,vr, v1, . . . , vs, v1, . . . , vt}e uma base para W1 ∩W2, teremos entao estabelecido o resul-tado. O conjunto A gera W1 ∩W2 pois, se w ∈ W1 ∩W2,entao w = w1 +w2, com w1 ∈W1 e w2 ∈W2. Como B1 geraW1 e B2 gera W2, temos que

w1 =

r∑i=1

αivi +

s∑j=1

αj vj e w2 =

r∑i=1

βivi +

t∑k=1

βkvk.

Sendo assim,

w = w1 +w2 =

r∑i=1

(αi + βi)vi +

s∑j=1

αj vj +

t∑k=1

βkvk ∈ [A].

Vamos agora mostrar que A e LI. Sejam αi, αj , αk ∈ K tais que

r∑i=1

αivi +s∑

j=1

αj vj +t∑

k=1

αkvk = 0.

Logo,r∑

i=1

αivi +

s∑j=1

αj vj = −t∑

k=1

αkvk.

Mas∑r

i=1 αivi+∑s

j=1 αj vj e um vetor de W1 e −∑tk=1 αkvk

e um vetor de W2. Assim,∑r

i=1 αivi+∑s

j=1 αj vj ∈W1∩W2.Dado que B gera W1 ∩W2, temos que

r∑i=1

αivi +s∑

j=1

αj vj =r∑

i=1

βivi,

para escalares β1, . . . , βr ∈ K. Portanto,

r∑i=1

(αi − βi)vi +

s∑j=1

αj vj = 0.

Page 251: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 250

250 [CAP. A: RESPOSTAS DE EXERCICIOS SELECIONADOS

Mas B1 e uma base para W1. Assim, obrigatoriamente,

α1 = · · · = αs = 0.

Logo,

r∑i=1

αivi+

s∑j=1

αj vj +

t∑k=1

αkvk = 0⇒r∑

i=1

αivi+

t∑k=1

αkvk = 0.

Mas B2 e uma base para W2. Assim, obrigatoriamente,

α1 = · · · = αr = α1 = · · · = αt = 0.

Capıtulo 2

[08] O item (h) e verdadeiro. Demonstracao: sem perda de gene-ralidade, podemos supor que o conjunto {T(u1), . . . ,T(uk)} eLI e, portanto, uma base de U . Assim, dimK(U) = k e, peloitem (d) (que e verdadeiro), {u1, . . . ,uk} tambem e LI. Como,#{u1, . . . ,uk} = k, segue-se que {u1, . . . ,uk} tambem e umabase de U . Em particular, [u1, . . . ,uk] = U .

O item ( i ) e falso. Como contra-exemplo, considere U = V =R2, u1 = (1, 0), u2 = (0, 1) e T(x, y) = (0, 0).

[11] O item (c) e falso. Como contra-exemplo, considere n = 2,S(x, y) = (x, 0) e T(x, y) = (0, y). Temos que dimR(Im(S)) =dimR(Im(T)) = 1, mas dimR(Im(S ◦T)) = dimR(Im(T ◦ S)) =0 �= 1 = dimR(Im(S)).

[12] O item (a) e falso. Contra-exemplo: U = R∞, T(x1, x2, . . .) =(0, x1, x2, x3, . . .) e S(x1, x2, . . .) = (x2, x3, x4, . . .).

[13] (a) V.

(b) F. Contra-exemplo: U = R2, V = R2, W = {(0, 0)},T(x, y) = (x, 0) e S(x, y) = (0, 0).

(c) F. Contra-exemplo: U = [(1, 0)], V = R2,W = R2, T(x, 0) =(x, 0) e S(x, y) = (x, 0).

Page 252: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 251

251

(d) V.

Observacao: para a segunda parte, a hipotese de que U =V = W tenha dimensao finita e importante. De fato: consi-dere U = V = W = R∞, T(x1, x2, . . .) = (0, x1, x2, x3, . . .) eS(x1, x2, . . .) = (x2, x3, x4, . . .). Note que S◦T = IdR∞ e sobre-jetiva, mas T nao e sobrejetiva. Do mesmo modo, S◦T = IdR∞

e injetiva, mas S nao e injetiva.

[18] Um vetor v em C(AB) e da forma ABx para algum vetor x.Como v = ABx = A(Bx), concluımos que v ∈ C(A). AssimC(AB) ⊆ C(A). Logo,

rank(AB) = dimK(C(AB)) ≤ dimK(C(A)) = rank(A).

Usando agora este fato, temos que

rank(AB) = rank(BTAT ) ≤ rank(BT ) = rank(B).

Consequentemente, rank(AB) ≤ min{rank(A), rank(B)}.[19] Em sala de aula vimos que podemos escrever A = BC, onde

B e m × r e C = r × n. Desde que as colunas de B saoLI, rank(B) = r. Desde que C tem r linhas, rank(C) ≤ r.Contudo, pelo exercıcio anterior, r = rank(A) = rank(BC) ≤min{rank(B), rank(C)} ≤ rank(C). Logo, rank(C) = r.

[20] Sejam A = XY e B = UV as rank factorizations de A e B.Entao

A+B = XY+UV =[X U

] [ YV

].

Entao, pelo Exercıcio [18],

rank(A+B) ≤ rank([

X U])

.

Sejam x1, . . . ,xp e u1, . . . ,uq bases de C(X) e C(U), respecti-vamente. Qualquer vetor no espaco coluna de

[X U

]pode

ser expresso como uma combinacao linear destes p+ q vetores.Entao

rank([

X U]) ≤ rank(X) + rank(U) = rank(A) + rank(B).

Page 253: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 252

252 [CAP. A: RESPOSTAS DE EXERCICIOS SELECIONADOS

Capıtulo 3

[02] (a) Tome A =

[1 0 00 1 0

]. Entao B =

⎡⎣ 1 00 12 3

⎤⎦ e B =⎡⎣ 1 00 12 3

⎤⎦ sao duas inversas a direita de A.

(b) Suponha que exista uma matriz B tal que AB = I, todasde tamanho n× n. Isto significa que as colunas da matrizidentidade se escrevem como combinacao linear das colunasda matriz A, sendo os coeficientes dados pelas entradas damatriz B:

ek = b1k · a1 + b2k · a2 + · · ·+ bnk · an,

para 1 ≤ k ≤ n. Como as n colunas de I geram Rn, con-cluımos que as n colunas de A tambem geram Rn. Em par-ticular, as colunas de A formam uma base para Rn. Destamaneira, os coeficientes bjk sao unicamente determinados.

(c) Seja C = BA− I+B. Entao

AC = ABA−AI+AB = IA−A+ I = I.

Assim, C (como B) e uma inversa a direita de A. Peloitem anterior, B = C. Entao C = BA − I + B implicaem BA = I.

[08] A sentenca e falsa. Como contra-exemplo, considere A = 0,L = I e U = 0.

[09] Note que A = LU⇒ UTLT = AT , com UT uma matriz trian-gular inferior. Assim, as colunas lTk de LT (para 1 ≤ k ≤ n) po-dem ser calculadas usando-se substituicoes retroativas: UT lTk =aTk (para 1 ≤ k ≤ n).

Page 254: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 253

253

[13] Note que

Ak =

[Bk Bk−1C+ · · ·+B1C+C0 I

]=

[Bk (Bk−1 + · · ·+B1 + I)C0 I

].

Agora, como (Bk−1 + · · · + B1 + I)(B − I) = Bk − I e, porhipotese, B− I e inversıvel, vemos entao que

Bk−1 + · · ·+B1 + I = (Bk − I)(B− I)−1.

Desta maneira,

Ak =

[Bk (Bk − I)(B− I−1)C0 I

].

[14] Para que a matriz A seja inversıvel, e necessario e suficienteque sua ultima coluna nao seja combinacao linear das demaiscolunas. Como A e inversıvel, existe um unico x ∈ Rn tal queu = Ax. De fato, x = A−1u. Assim, para que a ultima co-luna de A nao seja combinacao linear das demais, e necessarioe suficiente que a combinacao dos elementos de vT com coefi-cientes dados pelas entradas de x = A−1u sejam diferentes donumero 0, isto e,

vTx = vTA−1u �= 0.

Suponha agora que A seja inversıvel (vTA−1u �= 0). Vamos

calcular uma formula para a inversa de A. Escrevendo[A uvT 0

] [B c

dT e

]=

[I 00T 0

]concluımos que

AB+ udT = I, Ac+ eu = 0, vTB = 0T , vT c = 1.

Da segunda equacao, segue-se que c = −eA−1u. Substituindoeste valor na ultima equacao, obtemos que vT (eA−1u) = −1.Logo

e = − 1

vTA−1ue c =

1

vTA−1uA−1u.

Page 255: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 254

254 [CAP. A: RESPOSTAS DE EXERCICIOS SELECIONADOS

Da primeira equacao temos que B = A−1 −A−1udT . Substi-tuindo este valor na terceira equacao, obtemos que vTA−1 −vT (A−1udT ) = vTA−1 − (vTA−1u)dT = 0T . Logo,

dT =1

vTA−1uvTA−1 e B = A−1 − 1

vTA−1uA−1uvTA−1.

Portanto, [A uvT 0

]−1=⎡⎢⎣ A−1 − 1

vTA−1uA−1uvTA−1

1

vTA−1uA−1u

1

vTA−1uvTA−1 − 1

vTA−1u

⎤⎥⎦ .

[16] Suponha, por absurdo, que A nao seja inversıvel. Entao Anao e injetiva, logo Ker(A) �= 0, isto e, existe v �= 0 tal queA(v) = 0. Entao, vTAv = vT0 = 0. Mas isto contradiz ahipotese de A ser positiva definida.

Capıtulo 4

[04] Basta usar a desigualdade de Schwarz com os vetores

u = (√a1,√a2,√a3) e v = (1/

√a1, 1/

√a2, 1/

√a3).

[13] Se {v1, . . . ,vk} e uma base ortonormal deW e {vk+1, . . . ,vn} euma base ortonormal de W⊥, entao {v1, . . . ,vk,vk+1, . . . ,vn}e uma base ortonormal de Rn = W ⊕W⊥. Nesta base, P e Qse escrevem da seguinte maneira

P =

[Ik×k 0k×(n−k)

0(n−k)×k 0(n−k)×(n−k)

]e

Q =

[0k×k 0k×(n−k)

0(n−k)×k I(n−k)×(n−k)

].

Page 256: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 255

255

Entao, P+Q = In×n, PQ = 0n×n e

P−Q =

[Ik×k 0k×(n−k)

0(n−k)×k −I(n−k)×(n−k)

]que e igual a sua propria inversa, pois (P−Q)(P−Q) = I.

[14] Note que P e simetrica, pois PT = (PTP)T = PT (PT )T =PTP = P. Agora, usando que PT = P, temos que

P2 = PTPPTP = PTPTPTP = PTPTP = PTP = P.

[16] PR = B(BTB)−1BT , onde B = AT . Sendo assim, PR =AT (AAT )−1A.

[18] Os itens (a), (b) e (c) podem ser resumidos no seguinte codigoMATLAB:

r = [1 2 3 4]; A = compan(poly(r)); n = 40;for i=1:n [Q, R] = qr(A); A = R∗Q; end; A

[21] (a) Seja BU = {u1, . . . ,un} uma base ortonormal de U . Defina

u =

n∑i=1

〈T(ui),v〉V · ui.

Os funcionais lineares u �→ 〈T(u),v〉V e u �→ 〈u, u〉U coin-cidem em uma base de U . Logo, eles coincidem sempre.Para a unicidade, considere dois vetores u1 e u2 tais que

〈T(u),v〉V = 〈u, u1〉U = 〈u, u2〉Upara todo u ∈ U . Em particular, 〈u, u1 − u2〉U = 0, paratodo u ∈ U . Escolhendo u = u1 − u2, concluımos queu1 − u2 = 0, isto e, u1 = u2.

[22] Seja U o espaco vetorial das funcoes pares. Como o produto deuma funcao par por uma funcao ımpar e uma funcao ımpar eintegrais de funcoes ımpares no intervalo [−1, 1] e zero, certa-mente U ⊆ W⊥. Seja agora f ∈ W⊥. Podemos escrever f , de

Page 257: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 256

256 [CAP. A: RESPOSTAS DE EXERCICIOS SELECIONADOS

maneira unica, como soma de uma funcao par com uma funcaoımpar: f = fP + fI . Agora, para todo g ∈W ,

〈f, g〉 = 0 ⇒∫ 1

−1f(x) · g(x) dx = 0

⇒∫ 1

−1(fP (x) + fI(x)) · g(x) dx = 0

⇒∫ 1

−1fP (x) · g(x) dx+

∫ 1

−1fI(x) · g(x) dx = 0

⇒∫ 1

−1fI(x) · g(x) dx = 0.

Como esta ultima igualdade e valida para qualquer funcao gımpar, podemos escolher g = fI . Assim,∫ 1

−1fI(x) · fI dx = 0 ⇒ 〈fI , fi〉 = 0 ⇒ fI = 0.

Logo, f = fP + fI = fP ∈ U . Isto mostra que W⊥ ⊆ U e,consequentemente, U = W⊥.

[23] Se g1(x) = 1/√2 π, g2(x) = cos(x)/

√π e g3(x) = sen(x)/

√π,

entao {g1, g2, g3} e uma base ortonormal para W . Assim, seg ∈ argming∈W ||f − g||2, entao

g(x) = 〈f, g1〉 g1(x) + 〈f, g2〉 g2(x) + 〈f, g3〉 g3(x)= π − 1− 2 sen(x).

[24] Se w ∈ W , entao 〈w,u〉 = 0 para todo u ∈ W⊥. Logo, quew ∈ (W⊥)⊥ e, sendo assim, concluımos que W e subespacovetorial de (W⊥)⊥. Por outro lado,

dimK(V ) = dimK(W ) + dimK(W⊥)

= dimK(W⊥) + dimK((W

⊥)⊥),

isto e, dimK(W ) = dimK((W⊥)⊥). Logo, W = (W⊥)⊥.

Page 258: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 257

257

[25] Seja v ∈ B⊥. Como B e uma base de V , v =∑n

i=1 αivi. Assim:

||v||2 = 〈v,v〉 =⟨

n∑i=1

αivi,v

⟩=

n∑i=1

αi 〈vi,v〉︸ ︷︷ ︸=0

= 0.

Desta maneira, v = 0.

[26] Dizer que o sistema Ax = b possui pelo menos uma solucaoe equivalente a dizer que b ∈ C(A). Dizer que ATy = 0 ⇒bTy = 0 e equivalente a dizer que b ∈ (Ker(AT ))⊥. Mas, peloTeorema Fundamental da Algebra Linear, C(A) = (Ker(AT ))⊥,o que estabelece o resultado.

[27] Como dimR(R(A)) = dimR(C(A)), basta mostrar que T e so-brejetiva. Seja y ∈ C(A). Existe x ∈ Rn tal que Ax = y.Pelo Teorema Fundamental da Algebra Linear, Rn = Ker(A)⊕R(A). Assim, existem unicos xK ∈ Ker(A) e xR ∈ R(A)tais que x = xK + xR. Como Ax = AxR, concluımos queT(xR) = AxR = y.

[30] (a) A sentenca e falsa. Considere o espaco vetorial R3 munidocom o produto interno canonico. Sejam U = [(1, 0, 0)] eV = [(0, 0, 1)]. Note que U e ortogonal a V , mas U⊥ =[(0, 1, 0), (0, 0, 1)] nao e ortogonal a V ⊥ = [(1, 0, 0), (0, 1, 0)].

(b) A sentenca e falsa. Considere o espaco vetorial R3 munidocom o produto interno canonico, Sejam U = [(1, 0, 0)], V =[(0, 0, 0)] e W = U . Note que U e ortogonal a V , V eortogonal a W , mas U nao e ortogonal a W .

Capıtulo 5

[01] Observe que

p(x) = det(QTAQ− xI) = det(QTAQ− xQTQ)

= det(QT ) det(A− xI) det(Q)) = (det(Q))2 det(A− xI)

= det(A− xI).

Page 259: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 258

258 [CAP. A: RESPOSTAS DE EXERCICIOS SELECIONADOS

ou seja, A eQTAQ possuem o mesmo polinomio caracterıstico.Logo, A e QTAQ possuem os mesmos autovalores.

[03] SeA = UΣVT , ondeΣ em×n, entaoAT = VΣTUT , comΣT

uma matriz n×m. Observe que se

Σ =

[Dr×r 0r×(n−r)

0(m−r)×r 0(m−r)×(n−r)

],

entao

ΣT =

[Dr×r 0r×(m−r)

0(n−r)×r 0(n−r)×(m−r)

].

Isto mostra que A e AT possuem os mesmos valores singulares.Observacao: se A e uma matriz 2×n, entaoAAT e apenas 2×2e seus autovalores sao mais faceis de se calcular manualmentedo que os autovalores de ATA.

[07] Seja UΣVT uma SVD para A. Entao AT = VΣTUT . Por-tanto, ATA = V(ΣTΣ)VT . Note queV(ΣTΣ)VT e uma SVDpara ATA. Como os elementos nao nulos da diagonal principalde (ΣTΣ) sao os quadrados dos valores singulares nao nulosde A, concluımos que ATA possui o mesmo posto de A.

[08] Considere

U(θ) =

⎡⎣ 1 0 00 + cos(θ) − sen(θ)0 + sen(θ) + cos(θ)

⎤⎦ , Σ =

⎡⎣ 1 0 00 0 00 0 0

⎤⎦ e

V =

⎡⎣ 1 0 00 1 00 0 1

⎤⎦ .

Como Σ = U(θ)ΣVT , para todo θ ∈ R, vemos que Σ possuiinfinitas SVD diferentes.

[12] Note que, para todo 1 ≤ i ≤ m e 1 ≤ j ≤ p,

(ABT )ij =

n∑k=1

(A)ik(BT )kj =

n∑k=1

(akbTk )ij .

Page 260: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 259

259

Portanto,

ABT =

n∑k=1

akbTk .

[14] Seja A = UΣVT a SVD de A. Entao:

(ATA)−1AT = (VΣTUTUΣTVT )−1VΣUT

= (VD2VT )−1VΣTUT

= V(D2)+VTVΣTUT

= VΣ+UT = A+.

[15] Nem sempre (AB)+ = B+A+. Considere, por exemplo,

A =[1 1 0

]e B =

⎡⎣ 011

⎤⎦ de modo que AB =[1].

Entao

A+ =

⎡⎣ 1/21/20

⎤⎦ , B+ =[0 1/2 1/2

]e (AB)+ =

[1].

MasB+A+ =

[1/4

].

[16] A+ = A−1.

[17] Q+ = QT .

[18] Seja A = UΣVT uma SVD da matriz A. Sabemos que A+ =VΣ+UT . Assim:

AXA = UΣVTVΣ+UTUΣVT = UΣΣ+ΣVT

= UΣVT = A,

XAX = VΣ+UTUΣVTVΣ+UT = VΣ+ΣΣ+UT

= VΣ+UT = A+ = X,

(AX)T = (UΣVTVΣ+UT )T = U(ΣΣ+)TUT

= U(ΣΣ+)UT = UΣVTVΣ+UT = AX,

(XA)T = (VΣ+UTUΣVT )T = V(Σ+Σ)TVT

= V(Σ+Σ)VT = VΣ+UTUΣVT = XA.

Page 261: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 260

260 [CAP. A: RESPOSTAS DE EXERCICIOS SELECIONADOS

Capıtulo 7

[01] O processo de dominancia estrita iterada reduz o jogo para umamatriz 1×1 com um unico perfil de estrategias puras: (s13, s22).

[02] (a) Nao existem estrategias dominantes neste jogo.

(b) (l1, c1) e (l2, c2) sao os unicos equilıbrios de Nash em es-trategias puras do jogo.

[03] (a) c2 domina estritamente c1.

(b) (l2, c2) e o unico equilıbrio de Nash em estrategias puras dojogo.

[04] O processo de dominancia estrita iterada reduz o jogo parauma matriz 1× 1× 1 com um unico perfil de estrategias puras:(x3, y2, z4).

[05] O processo de dominancia estrita iterada reduz o jogo parauma matriz 1× 1× 1 com um unico perfil de estrategias puras:(x2, y1, z2).

[06] O perfil de estrategias (x2, y2, z3) e o unico equilıbrio de Nashem estrategias puras do jogo.

[07] A matriz A tem dois pontos de sela: a13 e a33.

[08] No jogo de comparar moedas,

A =

[+1 −1−1 +1

]Como A tem entradas negativas, vamos substituı-la por

A =

[+1 −1−1 +1

]+ 2 1 =

[+3 +1+1 +3

].

Assim:

(problema primal)

Page 262: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 261

261

maximizar y1 + y2sujeito a 3 y1 + y2 ≤ 1,

y1 + 3 y2 ≤ 1,y1 ≥ 0,y2 ≥ 0,

(problema dual)

minimizar x1 + x2

sujeito a 3 x1 + x2 ≥ 1,x1 + 3 x2 ≥ 1,

x1 ≥ 0,x2 ≥ 0.

A solucao do problema dual e (x∗1, x∗2) = (1/4, 1/4) e a solucao

do problema primal e (y∗1 , y∗2) = (1/4, 1/4). Se

θ = x∗1 + x∗2 = y∗1 + y∗2 =1

2,

segue-se que o unico equilıbrio de Nash do jogo de compararmoedas e dado por (p∗, q∗), onde

p∗ =(x∗1, x∗2)

θ=

(1

2,1

2

)e q∗ =

(y∗1 , y∗2)θ

=

(1

2,1

2

).

[09] Considere o seguinte jogo matricial geral de ordem 2× 2:

A =

[a bd c

].

Se existe um ponto de sela, basta usarmos os resultados da Sub-secao 7.6 para encontrar um equilıbrio de Nash do jogo. Supo-nha entao que a matriz A nao possua pontos de sela. Destamaneira, o jogo possui apenas equilıbrios de Nash

(p∗, 1− p∗; q∗, 1− q∗)

totalmente mistos, isto e, com 0 < p∗, q∗ < 1. Se a ≥ b, entaob < c, caso contrario b seria um ponto de sela. Desde que b < c,

Page 263: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 262

262 [CAP. A: RESPOSTAS DE EXERCICIOS SELECIONADOS

devemos ter c > d pois, caso contrario, c seria um ponto desela. Prosseguindo desta maneira, vemos que d < a e a > b.Em outras palavras, se a ≥ b, entao a > b, b < c, c > d e d < a.Por simetria, se a ≤ b, entao a < b, b > c, c < d e d > a.Com isto mostramos que se nao existem pontos de sela, entaoou a > b, b < c, c > d e d < a, ou a < b, b < c, c < d e d > a.Usando as Equacoes ??, obtemos que

a p∗ + d (1− p∗) = b p∗ + c (1− p∗)

Resolvendo para p∗, encontraremos que

p∗ =c− d

(a− b) + (c− d)

Como nao existem pontos de sela, (a − b) e (c − d) sao ambospositivos ou ambos negativos, e consequentemente, 0 < p∗ < 1.O ganho medio do jogador linha usando esta estrategia e

v∗ = a p∗ + d (1− p∗) =a c− b d

(a− b) + (c− d).

Analogamente, usando as Equacoes ??, obtemos a seguinte ex-pressao:

q∗ =c− b

(a− b) + (c− d)

com 0 < q∗ < 1. A perda media do jogador coluna usando estaestrategia e

v∗ = a q∗ + d(1 − q∗) =ac− bd

(a− b) + (c− d).

[10] ComoA nao possui pontos de sela, o jogo possui apenas equilıbriosde Nash

(p∗, 1− p∗; q∗, 1− q∗)

totalmente mistos, isto e, com 0 < p∗, q∗ < 1. Se v∗ e o valordo jogo, entao usando as desigualdades ?? com q = ek ∈ R4

para k = 1, 2, 3, 4, vemos que

[p∗ 1− p∗

] [ −1 +5 +1 −2+1 −3 −2 +5

]≥

⎡⎢⎢⎣v∗

v∗

v∗

v∗

⎤⎥⎥⎦ ,

Page 264: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 263

263

{ 3

{ 2

{ 1

1

0 1 p

v

5

v* = { 2 p* + 1

v*={7p*+5

Coluna 1

Coluna 3

Coluna 4

Coluna 2

*

*

v*= 3

p*{ 2

v*=8p*{3

Figura A.1: Envelope inferior.

isto e, ⎧⎪⎪⎨⎪⎪⎩v∗ ≤ −2 p∗ + 1,v∗ ≤ 8 p∗ − 3,v∗ ≤ 3 p∗ − 2,v∗ ≤ −7 p∗ + 5.

(A.1)

As funcoes afins v∗ = −2 p∗ + 1, v∗ = 8 p∗ − 3, v∗ = 3 p∗ − 2e v∗ = 3 p∗ − 2 representam os ganhos medios do jogador linhaquando ele escolhe a distribuicao de probabilidades (p∗, 1−p∗) eo jogador coluna escolhe as colunas 1, 2, 3 e 4, respectivamente.Os graficos destas funcoes para 0 ≤ p∗ ≤ 1 estao desenhados naFigura A.1.

Para um valor fixo de p∗, o jogador linha esta seguro de que seuganho medio e pelo menos o mınimo destas quatro funcoes cal-culadas em p∗, o envelope inferior destas quatro funcoes. Comoo jogador linha pretende maximizar os seus ganhos medios,

Page 265: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 264

264 [CAP. A: RESPOSTAS DE EXERCICIOS SELECIONADOS

entao ele precisa encontrar p∗ que atinge o maximo deste en-velope inferior. De acordo com a Figura A.1, o maximo ocorrejustamente na intersecao das retas v∗ = −2 p∗+1 e v∗ = 3 p∗−2,as quais representam, respectivamente, as colunas 1 e 3 do jo-gador coluna. Deste modo, uma solucao do jogo 2 × 4 originalpode ser obtida estudando-se o jogo 2× 2 definido pela matriz

R =

[ −1 +1+1 −2

].

O valor deste jogo e v∗ = −1/5 para p∗ = 3/5 e q∗ = 3/5.Assim, um equilıbrio de Nash do jogo original e dado por

(p∗, 1− p∗; q∗, 0, 1− q∗, 0) =(3

5,2

5;3

5, 0,

2

5, 0

).

Naturalmente, a tecnica aqui descrita pode ser aplicada paraqualquer jogo de soma zero com matriz A de tamanho 2× n.

[11] Lembre-se que ul(p, q) = pTAq e ul(p, q) = −pTAq. Sejamek∗ e el∗ tais que

min1≤l≤n

ul(p∗, el) = ul(p

∗, el∗)

emax

1≤k≤m(−uc(ek, q

∗)) = −uc(ek∗ , q∗),

isto e, p∗TAel ≥ p∗TAel∗ para todo l e eTk Aq∗ ≤ eTk∗Aq∗ para

todo k. Desta maneira,

eTkAq∗ ≤ eTk∗Aq∗ = −(−p∗TAel∗) = p∗TAel∗ ≤ p∗TAel,

para todo k = 1, . . . ,m e l = 1, . . . , n. Por linearidade, segue-seque

pTAq∗ ≤ p∗TAq,

para todo p ∈ Δm e q ∈ Δn. Em particular, pTAq∗ ≤ p∗TAq∗

e p∗TAq∗ ≤ p∗TAq, isto e, ul(p, q∗) ≤ ul(p

∗, q∗) e uc(p∗, q) ≤

uc(p∗, q∗) para todo p ∈ Δm e q ∈ Δn. Isto mostra que (p∗, q∗)

e um equilıbrio de Nash do jogo.

Page 266: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 265

265

Para a matriz A de tamanho 4× 5 do enunciado, temos que

ul(p∗, e1) =

121

37, ul(p

∗, e2) =121

37, ul(p

∗, e3) =160

37,

ul(p∗, e4) =

121

37e ul(p

∗, e5) =169

37,

e

uc(e1, q∗) =

121

37, uc(e2, q

∗) =121

37, uc(e3, q

∗) =120

37e

uc(e4, q∗) =

121

37,

de modo que

min1≤l≤n

ul(p∗, el) = 121/37 = max

1≤k≤m(−uc(ek, q

∗)) = 121/37.

Pelo resultado acima, isto mostra que (p∗, q∗) e um equilıbriode Nash do jogo.

[12] Se (p∗, q∗) e um equilıbrio de Nash totalmente misto, entao,pelas relacoes ??,

n∑j=1

aijq∗j = v∗, ∀i ∈ {1, . . . , n}.

Estas equacoes podem ser escritas usando-se matrizes da se-guinte maneira: Aq∗ = v∗�. Como, por hipotese, A e umamatriz inversıvel, segue-se que q∗ = v∗A−1�. Agora,

n∑j=1

q∗j = 1 ⇒ 1 = �Tq∗ = v∗�TA� ⇒ v∗ =

1

�TA−1�.

Sendo assim,

q∗ =A−1�

�TA−1�.

Do mesmo modo, pelas relacoes ??,

n∑i=1

p∗i aij = v∗, ∀j ∈ {1, . . . , n}.

Page 267: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 266

266 [CAP. A: RESPOSTAS DE EXERCICIOS SELECIONADOS

Estas equacoes podem ser escritas usando-se matrizes da se-guinte maneira: p∗TAq∗ = v∗�. Como, por hipotese, A e umamatriz inversıvel, segue-se que p∗ = v∗�A−1 e, assim,

p∗ =�A−1

�TA−1�.

Page 268: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 267

ReferenciasBibliograficas

[01] Bapat, R. B. Linear Algebra and Linear Models. Second Edi-tion. Springer-Verlag, 2000.

[02] Bortolossi, H. J. Calculo Diferencial a Varias Variaveis: UmaIntroducao a Teoria de Otimizacao. Editora PUC-Rio, EdicoesLoyola, 2002.

[03] Bortolossi, H. J.; Sartini, B.; Garbugio, G. Uma Introducao aTeoria Economica dos Jogos. IMPA, 2007.

[04] Y. C. Chen, N. Y. Long e X. Luo, Iterated Strict Dominancein General Games. CIRANO Working Papers, 2007s-03, 2007.

[05] Demmel, J. Applied Numerical Linear Algebra. SIAM, 1996.

[06] Dennis Jr.; Schnabel, R. B. Numerical Methods for Unconstrai-ned Optimization and Nonlinear Equations, Classics in AppliedMathematics, 16, SIAM, 1996.

[07] Golub, G. H.; Van Load, C. F. Matrix Computations. ThirdEdition. The Johns Hopkins University Press, 1996.

[08] Gonzaga, C. C. Algoritmos de Pontos Interiores Para Pro-gramacao Linear. IMPA, 1989.

[09] Luenberger, D. G.; Ye, Y. Linear and Nonlinear Programming.Third Edition. Springer-Verlag, 2008.

267

Page 269: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 268

268 REFERENCIAS BIBLIOGRAFICAS

[10] Nocedal, J.; Wright, S. J. Numerical Optimization, Springer Se-ries in Operations Research, Springer Verlag, New York, 1999.

[11] Okunev, P.; Johnson, C. Necessary and Sufficient Conditionsfor Existence of the LU Factorization of an Arbitrary Matrix.arXiv:math.NA/0506382, 1997.

[12] M. Dufwenberg e M. Stegeman, Existence and Uniqueness ofMaximal Reductions Under Iterated Strict Dominance. Econo-metrica, vol. 70, n. 5, pp. 2007–2023, 2002.

[13] Strang, G. Linear Algebra and Its Applications, Fourth Edition.Thomson Brooks/Cole, 2006.

[14] Sotomayor, J. Licoes de Equacoes Diferenciais Ordinarias.Projeto Euclides, IMPA, 1979.

Page 270: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 269

Indice

Adjunta de uma transformacaolinear, 132, 139

Algoritmo QR, 138Alternativa de Fredholm, 141Autovalor, 143Autovetor, 143

Base, 14canonica, 14

Blocos, multiplicacao por, 64

Cholesky, decomposicao de, 86Cisalhamento, 40, 45Combinacao linear, 10Condicoes de Moore-Penrose,

168Conjunto

admissıvel de um PL, 169convexo, 177de geradores, 10ortogonal, 105, 130

Coordenadas, 19, 35

Decomposicaode Cholesky, 86em valores singulares, 154espectral, 146LDU, 85LU, 57, 69

QR, 111, 114Derivada, 28Desigualdade

de Cauchy-Schwarz, 103triangular, 104

Dimensao, 16Dominancia

em estrategias mistas, 217em estrategias puras, 203estrita iterada, 204, 218fraca iterada, 207

Elemento pivo, 75Equacao diferencial, 19, 95Equacoes normais, 118Equilıbrio

de estrategia estritamentedominante, 204, 219

de estrategia fracamente do-minante, 207

de Nash, 209em estrategiasmistas, 220

Espaco vetorial, 4finitamente gerado, 14

Espaco de estrategiasmistas, 214puras, 200

Estrategiamista, 213

269

Page 271: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 270

270 INDICE

pura, 199

Formanormal, 200padrao de um PL, 169

Fredholm, alternativa, 141Funcao

de melhor reposta, 211objetivo de um PL, 169utilidade, 200esperada, 215

Ganho, 199Givens, rotacoes de, 128Gram-Schmidt, processo de or-

tonormalizacao, 107

Hessiana, matriz, 87Homotetia, 49Householder, transformacao de,

124, 136

Identidade de polarizacao, 113Imagem, 32Integral, 28Intersecao de subespacos, 8Isomorfismo, 34

Jacobiana, matriz, 84Jogo

a batalha dos sexos, 202comparar moedas, 210de soma zero, 2282× 2, 2472× n, 264matriz inversıvel, 247

estrategico, 200na forma normal, 200nao-cooperativo, 200

o dilema do prisioneiro, 200

LDU, decomposicao, 85Linearmente

dependente, 13independente, 13

LU, decomposicao, 57

Metodo de Newton, 82Matriz

companheira, 139de Householder, 124de permutacao, 74de permutacao elementar,

73de rotacao, 30de uma transformacao li-

near, 36estritamente diagonal do-

minante, 80hessiana, 87jacobiana, 84menor, 62menor principal de uma,

63menor principal lıder de uma,

63ortogonal, 112positiva definida, 86positiva semidefinida, 144triangular inferior, 52triangular superior, 52

Matriz de payoffs , 201Melhor resposta, 211Menor, 62

principal, 63principal lıder, 63

Page 272: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 271

INDICE 271

Moore-Penrose, condicoes de,168

Multiplicacao por blocos, 64

Nucleo, 32Nash

Equilıbrio deem estrategias mistas, 220em estrategias puras, 209

Nash Jr., John Forbes, 227Norma, 103

Ortogonal, conjunto, 105Ortogonalidade, 105

Payoff , 199Perfil de estrategias

mistas, 214puras, 200

Pivo, elemento, 75Polarizacao, identidade de, 113Polinomio caracterıstico, 143Polinomio de Lagrange, 26Ponto

extremo, 178Posto, 38

segundo colunas, 39segundo linhas, 39

Problemadual, 191dual de um LP, 191primal de um LP, 191

Produto interno, 100Projecao, 50, 109

ortogonal, 116Pseudoinversa, 164

QR, algoritmo, 138QR, decomposicao, 111, 114

Reflexao, 50Regra

de Cramer, 71de Laplace, 71

Rotacao, 28, 30, 40, 49Rotacoes de Givens, 128

Singular value decomposition,154

Solucaobasica de um PL, 172degenerada, 172

Solucao estrategica, 209Soma

de subespacos, 9direta de subespacos, 9

Spline cubico, 97Subespaco

gerado, 10vetorial, 7

Subespacos fundamentais, 134SVD, 154

Teoremade Pitagoras, 136espectral, 145forte de dualidade, 195fraco da dualidade, 193Fundamental da Algebra

Linear, 133fundamental da programacao

linear, 173Transformacao

adjunta, 139de Householder, 124, 136linear, 27

Tucker, Albert W., 200

Utilidade, 200

Page 273: Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e ...€¦ · “aal” 2017/2/2 page Topicos de´ Algebra Linear:´ Decomposic¸oes Matriciais e Aplicac˜ ¸oes˜ Humberto

“aal”2017/2/2page 272

272 INDICE

esperada, 215

Valor singular, 152Variavel

basica de um PL, 172de folga de um PL, 170

Vetor singulara direita, 154a esquerda, 154