80
Redes Neurais Artificiais - Introdução Visão Computacional

n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

  • Upload
    others

  • View
    13

  • Download
    0

Embed Size (px)

Citation preview

Page 1: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

RedesNeuraisArtificiais-IntroduçãoVisão Computacional

Page 2: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

Inspiração

2

Page 3: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

Inspiração

3

Page 4: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

Inspiração• Atividade seletiva nas conexões• “Soma”os impulsos epassa adiante

4

Page 5: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

Inspiração• Asconexões entreos dendritos informam comoainformação deve trafegar (força deconexão)

• ou

•5

Page 6: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

Inspiração• Aforça pode ser representada por pesos

6

Page 7: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

Inspiração• Asconexões determinam como reconhecer umobjetoespecífico.• Ou quais ligações ativar para atingir oobjetivo

7

Page 8: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

Inspiração• Mascomo aprender os pesosdasconexões demaneira arepresentar ainformação que desejamos?

• Funcionário que trabalhapela manha folga anoite• Funcionário que trabalhaanoite folga pela manhã

Nós queremosà

8

Page 9: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

Inspiração• Mascomo chegar na resposta?• Parta doaleatório

9

Page 10: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

Inspiração• Apartir deumtreinamentoà Ative osneurônios (FeedForward)

10

Page 11: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

Inspiração• Aprenda comos erros• GradientDescent(obtem adireção dadiferença queminimiza oerro J)

11

Page 12: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

Inspiração• Ajuste os pesos.• Direção doajuste:camada superiorà camadaabaixo• Backpropagation

• ajuste =erro *gradiente *delta

12

Page 13: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

Inspiração

13

• Repita oprocesso atéque os pesosparemdemudar

Page 14: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

Neurônio Artificial• Ele tem um meio de computar seu nível deativação dados sinais de entrada xi e pesosnuméricos wi.

14

Page 15: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

Representações

15

Page 16: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

16

Page 17: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

17

Page 18: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

Idéia Inicial

18

Page 19: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

19

Page 20: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

Funções deAtivação• Sigmoid:

• Contras:não é alinhada em zero|gradientespróximos deregiões próximas a0e1são quasezero|pouco usada

20

Page 21: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

Funções deAtivação• Tanh:

• Diferencia demodo contínuo |centrada em zero|é umdeslocamento daSigmoid 21

Page 22: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

Funções deAtivação• ReLU.TheRectifiedLinearUnit

• Rápida |masneurônios podem morrer comovalor“0”|sol:adiciona “folga”(0,01) 22

Page 23: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

Tipos deRedes Neurais• Umacamada (também chamada dePerceptron)• Consistem em umsimplesneurônio,componderações ajustáveis desinapses eumlimitador fixo

23

Page 24: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

Várias Camadas• Umarede neuralMultilayerperceptron:• Contém uma ou mais camadas escondidas

• Consiste basicamente:• 1camada deentrada• 1ou mais escondidas• 1camada desaída

• Osinal é propagado deuma camada para outra(forward) 24

Page 25: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

Exemplo 2camadasescondidas

25

Page 26: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

Camadas Escondidas• Cada camada temsua funcionalidade específica• Os neurônios dessas camadas detectamcaracterísticas presentes nos padrões que nãoeram detectadas por fora

• Comuma camada escodida é possívelrepresentar qualquer função contínua• Comduas é possível representar funçõescontínuas edescontínuas• Acamada funciona como uma caixa-preta(hidden)

26

Page 27: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

Poder deRepresentação

27Comofica oOverFitting?

Page 28: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

Aprendizado emRedes Neurais

28

Page 29: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

Arquitetura (Hyperparameters)

• Definida ateste:• uma única camada• várias camadas• quantos neurônios em cada camada• interligação entreos neurônios nas váriascamadas,etc

• Depois disso,seescolhe oalgoritmo deaprendizagem (vai efetivamente diferenciar asredes neurais)

29

Page 30: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

Aprendizado Supervisionado• Oalgoritmo ajusta oerro darede,etenta emuma novaiteração diminuir este erro:

• Oalgoritmo deaprendizagem Perceptron(regra Delta)• Ométodo domenor errorquadrado (LeastMeanSquare)• Oalgoritmo Backpropagation

30

Page 31: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

OAlgoritmo Perceptron• Aoperação doperceptrondeRosenblatt(Rosenblatt,1960)é baseada nomodelo deneurônio deMc Culloch andPitts.

• Consiste em umcombinador linearseguido porumhardlimiter.• Asomaponderada dasentradas é aplicada aohardlimiter,que produz uma saída igual a+1sesua entrada forpositiva e-1sefornegativa.

31

Page 32: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

Esquema

32

Page 33: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

OAlgoritmo Perceptron• Em outras palavras,oneurônio deRosenblattusa aseguinte função detransferência ou função deativação:

33

Page 34: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

OAlgoritmo Perceptron• Afunção deativação utilizada é chamada design (função sinal ).• Assim asaída doneurônio comafunção deativação signpode ser representada como

34

Page 35: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

Perceptrons como classificadores

• Oobjetivo doperceptroné classificar entradas,ou em outras palavras classificar estímulosexternos x1,x2,...xn em uma deduas classesA1eA2.• Oespaço n- dimensionalé dividido por umhyperplano em duas regiões dedecisão.Ohyperplano é definido pela função linearmenteseparável

35

Page 36: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

Superfície deDecisão• Paraocaso deduas entradas x1 andx2,afronteira dedecisãotoma aformadeuma linha reta mostrada em negrito:

36

Page 37: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

Superfície deDecisão• Comtrês entradas ohyperplano pode ainda ser visualizadograficamente

• Oplano deseparação entreasclassesA1eA2é definido pelaequação

37

Page 38: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

Mascomo operceptronaprende?• Realizando ajustes na ponderação,partindo deuma solução incial aleatória• Supondo que afunção declassificação seja:

sendo wi [-0.5,0.5]

OErro na iteração pé calculada como erro emrelação aclassificação 38

x1 .w1 +x2 .W2 - θ =0

Page 39: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

ErroSe• Y(p)forasaída calculada• Yd(p)asaída correta (desired)

então:• e(p)=Yd(p)– Y(p)

onde pé aiteração (geração)• Seerro é positivo então precisamos incrementar asaída doperceptronY(p)

• Senegativo,decrementar39

Page 40: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

Regra Delta• Assim,aseguinte regra deaprendizagem doperceptron ou regra Delta pode serestabelecida:

• onde αé ataxadeaprendizagem,umaconstante positiva menor doque 1.

40

wi(p+1)=wi(p)+α.xi(p).e(p)

Page 41: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

Algoritmo

41

Page 42: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

Algoritmo

42

Page 43: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

Backpropagation eMLP

Page 44: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

Introdução• Redes dePerceptrons• Resolvem apenas problemas lineares• Não existem muitos deles

• Solução• Redes demúltiplas camadas• Backpropagation

44

Page 45: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

FeedforwardMLP• Rede NeuralFeedFoward Multicamadas• Umaou mais camadas escondidas• Sendo uma deentrada• Processar aentrada edistribuir osinal

• Umadesaída• Gerar umsaída

• Epelo menos uma intermediária45

Page 46: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

Representação

46

Page 47: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

Porquemais deuma camada?• Neurônios na(s)camada(s)escondida(s)detecta(m)ascaracterísticas;• os pesosdosneurônios representam ascaracterísticas escondidas nos padrões deentrada.

• Estas características são então usadas pelacamada desaída na determinação dopadrãodesaída.

47

Page 48: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

Comoaprende?• Oalgoritmo mais popularé obackpropagation

• Oprocesso é omesmo:• Umconjunto deentrada é apresentado• É calculado asaída• Sehouver erro é realizado oajuste dospesospara diminuir oerro

48

Page 49: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

Diferença• Comapenas umperceptron• Existe apenas 1conjunto depesos• Eapenas 1saída

• Em multicamadas• Existem vários pesosaplicados amesmaentrada• Evárias saídas 49

Page 50: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

Avaliação deErro• Em uma rede neuralbackpropagation,oalgoritmo deaprendizagem temduas fases.1. umpadrão deentrada detreinamento é

apresentado acamada deentrada darede.

Arede então propaga (feedfowards)opadrão deentrada decamada acamada até opadrão desaída ser gerado pela camada desaída.

50

Page 51: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

Avaliação deErro2. Seeste padrão é diferente dasaída desejada,

umerro é calculado eentão propagado devolta(backpropagated)através darede partindo dacamada desaída para acamada deentrada.

Os pesossão modificados amedida que oerro épropagado.

51

Page 52: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

52

Page 53: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

Rede Backpropagation• Comoqualquer outra rede neural,uma redebackpropagation é determinada por:• asconexões entreneurônios (aarquitetura darede),• afunção deativação utilizada pelos neurônios,e• oalgoritmo deaprendizagem (ou aleideaprendizagem )que especifica oprocedimentopara oajuste depesos.

53

Page 54: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

Arquitetura daRede• Tipicamente,uma rede backpropagation é umarede multicamadas que temtrês ou quatrocamadas.

• Ascamadas são completamente conectadas (FullConnected(FC)):• isto é,cada neurônio em cada camada estáconectado acada outroneurônio na camadaadjacente.

54

Page 55: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

Função deAtivação• Primeiro,ele computa somaponderada dasentradas.• Em seguida,asomaé passada através deumafunção deativação.• Função deativação para finsdidáticos sigmoid:

55

Page 56: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

LeideAprendizagem• Considerarando uma rede detrês camadas

sendo i,jekreferem-seaos neurônios nascamadas deentrada,escondida edesaída,respectivamente.

Sinais deentrada,x1,x2,...,xn ,são propagadosatravés darede daesquerda para adireita,esinaisdeerros,e1,e2,...,el ,dadireita para aesquerda. 56

Page 57: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

Propagação• Parapropagar sinais deerro:• começamos na camada desaída etrabalhamos nosentido devolta para acamada escondida.

• Osinal deerro na saída doneurônio kna iteração pédefinido por:

onde yd,k(p)é asaída desejada doneurônio knaiteração p.• Paracamada desaída! 57

Page 58: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

Correção dospesos• Regra semelhante

• Aentrada não é mesma na camada y• Assim,nós usamos asaída doneurônio jnacamada escondida,yj,ao invés daentrada xi.

58

Page 59: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

Atualização

• onde δk (p)é ogradiente deerro noneurônio kdacamada desaída na iteraçãop.

59

Page 60: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

Gradiente doerro• Ogradiente deerro é determinado como aderivada dafunção deativação multiplicado peloerro noneurônio desaída.

• onde yk (p)é asaída doneurônio kna iteraçãop,eXk (p)é asomaponderada dasentradas doneurônio kna mesma iteração.

60

Page 61: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

Paraafunção sigmoid• Ogradiente doerro aplicada afunção deativação sigmoid:

61

Page 62: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

Pesonas camadas escondidas

onde δj (p)representa ogradiente deerro doneurônio jna camada escondida:

onde i é onúmero deneurônios na camada desaída; 62

Page 63: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

Pesonas camadas escondidas

63

Page 64: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

Algoritmo – Passo 1

64

Page 65: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

Algoritmo – Passo 2(a)

65

Page 66: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

Algoritmo - Passo 2(b)

66

Page 67: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

Algoritmo – Passo 3(a)

67

Page 68: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

Algoritmo- Passo 3(b)

68

Page 69: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

Algoritmo – Passo 4

69

Page 70: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

Exemplo - XOR

70

Page 71: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

Passo 1:Inicialização• w13 =0.5• w14 =0.9• w23 =0.4• w24 =1.0• w35 =-1.2• w45 =1.1• θ3 =0.8• θ4 =-0.1• θ5 =0.3

71

Page 72: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

Passo 2:Ativação• Cosidere asentradas x1 =x2 =1;neste caso asaída desejada é yd,5 =0.• Assaídas atuais dosneurônios 3e4na camadaescondida são calculados como:

72

Page 73: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

Passo 2:Ativação• Assim asaída atual doneurônio 5na camada desaída pode ser determinado por

73

Page 74: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

Erro saída• onde,oseguinte erro é obtido:e=yd,5 - y5 =0- 0.5097=-0.5097

74

Page 75: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

Passo 3:Atualização dePesos• Paraatualizar os pesosdarede,oerro épropagado devolta dacamada desaída para acamada deentrada.

• Primeiro,calcula-seogradiente deerro para oneurônio 5na camada desaída:

75

Page 76: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

Passo 3• Em seguida,determinam-seascorreções depesos(noexemplo,assume-seque ataxadeaprendizagem α=0.1):

76

Page 77: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

Passo 3• Depois,calculam-seos gradientes deerro paraos neurônios 3e4na camada escondida:

77

Page 78: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

Passo 3• Depois,determinam-seascorreções depesos:

78

Page 79: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

Passo 3• Epor fim,atualizam-setodos os pesosdarede:

79

Page 80: n4.intro redes neuraisgeraldo/vc/n4.intro_redes_neurais.pdfcamadade entrada. •Primeiro, calcula-se o gradientede erroparao neurônio5 nacamadade saída: 75. Passo3 •Emseguida,

Critério deParada• Oprocesso detreinamento é repetido até que asomadoserros quadráticos seja menor queuma margem deerro pequena pré-estabelecida(e.g.,0.001).

80