13
DIMENSIONAMENTO DO CIRCUITO EMISSOR COMUM COM O AUXILIO DE REDES NEURAIS ARTIFICIAIS. Elton Jeser Resumo No trabalho proposto redes neurais artificiais são utilizadas para determinar as resistenscias que devem ser utilizadas no circuito emisor comum. A metodologia e aplicada em um estágio do projeto onde o relacionamento entre as variáveis não é bem definido e onde os parâmetros eram, até então, obtidos de forma empírica. Palavras Chaves: Redes neurais, Transitores, circuito emissor comum. Introdução PRINCÍPIOS DE FUNCIONAMENTO O transistor bipolar é formado por três camadas semicondutoras dopadas alternadamente, ou seja, camadas N P N ou P N P. A figura abaixo mostra o esquema dos dois tipos de transistores bipolares. Figura 1 – Transistores bipolares NPN e PNP. Observe que as três regiões formam duas junções PN. Os terminais do transistor são denominados (E) Emissor, (B) Base e (C) Coletor e J1 e J2 são as junções base-emissor e base- coletor, respectivamente. A principal característica do transistor bipolar é que podemos controlar a corrente que passa entre os terminais emissor e coletor através do terminal de base do transistor. Veremos mais adiante que pequenos valores de corrente na base do transistor controlam valores elevados de corrente entre os terminais emissor e coletor. Para que um transistor funcione é necessário polarizar corretamente as suas junções, da seguinte forma: Junção base-emissor: deve ser polarizada diretamente Junção base-coletor: deve ser polarizada reversamente Esse tipo de polarização deve ser utilizado para qualquer transistor de junção bipolar, seja ele npn ou pnp. A figura abaixo mostra como devem ser polarizadas as junções para os dois tipos de transistores. Figura 2 – Polarização das junções dos transistores NPN e PNP. Vamos analisar o caso do transistor PNP. A figura abaixo mostra o que ocorre com os portadores de carga com a junção base emissor diretamente polarizada. Figura 3 – Polarização da junção Base- Emissor do transistor PNP.

Funcionamento Transistor Emissor Comum

Embed Size (px)

Citation preview

Page 1: Funcionamento Transistor Emissor Comum

DIMENSIONAMENTO DO CIRCUITO EMISSOR COMUM COM O AUXILIO DE REDES NEURAIS ARTIFICIAIS.

Elton Jeser

ResumoNo trabalho proposto redes neurais artificiais são utilizadas para determinar as resistenscias que devem ser utilizadas no circuito emisor comum. A metodologia e aplicada em um estágio do projeto onde o relacionamento entre as variáveis não é bem definido e onde os parâmetros eram, até então, obtidos de forma empírica.

Palavras Chaves: Redes neurais, Transitores, circuito emissor comum.

IntroduçãoPRINCÍPIOS DE FUNCIONAMENTO

O transistor bipolar é formado por três camadas semicondutoras dopadas alternadamente, ou seja, camadas N P N ou P N P. A figura abaixo mostra o esquema dos dois tipos de transistores bipolares.

Figura 1 – Transistores bipolares NPN e PNP.

Observe que as três regiões formam duas junções PN. Os terminais do transistor são denominados (E) Emissor, (B) Base e (C) Coletor e J1 e J2 são as junções base-emissor e base- coletor, respectivamente.

A principal característica do transistor bipolar é que podemos controlar a corrente que passa entre os terminais emissor e coletor através do terminal de base do transistor. Veremos mais adiante que pequenos valores de corrente na base do transistor controlam valores elevados de corrente entre os terminais emissor e coletor.

Para que um transistor funcione é necessário polarizar corretamente as suas junções, da seguinte forma:

Junção base-emissor: deve ser polarizada diretamente

Junção base-coletor: deve ser polarizada reversamente

Esse tipo de polarização deve ser utilizado para qualquer transistor de junção bipolar, seja ele npn ou pnp. A figura abaixo mostra como devem ser polarizadas as junções para os dois tipos de transistores.

Figura 2 – Polarização das junções dos transistores NPN e PNP.

Vamos analisar o caso do transistor PNP. A figura abaixo mostra o que ocorre com os portadores de carga com a junção base emissor diretamente polarizada.

Figura 3 – Polarização da junção Base-Emissor do transistor PNP.

A região tipo P do emissor do transistor é altamente dopada. Isto significa que há muitas lacunas nessa região. Como a junção base-emissor está diretamente polarizada, essas lacunas partem do emissor em direção a região da base.

A figura abaixo mostra o movimento dos portadores na junção Base-Coletor do transistor PNP reversamente polarizada.

Figura 4 – Polarização da junção Base-Coletor do transistor PNP.

A região da base é bastante estreita e possui uma resistência elevada. Neste caso, quase todas as lacunas que chegam à base atravessam-na em direção a região do coletor, pois a resistência elétrica que as lacunas encontram para circular para o terminal de base é muito maior que a resistência para essas lacunas atingir a região do coletor. Apenas uma

Page 2: Funcionamento Transistor Emissor Comum

pequena parcela dessas lacunas circula em direção ao terminal da base. Na maioria dos transistores, mais de 95% das lacunas atingem a região do coletor.

As lacunas que atingem a região do coletor são atraídas pelo potencial negativo da fonte de polarização. A figura abaixo mostra o sentido das correntes nos terminais dos transistores NPN e PNP.

Aplicando a lei das correntes de Kirchhoff no transistor, podemos obter a seguinte expressão:

Esta equação mostra que a corrente no emissor é a soma das correntes no coletor e na base do transistor. Geralmente a corrente de base é muito menor que a corrente de coletor, a ponto de poder ser desprezada. Neste caso, podemos aproximar a corrente do emissor por:

Figura 5 – Correntes nos transistores a) PNP e b) NPN

A relação entre a corrente de coletor e a corrente de base é chamada de ganho de corrente e representada pela letra βCC e dada por:

Para transistores de sinal o ganho de corrente varia em torno de 100 a 300.

A relação entra a corrente de emissor e coletor é definida pelo parâmetro dado por:

A relação entre os parâmetros β e é dada por:

A figura abaixo mostra as tensões nos transistores NPN e PNP.

Figura 4 – Tensões nos transistores NPN e PNP.

CONFIGURAÇÃO EMISSOR COMUM

Os transistores podem ser ligados em três

configurações básicas: base comum (BC), emissor comum (EC) e coletor comum (CC). Essas denominações relacionam-se aos pontos onde o sinal é injetado e retirado, ou ainda, qual dos terminais do transistor é referência para a entrada e saída de sinal.

A configuração mais utilizada quando o transistor atua como um amplificador de sinais é a configuração emissor comum. As curvas características de um transistor mostram as regiões na qual o transistor pode operar. A figura abaixo mostra as curvas características de saída IC x VCE para o transistor conectado na configuração emissor comum.

Page 3: Funcionamento Transistor Emissor Comum

Figura 5 – a) Transistor NPN na configuração emissor comum; b) curvas características de saída; c) curvas

características de entrada. A configuração é chamada de emissor comum porque

o terminal de emissor do transistor é o ponto de referência para ambos os sinais de entrada e saída.

A curva característica de entrada mostra a relação entre a tensão VBE e a corrente que circula na base. Podemos observar que está curva é igual à curva característica do diodo, pois ela representa a característica do diodo da junção base-emissor do transistor. A figura também mostra que esta curva possui certa dependência quanto à tensão aplicada entre o terminal coletor e emissor. Para uma mesma corrente de base, quanto maior a tensão VCE, maior será a tensão VBE. Porém, observe que a tensão VBE pode ser aproximada por 0,7V que é a queda de tensão direta da junção PN diretamente polarizada. Embora a tensão VBE varie em função de IB e VCE, está variação é muito pequena e na maioria dos casos podemos considerar esta aproximação.

Analisando as curvas características de saída do transistor podemos perceber que existem três regiões na qual o circuito pode operar:

Região Ativa: O transistor opera nesta região quando sua função é amplificar um sinal;

Regiões de saturação e corte: O transistor opera nestas regiões quando sua função é de chave eletrônica.

A região na qual o transistor irá operar é determinada pelo circuito de polarização, cuja função é estabelecer o seu ponto de operação através dos valores das correntes IC, IB e a tensão VCE . A figura abaixo mostra o circuito de polarização do transistor na configuração emissor comum com divisor de tensão na base. Este circuito deve ser dimensionado para polarizar o transistor de modo que ele opere na região ativa.

R B 1 R E

VD C

R B 2 R C

Q 1

Figura 6 – Circuito de polarização em emissor comum com divisor de tensão na base.

A polarização por divisor de tensão na base ou polarização universal é um dos métodos mais usados em circuitos amplificadores de tensão. A vantagem desse tipo de polarização é sua estabilidade em relação a variações de temperatura e do ganho de corrente (βCC). O nome divisor de tensão é proveniente do divisor de tensão formado por RB1 e RB2, no qual RB2 polariza diretamente a junção base-emissor.

Para analisar o circuito, é conveniente utilizar o circuito equivalente de Thèvenin do circuito na entrada da base formado pelos resistores RB1 e RB2 como mostra a figura abaixo.

R C

VTH

Q 1R TH

VD C

R E

Figura 7 – Circuito equivalente de Thèvenin.

Aplicando o teorema de Thèvenin no circuito da figura 6, temos:

Vamos obter uma equação para calcular a corrente da base. Aplicando a lei de Kirchhoff para as tensões na malha de entrada, temos:

VTH - RTHIB - VBE - REIE = 0 (eq. 1)

A corrente do emissor pode ser escrita como:

IE=IB+IC

IE=IB+βIB

IE=IB(1+β) (eq. 2)

Substituindo 2 em 1, temos:VTH - RTH IB - VBE - RE IB(1+β) = 0

Page 4: Funcionamento Transistor Emissor Comum

A tensão entre a base e o emissor do transistor é a tensão de uma junção PN diretamente polarizada. Quando estudamos os diodos, vimos que esta tensão pode ser aproximada por 0,7V sem acarretar grandes erros nos cálculos. Portanto, podemos considerar que:

VBE=0,7V

A corrente no emissor pode ser calculada como:IE=IB(1+β)

A corrente no coletor é dada por: IC=IE-IB

A tensão entre coletor e emissor é dada por:

Se considerarmos , temos:

Os valores IB, IE e VCE determinam o ponto de operação do transistor. Este ponto também é chamado de ponto quiescente representado pela letra Q.

O circuito de polarização do transistor deve manter o ponto Q fixo independente de outros parâmetros externos. Veremos agora algumas regras de projeto que fazem com que o ponto de operação do transistor fique posicionado no meio de sua região ativa, proporcionando a máxima excursão do sinal de entrada sem provocar distorções no sinal amplificado.

RB1 0,1CCRE

VE = 0,1VCC

VCE = 0,5VCC

Utilizando estas aproximações, temos as seguintes equações que definem os valores dos resistores de polarização do circuito em função de VCC, IC e βCC.

IE=IC

Para calcular o valor de RB2, podemos analisar a malha indicada no circuito da figura abaixo.

R B 1 R E

VD C

R B 2 R C

Q 1

REDES NEURAIS ARTIFICIAISAs redes neurais artificiais (RNA)

consistem em um método de solucionar problemas relacionados à engenharia e ciências por intermédio de circuitos simples que simulam o cérebro humano, inclusive seu comportamento, ou seja, aprendendo, errando e fazendo descobertas. Além disso, RNA são técnicas computacionais que apresentam um modelo inspirado na estrutura neural de organismos inteligentes e que adquirem conhecimento através da experiência. Uma rede neural artificial pode ter centenas ou milhares de unidades de processamento, enquanto que o cérebro de um mamífero pode ter muitos bilhões de neurônios.

De uma forma geral, a operação de uma célula da rede se resume em:

•Sinais são apresentados à entrada;

•Cada sinal é multiplicado por um peso que indica sua influência na saída da unidade;

•É feita a soma ponderada dos sinais que produz um nível de atividade;

•Se este nível excede um limite (threshold) a unidade produz uma saída.

Assim como o sistema nervoso é composto por bilhões de células nervosas, a rede neural artificial também seria formada por unidades que nada mais são que pequenos módulos que simulam o funcionamento de um neurônio. Estes módulos devem funcionar de acordo com os elementos em que foram inspirados, recebendo e retransmitindo informações.

O modelo de neurônio mais simples e que engloba as principais características de uma rede neural biológica, paralelismo e alta conectividade, foi proposto por McCulloch e Pitts (Haykin, 1994). Conforme mostra a Figura 2, o modelo geral do neurônio artificial pode ser ilustrado por:

1x

2x

px

... )u(g k

saída

thresholdoubias

2kw

kpw

k

somador

Funçãodeativação

Potencialdeativação

kuky

Pesossinápticos

Figura 2. Modelo geral do neurônio artificial

onde:

x1 , x2,... xp são os sinais de entrada.

wk1 , wk2 , ... wkp são os pesos ou conexões sinápticas.

k é o limiar de ativação do neurônio.

uk é a saída do combinador linear.

g(uk) é a função de ativação (limita a saída do neurônio).

yk é o sinal de saída do neurônio.

VRB1 VRE

VBE

Page 5: Funcionamento Transistor Emissor Comum

As equações que descrevem o comportamento do neurônio artificial são dadas por:

(1)

A função de ativação g(.) processa o conjunto de entradas recebidas e o transforma em estado de ativação. Normalmente, o estado de ativação do neurônios pode assumir os seguintes valores:

1) Binários ( 0 e 1 );

2) Bipolares ( -1 e 1 );

3) Reais.

As funções de ativação mais típicas são:a) Função degrau

Nesse tipo de ativação, mostrado na Figura 3, tem-se:

+1

)u(g

u

Figura 3. Função degrau

Então, a saída do neurônio assumirá o valor 1 se o nível de atividade interna total do neurônio for não-negativo, caso contrário a saída do neurônio assumirá o valor 0.

b) Função degrau (bipolar)

Nesse tipo de ativação, mostrado na Figura 4, tem-se:

Figura 4. Função degrau (bipolar)

Então, a saída do neurônio assumirá o valor 1 se o nível de atividade interna total do neurônio for não-negativo, caso contrário a saída do neurônio assumirá o valor -1.

c) Função rampa

Nesse tipo de ativação, mostrado na Figura 5, tem-se:

Figura 5. Função rampa

Para esta função de ativação, a saída do neurônio pode assumir valores positivos e negativos no domínio de -1 a 1, e no intervalo definido no intervalo {-a, a}, a saída assume o valor da função g(u)=u. d) Função sigmóide

Para a função sigmóide, ilustrada na Figura 6, tem-se:

Figura 6. Função sigmóide

Para a função acima, é o parâmetro que define a inclinação (ganho) da função sigmóide. Nesse tipo de função, a saída do neurônio assumirá valores reais entre 0 e 1.

e) Função tangente hiperbólica

Na função de ativação do tipo tangente hiperbólica (Figura 7), tem-se:

Figura 7. Função tangente sigmóide

Para esta função de ativação, a saída do neurônio pode assumir valores reais negativos e positivos no domínio de -1 a 1.

As funções de ativação são escolhidas em função da necessidade do problema que a rede esteja trabalhando.

A maioria dos modelos de redes neurais possui alguma regra de treinamento, onde os pesos de suas conexões são ajustados de acordo com os padrões apresentados. Em outras palavras, elas aprendem através de exemplos. Arquiteturas neurais são tipicamente organizadas em camadas, com unidades que podem estar conectadas às unidades da camada posterior.

Page 6: Funcionamento Transistor Emissor Comum

A rede neural passa por um processo de treinamento a partir dos casos reais conhecidos, adquirindo, a partir daí, a sistemática necessária para executar adequadamente o processo desejado dos dados fornecidos. Sendo assim, a rede neural é capaz de extrair regras básicas a partir de dados reais, diferindo da computação convencional, onde é necessário um conjunto de regras rígidas pré-fixadas e algoritmos.

 

Figura 8.-Organização em camadas.

Conforme apresentado na Figura 8., as camadas de uma rede neural são usualmente classificadas em três grupos:

Camada de Entrada: onde os padrões são apresentados à rede.

Camadas Intermediárias ou Ocultas: onde é feita a maior parte do processamento. Através das conexões ponderadas, estas camadas podem ser consideradas como extratoras de características.

Camada de Saída: onde o resultado final é concluído e apresentado.

Redes neurais são também classificadas de acordo com a arquitetura em que foram implementadas, topologia, características de seus nós, regras de treinamento, e tipos de modelos de neurônio empregado.

Com relação à arquitetura das redes neurais artificiais, tem-se:

a) Redes Feedforward ( Camada Única)

São redes neurais onde tem-se uma camada de entrada e uma única camada de neurônios que é a própria camada de saída (Figura 10). Suas principais aplicações são em memória associativas e no reconhecimento de padrões (Widrow, 1988). Neste tipo de redes, tem-se o modelo do Perceptron e o Adaline.

1x

2x

1y

2y

3y

CAMADADE

ENTRADA

CAMADADE

SAÍDA

Figura 10-Exemplo de Redes Feedforward (Camada Única)

b) Redes Feedforward (Multicamadas)

Este tipo de rede distingue da anterior pela presença de uma ou mais camadas escondidas de neurônios (Figura 11). Por exemplo, os neurônios que recebem sinais de excitação do meio externo estão na camada de

entrada; os neurônios que estão na saída representam a camada de saída e os neurônio intermediários estão nas camadas escondidas. Suas principais aplicações são em reconhecimento de padrões (Jorge, 1999), aproximador universal de funções e em controle (Neto, 1999; Narenda, 1990; Antsaklis, 1992). Neste tipo de redes, tem-se o Madaline, o Perceptron Multicamadas e o de Função Base Radial (RBF).

1x

1y

2yCAMADA

DEENTRADA

CAMADADE

SAÍDA

CAMADASESCONDIDAS

Figura 11-Exemplo de Redes Feedforward (Multicamadas)

c) Redes Recorrentes

São redes que contém realimentação entre neurônios de camadas diferentes (Figura 12). Suas principais aplicações são em sistemas dinâmicos, memória associativas, previsão e estimação, otimização e no controle. Neste tipo de redes, temos o modelo do Hopfiled e o Perceptron com realimentação.

1y

2y

1x

2x

z-1

z-1z-1

Figura 12-Exemplo de Redes Recorrentes

3) TREINAMENTO DE REDES NEURAIS ARTIFICIAIS

Um dos objetivos da pesquisa sobre redes neurais na computação é desenvolver morfologias neurais, baseadas em modelos matemáticos, que podem realizar funções diversas (Haykin, 1994). Na maior parte dos casos, modelos neurais são compostos de muitos elementos não lineares que operam em paralelo e que são classificados de acordo com padrões ligados à biologia.

Do ponto de vista estrutural, a arquitetura de redes neurais pode ser classificada como estática, dinâmica ou fuzzy, constituída ainda de uma única camada ou múltiplas camadas. Além disso, algumas diferenças computacionais surgem também quando se trata da maneira com que são feitas as conexões existentes entres os neurônios. Estas conexões podem ser estritamente no sentido de ida e volta, lateralmente conectadas, topologicamente ordenadas ou híbridas.

A propriedade mais importante das redes neurais é a habilidade de aprender de seu ambiente e com isso

Page 7: Funcionamento Transistor Emissor Comum

melhorar seu desempenho. Isso é feito através de um processo iterativo de ajustes (treinamento) aplicado a seus pesos. O processo de aprendizado encerra quando a rede neural consegue generalizar soluções para uma classe de problemas.

Um algoritmo de aprendizado é composto por um conjunto de regras bem definidas visando à solução de um problema de aprendizado. Existem muitos tipos de algoritmos de aprendizado específicos para determinados modelos de redes neurais. Estes algoritmos diferem entre si principalmente pelo modo como os pesos são modificados.

Todo o conhecimento de uma rede neural está armazenado nas sinapses, ou seja, nos pesos atribuídos às conexões entre os neurônios. De 50 a 90% do total de dados deve ser separado para o treinamento da rede neural, dados estes escolhidos aleatoriamente, a fim de que a rede "aprenda" as regras associadas ao processo. O restante dos dados só é apresentado à rede neural na fase de testes a fim de que ela possa "deduzir" corretamente o inter-relacionamento entre os dados.

As principais formas de aprendizado que estão associados aos processo de ajuste de pesos da rede podem ser divididos em:

Aprendizado Supervisionado: utiliza um agente externo que indica à rede um comportamento bom ou ruim de acordo com o padrão de entrada. A rede é treinada para fornecer a saída desejada em relação a um estímulo de entrada específico. Quando um vetor de entrada é aplicado, a saída da rede é calculada e comparada com o respectivo padrão de saída, a diferença (erro) é então propagada em sentido inverso ao fluxo de informações da rede (das saídas para as entradas) e os pesos são alterados de acordo com algum algoritmo que tende a minimizar o erro. Os vetores de entrada e saída do conjunto de treinamento são aplicados seqüencialmente, e os erros são calculados e os pesos ajustados para cada vetor, até que o erro para o conjunto de treinamento seja aceitável.

Aprendizado Não Supervisionado : não utiliza um agente externo indicando a resposta desejada para os padrões de entrada, utiliza-se entretanto, exemplos de coisas semelhantes para que a rede responda de maneira semelhante. A rede se auto-organiza em relação a alguns subconjuntos de entrada cujos elementos possuem características similares. Os vetores do conjunto de treinamento consistem unicamente de vetores de entrada. O algoritmo de treinamento modifica os pesos da rede para produzir vetores de saída que são consistentes, isto é, vetores do conjunto de treinamento que são similares entre si produzirão o mesmo padrão de saída. Nesse tipo de aprendizagem espera-se que o sistema deva estatisticamente descobrir características e particularidades marcantes da população de entrada. Ao contrário do aprendizado supervisionado, onde não existe um conjunto à priori de categorias dentro do qual os padrões irão ser classificados, o sistema é quem deve desenvolver sua própria representação do estímulo de entrada.

Denomina-se ainda ciclo de aprendizado como sendo uma apresentação de todos os N pares (entrada e saída) do conjunto de treinamento no processo de aprendizado. A correção dos pesos num ciclo pode ser executado de dois modos: pelo modo Padrão, onde a correção dos pesos acontece a cada apresentação à rede de um exemplo do conjunto de treinamento. Cada correção de pesos baseia-se somente no erro do exemplo apresentado naquela iteração. Assim, em cada ciclo ocorrem N correções. Um outro método para apresentação de dados de treinamento é no modo Batch, onde

apenas uma correção é feita por ciclo. Todos os exemplos do conjunto de treinamento são apresentados à rede, seu erro médio é calculado e a partir deste erro fazem-se as correções dos pesos.

Para se efetuar o mapeamento do processo através de redes neurais artificiais, alguns passos devem ser seguidos para a adequada aplicação da abordagem neural. Os principais passos são especificados a seguir:

Passo 1 - Coleta de dados

O primeiro passo do processo de desenvolvimento de redes neurais artificiais é a coleta de dados relativos ao problema. Esta tarefa requer uma análise cuidadosa sobre o problema para minimizar ambiguidades e erros nos dados. Além disso, os dados coletados devem ser significativos e cobrir amplamente o domínio do problema; não devem cobrir apenas as operações normais ou rotineiras, mas também as exceções e as condições nos limites do domínio do problema.

Passo 2 - Separação em conjuntos

Normalmente, os dados coletados devem ser separados em duas categorias: dados de treinamento, que serão utilizados para o treinamento da rede; e dados de teste, que serão utilizados para verificar sua performance sob condições reais de utilização.

Depois de determinados estes conjuntos, eles são geralmente colocados em ordem aleatória para prevenção de tendências associadas à ordem de apresentação dos dados. Além disso, pode ser necessário pré-processar estes dados, através de normalizações, escalonamentos e conversões de formato para torná-los mais apropriados à sua utilização na rede.

Passo 3 - Configuração da rede

O terceiro passo é a especificação da configuração da rede, que pode ser dividido em três etapas:

3.1 Seleção do paradigma neural apropriado à aplicação.

3.2 Determinação da topologia da rede a ser utilizada - o número de camadas, o número de unidades em cada camada, etc.

3.3 Determinação de parâmetros do algoritmo de treinamento e funções de ativação. Este passo tem um grande impacto na performance do sistema resultante.

Existem metodologias na condução destas tarefas. Normalmente parte dessas escolhas são feitas de forma empírica. A definição da configuração de redes neurais é ainda considerada uma arte, que requer grande experiência dos projetistas.

Passo 4 - Treinamento

O quarto passo é o treinamento da rede. Nesta fase, seguindo o algoritmo de treinamento escolhido, serão ajustados os pesos das conexões. É importante considerar, nesta fase, alguns aspectos tais como a inicialização da rede, o modo de treinamento e o tempo de treinamento.

Uma boa escolha dos valores iniciais dos pesos da rede pode diminuir o tempo necessário para o treinamento. Normalmente, os valores iniciais dos pesos da rede são números aleatórios pequenos uniformemente distribuídos, em um intervalo definido.

Page 8: Funcionamento Transistor Emissor Comum

Quanto ao tempo de treinamento, vários fatores podem influenciar a sua duração, porém sempre será necessário utilizar algum critério de parada. Os principais critérios de parada do algoritmo de aprendizagem são o número máximo de ciclos e o erro quadrático médio por ciclo. Pode ocorrer que em um determinado instante do treinamento a generalização comece a degenerar, causando o problema de over-training, ou seja a rede se especializa no conjunto de dados do treinamento e perde a capacidade de generalização.

O treinamento deve ser encerrado quando a rede apresentar uma boa capacidade de generalização e quando a taxa de erro for suficientemente pequena, ou seja menor que um erro admissível.

Passo 5 - Teste

O quinto passo é o teste da rede. Durante esta fase o conjunto de teste é utilizado para determinar a performance da rede com dados que não foram previamente utilizados.

Na próxima seção, descreve-se o algoritmo de treinamento referente ao processo de aprendizagem supervisionado das Redes Perceptron Multicamadas utilizadas nas simulações referidas neste trabalho.

4) REDES PERCEPTRONS MULTICAMADAS

Quando Redes Neurais Artificiais de uma só camada são utilizadas, os padrões de treinamento apresentados à entrada são mapeados diretamente em um conjunto de padrões de saída da rede, ou seja não é possível a formação de uma representação interna (Haykin, 1994). Neste caso, a codificação proveniente do mundo exterior deve ser suficiente para implementar esse mapeamento.

Tal restrição implica que padrões de entrada similares resultem em padrões de saída similares, o que leva o sistema à incapacidade de aprender importantes mapeamentos. Como resultado, padrões de entrada com estruturas similares, fornecidos do mundo externo, que levem a saídas diferentes não são possíveis de serem mapeados por redes sem representações internas, isto é, sem camadas intermediárias. Um exemplo clássico deste caso é a função ou-exclusivo (XOR).

Minsky e Papert (Minsky, 1969) analisaram matematicamente o Perceptron demostraram que redes de uma camada não são capazes de solucionar problemas que não sejam linearmente separáveis. Como não acreditavam na possibilidade de se construir um método de treinamento para redes com mais de uma camada, eles concluíram que as redes neurais seriam sempre suscetíveis a essa limitação.

Contudo, o desenvolvimento do algoritmo de treinamento backpropagation (Rumelhart, 1986), por Rumelhart, Hinton e Williams em 1986, precedido por propostas semelhantes ocorridas nos anos 70 e 80, mostrou que é possível treinar eficientemente redes com camadas intermediárias, resultando no modelo de Redes Neurais Artificiais mais utilizado atualmente, as redes Perceptron Multi-Camadas (MLP), treinadas com o algoritmo backpropagation.

Nessas redes, cada camada tem uma função específica. A camada de saída recebe os estímulos da camada intermediária e constrói o padrão que será a resposta. As camadas intermediárias funcionam como extratoras de

características, seus pesos são uma codificação de características apresentadas nos padrões de entrada e permitem que a rede crie sua própria representação, mais rica e complexa, do problema.

Como provou Cybenko (Cybenko, 1989), a partir de extensões do Teorema de Kolmogorov são necessárias no máximo duas camadas intermediárias, com um número suficiente de unidades por camada, para se produzir quaisquer mapeamentos. Também foi provado que apenas uma camada intermediária é suficiente para aproximar qualquer função contínua.

Treinamento e Simulação da Rede

clc;clear;load AmostraR;N=length(amostraR);a=randperm(N);Rs=amostraR(a,:);Nt=round(3*N/4);Ict=Rs(1:Nt,1);Vcct=Rs(1:Nt,2);Ret=Rs(1:Nt,3);Rct=Rs(1:Nt,4);Rb1t=Rs(1:Nt,5);Rb2t=Rs(1:Nt,6);Ic=Rs(Nt:N,1);Vcc=Rs(Nt:N,2);Re=Rs(Nt:N,3);Rc=Rs(Nt:N,4);Rb1=Rs(Nt:N,5);Rb2=Rs(Nt:N,6);netR=newff([min(Ict) max(Ict);min(Vcct) max(Vcct)],[19 15 4],{'tansig' 'tansig' 'purelin'},'trainlm');netR.initFcn = 'initlay';netR.layers{1}.initFcn='initnw';netR.layers{2}.initFcn='initnw';netR.layers{3}.initFcn='initwb';netR.inputWeights{1}.initFcn = 'rands';netR.biases{1}.initFcn = 'rands';netR.biases{2}.initFcn = 'rands';netR.biases{3}.initFcn = 'rands';netR=init(netR);netR.trainParam.goal=0.001;netR.trainParam.epochs=2000;netR.trainParam.show=5;[netR,tr]=train(netR,[Ict';Vcct'],[Ret';Rct';Rb1t';Rb2t']);Xt=sim(netR,[Ict';Vcct']);X=sim(netR,[Ic';Vcc']);figure(2)plot(Ret,Xt(1,:),Re,X(1,:),'o'); xlabel('real');ylabel('rede');figure(3)plot(Rct,Xt(2,:),Rc,X(2,:),'o'); xlabel('real');ylabel('rede');figure(4)plot(Rb1t,Xt(3,:),Rb1,X(3,:),'o'); xlabel('real');ylabel('rede');

Page 9: Funcionamento Transistor Emissor Comum

figure(5)plot(Rb2t,Xt(4,:),Rb2,X(4,:),'o'); xlabel('real');ylabel('rede');

Figura 1: Treinamento da Rede

Figura 2: Grafico Quali-Quali da Resistência de Emissor

CONCLUSÕESA escolha das redes neurais artificiais como solução para este tipo de problema vem da capacidade que elas têm de assimilar conhecimento a partir de dados comportamentais

Page 10: Funcionamento Transistor Emissor Comum

representativos de seu ambiente e, posteriormente, interagir com ele. Esta técnica computacional, baseada no modelo neural de organismos inteligentes, otimiza as respostas e generaliza situações em problemas de difícil modelagem, como o caso de alguns estágios do projeto de transformadores de potência. É precisamente este fato que vem justificar o desenvolvimento da nova metodologia.

De acordo com diversas estruturas neurais e algoritmos de aprendizagem propostos por vários pesquisadores, redes neurais possuem certas características exclusivas de sistemas biológicos. Sistemas de computação baseados em redes neurais tem a capacidade de receber ao mesmo tempo várias entradas e distribuí-las de maneira organizada. Geralmente, as informações armazenadas por uma rede neural é compartilhada por todas as suas unidades de processamento. Essa característica contrasta com os atuais esquemas de memória dos computadores convencionais, onde a informação fica confinada em um determinado endereço.

Em um sistema de rede neural, a informação pode parecer ter representação redundante, porém, o fato de que ela se encontre distribuída por todos os elementos da rede significa que mesmo se parte da rede seja destruída, a informação contida nesta parte ainda estará presente na rede, e poderá ser recuperada.

O modelo de rede neural tem também muitos neurônios conectados por pesos com capacidade de adaptação que podem ser arranjados em uma estrutura paralela. Por causa deste paralelismo, a falha de alguns neurônios não causam efeitos significantes para a performance de todo o sistema. Esta característica intrínseca das RNA fornece um sistema com grande capacidade de tolerância a falhas.

A característica mais significante de redes neurais está em sua habilidade de aproximar qualquer função contínua não linear. Esta habilidade das redes neurais as tem tornado útil para modelar sistemas não lineares. Esta característica é particularmente importante quando o relacionamento entre as variáveis do processo é não-linear e/ou não bem definido, tornando assim difícil a sua modelagem por técnicas convencionais.

Referências [1] - L. H. Geromel and C. R. Souza, “The application of

intelligent systems in power transformer design,” in Can. Conf. Electrical and Computer Engineering, vol. 1, May 12\\\–15, 2002, pp. 285-290..

[2] - M. Hagan e M. Menhaj; “Training feedforward networks with the Marquardt algorithm”; IEEE Transaction on neural networks; 989-993; Novembro; 1994.