SciELO - Scientific Electronic Library Online

 
vol.14 issue3Redução de perdas em redes de distribuição de energia elétrica através de sistemas classificadoresInterpretação lingüística da operação ótima de uma usina hidroelétrica através de redes neurais nebulosas adaptáveis author indexsubject indexarticles search
Home Pagealphabetic serial listing  

Services on Demand

Journal

Article

Indicators

Related links

Share


Sba: Controle & Automação Sociedade Brasileira de Automatica

Print version ISSN 0103-1759

Sba Controle & Automação vol.14 no.3 Campinas July/Sept. 2003

http://dx.doi.org/10.1590/S0103-17592003000300010 

Alto desempenho na proteção diferencial de transformadores de potência com a utilização de redes neurais artificiais

 

 

Ê. C. Segatto; D. V. Coury; M. C. Tavares; P. E. G. Campos

Depto de Engenharia Elétrica, Universidade de São Paulo, Av. Dr. Carlos de Botelho, 1465, São Carlos (SP) - Brasil, segatto@sel.eesc.sc.usp.br, coury@sel.eesc.sc.usp.br, cristina@sel.eesc.sc.usp.br, guidetti@sel.eesc.sc.usp.br

 

 


RESUMO

Este trabalho apresenta uma técnica alternativa para a proteção de transformadores de potência utilizando a lógica diferencial associada ao uso de Redes Neurais Artificiais (RNAs). Este artifício é utilizado na distinção entre faltas internas e correntes de inrush, que surgem durante a energização do transformador. O programa EMTP-ATP (Electromagnetic Transients Program) foi escolhido como ferramenta computacional para a simulação do transformador de potência com o objetivo de gerar dados de treinamento e testes para as RNAs. Um programa em linguagem FORTRAN foi implementado a fim de avaliar o algoritmo completo da proteção diferencial e resultados promissores relativos ao novo método foram obtidos.

Palavras-chave: Proteção de Sistemas Elétricos, Transformadores de Potência, Proteção Diferencial, Redes Neurais Artificiais (RNAs)


ABSTRACT

This paper presents an alternative approach using the differential logic associated to Artificial Neural Networks for protection of power transformers. Neural networks are used for distinguishing internal faults from inrush currents produced during the transformer energization. The EMTP-ATP software has been chosen as the computational tool to simulate the power transformer in order to generate data to train and test the ANNs. A complete differential protection software was implemented in FORTRAN and encouraging results related to the application of the new method are presented.

Keywords: System Protection, Power Transformers, Differential Protection, Artificial Neural Networks (ANNs)


 

 

1 INTRODUÇÃO

Os transformadores de potência são dispositivos que requerem manutenção e cuidados especiais devido à sua importância para o sistema elétrico no qual eles estão conectados. Geralmente, relés diferenciais são utilizados na proteção primária de transformadores de grande porte. Nestes relés, correntes diferenciais são comparadas a um patamar preestabelecido e, no caso de uma falta interna, o transformador deve ser desconectado do resto do sistema. Entretanto, a simples detecção de uma corrente diferencial não é suficiente para distinguir faltas internas de outras situações que também produzem tais correntes. Algumas destas situações surgem durante a energização do transformador (correntes de inrush), saturação dos TCs (transformadores de corrente), dentre outras ( Horowitz e Phadke, 1992; Bertrand et alii, 1997; Ling e Basak, 1989; Sidhu e Sachdev, 1992), as quais podem originar um incorreto acionamento do disjuntor correspondente. A correta e rápida distinção entre faltas internas e algumas das situações mencionadas consiste em um dos desafios para a atual proteção de transformadores de potência. O método tradicionalmente usado para esta finalidade é a lógica diferencial com restrição harmônica (Rahman e Jeyasurya, 1988). Neste método, a situação de inrush no transformador devido à operação de energização é reconhecida com base no conteúdo do componente de 2a harmônica (acima de 16%) obtido por filtros (Nagpal et alii, 1995; Liu et alii, 1992). Entretanto, este processo pode, em algumas vezes, atrasar a operação da proteção. Além disso, componentes de 2a harmônica podem também estar presentes durante faltas internas (Pihler et alii, 1997; Kolla, 1995).

Novos métodos têm sido estudados nos últimos anos, buscando um melhoramento na seletividade, sensibilidade e operação de relés diferenciais, tais como as Redes Neurais Artificiais (RNAs) e a lógica Fuzzy. Diferentes arquiteturas são apresentadas na literatura com bons resultados (Mao et alii, 1998; Bastard et alii, 1995; Perez et alii, 1994).

Este trabalho apresenta um método alternativo utilizando a lógica diferencial associada às Redes Neurais Artificiais com o objetivo de melhorar o desempenho da proteção de transformadores de potência. Em relação à arquitetura proposta, pôde ser observado um melhoramento na capacidade de distinção entre correntes provenientes de faltas internas e de magnetização (inrush), bem como na velocidade de resposta, se comparadas aos métodos similares existentes na literatura. Neste trabalho, o EMTP-ATP é usado no modelamento do transformador para a geração de dados empregados no treinamento e testes das redes neurais. Resultados bastante encorajadores relativos à nova metodologia são apresentados.

 

2 A PROTEÇÃO DIFERENCIAL PERCENTUAL

Como mencionado anteriormente, a lógica diferencial é utilizada na proteção de grandes transformadores de potência e a mesma é ilustrada na figura 1 a seguir. A ilustração também mostra a conexão dos TCs aos ramos primário e secundário do transformador. N1:N2 é a relação de espiras entre os enrolamentos primário e secundário do transformador e 1:n1 e 1:n2 são as relações de espiras entre os ramos e os TCs, selecionados para fazer N1n1=N2n2. Sob condições normais e de faltas externas a um transformador monofásico, as correntes i1S e i2S (correntes secundárias dos TCs) são iguais.

 

 

Porém, no caso de faltas internas, a diferença entre estas correntes torna-se significativa, causando a atuação do relé de sobrecorrente. Portanto, a corrente diferencial

fornece uma medida precisa da corrente de falta.

A fim de corrigir erros introduzidos pelos TCs e pelas mudanças de tap do transformador, um patamar é fixado para que uma pequena corrente diferencial possa ser tolerada, sem desconectar o sistema (Grcar e Dolinar, 1994). Essa relação é mostrada na equação 2.

onde K é a inclinação da característica diferencial.

A figura 2 mostra a característica diferencial do relé incluindo as zonas de operação e restrição. São apresentados alguns ajustes para K (15%, 25% e 40%). CO' é um patamar usado quando uma condição de sobrexcitação é detectada.

 

 

Como já citado, certos fenômenos podem causar uma corrente diferencial considerável, mesmo sem existir uma situação de falta e estes falsos sinais são geralmente suficientes para causar o acionamento do relé. Entretanto, nestes casos, a proteção diferencial não deveria desconectar o sistema porque uma falta interna não estaria caracterizada.

A seguir é descrita uma das principais situações geradoras deste problema.

2.1 Corrente de Magnetização na Energização

Correntes de magnetização (inrush) surgem durante a energização do transformador devido à magnetização e saturação de seu núcleo. A declividade da característica de magnetização na área saturada determina sua magnitude. Em transformadores modernos, altas correntes de inrush podem surgir (Horowitz e Phadke, 1992; Verma e Basha, 1986). Como o lado secundário está aberto na energização do transformador, a corrente diferencial pode alcançar valores suficientemente altos, originando uma operação indevida do relé. A modelagem de tal situação tem sido estudada, mostrando a predominância do componente de 2a harmônica.

Alguns outros fenômenos que podem originar falsas correntes diferenciais são correntes de magnetização ocorridas mediante a remoção de uma falta externa, sobrexcitação do transformador e saturação dos TCs.

 

3 REDES NEURAIS ARTIFICIAIS

A rede de neurônios artificiais foi inspirada no pouco que o homem já conhece sobre o cérebro humano. O mesmo possui as características de robustez, tolerância à falhas, capacidade de ajuste a novos ambientes pelo treinamento, potencial para processar informações ruidosas, além de alta velocidade de processamento. As transmissões e recepções entre neurônios acontecem por aumento ou diminuição do potencial elétrico na célula receptora. O primeiro modelo artificial de um neurônio biológico foi fruto do trabalho pioneiro de Warren McCulloch e Walter Pitts (McCulloch e Pitts, 1943). No trabalho publicado em 1943, foi apresentada uma discussão sofisticada de redes lógicas de nodos, com atenção voltada para os métodos de aprendizado. O primeiro trabalho específico sobre o aprendizado de redes artificiais foi proposto por Donald Hebb (Hebb, 1949). Hebb mostrou como a plasticidade da aprendizagem de redes neurais é conseguida através da variação dos pesos de entrada dos nodos, propondo uma teoria para explicar o aprendizado baseada no reforço das ligações entre os nós excitados. Mais tarde, Widrow e Hoff (Widrow e Hoff, 1960) sugeriram uma regra de aprendizado conhecida como regra delta, que é sustentada no método do gradiente para minimização do erro na saída de um neurônio com resposta linear. Em 1958, Frank Rosenblatt demonstrou seu modelo chamado Perceptron, no qual, se fossem acrescidas de ligações ajustáveis, as RNAs poderiam ser treinadas para classificar certos tipos de padrões, propondo ainda um algoritmo para treinar a rede e executar determinados tipos de funções (Rosenblatt, 1958). Em 1969, Minsky e Papert chamaram a atenção para algumas tarefas que os atuais modelos não eram capazes de realizar, já que só resolviam problemas linearmente separáveis, ou seja, problemas cuja solução pode ser obtida dividindo-se o espaço de entrada em duas regiões através de uma reta (Minsky e Papert, 1969). Nos anos 70, a abordagem conexionista ficou adormecida, com poucos pesquisadores trabalhando na área. Finalmente em 1982, John Hopfield publicou um artigo (Hopfield, 1982) que chamou a atenção das propriedades associativas das RNAs. Este trabalho foi responsável por parte da retomada das pesquisas na área. Não obstante, a descrição do algoritmo de treinamento Backpropagation alguns anos mais tarde (Rumelhart, Hinton e Williams, 1986), mostrou que as visões anteriores sobre o Perceptron eram bastante pessimistas. As RNAs de múltiplas camadas são, sem dúvida, capazes de resolver problemas ''difíceis de aprender''. A partir de meados da década de 80 houve nova explosão de interesse pelas redes neurais artificiais na comunidade internacional. Um outro fator foi responsável pela retomada de interesse na área: o avanço da tecnologia, que vem permitindo a realização física de modelos de nodos e sua interconexão de modo antes impensável. (Carvalho et alii, 1998)

Em relação ao funcionamento das RNAs, um modelo de neurônio artificial binário com limiar unitário foi portanto proposto inicialmente, no qual as entradas do neurônio são ponderadas pelos seus pesos com as saídas da célula anterior ou com os sinais de entrada da rede e que possui estado de ativação definido unicamente por uma função degrau. Mais tarde, implementou-se um modelo de RNA que consiste de um conjunto de células conectadas e com uma regra de propagação. Cada neurônio recebe suas entradas com os pesos associados, vindas de outros neurônios ou de estímulo externo. A função de ativação é usualmente uma somatória agindo nas entradas da rede. Os valores bias de oposição são adicionados à somatória das entradas com pesos. O estado de ativação do neurônio é determinado pela função de saída ou de transferência e geralmente é uma função sigmodal. A saída do neurônio chega, pelas sinapses, até a próxima célula. Portanto, uma RNA completa é formada por um conjunto de neurônios dispostos em uma ou mais camadas, conectados por ligações de pesos variados. A rede Feedforward tem a propagação do sinal para frente, entre células de camadas adjacentes, até a última camada (saída) (SNNS User Manual, 1995). Na fase de treinamento da rede, há a determinação e a correção dos pesos e dos bias, para que a mesma responda de forma desejada. Uma rede neural completa é mostrada na figura 3.

 

 

A figura 3 mostra uma rede neural de três camadas, onde:

X =vetor de dados de entrada
= matriz de valores de peso associados a cada entrada i e a cada camada m
= função de transferência sigmoidal de cada unidade, associada a certa camada m

= unidades bias
d = saída desejada da rede para cada entrada
y = saída fornecida pela rede neural para cada entrada

A entrada para um dado neurônio i, com seus pesos correspondentes de uma certa camada m, é definida como:

A saída do neurônio i na camada m é definida como:

Ainda, y(m) = X(m + 1) , ou seja, a entrada da próxima camada é a saída da camada anterior. Existe um vetor de saídas y para cada vetor de entradas X. Os pesos w e bias b são atualizados para cada célula, até obter-se o critério de parada do treinamento (erro aceitável alcançado). A RNA empregada utilizou o método de treinamento Backpropagation que realiza a busca por um erro aceitável.

Este erro é dado por:

Este valor é calculado para as células de saída da rede.

O objetivo deste algoritmo de treinamento é minimizar o erro de saída para cada vetor de entrada, ou seja, minimizar a distância quadrática entre as saídas desejadas e calculadas. A estrutura de processamento paralelo de informação permite a inclusão de conhecimento hábil no processo, a detecção e a classificação de sinais. A característica da RNA é, então, considerar o conhecimento adquirido durante o treinamento e responder a novos dados de entrada da maneira mais apropriada, concluindo assim, uma generalização do problema. A arquitetura da rede neural é definida pelos pesos correspondentes e esquema de conexões. Já o processo de aprendizagem envolve a mudança nos valores dos pesos, sendo o aspecto mais explorado em redes neurais artificiais.

3.1 O Método Backpropagation

O método de treinamento utilizado neste trabalho é denominado Backpropagation (Rumelhart e McClelland, 1986) e funciona pelo ajuste de valores de pesos que estão associados às conexões das sucessivas camadas de uma rede MLP (Multi-Layer Perceptrons) (Hertz et alii, 1991). O algoritmo fornece uma forma de definir o erro dos nodos das camadas intermediárias para a mudança nos pesos em uma rede feedforward (propagação dos sinais para frente). Esta rede é treinada através do fornecimento de padrões de entrada e de saída desejada. A maioria dos métodos de aprendizado para RNAs do tipo Perceptron de múltiplas camadas utilizam variações deste algoritmo. Embora a popularização deste procedimento tenha surgido a partir de 1986, ele foi proposto muito antes, com diferentes propósitos, por diferentes pesquisadores. (Bryson e Ho, 1969 ; Werbos, 1974 ; Parker, 1985 ; Le Cun, 1985).

O algoritmo Backpropagation é supervisionado, ou seja, a entrada e saída desejadas para a rede são fornecidas por um supervisor externo. O objetivo é, através de um mecanismo de correção de erros, ajustar os parâmetros (pesos) da rede, de forma a encontrar uma ligação entre os pares de entrada e saída fornecidos. O treinamento ocorre em duas fases, onde cada fase percorre a rede em um sentido. Estas duas fases são chamadas de forward e backward. A fase forward é utilizada para definir a saída da rede para um dado padrão de entrada. A fase backward utiliza a saída desejada e a saída fornecida pela rede para atualizar os pesos de suas conexões a cada iteração.

 

4 O ALGORITMO DE PROTEÇÃO DIFERENCIAL PROPOSTO

A figura 4 mostra o algoritmo proposto para o relé diferencial. O passo inicial do algoritmo calcula a corrente diferencial e verifica sua magnitude. Para tanto, a característica diferencial percentual do tipo apresentado na figura 2 é usada. Se uma corrente diferencial significativa é obtida, o algoritmo utiliza uma subrotina baseada em RNAs a fim de distinguir faltas internas de correntes de inrush. No caso da detecção de uma falta interna, um contador é incrementado e, após atingir um limite prefixado, é enviado um sinal de desligamento ao disjuntor.

 

 

Similarmente à detecção de correntes de inrush, a condição de sobrexcitação do transformador também pode ser detectada por RNAs. Esta subrotina está atualmente sendo implementada pelos autores.

 

5 A SIMULAÇÃO DO SISTEMA ELÉTRICO

5.1 O Sistema Elétrico Utilizado

A figura 5 mostra a representação do sistema elétrico simulado pelo programa EMTP-ATP (Coury et alii, 1998; Alternative Transients Program Rule Book, 1987; Kasztenny et alii, 1995).

 

 

O sistema é composto de um equivalente de geração de 138 kV e 30 MVA, um transformador de 138/13,8 kV e 25 MVA, uma linha de transmissão de 5 km seguida de uma carga de 10 MVA e fator de potência 0,92 indutivo.

O transformador trifásico é conectado em configuração delta/estrela e seu modelo no EMTP-ATP foi implementado utilizando-se três transformadores monofásicos.

O modelo utilizado para representar faltas internas é ilustrado na figura 6. As simulações de falta são obtidas dividindo-se os enrolamentos e as impedâncias de acordo com as porções onde as faltas seriam aplicadas.

 

 

A tabela 1 apresenta os valores relativos à curva de saturação utilizada na simulação do transformador de potência, fornecida pela CPFL - Companhia Paulista de Força e Luz, correspondente ao transformador utilizado.

 

 

A figura 7 e a figura 8 mostram as principais situações envolvidas no treinamento das RNAs. A figura 7 representa um caso de energização no qual o transformador é conectado em 6 ms nas três fases.

 

 

 

 

A figura 8 mostra uma falta interna em 10% do enrolamento do transformador ocorrida em 10 ms com carga de 10 MVA. Pode ser observado visualmente que as referidas ondas possuem características bastante distintas, sendo muito propícia a utilização de RNAs para diferenciá-las.

A tabela 2 mostra a combinação de valores para os casos de falta interna simulados com o objetivo de treinar a RNA. A tabela 3 ilustra esta combinação para os casos de energização. Um total de 270 casos foram simulados para cada situação.

 

 

 

 

Após o processo de simulação no programa EMTP-ATP, os dados foram organizados a fim de serem empregados na etapa de treinamento, descrito mais detalhadamente na próxima seção.

Deve ser mencionado ainda, que casos de falta externa, remoção de falta externa e rejeição de carga também foram simulados com o objetivo de testar o algoritmo proposto. Os resultados são apresentados na seção 7.

 

6 A REDE NEURAL ARTIFICIAL DISTINGUINDO FALTAS INTERNAS DE CORRENTES DE INRUSH

O programa SNNS - Stuttgart Neural Network Simulator (SNNS User Manual, 1995) foi utilizado para treinar e testar as diferentes arquiteturas, a fim de distinguir faltas internas de correntes de inrush. O SNNS foi escolhido devido à sua comprovada eficiência e simplicidade, bem como a amigável interface gráfica. O método de aprendizagem utilizado durante o treinamento da RNA foi o algoritmo Backpropagation com o termo Momentum.

A fórmula geral de correção de erros utilizada neste método é mostrada a seguir.

onde:

a = taxa de aprendizagem.
m = termo Momentum, especifica o quanto o peso anterior é alterado, sendo adicionado à variação corrente.
yj = saída desejada para o neurônio j.
dj = erro para o neurônio j.
Dwij = correção do peso entre o neurônio i e o neurônio j.
k = valor da iteração.

6.1 O Processo de Treinamento

Após a simulação dos dados, estes foram divididos em conjuntos de treinamento, validação e testes. Um total de quatro amostras por fase das correntes diferenciais foram utilizadas no treinamento com freqüência amostral de 1 kHz. Ainda, para cada fase, uma janela de dados móveis foi empregada. Aos casos de faltas internas, associou-se a saída 1,0 e aos casos de correntes de inrush, a saída 0,0.

As três janelas de dados móveis para a fase A são: Primeira janela - iA1, iA2, iA3, iA4
Segunda janela - iA2, iA3, iA4, iA5
Terceira janela - iA3, iA4, iA5, iA6
onde iA1, iA2, iA3, iA4, iA5 e iA6 são os valores discretos de corrente diferencial da fase A.

O procedimento é similar para as fases B e C. Um total de 1620 padrões de entrada (540x3 janelas) foram simuladas para o treinamento da rede neural, onde 810 casos correspondem a faltas internas e outros 810 correspondem a situações de energização.

Várias topologias diferentes de redes MLP foram treinadas e testadas e será apresentada aqui a melhor arquitetura obtida, de configuração 12+3+1. Esta arquitetura possui 12 neurônios na primeira camada (12 sinais de entrada de corrente em cada padrão), 3 neurônios na camada oculta e 1 neurônio na camada de saída, como mostrado na figura 9. O processo de aprendizagem convergiu em aproximadamente 20000 ciclos. Este procedimento de treinamento é executado apenas uma vez e uma capacidade de generalização da RNA é esperada. O termo Momentum foi mantido em 0,1 e o erro quadrático médio não ultrapassou o valor 0,00052.

 

 

Com relação às saídas da RNA, valores entre 0,0 e 0,1 foram associados às situações de energização do transformador, enquanto valores entre 0,9 e 1,0 foram associados aos casos de falta interna.

6.2 Resultados Obtidos

A figura 10 mostra o gráfico de respostas da camada de saída da rede, para 810 padrões testados, fornecendo valores zero ou um, dependendo da situação testada. É importante salientar que os 810 padrões utilizados nos testes das RNAs não foram empregados na etapa de treinamento das mesmas.

 

 

Deve ser notado que, da amostra número 1 até a amostra número 405, a rede apresenta resultados menores que 0,1 porque este intervalo contém dados de energização. Por outro lado, da amostra número 406 à amostra número 810, os valores são muito próximos a 1, devido a este intervalo conter dados de falta interna. A rede neural analisada confirmou a correta classificação de todos os padrões testados.

As tabelas 4, 5, 6 e 7 também indicam a eficiência do método. Com relação aos dados de energização do transformador, a tabela 4 e a tabela 5 indicam as saídas da RNA para diferentes tempos de fechamento das chaves relativas às fases, bem como para diferentes tensões de operação. Nota-se nesses resultados, que as respostas fornecidas pela RNA foram bem próximos ao valor 0 (zero), o valor esperado para a saída da rede neural nos casos de energização.

 

 

 

 

 

 

 

 

A tabela 6 e a tabela 7 ilustram as saídas da RNA para faltas internas em 10% e 90% do enrolamento do transformador respectivamente, para diferentes ângulos de incepção da falta e condições de falta. Nota-se nesses resultados, que as respostas fornecidas pela RNA foram bem próximos ao valor 1 (um), o valor esperado para a saída da rede neural nos casos de falta interna. Todas as tabelas apresentam também as saídas da rede para cada uma das três consecutivas janelas de dados móveis.

As redes neurais apresentaram 100% de precisão na distinção entre faltas internas e correntes inrush para os 810 casos testados.

 

7 RESULTADOS GERAIS DO ESQUEMA PROPOSTO

Para testar o esquema completo de proteção diferencial proposto, implementou-se um programa em linguagem FORTRAN, simulando o algoritmo do relé diferencial. O método utiliza a RNA para a discriminação do sinal diferencial, considerando inicialmente a primeira janela de dados. A fim de obter maior precisão na resposta, uma segunda janela de dados é usada para a confirmação da resposta anterior. A tabela 8 mostra o desempenho do relé para uma falta interna em 10% do enrolamento do transformador. Esta tabela indica o tempo gasto pelo algoritmo na detecção da corrente diferencial, classificação pela RNA, bem como o tempo total gasto para gerar o sinal de trip.

 

 

A tabela 9 ilustra os tempos gastos pelo relé detectando situações de energização do transformador. Deve ser enfatizado que, para este caso, nenhum sinal de trip foi produzido. A tabela 10 mostra casos relacionados a faltas externas monofásicas e a tabela 11 ilustra os casos correspondentes às faltas externas trifásicas. Observa-se que nenhuma corrente diferencial foi detectada pelo relé nestes casos. A mesma resposta foi obtida para os casos de remoção de falta externa monofásica (tabela 12), remoção de falta externa trifásica (tabela 13) e casos de rejeição de carga (tabela 14), atestando a eficiência do algoritmo proposto.

 

 

 

 

 

 

 

 

 

 

 

 

8 CONCLUSÕES

Através de observações teóricas e experimentais em publicações na área, destaca-se a especial atenção necessária à detecção da corrente de magnetização (inrush) em sistemas de proteção de transformadores de potência. As eventuais falhas na proteção digital de transformadores ocorrem principalmente devido à inabilidade dos algoritmos atuais em diferenciar precisamente situações faltosas de situações de energização. Este trabalho desenvolve um mecanismo de detecção de correntes de inrush através da diferenciação entre sua forma de onda e a da corrente de falta interna. Isto é conseguido adicionando-se elementos de inteligência artificial ao algoritmo de proteção digital pela utilização de uma rede neural artificial.

Após o processo de treinamento e testes das redes neurais, a melhor estrutura obtida e apresentada neste trabalho a fim de diferenciar as correntes de inrush daquelas de faltas internas ao transformador foi a rede de topologia 12+3+1, conseguindo convergência mais rápida e resultados de testes precisos. Várias redes neurais distinguiram com exatidão as situações onde o relé deveria ou não operar, isto é, os casos de falta interna ao transformador ou os casos de energização, com 100% de acertos, porém a rede de topologia 12+3+1 foi escolhida por ser a de estrutura mais simples. Foi ainda aplicado um estudo sobre o algoritmo de operação do relé com a inclusão da rede neural artificial escolhida, em substituição ao processo de filtragem para a obtenção do conteúdo harmônico do sinal, avaliando o funcionamento total do dispositivo. O sistema obteve respostas corretas para os vários tipos de situações testadas, contando com uma classificação rápida e precisa por parte da RNA. Com relação ao programa SNNS, a maior limitação encontrada por esta ferramenta foi a dificuldade em aplicar-se os algoritmos de treinamento com parâmetros variáveis no decorrer do processo usando-se apenas a interface gráfica do simulador de redes neurais. Isto foi superado pela obtenção de estruturas neurais de rápida convergência e, assim, não foi necessária nessa etapa a variação de parâmetros tais como a taxa de aprendizagem e o termo Momentum. Com isso, acompanhou-se a característica de decaimento dos erros de aprendizagem para as estruturas estudadas, observando-se que as respostas das redes para os conjuntos de testes apresentados não demonstraram erros de classificação. De forma geral, conclui-se que o método desenvolvido mostrou-se eficiente em busca do objetivo proposto. Um maior complemento do trabalho será ainda conseguido quando dados gerados pelo ATP forem substituídos por valores reais captados através de ensaios em transformadores e a elaboração de um protótipo do relé for iniciada. O efeito de saturação dos dispositivos transformadores de corrente (TCs) poderá constituir parte de estudos futuros.

A aplicação da ferramenta redes neurais artificiais constitui uma nova e importante etapa na metodologia de análise de relés diferenciais na busca de um melhor desempenho da proteção de transformadores de potência.

 

REFERÊNCIAS

Alternative Transients Program Rule Book (1987), Leuven EMTP Center.         [ Links ]

Bastard, P.; Meunier, M. and H. Regal (1995). Neural Network-based Algorithm for Power Transformer Differential Relays. IEE Proceedings on Generation, Transmission and Distribution, Vol.142, n.4, pp. 386-392.         [ Links ]

Bertrand, P.; Martin, E. and M. Guillot (1997). Neural Networks: A Mature Technique for Protection Relays. IEE Conference Publication, n.438, pp. 1.22.1-1.22.5.         [ Links ]

Bryson, A.E. and Y. Ho (1969). Applied Optimal Control, Blaisdell.         [ Links ]

Carvalho, A.C.P.L.F. ; Braga, A.P. and T.B. Ludermir (1998), Fundamentos de Redes Neurais Artificiais, XI Escola Brasileira de Computação.         [ Links ]

Coury, D.V.; Campos, P.G. and M.C. Tavares (1998). Modelling a Power Transformer for Investigation of Digital Protection Schemes. 8th International Conference on Harmonics and Quality of Power (ICHQP'98), pp. 489-494.         [ Links ]

Cun, Y. Le (1985). A Learning Procedure for Assymetric Threshold Network. Proceedings of Cognitiva 85, pp. 599-604.         [ Links ]

Grcar, B. and D. Dolinar (1994). Integrated Digital Power Transformer Protection. IEE Proceedings on Generation, Transmission and Distribution, vol.141, n.4, pp. 323-328.         [ Links ]

Hebb, D. O (1949). The Organization of Behavior, Wiley.         [ Links ]

Hertz, J.; Krogh, A. and R.G. Palmer (1991). Introduction to the Theory of Neural Computation, Adison-Wesley Pub. Co.         [ Links ]

Hopfield, J. J. (1982). Neural Networks and Physical Systems with Emergent Collective Properties. Proceedings of the National Academy of Sciences, n.79, pp. 2554-2558.         [ Links ]

Horowitz, S.H. and A.G. Phadke (1992). Power System Relaying. John Wiley e Sons Inc.         [ Links ]

Kasztenny, B.; Rosolowski, E.; Saha, M.M. and B. Hillstrom (1995). A Power Transformer Model for Investigation of Protection Schemes. International Conference on Power Systems Transients (Sept.), pp. 136-141.         [ Links ]

Kolla, S.R. (1995). Digital Protection of Power Transformers Using Artificial Neural Networks. Proceedings of 2nd International Conference on Advances in Instrumentation and Control, pp. 141-150.         [ Links ]

Ling, P.C.Y. and A. Basak (1989). A New Detection Scheme for Realisation of Magnetising Inrush Current in Transformers. Fourth International Conference on Developments in Power System Protection , pp. 239-243.         [ Links ]

Liu, P.; Malik, O.P.; Chen, D.; Hope, G.S. and Y. Guo (1992). Improved Operation of Differential Protection of Power Transformers for Internal Faults. IEEE Transactions on Power Delivery, vol.7, n.4, pp. 1912-1919.         [ Links ]

Mao, P.L.; Bo, Z.Q.; Aggarwal, R.K. and R.M. Li (1998). Identification of Electromagnetic Transients in Power Transformer System Using Artificial Neural Network. Proceedings of the 1998 International Conference on Power System Technology, Vol.2, pp. 880-884.         [ Links ]

McCulloch, W. S. and W. Pitts (1943). A Logical Calculus of the Ideas Immanent in Nervous Activity. Bulletin of Mathematical Biophysics, n.5, pp. 115-133.         [ Links ]

Minsky, M. and S. Papert (1969). Perceptrons: an Introduction to Computational Geometry. MIT Press, Massachussets.         [ Links ]

Nagpal, M.; Sachdev, M.S.; Ning, K. and L.M. Wedephol (1995). Using a Neural Network for Transformer Protection. Proceedings of the 1995 International Conference on Energy Management and Power Delivery, Part 2, pp. 674-679.         [ Links ]

Parker, D. (1985). Learning Logic: Casting the Cortex of the Human Brain in Silicon. Technical Report, Center for Computational Research in Economics and Management Science, MIT.         [ Links ]

Perez, L.G., Flechsig, A.J., Meador, J.L. and Z. Obradovic (1994). Training an Artificial Neural Network to Discriminate Between Magnetizing Inrush and Internal Faults. IEEE Transactions on Power Delivery, Vol.9, n.1, pp. 434-441.         [ Links ]

Pihler, J.; Grcar, B. and D. Dolinar (1997). Improved Operation of Power Transformer Protection Using Artificial Neural Network. IEEE Transactions on Power Delivery, Vol.2, n.13, pp. 1128-1136.         [ Links ]

Rahman, M.A. and B. Jeyasurya (1988). A State-of-the-art Review of Transformer Protection Algorithms. IEEE Transactions on Power Delivery, vol.3, n.2, pp. 534-544.         [ Links ]

Rosenblatt, F. (1958). The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain. Psychol. Rev. , n.65, pp. 386-408.         [ Links ]

Rumelhart, D. E. and J. L. McClelland (1986). Parallel Distributed Processing, vol.1, The MIT Press.         [ Links ]

Rumelhart, D. E., Hinton, G. E. and R. J. Williams (1986). Learning Representations by Back-propagation Errors, Nature, n.323, pp. 533-536.         [ Links ]

Sidhu, T.S. and M.S. Sachdev (1992). On-line Identification of Magnetizing Inrush and Internal Faults in Three-Phase Transformers. IEEE Transactions on Power Delivery, vol.7, pp. 1885-1891.         [ Links ]

SNNS User Manual (1995). Institute for Parallel and Distributed High Performance Systems, University of Stuttgard.         [ Links ]

Verma, H.K. and A.M. Basha (1986). A Microprocessor-based Inrush Restrained Differential Relay for Transformer Protection. Journal of Microcomputer Applications, pp. 313-318.         [ Links ]

Werbos, P. (1974). Beyond Regrssion: New Tools for Prediction and Analysis in the Behavioral Sciences, PhD thesis, Harvard University.         [ Links ]

Widrow, B. and M. E. Hoff (1960). Adaptative Switching Circuits. Institute of Radio Engineers, Western Electronic Show and Convention.         [ Links ]

 

 

Artigo submetido em 9/2/2001
1a. Revisão em 7/11/2001; 2a. Revisão em 8/8/2002;
3a. Revisão em 25/9/2002
Aceito sob recomendação do Ed. Assoc. Prof. Denizar C. Martins

Creative Commons License All the contents of this journal, except where otherwise noted, is licensed under a Creative Commons Attribution License