Acessibilidade / Reportar erro

Redes neurais artificiais para engenharia e ciências aplicadas: curso prático

RESENHA DE LIVRO

Redes neurais artificiais para engenharia e ciências aplicadas: curso prático

Fernando A. Gomide

DCA-FEEC-Unicamp Av. Albert Einstein 400 - Cid. Universitária Zeferino Vaz Cep. 13083-852 Campinas-SP Brasil. gomide@dca.fee.unicamp.br

da Silva, I.N., Spatti D., e Flauzino, R. (2010). Redes neurais artificiais para engenharia e ciências aplicadas: curso prático, Artliber Editora Ltda, São Paulo, SP, Brasil. ISBN978-85-88098-53-4.

1 INTRODUÇÃO

De acordo com os autores, a obra tem o propósito de responder as seguintes perguntas: O que são redes neurais? Para que servem? Por que usar redes neurais artificiais? Quais são as suas potencialidades de aplicações práticas? Quais tipos de problemas podem solucionar? Para isso, ainda de acordo com os autores, o livro usa uma linguagem acessível e tem um formato didático diferenciado para que possa ser apreciado por profissionais, estudantes e pesquisadores que estão motivados pelos assuntos envolvidos com redes neurais artificiais. Em particular, esperam que o material possa ser utilizado como livro texto em disciplinas de graduação e pós-graduação sobre redes neurais artificiais.

De fato, o livro atinge seus propósitos de esclarecer o que são redes neurais artificiais e ilustrar suas aplicações com exemplos de áreas distintas através da exposição das principais estruturas de redes neurais e algoritmos de aprendizagem. Com um estilo direto e mirando em aplicações práticas, o texto exige o mínimo de conhecimento teórico de seus leitores. O conteúdo de cursos de cálculo e álgebra linear, típicos nas áreas de engenharia, ciências exatas, ciência de computação e economia, devem ser suficientes para que o leitor compreenda, implemente os modelos apresentados e desenvolva suas próprias aplicações.

2 CONTEÚDO E ESTRUTURA DO LIVRO

O livro se divide em duas partes, cada uma delas composta por dez capítulos. A primeira parte trata de arquiteturas de redes neurais e seus aspectos teóricos, isto é, os modelos de neurônios artificiais e a organização destes neurônios em redes neurais. Após uma introdução com um resumo da história da área, uma discussão sobre as similaridades e diferenças entre neurônios biológicos e artificiais, os capítulos seguintes detalham as arquiteturas de redes neurais artificiais e os respectivos algoritmos de aprendizagem. Além de estruturas clássicas estáticas de uma ou mais camadas, tem também espaço as estruturas recorrentes e reticuladas. Algoritmos de aprendizagem supervisionados, não supervisionados e com reforço formam o arcabouço dos processos de treinamento. Todos os capítulos da primeira parte terminam com uma lista de exercícios. A segunda parte, por sua vez, trata de aplicações em domínios tão distintos quanto qualidade de café e tráfego em redes de computadores, passando por previsão em mercado de ações, adulteração em pó de café, diagnóstico de doenças, qualidade de energia elétrica, visão computacional, robôs móveis, classificação e otimização.

2.1 Primeira parte

Mais detalhadamente, os dez capítulos que compõem a primeira parte são os seguintes.

O Capítulo 1 - Introdução, aborda conceitos iniciais, inserindo redes neurais no contexto de modelos computacionais bioinspirados, as características de adaptação, aprendizagem, generalização, etc., junto com um resumo histórico e uma visão geral das grandes áreas de aplicação. Este capítulo também comenta sobre os neurônios biológicos e modelos de neurônios artificiais e suas funções de ativação.

O Capítulo 2 - Arquiteturas de redes neurais artificiais e processos de treinamento, trata de arquiteturas diretas (feedforward) e recorrentes com camadas simples e múltiplas, assim como estruturas reticuladas. A seguir o capítulo conceitua os métodos de treinamento supervisionado, não supervisionado e por reforço, assim como aprendizagem usando um lote de padrões e padrão a padrão.

O Capítulo 3 - Rede Perceptron, apresenta o perceptron, talvez o modelo mais simples de um neurônio artificial. Embora o capítulo tenha a palavra Rede em seu título, basicamente ele estuda o perceptron, um mecanismo para seu treinamento e como ele funciona. A análise matemática se reduz a uma interpretação do perceptron como um classificador linear. A convergência do algoritmo de aprendizagem não é analisada. Além dos exercícios, o capítulo oferece uma proposta de projeto prático no âmbito de destilação fracionada.

O Capítulo 4 - Rede Adaline e regra Delta, concentra no combinador linear, sugerido por Widrow e seus colaboradores, e em um método de aprendizagem formulado como um problema de otimização do erro quadrático médio. O combinador linear é comparado com o perceptron, enfatizando suas similaridades e diferenças na aprendizagem. Este capítulo também oferece um projeto prático sobre gerenciamento automático de válvulas, atuadores que fazem parte de sistemas de supervisão e controle de processos industriais.

O Capítulo 5 - Redes Perceptron multicamadas, detalha redes neurais feedforward com camadas múltiplas de neurônios e o algoritmo de propagação retroativa (backpropagation). Redes recorrentes com realimentação de saída, ou redes de Jordan (ao invés de Elman, conforme mencionado no texto) também são comentadas, mas sem o respectivo algoritmo de aprendizagem. O capítulo prossegue discutindo métodos de validação cruzada para a etapa de treinamento, os fenômenos de sobre-ajuste (overfitting) and sub-ajuste (underfitting), assim como orientações para o desenvolvimento de aplicações. Este capítulo termina com propostas de três projetos envolvendo regressão, classificação e processamento temporal, respectivamente.

O Capítulo 6 - Redes de funções de base radial, considera uma classe particular de redes com arquitetura feedforward com uma única camada intermediária e neurônios artificiais cuja função de ativação são Gaussianas. O algoritmo de treinamento sugerido neste capítulo tem dois estágios. O primeiro estágio faz um agrupamento dos dados de entrada para determinar o centro e a dispersão, parâmetros necessários para definir as funções de Gaussianas. O segundo estágio é um algoritmo supervisionado do tipo gradiente. Não se faz uma referência ao método dos mínimos quadrados, uma alternativa eficiente em muitas circunstâncias práticas. O capítulo mostra de forma didática como o neurônio com função de ativação base radial se difere do neurônio tradicional com função de ativação sigmoidal em problemas de classificação e aproximação funcional. Analogamente aos capítulos anteriores, este termina com sugestões de projetos práticos sobre aproximação de funções e reconhecimento de padrões.

O Capítulo 7 - Redes de Hopfield, discute redes recorrentes com arquitetura de reticulado proposta por Hopfield. Primeiramente consideram-se redes com dinâmica contínua e os respectivos modelos, neste caso equações diferenciais. A seguir o modelo contínuo é traduzido em uma equação a diferenças correspondente, o que fornece uma versão discreta do modelo da rede neural consistente com a ilustração do texto. O capítulo discute a estabilidade do modelo contínuo, as redes como memórias associativas binárias e a capacidade de memória. Sugestão de projeto prático sobre armazenagem e recuperação de imagens binárias termina o capítulo.

O Capítulo 8 - Redes auto-organizáveis de Kohonen, considera redes com arquiteturas de um reticulado, mas ao contrário dos capítulos anteriores, com métodos não supervisionados, com destaque para algoritmos competitivos de treinamento. A ênfase é problemas de agrupamento e classificação, objeto de projeto prático sugerido no fim do capítulo.

O Capítulo 9 - Redes LVQ e counter-propagation, aborda duas outras arquiteturas de redes neurais. A primeira (LVQ) é uma rede com uma única camada e aprendizagem não supervisionada baseada em competição. A segunda (counter-propagation) é uma rede neural com duas camadas e método híbrido de aprendizagem. O método híbrido de aprendizagem utiliza um algoritmo auto-organizado competitivo para a camada intermediária e um algoritmo supervisionado para a camada de saída. Previsão de demanda de energia elétrica é o tema de projeto prático sugerido no fim do capítulo.

O Capítulo 10 - Redes ART (adaptive resonance theory), trata de redes com duas camadas e conexões bidirecionais entre os neurônios das duas camadas. O capítulo detalha somente o tipo ART1. ART1 é um classificador do tipo vizinho mais próximo (nearest-neighbor classifier) que armazena padrões espaciais binários utilizando aprendizagem não supervisionada competitiva. ART2, uma extensão da ART1 que armazena padrões espaciais analógicos, não é abordada, assim como outras alternativas mencionadas no texto. Um exemplo de agrupamento binário é a proposta de projeto prático deste capítulo.

2.2 Segunda parte

Os títulos dos dez capítulos que compõem a segunda parte do livro são representativos dos respectivos conteúdos.

O Capítulo 11 - Estimação da qualidade global de café utilizando o perceptron multicamadas, tem o objetivo de qualificar marcas de café utilizando sensores baseados em polímeros condutores.

O Capítulo 12 - Análise de tráfego de redes de computadores utilizando protocolo SNMP e rede LVQ, visa a caracterização do tráfego em links de acordo com quatro faixas de taxa de transmissão.

O Capítulo 13 - Previsão de tendências do mercado de ações utilizando redes recorrentes, utiliza redes multicamadas com realimentação de saída para estimar os preços de ações.

O Capítulo 14 - Sistema de diagnóstico de doenças utilizando redes ART, na realidade mostra como a rede ART1 contribui para tomar sugerir tratamento para pacientes com doenças de mais de um tipo.

O Capítulo 15 - Identificação de padrões de adulterantes em pó de café usando mapas de Kohonen, trata do problema de identificar adulterantes em amostras de café torrado e moído com redes de Kohonen.

O Capítulo 16 - Reconhecimento de distúrbios relacionados à qualidade de energia elétrica utilizando redes PMC, sugere redes perceptron multicamadas para reconhecer quatro classes de perturbações que afetam a qualidade de energia elétrica, afundamento de tensão, elevação de tensão, interrupção de tensão e distorção harmônica, respectivamente.

O Capítulo 17 - Controle de trajetória de robôs móveis usando sistema fuzzy e redes perceptron multicamadas, trata de um problema de navegação autônoma. A rede neural é um controlador de direção e velocidade que utiliza sensores de distância e luminosidade. O controlador aciona também uma buzina.

O Capítulo 18 - Método para classificação de tomates usando visão computacional e redes PMC, versa sobre controle de qualidade através de inspeção via processamento de imagens e classificação com redes neurais do tipo perceptron multicamadas.

O Capítulo 19 - Análise de desempenho de redes RBF e PMC em classificação de padrões, compara classificadores construídos com redes RBF e PMC com conjunto de dados Wine e Winscosin. As fontes destes dados não são mencionadas no texto.

O Capítulo 20 - Resolução de problemas de otimização com restrições por redes de Hopfield, mostra como problemas de programação não linear restritos podem ser resolvidos utilizando redes neurais auto-organizáveis.

2.3 Apêndices e material de apoio

Um conjunto de cinco apêndices contém tabelas com os conjuntos de dados utilizado para o treinamento das redes apresentadas nos capítulos 3, 4, 5, 6 e 8 do texto. O livro também conta com o apoio de material didático, dicas de exercícios e conjunto de dados de treinamento disponibilizados na web no endereço http://laips.sel.eesc.usp.br.

3 CONCLUSÃO

Dada a natureza didática, a extensão do assunto e a competência dos autores do livro, sente-se falta de uma taxonomia de arquiteturas e paradigmas no molde da Figura 4 de (Jain and Mohiuddin, 1996), assim como visões de modelos estáticos e recorrentes de redes neurais similares às de (Hush and Horne, 1993). Sob o ponto de vista mais formal, talvez fosse o caso de definir precisamente o significado de aproximação funcional, tanto para modelos estáticos como recorrentes, pois esta é uma propriedade essencial que justifica o uso de redes neurais nas duas grandes classes de problemas de interesse prático, regressão e classificação, respectivamente. Seria também muito bem vindo um capítulo final que aponte desenvolvimentos e tendências recentes na área e.g. spike neurons, (Staelin, 2011), aprendizagem extrema (Huang and Siew, 2004), aprendizagem adaptativa baseada em kernel (Liu and Haykin, 2010), modelagem neuro-genetica (Benuskova and Kasabov, 2010), entre muitas outras.

De um modo geral, trata-se de uma obra de qualidade que apresenta, de modo objetivo e sucinto, conceitos e modelos básicos de redes neurais artificiais e suas aplicações. O livro é contribuição importante para o ensino, a pesquisa e o desenvolvimento de projetos, sendo um texto de referência de grande valor para leitores com interesse na área.

AUTORES: Ivan Nunes da Silva, Danilo Hernane Spatti, Rogério Andrade Flauzino

  • Benuskova, L. and Kasabov, N. (2010). Computational Neuro Genetic Modeling, 1 edn, Springer.
  • Huang, G., Z. Q. and Siew, C. (2004). Extreme learning machine: A new learning scheme of feedforward neural networks, International Joint Conference on Neural Networks - IJCNN, Vol. 2, pp. 985-990.
  • Hush, D. and Horne, B. (1993). Progress in supervised neural networks: What is new after lippmann?, IEEE Signal Processing 10(1): 8-39.
  • Jain, A., M. J. and Mohiuddin, K. (1996). Artificial neural networks: A tutorial, IEEE Computer 29(3): 31-44.
  • Liu, W., P. J. and Haykin, S. (2010). Kernel Adaptive Filtering, 1 edn, Wiley.
  • Staelin, W. (2011). Models for Neural Spike Computation and Cognition, 1 edn, CreateSpace.

Datas de Publicação

  • Publicação nesta coleção
    18 Out 2012
  • Data do Fascículo
    Out 2012
Sociedade Brasileira de Automática Secretaria da SBA, FEEC - Unicamp, BLOCO B - LE51, Av. Albert Einstein, 400, Cidade Universitária Zeferino Vaz, Distrito de Barão Geraldo, 13083-852 - Campinas - SP - Brasil, Tel.: (55 19) 3521 3824, Fax: (55 19) 3521 3866 - Campinas - SP - Brazil
E-mail: revista_sba@fee.unicamp.br