Acessibilidade / Reportar erro

Confiabilidade estrutural utilizando o método de Monte Carlo e redes neurais

Resumos

A análise de confiabilidade estrutural em geral, por envolver um grande número de variáveis aleatórias ou exigir uma grande quantidade de simulações, se depara com a questão do custo computacional. Duas técnicas utilizadas para essa avaliação são o método de simulação de Monte Carlo e os métodos analíticos do tipo FORM/SORM. Os métodos analíticos FORM e SORM podem apresentar problema de precisão no cálculo da probabilidade de falha. Em relação ao método de Monte Carlo, embora sejam de fácil implementação e absolutamente geral, o grande número de simulações pode exigir um tempo de processamento elevado, o que pode tornar sua aplicação inviável. Nesse trabalho, foi utilizada uma rede neural treinada para substituir a solução do problema estrutural necessário a cada simulação de Monte Carlo, com o objetivo de reduzir o custo computacional requerido na análise. As aplicações realizadas proporcionaram bons resultados, com baixo custo computacional, o que atesta a viabilidade de sua aplicação.

Confiabilidade estrutural; método de Monte Carlo; redes neurais


Structural reliability analysis due to the great number of random variables or large number of simulations needed may result in a high computational cost. Two techniques largely used for structural reliability assess are Monte Carlo Simulation and the analytic methods FORM/SORM. These may present some inaccuracy in the assessment of the probability of failure. The Monte Carlo Method is easy to implement and absolutely general, but the great number of required simulations may result in high computational cost making the application impracticable. This work used a trained neural network to substitute the structural analysis needed for each Monte Carlo Simulation, in order to reduce the computational cost. The applications produced good results with low computational cost, certifying its application viability.

Structural reliability; Monte Carlo Method; Neural Networks


ENGENHARIA CIVIL

Confiabilidade estrutural utilizando o método de Monte Carlo e redes neurais

Anderson Henrique BarbosaI; Marcílio Sousa da Rocha FreitasII; Francisco de Assis das NevesIII

IUFOP - Escola de Minas - Departamento de Engenharia Civil, Mestrado em Construção Metálica, Laboratório de Mecânica Computacional. E-mail: anderhb@bol.com.br

IIUFOP - Escola de Minas - Departamento de Engenharia Civil, CEP 35400-000, Ouro Preto, MG, Brasil. E-mail: marcílio@em.ufop.br

IIIUFOP - Escola de Minas - Departamento de Engenharia Civil, CEP 35400-000, Ouro Preto, MG, Brasil. E-mail: fassis@em.ufop.br

RESUMO

A análise de confiabilidade estrutural em geral, por envolver um grande número de variáveis aleatórias ou exigir uma grande quantidade de simulações, se depara com a questão do custo computacional. Duas técnicas utilizadas para essa avaliação são o método de simulação de Monte Carlo e os métodos analíticos do tipo FORM/SORM. Os métodos analíticos FORM e SORM podem apresentar problema de precisão no cálculo da probabilidade de falha. Em relação ao método de Monte Carlo, embora sejam de fácil implementação e absolutamente geral, o grande número de simulações pode exigir um tempo de processamento elevado, o que pode tornar sua aplicação inviável. Nesse trabalho, foi utilizada uma rede neural treinada para substituir a solução do problema estrutural necessário a cada simulação de Monte Carlo, com o objetivo de reduzir o custo computacional requerido na análise. As aplicações realizadas proporcionaram bons resultados, com baixo custo computacional, o que atesta a viabilidade de sua aplicação.

Palavras-chave: Confiabilidade estrutural, método de Monte Carlo, redes neurais.

ABSTRACT

Structural reliability analysis due to the great number of random variables or large number of simulations needed may result in a high computational cost. Two techniques largely used for structural reliability assess are Monte Carlo Simulation and the analytic methods FORM/SORM. These may present some inaccuracy in the assessment of the probability of failure. The Monte Carlo Method is easy to implement and absolutely general, but the great number of required simulations may result in high computational cost making the application impracticable. This work used a trained neural network to substitute the structural analysis needed for each Monte Carlo Simulation, in order to reduce the computational cost. The applications produced good results with low computational cost, certifying its application viability.

Keywords: Structural reliability; Monte Carlo Method; Neural Networks.

1. Introdução

A incerteza dos parâmetros envolvidos na análise estrutural é conhecida como um fator importante que influencia a segurança estrutural (Pulido et al., 1992). A existência de incertezas nesses parâmetros contribui para que se tenha uma probabilidade não nula de que a estrutura não atenda aos objetivos para os quais ela fora concebida. Essa probabilidade é definida como probabilidade de falha e pode ser determinada pelos métodos de análise de confiabilidade estrutural.

A teoria da confiabilidade é uma ferramenta que proporciona ao engenheiro, a partir do conhecimento das incertezas inerentes às variáveis de projeto, por meio de suas distribuições de probabilidade, a determinação da probabilidade de a estrutura falhar e, também, parâmetros que fornecem a importância de cada variável nessa probabilidade. Essas informações são, seguramente, de fundamental importância na tomada de decisões que envolvam a segurança da estrutura.

A análise de confiabilidade estrutural, por envolver um grande número de variáveis aleatórias ou exigir uma grande quantidade de simulações, se depara com a questão do custo computacional. Duas técnicas utilizadas para essa avaliação são o método de simulação de Monte Carlo e os métodos analíticos do tipo FORM / SORM. Os métodos analíticos FORM e SORM apresentam alguns problemas em função da complexidade da análise, que gera dificuldades na determinação dos pontos de mínimo. Em relação ao método de Monte Carlo, embora seja de fácil implementação e absolutamente geral, o grande número de simulações pode exigir um tempo de processamento elevado, o que pode tornar sua aplicação inviável. Esse problema tem sido resolvido através de técnicas de redução de variância (Papadrakakis et al., 1996 e Papadrakakis & Lagaros, 2002).'

Uma rede neural artificial é uma estrutura computacional que procura imitar o comportamento do cérebro humano em desempenhar tarefas particulares, que dependem, principalmente, da capacidade de aprender. A eficiência desta em produzir resultados satisfatórios passa pela escolha de alguns parâmetros escolhidos via testes numéricos, que são de suma importância para a sua performance e podem exercer influência no seu tempo de treinamento.'

Nesse artigo, são analisados problemas de confiabilidade estrutural com a utilização de redes neurais artificiais, aplicadas em conjunto com o método de simulação de Monte Carlo (Barbosa, 2004). Para tal aplicação, será utilizado o software Matlab (Demuth & Beale, 1998), que possui um ambiente de redes neurais já implementado.

2. Método de Monte Carlo

O método de Monte Carlo é um método de amostragem artificial utilizado na solução de experimentos aleatórios onde se tem conhecimento das distribuições de probabilidade das variáveis envolvidas. Tem sido utilizado para determinar a confiabilidade de sistemas estruturais (Pulido et al., 1992).

A sua utilização requer a geração de N amostras independentes do vetor das variáveis aleatórias X obtidas a partir da função densidade de probabilidade conjunta fX(X). A probabilidade de falha pode ser expressa, utilizando o método de Monte Carlo, partindo da integral definida em (1):

ou em (2):

onde GX(X) é a função de falha, que relaciona as variáveis envolvidas na análise, e a função I[.] é um indicador que corresponde aos valores apresentados em (3):

Pode-se reescrever a expressão (2) como em (4):

onde Xi representa a i-ésima amostra do vetor das variáveis X geradas a partir da função densidade de probabilidade fX(X) . O valor de Pf passa a ser determinado pela expressão (5):

A variância, para valores pequenos da probabilidade de falha, é expressa em (6):

Para as estruturas usuais, a probabilidade de falha Pf é pequena, geralmente da ordem de 10-3 a 10-5, e, como a sua variância é expressa de forma inversamente proporcional ao número total de simulações, o valor de N deve ser elevado para que se possa obter aproximações aceitáveis de Pf . Por esse motivo, o método de Monte Carlo é, freqüentemente, utilizado para checar outras técnicas aproximadas (Pulido et al., 1992).

3. Redes neurais artificiais

Com o processo evolutivo das máquinas, um grande objetivo do homem é a construção de uma máquina que possa executar tarefas sem depender do controle humano, que tenha a capacidade de aprender e de interagir com ambientes que lhe são desconhecidos, podendo ser denominada de inteligente. Ela teria uma grande habilidade de aprendizado de afazeres não facilmente manipulados pelas máquinas atuais e continuaria a se adaptar e a realizar tarefas com maior eficiência.

Redes neurais artificiais podem ser caracterizadas como modelos computacionais baseados em processamento distribuído paralelo com propriedades particulares como habilidade para aprender, generalizar, classificar e organizar dados (Gomes & Awruch, 2004).

3.1 Modelo matemático

O primeiro modelo de neurônio artificial foi desenvolvido por McCulloch e Pitts em 1943 e representava uma simplificação do que era conhecido na época sobre o funcionamento do neurônio biológico. Esse neurônio pode ser observado na Figura 1 e descrito pela seguinte formulação matemática mostrada em (7):

onde:

x = vetor com n sinais de entrada.

Wt = matriz com os pesos de cada neurônio acoplado.

b = valor do limiar (threshold), também conhecido como bia.

f(.) = função de ativação.

y = sinal de saída.


A forma com que os neurônios de uma rede estão interligados está diretamente ligada ao algoritmo de aprendizado, que será utilizado para treinar a rede. Como exemplo, pode-se citar as redes multilayer feedforward sem realimentação, que são redes progressivas que possuem uma ou mais camadas ocultas, redes estas utilizadas nas aplicações posteriores, apresentada na Figura 2.


3.2 Características das redes neurais

A capacidade de uma rede neural depende, principalmente, da sua estrutura paralela distribuída e de sua habilidade de aprender e, como conseqüência, generalizar. Algumas das características importantes das redes neurais são:

  • Tolerância a falhas, que permite que a rede continue a apresentar resultados aceitáveis, no caso de falha de algum neurônio. A informação contida na rede está distribuída por todos os seus elementos, possibilitando que, mesmo que parte da rede seja destruída, a informação esteja contida nos elementos restantes e possa ser recuperada.

  • Generalização, que possibilita à rede obter saídas adequadas como resposta a dados de entrada desconhecidos, ou seja, não pertencentes ao conjunto de treinamento.

  • Capacidade de aprendizagem, processo que envolve a modificação dos pesos sinápticos de uma rede através da aplicação de um conjunto de pares de treinamento, para os quais se conhece, previamente, a saída que se deseja obter. O treinamento é repetido até que a rede atinja um nível em que não haja mudanças significativas nos pesos.

  • Habilidade de aproximação - Dada a capacidade de aprendizado, a rede tem a possibilidade de encontrar qualquer mapeamento entrada/saída, e, desde que os dados sejam representativos do processo do que se esteja tratando e desde que sejam adequadamente escolhidos a arquitetura de rede e o seu algoritmo de treinamento, as redes são capazes de aproximar funções contínuas de ordem qualquer.

3.3 Algoritmo Backpropagation

O algoritmo backpropagation é o principal algoritmo de treinamento de rede utilizado e é, freqüentemente, usado como o algoritmo de aprendizado em redes neurais estruturadas em camadas, isto devido à sua eficiência (Rumelhart et al., apud Hirose et al., 1991). Embora existam diversos algoritmos de treinamento de redes disponíveis, o algoritmo backpropagation tem apresentado excelentes resultados na análise e na resolução de problemas de confiabilidade estrutural (Saraiva, 1997).

O algoritmo backpropagation baseia-se no princípio do aprendizado por correção de erro, no qual o erro é retropropagado da camada de saída para as camadas intermediárias da rede neural. Pode-se dividir o algoritmo em dois passos: o direto e o reverso. No passo direto, o vetor de entrada é aplicado e seu efeito se propaga através das camadas da rede neural, produzindo uma saída, com os pesos todos fixos. No passo reverso, os pesos são reajustados de acordo com a regra de aprendizado por correção de erro. A resposta fornecida pela rede é subtraída da resposta desejada, produzindo um sinal de erro, sendo esse sinal propagado de volta através dos mesmos neurônios do passo direto, mas no sentido contrário do fluxo de sinais das conexões, daí o nome backpropagation. Os pesos são ajustados de forma que a resposta a ser produzida pela rede se aproxime da resposta esperada.

Através do conjunto de treinamento, mostrado em (8), composto por um vetor x com n entradas e um vetor de saída exato ye:

Y = {xi, yei} i = 1, ..., n (8)

pode-se definir o erro quadrático médio sobre este em (9):

onde yi é a saída fornecida pela rede e yei é o valor exato correspondente à saída da rede.

A expressão (9) pode ser reescrita em função dos pesos, como apresentado em (10):

Visando a determinar o conjunto de pesos que gere o mínimo erro para a função descrita em (10), existem vários algoritmos de otimização que são aplicados em conjunto com o algoritmo backpropagation. Destacam-se os algoritmos de Levenberg - Marquardt e o do gradiente descendente com momentum, também conhecido como regra delta generalizada ou algoritmo backpropagation tradicional, que serão utilizados nesse trabalho.

3.3.1 Algoritmo do Gradiente Descendente com Momentum

Esse algoritmo busca minimizar o erro quadrático, que é expresso em função dos pesos, de modo a se obter um conjunto de pesos otimizado que encerrará o processo de treinamento, tornando a rede apta a produzir padrões de saída aceitáveis. Por se tratar de um problema de otimização, torna-se necessária a determinação do gradiente do erro em relação aos pesos, processo este que pode ser inviabilizado devido ao tamanho do vetor de entrada, principalmente nos problemas de engenharia que, na maioria dos casos, engloba um grande número de variáveis.

A minimização do erro quadrático pode ser obtida utilizando o processo conhecido por regra delta. De acordo com essa regra, sendo w(k) um ponto sobre a superfície de erro, o ajuste a ser aplicado a esse ponto é expresso (11):

onde h é uma constante positiva denominada taxa de aprendizado.

Efetuado o processo de ajuste, o valor atualizado do peso é descrito em (12):

W(K + 1) = W(k) - DW(k) (12)

É de particular interesse a determinação do parâmetro h, que é diretamente responsável pela rapidez do processo de aprendizado. O algoritmo backpropagation provê uma aproximação da trajetória de movimento sobre a superfície de erro, a qual, a cada ponto da superfície, segue a direção do ponto mais íngreme em busca do ponto de mínimo global. Quanto menor for a taxa de aprendizado, menores vão ser as correções a serem aplicadas aos pesos entre cada iteração, ocasionando um processo de convergência lento. Caso contrário, se o valor desse parâmetro for alto, pode-se obter uma aceleração no processo de convergência, mas pode-se tornar o algoritmo instável pela oscilação em torno de um ponto de mínimo local.

Uma forma simples de garantir a estabilidade e acelerar a convergência é a utilização da regra delta acrescida do fator de momento. Essa é representada em (13):

onde b é denominado constante de momento e possui a variação 0 < b < 1. O efeito dessa constante é aumentar a velocidade na direção do ponto de mínimo. O que se deseja com a inserção do termo de momento é a redução no tempo de treinamento, a melhora na estabilidade do processo e, com isso, aumentar a possibilidade de encontrar o mínimo global.

3.3.2 Algoritmo de Levenberg - Marquardt

Esse algoritmo é considerado o método mais rápido para treinamento de redes feedforward backpropagation, que possui uma quantidade moderada de pesos sinápticos. Ele se baseia, para a aceleração do treinamento, na determinação das derivadas de segunda ordem do erro quadrático em relação aos pesos, diferindo do algoritmo backpropagation tradicional que considera as derivadas de primeira ordem.

O algoritmo de Levenberg - Marquardt se baseia no método de otimização de Newton, que faz uso da matriz Hessiana H . No método de Levenberg - Marquardt se faz uma aproximação para essa matriz, mostrada em (14), determinada em função da matriz Jacobiana, que contém as primeiras derivadas dos pesos em função dos pesos sinápticos, expressa em (15):

onde e(W) é definido conforme a expressão (16):

A determinação da matriz Jacobiana é muito mais simples que a determinação da matriz Hessiana. Como, para uma rede neural, a performance de treinamento é expressa em função da soma dos erros quadráticos, a matriz Hessiana pode ser expressa pela expressão (17):

H = JT (W) . J(W) (17)

O método de Newton atualiza os pesos segundo (18):

W(k+1) = W(k) - H-1.gk (18)

onde gk pode ser escrito conforme (19):

gk = 2JT(W).e(W) (19)

O algoritmo de Levenberg - Marquardt procede a atualização dos pesos baseado na mesma expressão do método de Newton (18), realizando as modificações para a determinação da matriz Hessiana, mostrada em (20):

W(k+1) = W(k) - [JT(W).J(W)+µ kI]-1.JT( W).e(W) (20)

onde: I é a matriz identidade e µK é a constante do método de Levenberg - Marquardt.

O parâmetro µK funciona como um fator de estabilização do treinamento, ajustando a aproximação de forma a utilizar a rápida convergência do método de Newton e evitando passos muito grandes que possam levar a um erro de convergência.

Esse método apresenta convergência em menos iterações, mas requer mais cálculos por iteração devido ao cálculo de matrizes inversas. Apesar do grande esforço computacional, ele segue sendo o algoritmo de treinamento mais rápido para redes neurais, quando se trabalha com um número moderado de parâmetros na rede. Se esse número é elevado, a utilização desse algoritmo é pouco prática.

4. Aplicações

As redes avaliadas nas aplicações que seguem são todas do tipo Multilayer Perceptron. Ao longo das aplicações, tais redes receberão denominações com duas terminações, LM e GDM, que denotarão a utilização dos algoritmos de Levenberg - Marquardt e do gradiente descendente com momentum, respectivamente, posto para facilitar a distinção entre os dois métodos.

Considerou-se como critério de parada para o treinamento das redes avaliadas nessas aplicações o número máximo de épocas igual a 1000, ou o erro esperado de 1e-10, e a matriz de pesos das redes neurais foi gerada de forma aleatória pelo programa Matlab.

4.1 Aplicação 1

Essa aplicação se refere a uma treliça isostática representada na Figura 3, onde são consideradas como variáveis básicas a carga aplicada P e a resistência R, cujas características estatísticas estão apresentadas na Tabela 1. Esse é um problema bastante citado na literatura, tendo sido analisado por diversos pesquisadores.


Nesse problema, é considerado o efeito da carga P contra a resistência R, sendo a função de falha definida em (21):

G(X) = R - P (21)

A probabilidade de falha para esse caso pode ser calculada, para uma barra qualquer da treliça, utilizando-se (22):

onde:

FR(X) = Função de distribuição acumulada da variável R.

fP(X) = Função densidade de probabilidade da variável P.

Tendo essas variáveis distribuições normais, a integral definida em (22) pode ser calculada através de (23):

Pf (Barra i) = F (-(µRPi)/(S2 R + S2Pi)1/2) (23)

onde:

µR, µPi são as médias das variáveis R e P na barra i;.

sR, sPi são os desvios padrões de R e P na barra i.

F é a função de distribuição acumulada normal padrão.

Fazendo uso de (23), chega-se à probabilidade de falha para as barras 1 e 2 Pf = 0.039848 e para a barra 3 Pf = 3.24e-6.

Os resultados deste trabalho são comparados com os apresentados por Saraiva (1997), cuja rede neural, denominada de MCRN1, possui as seguintes características:

  • Rede Feedforward sem realimentação com técnica Backpropagation.

  • Número de camadas intermediárias = 1.

  • Número de neurônios na camada intermediária = 5.

  • Taxa de aprendizagem h = 0.1.

  • Fator de "Momentum" bm = 0.1.

Além dessa rede, Saraiva (1997) utilizou os métodos de Monte Carlo Clássico e o método de Monte Carlo com a técnica de redução de variância Variáveis Antitéticas, denominado de MCRV, que possibilitarão uma comparação mais precisa dos valores fornecidos pelas redes estudadas.

Para a utilização das redes, aplicou-se a técnica de redução de variância esperança condicionada, na qual se escolhe a variável com maior dispersão e a explicita em função das outras variáveis. O conjunto de treinamento utilizou 100 pares, que consistem em valores da resistência R, para a entrada, e a saída fornece valores da função de distribuição acumulada da variável R.

As redes neurais configuradas nessa aplicação, denominadas de RNTRELM e RNTREGDM, possuem os parâmetros listados na Tabela 2, sendo todas elas do tipo Feedforward Backpropagation.

As redes RNTRELM1 e RNTREGDM1 foram utilizadas, para a determinação de Pf das barras 1 e 2, e RNTRELM3 e RNTREGDM3, para a determinação de Pf na barra 3 da treliça.

Os resultados da análise da probabilidade de falha da barra 1 estão mostrados na Tabela 3, que mostra os valores obtidos para 100, 300, 500, 1000 e 3000 simulações.

O gráfico da Figura 4 ilustra o erro gerado pelos métodos apresentados na Tabela 3. Comprovam-se os bons resultados fornecidos pelas redes neurais RNTRELM1 e RNTREGDM1, com erros abaixo de 1% para o caso de 3000 simulações, e apresentando erros pequenos para um número menor de simulações.


A Tabela 4 mostra os valores da probabilidade de falha obtidos utilizando as redes RNTRELM e RNTREGDM para a barra 3 da treliça isostática, cujo valor exato é Pf3 = 3.24e-6.

O gráfico apresentado na Figura 5 mostra a variação do erro para a determinação, pela rede, da probabilidade de falha para a barra 3 da treliça isostática.


Os valores mostrados na Tabela 4 e na Figura 5 indicam erros de 1.88% e 5.14% em relação à resposta exata para o problema, o que revela a boa performance dos dois algoritmos para a aproximação da resposta. Os resultados apresentados nas Tabelas 3 e 4 mostram que as redes fornecem valores da probabilidade de falha com erros aceitáveis, atestando a viabilidade de sua aplicação. Essa característica se deve ao bom treinamento e à escolha correta dos parâmetros da rede neural.

4.2 Aplicação 2

Seja a viga biapoiada representada na Figura 6, onde são considerados, como variáveis aleatórias básicas, a carga concentrada aplicada P e o módulo de elasticidade do material E.


Os dados referentes às variáveis aleatórias estão mostrados na Tabela 5. O critério de falha está relacionado com o deslocamento do ponto A, segundo o eixo y, tomando-se como valor-limite d = 4,8 cm, sendo a função de falha expressa em (24):

G(X) - 0.048 - d(X) (24)

onde d(X) é o deslocamento vertical do ponto A.

Novamente, os resultados serão comparados com os apresentados em Saraiva (1997), cujas redes possuem as seguintes características:

  • Rede neural do tipo Feedforward Backpropagation.

  • Número de camadas ocultas = 1.

  • Número de neurônios na camada oculta = 6.

  • Taxa de aprendizagem h = 0.1.

  • Fator de "Momentum" bm = 0.1.

  • Funções de transferência = Sigmoidal.

Essas redes foram denominadas de MCRN2 e MCRN2*, ambas possuindo as mesmas características anteriormente citadas, e tem como principal diferencial a forma de calcular a probabilidade de falha: MCRN2 utiliza a técnica de redução de variância Amostragem por Importância, enquanto MCRN2* gera os valores dos deslocamentos e calcula a Pf através do método de Monte Carlo Clássico. Determinaram-se, também, os valores de Pf para o método de Monte Carlo Clássico sem redes neurais, denominado de MCC.

O conjunto de treinamento, para o referido exemplo, consta de 80 pares. Na Tabela 6, estão apresentadas as configurações das redes neurais analisadas nessa aplicação.

Utilizaram-se rotinas auxiliares para a determinação da probabilidade de falha, visto que a rede é treinada para fornecer apenas os deslocamentos do ponto A.

A Tabela 7 apresenta a comparação dos resultados obtidos para a referida aplicação. A utilização do Método de Monte Carlo Clássico visa a apresentar uma estimativa do que seria o valor exato de Pf para servir de comparação para os resultados obtidos pelas redes estudadas.

Dos resultados apresentados na Tabela 7, verifica-se que a rede analisada foi capaz de produzir valores da probabilidade de falha com aproximações razoáveis, acompanhando a tendência do Método de Monte Carlo. Nota-se, ainda, que a rede treinada com o algoritmo de Levenberg - Marquardt apresentou bons resultados para 10000 simulações, quando comparado com o Método de Monte Carlo Clássico. Já a rede treinada com o algoritmo do gradiente descendente leva a resultados comparáveis aos obtidos por Saraiva (1997).

5. Conclusões

Os resultados apresentados nesse trabalho mostram que a aplicação das redes neurais, para a determinação da probabilidade de falha, quando da substituição de partes do Método de Monte Carlo, produz bons resultados, apresentando convergência para um número de simulações relativamente baixo. O fato de os métodos de análise de confiabilidade apresentarem algumas restrições, no processo de solução, ou exigirem um tempo computacional demasiado, para a sua convergência, torna os resultados obtidos da solução com as redes neurais uma boa alternativa.

A aplicação das redes neurais se revelou um método passível de ser utilizado, em conjunto com o Método de Monte Carlo, proporcionou ótimos resultados e tendo, como conseqüência, um baixo esforço computacional, fato que era objetivado nesse trabalho.

6. Agradecimentos

Os autores agradecem à USIMINAS.

7. Referências bibliográficas

Artigo recebido em 10/12/2004 e aprovado em 28/07/2005.

  • BARBOSA, A. H. Análise de confiabilidade estrutural utilizando o Método de Monte Carlo e redes neurais Ouro Preto: Programa de Pós-Graduação em Engenharia Civil, UFOP, 2004. (Dissertação de Mestrado).
  • DEMUTH, H., BEALE, M. Neural networks toolbox user's guide - MATLAB Versão 3.0. 1998.
  • GOMES, H. M., AWRUCH, A. M.. Comparison of response surface and neural network with others methods for structural reliability analysis. Structural safety, v. 26, p. 49-67, 2004.
  • HIROSE, Y., YAMASHITA, K., HIJIYA, S. Back-Propagation algorithm which varies the number of hidden units. Neural Networks, v. 4, p. 61-66, 1991.
  • PAPADRAKAKIS, M., PAPADOPOULOS, V., LAGAROS, N. D. Structural reliability analysis of elasti-plastic structures using neural networks and Monte carlo simulation. Computer Methods in Applied Mechanics Engineering, v. 136, p. 145-163, 1996.
  • PAPADRAKAKIS, M., LAGAROS, N. D. Reliability-based structural optimization using neural networks and Monte carlo simulation. Computer Methods in Applied Mechanics Engineering, v. 191, p. 3491-3507, 2002.
  • PULIDO, J. E., JACOBS, T. L., PRATES DE LIMA, E. C. Structural reliability using Monte carlo simulation with variance reduction techniques on elastic-plastic structures. Computer and Structures, p. 419-430, 1992.
  • SARAIVA, J. M. F. A utilização de redes neurais em conjunto com o Método de Monte Carlo na análise da confiabilidade de estruturas, Rio de Janeiro: Programa de Pós-Graduação em Engenharia Civil, COPPE/UFRJ, 1997. (Tese de Doutorado).

Datas de Publicação

  • Publicação nesta coleção
    11 Out 2005
  • Data do Fascículo
    Set 2005

Histórico

  • Recebido
    10 Dez 2004
  • Aceito
    28 Jul 2005
Escola de Minas Rua Carlos Walter Marinho Campos, 57 - Vila Itacolomy, 35400-000 Ouro Preto MG - Brazil, Tel: (55 31) 3551-4730/3559-7408 - Ouro Preto - MG - Brazil
E-mail: editor@rem.com.br