Scielo RSS <![CDATA[TEMA (São Carlos)]]> http://www.scielo.br/rss.php?pid=2179-845120130003&lang=en vol. 14 num. 3 lang. en <![CDATA[SciELO Logo]]> http://www.scielo.br/img/en/fbpelogp.gif http://www.scielo.br <![CDATA[<b>Notas editoriais</b>]]> http://www.scielo.br/scielo.php?script=sci_arttext&pid=S2179-84512013000300001&lng=en&nrm=iso&tlng=en <![CDATA[<b>Um modelo para a dengue com influência sazonal</b>]]> http://www.scielo.br/scielo.php?script=sci_arttext&pid=S2179-84512013000300002&lng=en&nrm=iso&tlng=en É descrito um modelo matemático com dependência temporal para a transmissão da dengue onde são considerados a população humana, o vetor mosquito e um único sorotipo circulando na população. Este modelo foi analisado com o objetivo de explicar a periodicidade da doença. Foi utilizado um algoritmo genético para estudar a sensibilidade do modelo.<hr/>In this study, a mathematical model with temporal dependence for dengue transmission was developed, considering coupling between human population and the vector mosquito, and a sorotype circulating on population. This model was analysed with the goal to explain disease's periodicity. Finally, a genetic algorithm was set up to study model's sensibility. <![CDATA[<b>Metamorfose planar via métodos <i>Level Set</i> e <i>Particle Level Set</i> para a reconstrução de superfícies tridimensionais</b>]]> http://www.scielo.br/scielo.php?script=sci_arttext&pid=S2179-84512013000300003&lng=en&nrm=iso&tlng=en Inicialmente centralizadas na solução de problemas em Dinâmica dos Fluidos, as fronteiras dinâmicas, com o advento da modelagem mais robusta provida pelo método Level Set, expandiram os limites originais de sua aplicabilidade. Especificamente à área de Modelagem Geométrica, os trabalhos até então apresentados, relacionando o Level Set à reconstrução de superfícies tridimensionais, concentram-se na reconstrução a partir de uma nuvem de dados dispersos no espaço; a abordagem baseada em fatias planas paralelas e transversais ao objeto a ser reconstruído evidencia-se ainda incipiente. Este trabalho propõe-se, logo, a analisar a viabilidade do Level Set para a reconstrução tridimensional, oferecendo uma metodologia que agregue, simultaneamente, as ideias comprovadamente eficientes já publicadas sobre a aproximação em questão e as propostas para contornar as limitações inerentes ao método ainda não satisfatoriamente tratadas, em particular a suavização excessiva de características finas dos contornos em evolução sob o Level Set. Relativamente a esse ponto, o emprego da variante Particle Level Set é sugerido como uma solução, por sua intrínseca capacidade comprovada para a preservação de massa de fronteiras dinâmicas. Ao final, conjuntos de dados sintéticos e reais são utilizados para avaliar a metodologia de reconstrução de superfícies tridimensionais apresentada qualitativamente.<hr/>Evolving interfaces were initially focused on solutions to scientific problems in Fluid Dynamics. With the advent of the more robust modeling provided by Level Set method, their original boundaries of applicability were extended. Specifically to the Geometric Modeling area, works published until then, relating Level Set to tridimensional surface reconstruction, centered themselves on reconstruction from a data cloud dispersed in space; the approach based on parallel planar slices transversal to the object to be reconstructed is still incipient. Based on this fact, the present work proposes to analyse the feasibility of Level Set to tridimensional reconstruction, offering a methodology that simultaneously integrates the proved efficient ideas already published about such approximation and the proposals to process the inherent limitations of the method not satisfactorily treated yet, in particular the excessive smoothing of fine characteristics of contours evolving under Level Set. In relation to this, the application of the variant Particle Level Set is suggested as a solution, for its intrinsic proved capability to preserve mass of dynamic fronts. At the end, synthetic and real data sets are used to evaluate the presented tridimensional surface reconstruction methodology qualitatively. <![CDATA[<b>Formulações fortes para o problema de dimensionamento de lotes com várias plantas</b>]]> http://www.scielo.br/scielo.php?script=sci_arttext&pid=S2179-84512013000300004&lng=en&nrm=iso&tlng=en Este trabalho aborda o problema de dimensionamento de lotes em um ambiente com várias plantas. Cada item pode ser produzido em qualquer planta e é possível atender a demanda de uma determinada planta com produção proveniente de uma (ou várias outras) planta(s), para tanto, incorre-se um custo de transferência. O objetivo deste trabalho consiste em desenvolver formulações fortes para o problema. São investigadas reformulações que baseiam-se no problema do caminho mínimo e localização de facilidades. Por fim, alguns resultados computacionais são apresentados comparando todas as formulações propostas.<hr/>This paper considers the multi-plant lot sizing problem. Each item can be produced in any plant and it is possible to meet the demand of a particular plant with production from one (or several) other plants, in this case, incurs a transfer cost. The objective is todevelop strong formulations for this problem. Reformulations that based on the shortest path problem and facility location problem are investigated. Finally, some computational results are presented comparing all the proposed formulations. <![CDATA[<b>Formulações semi-discretas para a equação 1D de Burgers</b>]]> http://www.scielo.br/scielo.php?script=sci_arttext&pid=S2179-84512013000300005&lng=en&nrm=iso&tlng=en Neste trabalho fizemos comparações entre formulações semi-discretas para a obtenção de soluções numéricas para a equação 1D de Burgers. As formulações consistem em discretizar o domínio temporal via métodos implícitos multi-estágios de segunda e quarta ordem: aproximantes de Padé R11 e R22; e o domínio espacial via métodos de elementos finitos: mínimos quadrados (MEFMQ), Galerkin (MEFG) e Streamline-Upwind Petrov-Galerkin (SUPG). Conhecendo as soluções analíticas da equação 1D de Burgues, para diferentes condições iniciais e de fronteira, foram realizadas análises dos erros numéricos a partir das normas L2 e L∞. Verificamos que o método com o aproximante de Padé R22 adicionado as formulações MEFMQ, MEFG e SUPG, aumentou a região de convergência das soluções numéricas e apresentou maior precisão quando comparado as soluções obtidas por meio do aproximante de Padé R11. Constatamos que o método R22 amenizou as oscilações das soluções numéricas associadas as formulações MEFG e SUPG.<hr/>In this work we compare semi-discrete formulations to obtain numericalsolutions for the 1D Burgers equation. The formulations consist in the discretization ofthe time-domain via multi-stage methods of second and fourth order: R11 and R22 Padé approximants, and of the spatial-domain via finite element methods: least-squares (MEFMQ), Galerkin (MEFG) and Streamline-Upwind Petrov-Galerkin (SUPG). Knowing the analytical solutions of the 1D Burgues equation, for different initial and boundary conditions, analyzes were performed for numerical errors from L2 and L∞ norm. We found that the R22 Padé approximants, added to the MEFMQ, MEFG, and SUPG formulations, increased the region of convergence of the numerical solutions, and showed greater accuracy when compared to the solutions obtained by the R11 Padé approximants. We note that the R22 Padé approximants softened the oscillations of the numerical solutions associated to the MEFG and SUPG formulations. <![CDATA[<b>Uma formulação hibridizada de elementos finitos para problemas parabólicos</b>]]> http://www.scielo.br/scielo.php?script=sci_arttext&pid=S2179-84512013000300006&lng=en&nrm=iso&tlng=en Este trabalho trata da aplicação de um método de elementos finitos descontínuo hibridizado, combinado com aproximações de diferenças finitas para a variável temporal, visando a solução de problemas parabólicos. Tal proposta foi desenhada considerando-se uma aproximação espacial descontínua entre os elementos, com a continuidade ao longo das interfaces imposta fracamente através do uso de um multiplicador de Lagrange. A precisão e eficiência da metodologia, quando comparada a aproximações espaciais usuais, por exemplo, o método de Galerkin contínuo, são comprovadas pelas taxas de convergência exibidas. Além disso, demonstra-se que é possível eliminar oscilações espúrias associadas a discretizações espaciais usualmente obtidas com formulações contínuas convencionais em problemas de condução de calor.<hr/>To solve parabolic problems a hybrid finite element method (HFEM) is introduced to numerically solve the bi-dimensional heat problem combined with finite difference time integration schemes. Such a formulation has been designed considering discontinuous spatial discretizations with continuity along the interface imposed via a Lagrange multiplier. The accuracy and efficiency of the proposed hybrid method are compared against the standard Galerkin method. Furthermore, the HFEM is applied to treat the spurious spatial oscillation problems commonly present in the continuous Galerkin semi-discrete approaches when applied to parabolic problems. For an appropriate choice of the stabilization parameter, numerical simulations will show that the HFEM is well suited to remediate these pathologies. <![CDATA[<b>Uma técnica de correção de interface para o método "Incompressible Smoothed Particle Hydrodynamics"</b>]]> http://www.scielo.br/scielo.php?script=sci_arttext&pid=S2179-84512013000300007&lng=en&nrm=iso&tlng=en A manutenabilidade de uma boa distribuição de partículas é algo fundamental em simulações através do SPH, sendo um dos fatores responsáveis pela estabilidade do sistema e a acurácia do método. Em soluções através do método ISPH (acrônimo em inglês para Incompressible Smoothed Particle Hydrodynamcs) este resultado pode ser alcançado através de uma técnica baseada na introdução de um deslocamento de partículas, de forma a retirá-las de suas trajetórias lagrangeanas. Entretanto, quando diretamente aplicada a escoamentos multifásicos, esta técnica acaba introduzindo um comportamento não físico na interface entre fluidos, resultando em um incorreto posicionamento da interface, e prejudicando a simulação. Neste trabalho, propomos uma correção baseada em uma função suave, definida inicialmente como a distância normal à interface. Testes numéricos mostram que esta correção consegue recuperar a correta posição da interface. Finalmente, um estudo sobre a conservação de massa desta técnica é apresentado.<hr/>The maintainability of a good particle distribution is of prior importance toSPH (Smoothed Particle Hydrodynamics) simulations, since it affects both stability and accuracy of the numerical results. When using ISPH (Incompressible SPH), the particle distribution can be improved by dislocating particles away from their Lagrangian trajectories. However, when applying this technique to multiphase flows, the correct position of the interface between fluids is disturbed, resulting in unphysical flow behavior. In this work, we propose a correction, based upon a constructed smooth distance function. Numerical tests show that this correction can recover the expected position of the interface. Finally, issues regarding mass conservation are assessed and reported. <![CDATA[<b>Modelos matemáticos para otimização do tráfego urbano semaforizado</b>]]> http://www.scielo.br/scielo.php?script=sci_arttext&pid=S2179-84512013000300008&lng=en&nrm=iso&tlng=en Apresentam-se dois modelos matemáticos de otimização os quais, considerando os dados do trânsito da região que se pretende otimizar, possibilitam fornecer tempos de verde que visam minimizar o tempo de percurso veicular. Também são apresentados os resultados computacionais obtidos com a investigação desses modelos em um estudo realizado na região central da cidade de Passo Fundo, RS.Os resultados apontam para uma melhora significativa no fluxo veicular, dando respaldo a um possível emprego destes modelos em situação real.<hr/>This work presents two mathematical optimization models, developed in order to minimize the course time delay in cities of medium and large size and taking the time of green in each traffic signal as the design variables. Some computational results are also presented, based on data collected for the transit of a central region of the city of Passo Fundo, RS. The results obtained point to the application of these formulations to real situations. <![CDATA[<b>Avaliação dos desempenhos de estimadores para os parâmetros da distribuição Birnbaum-Saunders</b>]]> http://www.scielo.br/scielo.php?script=sci_arttext&pid=S2179-84512013000300009&lng=en&nrm=iso&tlng=en Este artigo teve como objetivo principal avaliar os desempenhos dos estimadores dos Métodos dos Momentos Modificados para os parâmetros α e β da distribuição Birnbaum-Saunders e três versões corrigidas desses estimadores: a versão corrigida por viés, a corrigida por viés via jackknife e a versão corrigida por viés via bootstrap. Simulações de Monte Carlo foram utilizadas para a realização do objetivo proposto através da verificação de algumas propriedades desses estimadores, a saber: média e erro.<hr/>This article aimed to evaluate the performances of the estimators of the Modified Method of Moments for the parameters α and β Birnbaum-Saunders and three corrected versions of these estimators: the corrected version due to the bias, the bias corrected by means jackknife and corrected version due to the bias through bootstrap. Monte Carlo simulations were used to achieve the proposed objective, through the verification of some properties of these estimators, namely mean and error. <![CDATA[<b>Confiabilidade autovalidável de sistemas com processo exponencial de falhas</b>]]> http://www.scielo.br/scielo.php?script=sci_arttext&pid=S2179-84512013000300010&lng=en&nrm=iso&tlng=en A computação da confiabilidade envolve números reais, o que gera problemas numéricos decorrentes das limitações encontradas na manipulação de reais em máquinas digitais. Este trabalho propõe um método, implementado no Matlab utilizando a biblioteca Intlab, para a obtenção de intervalos que encapsulam valores de confiabilidade real de sistemas com processo Exponencial de falhas, controlando erros numéricos. O software SHARPE foi empregado para validar o método implementado.<hr/>Reliability computing results real numbers, which can generate numeric problems caused by the limitation of operating with real numbers in a discrete digital machine. This paper proposes a method, developed in Matlab using Intlab library, focused on calculating intervals that enclose real values of reliability, controlling numeric errors. The SHARPE software was used to compare real values and intervals obtained with the developed method. <![CDATA[<b>Quantum processes</b>: <b>a novel optimization for quantum simulation</b>]]> http://www.scielo.br/scielo.php?script=sci_arttext&pid=S2179-84512013000300011&lng=en&nrm=iso&tlng=en The simulation of quantum algorithms in classical computers demands high processingand storing capabilities. However, optimizations to reduce temporal and spatial complexities are promising and capable of improving the overall performance of simulators. The main contribution of this work consists in designing optimizations to describe quantum transformations using Quantum Processes and Partial Quantum Processes, as conceived in the qGM theoretical model. These processes, when computed on the VPE-qGM execution environment, reduce the execution time of the simulation. The performance evaluation of this proposal was carried out by benchmarks that include sequential simulation of quantum algorithms up to 24 qubits and instances of Grover's Algorithm. The results show improvements in the simulation of general, controled transformations since their execution time was significantly low, even for systems with several qubits. Furthermore, a solution based on GPU computing for dealing with transformations that still have a high simulation cost in the VPE-qGM is also discussed.<hr/>A simulação de algoritmos quânticos em computadores clássicos exige alta capacidade de processamento e armazenamento. Entretanto, otimizações voltadas à redução das complexidades espacial e temporal são promissoras e capazes de melhorar o desempenho dos simuladores. A principal contribuição deste trabalho consiste no desenvolvimento de otimizações para descrição de transformações quânticas utilizando Processos Quânticos e Processos Quânticos Parciais, seguindo as concepções do modelo teórico qGM. Esses processos, quando computados no ambiente de execução VPE-qGM, reduzem o tempo de execução das simulações. A avaliação de performance desta proposta foi efetuada utilizando benchmarks que incluem a simulação sequencial de algoritmos quânticos com até 24 qubits e instâncias do Algoritmo de Grover. Os resultados mostram uma melhora na simulação de transformações básicas e controladas, dado que seus correspondentes tempo de execução foram significantemente reduzidos, mesmo quando utilizados sistemas com muitos qubits. Ainda, uma solução baseada em GPUs voltada à transformações que ainda possuem alto custo de simulação no VPE-qGM é discutida. <![CDATA[<b>Variabilidade em escala da textura da Floresta Amazônica e de região desmatada utilizando imagem IKONOS da Reserva Rebio Jarú-Rondônia</b>]]> http://www.scielo.br/scielo.php?script=sci_arttext&pid=S2179-84512013000300012&lng=en&nrm=iso&tlng=en Utiliza-se imagem de satélite de alta resolução espacial (IKONOS, 1-4 m) para investigar características da textura de regiões cobertas pela Floresta Amazônica e desmatadas na área da Reserva Biológica do Jarú em Rondônia (10º05'S 10º19'S e 61º35'W 61º57'W). Procurou-se determinar a existência de possíveis padrões de variabilidade na textura da cobertura vegetal por escala em regiões tanto cobertas por floresta quanto desmatadas. A detecção de escalas características da textura foi efetuada aplicando-se metodologia baseada na aplicação da Transformada Wavelet Contínua Bidimensional, com a utilização da wavelet de Morlet. Os resultados sugerem a existência de possíveis eixos preferenciais de padrões de textura nas áreas cobertas por floresta. Ademais, são observadas diferenças nos padrões de variabilidade por escala da textura nas áreas cobertas por floresta e desmatadas, as quais mostraram distintos valores da variância e curtose por escala, para diversos eixos sobre a imagem.<hr/>We use satellite imagery of high spatial resolution (IKONOS, 1-4m) to investigate the texture characteristics of regions covered by the Amazon rainforest and deforested areas of the Biological Reserve Rebio Jarú in Rondônia (10º05'S 10º19'S and 61º35'W 61º57'W). Our aim is to determine the possible existence of patterns of scale variability of the surface texture in both regions, covered by forest, and deforested. The detection of characteristics of texture scale variability was performed by using a methodology based on the application of the Continuous Wavelet Two-Dimensional Morlet's Transform. The results suggest the existence of possible preferential axes in the texture patterns of forested areas. Moreover, differences are observed in the patterns of the scale variability of the texture in the areas covered by forest and deforested, which have presented distinct values of the scale variance and kurtosis, above a certain threshold length scale, for different horizontal axes defined on the satellite image. <![CDATA[<b>Função de intensidade Poisson perturbada pelo número de eventos recorrentes</b>]]> http://www.scielo.br/scielo.php?script=sci_arttext&pid=S2179-84512013000300013&lng=en&nrm=iso&tlng=en Neste trabalho modela-se a função de intensidade de um processo de Poisson considerando o tempo e o total de recorrências, condicionados ao momento anterior, em uma unidade amostral. Adotamos um componente para o processo de Poisson e outro para o número total de eventos ocorridos na unidade. Estudos de simulação e testes de hipóteses empíricos da significância dos parâmetros no modelo foram reali-zados. A significância dos testes de hipótese Wald e da razão de verossimilhança foi aproximadamente 10% para mais de 50 ocorrências. Um conjunto de dados com tempos de recorrência na aquisição de cosméticos foi modelado adequadamente, tendo parâmetros significativos e valores estimados próximos dos valores observados, justificando a utilização do modelo proposto para tempos e números de recorrências em uma unidade amostral.<hr/>In this paper we to model the intensity function of Poisson process considering the total number of recurrent events and the total tiem for each sample unit subject to earlier time. Being that one of the component represents the Poisson process and the other the total number of events occurring in the same unit. Simulation studies and empirical hypothesis testing for significance of the parameters were performed. Significance of the Wald and likelihood ratio hypothesis testing were was approximately 10% to more 50 recorrences. A dataset with recorrences time in the acquisition of cosmetics was modeled properly, having significant parameters and estimated and observed values are close, justifying the use of the proposed model for times and numbers of recurrences in a sample unit. <![CDATA[<b>On estimation and influence diagnostics for a bivariate promotion lifetime model based on the FGM copula</b>: <b>a fully bayesian computation</b>]]> http://www.scielo.br/scielo.php?script=sci_arttext&pid=S2179-84512013000300014&lng=en&nrm=iso&tlng=en In this paper we propose a bivariate long-term model based on the Farlie-Gumbel-Morgenstern copula to model, where the marginals are assumed to be long-term promotion time structured. The proposed model allows for the presence of censored data and covariates. For inferential purpose a Bayesian approach via Markov Chain Monte Carlo is considered. Further, some discussions on the model selection criteria are given. In order to examine outlying and influential observations, we present a Bayesian case deletion influence diagnostics based on the Kullback-Leibler divergence. The newly developed procedures are illustrated on artificial and real data.<hr/>Neste artigo nós propomos um modelo bivariado de longa duração baseado na copula de Farlie-Gumbel-Morgenstern, onde assumimos marginais com estrutura de tempo de promoção. O modelo proposto permite a presença de dados censurados e de covariáveis. Para fins inferenciais foi considerada uma abordagem bayesiana usando métodos MonteCarlo em Cadeias de Markov. Além disso, algumas discussões sobre os critérios de seleção de modelos são apresentadas. A fim de detectar outliers e observações influentes, nós apresentamos um método bayesiano de análise de influência de deleção de caso baseado na divergência de Kullback-Leibler. Os procedimentos desenvolvidos são ilustrados em dados artificiais e reais. <![CDATA[<b>Método da Procura em Rede Melhorado</b>: <b>uma proposta para a estimação dos parâmetros do modelo de Rakhmatov e Vrudhula</b>]]> http://www.scielo.br/scielo.php?script=sci_arttext&pid=S2179-84512013000300015&lng=en&nrm=iso&tlng=en Neste artigo é apresentada a proposição de um novo método de otimização denominado Procura em Rede Melhorado, que é uma extensão do método Procura em Rede Modificado, aplicado no cálculo dos parâmetros empíricos do modelo de Rakhmatov e Vrudhula, utilizado na literatura para a predição do tempo de vida de baterias usadas em dispositivos móveis. O novo método foi avaliado considerando a seguinte metodologia, inicialmente os parâmetros empíricos do modelo foram calculados considerando os métodos de otimização Procura em Rede Melhorado, Procura em Rede Modificado e Mínimos Quadrados, assim como os dados experimentais obtidos a partir de uma plataforma de testes, considerando uma bateria de Lhitium-Íon, modelo BL5F, usada no telefone celular Nokia N95. Em um segundo momento, o modelo de Rakhmatov e Vrudhula foi validado para cada conjunto de parâmetros obtidos, e os dados simulados, a partir do modelo, foram comparados com dados experimentais adquiridos da plataforma testes. Considerando os resultados das simulações foi realizada uma análise comparativa e verificou-se que com a aplicação do método Procura em Rede Melhorado, na estimação de parâmetros do modelo de Rakhmatov e Vrudhula, foi possível obter uma implementação fácil e intuitiva, melhorar a acurácia do modelo, bem como preservar o tempo de execução.<hr/>This paper presents the proposition of a new optimization method calledEnhanced Network Search, which is an extension of the method Modified Network Search to calculate the empirical parameters of the Rakhmatov and Vrudhula model to predict the mobile devices battery lifetime. The new method was evaluated according to the following methodology, at first empirical parameters were computed considering the optimization methods of Improved Network Search, Modified Network Search and Least Squares,as well as the experimental data obtained from a testbed, considering a Lhition-Ion battery, model BL5F, used in the Nokia N95 cell fone. In a second moment, the Vrudhula andRakhmatov model was validated for each set of parameters obtained, and the simulated data from the model were compared with a set of experimental data. From simulations results was performed a comparative analysis and was found that with the application of the method Enhanced Search Network in the estimation of parameters of the Rakhmatov and Vrudhula model was possible to obtain an easy and intuitive implementation, improving the results obtained in the model accuracy, as well as preserves the runtime. <![CDATA[<b>Square of the Error Octonionic Theorem and hypercomplex Fourier Serier</b>]]> http://www.scielo.br/scielo.php?script=sci_arttext&pid=S2179-84512013000300016&lng=en&nrm=iso&tlng=en The focus of this paper is to address some classical results for a class of hypercomplex numbers. More specifically we present an extension of the Square of the Error Theorem and a Bessel inequality for octonions.<hr/>O foco deste trabalho é abordar alguns resultados clássicos para uma certa classe de números hipercomplexos. Mais específicamente, apresentamos uma extensão do Teorema do Erro Quadrático e da Desigualdade de Bessel para octônios.