Scielo RSS <![CDATA[TEMA (São Carlos)]]> http://www.scielo.br/rss.php?pid=2179-845120140001&lang=en vol. 15 num. 1 lang. en <![CDATA[SciELO Logo]]> http://www.scielo.br/img/en/fbpelogp.gif http://www.scielo.br <![CDATA[<b>Notas Editoriais</b>]]> http://www.scielo.br/scielo.php?script=sci_arttext&pid=S2179-84512014000100001&lng=en&nrm=iso&tlng=en <![CDATA[<b>ScottKnott</b>: <b>a package for performing the Scott-Knott clustering algorithm in R</b>]]> http://www.scielo.br/scielo.php?script=sci_arttext&pid=S2179-84512014000100002&lng=en&nrm=iso&tlng=en Scott-Knott is an hierarchical clustering algorithm used in the application of ANOVA, when the researcher is comparing treatment means, with a very important characteristic: it does not present any overlapping in its grouping results. We wrote a code, in R, that performs this algorithm starting from vectors, matrix, data.frame, aov or aov.list objects. The results are presented with letters representing groups, as well as through graphics using different colors to differentiate distinct groups. This R package, named ScottKnott is the main topic of this article.<hr/>O Scott-Knott é um algoritmo de agrupamento hierárquico utilizado na aplicação da ANOVA, quando o pesquisador está comparando as médias dos tratamentos, com uma característica muito importante: ele não apresenta qualquer sobreposição em seus resultados de agrupamento. Nós escrevemos um código em R, que executa este algoritmo a partir deobjetos das classes vectors, matrix, data.frame, aov ou aov.list. Os resultados são apresentados com letras que representam os grupos, bem como por meio de gráficos usando cores diferentes para diferenciar os grupos distintos. Este pacote do R,nomeado ScottKnott é o principal tema deste artigo. <![CDATA[<b>The long-term exponentiated complementary exponential geometric distribution under a latent complementary causes framework</b>]]> http://www.scielo.br/scielo.php?script=sci_arttext&pid=S2179-84512014000100003&lng=en&nrm=iso&tlng=en In this paper we proposed a new long-term distribution derived from the exponentiated complementary exponential geometric distribution (LECEG). The LECEG distribution is obtained straightforwardly from the exponentiated complementary exponential geometric (ECEG) and accommodates decreasing and unimodal hazard functions in a latent complementary causes scenario, where only the maximum lifetime among all causes is observed. We derive the density, quantile, survival and failure rate functions for the proposed distribution, as well as some proprieties such as the characteristic function, mean, variance and r-th order statistics. The estimation is based on maximum likelihood approach. A simulation study is performed in order to assess the performance of the maximum likelihood estimates. The practical importance of the new distribution was demonstrated in three real datasets.<hr/>Neste trabalho, uma nova distribuição de longa duração derivada da distribuição geométrica exponencial complementar exponenciada é apresentada. A distribuição LECEG acomoda taxa de risco decrescente e unimodal, presente em um cenário de causas complementar latente, em que apenas o tempo máximo de vida entre todas as causas é observado. Obtivemos as funções de densidade, quantis, sobrevivência e taxa de falha para a distribuição proposta, bem como algumas propriedades, tais como a função característica, média, variância e estatísticas r-ésima ordem. A estimativa é baseada na abordagem de máxima verossimilhança. Um estudo de simulação é realizado a fim de avaliar o desempenho das estimativas de máxima verossimilhança. A importância prática da nova distribuição foi demonstrada em três conjuntos de dados reais. <![CDATA[<b>Jump dominance on the contaminant transport residual error estimator</b>]]> http://www.scielo.br/scielo.php?script=sci_arttext&pid=S2179-84512014000100004&lng=en&nrm=iso&tlng=en Considering the fact that the transport of contaminants occur in small advection regime, a residual estimator is used to evaluate the parabolic equation that describes the phenomena of advection-diffusion-reaction in the saturated porous medium. The correspondent numerical solution is obtained by the finite element method using the θ A-stable scheme and a Python code. The residual error estimator considers its component parts and enables analysis and comparisons of contributions to residual error.This analysis considers a problem sequence with a different number of elements in computational mesh. As a result of numerical simulations, there is a dominance of the jump residuals compared to other residual estimates and this dominance increases with both, the growth of elements number in the computational mesh and with time. Furthermore, the considered problem requires additional effort for the calculation of contributions associated with the L² projection of the contaminant source function on the finiteelement space.<hr/>Considerando o fato de que o transporte de contaminantes ocorre em regime de pequena advecção, um estimador residual é usado para analisar a equação parabólica que descreve o fenômeno de advecção-difusão-reação em meio poroso saturado. A solução numérica correspondente é obtida pelo método de elementos finitos usando um esquema θ A-estável em código Python. O estimador de erro residual avalia separadamente as partes componentes do erro e permite a análise e comparação das contribuições para o erro residual. Essa análise considera uma sequência de problemas com diferentes números de elementos na malha computacional. As simulações numéricas indicam que o residual do salto é dominante em comparação com outros resíduos estimados e a dominância cresce com o número de elementos na malha e com o tempo. Adicionalmente, o problema considerado requer esforço adicional para o cálculo das contribuições associadas com a projeção L² da função fonte de contaminante no espaço de elementos finitos. <![CDATA[<b>Identificação do perfil da ionosfera utilizando lógica nebulosa</b>: <b>parte I</b>]]> http://www.scielo.br/scielo.php?script=sci_arttext&pid=S2179-84512014000100005&lng=en&nrm=iso&tlng=en A ionossonda digital é um dos instrumentos que mede a densidade eletrônica da baixa ionosfera, através de rádio frequência, obtendo como resultado espectros de frequência em função da altura chamados ionogramas. A ionosfera pode ser analisada estudando-se alguns parâmetros críticos que indicam a altura da base da camada F(h'F), a frequência com o pico de densidade eletrônica na camada F (foF2) e a altura do pico de densidade eletrônica na camada F(hpF2). Até o presente momento, estes parâmetros são extraídos dos ionogramas de uma forma manual e dependente da interpretação de um analista. Devido à grande quantidade de dados coletados pelas ionossondas necessita-se de uma automatização deste processo de coleta e análise. Este trabalho propõe um modelo de apoio à decisão para o processo de análise dos dados coletados por ionossondas com o propósito de elevar a capacidade de compilação dos dados ionosféricos. A implementação do modelo de apoio à decisão foi estruturada em duas partes: a primeira parte propõe uma abordagem de lógica nebulosa para o problema de associação de dados, considerando as diferentes camadas ionosféricas. A segunda parte propõe o emprego de relação nebulosa como estrutura para a construção das regras de um sistema nebuloso especialista. Este trabalho apresenta apenas a primeira parte do modelo.<hr/>The ionosonde is a digital instrument that measures the electron density of the lower ionosphere by radio frequency, obtaining a result a frequency spectra as a function of time called ionograms. The ionosphere can be analyzed by studying a few critical parameters that indicate the height of the base layer F (h'F), the peak electron density frequency in the F layer (foF2) and the height of peak electron density in the layer F (hpF2). To date, these parameters are extracted from ionograms in a manual and on the analyst interpretation. Due to the large amount of data collected by the ionosonde there is a need of automation of this process of collection and analysis. This paper proposes a model of decision support for the process of analyzing data collected by ionosonde for the purpose of raising the capacity building of ionospheric data. The implementation of decision support model was structured in two parts: the first part proposes a fuzzy logic approach to the problem of data binding, considering the different ionospheric layers. The second part proposes the use of fuzzy relation as a framework for the construction of the rules of a fuzzy expert system. This work addresses the first part of the model. <![CDATA[<b>Estimação dos parâmetros da mistura de duas componentes GEV via Algoritmo EM</b>]]> http://www.scielo.br/scielo.php?script=sci_arttext&pid=S2179-84512014000100006&lng=en&nrm=iso&tlng=en Modelos probabilísticos de misturas finitas de densidades cujas componentes são as densidades da distribuição de Valor Extremal Generalizado tem uma ampla aplicabilidade em diversas áreas como finanças e hidrologia. Neste trabalho, os estimadores dos parâmetros da mistura de duas componentes GEV são obtidos via o algoritmo EM. Apresentamos também ilustrações numéricas do comportamento dos estimadores obtidos através de simulação, bem como uma aplicação a dados reias.<hr/>Probabilistic models of finite mixtures with components Generalized Extremal Value (GEV) distributions are widely applied in diverse areas such as finance and hydrology. In this work, the estimators of the parameters of the GEV mixture of two components are obtained via the EM algorithm. We also present numerical examples of the behavior of the estimates obtained through of simulation, well as an application to real data. <![CDATA[<b>Análise espacial espectral bidimensional em partículas de material compósito Al/SiC</b>]]> http://www.scielo.br/scielo.php?script=sci_arttext&pid=S2179-84512014000100007&lng=en&nrm=iso&tlng=en Este trabalho investiga o padrão da distribuição espacial de partículas de carboneto de silício em uma liga de alumínio (Al/SiC) utilizando análise espacial espectral bidimensional. Esta técnica se baseia na transformada de Fourier da função de autocovariância amostral. A análise espectral é uma ferramenta poderosa para investigar o padrão espacial de pontos, uma vez que não assume características estruturais dos dados antes da análise e utiliza-se apenas da função espectral. As coordenadas dos centros das partículas foram adquiridas através de tecnicas de processamento de imagem. O espectro polar do periodograma e métodos de Monte-Carlo são usados para testar a hipótese de completa aleatoriedade espacial das partículas. Os resultados mostram que as partículas de carboneto de silício apresentam distribuição espacial completamente aleatória na liga de alumínio e que a análise espacial espectral pode ser uma ferramenta alternativa para investigar padrões de configurações pontuais no espaço.<hr/>This work investigates the spatial distribution pattern of silicon carbide particles in an aluminum alloy (Al/SiC) using two-dimensional spectral spatial analysis. This technique is based on the Fourier transform of the autocovariance function sample. The spectral analysis is a powerful tool for investigating the spatial distribution of points, since it does not assume structural characteristics of the data before analysis and uses only the spectral function. The coordinates of the centers of the particles were acquired through image processing techniques. The polar periodogram spectrum and Monte-Carlo methods are used to test the hypothesis of complete spatial randomness of the particles. The results show both the silicon carbide particles have completely random spatial distribution in the aluminum alloy and the spatial spectral analysis can be an alternative tool to investigate point patterns in space. <![CDATA[<b>Spectral projected gradient method for the procrustes problem</b>]]> http://www.scielo.br/scielo.php?script=sci_arttext&pid=S2179-84512014000100008&lng=en&nrm=iso&tlng=en We study and analyze a nonmonotone globally convergent method for minimization onclosed sets. This method is based on the ideas from trust-region and Levenberg-Marquardt methods. Thus, the subproblems consists in minimizing a quadratic model of the objective function subject to a given constraint set. We incorporate concepts of bidiagonalization and calculation of the SVD "with inaccuracy" to improve the performance of the algorithm, since the solution of the subproblem by traditional techniques, which is required in each iteration, is computationally expensive. Other feasible methods are mentioned,including a curvilinear search algorithm and a minimization along geodesics algorithm. Finally, we illustrate the numerical performance of the methods when applied to the Orthogonal Procrustes Problem.<hr/>Estudamos e analisamos um método globalmente convergente e não monótono para minimização em conjuntos fechados. Este método está baseado nas ideias dos métodos de região de confiança e Levenberg-Marquardt. Dessa maneira, os subproblemas consistem em minimizar um modelo quadrático da função objetivo sujeito a um conjunto de restrições. Incorporamos conceitos de bidiagonalização e de cálculo da SVD de maneira "inexata" buscando melhorar o desempenho do algoritmo, visto que a solução do subproblema por técnicas tradicionais, necessária em cada iteração, é computacionalmente muito cara. Outros métodos viáveis são citados, entre eles um método de busca curvilinear e um de minimização ao longo de geodésicas. Finalmente, ilustramos o desempenho numérico dos métodos quando aplicados ao Problema de Procrustes Ortogonal. <![CDATA[<b>Probabilist set inversion using pseudo-intervals arithmetic</b>]]> http://www.scielo.br/scielo.php?script=sci_arttext&pid=S2179-84512014000100009&lng=en&nrm=iso&tlng=en In this paper, one presents how to use a new interval arithmetic framework based on free algebra construction, called pseudo-intervals, which is associative and distributive and permits to build well-defined inclusion function for interval semi-group and for its associated vector space. One introduces the ψ-algorithm (Probabilist Set Inversion), which performs set inversion of functions and exhibits some numerical examples.<hr/>Neste artigo, apresenta-se como usar um novo arcabouço de aritmética intervalar com base na construção de álgebra livre, chamado pseudo intervalos, que é associativa e distributiva e permite a construção da inclusão de função bem definida para semi-grupo intervalar e para seu espaço vetorial associado. Apresenta-se o ψ-algoritmo (Inversão Probabilística de Conjuntos), que realiza a inversão de funções e exibe-se alguns exemplos numéricos. <![CDATA[<b>A faster pixel-decimation method for block motion estimation in H.264/AVC</b>]]> http://www.scielo.br/scielo.php?script=sci_arttext&pid=S2179-84512014000100010&lng=en&nrm=iso&tlng=en This work explores the highly advantageous cost/benefit relation presented by low discrepancy sequences as a pixel-decimation technique to improve the block estimation performance in the H.264/AVC. The proposed method is able to efficiently estimate motion vectors for block matching algorithms present in the H.264 by using latticed decimation sampled according to the Van Der Corput-Halton sequences. This paper further explores motion estimation within the H.264, validating it with real-case-video-encoding scenarios. The results have shown that this technique incorporated to the H.264 is generally more efficient than other decimation techniques used in similar conditions.<hr/>Este trabalho explora o custo-benefício vantajoso apresentado por sequênciasde baixa discrepância como uma técnica de decimação de pixeis para melhorar a performance da estimação de blocos no h.264/avc. O método proposto é capaz de estimar vetores de movimento de forma eficiente para algoritmos de casamento de blocos presentes no codec h.264 utilizando decimação ladrilhada amostrada através da sequência van der corput-halton.Este artigo explora a estimação de movimento dentro do h.264, validando-a com casos práticos de codificação de vídeos. Os resultados mostram que esta técnica incorporada ao h.264 é geralmente mais eficiente que outras técnicas de decimação utilizadas em condições semelhantes.