Acessibilidade / Reportar erro

Solução iterativa dos sistemas lineares do método de pontos interiores

Resumos

Nesse trabalho, consideramos o método preditor-corretor, que é uma das variantes mais importante do método de pontos interiores devido à sua eficiência e convergência rápida. No método preditor-corretor, é preciso resolver dois sistemas lineares a cada iteração para determinar a direção preditora-corretora. A resolução desses sistemas é o passo que requer mais tempo de processamento, devendo assim ser realizada de maneira eficiente. Para obter a solução dos sistemas lineares do método preditor-corretor consideramos dois métodos iterativos de Krylov: MINRES e método dos gradientes conjugados. Para que estes métodos convirjam mais rapidamente um pré-condicionador especialmente desenvolvido para os sistemas lineares oriundos dos métodos de pontos interiores é usado. Experimentos computacionais em um conjunto variado de problemas de programação linear foram realizados com o intuito de analisar a eficiência e robustez dos métodos de solução dos sistemas.

métodos de pontos interiores; sistemas lineares; métodos iterativos


In this paper, we consider the predictor-corrector method, which is one of the most important variants of the interior point methods due to its efficiency and fast convergence. In the predictor-corrector method it is necessary to solve two linear systems at each iteration to determine the search direction. The solution of such systems is the step that requires more processing time and should therefore be carried out efficiently. Two iterative Krylov methods are considered to solve these linear systems of: the MINRES and the conjugate gradient method. A preconditioner specially developed for the linear systems arising from the interior point methods is used so that the iterative methods converge faster. Computational experiments in a some sets of linear programming problems are performed in order to analyse the efficiency and robustness of the linear systems solution methods.

interior point methods; linear systems; iterative methods


Solução iterativa dos sistemas lineares do método de pontos interiores

C.T.L.S. GhidiniI, * * Autor correspondente: Carla Ghidini ; A.R.L. OliveiraII; M. SilvaIII

IFCA – Faculdade de Ciências Aplicadas, UNICAMP – Universidade Estadual de Campinas, 13484-350 Limeira, SP, Brasil. E-mail: carla.ghidini@fca.unicamp.br

IIDepartamento de Matemática Aplicada, IMECC – Instituto de Matemática, Estatística e Computação Científica, UNICAMP – Universidade Estadual de Campinas, 13083-859 Campinas, SP, Brasil. E-mail: aurelio@ime.unicamp.br

IIIDepartamento de Matemática Aplicada, IMECC – Instituto de Matemática, Estatística e Computação Científica, UNICAMP – Universidade Estadual de Campinas, 13083-859 Campinas, SP, Brasil. E-mail: marilene@ime.unicamp.br

RESUMO

Nesse trabalho, consideramos o método preditor-corretor, que é uma das variantes mais importante do método de pontos interiores devido à sua eficiência e convergência rápida. No método preditor-corretor, é preciso resolver dois sistemas lineares a cada iteração para determinar a direção preditora-corretora. A resolução desses sistemas é o passo que requer mais tempo de processamento, devendo assim ser realizada de maneira eficiente. Para obter a solução dos sistemas lineares do método preditor-corretor consideramos dois métodos iterativos de Krylov: MINRES e método dos gradientes conjugados. Para que estes métodos convirjam mais rapidamente um pré-condicionador especialmente desenvolvido para os sistemas lineares oriundos dos métodos de pontos interiores é usado. Experimentos computacionais em um conjunto variado de problemas de programação linear foram realizados com o intuito de analisar a eficiência e robustez dos métodos de solução dos sistemas.

Palavras-chave: métodos de pontos interiores, sistemas lineares, métodos iterativos.

ABSTRACT

In this paper, we consider the predictor-corrector method, which is one of the most important variants of the interior point methods due to its efficiency and fast convergence. In the predictor-corrector method it is necessary to solve two linear systems at each iteration to determine the search direction. The solution of such systems is the step that requires more processing time and should therefore be carried out efficiently. Two iterative Krylov methods are considered to solve these linear systems of: the MINRES and the conjugate gradient method. A preconditioner specially developed for the linear systems arising from the interior point methods is used so that the iterative methods converge faster. Computational experiments in a some sets of linear programming problems are performed in order to analyse the efficiency and robustness of the linear systems solution methods.

Keywords: interior point methods, linear systems, iterative methods.

1 INTRODUÇÃO

O trabalho de Karmarkar em 1984 [6] revolucionou a área de programação linear por apresentar um algoritmo com complexidade polinomial e excelente desempenho quando aplicado em problemas lineares de grande porte. A partir daí, foi desenvolvido uma nova linha de pesquisa: os métodos de pontos interiores. Esses métodos buscam a solução ótima de um problema de programação linear, percorrendo o interior da região de factibilidade, determinada pelas restrições do problema. Eles podem ser classificados em primal, dual e primal-dual ou ainda por métodos afim escala, método de redução de potencial e métodos de trajetória central.

Neste trabalho, estamos considerando o método preditor-corretor, que é um método do tipo primal-dual de trajetória central. O passo mais importante do método preditor-corretor consiste em encontrar as direções preditora (direção afim escala) e corretora. Para isso, alguns sistemas de equações lineares devem ser resolvidos a cada iteração, o que requer grande esforço computacional.

Uma forma de diminuir a complexidade computacional consiste em reduzir esses sistemas a sistemas de equações normais ou sistemas aumentados e depois aplicar algum método iterativo para resolvê-los.

Para resolver os sistemas de equações normais e aumentado foi feita uma implementação cuidadosa do método MINRES com reortogonalização [16]. Esta implementação foi comparada com uma implementação do método dos gradientes conjugados (GC) já existente [15]. Ambos métodos utilizam o subespaço de Krylov como subespaço de busca para encontrar uma solução aproximada do sistema, o que é uma estratégia vantajosa, uma vez que esse subespaço pode ser muito menor que o subespaço de busca completo.

Para que os métodos iterativos tenham um melhor desempenho é realizado o pré-condicionamento da matriz de restrições dos sistemas utilizando o pré-condicionador separador. Além disso, com o intuito de resolver um número maior de problemas e de forma mais eficiente é considerada uma abordagem que utiliza, inicialmente, o GC e depois de um certo número de iterações, se o critério pré-estabelecido para troca for satisfeito, o MINRES passa a ser utilizado. Mais detalhes sobre essa técnica são fornecidos na Seção 5.

2 MÉTODO DE PONTOS INTERIORES – PRIMAL DUAL

Considere o problema de programação linear na forma padrão:

em que A m×n, posto(A) = m, x n , c n e b m. Associado ao problema (2.1), denominado de problema primal, temos o seguinte problema dual:

em que y m é o vetor de variáveis duais livres e z n de variáveis de folga.

As condições de otimalidade de primeira ordem (Karush-Kuhn-Tucker) de (2.1) e (2.2) são dadas por [18]:

sendo X = diag(x), Z = diag(z) e e n, tal que e = (1,1,...,1)t .

Os métodos de pontos interiores do tipo primal-dual consistem em aplicar o método de Newton às condições de otimalidade (2.3), partindo de um ponto interior e mantendo interior a cada iteração. A direção afim escala (direção de Newton) é obtida resolvendo o seguinte sistema:

em que rp = b – Ax, rd = c – At y – z, ra= –XZe. Eliminando a variável z, obtemos o sistema aumentado:

em que D = XZ–1. A forma mais usada para resolver o sistema (2.4) consiste em reduzi-lo, por meio da eliminação da variável x, a um sistema de equações normais AD–1 At:

Em geral, não é possível realizar um passo completo ao longo da direção de Newton, visto que (x, z) > 0 deve ser satisfeita. Dessa forma, o novo ponto é dado por:

(xk+1, yk+1, zk+1) = (xk, yk , zk) + (xk, yk, zk),

em que = (p, d, d)t. Os passos pe dsão os passos primal e dual que preservam a não negatividade das variáveis x e z, respectivamente. Esses valores são determinados da seguinte forma:

em que τ ∈(0, 1).

2.1 Método Preditor-Corretor

O método preditor-corretor desenvolvido por Mehrotra [9] consiste em utilizar uma direção composta por três componentes: direção afim escala, direção de centragem e direção de correção não linear [12]. Fazendo acorreção não linear e introduzindo a perturbação para centragem, temos o sistema:

em que µ = .

Mehrotra em [9] sugere p = 2 ou p = 3. Além disso, ao tomar p= d= 1, obtemos um ponto primal e dual factível. Assim, rp = rd= 0 e rana restrição de complementariedade é dado por ra

x
ze em que x = diag(x) e z = diag(z).

A direção preditora-corretora é dada por: d = + e determinada resolvendo o sistema:

Adx = rp

Atdy + dz = rd

Zdx +Xdz = rs,

em que rs = ra+ µe – x

ze.

2.2 Pré-condicionador Separador

Para uma convergência mais rápida dos métodos iterativos o pré-condicionamento da matriz de restrições do sistema linear se faz necessário. O pré-condicionador separador [14] é específico para os sistemas lineares oriundos dos métodos de pontos interiores. Quando aplicado ao método dos gradientes conjugados evita o cálculo da matriz de equações normais e sua fatoração. Apresenta resultados muito bons próximos a uma solução do problema, mas não é eficiente nas primeiras iterações. Este pré-condicionador é calculado como segue: Considere a matriz de equações normais em (2.5). Tome A = [BN]P, em que P n×n é uma matriz de permutação tal que B m×m é não singular, então

O pré-condicionador é dado por:

B-1 e a matriz pré-condicionada M é como segue:

em que

Note que próximo a uma solução pelo menos n – m elementos em D–1 são grandes. Dessa forma, uma escolha adequada das colunas de B faz com que os elementos em e DNsejam muito pequenos nesta situação. Neste caso, G aproxima-se da matriz nula, M se aproxima da matriz identidade e ambos, o menor e o maior autovalor de M, se aproximam do valor 1, assim como o número de condição κ2(M)1 1 O número de condição de uma matriz M é definido por: κ 2( M) = || M|| 2|| M –1|| 2. .

3 MÉTODOS DO SUBESPAÇO DE KRYLOV

Considere o sistema linear:

em que b é um vetor do m e A é uma matriz m × n. Sejam K e L dois subespaços do n de dimensão n.Uma técnica de projeção consiste em encontrar em K uma solução aproximada para (3.1), de forma que o resíduo b – Ax seja ortogonal à L, em que L denota o espaço de restrições.

Métodos do subespaço de Krylov são baseados em processos de projeção em subespaços de Krylov. O subespaço de Krylov de ordem m associado à A e b é o subespaço gerado pelos vetores da sequência de Krylov: Km(A, b) = span{b, Ab, A2b, ..., Am–1b}. Nos métodos de Krylov, Km é dado por: Km(A, r0 ) = span{r0, Ar0, A2r0, ..., Am–1r0}, em que r0 = b – Ax0 é o resíduo da solução inicial x0.

As diferentes versões dos métodos do subespaço de Krylov surgem a partir de diferentes escolhas do subespaço Lm e das formas pelas quais o sistema é pré-condicionado. Os métodos GC e MINRES foram originados escolhendo Lm = AKm.

3.1 Método de Arnoldi

O método de Arnoldi é um método de projeção ortogonal [10] utilizado para construir uma base ortonormal para o subespaço de Krylov Km(A, b). Este procedimento começa com v1 = . Em seguida, calcula-se Av1 e a partir dele constrói-se um vetor ortogonal a v1. Normaliza-se este vetor e obtém-se v2. Dessa forma, se v1, ..., vj for uma base ortogonal para K j (A, r0 ), então para encontrar vj + 1 basta calcular t = Avj e ortonormalizá-lo com respeito a v1, ..., vj. Isto produz um método para a criação de uma base ortonormal para K j+1(A, r0). Os vetores v1, ..., vj + 1 formam uma base para K j+1(A, r0), a menos que t seja igual a zero. A ortogonalização gera a relação expressa em termos de vj : AVm–1 = Vm Hm, m–1, em que Vmdenota a matriz com colunas v1 até vm. A matriz Hm, m–1 é uma matriz Hessenberg superior de ordem m × m – 1, em que os elementos hi, jsão definidos pelo método de Arnoldi.

A princípio o processo de ortogonalização pode ser realizado de diferentes formas, mas normal-mente a abordagem mais usada é o processo de Gram-Schimidt [4].

3.2 Método de Lanczos

Assim como o método de Arnoldi, o método de Lanczos [8] é utilizado para gerar uma base ortonormal para um subespaço de Krylov associado à A e b.Porém, em Lanczos A deve ser uma matriz simétrica. Note que se A é simétrica, então = Hm–1,m–1= AVm–1 é uma matriz tridiagonal. Assim, durante o processo de ortogonalização de A, vários termos hijse anulam, o que reduz H a uma matriz tridiagonal simétrica e faz com que o custo computacional associado à ortogonalização e ao armazenamento sejam reduzidos, em comparação ao método de Arnoldi.

O processo de Lanczos aproxima uma matriz simétrica A em uma matriz simétrica tridiagonal Tk+1,k2 2 T k+1,k = , em que α j = hij, β j = h j–1,j. com uma linha adicional na parte inferior.

Se definirmos Tkcomo sendo as primeiras k linhas de Tk+1,k,então Tké uma matriz quadrada e simétrica. Dessa forma:

em que representa o vetor canônico. O processo Lanczos determina o vetor vk+1 tomando como vetor inicial v0 = 0 e β1v1 = b, em que β1 serve para normalizar v1: βk+1vk+1 = pk– αkvk– βkvk–1, em que αk= pk e pk = Avk. O valor βk+1 é usado para normalizar vk+1. Na forma matricial,

Em aritmética exata, as colunas de Vksão vetores colunas ortonormais. O processo termina quando βk+1 = 0 (k < n),então obtemos AVk = VkTk.

Seja A n×n uma matriz simétrica e v1n um vetor unitário. Então, a partir do processo de Lanczos, obtemos a relação garantida pelo Teorema 9.11 em [4]: AVk = VkTk+ rketk .

3.3 Método dos Gradientes Conjugados

O método dos Gradientes Conjugados (GC) resolve sistemas de equações lineares, cuja matriz dos coeficientes é simétrica e definida positiva. Este método é baseado em Lanczos, a partir do qual é obtida uma base ortogonal de vetores para o subespaço de Krylov Kk(A, r0). Além disso, o método GC é um método fundamentado na abordagem de Ritz-Galerkin. Na condição de Ritz-Galerkin, o novo resíduo b – Axk+1 deve ser ortogonal ao subespaço gerado por v1, ..., vk, ou seja, Vkt (b – Axk) = 0.

Sejam b 1v1e e1 o primeiro vetor canônico unitário em k, segue que

Vktb = Vkt 1v1) = β1 = β1e1,

visto que os vetores v1, ..., vk formam uma base ortonormal para o subespaço de Krylov Kk(A, b). Procuramos por uma solução aproximada xkpara o sistema Ax = b tal que xkKk(A, b). Dessa forma, podemos escrever xkcomo uma combinação dos vetores da base de Kk(A, b), ou seja, xk = Vk y. Portanto, a condição Vkt(b – Axk) = 0 pode ser reescrita como: Vkt AVk y 1e1.

Claramente, precisamos construir a matriz Vkt AVk. Entretanto, da relação AVk = VkTk, obtida a partir do processo de ortogonalização de Lanczos, segue que Vkt AVk = Tk. Assim, obtemos xk, tal que rkKk(A, r0), resolvendo o seguinte sistema: Tk y 1e1.

Em cada iteração do método dos Gradientes Conjugados,de acordo com [4, Seção 9.31], podemos resolver o sistema Tk yk= β1e1 aplicando a fatoração de Cholesky na matriz Tkdo processo de Lanczos.

3.4 Método MINRES

O método MINRES resolve sistemas lineares simétricos indefinidos. Métodos baseados na norma mínima residual, como o MINRES, determinam a solução aproximada xkKk(A, r0) do sistema Ax = b de tal forma que a norma Euclidiana ||b – Axk||2 seja mínima sobre Kk(A, r0).

Nas Seções 3.1 e 3.2, apresentamos dois processos de construção de uma base ortogonal para um subespaço de Krylov K(A, r0) que produziram a relação AVk = Vk+1Hk+1,k, em que Vké uma matriz cujas colunas v1, ..., vk formam a base do subespaço Kk(A, r0). Dessa forma, dado β1v1 = b e xk = Vk yk, a expressão ||b – Axk||2 pode ser reescrita como:

||b – Axk||2 = ||β1v1 – AVk yk||2 = ||Vk+11e1 – Hk+1,kyk)||2.

Por construção, os vetores colunas da matriz Vk+1 são ortonormais. Portanto, Vk+1 é uma transformação ortogonal com respeito ao subespaço de Krylov Kk+1(A, r0),então:

||b – Axk||2 = ||β1e1 – Hk+1,k yk ||2.

Quando A é simétrica a matriz Hk+1,k reduz a uma matriz tridiagonal Tk+1,k.

O método MINRES é construído utilizando o processo de Lanczos. Dentro de cada etapa de Lanczos, resolvemos o subproblema de quadrados mínimos

aplicando a fatoração QR

em que Qk = Qk, k+1 ··· Q2,3Q1,2 é um produto de matrizes ortogonais, construídas para eliminar βk+1 da subdiagonal de Tk+1,k e tk= [τ1τ2 ··· τk]t . Assim, a solução de quadrados mínimos de (3.3) obtida via fatoração QR é definida pelo seguinte sistema triangular: Rk yk = tk, em que ||rk||2 = ||b –Axk||2 = .Cada Qi, i+1 é isto é definida em termos de ci e si, isto é,

A partir das Rotaçõesde Givens [4, Seção 5.1.8] podemos construir a matriz Qk, tal que QkTk+1,k seja uma matriz triangular superior. Como a matriz Tk+1,k é tridiagonal é preciso eliminar a linha abaixo da diagonal principal, assim dados tiie ti+1,i, elementos da matriz Tk+1,k, obtemos os fatores cie si: (Givens(tii , ti + 1, i) → (ci , si , tii)). O MINRES determina a solução aproximada xkKk(A, b) do problema original Ax = b da seguinte forma: xk = Vk yk. Pela relação Rk yk = tktemos que yk = Rk–1tk. Logo,

em que Vk Rk–1 = Dk, ou melhor, Vk = Dk Rke

4 IMPLEMENTAÇÕES

Considere o sistema de equações lineares simétrico Ax = b e um pré-condicionador para este sistema M = LtL. Então o sistema pré-condicionado é equivalente a ao sistema (L–1 AL–t)(Ltx) = L–1b, em que L–AL–t é uma matriz simétrica e definida positiva. Dado o sistema linear Ax = b, obtemos MINRESP (MINRES pré-condicionado) aplicando MINRES ao sistema equivalente  = , em que  =L–1AL–1, = L–1x e = L–1b. Seja K(Â, ), 0 = 0 e 1

1 = . Definimos k= kLke k= kL–1ktal que Mk= k. Então,

Visto que M–1 = (Lt)–1L–1 e Mk = ktemos k= . Dessa forma, obtemos o processo de Lanczos pré-condicionado:

Temos que qk é a solução do sistema Mk = k. Assim, multiplicando a equação k+1

k+1 por L, obtemos:

Dados o pré-condicionador M e maxit (número máximo de iterações), obtemos a partir do Algoritmo 1 uma solução aproximada x para o sistema Ax = b.


O método MINRESP é construído utilizando o processo de Lanczos pré-condicionado. A cada etapa de Lanczos pré-condicionado, resolvemos o subproblema de quadrados míni-mos equivalente ao apresentado em (3.3) associado ao sistema  = . Para atualizar a solução do problema original basta multiplicar as equações equivalentes à (3.4) e (3.5), resultadas do MINRES aplicado ao sistema pré-condicionado  = , por L–1:

Um pré-condicionador adequado para GC deve ser simétrico e definido positivo. A ideia do método do GC pré-condicionado (GCP) consiste em aplicar o método GC, como apresentado na Seção 3.3, para resolver um sistema pré-condicionado. Considere o sistema simétrico e definido positivo Ax = b. Pré-condicionando esse sistema obtemos o sistema equivalente:  = , em que L étrica e definida positiva. Definimos o pré-condicionador simétrico e definido positivo M por: M = LtL. Seja rk = b – Axko resíduo do sistema original e zko resíduo do sistema pré-condicionado tal que Mzk = rk. Obtemos o processo iterativo do GCP aplicando o GC para resolver o sistema equivalente, isto é,

Visto queamatriz AD At do sistema de equações normais (2.5) é simétrica e definida positiva, podemos utilizaro GCP para determinar as direções de Newton nos métodos de pontos interiores. Esta versão do método do GCP fornece uma solução aproximada do sistema original diretamente sem ter que calculá-la a partir da solução aproximada do sistema de pré-condicionado. Os resultados teóricos e experimentais apresentados em [2] fornecem evidências que muitas vezes, em sistemas simétricos e definido positivo, o MINRES pode parar muito mais cedo que o GC. Em alguns casos, o MINRES pode convergir mais rapidamente que o GC. Porém, geralmente o GC converge mais rapidamente do que o MINRES considerando tanto ||x* – xk||A3 3 A norma-A é definida como: || w|| A= . quanto ||x* – xk||2. Nos trabalhos [13] e [5], são feitas comparações entre os métodos MINRES, CG e também outros métodos de resolução de sistemas. A seguir, apresentamos o Algoritmo 3 para a nova abordagem proposta, a qual utiliza os métodos GCP e MINRESP juntos.


Para resolver um sistema Ax = b, o Algoritmo 3 utiliza, inicialmente, o GCP. Se este método não convergir até um certo número de iterações (it) pré-determinado, então o MINRESP passa a ser utilizado para resolver o sistema. Nos experimentos, consideramos it = número de linhas da matriz dos coeficientes.

5 EXPERIMENTOS COMPUTACIONAIS

Para comparar o desempenho do método preditor-corretor ao resolver problemas de programação linear usando os métodos iterativos GC e MINRES, ambos pré-condicionados pelo pré-condicionador separador e uma nova abordagem híbrida, a qual utiliza, inicialmente, o CGP e em seguida o MINRESP, foram realizados experimentos computacionais em um Intel Core i5, 4 GB RAM, 2,3 GHZ, 225 GB HD, com sistema operacional Linux. O código foi implementado em linguagem C e os 63 problemas de programação linear testados, pertencentes as coleções Netlib [3], Qaplib [1], Kennington [7], STOCHLP [17] e MISC [11], que estão no formato MPS, foram lidos usado callable library do CPLEX.

O pré-condicionador separador requer o cálculo da fatoração LU da matriz do sistema. Uma nova fatoração LU é calculada de uma iteração para a outra sempre que os métodos GCP e MINRESP necessitam muitas iterações para atingir a convergência. Em [14] é proposto calcular uma segunda fatoração LU(refatoração) quando a primeira fatoração é muito densa a fim de melhorar o desempenho. Esta técnica foi considerada nos experimentos. As Tabelas 1 e 2 comparam o tempo total e número de iterações, respectivamente, do método preditor-corretor ao resolver os problemas de programação linear usando os métodos ite-rativos GCP e MINRESP. Foram resolvidos 38 problemas pelo GCP e/ou MINRESP. Nas colunas Refact. a refatoração está sendo realizada.

Os primeiros experimentos foram feitos considerando apenas o sistema aumentado e depois o sistema de equações normais. No primeiro caso, o método GCP não convergiu para nenhum problema enquanto o MINRESP mostrou-se mais robusto e apresentou bons resultados resolvendo 25 problemas, sendo que 2 deles foram resolvidos somente nesse caso. Considerando o sistema de equações normais os dois métodos apresentaram resultados satisfatórios e equilibrados. Quando a refatoração e feita, o GCP resolveu 3 problemas a mais que o MINRESP e em menos tempo em 50% dos problemas, porém a diferença no tempo entre os métodos não foi muito significante. Com relação ao número de iterações o GCP fez menos iterações em 9 problemas contra 6 problemas do MINRESP.

Considerando o caso em que a refatoração não é feita, observa-se um melhor desempenho do MINRESP, que foi mais rápido em todos os problemas resolvidos por ambos métodos. A diferença nos tempos foi bem significante, chegando a ser 23 vezes menor em um dos problemas. Com relação ao número de iterações os resultados foram muito próximos.

Na Tabela 2, foram apresentados os resultados somente dos problemas em que houveram diferenças no número total de iterações. Com os experimentos já realizados, observamos que aproximadamente 34% dos problemas testados foram resolvidos somente por um dos métodos MINRESP ou GCP. Isso motivou a realização de mais um teste considerando o Algoritmo 3.

De acordo com os resultados obtidos, temos que o método MINRESP sem refatorar e usando o sistema de equações normais apresentou o melhor desempenho com relação ao tempo e como o GCP não funciona bem com o sistema aumentado, decidimos utililizar o método híbrido com sistema de equações normais e sem refatoração. A Tabela 3 compara os resultados desse novo teste.

O método híbrido resolveu 61 dos 63 problemas testados, o que significa que 25 problemas passaram a ser solucionados com a nova abordagem. Além disso, este método foi mais rápido em 62% dos problemas, o MINRESP em 27% e o GCP em aproximadamente 2% dos problemas. O número de iterações foi menor em 59% dos problemas para o híbrido, 6% para o MINRESP e em torno de 2% para o GCP. Considerando os problemas resolvidos apenas pelo GCP e híbrido, vemos que somente um deles foi resolvido em menor tempo pelo GCP. Com relação ao número de iterações, o valor foi menor ou igual para o híbrido em todos os problemas. Comparando os resultados do MINRESP com o híbrido vemos que somente 2 problemas foram resolvidos mais rápido pelo híbrido e apenas 3 problemas tiveram o número de iterações menor.

6 CONCLUSÕES

Neste trabalho,para a resolução dos sistemas lineares a cada iteração do método preditor-corretor consideramos tanto o sistema aumentado quanto o sistema de equações normais. O método MINRESP com reortogonalização foi implementado e comparado com o método dos gradientes conjugados, ambos métodos foram pré-condicionados pelo pré-condiciona-dor separador. Experimentos computacionais foram realizados com o objetivo de determinar qual método émais eficiente e robusto. Os resultados mostraram que o MINRESP é mais robusto que o GCP quando somente o sistema aumentado é considerado. Para o sistema de equações normais com e sem refatoração os resultados foram semelhantes para o número de iterações, porém o tempo foi menor ou igual em todos os problemas para o MINRESP sem refatorar. Um método híbrido também foi considerado, o qual resolveu 40% a mais de problemas (inclusive problemas de dimensões maiores) além de ser mais rápido e fazer menos iterações que os métodos GCP e MINRESP para o sistema de equações normais sem refatoração. Dessa forma, concluímos que este método é o mais robusto e eficiente e será ainda mais investigado e utilizado em trabalhos futuros.

AGRADECIMENTOS

Ao CNPq e a FAPESP pelo apoio financeiro.

Recebido em 28 novembro, 2013

Aceito em 27 agosto, 2014

  • [1] R.S. Burkard, S. Karisch & F. Rendl. Qaplib a quadratic assignment problem library. European Journal of Operations Research, 55 (1991), 115119.
  • [2] D.C. Fong & M. A. Saunders. CG versus MINRES: An empirical comparison. SQU Journal for Science, 17(1) (2012), 4462.
  • [3] D.M. Gay. Electronic mail distribution of linear programming test problems. Mathematical Programming Society Committee on Algorithms COAL Newsletter, (1985), 1012.
  • [4] G.H. Golub & C.F. Van Loan. Matrix Computations3a ed. Baltimore, Md., London: The Johns Hopkins University Press, (1996).
  • [5] I.B. Kalambi. A Comparison of three Iterative Methods for the Solution of Linear Equations. Journal of Applied Sciences and Environmental Management, 12(4) (2009), 5355.
  • [6] N. Karmarkar. A new polynomial-time algorithm for linear programming Combinato-rica, 4 (1984), 373395.
  • [7] J.L. Kennington, S. Niemi, W.J. Carolan, J.E. Hill & S.J. Wichmann. An empirical evaluation of the korbx algorithms for military airlift applications. Oper. Res, 38 (1990), 240248.
  • [8] C. Lanczos. An iteration method for the solution of the eigenvalue problem of linear differential and integral operators. J. Res. Nat. Bureau Standards, 45(4) (1950), 255282.
  • [9] S. Mehrotra. On the implementation of a primal-dual interior point method. SIAM Journal on Optimization, 2(4) (1992), 575601.
  • [10] C.D. Meyer. Matrix analysis and applied linear algebra SIAM Publications, SIAM, (2000).
  • [11] Miscellaneous lp models. Technical report, Hungarian Academy of Sciences OR Lab. url, www.sztaki.hu/˜;meszaros/publicftp/lptestset/misc
  • [12] R.D.C. Monteiro, I. Adler & M.G.C. Resende. A polynomial-time primal-dual affine scaling algorithm for linear and convex quadratic programming and its power series extension. Mathematics of Operations Research, 15 (1990), 191214.
  • [13] J. Noreen. A comparison of direct and indirect solvers for linear system of equations. International Journal of Emerging Science, 2(2) (2012), 310321.
  • [14] A.R.L. Oliveira & D.C. Sorensen. A new class of preconditioners for large-scale linear systems from interior point methods for linear programming. Linear Algebra and Its Applications, 394 (2005), 124.
  • [15] Y. Saad. Iterative Methods for Sparse Linear Systems, SIAM, (2003).
  • [16] D.C. Sorensen. Implicit application of polynomial filters in a k-step Arnoldi method. SIAM Journal on Matrix Analysis and Applications, 13 (1992), 357385.
  • [17] Stochastic lp test sets. Technical report, Hungarian Academy of Sciences OR Lab. url, www.sztaki.hu/˜meszaros/publicftp/lptestset/stochlp
  • [18] S.J. Wright. Primal-dual interior-point methods SIAM Publications, SIAM, Philadelphia, PA, USA, (1997).
  • *
    Autor correspondente: Carla Ghidini
  • 1
    O número de condição de uma matriz
    M é definido por: κ
    2(
    M) = ||
    M||
    2||
    M
    –1||
    2.
  • 2
    T
    k+1,k =
    , em que α
    j = hij, β
    j = h
    j–1,j.
  • 3
    A norma-A é definida como: ||
    w||
    A=
    .
  • Datas de Publicação

    • Publicação nesta coleção
      09 Fev 2015
    • Data do Fascículo
      Dez 2014

    Histórico

    • Recebido
      28 Nov 2013
    • Aceito
      27 Ago 2014
    Sociedade Brasileira de Matemática Aplicada e Computacional Rua Maestro João Seppe, nº. 900, 16º. andar - Sala 163 , 13561-120 São Carlos - SP, Tel. / Fax: (55 16) 3412-9752 - São Carlos - SP - Brazil
    E-mail: sbmac@sbmac.org.br