Acessibilidade / Reportar erro

Ajustamento de observações: uma interpretação geométrica para o método dos mínimos quadrados

Adjustment of observations: a geometric interpretation for the least squares method

Resumos

O Método dos Mínimos Quadrados (MMQ) é um dos critérios mais utilizados para o ajustamento de informações onde o número de observações é superabundante e o sistema de equações, devido à presença de erros no processo experimental de medições, inconsistente. Este método adota como solução única para tais problemas aquela que minimiza a soma do quadrado dos erros aleatórios, e é largamente empregado em aplicações geodésicas. A fundamentação teórica envolvida no MMQ, contendo o desenvolvimento matemático do método, é amplamente difundida na comunidade geodésica. Porém, neste artigo, o objetivo é apresentar uma revisão teórica sobre a interpretação geométrica do MMQ, e uma solução alternativa de cálculo para este, advinda desta interpretação. Dois exemplos também são apresentados, onde a interpretação geométrica foi demonstrada numericamente para problemas envolvendo duas observações e um parâmetro e também quatro observações e dois parâmetros.

Ajustamento de Observações; Método dos Mínimos Quadrados; Interpretação Geométrica do MMQ


The Least Squares Method (LSM) is one of the most useful criteria for the adjustment of data where the number of observations is redundant and the system of equations, due to the presence of errors in experimental measurements, inconsistent. This method takes as a single solution that which minimizes the sum of the squared random errors, and is widely used in geodetic applications. The theoretical foundation involved in the LSM, containing the mathematical development of the method, is widespread in the geodetic community. However, in this paper, the goal is to present a theoretical review of the geometric interpretation of the LSM, and an alternative computation solution, derived from this interpretation. Two examples are also shown, where this geometric interpretation has been demonstrated numerically for problems involving two observations and a parameter, and also four observations and two parameters.

Adjustment of Observations; Least Squares Method; LSM Geometric Interpretation


COMUNICAÇÕES / TRABALHOS TÉCNICOS

Ajustamento de observações: uma interpretação geométrica para o método dos mínimos quadrados

Adjustment of observations: a geometric interpretation for the least squares method

Ivandro KleinI; Marcelo Tomio MatsuokaI; Sergio Florencio de SouzaI; Mauricio Roberto VeronezII

ILaboratório de Pesquisas em Geodésia (LAGEO)/Departamento de Geodésia/Instituto de Geociências – UFRGS Av. Bento Gonçalves, 9500, CEP 91501-970, Cx. Postal 15001, Porto Alegre, RS, Brasil, ivandroklein@gmail.com; tomiomatsuoka@gmail.com; sergioflorenciodesouza@gmail.com

IILaboratório de Sensoriamento Remoto e Cartografia Digital – LASERCA Universidade do Vale do Rio dos Sinos - UNISINOS Av. Unisinos, 950, CEP 93.022-000, São Leopoldo, RS, Brasil, veronez@unisinos.br

RESUMO

O Método dos Mínimos Quadrados (MMQ) é um dos critérios mais utilizados para o ajustamento de informações onde o número de observações é superabundante e o sistema de equações, devido à presença de erros no processo experimental de medições, inconsistente. Este método adota como solução única para tais problemas aquela que minimiza a soma do quadrado dos erros aleatórios, e é largamente empregado em aplicações geodésicas. A fundamentação teórica envolvida no MMQ, contendo o desenvolvimento matemático do método, é amplamente difundida na comunidade geodésica. Porém, neste artigo, o objetivo é apresentar uma revisão teórica sobre a interpretação geométrica do MMQ, e uma solução alternativa de cálculo para este, advinda desta interpretação. Dois exemplos também são apresentados, onde a interpretação geométrica foi demonstrada numericamente para problemas envolvendo duas observações e um parâmetro e também quatro observações e dois parâmetros.

Palavras-chave: Ajustamento de Observações; Método dos Mínimos Quadrados; Interpretação Geométrica do MMQ.

ABSTRACT

The Least Squares Method (LSM) is one of the most useful criteria for the adjustment of data where the number of observations is redundant and the system of equations, due to the presence of errors in experimental measurements, inconsistent. This method takes as a single solution that which minimizes the sum of the squared random errors, and is widely used in geodetic applications. The theoretical foundation involved in the LSM, containing the mathematical development of the method, is widespread in the geodetic community. However, in this paper, the goal is to present a theoretical review of the geometric interpretation of the LSM, and an alternative computation solution, derived from this interpretation. Two examples are also shown, where this geometric interpretation has been demonstrated numerically for problems involving two observations and a parameter, and also four observations and two parameters.

Keywords: Adjustment of Observations; Least Squares Method; LSM Geometric Interpretation.

1. INTRODUÇÃO

O Método dos Mínimos Quadrados (MMQ) é um dos critérios mais utilizados para o ajustamento de dados onde o número de observações é superabundante e o sistema de equações, devido à presença de erros no processo experimental de medições, inconsistente. Segundo Dalmolin (2002), "o ajustamento é um ramo da matemática aplicada que tem por objetivo a solução única para problemas onde o número de observações é superabundante e o sistema de equações lineares é inconsistente". Consiste numa expansão do método dos mínimos quadrados desenvolvidos independentemente por Gauss (1795) e Legendre (1805). Não faz sentido falar em ajustamento para problemas onde os dados (observações ou medidas) não excedem o mínimo requerido para solução.

As observações possuem uma propriedade inerente a elas, conhecida como flutuações probabilísticas, pois, quando se repete "n" vezes a medida de uma grandeza, os n valores não são idênticos, mas estão dispersos numa certa região ou intervalo. Essas flutuações, tradicionalmente, são classificadas como erros aleatórios e resultam na inconsistência do sistema de equações (Gemael, 1994). Dentre os diversos critérios possíveis para o ajustamento das observações, o mais difundido e aceito em Geodésia é aquele que segue o principio dos mínimos quadrados, ou seja, aquele que minimiza a soma do quadrado dos erros aleatórios, ponderados pelos respectivos pesos das observações (Ghilani & Wolf, 2006).

O método dos mínimos quadrados já é bastante consolidado e utilizado em aplicações geodésicas, com diversas publicações abordando o assunto, como por exemplo: Rainsford (1957), Mikhail (1976), Gemael (1994), Strang e Borre (1997), Koch (1999), Dalmolin (2002), Teunissen (2003) e Ghilani e Wolf (2006).

No cenário nacional, pode-se afirmar que o desenvolvimento matemático do MMQ é amplamente difundido e conhecido pela comunidade geodésica. Porém, neste cenário, ainda é incipiente uma revisão detalhada a respeito da interpretação geométrica do MMQ.

Neste sentido, este artigo pretende contribuir com o entendimento teórico do MMQ, apresentando uma revisão da interpretação geométrica do método, obtida em Teunissen (2003), bem como uma solução alternativa de cálculo, visando comprovar a interpretação geométrica apresentada. É importante ressaltar que se pretendeu uma abordagem mais didática, com um maior detalhamento na revisão apresentada.

O artigo encerra apresentando dois exemplos numéricos, demonstrando a solução alternativa de cálculo obtida por meio da interpretação geométrica, comprovando a mesma. Cabe ressaltar que este artigo não tem a pretensão de propor a utilização desta solução alternativa em substituição da tradicional. Ela apenas é demonstrada e aplicada para comprovar a interpretação geométrica do MMQ, que é o foco deste artigo/revisão.

2. O MÉTODO DOS MÍNIMOS QUADRADOS

Considerando um sistema linear de equações, expresso na forma matricial:

onde ynx1 é o vetor das n observações ou medidas realizadas, Anxu é a matriz dos coeficientes das equações lineares (matriz design), xux1 é o vetor dos u parâmetros incógnitos a serem estimados e enx1 é o vetor dos n erros aleatórios.

Admitindo a inconsistência do sistema, o problema que se deseja solucionar é: Dado o vetor das observações ynx1 e a matriz design Anxu que relaciona linearmente as observações com os parâmetros, qual a melhor estimativa para o vetor dos parâmetros xux1 e para o vetor dos erros aleatórios enx1?

Para o caso em que se têm apenas duas observações y1 e y2 e uma incógnita x, a matriz design Anxu se torna um vetor a2x1 e uma visualização do problema é obtida por meio da Figura 1:


Analisando a Figura 1 e a equação (1), nota-se que, para cada escolha distinta do parâmetro x, têm-se um correspondente vetor dos erros aleatórios e2x1 associado. O vetor dos erros aleatórios, por meio de manipulações algébricas em (1), pode ser expresso como:

No método dos mínimos quadrados, busca-se como estimativa para o vetor dos parâmetros xux1 aquela cuja soma do quadrado dos erros aleatórios apresentar valor mínimo, ou seja:

Onde o sobrescrito T denota a operação de transposição, e o produto interno entre o transposto e o vetor denota o quadrado de sua norma, ou seja, a soma do quadrado das componentes deste vetor (Lay, 1997).

Considerando uma matriz peso das observações, simétrica e positiva-definida, denotada por Wnxn, o critério expresso em (3) se torna:

Onde os elementos da matriz Wnxn podem ser escolhidos para ponderar a influência de observações específicas sobre a estimativa do vetor dos parâmetros xux1. Observações com peso maior terão maior importância no processo de ajustamento (Gemael, 1994).

Por exemplo, para um caso bidimensional (n=2 e u=1), onde

a equação (4) torna-se:

Na expressão (5) é utilizada a propriedade de simetria da matriz W2x2, de forma que w12 = w21 (Lay, 1997).

Voltando ao caso geral da matriz W com dimensão nxn, realizando as operações algébricas em (4) e denotando esta soma ponderada do quadrado dos erros aleatórios por F(x), ou seja, como função do vetor dos parâmetros xux1 estimado, tem-se:

Pela teoria do Cálculo vetorial, sabe-se que esta função apresentará um valor F(x)= Mínimo quando o vetor dos parâmetros xux1 for um vetor ...

tal que (Koch, 1999):

Aplicando as condições de (7) na expressão (6), resulta em:

A Figura 2 ilustra esta condição de F(x)= Mínimo para uma função F de apenas uma variável x (u=1).


Como a matriz peso Wnxn é assumida ser positiva-definida e simétrica, a segunda condição de (8), ou seja, a garantia de ser ponto de mínimo, é sempre obedecida (Lay, 1997). Para a primeira condição de (8), realizando as operações algébricas, têm-se (Strang e Borre, 1997):

Onde

ux1 é a estimativa por mínimos quadrados do vetor dos parâmetros (é o vetor dos parâmetros ajustados). O vetor das observações ajustadas ŷnx1 é obtido aplicando o vetor dos parâmetros ajustados ao modelo linear, resultando em:

Finalmente, o vetor dos erros aleatórios ajustados pode ser obtido combinando as expressões (2) com (10), resultando em:

Onde êux1 é a estimativa por mínimos quadrados do vetor dos erros aleatórios (ou simplesmente vetor dos erros aleatórios) e Inxn é a matriz identidade nxn. Os sobrescritos "*" em (9), (10) e (11) denotam o fato dos referidos vetores ux1 ,ŷnx1 e ênx1 se tratarem de estimativas. Nos casos em que a matriz design Anxu é não linear em relação aos parâmetros xux1, primeiro deve ser feita uma linearização do modelo via série de Taylor, em torno de um vetor dos parâmetros aproximados (detalhes em Gemael, 1994; e em Dalmolin, 2002).

2.1 Interpretação Geométrica do MMQ

Em Teunissen (2003) é demonstrada uma interpretação geométrica para o método dos mínimos quadrados. Esta interpretação geométrica será apresentada para o caso bidimensional já definido anteriormente (n=2 e u=1).

Visando auxiliar nesta interpretação, inicialmente, considera-se a seguinte equação geral, envolvendo um vetor genérico z de dimensão n e uma matriz simétrica W de dimensão nxn:

No caso bidimensional (n=2), a expressão (12) se torna:

A equação (13) descreve uma elipse no plano. Se w11 = w22 e w12 = 0 a elipse é um círculo. Se w11w22 e w12 = 0 a elipse possui seus semi-eixos paralelos aos eixos z1e z2. E se w12 0 a elipse pode ter uma orientação arbitrária (Figura 3).


Definindo uma função F(z) para o vetor z2x1 como F(z) = zT Wz = C, sabe-se do Cálculo que o gradiente de F(z), calculado em um ponto z0, é um vetor que é normal à elipse F(z) = C em z0. Em outras palavras, o vetor gradiente em z0 é perpendicular à linha tangente da função que descreve a elipse neste ponto z0. O vetor gradiente da função F(z), calculado em um ponto z0, é dado por:

Aplicando as derivadas parciais em (14), resulta em (Teunissen, 2003):

Este gradiente é normal à elipse F(z) = C no ponto z0 (Figura 4).


Analisando a Figura 4, nota-se que, para um dado vetor z que se estende da origem até um ponto sobre a linha tangente a elipse em z0, têm-se a relação de ortogonalidade:

Ou seja, o vetor Wz0 é perpendicular ao vetor (z – z0), pois o produto interno entre estes dois vetores é nulo (Strang e Borre, 1997). Nota-se também que o escalar 2 que multiplica o vetor Wz0 não interfere nesta condição de ortogonalidade (não altera a direção e o sentido, apenas o módulo do vetor Wz0).

Ainda considerando o caso bidimensional (n=2 e u=1), o estimador por mínimos quadrados ponderados do parâmetro x é dado por um escalar tal que o vetor dos erros aleatórios ê = (y – ) é paralelo a linha tangente da elipse zTWz = aTWa em a, (Figura 5), pois realizando operações algébricas em (9), pode-se escrever:


Ou seja, o vetor dos erros aleatórios ê deve ser perpendicular ao vetor Wa e, portanto, paralelo a linha tangente da elipse aTWa = C no vetor a.

Nota-se ainda que, quando W2x2=I2x2, resulta em aT(y –

) = 0, ou seja, a elipse se torna um círculo (w11 = w22 =1 e w12 = w12 = 0 ), e a estimativa por mínimos quadrados não ponderados é obtida a partir da relação de ortogonalidade entre os vetores

ê

e

ŷ= a

Ver Figura 6.


De acordo com a expressão (10),ŷ = [A(ATWA)-1AT W] y , e, segundo a expressão (11), ê = [I – A(ATWA)-1AT W] y.

Analisando estas expressões e a Figura 5, nota-se que os vetores ŷ e ê são projeções oblíquas do vetor y, ou seja, as matrizes A(ATWA)-1ATW e

[I – A(ATWA)-1ATW] são projetores oblíquos, denotados por (Teunissen, 2003):

Em outras palavras, o vetor das observações ajustadas ŷ e o vetor dos erros aleatórios ajustados ê são projeções oblíquas do vetor das observações y, sendo estas duas projeções definidas pelos projetores oblíquos Pa, (Wa) e Pa, (Wa) em (18), respectivamente.

No caso bidimensional em questão (n=2 e u=1), o vetor Pa, (Wa)┴ projeta sobre uma linha gerada pelo vetor a2x1, e ao longo de uma linha gerada pelo vetor (Wa) , que é ortogonal ao vetor W2x2 a2x1 (Figura 7), e o vetor Pa, (Wa)projeta sobre uma linha ortogonal ao vetor W2x2 a2x1, e paralelamente à direção do vetor a2x1(Figura 7).


Como Wa e (Wa)são ortogonais entre si, o produto interno destes vetores resulta em [(Wa)┴]T Wa =0.

Com o auxilio de um vetor b2x1, definido de forma que seja ortogonal ao vetor a2x1, ou seja, (b1x2)T a2x1=0, pode-se escrever (Wa) como W-1b.

Portanto, (W-1b)T(Wa)=0, pois a inversa W-1 de W existe, desde que W seja positiva-definida (Lay, 1997).

Desta forma, com o auxilio do vetor W-1b, pode-se representar os dois projetores definidos em (18) alternativamente como (Teunissen, 2003):

A expressão (19) é melhor compreendida com o auxilio da Figura 8, que se utiliza de relações trigonométricas elementares, e das expressões (18) e (11), podendo-se escrever, para o vetor dos erros aleatórios ênx1 (Teunissen, 2003):


Onde o escalar define o módulo do vetor resultante , e o vetor normalizado (unitário) define a direção deste vetor resultante , lembrando que o vetor dos erros aleatórios ajustados ê é uma projeção oblíqua do vetor das observações y e a matriz é o seu projetor.

Rearranjando a expressão (20), de forma a agrupar os termos escalares (unidimensionais) à direita, pode-se escrever:

Analisando a Figura (8), o escalar ||y||cosα é igual ao produto interno entre os vetores b2x1 e y2x1 (ver Lay, 1997; e também Strang e Borre, 1997), ou seja, ||y||cosα =bTy, e de maneira análoga, ||W-1b||cosβ = (W-1b)T b.

Desta forma, pode-se finalmente escrever (Teunissen, 2003):

Ou seja, a segunda expressão de (19) é demonstrada geometricamente. A primeira expressão de (19), relativa ao projetor oblíquo do vetor das observações y em a (sendo sua projeção resultante o vetor ŷ), pode ser demonstrada de maneira similar. Dando continuidade a interpretação geométrica do MMQ, relembrando o critério dos mínimos quadrados ponderados, que busca o vetor dos parâmetros x que minimiza a seguinte expressão:

Definindo um vetor z por z = Ax, a expressão (23) é equivalente à:

Como e = y – Ax, logo z = y – e. Para o caso bidimensional considerado, o vetor b é ortogonal ao vetor a, ou seja, bTa=0. Com este pressuposto, resulta em:

A expressão (25) é satisfeita quando bTy = bTe. Mas se e = y – Ax, a expressão (23) é equivalente a:

Ou seja, no caso bidimensional considerado, o método dos mínimos quadrados ponderados consiste em estimar um vetor dos erros aleatórios ê que minimiza a expressão eT1xnWnxnenx1 e obedece à relação bTy = bTe.

Fazendo eT1xnWnxnenx1 = Constante = C, têm-se a equação de uma elipse, conforme já fora visto. Para diferentes valores da constante C têm-se diferentes elipses, e quanto maior o valor da constante C, maior o tamanho da elipse (Figura 9).


A estimativa ê do vetor dos erros aleatórios é dada pelo ponto de tangência da linha bTy = bTe com a elipse eT1xnWnxnenx1 = Mínimo = F(), (Figura 10):


Neste ponto de tangência ê, a normal da elipse é paralela a normal da linha bTy = bTe. Mas como a normal da linha bTy = bTe é dada por b, a normal da elipse em ê também é dada por b (para maiores detalhes ver produto interno de vetores em Lay, 1997). Portanto, o vetor ê é paralelo a W-1b. Logo, pode-se expressar o vetor ê por um produto entre W-1b e um escalar α (Teunissen, 2003):

O escalar desconhecido α pode ser determinado pelo fato de que o vetor ê tem que se estender até a linha bTy = bTe. Desta forma, pré-multiplicando (27) por bT e realizando operações algébricas, resulta em:

Substituindo (28) em (27), os estimadores ê e ŷ por mínimos quadrados ponderados tornam-se (Teunissen, 2003):

Quando Wnxn=Inxn, têm-se:

Analisando as expressões (29) e (30), nota-se que com as relações geométricas estabelecidas, para os casos em que o vetor dos parâmetros xux1 se torna um escalar x1x1 e conseqüentemente, a matriz design Anxu se torna um vetor anx1, é possível estimar o vetor das observações ajustadas ŷnx1 e o vetor dos erros aleatórios ênx1 sem o conhecimento prévio do parâmetro ajustado , definindo um vetor bnx1 que seja ortogonal ao vetor anx1 e lembrando que ŷnx1= anx1.

Os vetores ŷnx1e ênx1também poderiam ser obtidos diretamente em função de ynx1, Wnxn e Anxu, conforme mostram as expressões (10) e (11).

Para problemas envolvendo um maior número de parâmetros, esta solução alternativa se torna mais complexa, pois se deve definir uma matriz Bnxu cujos vetores (colunas) sejam ortogonais a todos os vetores (colunas) da matriz design Anxu, sendo as matrizes A e B dois subespaços ortogonais entre si de u vetores cada e dimensão n (Kock, 1999).

3. EXEMPLOS NUMÉRICOS

Para uma melhor compreensão e comprovação desta interpretação geométrica do MMQ, dois exemplos numéricos são apresentados a seguir.

Considerando que para determinar a distância entre dois pontos, duas medidas foram realizadas, resultando no vetor das observações,

expresso em metros, e nas respectivas variâncias destas observações, dadas por = 5m2 e = 2.5m2.

Admitindo que as observações são independentes entre si, as covariâncias são nulas: . Desta forma, definindo a matriz peso das observações como sendo igual ao inverso de sua matriz de variâncias e covariâncias, resulta em:

O parâmetro desconhecido x que se deseja estimar é a própria distância entre os dois pontos, desta forma, o modelo matemático que relaciona as observações com o parâmetro x é dado por:

Onde é o vetor dos erros aleatórios, admitindo a inconsistência do sistema. Pelo método dos mínimos quadrados, a solução do problema é dada por:

Para o vetor das observações ajustadas, tem-se:

e o vetor dos erros aleatórios resulta em

Analisando o vetor dos erros aleatórios e a estimativa por mínimos quadrados da distância desconhecida, nota-se que de fato a observação y2, de menor variância, e, portanto, maior peso, teve maior influência no processo de ajustamento.

Agora, o exemplo será resolvido pela solução de cálculo alternativa do MMQ, expressa em (29). Definindo um vetor b2x1 ortogonal ao vetor a2x1, como por exemplo,

tem-se:

Utilizando as propriedades geométricas apresentadas, a estimativa por mínimos quadrados do vetor das observações ajustadas e do vetor dos erros aleatórios são dadas por:

Ou seja, de fato é possível estimar o vetor das observações ajustadas e o vetor dos erros aleatórios sem o conhecimento prévio do parâmetro ajustado .

Além disso, as demais relações geométricas demonstradas também são satisfeitas, como por exemplo:

Portanto, os vetores W-12x2b2x1 e ê2x1 são de fato paralelos, diferindo apenas por um escalar α = –0.02667.

Definindo outros vetores perpendiculares ao vetor

como por exemplo,

as relações geométricas também são satisfeitas. A soma ponderada do quadrado dos erros, que independe da escolha do vetor b, resulta em êTWê = 0.533.

O segundo exemplo numérico consiste em um problema de n=4 observações e u=2 incógnitas. Considerando que foram observadas as coordenadas planas de dois pontos, em dois sistemas de referência distintos (X,Y) e (x,y), deseja-se determinar os parâmetros de transformação a e b do sistema (x,y) para o sistema (X,Y), por meio de uma transformação de similaridade sem translações (detalhes em Lugnani, 1987).

Para dois pontos i e j, tem-se as coordenadas destes nos dois sistemas de referência, ou seja, (Xi, Yi, xi, yi) e (Xj, Yj, xj, yj), e o modelo matemático de ajustamento para determinar os parâmetros incógnitos a e b é dado por:

Considerando que as observações são independentes entre si e possuem a mesma precisão, pode-se considerar a matriz peso das observações como sendo igual à matriz identidade, ou seja, W4x4 = I4x4. Atribuindo valores numéricos para as coordenadas dos pontos nos dois sistemas de referência, tem-se:

Pelo método dos míninos quadrados, a solução do problema é dada por:

Para o vetor das observações ajustadas, tem-se:

E o vetor dos erros aleatórios resulta em:

Novamente, a solução alternativa do MMQ, desta vez expressa em (30), quando W=I, será utilizada para a resolução do exercício.

Definindo uma matriz B4x2 cujos vetores (colunas) sejam ortogonais a todos os vetores (colunas) da matriz A4x2, como por exemplo,

tem-se:

Utilizando as propriedades geométricas apresentadas, a estimativa por mínimos quadrados do vetor das observações ajustadas e do vetor dos erros aleatórios são dadas por:

Ou seja, mais uma vez, foi possível estimar o vetor das observações ajustadas e o vetor dos erros aleatórios sem o conhecimento prévio do vetor dos parâmetros ajustados

2x1. Além disso, novamente as demais relações geométricas demonstradas são satisfeitas, como por exemplo:

Poderia ter-se escolhido outro subconjunto de vetores perpendiculares aos vetores que formam a matriz design A4x2, que as relações geométricas também seriam satisfeitas e os valores numéricos de ŷ, ê e e seriam os mesmos.

Na prática, a maior dificuldade na aplicação desta solução alternativa é encontrar um subconjunto de vetores ortogonais a todos os vetores que formam as colunas da matriz A, sendo, usualmente, mais fácil empregar as expressões (9), (10) e (11) para a resolução dos problemas. Os dois exemplos apresentados tiveram por objetivo apenas demonstrar numericamente a interpretação geométrica do MMQ.

4. CONSIDERAÇÕES FINAIS

Neste artigo foi apresentada uma revisão teórica sobre o método dos mínimos quadrados, com auxilio de uma interpretação geométrica, obtida em Teunissen (2003).

Quando é utilizada uma matriz peso para as observações, o estimador por mínimos quadrados dos vetores dos erros aleatórios e das observações ajustadas são projeções oblíquas do vetor das observações. Já quando a matriz peso é tomada como sendo igual à matriz identidade, o estimador por mínimos quadrados dos vetores dos erros aleatórios e das observações ajustadas são projeções ortogonais do vetor das observações.

Além disso, quando o vetor dos parâmetros se tornar um escalar, e a matriz design A se tornar um vetor a, é possível estimar as observações ajustadas ŷ e o vetor dos erros aleatórios ê sem o conhecimento prévio do parâmetro ajustado , definindo um vetor b que seja ortogonal ao vetor a e usando as relações geométricas que foram apresentadas e discutidas.

Para problemas envolvendo um maior número de parâmetros, esta solução alternativa de cálculo se torna mais complexa, pois se deve definir uma matriz B cujos vetores (colunas) sejam ortogonais a todos os vetores (colunas) da matriz design A.

Visando uma melhor compreensão e comprovação da interpretação geométrica, dois exemplos numéricos foram simulados, para problemas envolvendo duas observações e um parâmetro e também quatro observações e dois parâmetros.

AGRADECIMENTOS

Os autores agradecem à CAPES pelo fornecimento da bolsa de Mestrado do primeiro autor, e ao CNPq pela Bolsa de Produtividade em Pesquisa (Proc.n. 307472/2009-4) do segundo autor.

(Recebido em março de 2011. Aceito em maio de 2011.)

  • DALMOLIN, Q. Ajustamento por mínimos quadrados Edição Revisada. Curitiba: Curso de Pós-Graduação em Ciências Geodésicas - UFPR, 2002.
  • GEMAEL, C. Introdução ao ajustamento de observações: aplicações geodésicas 1.ed. Curitiba: Editora da UFPR, 1994. 319 p.
  • GHILANI, C. D.; WOLF, P. R. Adjustment Computations: Spatial Data Analysis 4ş Ed. Editora: John Wiley & Sons, 2006.
  • KOCH, K. R. Parameter Estimation and Hypothesis Testing in Linear Models Springer, Berlin, New York, 1999.
  • LAY, D. C.; Linear Algebra And Its Applications. Addison-Wesley, 2ş Ed. 1997.
  • LUGNANI, J. B. Introdução à fototriangulação Curitiba: Imprensa Universitária - UFPR. 134 p. 1987.
  • MIKHAIL, E. M. Observations and Least Squares University Press of America, New York, 1976.
  • MIKHAIL, E. M.; GRACIE, G. Analysis and Adjustment of Survey Measurements New York , Van Nostrand Reinhold Company, 1981.
  • RAINSFORD, H. F. Survey Adjustment And Least Squares London: Constable and Co., 1957.
  • STRANG, G.; BORRE, K. Linear algebra, Geodesy and GPS Wellesley: Wellesley - Cambridge Press, 1997.
  • TEUNISSEN, P.J.G.. Adjustment Theory: an introduction. Editora: Delft University Press. Delft, Holanda, 2003.193p.

Datas de Publicação

  • Publicação nesta coleção
    30 Ago 2011
  • Data do Fascículo
    Jun 2011

Histórico

  • Aceito
    Maio 2011
  • Recebido
    Mar 2011
Universidade Federal do Paraná Centro Politécnico, Jardim das Américas, 81531-990 Curitiba - Paraná - Brasil, Tel./Fax: (55 41) 3361-3637 - Curitiba - PR - Brazil
E-mail: bcg_editor@ufpr.br