Testes para verificar a igualdade de parâmetros e a identidade de modelos de regressão não-linear em dados de experimento com delineamento em blocos casualizados

Tests for model identity and parameter equality with nonlinear regression models in data from randomized complete block design

Resumos

Considerou-se o ajustamento de equações de regressão não-linear e o teste da razão de verossimilhança, com aproximações pelas estatísticas qui-quadrado e F, para testar as hipóteses de igualdade de qualquer subconjunto de parâmetros e de identidade dos modelos para dados com repetições provenientes de experimento com delineamento em blocos completos casualizados. Concluiu-se que as duas aproximações podem ser utilizadas, mas a aproximação pela estatística F deve ser preferida, principalmente para pequenas amostras.

Comparação de equações não-lineares; razão de verossimilhança; teste de hipótese


We considered the adjustments of a set of nonlinear regression equations and the likelihood ratio test with approximations given by the χ2 and also by the F statistics, in order to test model identity and equality of any subset of parameters, using data with repetitions from a randomized complete block design. We concluded that both approximations can be used but the F should by preferred for small sample sizes.

Hypothesis test,; likelihood ratio; nonlinear equation comparisons


ESTATÍSTICA

Testes para verificar a igualdade de parâmetros e a identidade de modelos de regressão não-linear em dados de experimento com delineamento em blocos casualizados

Tests for model identity and parameter equality with nonlinear regression models in data from randomized complete block design

Adair José RegazziI; Carlos Henrique Osório SilvaII

IEngenheiro-Agrônomo, Doutor. Departamento de Estatística, Universidade Federal de Viçosa, Av. Peter Henry Rolfs, s/n, 36570-000 Viçosa, MG, Brasil. adairreg@ufv.br

IIEngenheiro-Agrônomo, Ph. Doctor. Departamento de Estatística, Universidade Federal de Viçosa, Av. Peter Henry Rolfs, s/n, 36570-000 Viçosa, MG, Brasil.. chos@ufv.br

RESUMO

Considerou-se o ajustamento de equações de regressão não-linear e o teste da razão de verossimilhança, com aproximações pelas estatísticas qui-quadrado e F, para testar as hipóteses de igualdade de qualquer subconjunto de parâmetros e de identidade dos modelos para dados com repetições provenientes de experimento com delineamento em blocos completos casualizados. Concluiu-se que as duas aproximações podem ser utilizadas, mas a aproximação pela estatística F deve ser preferida, principalmente para pequenas amostras.

Palavras-chave: Comparação de equações não-lineares, razão de verossimilhança, teste de hipótese.

ABSTRACT

We considered the adjustments of a set of nonlinear regression equations and the likelihood ratio test with approximations given by the χ2 and also by the F statistics, in order to test model identity and equality of any subset of parameters, using data with repetitions from a randomized complete block design. We concluded that both approximations can be used but the F should by preferred for small sample sizes.

Key words: Hypothesis test, likelihood ratio, nonlinear equation comparisons.

INTRODUÇÃO

Em análise de regressão, com muita frequência desejase saber se um conjunto de equações ajustadas deve ser idêntico, ou seja, se a relação de variáveis em estudo pode ser representada por uma única equação. Vários autores apresentaram métodos para testar hipóteses relativas à identidade de modelos lineares, como, Graybill (1976), Neter et al. (1996), Regazzi (1993, 1999), entre outros. Bates & Watts (1988) apresentaram um teste assintótico baseado na razão de verossimilhança para comparar modelos de regressão não-linear como o utilizado para modelos lineares, com aproximação pela estatística F. Regazzi (2003) mostrou em detalhes a aplicação do teste da razão de verossimilhança (Rao,1973) em modelos de regressão nãolinear, com aproximação pela estatística qui-quadrado considerando a situação de somente um valor observado de Y para cada um de X. Regazzi & Silva (2004) utilizaram o teste da razão de verossimilhança com aproximações pelas estatísticas qui-quadrado e F para testar a hipótese de igualdade de qualquer subconjunto de parâmetros e, também, a identidade de modelos de regressão não-linear para dados com repetições de experimento com delineamento inteiramente casualizado. Concluíram que para um número total de observações suficientemente grande (N > 120) as duas aproximações são praticamente equivalentes. Para amostras menores, a aproximação pela estatística F deve ser preferida, uma vez que a taxa de erro tipo I foi sempre menor, independentemente do valor de N.

O principal objetivo do presente trabalho é mostrar como testar hipóteses sobre a igualdade de qualquer subconjunto de parâmetros e, também, a identidade de modelos de regressão não-linear a partir de dados de experimento com delineamento em blocos completos casualizados. Objetivou-se também fazer algumas considerações sobre o coeficiente de determinação, com maior ênfase em modelos de regressão não-linear.

MATERIAIS E MÉTODOS

Considerou-se um experimento com I níveis de um fator quantitativo e r repetições com delineamento em blocos completos casualizados, repetido em H diferentes condições experimentais. Para cada uma das H condições experimentais (H grupos) foi ajustado o modelo estatístico Michaelis-Menten a seguir:

em que yij é o valor observado na j-ésima unidade experimental do i-ésimo grupo; xij é o valor da variável independente associado a yij ; ai e bi são parâmetros (p = 2); εij é o erro aleatório com as pressuposições εij ~ NID (0, σ2); n = Ir é o número de observações de cada grupo suposto constante; e, nH = N é o número total de observações.

As hipóteses que serão consideradas são as seguintes:

1- H0(1) : b1 = ... = bH (= b) vs. Ha(1) : nem todos bi são iguais.

2 - H0(2) : a1 = ... = aH (= a) vs. Ha(2) nem todos ai são iguais.

3 - H0(3) : b1 = ... = bH (= b) e a1 = ... = aH (= a) vs. Ha(3) : Não H0(3) e .

Para u = 1, ..., H, sejam as variáveis indicadoras:

Então, a equação (1) pode ser reescrita como:

O problema é comparar as equações ajustadas individualmente para os grupos. O método para testar as hipóteses formuladas apresentadas a seguir baseia-se no teste da razão de verossimilhança, com aproximações pelas estatísticas χ2 e F.

Inicialmente, realizou-se uma análise para cada grupo, segundo o esquema apresentado na Tabela 1.

A análise de regressão conjunta dos H grupos pressupõe a homocedasticidade dos resíduos das regressões individuais para os grupos. A verificação dessa pressuposição poderá ser feita mediante um teste de homogeneidade de variância, como o teste de Bartlett, citado por Li (1964). Conforme Pimentel-Gomes (2000), quando uma relação de variâncias (no caso máx. QMRR/min. QMRR, QMRR = quadrado médio do resíduo da regressão) é menor que sete, é possível combinar as variâncias residuais e adotar uma estimativa comum. Quando esse quociente for superior a sete, convirá considerar separadamente subgrupos de modelos, de modo que dentro de cada subgrupo se tenha a homogeneidade de variância.

Considerem-se as seguintes definições:

SQRh(DBC) = soma de quadrados do resíduo para o h-ésimo grupo, para o delineamento em blocos completos casualizados (DBC). Esse é o erro usual segundo o delineamento experimental utilizado;

SQRRh(DIC) = soma de quadrados do resíduo da regressão (falta de ajustamento mais o resíduo) para o h-ésimo grupo, como se houvesse sido adotado o delineamento inteiramente casualizado (DIC);

SQRRh(DBC) = soma de quadrados do resíduo da regressão (falta de ajustamento mais o resíduo) para o h-ésimo grupo, para o delineamento em blocos completos casualizados;

SQBlocosh = soma de quadrados de blocos para o h-ésimo

grupo; SQPRh = soma de quadrados de parâmetros da regressão para o h-ésimo grupo;

SQTrath = soma de quadrados para tratamentos do h-ésimo grupo;

Gh = total geral para o h-ésimo grupo; e

Ch = Gh2/n é a correção para o h-ésimo grupo.

SQRRh(DBC) = SQRh(DIC)R - SQBlocosh

SQFalta de ajustamentoh(DBC) = SQRRh(DBC) - SQRh(DBC)

SQPRh + SQFalta de ajustamentoh(DBC) = SQTrath + Ch , com I graus de liberdade.

Ω = espaço paramétrico para o modelo completo;

ω = espaço paramétrico para o modelo reduzido sob H0; e

t = número de parâmetros a serem testados (dependente da hipótese).

Em que:

Considere-se o problema geral de testar a hipótese de nulidade: H0 : θ ω versus Ha : θ ωc , em que ω é um subconjunto do espaço paramétrico Ω e ωc é o complemento de ω. A estatística do teste da razão de verossimilhança é:

sendo a estimativa de máxima verossimilhança de σ2 sem restrição no espaço paramétrico e a estimativa de máxima verossimilhança de σ2 com as restrições impostas por H0. Para grandes amostras de tamanho N, conforme Rao (1973), tem-se:

Designa-se de completo o modelo ajustado na ausência de restrição em Ω e de reduzido o modelo ajustado na restrição definida por H0.

Uma aproximação do teste da razão de verossimilhança de H0 é provida pela seguinte estatística qui-quadrado (Rao, 1973):

A regra de decisão consiste em rejeitar H0 no nível de significância α se χ2calculado> χ2α(v), em que v = pΩ - pω é o número de graus de liberdade, sendo pΩ - pω os números de parâmetros estimados nos modelos completo e reduzido, respectivamente.

Um teste aproximado da razão de verossimilhança de H0 também é dado pela estatística F:

Note-se que t (H-1) = pΩ - pω é igual à diferença entre os números de graus de liberdade associados aos resíduos da regressão dos modelos reduzido e completo. O numerador da F é exatamente igual ao numerador do teste para o DIC (Regazzi & Silva, 2004), pois:

Para ilustrar a aplicação dos testes apresentados anteriormente, utilizaram-se os dados da Tabela 2, em que H = 2.

As análises foram realizadas utilizando-se os procedimentos GLM e NLIN do SAS (1990). Maiores detalhes podem ser vistos em Regazzi & Silva (2004).

RESULTADOS E DISCUSSÃO

Na Tabela 3 está apresentado o resumo das análises individuais para cada grupo. Note-se que o resíduo da regressão é dado pela Falta de Ajustamento mais o resíduo (erro livre dos efeitos de blocos). Na Tabela 4 estão apresentadas as estimativas dos parâmetros do modelo sem restrição no espaço paramétrico (Ω) e com as restrições especificadas por ω1, ω2 e ω3. Nas Tabelas 5 e 6 encontram-se os resultados dos testes para as três hipóteses formuladas com aproximações dadas pelas estatísticas χ2 e F, respectivamente.

Como o teste de H0(3) foi significativo (P < 0,01), podese concluir que as duas equações diferem significativamente. Assim, a equação comum, cujas estimativas estão apresentadas na Tabela 4 (modelo ω3), não pode ser adotada para os dois grupos. Entretanto, a hipótese de que o valor do parâmetro b é igual para os dois grupos não foi rejeitada (P > 0,05). Assim, o modelo escolhido é o com três parâmetros (a1, a2 e b). A equação ajustada é:

, grupo 1: d1=1 e d2= 0 e grupo 2: d1= 0 e d2=1.

Na Tabela 7 está apresentado o resultado do teste para a falta de ajustamento do modelo escolhido.

Uma vez que a falta de ajustamento foi não significativa (p = 0,4074), pode-se concluir que esse modelo é adequado para descrever os dados.

É importante ressaltar que os testes apresentados são aproximados, pois em modelos de regressão nãolinear as estatísticas χ2 e F apresentadas não possuem distribuição exata. Com base em Regazzi & Silva (2004), a aproximação F deve ser preferida, uma vez que proporciona uma taxa de erro tipo I menor, independentemente do tamanho da amostra. Mesmo em modelos lineares, segundo Anderson & Mclean (1974) os erros aleatórios introduzidos pelos erros de restrição impedem que uma correta análise de regressão seja realizada (a menos que se possam combinar esses erros), porque uma pressuposição básica em toda análise de regressão é que exista somente um erro aleatório e que ele seja oriundo da própria variável y. Por essa razão, quando os tratamentos forem níveis de um fator quantitativo é recomendável, sempre que apropriado, planejar os experimentos com delineamento inteiramente casualizado. Entretanto, em muitos experimentos a formação de blocos torna-se necessária para controle local.

Julgou-se oportuno apresentar alguns comentários sobre o coeficiente de determinação em modelos de regressão não-linear, tendo em vista que na prática cálculos e interpretações são feitos de maneira inadequada. Em modelos de regressão linear que incluem o termo constante β0 (intercepto), o coeficiente de determinação R2 representa a proporção da variação explicada pelo modelo. Nesse caso, o quadrado do coeficiente de correlação entre os valores observados e preditos é exatamente o R2. Se o modelo é linear e o termo constante não está presente (sem intercepto), o R2 é redefinido conforme Searle (1971), e muito cuidado deve ser tomado na sua interpretação, pois ele não é mais igual ao quadrado do coeficiente de correlação entre os valores observados e preditos. Pode ocorrer que o valor do coeficiente de determinação, na versão sem intercepto, domine em muito o valor correspondente ao caso com intercepto em modelos equivalentes. Um exemplo numérico desse fato pode ser visto em Souza (1998)

Segundo Souza (1998), no caso de modelo de regressão não-linear, a adequacidade do ajustamento pode ser medida pelo quadrado do coeficiente de correlação entre os valores observados e preditos. Essa medida pode ser calculada com a utilização da seguinte fórmula:

em que SQR é a soma de quadrados do resíduo e SQTotalc a soma de quadrados total corrigida pela média. Na realidade, a igualdade na fórmula anterior só vai funcionar se a matriz jacobiana do modelo linear aproximante tiver uma coluna de 1's ou qualquer valor constante k 0. O que se observa, na prática, é que, em muitos trabalhos de pesquisa, no caso não-linear o cálculo do R2 não é feito de uma única maneira. Alguns utilizam a fórmula R2 = 1 - (Souza, 1998), outros empregam a fórmula R2 = 1 - , na qual a SQTotalnc é a soma de quadrados total não corrigida pela média. Com esses cálculos, às vezes obtêm-se valores extremamente altos, por exemplo, R2 = 99%, mesmo havendo enorme discrepância entre os valores observados e preditos. Um engano comumente mantido é a crença de que o R2, a "proporção da variação explicada", é usado para decidir se um modelo de regressão não-linear resulta num bom ajuste aos dados. Somente quando se tem um modelo linear com o termo constante é que o R2 representa a variação explicada pelo modelo. O fato é que, independentemente de haver ou não um termo constante no modelo, o R2 não tem nenhum significado óbvio no caso de modelos de regressão não-linear, e segundo Ratkowsky (1990), ele nunca precisa ser calculado. Como nos trabalhos de pesquisa há tendência de querer apresentar o R2, recomenda-se que o cálculo seja efetuado via R2 = e não interpretá-lo como no caso de regressão linear com intercepto. Pode-se utilizar este R2 mais como uma estatística descritiva, tendo o devido cuidado na sua interpretação. É importante verificar se não há grandes discrepâncias entre os valores observados e preditos, olhar a magnitude da variância residual para decidir se é suficientemente pequena, utilizar análise de resíduos, dentre outras técnicas de diagnóstico e, assim, optar pelo modelo mais adequado.

CONCLUSÕES

A identidade de modelos de regressão não-linear e a igualdade de qualquer subconjunto de parâmetros podem ser verificadas por meio do teste da razão de verossimilhança utilizando as aproximações F ou qui-quadrado. A aproximação F deve ser preferida.

Recebido para publicação em novembro de 2008 e aprovado em março de 2010

  • Anderson, VL & Mclean, RA (1974) Restriction error: another dimension in teaching experimental statistics. The American Statistician, 28:145-152.
  • Bates, DM & Watts, DG (1988) Nonlinear regression analysis and its applications. New York, John Wiley. 365p.
  • GRAYBILL, FA (1976) Theory and application of the linear model. Belmont, Duxbury Press. 704p.
  • Li, JCR (1964) Statistical inference. Ann Arbor, Edwards Brother, v.1, 658p.
  • Neter, J & Kutner, MH, Nachtsheim, CJ & Wasserman, W (1996) Applied linear statistical models. 4rd ed. New York, McGraw-Hill, 1408p.
  • Pimentel Gomes, F (2000) Curso de estatística experimental. Piracicaba, Degaspari, 477p.
  • Rao, CR (1973) Linear statistical inference and its applications. New York, John Wiley. 560p.
  • Ratkowsky, DA (1990) Handbook of nonlinear regression models.New York and Basel. Marcel Dekker, Inc. 241p.
  • Regazzi, AJ (1993) Teste para verificar a identidade de modelos de regressão e a igualdade de alguns parâmetros num modelo polinomial ortogonal. Revista Ceres, 40: 176-195.
  • Regazzi, AJ (1999) Teste para verificar a identidade de modelos de regressão e a igualdade de parâmetros no caso de dados de delineamentos experimentais. Revista Ceres, 46: 383-409.
  • Regazzi, AJ (2003) Teste para verificar a igualdade de parâmetros e a identidade de modelos de regressão não-linear. Revista Ceres, 50:9-26.
  • Regazzi, AJ & Silva, CHO (2004) Teste para verificar a igualdade de parâmetros e a identidade de modelos de regressão não-linear. I. dados no delineamento inteiramente casualizado. Revista de Matemática e Estatística, 22:33-45.
  • SAS Institute Inc. (1990) SAS/STAT User's guide. Version 6, 4rd ed., v.2, Cary, NC, SAS Institute.
  • Searle, SR (1971) Linear models. New York, John Wiley & Sons. 532p.
  • Souza, GS (1998). Introdução aos modelos de regressão linear e não-linear. Brasília, EMBRAPA-SPI/EMBRAPA-SEA. 505p.

Datas de Publicação

  • Publicação nesta coleção
    21 Mar 2012
  • Data do Fascículo
    Jun 2010

Histórico

  • Aceito
    Mar 2010
  • Recebido
    Nov 2008
Universidade Federal de Viçosa Av. Peter Henry Rolfs, s/n, 36570-000 Viçosa, Minas Gerais Brasil, Tel./Fax: (55 31) 3612-2078 - Viçosa - MG - Brazil
E-mail: ceresonline@ufv.br