SciELO - Scientific Electronic Library Online

 
vol.12 número1Aplicabilidade da análise dinâmica do capital de giro como instrumento de avaliação da gestão financeira em cooperativas agropecuáriasO valor do amanhã: ensaio sobre a natureza dos juros índice de autoresíndice de assuntospesquisa de artigos
Home Pagelista alfabética de periódicos  

Serviços Personalizados

Artigo

Indicadores

Links relacionados

  • Não possue artigos similaresSimilares em SciELO

Compartilhar


Revista de Economia Contemporânea

versão impressa ISSN 1415-9848

Rev. econ. contemp. v.12 n.1 Rio de Janeiro  2008

http://dx.doi.org/10.1590/S1415-98482008000100006 

Previsão de insolvência: um modelo baseado em índices contábeis com utilização da análise discriminante

 

Insolvency predictor: a model based on account index with application of discriminant analysis

 

 

Ailton GuimarãesI; Tito Belchior Silva MoreiraII

IAnalista do Banco Central e mestre em Economia pela UCB, e-mail: ailton.guimaraes@bcb.gov.br
IIProfessor-doutor do Departamento de Economia da UCB, e-mail: tito@pos.ucb.br

 

 


RESUMO

O objetivo deste artigo é propor um modelo de previsão de insolvência baseado em indicadores contábeis com o uso da análise discriminante. Embora o assunto tenha sido bastante discutido, existe uma necessidade de aprimoramento dos modelos existentes, bem como da descoberta de novas variáveis preditoras e técnicas que melhor retratem o comportamento das empresas sob a ótica do risco de crédito. Com relação às variáveis preditoras da função discriminante, gerada pelo método passo a passo, o trabalho confirmou o poder discriminatório daquelas que evidenciam as decisões financeiras sobre estrutura de ativos, estrutura de capital e geração de caixa. Outro resultado importante diz respeito ao poder discriminatório da variável representativa do montante dos recursos próprios disponíveis. Essa variável, que é utilizada em estudos sobre solvência de instituições financeiras, apresentou resultados promissores também para empresas não financeiras. O modelo proposto, estatisticamente significante, representa, através das suas variáveis independentes, o resultado das decisões das firmas com bom índice de acerto nas predições sobre insolvência.

Palavras-chave: insolvência; variáveis preditoras; poder discriminatório
Código JEL: C1, G33


ABSTRACT

The objective of this paper is to propose an insolvency forecast model based on accounting indicators using discriminant analysis. Although this issue had been thoroughly discussed, there is a need of the existing models enhancement as well as the uncovering of new forecasting variables and techniques that would better describe the behavior of corporation through the credit risk prospective. Regarding the predictive variables of the discriminant function, generated by the stepwise method, the research confirmed the discriminatory power of those variables, which emphasize the financial decisions over asset structure, capital structure and the cash flow related variable. Another important result is related to the discriminatory power of the variable representing the amount of equity. The variable, which is used on studies related to financial institutions solvency, showed also promising results for non-financial corporations. The proposed model, which is statistically significant, represents the result of company's decisions showing a good level of prediction on insolvency forecast, through its independent variables.

Key words: insolvency; predictive variables; discriminatory power


 

 

INTRODUÇÃO

Com a recente desregulamentação global e a crescente mobilidade do capital — conseqüência das alterações políticas, tecnológicas e, principalmente, econômicas ocorridas em todo o mundo —, a oferta de recursos e a demanda por novos produtos financeiros para captação tiveram forte crescimento, assim como o interesse pelo desenvolvimento da modelagem do risco de crédito.

No Brasil, a estabilidade econômica, a partir da vigência do Plano Real em 1994, provocou aumento vertiginoso no volume de operações de crédito entre empresas não financeiras. Como conseqüência, o desenvolvimento e a utilização de modelos de classificação do risco de crédito, objetivando minimizar possíveis perdas de fluxos de caixa e do valor presente das firmas, também experimentaram forte evolução.

A literatura correlata apresenta grande quantidade de publicações que descrevem diferentes técnicas e modelos de avaliação do risco de crédito. Esses modelos são, em geral, divididos em dois grupos: os modelos quantitativos sustentados por métodos estatísticos, que têm como base características das carteiras ou dados específicos de clientes, e os modelos qualitativos, construídos a partir de informações dos clientes ou fontes externas (centrais de riscos, agências de rating1 etc.).

O modelo proposto neste trabalho é do tipo quantitativo, com utilização da análise discriminante multivariada, tendo como base indicadores contábeis de empresas. O problema a ser resolvido é a estimação de uma função que melhor discrimine empresas solventes e empresas insolventes.

Embora os modelos multivariados, principalmente aqueles baseados em dados contábeis, sejam criticados sob a alegação de que são essencialmente empíricos e pela não-consideração de variáveis ou riscos fora dos balanços, diversos estudos mostraram que eles têm apresentado bons índices de acertos nas predições ao longo de muitos períodos, como demonstrado na tabela 1.

 

 

Os registros contábeis refletem as ações dos gestores das firmas e essas ações devem ser orientadas pela racionalidade econômica que, segundo a teoria da firma, é a maximização do lucro ou da riqueza do acionista. Maximizar a riqueza do acionista significa alocar recursos em ativos cujos riscos sejam compatíveis com seus retornos ou escolher a estrutura ótima de capital ou, ainda, minimizar custos. Todas estas ações podem ser extraídas de indicadores contábeis.

Na primeira parte do artigo, a introdução, foi feita a justificativa do estudo do tema, qual o problema associado ao tema e a importância da utilização de indicadores contábeis na construção de modelos de previsão de default.2 Na segunda, é apresentada a metodologia utilizada com a descrição dos dados e a técnica estatística do modelo. A terceira parte diz respeito à análise dos resultados e em seguida temos a conclusão do trabalho.

 

2. METODOLOGIA

2.1 A amostra utilizada

A amostra utilizada neste trabalho é composta de informações econômico -financeiras de 116 empresas de capital aberto de 17 setores diferentes, no período 1994 a 2003, coletadas do banco de dados do Sistema de Análise de Balanços de Empresas - SABE, construído pelo Instituto Brasileiro do Mercado de Capitais - IBMEC. Dentro desse universo, as empresas que se encontravam no estado de insolvência, definido no item seguinte, foram selecionadas como ruins. Os indicadores contábeis das empresas ruins foram extraídos dos demonstrativos contábeis referentes a um ano antes da entrada no estado de insolvência e as informações das empresas boas, do mesmo setor, na mesma data. Assim, se uma empresa entrou no estado de insolvência em 1996, foram extraídos, para este estudo, os dados do seu balanço patrimonial de 1995 e para efeito de comparação foram utilizados os dados de uma empresa boa, que não entrou no estado de insolvência, do mesmo setor, da mesma data, 1995.

A partir dessa primeira seleção foram formadas amostras de dois tipos:

(1) Uma amostra de desenvolvimento, composta de 35 empresas que entraram no estado de insolvência, empresas ruins, e igual número de empresas que não entraram no estado de insolvência, empresas boas, do mesmo setor ou com ativos equivalentes. Esse tipo de amostra, denominado amostra emparelhada, é constituído pelos elementos que possuem fatores ou fontes de variabilidade (no caso, o setor ou volume de ativos) que nada têm a ver, diretamente, com o estudo, mas que podem interferir nos resultados esperados; e

(2) Uma amostra de validação ou controle, contendo 23 empresas ruins e igual número de empresas boas, selecionadas pelos mesmos critérios da amostra de desenvolvimento.

2.2 A análise discriminante

Para Hair Jr. et al. (2005), a análise discriminante múltipla é a técnica multivariada adequada para estudar problemas em que a variável estatística (combinação linear de variáveis com pesos determinados empiricamente) é dicotômica e, portanto, não métrica. Então, ela é indicada para construir modelos de previsão de inadimplência, cujo objetivo principal é a classificação de um aspirante a crédito em um determinado grupo de:

(a) Provável adimplente (solvente) ou;

(b) Provável inadimplente (insolvente).

A técnica procura, basicamente, responder se um elemento pertence ou não a uma determinada categoria. Tratando-se da análise de risco de crédito, a análise discriminante, ou especificamente a função discriminante, indicará se uma empresa pertence a um grupo de firmas solventes ou ao conjunto das insolventes.

O valor previsto da função da discriminante é o escore discriminante, o qual é calculado para cada objeto (pessoa, empresa ou produto) na análise. A função discriminante tem a seguinte forma:

onde:

Z = escore discriminante ou categoria

a = intercepto

Wi = peso ou coeficiente discriminante para a variável i, com i = 1, 2, 3, ...n

Xi = variável independente i

As variáveis independentes relevantes, formadoras da função discriminante, são obtidas por recurso à estatística lambda (λ) de Wilks.

A estatística para cada uma das variáveis, segundo Maroco (2003), é dada por:

sendo:

(a) SQE = Σ ( y - )2 soma dos quadrados dos erros dentro dos grupos

(b) SQT = Σ ( y - )2 = soma dos quadrados totais

(c) y = variável sob estudo

(d) = valor médio de y

(e) = valor estimado de y

Os pesos ou coeficientes w1, w2 ,....., wn são estimados de modo que a variabilidade dos escores (Di) da função discriminante seja máxima entre os grupos e mínima dentro dos grupos. Eles representam uma medida relativa da importância das variáveis originais na função estimada. Quanto maior for o coeficiente das variáveis independentes, maior será a sua contribuição na discriminação entre os grupos, passo importante para interpretação e análise do modelo.

Dessa forma, dados p-variáveis e g-grupos é possível estabelecer m = min (g - 1; p) funções discriminantes que são combinações lineares das p-variáveis, tal que:

O nível de significância da função é estimado com base em uma transformação qui-quadrado da estatística (λ) de Wilks.

A classificação de indivíduos em classes utilizadas para estimar a função discriminante é procedida, de modo a que cada indivíduo seja inserido no grupo cujo centróide (valor médio para os escores discriminantes de todos os elementos, em uma dada categoria ou grupo) se encontra mais próximo.

O ponto de corte ou zona de fronteira é dado por:

Onde:

0 e 1 são as médias (centróides) da função discriminante nos grupos 0 e 1 e n0 e n1 são as dimensões (números de indivíduos) desses grupos.

Assim, um determinado indivíduo pertencerá ao grupo 1 (empresas solventes) se o seu escore, Di, for maior que 0. Um resultado diferente irá classificá-lo no grupo 0 (empresas insolventes).

2.2.1 Estudos sobre análise discriminante

Até 1980, os principais modelos para previsão de inadimplência eram baseados na técnica de análise discriminante. Em 1980, surgiram os modelos baseados na análise logística e logo após outras técnicas foram empregadas no desenvolvimento de modelos de previsão de falência, como as técnicas de redes neurais e algoritmos genéticos.

Back et al. (1996), utilizando dados contábeis de firmas finlandesas do período 1986 a 1989, aplicaram e compararam modelos baseados nestas técnicas e chegaram aos resultados apresentados na tabela 2.

 

 

Barth (2004), usando uma mostra de 1.452 empresas brasileiras, comparou o desempenho de métodos baseados em análise discriminante, regressão logística, algoritmos genéticos e redes neurais. O desempenho obtido com análise discriminante foi superior ao obtido com algoritmo genético (ambos geradores de funções discriminantes lineares), e os acertos conseguidos com o uso de redes neurais foram superiores aos da regressão logística.

Na comparação entre os quatro modelos, levando-se em consideração o maior percentual de acerto, o modelo baseado em redes neurais mostrou-se mais adequado. Porém, se a interpretação do modelo for considerada um quesito importante para a escolha, a análise discriminante linear será mais apropriada. Esse fato mostra que um modelo que tem por objeto a discriminação entre grupos não pode ser escolhido somente com base em um único critério, pois os modelos têm vantagens e desvantagens que devem ser avaliadas na decisão. No estudo de Barth, foram levados em consideração, na comparação dos modelos, o percentual de acerto, o tempo de processamento e a facilidade de interpretação.

Lo (1986) produziu um trabalho no qual comparou a análise discriminante com a análise logística e concluiu, após um teste de especificação para a análise de falência de corporações, que a hipótese de equivalência entre a análise discriminante e logit não pode ser rejeitada. O resultado do trabalho indicou, ainda, que, para fins de classificação, a não-normalidade pode ser menos problemática do que sugeriram estudos anteriores.

2.2.2 Suposições da análise discriminante

Para Hair Jr. et al. (2005), certas condições são requeridas para a aplicação da análise discriminante. As suposições mais importantes são a de normalidade das variáveis independentes e igualdade nas matrizes de dispersão e covariância dos grupos. A falta de normalidade pode causar problemas na estimação da função discriminante e matrizes de covariâncias desiguais podem afetar negativamente o processo de classificação.

Uma outra característica dos dados que pode comprometer os resultados é a multicolinearidade entre variáveis independentes. Essa característica indica se duas ou mais variáveis são correlacionadas, uma variável pode ser explicada por outra sem acréscimo significativo ao poder elucidativo do conjunto como um todo.

O pressuposto de linearidade das relações entre as variáveis está implícito na função discriminante, pois relações não lineares não são refletidas na função, a menos que transformações específicas de variáveis sejam executadas para representar efeitos não lineares.

2.3 O evento a ser modelado

O evento a ser modelado neste trabalho é o estado de insolvência ou iliquidez, declarado ou presumido, um ano antes da sua ocorrência.

Insolvência, na visão jurídica, é a situação em que o ativo do devedor é insuficiente para fazer face ao passivo, isto é, quando há um excedente de passivo em relação ao seu ativo patrimonial.

Nos meios comerciais e financeiros a insolvência significa falência ou concordata. Essas situações, concordata ou falência, são expressamente declaradas pela própria empresa ou por um credor. No entanto, existem situações, não raras, exteriorizadas nos demonstrativos contábeis, em que a empresa encontra-se no estado de insolvência, mas não a declara. Nesse sentido, vale conhecer os ensinamentos do ilustre professor Rubens Requião (1998), em sua obra Curso de direito falimentar, em que afirma:

A insolvência, conceitualmente, é um fato que, geralmente, se infere da insuficiência do patrimônio do devedor para o pagamento de suas dívidas, sendo que esse estado tanto pode ser confessado pelo empresário comercial, como pode ser presumido por atos que exteriorizem a ruína da empresa.

Então, o estado de insolvência pode ser declarado, casos da concordata e falência, ou presumido, situação em que os demonstrativos contábeis mostram claramente que o total dos ativos é menor que o valor das dívidas, como demonstrado a seguir.

Sejam At , Dt e PLt , respectivamente, o valor total dos ativos de uma empresa, o valor das dívidas e o valor do capital próprio no tempo t. Se:

(i) At = Dt + PLt , com Dt > 0 e PLt > 0, então a empresa é solvente, pois At > Dt;

(ii) At = Dt + PLt , com Dt > 0 e PLt < 0, então a empresa está insolvente, pois At < Dt.

O objetivo deste estudo é modelar o comportamento das empresas antes da entrada no estado de insolvência, declarado (concordata ou falência) ou presumido (passivos > ativos) e, a partir daí, construir um modelo que possibilite a previsão desse evento.

2.4 Seleção das Variáveis para estudo

Sanvicente e Minardi (1998) desenvolveram trabalho exploratório tendo como objetivo principal a identificação de índices contábeis mais significativos para prever concordatas de empresas no Brasil e como objetivo secundário testar a crença do mercado de que demonstrações contábeis não fornecem boa informação para análise de crédito de empresas. Com o uso da análise discriminante, os autores concluíram que os indicadores contábeis com maior poder de previsão de insolvência foram os índices de liquidez, seguidos por indicadores de lucros retidos, rentabilidade, endividamento e cobertura de juros que aumentaram o poder de previsão do modelo.

Caouette, Altman e Narayanam (1999) enfatizam a importância do fluxo de caixa na definição da liquidez das empresas, principalmente o fluxo de caixa operacional, que mostra se as empresas são capazes de gerar recursos suficientes a partir de suas operações principais, e acrescentam que, de modo geral, os índices de lucratividade, liquidez e endividamento parecem ser os mais apropriados à construção dos modelos de previsão de insolvência ancorados em dados contábeis.

Harris e Raviv (1991), em seu estudo teoria da estrutura de capital, concluíram, baseados em resultados empíricos, que o nível de endividamento, o valor da empresa e a probabilidade de insolvência têm correlação positiva.

Os resultados dos estudos aqui mencionados permitem inferir que a decisão sobre alocação de recursos tem importante função na criação de valor e no nível da capacidade de pagamento. A estrutura de capital, financiamento ou endividamento tem implicações sobre o custo de capital, resultados e, também, sobre a capacidade de pagamento. Através dos resultados — lucros ou prejuízos —, podemos medir a rentabilidade auferida e os fluxos de caixa necessários para suprir os compromissos com terceiros, investimentos e remuneração dos acionistas. Então, a escolha das variáveis do presente estudo será baseada nesses resultados e, utilizando as técnicas estatísticas apropriadas, serão determinadas aquelas com maior poder de explicação sobre o evento a ser modelado.

Como ponto de partida, as variáveis foram segregadas conforme suas referências com as decisões financeiras ou subgrupos contábeis como apresentadas a seguir.

2.4.1 Variáveis relacionadas à estrutura de ativos

A decisão sobre a alocação de recursos tem importantes reflexos sobre a geração de caixa da firma. Os ativos devem atender, principalmente, ao equilíbrio da relação risco e retorno, mas devem também proporcionar ao gestor boa capacidade de liquidez. Os indicadores a seguir evidenciam a escolha da firma com relação à decisão de alocação do total dos recursos captados.

(i) , Capital de Giro Líquido em relação ao ativo total. Variável representativa da composição dos ativos. O capital de giro líquido é definido pela diferença entre os ativos com maior liquidez (ativos circulantes) e as dívidas de curto prazo (passivo circulante). Quanto maior o resultado dessa diferença, melhor será a capacidade de pagamento. Vale lembrar que, assim como o montante de recursos alocados em ativos de curto prazo, a qualidade desses bens e direitos é fundamental, pois a ocorrência de perdas implicará comprometimento da capacidade de pagamento de curto prazo.

(ii) AGRen = (Ativo total - Ativos não geradores de renda), Ativos geradores de renda em relação ao ativo total. Variável que evidencia o montante de recursos alocados em ativos que têm relação direta com a geração de receitas da empresa. Quanto mais recursos forem direcionados para ativos geradores de renda, melhor a capacidade de geração de caixa.

(iii) ACir = Tamanho do Ativo Circulante. Variável indicativa da capacidade de pagamento de curto prazo.

2.4.2 Variáveis relacionadas à estrutura de capital ou de financiamento

A composição das fontes de financiamento ou estrutura de capital é de extrema importância para os resultados e continuidade da companhia. Quanto maior o montante de recursos captados junto a terceiros, maior o risco de bancarrota e, sendo assim, o gerente é pressionado a ser cada vez mais eficiente na busca da obtenção de fluxos de caixa suficientes para garantir o pagamento dos compromissos financeiros e a remuneração dos acionistas. Os índices a seguir evidenciam a escolha da firma com relação à decisão de captação dos recursos e o risco associado a essa decisão.

(iv) .
Variável derivada da estrutura de capital. Mostra a proporção entre o montante de recursos de terceiros (soma do passivo circulante mais o exigível a longo prazo) em relação aos recursos próprios (patrimônio líquido). Considerando que os recursos próprios investidos na firma são, em última instância, a garantia para liquidação dos compromissos com terceiros, quanto maior o resultado dessa relação, maior o risco do negócio.

(v) MCPd = (PL - Ativos de Baixa Liquidez).
Montante dos recursos próprios disponíveis. Variável que procura evidenciar o montante do capital próprio disponível. Computada pela diferença entre o montante de recursos próprios e os valores alocados em ativos de baixa liquidez, tais como despesas pagas antecipadamente, impostos a recuperar, ativo diferido, incentivos fiscais e empréstimos compulsórios. O montante de recursos próprios tem importante função de sinalização quanto à capacidade de absorver perdas e, sendo assim, quanto menor o comprometimento do capital próprio com ativos de baixa liquidez melhor a garantia dos compromissos com terceiros.

(vi) AFRLP = Ativo Total - Passivo Circulante.
Ativos financiados com recursos de longo prazo. Quanto maior o volume de ativos financiados com obrigações de longo prazo, melhor a capacidade de pagamento de curto prazo.

2.4.3 Variáveis relacionadas à geração de caixa ou retornos

A capacidade de geração de caixa é um indicativo do valor da firma e da qualidade das decisões sobre captação e aplicação dos recursos. As empresas com boa capacidade de geração de caixa são, em geral, mais sólidas. As variáveis a seguir mostram o nível de geração de caixa e de retorno.

(vii) .
Variável que mede a proporção do fluxo de caixa da empresa (Resultado Operacional - Resultado Financeiro + Depreciação e Amortização — Resultado da Equivalência Patrimonial) em relação a suas despesas financeiras. O EBIT, Earnings Before Interest and Tax, é uma medida do fluxo de caixa operacional das firmas. Quanto maior o resultado desse quociente, menor a probabilidade de a empresa apresentar dificuldade na liquidação de seus compromissos financeiros.

(viii) .
Retorno do capital próprio — demonstra quão eficiente foi a gestão dos recursos próprios investidos no negócio. O retorno do capital próprio depende da eficiência operacional (margem de lucro), da gestão dos ativos (giro dos ativos) e da alavancagem financeira.

(ix) .
Variável representativa da eficiência operacional. Procura evidenciar qual o retorno dos ativos após o pagamento dos custos fixos e variáveis e dos encargos incidentes sobre os recursos de terceiros. As empresas que conseguem alocar os recursos de terceiros em ativos com rentabilidades superiores aos custos dessas fontes auferem maiores retornos operacionais.

(x) .
Variável que evidencia a proporção entre vendas e ativos de curto prazo. Em geral, variações nas vendas refletem-se no volume de recursos aplicados no ativo circulante, que, por sua vez, precisam de fontes adequadas de financiamento.

2.4.4 Variáveis relacionadas à liquidez

A capacidade de cumprir obrigações financeiras, principalmente as de curto prazo, é fundamental para a continuidade da empresa. A decisão sobre a alocação de recursos determina também o nível de liquidez da firma. A variável a seguir mostra o nível de liquidez das firmas.

(xi) .
Medida de liquidez das empresas. Quanto maior a proporção de recursos alocados em ativos de curto prazo comparados com as exigibilidades de curto prazo, melhor será a capacidade de pagamento da firma.

2.4.5 Variáveis relacionadas à eficiência operacional

A eficiência operacional das empresas depende significativamente das decisões sobre captação e alocação de recursos e também da performance do gerente no que diz respeito aos custos de produção. A eficiência operacional contribui para aumentar a geração de caixa e a criação de valor. O indicador a seguir é utilizado como medida para medir a eficiência das firmas.

(xii) .
Variável que mostra quanto valor é adicionado à riqueza do acionista em relação a suas vendas. O EVA, Economic Value Added ou Valor Econômico Agregado, é fundamentado no pressuposto econômico de que as empresas, para serem viáveis, devem gerar mais riqueza que o custo de capital que empregam. Um aumento sustentado no EVA resultará em um aumento no valor de mercado de uma companhia.

2.5 Transformação de variáveis

O ponto de partida para o entendimento da natureza de qualquer variável é o estudo das suas características. Algumas medidas estatísticas podem ser utilizadas para verificar qual o tipo de distribuição, a relação entre as variáveis. É importante, também, examinar se as diferenças entre os grupos são suficientes para suportar a significância estatística.

A verificação de ocorrência de valores extremos também é importante, assim como a verificação da distribuição de probabilidade das variáveis independentes. Hair et al. (2005) sugere alguns procedimentos para correção de problemas de normalidade, homocedasticidade e linearidade. De acordo com estes procedimentos, algumas transformações foram aplicadas às variáveis em estudo, como resumido no quadro 1.

 

 

2.6 Análise exploratória de dados

Em seguida às transformações, foram gerados gráficos do tipo boxplot para exame das características das possíveis variáveis preditoras. Esse procedimento, denominado análise exploratória dos dados, é recomendável para que o uso das ferramentas estatísticas tenha resultados satisfatórios.

Os gráficos têm um grande poder de mostrar padrões de dados sob estudo, e o boxplot, do tipo histograma, fornece informações sobre esses padrões, mostrando as seguintes características do conjunto de dados: dispersão, assimetria e valores discrepantes (outliers).

2.7 Nível de significância

Antes da aplicação de testes estatísticos devemos estabelecer o nível de significância, normalmente denominado α. Ele representa uma medida ou grau de certeza a partir do qual assumimos como real o resultado da estatística obtido no estudo ou, em outras palavras, a probabilidade de que uma prova estatística apresente um valor (p-valor) que conduza à rejeição da hipótese nula, H0 , quando esta é verdadeira. A regra geral é rejeitar H0 , se o p-valor < α.

Bussab e Morettin (2003) apresentam a tabela 3 que relaciona o nível de significância com as evidências contra a hipótese nula.

 

 

A escala mostra que, quanto menor o p-valor, mais forte será a evidência contra H0.

Outros parâmetros, como controle das variáveis, confiabilidade dos dados, características das variáveis da amostra e fidedignidade dos instrumentos de medidas, também devem ser levados em consideração na escolha do nível de significância. Para este estudo, foi definido o nível de significância de 5%.

2.8 Teste de normalidade

Para Sharma (1996), testes de normalidade multivariada são muito complexos e difíceis e o entendimento destes pode ser facilitado pelos testes de normalidade univariada. Acrescente-se que, embora seja possível termos distribuição multivariada não normal quando as distribuições marginais são normais, esses casos são raros.

Para verificar o tipo de distribuição das variáveis independentes, normalidade univariada, utilizaremos o teste de Kolmogorov-Smirnov (K-S), e para testar a normalidade multivariada usaremos os testes Mardia-Assimetria, Mardia-Curtose e Henze-Zirkler. A robustez dos testes aqui utilizados foi verificada por Mecklin e Mundfrom (2003). Eles trabalharam com uma amostra de 10 mil dados gerados através de Simulação de Monte Carlo para avaliar oito procedimentos normalmente usados para detectar normalidade multivariada, e concluíram ser o teste Henze-Zirkler o mais apropriado para esse fim. Os testes Mardia-Assimetria e Mardia-Curtose devem ser usados como medidas complementares, principalmente quando o teste Henze-Zirkler não for capaz de diagnosticar a não-normalidade.

Para computar os testes de normalidade multivariada, utilizaremos o software estatístico Systat, versão 12, desenvolvido pela Systat Software Inc. (SSI).

A hipótese nula para todos esses testes é a de que os resíduos são normalmente distribuídos.

2.9 Teste de homogeneidade das matrizes de variância-covariância

O pressuposto de que a matriz de variância-covariância para cada um dos grupos em estudo, em relação a cada uma das p-variáveis, provenha de uma mesma população de variância-covariância, de modo que uma estimativa conjunta da variância residual possa ser obtida, não pode ser violado, sob pena de comprometimento da robustez da função discriminante. O teste mais utilizado para avaliar a hipótese de homogeneidade das matrizes de variância-covariância é o M de Box. As hipóteses do teste são:

Se a dimensão de todas as amostras for igual, a função discriminante pode ser considerada robusta relativamente à não-violação do pressuposto de homogeneidade das matrizes de variância-covariância.

2.10 Seleção das variáveis discriminantes

A seleção das variáveis discriminantes (m), dado um conjunto de p-variáveis, é o passo inicial para estimação da função discriminante.

Na análise discriminante, a decisão da utilização de determinada variável depende do resultado do teste de igualdade de suas médias nos grupos em estudo através das hipóteses:

H0 : µ1i = µ2i = ... = µki , a variável apresenta média semelhante nos grupos, ou seja, não é discriminante.

H1 : µ1i µki , as médias da variável em estudo são diferentes.

O spss apresenta o p-valor — o menor nível de significância (α), a partir do qual rejeitamos a hipótese nula, H0, associado à estatística F. Se p-valor > α, devemos aceitar H0; caso contrário, devemos rejeitar essa hipótese em favor da hipótese alternativa, concluindo que a variável é significante e discrimina os grupos, pois p-valor < α.

2.11 Estimação da função discriminante

Dois métodos computacionais podem ser utilizados para determinar uma função discriminante: o método simultâneo ou direto e o método stepwise ou passo a passo.

Na estimação simultânea, a função discriminante é computada de modo que todas as variáveis independentes sejam consideradas conjuntamente, sem considerar o poder discriminatório de cada uma delas. Assim, a função discriminante é computada com base no conjunto inteiro de variáveis independentes, sem consideração do poder discriminatório de cada uma dessas variáveis.

No método passo a passo, as variáveis são escolhidas conforme seu poder discriminatório. Primeiramente, é escolhida aquela variável que melhor discrimina os grupos, utilizando para isso, geralmente, o lambda de Wilks e estatística F. Em seguida, ela é combinada com cada uma das outras variáveis, para que seja selecionado o par de variáveis que melhora o poder discriminatório. O passo seguinte é combinar esse par com as variáveis restantes, de modo que seja encontrada outra variável que melhore ainda mais o poder discriminatório. Esse procedimento é repetido até que seja encontrado o melhor conjunto de variáveis para compor a função discriminante.

O método permite, no caso de um grande número de variáveis em estudo, a eliminação daquelas que não são úteis na discriminação dos grupos.

Maroco (2003) sugere a utilização das estatísticas Distância de Mahalanobis, V de Rao e Razão F entre grupos para corroborar ou não a escolha efetuada com o uso do critério lambda de Wilks, e para diagnosticar possíveis problemas de multicolinearidade, o que implicaria a existência de viés no modelo, o autor indica a medida tolerância.

A Distância de Mahalanobis, DMij , entre variáveis i e j, é dada por:

onde:

Xi e Xj = são variáveis dos grupos i e j

S -1 = Matriz de covariância

O quadrado dessa distância é utilizado para demonstrar quanto um grupo se diferencia de outro. Assim, uma variável é adicionada à função discriminante se a sua inclusão aumentar significativamente a DM2. Essa estatística é sugerida quando as variáveis sob estudo apresentam correlações significativas que podem causar desvio no resultado da função discriminante.

O critério V de Rao objetiva maximizar a distância entre os centróides dos grupos. Para tanto, é computado o valor do centróide geral pela fórmula:

onde:

n = dimensão da amostra

g = número de grupos

wij e tij = elementos genéricos das matrizes W e T, respectivamente.

A significância da variação do V de Rao, derivada da adição ou remoção de uma variável, pode ser avaliada por aproximação à distribuição qui-quadrado com g -1 graus de liberdade.

A razão F entre grupos é uma transformação da distância de Mahalanobis, considerando as diferentes dimensões entre os grupos, de maneira que os grupos de maior dimensão tenham maior peso na análise.

Dados dois grupos a e b, a razão F, Fab, é computada como:

onde:

n = dimensão da amostra

na = número de elementos do grupo a

nb = número de elementos do grupo b

g = número de grupos

p = número de variáveis

= Distância de Mahalanobis entre os grupos a e b2

A medida de tolerância de uma variável Xi é definida como T = 1 - Ri , onde é o coeficiente de determinação do modelo composto da variável i dependente, Xi , e as variáveis independentes, Xj. Quanto mais próximo de 0 (zero) é o valor da medida de tolerância, maior é o problema de correlação entre variáveis e mais instável será o modelo. Por outro lado, quanto mais próximo de 1 (um), mais estável será o modelo.

 

3. ANÁLISE DOS RESULTADOS

3.1 Seleção das variáveis discriminantes (tabela 4)

 

 

No nível de significância de 5,00% (α = 0,05) podemos inferir que somente as variáveis LogAGRen (p = 0,111), LogACir (p = 0,071), RORL (p = 0,084), EVARL (p = 0,160) e QROACir (p = 0,529) não são discriminantes.

Embora as variáveis LogAGRen e LogACir não tenham apresentado bons resultados, EstA, do mesmo subgrupo, correspondeu às expectativas. As variáveis RORL e QROACir, do subgrupo geração de caixa, não apresentaram resultados significantes, ao contrário de EBITCT, do mesmo grupo. Assim, os resultados não significativos de algumas variáveis podem ser explicados pela presença de outras variáveis, do mesmo subgrupo, que melhor explicam o problema estudado.

3.2 Matriz de correlação (tabela 5)

A matriz de correlação mostra que a variável LogACir tem forte correlação com as variáveis LogAGRen e LogAFRLP. Essa situação é derivada da composição das três variáveis, todas componentes do ativo total. As variáveis Liq e EstA também apresentaram correlação significativa, assim como EVARL e RORL. As duas últimas têm em sua composição as receitas líquidas, o que provavelmente determinou a correlação.

3.3 Análise conjunta dos testes realizados (tabela 6)

 

 

A tabela 6 mostra que as variáveis que não apresentaram o sinal esperado também mostraram problemas de significância, correlação ou normalidade. Nenhum tratamento de correção foi utilizado, primeiramente para que fosse mantida a generalidade do modelo e também porque as variáveis selecionadas pelo método passo a passo cumpriram os pressupostos da análise discriminante.

3.4 Estimação da função discriminante pelo método direto

O resultado do teste M de Box, tabela 7, determinou a rejeição da hipótese de serem iguais as matrizes de variâncias-covariâncias entre os grupos (heterocedasticidade). Assim, a função derivada pelo método direto foi invalidada, posto que houve violação de um dos principais pressupostos da análise discriminante.

 

 

3.5 Estimação da função discriminante pelo método passo a passo

A estimação pelo método passo a passo apresentou os seguintes resultados, com os quais definimos a seguinte função discriminante:

A partir desses resultados, podemos dizer que o postulante a crédito será classificado no grupo 0 (provável insolvente), se Y < 0 , e no grupo 1 (provável solvente), se Y > 0.

 

 

 

 

Embora a variável LogAFRLP tenha apresentado nível de significância satisfatório, ela não foi incluída na função discriminante derivada pelo método passo a passo. A exclusão dessa variável deve-se ao fato de que outras variáveis do modelo têm poder explicativo suficiente sobre o problema estudado. A utilização de outros critérios estatísticos (Distância de Mahalanobis, V de Rao e Razão F), para validar a função computada pelo método passo a passo, corrobora a escolha feita pelo critério lambda de Wilks, e a possibilidade de existirem problemas derivados de multicolinearidade foi afastada, com o diagnóstico efetuado através da medida de tolerância que apresentou os resultados seguintes, conforme a tabela 10.

 

 

Quanto mais próximo de 1 (um), maior é a independência de uma variável em relação às demais, enquanto um resultado 0 (zero) mostra o oposto.

A função computada pelo método alternativo classificou corretamente 88,6% dos casos, conforme a tabela 11.

 

 

 

 

O teste M de Box com p-valor 0,061, comparado ao nível de significância de 5,0% (α = 0,05), permite não rejeitar a hipótese (H0) de igualdade das matrizes de variância-covariância (homocedasticidade) para os dois grupos. Deve-se observar que, apesar de relativamente baixo, o teste M de Box é muito sensível ao tamanho da amostra, sendo, por essa razão, aceitável o resultado encontrado (Hair Jr. et al., 2005, p. 236).

3.6 Normalidade univariada e multivariada

As tabelas 13 e 14 mostram os resultados dos testes de normalidade das variáveis. Com todos os p-valor - Asymp. Sig (2-tailed), na tabela 13, e p-valor, na tabela 14 — maiores que o nível de significância de 5,0% (α = 0,05), podemos aceitar tanto a hipótese de normalidade individual quanto a de normalidade conjunta das variáveis da função derivada pelo método passo a passo.

 

 

 

 

 

 

 

 

3.7 Significância da função discriminante

Com a existência de dois grupos em estudo, somente uma função foi estimada. O autovalor (medida relativa de quão diferentes são os grupos sob estudo) associado a essa função foi 1,828, que responde a 100% da variância explicada. A correlação canônica associada à função — que mede o alcance da associação entre os escores discriminantes e os grupos — foi 0,804, que, elevada ao quadrado, indica que 64% da variável dependente são explicados pelo modelo. Com o resultado de 0,354 para o lambda de Wilks equivalente ao qui-quadrado de 68,616 e p-valor 0,000, podemos inferir que a função é altamente significativa.

 

4. CONCLUSÃO

A construção de um modelo de previsão de insolvência com utilização da análise discriminante e dados contábeis foi o objetivo principal deste estudo. O modelo proposto, derivado pelo método passo a passo, apresentou índice de acerto de 88,6%, valor superior a resultados de alguns modelos construídos no passado com a mesma técnica.

A inclusão de empresas com patrimônio líquido negativo no grupo das empresas ruins foi uma abordagem diferenciada em relação a trabalhos anteriores, que consideravam como empresas insolventes somente aquelas com concordata ou falência decretada.

Os testes de normalidade (Kolmogorov-Smirnov, Mardia-Assimetria, Mardia-Curtose e Henze-Zirkler), a existência de igualdade das matrizes de variância-covariância dos grupos conferida pelo teste M de Box e a ausência de multicolinearidade garantida pela medida de tolerância indicaram que as variáveis preditoras, selecionadas para compor a função discriminante pelo método passo a passo, cumpriram os principais pressupostos da análise discriminante e garantiram a robustez do modelo proposto.

Com relação às variáveis independentes — EstA, Estc, EBITCT e RCMCPd—, o estudo confirmou o poder discriminatório das primeiras três variáveis, como nos trabalhos de Lo (1986), Sanvicente e Minardi (1998), Glen (2004) e Silva (2003). Essas variáveis evidenciam, respectivamente, as decisões financeiras sobre estrutura de ativos, estrutura de capital e a geração de caixa.

A variável RCMCPd, representativa do montante dos recursos próprios disponíveis, também apresentou resultados satisfatórios. Essa variável é utilizada normalmente para avaliar se o montante de capital próprio das instituições financeiras é suficiente para a cobertura dos riscos assumidos por aquelas entidades. O resultado conseguido no presente trabalho com empresas não financeiras mostrou que a variável tem poder discriminante e pode ser usada como variável preditora da probabilidade de insolvência de firmas não financeiras.

Em resumo, podemos afirmar, com base nos resultados apresentados, que o modelo proposto tem robustez estatística, representa, através das suas variáveis independentes, o resultado das decisões das firmas e tem bom índice de acerto nas predições, o que o credencia como ferramenta importante na gestão de risco de crédito das empresas.

 

NOTAS

1. Classificação.

2. Impossibilidade de pagamento, insolvência.

 

REFERÊNCIAS BIBLIOGRÁFICAS

BACK, B. et al. Choosing bankruptcy predictors using discriminant analysis, logit analysis, and genetic algorithms. Turku Centre for Computer Science Technical Report, n. 40, ISBN 951-650-828-6, ISSN 1239-1891, p. 1-5, sep. 1996.         [ Links ]

BARTH, N. L. Inadimplência: construção de modelos de previsão. São Paulo: Nobel, 2004. p. 3, 10-15 e 21-30,         [ Links ].

BUSSAB, W. de O.; MORETTIN, P. A. Estatística básica. 5. ed. São Paulo: Saraiva, 2003. p. 343.         [ Links ]

CAOUETTE, J. B.; ALTMAN, E. I.; NARAYANAM, P. Gestão do risco de crédito: o próximo grande desafio do futuro. Tradução de Allan Hastings. Supervisão técnica João Carlos Douat. Rio de Janeiro: Qualitymark, 1999. p. 119-121 e 130-144.         [ Links ]

GLEN, J. Debit and firm vulnerability, 2004. Disponível em http://www.defaultrisk.com/ps_scoring.htm. Acesso: 21 set. 10:50, p. 6-8, 2005.         [ Links ]

HAIR Jr.; Joseph, F.; ANDERSON, R. E.; TATHAM, R. L.; BLACK, W. Análise multivariada de dados. Tradução Adonai Schlup Santánna e Anselmo Chaves Neto. Supervisão técnica Maria Aparecida Gouvêa. 5. ed. Porto Alegre: Bookman, 2005. p. 80-87 e 209-230.         [ Links ]

HARRIS, M.; RAVIV, A. The theory of capital structure. The Journal of Finance, v. 46. n. 1, p. 297-355, mar. 1991.         [ Links ]

LO, A. W. Logit versus discriminant analisys: a specification test with application to corporate bankruptcies. Journal of Econometrics, v. 31, p. 151-178, 1986.         [ Links ]

MAROCO, J. Análise estatística com utilização do SPSS. 2. ed. Lisboa: Silabo, 2003. p. 56-59, 112-114 e 332-360.         [ Links ]

MECKLIN, C. J.; MUNDFROM, D. J. On using asymptotic critical values in testing for multivariate normality. Disponível em http://interstat.statjournals.net/YEAR/2003/articles/0301001.pdf. Acesso: 4 fev., 11:30, p. 1-12, 2008.         [ Links ]

REQUIÃO, R. Curso de direito falimentar. 17. ed. São Paulo: Saraiva, 1998. p. 56.         [ Links ]

SANVICENTE, A. Z.; MINARDI, A. M. A. F. Identificação de indicadores contábeis significativos para previsão de concordata de empresas, 1998. Disponível em: www.risktech.com.br/PDFs/indicadores_concordata.pdf. Acesso: 15 ago. 09:21, p. 1-3, 2005.         [ Links ]

SHARMA, S. Applied Multivariate Techniques. 1. ed. University os South Carolina, 1996. p. 263-264.         [ Links ]

SILVA, J. P. da. Gestão e análise de risco de crédito. 4. ed. São Paulo: Atlas, 2003. p. 63.         [ Links ]

 

 

Artigo recebido em 4 de outubro de 2006 e aprovado em 28 de fevereiro de 2008. Os autores agradecem os pertinentes comentários de Daniel Cajueiro e dos pareceristas anônimos. Este artigo reflete as opiniões dos autores. O Banco Central do Brasil não se responsabiliza e nem pode ser responsabilizado por prejuízos de qualquer natureza em decorrência do uso das informações deste artigo.