DEBATE DEBATE
O desafio da avaliação da produção científica
Luis Eugenio Portela Fernandes de Souza
Instituto de Saúde Coletiva, Universidade Federal da Bahia, Salvador, Brasil. luiseugenio@ufba.br
A atividade científica institucionalizada adquiriu nas sociedades contemporâneas um estatuto de modo privilegiado de produção de conhecimentos válidos e úteis. Do ponto de vista do senso comum, são as aplicações técnicas resultantes da prática científica que parecem conferir esse privilégio e não considerações sobre seus pressupostos ontológicos, epistemológicos ou metodológicos 1.
Contudo, o desenvolvimento da atividade científica, prévio às aplicações, requer a alocação de recursos pela sociedade. Além disso, a dinâmica da produção de conhecimento científico se caracteriza pelo questionamento permanente ao conhecimento estabelecido, seja ele comum ou científico 2.
Nesse sentido, a avaliação da produção científica se impõe, tanto a partir de fora, ou seja, da sociedade, em geral, e dos governos ou das empresas que financiam as pesquisas, em particular, quanto a partir de dentro da própria comunidade científica que concorre pelos recursos, defendendo pontos de vistas diferentes ou mesmo contraditórios.
Vale fazer um parêntese para lembrar que submeter-se à avaliação não é uma especificidade da atividade científica. De uma forma ou de outra, toda atividade social é objeto de avaliação. Por exemplo, os políticos, em um regime democrático, são avaliados pelos eleitores, as empresas de capital aberto são avaliadas pelas bolsas de valores, o desempenho econômico de um país é avaliado pelo PIB etc. Não é o caso de discuti-los aqui, mas registre-se que todos esses mecanismos de avaliação apresentam limitações significativas. Por que seria diferente com os cientistas?
Na área científica, a institucionalização da avaliação surgiu logo após a 2ª Guerra Mundial, podendo o Relatório Bush (1945) ser tomado como seu marco inicial. É importante destacar que, entre os cinco "valores fundamentais" que sustentavam a proposta de criação da National Research Foundation estava "...assuring complete independence and freedom for the nature, scope, and methodology of research carried on in the institutions receiving public funds..." (http://www.nsf.gov/od/lpa/nsf50/vbush1945.htm, acessado em 12/Jul/2013).
Esse valor assim como os demais de modo menos direto destaca a importância do respeito à autonomia dos cientistas na condução de seu trabalho, o que inclui o entendimento de que a avaliação da produção científica só pode e deve ser feita interpares. Trata-se, de fato, de um privilégio que poucas ocupações laborais (as profissões, como vistas pela Sociologia) desfrutam. Assim, a comunidade científica tem tido a possibilidade de definir ela própria os mecanismos de avaliação a que aceita ser submetida, ainda que não possa simplesmente se recusar a se autoavaliar.
Os mecanismos de avaliação adotados evoluíram rapidamente. De início, utilizou-se o número de publicações como indicador da produtividade e do desempenho de cientistas e instituições de pesquisa. Em pouco tempo, entretanto, esse indicador foi abandonado e buscou-se alguma medida da qualidade das publicações. Considerando-se que só os próprios cientistas têm capacidade de avaliar um produto científico e que apenas os trabalhos de boa qualidade são efetivamente citados, adotou-se a prática de contar as citações. De novo, contudo, perceberam-se as falhas da simples contagem de citações ou mesmo da média de citações e, então, desenvolveram-se indicadores mais sofisticados, que relacionam o número de citações com o número de artigos citados, como o Fator de Impacto e o índice h 3.
Com a sua utilização, para diversos fins, os limites dos indicadores bibliométricos ficam mais e mais evidentes. A pretensão de avaliar a qualidade da produção científica por meio da relação entre número de documentos publicados e número de citações é prejudicada por fatores que os indicadores não podem captar, embora influenciem seus resultados: as diferenças da quantidade de documentos e da densidade de citações por área do conhecimento, os ritmos distintos de obsolescência das publicações, as variações de escopo entre as bases bibliográficas e ainda os diferentes mecanismos de buscas, sem falar das distorções intencionalmente provocadas por várias formas de manipulação, como bem aponta Camargo Jr.
Nesse sentido, é um equívoco acreditar que a utilização dos indicadores bibliométricos assegura uma avaliação objetiva e absolutamente rigorosa do desempenho de pesquisadores e instituições científicas. Como também sinalizado no artigo em debate, acumulam-se evidências em contrário e, pior ainda, o aumento da frequência de utilização desses indicadores faz crescerem os vieses decorrentes de "pressões corruptoras".
Permanece, portanto, o desafio de se encontrarem modos de avaliação que contemplem a complexidade do processo de produção de conhecimento, dando conta de identificar o que é, de fato, relevante.
A proposta apresentada por Camargo Jr. de se avaliar a produção científica com base no julgamento, por uma comissão de pares, de cinco produtos escolhidos pelos próprios pesquisadores ou instituições que se submetem à avaliação indica um caminho promissor de reforço da avaliação da qualidade da produção.
Como todo e qualquer procedimento avaliativo, no entanto, a proposta em si não oferece nenhuma garantia de avaliações justas e iguais, adotando as expressões da citada iniciativa Research Excellence Framework. Há vários aspectos que podem comprometer a justeza e a igualdade desse modo de avaliação: desde as idiossincrasias pessoais dos membros da comissão de avaliação até as disputas de poder em torno do capital científico, passando pelo acesso a fontes de financiamento.
Provavelmente, para evitar vieses, esse processo deverá ocorrer da forma mais transparente possível, ou seja, os avaliadores precisarão expor clara e publicamente os argumentos que sustentam sua decisão. A composição das comissões de avaliadores deverá ser cercada de muitos cuidados. (Quem avalia os avaliadores? Haverá a possibilidade de recurso a outra instância?). Enfim, há muitas questões em aberto e o autor da proposta faria bem em desenvolvê-la mais detalhadamente.
Isso dito, é necessário comentar alguns dos argumentos apresentados no artigo, incluindo o subentendido pelo título (ficção contábil?). Creio que os argumentos estão, fundamentalmente, corretos, mas talvez o estilo elegantemente provocador do autor o tenha levado a imprecisões.
A primeira das imprecisões se refere à oposição feita entre indicador quantitativo e avaliação de qualidade. Ora, a utilização das citações, ainda que possa ser quantificada, é um indicador de qualidade, aceitando-se que a citação por outro cientista é um reconhecimento da relevância do produto científico publicado. Note-se que Camargo Jr. não a nega, ao contrário, considera a revisão por pares como o padrão-ouro da avaliação da ciência. Se é assim, a citação continua sendo uma medida válida, desde que se evitem exageros e distorções, como considerar que "duas citações indicariam um artigo duas vezes melhor do que artigos com apenas uma citação" (p. 1708).
A segunda imprecisão se atém à excessiva desvalorização da busca da objetividade. Concordo que não é questão de aceitar (pela fé?) a existência de uma "realidade povoada por objetos preexistentes que se oferecem passivamente aos nossos sentidos" (p. 1710), mas se trata de reconhecer o papel central da intersubjetividade nos processos de avaliação. Desse modo, fala a favor da sua adoção se os indicadores quantitativos facilitam a celebração de acordos intersubjetivos, o que não significa que quem os utiliza crê que a quantificação elimina toda a subjetividade.
A terceira está no título. Está claro que os indicadores bibliométricos estão sujeitos a vários tipos de distorção. Não são, contudo, uma ficção contábil. Com todos os seus limites, têm sentido: expressam, em certa medida, a produtividade e a qualidade do trabalho de pesquisadores e instituições.
Algumas medidas podem ser tentadas para reduzir as distorções: diversificar, por exemplo, as bases bibliográficas utilizadas para calculá-los (o Google Acadêmico vem sendo experimentado) ou utilizar os indicadores atribuídos aos artigos particularmente e não às revistas nas quais foram publicados.
Camargo Jr. está certo, de todo modo, ao sugerir não apenas que a avaliação da produção científica deve e pode ser melhorada, como também que isso passa pelo reforço da avaliação da qualidade. Sua proposta merece ser debatida e desenvolvida em todas as suas implicações. A avaliação, assumidamente subjetiva, de cinco trabalhos por uma comissão de pares é uma estratégia que, somada a outras, inclusive a utilização dos indicadores bibliométricos, pode tornar mais eficaz a identificação da produção científica relevante, e mais justos e iguais os processos avaliativos.
Debate sobre o artigo de Camargo Jr.
Debate on the paper by Camargo Jr.
Debate acerca del artículo de Camargo Jr.
- 1. Santos BS. Introdução à ciência pós-moderna. 3ŞEd. São Paulo: Edições Graal; 1989.
- 2. Bachelard G. A formação do espírito científico: contribuição para uma psicanálise do conhecimento. Rio de Janeiro: Contraponto; 1996.
- 3. Barreto M, Aragão E, Souza LEPF, Santana T, Barata RB. Diferenças entre as medidas do índice-h geradas em distintas fontes bibliográficas e engenhos de busca. Rev Saúde Pública; no prelo.
Datas de Publicação
-
Publicação nesta coleção
28 Maio 2013 -
Data do Fascículo
Set 2013