Acessibilidade / Reportar erro

Indicadores cienciometricos

Scientometric indicators

Resúmenes

Os indicadores científicos surgem da medição dos insumos e dos resultados da instituição científica. A cienciometria elabora metodologias para formular esses indicadores com técnicas interdisciplinares da economia, estatística, administração e documentação. As metodologias aceitas internacionalmente (Manual de Frascati, Manual de Oslo e Manual de Canberra) são as referências clássicas para medir os insumos e os resultados econômicos, bem como os resultados tecnológicos da pesquisa e desenvolvimento (P&D). Não existe consenso internacional sobre como medir e avaliar a produção intelectual e acadêmica tal como se manifesta no sistema editorial, nem na interpretação de seus impactos e influências. Definindo os termos bibliometria, cienciometria e informetria, seus alcances e aplicações, este trabalho apresenta visões alternativas para interpretar os indicadores cienciométricos existentes que, em sua maior parte, derivam das compilações do Citation Index do Institute for Scientific Information e de bases de dados similares. Em particular, apresenta-se uma hipótese para explicar o viés que o Citation Index manifesta em favor das publicações que fazem parte da corrente principal (mainstream) dos países desenvolvidos, em detrimento das publicações de qualidade similar provenientes de países do Terceiro Mundo.

Indicadores científicos; Bibliometria; Cienciometria; Índices de citação


Scientifc indicators arise from the measurement of inputs and results of the scientific institution. Scientometrics develops methodologies for set up those indicators based on interdisciplinary technics from the economics, statistics, management and documentation. The methodologies that are internationally accepted (Frascati Manual, Oslo Manual and Canberra Manual) constitute the classical references to measure the economic inputs and results, as well as the technological results of the research and development. However, there is no international consensus about how to measure and evaluate intellectual and academic production in the ways in which it is expressed in the editorial system, either in the interpretation of its impacts e influences. Defining bibliometrics, scientometrics and informetrics, as well as their scope and application, this paper presents alternative views to interpret current scientometric indicators, which greatly outcome from compilation of the Citation Index, published by the Institute for Scientific Information, and other similar databases. Particularly, an hypothesis is presented aiming at explaining the bias of the Citation Index in favour of the publications that belong to the mainstream of the developed countries, against those publications of similar quality published by Third World countries.

Scientific indicators; Bibliometrics; Scientometrics; Citation indexes


Indicadores científicos; Bibliometria; Cienciometria; Índices de citação

Scientific indicators; Bibliometrics; Scientometrics; Citation indexes

Indicadores cienciometricos* * Trabalho apresentado no Seminário sobre Avaliação da Produção Científica, realizado em São Paulo pelo Projeto SciELO, de 4 a 6 de março de 1998.

Ernesto Spinak

Resumo

Os indicadores científicos surgem da medição dos insumos e dos resultados da instituição científica. A cienciometria elabora metodologias para formular esses indicadores com técnicas interdisciplinares da economia, estatística, administração e documentação. As metodologias aceitas internacionalmente (Manual de Frascati, Manual de Oslo e Manual de Canberra) são as referências clássicas para medir os insumos e os resultados econômicos, bem como os resultados tecnológicos da pesquisa e desenvolvimento (P&D). Não existe consenso internacional sobre como medir e avaliar a produção intelectual e acadêmica tal como se manifesta no sistema editorial, nem na interpretação de seus impactos e influências. Definindo os termos bibliometria, cienciometria e informetria, seus alcances e aplicações, este trabalho apresenta visões alternativas para interpretar os indicadores cienciométricos existentes que, em sua maior parte, derivam das compilações do Citation Index do Institute for Scientific Information e de bases de dados similares. Em particular, apresenta-se uma hipótese para explicar o viés que o Citation Index manifesta em favor das publicações que fazem parte da corrente principal (mainstream) dos países desenvolvidos, em detrimento das publicações de qualidade similar provenientes de países do Terceiro Mundo.

Palavras-chave

Indicadores científicos; Bibliometria; Cienciometria; Índices de citação.

Podemos considerar a la ciencia como un sistema de producción de información, en particular información en la forma de publicaciones, considerando publicación a cualquier "información registrada en formatos permanentes y disponibles para el uso común". Desde este punto de vista entonces, la ciencia puede verse como una empresa con insumos y resultados. La medición de esas dos categorías — insumos y resultados — son la base de los indicadores científicos.

Gran parte de los esfuerzos de la ciencia de la ciencia se concentra en la elaboración de metodologías apropiadas para la formulación de estos indicadores. La medición de los insumos es una tarea más cercana a las ciencias de la economía, la estadística y la administración que, si bien trabajosa, dispone desde hace tiempo de metodologías de una razonable aceptación, y manuales con definiciones y procedimientos usados internacionalmente.

En cambio, los conceptos de la ciencia de la ciencia que tienen como propósito la formulación de indicadores de resultados — la segunda mitad de la tarea —, se considera generalmente por lejos la tarea más sofisticada y difícil.

A pesar de los esfuerzos considerables que se han realizado por llegar a tener a un conjunto de definiciones y clasificaciones general, apropiado, abarcador y sin ambigüedades, la situación permanece lejos de estar completamente resuelta (Moravcsik1). Las técnicas de medición de los resultados de la investigación tienen sólo unas décadas de existencia y todavía no se han consolidado completamente.

En los últimos treinta años la comunidad internacional, en particular la Organización para la Cooperación y Desarrollo Económico (OCDE) y la Unesco, desarrollaron metodologías para esta tarea compleja de elaborar indicadores, que pueden resumirse en tres manuales de referencia obligada, conocidos como el Manual de Frascati2, el Manual de Oslo3 y el Manual de Canberra4. Estos manuales ofrecen procedimientos de encuestas para medir las actividades de Investigación y Desarrollo Experimental (I+D), para determinar los recursos humanos dedicados a la Ciencia y Tecnología (C&T ), y para interpretar la innovación tecnológica.

El Manual de Frascati, el primero de los tres manuales mencionados, cuya primera edición es de 1963, todavía en la reciente versión de 1993 sigue reconociendo la dificultad de elaborar un sistema de indicadores de C&T. Citando del manual:

Por definición los indicadores ilustran un aspecto particular de una cuestión compleja y de facetas múltiples. Es necesario disponer de un modelo explícito que describa a la vez el sistema científico en sí mismo y la forma en que se relaciona con el resto de la sociedad y con la economía. En la práctica y en el estado actual de cosas, no existe un modelo explícito único capaz de establecer relaciones causales entre la ciencia, la tecnología, la economía y la sociedad (Manual de Frascati2, p. 3).

Estos comentarios tienen que ver con la parte de medición de insumos, es decir la evaluación económica, estadística etc. Cuando buscamos en el mismo manual indicaciones para interpretar resultados, en particular desde el punto de vista de la comunicación científica, o sea las publicaciones, todavía el problema resulta ser más complicado. En el Anexo 2 del referido manual, cuyo título es "Otros indicadores de C&T" se reconoce:

En el momento presente no existen principios básicos internacionales oficiales aplicables a la recogida de este tipo de datos o a su empleo como indicadores de ciencia y tecnología. En 1989-1990 la OCDE realizó un informe sobre el estado del conocimiento en materia de bibliometría, que podría servir para un futuro manual OCDE sobre utilización e interpretación de indicadores bibliométricos (Manual de Frascati2, p. 187, subrayado nuestro).

El Manual de Oslo3 ofrece metodologías para la recopilación de datos que permitan interpretar la innovación en C&T. Si analizamos el manual en busca de procedimientos de evaluación basados en las publicaciones científicas, para nuestra sorpresa encontraremos que recién en el Anexo 1, como un procedimiento accesorio, se menciona a la LBIO (literature-based innovation output indicators). La LBIO es una metodología de encuestas basada en los casos de innovación en C&T que se informan en las revistas técnicas y comerciales.

Esto es sorprendente, pues una de las características de la ciencia es la publicación de sus resultados. En particular toda aquella innovación y descubrimiento se legitima y reconoce por la prioridad de su publicación. En otras palabras, uno de los aspectos más visibles de la innovación en C&T, que es su comunicación impresa, se presenta como procedimiento marginal en el Manual de Oslo.

Por último, en el Manual de Canberra4, que proporciona diversas metodologías para evaluar a los recursos humanos dedicados a la C&T, ni siquiera se mencionan los métodos cienciométricos basados en la bibliometría.

Toda esta situación no deja de ser extraña, sumamente extraña, que a la hora de medir C&T, innovación tecnológica, recursos humanos de I+D etc., la comunicación y la información en ciencia en su forma más característica que es la publicación, no figure en un lugar central en los referidos manuales de uso internacional. Hay razones para ello, y más adelante aventuraré algunas hipótesis.

La comunicación y la información son intrínsecas a la práctica de la ciencia. La investigación es estimulada y se sustenta por un flujo constante de nueva información. Cuando el ciclo de información se completa, otra vez se suministra nueva información en una iteración infinita, generando un ciclo renovado de creación y descubrimientos.

El ciclo de información-creación-información puede verse como una espiral ascendente y perfectible. Este concepto es central en la idea de progreso de nuestra cultura; es la convicción de que la misma naturaleza del conocimiento — el conocimiento objetivo de la ciencia y la tecnología — la misma naturaleza del conocimiento, repito, es la de avanzar sin pausas, mejorar, y llegar a ser más y más perfecto (Nisbet5). Este conocimiento llega a ser objetivo (el mundo III en la concepción popperiana, Neill6), cuando se comunica y se legitima por los pares dentro de la misma comunidad científica.

Para entender el rol que juega la información en la vida de los científicos es necesario apreciar el mundo en el que trabajan, la naturaleza de su trabajo y las influencias a las que están sujetos (Palmer7). Este tema, propio de la sociología de la ciencia, requiere de instrumentos conceptuales y metodológicos que se han desarrollado bajo los nombres de bibliometría y cienciometría, y se han modelizado matemáticamente en la informetría (Spinak8).

No podemos interpretar los datos sobre las necesidades de información y sus usos sin reconocer que los científicos y técnicos se encuentran en el centro de muchos sistemas que tocan cada aspecto de sus trabajos. Entre los sistemas más importantes en que está inmerso ese científico están: el ambiente cultural, el político, los colegios invisibles, las organizaciones formales, grupos de trabajo, el sistema legal y económico, las asociaciones profesionales y, finalmente, el sistema de información. La bibliometría es pues, una disciplina con alcance multidisciplinario y la que analiza uno de los aspectos más relevantes y objetivos de esa comunidad, la comunicación impresa.

Para definir más precisamente las ideas y los términos, digamos que la bibliometría comprende la:

  • Aplicación de análisis estadísticos para estudiar las características del uso y creación de documentos.

  • Estudio cuantitativo de la producción de documentos como se refleja en las bibliografías.

  • Aplicación de métodos matemáticos y estadísticos al estudio del uso que se hace de los libros y otros soportes dentro y entre los sistemas de bibliotecas.

  • Estudio cuantitativo de las unidades físicas publicadas, o de las unidades bibliográficas, o de sus sustitutos.

Habiendo definido la bibliometría, pasemos a definir la cienciometría. La cienciometría aplica técnicas bibliométricas a la ciencia. El término ciencia se refiere a las ciencias físicas y naturales así como a las ciencias sociales. Pero la cienciometría va más allá de las técnicas bibliométricas pues también examina el desarrollo y las políticas científicas. Los análisis cuantitativos de la cienciometría consideran a la ciencia como una disciplina o actividad económica. Por esta razón la cienciometría puede establecer comparaciones entre las políticas de investigación entre los países analizando sus aspectos económicos y sociales.

Los temas que interesan a la cienciometría incluyen el crecimiento cuantitativo de la ciencia, el desarrollo de las disciplinas y subdisciplinas, la relación entre ciencia y tecnología, la obsolescencia de los paradigmas científicos, la estructura de comunicación entre los científicos, la productividad y creatividad de los investigadores, las relaciones entre el desarrollo científico y el crecimiento económico etc.

La cienciometría usa técnicas matemáticas y el análisis estadístico para investigar las características de la investigación científica. Puede considerarse como un instrumento de la sociología de la ciencia.

La bibliometría estudia la organización de los sectores científicos y tecnológicos a partir de las fuentes bibliográficas y patentes para identificar a los actores, a sus relaciones, y a sus tendencias. Por el contrario, la cienciometría se encarga de la evaluación de la producción científica mediante indicadores numéricos de publicaciones, patentes etc. La bibliometría trata con las varias mediciones de la literatura, de los documentos y otros medios de comunicación, mientras que la cienciometría tiene que ver con la productividad y utilidad científica.

La importancia de las técnicas bibliométricas y cienciométricas puede notarse al analizar la lista siguiente de posibilidades de aplicación, lista que no pretende ser completa.

  • Identificar las tendencias y el crecimiento del conocimiento en las distintas disciplinas.

  • Estimar la cobertura de las revistas secundarias.

  • Identificar los usuarios de las distintas disciplinas.

  • Identificar autores y tendencias en distintas disciplinas.

  • Medir la utilidad de los servicios de diseminación selectiva de información.

  • Predecir las tendencias de publicación.

  • Identificar las revistas del núcleo de cada disciplina.

  • Formular políticas de adquisiciones ajustadas al presupuesto.

  • Adaptar políticas de descarte de publicaciones.

  • Estudiar la dispersión y la obsolescencia de la literatura científica.

  • Diseñar normas para estandarización.

  • Diseñar procesos de indización, clasificación y confección de resúmenes automáticos.

  • Predecir la productividad de editores, autores individuales, organizaciones, países etc. (Sengupta

    9).

Vemos entonces que una evaluación del desempeño de la empresa científica en general no puede aprehenderse en su total dimensión con simples estadísticas económicas que miden cantidades de personas o la dimensión de instituciones y las compara con insumos de dineros o el Producto Nacional Bruto. Porque en definitiva de lo que estamos hablando es de procedimientos para la evaluación del desempeño científico. De eso se trata el problema, definir qué evaluar, cómo y por qué.


Figura 1

Cienciometría

Las actividades de investigación científica y tecnológica necesitan ser evaluadas para juzgar qué tan bien fueron cumplidos sus objetivos originales, el valor de sus resultados y qué cosas contribuyeron o impidieron el éxito. Estas evaluaciones juegan un rol significativo para construir en los países el potencial científico y tecnológico, pues permiten:

  • Medir la efectividad de las investigaciones para cumplir con las metas sociales y económicas.

  • Desarrollar infraestructuras adecuadas e identificar programas que entrenen a las futuras generaciones de investigadores.

La actividad científica debe ser vista e intrepretada dentro del contexto social en la que está enmarcada. Por lo que las evaluaciones del desempeño científico deben ser sensibles al contexto conceptual, social, económico e histórico de la sociedad donde se actúa. Esto significa que la ciencia no puede ser medida en una escala absoluta sino en relación con las expectativas que la sociedad en la cual se desarrolla, ha puesto en ella. Sobre este punto volveremos más adelante, cuando evaluemos algunas herramientas tales como los índices internacionales de citaciones.

La metodología de evaluación de la actividad científica entraña dos problemas: los criterios de medición y la relación entre indicadores científicos y evaluación.

Es importante reconocer que mucha de la discusión que se da entre los sociólogos de la ciencia radica en la importancia relativa que se den a los criterios intrínsecos o extrínsecos de evaluación. Esto divide a los sociólogos en internalistas y externalistas.

El enfoque internalista enfatiza la importancia que las demandas intrínsecas ejercen en la lógica de los descubrimientos y a las necesidades cognoscitivas. Mientras que los externalistas prestan atención al rol sociocultural, político, y económico, que determina la dirección de la ciencia.

Debe notarse que esta estructura conceptual surge de las reflexiones sobre la institución científica elaborada en los países desarrollados, la que para ser trasladada a los países periféricos debe ser adaptada. Pues la tal llamada ciencia internacional (o mainstream) es, en gran medida, el resultado de las 'ciencias nacionales' de los países centrales y producto de la interrelación entre los factores intrínsecos y extrínsecos de ese emprendimiento.

Estas visiones un tanto diferentes del mundo se perciben por ejemplo en los métodos de evaluación alternativos y, debemos decir en justicia, complementarios, elaborados por la OCDE para evaluar la I+D propiamente dicha, y los conceptos elaborados por la Unesco para el mismo problema. La Unesco amplía la evaluación de la C&T de los países incorporando a la visión mainstream las Actividades científicas y tecnológicas (ACT). Las ACT comprenden (a) la enseñanza y la formación científica y técnica, y (b) los servicios científicos y técnicos; es decir todas las actividades de enseñanza superior y formación especializada universitaria, y las actividades de C&T de bibliotecas, bases de datos etc.

Esta medición tiene su razón de ser. Si analizamos la inversión que hacen los países desarrollados y la comparamos con la que se realiza en los nuestros, las cifras de unos y otros son abismalmente distintas. Tanto si comparamos las cifras absolutas en billones de dólares como relativas al PNB, el abismo o brecha que nos separa no es posible superarlo. Toda la inversión conjunta que se dedica a C&T en la totalidad de los países de América Latina y el Caribe, en su totalidad repito, es apenas una fracción de lo que dedica tan sólo los Estados Unidos. Incluso si se deja fuera del análisis a las industrias de defensa y la industria aeroespacial estas diferencias siguen teniendo varios órdenes de magnitud.

Por esta razón, ningún esfuerzo económico en el futuro previsible podrá hacer que la I+D de la región pueda competir con la de los países desarrollados. La estrategia posible de desarrollo de C&T de nuestros países pasa por la inversión en las ACT, es decir la formación de cuadros científicos y los servicios de información que permitan la transferencia tecnológica. Nuesta C&T será más de transferencia que de innovación en cifras absolutas. Nuestras publicaciones serán diferentes pues cumplirán papeles diferentes, y los métodos de evaluación serán diferentes pues los contextos sociales son diferentes.

El objetivo de los procedimientos de evaluación es obtener medidas de los resultados con respecto a:

  • cuán exitosos han sido en lograr los objetivos establecidos por la política de ciencia del país y cuál es el valor de estos objetivos en el contexto de esa sociedad,

  • qué factores fueron instrumentales en promover o impedir el logro de dichos objetivos,

  • qué cambios son necesarios para mejorar los logros futuros.

El proceso de evaluación debe distinguirse de la recolección de datos o indicadores científicos. La recopilación y tabulación de los datos cualitativos y cuantitativos así como el monitoreo de las actividades son sólo componentes de la evaluación. La evaluación trata de responder por qué las cosas ocurren como ocurren. La evaluación es un componente de la política científica.

La cuestión fundamental a evaluar en el desempeño científico es si el esfuerzo de investigación y publicación científica resulta en una contribución real al progreso científico de esa sociedad, si contribuye a metas prácticas y útiles tanto en lo técnico como en lo social, o si por el contrario el esfuerzo es redundante y sin utilidad significativa. Repetimos el concepto: la evaluación del sistema de comunicación científica debe tener como referencia las metas de la política científica establecida para el país o región, no necesariamente coincidente con la ‘ciencia internacional’.

Para la caracterización y el jucio razonable de la empresa científica es necesario establecer pautas tanto objetivas como cuantificables, así como también pautas de calidad.

  • Objetivas y verificables

  • Adecuadas para valorar el contenido y nivel de conocimientos

Pasando a lo concreto entonces surge la pregunta: ¿cuáles son estos famosos indicadores cienciométricos que disponemos, cuántos son, qué miden? En un artículo publicado hace algunos años en Scientometrics, Vinkler10 presenta una tabla comparativa con 46 indicadores simples y compuestos. Los indicadores siguientes son sólo una selección de éstos, más algunos que yo he agregado. Pueden dividirse en dos grandes grupos:

  • indicadores de publicación: miden la cantidad e impacto de las publicaciones científicas

  • indicadores de citación: miden la cantidad e impacto de las vinculaciones o relaciones entre la publicaciones científicas.

Cada uno de estos índices pueden medirse como índices simples, relativos, o ponderados según distintos criterios. También pueden medirse como series cronológicas, o como medidas de distribución (Bradford, Lotka etc.).

Los estudios pueden realizarse a nivel micro, medio o macro según midan:

  • individuos, instituciones, países

  • revistas individuales, grupos temáticos, toda una disciplina.


Quadro 1

Indicadores de publicación

Technique – técnica Measure – medida Bibliometric size – Extensión bibliométrica Number of papers by country, by
discipline etc. – Número de artículos
por país, por disciplina etc. Rating of journals by experts – Tabla
de revistas por especialistas First, second, third and fourth class
journals – Primera, segunda, tercera
y cuarta classe de revistas Production index – Indicador de producción Weighted number of articles, books
etc., divided by number of authors Activity index – Índice de actividad Share of publicactions published by
X – Porcentaje de publicaciones por X
Share of publications published by
Y – Porcentaje de publicaciones por Y Growth of documentation –
Crecimiento de la documentación Growth rate – Taxa de crecimiento Bradford’s distribution –
Distribución de Bradford Core journals – Revistas principales Lotka’s distribution –
Distribución de Lotka Authors productivity – Productividad de
los autores Obsolescence – Obsolescencia Publication half-life – Vida media de la
publicación Zipf’s distribution – Distribución de Zipf Words usage – Uso de vocabulario Waring’s distribution –
Distribución de Waring Publication potential – Potencial de
publicación


Quadro 2

Indicadores de Citación

activity index

affinity index

attractivity index

bibliographic coupling

citation analysis

cocitation analysis

consumption factor

diversity index

echo factor

immediacy index

impact factor

impact index

insularity index

openess index

popularity factor

self-citation rate

índice de actividad

índice de afinidad

índice de atracción

apareo bibliográfico

análisis de citaciones

análisis de cocitaciones

factor de consumo

índice de diversidad

factor de echo

índice de inmediatez

factor de impacto

índice de impacto

índice de aislamiento

índice de apertura

factor de popularidad

índice de autocitación


Quadro 3

Técnicas de mapeos

Coword analysis

Citation networks

Scientific collaboration analysis

Análisis de coocurrencia de palabras

red de citaciones

Análisis de colaboración científica

Ahora bien, si tenemos todos estos indicadores supuestamente objetivos, indicadores que han sido analizados y desarrollados por más de tres décadas, con publicaciones internacionales serias, con estudios importantes realizados en todas partes del mundo, ¿por qué estas técnicas no integran las herramientas normales de evaluación de la C&T recomendados en los manuales internacionales?

La razón, a mi manera de ver, es que estas herramientas se han mostrado adecuadas para analizar la producción de C&T de los países centrales, de la ciencia mainstream, pero tienen serios problemas de índole espistemológica e instrumental a la hora de analizar la producción de los países menos desarrollados (Spinak11).

La razón instrumental es una vieja discusión de todos ustedes conocida. Las herramientas principales disponibles para la mayor parte de los estudios bibliométricos proceden de las bases de datos del Institute for Scientific Information (ISI), cuyos procedimientos de selección de revistas son parciales y no son adecuados ni suficientes para evaluar la C&T de los países en vías de desarrollo. El ISI produce instrumentos adecuados para evaluar la ciencia mainstream, pero no así la del resto del mundo, ni en particular las actividades que Unesco llama de ACT.

Esta es la primer razón por la que este proyecto desarrollado por BIREME (Centro Latino-Americano e do Caribe de Informação em Ciências da Saúde) es importante y oportuno y con una metodología confiable. Llena un vacío largamente esperado en toda la región. Tendremos los instrumentos y los métodos para construir la base de datos para nuestros indicadores bibliométricos y cienciométricos, que cubran una muestra suficientemente representativa de nuestra actividad científica y permita obtener resultados válidos y comparables, acordes a las necesidades de nuestras políticas científicas y nuestros niveles de desarrollo.


Figura 2

Distribución de Bradford


Figura 3

Potencial de publicación

Distribución de Waring

T – publicación potencial

N – número de autores

f1 – fracción de autores individuales

x – média de artículo / autor


Figura 4

Índice de Impacto

i – año corriente

CIT i-1 (i) – citaciones recebidas en el año corriente para artículos publicados en el año (i-1)

PUB i-1 – número de artículos publicados en el año (i-1)

La otra razón, la razón epistemológica, es menos conocida y tiene que ver con la forma en que históricamente fueron construidas las listas de revistas del ISI con sus bases de datos. Este tema fue analizado en un artículo por Spinak y Rousseau12 recientemente, al que podría llamar el problema de las colas de los cometas.

Para comprender la discusión del problema de las colas de los cometas, debemos referirnos primero a un antiguo y clásico artículo de Eugene Garfield13, publicado hace unos veinte años atrás, donde presentó lo que él llamó en su momento la "ley de la concentración de Garfield". De acuerdo a Garfield, su ley bibliométrica señalaba que para cualquier campo de la ciencia los artículos se concentran en las mismas revistas multidisciplinarias de alto impacto o mainstream.

Haciendo referencia a las distribuciones de Bradford, dijo que en gran medida la cola del cometa de una disciplina consistía en gran parte en el conjunto de revistas que conformaba el núcleo de la literatura de otra disciplina. Esto significaba, en su manera de ver, que una buena biblioteca de ciencia que cubriera los núcleos de todas las disciplinas no debería tener más revistas que una buena biblioteca especializada que cubriera toda la literatura de solamente una disciplina. Con lo que no sería necesario más que unas 1000 revistas mainstream para cubrir todos los núcleos con sus colas. De aquí que con unas 3000 revistas el Science Citation Index cubre más que suficiente al 90% de la literatura que realmente importa.

En otras palabras, con un conjunto de revistas mainstream, no sólo se tienen los núcleos de todas las disciplinas, sino también sus colas de distribución principales, pues las colas de un conjunto de revistas mainstream están formadas por las otras revistas mainstream. Hasta aquí la hipótesis de Garfield.


Figura 5

Análisis de citaciones e apareo bibliográfico


Figura 6

Análisis de cocitaciones


Figura 7

Apareo bibliográfico

Esta opinión nunca fue demostrada, sin embargo durante treinta años actuó como impedimento ideológico para que se incluyeran al ISI revistas que no pertenecieran a ese conjunto cerrado de revistas iniciales, que históricamente procedieron de los países desarrollados de habla inglesa.

En el artículo citado de Rousseau y Spinak12 se plantea una hipótesis alternativa, sobre procedimientos de construcción de núcleos y colas de distribución partiendo de conjuntos iniciales de revistas alternativos al que usó el ISI en los años ´60s. Estos núcleos de partida alternativos podrían producir distribuciones de títulos diferentes a los que se manejan por el ISI y que harían mejor justicia a la producción de C&T de los países en vías de desarrollo, en particular los de América Latina.

Esta es la segunda de las razones por la que este proyecto desarrollado por BIREME es importante y oportuno y con una metodología confiable. Llena un vacío largamente esperado por todos nosotros al proporcionarnos un instrumento con el que se podrá medir más acertadamente la contribución en C&T de la región.

En tercer lugar, y para nosotros muy importante, es que al poner BIREME esta metodología a disposición en la región, y al usar como soporte de software al sistema ISIS desarrollado por la UNESCO, los costos para obtener, distribuir, manejar y analizar la información, serán sustancialmente más bajos que los que se tienen actulamente. Pues hoy, la información disponible, con las restricciones ya mencionadas, debe ser comprada al único o casi único proveedor comercial que existe.

En el futuro cercano tendremos nuestros propios datos bibliométricos para realizar las evaluaciones pertinentes de nuestra producción bibliográfica a la luz de nuestro contexto económico y social y medir esos resultados de acuerdo a las prioridades de las políticas de C&T que corresponden a nuestro desarrollo regional. No tendremos que pagar cifras cuantiosas por datos no representativos de nuestra realidad. Podremos mirar a nuestro desarrollo de C&T con nuestros propios ojos, y no a través de la ventana que incidentalemente se encuentra en Filadelfia.

Vayan a BIREME nuestras más sinceras felicitaciones y auguramos el mejor de los resultados posibles a este esfuerzo de innovación tecnológica que la BIREME y la FAPESP lideran en la región.

Scientometric indicators

Abstract

Scientifc indicators arise from the measurement of inputs and results of the scientific institution. Scientometrics develops methodologies for set up those indicators based on interdisciplinary technics from the economics, statistics, management and documentation. The methodologies that are internationally accepted (Frascati Manual, Oslo Manual and Canberra Manual) constitute the classical references to measure the economic inputs and results, as well as the technological results of the research and development. However, there is no international consensus about how to measure and evaluate intellectual and academic production in the ways in which it is expressed in the editorial system, either in the interpretation of its impacts e influences. Defining bibliometrics, scientometrics and informetrics, as well as their scope and application, this paper presents alternative views to interpret current scientometric indicators, which greatly outcome from compilation of the Citation Index, published by the Institute for Scientific Information, and other similar databases. Particularly, an hypothesis is presented aiming at explaining the bias of the Citation Index in favour of the publications that belong to the mainstream of the developed countries, against those publications of similar quality published by Third World countries.

Keywords

Scientific indicators; Bibliometrics; Scientometrics; Citation indexes.

Ernesto Spinak

Ingeniero S.C., Lic. Bibliotecología, Uruguay

  • 1
    MORAVCSIK, M. J. The classification of science and the science of classification. Scientometrics, v. 10, n. 3-4, p. 179-97, 1986.
  • 2
    OCDE. Manual de Frascati: propuesta de norma práctica para encuestas de investigación y desarrollo experimental. Paris: OCDE, 1993.
  • 3
    OCDE. Oslo Manual: proposed guidelines for collecting and interpreting technological innovation data. Paris: OCDE, 1997.
  • 4
    OCDE. The measurement of scientific and technological activities: manual on the measurement of human resources devoted to S&T, "Canberra Manual". Paris: OCDE, 1995.
  • 5
    NISBET, R. History of the idea of progress New York: Basic Books, [19--]. 365 p.
  • 6
    NEILL, S. D. Brookes, Popper and objective knowledge. Journal of Information Science, n. 4, p. 33-9, 1982.
  • 7
    PALMER, J. Scientists and information: II. Personal factors in information behaviour. Journal of Documentation, v. 47, n. 3, p. 254-75, 1991.
  • 8
    SPINAK, E. Diccionario enciclopédico de bibliometría, cienciometría e informetría Caracas: Unesco, 1996. 244 p.
  • 9
    SENGUPTA, I. N. Bibliometrics, Informetrics, Scientometrics and Librametrics: an overview. Libri, v. 42, n. 2, p. 75-98, 1992.
  • 10
    VINKLER, P. An attempt of surveying and classifying bibliometric indicators for scientometric purposes. Scientometrics, v. 13, n. 5-6, p. 239-59, 1988.
  • 11
    SPINAK, E. Quantitative analyses of scientific literature and their validity for judging Latin American Production. Bulletin of PAHO, v. 29, n. 4, p. 352-9, 1995.
  • 12
    ROUSSEAU, R., SPINAK, E. Do a field list of internationally visible journals and their journal impact factors depend on the initial set of journals? A research proposal. Journal of Documentation, v. 52, n. 4, p. 449-56, 1996.
  • 13
    GARFIELD, E. Citation indexing: its theory and application in science, technology, and humanities. New York: John Wiley & Sons, 1979. 274 p.
  • *
    Trabalho apresentado no Seminário sobre Avaliação da Produção Científica, realizado em São Paulo pelo Projeto SciELO, de 4 a 6 de março de 1998.
  • Fechas de Publicación

    • Publicación en esta colección
      25 Feb 2002
    • Fecha del número
      1998
    IBICT SAS, Quadra 5, Lote 6, Bloco H, 70070-914 Brasília DF - Brazil, Tel.: (55 61) 3217-6360 / 3217-6350, Fax: (55 61) 321.6490 - Brasília - DF - Brazil
    E-mail: ciinf@ibict.br