Acessibilidade / Reportar erro

Computer-assisted qualitative analysis

Analisis cualitativo asistido por computadora

Resúmenes

Los objetivos de este ensayo son: por un lado, presentar una aproximación a la experiencia hispanoamericana en el Análisis Cualitativo Asistido por Computadora (ACAC) al agrupar mediante un ejercicio de sistematización los trabajos realizados por diversos colegas provenientes de disciplinas afines. Aunque hubiese querido ser exhaustivo y minucioso, como cualquier intento de sistematización de experiencias, en este ejercicio son notables las ausencias y las omisiones. Introducir algunas reflexiones teóricas en torno al papel del ACAC en el desarrollo de la investigación cualitativa a partir de esa sistematización y con particular énfasis en la producción del dato es, por otro lado, objetivo central de esta primera aproximación.

tendencias hispanoamericanas; ACAC; producción de datos cualitativos; Atlas/ti; Nudist


The aims of this article are: on the one hand, to present an approximation to the Hispano-American experience on Computer-Assisted Qualitative Data Analysis (CAQDAS), grouping as a systematization exercise the works carried out by several colleagues from related disciplines. Although attempting to be exhaustive and thorough - as in any attempt at systematizing experiences - this exercise presents clear lacks and omissions. On the other hand, to introduce some theoretical reflections about the role played by CAQDAS in the development of qualitative investigation after that systematization, with a specific focus on data generation.

Hipano-American trends; CAQDAS; generation of qualitative data; Atlas.ti; Nudist


ARTIGO

Analisis cualitativo asistido por computadora1 1 Una versión de este trabajo es publicada en Investigación Cualitativa en Salud. Una Antología sobre la Producción Iberoamericana. Mercado, F. J., Gastaldo, D., Calderón, C. (Eds) (En prensa).

Computer-assisted qualitative analysis

César A. Cisneros Puebla

Visiting Professor. International Institute for Qualitative Methodology, UAMI, México

RESUMEN

Los objetivos de este ensayo son: por un lado, presentar una aproximación a la experiencia hispanoamericana en el Análisis Cualitativo Asistido por Computadora (ACAC) al agrupar mediante un ejercicio de sistematización los trabajos realizados por diversos colegas provenientes de disciplinas afines. Aunque hubiese querido ser exhaustivo y minucioso, como cualquier intento de sistematización de experiencias, en este ejercicio son notables las ausencias y las omisiones. Introducir algunas reflexiones teóricas en torno al papel del ACAC en el desarrollo de la investigación cualitativa a partir de esa sistematización y con particular énfasis en la producción del dato es, por otro lado, objetivo central de esta primera aproximación.

Palabras-claves: tendencias hispanoamericanas, ACAC, producción de datos cualitativos, Atlas/ti, Nudist.

ABSTRACT

The aims of this article are: on the one hand, to present an approximation to the Hispano-American experience on Computer-Assisted Qualitative Data Analysis (CAQDAS), grouping as a systematization exercise the works carried out by several colleagues from related disciplines. Although attempting to be exhaustive and thorough - as in any attempt at systematizing experiences - this exercise presents clear lacks and omissions. On the other hand, to introduce some theoretical reflections about the role played by CAQDAS in the development of qualitative investigation after that systematization, with a specific focus on data generation.

Key words: Hipano-American trends, CAQDAS, generation of qualitative data, Atlas.ti, Nudist.

Desde la década de los 80's se han ampliado las expectativas de los investigadores en torno al uso de las herramientas del Análisis Cualitativo Asistido por Computadora (CAQDAS, por sus siglas en inglés: Computing Assisted Qualitive Data Analysis Software). La difusión de programas específicos y de resultados de investigación apoyados con ellos han sido, entre otros, elementos primordiales del ascenso de lo que algunos llaman "aplicación de nuevas tecnologías" o "aplicación de la informática en el análisis de datos". En esa dirección es que hoy por hoy se distingue en el terreno de la investigación cualitativa, como si fuese una ruta necesaria hacia algún lugar, el que: por un extremo, se encuentren investigadores que prefieren las técnicas artesanales de trabajo (pre-computadora: lápices de colores, tijeras, fichas, etc.), a la mitad del camino, aquellos que privilegian el uso de programas de cómputo no diseñados para ese fin (procesadores de palabras, hojas de cálculo, base de datos, etc.) y, en el otro extremo, aquellos otros investigadores que utilizan los programas de cómputo específicamente desarrollados para el análisis cualitativo.

Tal cual se tratase de una identidad profundamente arraigada, los "habitantes" en cada uno de estos puntos o extremos poseen sus rasgos sobresalientes: hay quienes ven en el romanticismo del trabajo artesanal la verdadera vocación del análisis interpretativo y por tanto rechazan, de primera intención, el uso de técnicas alternativas; otros, satisfechos con los resultados de los programas no especializados ven con profunda desconfianza la necesidad de aprender otro sistema y, por último, quienes construyen sus bases de datos con programas especializados declaran que nunca más volverán ni al punto de inicio, el trabajo artesanal previo al uso generalizado de computadoras, ni al punto intermedio en el que se depende de programas no especializados diseñados para uso general.

Independientemente de la tradición interpretativa en la que se ubiquen los investigadores (teoría fundamentada, fenomenología, construccionismo o etnometodología, por ejemplo), y del diseño de investigación en el que inscriban su actividad (análisis del discurso, estudios biográficos, etnográficos, de caso o cualquier otro) existe ya un corpus de materiales que permiten pensar al Análisis Cualitativo Asistido por Computadora (ACAC) como un campo singular y privilegiado del conocimiento. Es singular pues se distingue de otros esfuerzos analíticos vinculados a la reflexión cualitativa por su nivel de especialización, a la vez que representa el esfuerzo conjunto de un grupo de investigadores que se constituyen en la vanguardia misma al generar problemas específicos. Sin duda, toda la discusión en torno a la codificación, las redes conceptuales, las estructuras jerárquicas, y el hypervínculo entre modelo conceptual, memos, códigos y segmentos de texto, no se hubiese generado sin la participación de los científicos involucrados con el ACAC. Y es también un campo privilegiado pues la reflexión que se ha ido acumulando incluye, paulatina y crecientemente, a las numerosas formas de hacer investigación en la tradición interpretativa. En efecto, las técnicas computarizadas que alguna vez se identificaban como análisis cualitativo de texto, ya están apoyando estudios de carácter biográfico; a su vez, las reflexiones fenomenológicas sobre el carácter construido del dato se remiten al papel central que la codificación selectiva realiza al ser perfeccionada mediante el uso de la informática.

La llamada por algunos "revolución metodológica" en la investigación cualitativa, expresada por la introducción y fortalecimiento de formas de pensar, representar y vincular datos desde la computadora, posee ya, entre otras obras, algunas que son verdaderamente clásicas, como los trabajos de Tesch (1990), Fielding & Lee (1992), Miles & Huberman (1994), Kelle (1995), Weitzman & Miles (1995). Aunque por la propia velocidad con la cual se van incorporando los últimos adelantos en materia de programación, las descripciones detalladas que de algunas versiones se hacen, al paso de un año o dos, deben ser actualizadas. No obstante, la claridad del esfuerzo analítico y la preocupación por sistematizar los logros y los obstáculos, hacen de estas obras una referencia obligada para cualquier investigador cualitativo. Aunque también es interesante anotar que los problemas teórico conceptuales relacionados con el diseño de los programas mismos, nunca ha estado alejado de las necesidades de la investigación: piénsese, por ejemplo, en la necesidad de representación visual de relaciones conceptuales, que significó un reto para las estrategias de modelamiento teórico o, en la necesidad de la importación-exportación a programas de cálculo numérico estadístico que ha significado una actualización de los problemas vinculados a las estrategias de triangulación y a la elaboración y perfeccionamiento del diseño de metodologías mezcladas.

Así, por ejemplo, (Tesch, 1990) distinguía entre programas diseñados para el análisis descriptivointerpretativo y programas diseñados para la construcción de teoría. En este trabajo, se incluía en el primer grupo a programas como TAP, QUALPRO, HyperQual, Ethnograph y TEXTBASE ALPHA; y en lo relativo a construcción de teoría estaban, en versión MS-DOS, programas como AQUAD, NUDIST e HyperResearch, éste último en versión para sistema Mac. Por su parte (Richards & Richards, 1993; 1994), tomando distancia con respecto a la clasificación original de Tesch, reconocerán al Ethnograph como un programa de codificación y recuperación, al HyperResearch como un sistema de construcción de teoría basado en reglas, al AQUAD y al QUALOG como sistemas basados en la lógica, al NUDIST como un programa con una aproximación basado en sistema de índice y al ATLAS-ti como un sistema de redes conceptuales.

Mas allá de los sistemas de clasificación y reconocimiento que incluye cada uno de los programas de cómputo del ACAC, vale recordar que la decisión en torno a cual de ellos usar y para qué dependerá no solamente de los objetivos de la investigación, sino también de la tradición en la que se inscribe el diseño y el tipo de análisis que se desea realizar. A ese respecto, Tesch (1992) afirma que para elegir el programa debemos considerar las variaciones en los procesos de análisis de datos, sobre todo al reconocer que por "análisis cualitativo" entendemos análisis de datos no numéricos; distinción imprescindible ya que se debe reconocer que la comprensión del significado de los textos, la cual es una tarea central en la investigación, no es una actividad que pueda ser "calculable" o "computarizada" pues no puede ser reducida a procesos algorítmicos ni debe ser tratada como una tarea puramente mecánica.

1 Una breve mirada a la historia del ACAC

Tesch (1991) reconoce al programa "The General Inquirer" desarrollado en 1966 en el MIT, como el primero de ellos diseñado específicamente para ayudar a los investigadores en el análisis de texto aunque, en rigor, no lo considera como programa para el análisis cualitativo. Y corresponde al Ethnograph (Seidel, 1998) el papel pionero en la génesis de programas de cómputo que recuperan, en la medida de lo posible, el ejercicio de los modelos analíticos con los cuales se hacía el trabajo de codificación de texto para la investigación cualitativa. Con su aparición en 1985, el Ethnograph inicia la trayectoria de programas de cómputo específicamente diseñados para ese fin.

Desde 1987 el programa con una aproximación basado en sistema de índice (NUDIST, por el acróstico de No-Numerical Unstructured Data. Indexing, Searching and Theorizing) desarrollado por Richards & Richards, y a partir de 1991 en que ya se presentaba el prototipo de ATLAS-ti (Muhr, 1991), la reflexión sociointeraccionista vinculada a la Teoría Fundamentada (Grounded Theory) recibió un fuerte impulso y un aire renovador. En esta perspectiva resulta válido afirmar que el interés creciente que la Teoría Fundamentada ha despertado entre jóvenes investigadores de habla hispana está asociado a esta "revolución metodológica". Recuérdese, por ejemplo, que lamentablemente ninguno de los textos claves de esta reflexión han sido traducidos al castellano (Glaser & Strauss, 1967; Glaser, 1978; Strauss, 1987), lo cual, de manera directa, coloca a la teoría sociológica de nuestros países en una situación de desventaja, ya que esta vertiente radical del interaccionismo simbólico de la escuela de Chicago (Strauss) en su confluencia con lo mejor de la concepción rigurosa de la escuela de Columbia (Glaser), fue prácticamente ignorada durante más de 20 años.

Aunque ninguno de sus discípulos directos ni cualquiera de los autores de la Teoría Fundamentada haya utilizado o utilice en la actualidad programas informáticos, vale recordar que Muhr (1997) compartió ideas con Strauss e, incluso, le dedica el primer manual del ATLAS-ti cuando éste ya no es sólo un prototipo. Y el propio Anselm Strauss valora el esfuerzo conceptual realizado por Thomas Muhr.

Hay acuerdo entre los investigadores en torno a la importancia posterior que el NUDIST ha tenido en el desarrollo del soporte informático entendido como apoyo a la investigación cualitatitiva. Pero no solamente por el tipo de análisis que nos permite realizar sobre los memos, los documentos, el sistema índice y sus vínculos con todos ellos, la estructura jerárquica de nodos en forma de árbol, etc. Justo es decir que desde 1999, año en el que la versión 4 del NUDIST fue seguida por la aparición del NVivo, programa que representa un paso previo a la aparición del NUDIST5 en el año 2000, el investigador cualitativo ingresa a una nueva etapa.

NVivo sintetiza algunos de los rasgos distintivos más sobresalientes de programas previos, por ejemplo, del ATLAS-ti se recupera el recurso de la codificación in vivo y del Ethnograph, la presentación visual del sistema de códigos. Aunque lo más atractivo de NVivo es que permite reunir, en un solo proyecto, archivos de texto - en formato RTF (formato enriquecido de texto, de Word) - y archivos digitales de sonido, fotografía y video. Para decirlo mediante una viñeta: el investigador cualitativo ahora va al trabajo de campo acompañado de su lap-top, sus cámaras digitales de fotografía y video y suficiente apoyo para que sus entrevistas grabadas con técnicas analógicas sean tratadas digitalmente. De hecho, durante 2001 estamos ante el desarrollo del soporte técnico que permitirá la incorporación del formato MP3, como mejor sistema de compresión de audio, al trabajo analítico de «fragmentación» del dato cualitativo; este último recurso se está presentando a partir de las discusiones asociadas con el ATLAS-ti y el programa Transcriber.

Por otra parte, y también desde Alemania como en el caso de ATLAS-ti, WinMax es desarrollado en 1989 por Kuckartz (1995) quien, mediante las consideraciones teórico-metodológicas de Weber y Schutz acerca de la tipificación, se dirige al problema de la clasificación de los casos y a la reflexión acerca de ¿cómo se construyen tipologías sin referirlas a categorías predefinidas (v.gr. características sociodemográficas)?, a fin de proponer la codificación orientada al caso como procedimiento central para el análisis del sentido común desde la perspectiva de una "tipificación metodológicamente controlada". Sistema de codificación que es facilitado por este programa.

HyperResearch (Hesse-Biber, Dupuis & Kinder, 1991) se presenta como un programa para sistemas Mac que además de permitir codificar y recuperar texto, audio y video, prueba proposiciones al ejecutar operaciones booleanas (sistema experto), prueba hipótesis mediante el uso de inteligencia artificial y tiene opciones para análisis estadístico. Una de las discusiones más polémicas en torno al ACAC es aquella que ha estado presente desde la aparición de programas como WinMax, HyperResearch, NUDIST, etc., y que vincula el manejo informático de los datos con la validez del diseño de la investigación en su conjunto. Así, en la presentación del HyperResearch se insistía en que su uso representaba un sólido apoyo a la confiabilidad y validez del análisis cualitativo de datos.

Con una reflexión que hoy sigue siendo vigente, en torno a que es el investigador y no el programa quien interpreta el texto y que la computadora no contribuye a la "objetividad" entendida en el sentido tradicional dado que tanto el participante como el intérprete poseen sus mundos subjetivos, Huber & García (1991) presentaban a inicios de la década pasada la versión 3 de AQUAD. Al hacerlo recordaban sus dificultades y se lamentaban de no contar con computadoras efectivas que funcionasen como estaciones de trabajo que les permitiesen realizar sus análisis con QUALOG, un programa diseñado para manejar datos cualitativos que permitía no solo sistematizar el proceso de reducción de los mismos sino que permitía también probar hipótesis.

Descripciones detalladas de cada uno de los programas, a pesar de la celeridad con la cual se van incorporando las innovaciones (de MS-DOS a Windows 3, a Windows 95 y a Millenium, en el caso de las computadoras presonales, por ejemplo), se encuentran no solamente en los clásicos ya mencionados (Tesch, 1990; Fielding & Lee, 1992; Kelle, 1995 y Weitzman & Miles, 1995) sino además en Hudelson (1994) en el que se pasa revista a programas como Anthropac, UCINET y TALLY, entre otros; Barry (1998) realiza una estrategia comparativa entre ATLAS-ti y NUDIST; Alexa & Zuell (1999) compararon 15 programas en aspectos relativos al formato del texto, modo de codificación, esquemas y diccionarios, exportación de tablas y datos y, Strübing (1995, 1996) hace un trabajo similar enfatizando algunos elementos relevantes del ATLAS-ti.

Entre los investigadores de habla hispana destacan, sin duda, Rodríguez, Gil & García (1999) quienes formulan, incluso, limitaciones asociadas al uso del ordenador en la investigación cualitativa; están también Navarro & Díaz (1999) quienes, a pesar de lo valioso de su esfuerzo, pierden claridad cuando su descripción de los programas diseñados para la investigación cualitativa del texto es incluída en un capítulo titulado "Análisis de Contenido" en el que resulta evidente que los autores carecen de elementos teórico-conceptuales para distinguir entre la codificación abierta y selectiva necesarias a la Teoría.

Fundamentada y el cálculo de unidades de registro en un procedimiento convencional. Para decirlo visualmente con una imagen: lamentablemente, Navarro & Dáz cometen un error al creer que es posible tener, durante una reunión formal, a Krippendorff dialogando con Strauss, Glaser y Corbin sobre la interpretación del significado.

En el campo de la investigación cualitativa hispanoamericana, ningún esfuerzo editorial ha superado hasta el momento la calidad y profundidad del libro preparado por Valles (1997) cuyos capítulos 3 y 9 son impecables y, que en lo tocante a los sistemas informáticos, presenta una visión sintética, precisa y mesurada de los temas de discusión que a esas fechas se estaban presentando. La visión sumaria que de cada programa realiza son, fuera de toda duda, sumamente útiles para cualquier investigador, sea experto o principiante en el Análisis Cualitativo Asistido por Computadora (ACAC).

2 Una mirada sobre la temprana experiencia del ACAC en hispanoamérica

Sea que pensemos en la aplicación de la informática en los estudios de corte interpretativo, sea que reconozcamos la "revolución metodológica" en la investigación cualitativa o que, finalmente llamemos a todo este campo análisis cualitativo asistido por computadora, al evaluar sus prácticas y/o ejercicios en países de habla hispana en los que, necesariamente se debe reconocer que no se han desarrollado los programas y sistemas, nos encontramos frente a una historia reciente. Y seguirle las huellas a ésta, no es tarea fácil. De hecho, podemos afirmar que los investigadores cualitativos de habla hispana están pendientes de los avances en la informática y se especializan en su uso.

A este respecto han sido de gran utilidad, por el debate que generan y/o la información que presentan y/o lo actualizado de su revisión, los manuales, capítulos de antologías y libros de docencia editados en España a los que ya nos hemos referido (Valles, 1997; Rodríguez, Gil & García, 1999; y Navarro & Díaz, 1999). Aunque también debemos hoy considerar las tareas de docencia, formación, divulgación y preparación de casos guiados que diferentes investigadores han preparado en sus respectivos grupos e Instituciones. Para el caso de México destacan el Programa de Investigación Cualitativa en Salud de la Universidad de Guadalajara y su trayectoria de capacitación en el uso del Ethnograph y el Area de Estudios Rurales y Urbanos de la Unidad Iztapalapa de la Universidad Autónoma Metropolitana y sus cursos sobre la utilización del NUDIST. Quizá de mayor envergadura por la extensión de su influencia por medio de la interconectividad en la WWW, tenemos la imprescindible y encomiable labor que ha desarrollado en España (Muñoz, 2000) desde la Universidad Autónoma de Barcelona, no solamente en lo relativo a la enseñanza del ATLAS-ti sino que, además, en su aplicación a proyectos de investigación y en la preparación de un Manual que ha sido de gran utilidad para la comunidad hispanoparlante. Aunque también debemos mencionar la valiosa aportación que ha representado desde Argentina, para el análisis cualitativo asistido por computadora, Rodríguez, P. G. (1997) quien ha desarrollado una labor amplia de difusión de las herramientas, incluida su Guía de Referencia Rápida, particularmente con relación a uno de los programas desarrollados desde Australia por Qualitative Solutions & Research: NUD*IST4. Sin duda, lo ideal sería que hubiera ya un libro de docencia dedicado a la enseñanza de los programas principales; en México se realizan esfuerzos en esta dirección.

Por otra parte, el mismo Rodríguez, P. G. (1998) llevó cabo una pequeña y sencilla investigación en la que cuantifico la participación de los investigadores latinoamericanos en los grupos de discusión vinculados al análisis cualitativo asistido por computadora. A pesar de las dificultades para contar con las listas completas de suscriptores, de este análisis se destaca que la presencia de suscriptores latinoamericanos no alcanza ni siquiera un 3% de participación en las listas abordadas (QUALRS-L, Aom-Resch, Qual-Software, QSR-Forum y ATLAS-ti) y, lamentablemente, solo incluye a investigadores provenientes de Argentina, Brasil, Chile, Ecuador, México, Uruguay y Venezuela. Estos países, durante el período de dos semanas de 1998 cuando se realizó el "relevamiento" de las listas, contaban con uno o dos suscriptores en algunas de estas listas.

A continuación mencionaremos, a guisa de ejemplo, algunos de los trabajos que, ya sea por la vía de reportes idóneamente comunicados en la forma de capítulos de libros o artículos en revista científica, han hecho mención de alguna asistencia con programas especializados. También incluimos trabajos de investigación que se encuentran disponibles en hojas Web personales o institucionales. Lamentablemente, como se observará de inmediato, no se mencionan trabajos provenientes de Brasil, Chile, Ecuador ni Venezuela pues, a pesar de lo anotado por Rodríguez, P. G. (1998), no encontramos reporte alguno que hiciera referencia al apoyo informático. Igualmente sucedió con el caso de Colombia, país en el que se está desarrollando hoy día una sólida corriente de investigación.

El hecho de que solamente estén estos cuatro países no significa que en ninguno de los otros países hermanos de Latinoamérica no haya investigación cualitativa. Lo cual, sin duda, no corresponde a la realidad; únicamente expresa que aún no hay reportes disponibles que estén vinculados al ACAC. El orden no tiene importancia, presentamos enseguida algunos datos relativos a España, México, Argentina y Uruguay.

España. Mas allá de la labor desarrollada desde la Universidad Autónoma de Barcelona en torno a la utilización del ATLAS-ti, podemos constatar que en fechas recientes se ha acumulado en este país alguna experiencia con otros programas. Entre otras, la investigación realizada por Villar, Cabero, Morales, Barroso, Cabero & Domene (1998) en torno a la utilización de las nuevas tecnologías por parte de profesores de ciclo medio en Sevilla, reporta que mediante el uso de HyperResearch se llevó a cabo análisis textual de coocurrencia de códigos seleccionados con técnicas Delphi. Carreras (1997) reflexiona sobre la aplicación del AQUAD en el campo específico de los estudios de caso para el horizonte de la educación especial. Al estudiar la integración de niños y niñas con necesidades especiales educativas en el aula de Educación Física, Rivera, Trigueros & Camacho (2000) han reportado la utilización de índices generados con NUDIST. Por su parte, Cabero & Márquez (1997) afirman que en la actualidad son pocos los estudios que no utilicen algún programa informático para tratar con entrevistas, diarios y otro tipo de documentos para mostrar que, los investigadores del Instituto de Ciencias de la Educación de la Universidad de Sevilla, ante la "reducción" y el análisis de los datos prefieren utilizar el HyperResearch.

Desde estos cuatro trabajos podemos mencionar que, sin estar vinculados directamente al campo de la salud son representativos del tipo de reporte de investigación realizada mediante ACAC. En efecto, en ellos solamente se hace mención del uso de los programas (AQUAD, NUDIST o HyperResearch) pero no se discute su pertinencia en el proceso de construcción del dato. Como se ha afirmado antes, quizá esta práctica está asociada a la subyacente suposición de que el solo uso de la informática constituye un apoyo sólido a la confiabilidad y validez del análisis cualitativo.

Mención aparte requiere la investigación en torno a las causas de la disminución de la donación de sangre en Cataluña que constituye la unidad hermenéutica mediante la cual Muñoz (2000) ilustra el funcionamiento del ATLAS-ti para el análisis cualitativo de datos textuales.

México. Al igual que en el caso anterior, en estos reportes de investigadores mexicanos solamente se hace mención del uso de los programas (Ethnograph, Atlas-ti, Textbase Alpha y Anthropac) y exclusivamente en uno de ellos (Castro, 1996) se problematiza la construcción del dato al pensar en las llamadas "transformaciones de la información" en los métodos cualitativos (de la observación-entrevista a la grabación, de ahí a la intrapolación, enseguida a la codificación para llegar, al fin, a la interpretación). También es importante anotar aquí que por su utilización en el análisis de "free lists" (listado libres de palabras) el programa Anthropac, desarrollado por Borgatti (1992), se ha utilizado como una herramienta de análisis lexicográfico.

En un estudio sobre los determinantes microsociales de la elección de los servicios de salud realizado en algunas zonas urbanas de México, Bronfman, Castro, Zúñiga, Miranda & Oviedo (1997) aplicaron 192 entrevistas abiertas a personas enfermas, instrumentaron 8 grupos focales con personas en esa misma condición y 61 entrevistas a médicos y prestadores de servicios. Todas las entrevistas, con duración promedio de 60 minutos, fueron procesadas con Ethnograph. Al estudiar los mecanismos de enfrentamiento de la familia ante las adicciones, Natera & Mora (2000) reportan la utilización del Textbase Alpha para el manejo de las categorías emergentes. A fin de ilustrar la complejidad de los enfoques cualitativos, Castro (1996) ha presentado el tratamiento que da a entrevistas realizadas en ámbitos rurales mediante la utilización del Ethnograph. Asimismo, se desarrollan proyectos de investigación en torno a factores socioculturales y económicos de la producción de servicios alternativos de salud (Nigenda, Mora, Aldama & Orozco, 2000) y acerca de las percepciones de los médicos sobre sus propias prácticas y los ejercicios institucionales de arbitraje médico (Mora & Nigenda, 2000) en los que se instrumentarán redes conceptuales mediante ATLAS-ti. Por su parte, Caballero & Uribe (1998) han reportado análisis de universos culturales en torno al SIDA, mediante el uso del Anthropac. Por último, vale destacar que aún no hay reportes que se hayan apoyado en la utilización de NUDIST y NVivo. Lo cual es natural dado que, a partir de la reciente incorporación de estos programas a la vida académica institucional, en la mayoría de los casos se trata de investigaciones que estan todavía en proceso.

Argentina. Al contrario de lo que sucede en México, en lo concerniente al programa con aproximación basado en sistema de índice, en Argentina ya se ha reportado su utilización. Así, Ceirano & Rodríguez (1997) han presentado lo que ellos mismos consideran como una de las primeras investigaciones que utiliza NUDIST para propósitos de análisis de discurso; el concepto de pobreza es objeto de su investigación en tanto objeto semiótico socialmente construido. Independientemente de la propiedad del uso del NUDIST para análisis del discurso cuando sus creadores lo vinculan, insistente y recientemente, a la tradición de teoría fundamentada (Richards, 1999), la labor de este grupo de investigadores de la Escuela Superior de trabajo Social de la Universidad Nacional de La Plata es altamente encomiable.

Uruguay. En este país del Sur de América, únicamente encontramos que el UISDP (1995) incorpora en sus discusiones tópicos relativos al papel de la informática en el análisis de datos cualitativos.

Para concluir vale la pena hacer patente el interés que ha despertado en científicos provenientes de países como Perú, Chile, Venezuela y en todo Centroamérica la utilización de programas como NVivo y Atlas-ti en el contexto de realización de proyectos de investigación multicéntricos dirigidos hacia algunos problemas de salud pública y/o dimensiones de evaluación educativa. Aunque de ellos tampoco se pueda dar información pues están en las fases finales de elaboración de reportes. Así, no está de mas enfatizar la necesidad de sumar esfuerzos en torno a la constitución de redes de investigadores que se encuentran utilizando algún tipo de apoyo computacional a fin de establecer mejores estrategias de comunicación e intercambio de experiencias.

3 De la construcción del dato a la fetichización

Coma ya se ha comentado, hay libros en castellano que introducen, a diferentes niveles de profundidad, a las problemáticas y tendencias del análisis cualitativo asistido por computadora. En ellos a veces se ve a una de las tradiciones cualitativas asociadas a la utilización de la informática, por ejemplo, la Teoría Fundamentada (Grounded Theory) en una vinculación equívoca con las tradicionales técnicas de análisis de contenido (Navarro & Díaz, 1999) lo cual, desde lo que aquí interesa, más que ayudar al esclarecimiento de estrategias rigurosas de investigación obstaculiza la distinción teórica. O en ocasiones el interés es solamente ilustrar acerca de la existencia de ese campo particular del análisis cualitativo (Rodríguez, Gil & García, 1999) con una plena orientación didáctica haciendo solamente un inventario de las características de los programas. Pero también hay, aunque lamentablemente son las más escasas, obras cuya vigencia es admirable; un trabajo de sistematización como el realizado por Valles (1997) merece esa calificación, lo cual hace realmente imprescindible su consulta.

Por otra parte, al pensar en el análisis cualitativo asistido por computadora no se evita recordar que, tiempo atrás, tuvimos que acostumbrarnos al "análisis cuantitativo asistido por computadora". Y aprendimos programas (pensemos solamente en el SPSS, para no abundar). Y después de ese aprendizaje, nunca más hemos vuelto a realizar cálculos de varianza, ni de chi cuadrada, ni de regresión simple o múltiple, "a mano".

Aunque en el caso del análisis cualitativo no debemos "confiar" en que la computadora "masticará" los datos por nosotros, tal cual parece ser nuestra relación con la "interfase" informática con la cual interactuamos en el "análisis cuantitativo asistido por computadora". Se ha insistido mucho que el investigador que llega al ACAC con el mismo "modelo cognitivo" con el que se acerca a SPSS, por ejemplo, está cometiendo un grave error. Subrayar esta diferencia es sumamente relevante ya que, por un lado, el conocimiento experto acerca de los procesos involucrados en el manejo y tratamiento de los datos en computadora, tanto en el análisis cuantitativo (SPSS) como en el cualitativo (NVivo), por ejemplo, es similar para ambos casos dado que radica en quien interpreta los resultados, aunque por otro lado, el conocimiento experto acerca de los procesos involucrados en la construcción del dato sea nada similar en ambos casos, el dato númerico (SPSS), ya está dado mientras que, el dato no numérico (NVivo), se está haciendo.

Los procesos generales del análisis cualitativo de datos son la generación de conceptos y la construcción de tipologías y taxonomías (Bryman & Burgess, 1994), sea que realicemos inducción analítica, teoría fundamentada o estrategias de modelos. Y son estos procesos los que al constituir, indudablemente al trabajo "duro" del análisis cualitativo, seguirán estando bajo nuestra responsabilidad y nuestras "manos" independientemente de cual haya sido el programa que hayamos elegido. Dicho de otra forma: no hay algoritmo alguno para cerrar el círculo hermenéutico ni hay cálculo posible que agote el análisis de un significado.

Para Morse (1994) son cuatro los procesos cognitivos inherentes al análisis de datos y estos aparecen íntegros en todos los métodos cualitativos: la comprensión, la síntesis, la teorización y la recontextualización. Si lo recordamos, en este ensayo Morse ejemplifica estos procesos para la fenomenología, la etnografía, la etnociencia y la teoría fundamentada. De nuevo es necesario afirmar ahora que, todo aquel investigador que haya superado el "terror epistemológico" a las computadoras y encuentre en ellas, como decían metafóricamente Fielding & Lee (1992, p. 6), no al oficinista sino al asistente de investigación, pero crea que este asistente llevará a cabo, en sustitución de él mismo, los procesos cognitivos inherentes al análisis cualitativo señalados por Morse, estará francamente equivocado. Y todavía más si, por ejemplo, su análisis quisiera ser del refinado y detallado nivel necesario que recientemente Strauss & Corbin (1998, p. 57) han formulado como microanálisis:combinación de codificación abierta y axial.

Aunque desde sus inicios (Pfaffenberger, 1988) la discusión en torno al ACAC haya estado matizada por la inteligencia artificial y los sistemas expertos, debe llamarse permanentemente la atención en torno a que este tipo de herramientas no "aseguran" por sí mismas, ni el rigor, ni la validez, ni la confiabilidad de la investigación. La construcción del dato cualitativo está compuesto no solamente por los procesos cognitivos ya señalados sino, indudablemente, por la relación viva y existencial con los participantes.

Es importante hacer notar que tanto en las discuciones sobre construcción de teoría como en las relativas al proceso de triangulación, emerge como problema la construcción del dato cualitativo. Desde el uso de computadoras este problema es entendido como: el análisis de los diversos vínculos conceptuales entre memos y texto, entre memos y códigos, entre códigos, entre segmentos de texto y entre segmentos de texto y su contexto. Discusiones que han conducido a la emergencia del llamado "proceso de codificación de segundo orden" el cual, para el programa NUDIST condujo (Richards & Richards, 1995) a la necesidad de las categorías jerárquicas. Por su parte, Kuckartz (1995, p. 160) formuló el cuadro siguiente a fin de dar cuenta de lo que para él, desde una perspectiva fenomenológica la cual recupera los conceptos de Schutz y Weber, conduce a una tipificación metodológicamente controlada:

Evidentemente, del paso 0 (que no está en el cuadro y que es la experiencia viva de la interacción simbólica entre los participantes) al paso 1, hay un abismo: la transcripción nunca es fiel, no puede ser fiel. Por más anotaciones al margen que se hagan, por extremadamente ricas que sean todas las notas analíticas o memos, por mayor claridad y fidelidad que tenga la grabación de audio y/o video, la transcripción o "puesta en texto" de los actos que constituyen la interacción viva, ya es otra realidad. Indagar sobre posibles puentes para saltar este abismo, excede los límites del presente trabajo. Aunque todo lo relativo a esta cuestión puede ser reconocido como el problema del vínculo entre experiencia viva y transcripción.

Vistos con detenimiento, cada uno de los pasos formulado en secuencia, conduce finalmente a cierto tipo de análisis del cual, podemos asegurar, se ha realizado una cantidad inmensa en nuestros países. Se realice éste mediante las estrategias artesanales de "cortar y pegar", se realice con o sin la ayuda de las computadoras, o con programas no especializados o con los específicamente desarrollados para ese fin, el resultado no debe ser la pura asignación de códigos y su análisis comparativo.

Si en la codificación de primer orden tenemos vínculos entre códigos y segmentos de texto, podemos afirmar que nuestra labor no concluye ahí. De esta manera, los códigos de segundo orden se desarrollan desde los códigos de primer orden y no tienen conexión directa con los segmentos de texto. Kuckartz (1995, p. 164) propone el siguiente cuadro a fin de llamar la atención sobre la gran diferencia entre programas para el Análisis Cualitativo Asistido por Computadora (ACAC) que están solamente diseñados para codificar y recuperar texto y aquellos que se diseñan para la construcción de teoría, como su programa WinMax. Es de notar que el lenguaje usado por Kuckartz posee cierto corte cuantitativo en términos de que está formulado para discutir en torno a la triangulación metodológica:

Sea desde la triangulación o desde la cuantificación, resulta innegable que discutir en torno a la producción del dato cualitativo y su relación con el ACAC, es una gran necesidad de las tradiciones interpretativas. Pues, por un lado, reaparecen los comentarios a los cuales ya se habían enfrentado Richards & Richards (1992) en torno al estatuto de los datos "blandos" cuando desarrollaban la versión 3 del NUDIST: si lo "duro" es lo cuantitativo y lo "blando" lo cualitativo, el ACAC entonces ¿solamente conduce a presentar resultados "duros" de datos "blandos"? o, si lo no numérico es complejo e impreciso ¿para qué se requiere de computadoras? Incluso hoy se ha de reconocer que en las viejas prácticas de la codificación de primer orden se concentra uno de los problemas que se han presentado en el Análisis Cualitativo Asistido por Computadora: dada la facilidad técnica para codificar...¡codifiquemos todo! El resultado: fetichización del dato por el uso irresponsable de la asistencia computacional.

Por otro lado, lo señalado por Kuckartz en este segundo cuadro es de vital importancia pues su preocupación se ubica en lo que ya habían señalado Bryman & Burgess (1994, p. 6-7) como las tareas centrales del análisis cualitativo: la generación de conceptos y la construcción de tipologías y taxonomías e, incluso, contextualiza en un sentido amplio los componentes cognitivos ya señalados anteriormente en el texto (Morse, 1994).

De esta manera, no está de más formular aquí que el sistema de índices con el que fue preparado NUDIST, permitía desde su versión 4, realizar ya análisis de casos. Aunque es verdaderamente atractivo recordar aquí que Richards (1997) ya puntualizaba, entre otros riegos (la computadora como enemigo o como analista, la descontextualización del dato, etc.) el relativo al fetichismo en la codificación, que ya hemos señalado. Efectivamente, generar grandes bases de datos a partir de complejas relaciones jerárquicas (como en el NUDIST, hoy en su versión 5 liberada en diciembre del 2000, posterior al NVivo), o de redes complejas con supernodos o familias (como en el ATLAS-ti, del cual se espera la nueva versión durante el 2001) puede tornarse un objetivo del analisis y conducir el investigador en sus planteamientos analiticos, alejándolo cada vez más del último vínculo del cual ya hablamos, el vínculo entre experiencia viva y transcripción.

Precisamente sobre este último punto y para expresar elementos a favor del ACAC, se puede decir que una de las características más sobresalientes de los programas particularmente hoy importantes como son ATLAS-ti, NUDIST y NVivo es la función que permite generar códigos in-vivo que, sin lugar a dudas, para los investigadores vinculados a la aproximación de Teoría Fundamentada es una de las herramientas, junto con los memos, más apreciada. Mención relevante merece también el reciente trabajo de Muhr (2000) quien está invitando a superar una de las debilidades más importantes de los programas, vistos en conjunto, que es la incapacidad de comunicación entre sistemas (una unidad hermenéutica del ATLAS no puede ser traducida o exportada como proyecto a NVivo, por ejemplo) a partir de la utilización de la herramienta eXtensible Markup Language (XML). Lo cual, dicho con cierta ironía, nos coloca frente a la exigencia de no ser nunca solamente "aficionados" a alguno de los programas que hoy por hoy asisten en el análisis cualitativo de datos.

Exigencia que también se ha expresado plenamente a todos aquellos investigadores que al realizar grandes proyectos deben enfrentar el reto de reconocer las formas de "fusión" entre componentes del proyecto, sean nodos o índices, en el caso de NUDIST y NVivo, o familias y supercódigos en el caso de ATLAS-ti. Para ser más precisos, tampoco se puede ser "aficionado" a la computadora cuando debo tomar decisiones sobre como fusionar componentes de un solo proyecto que han sido elaborados por diferentes miembros del equipo de investigadores trabajando en red o en un proyecto multilocal en diferentes computadoras.

Para concluir es necesario afirmar que el argumento desarrollado en este articulo es que la emergencia y consolidacion del ACAC puede conducir a los investigadores a reificar el uso de la computadora en demérito de las tareas humanas de la interpretación. Al hacer la revisión sobre la reciente experiencia hispanoamericana en Análisis Cualitativo Asistido por Computadora se hizo evidente que su aplicación no ha sido acompañada de una reflexión crítica sobre la producción del dato. Pareciera como si lo que afirmaron Coffey & Atkinson (1996, p. 187), nunca hubiese hecho sentido: "... ninguno de los programas de computadora ejecutará análisis automático de los datos. Ellos dependen de lo que los investigadores definan como los tópicos analíticos a ser explorados, las ideas que son importantes y los modos de representación que son mas apropiados".

El interés en hispanoamérica por el Análisis Cualitativo Asistido por Computadora es, afortunadamente, creciente y entusiasta. Aunque no muy numerosos, sus practicantes están acumulando experiencia no solamente en el uso de los programas sino, además, en la capacitación a otros y en la discusión con aquellos que se resisten a abandonar el trabajo manual y con quienes prefieren el uso de programas no especializados.

Con mucho optimismo, también se incorporan aquellos que, paulatina y gozosamente, van descubriendo que el Análisis Cualitativo Asistido por Computadora ya no se reduce únicamente al estudio de datos textuales y hoy involucra datos no textuales, hypertexto, representaciones conceptuales, redes, pensamiento cualitativo y modelamiento teórico.

  • ALEXA, Melina & ZUELL, Cornelia. Commonalties, differences and limitations of text analysis Software: the results of review. ZUMA-Arbeitsbericht 99/06 1999.
  • BARRY, Christine A. Choosing qualitative data analysis software: Atlas-ti and Nudist compared. Sociological Research Online, 3(3). Disponible en: <http://www.socresonline.org.uk/socresonline/3/3/4.html> (1998, Octubre 13). 1998, Septiembre.
  • BORGATTI, S. P. ANTHROPAC 4.0. Methods guide Columbia: Analytic Technologies, 1992.
  • BRONFMAN, M.; CASTRO, R.; ZÚÑIGA, E.; MIRANDA, C. & OVIEDO, J. Hacemos lo que podemos: los prestadores de servicios frente al problema de la utilización. Salud Pública, 39, 1997, p. 546-553.
  • BRYMAN, A.; BURGESS, R. G. Analysing qualitative dataNew York: Routledge, 1994.
  • CABALLERO, J.; URIBE, P. Exploración de significados culturales sobre el SIDA en adolescentes de Guadalajara. En: Mercado, F., Robles, L. (comps.) Investigación cualitativa en salud México: UdG, 1998, p. 203-222.
  • CABERO, J.; MÁRQUEZ, D. La introducción del video como instrumento de conocimiento en la enseñanza universitaria Dusponible en: <http://www.cucei.udg.mx/tvcucei/que_es/artgice2/index.html>, 1997.
  • CARRERAS, F. T. Metodología de investigación en Educación Especial: el análisis cualitativo de datos Disponible en: <http://www.niee.ufrgs.br/Icieep/ponencias/dos-31.htm>, 1997.
  • CASTRO, R. En busca del significado: supuestos, alcances y limitaciones del análisis cualitativo. En: Szaz & Lerner (comp.) Para comprender la subjetividadMéxico: El Colegio de México, 1996, p. 57-85.
  • CEIRANO, V.; RODRÍGUEZ, G. Análisis de discurso asistido por computadora: nuestra experiencia con el NUD*IST Disponible en: <http://www.analisiscualitativo.com.ar/analista.htm>, 1997.
  • COFFEY, A.; ATKINSON, P. Making sense of qualitative data Thousand Oaks, CA: Sage, 1996.
  • DENZIN, Norman K. & LINCOLN, Yvonna S. Handbook of qualitative researchThousand Oaks, CA: Sage, 1994.
  • FIELDING, Nigel G. & LEE, Raymond M. Using computers in qualitative research London: Sage, 1992.
  • GLASER, Barney G. & STRAUSS, Anselm L. The discovery of Grounded TheoryLondon: Weidenfeld and Nicolson, 1967.
  • GLASER, Barney G. Theoretical SensitivityMill Valley: Sociology Press, 1978.
  • HESSE-BIBER, S.; DUPUIS, P. & KINDER, T.S. HyperRESEARCH: a computer program for the analysis of qualitative data with an emphasis on hypothesis testing and multimedia analysis. Qualitative Sociology,14 (4), 1991, p. 289-306.
  • HUBER, G.; GARCÍA, C. M. Computer assistance for testing hypothesses about qualitative data: The Software Package AQUAD 3.0. Qualitative Sociology,14 (4), 1991, p. 325-347.
  • HUDELSON, P. Appendix IV: Resource list of computer programmes for managing and analysing qualitative data. En: Hudelson, P. Qualitative Research for Health ProgrammesGeneva: WHO/MNH/PSF, 1994, p. 99-102.
  • KELLE, Udo. Computer-aided qualitative data analysis. Theory, methods and practiceThousand Oaks, CA: Sage, 1995.
  • KUCKARTZ, U. Case-oreinted Quantification. En: U. Kelle (ed.). Computer-aided qualitative data analysis Thousand Oaks. CA: Sage, 1995, p. 158-166.
  • MILES, M. & HUBERMAN, M. Qualitative data analysis. an expanded sourcebookThousand Oaks, CA: Sage, 1994.
  • MORA, G.; NIGENDA, G. La práctica médica y las nociones sobre la Comisión Nacional de Arbitraje Médico en Cuernavaca, Morelos Disponible en: <http://www.insp.mx/ciss/ciss4.html>, 2000.
  • MORSE, J. Emerging from the data: the cognitive processes of analysis in qualitative inquiry: En: Morse, J. Critical Issues in Qualitative Research Methods Thousand Oaks, CA: Sage, 1994, p. 23-43.
  • MUÑOZ, J. J. Análisis cualitativo de datos textuales con ATLAS/ti. Disponible en: <http://seneca.uab.es/jmunoz/Cuali/Manual.htm>, 2000.
  • MUHR, T. ATLAS/ti: a prototype for the support of text interpretation. Qualitative Sociology, 14 (4), 1991, p. 349-371.
  • MUHR, T. ATLAS/ti. The knowledge worbench. Short user's manual Berlín: Scientific Software Development, 1997.
  • MUHR, T. Power to the data: coping the proprietaritiness of qualitative data. Forum Qualitative SozialforshungDisponible en: <http://qualitative-research.net/fqs/fqs-eng.htm>, 2000, Diciembre.
  • NATERA, G.; MORA, J. La teoría fundamentada en el estudio de la familia y las adicciones. En: Mercado & Torres (comp.) Análisis cualitativo en salud. Teoría, método y prácticaMéxico: UdG/Plaza y Valdés, 2000, p. 73-95.
  • NAVARRO, P.; DÍAZ, C. Análisis de Contenido. En: Delgado, J. M.; Gutiérrez, J. (coord.) Métodos y técnicas cualitativas de investigación en Ciencias Sociales Madrid: Síntesis, 1999, p. 177-224.
  • NIGENDA, G.; MORA, G.; ALDAMA, S.; OROZCO, E. Modelos alternativos de atención a la salud en México: un estudio de su disponibilidad y utilización en dos áreas urbanas del país Disponible en: <http://www.insp.mx/ciss/ciss4.html>, 2000.
  • PFAFFENBERGER, B. Microcomputer applications in qualitative researchNewbury Park, CA: Sage, 1988.
  • RICHARDS, L.; RICHARDS, T. 'Hard' results from 'soft' data? Computing and qualitative analysis. Paper to British Sociological Association,Manchester, 1992.
  • RICHARDS, L.; RICHARDS, T. Qualitative computing: promises, problems and implications for research process. Paper to British Sociological Association,Essex, 1993.
  • RICHARDS, L.; RICHARDS, T. Using computers in qualitative research. En: Denzin & Lincoln (eds.) Handbook of Qualitative Research Thousand Oaks, CA: Sage, 1994, p. 445-462.
  • RICHARDS, L.; RICHARDS, T. Using hierarquical categories in qualitative data analysis. En: U. Kelle (ed.) Computer-Aided Qualitative Data Analysis Thousand Oaks. CA: Sage, 1995, p. 80-95.
  • Richards, Lyn. (1997) User's mistake as developer's challenge: designing the new NUD*IST. Qualitative Health Research 7 (3), p. 425-433.
  • RICHARDS, Lyn. Qualitative computing and Qualitative Sociology: the first decade. Paper to British Sociological Association,Edimburg. 1999.
  • RIVERA, E.; TRIGUEROS, C.; CAMACHO, M. Yo integro, tu incluyes, nosotros... Un reto difícil Disponible en: <http://www.efdeportes.com/efd28/integr.htm>, 2000.
  • RODRÍGUEZ, G.; GIL, J.; GARCÍA, E. Metodología de la investigación cualitativaGranada: Aljibe, 1999.
  • RODRÍGUEZ, P. G. QSR NUD*IST Guía de Referencia Rápida Disponible en: http://www.analisiscualitativo.com.ar. 1997.
  • RODRÍGUEZ, P. G. Grupos de discusión sobre metodología de investigación cualitativa asistida por computadora en Ciencias Sociales. 1er. Congreso Virtual de Antropología y Arqueología Disponible en: <http://www.naya.org.ar/congreso/ponencia1-14.htm> (1999, Agosto 19). 1998.
  • SEIDEL, John V. Qualitative data analysis. The Ethnograph v5. Appendix EDisponible en: <http://www.qualisresearch.com> (1999, Junio 13). 1998.
  • STRAUSS, Anselm L. Qualitative Analysis for Social Scientists New York: Cambridge University Press, 1987.
  • STRAUSS, Anselm L. & CORBIN, Juliet. Basics of qualitative research. Techniques and procedures for developing grounded theoryNewbury Park, CA: Sage, 1998.
  • STRÜBING, Jörg. Computer-assited analysis in qualitative social research - A comparison. Paper presented at the Conference Text Analysis and Computers at ZUMA,Mannheim, 1995 September.
  • STRÜBING, Jörg. Computer tools for Grounded Theory: Introducing ATLAS/ti for Windows 95. Proceedings of the 20th Conference of the Gesellschaft für Klassifikation e.V.1996.
  • TESCH, R. Qualitative research: analysis types and software toolsBasingstoke: Falmer, 1990.
  • TESCH, R. Introduction. Qualitative Sociology, 14 (3), 1991, p. 225-243.
  • TESCH, R. Software for qualitative researchers: analysis needs and program capabilities. En: Fielding & Lee (eds.) Using Computers in Qualitative Research London: Sage, 1992, p. 16-37.
  • UISDP Boletín No. 4. Disponible en: <http://www.rau.edu.uy/ fcs/banco/boletines/bol4.htm#inicio>, 1995.
  • VALLES, M. Técnicas cualitativas de investigación social Madrid: Síntesis, 1997.
  • VILLAR, L.; CABERO, J.; MORALES, J.; BARROSO, J.; CABERO, A.; DOMENE, S. La utilización de las NN.TT. de la información y comunicación en el desarrollo profesional docente: estudio cualitativo Disponible en: <http://www.ice.uma.es/edutec97/edu97_c3/2-3-24.htm>, 1998.
  • WEITZMAN, Eben & MILES, Matthew. Computer programs for qualitative data analysis Thousand Oaks, CA: Sage, 1995.
  • 1
    Una versión de este trabajo es publicada en
    Investigación Cualitativa en Salud. Una Antología sobre la Producción Iberoamericana. Mercado, F. J., Gastaldo, D., Calderón, C. (Eds) (En prensa).
  • Fechas de Publicación

    • Publicación en esta colección
      13 Ene 2004
    • Fecha del número
      Ene 2003
    Programa de Pós-Graduação em Sociologia - UFRGS Av. Bento Gonçalves, 9500 Prédio 43111 sala 103 , 91509-900 Porto Alegre RS Brasil , Tel.: +55 51 3316-6635 / 3308-7008, Fax.: +55 51 3316-6637 - Porto Alegre - RS - Brazil
    E-mail: revsoc@ufrgs.br