Acessibilidade / Reportar erro

Réplica 1 - análise de conteúdo: faça perguntas às respostas obtidas com sua ‘pergunta’!

Content analysis: question the answers to your ‘question’!

DOCUMENTOS E DEBATES

Réplica 1 – análise de conteúdo: faça perguntas às respostas obtidas com sua ‘pergunta’!

Content analysis: question the answers to your ‘question’!

Henrique M. R. de Freitas* Endereço: Henrique M. R. de Freitas PPGA/EA/UFRGS, Rua Washington Luiz, 855, sala 307, Porto Alegre/RS, 90010-460.

Universidade Federal do Rio Grande do Sul – PPGA/EA/UFRGS Porto Alegre, RS, Brasil. E-mail: hf@ea.ufrgs.br

Antes de Iniciar a Réplica, uma Realidade Atual

Devo dizer a vocês que, desafiado pelo Professor Jaime Evaldo Fensterseifer para escrever este documento, tive algumas primeiras reflexões; por vários dias, rudimentos delas. Remoendo o assunto, lendo o documento base e sua temática, pensando... Revendo mentalmente documentos, palestras e artigos que havia escrito/elaborado no passado e que tangenciavam o assunto. Curiosidades que aprendi fazendo. Ou ainda o fato de ter, num dado momento, praticado algo envolvendo isso... seja, percalços e vitórias com o uso de técnicas de análise quantitativa e qualitativa de dados qualitativos.

Como vi, em outras réplicas, espaço para alguma reflexão pessoal, imaginei que não seria abuso dividir com vocês algumas.

Agradeço ao Professor Jaime, longo tempo colega na UFRGS, meu professor no mestrado em 1987-1989, e meu colega desde 1993 até recentemente. Pessoa simples, prática, generosa, admirável. Inteligente. Vanguardista. Sempre teve de seus pares profunda admiração e respeito.

Tomara que um dia coordenar, e mesmo participar, de um programa de Pós-Graduação (PPG), seja novamente para formar pesquisadores, e cada qual um melhor cidadão, e ajudar a construir um País melhor. E não seja, como hoje, essa abominável corrida socialmente distorcida para aumentar o conceito, o que forma menos pessoas do que o País necessita e alija do sistema pessoas que poderiam fazer a diferença. Isso induz os PPGs definirem critérios para, de forma simplista, diminuírem o denominador do seu indicador de produção científica, desprestigiando seus pares, alegando que certa produção nada ou pouco vale individualmente (como artigos em congressos e mesmo livros).

Natural de Uruguaiana/RS, de onde saí em 1975 para ir à luta e construir meu destino, coube-me apresentar uma réplica ao documento publicado por 2 colegas, atuando em Passo Fundo/RS. Mas bah, tchê! Fico feliz pela identificação e interesse comum nos temas. A elas desejo todo o sucesso e felicito pela publicação.

Iniciando a Réplica, minha Base

Para iniciar a minha réplica, algumas premissas básicas:

· Vou basear-me naquilo que pude construir de conhecimento, a partir das leituras que o tempo permitiu, com base nas 56 teses e dissertações que tive a honra de dirigir entre 1994 e 2010, com base sobretudo na vintena de projetos AI e PQ que coordenei sob a égide do CNPq e Capes-Cofecub, e sobretudo dos momentos de convívio que Deus me permitiu junto às equipes do Professor Jean Moscarola (Savoie, França) e do Professor João Luiz Becker (UFRGS, Brasil).

· Vou igualmente basear-me em alguns artigos e especialmente em 2 da dezena gorda de livros que tive a oportunidade de auto-editar (não cederei direito a editores, enquanto mal pagarem seus esforçados e honrados autores; publicá-los-ei eu mesmo).

Nessa prática (aulas, orientações, artigos, livros, palestras, workshops), aprendi a ser alguém que migrava do quanti ao quali, e vice-versa. Não escolhi lado ou faceta. Mas confesso que tive fases. Umas mais quanti, outras mais quali. Cada qual por suas razões. Mas sempre fazendo uso das 2, uma em complemento à outra. Mais do que fases, trabalhei orientando pessoas, e com elas abordando temas e contextos que, por vezes, indicavam ou propiciavam um caminho que exigia de nós sermos mais quanti ou mais quali, ou ambos, numa ou noutra ordem.

Assim, a análise de conteúdo é colocada pelas autoras, Anelise Rebelato Mozzato e Denize Grzybovski, como uma técnica de análise de dados que vem tendo destaque dentre os métodos qualitativos, ganhando legitimidade e cada vez maior importância na análise de conteúdo para os estudos organizacionais. E chamam nossa atenção, dizendo que

Quanto aos desafios dessa perspectiva, ficou evidenciado que estes são contínuos... No que concerne à possibilidade de a análise de conteúdo fazer parte de uma visão mais ampla, para além da influência positivista que sofre, ficou evidente a sua potencialidade para tanto, desde que os pesquisadores trabalhem com o método de forma coerente, ética, reflexiva, flexível e crítica, além de considerarem seriamente o contexto e a história nos quais a pesquisa se insere (p. 15)

Aprecio a reflexão apresentada pelas autoras. Nesse sentido, tenho dito, sobretudo a meus orientandos e por onde palestro (jamais palestro em casa, pois ‘santo de casa não faz milagres’, além do que ciúme e inveja matam) que o importante é não se ver engessado por método algum, mas poder fazer bom uso de todas técnicas e ferramentas que os compõem, tudo a serviço da investigação que almejamos realizar, da robustez dos resultados etc.

Antes da tecnicidade, vem a honestidade do relato e da análise. Vem o contar simples, compreensível, do que se fez naquela pesquisa. E vem o bom senso de se dar conta que mais que aquilo não pode ser dito ou buscado. Há mestrandos e doutorandos (será que professores também?!) que já sabem o que escreverão nas conclusões da pesquisa, mesmo antes de iniciá-las! E ainda se dão o trabalho de pesquisar?! É preciso entender que não se pode apontar aspectos no final com base no acho que, e sim com base nos dados coletados, nas observações feitas etc.

Sim, respeito às técnicas, de modo a poder relatar da melhor forma os resultados, mostrando ao leitor o cuidado, os detalhes, as restrições e os problemas enfrentados, e mesmo como eles foram contornados. Isso dá mais do que validade, legitimidade ao que está servindo de apoio aos nossos argumentos.

Faltou ainda dizer que, como em outras réplicas, meu intuito com este texto é de alguma forma complementar do que foi aberto pelo texto das autoras da UPF: instigar o debate, tentar, com a razoável experiência que se teve nesses mais ou menos 16 anos de orientação; mostrar alguns percalços e o que resolvemos fazer, quando essas técnicas estavam no âmago do método de pesquisa sendo aplicado/usado/praticado. Ao mesmo tempo, visto que o texto objeto desta réplica se concentrou em um conjunto de autores, ampliar um pouco esse círculo, bem como valorizar um pouco mais o que aqui se produziu nesse mesmo período sobre tal temática.

Um pouco de teoria, um pouco de reflexão e um pouco de percalços...

A realização de pesquisas acadêmicas ou profissionais tem cada vez mais desafiado os analistas e pesquisadores, visto que a objetividade dos dados coletados em uma pesquisa não é (em muitos casos) mais condição suficiente para a compreensão de um fenômeno; como, por exemplo, a opinião de certo público, satisfação do cliente, resistência dos usuários finais de uma tecnologia recentemente adotada. De fato, uma boa dose de subjetividade é que vai permitir explicar ou compreender as verdadeiras razões do comportamento ou preferência de certo grupo por algum produto, sistema, serviço etc.

Usando dados qualitativos, opiniões mais abertas, espontâneas ou mesmo – e porque não principalmente – aquelas coletadas de forma indireta (como a do setor de pós-venda ou de atendimento ao cliente), pode-se ter a chance de identificar ou antecipar oportunidades e problemas de forma bem mais pontual, precisa e com custo operacional bem menor, ainda por cima a partir da exploração de um dado completamente espontâneo, não induzido de forma alguma (Freitas & Moscarola, 2002).

Os procedimentos, métodos e ferramentas que possibilitam isso estão cada vez mais presentes na literatura e no mercado: há todo um leque de possibilidades que pode ser utilizado (Moscarola, 1990; Weitzman & Miles, 1995). A estratégia de uso de questões abertas ou fechadas num instrumento é debatida por Lebart e Salem (1994).

A utilidade da combinação de métodos tem sido assunto discutido fortemente na comunidade acadêmica internacional (Kelle, 1995; Lee, Liebenau, & DeGross, 1997; Mason, 1997), apresentandonos grande variedade de aspectos a serem levados em conta na formulação de questões, com vistas à obtenção e análise de dados, sejam eles qualitativos x quantitativos, sejam eles diretos x indiretos,abertos ou fechados. É tempo de seguir em frente com mais estudos qualitativos (Miles & Huberman, 1994), e educar nossos gerentes, começando pelas nossas crianças, que o mundo não é somente quantitativo, e sim qualitativo. Pelo menos, que bom estudo quantitativo não deveria ser precedido por um qualitativo?

Um pouco sobre as análises de conteúdo [e léxica] e a teoria dos atos de linguagem

A análise de documentos, sejam eles originários de pesquisas quali ou quantitativas, inclui análise léxica e análise de conteúdo. Apresentam um conjunto de características racionais, sendo mais ou menos intuitiva, pessoal e subjetiva. Como outros métodos, apresenta problemas de validade, como autenticidade do texto, validade de interpretação e veracidade dos fatos. Creswell (1998), e também Kirk e Miller (1986) oferecem-nos alguns conceitos e discussões a respeito de pesquisa qualitativa e principalmente sobre confiabilidade (ou fidedignidade) e validade desse tipo de estudo. Tem ainda, em muitos casos, o defeito do trabalho não sistematizado, dependendo fortemente do valor e competência do pesquisador.

A Análise Léxica (Freitas & Moscarola, 2000) consiste em se passar da análise do texto para a análise do léxico (o conjunto de todas as palavras encontradas nos depoimentos ou respostas). Já a Análise de Conteúdo (Frankfort-Nachmias & Nachmias, 1996), consiste em leitura aprofundada de cada uma das respostas, onde, codificando-se cada uma, obtém-se uma ideia sobre o todo (Freitas, 2000). Weber (1990) apresenta algumas vantagens da análise de conteúdo, destacando sua aplicabilidade na análise de textos de comunicação de toda natureza, bem como o fato de permitir combinar métodos quanti e qualitativos, e mesmo explorar séries longitudinais de documentos ou fontes múltiplas, e enfim o fato de poder tratar com dados mais espontâneos (e não induzidos ou expressamente perguntados).

Com base em textos europeus e americanos (Bardin, 1996; Gavard-Perret & Moscarola, 1995; Grawitz, 1993; Lebart & Salem, 1994; Miles & Huberman, 1994; Silverman, 1993; Weber, 1990), Freitas e Janissek (2000) apresentam noções gerais sobre a análise de dados textuais, com diferentes níveis de aplicação e desenvolvimento da análise léxica, ilustrando a aplicação e uso dessas técnicas. Este tipo de análise contribui para a interpretação das questões abertas ou textos, a partir da descrição objetiva, sistemática e quantitativa do seu conteúdo.

Através de processos automáticos que associam a matemática e a estatística, o uso da análise léxica permite interpretar e fazer uma leitura adequada e dinâmica das questões abertas das pesquisas (Moscarola, 1990, 1993, 1994a, 1994b). Esse procedimento não é mais rigoroso do que a análise de conteúdo clássica (Bardin, 1996; Krippendorff, 1980; Weber, 1990). O tratamento dos dados é objetivo, mas a leitura subjetiva também é realizada: é ela que permite, por exemplo, em dada pesquisa e época (quando, ainda jovem, cooperava com o competente e hoje renomado colega Professor Roberto L. Ruas), comunicar a impressão de acordo com a qual o processo de qualidade teve maior incorporação nas médias e grandes empresas do que nas pequenas (Freitas, Cunha, & Moscarola, 1996, 1997).

Com o uso conjunto das técnicas de análise de textos é possível produzir novos dados que podem, por sua vez, ser confrontados especialmente com dados sociodemográficos; como, por exemplo, um elenco de reclamações ou sugestões agora vistas por sexo, por faixa etária, por renda, por departamento ou qualquer outro dado mais objetivo ou quantitativo.

Antecipar a análise léxica à de conteúdo faria com que a análise de dados se desse de uma maneira plena, ou seja, o uso destas duas técnicas encobrem diversas das possibilidades que dali poderiam surgir ou fazer emergir. No final de um esforço de análise de dados, poder-se-ia dispor de resultados significativos aplicáveis a uma dada realidade. Como isso deve ser feito? De que maneira combinar o uso destas duas formas de análise? Os 2 tipos de análise de questões abertas (a de conteúdo e a léxica) são representados na Figura 1. Estes tipos de análises de dados são abordados por Freitas e Moscarola (2000), Freitas e Janissek (2000).


A subjetividade continua presente; mas, por meio deste tratamento, tem-se acesso a um processo de leitura mais rápido e automatizado, que encontra certo número de justificativas, as quais são abordadas na sequência.

Pode-se considerar uma forma de dinamizar o processo de exploração dos dados, mais que um fim em si, e, com isso, podemos exercer a curiosidade de investigação, sem ter a preguiça, e sim, pelo contrário, tendo vontade de olhar e fuçar mais e mais nas nossas ideias, insights, devaneios intelectuais em torno dos dados, porque fica bem mais rápido e fácil lidar e mexer com eles, checando assim se nossas ideias encontram ali consistência de argumento que vale a pena seguir. As técnicas, dessa forma, talvez não nos deem respostas prontas, mas nos oportunizam as pistas quentes a seguir! (honestamente, pessoal, esta é uma ideia a discutir mais com seus alunos!).

Claro, há outros caminhos. Aqui, o método de análise inicial (que seja para aquele contato inicial com o material bruto coletado (por vezes importado, porque tais dados podem vir de fontes secundárias, não necessariamente entrevistas ou depoimentos diretos, mas conjuntos de e-mails, documentos com discursos, etc.)) consiste em partir de textos, (respostas abertas) para analisar palavras, o léxico. Ao se fazer isso, parte-se de um nível que se pode chamar de macroestatístico: aquele, por exemplo, das 120 entrevistas que foram realizadas, das 6.000 ou 4.000 palavras produzidas nas respostas. Estas palavras são resultados do que chamamos atos de linguagem. De acordo com as teorias da linguística, os atos de linguagem são as decisões que tomamos ao nos expressarmos, ao escolher uma palavra em detrimento de outra (Grawitz, 1993). Os psicólogos e linguistas explicam que esses atos de linguagem dependem, por um lado, do idioma -este vem em primeiro lugar - mas dependem também do mundo do qual se fala e no qual se encontra a realidade.

Os atos de linguagem dependem de todo um conjunto de conhecimentos a respeito do tema de investigação. Os atos de linguagem expressam também o contexto social. Enfim, os atos de linguagem dependem da variedade individual de quem está se expressando. Assim, a maneira como nos expressamos é certamente característica do Português. Na condição de pesquisadores, apresentamos um vocabulário certamente abstrato, com termos da estatística e com a particularidade de nosso estilo próprio como indivíduos. Tenta-se ilustrar isso na Figura 2.


Se for possível controlar o idioma e a variedade individual, pode-se, através da estatística dos atos de linguagem, descobrir ora o mundo do qual se está falando, ora o contexto social de quem estiver falando. Assim fazendo, poder-se-ia, por exemplo, dizer que o processo de qualidade é ao mesmo tempo conscientização, solução de organização, dos métodos específicos, ISO, TQC, por um lado, e, por outro lado, esses modos de representação do mundo fazem uma diferença entre a situação das pequenas empresas de um lado, e de médias e grandes empresas de outro.

A análise léxica, ao se apoiar na teoria dos atos de linguagem, oferece uma maneira científica de desenvolver investigações em áreas que tradicionalmente são objetos de uma única abordagem literária e subjetiva. Eis um resumo de uso desta técnica de análise de dados: textos de questões abertas, entrevistas, mensagens, livros etc., que podem ser analisados a partir de sua leitura, explorando, quantificando, resumindo-os, de forma a tentar compreender e interpretar, tudo isso em aplicações variadas, como análise de entrevistas, transcrições de grupos focais, análise de mídia, pesquisas de mercado e de opinião, releitura de arquivos e documentos internos ou externos, auditoria de qualquer natureza (já nos ocorreu até de auditar um conjunto de licitações em apoio a órgão governamental), atividades de inteligência competitiva, trabalhos mais espontâneos de clima organizacional e outros.

Ainda assim, insisto em que este tipo de técnica pode ser usado muito mais para noções rápidas sobre um texto bruto, identificação de ideias-chave e de pistas para investigação a aprofundar ou detalhar, e mesmo para se ter categorias a partir das quais segmentar ou triar os trechos ou textos a analisar de forma mais particular, específica ou agregada. No meu entender, ela nos propicia uma rápida noção do conteúdo chave ou essencial, ou mesmo peculiar, de um conjunto maior de textos. E é depois disso, que então partiríamos para uma efetiva chamada análise de conteúdo, a qual, nessa ordem (léxica + conteúdo) é bem mais facilitada e leva a melhores resultados.

O que eu tô fazendo em todo processo precisa ter valor! (ledo engano)

O que a gente enfrenta no decorrer da vida de pesquisador é o risco de virar um aficionado em certo sentido da técnica em si, e esquecer que os métodos (como as técnicas e os softwares inerentes) estão ali para nos facilitar a vida na investigação de fundo que estamos tentando levar a bom porto.

Isso faz com que o candidato a bom pesquisador use em seus artigos, teses, livros etc., uma grande quantidade de tabelas e listagens, quando de verdade interessaria à pesquisa e ao leitor o significado daquilo tudo, o que aquilo tudo permitiria dizer e afirmar, com que evidências, com que exemplos característicos etc.

Por vezes, todo aquele esforço nem mereceria ser anexo do documento principal, mas meramente seria a matéria-prima que o pesquisador necessitaria para então se dar conta de que dada célula de uma tabela que cruza uma variável mais objetiva com a variável que contém o resultado da categorização de todos os textos (fruto da análise de conteúdo realizada meticulosamente, e com todas as regras de validade e de robustez). Essa dada célula traria uma dúvida forte, e essa dúvida seria o objeto sobre o qual a releitura de todos os textos recairia, e dali nasceria a verdadeira reflexão e foco principal da pesquisa em curso.

Mas quem está pronto a tal sacrifício? E como todo resto seria jogado fora?! (é essa sensação que a maioria sente). E assim, desperdiçam-se, no meio ou a 2/3 do processo de n pesquisas, os verdadeiros temas e focos que mereceriam nossas pesquisas ter... Portanto, cuidado para não virar um metodologista de carteirinha, e inverter os meios pelos fins...

Técnicas complementares, recorrentes, sequenciais, combinadas levam a outro patamar de investigação

Os métodos e técnicas de pesquisa evocados permitem demonstrar algumas maneiras de se realizar uma investigação de maneira prática e eficaz. As técnicas de análise de dados, ainda que tratadas sucintamente, indicam que é viável, com o auxílio de ferramental estatístico adequado, levantar dados quanti-qualitativos e explorar informações consistentes, que possam trazer respostas ágeis a muitos questionamentos que surgem no dia a dia de uma organização e mesmo no trabalho do profissional de pesquisa.

Os preceitos a respeito das técnicas para analisar dados qualitativos (pela sua quantificação rápida, ou pela sua leitura e análise cuidadosas) fazem a gente refletir sobre o papel do pesquisador, seja ele coordenador ou analista, acadêmico ou gerencial, as habilidades e concentração necessárias nesta verdadeira caçada ao conhecimento que se inicia ao se conceber e levar a termo uma investigação.

Pode ser útil o debate da consciência necessária a respeito do que pode ser captado e de como se deve buscar as informações, especialmente para as pessoas que ainda não possuem grande familiaridade com essa atividade ou conjunto de técnicas. Algumas ideias foram por nós desenvolvidas (Freitas, 1993), de forma a sistematizar a busca por dados e informações, bem como a necessidade de desenvolvimento de novos sistemas que apoiem essa atividade, no intuito de possibilitar a proatividade (e não somente a reatividade) do tomador de decisão (Pozzebon & Freitas, 1996).

Numa mistura de quanti e de quali, mediante testes estatísticos, como, por exemplo, a Análise de Correspondência (Hoffman & Franke, 1986), pode-se oferecer suporte para a estruturação e exploração do conhecimento que pode emergir dos dados, e, além de tudo, para que se possa fornecer o embasamento para a apresentação de ideias e descobertas a partir de uma investigação relativamente simples.

Em nossa prática, constatamos que as análises tanto de conteúdo quanto léxica, podem ser úteis para se tratar de qualquer forma de texto, seja qual for a sua natureza, desde um discurso político até a documentação comercial, na publicidade, entre outros (Freitas & Janissek, 2000), e a abertura de espírito para se mesclar estas 2 técnicas de forma recursiva e recorrente, combinadas na sequência com técnicas mais quantitativas, levam o pesquisador a um mundo de possibilidades que o conduzem a outra dimensão de sua própria forma de pensar, de refletir, de elaborar. Ele então vai sentir-se mais ousado no que estiver a imaginar, e bem mais dinâmico na testagem do que sua mente especular. Experimente você mesmo. Ou me convide, que vou discutir o tema com sua equipe. Dois exemplos desse exercício de liberdade estão em Freitas (2000) e em Zanela, Freitas e Becker (1998).

Vou desenvolver pouco, mas vou mencionar que no modelo ou desenho de pesquisa, na definição dos atores e fontes, seria importante pensar em ter contraponto, seja, por exemplo, entrevistar, para uma dada organização ou contexto, os gestores, todos os outros colaboradores, e os clientes ou fornecedores, dependendo do que se está investigando; no mínimo ter 2 tipos de atores, de forma a poder usar um contraponto nos argumentos e elaborações que viermos a fazer.

Da mesma forma, o uso do bom senso se impõe, embora se deva considerar que muitos de nossos interlocutores só se convencem pelo poder dos números. Daí a utilidade desse tipo de método para tratamento dos dados, de modo a comprovar, de maneira formal, evidências que, muitas vezes, são contundentes, mas nem sempre percebidas, e que, em boa parte das vezes, podem determinar o sucesso de um empreendimento.

Os métodos, técnicas e ferramentas (os quanti, mas também, e eu diria sobretudo, os qualitativos) deverão tornar-se cada vez mais importantes em face do manancial de informações com oqual nos confrontamos no nosso dia a dia. É fundamental apurar habilidades (em seus orientandos, mas também no corpo gerencial de uma dada organização), tais como a capacitação não só para a manipulação das ferramentas que se possui, mas também o senso de direção para navegar através dos dados e (difícil tarefa) chegar a um porto seguro, ou pelo menos, à indicação de um caminho. Tal é a nossa esperança, de que esse tipo de debate e discussão possa fornecer noções interessantes sobre a atividade de pesquisa, especialmente àqueles que, cientes dessa realidade, pensam em se aventurar (e desfrutar) desse campo de inúmeras possibilidades.

A abordagem literária, mais associada às técnicas de análise de conteúdo e léxica, ditas qualitativas, pressupõe a análise de poucas (ou mesmo muitas) informações num procedimento exploratório ou de elaboração de hipóteses. A abordagem mais científica, dita quantitativa, pressupõe grande quantidade de informações em procedimento de confirmação de hipóteses. O desafio é a busca da complementaridade entre o quantitativo e o qualitativo, é a necessidade que se tem de tratar do quantitativo, mas enriquecendo-o com informações qualitativas em grande número, ou vice-versa, de forma a ganhar força de argumento e qualidade nas conclusões e relatórios (Freitas & Janissek, 2000).É o procedimento exploratório que ganha força, visto que se poderá multiplicar os dados tratados, reforçando sobremaneira (e mesmo garantindo o bom caminho) o procedimento confirmatório.

Há pois necessidade de atuar com dupla competência: a primeira na exploração dos dados e de capacidade de síntese, de forma a obter dados resumidos ou agregados que nos permitam refletir e pensar acerca das diferentes situações; a segunda é a que consiste em ter vontade ou curiosidade de detalhar alguns pontos a partir desta reflexão, visando estabelecer a ação. Este exercício nos permitirá encontrar os bons filões, ou seja, identificar riquezas a partir de dados ou ideias aparentemente dispersos. Muito tempo deverá ser dedicado a esta tarefa (para a qual raramente temos tempo!). Isso permitiria antecipar situações importantes, agir antes.

A leitura de dados informais ou tipo texto, de qualquer natureza, exigirá que estes sejam armazenados (digitados, importados, etc.); que o analista possa ter condições de acesso e que ele, e somente ele, se dará o tempo para esta leitura, a qual propiciará a elaboração de um corpo de conhecimento a partir desta atividade, gerando mesmo novos dados, mais objetivos, sobre os dados brutos com que se estará trabalhando. Tal ambição exige que se possa realizar atividades diferentes, como leitura e decomposição, entre outras.

Naturalmente, investimentos deverão ser feitos em termos de ferramentas (computadores, sistemas, métodos e técnicas etc.), em termos de capacitação (treinamentos, workshops, e mesmo tempo para estudo), e em termos de assegurar um mínimo de qualidade sobre os dados que estaremos coletando (com dados completamente sem critério, estaremos decidindo com que base?).

Há muito a crescer, desenvolver, inventar, ousar... que pergunta fazer a esta pergunta?

Cada orientador tem o dever (com suas qualidades e limitações) de desenvolver, nele e nos de sua equipe um espírito de ousadia (e desafio) intelectual. Com esse espírito, a cada vez que me deparo com uma questão (digo, com as respostas a uma dada questão aberta, textos espontâneos em uma pesquisa), eu me digo... que pergunta eu faria a essa... pergunta/texto/sugestão/depoimento?

Por incrível que pareça, isso traz outro aspecto, que é o de que o pesquisador em si, seu time, pode gerar outro tipo de dado, o qual é baseado nos dados originais da pesquisa, e que, pouco a pouco, se tornam (essas novas questões e repostas, criadas e respondidas pelo pesquisador ou seu time) a parte principal da investigação. Passam a ser estas os verdadeiros vetores de filtragem dos dados brutos, os vetores das seções a escrever em um artigo, em uma tese etc. Eis algo super interessante.

Sim, pois, fruto de uma análise de conteúdo, e também de uma análise léxica, está a geração de uma série de dados novos, os quais não eram parte do protocolo original de coleta, mas que assumem papel vital.

Em Freitas, Janissek-Muniz e Moscarola (2005), explicamos como gerar uma interface que possibilite tal atividade de forma dinâmica, o pesquisador gerando novos dados objetivos, categóricos, mas também, por paradoxal que pareça, gerando e (de forma automática) analisando dados tipo texto.É fantástico o que se consegue construir a partir daí. Igualmente estou aberto a discutir tal tema com quem bem desejar; julgo que meu último período de carreira é tentar ser útil ao máximo de pessoas, grupos e Instituições possível, pois me gratifica como pessoa.

Na técnica evocada, de formulários interativos, propõe-se um modelo para análise de dados qualitativos a partir de técnicas e ferramentas de análises léxica e de conteúdo: ao mesmo tempo que lê e analisa um depoimento ou opinião, o pesquisador pode ver o resultado de suas análises mais ou menos objetivas ir tomando forma, regulando, por aí mesmo, o seu próprio protocolo ou vocabulário de análise.

O modelo proposto integra as técnicas mais conhecidas, permitindo que o analista registre a subjetividade de sua percepção e tenha ao mesmo tempo uma noção do resultado da análise em curso. Preconiza-se que o pesquisador (ainda mais se mestrando ou doutorando) atue direto, não delegue a seus auxiliares a tarefa de entender o que está por trás dos dados. Esse tipo de dado pode ser explorado mais de uma vez pelo pesquisador, sendo fonte para a geração de novos, diferentes e curiosos dados.

Esta geração de novos dados, a partir de um dado texto, pode emergir do próprio texto de cada respondente, como lista mais objetiva de sugestões ou de reclamações. Mas tal fonte de dados também pode ser objeto de um julgamento, a partir de critérios a priori adotados pelo gerente, analista ou pesquisador, como por exemplo gerar um indicador de satisfação, a partir da simples leitura das sugestões ou das reclamações emitidas pelo respondente. Ou seja, ao invés de perguntar (numa escala de 5, 7, 10 pontos), se o cliente está pouco ou muito satisfeito, o avaliador poderia ler cada uma das respostas emitidas e registradas e iria ele próprio julgar se o respondente está ou não satisfeito. Isto, é claro, de forma subjetiva. Contudo, muitas vezes, este dado mais subjetivo poderá ser mais bem considerado para fins de análise. Ou seja, a um dado aberto e espontâneo, podem corresponder n dados objetivos, gerados seja pela análise e identificação gradativa de um protocolo (como a lista de sugestões que se faz emergir do texto), seja pela avaliação da opinião de cada pessoa em relação a um protocolo ou mesmo escala de medida preparada pelo analista (como, por exemplo, satisfeito ou insatisfeito). Ou ainda a presença ou identificação de elementos de uma certa teoria, como em nossas publicações sobre tomada de decisão; por exemplo, Zanela, Freitas e Becker, 1998.

Claro, é necessário investir mais tempo de análise, para que sejam criadas categorias pertinentes, a partir de dados tipo texto, ou seja, efetivamente qualitativos. Um exemplo pode ser a criação de um dado novo, a partir de uma questão texto que poderia ser ‘quais as sugestões que você apresentaria para a melhoria dos nossos serviços?’ ou então mesmo ‘quais as principais reclamações que você poderia apresentar?’. Cuidado especial é necessário no sentido de não abusar de questões abertas num instrumento de pesquisa, pois seu excesso exige que o respondente se concentre bem mais que o normal: ele poderá, pois, ficar gradativamente desatento nas suas respostas e mesmo se desinteressar pelas questões posteriores.

De forma peculiar, combinando técnicas e ferramentas, definimos (Freitas, Janissek-Muniz, & Moscarola, 2005) um ambiente, onde se aplicam algumas técnicas para preparação dos dados abertos textuais, em especial a produção de um protocolo rápido, a partir da análise léxica, com contagem de palavras e agregação em palavras-chave e depuração do corpus; a produção de um protocolo que emerge de uma análise de conteúdo, depoimento a depoimento; bem como a produção de um julgamento a partir da própria leitura do mesmo processo de análise de conteúdo, usando para tal um protocolo definido a priori, ou seja, algo que se tinha em mente, uma curiosidade ou mesmo uma teoria que se quer confrontar com os depoimentos coletados; assim como uma técnica alternativa, a qual, para criar o protocolo emergindo do texto lido, depoimento a depoimento, parte não do marco zero (sem nenhuma categoria), mas sim do resultado bruto da análise léxica resultante da primeira técnica proposta.

Com tal modelo integrando essas técnicas, o analista (pesquisador, gestor) pode registrar a subjetividade do seu julgamento ou percepção e vai tendo, ao mesmo tempo, uma noção do resultado da análise em curso, em todos seus aspectos. Do analista ou dos analistas, pois o modelo pode derivar para algo publicado na Web, onde cada analista poderia acessar um formulário e registrar sua análise: uma vez tendo lido o texto bruto em uma janela, o pesquisador pode até verificar e concordar ou não com os resultados de categorizações elaboradas por automatismos de software, mas cujo contexto ou análise cuidadosa de significado permite ao pesquisador marcar ou desmarcar outras opções na mesma questão (de múltipla escolha). Desta forma, o analista coordena seu protocolo ou vocabulário, e obtém um resultado otimizado de seu esforço de análise, a partir do que poderá realizar segmentações em seus dados e análises, bem como extrair, de forma mais efetiva e eficaz, trechos para sustentar sua argumentação ou tese.

Além disso, ele, tendo lido a resposta da questão central sendo dissecada, corrobora o resultado da análise léxica, marcando outras categorias ou desmarcando mesmo. Um botão para mudar perfil permite focar a consulta e análise em certo público-alvo.

No que se refere à concepção do ambiente, sua interface com janelas para cada codificação ou comentário, usamos o software Sphinx Léxica® (http://www.sphinxbrasil.com). Isso se acumula na mesma ficha ou entrevista, por exemplo, a qual passa a conter, além das questões da pesquisa original, as novas questões, dados e variáveis geradas pelo pesquisador.

Hoje, diversas tecnologias oferecem recursos simples, de uso fácil, e com boa autonomia para o usuário. É possível navegar pelo texto, fazer contagens, identificar ideias-chave no texto, extrair trechos ou textos brutos por certo filtro (palavra, categoria), criar e enriquecer dicionários que permitem reduzir o texto a categorias, registrar estas categorias em novas variáveis, a partir das quais faremos cruzamentos ou mapas que nos poderão dar pistas e argumentos interessantes na nossa investigação.

Mesmo tudo isso sendo possível, convém relembrar que se deve manter o foco da investigação, que as ferramentas facilitam nossa atividade, dinamizam os processos, permitem filtrar e recuperar dados rapidamente, e assim nossa argumentação pode ser enriquecida. De certa forma, dispor de um aparato tecnológico de tal natureza tira do processo uma eventual preguiça, que viria com o fato de se ter de reler uma grande quantidade de depoimentos, tornando cativante a investigação que se estabelece, que se aprofunda mais e mais. Tempo é otimizado. Processo é dinamizado. Resultados do qualitativo podem ser cruzados com questões sociodemográficas e outras, e o quali se mistura ao quanti, liberando o pesquisador de elaborar e explorar mais e mais ideias.

Enfim, diversas mazelas e astúcias configuram o mundo da pesquisa, usando dados mais qualitativos; mas grande é a força e a convicção que se pode ter com os resultados. Naturalmente, desde que bem configurados os contextos, os atores envolvidos, as pessoas entrevistadas, etc. Em nosso website do grupo de pesquisa (http://www.ea.ufrgs.br/ganti), no menu orientações, ver as teses (9) e dissertações (47), especialmente de Stumpf (1996), Zanela (1999), Stroeher (2005) e Martens (2009), entre outras.

Enfim, com o avanço tecnológico da última década, é tempo de revolucionar conceitos, pressupostos, com a precaução metodológica inerente. As técnicas aqui abordadas são de certa forma um instrumento na mão dos analistas, para que estes possam empreender e se desafiar a produzir novos dados, mais ricos, mais consistentes, mais ligados à realidade, mais agregadores de valor à argumentação ou tomada de decisão!

Nossa proposta é de que as duas técnicas sejam utilizadas de forma sequencial (uma após a outra), recorrente (pode-se ir e vir, deve-se mesmo ir e vir de uma a outra) e complementar (elas não são excludentes, ou seja, não se deve escolher uma ou outra; deve-se adquirir a visão, a consciência de que os recursos de ambas são excelentes ferramentas na mão do analista e que ele deve fazer bom uso e não isolar uma em detrimento de outra). De uma forma ou outra, a análise de conteúdo (combinada com uma mais rápida e prévia análise léxica, para ter pistas de categorias predominantes e que não deveriam ser ignoradas na análise cuidadosa de conteúdo) é algo cativante, instigante, e que nos leva a descobertas superinteressantes.

Quando as pessoas e as organizações começam a prestar atenção nos telefonemas que recebem, nas sugestões e reclamações da clientela ou de fornecedores, e quando a academia começa a valorizar bem mais as questões subjetivas em harmonia com aquelas em demasia objetivas, temos firme convicção da potencial contribuição das ideias aqui abordadas. Tentando avançar, nós já estamos agora postulando a escuta permanente não de uma amostra, mas com o direito mais amplo possível de participação, o que congrega textos espontâneos, dicionários que aprendem, mapas qualitativos de ideias-chave, entre outros (Freitas & Costa, 2010). Quem sabe esse possa ser um dos direcionamentos futuros da pesquisa com base em dados qualitativos.

Referências

Bardin, L. (1996). L’analyse de contenu (8 ed.). Paris: PUF.

Creswell, J. W. (1998). Qualitative inquiry and research design: choosing among five traditions. Thousand Oaks, CA: Sage Publications.

Frankfort-Nachmias, C., & Nachmias, D. (1996). Research methods in the social sciences. New York: St. Martin's Press.

Freitas, H. (1993). A informação como ferramenta gerencial: um telessistema de informação em marketing para o apoio à decisão. Porto Alegre, RS: Ed. ORTIZ.

Freitas, H. (2000, outubro/dezembro). Análise de dados qualitativos: aplicações e as tendências mundiais em sistemas de informação. Revista de Administração da USP, 35(4), 84-102.

Freitas, H., Cunha, M., Jr., & Moscarola, J. (1996, setembro). Pelo resgate de alguns princípios da análise de conteúdo: aplicação prática qualitativa em marketing. Anais do Encontro Nacional da Associação Nacional de Pós-Graduação e Pesquisa em Administração, Angra dos Reis, RJ, Brasil, 20.

Freitas, H., Cunha, M., Jr., & Moscarola, J. (1997). Aplicação de sistema de software para auxílio na análise de conteúdo. Revista de Administração da USP, 32(3), 97-109.

Freitas, H., & Janissek, R. (2000). Análise léxica e análise de conteúdo: técnicas complementares, sequenciais e recorrentes para exploração de dados qualitativos. Porto Alegre, RS: Sphinx-Sagra.

Freitas, H., Janissek-Muniz, R., & Moscarola, J. (2005). Modelo de formulário interativo para análise de dados qualitativos. Revista de Economia e Administração, 4(1), 27-48.

Freitas, H., & Moscarola, J. (2002). Da observação à decisão: métodos de pesquisa e de análise quantitativa e qualitativa de dados. RAE Eletrônica, 1(1), 1-29. Recuperado em http://www.scielo.br/pdf/raeel/v1n1/v1n1a06.pdf

Freitas, H., & Moscarola, J. (2000). Análise de dados quantitativos e qualitativos: casos aplicados usando o Sphinx®. Porto Alegre, RS: Sphinx-Sagra.

Freitas, H. F., & Costa, R. S. (2010). É chegada a hora de escuta permanente, não somente pesquisas pontuais. Revista Eletrônica GIANTI. Recuperado em http://www.ea.ufrgs.br/professores/hfreitas/files/artigos/2010/2010_gianti_hf_rsc_pesquisa_pon tual_ou_escuta_permanente.pdf

Gavard-Perret, M. L., & Moscarola, J. (1995). De l'énoncé à l'énonciation: relecture de l'analyse lexicale en marketing [Working Paper]. Cahier GEREG, Annecy, France.

Grawitz, M. (1993). Méthodes des sciences sociales (9 ed.). Paris: Dalloz.

Hoffman, D. L., & Franke, G. R. (1986). Correspondence analysis: graphical representation of categorical data in marketing research. Journal of Marketing Research, 23(3), 213-227.

Kelle, U. (1995). Computer-aided qualitative data analysis: theory, methods and practice. London: Sage Publications.

Kirk, J., & Miller, M. (1986). Reliability and validity in qualitative research. Beverly Hills: Sage publications.

Krippendorff, K. (1980).Content analysis: an introduction to its methodology. Newbury Park, CA: Sage CommText Series.

Lebart, L., & Salem, A. (1994). Statistique textuelle. Paris: Dunod.

Lee, A. S., Liebenau, J., & DeGross, J. I. (1997). Information systems and qualitative research. Proceedings of the International Conference on Information Systems, Philadelphia, Chapman & Hall, USA.

Martens, C. D. P. (2009). Proposição de um conjunto consolidado de elementos para guiar ações visando a orientação empreendedora em organizações de software (Tese de doutorado). Universidade Federal do Rio Grande do Sul, Porto Alegre, RS, Brasil.

Mason, J. (1997). Qualitative researching. London: Sage.

Miles, M. B., & Huberman, A. M. (1994). Qualitative data analysis. Thousand Oaks, CA: Sage Publications.

Moscarola, J. (1990). Enquêtes et analyse de données. Paris: Vuibert, Gestion.

Moscarola, J. (1993). Analyse de contenu et analyse de données: solutions logiciels pour une intégration quali/quanti. Actes JADT. Montpellier, Paris, France.

Moscarola, J. (1994a). La communication politique vue par l’analyse lexicale [Working Paper]. Cahier GEREG, Annecy, France.

Moscarola, J. (1994b, April). Les actes de langage: protocoles d'enquêtes et analyse des données textuelles. Colloque Consensus Ex-Machina, La Sorbonne, Paris, France.

Pozzebon, M., & Freitas, H. (1996). Construindo um E. I. S. (Enterprise Information System) da (e para a) empresa. Revista de Administração da USP, 31(4), 19-30.

Silverman, D. (1993). Interpreting qualitative data. London: Sage Publications.

Stroeher, A. M. (2005). Identificação das características das informações contábeis e a sua utilização para tomada de decisão organizacional de pequenas empresas (Dissertação de mestrado). Universidade Federal do Rio Grande do Sul, Porto Alegre, RS, Brasil.

Stumpf, M. K. (1996). A gestão da informação em um hospital universitário: em busca da definição do conteúdo do ‘prontuário essencial’ do Hospital de Clínicas de Porto Alegre (HCPA) (Dissertação de mestrado). Universidade Federal do Rio Grande do Sul, Porto Alegre, RS, Brasil.

Weber, R. P. (1990). Basic content analysis. Newbury Park, CA: Sage university paper.

Weitzman, E. A., & Miles, M. B. (1995). Computer programs for qualitative data analysis. Thousand Oaks, CA: Sage Publications.

Zanela, A. I. C. (1999). A influência da cultura e da experiência decisória sobre a percepção do processo decisório individual: um estudo comparativo entre Brasil, França e Estados Unidos (Dissertação de mestrado). Universidade Federal do Rio Grande do Sul, Porto Alegre, RS, Brasil.

Zanela, A. I. C., Freitas, H., & Becker, J. L. (1998, setembro). A influência da cultura e da experiência decisória sobre a percepção do processo decisório individual: um estudo comparativo inicial entre Brasil, França e EUA. Anais do Encontro Nacional da Associação Nacional de Pós-Graduação e Pesquisa em Administração, Foz do Iguaçu, PR, Brasil, 22.

  • Creswell, J. W. (1998). Qualitative inquiry and research design: choosing among five traditions Thousand Oaks, CA: Sage Publications.
  • Frankfort-Nachmias, C., & Nachmias, D. (1996). Research methods in the social sciences New York: St. Martin's Press.
  • Freitas, H. (1993). A informação como ferramenta gerencial: um telessistema de informação em marketing para o apoio à decisão Porto Alegre, RS: Ed. ORTIZ.
  • Freitas, H. (2000, outubro/dezembro). Análise de dados qualitativos: aplicações e as tendências mundiais em sistemas de informação. Revista de Administração da USP, 35(4), 84-102.
  • Freitas, H., Cunha, M., Jr., & Moscarola, J. (1996, setembro). Pelo resgate de alguns princípios da análise de conteúdo: aplicação prática qualitativa em marketing. Anais do Encontro Nacional da Associação Nacional de Pós-Graduação e Pesquisa em Administração, Angra dos Reis, RJ, Brasil, 20.
  • Freitas, H., Cunha, M., Jr., & Moscarola, J. (1997). Aplicação de sistema de software para auxílio na análise de conteúdo. Revista de Administração da USP, 32(3), 97-109.
  • Freitas, H., & Janissek, R. (2000). Análise léxica e análise de conteúdo: técnicas complementares, sequenciais e recorrentes para exploração de dados qualitativos Porto Alegre, RS: Sphinx-Sagra.
  • Freitas, H., Janissek-Muniz, R., & Moscarola, J. (2005). Modelo de formulário interativo para análise de dados qualitativos. Revista de Economia e Administração, 4(1), 27-48.
  • Freitas, H., & Moscarola, J. (2002). Da observação à decisão: métodos de pesquisa e de análise quantitativa e qualitativa de dados. RAE Eletrônica, 1(1), 1-29. Recuperado em http://www.scielo.br/pdf/raeel/v1n1/v1n1a06.pdf
  • Freitas, H., & Moscarola, J. (2000). Análise de dados quantitativos e qualitativos: casos aplicados usando o Sphinx® Porto Alegre, RS: Sphinx-Sagra.
  • Freitas, H. F., & Costa, R. S. (2010). É chegada a hora de escuta permanente, não somente pesquisas pontuais. Revista Eletrônica GIANTI Recuperado em http://www.ea.ufrgs.br/professores/hfreitas/files/artigos/2010/2010_gianti_hf_rsc_pesquisa_pon tual_ou_escuta_permanente.pdf
  • Gavard-Perret, M. L., & Moscarola, J. (1995). De l'énoncé à l'énonciation: relecture de l'analyse lexicale en marketing [Working Paper]. Cahier GEREG, Annecy, France.
  • Grawitz, M. (1993). Méthodes des sciences sociales (9 ed.). Paris: Dalloz.
  • Hoffman, D. L., & Franke, G. R. (1986). Correspondence analysis: graphical representation of categorical data in marketing research. Journal of Marketing Research, 23(3), 213-227.
  • Kelle, U. (1995). Computer-aided qualitative data analysis: theory, methods and practice London: Sage Publications.
  • Kirk, J., & Miller, M. (1986). Reliability and validity in qualitative research Beverly Hills: Sage publications.
  • Krippendorff, K. (1980).Content analysis: an introduction to its methodology Newbury Park, CA: Sage CommText Series.
  • Lebart, L., & Salem, A. (1994). Statistique textuelle Paris: Dunod.
  • Lee, A. S., Liebenau, J., & DeGross, J. I. (1997). Information systems and qualitative research. Proceedings of the International Conference on Information Systems, Philadelphia, Chapman & Hall, USA.
  • Martens, C. D. P. (2009). Proposição de um conjunto consolidado de elementos para guiar ações visando a orientação empreendedora em organizações de software (Tese de doutorado). Universidade Federal do Rio Grande do Sul, Porto Alegre, RS, Brasil.
  • Mason, J. (1997). Qualitative researching London: Sage.
  • Miles, M. B., & Huberman, A. M. (1994). Qualitative data analysis Thousand Oaks, CA: Sage Publications.
  • Moscarola, J. (1990). Enquêtes et analyse de données Paris: Vuibert, Gestion.
  • Moscarola, J. (1993). Analyse de contenu et analyse de données: solutions logiciels pour une intégration quali/quanti. Actes JADT Montpellier, Paris, France.
  • Moscarola, J. (1994b, April). Les actes de langage: protocoles d'enquêtes et analyse des données textuelles. Colloque Consensus Ex-Machina, La Sorbonne, Paris, France.
  • Pozzebon, M., & Freitas, H. (1996). Construindo um E. I. S. (Enterprise Information System) da (e para a) empresa. Revista de Administração da USP, 31(4), 19-30.
  • Silverman, D. (1993). Interpreting qualitative data London: Sage Publications.
  • Stroeher, A. M. (2005). Identificação das características das informações contábeis e a sua utilização para tomada de decisão organizacional de pequenas empresas (Dissertação de mestrado). Universidade Federal do Rio Grande do Sul, Porto Alegre, RS, Brasil.
  • Weber, R. P. (1990). Basic content analysis Newbury Park, CA: Sage university paper.
  • Weitzman, E. A., & Miles, M. B. (1995). Computer programs for qualitative data analysis Thousand Oaks, CA: Sage Publications.
  • Zanela, A. I. C. (1999). A influência da cultura e da experiência decisória sobre a percepção do processo decisório individual: um estudo comparativo entre Brasil, França e Estados Unidos (Dissertação de mestrado). Universidade Federal do Rio Grande do Sul, Porto Alegre, RS, Brasil.
  • Zanela, A. I. C., Freitas, H., & Becker, J. L. (1998, setembro). A influência da cultura e da experiência decisória sobre a percepção do processo decisório individual: um estudo comparativo inicial entre Brasil, França e EUA. Anais do Encontro Nacional da Associação Nacional de Pós-Graduação e Pesquisa em Administração, Foz do Iguaçu, PR, Brasil, 22.
  • Endereço: Henrique M. R. de Freitas
    PPGA/EA/UFRGS, Rua Washington Luiz, 855, sala 307, Porto Alegre/RS, 90010-460.
  • Datas de Publicação

    • Publicação nesta coleção
      18 Jul 2011
    • Data do Fascículo
      Ago 2011
    Associação Nacional de Pós-Graduação e Pesquisa em Administração Av. Pedro Taques, 294,, 87030-008, Maringá/PR, Brasil, Tel. (55 44) 98826-2467 - Curitiba - PR - Brazil
    E-mail: rac@anpad.org.br