A lógica complexa da avaliação

The complex logic of evaluation

La lógica compleja de la evaluación

Artur Parreira Ana Lorga da Silva Sobre os autores

Resumo

O artigo apresenta a primeira parte, teórica e conceitual, de um estudo sobre as lógicas a que o processo de avaliação pode obedecer. Clarifica o conceito de lógica geral e seus critérios, explicitando os passos fundamentais a que o raciocínio avaliativo obedece. Discute o problema da possibilidade de uma avaliação objetiva, cientificamente escorada; propõe modos de controle dos fatores tendentes a criar vieses prejudiciais para a objetividade da avaliação; define as condições de estrutura e de processo que condicionam aquela objetividade, e mostra que o grau de objetividade depende do uso de combinações adequadas de poder e informação, os dois componentes do processo avaliativo, enquanto processo decisório.

Palavras-chave
Processo avaliativo; Lógica geral; Poder; Informação; Decisão

Abstract

This paper presents the theoretical part of a study on the logic which the evaluation process must meet. It explains the concept of general logic and its essential criteria, highlighting the key steps of evaluative reasoning. The authors discuss the problem of the possibility of an objective evaluation, scientifically underpinned. They propose ways to control the factors responsible for some harmful biases to the objectivity of evaluation; define the structural and procedural conditions that affect objectivity; and show that the degree of objectivity depends on the use of an appropriate combination of power and information, the two components of the evaluation process, as a decision making behavior.

Keywords
Evaluation process; General logic; Power; Information; Decision

Resumen

El artículo presenta la primera parte, teórica y conceptual, de un estudio sobre las lógicas que el proceso evaluativo puede seguir. Aclara el concepto de lógica general y sus criterios, destacando los pasos clave que el razonamiento evaluativo sigue. Discute el problema de la posibilidad de una evaluación objetiva, científicamente respaldada; propone maneras de controlar los factores que tienden a crear sesgos perjudiciales para la objetividad de la evaluación; define las condiciones estructurales y procesuales que afectan dicha objetividad; y muestra que el grado de objetividad depende del uso de una adecuada combinación entre poder e información, dos componentes del proceso evaluativo, en tanto en cuanto sea un proceso de toma de decisiones.

Palabras-clave
Proceso evaluativo; Lógica general; Poder; Información; Decisión

1 O conceito de avaliação

Como afirma Deborah Fournier (1995, p. 15)FOURNIER, D. Establishing evaluative conclusions: a distinction between general and working logic. New Directions for Evaluation, [S.l.], n. 68, 1995., “estamos convencidos de que podemos avaliar quase tudo”. E Michael Scriven (2007, p. 20)SCRIVEN, M. The logic of evaluation: department of Psychology. Claremont: Claremont Graduate University, 2007. reconhece também que

[...] a avaliação abarca um território enormemente extenso, já que engloba uma porção substancial do discurso de todos os dias, dedicado a propor, atacar, defender posições avaliativas de produtos, equipes de futebol, comportamento humano, aquecimento global e quase tudo o mais.

Pode, por isso, começar-se por definir o conceito. Fournier (1995, p. 16)FOURNIER, D. Establishing evaluative conclusions: a distinction between general and working logic. New Directions for Evaluation, [S.l.], n. 68, 1995., afirma que “a avaliação é um gênero de inquirição, com uma lógica básica e um padrão geral de raciocínio”. Situa a avaliação claramente no campo da produção de conhecimento, recorrendo, para demonstrar essa faceta, à distinção entre dois tipos de raciocínio complementares: a lógica geral e a lógica aplicada da avaliação. A combinação das duas permite a compreensão completa do raciocínio avaliativo.

Scriven define avaliação como “processo de determinar mérito, valor, ou significado; uma avaliação é produto desse processo” (Scriven, 2007, p. 1SCRIVEN, M. The logic of evaluation: department of Psychology. Claremont: Claremont Graduate University, 2007.). E considera que a lógica geral da avaliação integra quatro passos fundamentais:

  • Estabelecer critérios de mérito;

  • Construir padrões de comparação;

  • Medir o desempenho e compará-lo com os padrões;

  • Integrar os dados num juízo sobre o mérito ou valor.

Claramente, este processo de quatro passos encontra-se no cerne de todos os tipos de avaliação e constitui, o seu eixo central característico, o seu primeiro componente: ser um processo e não um simples acontecimento. Processo é movimento; a avaliação é uma sequência de comportamentos, essencialmente os quatro passos citados.

O segundo componente a se salientar na avaliação é o conceito de valor. Segundo Scriven (2007, p. 12)SCRIVEN, M. The logic of evaluation: department of Psychology. Claremont: Claremont Graduate University, 2007., a avaliação pode ser suportada por vários tipos de valor:

  1. Preferências pessoais, processo claramente empírico e subjetivo, mas que não deixa de ser uma avaliação real, uma vez que traduz a decisão do sujeito;

  2. Valor de mercado, que tem uma existência legal, objetiva, e é geralmente quantificado em valor monetário (o preço de mercado);

  3. Valor público, intersubjetivo, que traduz a avaliação de qualquer coisa geralmente aceite numa sociedade (o preço socialmente atribuído a um bem, eventualmente diferente do preço de mercado);

  4. Valor associado a padrões e exigências de desempenho, que concretiza e refina o conceito de valor público;

  5. Valores contextuais, derivados do contexto, como a definição da posição numa competição desportiva, que tem implícita uma avaliação do desempenho do atleta;

  6. Valor do exemplo, em que se aduzem, por termo de comparação, comportamentos que se consideram padrões específicos de elevada qualidade;

  7. Valor real, essencial, verdadeiro, construto teórico, procurado no âmbito de uma avaliação profissional cientificamente fundamentada, o que obriga a integrar dados diversos, como os que se referem aos valores acima referidos.

Esta simples enumeração de Scriven coloca em evidência que é o último conceito ̶ o de valor real ̶ que preocupa o investigador, já que se procura que a decisão de posicionamento numa escala de valor, quantitativa ou qualitativa, seja precisa, discriminante e cientificamente sólida.

O termo valor provém do verbo latino valere, que significa ter saúde, energia. Por extensão do significado, pode se referir ao preço de alguma coisa, à valentia ou ao mérito de alguém. Por isso, a definição do conceito de valor tem de se situar na área existencial em que o conceito de valor se insere: fala-se de valor econômico, moral, pessoal etc.

Mas em todas as áreas, a ideia de valor tem significado similar: expressa o resultado de uma comparação hierarquizante de realidades; o valor é definido por um sujeito, não existe por si mesmo: desencadeia energia que produz esforço (GARCIA, 1999GARCIA, R. L. A avaliação e suas implicações no fracasso/sucesso. In: ESTEBAN, M. T. (Org.). Avaliação: uma prática em busca de novos sentidos. Rio de Janeiro: Dp&a, 1999.). Este último ponto liga o conceito de valor à emoção que desencadeia no sujeito da avaliação, já que a energia humana são as emoções (IZARD et al., 2008IZARD, C. et al. Beyond emotion regulation: emotion utilization and adaptive functioning. Child Development Perspectives, v. 2, n. 3, p. 156-163, 2008. http://dx.doi.org/10.1111/j.1750-8606.2008.00058.x PMid:19956781
http://dx.doi.org/10.1111/j.1750-8606.20...
), e é esse foco emocional que está na base da distinção entre o juízo avaliativo e o juízo cognitivo. É esse foco que diferencia a decisão de avaliação de outras formas de introduzir ordem no caos, tal como a descrição e a interpretação dos fatos. A ordem que introduz é diferente, é uma ordem hierárquica das coisas e dos atos do ponto de vista do sujeito avaliador, vai além da simples descrição ou até da interpretação, é um comportamento de construção da realidade. Construir realidades é o objetivo da decisão e é, por isso, que avaliar é decidir. “A avaliação leva a decisões de estratégia e estrutura. A avaliação de um processo consiste em identificar falhas num programa para melhorar a sua implementação. A avaliação de resultados é para decidir se o programa continua ou é redirecionado” (STUFFLEBEAM, 1983 apud ALKIN; CHRISTIE, 2004, p. 20ALKIN, M.C.; CHRISTIE, C. H. A. An evaluation Tree. Thousand Oaks: Sage, 2004.).

O terceiro componente é a intenção da avaliação. É um critério que pode ser utilizado para categorizar três tipos de avaliação, que visam a objetivos diferentes, embora o procedimento avaliativo seja idêntico:

  • Avaliação diagnóstica: para situar o avaliado numa escala de capacidade, preparação ou conhecimento;

  • Avaliação formativa: para que o avaliando identifique e conscientize o nível de desempenho em que se situa, e possa evoluir para um nível que lhe assegure uma avaliação final positiva;

  • Avaliação somativa: que se destina a situar o avaliado numa escala de capacidade, competências ou conhecimento, e decidir qual o seu mérito relativo.

Qualquer destes tipos de avaliação segue o mesmo raciocínio; o que neles pode variar são os instrumentos de coleta de dados, o rigor de aplicação dos critérios e o uso que se dará ao resultado da avaliação.

2 A lógica complexa da avaliação: da geral à aplicada

Fournier (1995)FOURNIER, D. Establishing evaluative conclusions: a distinction between general and working logic. New Directions for Evaluation, [S.l.], n. 68, 1995. defende, com base em Scriven, que é importante distinguir e articular dois planos lógicos na avaliação: a lógica geral, que incide no núcleo de todos os processos de avaliação, e uma lógica aplicada (working logic, na designação de Fournier), que é a concretização particular da lógica geral e, portanto, inclui as especificidades de cada área da avaliação. A lógica geral da avaliação é ínsita às lógicas aplicadas.

Esta perspectiva tem correspondência no processo de decisão, de que a avaliação se pode considerar um exemplo particular. Também na decisão existe uma lógica geral, que é a lógica do modelo monorracional, essencialmente baseada na lógica aristotélica, e válida essencialmente para a componente algorítmica dos processos de decisão; e também há lógicas aplicadas, à semelhança do que Fournier (1995)FOURNIER, D. Establishing evaluative conclusions: a distinction between general and working logic. New Directions for Evaluation, [S.l.], n. 68, 1995. afirma para a avaliação. Essas lógicas aplicadas são as dos modelos baseados na teoria da racionalidade limitada, sejam estes o comportamental-organizacional ou o político. As componentes mais complexas e mais heurísticas são tratadas pelas lógicas aplicadas, que complementam, balizam e introduzem informações corretivas na lógica geral (STRATEGOR..., 2000STRATEGOR política global da empresa. Lisboa: Dom Quixote, 2000.).

3 A lógica geral

A lógica geral da avaliação é como o núcleo algorítmico da decisão; Fournier (1995)FOURNIER, D. Establishing evaluative conclusions: a distinction between general and working logic. New Directions for Evaluation, [S.l.], n. 68, 1995. considera que, no essencial, a lógica geral da avaliação é concretizada nos quatro passos propostos por Scriven, que se analisam a seguir. E estes quatro passos são parte intrínseca de todos os processos avaliativos; como na decisão, são completados pelas especificidades da situação, concretizando-se no raciocínio da lógica aplicada, naturalmente mais próximo da complexidade do real.

4 O primeiro desses passos é estabelecer critérios de mérito

Depresbiteris (2007, p. 37)DEPRESBITERIS, L. Instrumentos de avaliação: a necessidade de conjugar técnica e procedimentos éticos. Revista Aprendizagem, Pinhais, v. 1, n. 1, 2007. afirma que “[...] os critérios são princípios que servirão de base para o julgamento da qualidade dos desempenhos, compreendidos aqui, não apenas como execução de uma tarefa, mas como mobilização de uma série de atributos que para ela convergem”.

Na aprendizagem de uma temática de história, por exemplo, os critérios propostos foram: reconhecer e conceituar o que são mitos; compreender a relação entre mito e necessidade de se acomodar no mundo; relacionar o “fim” das explicações míticas com a descoberta da ciência; analisar as contradições da sociedade moderna por continuar construindo mitos. Também na avaliação da aprendizagem em matemática, os critérios salientados foram similares:

[...] o modo como o aluno interpretou sua resolução para dar a resposta; as escolhas feitas por ele para desincumbir-se de sua tarefa; os conhecimentos matemáticos que utilizou; se utilizou ou não a matemática apresentada nas aulas; e sua capacidade de comunicar-se matematicamente, oralmente ou por escrito (BURIASCO, 2004 apud PAVANELLO; NOGUEIRA, 2006, p. 20PAVANELLO, R.; NOGUEIRA, L. Avaliação em matemática: algumas considerações. Estudos em Avaliação Educacional, São Paulo, v. 17, n. 33, p. 29-42, jan./abr. 2006.).

Vemos, pelas definições e pelo exemplo, que os critérios são especificações do tipo de desempenho requerido para uma avaliação positiva. Os critérios têm de ser definidos, é o que pede a lógica geral; mas definir marcas de nível para um desempenho exige o conhecimento do conteúdo da avaliação: entramos no campo da lógica aplicada. Efetivamente, o estabelecimento de critérios de mérito só se pode fundamentar na disciplina que estuda o objeto a avaliar: se pertencer às Ciências da Saúde, os critérios são fundamentados pelas Ciências da Saúde; se for do âmbito da Economia, será esta disciplina a propor e fundamentar os critérios; e assim por diante, nas outras áreas disciplinares, uma vez que o conhecimento científico é atualmente a melhor garantia de objetividade (FOURNIER, 1995FOURNIER, D. Establishing evaluative conclusions: a distinction between general and working logic. New Directions for Evaluation, [S.l.], n. 68, 1995.).

Exemplos: a avaliação de uma intervenção cirúrgica tem critérios definidos pelos especialistas de medicina (por exemplo, os critérios de avaliação de cuidados de saúde, da Joint Commission International); a avaliação de uma decisão de investimento terá como base critérios definidos por especialistas de Economia.

5 Segundo passo: criar padrões com os quais o desempenho observado seja comparado

Estabelecidos os critérios, importa definir padrões de desempenho de nível adequado, com os quais o desempenho real possa ser comparado. Definir padrões de desempenho obriga a traduzi-los em indicadores específicos de comportamento que determinam o nível de desempenho em relação ao qual o desempenho real será comparado.

Um indicador é um número que conta uma [...] história [...] é um número que inserido num contexto reforça uma frase ou um argumento. Na prática são os indicadores que dão vida às estatísticas” (BANCALEIRO, 2006, p. 42BANCALEIRO, J. Scorecard de capital humano: como medir o activo mais importante da sua empresa. Lisboa: RH, 2006.).

Os indicadores concretizam em números os comportamentos a avaliar e assim servem de termo de comparação. A criação de indicadores integra-se na lógica aplicada e, especificamente, nas áreas de conteúdo da avaliação. São elaborados com base nas disciplinas da área científica a que a avaliação diz respeito.

Os indicadores obedecem a exigências de validade ̶ expressarem, sem distorção, o que realmente acontece ̶ mas também de confiabilidade ̶ manterem-se estáveis nos diferentes momentos de comparação. Dessa forma, as avaliações serão elas próprias válidas e confiáveis (KERLINGER; LEE, 2000KERLINGER F. N.; LEE, H. B. Foundations of behavioral research. 4. ed. California: Harcourt College Publishers, 2000. p. 565.).

6 Terceiro passo: medir o desempenho e compará-lo

Medir o desempenho de um ator ou de um sistema é atualmente um processo conhecido e generalizado. É uma tarefa que exige atenção e cuidado, mas não oferece hoje dificuldades insuperáveis, ainda que, em casos de maior complexidade, a avaliação possa deparar-se com obstáculos de envergadura.

Trata-se outra vez de criar indicadores válidos que permitam observar e medir com precisão o comportamento a avaliar. Scriven (2007)SCRIVEN, M. The logic of evaluation: department of Psychology. Claremont: Claremont Graduate University, 2007. cita os vários modelos de avaliação de desempenho em uso nas empresas; e Fournier (1995)FOURNIER, D. Establishing evaluative conclusions: a distinction between general and working logic. New Directions for Evaluation, [S.l.], n. 68, 1995. salienta o papel da lógica aplicada e das áreas disciplinares, na elaboração dos indicadores. Estes indicadores terão de ser do mesmo tipo dos utilizados para definir os padrões, para poderem ser efetivamente comparados. Além da tradução do desempenho em indicadores, é necessário utilizar instrumentos de registro desses indicadores: os mais utilizados são as fichas de observação e registro de frequências e intensidades; entrevistas padronizadas ou sujeitas à análise de conteúdo; listas de indicadores. É justamente o resultado dessa comparação, a verificação dos graus de afastamento ou coincidência desses indicadores que serve de base à decisão de avaliação.

7 Quarto passo: integrar os dados num juízo sobre o mérito ou o valor

Estabelecer um juízo de valor com base na comparação dos dados de que se dispõe é justamente uma tomada de decisão. Como na decisão, também na avaliação se verifica um salto qualitativo entre as informações que servem de base e o juízo de valor que se emite. Nem a decisão nem a avaliação são consequências mecânicas da comparação dos indicadores. O avaliador tem de decidir que juízo de valor a distância entre os dois tipos de indicadores fundamenta. E se há casos relativamente lineares, incontroversos, há os também muito difíceis de decidir, pela sua complexidade e pela presença de dados contraditórios. Nestes casos mais complexos, revelam-se pertinentes as recomendações dos modelos de decisão: visam ao controle dos efeitos dos fatores cognitivos, emocionais e contextuais que podem afetar negativamente a qualidade das decisões e, mutatis mutandis, da avaliação1 1 Os fatores que afetam as decisões estratégicas, que pela sua dimensão heurística não podem ser tratadas como meros algoritmos, são analisados em Parreira (2013). .

São recomendações que parecem perfeitamente pertinentes para o processo de avaliação, o que não se admira, se avaliar é decidir. Quando, porém, se passa da análise à decisão (o mesmo é válido para a avaliação), dá-se inevitavelmente um salto qualitativo. Decidir ou avaliar, ambos os atos têm natureza diferente de analisar. Suchman (1967)SUCHMAN, E. Evaluative research: principles and practice in public service and social action programs. New York: Russell Sage, 1967. reconheceu o salto qualitativo representado pela emissão de um juízo de valor. Enquanto descrever e analisar são comportamentos claramente cognitivos, decidir/avaliar são atos de intervenção sobre a realidade. São, portanto, comportamentos relacionais, que sempre implicam um confronto de poderes, além da mera justaposição de perspectivas sobre a realidade. Sua objetividade e precisão dependem da qualidade dessa relação, nomeadamente das combinatórias de poder e informação que ela aceita2 2 É a intromissão do poder no campo da informação que motiva os argumentos da falácia naturalista contra a possibilidade de uma avaliação cientificamente fundamentada, analisados por Scriven (2007). Também a teoria da decisão analisa esta relação e conclui que a objetividade de uma decisão (e avaliação, portanto) é função do nível de informação praticado (segundo a fórmula P+I≤100). .

Considerando-se que a base teórica da avaliação é essencialmente a mesma da decisão, da qual é, afinal, um caso específico; se essa base teórica afirma que a validade da avaliação depende da quantidade de informação em que se baseia e utiliza, o problema que se coloca é claro: como assegurar a informação necessária e suficiente para uma avaliação válida e objetiva.

É um problema mais complexo do que pode parecer à primeira vista, se tivermos presente que a avaliação não resulta apenas da informação, mas da combinatória de informação e poder: é essa mistura de poder que introduz a subjetividade na avaliação, ou seja, a intromissão das emoções pessoais às quais o poder está ligado na informação que suporta a decisão. É por isso que a avaliação implica um salto além da informação possuída e, com esse salto, um risco de falhar. É este risco que alimenta as objeções à possibilidade de uma avaliação cientificamente fundamentada e levou Scriven a formular três questões fundamentais sobre o processo avaliativo: “Será que uma avaliação profissional é de todo possível? Qual a sua natureza e seu lugar na organização do conhecimento? Qual a estrutura das suas inferências?” (SCRIVEN, 2007, p. 1SCRIVEN, M. The logic of evaluation: department of Psychology. Claremont: Claremont Graduate University, 2007.).

8 Uma avaliação objetiva é possível?

Refletir sobre a possibilidade de uma avaliação realmente fundamentada e objetiva, e responder às questões colocadas por Scriven é fundamental, já que essa resposta condiciona toda a reflexão teórica e as aplicações práticas subsequentes, como se acentuou acima. Uma resposta negativa à primeira questão encerraria o processo de avaliação no nível empírico, na manifestação de preferências completamente subjetivas a indivíduos e grupos. A avaliação seria, nesse caso, um processo meramente pragmático e o seu fundamento seriam os critérios desenvolvidos na história do indivíduo ou do grupo, concretizados na sua afirmação (ou seja, o seu poder) face aos outros. Sabemos que este tipo de fundamentação está abundantemente documentado na História. Mas não é essa a fundamentação que o cientista procura. Embora o próprio Scriven (2007)SCRIVEN, M. The logic of evaluation: department of Psychology. Claremont: Claremont Graduate University, 2007. reconheça que a subjetividade é fundamento adequado para avaliações que digam respeito apenas ao decisor-avaliador – e lembramos que a razoabilidade desta condição implica aceitar os pressupostos do paradigma da complexidade, explicitado adiante –, a avaliação técnica, profissional, que procura definir um valor ‘real’, exige fundamento no raciocínio científico. Para que tal fundamento fique visível, o autor afirma que a primeira coisa a fazer é responder a duas objeções: a que designa de falácia naturalista, e a alegada impossibilidade de objetividade.

A falácia naturalista diz diretamente respeito à primeira questão e pretende encerrar o processo avaliativo no campo do meramente empírico e subjetivo. Fundamenta-se na ideia de que a ciência excluiria, por definição, qualquer juízo de valor sobre a realidade, seria neutra, limitar-se-ia aos fatos. Scriven esforça-se por mostrar com clareza que a ciência inclui no seu raciocínio nuclear a avaliação da qualidade dos seus procedimentos e conclusões, rejeitando justamente os que não se conformam com os padrões de exigência a que se vincula. Efetivamente, como salientam Guba e Lincoln (1989)GUBA, E.; LINCOLN, Y. Fourth generation evaluation. Newbury Park: Sage, 1989., acompanhando o pensamento moderno neste domínio, todos sabemos que a ciência não trata de meros fatos, não é simplesmente descritiva; os fatos são sempre percebidos enquadrados em teorias que lhes dão significado e, portanto, realidade (ALFERES, 1997ALFERES, V. A. R. Investigação científica em Psicologia. Coimbra: Almedina, 1997.). A verificação de relações entre os fatos pelo cientista é, afinal, uma construção, já que a afirmação das relações se baseia na interpretação fornecida pelas teorias e pelos modelos delas derivados. Finalmente, a avaliação da qualidade desse trabalho de interpretação e de construção de realidade é feita pela comunidade científica; a objetividade é, no fundo, uma coerência intersubjetiva. Mas será que esta avaliação consegue realmente subir acima do meramente empírico e subjetivo?

A resposta que encontramos deriva da própria natureza do conhecimento científico: a avaliação da qualidade do trabalho científico assenta em critérios observáveis e experimentáveis; ou seja, respondem a uma exigência de ajustamento aos fatos:

  • as inferências são avaliáveis por critérios definidos e controlados;

  • as explicações são comparadas no seu alcance e precisão com as explicações alternativas;

  • os procedimentos são avaliados por comparação com as prescrições de procedimento aceitas pela comunidade científica;

  • o nível das concepções e explicações é avaliado por comparação com o nível do discurso científico próprio da área disciplinar.

Estamos claramente acima do meramente empírico e subjetivo, situamo-nos bem dentro do campo de raciocínio característico do conhecimento científico, da sua exigência de consistência de observações e predições. A intersubjetividade informada é a objetividade possível numa ciência vinculada ao tempo3 3 A questão da temporalidade é decisiva e tem ligação estreita com a ideia de complexidade, já que a duração é um dos parâmetros definidores da complexidade. O paradigma da complexidade é atualmente uma perspectiva sólida na compreensão dos sistemas vivos autorregulados. : o conhecimento científico vai crescendo e integrando a informação que os estudiosos produzem em tempos sucessivos. Esse crescimento resulta do trabalho sistemático de integração dialógica das novas informações (MORIN, 1995MORIN, E. Introdução ao pensamento complexo. Almada: Edições Instituto Piaget, 1995.).

Podemos então dizer que “desenvolver, fortalecer e clarificar o raciocínio que conduz a uma avaliação legitimada é crucial para uma teoria e prática da avaliação” (FOURNIER, 1995, p. 15FOURNIER, D. Establishing evaluative conclusions: a distinction between general and working logic. New Directions for Evaluation, [S.l.], n. 68, 1995.). É justamente a atitude do cientista em todo o seu trabalho, acima salientada. Por isso, a resposta à primeira questão é sim: conseguimos realizar avaliações cientificamente validadas.

Passemos então à problemática da objetividade das avaliações. É conhecimento corrente que as pessoas estão sujeitas a vieses interpretativos nas suas avaliações: emoções, erros perceptivos, preconceitos e interesses de grupo são fatores que afetam muitas vezes a objetividade das avaliações. Mas a pergunta fundamental é: Afetam sempre? Existe alguma forma de controlar aqueles fatores?

A resposta a esta questão é naturalmente múltipla.

Em primeiro lugar, o efeito das emoções. Os estudos sobre a inteligência emocional têm mostrado suficientemente que a regulação das emoções e dos seus efeitos é possível. Quando se exige que as emoções pessoais não interfiram com as análises, interpretações e avaliações, essa exigência pode ser seguida pelo avaliador, até chegar a um limite racionalmente aceitável:

  1. Conscientização das emoções que podem provocar vieses;

  2. Destacamento emocional, o ajustamento da intensidade emocional e da cognição no tratamento do problema (PARREIRA, 2010PARREIRA, M. Liderança: a fórmula multiplex. Lisboa: Sílabo, 2010.);

  3. Seguimento estrito das normas aplicáveis de avaliação e aumento da informação respeitante ao assunto da avaliação.

Em segundo lugar, o efeito dos interesses de grupo: para neutralizá-los, confrontar a avaliação com outros avaliadores (intersubjetividade); aumentar a transparência do processo; seguir normas fundamentadas e procedimentos bem definidos, generalizadamente aceites; aumentar a informação existente sobre o assunto a avaliar.

Em terceiro lugar, os erros perceptivos: não há dúvida de que são frequentes na nossa prática cotidiana, mas neste momento sabemos como os neutralizar. Tanto as ilusões perceptivas, como a pregnância da forma, a seletividade perceptiva ou o efeito de halo, entre outros, podem ser controlados por meio de procedimentos que conseguem assegurar um nível elevado de objetividade no processo de avaliação (TELES, 1994TELES, M. L.S. Aprender Psicologia. 3. ed. São Paulo: Brasiliense, 1994.). Assim, também em relação à questão da objetividade, é razoável concluir que a avaliação profissional é possível e que o nível de objetividade nela conseguido pode ser aceitável para os padrões de exigência do raciocínio científico (FOURNIER, 1995FOURNIER, D. Establishing evaluative conclusions: a distinction between general and working logic. New Directions for Evaluation, [S.l.], n. 68, 1995.).

9 Para uma teoria da avaliação

Estes procedimentos visam a assegurar que a decisão avaliativa se baseia extensamente na informação e não no poder do avaliador. Não sofre contestação que uma avaliação de qualidade tem de se fundamentar essencialmente na informação, não sendo metodologicamente aceitável que o seu fundamento seja o poder do avaliador, já que o poder não é defesa contra arbitrariedades intencionais ou não intencionais. A defesa contra essas arbitrariedades é a informação, pelo que a qualidade e a justeza das avaliações dependem do grau em que delas derivam. Para se verificar como isso pode ser conseguido, analise-se melhor a relação entre os dois componentes.

Em qualquer tomada de decisão, a combinação de poder e informação pode variar teoricamente entre 100% poder e 0% informação, e 0% poder e 100% informação: o avaliador baseia a sua decisão no poder que tem, ignorando extensamente a informação sobre a situação e o avaliado, ou o avaliador deriva a sua decisão quase exclusivamente da informação total sobre a situação e o avaliado. Sabendo-se que não existe ‘0’ em nada do que seja comportamento humano, nenhum dos dois componentes pode assumir 0%, nem, consequentemente, 100%: por isso, é corrente pensar as combinações com base na fórmula 80/20 de Pareto (KOCH, 2004KOCH, R. Living the 80/20 Way. [S.l.]: Nicholas Brealey Publishing, 2004.). A combinação das duas variáveis pode ser representada num contínuo (Figura 1):

Figura 1
Combinações de poder e de informação, pela lei de Pareto (%)

O contínuo mostra que quanto mais a decisão se basear no uso do poder, menos o sistema recorrerá à informação para decidir, e vice-versa. A fórmula de Pareto pressupõe ainda que cada combinação soma 100%.

É de supor, no entanto, que a condição das combinações não seja P+I = 100, mas antes a condição P+I ≤ 100, que afirma igualmente a relação inversa das duas variáveis, mas sem que a sua soma atinja necessariamente 100%. A Figura 2 mostra esse tipo de relação, que segundo o modelo, traduz melhor a realidade.

Figura 2
Combinações de poder e de informação, segundo o modelo proposto (%)

As combinações possíveis podem ser representadas num referencial ortonormado, em que poder e informação são representados respectivamente nos eixos das abcissas e das ordenadas (ver Gráfico 1 e Quadro 1), em que a relação entre as duas variáveis é expressa por uma curva côncava descendente (segundo os pressupostos da teoria).

Gráfico 1
Curva da relação entre o uso do poder e da informação
Quadro 1
Combinações de poder e de informação na avaliação

Quanto mais a avaliação se baseia no poder do avaliador ou do decisor, maior a perda de informação de suporte à avaliação emitida, face à informação disponível no sistema. É um fenômeno com alguma similaridade com o que Janis (1972)JANIS, L. L. Victims of group thin: a psychological study of foreign policy decisions and fiascoes. Boston: Houghton, 1972. designou de síndrome grupal nas tomadas de decisão em grupo. Em consequência, quanto mais informada se quiser a avaliação, menor terá de ser o recurso ao poder na decisão avaliativa.

O fundamento desta relação são os achados das teorias da liderança, desde Lewin, Lippitt e White (1939)LEWIN, K.; LIPPITT, R. E.; WHITE, R. Patterns of aggressive behavior in experimentally created: social climates’. In: AMIDON, E.; HOUG, J. (Eds.). Interaction Analysis: theory, research and application. Palo Alto: Addison-Wesley, 1939. p. 24-26. até todos os autores que, na sequência desses estudos, definiram o estilo de liderança com base na repartição de poder entre o líder e os seguidores; nas teorias bidimensionais (LIKERT, 1954 apud BLAKE; MOUTON, 1964BLAKE, R.; MOUTON, J. Grid grencial III: a chave para a liderança eficaz. São Paulo: Pioneira, 1964.) e nas situacionais (FIEDLER, 1996FIEDLER, F. Research on leadership selection and training: one view of the future. Administrative Science Quarterly, [S. l.], v. 41, n. 2, p. 241-250, 1996. http://dx.doi.org/10.2307/2393716
http://dx.doi.org/10.2307/2393716...
); nas que abordam diretamente o uso do poder pelo líder (BENNIS, 1959BENNIS, W. G. Leadership theory and administrative behavior: the problem of authority. Administrative Science Quarterly, [S.l.], v. 4, n. 4, p. 259-301, 1959. http://dx.doi.org/10.2307/2390911
http://dx.doi.org/10.2307/2390911...
; HELLER, 1971HELLER, F. Managerial decision making: a study of leadership styles and power-sharing among senior managers. Londres: Tavistock, 1971.; MULDER et al., 1986MULDER, M. et al. Power Situation and Leader Effectiveness: an organizational field study. Journal of Applied Psychology, [S.l.], p. 556-570, nov. 1986.; PFEFFER, 1992PFEFFER, J. Managing with Power. [S.l.]: Harvard Business School Press, 1992.); nos estudos da decisão grupal, com relevo para o fenômeno da síndroma grupal (JANIS, 1972JANIS, L. L. Victims of group thin: a psychological study of foreign policy decisions and fiascoes. Boston: Houghton, 1972.; JESUÍNO, 1987JESUÍNO, J. C. Processos de liderança. Lisboa: Presença, 1987.) e, finalmente, na teoria da relação não diretiva em clínica de Rogers (1951)ROGERS, C. Client-centered therapy. Boston: Houghton Mifflin, 1951. .

Como é visível no Quadro 1, a condição que melhor garante a informação para uma avaliação objetiva é a de autoavaliação, com conhecimento perfeito e aceitação consciente dos critérios em que se fundamenta. É claro que esta condição se verifica mais na avaliação de trabalhos científicos, em que o investigador está bem inteirado dos critérios e padrões de avaliação, e seu nível de exigência; mas, mesmo nesse caso, é recomendável a autoavaliação assistida por especialista, que utiliza potencialmente mais poder, mas como o especialista acrescenta também informação, em termos absolutos a informação de suporte à avaliação pode ser mais extensa – e geralmente é –, se o especialista não impuser a sua perspectiva ao avaliado.

Do caso 3 ao caso 5, o uso do poder torna-se mais extenso, o que, consequentemente, reduz a informação. No caso 3, em que é seguida a recomendação de Stake (2000, p. 104)STAKE, R. A modest commitment to the promotion of democracy. New Directions for Evaluation, [S.l.], v. 2000, n. 85, p. 97-107, 2000. http://dx.doi.org/10.1002/ev.1166
http://dx.doi.org/10.1002/ev.1166...
, que afirma ser papel do avaliador “[...] escutar os participantes, para deliberar e por vezes negociar [...] a fim de decidir qual o interesse dos participantes”, ainda se consegue uma informação bastante objetiva e extensa sobre o desempenho a avaliar.

No caso 4, a avaliação autoritária centra a atenção do avaliador essencialmente na informação que possui, incluindo o que percebe no avaliado, quando lhe explica as razões da avaliação. Há, naturalmente, uma potencial perda da informação proveniente do avaliado, necessária para uma avaliação precisa e de qualidade; entretanto, o uso extenso do poder tem ainda como consequência a redução do recurso à própria informação possuída pelo avaliador.

No último caso, só um sistema aberto4 4 Os sistemas abertos são geralmente sistemas vivos. Distinguem-se dos sistemas ditos fechados, porque trocam com o meio ambiente não só energia e matéria (como os sistemas fechados), mas também informação. Quanto mais e mais diversificada for a informação trocada com o meio, maior a abertura do sistema. de um nível mais alto de complexidade pode ter toda a informação necessária para avaliar o comportamento de um sistema aberto de menor nível de complexidade5 5 O paradigma da complexidade é atualmente uma perspectiva sólida na compreensão dos sistemas vivos autorregulados. A reflexão aqui subjacente tem como base o chamado paradoxo da incompletude de Gödel: para explicar um sistema finito é necessário recorrer a uma proposição verdadeira que só é validada num sistema de complexidade superior (Goldstein, 2005). (GOLDSTEIN, 2005GOLDSTEIN, R. Incompletude: a demonstração e o paradoxo de Kurt Gödel. Lisboa: Gradiva, 2005.). Não sendo esta a condição (e geralmente não é, nas situações humanas habituais), qualquer avaliação tende a não ser suficientemente informada e menos objetiva, por se basear essencialmente na perspectiva do avaliador. Nesta busca de uma teoria, ressalta a ideia de que o processo de avaliação é complexo, dado o conjunto de atores e fatores que implica e de condições em que acontece. Para ser compreendido em profundidade, tem de ser analisado e articulado entre si todo esse conjunto de fatores.

Começamos por duas ideias fundamentais:

  • Avaliar é decidir: a teoria da avaliação é um caso específico da teoria da decisão, na medida em que decide o valor de um objeto para o decisor, como se referiu acima.

  • Enquanto decisão, a avaliação é de dois tipos:

    1. Decisão sobre objetos que não se assumem como sujeitos;

    2. Decisão sobre objetos que se assumem como sujeitos, ou seja, pessoas.

A avaliação que incide apenas sobre objetos e sobre o decisor, pode seguir dois tipos de modelo:

  • O modelo monorracional, também dito de decisor único (individual ou coletivo), desde que a decisão seja de baixa complexidade, de tipo algorítmico (por exemplo, na definição de uma relação causal, em pesquisa científica, ou na determinação das causas de um erro, em algumas avaliações da qualidade);

  • Os modelos de racionalidade limitada, quando se considera existirem fatores limitativos da racionalidade das decisões, que têm de ser levados em conta e que exigem modelos mais complexos de decisão. Mesmo nesse caso, os objetos (sistemas fechados) são objeto de análise (primeiro passo do processo de avaliação), mas a verificação da sua conformidade com os critérios da análise é quase uma decisão de fato, pois se limita a confirmar ou não a conformidade.

A decisão sobre objetos que se assumem como sujeitos (pessoas) é outro tipo de decisão: toda a avaliação que tem consequências sobre pessoas é de elevada complexidade e tem de recorrer sempre aos modelos de racionalidade limitada (nomeadamente o modelo político de decisão)6 6 Um esboço destes modelos de decisão pode ser encontrado em Parreira (2013). .

10 Da lógica geral à lógica aplicada

Para responder eficazmente às exigências da complexidade, a lógica geral da avaliação tem de ser complementada e articulada com o que Fournier (1995)FOURNIER, D. Establishing evaluative conclusions: a distinction between general and working logic. New Directions for Evaluation, [S.l.], n. 68, 1995. designa de “lógica funcional”, a lógica aplicada ao tipo de avaliação a praticar. Quando se entra no campo da lógica aplicada da avaliação, todo o raciocínio acima descrito e o próprio juízo avaliativo assumem as condições de cada uma das áreas e contextos em que o processo de avaliação se desenrola.

Fournier (1995)FOURNIER, D. Establishing evaluative conclusions: a distinction between general and working logic. New Directions for Evaluation, [S.l.], n. 68, 1995. considera que, quando se passa à lógica aplicada, têm de se considerar quatro parâmetros: o problema, o fenômeno, a questão e o juízo de valor, que, segundo a autora, definem a estrutura específica da avaliação aplicada.

É a configuração destes quatro parâmetros em cada situação que transforma a lógica geral em lógica aplicada: trata-se, no fundo, da passagem do universal ao particular, do conceito à sua concretização. Do ponto de vista lógico, o importante é, nesse caso, a congruência: que o concreto seja realmente uma expressão do conceito, que o particular contenha a forma do universal. No caso presente, que a lógica aplicada não se desvie da lógica geral, mas antes a complete com as especificidades do objeto e do contexto; e, por outro lado, que os princípios da lógica geral tenham a capacidade de se aplicar sem distorções essenciais à diversidade do particular.

11 Pontos comuns a toda a avaliação

De acordo com o que ficou dito, os princípios da lógica geral da avaliação estão presentes em todos os processos de avaliação aplicada; há, por isso, um conjunto de parâmetros que é comum a todos os sistemas, tanto abertos como fechados (ver Nota 3), já que todos estes podem ser objeto de avaliação (FOURNIER, 1995FOURNIER, D. Establishing evaluative conclusions: a distinction between general and working logic. New Directions for Evaluation, [S.l.], n. 68, 1995.). Só os sistemas abertos, porém, são objeto de uma verdadeira avaliação no sentido em que aqui é definida. Os sistemas fechados são objeto de análise (primeiro passo do processo de avaliação), mas a verificação da sua conformidade com os critérios da análise é quase uma decisão de fato, pois se limita a confirmar ou não a conformidade.

12 Objeto da avaliação

Neste artigo, são objeto de reflexão os seguintes sistemas humanos:

  1. Indivíduo;

  2. Sistemas produtivos (organizações produtoras de bens e serviços);

  3. Sistemas prestadores de cuidados de saúde;

  4. Sistemas educativos;

  5. Sistemas de investigação e produção científica;

  6. Projetos sociais.

13 Foco

Em cada um dos sistemas referidos, a avaliação incide sobre uma ou mais perspectivas, definidas por Guba como avaliando, aquilo que realmente é focado no sistema em avaliação:

  1. Estruturas: o que é estável no sistema;

  2. Processos: modos de funcionamento do sistema;

  3. Desempenho: comportamento observável do sistema individual e coletivo (FAULKNER; CAMPBELL, 2003FAULKNER, D.; CAMPBELL, A. Competitive strategy through different lenses. In: FAULKNER, D.; CAMPBELL, A. (Org.). Oxford handbook of strategy: a strategy overview and competitive strategy. Oxford: Oxford University Press, 2003.).

14 Critérios

Os critérios são pontos de vista normativos que orientam o processo de avaliação. Aplicam-se em todos os sistemas, pois pertencem à lógica geral da avaliação, mas a sua aplicação é feita de acordo com as especificidades de cada um. Dada a sua importância para o processo avaliativo, os critérios serão objeto de reflexão um pouco mais extensa:

  1. Produtividade: quantidade; resultados;

  2. Qualidade: nível de erro; superação de padrões;

  3. Estado: nível de conservação; nível de saúde;

  4. Envolvimento: também referidos como envolvimento e cidadania organizacional; defesa da imagem e dos objetivos do sistema; apoio ao seu bom funcionamento;

  5. Ética: nível do comportamento em relação à definição de bem (BECKER et al., 2001BECKER, B et al. The HR scorecard: linking people strategy and performance. Boston: Harvard Business School Press, 2001.; GANNON; CARROLL, 1997GANNON, M.; CARROLL, S. Ethical dimensions in international management. Thousand Oaks: Sage, 1997.).

15 Indicadores

Os indicadores são a expressão observável dos critérios e é com base nestes que se faz a comparação com os padrões estabelecidos, para emitir o juízo de valor:

  • Indicadores padronizados: definem o nível requerido no critério;

  • Indicadores observados: definem o nível atingido, pronto a ser comparado com o padrão definido em relação ao critério (GUBA; LINCOLN, 1989GUBA, E.; LINCOLN, Y. Fourth generation evaluation. Newbury Park: Sage, 1989.).

16 Instrumentos

Os instrumentos de avaliação são todos os aparelhos, fichas e modelos de aplicação utilizados para recolha da informação codificada como indicadores, para ser objeto da comparação avaliativa: guias e fichas de observação, fichas de registro, testes e questionários psicológicos, entrevista, técnicas de grupo, instrumentos de gravação de som e de imagem, testes físicos, químicos, citológicos e outros.

Estes são os pontos comuns que pertencem à lógica geral da avaliação e fazem parte de todo o processo de avaliação em qualquer sistema; mas a sua aplicação é feita de acordo com a especificidade de cada contexto e sistema, como se disse. Num segundo artigo, tentaremos colocar em evidência essas especificidades e seu impacto na aplicação dos critérios da lógica geral.

Referências

  • ALFERES, V. A. R. Investigação científica em Psicologia. Coimbra: Almedina, 1997.
  • ALKIN, M.C.; CHRISTIE, C. H. A. An evaluation Tree. Thousand Oaks: Sage, 2004.
  • BANCALEIRO, J. Scorecard de capital humano: como medir o activo mais importante da sua empresa. Lisboa: RH, 2006.
  • BECKER, B et al. The HR scorecard: linking people strategy and performance. Boston: Harvard Business School Press, 2001.
  • BENNIS, W. G. Leadership theory and administrative behavior: the problem of authority. Administrative Science Quarterly, [S.l.], v. 4, n. 4, p. 259-301, 1959. http://dx.doi.org/10.2307/2390911
    » http://dx.doi.org/10.2307/2390911
  • BLAKE, R.; MOUTON, J. Grid grencial III: a chave para a liderança eficaz. São Paulo: Pioneira, 1964.
  • DEPRESBITERIS, L. Instrumentos de avaliação: a necessidade de conjugar técnica e procedimentos éticos. Revista Aprendizagem, Pinhais, v. 1, n. 1, 2007.
  • FAULKNER, D.; CAMPBELL, A. Competitive strategy through different lenses. In: FAULKNER, D.; CAMPBELL, A. (Org.). Oxford handbook of strategy: a strategy overview and competitive strategy. Oxford: Oxford University Press, 2003.
  • FIEDLER, F. Research on leadership selection and training: one view of the future. Administrative Science Quarterly, [S. l.], v. 41, n. 2, p. 241-250, 1996. http://dx.doi.org/10.2307/2393716
    » http://dx.doi.org/10.2307/2393716
  • FOURNIER, D. Establishing evaluative conclusions: a distinction between general and working logic. New Directions for Evaluation, [S.l.], n. 68, 1995.
  • GANNON, M.; CARROLL, S. Ethical dimensions in international management. Thousand Oaks: Sage, 1997.
  • GARCIA, R. L. A avaliação e suas implicações no fracasso/sucesso. In: ESTEBAN, M. T. (Org.). Avaliação: uma prática em busca de novos sentidos. Rio de Janeiro: Dp&a, 1999.
  • GOLDSTEIN, R. Incompletude: a demonstração e o paradoxo de Kurt Gödel. Lisboa: Gradiva, 2005.
  • GUBA, E.; LINCOLN, Y. Fourth generation evaluation. Newbury Park: Sage, 1989.
  • HELLER, F. Managerial decision making: a study of leadership styles and power-sharing among senior managers. Londres: Tavistock, 1971.
  • IZARD, C. et al. Beyond emotion regulation: emotion utilization and adaptive functioning. Child Development Perspectives, v. 2, n. 3, p. 156-163, 2008. http://dx.doi.org/10.1111/j.1750-8606.2008.00058.x PMid:19956781
    » http://dx.doi.org/10.1111/j.1750-8606.2008.00058.x
  • JANIS, L. L. Victims of group thin: a psychological study of foreign policy decisions and fiascoes. Boston: Houghton, 1972.
  • JESUÍNO, J. C. Processos de liderança. Lisboa: Presença, 1987.
  • KERLINGER F. N.; LEE, H. B. Foundations of behavioral research. 4. ed. California: Harcourt College Publishers, 2000. p. 565.
  • KOCH, R. Living the 80/20 Way. [S.l.]: Nicholas Brealey Publishing, 2004.
  • LEWIN, K.; LIPPITT, R. E.; WHITE, R. Patterns of aggressive behavior in experimentally created: social climates’. In: AMIDON, E.; HOUG, J. (Eds.). Interaction Analysis: theory, research and application. Palo Alto: Addison-Wesley, 1939. p. 24-26.
  • MORIN, E. Introdução ao pensamento complexo. Almada: Edições Instituto Piaget, 1995.
  • MULDER, M. et al. Power Situation and Leader Effectiveness: an organizational field study. Journal of Applied Psychology, [S.l.], p. 556-570, nov. 1986.
  • PARREIRA, M. Liderança: a fórmula multiplex. Lisboa: Sílabo, 2010.
  • ______. Visão estratégica em Gestão de Recursos Humanos: texto de aulas de planeamento estratégico de recursos humanos. Lisboa: ULHT, 2013.
  • PAVANELLO, R.; NOGUEIRA, L. Avaliação em matemática: algumas considerações. Estudos em Avaliação Educacional, São Paulo, v. 17, n. 33, p. 29-42, jan./abr. 2006.
  • PFEFFER, J. Managing with Power. [S.l.]: Harvard Business School Press, 1992.
  • ROGERS, C. Client-centered therapy. Boston: Houghton Mifflin, 1951.
  • SCRIVEN, M. The logic of evaluation: department of Psychology. Claremont: Claremont Graduate University, 2007.
  • STAKE, R. A modest commitment to the promotion of democracy. New Directions for Evaluation, [S.l.], v. 2000, n. 85, p. 97-107, 2000. http://dx.doi.org/10.1002/ev.1166
    » http://dx.doi.org/10.1002/ev.1166
  • STRATEGOR política global da empresa. Lisboa: Dom Quixote, 2000.
  • SUCHMAN, E. Evaluative research: principles and practice in public service and social action programs. New York: Russell Sage, 1967.
  • TELES, M. L.S. Aprender Psicologia. 3. ed. São Paulo: Brasiliense, 1994.

  • 1
    Os fatores que afetam as decisões estratégicas, que pela sua dimensão heurística não podem ser tratadas como meros algoritmos, são analisados em Parreira (2013)______. Visão estratégica em Gestão de Recursos Humanos: texto de aulas de planeamento estratégico de recursos humanos. Lisboa: ULHT, 2013..
  • 2
    É a intromissão do poder no campo da informação que motiva os argumentos da falácia naturalista contra a possibilidade de uma avaliação cientificamente fundamentada, analisados por Scriven (2007)SCRIVEN, M. The logic of evaluation: department of Psychology. Claremont: Claremont Graduate University, 2007.. Também a teoria da decisão analisa esta relação e conclui que a objetividade de uma decisão (e avaliação, portanto) é função do nível de informação praticado (segundo a fórmula P+I≤100).
  • 3
    A questão da temporalidade é decisiva e tem ligação estreita com a ideia de complexidade, já que a duração é um dos parâmetros definidores da complexidade. O paradigma da complexidade é atualmente uma perspectiva sólida na compreensão dos sistemas vivos autorregulados.
  • 4
    Os sistemas abertos são geralmente sistemas vivos. Distinguem-se dos sistemas ditos fechados, porque trocam com o meio ambiente não só energia e matéria (como os sistemas fechados), mas também informação. Quanto mais e mais diversificada for a informação trocada com o meio, maior a abertura do sistema.
  • 5
    O paradigma da complexidade é atualmente uma perspectiva sólida na compreensão dos sistemas vivos autorregulados. A reflexão aqui subjacente tem como base o chamado paradoxo da incompletude de Gödel: para explicar um sistema finito é necessário recorrer a uma proposição verdadeira que só é validada num sistema de complexidade superior (Goldstein, 2005GOLDSTEIN, R. Incompletude: a demonstração e o paradoxo de Kurt Gödel. Lisboa: Gradiva, 2005.).
  • 6
    Um esboço destes modelos de decisão pode ser encontrado em Parreira (2013)______. Visão estratégica em Gestão de Recursos Humanos: texto de aulas de planeamento estratégico de recursos humanos. Lisboa: ULHT, 2013..

Datas de Publicação

  • Publicação nesta coleção
    Apr-Jun 2015

Histórico

  • Recebido
    06 Jun 2014
  • Aceito
    12 Fev 2015
Fundação CESGRANRIO Revista Ensaio, Rua Santa Alexandrina 1011, Rio Comprido, 20261-903 , Rio de Janeiro - RJ - Brasil, Tel.: + 55 21 2103 9600 - Rio de Janeiro - RJ - Brazil
E-mail: ensaio@cesgranrio.org.br