Consequências das descontextualizações em um livro didático: uma análise do tema radioatividade

Consequences of decontextualizations in a textbook: an analysis of the subject radioactivity

Marinês Domingues Cordeiro Luiz O. Q. Peduzzi Sobre os autores

Resumos

Na década de 1980, Chevallard investigou as transformações sofridas pelo conhecimento científico para se tornar ensinável, chamando esse processo de Transposição Didática. Em livros textos de ciências, em geral, esse processo envolve a apresentação de conteúdos organizados de forma lógica, sem preocupações com as origens histórico-filosóficas do contexto de geração desses conhecimentos. Essa didática descontextualizadora, além de propagar equívocos sobre a natureza da ciência e do trabalho científico, é falha também quando, inadvertidamente, faz uso de conceitos estranhos ao quadro conceitual de origem em que são abordados determinados assuntos, utilizando a história da ciência como mero conteúdo introdutório. Nesse trabalho analisa-se a transposição didática da radioatividade em um livro usado em disciplinas de estrutura da matéria e afins, na formação de professores e futuros cientistas.

transposição didática; história da ciência; radioatividade; livro didático


In the 1980s, Chevallard investigated the transformations of the scientific knowledge to become teachable, and called this process "Didactic Transposition". In science textbooks, this process generally involves the logic organization of contents, which removes the concepts from their historical and philosophical origins. This out-of-context didactics, besides giving rise to mistaken images of the nature of science and the scientific inquiry, fails as well when it inadvertently uses some concepts foreign to the original conceptual background, taking the history of science as merely introductory content. In this paper, the didactic transposition of radioactivity, which is present in a textbook widely used in disciplines such as the structure of matter, for future teachers and scientists, is analyzed.

didactic transposition; history of science; radioactivity; textbook


HISTÓRIA DA FÍSICA E CIÊNCIAS AFINS

Consequências das descontextualizações em um livro didático: uma análise do tema radioatividade

Consequences of decontextualizations in a textbook: an analysis of the subject radioactivity

Marinês Domingues CordeiroI,1 1 E-mail: marinesdc@outlook.com. ; Luiz O. Q. PeduzziI, II

IPrograma de Pós-Graduação em Educação Científica e Tecnológica, Universidade Federal de Santa Catarina, Florianópolis, SC, Brasil

IIDepartamento de Física, Universidade Federal de Santa Catarina, Florianópolis, SC, Brasil

RESUMO

Na década de 1980, Chevallard investigou as transformações sofridas pelo conhecimento científico para se tornar ensinável, chamando esse processo de Transposição Didática. Em livros textos de ciências, em geral, esse processo envolve a apresentação de conteúdos organizados de forma lógica, sem preocupações com as origens histórico-filosóficas do contexto de geração desses conhecimentos. Essa didática descontextualizadora, além de propagar equívocos sobre a natureza da ciência e do trabalho científico, é falha também quando, inadvertidamente, faz uso de conceitos estranhos ao quadro conceitual de origem em que são abordados determinados assuntos, utilizando a história da ciência como mero conteúdo introdutório. Nesse trabalho analisa-se a transposição didática da radioatividade em um livro usado em disciplinas de estrutura da matéria e afins, na formação de professores e futuros cientistas.

Palavras-chave: transposição didática, história da ciência, radioatividade, livro didático.

ABSTRACT

In the 1980s, Chevallard investigated the transformations of the scientific knowledge to become teachable, and called this process "Didactic Transposition". In science textbooks, this process generally involves the logic organization of contents, which removes the concepts from their historical and philosophical origins. This out-of-context didactics, besides giving rise to mistaken images of the nature of science and the scientific inquiry, fails as well when it inadvertently uses some concepts foreign to the original conceptual background, taking the history of science as merely introductory content. In this paper, the didactic transposition of radioactivity, which is present in a textbook widely used in disciplines such as the structure of matter, for future teachers and scientists, is analyzed.

Keywords: didactic transposition, history of science, radioactivity, textbook.

1. Introdução

O livro didático é a principal fonte de consulta de professores e estudantes, em qualquer nível de ensino. Ao descrever o que denominou de período de ciência normal, o físico e filósofo da ciência Thomas Kuhn [1] faz referência aos livros didáticos como elementos típicos do período, que "expõem o corpo das teorias aceitas, ilustram muitas ou todas as suas aplicações bem sucedidas e comparam essas aplicações com observações e experimentos exemplares". Para Kuhn, os livros são essenciais para transmitir às novas gerações os conhecimentos aceitos e compartilhados pela comunidade científica.

Preocupado com a forma pela qual o conhecimento é disseminado nos manuais didáticos e na prática docente, Yves Chevallard analisou os processos sofridos pelo conhecimento científico para tornar-se conhecimento escolar, mostrando a distinção fundamental entre seu produto final - em suas palavras, os saberes a ensinar e ensinado - e a matéria-prima, o saber sábio. Sua análise ficou conhecida como transposição didática [2].

Na comunidade acadêmica de ensino de ciências, a análise ganhou muitos adeptos, e tornou-se referência para uma grande variedade de investigações, tanto nas ciências naturais, quanto na matemática, área de Chevallard. Apesar disso, poucos são os trabalhos que examinam as consequências de certos efeitos colaterais danosos ao ensino, causados pelos processos descontextualizadores reconhecidos pelo didata.

Nessa perspectiva, faz-se uma análise de um tema abordado por um texto bastante utilizado em disciplinas de física moderna, com o instrumento de análise provido por Chevallard. Primeiramente, procura-se por vestígios de processos descontextualizadores (dessincretização, despersonalização e descontextualização) relacionados à radioatividade. Em seguida, discutem-se algumas implicações epistemológicas, especialmente nos termos das imagens deformadas do trabalho científico, estudadas por Pérez e colaboradores [3].

O que se ganha e o que se perde com o tipo de abordagem descontextualizada da radioatividade? No que ela resulta para os futuros professores e cientistas? O que se pode fazer para preencher prováveis lacunas na formação desses profissionais?

2. As descontextualizações do saber

A constatação mais notável da distinção entre conteúdos científicos e didáticos foi feita por Yves Chevallard, na década de 1980, quando analisou o sistema de ensino de matemática francês. O didata observou os processos operados sobre o conhecimento científico para que ele fosse apropriado para o ensino de matemática. Chevallard mostrou que tais processos não são meras simplificações; por sua complexidade, envolvem toda a comunidade ligada direta ou indiretamente ao ensino, suas expectativas e exigências para a educação [2].

A obra de Chevallard abrange todo o espectro educacional: começa na esfera científica, passa pela sociedade, pela confecção de material escolar e chega ao ensino desenvolvido em sala de aula. Neste trabalho, todavia, toma-se da análise de Chevallard a parte que diz respeito ao que ele intitulou de transposição didática externa: as transformações sofridas pelo conhecimento científico para se tornar o conhecimento disposto nos manuais didáticos.

Nessa etapa da transposição didática, o conhecimento científico escolhido para constar nos livros didáticos passa por certos processos, a fim de adquirir uma estrutura lógica, que supostamente propicia seu aprendizado. Esses processos foram denominados por Chevallard de dessincretização, despersonalização e descontextualização.

A dessincretização, segundo Chevallard, é a ação de tomar um certo conceito científico da sua trama conceitual de origem e torná-lo cada vez mais particular, autônomo. Assim, ao ser exposto em um livro didático, esse conhecimento retirado do seu contexto conceitual original é ressincretizado, ou seja, posto em um novo contexto conceitual, que pode, mas não obrigatoriamente, relacionar-se com o de origem.

A despersonalização é um processo transformador que já começa no próprio âmbito científico. Em suas comunicações aos pares, os cientistas comumente redigem seus trabalhos no tempo verbal impessoal. Para Chevallard, esse procedimento permite que outros cientistas possam utilizar o conhecimento em questão e continuar as pesquisas sobre aquilo que já foi produzido; essa é, então, uma característica essencial do trabalho científico, que deve continuar no escolar, segundo o didata, para a manutenção da publicidade daquele conhecimento, que não tem proprietários.

Chevallard, ao listar a descontextualização como um dos processos necessariamente operados sobre o conhecimento na transposição didática externa, refere-se puramente à descontextualização histórica. Ou seja, para que aquele saber seja ensinável, é necessário que seja extraído de seu contexto de origem, garantindo, para o autor, "a evidência incontestável das coisas naturais" [4].

Pode-se, entretanto, enxergar não apenas o último, mas todos os três processos, como descontextualizadores históricos. A dessincretização, por exemplo, nada mais é que uma descontextualização da trama conceitual de origem; já o que Chevallard chama de despersonalização é a total desapropriação daquele conceito dos cientistas que nele trabalharam.

Por alterar os aspectos mais intrínsecos da origem e do desenvolvimento de um conceito, a transposição didática externa acaba modificando também certas características epistemológicas; com a ressincretização, outros aspectos serão atribuídos ao conhecimento científico. Um efeito secundário da transposição didática externa, então, é o de propagar uma imagem da natureza da ciência e do trabalho científico que muito provavelmente não corresponde à maneira como aquele conhecimento foi concebido.

Sem dúvida, os manuais do ensino superior, dirigidos a futuros cientistas ou professores, são eles mesmos objetos de uma transposição didática. É necessário que todo o conhecimento designado como essencial à formação desses futuros profissionais seja organizado, e, assim como para o ensino básico, adquira certa logicidade e publicidade. Não obstante, uma análise mais detalhada desse processo revela o preço histórico e epistemológico que se paga na reestruração tradicional desse saber.

3. As descontextualizações presentes em um livro didático no ensino da radioatividade

A abordagem da física moderna nos currículos de licenciatura em física das universidades brasileiras é normalmente feita em dois semestres, em disciplinas intituladas Física Moderna, Física do Século 20 ou Estrutura da Matéria. A primeira etapa consiste no tratamento da velha mecânica quântica, que inclui conteúdos como a lei da radiação de Planck, átomo de Bohr, fótons, propriedades ondulatórias de partículas, até a mecânica quântica com a teoria de Schrödinger. Na segunda etapa, passa-se a estudar a física molecular, os sólidos, os núcleos e as partículas. O livro Física Quântica: Átomos, Moléculas, Sólidos, Núcleos e Partículas, de Eisberg e Resnick [5], por exemplo, de amplo uso em cursos universitários, induz essa divisão já no prefácil. Ele é dividido nos seguintes capítulos: 1) radiação térmica e o Postulado de Plack; 2) fótons - propriedades corpusculares da radiação; 3) o Postulado de DeBroglie - propriedades ondulatórias das partículas; 4) o modelo de Bohr para o átomo; 5) a teoria de Schroedinger da mecânica quântica; 6) soluções da equação de Schroedinger independente do tempo; 7) átomos de um elétron; 8) momentos de dipolo magnético, spin e taxas de transição; 9) átomos multieletrônicos - estados fundamentais e excitações óticas; 10) átomos multieletrônicos - excitações óticas; 11) estatística quântica; 12) moléculas; 13) sólidos - condutores e semicondutores; 14) sólidos - propriedades supercondutoras e magnéticas; 15) modelos nucleares; 16) decaimento nuclear e reações nucleares; 17) partículas elementares.

O presente estudo visa investigar as descontextualizações no tratamento da radioatividade presentes neste texto; para tanto, é necessário frisar que foram escolhidos certos conceitos e fenômenos diretamente relacionados com a gênese e o desenvolvimento dessa ciência. O foco deste estudo é, então, além do tratamento da própria radioatividade, a abordagem dos autores para radiações X, modelos atômicos, decaimentos radioativos e modelos nucleares. Assim, possíveis descontextualizações sofridas por outros conceitos da física moderna no texto de Eisberg e Resnick não serão aqui consideradas.

3.1. Raios X

Na seção específica dos raios X, constante no capítulo 2 (que inclui os efeitos fotoelétrico e Compton, a dualidade das radiações eletromagnéticas e a produção e a aniquilação de pares), os autores explicam como é feita a produção desse tipo de radiação e discorrem sobre as limitações da teoria eletromagnética na explicação do fato de que o comprimento de onda depende somente da diferença de potencial que acelera o feixe de elétrons. Eles desenvolvem a explicação para o problema interpretando os raios X como fótons de certa energia. O exemplo dado nessa seção envolve a determinação da constante de Planck a partir do comprimento de onda mínimo produzido por um feixe acelerado a uma determinada diferença de potencial.

Há uma ênfase, portanto, na abordagem conceitual; é interessante notar, porém, que a seção inicia da seguinte maneira [6]: "Os raios X, assim chamados por seu descobridor Roentgen porque sua natureza era então desconhecida, são radiações eletromagnéticas com comprimento de onda menor que aproximadamente 1,0 Å". Apesar desta primeira indicação de gênese histórica, nada mais nas duas páginas referentes ao assunto aponta para qualquer tipo de contextualização.

Sabe-se, atualmente, que os raios X, identificados em 1895, foram uma descoberta impactante para toda a comunidade científica. À época, os estudos sobre ionização de gases eram bastante comuns entre os físicos, e uma descoberta com a capacidade de impressionar chapas fotográficas com o negativo do esqueleto humano, somada ao aparato experimental desenvolvido por Roentgen, significava que novos esforços deveriam ser voltados para a explicação do fenômeno cuja natureza, como bem frisam os autores, permanecia desconhecida.

Esses esforços provaram-se frutíferos mais rapidamente em outro sentido. Investigando a conjetura levantada por Henri Poincaré,2 2 Como em um tubo de raios catódicos os raios de Roentgen se originam a partir da fosforescência produzida pela incidência de raios catódicos no vidro do tubo, Poincaré conjetura se não estariam esses dois fenômenos estreitamente relacionados em qualquer situação [7]. Henri Becquerel, em 1896, observou que o urânio, cujos compostos por vezes são luminescentes, tinha a capacidade de emitir radiações de um tipo diferente, que acreditou serem algum tipo de hiperfosforescência [8]. As pesquisas nas radiações de urânio se mantiveram estagnadas por quase dois anos, quando Madame Curie viria a publicar os resultados de suas investigações sobre as radiações desse elemento, que ela também observou no tório e em seus compostos. Nascia, então, a ciência da radioatividade, como uma consequência dos grandes esforços para desvendar a natureza dos raios de Roentgen.

A fertilidade de uma construção teórica, ou seja, sua capacidade de gerar pesquisas e novas teorias é alvo de diversos estudos na filosofia da ciência. Atualmente, ela é vista como um dos valores típicos da comunidade científica - também chamados de valores epistêmicos ou cognitivos. Tais valores pesam fortemente na escolha de uma teoria [9-10].

Cabe ressaltar ainda que o termo fóton foi cunhado apenas em 1926, em um trabalho de Gilbert Lewis, que o utilizou para descrever o que acreditava ser um átomo de luz. A esfera científica já conhecia a natureza dual da luz, trazida à tona em 1905, com a interpretação de Albert Einstein do efeito fotoelétrico. O significado atual conferido à palavra fóton - de `pacote' de energia - foi primeiramente utilizado por Compton, em uma comunicação em 1927 [11].

Professor e aluno que conhecem a história dos raios X e do termo fóton têm a possibilidade de compreender certos aspectos da natureza da ciência, como a importância da fertilidade de uma teoria para sua escolha teórica ou que diversos conhecimentos são desenvolvidos sem a compreensão plena de suas naturezas ou adoção da melhor nomenclatura. São consequências da escolha didática que, claramente, tem objetivos muito mais conceituais. É importante, entretanto, que professores e alunos estejam conscientes, para que possam complementar o conhecimento disposto no livro didático.

3.2. Modelos atômicos

No caso dos modelos atômicos, pode-se observar ainda mais claramente descontextualizações históricas, filosóficas e conceituais, especialmente pelo detalhamento escolhido pelos autores para tratar o assunto. Para o aluno em formação, certamente existe a necessidade de um maior desenvolvimento da evolução desses modelos, por diversos motivos. Além de figurarem como protagonistas na física moderna e na mecânica quântica, trabalhá-los também permite a ilustração das limitações da física clássica e as lacunas fenomenológicas que puderam ser preenchidas com a nova física. Assim, não é surpreendente que Eisberg e Resnick tenham proposto um capítulo completo sobre o assunto, o capítulo 4. Para a linha lógica do livro, então, parece o passo mais natural tratar de modelos nucleares logo após o desenvolvimento de radiações.

Ao introduzir o capítulo, a partir do modelo de Thomson, Eisberg e Resnick novamente fazem alusão ao momento histórico do desenvolvimento daquele tópico [12]. Em suas palavras, explicam que, por volta de 1910, havia muitas evidências da complexidade dos átomos, que permitiam o conhecimento dos números de elétron nos átomos (Z). Associados à então conhecida massa do elétron, os cientistas eram levados a acreditar que a maior parte da massa dos átomos era devida à sua carga positiva. No parágrafo seguinte, os autores, então, consideram a proposta de Thomson, que "naturalmente" foi levado a propor uma distribuição de cargas nos átomos, culminando em seu modelo atômico.

Apesar deste reconhecido esforço de contextualização histórica, alguns problemas emergem a partir de uma análise mais minuciosa dos fatos. O modelo atômico de Thomson surgiu em sua publicação de 1904 à Philosophical Magazine [13], baseado nos estudos que levaram, em 1897, à descoberta do elétron, pelo mesmo cientista. Àquela altura, diversos outros fenômenos já intrigavam a esfera científica, como a radiação X (1895) e a radioatividade (1896).

É fundamental notar que o modelo de Thomson, que ficou conhecido como pudim de passas, não foi o primeiro modelo atômico proposto. De fato, em 1808, Dalton propôs que os elementos químicos seriam formados de átomos específicos, de mesma massa e imutáveis [14]. Esse era o modelo que reinava entre os químicos adeptos do atomismo até a descoberta do elétron, em 1897.

É possível extrair do trecho [12] a interpretação de que a ideia de átomo era consensual e corrente, e que a o modelo atômico de Thomson foi bem aceito entre os cientistas. Entretanto, Dmitri Mendeleev, um químico consagrado e pai do Sistema Periódico, acreditava que descobertas como o elétron e a radioatividade pareciam ensejar a volta da alquimia, e defendia que, se essas descobertas fossem verdadeiras, deveriam ser regidas pelas mesmas leis utilizadas para os outros elementos. Esse tipo de declaração fez com que diversos físicos, entre eles o sueco Janne Rydberg (1906) e o próprio William Ramsay (1908), passassem a considerar o elétron não como partícula subatômica, mas como um átomo mais leve que o hidrogênio [14]. Ou seja: a concepção da existência de um átomo constituído de partículas ainda menores não se estabeleceu de maneira simples.

Não se pode afirmar contundentemente que a opção de Eisberg e Resnick tenha essência descontextualizadora, pela escolha dos autores em introduzir a problemática a partir das controvérsias da primeira década do século passado. Entretanto, essa recontextualização deixa de lado fatores históricos que operaram fortemente sobre a construção de um novo modelo atômico, urgente à época face às novas descobertas. A proposta de Thomson foi a primeira tentativa de ajustar um modelo atômico a essas descobertas, que urgiam por uma interpretação de que o átomo era divisível. Assim, a dinâmica entre os fenômenos radioativos e os modelos atômicos foi muito mais rica do que os autores deixam transparecer, especialmente dada a distância que separa as duas temáticas - doze capítulos. Vê-se neste ponto, como no caso dos raios X, uma descontextualização dos conceitos de origem, no intuito de impor uma certa logicidade na ordem dos fenômenos e conceitos a serem trabalhados.

Além disso, pode-se observar outro sinal de anacronismo:3 3 Anacronismo é a falta de concordância cronológica de fatos, o que usualmente gera interpretações de fatos históricos a partir de perspectivas mais atuais. a utilização do termo número atômico (Z). O modelo atômico de Thomson foi proposto em 1904, quando os instrumentos para se caracterizar a individualidade de um átomo eram a massa atômica (A) e seu espectro. A proposta de uma nova grandeza, o número atômico, foi feita apenas em 1913, por Henry Moseley, um aluno de Ernest Rutherford, ao analisar os espectros de raios X dos mais diferentes elementos. Entretanto, Eisberg e Resnick situam esse número como fundamental na proposta de Thomson.

Para introduzir as limitações do modelo de Thomson, os autores lembram que ele não é capaz de fornecer uma boa explicação para os espectros observados experimentalmente, o que é feito através do exemplo 4-1. Eisberg e Resnick somam a essa limitação as evidências das experiências de espalhamento de partículas alfa, que sugeriam que a carga positiva de um átomo não estaria distribuída uniformemente. Assim, para chegar ao modelo de Rutherford, os autores fazem uma pequena menção sobre a personalidade do físico, citando seu Prêmio Nobel em Química e sua própria surpresa, anos mais tarde, ao analisar sua perspicácia na interpretação dos resultados de experimentos de espalhamento. Uma descrição detalhada desse experimento segue tal trecho.

É interessante frisar que os executores do experimento, Geiger e Marsden, não são inicialmente citados. No trecho "Na figura 4-2 mostramos um arranjo típico que ele [Rutherford] e seus colaboradores utilizaram para estudar o espalhamento de partículas alfa ao atravessar folhas delgadas de várias substâncias" [15], os autores deixam transparecer que o experimento foi feito também por Rutherford. Entretanto, o papel (fundamental) do físico foi a análise dos resultados; a Geiger e Marsden coube a execução, o tratamento dos dados e a publicação do experimento [16, 17].

No exemplo 4-2 [18], que trata do resultado desse experimento, que era "espantosamente diferente" daquele previsto teoricamente a partir do modelo de Thomson, esse problema, em parte, é contornado, já que os autores fazem referência específica a Geiger e Marsden, citando, inclusive o ano da publicação (1909) do trabalho desses cientistas.

Através da análise dessa introdução ao modelo de Rutherford, pode-se observar um processo de despersonalização - a omissão dos nomes dos cientistas executores do experimento. A mera menção aos nomes de Geiger e Marsden e o ano do primeiro experimento, entre parênteses, em um exemplo, dificilmente pode ser considerada como um reconhecimento de suas importâncias para tal pesquisa. Nota-se, também, haver uma repersonalização, com a sinalização de que Rutherford estaria envolvido diretamente na atividade experimental.

Em termos filosóficos e, mais especificamente, no transparecer de certos valores epistêmicos, percebe-se, diferentemente do que acontece na seção de raios X, que Eisberg e Resnick sinalizam a fertilidade do modelo atômicos de Rutherford: "Este foi um dos mais importantes progressos da física atômica e foi a base da física nuclear" [15] é um trecho que mostra implicitamente, ao menos, a importância de uma teoria para o nascimento de outras. Além disso, eles lembram que o físico neozelandês recebeu seu Prêmio Nobel pelo desenvolvimento da química das substâncias radioativas. Mesmo assim, esses dois sinais não enfatizam a dinâmica conceitual desenvolvida historicamente entre radioatividade, modelos atômicos e novas teorias.

Apesar dessa indicação, há outro valor epistêmico mais expressivo na redação dos autores. A forte ênfase na adequação empírica - ou seja, na escolha de um novo modelo, que se adaptava aos resultados surpreendentes dos experimentos - se faz presente na descrição detalhada do aparato e do procedimento experimental, além da utilização desses para a exposição das limitações do modelo atômico até então vigente. "Foi praticamente o acontecimento mais inacreditável que aconteceu em minha vida. Era tão inacreditável como se você atirasse um obus de 15 polegadas sobre um pedaço de papel de seda e ele voltasse e o atingisse" [18]. A opção por esta citação da frase de Rutherford parece, em primeira instância, ser uma mera ilustração do impressionante universo que surgia ante o cientista; em uma análise mais aprofundada, nota-se ainda que, por mais surpreendente que fosse o resultado do experimento, a adequação empírica falava muito mais alto na construção de um novo modelo atômico.

Na descrição do experimento de bombardeamento de partículas alfa em chapas de diversos materiais, Eisberg e Resnick lembram que Rutherford já conhecia a natureza das partículas alfa e que eram emitidas espontaneamente, o que é bastante correto. O experimento que identificou definitivamente a partícula com o hélio duplamente carregado foi feito em 1908, com a colaboração de Thomas Royds, e publicado em 1909 [19]. Entretanto, o que não é exposto pelos autores é que aquele experimento de bombardeamento fora um dos produtos da investigação exaustiva que se empreendeu na primeira década do século XX para a compreensão não apenas da natureza da partícula alfa, mas também da natureza dos fenômenos radioativos. Desde que passaram a ser estudados profundamente pelo casal Curie, a partir de 1898, esses fenômenos intrigavam a comunidade de físicos e químicos, pois sugeriam haver, no átomo, partículas ainda menores. Outra incógnita que imperava, também em conseqüência do reconhecimento da radioatividade, era a enorme energia gerada pelos decaimentos.

Rutherford se dedicava a esses estudos desde 1899, quando conseguiu classificar as radiações emitidas por uma substância radioativa em α e β (a descoberta da radiação γ foi feita pouco tempo mais tarde, por Villard). Uma de suas grandes contribuições para a ciência, pela qual recebeu o Prêmio Nobel, foi a descoberta do decaimento radioativo, em colaboração com Frederick Soddy. A peculiaridade das radiações alfa, sua capacidade de ionizar fortemente o ar de suas vizinhanças, as evidências de que ela seria corpuscular e o fato de ser ejetada por um átomo instável pavimentaram o caminho para uma nova proposta de modelo atômico. No texto de Eisberg e Resnick, entretanto, nada se fala sobre essa estreita relação. Tão importantes foram os estudos das partículas alfa para o físico que, em 1908, escolheu a descrição da busca exaustiva pela natureza das partículas alfa como tema de sua Conferência Nobel [20].

Há que se ponderar ainda sobre outro aspecto. Em uma disciplina cujo foco não é a história da ciência, mas o desenvolvimento de conteúdos científicos, é natural que, da década de 1910, cite-se apenas os modelos atômicos propostos por Thomson e Rutherford. Esses foram os dois modelos que tiveram mais respaldo da comunidade científica, e foram propostos por dois cientistas bastante influentes na época. Contudo, uma imagem simplista de evolução do átomo acaba sendo conseqüência dessa opção. Os autores mostram a proposta de Rutherford como a escolha mais óbvia ante as evidências experimentais, transparecendo que os cientistas, em geral, aceitaram a mudança de um modelo para outro tranquilamente. Esse fato, além de não ser condizente historicamente, pode passar a imagem de que o conhecimento científico cresce linearmente, de que um modelo é nada mais que o aperfeiçoamento do vigente anteriormente; de que a ciência é acumulativa.

A história da ciência mostra, todavia, que as duas primeiras décadas do século 20 não presenciaram consenso quanto a um modelo atômico, tampouco quanto à própria existência do átomo. Outros modelos atômicos, como o de Hantaro Nagaoka e o de Jean Perrin, foram propostos naquele momento histórico, embora jamais reunindo tantos adeptos quanto os modelos descritos até aqui. O debate acerca da possibilidade da existência de partículas subatômicas era contraditório, mesmo com a descoberta de novos elementos radioativos, enriquecendo a química, e do fenômeno do decaimento radioativo e o modelo de Rutherford-Bohr, na física [14].

Eisberg e Resnick continuam seu capítulo dedicado a modelos atômicos com a descrição detalhada do modelo de Rutherford e suas análises, seguido do modelo de Bohr, a explicação dos espectros atômicos, a interpretação das regras de quantização e finaliza com o modelo de Sommerfeld e o princípio da correspondência. Nessas subseções seguintes, a relação histórica com a radioatividade decai bruscamente, e por tal motivo não serão objetos desta análise.

3.3. Radioatividade e modelos nucleares

Os temas analisados até aqui - radiações X e modelos atômicos - são conteúdos do que os autores sugerem serem estudados em um primeiro semestre de introdução à física quântica. A partir de agora, analisa-se a abordagem de modelos nucleares e da própria radioatividade, feitas nos capítulos 15 e 16, respectivamente.

Esta ordem, escolhida por Eisberg e Resnick, já expõe a característica de descontextualização - histórica e conceitual - do tratamento dos temas. Os autores justificam a opção na introdução do capítulo 15 [21], argumentando que eles veem como o início mais apropriado de um curso de física nuclear o tratamento dos modelos nucleares, em detrimento da abordagem histórica - que como os próprios autores sinalizaram no capítulo dedicado a modelos atômicos, iniciou-se com o átomo de Rutherford. A escolha, esclarecida na introdução do capítulo 16 [22], se deve ao fato de que eles entendem ser mais lógico abordar as reações nucleares conhecendo-se os modelos nucleares; ou seja, houve uma reorganização didática, diferente da historicamente construída, buscando a estrutura lógica dos conteúdos. Eles seguem explicando que cada um dos decaimentos ajuda na compreensão das interações nucleares, e que enriquecem o tema previamente trabalhado.

O capítulo 16 é intitulado Decaimento Nuclear e Reações Nucleares, e as seções que interessam a presente análise são, especificamente, as seções 16-2 e 16-3, que tratam dos decaimentos alfa e beta, respectivamente.

"Os decaimentos nucleares ocorrem sempre que um núcleo, contendo um certo número de núcleons, se encontra em um estado cuja energia não é a mais baixa para um sistema com esse número de núcleons" [22]. A forma escolhida pelos autores para iniciar a abordagem do tema já fornece indícios de um tratamento descontextualizado historicamente. Ainda neste parágrafo, os sinais de descontextualização tonam-se ainda mais fortes.

Em alguns casos, uma reação nuclear produzida nos aceleradores de partículas é responsável pelo aparecimento de núcleos instáveis, enquanto que, em outros casos, está ligada a fenômenos naturais que ocorreram há bilhões de anos, quando nosso universo estava sendo formado. Os núcleos instáveis que se originaram desses fenômenos naturais são frequentemente denominados de radioativos; o processo que ocorre no decaimento desses núcleos é comumente chamado de decaimento radioativo ou radioatividade. Uma das razões pelas quais o decaimento radioativo é interessante é que ele fornece informações sobre a origem do universo.

A associação da radioatividade com núcleons é certamente a opção mais natural para um ensino conceitual, que tenha como objetivo treinar o futuro cientista a resolver problemas à luz de um corpo teórico bem estabelecido, ou seja, para fins de treinamento científico do tema. Ela é fruto de uma descontextualização conceitual - pois a descoberta da radioatividade se deu antes mesmo que se descobrisse a primeira partícula subatômica, o elétron - seguida de uma reorganização conceitual - sua proposta após a abordagem de partículas subatômicas como os prótons e nêutrons.

Na sua forma espontânea, a radioatividade foi descoberta em 1896, pela propriedade dos compostos de urânio de impressionarem chapas fotográficas. Marie e Pierre Curie investigaram outras substâncias que poderiam ter a mesma propriedade, a partir de 1897. Até aquele momento, o modelo atômico mais aceito era o modelo de Dalton, que não previa partículas subatômicas ou sequer a existência de um núcleo. Apesar disso, muito da pesquisa sobre a radioatividade foi desenvolvida antes do modelo atômico de Rutherford, que data de 1911. Até aquele momento, já se classificara os três tipos diferentes de radiações [19,23], indentificara-se o decaimento radioativo [24] e se descobrira mais de trinta elementos radioativos [25]. Sem o conhecimento de um modelo atômico que pudesse explicar tais reações, outros conceitos e fenômenos físicos e químicos fizeram parte desta investigação pela compreensão da natureza da radioatividade. Assim, nota-se na redação desse manual didático um processo de dessincretização, ou seja, os autores descontextualizaram a radioatividade dos conceitos referenciais nas pesquisas iniciais sobre o fenômeno.

No intuito de acomodar a radioatividade na sequência didática escolhida, os autores então operaram um processo de ressincretização, ou seja, escolheram abordar a radioatividade através do conhecimento já exposto no capítulo anterior (modelos nucleares), para, de maneira mais rápida e lógica, explicarem algumas das razões para o decaimento radioativo.

Há que se fazer uma ressalva: radioatividade e decaimento radioativo são tratados neste parágrafo como a mesma coisa. Entretanto, fazendo uma análise histórica deste ramo da ciência, nota-se que a radioatividade - propriedade de certos elementos de emitir radiações de três tipos - foi descoberta em 1896, por Henri Becquerel, e seus estudos aprofundados pelo casal Curie e Rutherford, a partir de 1898 e 1899. Em 1902 e 1903, investigando a natureza dessa propriedade, especialmente em sais de rádio, Rutherford e Soddy descobriram os decaimentos radioativos e propuseram a Teoria da Desintegração Atômica, para a explicação do surgimento de novos elementos em compostos de tório e urânio, como o próprio rádio. Apesar de bastante semelhantes, há uma diferença histórica muito forte entre radioatividade e decaimento radioativo, fato oculto neste primeiro parágrafo da seção 16-2.

O parágrafo que segue fornece ainda mais características de transformações descontextualizadoras [26]:

Um processo que é particularmente importante no decaimento radioativo é o decaimento α, o qual ocorre comumente em núcleos cujo número atômico é maior que Z = 82. Neste processo, um núcleo pai instável decai nos núcleos filhos através de emissão de uma partícula α, ou seja, o núcleo de 2He4. Tal fenômeno ocorre espontaneamente, porque ele é favorecido por questões de energia, uma vez que a massa do núcleo pai é maior que a soma das massas do núcleo filho mais a da partícula α.

A ressincretização aqui envolve também o número atômico (Z) que foi proposto por Moseley em 1913, catorze anos após a classificação de Rutherford das radiações em α e β. Novamente, a fertilidade dos estudos sobre os raios X foi fundamental para a solidificação das pesquisas em radioatividade. Esse parágrafo é evidência, portanto, da reorganização didática sofrida pelo conhecimento, no intuito de promover um aprendizado dos conceitos científicos.

Analisando ainda esta citação, pode-se observar que os autores imediatamente trazem a explicação atualmente aceita para o decaimento α, ao mencionar a instabilidade energética de um núcleo, que permite a emissão. Essa explicação não era vigente na época em que se classificaram os decaimentos; os motivos dos decaimentos permaneceram como incógnitas durante o período inicial de desenvolvimento dos estudos em radioatividade. Seguindo este trecho, Eisberg e Resnick continuam "A energia equivalente à diferença de massa surgida no decaimento aparece sob a forma de energia cinética, quase toda ela pertencente à partícula alfa" [23]. Esta explicação imediata da grande energia emitida pelos decaimentos radioativos é um vestígio do processo de descontextualização sofrido pelo tema. A questão da grande energia emitida pelo fenômeno era, além de desconhecida pelos cientistas na época, algo que provocou suas curiosidades e ensejou as propostas de diversas conjeturas, como já apontava Pierre Curie em sua Conferência Nobel, proferida em 1905 [19].

Ainda sobre a questão energética, os autores não mencionam as possibilidades oferecidas pelo reconhecimento dessa nova fonte de energia, configurada pelos decaimentos radioativos. Entretanto, desde o início das pesquisas sobre a radioatividade, ao se depararem com tais constatações, os cientistas prontamente passaram a ponderar acerca de aplicações da descoberta. Em menos de dez anos após a descoberta da radioatividade, indústrias européias já financiavam as pesquisas de Otto Hahn, na Alemanha, e Frederick Soddy, na Grã-Bretanha [27]. Esse é um sinal de descontextualização do tema em termos filosóficos.

Atualmente, na área da filosofia da ciência, mesmo não havendo consenso sobre uma imagem hegemônica da natureza da ciência, não mais se defende a existência de uma ciência completamente pura, independente de esferas externas a ela, como a social e a tecnológica. É consenso entre os analistas do empreendimento científico a forte influência social sobre a ciência. Na lista das visões inadequadas do trabalho científico [3], consta a imagem socialmente neutra da ciência. No caso do livro de Eisberg e Resnick, a lacuna desta importante relação entre o investimento industrial nas pesquisas em radioatividade acaba por reforçar a ideia de que a ciência parece ser independente de outras esferas.

Mais à frente, os autores introduzem o conceito de meia-vida através da noção de taxa de decaimento, tratada no capítulo 6 - Soluções da equação de Schroedinger independente do tempo, subitem 6-6, intitulado "Exemplos de penetração de barreiras por partículas", sendo este mais um indício de descontextualização conceitual. Essa dessincretização torna-se ainda mais flagrante ao se observar que o capítulo 6 faz parte, em princípio, de uma primeira divisão dos conteúdos do livro para a sua abordagem em disciplinas, segundo sugestão dos próprios autores.

Mas além de conceitual, essa descontextualização é também histórica. Em 1900, Rutherford lança a noção de meia-vida após realizar diversos experimentos com as emissões das emanações de tório. Ele examinou a capacidade de penetração das radiações em camadas de papel de diversas espessuras e demonstrou uma expressão que permitia calcular o tempo necessário para que as emissões decaíssem à metade [24].

Contudo, Eisberg e Resnick fazem a demonstração de maneira diferenciada. "Consideremos agora um sistema contendo muitos núcleos da mesma espécie em um dado instante. Estes núcleos se desexcitam por decaimento alfa [...] com a taxa de decaimento R" [28]. Após a demonstração da lei do decaimento exponencial, eles então calculam a vida média, assumindo que ela seja, por definição, inversamente proporcional à taxa de decaimento R.

Nas pesquisas iniciais do desenvolvimento da radioatividade, feitas especialmente durante a primeira década do século 20, os estudos sobre as partículas alfa foram levados com muito mais intensidade. A identificação da natureza dessas partículas foi crucial para o desenvolvimento também do modelo atômico de Rutherford. Elas atraíram a comunidade científica após o reconhecimento de que eram as responsáveis pela forte ionização do ar das vizinhanças de um elemento radioativo. As radiações beta, que inicialmente chamaram também muita atenção, após serem identificadas como elétrons, não geraram tanta preocupação entre os cientistas. Entretanto, com o modelo atômico nuclear de Bohr, que postulava um núcleo de cargas positivas, novamente entraram em cena. Apesar de esse período histórico, posterior ao modelo atômico de Rutherford, não ser o foco deste trabalho, aqueles que puderem fazer uma análise da seção de Eisberg e Resnick que trata desse tipo de decaimento, certamente encontrarão vestígios de descontextualização, especialmente no que concerne os tratamentos conceituais de pósitrons, neutrinos e anti-neutrinos.

4. Que imagens deformadas do trabalho científico as seções em questão propagam?

Alguns estudos sobre a importância da propagação de imagens mais apropriadas da natureza da ciência têm sido feitos nas últimas décadas, no âmbito da educação científica. Entende-se, atualmente, que o discurso de professores e de livros didáticos são os maiores responsáveis pela difusão de uma ideia de ciência ainda fortemente empirista [3, 29].

No cenário da filosofia da ciência, entretanto, essa imagem foi fortemente combatida desde a década de 1960, especialmente no Colóquio Internacional de Filosofia da Ciência de 1965, em Londres [30-31]. A reaproximação dessa área com o ensino de ciências gerou um grande número de trabalhos, e atualmente se compreende que, para a formação científica do aluno - seja ele futuro cientista ou não - é fundamental que ele possua um entendimento mais amplo e realista do empreendimento científico [32].

Há muitas teorias na filosofia da ciência acerca da natureza da ciência e da atividade científica e outras questões intrinsecamente ligadas a ela, não havendo uma única posição consensual entre os filósofos. Contudo, as críticas às características do que se compreende por empirismo ingênuo, por exemplo, são compartilhadas pela maioria das linhas filosóficas.

Gil-Pérez e colaboradores, em um estudo aprofundado da literatura em ensino de ciências, que toma como base as filosofias da ciência de Gaston Bachelard, Thomas Kuhn, Karl Popper, Mario Bunge e Imre Lakatos, propuseram sete características que, nessa área, configuram imagens de ciência muito propagadas pelo ensino tradicional, mas que, atualmente, são insatisfatórias. Os autores denominaram-nas imagens deformadas do trabalho científico [3]. São elas:

1. A imagem de que a ciência cresce linearmente (acumulativa);

2. A imagem de que se faz ciência a partir de um passo-a-passo (algorítmica);

3. A imagem de que a teoria vem depois da experiência (ateórica);

4. A imagem de que os problemas surgidos não têm importância na construção de uma teoria científica (ahistórica);

5. A imagem de que a ciência responde a questões cada vez mais específicas, sem preocupação com o corpo global de conhecimentos e suas relações (exclusivamente analítica);

6. A imagem de que a ciência só pode ser feita por gênios, e que eles a fazem sem a ajuda de outros cientistas (individualista);

7. A imagem de que a ciência não sofre a influência de outras esferas, como a tecnológica e, especialmente, a social (neutra).

O tratamento dos modelos atômicos de Eisberg e Resnick traz, implicitamente, uma imagem acumulativa do conhecimento científico. O problema de se propagar essa concepção de ciência jaz na dificuldade de interpretação do papel regido por grandes divergências teóricas no avanço científico. Esses momentos, denominados por Kuhn de revoluções científicas [1], têm enorme importância na explicação de fenômenos novos que necessitam de grandes reestruturações teóricas. Além disso, conferem à ciência sua característica de empreendimento inacabado, aspecto muito importante na compreensão das abrangências e propostas do conhecimento científico [33].

Ainda no estudo dos modelos atômicos, os autores transparecem a imagem ateórica do trabalho científico. Ao associarem a força do modelo de Rutherford aos experimentos de espalhamento de partículas alfa, e omitindo a longa trajetória do físico no estudo da radioatividade e na pesquisa pela natureza daquelas partículas, Eisberg e Resnick implicitamente propagam a ideia de que tal modelo atômico veio como mera consequência do experimento. Entretanto, Geiger e Marsden eram alunos de Rutherford em Manchester e o experimento por eles executado fora uma sugestão do próprio físico, que na época ocupava-se das pesquisas em radiações alfa e beta. Seria ingênuo imaginar que tal aparato experimental teria sido construído e executado sem uma teoria, ou uma questão subjacente que concernia à natureza daquelas radiações. O resultado, a reformulação do modelo atômico, apesar de inesperado, não foi fruto de uma pesquisa ateórica.

Propagar a ideia de que a ciência é essencialmente ateórica é danoso, pois intenta conferir ao empreendimento a certeza dos dados fornecidos pela própria natureza. Entretanto, a sofisticação alcançada pela ciência moderna não mais permite tal interpretação; aparatos instrumentais são, eles mesmos, objetos de teorias prévias, e os dados por eles providos são interpretações à luz de uma certa teoria dos estímulos instrumentais. Contudo, a justificativa de que a ciência se preocupa primariamente com dados observáveis confere a ela o status de conhecimento superior dentro do senso comum; além de uma concepção errônea da natureza da atividade, também é uma ideia perigosa, pois desqualifica, ou inferioriza, outros tipos de conhecimentos, muito importantes nos diversos contextos sociais.

A sistemática reorganização dos conteúdos, como exposto na análise anterior, também acaba por propagar a imagem ahistórica da ciência. Ao abordar conteúdos como os modelos atômicos, radiações X e os decaimentos radioativos em novos contextos conceituais, ou seja, envolvendo números atômicos, fótons e núcleos atômicos, respectivamente, o livro retira esses conteúdos dos problemas científicos que surgiram na época. A opção pela explicação lógica dos fenômenos, que exige conhecimentos surgidos posteriormente às teorias, remete a um anacronismo que omite a característica fortemente problemática do empreendimento científico.

Quanto à imagem individualista da ciência, pode-se constatar na análise que ela é bastante forte no texto de Eisberg e Resnick. A menção aos grandes nomes não exime o discurso do livro desse aspecto; pelo contrário, essa repersonalização contribui pela propagação da ideia de que apenas mentes privilegiadas são capazes de fazer ciência. A omissão, no corpo do texto, da participação fundamental de Geiger e Marsden nos experimentos que culminaram com a proposta de um novo modelo atômico, citando-os em um simples exemplo, contribui para a concepção de que Rutherford foi o único cientista responsável pela grande conclusão. Apesar do protagonista, os coadjuvantes de uma teoria científica são essenciais para a construção do conhecimento, pois a ciência é, essencialmente, uma atividade coletiva, e conhecimento científico apenas se consolida como tal após a apreciação dos pares [34].

Para os estudantes, é de primeira importância compreender que, apesar de o passo crucial para a consolidação de uma teoria científica ter sido dado por alguém como Thomson, Rutherford ou os Curie, o trabalho de muitos outros cientistas foi essencial. A crença de que a ciência é feita apenas por grandes mentes desestimula o estudante que, ao não se considerar tão genial quanto os personagens festejados pelos livros didáticos, se desinteressa em seguir carreira científica ou, mesmo, de tentar compreender a ciência.

Como um todo, o discurso de Eisberg e Resnick negligencia a ilustração do papel da sociedade e da tecnologia na ciência, e vice-versa. E no caso da radioatividade, as influências foram muitas. Novamente, a opção por uma abordagem estritamente conceitual é a responsável pela omissão desse aspecto tão importante para a compreensão do trabalho científico. Atualmente, tanto na filosofia da ciência quanto na educação científica, não mais se acredita em uma ciência neutra. O livro, no entanto, não contribui para a desmistificação desse caráter neutro da ciência ao relegar tais assuntos.

A transmissão de cada uma dessas imagens deformadas do trabalho científico traz consigo problemas que vão além - ou que são conseqüências diretas - da não compreensão do que é ciência. A pouca inclinação à ciência, por exemplo, tem causado grandes evasões escolares, baixos níveis em testes internacionais e pouca procura por carreiras científicas. A não compreensão do que é ciência também acarreta na baixa participação dos cidadãos na tomada de decisões sócio-científicas e a vulnerabilidade à opinião daqueles que exercem o poder. Essas situações vêm sendo pesquisadas pela comunidade acadêmica de ensino de ciências; os bons resultados dependem da inserção de discussões acerca da natureza da ciência, de alguma maneira, na formação de professores e futuros cientistas, para que eles, então, possam fazer sua parte na formação mais básica.

5. O que se ganha? O que se perde?

A abordagem de Eisberg e Resnick para a radioatividade e conceitos correlatos parece trazer consigo algumas fragilidades históricas e filosóficas. Contudo, essa formatação de livros didáticos, que prioriza os conceitos e a sua logicidade dentro de um percurso didático é, de certa maneira, tradicional; abordagens similares são feitas também em outros livros direcionados para o mesmo público [35-36].

O fato de parecer haver uma tradição estabelecida leva à necessidade de se ponderar sobre uma questão importante: o que se ganha e o que se perde ao ensinar física de maneira descontextualizada?

Na transposição didática, Chevallard defende que as transformações do saber são feitas para que ele adquira logicidade e publicidade e para que ele dê conta de expectativas da sociedade para a educação.

Quanto à publicidade, é necessário que se construa um material ordenado, que permita a leitura, remetendo à logicidade dos conteúdos. Assim, certas escolhas devem ser feitas - mais especificamente, descontextualizações históricas e conceituais - para que se atinja esse objetivo.

A logicidade diz respeito à importância de se fazer relações entre os conteúdos; neste caso, a ordem cronológica nem sempre é respeitada e, por vezes, pode servir inclusive como obstáculo. Tome-se como exemplo a dedução da meia-vida feita por Eisberg e Resnick: os autores utilizam um conceito de penetração de barreiras, com a solução da Equação de Schroedinger, para fazer uso da taxa de decaimento R. Dessa maneira, eles relacionam conteúdos que, apesar de não terem relação histórica, de algum modo, facilitam o desenvolvimento da operacionalidade da teoria e, supostamente, ensejam uma melhor compreensão conceitual.

A intenção de Eisberg e Resnick fica, então, bem traduzida pela análise de Chevallard. A ideia de que o ensino de física deva abordar simplesmente os conteúdos exige essa logicidade. Enquanto os objetivos da disciplina de Estrutura da Matéria e afins forem esses, o livro atende a essas expectativas. Entretanto, há objetivos da formação mais geral, tanto do cientista, quanto do professor, que não serão atingidos enquanto as disciplinas do currículo desses cursos tiverem abordagens como a de Eisberg e Resnick.

Na área de educação científica, muito se vem produzindo sobre a necessidade de compreensão da natureza da ciência. Mesmo que as discussões filosóficas não sejam fator decisivo para a atuação de um físico, é grandemente desejável que futuros cientistas tenham alguma compreensão da natureza do trabalho que farão [37-38]. Entretanto, no contexto brasileiro, o bacharel em física, para atuar na área de pesquisa - que é feita, em grande parte, nas universidades - deve dedicar horas à atividade docente. Assim, esse futuro cientista será, ele mesmo, um futuro formador de professores e cientistas.

No caso de futuros professores de níveis superior e médio, a importância da contextualização histórica e da compreensão filosófica da ciência encontra ainda mais argumentos nas pesquisas da área. Há linhas de pesquisa que questionam a abordagem fortemente conteudista no ensino médio, defendendo a importância da inserção de tópicos de história e filosofia da ciência para que a formação do aluno propicie, além de alguma base conceitual para a compreensão cotidiana dos fenômenos naturais, também uma melhor compreensão do trabalho do próprio cientista e um entendimento do papel da ciência na sociedade em que ele vive - e isso passa pela maturação das concepções de ciências desses alunos [3, 32, 39].

Para que os professores em geral consigam fazer isso, é necessário que tenham, em sua formação, subsídios para tais incursões. O tratamento da história da ciência, de maneira meramente ilustrativa ou, como no caso de Eisberg e Resnick, para a introdução de seções, seguramente não configura o que se almeja por contextualização histórica. É importante que se atente para a qualidade da história da ciência que esses professores estão aprendendo, pois, provavelmente, será essa concepção que eles irão propagar quando em suas atividades docentes. Certos erros históricos, como os detectados no texto de Eisberg e Resnick, acabam por propagar também imagens deformadas da atividade científica ao aluno. Para que os objetivos de formações mais contextualizadas nos diversos níveis de ensino sejam alcançados, sem o comprometimento da formação conceitual sólida desses futuros cientistas e professores, é fundamental que certas ações sejam desenvolvidas.

Uma delas, de implementação mais imediata, seria a de transferir diretamente para o professor, em sala de aula, a responsabilidade de fazer as inserções, os complementos e as correções históricas necessárias em disciplinas baseadas em textos tradicionais, como o de Eisberg e Resnick. Mas, cabe a pergunta, estaria esse professor preparado para isso?

Outra possibilidade (sem excluir o apoio de disciplinas de cunho didático, nesse caso voltada apenas para o aluno da licenciatura) seria a de se investir em mais pesquisas em disciplinas que contemplem em suas ementas o tratamento histórico da física, de seus conceitos, de seus métodos. Cursadas tanto por alunos da licenciatura como do bacharelado, elas podem oferecer discussões epistemológicas valiosas para a formação desses estudantes. Não obstante, e talvez de forma incompreensível, em muitos currículos universitários brasileiros não há disciplinas específicas com esse enfoque. A pesquisa e seus resultados podem mudar esse quadro.

[4] Y. Chevallard, op. cit., p. 17.

[6] R. Eisberg e R. Resnick, op. cit., p. 67.

[12] R. Eisberg e R. Resnick, op. cit., p. 123.

[15] R. Eisberg e R. Resnick, op. cit., p. 125.

[18] R. Eisberg e R. Resnick, op. cit., p. 127.

[21] R. Eisberg e R. Resnick, op. cit., p. 641.

[22] R. Eisberg e R. Resnick, op. cit., p. 697.

[26] R. Eisberg e R. Resnick, op. cit., p. 698.

[28] R. Eisberg e R. Resnick, op. cit., p. 700.

Recebido em 2/9/2012

Aceito em 14/3/2013

Publicado em 9/9/2013

Copyright by the Sociedade Brasileira de Física. Printed in Brazil.

  • 1
    E-mail:
  • 2
    Como em um tubo de raios catódicos os raios de Roentgen se originam a partir da fosforescência produzida pela incidência de raios catódicos no vidro do tubo, Poincaré conjetura se não estariam esses dois fenômenos estreitamente relacionados em qualquer situação [7].
  • 3
    Anacronismo é a falta de concordância cronológica de fatos, o que usualmente gera interpretações de fatos históricos a partir de perspectivas mais atuais.
    • [1] T. Kuhn, The Structure of Scientific Revolutions (The University of Chicago Press, 1996), p. 10.
    • [2] Y. Chevallard, La Transposition Didactique: Du Savoir Savant au Savoir Enseigné (La Pensée Sauvage Éditions, Grénoble, 1991).
    • [3] D.G. Pérez, I.F. Montoro, J.C. Alís e A. Cachapuz, Ciência & Educação 7, 125 (2001).
    • [5] R. Eisberg e R. Resnick, Física Quântica: Átomos, Moléculas, Sólidos, Núcleos e Partículas (Campus, Rio de Janeiro, 1979).
    • [7] L.O.Q. Peduzzi, in: Hipermídia: Evolução dos Conceitos da Física, org. por L.O.Q. Peduzzi, M.D. Cordeiro e D. Nicolodelli (UFSC, Florianópolis, 2011), p. 120.
    • [8] R.A. Martins, Caderno Catarinense de Ensino de Física 7 (especial), 27 (1990).
    • [9] T. Kuhn, A Tensão Essencial (Edições 70, Lisboa, 1977), p. 365.
    • [10] H. Lacey, Valores e Atividade Científica (Discurso Editorial, São Paulo, 1998), p. 62.
    • [11] L.B. Okun, Acta Phys. Polon. B37, 565 (2006).
    • [13] J.J. Thomson, Philosophical Magazine 6, 237 (1904).
    • [14] H. Kragh, Studies in History and Philosophy of Science Part B: Studies in History and Philosophy of Modern Physics 31, 435(2000).
    • [16] H. Geiger e E. Marsden, Proceedings of the Royal Society 82, 495(1909).
    • [17] H. Geiger e E. Marsden, Philosophical Magazine 6, 604 (1913).
    • [19] M.D. Cordeiro e L.O.Q. Peduzzi, Revista Brasileira de Ensino de Física 33, 3601(2011).
    • [20] E. Rutherford in: Nobel Lectures, Chemistry 1901-1921 (Elsevier, Amsterdam, 1966).
    • [23] J. Chadwick, The Collected Papers of Lord Rutherford of Nelson, Volume I: New Zealand - Cambridge - Montreal (Interscience, Nova Iorque, 1962).
    • [24] E. Rutherford e F. Soddy, Philosophical Magazine 4, 370 (1902).
    • [25] M. Curie, in: Nobel Lectures, Chemistry 1901-1921 (Elsevier, Amsterdam, 1966).
    • [27] M.I. Freedman, The British Journal for the History of Science 12, 257 (1979).
    • [29] S.M. Arruda e C.E. Laburú, in: Questões Atuais no Ensino de Ciências, org. por R. Nardi (Escrituras, São Paulo, 1998).
    • [30] I. Lakatos e A. Musgrave, A Crítica e o Desenvolvimento do Conhecimento (Cultrix, São Paulo, 1979).
    • [31] F. Ostermann, Caderno Catarinense de Ensino de Física 13, 184 (1996).
    • [32] M.R. Matthews, Caderno Catarinense de Ensino de Física 12, 164 (1995).
    • [33] M. Weber, Ciência e Política: Duas Vocações (Cultrix, São Paulo, 1968).
    • [34] H.E. Longino, Science as a Social Knowledge: Values and Objectivity in Scientific Inquiry (Princeton University Press, Princeton, 1990).
    • [35] D. Halliday, R. Resnick e J. Walker, Fundamentos de Física (LTC, Rio de Janeiro, 2009).
    • [36] P.A. Tipler e G. Mosca, Física Para Cientistas e Engenheiros (LTC, Rio de Janeiro, 2006).
    • [37] P. Frank, American Journal of Physics 15, 202 (1947).
    • [38] P. Frank, Science & Education 13, 99 (2004).
    • [39] J. Solomon, Teaching Science, Technology and Society (Taylor and Francis, Bristol, 1993).

    1 E-mail: marinesdc@outlook.com. 2 Como em um tubo de raios catódicos os raios de Roentgen se originam a partir da fosforescência produzida pela incidência de raios catódicos no vidro do tubo, Poincaré conjetura se não estariam esses dois fenômenos estreitamente relacionados em qualquer situação [7]. 3 Anacronismo é a falta de concordância cronológica de fatos, o que usualmente gera interpretações de fatos históricos a partir de perspectivas mais atuais.

    Datas de Publicação

    • Publicação nesta coleção
      31 Out 2013
    • Data do Fascículo
      Set 2013

    Histórico

    • Recebido
      02 Set 2012
    • Aceito
      14 Mar 2013
    Sociedade Brasileira de Física Caixa Postal 66328, 05389-970 São Paulo SP - Brazil - São Paulo - SP - Brazil
    E-mail: marcio@sbfisica.org.br