109
volume 5, 2010 2 Proposição Instrucional - Uma Proposta de Inserção de Conteúdos de Mecânica Quântica no Ensino Médio, por Meio de um Curso de Capacitação para Professores em Atividade Glauson Francisco Chaves e Célia Maria Soares Gomes de Sousa anexos disponíveis clique aqui para baixar

Proposição Instrucional - Uma Proposta de Inserção de ...ppgec.unb.br/wp-content/uploads/boletins/volume5/2_2010_GlausonFr... · Teoria da Aprendizagem Significativa A aprendizagem

Embed Size (px)

Citation preview

volume 5, 2010 2

Proposição Instrucional - Uma Proposta de Inserção de Conteúdos de Mecânica Quântica no Ensino Médio, por Meio de um Curso de Capacitação para Professores em Atividade

Glauson Francisco Chaves e Célia Maria Soares Gomes de Sousa

anexos disponíveisclique aqui para baixar

UNIVERSIDADE DE BRASÍLIA Decanato de Pesquisa e Pós-Graduação

Instituto de Ciências Biológicas Instituto de Física

Instituto de Química Programa de Pós-Graduação em Ensino de Ciências

Mestrado Profissional em Ensino de Ciências

Uma proposta de inserção de conteúdos de Mecânica

Quântica no Ensino Médio, por meio de um Curso de

Capacitação para Professores em atividade

Apresentação da proposição instrucional

Glauson Francisco Chaves

Brasília, DF

Março de 2010

2

Apresentação

Este material é uma compilação de trabalhos de pesquisadores em Ensino de

Ciências, e diz respeito à introdução de Física Moderna e Contemporânea no Ensino

Médio.

A compilação foi pautada na expectativa de reunir em um mesmo material, os

trabalhos aplicados em diversas atividades de pesquisa, com alterações de abordagens e,

em alguns casos, dos textos, onde fundamentadamente procuramos criar um material

potencialmente significativo, para o professor-aluno, tendo a Teoria da Aprendizagem

Significativa como referencial para a estruturação deste material.

Numa proposta pautada na idéia de uma ciência baseada em pessoas, como todo

empreendimento humano, como afirmava Richard Feynman. Este trabalho vem como

intuito de preencher lacunas na atividade docente voltada a capacitação de professores

em atividade no ensino médio apresentado uma obra completa a respeito do ensino de

conceitos de Mecânica Quântica no Ensino Médio. Em termos de interpretação

filosófica, científica e de pequeno ferramental matemático da Mecânica Quântica.

A posição adotada é a da Interpretação de Copenhagen, pois na concepção deste

trabalho acreditamos que é uma interpretação que se mantém – apesar de existirem

outras, com distintas bases filosóficas – desde os tempos de Niels Bohr, e não tem sido

colocada em dúvida por resultados experimentais, fazendo dela uma interpretação forte

e balizadora de conceitos, de tal forma que levará o estudante a buscar conhecimentos

prévios, que funcionarão como ancoradores do novo conhecimento à adquirir.

Outra contribuição importante deste material é a sua capacidade de estimular o

professor a gerar uma troca de saber, como em temas interdisciplinares tais como o

fenômeno da fotossíntese, que é visto como um efeito fotoelétrico natural, em que os

fótons da freqüência verde são rejeitados pelas plantas, enquanto os demais são

absorvidos. Dessa forma, neste exemplo interdisciplinar, exigi-se dos docentes em

Biologia, Química e Física que apresentem conhecimento da Física Moderna, com isso

convergindo para um ensino de Ciências plural em suas bases científicas.

Por outro lado, este material visa ampliar discussões no ambiente escolar e até

mesmo de propostas curriculares, pois queremos propor, com este material que sejam

ministrados cursos com os professores das áreas de Ciências da Natureza, onde

3

certamente esse material deve servir de estímulo aos professores, destas áreas, para

gerar uma interdisciplinaridade, bem como fazendo com que o estudante adquira

significados a respeito de novos conhecimentos que serão apresentados e fortalecidos

em sua estrutura cognitiva.

O texto de apoio vem com o intuito de ser um material que forneça subsídios aos

participantes do curso em acompanhar cada aula apresentada, bem como de ser utilizado

pelos professores como fonte de pesquisa para a preparação de suas aulas, com os

alunos do Ensino Médio.

Finalizamos esta proposição com a incorporação, do ponto de vista das teorias

de aprendizagem, a proposta da aprendizagem significativa de Ausubel. Onde

buscamos, pelo intermédio de um CD-ROM – que acompanha esta proposição - que

contém apresentações de slides, filmes, simuladores, applets e textos, estimulando o

professor a criar um ambiente de discussão entre os estudantes e entre estes e o próprio

professor, a partir de concepções e do uso da fundamentação teórica. Com isso o

professor deverá conduzir o estudante a uma aprendizagem significativa, onde o

conhecimento prévio, como subsídios para a aprendizagem, é por nós considerado, nesta

proposição como a variável mais importante para a aprendizagem de novos

conhecimentos.

UNIVERSIDADE DE BRASÍLIA Decanato de Pesquisa e Pós-Graduação

Instituto de Ciências Biológicas Instituto de Física

Instituto de Química Programa de Pós-Graduação em Ensino de Ciências

Mestrado Profissional em Ensino de Ciências

Uma proposta de inserção de conteúdos de Mecânica Quântica no Ensino Médio, por meio de um Curso de Capacitação para

Professores em atividade

Teoria da Aprendizagem Significativa Fundamentos

Glauson Francisco Chaves

Brasília, DF

Março de 2010

O conhecimento é significativo por definição. É o produto

significativo de um processo psicológico cognitivo

(“saber”) que envolve a interação entre idéias

“logicamente” (culturalmente) significativas, idéias

anteriores (“ancoradas”) relevantes da estrutura cognitiva

particular do aprendiz (ou estrutura dos conhecimentos

deste) e o “mecanismo” mental do mesmo para aprender

de forma significativa ou para adquirir e reter

conhecimentos.

David P. Ausubel

Índice

Teoria da Aprendizagem Significativa ....................................................................................... 4

1. A abordagem cognitivista de Ausubel ............................................................................... 4

2. Aprendizagem verbal, significativa e receptiva................................................................. 5

3. Tipos de aprendizagem significativa ................................................................................. 7

4. O processo de assimilação .............................................................................................. 10

5. Organização da estrutura cognitiva ................................................................................ 12

6. Princípios organizacionais para a apresentação de material instrucional ...................... 14

7. Dimensões do processo educacional .............................................................................. 18

Referencias Bibliográficas ....................................................................................................... 20

Teoria da Aprendizagem Significativa

A aprendizagem por recepção significativa envolve, principalmente, a aquisição

de novos significados a partir de material de aprendizagem apresentado. Exige quer um

mecanismo de aprendizagem significativa, quer a apresentação de material

potencialmente significativo para o aprendiz. Por sua vez, a última condição pressupõe

que o próprio material de aprendizagem possa estar relacionado de forma não arbitrária

(plausível, sensível e não aleatória) e não literal com qualquer estrutura cognitiva

apropriada e relevante (i.e., que possui significado ‘lógico’) e que a estrutura cognitiva

particular do aprendiz contenha idéias ancoradas relevantes, com as quais se possa

relacionar o novo material. A interação entre novos significados potenciais e idéias

relevantes na estrutura cognitiva do aprendiz dá origem a significados verdadeiros ou

psicológicos. Devido à estrutura cognitiva de cada aprendiz ser única, todos os novos

significados adquiridos são, também eles, obrigatoriamente únicos. (AUSUBEL, 2000,

P. 1)

1. A abordagem cognitivista de Ausubel

Dentre as perspectivas existentes para o estudo das questões de ensino e

aprendizagem, encontra-se a abordagem cognitivista, fundamentada na Psicologia

Cognitiva, que “trata do modo como as pessoas percebem, aprendem, recordam e

pensam sobre a informação” (STERNBERG, 2000, p. 22).

O cognitivismo apóia-se na idéia de que é possível compreender vários aspectos

do comportamento humano partindo-se do entendimento da maneira pela qual as

pessoas pensam. A ênfase desse enfoque é o processo da cognição, pelo qual o

indivíduo atribui significados às situações com que se depara no mundo. Devido a essas

características , as pesquisas educacionais situadas dentro desse quadro teórico

consideram essencial o conhecimento das idéias que os estudantes apresentam.

Essa preocupação é central para Ausubel (1976), para quem o fator mais

importante influenciando a aprendizagem é aquilo que o aluno já sabe, devendo o

professor averiguar isso e ensinar de acordo.

O enfoque de Ausubel pode ser relacionado à visão de ensino e aprendizagem

denominada construtivista, que, segundo Mortimer (1995, p. 57), parece apresentar ao

menos dois traços principais: “1) a aprendizagem se dá através do ativo envolvimento

do aprendiz na construção do conhecimento; 2) as idéias prévias dos estudantes

desempenham um papel importante no processo de aprendizagem”.

Neste capítulo, serão examinados os fundamentos da Teoria da Aprendizagem

Significativa de Ausubel, cujos conceitos e princípios foram referência para o

desenvolvimento e a avaliação da proposta educacional descrita neste trabalho, em

conjunto com as idéias originadas das pesquisas da área de Educação para a Ciência.

2. Aprendizagem verbal, significativa e receptiva

A teoria da aprendizagem de Ausubel está focada na aprendizagem verbal,

significativa e por recepção. O caráter verbal é salientado porque, para Ausubel, a

linguagem é importante facilitador da aprendizagem, pois os signos lingüísticos, com

suas propriedades representacionais, ampliam a capacidade de se manipular conceitos e

proposições. Mediante a linguagem, os significados podem ser clarificados, tornando-se

mais precisos e transferíveis.

O significado surge quando um objeto e o signo verbal que o representa são

relacionados (MOREIRA e MASINI, 2002). Os aspectos significativo e receptivo estão

associados aos processos considerados mais efetivos por Ausubel (1976), para a

construção do conhecimento pelos estudantes: a aprendizagem por recepção e a

aprendizagem significativa.

Sabemos que a aprendizagem significativa caracteriza-se pela interação entre o

novo conhecimento e o conhecimento prévio. Nesse processo, que é não- literal e não-

arbitrário, o novo conhecimento adquire significados para o aprendiz e o conhecimento

prévio fica mais rico, mais diferenciado, mais elaborado em termos de significados, e

adquire mais estabilidade. (MOREIRA e MASINI, 1982; MOREIRA, 1999, 2000).

Sabemos, também, que o conhecimento prévio é, isoladamente, a variável que mais

influencia a aprendizagem. Em última análise, só podemos aprender a partir daquilo que

já conhecemos. David Ausubel já nos chamava atenção para isso em 1963. Hoje,

reconhecemos que nossa mente é conservadora, aprendemos a partir do que já temos em

nossa estrutura cognitiva. Como dizia ele, já nessa época, se queremos promover a

aprendizagem significativa é preciso averiguar esse conhecimento e ensinar de acordo.

Podemos enfatizar que um aspecto fundamental da aprendizagem significativa é

que o aprendiz deve apresentar uma pré-disposição para aprender. Ou seja, para

aprender significativamente, o aluno tem que manifestar uma disposição para relacionar,

de maneira não arbitrária e não literal, à sua estrutura cognitiva, os significados que

capta dos materiais educativos, potencialmente significativos, do currículo (GOWIN,

1981).

A aprendizagem por recepção é aquela em que os estudantes adquirem suas

noções por meio do contato com materiais apresentados em sua forma final, sem que

precisem descobrir conhecimentos por si mesmos. Esse tipo de aprendizagem distingue-

se da aprendizagem por descoberta, na qual o estudante descobre os conteúdos antes de

incorporá-los em sua estrutura cognitiva. Segundo Ausubel (1976), a maior parte dos

conceitos aprendidos pelos alunos, tanto em sala de aula quanto fora dela, ocorrem de

forma receptiva.

Na visão de Ausubel, essa seria a maneira mais simples e eficaz de se adquirir o

conteúdo de uma disciplina acadêmica, que passa a predominar quando o indivíduo

começa a apresentar maior maturidade intelectual, tornando-se capaz de compreender

conceitos e proposições expostos verbalmente, sem necessidade de experiência empírica

ou concreta adicional.

Os tipos de aprendizagem descritos podem ocorrer tanto de modo mecânico, por

repetição, quanto de maneira significativa (AUSUBEL, 1976). A aprendizagem

significativa processa-se quando o aluno relaciona o conteúdo em estudo àquilo que já

conhece, de modo não-arbitrário e substantivo (não-literal). Isso envolve a conexão de

uma nova idéia expressa simbolicamente a algum aspecto essencial de sua estrutura

cognitiva – o conjunto organizado de suas idéias –, seja uma imagem, um símbolo que

já possui significado, um contexto ou uma proposição.

A aprendizagem por recepção envolve, principalmente, a aquisição de novos

significados a partir de material de aprendizagem apresentado. Exige quer um

mecanismo de aprendizagem significativa, quer a apresentação de material

potencialmente significativo para o aprendiz. Por sua vez, a última condição pressupõe

(1) que o próprio material de aprendizagem possa estar relacionado de forma não

arbitrária e não literal com qualquer estrutura cognitiva apropriada e relevante e (2) que

a estrutura cognitiva particular do aprendiz contenha idéias relevantes, com as quais se

possa relacionar o novo material. A interação entre novos significados potenciais e

idéias relevantes na estrutura cognitiva do aprendiz dá origem a significados

verdadeiros ou psicológicos. Devido à estrutura cognitiva de cada aprendiz ser única,

todos os novos significados adquiridos são, também eles, obrigatoriamente únicos.

(AUSUBEL, 2003.)

A aprendizagem mecânica ou por repetição surge em situações nas quais o ato

de aprender envolve apenas associações arbitrárias, como por exemplo, na memorização

dos símbolos das letras do alfabeto. Ocorre também quando o aluno não dispõe de

conhecimentos prévios suficientes para tornar a tarefa de aprendizagem significativa, ou

nos casos em que este resolve internalizar o conhecimento de modo arbitrário e literal,

ou seja, na forma de uma série de palavras armazenadas sem critério. Segundo Ausubel

1976, para ocorrer a aprendizagem significativa é necessário que o estudante apresente

disposição para estabelecer relações não-arbitrárias e substantivas do novo material com

a sua estrutura cognitiva. Também é preciso que o material a ser aprendido seja

potencialmente significativo para o aluno, isto é, possa ser especialmente associado à

sua estrutura de conhecimento, de modo intencional e não-literal.

O potencial significativo de um material depende de sua organização lógica, que

o permita ser relacionado de modo intencional e substancial a idéias que seres humanos

em geral possam exibir. Demanda ainda a existência de idéias apropriadas na estrutura

cognitiva de um aluno particular, que possam entrar em correspondência não-arbitrária e

não-literal com o conteúdo a ser aprendido.

O resultado da aprendizagem significativa é a produção do significado, o qual

poderá ser evocado quando a expressão simbólica que o originou estiver presente. Nesse

processo, o significado potencial existente inicialmente é convertido em significado

novo, diferenciado e idiossincrático, ao ser introjetado por um estudante específico.

3. Tipos de aprendizagem significativa

Ausubel, 1976, distingue três tipos essenciais de aprendizagem significativa:

representacional, de conceitos e de proposicional. Na aprendizagem representacional,

atribui-se significado a símbolos isolados, geralmente palavras, cada uma representando

objeto, acontecimento, situação ou conceito individuais. Nessa modalidade, cada

palavra nova passa a representar o objeto ou idéia a que se refere.

Desta maneira este tipo de aprendizagem aproxima-se da aprendizagem por

memorização. Ocorre sempre que o significado dos símbolos arbitrários se equipara aos

referentes (objetos, acontecimentos, conceitos) e tem para o aprendiz o significado, seja

ele qual for, que os referentes possuem. A aprendizagem representacional é

significativa, porque tais proposições de equivalência representacional podem

relacionar-se de forma não arbitrária, como exemplares, a uma generalização existente

na estrutura cognitiva de quase todas as pessoas, quase desde o primeiro ano de vida –

de que tudo tem um nome e que este significa aquilo que o próprio referente significa

para determinado aprendiz.(AUSUBEL, 2003)

Para Moreira (2006) a aprendizagem de conceitos, é de certa forma, uma

aprendizagem representacional, pois conceitos são, também representados por símbolos

particulares. Aprender um conceito demanda a identificação e a compreensão do

significado de seus atributos, ou seja, das propriedades que possibilitam distingui-lo ou

identificá-lo. Além desse significado, denotativo, surge também o conotativo, o qual

inclui as reações afetivas e atitudinais, de caráter idiossincrático, que o termo produz em

cada pessoa.

Na aprendizagem proposicional, confere-se significado as idéias expressa por

meio de conjuntos de palavras combinadas em proposições ou orações. Essa tarefa

transcende a ação de aprender proposições de equivalência representativa, pois envolve

a captação do significado de nova idéia composta, gerada pela combinação de várias

palavras individuais, cada qual representando um referente unitário. Isso resulta em

idéia diferente da simples soma dos significados das palavras componentes da

proposição. Exceto em estudantes muito jovens, as proposições aprendidas são, em

geral, constituídas por palavras-conceito, ao invés de objetos ou acontecimentos.

Conforme expõe Ausubel (1976), a aprendizagem de representações é condição

sine qua non1 para a aprendizagem de proposições, pois é preciso conhecer o

significado de cada palavra para se poder compreender uma sentença expressa

verbalmente.

Ausubel (1976), considera que a relação entre um conceito ou o conteúdo de

uma proposição e as idéias pertinentes já existentes na estrutura cognitiva, na

aprendizagem significativa, pode ser de três tipos: subordinada, superordenada ou uma

combinação de ambas. A aprendizagem subordinada, por sua vez, pode ser classificada

em derivativa e correlativa.

Na aprendizagem subordinada, conceitos ou proposições potencialmente

significativos são subsumidos ou incluídos em idéias mais amplas e gerais da estrutura

cognitiva do indivíduo. Para Ausubel, essa relação de subordinação é comum devido à

organização hierárquica da estrutura cognitiva com respeito ao nível de abstração,

generalidade e inclusividade. As idéias mais gerais e inclusivas pré-existentes na

estrutura cognitiva, que servem de ponto de ancoragem para a conexão de novas

informações específicas, Ausubel (em MOREIRA e MASINI, 2002) denomina

subsunçores.

A aprendizagem subordinada derivativa ou subsunção derivativa ocorre quando

o novo material incorporado corresponde a exemplo específico de conceito existente na

estrutura cognitiva ou quando apóia ou ilustra proposição geral aprendida

anteriormente. Nesse caso, a nova idéia a ser conhecida está implícita em conceito ou

proposição já estabelecido e mais inclusivo da estrutura cognitiva, do qual pode ser

derivado de modo evidente e direto.

A aprendizagem subordinada correlativa ou subsunção correlativa processa-se

quando o novo material a ser aprendido corresponde a uma extensão, elaboração,

modificação ou limitação de conceitos ou proposições aprendidos previamente. Apesar

de esse material incorporado interagir com as idéias pertinentes e mais inclusivas

estabelecidas anteriormente na estrutura cognitiva, seu sentido não está subentendido e

não pode ser representado adequadamente por esses subsunçores.

1A tradução literal de sine qua non é "sem a qual não", e indica que uma condição, fator, cláusula ou

circunstância é essencial, indispensável para a realização de determinado ato, evento ou circunstância.

Na aprendizagem superordenada, uma nova idéia inclusiva é aprendida e passa a

abarcar conceitos ou proposições mais específicos existentes na estrutura cognitiva.

Para Ausubel, isso é mais comum durante a aprendizagem de conceitos do que a de

proposições, ocorrendo, por exemplo, quando um estudante passa a saber que as noções

por ele conhecidas de quark, elétron e neutrino estão subsumidas na nova palavra

férmion. Essa modalidade de aprendizagem ocorre no raciocínio indutivo ou no caso em

que o material exposto está organizado indutivamente ou implica a síntese das idéias

componentes.

Segundo Ausubel, diversos novos conceitos ou novas proposições são

adquiridos dessa forma. Um exemplo é a aprendizagem das relações entre massa e

energia, dentre outras generalizações novas, inclusivas e de grande poder explicativo

estudadas na Ciência.

4. O processo de assimilação

Para interpretar a aquisição, retenção e organização de significados na estrutura

cognitiva, Ausubel (1976) introduz a idéia de assimilação. O princípio da assimilação

possibilita compreender mais profundamente de que modo um significado subordinado

é gerado e armazenado. Na aprendizagem subordinada, um conceito ou proposição a,

potencialmente significativo, é subsumido em uma idéia mais ampla A da estrutura

cognitiva, como extensão, elaboração, modificação ou limitação desse subsunçor. Nesse

processo, tanto a nova idéia a, quanto a idéia estabelecida A, que entram em associação,

são modificadas, passando a ser designadas a’ e A’, respectivamente. Os produtos a’ e

A’ dessa interação permanecem relacionados, formando um novo complexo unificado

de idéias A’a’. Isso pode ser representado pelo esquema A + a → A’a’.

O termo assimilação é utilizado porque, após o surgimento do novo significado,

este continua em relação articulada com a forma, levemente modificada, da idéia já

existente na estrutura cognitiva, constituindo o membro menos estável da nova unidade

ideativa formada. Além disso, o novo significado tende a reduzir-se ao significado da

idéia estabelecida de modo mais consolidado. Ausubel supõe que o significado recém-

assimilado a’ é dissociável de seu subsunçor A’, podendo ser reproduzido como

elemento identificável e isolado. Essa hipótese permite explicar a possibilidade de se

dispor dos novos conceitos no período de retenção.

Concomitante à fase de retenção, inicia-se um processo – chamado obliteração –

em que a’ acaba perdendo identidade, restando apenas A’. Trata-se da assimilação

obliteradora, em que à nova informação (a) resta o papel de modificar, enriquecer,

reelaborar, o conceito subsunçor (A), não ficando incorporada, com identidade, na

estrutura cognitiva. Pode-se dizer, nesse caso, que, apesar de desempenhar um papel

importante no processo de assimilação, a informação a é “esquecida”. Contudo, não se

trata de esquecimento no sentido usual do termo, pois, de alguma maneira, a nova

informação “está dentro do subsunçor”. (MOREIRA e MASINI, 1982 em PAULO,

2006).

Segundo Ausubel (1978, p.58) apud Moreira (2006, p.33), como a estrutura

cognitiva, em si, tende a uma organização hierárquica em relação ao nível de abstração

generalidade e inclusividade das idéias, a emergência de novos significados conceituais

ou proposicionais reflete, mais tipicamente, uma subordinação do novo conhecimento à

estrutura cognitiva, que é chamada de aprendizagem significativa subordinada.

A aprendizagem superordenada se dá quando um conceito ou proposição

potencialmente significativo A, mais geral e inclusivo que idéias ou conceitos já

estabelecidos na estrutura cognitiva a1, a2, a3 é adquirido a partir destes e passa a

assimilá-los (idem). Embora as idéias aprendidas sejam mais gerais e inclusivas que os

significados mais específicos e estáveis da estrutura cognitiva aos quais se relacionam,

estas também são esquecidas.

No processo de aquisição, retenção e obliteração durante a aprendizagem

significativa, um conceito ou proposição a não precisa se restringir a formar um produto

interativo com apenas uma idéia mais inclusiva A’. Conforme considera Ausubel,

podem ser formados também produtos com diversas idéias gerais B, C, D e outras.

Apesar de os conceitos ou as proposições de maior estabilidade e melhor estabelecidos

serem mais funcionais em outras aprendizagens ou operações de resolução de

problemas ao se desligarem dos significados menos estáveis que assimilaram, o

processo de redução ocasiona a perda de informações e detalhes dos conteúdos mais

específicos.

Segundo Ausubel (1976), opor-se a esse processo de assimilação obliteradora,

próprio da aprendizagem significativa, é o problema principal na aquisição de um

conteúdo acadêmico. Para ele, apesar da etapa de obliteração, a aprendizagem

significativa melhora a retenção do conhecimento. Para explicar de que modo as novas

informações assimiladas podem ser mantidas na memória por longo prazo, Ausubel

considera três fatores, relacionados ao processo de assimilação. Primeiramente, o novo

significado passa a compartilhar da estabilidade própria das idéias mais estáveis da

estrutura cognitiva a qual se liga. Além disso, a relação intencional e original mantida

entre o novo conceito ou proposição e as informações já existentes preserva o

significado formado recentemente da influência de outras idéias aprendidas ou que

serão adquiridas no futuro. E ainda, a articulação entre a nova idéia significativa e uma

noção particular mais pertinente da estrutura cognitiva favorece sua recuperação mais

sistemáticamente.

5. Organização da estrutura cognitiva

A hipótese da assimilação contribui, segundo Ausubel, para o entendimento do

modo como o conhecimento é organizado na estrutura cognitiva. Considerando-se que

uma nova idéia se relaciona com alguma noção existente na estrutura cognitiva e, em

geral, um dos componentes desse par é mais inclusivo e estável, enquanto o outro é

dotado de maior especificidade e menor estabilidade, verifica-se a existência de uma

hierarquia conceitual.

A organização dos conteúdos na mente de um indivíduo configuraria, então, uma

pirâmide, seguindo o princípio da diferenciação progressiva, com as idéias mais amplas

e inclusivas no ápice, assimilando aquelas menos amplas ou mais diferenciadas situadas

no escalão seguinte que, por sua vez, fariam a subsunção das idéias mais específicas do

próximo nível da escala hierárquica, e assim sucessivamente. Considerando a natureza

do processo pelo qual a estrutura de conhecimento de um indivíduo aumenta, segundo o

mecanismo de assimilação, Ausubel depreende que a estrutura cognitiva existente,

incluindo tanto conteúdo como organização, é o fator principal que influi na

aprendizagem e retenção significativas em certa área de estudo.

Diversas variáveis da estrutura cognitiva afetam a aprendizagem e a retenção de

um novo material potencialmente significativo. Dentre essas, Ausubel (1976) atribui

grande importância à disponibilidade de idéias inclusivas pertinentes que possam servir

de ponto de sustentação e possibilitar o estabelecimento de relações otimizadas entre

conceitos e proposições. Sem a existência de subsunçores adequados, pode ocorrer

aprendizagem mecânica ou, o que é mais comum, algum tipo de aprendizagem

combinatória ou uma inclusão correlativa menos pertinentes. Os significados formados

desse modo são relativamente sem estabilidade, ambíguos e de pouca longevidade.

Uma segunda variável considerada relevante é o grau em que uma idéia a ser

assimilada pode ser discriminada dos sistemas de idéias estabelecidos na estrutura

cognitiva. Quando um novo material de aprendizagem é semelhante a outro já

conhecido pelo estudante, tende a ser interpretado como idêntico a este, resultando em

significados que não correspondem adequadamente ao conteúdo a ser aprendido. Por

outro lado, mesmo se um aluno souber da existência de algumas diferenças entre as

idéias em estudo e aquelas que possui, talvez não consiga discriminá-las, originando

significados ambíguos, confusos, sobre os quais persistem dúvidas, e significados

opcionais ou em competição. Nesses casos, a força de dissociabilidade dos significados

recém-aprendidos é relativamente pequena, sendo em geral esquecidos mais

rapidamente do que conceitos ou proposições de maior discriminabilidade, pelo fato de

poderem ser representados convenientemente pelas idéias semelhantes mais estáveis já

existentes.

Outras variáveis reconhecidas por terem influência apreciável na aprendizagem

significativa e na permanência na memória do material em estudo, são a estabilidade e a

clareza dos subsunçores existentes. Caso essas propriedades não sejam verificadas, os

novos materiais serão relacionados às idéias da estrutura cognitiva de modo pouco

apropriado, sendo fracamente sustentados e não podendo ser discriminados destas com

facilidade. A clareza e estabilidade das idéias que o aluno apresenta relacionam-se

diretamente à discriminabilidade de novos conceitos em relação à sua estrutura

cognitiva.

Verifica-se que quanto maior o grau de conhecimento sobre um assunto, melhor

a capacidade para aprender novos conteúdos dessa área de interesse, pois existem mais

subsunçores pertinentes disponíveis e é possível discriminar, de modo mais eficaz, as

idéias existentes das análogas que se busca aprender.

Desse modo, conclui-se que, para poderem surgir significados precisos e sem

ambigüidade, os quais tendem a reter sua força de dissociabilidade e disponibilidade, a

estrutura cognitiva deve possuir conceitos e proposições claros, estáveis e organizados

adequadamente.

6. Princípios organizacionais para a apresentação de material instrucional

Com o intuito de maximizar a aprendizagem e retenção significativas, e facilitar

experiências de aprendizagem subseqüentes, Ausubel (1976) assume ser possível atuar

de forma planejada sobre os atributos pertinentes da estrutura cognitiva, tanto

substancialmente quanto programaticamente. Para influir substancialmente, empregam-

se conceitos e proposições unificadores de uma determinada disciplina que sejam mais

explicativos, inclusivos e gerais, e apresentem maior possibilidade de serem

relacionados com o conteúdo da matéria em estudo. Esse tipo de procedimento tem o

propósito de organizar e integrar os elementos constituintes da estrutura cognitiva.

Para agir programaticamente, aplicam-se princípios que facultem ordenar a

seqüência de tópicos de um campo de conhecimentos a serem aprendidos, estruturar o

assunto de forma lógica e com organização interna, e preparar atividades práticas. São

cinco as estratégias pedagógicas enfatizadas por Ausubel (1976) para facilitar a

aprendizagem significativa: o uso de organizadores prévios, a diferenciação progressiva,

a reconciliação integrativa, a organização seqüencial e a consolidação.

O recurso principal para a manipulação deliberada da estrutura cognitiva tendo

em vista a melhoria da aprendizagem, segundo Ausubel, são os organizadores prévios,

materiais introdutórios dotados de alto nível de abstração, generalidade e inclusividade,

que empregam idéias com o máximo de clareza e estabilidade. Um organizador prévio

tem a função de mobilizar subsunçores relevantes existentes na estrutura cognitiva do

aluno e possibilitar que estes atuem na inclusão da matéria a ser aprendida, tornando-a

mais familiar e potencialmente significativa. Busca fornecer ao estudante um arcabouço

de idéias pertinentes e adequadas para permitir a incorporação e a retenção otimizadas

do material mais detalhado e diferenciado a ser apresentado na seqüência de

aprendizagem. Tem por objetivo também aumentar a capacidade de discriminar o novo

material das idéias parecidas, porém distintas, conhecidas pelo estudante.

Além disso, pode contribuir para a reconciliação e integração de noções que

estejam em contradição real ou aparente com idéias da estrutura cognitiva. Conforme

sintetiza Ausubel (1976, p. 179), “(...) a função principal do organizador é salvar o

abismo que existe entre o que o aluno já sabe e o que necessita saber, antes de

aprender com bons resultados a tarefa imediata”. São distinguidos dois tipos de

organizador prévio: o expositivo e o comparativo. O primeiro é elaborado para

proporcionar o desenvolvimento de subsunçores pertinentes e próximos, em relação

subordinada com o conteúdo a ser aprendido, privilegiando a ancoragem de idéias a

partir do que é mais familiar para o aluno. O segundo é construído para favorecer a

identificação das semelhanças entre as novas idéias e as da estrutura cognitiva, e a

ampliação do grau com que os novos conteúdos são discriminados das noções diferentes

em essência, porém bastante parecidas, já existentes.

Para a utilização das estratégias pedagógicas propostas por Ausubel, é

fundamental verificar inicialmente de que modo a disciplina a ser ensinada está

organizada e encontrar seus princípios explicativos com propriedades mais gerais e de

maior poder integrativo. Ao se estruturar o assunto tendo em vista a aprendizagem

significativa, é importante também levar em consideração o nível de desenvolvimento

cognitivo do aluno e seu grau de domínio da matéria. A identificação de conceitos

básicos procura atender ao problema da organização substancial do assunto. Após essa

etapa, resta a questão da organização programática, relativa ao arranjo e à apresentação

em seqüência das unidades componentes da disciplina em estudo.

Ao se utilizar o princípio da diferenciação progressiva, são expostos

primeiramente conceitos e proposições mais gerais e inclusivos, seguidos das idéias

mais específicas do assunto, progressivamente pormenorizado. Justifica-se o emprego

desse recurso devido:

a) à maior facilidade manifestada pelo ser humano em aprender aspectos diferenciados

de um todo mais amplo já sabido do que apreendê-lo a partir do conhecimento de suas

partes componentes mais específicas;

b) à organização hierárquica do conteúdo existente na mente dos indivíduos, com idéias

mais inclusivas no extremo superior, as quais subsumem informações progressivamente

menos inclusivas e mais diferenciadas.

A introdução das idéias mais inclusivas e pertinentes em primeiro lugar

possibilita o desenvolvimento de subsunçores adequados que poderão servir de

ancoradouro para idéias mais específicas apresentadas posteriormente, contribuindo,

desse modo, para a sua aprendizagem e retenção mais eficazes. Segundo Ausubel, é

conveniente organizar não só o material relativo a um tema segundo esse princípio, mas

todo o conjunto de temas e subtemas que compõem um curso.

Pelo princípio da reconciliação integrativa, busca-se explorar relações entre as

idéias de um assunto, indicar semelhanças e diferenças importantes, e reconciliar

inconsistências reais ou aparentes. Desse modo, evita-se compartimentar e isolar idéias

ou temas particulares em capítulos ou subcapítulos específicos, sem que sejam

comparadas idéias relacionadas.

A programação de atividades de ensino e aprendizagem considerando-se a

reconciliação integrativa permite aumentar a capacidade de se discriminar as novas

idéias a serem aprendidas, daquelas conhecidas e bem estabelecidas. Dessa maneira,

contribui para evitar o surgimento de ambigüidades, falsas concepções e confusões, as

quais dificultam a clara distinção entre idéias familiares e desconhecidas, e acentuam a

tendência de que estas se reduzam àquelas. Esse princípio possibilita também eliminar

contradições aparentes entre os novos conceitos e proposições e as idéias existentes na

estrutura cognitiva, de modo a impedir o estudante de descartar as novas idéias ou,

então, de memorizá-las arbitrariamente como se fossem entidades isoladas, distintas do

que se aprendeu anteriormente, gerando conhecimento pouco durável.

Para se alcançar a reconciliação integrativa com maior eficácia, Novak (1986)

considera que é preciso organizar a instrução de modo a se “subir e descer” ao longo da

hierarquia conceitual segundo a qual está estruturada uma disciplina, na medida que a

nova informação vai sendo apresentada. De acordo com Novak, pode-se iniciar o ensino

de um tópico a partir dos conceitos mais gerais, logo a seguir ilustrar de que modo

conceitos subordinados estão a estes relacionados e, então, por meio de exemplos, voltar

a novos significados de conceitos de ordem superior na hierarquia. Os organizadores

prévios podem ser elaborados de acordo com o princípio da reconciliação integrativa, ao

explicitarem pontos comuns e aspectos distintos na comparação entre informações

novas e já aprendidas, mobilizando subsunçores adequados para favorecer a

aprendizagem subseqüente.

Segundo Ausubel, esse procedimento faculta reduzir o esforço na aprendizagem,

evitar o isolamento de conceitos essencialmente iguais em áreas diferentes e sem

comunicação, e desestimular a proliferação desorientadora de uma diversidade de

termos para representar idéias aparentemente diferentes, porém, na verdade,

equivalentes. Além disso, melhora a habilidade de o aluno discriminar diferenças

genuínas entre novos materiais parecidos porém, na realidade, de significados opostos

aos que se encontram em sua estrutura cognitiva, favorecendo sua retenção posterior.

A aprendizagem de novos conceitos e proposições inclusivos claramente

diferenciáveis dos existentes, conforme assume Ausubel, implica desempenho superior

na aprendizagem posterior de material mais detalhado. Isso ocorre porque esse material

pormenorizado é aprendido com maior clareza, estabilidade e discriminabilidade, pelo

fato de as idéias que o subsumem serem mais discrimináveis e, portanto, mais estáveis,

estando, conseqüentemente, mais aptas a proporcionar subsunção contínua e segura.

Ao se aplicar o princípio da consolidação, procura-se assegurar que os assuntos

já estudados de uma seqüência sejam dominados pelo estudante antes da introdução de

um novo material de aprendizagem. Como expõe Ausubel, para se obter a consolidação

são necessárias repetições e revisões da matéria em estudo, em quantidade suficiente e

com espaçamento adequado, com oportunidade para a realização de práticas diferenciais

dos componentes mais difíceis da tarefa de aprendizagem. É preciso também promover

atividades para confirmar, esclarecer e corrigir as aprendizagens prévias.

A consolidação contribui para que os conteúdos prévios se configurem com

clareza, estabilidade e boa organização na estrutura cognitiva do aluno, com efeitos

positivos sobre a profundidade da ancoragem proporcionada a novos conteúdos e a

discriminabilidade destes, melhorando a aprendizagem e a retenção dos significados

formados. O arranjo hierárquico da estrutura cognitiva parece favorecer a aprendizagem

de conceitos e proposições que nela podem ser subsumidos. Por isso, Ausubel sugere

optar-se, sempre que possível, pela aprendizagem subordinada, pois essa modalidade

permitiria aprender conceitos e proposições mais rapidamente, propiciando sua retenção

por mais tempo.

Os princípios organizacionais para a apresentação de material didático propostos

por Ausubel destinam-se a favorecer esse tipo de aprendizagem, a fim de otimizar a

aquisição e retenção significativas de informações.

7. Dimensões do processo educacional

A ênfase da abordagem ausubeliana na aprendizagem de conceitos e proposições

não significa que outros aspectos da educação possam ser deixados de lado. Conforme

se infere da teoria de Ausubel, o fator motivacional é um importante elemento da

aprendizagem significativa, pois não basta um material ser potencialmente significativo;

é preciso que o estudante tenha iniciativa para estabelecer relações não-arbitrárias e

substantivas em sua estrutura cognitiva.

Desse modo, temas e atividades inovadoras, que possam estimular os estudantes

e incentivar a aprendizagem, devem ser buscadas. Isso pode envolver, por exemplo, a

abordagem de assuntos atuais, pelos quais os estudantes têm um interesse natural, por

estarem em contato em seu dia-a-dia, seja em função da interação com novas

tecnologias que repercutem no dia-a-dia ou devido ao acesso a informações pela mídia.

Outro fator com potencial para motivar os estudantes é a informática, que permite

empregar recursos multimídia para despertar o interesse e auxiliar na compreensão dos

assuntos.

Como observa Novak (1986), a aprendizagem cognitiva é acompanhada de

experiência emocional e, por isso, o desenvolvimento afetivo necessariamente ocorre de

modo concomitante à aprendizagem cognitiva. Para Novak, a experiência emocional

tende a ser boa quando o ensino é planejado para otimizar a aprendizagem cognitiva e,

portanto, o desenvolvimento afetivo positivo é maximizado quando estão presentes

condições favoráveis ao crescimento intelectual.

Além disso, Novak reconhece a existência de outros fatores que influem na

resposta emocional. Os momentos de interação entre as pessoas constituem fontes ricas

de experiência emocional e, quando equilibradas, podem fortalecer a autoconfiança e

proporcionar suporte para se enfrentar outros desafios. Por esse motivo, a criação de

oportunidades para a comunicação e a expressão de idéias, incluindo o trabalho

cooperativo envolvendo duas pessoas ou um pequeno grupo, pode favorecer a

aprendizagem. A promoção de debates e a discussão aberta dos temas em estudo

fomentam a participação dos estudantes e tendem a contribuir para melhorar relações

em sala de aula, permitindo valorizar suas idéias e os conhecimentos que já trazem de

suas experiências cotidianas.

Os conteúdos de aprendizagem abrangem mais do que capacidades cognitivas,

envolvendo conceitos, procedimentos e atitudes relacionados, respectivamente, ao que é

preciso saber, saber fazer e ser (COLL, 1986 apud ZABALA, 1998). Conforme expõe

Zabala (1998), cada um desses conteúdos é caracterizado por um conjunto de aspectos a

serem aprendidos:

a) A aprendizagem de conteúdos conceituais abrange o conhecimento e a compreensão

de fatos, conceitos e princípios, com a capacidade de utilizá-los para interpretar

situações e construir novas idéias. São conteúdos dessa natureza: nomes,

acontecimentos, fenômenos concretos e singulares, termos abstratos, símbolos, relações,

leis e outros.

b) A aprendizagem de conteúdos procedimentais abarca a realização de ações seguindo-

se procedimentos e aplicando-se técnicas e métodos, demandando exercício, reflexão

sobre os próprios atos e habilidade para empregar tal conhecimento em contextos

diferenciados. São conteúdos dessa natureza: ler, observar, calcular, classificar, inferir,

debater e outros.

c) A aprendizagem de conteúdos atitudinais engloba o cultivo de valores, atitudes e

normas, necessários para a vida equilibrada em Sociedade. São conteúdos dessa

natureza valores como a solidariedade, o respeito aos outros e a responsabilidade, e

atitudes tais quais cooperar com o grupo, ajudar os colegas e respeitar o ambiente.

Referencias Bibliográficas

AUSUBEL, D. P. Psicología educativa: un punto de vista cognoscitivo. México:

Editorial

Trillas, 1976. 768 p.

AUSUBEL, D. P.. Aquisição e retenção de conhecimentos: Uma perspectiva

cognitiva. Plátano, Lisboa, Portugal, 2000. 226pp.

GOWIN, D. B. (1981). Educating. Ithaca, N.Y.: Cornell University Press. 210 p.

MOREIRA, M. A. (1999). Aprendizagem significativa. Brasília: Editora da UnB.

129 p.

MOREIRA, M. A. Versão revisada e estendida de conferência proferida no III

Encontro Internacional sobre Aprendizagem Significativa, Lisboa (Peniche), 11 a

15 de setembro de 2000. Publicada nas Atas deste Encontro, p.p. 33-45, com o

título original de Aprendizagem significativa subversiva.

MOREIRA, M. A. – A teoria da aprendizagem significativa e sua implementação

em sala de aula – Editora Universidade de Brasília, Brasília, 2006. 186p.

MOREIRA, M. A.; MASINI, E. F. S. Aprendizagem significativa: a teoria de

David Ausubel. 2. ed. São Paulo: Centauro, 2002. 112 p.

MOREIRA, M. A.; PAULO, I. J.C. Abordando conceitos fundamentais da

mecânica quântica no nível Médio. Trabalho apresentado no II Encontro

Iberoamericano sobre Investigação Básica em Educação em Ciências, Burgos,

Espanha, setembro de 2004. Aceito para publicação na Revista Brasileira de

Pesquisa em Educação em Ciências..

MORTIMER, E. F. Construtivismo, mudança conceitual e ensino de ciências:

para onde vamos? In: ESCOLA DE VERÃO PARA PROFESSORES DE

PRÁTICA DE ENSINO DE FÍSICA, QUÍMICA E BIOLOGIA, 3., 1994, Serra

Negra. Coletânea... São Paulo: FEUSP, 1995. p. 56-74.

NOVAK, J. D. A theory of education. Ithaca: Cornell University Press, 1986. 296

NOVAK, J. & GOWIN, D. B. (1996). Aprendendo a aprender. Lisboa: Plátano

Edições Técnicas. Tradução para o português do original Learning how to learn.

212p.

PAULO, I. J. C. ; MOREIRA, M. A. (2004a) - Abordando Conceitos

Fundamentais de Mecânica Quântica no nível médio. Revista Brasileira de

Pesquisa em Educação em Ciências, Bauru - São Paulo, v. 4, p. 63 - 73.

STERNBERG, R. J. Psicologia cognitiva. Porto Alegre: Artmed, 2000. 494 p.

ZABALA, A. A prática educativa: como ensinar. Porto Alegre: Artmed, 1998.

224 p.

1

APENDICE B – MANUAL DE APLICAÇÃO DA

PROPOSIÇÃO INSTRUCIONAL

UNIVERSIDADE DE BRASÍLIA Decanato de Pesquisa e Pós-Graduação

Instituto de Física Instituto de Química

PROGRAMA DE PÓS-GRADUAÇÃO EM ENSINO DE CIÊNCIAS MESTRADO PROFISSIONALIZANTE EM ENSINO DE CIÊNCIAS

Uma proposta de inserção de conteúdos de Mecânica Quântica no

ensino médio, por meio de um curso de capacitação para

professores em atividade

Manual de Aplicação da Proposição Instrucional

Glauson F. Chaves

Brasília, DF

2

Apresentação

O presente Manual tem por objetivo sintetiza a forma de utilização da

proposição instrucional, visando facilitar a aplicação e a validação do instrumento de

trabalho por intermédio do uso do texto de apoio, das apresentações de slides, vídeos,

applets e demais recursos propostos neste trabalho.

3

MÓDULO I

FICHA DE APLICAÇÃO Encontro – 1 – 02h/a

� Apresentação do texto de apoio – Debate e discussão a respeito do

curso.

� Utilização do recurso apresentação de slide - introdução a mecânica

quântica - visão geral do produto – professor.

FICHA DE APLICAÇÃO Encontro – 2 – 02h/a

� Utilização do recurso apresentação de slide - Introdução a mecânica

quântica - visão geral do produto – Debate e discussões prévias

FICHA DE APLICAÇÃO Encontro – 3 – 02h/a

� Apresentação do texto de apoio pág. 5 – Limitações da Física

Clássica

� Utilização do recurso apresentação de slide - introdução a mecânica

quântica - visão geral do produto – professor.

� Vídeo 1 - Motivacional - Uma reflexão a respeito dos tempos

modernos - Interdisciplinar

4

MÓDULO II

FICHA DE APLICAÇÃO Encontro – 4 – 02h/a

� Apresentação do texto de apoio pág. 5 – A discussão científica

(nuvens de Kelvin)

� Utilização do recurso apresentação de slide - introdução a mecânica

quântica - visão geral do produto – professor.

FICHA DE APLICAÇÃO Encontro – 5 – 02h/a

� Apresentação do texto de apoio pág. 5 – Uma nova forma de ver o

mundo.

� Utilização do recurso apresentação de slide - introdução a mecânica

quântica - visão geral do produto – professor.

� Vídeo Lampf. – discussão do modelo luminoso.

5

FICHA DE APLICAÇÃO Encontro – 6 – 02h/a

� Apresentação do texto de apoio – Óptica Ondulatória

� Utilização do recurso apresentação de slide - Tópicos de história da

física - desenvolvimento significativo.

FICHA DE APLICAÇÃO Encontro – 7 – 02h/a

� Apresentação do texto de apoio – Óptica Ondulatória

� Utilização do recurso apresentação de slide - Tópicos de história da

física - desenvolvimento significativo.

� Simulador - Lamp, halogen e Lampf. – discussão do modelo luminoso.

FICHA DE APLICAÇÃO Encontro – 8 – 02h/a

� Apresentação do texto de apoio – Óptica Ondulatória

� Discussão por intermédio da leitura do texto a respeito do modelo

ondulatório das luz.

6

FICHA DE APLICAÇÃO Encontro – 9 – 02h/a

� Apresentação do texto de apoio – Difração da Luz

� Vídeo 2 - Explorando limites Dr. Quantum demonstra o Exp. fenda

dupla, com desdobramentos que podem ser utilizados pelo vídeo 2B e

2C.

� Debate a respeito do vídeo

FICHA DE APLICAÇÃO Encontro – 10 – 02h/a

� Apresentação do texto de apoio – Difração da Luz

� Continuação do debate anterior e análise do vídeo a respeito do

experimento da fenda dupla.

7

FICHA DE APLICAÇÃO Encontro – 11 – 04h/a

� Apresentação do texto de apoio – Interferência, e Experimentos de

Dupla Fenda.

� Os vídeos apresentados módulo anterior devem ser utilizados como

organizadores prévios para esta parte do módulo.

� Apresentação do experimento virtual - Interferômetro de Mach-

Zehnder.

� Apresentação do texto de apoio – Lei de Bragg

� Vídeo 3 - Dualidade onda partícula a idéia do Quantum - Organizador

prévio – Professor

MÓDULO III

FICHA DE APLICAÇÃO Encontro – 12 – 01h/a

� Apresentação do texto de apoio – Comportamento Corpuscular da

Luz. – Debate a respeito do tema e buscar subsunçores, conflitar com

a estrutura anteriormente estudada.

8

FICHA DE APLICAÇÃO Encontro – 13 – 05h/a

� Apresentação do texto de apoio – Efeito Fotoelétrico e Efeito

Compton.

� Vídeo 4 - velocidade da luz – que leva a uma construção de conceitos

que se interelacionam, com áreas do conhecimento diversos. Focado

no tema de comunicação, conduz-se pelo desenvolvimento científico e

tecnológico tão importante para a abordagem do professor de ensino

médio.

� Apresentação de slides: Aula efeito fotoelétrico - erro conceitual.

MÓDULO IV

FICHA DE APLICAÇÃO Encontro – 14 – 03h/a

� Apresentação do texto de apoio – A Quantização e a Constante de

Planck.

� Vídeo - Organizador Prévio - Proposta de Criação em Sala - Animação

- Princípios da Mecânica Quântica

9

FICHA DE APLICAÇÃO Encontro – 15 – 03h/a

� Apresentação do texto de apoio – A Ótica Ondulatória Como

Formulação da Mecânica Quântica.

� Vídeo 5 - Explorando limites clássicos - Dr.Quantum - Mundo Plano,

o qual introduzimos a discussão probabilística, não determinista da

MQ. – Organizador prévio para próximas aulas.

� Apresentação de slides - A crise da física a incerteza.

� Finalize sua aula apresentando o Vídeo - Ano mundial da física, para

servir de conclusão desta revisão conceitual e introdução a MQ.

Sugerimos pausar o vídeo a cada momento relevante e questionar a

respeito dos princípios clássicos e/ou quânticos que apareciam no filme e

suas implicações no ensino médio, fechando a discussão deste e dos

módulos anteriores. Corrija eventuais erros conceituais.

10

MÓDULO V

FICHA DE APLICAÇÃO Encontro – 16 – 04h/a

� Apresentação do texto de apoio – Átomo de Bohr e Dualidade onda

partícula.

� Apresentação - Mecânica quântica.

� Vídeo - Organizador Prévio - Proposta de Criação em Sala - Animação

- Princípios da Mecânica Quântica.

Sugerimos uma discussão prévia do texto e procure propor que os

professores por meio de desenhos expresse os modelos atômicos, com a

finalidade de identificar erros conceituais. Vale a pena explorar a Idea de

um modelo atômico chamado de “pudim de passas”, mostrando os

obstáculos que posem surgir.

� Vídeo - Buscando Subsunçores - Ciclo da Água – Discuta o vídeo do

ponto de vista da estrutura da matéria.

11

MÓDULO VI

FICHA DE APLICAÇÃO Encontro – 18 – 04h/a

� Apresentação do texto de apoio – Princípio da Incerteza de

Heisenberg.

� Vídeo - Buscando Subsunçores e explorando limites - Discovery -

Tudo Sobre Incerteza a Mecânica Quântica.

Após este dois momentos sugerimos que seja feita a discussão com o

auxilio do texto de apoios e a apresentação - Da crise da física a incerteza,

buscando relacionar situações problemas que levem a discussão

probabilística da MQ. Outra sugestão é a utilização de outros vídeos, de

outros módulos

FICHA DE APLICAÇÃO Encontro – 19 – 02h/a

� Apresentação do texto de apoio – Princípio da Complementaridade.

Discussão do tema, a fim de mostrar a forma como os aspectos

ondulatórios e corpusculares da matéria e da radiação são partes

necessárias e complementares do todo.

12

FICHA DE APLICAÇÃO Encontro – 20 – 04h/a

� Apresentação do texto de apoio – Princípio da Correspondência.

Crie modelos que sugira a discussão de correspondência entre teorias, bem

como assita ao vídeo - Física Nuclear - A descoberta da Radioatividade -

Organizador – Professor – bem como discuta a apresentação - um pouco

de física contemporânea – partículas – Ao final encerre o curso marcando

a avaliação, para que seja verificado o resultado da aprendizagem.

TEXTO DE APOIO

UNIVERSIDADE DE BRASÍLIA Decanato de Pesquisa e Pós-Graduação

Instituto de Física Instituto de Química

PROGRAMA DE PÓS-GRADUAÇÃO EM ENSINO DE CIÊNCIAS MESTRADO PROFISSIONALIZANTE EM ENSINO DE CIÊNCIAS

Texto de Apoio da proposta de inserção de conteúdos de Mecânica

Quântica no ensino médio, por meio de um curso de capacitação para

professores em atividade

Glauson F. Chaves

Brasília, DF

2

Conteúdo

1. LIMITAÇÕES DA FÍSICA CLÁSSICA ....................................................................................................... 4

2 – A DISCUSSÃO CIENTÍFICA (NUVENS DE KELVIN) .................................................................................... 5

3 - O NASCIMENTO DA MECÂNICA QUÂNTICA ........................................................................................... 8

4. UMA NOVA FORMA DE VER O MUNDO .............................................................................................. 10

5. ÓPTICA ONDULATÓRIA ................................................................................................................. 11

6. DIFRAÇÃO DA LUZ. ...................................................................................................................... 14

7. INTERFERÊNCIA. .......................................................................................................................... 15

8. EXPERIMENTOS DE DUPLA FENDA ................................................................................................... 16

9. LEI DE BRAGG ............................................................................................................................ 20

10. COMPORTAMENTO CORPUSCULAR DA LUZ ...................................................................................... 22

11. EFEITO FOTOELÉTRICO. ............................................................................................................... 23

12.EFEITO COMPTON ...................................................................................................................... 27

13. A QUANTIZAÇÃO E A CONSTANTE DE PLANCK ................................................................................... 29

14. A ÓTICA ONDULATÓRIA COMO FORMULAÇÃO DA MECÂNICA QUÂNTICA ............................................... 33

15. ESTADOS CLÁSSICOS E QUÂNTICOS ................................................................................................ 36

15.1. SUPERPOSIÇÃO LINEAR DE ESTADOS. .......................................................................................... 40

16. PRIMEIROS POSTULADOS DA MECÂNICA QUÂNTICA .......................................................................... 41

16.1. EVOLUÇÃO TEMPORAL DOS ESTADOS QUÂNTICOS ........................................................................... 45

16.2. A INTERPRETAÇÃO PROBABILÍSTICA DA FUNÇÃO DE ONDA ................................................................. 46

16.3. ALGUMAS IMPORTANTES CONSEQÜÊNCIAS DA INTERPRETAÇÃO PROBABILÍSTICA .................................... 46

17. O ÁTOMO DE BOHR ................................................................................................................... 47

18. PRINCÍPIO DA CORRESPONDÊNCIA. ................................................................................................ 60

19. DUALIDADE PARTÍCULA-ONDA ..................................................................................................... 61

20. PRINCÍPIO DA COMPLEMENTARIDADE ............................................................................................. 63

21. A INTERPRETAÇÃO DA COMPLEMENTARIDADE .................................................................................. 63

3

22. PRINCÍPIO DA INCERTEZA DE HEISENBERG ........................................................................................ 66

23. BIBLIOGRAFIA ........................................................................................................................... 69

4

1. Limitações da Física Clássica

No final do século XIX, o edifício da Física Clássica dir-se-ia completo. As leis da

Mecânica Clássica, do Eletromagnetismo, da Mecânica Estatística e da Termodinâmica

revelavam-se capazes de interpretar a maior parte dos fenômenos observáveis. A crença nos

poderes da razão, na capacidade da ciência para impulsionar o progresso social era bastante

generalizada. No entanto, alguns problemas não resolvidos continuavam a ser um desafio para

a Física Clássica e, por outro lado, novas descobertas vieram pôr à prova a sua capacidade

interpretativa. Falaremos brevemente de alguns desses problemas.

� O espectro da radiação do corpo negro era um dos problemas não resolvidos

satisfatoriamente. A partir das leis da Física Clássica, obtinha-se a célebre fórmula de

Rayleigh-Jeans, que, embora se ajustasse aos dados experimentais para longos

comprimentos de onda, falhava dramaticamente na região dos pequenos comprimentos

de onda.

� No que respeita à estrutura da matéria, durante séculos, tinha-se discutido a

hipótese atômica, e, embora nos finais do século XIX ela já fosse relativamente

consensual, não havia teorias minimamente consistentes.

� As leis da Mecânica Clássica obedeciam ao princípio da relatividade de

Galileu, mas o mesmo não acontecia com as do Eletromagnetismo. Para estas últimas,

parecia haver um referencial privilegiado, o éter. No entanto, para além da falta de

estética desta hipótese, estava por provar a existência do mesmo éter.

� A Física newtoniana tinha sido coroada de sucessos espantosos, tanto do ponto

de vista interpretativo como de previsão. Questões sobre a origem da inércia, sobre a

razão da existência na teoria de duas massas conceitualmente diferentes (gravitacional

e inercial) e numericamente equivalentes, continuavam por esclarecer.

Um problema que tinha preocupado alguns dos melhores cientistas do século XIX era

o da irreversibilidade no tempo dos fenômenos macroscópicos, atendendo a que eles se

podem considerar combinações de fenômenos elementares, obedecendo estes últimos às leis

de Maxwell e Newton, que são reversíveis no tempo. Maxwell, Gibbs, Boltzman e Clausius

foram os principais fundadores de um novo ramo da Física, a Mecânica Estatística, que teve

na sua origem o problema a que acabamos de nos referir. Esta nova ciência estabelece uma

ponte entre a Mecânica e o Eletromagnetismo, por um lado, e a Termodinâmica, por outro.

5

Estes e outros problemas, bem como as novas descobertas do virar do século, estiveram na

origem da Física Moderna.

2 – A discussão científica (nuvens de Kelvin)

A mecânica quântica é muito mais que apenas uma ‘teoria’, ela é uma forma

completamente nova de ver o mundo. De forma recorrente o ‘fim da física’, significando, com

isso, não seu colapso, mas o fechamento final e definitivo dessa forma de conhecimento. Um

dos registros mais conhecidos disso data precisamente de 1900, quando o influente físico

irlandês William Thomson (lorde Kelvin, 1824-1907), visivelmente imbuído do espírito de

mudança de século, afirmou, em uma conferência proferida na Royal Society e intitulada

“Nuvens do século 19 sobre a Teoria Dinâmica do Calor e da Luz” – assuntos de sua

especialidade –, que “agora não há nada novo por ser descoberto em física. Tudo o que resta

são medidas cada vez mais precisas”.

Lorde Kelvin menciona que existiriam apenas “duas pequenas nuvens no horizonte da

física”: o resultado negativo da experiência de Michelson-Morley e o chamado problema da

radiação do corpo negro. O éter era tido como um meio material que servia de suporte à

propagação das ondas eletromagnéticas – luz, por exemplo.

Em 1887, os físicos norte-americanos Albert Michelson (1852-1931) e Edward

Morley (1838-1923), em um dos experimentos mais famosos e importantes da física, não

conseguiram comprovar – como estava inicialmente previsto – a existência do éter. Já o

problema do corpo negro diz respeito à intensidade de radiação emitida por um corpo

aquecido.

O nome “corpo negro” vem do fato de que se trata de um corpo que deve ter a

propriedade de absorver toda a radiação que incida sobre ele, reemitindo-a, depois de

reprocessar a energia absorvida, segundo apenas propriedades gerais suas, notadamente a

temperatura. Hoje, o exemplo mais notável de corpo negro é o próprio universo, como um

todo, que contém “radiação de fundo” – o que exclui de consideração as altas temperaturas de

estrelas; por exemplo, do Sol, em particular – correspondente a uma temperatura de 2,74

kelvin. A física da época não conseguia explicar, como, a uma dada temperatura, a

intensidade da radiação emitida dependia do valor da freqüência com a qual ela era emitida.

6

Ainda em 1900, a segunda das pequenas nuvens se transformaria em ativa tempestade,

com o sucesso da hipótese dos “quanta” do físico alemão Max Planck (1858-1947), ou seja, a

de que, na natureza, a energia é emitida e absorvida em “pacotes” discretos – daí o uso do

termo latino quanta, que no singular (quantum) significa “quanto” ou “quantidade” – e não

como um fluxo contínuo, como se acreditava. Segundo Planck a energia de cada pacote de

energia é proporcional á freqüência de radiação.

A hipótese dos quanta, formulada por Planck, ganha um aporte conceitual valoroso as

bases filosóficas da física quando cinco anos mais tarde, com os trabalhos de Albert Einstein

(1879-1955) sobre a teoria da relatividade restrita, em que ele mostrou que o conceito de éter

era totalmente desnecessário.

Diferentemente das chamadas “revoluções científicas” anteriores, que envolveram

embates com concepções prevalecentes fora dos domínios da ciência – como a revolução

copernicana, que nasceu com a proposição feita pelo astrônomo polonês Nicolau Copérnico

(1473-1543) de que a Terra e os planetas então conhecidos giravam em torno do Sol –, as

mudanças de perspectiva ocorridas no início do século passado foram às primeiras grandes

revoluções intrínsecas da física, isto é, que envolveram revisões radicais de concepções da

própria física.

Em particular, a transição do mundo físico como visto no último ano do século 19 por

Kelvin – usualmente chamado mundo da física clássica – para o mundo visto através da

mecânica quântica é, sem dúvida, até hoje, a mais profunda e também, em muitos aspectos, a

mais desconcertante delas.

No que se refere à mecânica, o ordenamento clássico do mundo foi completado pelo

físico e matemático inglês Isaac Newton (1642-1727), ao estabelecer que o movimento de

sistemas de corpos materiais – planetas ou partículas – obedece a leis ou a equações de

movimento determinísticas, ou seja, que permitem conhecer situações tanto passadas quanto

futuras a partir de informação suficiente sobre a natureza do sistema e sobre sua situação em

um dado instante de tempo. Especificamente, conhecidas as massas e as forças que agem

sobre cada um dos corpos – o que define a natureza do sistema –, bem como conhecidas, em

um determinado instante, suas posições e velocidades – o que define a situação ou o chamado

estado do sistema naquele instante –, é possível, em princípio, determinar suas posições e

7

velocidades, ou seja, seu estado em qualquer outro instante de tempo passado ou futuro, isto

é, tanto as trajetórias que os corpos percorrem quanto à forma pela qual eles as percorrem.

Figura 11

A imagem acima, mostra uma discussão, hipotética, entre Newton, Planck e Kelvin,

que ilustra o momento de emergência da antiga teoria quântica, ainda buscando equilíbrio

entro o clássico e a nova teoria que surgia em 1900. A mecânica quântica, como é hoje

entendida, emergiu apenas um quarto de século depois da proposta ousada de Planck, com os

trabalhos do alemão Werner Heisenberg (1901-1976) e do austríaco Erwin Schrödinger

1 Extraída do texto de apoio ao professor de física V.17 n.5 2006 - Inserção de mecânica quântica no ensino médio: uma proposta para professores , Ricci e Weber

8

(1887-1961), após um período de maturação conhecido como a época da “velha teoria

quântica”, uma seqüência clarividente e quase heróica de colagens em que idéias inovadoras

eram usadas lado a lado com elementos habilmente pinçados da física tradicional. Os

protagonistas centrais nesse período foram novamente Einstein, bem como o dinamarquês

Niels Bohr (1885-1962) e o francês Louis de Broglie (1892-1987).

Na forma em que emergiu dos trabalhos de Heisenberg e de Schrödinger, a mecânica

quântica compartilha diversas características gerais da mecânica clássica. Notadamente, ela

também descreve em termos de leis ou equações de movimento determinísticas a evolução ao

longo do tempo do estado do sistema que esteja sendo considerado.

A grande ruptura com as idéias clássicas ocorre em relação àquilo que de fato constitui

o estado do sistema. E essa ruptura se dá basicamente por dois motivos:

i) A dinâmica clássica levava a resultados em contradição com o comportamento

observado em sistemas atômicos;

ii) A incapacidade de a velha teoria quântica oferecer uma descrição coerente dos

resultados experimentais.

A mudança de visão está longe de parecer natural ou intuitiva: enquanto, no caso da

mecânica clássica, o estado é expresso em termos de quantidades que têm um conteúdo

empírico imediato, como posições e velocidades, no caso da mecânica quântica, o estado do

sistema é dado de forma muito mais abstrata, a ponto de ter que ser complementado por um

conjunto de regras específicas de interpretação cujo propósito é o de estabelecer o contato

indispensável entre as propriedades do estado quântico abstrato e aquilo que é efetivamente

observado.

3 - O nascimento da mecânica quântica

A mecânica quântica nasceu com o papel de descrever os processos de interação entre

a radiação e a matéria. Logo em seguida ganhou outro mais importante: explicar, dentro do

pensamento atomista, as relações físicas mais básicas dos componentes mais elementares

constituintes do universo. Seja em um, seja em outro, ela ocupou o lugar da física clássica

justamente onde esta se encontrava mais tímida: o domínio microscópico.

9

A tensão que a originara, se levamos em conta o desenvolvimento dos estudos da

radiação e das técnicas espectroscópicas, já durava mais de meio século quando, pela primeira

vez, aquele grande e fragmentado esforço, foi visto como um único corpo teórico. Cada um

destes fragmentos, Raios de Röntgen, Radiação de Corpo Negro, Espectros Atômicos, etc.,

exigiam em si interpretações cada vez mais difíceis de encontrar consistência dentro do

campo tradicional, a física clássica, e, num certo sentido sua síntese sob o nome mecânica

quântica foi exatamente a afirmação da não interpretação, algo como: sabemos para que

serve, não sabemos o que é. Formalmente podemos falar de mecânica quântica a partir da

segunda metade da década de 20, com os trabalhos independentes e totalmente equivalentes

de Heinsenberg e Schrödinger.

Obviamente, tanto para os fragmentos quanto para a síntese, foram tentadas

conceitualizações dentro do espectro da física clássica: numas os elétrons eram partículas,

noutras eram ondas; numas a função de onda seria um campo real, tal como o

eletromagnético, espalhado pelo espaço, noutras, um fluido obedecendo às leis da

hidrodinâmica. Vale notar, entretanto, que estas interpretações semiclássicas, não foram

apenas um trabalho primário daqueles que não percebiam o caráter revolucionário da teoria,

mas foram tentativas, às vezes bastante sofisticadas, que duraram várias décadas, e muito

contribuíram para a polêmica em torno da interpretação da mecânica quântica.

No mundo macroscópico o estudo dos movimentos, tão bem explicado pela mecânica,

é considerado como finalista do ponto de vista científico, no entanto essa visão determinista

quando levada ao estudo do mundo das partículas, o microcosmos, promove o aparecimento

de lacunas conceituais nos movimentos do micromundo. É então a mecânica quântica que vai

revelar aspectos importantes desta visão ampliada da Física.

No início do século passado prevalecia entre os homens de ciência a opinião de que a

mecânica newtoniana continha os elementos necessários a explicação dos fenômenos físicos.

A teoria ondulatória da luz foi à primeira teoria física que se desenvolveu apoiando-se em

uma concepção radicalmente diferente da concepção newtoniana. A propagação da luz é

assimilada a propagação de ondas. O fenômeno luminoso em um ponto caracteriza-se por

uma função periódica do tempo denominada “variável luminosa”.

A intensidade da luz no ponto considerado é por definição o quadrado da amplitude da

vibração luminosa. A variável luminosa deve também satisfazer a equação de propagação das

10

ondas e a determinadas condições limites. Quando a luz se propaga em um meio cujo índice

de refração é constante, as superfícies de igual fase, em um dado instante, são planos paralelos

cujas normais constituem os “raios” percorridos pela perturbação luminosa. No caso de um

meio refringente cujo índice é uma função de ponto lentamente variável as superfícies de

igual fase adquirem curvatura e os raios deixam de ser retilíneos.

4. Uma nova forma de ver o mundo

A Física Quântica desperta, em muitas pessoas, interesses variados. Nascida com o

século XX, bastaram algumas décadas para que influenciasse, decisivamente, a vida de todos

nós, pois deu sustentação teórica à estonteante revolução tecnológica, ocorrida,

principalmente, a partir dos anos cinqüenta. Concomitantemente, exigiu dos físicos profundas

alterações em sua maneira de descrever os fenômenos naturais, em sua forma de compreender

e explicar a natureza.

Na verdade, não houve consenso. Ficaram famosas as discussões entre Einstein e Niels

Bohr, centradas, principalmente, na questão do caráter probabilístico da nova teoria em

oposição ao determinismo da Física Clássica e na interpretação de alguns aspectos do

formalismo matemático utilizado. E as discussões perduram, apesar da sofisticação dos novos

experimentos que o próprio desenvolvimento tecnológico viabiliza, realizados com o fim

específico de tentar elucidar as questões pendentes. Dualidade onda-partícula, princípio da

incerteza, o gato de Schrödinger, o colapso da função de onda, a ação da consciência do

observador sobre o estado do sistema. Expressões como essas respingam no leigo em Física,

que fica entre curioso e perplexo, às vezes, esperançoso, no mais das vezes, indiferente. Mas

afinal, o que é mesmo a Física Quântica? Em uma tentativa de interpretar os novos

paradigmas nascidos com a Física Quântica, Niels Bohr formulou o seu Princípio da

complementaridade., segundo o qual os sistemas quânticos podem se apresentar sob dois

aspectos aparentemente incompatíveis e mutuamente exclusivos.

É nesse contexto de novas descobertas que o século passado se revelou um descritor

da natureza de forma descontínua, fragmentada e estatística, com uma visão do mundo

microscópico por intermédio da entusiasmada descoberta do universo das partículas que

medeiam interações, formam matéria e antimatéria. Foi nessa empolgante construção

cientifica, a física quântica, que chegou para a humanidade uma nova revolução tecnológica,

11

de aplicações pouco inimagináveis, onde potencializou a capacidade humana de manipular o

microcosmo e de perceber o mundo e a natureza, como algo em construção e que necessidade

de novas possibilidades de descoberta em benefício do homem.

5. Óptica Ondulatória

A figura abaixo apresenta um espectro eletromagnético. Podemos notar que a luz

visível ocupa um espaço pequeno em relação ao todo e que o comprimento da onda vai

ficando maior quando se vai dos raios gama até as ondas de rádio.

Figura 22

As figuras abaixo mostra as faixas de freqüências, e os comprimentos de onda

relacionando-os com perspectivas dimensionais, o que leva a uma compreensão visual entre

entes físicos como a onda luminosa, a capacidade visual, a temperatura e as aplicações

tecnológicas da ondas eletromagnéticas.

2 Figura extraída de http://commons.wikimedia.org/wiki/Image:Electromagnetic_spectrum-es.svg

12

Figura 33

Figura 44

3 Figura extraída de www.ufpa.br/.../classificacao%20de%20metodos.htm - Espectro eletromagnético e a relações com o comprimento de

onda e, freqüência e temperatura de emissão

4 Figura extraída de www.sobiologia.com.br/.../Ondas4.php - Espectro eletromagnético e implicações tecnológicas

13

A óptica geométrica, não consegue explicar muitos fenômenos que acontecem com a luz.

Certos fenômenos conseguem ser explicados através do modelo ondulatório da luz, como por

exemplo a refração, difração e interferência da luz.

Uma onda apresenta características como: comprimento de onda (λ), amplitude (A) e

freqüência (f).

Figura 55

Figura 66

5 Figura extraída de www.astro.iag.usp.br/.../aga215/aula05/cap5a.htm

6 Figura extraída de www.ufpa.br/ccen/quimica/classi56.jpg

14

6. Difração da Luz.

A luz quando atravessa um orifício que apresenta a grandeza da ordem de seu

comprimento de onda, sofre uma difração. A óptica geométrica, não consegue dar uma

explicação para tal fenômeno, ao passo que a óptica ondulatória (luz como onda), explica esse

fenômeno facilmente. A difração ocorre quando as ondas encontram um pequeno obstáculo

ou um pequeno orifício e, elas tendem a contorná-los. A figura abaixo, nos mostra um

fenômeno de difração de uma onda.

Figura 77

Observando a figura 7, podemos notar que a onda que vinha se propagando paralelamente

antes da abertura da fenda, sofre uma difração e começa a contornar o anteparo com o orifício

após passar por ele. Esse fenômeno, a óptica geométrica, não conseguia explicar e é explicado

pelo comportamento ondulatório da luz.

Para realizar a demonstração da difração, se utiliza uma cuba de ondas e se provoca

uma oscilação constante na superfície da água e nesse caso a abertura, como se vê na figura 6

é grande, pois terá de ter as dimensões do comprimento de onda gerado. No caso da luz, como

o seu comprimento de onda é muito pequeno, temos que usar fendas ou aberturas pequenas,

na ordem de 10-6

m

7 Figura extraída de HTTP://educar.sc.usp.br/.../2003/of/Difracao.html

15

Figura 88

A difração é explicada pelo Princípio de Huygens: quando os pontos de uma abertura

ou de um obstáculo são atingidos pela frente de onda eles tornam-se fontes de ondas

secundárias que mudam a direção de propagação da onda principal, contornando o obstáculo.

O fenômeno da difração somente é nítido quando as dimensões da abertura ou do obstáculo

forem da ordem de grandeza do comprimento de onda da onda incidente. A difração ocorre

com qualquer tipo de onda. Nas ondas sonoras, por exemplo, permite que escutemos a voz de

uma pessoa que nos chama, mesmo que esta pessoa esteja atrás de um obstáculo. Com a luz

também ocorre a difração, porém é mais difícil percebermos a difração de ondas luminosas,

porque os obstáculos e aberturas em que a luz incide são normalmente bastante grandes em

relação ao seu comprimento de onda. Entretanto, se fizermos a luz passar por orifícios cada

vez menores, observaremos que a luz sofrerá difração ao passar por esse orifício.

7. Interferência.

A interferência é um fenômeno tipicamente ondulatório. Em 1801, Young demonstrou

a interferência da luz e foi quem possibilitou o estabelecimento da teoria ondulatória da luz.

8 Figura extraída de www.fisica.ufs.br/.../Interferencia.htm

16

Figura 99

Para demonstrar a interferência da luz, Young construiu um experimento com uma

fonte de luz, sendo colocada antes de um anteparo com um orifício, que difratava a luz e

formava uma onda coerente. Uma onda coerente apresenta as mesmas características ao longo

do processo. Esse feixe de ondas, difratadas na primeira fenda, incidiam no segundo anteparo

com duas fendas estreitas e o que se via na tela eram franjas de interferência, pois as ondas de

luz que atravessam o anteparo se interferiam, ora construtivamente ora destrutivamente. Uma

interferência construtiva acontece quando as ondas chegam com a mesma fase e uma

interferência destrutiva acontece quando as ondas chegam defasadas de 180º. Um applet para

demonstrar a interferência da luz se encontra no seguinte endereço:

http://geocities.yahoo.com.br/saladefisica3/laboratorio/interferencia/interferencia.htm.

8. Experimentos de Dupla Fenda

Vamos começar nossa viagem pelo mundo quântico recordando os experimentos de

dupla fenda.

Estes experimentos estão entre os exemplos mais nítidos e simples de visualização de

fenômenos quânticos. O experimento utiliza, em geral, uma fonte, um anteparo com duas

fendas e um segundo anteparo para efeitos de registro.

9 Figura extraída de www.scielo.br/scielo.php?pid=S1516-7313200800.

17

Quando o experimento é realizado com uma fonte que emite ondas eletromagnéticas

(luz, por exemplo), obtém-se um padrão de interferência típico da Física Ondulatória, com

franjas de interferência, como observado na figura 1. As manchas escuras no anteparo se

referem às regiões em que ocorre interferência construtiva e as manchas claras às regiões de

interferência destrutiva. (Como ilustração veja, por exemplo, applet sobre o experimento de

dupla fenda com ondas em "Física 2000": http://www.maloka.org/f2000)

Figura 1010

Se o experimento é realizado com uma fonte que emite partículas macroscópicas

(como projéteis atirados por uma metralhadora, por exemplo), observa-se um padrão que

difere do das ondas. Aparecem duas franjas bem destacadas no segundo anteparo, conforme

observado na figura 2. As manchas escuras se referem às regiões atingidas pelos projéteis e

as áreas claras correspondem às regiões não atingidas.

10 Figura extraída de http://grad.physics.sunysb.edu/Namarch/ - Padrão de interferência obtido no experimento de dupla fenda com ondas

- Universidade de Stony Brook, acessado em 29/08/2007.

18

Figura 1111

Os experimentos acima mencionados foram realizados com entidades tipicamente

clássicas. Mas o que acontece quando se utiliza uma fonte de partículas microscópicas, como

os elétrons, por exemplo, no experimento? Intuitivamente, poder-se-ia crer que se obteria um

padrão como o da figura 2, pois, como as balas da metralhadora, os elétrons são porções de

matéria. Mas os elétrons são entidades muito peculiares: são objetos quânticos e, assim, não

devemos confiar em nossa "intuição" construída a partir de resultados clássicos, na predição

de resultados. A figura 3 mostra o padrão de contagens obtido neste caso. Vê-se que este

padrão de contagens é muito parecido com o padrão de interferência das ondas. Mas se os

elétrons são partículas, como isso é possível? Estará ocorrendo interferência de uns com

outros?

11 Figura extraída de http://www.maloka.org/f2000 - Experimento de dupla fenda com partículas macroscópicas

19

Figura 1212

Para entender este fenômeno que a física Clássica não explica, foi necessário lançar

mão da Mecânica Quântica. A explicação do experimento nos remete a alguns conceitos (e

termos) não usados para partículas clássicas, tais como amplitude de probabilidade e função

de onda.

O padrão da figura 3 é, em geral, obtido com uma fonte de alta intensidade que emite

muitas partículas de uma só vez. (Vide applet sobre o experimento com elétrons em "física

2000".). Contudo, imagine que a fonte está emitindo um único elétron a cada vez, ou seja,

cada elétron só é emitido após o registro da contagem do elétron anterior no anteparo. Que

padrão de contagens aparece, após um tempo muito longo? O da figura 2 ou o da figura 3?

Por mais estranho que possa parecer, a resposta é: o da figura 3. Vê-se, neste caso, que o

fenômeno quântico desafia novamente nossa expectativa levando-nos a perguntar: como é

possível gerar padrão de interferência sem ocorrer interação entre os elétrons?

Figura 1313

12 Figura extraída de http://www.maloka.org/f2000 - Experimento de dupla fenda com partículas quânticas

13 Figura 4 extraída de http://www.blacklightpower.com/theory/DoubleSlit.shtml. acessado em 18/06/2008.

20

Figura 1414

Para responder a estas (e outras) perguntas via Mecânica Quântica, devemos conhecer

os princípios fundamentais da nova teoria.

Pense: Por que ocorre, no experimento de dupla fenda com objetos microscópicos, a

visualização de padrões de interferência?

9. Lei de Bragg15

A Lei de Bragg refere-se a equação:

nl = 2d sinq (1)

que foi derivada pelos físicos ingleses Sir W.H. Bragg e seu filho Sir W.L. Bragg, em 1913,

para explicar porque as faces clivadas de cristais refletem feixes de raios-X a certos ângulos

de incidência (q). A variável d é a distância entre camadas atômicas em um cristal, e a

variável lambda l é o comprimento de onda do feixe de raios-X incidente; n é um inteiro.

Esta observação é um exemplo de interferência de ondas de raios-X, conhecido como

difração de raios-X (XRD), e é uma evidência direta da estrutura periódica de cristais, que

14 Figura extraída de http://www.blacklightpower.com/theory/DoubleSlit.shtml. acessado em 18/06/2008.

15 Texto traduzido por Rejane M. Ribeiro Teixeira a partir de um texto escrito por Paul J. Schields Center for High Pressure Research

Department of Earth & Space Sciences State University of New York at Stony Brook Stony Brook, NY 11794-2100.

21

fora postulada por vários séculos. Os Bragg receberam o Prêmio Nobel de Física em 1915 por

seu trabalho na determinação das estruturas cristalinas do NaCl, do ZnS e do diamante.

Embora a Lei de Bragg foi usada para explicar o padrão de interferência de raios-X

espalhados por cristais, o fenômeno de difração tem sido desenvolvido para estudar a

estrutura de todos os estados da matéria com diversos feixes, por exemplo, íons, elétrons,

nêutrons e prótons, com um comprimento de onda da mesma ordem de grandeza da distância

entre as estruturas atômicas ou moleculares de interesse.

A lei de Bragg pode facilmente ser derivada considerando as condições necessárias

para fazer as fases dos feixes coincidirem, quando o ângulo de incidência iguala o ângulo de

reflexão. Os raios do feixe incidente estão sempre em fase e paralelos até o ponto no qual o

feixe superior "bate" na camada no átomo z (Fig. 1). O segundo feixe continua até a seguinte

camada layer onde ele é espalhado pelo átomo B. O segundo feixe deve viajar a distância

extra AB + BC se os dois feixes devem continuar viajando adjacentes e paralelos. Esta

distância extra deve ser um múltiplo inteiro (n) do comprimento de onda (l)para que as fases

dos dois feixes sejam as mesmas:

nl = AB +BC (2).

22

Figura 1516

Reconhecendo-se d como a hipotenusa do triângulo retângulo Abz, nós podemos usar

trigonometria para relacionar d e q à distância (AB + BC). A distância AB é oposta q assim,

AB = d sinq (3).

Como AB = BC, equação (2) torna-se,

nl = 2AB (4)

Substituindo-se equação (3) na equação (4) temos,

nl = 2 d sinq, (1)

e a Lei de Bragg tem sido derivada. A localização da superfície não altera a derivação da Lei

de Bragg.

10. Comportamento Corpuscular da Luz

Desde que Hertz produziu e detectou as primeiras ondas eletromagnéticas geradas pelo

homem, nosso mundo passou a ser povoado por ondas ou radiações eletromagnéticas de toda

espécie, ou seja de todas as freqüências e a luz visível, como podemos ver na figura 2, ocupa

uma faixa muito pequena. Em 1801 com demonstração de Young do comportamento

ondulatório da luz, não se deve mais dúvida de que a luz era uma onda. Só que certos

experimentos realizados na mesma época, não tinham resposta segundo a teoria ondulatória

da luz e que a luz deveria apresentar outro comportamento em certas circunstâncias.

Os fenômenos, da difração e da interferência, eram facilmente explicados pela teoria

ondulatória, mas o efeito fotoelétrico e o efeito Compton não tinham explicação baseados só

na teoria ondulatória. Hoje sabemos, que esses dois efeitos, fotoelétrico e Compton,

16

Figura extraída de Paul J. Schields Center for High Pressure Research Department of Earth & Space Sciences State University of New

York at Stony Brook Stony Brook, NY 11794-2100. - Derivação da Lei de Bragg usando a geometria da reflexão e aplicando-se

trigonometria. O feixe inferior deve viajar a distância extra (AB + BC) para continuar viajando paralelo e adjacente ao feixe superior.

23

comprovam a existência corpuscular da luz, ou seja , a proposta de Einstein de que a luz é

formada por pacotes de luz ou quanta de luz, que denominamos de fótons.

Antes de começar a explicar, os efeitos, fotoelétrico e Compton da luz, vamos fazer

uma pequena introdução à física moderna. Na física clássica, as coisas são bem determinadas

e não existe dúvida quanto ao estado de um objeto ou quanto as suas dimensões deste objeto.

Quando se fala em física moderna, não temos mais certeza do comportamento de um objeto

que quando se fala classicamente é bem definido. Na física moderna, a luz, pode ser onda e

corpúsculo ao mesmo tempo e isso levou tempo para ser aceito no meio científico e gerou

muita discussão. Segundo Einstein, que adotou a idéia de Planck sobre a quantização da

energia, a energia (E) é proporcional à freqüência (f) da radiação:

E = h.f , sendo h uma constante universal conhecida como constante de Planck e cujo

valor é : h = 6,626 x 10-34

J.s.

Como o h é uma constante, logo para obter uma energia maior, se terá que ter uma

freqüência maior.

11. Efeito Fotoelétrico.

O efeito fotoelétrico foi descoberto por Herzt, em 1887, e estudado por Lenard em

1900.

“Por volta de 1887, Heinrich Hertz, descobriu que a faísca elétrica entre dois

condutores surgia facilmente, quando um deles era exposto à radiação ultravioleta ou à luz da

faixa próxima ao violeta. A análise posterior desse fenômeno mostrou que a energia das ondas

eletromagnéticas, era absorvida pelos elétrons do metal e que essa energia fazia com que

alguns elétrons fossem expelidos dele. Os elétrons expelidos apressavam a ionização do ar, o

que facilitava o surgimento da faísca. Esse efeito ficou conhecido como efeito fotoelétrico,

pois era a incidência de luz que fazia os elétrons saírem do metal.

Einstein percebeu que esse efeito poderia, ser explicado se a hipótese de Planck, dos

quanta de luz, feita para as moléculas, fosse estendida também à própria onda

eletromagnética.

24

Assim, a quantização da energia, que fora lançada por Planck como um recurso teórico

para explicar a irradiação térmica, ganhou um significado muito mais geral. Hoje, considera-

se que toda energia é quantizada, isto é, existe na forma de pacotes, ao contrário do que

supunha a Física clássica, segundo a qual a energia poderia apresentar variação contínua.”17

A figura abaixo, nos dá uma idéia de como podemos verificar o efeito fotoelétrico na

prática. Faz-se incidir luz sobre a superfície metálica do catodo e dependendo da freqüência

desta luz se obtém uma corrente no circuito que é metida pelo amperímetro que tenha uma

sensibilidade grande para pequenas correntes elétricas.

Figura 1618

O esquema da figura 16 apresenta um dispositivo experimental com placas de

diferentes metais polidos e, colocados no interior de uma ampola de vácuo. A luz incide numa

da placas liberando elétrons que são atraídos pela placa em frente, ligada ao terminal positivo

da bateria. O movimento de elétrons é detectado pela passagem de uma corrente elétrica

registrada pelo amperímetro.

Enquanto Planck considerava a quantização da energia, na sua teoria da radiação do

corpo negro, como um artifício de cálculo, Einstein enunciou a audaciosa hipótese da

quantização da energia ser uma propriedade fundamental da energia eletromagnética. Três

anos mais tarde, aplicou a idéia da quantização da energia às energias moleculares para

resolver outro enigma da física- a discrepância entre os calores específicos, calculados pelo

17 Extraído de: http://br.geocities.com/saladefisica

18 Figura extraída de http://fisicanet.terra.com.br, – Efeito fotoelétrico extraída da página do prof. Alberto Ricardo Präss.

25

teorema da equipartição da energia, e os calores observados experimentalmente em

temperaturas baixas.

Depois, as idéias da quantização da energia foram aplicadas às energias atômicas, por

Niels Bohr, na primeira tentativa de explicar os espectros atômicos. A hipótese de Einstein

sugere que a luz, ao atravessar o espaço, não se comporta como uma onda, mas sim com uma

partícula.

O efeito fotoelétrico foi descoberto por Hertz, em 1887, e estudado por Lenard em

1900. A Fig.16 mostra o diagrama esquemático do aparelho básico para a realização do

experimento de investigação do efeito fotoelétrico. Quando a luz incide sobre a superfície

metálica limpa, no catodo C, provoca a emissão de elétrons pela superfície. Se alguns destes

elétrons atingirem o anodo A, haverá uma corrente no circuito externo. O número de elétrons

emitidos que atingem o anodo, pode ser aumentado ou diminuído fazendo-se o anodo mais

positivo, ou mais negativo, em relação ao catodo. Seja V a diferença de potencial entre o

catodo e o anodo. A Fig. 17 mostra a corrente em função da ddp (V) para dois valores

diferentes da intensidade da luz incidente aplicada sobre o catodo. Quando V for positivo,

todos os elétrons emitidos atingem o anodo e a corrente tem o seu valor máximo. Observa-se,

experimentalmente, que um aumento extra de V não afeta a corrente. Lenard observou que a

corrente máxima era proporcional à intensidade da luz. Quando V for negativo, os elétrons

são repelidos pelo anodo. Somente os elétrons que tenham as energias cinéticas iniciais mv2/2

maiores que |eV| podem atingir o anodo. Pela Fig. 11 podemos ver que se V for menor que –

Vo, nenhum elétron consegue chegar ao anodo. O potencial Vo é o potencial frenador o qual

está relacionado com a energia cinética máxima dos elétrons emitidos pela superfície pela

relação:

2

max 0

1( . )

2m v eV=

26

Figura 1719

Na visão clássica, o aumento da taxa da energia luminosa incidente sobre a superfície

do catodo deveria aumentar a energia absorvida pelos elétrons e deveria, por isso, aumentar a

energia cinética máxima dos elétrons emitidos.

Aparentemente, não era o que acontecia. Em 1905, Einstein demonstrou que este

resultado experimental poderia ser explicado se a energia luminosa não fosse distribuída

continuamente no espaço, mas fosse quantizada , como pequenos pulsos, cada qual

denominado um fóton. A energia de cada fóton é h , onde f é a freqüência e h a constante de

Planck.

Um elétron ejetado de uma superfície metálica exposta à luz, recebe a energia

necessária de um único fóton. Quando a intensidade da luz, de uma certa freqüência, for

aumentada, maior será o número de fótons que atingirão a superfície por unidade de tempo,

porém a energia absorvida por um elétron ficará imutável. Se f for a energia necessária para

remover um elétron de uma superfície metálica, a energia cinética máxima dos elétrons

emitidos pela superfície será

Esta equação é conhecida como a equação do efeito elétrico. A grandeza f é a função

trabalho, característica do metal. Alguns elétrons terão energias cinéticas menores que h -f

em virtude da perda de energia que sofrem ao atravessar o metal. A partir da equação do

efeito fotoelétrico, podemos ver que o coeficiente angular da reta d á Vo contra deve ser igual

a h/e. Em resumo podemos ressaltar três pontos importantes da hipótese de Einstein:

a) A energia cinética de cada elétron não depende da intensidade da luz. Isto

significa que dobrando a intensidade da luz teremos mais elétrons ejetados,

mas as velocidades não serão modificadas.

19 Figura extraída de vsites.unb.br/.../QG/aula-1/aula-1.htm

27

b) Quando a energia cinética de um elétron for igual a zero significa que o elétron

adquiriu energia suficiente apenas para ser arrancado do metal.

c) A ausência de um lapso de tempo entre a incidência da radiação e a ejeção do

fotoelétron.

A verificação experimental da teor ia de Einstein era bastante difícil. Experiências

cuidadosas de Millikan, publicadas pela primeira vez em 1914, e depois com maior detalhe

em 1916, mostraram que a equação de Einstein estava correta e que as medidas de h

concordavam com o valor encontrado por Planck.

Os fótons com as freqüências menores que o limiar fotoelétrico, e portanto com

comprimentos de onda maiores que o limiar fotoelétrico em comprimento de onda, não tem

energia suficiente para arrancar um elétron de uma certa superfície.

Figura 1820

12.Efeito Compton

A figura abaixo, nos mostra quando um fóton atinge um elétron em repouso. O fóton

incidente tem um comprimento de onda λλλλi e atinge o elétron em repouso. Ao atingir o elétron,

transfere sua energia para ele, sendo que o elétron sofre um deslocamento segundo um ângulo

φφφφ e o comprimento de onda associado ao fóton, sofre um deslocamento num ângulo θθθθ

passando para λλλλf.

20 Figura extraída de http://geocities.yahoo.com.br/saladefisica3/laboratorio/fotoeletrico/fotoeletrico.htm – Applet para o efeito

28

Figura 1921

Ao se realizar a experiência acima, se verificou que o comprimento de onda do fóton

incidente λλλλi era menor que o λλλλf . O experimento realizado por Arthur H. Compton, nos

proporciona outra evidência, de que o conceito de fóton para o luz é verdadeira. “De acordo

com a teoria clássica, quando uma onda eletromagnética de freqüência f1 incide sobre um

material que contém cargas elétricas, as cargas oscilam com esta freqüência e reirradiarão

ondas eletromagnéticas de mesma freqüência. Compton apontou que se esta interação fosse

descrita como um processo de espalhamento, que envolvesse a colisão entre um fóton e um

elétron, o elétron recuaria e absorveria parte da energia. O fóton espalhado teria então menos

energia e, e portanto, freqüência mais baixa que a do fóton incidente.”

21 Figura extraída de Extraído de:hyperphysics.phy-astr.gsu.edu/imgqua/compton.gif - Figura 13 – Efeito Compton Scattering =

Espalhamento

29

Figura 2022

13. A Quantização e a Constante de Planck

A origem da quantização da energia está intimamente ligada ao fenômeno da radiação

de corpo negro. Kirchoff foi quem introduziu a idéia de corpo negro e estabeleceu a

universalidade do espectro de radiação. De acordo com Kirchoff, a densidade espectral de

energia de um corpo negro é independente das características particulares do objeto de estudo,

dependendo apenas da frequência da radiação e da temperatura. Leis universais são aquelas

que independem das propriedades particulares do objeto de estudo.

Em geral elas conduzem a constantes universais. Exemplos:

1) Lei das quedas dos corpos de Galileu.

2) Lei da gravitação universal de Newton.

3) Princípio de Carnot.

4) Leis de Maxwell do eletromagnetismo.

5) Invariância da velocidade da luz em referenciais inerciais.

6) Equipartição da energia em sistemas a altas temperaturas.

22 Figura extraída de http://vsites.unb.br/iq/kleber/CursosVirtuais/QG

30

Planck se interessou pelo estuda da radiação de corpo negro devido ao caráter

universal do fenômeno, pois considerava a busca das leis universais como a mais elevada

meta da atividade científica.

Espectro do carvão incandescente

Figura 2123

Espectro do corpo negro

Figura 2224

23 Figura extraída de pt.wikipedia.org/wiki/Lei_de_Planck_da_Radiação

24 Figura extraída de pt.wikipedia.org/wiki/Lei_de_Planck_da_Radiação

31

Em dezembro de 1900, Max Planck ofereceu ao mundo uma solução para a catástrofe

do ultravioleta. Era o nascimento oficial da Física Quântica. A solução, no entanto, era ainda

mais embaraçosa do que a dificuldade que viera superar. A solução proposta por Planck

consistia em estabelecer uma séria limitação ao movimento dos osciladores elementares.

Segundo ele, um oscilador não poderia vibrar com qualquer energia, mas apenas com algumas

poucas energias permitidas, cujos valores seriam múltiplos inteiros de um valor mínimo

fundamental, denominado o quantum de energia do oscilador.

Este mínimo fundamental seria determinado pela freqüência natural de oscilação do

oscilador. Em linguagem matemática, se a letra f representa a freqüência do oscilador (ou

seja, o número de oscilações que realiza por segundo), o quantum de energia valerá h.f (ou

simplesmente hf), onde h é um número, uma constante universal, denominada .constante de

Planck..

Tomando-se a letra n para representar um número inteiro qualquer, a proposta de

Planck estabelece que os osciladores elementares só podem vibrar com energias tais que:

.E h f=

Por fim, infere-se que um oscilador elementar cuja freqüência natural de oscilação seja

f somente poderá oscilar com energias zero, 1hf, 2hf, 3hf e assim por diante. Então, Planck

.postulou.que a energia dos osciladores é uma variável .discreta, logo em conformidade com a

teoria matemática, a palavra .discreta. é um antônimo para .contínua.. Ou, como passou a

dizer-se, então, a energia dos osciladores é uma grandeza .quantizada.

Refazendo os cálculos, agora submetendo os osciladores elementares a esta restrição,

Planck deduziu, com base em princípios teóricos, a mesma fórmula empírica extraída dos

dados experimentais.

Levando adiante a discussão tomando o valor da constante de Planck h, valor por ele

obtido mediante o simples ajuste numérico entre o seu cálculo teórico e os dados

experimentais. A constante de Planck vale:

h = 6,63.10-34

J s

Na constante de Planck, aparece o fator 10-34

.s, seria o mesmo que dizer que a

constante de Planck refere-se a fenômenos cuja duração é da ordem de 10-17

segundos e

envolvem energias da ordem de 10-17

joules. Ou seja, refere-se a fenômenos de duração

dezessete ordens de grandeza menor do que um segundo, envolvendo energias dezessete

32

ordens de grandeza menor do que a energia gasta por alguém para apanhar um objeto de cem

gramas do solo e depositá-lo sobre uma mesa. Logo, mesmo sendo verdadeira a hipótese de

Planck sobre a quantização dos osciladores físicos, ela não deve afetar significativamente os

sistemas macroscópicos, cujas dimensões são aquelas a que estamos habituados.

A descrição quântica é adequada tanto ao mundo macroscópico quanto ao mundo

microscópico. Mas, no que diz respeito ao comportamento dinâmico dos sistemas com os

quais interagimos no dia-a-dia, podemos dispensá-la, uma vez que os detalhes que fornece

não são de interesse prático. Aliás, a Física Clássica aplica-se aí satisfatoriamente, inclusive

com algumas vantagens, uma das quais é a simplicidade. O contrário, no entanto, não é

verdadeiro: a descrição clássica não corresponde ao comportamento do mundo microscópico.

Assim, a Física Quântica, por abranger a Física Clássica e ir além dela, é considerada

mais adequada, mais completa. Mas devemos reconhecer que a aceitação da hipótese de

Planck implica uma mudança fundamental em nossa concepção acerca da natureza dos

sistemas físicos. A situação é análoga à ocorrida, quando da aceitação das hipóteses sobre a

constituição atômica da matéria.

Três aspectos da fórmula de Planck devem ser considerados:

1) A abordagem termodinâmica,

2) A dedução estatística,

3) A interpretação quantizada.

Tanto em (1) quanto em (2), o foco de Planck é a entropia contida na radiação. Em (1), utiliza

a relação

dU = TdS

entre a energia U e a entropia S introduzida por Clausius. Em (2), utiliza a relação devida a

Boltzmann

S = k lnW

entre a entropia e o número de estados acessíveis W. Essa última fórmula corresponde à

interpretação estatística da entropia.

33

14. A Ótica Ondulatória Como Formulação da Mecânica Quântica25

O papel destacado da Ótica Ondulatória na concepção da unidade conceitual, como

pano de fundo clássico para a abordagem da Mecânica Quântica, está baseado na própria

formulação histórica da Mecânica Ondulatória por Schrödinger em 1925-26, como

sintetizado no quadro abaixo.

Figura 2426

O quadro sintetiza o que Erwin Schrödinger (1887-1961) buscava no final de 1925, e

os elementos que ele dispunha para nortear sua pesquisa a partir do trabalho seminal de Louis

de Broglie (1892-1987): basicamente, uma nova teoria matemática que descrevesse o

comportamento de objetos materiais elementares e que, ao mesmo tempo, incorporasse

analogias com a Ótica Ondulatória. No quadro acima, isto é representado pela seta vertical da

esquerda. Vale observar sempre que, por essa época, não havia qualquer evidência

25 Texto compilado e adaptado de Extraído de Cad. Brás. Ens. Fís., v. 22, n. 1: p. 9-35, abr. 2005 Ostermann, F. e Ricci, T. F.

26 Figura e textos, com adapatações, extraídos de Cad. Brás. Ens. Fís., v. 22, n. 1: p. 9-35, abr. 2005 Ostermann, F. e Ricci, T. F.

34

experimental de que partículas materiais apresentassem comportamento ondulatório (o que só

viria a acontecer dois anos mais tarde).

Schrödinger apenas fora estimulado pelo trabalho teórico de De Broglie, que

especulara sobre um possível caráter ondulatório que partículas elementares materiais, tais

como elétrons, poderiam revelar sob condições adequadas. Tratava-se para ele, portanto, de

um programa teórico que deveria resultar em uma nova dinâmica para os objetos

microscópicos.

De certa forma, havia um paralelo entre o programa que Schrödinger se propunha a

desenvolver e o que Hamilton havia realizado no século XIX referente à Mecânica Clássica.

Isso é ilustrado no quadro de analogias pela seta vertical da direita. William Hamilton (1805-

1865) havia demonstrado, em 1828, que era possível formular a teoria da mecânica de

partículas (objetos clássicos) de maneira que incorporasse uma grande analogia com a Ótica

Geométrica. A trajetória descrita por uma partícula, por exemplo, aparecia na teoria de

Hamilton como sendo sempre perpendicular, em cada ponto, a um conjunto de superfícies de

ação constante. Isso lembra os raios luminosos da Ótica Geométrica (trajetórias da luz) que

são perpendiculares às superfícies de fase constante de Christian Huyghens (1629-1697).

Por outro lado, em 1911, A. Sommerfeld (1868-1951) e J. Runge (1856-1927) haviam

demonstrado detalhadamente que a Ótica Ondulatória, como descrita pelas equações de

Maxwell, reduzia-se à Ótica Geométrica no limite em que o comprimento de onda tende a

zero. Este limite está indicado no quadro de analogias acima pela seta horizontal superior. Ele

significa que a descrição fornecida pela Ótica Geométrica é o limite de uma descrição mais

geral dos fenômenos óticos, dada pela Ótica Ondulatória.

Para Schrödinger, havia um limite análogo para os fenômenos mecânicos, válido para

partículas materiais macroscópicas, no qual a descrição fornecida pela Mecânica Clássica

poderia ser derivada de uma teoria mais geral da Mecânica, ainda desconhecida. Influenciado

pelo trabalho de De Broglie, Schrödinger identificou tal limite no chamado Princípio da

Correspondência, proposto por Niels Bohr (1885-1962) em 1923. Este limite está

representado, no quadro de analogias, pela seta horizontal inferior.

Deve ser notado que a estratégia baseada no quadro de analogias descrito acima

representa um rompimento significativo com a abordagem tradicional, uma vez que esta segue

35

rigorosamente a cronologia histórica da FQ, começando com a velha teoria quântica, para

então, ensinar a nova teoria quântica, geralmente em sua versão ondulatória. Ou seja, na

abordagem tradicional costuma-se explorar modelos diretamente inspirados na Mecânica

Clássica de partículas para depois introduzir um modelo eminentemente ondulatório

(Mecânica Ondulatória). Na concepção da unidade conceitual, preferimos explorar, desde o

início do aprendizado, as analogias naturais entre a Ótica Ondulatória clássica e a Mecânica

Ondulatória de Schrödinger, sem passar pela velha teoria quântica. Assumimos

explicitamente a interpretação de Copenhagen, alertando para a existência de outras

interpretações.

Recentemente, em seqüência a uma variedade de experimentos que se iniciaram na

segunda metade do século passado, realizados com uma ou poucas partículas microscópicas,

um grupo de físicos de Innsbruck, na Áustria, obteve resultados considerados surpreendentes

pela nossa visão clássica de mundo, mas entendidos pela simples consideração dos primeiros

princípios da Mecânica Quântica. Basicamente, pares de fótons idênticos produzidos em

laboratório em um estado batizado de emaranhado, mantiveram idênticas polarizações,

mesmo após serem separados por uma distância de 144 km. Este experimento, como outros

anteriores, evidencia uma propriedade de não-localidade quântica, que foge do que

consideramos "intuitivo", porque não decorre das leis da Física Clássica, que regem o mundo

que vivenciamos habitualmente.

A Mecânica Quântica, então se desenvolveu no primeiro quarto do século passado

para explicar alguns fenômenos macroscópicos e que se revelou como a teoria adequada para

descrever fenômenos microscópicos não relativísticos. Pela falta de familiaridade com os

fenômenos que ela descreve (e que a Física Clássica não consegue predizer ou explicar),

torna-se muito importante analisar os seus primeiros princípios e obter uma boa compreensão

do significado de seus conceitos fundamentais, para que não sejam interpretados e utilizados

erroneamente. Conceitos como o de sistema quântico, estado de um sistema, superposição

linear de estados, observável físico e observáveis compatíveis, serão abordados a após uma

fundamentação da chamada antiga teoria quântica.

36

15. Estados Clássicos e Quânticos27

Tomemos como exemplo um caso bem simples: o de uma única partícula. Segundo a

física clássica, a definição de estado dessa partícula em um determinado tempo t consiste em

dar, em algum sistema de coordenadas, sua posição x e sua velocidade v – ou,

equivalentemente, o seu momento, que é expresso pelo produto da velocidade pela massa da

partícula (p = mv).

Esse estado pode ser representado como um ponto em um plano definido por um par

de eixos representando os diferentes valores possíveis das posições e das velocidades (ou

momentos), como mostra a figura 1a. Assim, conhecendo-se a massa da partícula e as forças

que agem sobre ela, a dinâmica newtoniana permite obter o ponto correspondente ao estado

da partícula em qualquer outro instante, anterior ou posterior a t.

Figura 2528

Em (a), estado clássico de uma partícula com posição x0 e momento p0 bem definidos, ou seja, sem imprecisão na medida dessas duas

variáveis. Em (b), representação do estado clássico de uma partícula em uma situação real, ou seja, no caso em que os valores das

medidas da posição e da velocidade (ou momento) da partícula contenham imprecisões. Em (c), um possível estado quântico bem

definido de uma partícula. Os valores da distribuição em pares de posições diferentes podem não apenas ser negativos – como neste

caso –, mas também, em geral, complexos.

27 Texto compilado e adaptado de Extraído ciência hoje vol. 36 p. 213-214

28 Extraído ciência hoje vol. 36 p. 213-214

37

Essa definição do estado clássico corresponde a uma situação ideal, em que a posição

e a velocidade são conhecidas de forma absolutamente precisa. Em uma situação real, é

inevitável que os valores das medidas – no caso, da posição e da velocidade da partícula –

contenham imprecisões. Uma possível forma de descrever essa situação consiste em

representar o estado imperfeitamente conhecido por uma distribuição sobre o plano das

posições e das velocidades, como na figura 1b. Aqui, o estado é representado em cada

pequena região desse plano por uma altura que é proporcional à probabilidade de que a

posição e a velocidade da partícula estejam de fato nessa região.

Novamente, conhecendo-se a massa da partícula e as forças agindo sobre ela, a

dinâmica newtoniana permite calcular a distribuição que representa o conhecimento do estado

da partícula em qualquer outro instante, passado ou futuro. Em contraste com a descrição

clássica, o estado quântico dessa mesma e única partícula – mesmo quando perfeitamente

conhecido – é dado como uma distribuição de algo que tem caráter de probabilidade, mas que

é dependente não de uma posição e de uma velocidade, mas de duas posições. Em outras

palavras, os valores assumidos pela distribuição que caracteriza o estado quântico da partícula

dependem de duas posições, x e x’, possivelmente diferentes (figura 1c), sem qualquer

referência explícita a velocidades.

Assim, apenas uma das duas variáveis dinâmicas básicas de cada partícula intervém

diretamente – e de forma ‘duplicada’ – na especificação do estado quântico. Como no caso da

mecânica clássica, conhecendo-se a massa da partícula e as forças que agem sobre ela, é

possível, utilizando-se as leis determinísticas da evolução dos estados quânticos, calcular a

distribuição que representa o estado da partícula em qualquer instante passado ou futuro.

Aqui, no entanto, algumas questões inevitavelmente se colocam:

i) de que forma, precisamente, deve ser interpretada essa distribuição?

ii) que se pode dizer com relação às velocidades ou aos momentos?

A primeira dessas perguntas foi parcialmente respondida em 1926 pelo físico teórico

da Universidade de Göttingen (Alemanha), Max Born (1882-1970): os valores, (x, x’),

assumidos pela distribuição quando são iguais, devem ser interpretados como uma

distribuição de probabilidades para a posição da partícula. Isso significa que a especificação

completa do estado quântico de uma partícula não associa a ela, em geral, uma posição bem

definida. Diz-se, então, que as partículas quânticas são, comumente, ‘deslocalizadas’. Essa

38

interpretação deixa em aberto, porém, o papel desempenhado pelo restante da distribuição,

(x, x’), com x e x’ diferentes.

Essa parte da questão tem a ver com o que o estado quântico diz sobre a velocidade e

foi elucidada, em 1927, por Heisenberg, combinando a interpretação de Born com as idéias

expostas, em 1924, por De Broglie sobre as propriedades ondulatórias das partículas quânticas

e que haviam motivado o trabalho de Schrödinger. Segundo De Broglie, a cada valor p do

momento da partícula se associa um comprimento de onda inversamente proporcional a p.

Desse modo, caso fosse possível verter a distribuição , (x, x’), da linguagem das posições para

a linguagem de comprimentos de onda em que ela tomaria a forma de outra distribuição então

seria possível extrair dela uma distribuição de probabilidades para comprimentos de onda – e,

portanto, valores do momento p –, usando a interpretação de Born para a nova distribuição.

A distribuição de probabilidades para a velocidade obtida desse modo depende de toda

a distribuição bidimensional (x, x’). A relação de incerteza de Heisenberg – que afirma a

impossibilidade da definição simultânea da posição e da velocidade (ou momento) de uma

partícula além de um determinado limite, nada mais é, na realidade, que uma propriedade

geral da interdependência das duas distribuições de probabilidade.

Complementado por uma lei determinística de evolução dos estados quânticos, esse

esquema rapidamente se mostrou inteiramente adequado para reproduzir quantitativamente

todas as propriedades observadas dos espectros atômicos, em particular as que se mostravam

recalcitrantes aos procedimentos híbridos da velha teoria quântica, como as intensidades das

diversas linhas espectrais – estas últimas podem ser entendidas como a radiação

eletromagnética emitida por um átomo quando este, depois de absorver energia, volta a algum

outro estado de menor energia, que pode, em particular, ser seu estado normal (fundamental).

Um dos grandes sucessos no uso da mecânica quântica pode ser observado no estudo

das “órbitas” de Bohr – um primeiro modelo sobre como os elétrons se movem em torno do

núcleo atômico – foram simplesmente descartadas, sendo substituídas por estados quânticos

estacionários, isto é, com a propriedade especial de serem independentes do tempo, segundo a

lei determinística de evolução da nova teoria aplicações a outros fenômenos, cuja

compreensão não era possível em termos da física clássica.

39

Ao estado quântico estacionário de Bohr podemos juntar outros sucessos a

interpretativos como:

i) a compreensão do ferromagnetismo, ou seja, a existência de imantação permanente,

como pode ocorrer no ferro;

ii) a compreensão de propriedades dos núcleos dos átomos, vistos como sistemas

formados por um conjunto de prótons e nêutrons ligados entre si por forças muito

mais intensas que as forças eletromagnéticas;

iii) a compreensão da natureza das ligações químicas em termos da estrutura eletrônica

dos átomos – no que se refere a estas últimas, diz-se, muitas vezes, que a mecânica

quântica permitiu, pelo menos em princípio, reduzir a química à física.

O caráter probabilístico da interpretação dos estados quânticos, discutido da nova

teoria quântica de Heisenberg e Schrödinger, foi certamente uma das pontes conceituais para

a ruptura com o determinismo newtoniano. No entanto um dos ratificadores da antiga teoria

quântica, Albert Einstein, resistia em admitir esse caráter fundamental da mecânica quântica.

Segundo Einstein ele estava convencido de que “Deus não joga dados”.

Figura 2629

29

Figura Extraída do texto de apoio ao professor de física V.17 n.5 2006 - Inserção de mecânica quântica no ensino médio: uma proposta

para professores , Ricci e Weber

40

15.1. Superposição Linear de Estados.

A Mecânica Quântica nos diz que se temos dois estados possíveis para um sistema

quântico, uma combinação linear dos dois estados é também um possível estado do sistema.

Essa combinação é a chamada superposição linear de estados.

Mas o que é o estado de um sistema quântico? E o que é um sistema quântico? Antes,

é bom explicitar o que são objetos quânticos. Objeto quântico é a entidade física, em geral

considerada elementar, que obedece às leis da Mecânica Quântica. Como exemplos podemos

citar o elétron, o próton e o nêutron. Um conjunto de tais objetos (e suas interações),

geralmente microscópico, constitui um sistema quântico. Como exemplos podemos

mencionar o núcleo, o átomo e a molécula.

Já o conceito de estado quântico, tido como fundamental na nova Mecânica - e apesar

deste termo possuir diversas concepções idiossincráticas - é, em princípio, basicamente o

mesmo que na Física Clássica, embora apresente características peculiares.

Imaginemos, por exemplo, um elétron que pode estar ligado a um átomo ou estar livre.

Temos aí dois estados diferentes (não só energeticamente) possíveis para o elétron. Isto

implica em que, para conhecer o estado de um sistema quântico, devemos conhecer o valor

das grandezas físicas observáveis associadas a ele. É este também o caso na física clássica.

Contudo, diferentemente da situação clássica, existem, em Mecânica Quântica, observáveis

ditos compatíveis e não compatíveis.

O observável é a grandeza física cujo valor se quer determinar. Quando dois

observáveis são compatíveis, é possível obter informação sobre o valor de um deles sem

alterar a determinação do valor do outro. Essa compatibilidade de observáveis nos leva a dizer

que algumas informações do sistema podem ser obtidas "simultaneamente". Isto não ocorre

quando os observáveis são incompatíveis. Quando dois observáveis são incompatíveis, a

medida do valor de um deles afeta a determinação do valor do outro. Assim, pode-se dizer

que o estado de um sistema quântico é o conjunto das informações sobre valores das

grandezas físicas compatíveis obtidas em um determinado instante de tempo. O estado será

41

completamente conhecido em determinado instante de tempo, se todos os observáveis

compatíveis do sistema forem arrolados e seus valores em um dado instante de tempo forem

determinados.

Como exemplo de observáveis compatíveis tem-se o spin e a posição de uma

partícula; e de observáveis incompatíveis, a posição e o momentum da partícula numa mesma

direção.

Pense: Como descrever o estado de um objeto clássico?

Exercício: Escolha um objeto clássico e caracterize um estado possível do mesmo.

16. Primeiros Postulados da Mecânica Quântica30

Podemos verificar que a superposição de estados resulta em um novo estado quântico,

mas esta verificação não constitui uma prova de tal propriedade. Por isto, na origem dos

postulados da Mecânica Quântica encontra-se a afirmação: Os estados de um sistema quântico

satisfazem o princípio da superposição linear. Tais estados são muitas vezes denominados

vetores de estado.

Em Mecânica Quântica é freqüente, também, utilizarmos a notação de Dirac para

caracterizar os vetores de estado. Nesta notação, o estado é usualmente simbolizado por Ψ

(ket). É importante salientar que tal propriedade fornece, a partir da existência de alguns

estados para o sistema quântico, a possibilidade de construção de inúmeros outros estados.

Consideremos, por exemplo, um computador clássico. Nele, a informação é

processada em um sistema binário, representando-se seus elementos por 0 e 1. Em tal

computador o bit clássico, que é a menor unidade de informação, se apresenta ou no estado

30 Compilado com adaptações do curso Fundamentos de Mecânica Quântica para professores de Física Profs. Carlos Raphael Rocha &

Victoria Elnecave Herscovitz, ministrado no II encontro estadual de ensino de física – RS Porto Alegre, Instituto de Física, UFRGS 13 a 15

de setembro de 2007.

42

0 ou no estado 1 . Já um computador quântico utiliza, em princípio, além dos estados 0

e 1 , superposições lineares destes, abrindo assim, para uma unidade de informação,

simultaneamente dois canais de processamento, uma vez que o bit quântico (qubit) pode estar

em estados 1 2=C 0 +C 1 .Ψ

Estamos agora em condições de enunciar os dois primeiros postulados da Mecânica

Quântica. Embora impostos (não demonstrados) estes princípios passam a se tornar aceitáveis

face às evidências experimentais que os cercam e à estrutura matemática que os ampara.

O postulado nº 1 pode ser enunciado como segue:

Tudo o que se sabe sobre o sistema está expresso no estado.

Pense: Considerando o que foi exposto sabe sobre a caracterização do estado quântico

parece-lhe, agora, natural salientar que o estado é o depositário dos valores das grandezas

físicas afetas ao sistema?

O postulado nº 2 pode ser enunciado parcialmente como segue:

A cada grandeza física em Mecânica Quântica corresponde um operador.

O enunciado acima não está completo. O operador que corresponde à grandeza física

não é qualquer. Ele deve satisfazer determinadas condições (ser linear, ter apenas autovalores

reais e estar definido no espaço, entre outras exigências). Contudo, o que queremos salientar

aqui é que o postulado impõe que exista, sempre, para toda a grandeza física (logo, passível

de ser medida) um operador associado.

Simbolicamente, sendo B o operador que corresponde ao observável físico, devem

existir estados Φ para os quais: .B bΦ = Φ Φ então, não é modificado pela medida da

grandeza física correspondente. Além disto, b simboliza o valor obtido na medida. Temos aí

uma equação de autovalores, sendo I Φ o auto-estado ou autovetor do operador B e b o

autovalor associado. Leia-se ainda: a operação representada por B (medida do valor da

grandeza física em estudo), realizada sobre o sistema quântico quando este se encontra no

estado Φ , dá como resultado o número b e não altera o estado do sistema, ou seja, reproduz

o sistema no mesmo estado anterior à medida. Como uma mesma grandeza física pode ter

43

vários (mesmo infinitos, em número) valores diferentes, podemos indexar os autovalores e

autovetores B bβ β βΦ = Φ com β simbolizando a variedade de autovetores possíveis.

Passa a ter sentido, então, dizer que b é o valor da grandeza física para aquele estado

do sistema. Por exemplo: -13,6 eV é o valor da energia do elétron do átomo de hidrogênio no

estado fundamental.

Pense: Em que situações β simboliza um conjunto de números inteiros?

Exercício: Apresente um exemplo de observável físico cujos autovalores são

contínuos.

Com o princípio da superposição linear e os dois postulados acima, estamos em

condição de "manipular" estados, combinando-os para obter novos estados, ou submetendo-os

a ações que darão como resultados novos estados ou, ainda, submetendo-os a ações que não

modificam os estados e darão valores de alguma grandeza física associada.

Há, contudo, outros fatos surpreendentes, ainda não mencionados, que os sistemas

microscópicos revelam e que são incorporados aos postulados da Mecânica Quântica. Senão,

vejamos. Tomemos como exemplo o espectro de energia do átomo de hidrogênio. As linhas

espectrais medidas evidenciam a existência de vários estados de energia possíveis para o

elétron do átomo, quando ele está "ligado" ao núcleo.

A descrição quântica dessa diversidade espectroscópica, mesmo em um modelo

bastante simples, é surpreendentemente satisfatória e constitui-se em um dos grandes sucessos

da Mecânica Quântica, desde seus primórdios. Esta descrição, basicamente, consiste em

estabelecer as soluções e os autovalores de uma equação de autovalores de um operador (H)

associado à energia total do elétron do átomo. H nada mais é do que a soma de um operador

associado à energia cinética do elétron e de um operador associado à energia potencial do

elétron, supondo o núcleo praticamente inerte, o que é aceitável face à grande razão da ordem

de grandeza da massa do núcleo frente à da do elétron (~103). Este modelo, embora muito

simples, reproduz com concordância mais do que razoável os valores obtidos

experimentalmente e que evidenciaram:

i) a existência de valores discretos de energia para o elétron do átomo (e portanto, para

alguns sistemas quânticos);

44

ii) o fator surpreendente, de os resultados de medida sempre resultarem em algum dos

autovalores do operador correspondente.

O cenário desenhado então - e confirmado por inúmeros outros eventos com sistemas

quânticos - é que: os resultados de medida geram sempre autovalores do operador associado à

grandeza física que se pretende medir. Decorre, daí, o terceiro postulado da teoria, novamente

imposto por fatos experimentais e mantendo estreita correlação com a estrutura matemática

dos espaços vetoriais.

Pode-se expressar o postulado nº 3 como:

Os únicos resultados possíveis de medidas de uma grandeza física são os autovalores

do operador associado à grandeza em questão.

Note-se que estados muito diversos de um objeto quântico podem, se realizamos uma

só medida de um observável, resultar no mesmo autovalor do observável.

Então uma só, ou poucas medidas sobre sistemas quânticos que estão em estados

diferentes (desconhecidos), em geral não são conclusivas. Se, porém, trabalharmos com uma

amostra grande de objetos, todos preparados no mesmo estado, os valores resultantes das

medidas passarão a ter significado.

Duas coisas podem ocorrer neste último caso:

i) as medidas gerarem todas, praticamente, o mesmo autovalor do operador, em cujo

caso diremos que o objeto está um auto-estado (de B) com autovalor bβ , ou ainda, que a

grandeza física em estudo está (bem) definida, para tal estado (por exemplo, o estado tem

energia definida.);

ii) as medidas gerarem vários dos autovalores do operador, em cujo caso diremos que

o objeto está em um estado que é a superposição linear de vários auto-estados do operador, ou

ainda, neste caso é usual dizer-se que a grandeza física em estudo não está definida (por

exemplo, o estado não tem energia definida.). Em tal situação não tem significado

perguntarmos qual o valor da grandeza física (por exemplo, qual o valor da energia deste

sistema?). Limitamo-nos aqui a estabelecer o valor médio da grandeza em análise, para o

estado do objeto quântico considerado. O valor médio do operador associado ao observável

45

em estudo é obtido a partir de A Φ = Ψ , expressando-se Ψ como uma superposição

linear de autovetores de A, ou seja, i i i i

i

Ψ = C Ψ , se A Ψ = a Ψ .∑

Muitos autores apresentam, também, como um dos princípios da Mecânica Quântica o

"Colapso do Vetor de Estado" que, em essência, estabelece que o processo de medida

transforma (em geral) o estado do sistema quântico em um dos auto-estados do operador que

corresponde ao observável físico em estudo, qual seja o auto-estado correspondente ao

autovalor resultante da medida.

16.1. Evolução temporal dos estados quânticos

Uma das maneiras de estudar a variação no tempo dos sistemas quânticos, devida a

Schrödinger, repousa na modificação do vetor de estado ao longo do tempo. (Apenas a título

de informação, uma outra maneira de estudar a variação temporal dos sistemas quânticos,

devida a Heisenberg, analisa a modificação dos operadores.) Schrödinger inspirou-se na

equação da onda, construindo uma equação diferencial correspondente à equação de

conservação de energia clássica não-relativística. Esta equação é denominada equação de

Schrödinger dependente do tempo e nos informa que se conhecemos o estado do sistema

quântico num instante inicial, poderemos determinar o estado do sistema em outro instante

(desde que o sistema não seja submetido a observações no intervalo de evolução).

Lembrando que E = p2/2m + V é a energia de uma partícula de massa m, momento

linear p e submetida a um potencial V, podemos escrever H = p2/2m + U para um objeto

quântico, em que H é o operador hamiltoniano, P é o operador momento linear, U é o

operador potencial e a equação de evolução temporal é:

( ) ( )i t H tt

∂Ψ = Ψ

∂�

O operador hamiltoniano H depende do sistema que se está analisando como na

Mecânica Clássica. Caso o sistema seja uma partícula livre, o operador potencial é nulo.

Como a equação de Schrödinger é uma equação diferencial de primeira ordem em

relação ao tempo, se o estado inicial 0( )tΨ for conhecido, então o estado ( )tΨ em

qualquer outro instante de tempo pode ser determinado. A evolução temporal de um sistema

46

quântico é obtida de forma causal. Indeterminações só aparecem quando grandezas físicas são

medidas num dado instante de tempo.

16.2. A interpretação probabilística da função de onda

A principal característica da interpretação usual da mecânica quântica — a função de

onda como amplitude de probabilidade —, foi introduzida num breve artigo de M. Born em

1926, intitulada: “Sobre o Caráter Quântico das colisões”( Zur Quantenmechnik der

Stossvorgänge ). [Born,1926.] Ele analisa, através da teoria da perturbação, a colisão entre um

elétron e um átomo, resolvendo a equação de Schrödinger para o sistema total e impondo

como condição de contorno que assimptoticamente o elétron , após a colisão se comportasse

como uma onda plana. Seu resultado, como é bem conhecido, foi uma superposição de

estados qualitativamente idênticos ao inicial, cada um deles porém caracterizado

individualmente por um novo valor da energia tanto do elétron quanto do átomo.

Usando a relação de de Broglie, ele obteve para o n-éssimo estado da superposição, a

energia para o elétron Ef = Ei + hf0 ou seja, a energia inicial somada a um quantum de energia

hf0 , transferido pelo átomo que, claro, tem esta quantidade a menos em seu balanço

energético.

Este sentido físico imediato, indicou a Born que cada estado da superposição era a

possibilidade de um estado real, sendo seus coeficientes proporcionais à probabilidade de

cada um deles ocorrer. Não deixa de ser curioso o fato de que a diferença mais radical entre a

mecânica quântica e a física clássica, tenha sido introduzida pela imagem clássica mais

simples do processo de colisão: duas partículas transferindo momento e energia entre si.

16.3. Algumas importantes conseqüências da interpretação probabilística

A interpretação probabilística da função de onda, tornou-se quase que universalmente

aceita. Einstein, por exemplo, em sua crítica à teoria de variáveis ocultas (TVO) de D. Bohm

(1952), a qual tratava a função de onda como um campo real, comentou que a única

interpretação da equação de Schrödinger admissível, até o presente, é a interpretação

47

estatística dada por Born . Alguns problemas —talvez todos referentes à interpretação da

mecânica quântica— surgiram daí. Se a mecânica quântica descreve apenas probabilidades,

estaria ela incompleta, havendo uma outra teoria na qual o determinismo causal fosse

readmitido?

A interpretação probabilística também criou uma nova possibilidade filosófica, que

não demorou a ser explorada: a de fundamentar a liberdade de decisão, o livre arbítrio do

homem a nível científico. A física clássica em nada contribuiu para tal discussão, apenas

substituiu a onipotência , a onisciência e a onipresença do deus cristão pelo determinismo

causal matemático.

A esta questão caberiam duas possibilidades de complementaridade:

a) estando à mecânica quântica completa, isto equivaleria a dizer que a nível

microscópico a causalidade não se aplica? ou apenas não teríamos acesso a ela por algum

limite natural?

b) estando a mecânica quântica incompleta, seria necessário encontrar sua substituta

que restituísse a normalidade à física.

17. O átomo de Bohr31

O progresso extraordinariamente rápido, sobre fundamentos inconsistentes, do

programa de Bohr. O seu estudo, em termos metodológicos, é talvez uma das mais notáveis

formas de se complementar conceitos em ciência principalmente por se tratar de Bohr, que

teve a oportunidade de viver com os maiores cientistas da época, bem como de estabelecer um

tramite entre as teorias clássicas e modernas muito bem notada em seu trabalha com o intuito

de fortalecer a ciências Físicas.

Podemos caracterizar a história do programa de investigação de Bohr por:

31 Módulo elaborado a partir dos trabalhos: Schola quantorum: progresso, racionalidade e inconsistência na antiga teoria atômica Parte I:

desenvolvimento histórico, 1913-1925 de Valter Alnis Bezerra; Analogias utilizadas no ensino dos modelos atômicos de Thomson e Bohr:

uma análise crítica sobre o que os alunos pensam a partir delas de Vinícius Catão de Assis Souza, Rosária da Silva Justi e

Poliana Flávia Maia Ferreira; Para o ensino do átomo de Bohr no nível médio Luiz O.Q. Peduzzi; Andreza C. Basso.

48

(1) o seu problema inicial;

(2) a sua heurística negativa e positiva;

(3) os problemas que procurou solucionar no curso do seu desenvolvimento;

(4) o seu ponto de degeneração e

(5) o programa que o suplantou.

Ao explorarmos uma parte dessa história, mais especificamente, a sua fase de

programa progressivo, relativa aos primeiros modelos que levaram Bohr à formulação da

quantização da energia para átomos de um elétron com massa nuclear finita. Temos como

objetivo contextualizar historicamente o átomo de Bohr, desenvolver o seu conteúdo

matemático e contrapor-se à abordagem empirista que normalmente é conferida a esse assunto

pelos livros didáticos.

A caracterização do problema inicial de Bohr, que é o do entender a estabilidade do

átomo de Rutherford, enseja o tratamento do tema dentro de uma perspectiva histórica

compatível com uma metodologia que explora as insuficiências dos modelos clássicos no

estudo do átomo e da interação da radiação com a matéria. É exatamente a aguda contradição

entre a instabilidade radiativa do átomo de Rutherford, decorrente da eletrodinâmica clássica,

e a evidência química e física da estabilidade das estruturas atômicas e moleculares que

sugerem a Bohr a impossibilidade do entendimento desse sistema no âmbito exclusivo da

física clássica. Considerando que a constituição do átomo é governada pelo quantum de ação,

Bohr impõe condições específicas ao átomo de Rutherford, desenvolvendo a sua teoria

Cinco postulados constituem o núcleo duro de seu programa de pesquisa. No último

dos três artigos publicados no Philosophical Magazine, em 1913, e reunidos no livro Sobre a

Constituição de Átomos e Moléculas [35], Bohr destaca, em síntese conclusiva:

“Nesta memória fez-se uma tentativa de desenvolvimento de

uma teoria da constituição dos átomos e moléculas baseada nas idéias

introduzidas por Planck para explicar a radiação do corpo negro e na

teoria da estrutura dos átomos proposta por Rutherford para explicar a

dispersão das partículas α pela matéria. A teoria de Planck trata da

49

emissão e absorção da radiação de um oscilador harmônico… sendo

incoerente com a teoria de Rutherford… Para se aplicarem os

principais resultados obtidos por Planck é, portanto, necessário

introduzir novas hipóteses sobre a emissão e absorção de radiação por

um sistema atômico. As principais hipóteses utilizadas são:

1. Que a energia radiada não é emitida (ou absorvida) da maneira contínua admitida

pela eletrodinâmica clássica, mas apenas durante a passagem dos sistemas de um estado

‘estacionário’ para outro diferente.

2. Que o equilíbrio dinâmico dos sistemas nos estados estacionários é governado

pelas leis da mecânica clássica, não se verificando estas leis nas transições dos sistemas

entre diferentes estados estacionários.

3. Que é homogênea a radiação emitida durante a transição de um sistema de um

estado estacionário para outro, e que a relação entre a freqüência n e a quantidade total de

energia emitida é dada por E = hf, sendo h a constante de Planck.

4. Que os diferentes estados estacionários de um sistema constituído por um elétron

que roda em volta de um núcleo positivo são determinados pela condição de ser igual a um

múltiplo inteiro de h/2π

5. Que o estado ‘permanente’ de um sistema atômico - isto é, o estado no qual a

energia emitida é máxima - é determinado pela condição de ser igual a h/2π o momento

angular de cada elétron em torno do centro de sua órbita.

Mostrou-se que, aplicando estes postulados ao modelo atômico de Rutherford, é

possível compreender as leis de Balmer e Rydberg...”

Ao discutirmos os postulados é possível esclarecer que eles misturam de forma

melindrosa conceitos da velha e da nova Física, o texto desenvolve o modelo M1 de Bohr

[16], chegando à quantização da energia para o átomo de hidrogênio, sob o pressuposto da

órbita circular e de revoluções em torno de um núcleo de massa infinita. Mostrando que

quando o elétron sofre uma transição de um nível de energia Eni para outro de menor energia

Enf há emissão de uma radiação homogênea de freqüência:

50

ni nfE Ef

h

−=

e que os comprimentos de onda dessa radiação correspondem as séries de Balmer (nf = 2) e de

Paschen (nf = 3).

Contudo, evidências de uma suposta série do hidrogênio não prevista pelo modelo - a

série de Pickering-Fowler - suscitaram críticas a Bohr. Discutindo de que forma ele lida com

esta situação. Neste caso, Bohr não questionou a ‘precisão experimental’ ou a ‘fidedignidade’

dos resultados experimentais, mas sim a teoria observacional em que se baseava, elaborando

um novo modelo em seu programa de investigação: o modelo do hélio ionizado (M2). A

heurística positiva do programa - o átomo como um sistema solar em miniatura - dá a Bohr a

orientação necessária para incrementar M1 .

Argumentando, a seguir, que o desenvolvimento matemático de M2 é análogo ao do

sistema próton-elétron, e que esta dedução pode ser apresentada em termos mais gerais, válida

para átomos de um elétron (hélio ionizado, lítio duplamente ionizado etc.), e assim é possível

escreve as expressões para a quantização das órbitas, da velocidade e das energias cinética,

potencial e mecânica, em função do número atômico (Z).

Para Z = 2, destaca que as linhas observadas por Pickering no espectro de Puppis

devem ser relacionadas ao hélio ionizado, e não ao hidrogênio. Mas o acordo entre teoria e

experiência não era ainda plenamente satisfatório. Quando Bohr foi questionado a esse

respeito, reconheceu que obteve os valores através de um conflitante, com o elétron

descrevendo órbitas em torno de um núcleo fixo, e que precisava lapidar seu modelo. Por

conseguinte, elabora M3 , no qual tanto o elétron como o núcleo se movimentam em torno do

centro de massa do sistema. Assim nos parece que a aparente refutação de M2 converteu-se

em uma retumbante vitória de M3 .

Todo este cenário da discussão do átomo de Bohr nos leva uma abordagem científica-

filosófica-histórica ocorrida no inicio do século XX, sendo o seu personagem principal Niels

Bohr. A chamada antiga teoria atômica (doravante abreviada ATA) de Niels Bohr, Arnold

Sommerfeld e outros abrange um período que se estende de 1913, ano da publicação do

famoso trabalho de Bohr, “On the constitution of atoms and molecules” (Sobre a constituição

de átomos e moléculas), publicado em três partes na Philosophical Magazine (Bohr, 1913a),

51

até 1925, ano em que a hipótese do spin e o princípio de exclusão foram propostos

publicamente por Wolfgang Pauli. A ATA antecede, portanto, a mecânica quântica moderna

de Werner Heisenberg, Erwin Schrödinger e outros.

A ATA é uma das principais linhas de pesquisa que se desenvolveram dentro daquilo

que poderíamos denominar antiga teoria quântica (ATQ), que abrange desde a proposta da

hipótese de quantização, por Max Planck, em 1900, até a hipótese do spin, em 192532

. Dentro

da ATQ havia outras linhas de investigação além da teoria atômica propriamente dita, como

por exemplo o estudo da radiação por Albert Einstein. (Em particular, a linha einsteiniana iria

se encontrar com a linha de Bohr por ocasião da teoria de Bohr-Kramers-Slater, em 1924.)

Cabe notar que é durante o período da ATA (mais especificamente, com a condição geral de

quantização de Sommerfeld) que se dá uma transformação importante, graças à qual passa a

ser possível falar pela primeira vez em uma mecânica quântica, no sentido de uma teoria

geral dos estados quânticos, aplicável não só ao modelo atômico, mas aos sistemas físicos

mais diversos.

O trabalho de Bohr (1979 [1913a]) aparece num momento por assim dizer estratégico

da Física Contemporânea. Em primeiro lugar, porque em 1911 havia sido proposto por Ernest

Rutherford o modelo do átomo nucleado com elétrons planetários, em substituição ao

chamado “modelo do pudim de passas” de J. J. Thomson. O modelo de Rutherford conseguia

dar conta do resultado do experimento de espalhamento de partículas α por núcleos atômicos,

resultado que não podia ser explicado pelo modelo de Thomson. Em segundo lugar, nas

décadas anteriores havia ocorrido um grande avanço na espectroscopia, possibilitando um

conhecimento detalhado dos espectros dos vários elementos químicos.

32Na fase anterior da ATQ, que vai de 1900 até 1912, o problema que predominava era o problema da radiação, especialmente do chamado

corpo negro, e nesse estudo despontavam nomes como os de Planck, Wien, Einstein, Jeans, Rayleigh e Debye. A abordagem era

fundamentalmente baseada nas teorias existentes da termodinâmica, da mecânica estatística e da teoria cinética dos gases, mas existiam

problemas para conciliar esse quadro de referência essencialmente clássico com a hipótese quântica de Planck. Esse período foi estudado

em detalhe por Thomas Kuhn em seu livro Black-body theory and the quantum discontinuity, 1894-1912 (Kuhn, 1978). Ver também Jammer,

1966, Cap. 1; Whittaker, 1973b, Cap. 3; Ter Haar, 1967, caps. 1 e 2; e Mehra & Rechenberg, 1982a, Cap. 1.

33

Modelo do átomo de Thomson. Numa esfera de massa uniformemente distribuída carregada positivamente, estariam incrustr

elétrons de carga negativa.

Figura 2733

delo do átomo de Thomson. Numa esfera de massa uniformemente distribuída carregada positivamente, estariam incrustr

52

delo do átomo de Thomson. Numa esfera de massa uniformemente distribuída carregada positivamente, estariam incrustrados

De inicio supunha-

realizadas por Rutherford não confirmaram essa

mais tarde que eram partículas eletrizadas positivamente. Em seguida, Rutherfor

que a carga elétrica das partículas alfa era equivalente á do hélio ionizado.

que as substancias radioativas emitem Helio quando

já estava convencido de que as partículas alfa eram, de fato, íons de hélio, mas só pode prová

lo definitivamente em 1908.

Era consenso, na década de 1910, que a compreensão da estrutura elementar do átomo

de hidrogênio deveria não só basear

hidrogênio emitia sempre as mesmas raias luminosas, com as mesmas freqüências, a s

estrutura interna deveria estar de alguma forma relacionada a elas. Era uma espécie de código

da natureza. Balmer descobriu o código, mas não foi capaz de entende

Bohr, em 1913, dar um salto adiante decifrando

quantum de ação, senha para esse entendimento.

Como a maioria dos físicos familiarizados com as idéias modernas da

estava convencido de que a introdução do quantum de ação de Planck resolveria as

dificuldades do modelo do á

impedir, de alguma forma, o contínuo movimento em espiral do elétron em direção ao núcleo

previsto pela fisica clássica.

Para facilitar a compreensão do raciocínio de Bo

pudessem ter órbitas circulares. De acordo com a fisica clássica, essas órbitas poderiam ter

qualquer raio, mas sempre

34 Extraídas de Alberto Gaspar Vol. 03 –

Figura 2834

-se que os raios alfa fossem um gás ionizado, as experiências

realizadas por Rutherford não confirmaram essa hipótese. Becquerel e Rutherford verificaram

mais tarde que eram partículas eletrizadas positivamente. Em seguida, Rutherfor

que a carga elétrica das partículas alfa era equivalente á do hélio ionizado.

vas emitem Helio quando aquecidas. Por volta de 1904, Ru

já estava convencido de que as partículas alfa eram, de fato, íons de hélio, mas só pode prová

lo definitivamente em 1908.

Era consenso, na década de 1910, que a compreensão da estrutura elementar do átomo

de hidrogênio deveria não só basear-se na fórmula de Balmer, mas também justificá

hidrogênio emitia sempre as mesmas raias luminosas, com as mesmas freqüências, a s

estrutura interna deveria estar de alguma forma relacionada a elas. Era uma espécie de código

da natureza. Balmer descobriu o código, mas não foi capaz de entende

Bohr, em 1913, dar um salto adiante decifrando-o depois que a física

quantum de ação, senha para esse entendimento.

Como a maioria dos físicos familiarizados com as idéias modernas da

estava convencido de que a introdução do quantum de ação de Planck resolveria as

dificuldades do modelo do átomo de Rutherford. A descontinuidade da natureza deveria

impedir, de alguma forma, o contínuo movimento em espiral do elétron em direção ao núcleo

previsto pela fisica clássica.

Para facilitar a compreensão do raciocínio de Bohr, vamos supor que os elétr

pudessem ter órbitas circulares. De acordo com a fisica clássica, essas órbitas poderiam ter

sempre seriam instáveis. Mas as raias dos espectros,

– Eletromagnetismo e Física Moderna

53

se que os raios alfa fossem um gás ionizado, as experiências

hipótese. Becquerel e Rutherford verificaram

mais tarde que eram partículas eletrizadas positivamente. Em seguida, Rutherford concluiu

que a carga elétrica das partículas alfa era equivalente á do hélio ionizado. Descobriu ainda

aquecidas. Por volta de 1904, Rutherford

já estava convencido de que as partículas alfa eram, de fato, íons de hélio, mas só pode prová-

Era consenso, na década de 1910, que a compreensão da estrutura elementar do átomo

se na fórmula de Balmer, mas também justificá-la. Se o

hidrogênio emitia sempre as mesmas raias luminosas, com as mesmas freqüências, a sua

estrutura interna deveria estar de alguma forma relacionada a elas. Era uma espécie de código

da natureza. Balmer descobriu o código, mas não foi capaz de entende-lo. Coube a Niels

já havia descoberto o

Como a maioria dos físicos familiarizados com as idéias modernas da física, Bohr

estava convencido de que a introdução do quantum de ação de Planck resolveria as

tomo de Rutherford. A descontinuidade da natureza deveria

impedir, de alguma forma, o contínuo movimento em espiral do elétron em direção ao núcleo

, vamos supor que os elétrons só

pudessem ter órbitas circulares. De acordo com a fisica clássica, essas órbitas poderiam ter

seriam instáveis. Mas as raias dos espectros, isoladas e

54

descontínuas, estavam associadas a números inteiros n, de acordo com a fórmula de Balmer.

Bohr concluiu que esses números estariam associados às órbitas, que seriam estáveis. Bohr

chamou essas órbitas de estados estacionários, pois os elétrons nelas poderiam permanecer

indefinidamente, sem perder energia.

De acordo com essa hipótese, Bom, baseando-se também na fisica clássica, obteve as

expressões matemáticas fundamentais de sua teoria. Entre elas, destacamos:

I - A expressão do raio (rn) das órbitas de ordem n do elétron no átomo de hidrogênio. Veja a

figura a seguir:

22 0

2

..

. .n

hr n

m e

ε

π=

Figura 2935

35

Extraída de Alberto Gaspar Vol. 03 – Eletromagnetismo e Física Moderna

55

II – A expressão da energia (En) das órbitas de ordem n que podem ser ocupadas por um

elétron:

4

2 2 2

0

1 ..8. .

n

m eE

n hε= −

Para essas expressões, os valores de n são números inteiros positivos ε0 é a

permissividade do vácuo, h é a constante de Planck, m é a massa do elétron e e, a carga do

elétron. O sinal negativo ocorre, pois a energia em uma órbita n no infinito é nula, como

convencionada para o potencial elétrico, assim no infinito a energia do elétron atinge seu

valor máximo que é zero.

Os primeiros grandes êxitos empíricos da ATA se referiam justamente à explicação

das séries espectrais, a começar pelo hidrogênio e hélio ionizado (além, é claro, do

experimento de Rutherford e da explicação do resultado do experimento de Frank-Hertz).

Num experimento realizado pelos físicos alemães James Frank (1882-1964) e Gustav

Hertz (1887-1975) em 1914. A experiência era simples, com um tubo de vidro, contendo

vapor de mercúrio, V é a diferença de potencial variável entre o catodo C, aquecido pelo

filamento F, e a grade G. O amperímetro A detecta os elétrons que atingem a placa P, depois

de passarem pela grade G e vencerem a pequena diferença de potencial oposta, V0. Nesse

trajeto ocorre a interação de alguns elétrons livres, com os elétrons dos átomos de mercúrio

Gráfico dos níveis de energia de um elétron no átomo de

hidrogênio em função das órbitas n.

56

contidos nessa região. Dessa forma, de acordo com a teoria de Bohr – os elétrons livres não

tem a quantidade de energia que um elétron do átomo de mercúrio precisa para dar um salto

quântico.

Figura 30

Figura 31

Nesse caso, como os elétrons do mercúrio não absorvem quantidades menores do que

o pacote mínimo de que precisam, não há troca de energia. O elétron livre continua a ser

acelerado. energia cinética dos elétrons que chegam à grade, supondo que eles não interagem

com os átomos de mercúrio, é qVa. Após passarem pela grade os elétrons eram desacelerados

por uma pequena diferença de potencial (Vd) entre o ânodo e a grade, a qual era mantida

constante durante o experimento. A energia cinética dos elétrons que chegam ao ânodo,

assumindo que não exista interação com os átomos de mercúrio, é qVa – qVd. Se os elétrons

57

perdem alguma energia (∆E) através de interações com os átomos de mercúrio, então, suas

energia cinética no ânodo pode ser descrita como

Franck e Hertz fizeram uma medida da corrente I do ânodo como função de Va. O

resultado é mostrado na figura abaixo.

Como esperado, uma maior voltagem de aceleração produz uma maior energia cinética, o que

significa que mais elétrons atingem o ânodo, resultando em uma corrente maior. Uma coisa

excepcional ocorre para uma diferença de potencial entre o cátodo e a grade por volta de

4,9 V. A corrente diminui! Para esta diferença de potencial a energia cinética dos elétrons é

suficiente para mandar o elétron de valência do mercúrio para o primeiro nível excitado

através de uma colisão inelástica.

Como o elétron perde energia, ele não consegue mais atravessar a região entre a grade

e o ânodo, devido à diferença de potencial Vd. Isto faz com que a corrente I atinja um mínimo.

Se a diferença de potencial Va é aumentada acima de 4,9 V, a energia cinética dos elétrons é

novamente suficiente para que eles consigam vencer a diferença de potencial Vd, fazendo com

que a corrente I volte a aumentar. Quando Va é 2 × 4,9 V, a energia cinética é tão alta que

dois átomos em sucessão podem ser excitados pelo mesmo elétron. Isto produz um segundo

58

mínimo na corrente I. O gráfico de I versus Va apresenta máximos e mínimos eqüidistantes, a

intervalos de 4,9 V.

Entretanto, os mínimos não são muito bem definidos por causa da distribuição térmica

das velocidades iniciais dos elétrons. É possível observar 10 máximos seqüenciais, todos com

o mesmo espaçamento de 4,9 V. Estes dados mostram um efeito quântico. Os elétrons não

perdem nenhuma energia ou perdem algum múltiplo inteiro de 4,9 eV. Os elétrons podem

perder somente 4,9 eV para o átomo de mercúrio porque os níveis de energia do mercúrio são

quantizados. O elétron perde um múltiplo inteiro de 4,9 eV através de colisões com mais de

um átomo.

O átomo de mercúrio retorna para o estado fundamental através da emissão de um

fóton com uma energia de 4,9 eV. O comprimento de onda de tal fóton é de aproximadamente

253 nm. Em um segundo experimento, Franck demonstrou que uma perda de energia de 4,9

eV pelos elétrons era acompanhada da emissão de um fóton pelo mercúrio com o

comprimento de onda acima.

Entre 1913 e 1924, é Bohr quem desponta como figura-chave dos desenvolvimentos

na mecânica quântica, sendo acompanhado a partir de 1915 por Sommerfeld; a teoria recebeu

também contribuições decisivas de Paul Ehrenfest, Peter Debye, Alfred Landé e outros. Essa

fase é marcada por sucessivos e importantes êxitos empíricos, como a explicação da estrutura

fina dos espectros, a explicação dos efeitos Stark e Zeeman, algumas propriedades dos

espectros de átomos alcalinos, a predição do háfnio e finalmente os espectros de raios X. Com

a formulação do conceito de spin e do princípio de exclusão por Pauli – já em 1925, porém

ainda ligado ao quadro da ATA – finalmente torna-se possível explicar a estrutura eletrônica

dos átomos e a tabela periódica. Em 1924 é formulada a teoria de Bohr-Kramers-Slater (BKS)

da radiação, teoria que, por várias razões, ocupa uma posição-limite tanto em relação à ATA

como à moderna mecânica quântica (MQ).

É interessante notar que Bohr foi aluno tanto de Thomson, em Cambridge, como de

Rutherford, em Manchester. O texto canônico sobre a ATA e a ATQ, no qual todos os

desenvolvimentos relevantes são apresentados e discutidos em detalhe, é o clássico Atomic

structure and spectral lines de Arnold Sommerfeld. Essa obra, originalmente publicada em

alemão (com o título Atombau und Spektrallinen), recebeu diversas edições, cada uma

incorporando substanciais revisões e modificações, num esforço para acompanhar os rápidos

59

desenvolvimentos que ocorriam na física atômica nos anos 20. A sucessão de reedições e

traduções atesta a popularidade desse texto meticuloso e abrangente, e é bem possível que

muitos físicos do período tenham se familiarizado com a nova física em suas páginas.

Portanto, temos uma situação peculiar, na qual, entre duas edições de uma mesma

obra, teve lugar nada menos que uma das maiores revoluções científicas da era moderna – o

advento da nova mecânica quântica de Schrödinger e Heisenberg. (É interessante registrar que

Sommerfeld, no prefácio à nova edição, sustenta a tese de que “somente é possível

compreender a nova teoria erigindo-a a partir da teoria antiga” [Sommerfeld, 1931, p. vi].)

Uma das melhores narrativas do desenvolvimento histórico da teoria quântica

(incluindo a ATA) ainda é a obra clássica de Max Jammer, The conceptual development of

quantum mechanics (Jammer, 1966). Além de proporcionar um panorama conciso e bem

articulado, é uma verdadeira mina de referências. Porém a mais completa história da teoria

quântica, pelo menos no que diz respeito ao grau de detalhe historiográfico, é a obra

monumental de J. Mehra e H. Rechenberg, em vários volumes, intitulada The historical

development of quantum theory. Sendo o volume 1, intitulado The quantum theory of Planck,

Einstein, Bohr and Sommerfeld: its foundation and the rise of its difficulties, 1900-1925

(Mehra & Rechenberg, 1982a; 1982b), a referência tomada para a abordagem conceitual aqui

aprsentada.

Essa obra também contém a mais completa bibliografia de fontes primárias sobre a

ATQ e a ATA que se tem conhecimento, localizada ao final da Parte 2 do Volume 1 (Mehra

& Rechenberg, 1982b, p. 727-861). Outras obras de caráter histórico que podem ser úteis são:

a introdução de D. Ter Haar a sua coletânea The old quantum theory (Ter Haar, 1967) e a

introdução de B. L. Van der Warden a sua coletânea Sources of quantum mechanics (Van der

Waerden, 1967), além do segundo volume de A history of the theories of aether and

electricity de E. Whittaker (Whittaker, 1973b). Uma obra popular, que, sem a pretensão de ser

uma história da teoria quântica, pode ser útil para elucidar conceitos, é o segundo volume de

The rise of the new physics de A. D’Abro, que escreveu também várias outras obras clássicas

de divulgação (D’Abro, 1951). em inglês, Sommerfeld (1928) e Sommerfeld (1931),

traduzidas respectivamente da terceira edição alemã, de 1922, e da quinta edição alemã, de

1931.

60

Em particular, é interessante saber que a trilogia de Bohr foi publicada originalmente

na Philosophical Magazine (Bohr, 1913a), estando reproduzida em fac-símile no Volume II

dos Collected works (Bohr, 1981, p. 159-233). Porém a versão de mais fácil acesso para a

maioria dos leitores há de ser, certamente, a tradução portuguesa publicada pela Fundação C.

Gulbenkian em um volume, com uma introdução de L. Rosenfeld (Bohr, 1979 [1913a]), e é à

paginação desta edição que faremos referência ao longo do presente artigo. Cabe lembrar que

a Parte I da trilogia de Bohr também foi incluída na antologia editada por Ter Haar (ed., 1967,

p. 132-59), edição que indicada aqui como (Bohr, 1967 [1913a]).

18. Princípio da correspondência.36

Se uma nova teoria for valida, ela deve explicar os resultados da teoria antiga, ou seja,

deve haver uma correspondência entre as teorias, onde a antiga pode servir de base para a

formulação da nova, assim a Bohr articulou tal princípio buscando na correspondência uma

forma de mostrar que ela tende a se tornar uma identidade quando os números quânticos

crescem indefinidamente. Assim a teoria clássica pode servir de guia para a determinação

qualitativa e às vezes quantitativa das propriedades das radiações nos fenômenos quânticos.

Convém também salientar a indeterminação característica que existe na aplicação do

princípio de correspondência quando se quer calcular a intensidade de uma radiação emitida

por um átomo quando passa de um estado a outro. A cada um dos estados, inicial ou final, do

salto quântico, corresponde um movimento e uma componente harmônica do movimento, a

qual vai permitir o cálculo da respectiva intensidade de acordo com a teoria clássica. Não se

sabe qual dos movimentos, e portanto qual das componentes harmônicas (as quais têm a

mesma freqüência), se deve escolher para a determinação da intensidade relativa ao salto

quântico. Quando os números quânticos são muito elevados a indeterminação praticamente

desaparece, pois aos dois estados (inicial e final) do “salto quântico” correspondem

movimentos clássicos muito próximos, e pode-se escolher um qualquer dos dois movimentos

para o cálculo da intensidade procurada.

A teoria quântica de Bohr, completada pelo princípio de correspondência teve enorme

sucesso na explicação dos fenômenos atômicos, mas em 1925 já se haviam acumulado

importantes fatos experimentais em acentuada divergência com os resultados da mesma

teoria. Por outro lado eram considerados como pouco satisfatórios os fundamentos lógicos da

36

Texto adaptado da Revista Brasileira de Ensino de Física, v. 26, n. 1, p. 71-74 (2004) - História da Física e Ciências Afins -

Introdução à mecânica dos quanta Parte III - Theodoro Ramos - Escola Politécnica de São Paulo.

61

Mecânica de Bohr. A teoria clássica e a hipótese dos quanta ai se encontravam ligados de uma

forma ilógica; às leis clássicas da Mecânica e do Eletromagnetismo foram acrescentados os

dois postulados de Bohr que em sua essência são contraditórios com as referidas leis clássicas.

Heisenberg, em 1925, resolveu abandonar completamente, no estudo dos fenômenos

atômicos, a concepção das trajetórias eletrônicas, inacessíveis à experimentação direta e de

caráter hipotético.

19. Dualidade Partícula-Onda

A polêmica sobre o caráter ondulatório ou corpuscular da radiação foi continuamente

mantida, até que por volta de 1905. Einstein apresentou uma teoria estabelecendo os limites

de validade de um e outro comportamento. Em suma, na segunda década deste século não

havia razão para duvidar do caráter dualístico da radiação: ora ondulatório, ora corpuscular.

Sob o ponto de vista moderno, depois de tudo que sabemos, parece natural imaginar que essa

dualidade também seja verdadeira para a matéria. Todavia, o conhecimento científico da

época não permitia essa generalização.

Bohr elaborou seu modelo para explicar as linhas espectrais observadas desde o final

do século XIX. Ocorre que no seu modelo, Bohr foi obrigado a impor determinadas restrições

ao movimento do elétron em torno do núcleo. Em 1924 Louis de Broglie, Físico Frances,

enquanto ainda era estudante de pós-graduação obteve uma resposta, publicada em sua tese de

doutoramento em Física que mais tarde lhe valeu o Premio Nobel de Física. Par de Broglie as

restrições eram mais do que sintomas para a necessidade de uma nova concepção do

comportamento da natureza. Segundo ele, a natureza essencialmente descontínua da

quantização, expressa pelo surgimento de números quânticos inteiros, apresentava um

estranho contraste com a natureza contínua dos movimentos suportados pela dinâmica

newtoniana e mesmo pela dinâmica einsteiniana. Portanto, seria necessário uma nova

mecânica onde as idéias quânticas ocupassem um lugar de base, e não fossem acessoriamente

postuladas, como na antiga teoria quântica.

Um aspecto que chamou a atenção de de Broglie, foi o fato de que as regras de

quantização envolviam números inteiros. Ora, sabia-se, desde muito tempo, que os números

inteiros eram fundamentais em todos os ramos da física onde fenômenos ondulatórios

estavam presentes: elasticidade, acústica e ótica. Eles são necessários para explicar a

existência de ondas estacionárias, de interferência e de ressonância. Seria, portanto, permitido

62

pensar que a interpretação das condições de quantização conduziriam à introdução de um

aspecto ondulatório no comportamento dos elétrons atômicos. Dever-se-ia fazer um esforço

para atribuir ao elétron, e mais geralmente a todos os corpúsculos, uma natureza dualística

análoga àquela do fóton, para dotá-los de um aspecto ondulatório e de um aspecto corpuscular

interligados pelo quantum de ação (a constante de Planck).

Para chegar à sua relação fundamental, de Broglie considerou a questão mais simples

possível, isto é, um corpúsculo em movimento retilíneo uniforme, com energia e momentum

conhecidos. Na proposta de de Broglie o comprimento de onda da onda associada a um

corpúsculo de momentum p é dado por l = h/p, ou seja comprimento de onda = h/momentum.

De Broglie demonstrou que a velocidade da onda associada é dada por V = c2/v, onde

v é a velocidade do corpúsculo. Agora, dado o comprimento de onda dessa onda, qual será sua

freqüência, n ?

Como se sabe,

1n = V = c2/v

n = c2/lv = pc

2/hv

Da relatividade, tem-se que

p = mov/g,

onde g = (1-v2/c

2)1/2

. Logo,

n = moc2/hg = E/h

Portanto, o comprimento de onda da onda associada a um corpúsculo é o quociente

entre seu momentum e a constante de Planck, enquanto a freqüência é o quociente entre sua

energia e a constante de Planck.

Outras questões reforçavam o sentimento de De Broglie na direção da dualidade

partícula-onda. Até àquela época, o elétron não tinha manifestado qualquer propriedade

ondulatória, de modo que atribuir ao elétron estas propriedades, sem evidência experimental,

poderia parecer uma fantasia de valor científico duvidoso.

63

Todavia, de Broglie percebeu que a introdução do caráter ondulatório no

comportamento de corpúsculos materiais já poderia ter sido feita no final do século passado,

uma vez que a teoria de Jacobi permitia à dinâmica clássica agrupar as trajetórias possíveis de

um ponto material, em determinado espaço, de tal modo que as trajetórias de um mesmo

grupo sejam similares à propagação de uma onda, no sentido da ótica geométrica.

20. Princípio da Complementaridade

Proposto por Bohr, pela primeira vez, no Congresso Internacional de Física, realizado

em Como, na Itália, em 16 de setembro de 1927 (Atti del Congresso Internazionale dei

Fisici), por ocasião das comemorações do centenário de morte do grande físico italiano,

Alessandro Giuseppe Volta (1745-1827). Entre 1923 e 1924, o físico francês, o Príncipe

Louis Victor Pierre Raymond de Broglie (1892-1987; PNF, 1929) formulou sua hipótese da

“dualidade onda-partícula do elétron”, hipótese essa que era motivo de muita discussão entre

os físicos, devido ao caráter dúbio que ela aparentava representar. Para contornar essa

dubiedade, Bohr apresentou, naquele Congresso, o seguinte princípio: Os modelos

corpuscular e ondulatório são complementares; se uma medida prova o caráter ondulatório

da radiação eletromagnética ou da matéria, então é impossível provar o caráter corpuscular

na mesma medida, e vice-versa.

21. A interpretação da complementaridade37

Para entendermos a interpretação proposta por Bohr, consideremos a figura (a). Nela,

representa-se o experimento da dupla fenda para a luz, que resulta em franjas de interferência

na tela à direita. De acordo com a física clássica, as franjas, que alternam claro e escuro,

indicam que a luz é uma onda. Ao passar por O, esta onda esférica se propaga até o anteparo

com as fendas A e B, e em cada fenda uma parte da onda inicial se propaga como onda

esférica até a tela detectora. As regiões em que máximos das duas ondas se superpõem

construtivamente são iluminadas, e as regiões em que elas se superpõem destrutivamente são

escuras. Com a física quântica, o que se descobriu é que a luz é detectada na tela por meio de

37 Extraído com alterações de Junior P.O (2008) As interpretações Contemporâneas da mecânica Quânticas

64

pacotes mínimos de energia, localizados pontualmente, chamados “fótons”. O acúmulo de um

grande número desses pontos luminosos resulta nas franjas de interferência que observamos

no laboratório. A esta descoberta Bohr deu o nome de “postulado quântico”, cuja primeira

formulação é devida ao alemão Max Planck (1858-1947), que em 1900 inaugurou a velha

teoria quântica.

O princípio de complementaridade foi introduzido por Bohr em 1927, em três

acepções diferentes, das quais uma se tornou mais importante, especialmente após 1935: a

dualidade onda-partícula. Presos à linguagem da física clássica, os cientistas só conseguiriam

compreender um fenômeno observado no laboratório por meio de quadros clássicos, que

seriam de dois tipos: corpuscular ou ondulatório. No quadro corpuscular, concebemos o

objeto quântico como uma partícula que descreve uma trajetória bem definida ao longo de

todo o experimento. No quadro ondulatório, imaginamos que o objeto quântico é uma onda,

que pode ser dividida e recombinada, gerando franjas de interferência. No quadro corpuscular

não pode haver franjas de interferência, e no quadro ondulatório não se podem atribuir

trajetórias bem definidas ao objeto quântico. O princípio de complementaridade afirma que

qualquer experimento com uma entidade quântica, como um elétron, pode ser compreendido

ou em um quadro corpuscular, ou em um ondulatório, mas nunca em ambos ao mesmo tempo.

Ou seja, se observo franjas de interferência, não posso atribuir trajetórias, e vice-versa.

Figura 32

65

(a) O experimento da dupla fenda é um fenômeno ondulatório, e não há como estipular uma trajetória para o quantum detectado, seja

ele luz ou elétron. (b) A colocação de polarizadores ortogonais, no caso da propagação de luz, torna o fenômeno corpuscular, e sabendo-

se a polarização do fóton detectado, sabe-se sua trajetória. (c) A informação de trajetória pode ser apagada, e o quantum detectado passa

a ser associado a um fenômeno ondulatório. (d) Segundo a interpretação de Bohm, o corpúsculo descreve uma trajetória em ziguezague.

O fenômeno da figura (a) é ondulatório: não podemos atribuir uma trajetória ao fóton

detectado em R, pois é como se ele passasse simultaneamente por ambas as fendas (como

diríamos de uma onda na física clássica). Se apenas uma das fendas estivesse aberta, aí o

fenômeno seria corpuscular: saberíamos sua trajetória, mas não haveria franjas quando um

grande número de fótons incidisse na tela.

Outro exemplo de fenômeno corpuscular está na figura (b), onde se colocam filtros

polarizadores orientados em direções ortogonais após cada fenda. Cada polarizador absorve

metade da luz incidente, e deixa passar a outra metade. A porção de luz que é transmitida

oscila (transversalmente à direção de propagação) em uma certa direção, que na figura é 0°

para a fenda A e 90° para a fenda B. O encontro de ondas polarizadas em direções ortogonais

não leva à interferência destrutiva e construtiva, como no caso anterior, de forma que o que se

observa na tela detectora é uma iluminação uniforme, sem franjas de interferência.

Notamos que utilizamos uma explicação típica de um quadro ondulatório, mas este

fenômeno é considerado corpuscular porque o fóton observado na tela é pontual, e a ele pode

ser atribuída uma trajetória bem definida, ou pela fenda A ou pela fenda B. Isso ficaria mais

claro se no lugar da tela detectora se pusesse um detector sensível à polarização da luz. Tal

detector indicaria claramente a polarização do fóton: se a polarização medida fosse 0°,

poderíamos dizer que a partícula passou pela fenda A, se fosse 90°, pela fenda B. Ao

atribuirmos trajetórias bem definidas à partícula (associada ao fóton detectado), adotamos um

quadro corpuscular.

No entanto, a situação muda na figura (c). Agora, um outro polarizador, orientado em

um ângulo intermediário, 45°, é colocado diante da tela detectora. A luz que passa por este

polarizador “perde a informação” sobre qual fenda ela teria passado. De acordo com a

interpretação da complementaridade, o fenômeno associado aos fótons incidentes na região

central da tela é ondulatório, o que é confirmado pelas franjas de interferência observadas

nesta região. Já os fótons detectados fora desta região continuam associados a um quadro

corpuscular.

Por que essa interpretação ortodoxa é considerada positivista? Porque não podemos

dizer se um fóton, que será detectado na região central, está associado a um quadro

ondulatório ou corpuscular, antes da detecção final do objeto quântico. Poderíamos montar

66

um experimento como o da Figura (b) e, antes de encerrado o experimento, sermos tentados a

dizer que o fenômeno será corpuscular. Mas, logo em seguida, alguém poderia pôr em ação

uma “escolha demorada”, e introduzir o polarizador a 45°, transformando o experimento em

um fenômeno ondulatório. Ou seja, a atribuição de um quadro clássico – corpuscular ou

ondulatório – só pode ser feita após o encerramento do experimento. Antes disso, não se pode

atribuir à realidade do objeto quântico uma natureza de partícula ou de onda. Em suma, como

esta interpretação não associa nenhuma representação à realidade, antes do final do

experimento, ela pode ser considerada positivista. A ela, só interessa representar o que é

observado, não aquilo que é inobservável.

22. Princípio da Incerteza de Heisenberg

O princípio da incerteza, de Heisenberg, é relativamente simples de ser enunciado e

tem uma idéia simples.Na física tradicional newtoniana, também chamada de Física Clássica,

acreditava-se que se soubermos a posição inicial e o momento (massa e velocidade) de todas

as partículas de um sistema, seríamos capaz de calcular suas interações e prever como ele se

comportará. Isto parece correto, se soubermos descrever com precisão as interações entre

essas partículas, mas parte de um pressuposto bastante forte: o de que de fato conhecemos a

posição e o momento de todas as partículas.

Segundo o princípio da incerteza, não se pode conhecer com precisão absoluta a

posição ou o momento (e, portanto, a velocidade) de uma partícula. Isto acontece porque para

medir qualquer um desses valores acabamos os alterando, e isto não é uma questão de

medição, mas sim de física quântica e da natureza das partículas. O princípio da incerteza é

equacionado através da fórmula:

No seu nível mais fundamental, o princípio da incerteza é uma conseqüência da

dualidade partícula-onda e do princípio de Broglie. Se uma partícula encontra-se em uma

região com erro ∆x, então seu comprimento de onda natural deve ser menor que ∆x, o que

requer um momento elevado, variando entre -h/∆x e h/∆x. Aí está a incerteza ! O raciocínio é

análogo para a indeterminação do momento.

67

Assim38

como para Dirac o princípio de superposição linear de estados é o postulado

mais importante da Mecânica Quântica, para outros a dualidade onda-partícula ou sua versão

formalizada no princípio de incerteza são as inovações cruciais da Mecânica Quântica. Neste

contexto diz-se que, no mundo microscópico, os aspectos corpusculares e ondulatórios da

matéria são complementares, ou seja, um sistema quântico pode exibir aspectos corpusculares

ou aspectos ondulatórios dependendo do arranjo experimental, mas não ambos ao mesmo

tempo. Em decorrência, não é possível montar um dispositivo experimental onde os dois

aspectos possam ser revelados ao mesmo tempo.

Este aspecto complementar do mundo microscópico é expresso, no formalismo da

Mecânica Quântica, nas relações de incerteza. Segundo o Princípio de Incerteza, enunciado

por Heisenberg em 1927, dado um par de grandezas físicas A e B, representadas pelos

operadores A e B que não comutam, quanto maior é o conhecimento de uma delas em um

dado experimento, menor é o conhecimento da outra. Matematicamente, Se [A,B] ≠0, então,

DA ≠ DB ≤ . sendo DA a incerteza no operador A e DB no operador B. Este princípio refere-

se, então, aos tipos de observáveis que podem ser encontrados.

Por uma parte podemos considerá-lo como uma propriedade fundamental do estado

físico de um sistema quântico de forma que, independentemente de como seja preparado tal

estado, não pode corresponder a valores precisos de dois observáveis incompatíveis; por

exemplo, não pode ter valores precisamente definidos de posição e momento. No mesmo

sentido, um pacote de ondas clássico não pode ter valores perfeitamente definidos de posição

e número de onda. A outra leitura (que pode ser pensada a partir do "microscópio de

Heisenberg") é considerar o Princípio de Incerteza como uma propriedade fundamental do

processo de medida, de modo que a incerteza, por exemplo, no momento é devida à

perturbação do sistema no processo de medida. Ambas as leituras têm, no entanto, uma raiz

comum: se o dispositivo de medida, segundo a primeira leitura, apresenta incertezas

inevitáveis, necessariamente a medição de uma grandeza perturbará a outra; por outra parte,

as perturbações que inevitavelmente acompanham a medição de grandezas incompatíveis nos

impedirão de preparar um sistema quântico em um estado com valores simultâneos bem

definidos de grandezas incompatíveis.

38 Extraído com adaptações de Greca I. M., Moreira M.A., Herscovitz V. E.(2001) - Uma Proposta para o Ensino de

Mecânica Quântica

68

De qualquer forma, o Princípio de Incerteza é uma limitação inerente a todo ato de

medição e não pode ser superado com os avanços tecnológicos dos sistemas de medição. Este

limite natural à nossa capacidade de observação leva-nos a abandonar idéias centrais da visão

clássica de mundo, como a do caráter fundamental que o conceito de trajetória ocupa aí .

Assim como no caso do princípio de superposição, toda teoria que contenha um princípio

sobre observáveis incompatíveis é inerentemente probabilística, ou seja, permite que as

probabilidades de resultados de um determinado experimento sejam diferentes de 0 ou 1.

Somente se todos os observáveis de uma teoria forem compatíveis (como é o caso da Física

Clássica), a teoria pode ser determinística.

Ainda que, tanto o princípio de superposição de estados quanto o de incerteza,

impliquem em teorias probabilísticas, os dois são conceitualmente diferentes, ou seja, que

uma teoria tenha observáveis incompatíveis não implica que estados puros possam ser

somados e vice-versa.

O Princípio de Incerteza nos permite estabelecer, pela primeira vez na história da

Ciência, uma escala "absoluta" de tamanho: o mundo atômico e subatômico é pequeno no

sentido absoluto, porque qualquer medição efetuada nessa escala usará recursos da mesma

escala e poderá afetar o resultado, de forma que é preciso sempre indicar como estão sendo

observados os fenômenos. Ou seja, na escala atômica e subatômica existem limitações

absolutas às possibilidades de medição, questão esta enfatizada por Dirac

Os estudantes, porém, são apresentados, em geral, somente às fórmulas vinculadas ao

Princípio de Incerteza, sem que sejam estabelecidas, pelo menos nos cursos introdutórios, as

suas relações com o conceito de dualidade ou com a idéia de quantização. Assim, muitos dos

estudantes aprendem as fórmulas sem saber onde ou como aplicá-las. E, apesar de aceitar-se

que as relações de incerteza não emergem de imperfeições tecnologicamente superáveis nos

dispositivos de medição, esta é a interpretação mais difundida possivelmente porque este é o

contexto em que os estudantes de ciências primeiramente se deparam com a palavra

"incerteza".

69

23. Bibliografia

BACHELARD, G. (1935). “O Novo Espírito Científico.” Col. “Os Pensadores”, Nova

Cultural, 1988.

BASSO, Délcio. Abordagem de Física Moderna no Ensino Médio. 2000. Trabalho

apresentado ao VII International Conference on Physics Education, Florianópolis, 2000.

BELL, J.S. (1964). On the Einsten Podolsky Rosen Paradox. Reimpresso em Wheeler &

Zurek,pg 403. WHEELER & ZUREK, pg 397. Traduzido para o português por Oswaldo

Pessoa Jr, Cadernos de História e Filosofia da Ciência ,ser.3, vol.2,n.2, jul./dez.,1992.

BEZERRA, V. A. “Schola quantorum: progresso, racionalidade e inconsistência na

antiga teoria atômica. Parte II: crítica à leitura lakatosiana”. Scientiae Studia, no prelo.

BOHR, N. “Atomic Physics and Human Knowledge”. John Wiley & Sons

(1958).Traduzido para o português por Vera Ribeiro, Ed. Contraponto, 1995.

BOHR, N. “On the constitution of atoms and molecules. Part I”. In: TER HAAR, D. (ed.).

The old quantum theory. Oxford, Pergamon, 1967 [1913a], p. 132-59.

BOHR, N. Sobre a constituição de átomos e moléculas. Introd. de L. Rosenfeld. Trad. de E.

Namorado. Lisboa, Gulbenkian, 1979 [1913a].

BORN, M. (1926). On the quantum mechanics of collisions. Traduzido para o inglês em

Wheeler & Zurek, pg.52.

BUCUSSI, A.A. - Introdução ao conceito de energia - Porto Alegre : UFRGS, Instituto de

Física, Programa de Pós-Graduação em Ensino de Física, 2007. 32p. v. 17, n. 3.

CAVALCANTE, Marisa de Almeida; JARDIM, Vladimir; BARROS, José Antônio de

Almeida. Inserção de Física Moderna no Ensino Médio: Difração de um feixe de laser.

Caderno Catarinense de Ensino de Física, Florianópolis, v.16, n.2, 1999.

CHIBENI, S.S. “Aspectos da Descrição Física da Realidade.” Tese de Doutorado

(Orient.M.Ghims).UNICAMP,1993.

70

DAVIDOVICH, L. O gato de Schrödinger: do mundo quântico ao mundo clássico

(Ciência Hoje, vol. 24, n. 143, p. 26, 1998)

DIRAC, P.A.M. (1930). “Princípios de Mecanica Cuantica.” Ediciones Ariel 1967.

EINSTEIN, A. “On the quantum theory of radiation”. In: VAN DER WAERDEN, B. L.

(ed.). Sources of quantum mechanics. Amsterdam, North-Holland, 1967 [1917], p. 63-77.

EINSTEN, A. (1953). “Como Vejo o Mundo.” Nova Fronteira ,1981.

EISBERG, R. & RESNICK, R. Física quântica. Rio de Janeiro, Campus, 1979.

FERREIRA, J. C.. Raios X no Ensino Médio, no contexto de Ciência, Tecnologia e

Sociedade (CTS). Monografia – Instituto de Física, Universidade Federal do Rio de Janeiro,

2006.

GIL-PÉREZ, Daniel. Orientações didáticas para a formação continuada de professores

de ciências. In: MENEZES, Luis Carlos de (Org.). Formação continuada de professores de

ciências no contexto ibero -americano. Campinas: Autores Associados, 1996. P. 71-81.

GREENBERG, D., HORNE, M., SHIMONY, A. AND ZELINGER, A. Bell’s theorem

without inequalities. American Journal of Physics, 58(12), Dec, 1990.

HEISENBERG, W. “Quantum-theoretical reinterpretation of kinematic and mechanical

relations”. In:

HUSSEIN, M. S.e SALINAS, S. R. A. (orgs.) 100 anos de física quântica (Editora Livraria

da Física, São Paulo, 2002).

JAMMER, M. The conceptual development of quantum mechanics. Nova Iorque,

McGraw-Hill, 1966.

KUHN, T. S. Black-body theory and the quantum discontinuity, 1894-1912. Chicago,

University of Chicago Press, 1978.

LORENTZ, H. A. The theory of electrons. 2a ed. Nova Iorque, Dover, 1952 [1909].

71

MACHADO, D. I. e NARDI, R. Avaliação do Ensino e Aprendizagem de Física Moderna

no Ensino Médio. 2003. Trabalho apresentado ao IV Encontro Nacional de Pesquisa em

Educação em Ciências, Bauru, 2003.

MAJORINO,J.E. O Pensamento Reducionista na Filosofia de Niels Bohr. Cad. de Hist. E

Filos. da Ciência , ser.3, vol.2, n.2, jul./dez,1992.

MEHRA, J. & RECHENBERG, H. The historical development of quantum theory. Vol. I.

Part I. The quantum theory of Planck, Einstein, Bohr and Sommerfeld: its foundation and the

rise of its difficulties, 1900-1925.Nova Iorque, Springer, 1982a.

OLIVEIRA, F. F. O Ensino de Física Moderna com enfoque CTS: Uma proposta

metodológica para o Ensino Médio usando o tópico raios X. Dissertação (Mestrado)

Programa de Pós-graduação em Educação, Faculdade de Educação, Universidade Federal do

Rio de Janeiro, 2006. Disponível em <http://fenix2.ufrj.br:8991/F/CTA

OSTERMANN, F. e MOREIRA, M. A. Física Contemporânea en la escuela secundaria:

uma experiência em el aula involucrando formación de profesores. Enseñanza de las

Ciências, Barcelona, v. 3, n. 18, p. 391-404, 2000b.

OSTERMANN, F. e MOREIRA, M. A. Uma revisão bibliográfica sobre a área de

pesquisa “Física Moderna e Contemporânea no Ensino Médio”. Porto Alegre:

Investigações em Ensino de Ciências, 2000c, v. 5, n. 1. Disponível em:

<http://www.if.ufrgs.br/public/ensino/revista.htm> Acesso em: 06 mar. 2006.

PESSOA JR. ,O. O Problema da Medição em Mecânica Quântica.Um Exame Atualizado.

Cad. de Hist. e Filos. da Ciência , ser.3, vol.2 n.2, jul./dez1992.

PINTO, A.; ZANETIC, J. É possível levar a Física Quântica para o Ensino Médio?

Caderno Catarinense de Ensino de Física, Florianópolis, v.16, n.1, p. 7-34, 1999.

POPPER, K. R. O universo aberto: argumentos a favor do indeterminismo. (2° volume do

pós-escrito à Lógica da descoberta científica.) Org. de W. W. Bartley III. Trad. de N. F. da

Fonseca. Lisboa, Dom Quixote, 1988.

72

REZENDE J., FRANK M.; CRUZ S.; FIRMO F. Física Moderna e Contemporânea no

Ensino Médio: Do consenso de temas à elaboração de propostas. 2003. Trabalho

apresentado ao IV Encontro Nacional de Pesquisa em Educação em Ciências, Bauru, 2003.

SAKURAI, J. J. Modern quantum mechanics - Revised edition. Ed. de S. F. Tuan. Reading,

Massachusetts, Addison-Wesley, 1994.

SCHRÖDINGER & HEISENBERG: a física além do senso comum (Coleção Imortais da

Ciência, Odysseus Editora, São Paulo, 2003).

TERRAZZAN Perspectivas para a Inserção da Física Moderna na Escola Média. São

Paulo: FEUSP, 1994. 241p. Tese (Doutorado) – Programa de Pós-Graduação em Educação,

Faculdade de Educação, Universidade de São Paulo, São Paulo, 1994.

TERRAZZAN, E. A. A Inserção da Física Moderna e Contemporânea no Ensino de

Física na Escola de 2o grau. Caderno Catarinense de Ensino de Física, Florianópolis, v.9,

n.3, p. 209-214, 1992.

TIPLER, P. A. Física moderna. Rio de Janeiro, Guanabara Dois, 1981.4ª Edição

VALADARES, E. C.; MOREIRA, A. M. Ensinando Física Moderna do Segundo Grau:

Efeito Fotoelétrico, Laser e Emissão de Corpo Negro. Caderno Catarinense de Ensino de

Física, Florianópolis, v.15, n.2, 1998.

VIANNA, D. M. Do fazer ao ensinar ciência. São Paulo: FEUSP, 1998. Tese (Doutorado) –

Programa de Pós-Graduação em Educação, Faculdade de Educação, Universidade de São

Paulo, 1998.

WEBBER, M. C. M. E RICCI T. F. - Inserção de mecânica quântica no ensino médio :

uma proposta para professores - Porto Alegre : UFRGS, Instituto de Física, Programa de

Pós-Graduação em Ensino de Física, 2007. 63p. v. 17, n. 5.