Clássico de partícula e de onda teorias de lightEdit
Thomas Young esboço de dois fenda de difração de ondas, 1803
Demócrito (século 5 A.C.) argumentou que todas as coisas no universo, incluindo a luz, são compostos de indivisível sub-componentes., Euclides (4-3 º século AC) dá tratados sobre a luz de propagação, os estados, o princípio da menor trajetória da luz, incluindo vários reflexos em espelhos, incluindo esférico, enquanto Plutarco (1º-2º século D.C.) descreve várias reflexões sobre espelhos esféricos a discutir a criação da maior ou menor de imagens, reais ou imaginários, incluindo o caso de quiralidade das imagens., No início do século XI, o cientista árabe Ibn al-Haytham escreveu o primeiro livro abrangente de óptica descrevendo reflexão, refração e a operação de uma lente pinhole através de raios de luz viajando do ponto de emissão para o olho. He asserted that these rays were composed of particles of light. Em 1630, René Descartes popularizou e credenciou a descrição da onda oposta em seu Tratado sobre a luz, o mundo (Descartes), mostrando que o comportamento da luz poderia ser recriado por modelagem de distúrbios como ondas em um meio universal, ou seja, o éter luminífero., Início em 1670 e progredindo ao longo de três décadas, Isaac Newton desenvolveu e defendeu sua teoria corpuscular, argumentando que as linhas perfeitamente retas de reflexão demonstrado da luz partículas de natureza, apenas partículas poderia viajar em tais linhas retas. Ele explicou refração postulando que partículas de luz aceleraram lateralmente ao entrar em um meio mais denso., Na mesma época, os contemporâneos de Newton, Robert Hooke e Christiaan Huygens, e mais tarde Augustin-Jean Fresnel, aperfeiçoaram matematicamente o ponto de vista da onda, mostrando que se a luz viajasse a diferentes velocidades em diferentes meios, a refração poderia ser facilmente explicada como a propagação média-dependente das ondas de luz. O princípio Huygens–Fresnel resultante foi extremamente bem sucedido na reprodução do comportamento da luz e foi posteriormente apoiado pela descoberta de interferência de ondas de luz por Thomas Young em 1801., A visão de onda não deslocou imediatamente a visão de raios e partículas, mas começou a dominar o pensamento científico sobre a luz em meados do século XIX, uma vez que poderia explicar fenômenos de polarização que as alternativas não poderiam.James Clerk Maxwell descobriu que podia aplicar as equações de Maxwell, juntamente com uma ligeira modificação para descrever ondas auto-propagadas de campos elétricos e magnéticos oscilantes. Rapidamente se tornou evidente que a luz visível, a luz ultravioleta e a luz infravermelha eram todas ondas eletromagnéticas de diferentes frequências.,
-
Reproduzir mídia
Animação mostrando a onda-partícula da dualidade com um duplo-fenda experiência e efeito de um observador. Aumentar o tamanho para ver explicações no próprio vídeo. Veja também um questionário baseado nesta animação.
-
de Partículas de impactos tornar visível o padrão de interferência de ondas.,
-
Uma partícula quântica é representado por uma onda de pacotes.
-
a Interferência de uma partícula quântica com ele mesmo.em 1901, Max Planck publicou uma análise que conseguiu reproduzir o espectro de luz observado emitido por um objeto brilhante., Para conseguir isso, Planck teve que fazer uma suposição matemática da energia quantizada dos osciladores, ou seja, átomos do corpo negro que emitem radiação. Einstein mais tarde propôs que a radiação eletromagnética em si é quantizada, não a energia dos átomos que irradiam.
radiação do Corpo Negro, a emissão de energia eletromagnética devido ao calor de um objeto, não pode ser explicada apenas a partir de argumentos clássicos., O teorema da equipartição da mecânica clássica, a base de todas as teorias termodinâmicas clássicas, afirmou que a energia de um objeto é dividida igualmente entre os modos vibracionais do objeto. Mas aplicar o mesmo raciocínio à emissão eletromagnética de tal objeto térmico não foi tão bem sucedido. Os objetos térmicos emitem luz há muito tempo. Como a luz era conhecida como ondas de eletromagnetismo, os físicos esperavam descrever esta emissão através de leis clássicas. Isto ficou conhecido como o problema do corpo negro., Uma vez que o teorema da equipartição funcionou tão bem na descrição dos modos vibracionais do objeto térmico em si, era natural assumir que ele iria executar igualmente bem na descrição da emissão radiativa de tais objetos. Mas um problema rapidamente surgiu se cada modo recebesse uma partição igual de energia, os curtos modos de comprimento de onda consumiriam toda a energia. Isto tornou–se claro ao traçar a lei de Rayleigh-Jeans, que, embora prevendo corretamente a intensidade das emissões de comprimento de onda longo, previu energia total infinita à medida que a intensidade diverge para o infinito para comprimentos de onda curtos., Isto ficou conhecido como a catástrofe ultravioleta.
Em 1900, Max Planck com a hipótese de que a freqüência da luz emitida pelo corpo negro dependia da freqüência do oscilador, que emite, e a energia desses osciladores aumentou linearmente com a frequência (de acordo com E = hf, onde h é a constante de Planck e f é a freqüência)., Esta não foi uma proposta errada considerando que os osciladores macroscópicos operam similarmente ao estudar Cinco simples osciladores harmônicos de amplitude igual, mas de frequência diferente, o oscilador com maior frequência possui a maior energia (embora esta relação não seja linear como a de Planck)., Ao exigir que a luz de alta frequência deve ser emitida por um oscilador de igual frequência, e ainda exigindo que este oscilador ocupe maior energia do que uma de menor frequência, Planck evitou qualquer catástrofe, dando uma partição igual aos osciladores de alta frequência produzidos sucessivamente menos osciladores e menos luz emitida. E como na distribuição Maxwell-Boltzmann, os osciladores de baixa frequência e baixa energia foram suprimidos pelo ataque de oscilações térmicas de osciladores de energia mais elevados, que necessariamente aumentaram a sua energia e frequência.,
O aspecto mais revolucionário do tratamento de Planck do corpo negro é que ele inerentemente depende de um número inteiro de osciladores em equilíbrio térmico com o campo eletromagnético. Estes osciladores dão toda a sua energia ao campo eletromagnético, criando um quantum de luz, tão frequentemente quanto eles são excitados pelo campo eletromagnético, absorvendo um quantum de luz e começando a oscilar na frequência correspondente., Planck havia criado intencionalmente uma teoria atômica do corpo negro, mas não intencionalmente gerou uma teoria atômica da luz, onde o corpo negro nunca gera quanta de luz em uma dada frequência com uma energia menor que hf. No entanto, uma vez percebendo que ele havia quantizado o campo eletromagnético, ele denunciou partículas de luz como uma limitação de sua aproximação, não uma propriedade da realidade.
Fotoelétrico effectEdit
ver artigo Principal: efeito FotoelétricoO efeito fotoelétrico., Fótons recebidos na esquerda atingem uma placa de metal (fundo), e ejetam elétrons, retratados como voando para a direita.enquanto Planck tinha resolvido a catástrofe ultravioleta usando átomos e um campo eletromagnético quantizado, a maioria dos físicos contemporâneos concordaram que o “quanta de luz” de Planck representava apenas falhas em seu modelo. Uma derivação mais completa da radiação do corpo negro produziria um campo eletromagnético totalmente contínuo e “semelhante a onda” sem quantização., No entanto, em 1905 Albert Einstein tomou o modelo do corpo negro de Planck para produzir sua solução para outro problema pendente do dia: o efeito fotoelétrico, em que elétrons são emitidos a partir de átomos quando absorvem energia da luz. Desde que sua existência foi teorizada oito anos antes, fenômenos tinham sido estudados com o modelo de elétrons em mente em laboratórios de física em todo o mundo.em 1902, Philipp Lenard descobriu que a energia destes elétrons ejetados não dependia da intensidade da luz recebida, mas sim da sua frequência., Então, se alguém brilha um pouco de luz de baixa frequência sobre um metal, alguns elétrons de baixa energia são ejetados. Se agora se irradia um feixe muito intenso de luz de baixa frequência sobre o mesmo metal, um monte de elétrons são ejetados; no entanto, eles possuem a mesma energia baixa, há apenas mais deles. Quanto mais luz há, mais elétrons são ejetados. Enquanto que para obter elétrons de alta energia, é preciso iluminar o metal com luz de alta frequência. Como a radiação do corpo negro, isso estava em desacordo com uma teoria invocando a transferência contínua de energia entre a radiação e a matéria., No entanto, ainda pode ser explicado usando uma descrição totalmente clássica da luz, desde que a matéria seja mecânica quântica na natureza.se alguém usasse o quanta de energia de Planck, e exigisse que a radiação eletromagnética em uma dada frequência pudesse apenas transferir energia para a matéria em múltiplos inteiros de uma energia quântica hf, então o efeito fotoelétrico poderia ser explicado muito simplesmente. A luz de baixa frequência apenas ejeta elétrons de baixa energia porque cada elétron é animado pela absorção de um único fóton., Aumentar a intensidade da luz de baixa frequência (aumentando o número de fótons) só aumenta o número de elétrons excitados, não sua energia, porque a energia de cada fóton permanece baixa. Somente aumentando a frequência da luz, e assim aumentando a energia dos fótons, se pode ejetar elétrons com maior energia. Assim, usando a constante h de Planck para determinar a energia dos fótons com base em sua frequência, a energia dos elétrons ejetados também deve aumentar linearmente com frequência, sendo o gradiente da linha constante de Planck., Estes resultados não foram confirmados até 1915, quando Robert Andrews Millikan produziu resultados experimentais em perfeito acordo com as previsões de Einstein.enquanto a energia de elétrons ejetados refletia a constante de Planck, a existência de fótons não foi explicitamente comprovada até a descoberta do efeito antibunching de fótons. Isto se refere à observação que uma vez um único emissor (um átomo, molécula, emissor de estado sólido, etc.) irradia um sinal de luz detectável, ele não pode imediatamente liberar um segundo sinal até que o emissor tenha sido re-animado., Isso leva a um atraso de tempo estatisticamente quantificável entre as emissões de luz, então a detecção de sinais múltiplos torna-se cada vez mais improvável à medida que o tempo de observação mergulha sob a vida do emissor em estado excitado. O efeito pode ser demonstrado em um laboratório de nível de graduação.este fenómeno só pode ser explicado através de fótons. O “quanta de luz” de Einstein não seria chamado de fótons até 1925, mas mesmo em 1905 eles representavam o exemplo quintessencial da dualidade onda-partícula., A radiação eletromagnética propaga-se seguindo equações de onda linear, mas só pode ser emitida ou absorvida como elementos discretos, agindo assim como uma onda e uma partícula simultaneamente.a explicação de Einstein sobre o efeito fotoelétrico
em 1905, Albert Einstein forneceu uma explicação do efeito fotoelétrico, um experimento que a teoria das ondas de luz não conseguiu explicar. Ele fez isso postulando a existência de fótons, quanta de energia de luz com qualidades de partículas.,no efeito fotoelétrico, observou-se que iluminar certos metais levaria a uma corrente elétrica em um circuito. Presumivelmente, a luz estava a tirar electrões do metal, fazendo a corrente fluir. No entanto, usando o caso do potássio como exemplo, também foi observado que enquanto uma luz azul escura era suficiente para causar uma corrente, mesmo a mais forte, luz vermelha mais brilhante disponível com a tecnologia da época não causou nenhuma corrente em tudo., De acordo com a teoria clássica da luz e da matéria, a força ou amplitude de uma onda de luz era proporcional ao seu brilho: uma luz brilhante deveria ter sido facilmente forte o suficiente para criar uma grande corrente. No entanto, estranhamente, não foi assim.
Einstein explicou este enigma, ao postular que os elétrons podem receber a energia do campo eletromagnético apenas em unidades discretas (quanta ou fótons): uma quantidade de energia E que estava relacionado com a freqüência f da luz
E = h f {\displaystyle E=hf\,}
, onde h é a constante de Planck (6.626 × 10-34 Js)., Somente fótons de alta frequência (acima de um certo valor limiar) poderiam deixar um elétron livre. Por exemplo, fótons de luz azul tinham energia suficiente para libertar um elétron do metal, mas fótons de luz vermelha não. Um fóton de luz acima da frequência limiar poderia liberar apenas um elétron; quanto maior a frequência de um fóton, maior a energia cinética do elétron emitido, mas nenhuma quantidade de luz abaixo da frequência limiar poderia liberar um elétron. Violar esta lei exigiria lasers de alta intensidade que ainda não tinham sido inventados., Fenómenos dependentes da intensidade foram agora estudados em pormenor com tais lasers.foi agraciado com o Nobel de Física de 1921 por sua descoberta da lei do efeito fotoelétrico.
de Broglie hypothesisEdit
ver artigo Principal: Questão de ondaPropagação de ondas de de Broglie em 1d—parte real do complexo amplitude é azul, a parte imaginária é verde., A probabilidade (mostrada como a opacidade da cor) de encontrar a partícula em um dado ponto x é espalhada como uma forma de onda; não há uma posição definida da partícula. À medida que a amplitude aumenta acima de zero, a curvatura diminui, então a amplitude diminui novamente, e vice—versa-o resultado é uma amplitude alternada: uma onda. Topo: onda de avião. Fundo: Pacote de ondas.,
Em 1924, Louis-Victor de Broglie formulou a hipótese de de Broglie, alegando que toda a matéria tem uma onda como a natureza, ele relacionadas com o comprimento de onda e do impulso:
λ = h p {\displaystyle \lambda ={\frac {h}{p}}}
De Broglie fórmula foi confirmado três anos mais tarde para elétrons com a observação da difração de elétrons em dois experimentos independentes. Na Universidade de Aberdeen, George Paget Thomson passou um feixe de elétrons através de um filme de metal fino e observou os padrões de interferência previstos., Em Bell Labs, Clinton Joseph Davisson e Lester Halbert Germer guiaram o feixe de elétrons através de uma grade cristalina em sua experiência popularmente conhecida como experiência Davisson–Germer.recebeu o Nobel de Física de 1929 por sua hipótese. Thomson e Davisson compartilharam o Prêmio Nobel de Física em 1937 por seu trabalho experimental.,
da incerteza de Heisenberg principleEdit
ver artigo Principal: princípio da IncertezaEm seu trabalho sobre a formulação da mecânica quântica, Werner Heisenberg postulada seu princípio da incerteza, a qual declara que:
∆ x ∆ p ≥ 1 2 ℏ {\displaystyle \Delta x\,\Delta p\geq {\tfrac {1}{2}}\hbar }
onde
Δ {\displaystyle \Delta } aqui indica o desvio padrão, uma medida de dispersão ou incerteza; x e p é uma partícula da posição e momento linear, respectivamente. ℏ {\displaystyle \hbar } é a constante reduzida de Planck (constante de Planck dividida por 2 π {\displaystyle \pi })., Heisenberg originalmente explicou isso como uma consequência do processo de medição: a posição de medição com precisão iria perturbar o momento e vice-versa, oferecendo um exemplo (o “microscópio de raios gama”) que dependia crucialmente da hipótese de Broglie. O pensamento é agora, porém, que isso só em parte explica o fenômeno, mas que a incerteza também existe na própria partícula, mesmo antes da medição ser feita.,
Na verdade, a explicação moderna do princípio da incerteza, estendendo a interpretação de Copenhague apresentada pela primeira vez por Bohr e Heisenberg, depende ainda mais centralmente da natureza da onda de uma partícula. Assim como é absurdo discutir a localização precisa de uma onda em uma corda, as partículas não têm perfeitamente precisos posições; da mesma forma, assim como não tem sentido discutir o comprimento de onda de um “pulso” de onda viajando uma seqüência de caracteres, as partículas não têm perfeitamente precisos momentos que corresponde ao inverso do comprimento de onda., Além disso, quando a posição é relativamente bem definida, a onda é pulsada e tem um comprimento de onda muito mal definido, e, portanto, momento. E inversamente, quando o momento, e assim o comprimento de onda, é relativamente bem definido, a onda parece longa e sinusoidal, e, portanto, tem uma posição muito mal definida.
de Broglie–Bohm theoryEdit
Main article: de Broglie-Bohm theoryexperiments, “materializing” the pilot wave model.,de Broglie ele mesmo tinha proposto uma construção de onda piloto para explicar a dualidade onda-partícula observada. Nesta visão, cada partícula tem uma posição bem definida e momento, mas é guiada por uma função de onda derivada da equação de Schrödinger. A teoria da onda piloto foi inicialmente rejeitada porque gerava efeitos não-locais quando aplicada a sistemas envolvendo mais de uma partícula. Não-localidade, no entanto, logo se estabeleceu como uma característica integral da teoria quântica e David Bohm estendeu o modelo de Broglie para incluí-lo explicitamente.,
na representação resultante, também chamada de teoria de Broglie-Bohm ou mecânica Bohmiana, a dualidade onda-partícula desaparece, e explica o comportamento da onda como um espalhamento com aparência de onda, porque o movimento da partícula está sujeito a uma equação orientadora ou potencial quântico.
esta ideia parece–me tão natural e simples, para resolver o dilema onda-partícula de uma forma tão clara e comum, que é um grande mistério para mim que foi tão geralmente ignorado. – J. S.,Bell
a melhor ilustração do modelo de onda-piloto foi dada pelos experimentos “walking droplets” de Couder em 2010, demonstrando o comportamento de onda-piloto em um analógico mecânico macroscópico.
Deixe uma resposta