théories classiques des particules et des ondes de la lumièremodifier
Thomas Young sketch of two-slit diffraction of waves, 1803
Démocrite (5ème siècle avant JC) a soutenu que toutes les choses dans l’univers, y compris sont composés de sous-composants indivisibles., Euclide (4ème-3ème siècle avant JC) donne des traités sur la propagation de la lumière, énonce le principe de la trajectoire la plus courte de la lumière, y compris les réflexions multiples sur les miroirs, y compris sphérique, tandis que Plutarque (1er-2ème siècle après JC) décrit les réflexions multiples sur les miroirs sphériques discutant de la création, Au début du 11ème siècle, le scientifique arabe Ibn Al-Haytham a écrit le premier livre complet d’optique décrivant la réflexion, la réfraction et le fonctionnement d’une lentille sténopé via des rayons de lumière voyageant du point d’émission à l’œil. Il a affirmé que ces rayons étaient composés de particules de lumière. En 1630, René Descartes a popularisé et accrédité la description de l’onde opposée dans son traité sur la lumière, le monde (Descartes), montrant que le comportement de la lumière pouvait être recréé en modélisant des perturbations ondulatoires dans un milieu universel, c’est-à-dire l’éther luminifère., À partir de 1670 et progressant sur trois décennies, Isaac Newton a développé et défendu sa théorie corpusculaire, arguant que les lignes parfaitement droites de la réflexion démontraient la nature particulaire de la lumière, seules les particules pouvaient voyager dans de telles lignes droites. Il a expliqué la réfraction en postulant que les particules de lumière accéléraient latéralement en entrant dans un milieu plus dense., À la même époque, les contemporains de Newton, Robert Hooke et Christiaan Huygens, et plus tard Augustin-Jean Fresnel, ont mathématiquement affiné le point de vue des ondes, montrant que si la lumière voyageait à différentes vitesses dans différents milieux, la réfraction pourrait être facilement expliquée comme la propagation des ondes lumineuses dépendante du milieu. Le principe de Huygens–Fresnel qui en a résulté a été extrêmement efficace pour reproduire le comportement de la lumière et a ensuite été soutenu par la découverte par Thomas Young de l’interférence des ondes de la lumière par son expérience à double fente en 1801., La vue sur les ondes n’a pas immédiatement déplacé la vue sur les rayons et les particules, mais a commencé à dominer la pensée scientifique sur la lumière au milieu du 19ème siècle, car elle pouvait expliquer les phénomènes de polarisation que les alternatives ne pouvaient pas.
James Clerk Maxwell a découvert qu’il pouvait appliquer ses équations de Maxwell découvertes précédemment, ainsi qu’une légère modification pour décrire les ondes auto-propagatrices de champs électriques et magnétiques oscillants. Il est rapidement devenu évident que la lumière visible, la lumière ultraviolette et la lumière infrarouge étaient toutes des ondes électromagnétiques de fréquence différente.,
-
le Jeu des médias
Animation montrant la dualité onde-particule avec une double fente de l’expérience et de l’effet d’un observateur. Augmenter la taille pour voir les explications dans la vidéo elle-même. Voir aussi un quiz basé sur cette animation.
-
de Particules impacts rendre visible le motif d’interférence d’ondes.,
-
quantique de la particule est représentée par un paquet d’ondes.
-
l’Interférence d’une particule quantique avec lui-même.
le rayonnement du corps noir et la loi de Planckdit
Article principal: le rayonnement du corps noiren 1901, Max Planck a publié une analyse qui a réussi à reproduire le spectre observé de la lumière émise par un objet brillant., Pour ce faire, Planck a dû faire une hypothèse mathématique de l’énergie quantifiée des oscillateurs, c’est-à-dire des atomes du corps noir qui émettent un rayonnement. Einstein a proposé plus tard que le rayonnement électromagnétique lui-même est quantifié, pas l’énergie des atomes rayonnants.
le rayonnement du corps noir, l’émission d’énergie électromagnétique due à la chaleur d’un objet, ne pouvait pas être expliqué à partir des seuls arguments classiques., Le théorème d’équipartition de la mécanique classique, la base de toutes les théories thermodynamiques classiques, a déclaré que l’énergie d’un objet est divisée également entre les modes vibrationnels de l’objet. Mais appliquer le même raisonnement à l’émission électromagnétique d’un tel objet thermique n’a pas été aussi réussi. Que les objets thermiques émettent de la lumière était connu depuis longtemps. Comme la lumière était connue pour être des ondes d’électromagnétisme, les physiciens espéraient décrire cette émission via des lois classiques. Cela est devenu connu sous le nom de problème du corps noir., Puisque le théorème d’équipartition fonctionnait si bien dans la description des modes vibrationnels de l’objet thermique lui-même, il était naturel de supposer qu’il fonctionnerait aussi bien dans la description de l’émission radiative de tels objets. Mais un problème s’est rapidement posé si chaque mode recevait une partition égale de l’énergie, les modes à courte longueur d’onde consommeraient toute l’énergie. Cela est devenu clair en traçant la Loi de Rayleigh-Jeans, qui, tout en prédisant correctement l’intensité des émissions À Longue longueur d’onde, prédit l’énergie totale infinie lorsque l’intensité diverge vers l’infini pour les courtes longueurs d’onde., Cela est devenu connu comme la catastrophe ultraviolette.
en 1900, Max Planck a émis l’hypothèse que la fréquence de la lumière émise par le corps noir dépendait de la fréquence de l’oscillateur qui l’émettait, et que l’énergie de ces oscillateurs augmentait linéairement avec la fréquence (selon E = hf où h est la constante de Planck et f est la fréquence)., Ce n’était pas une proposition malsaine étant donné que les oscillateurs macroscopiques fonctionnent de manière similaire lors de l’étude de cinq oscillateurs harmoniques simples d’amplitude égale mais de fréquence différente, l’oscillateur avec la fréquence la plus élevée possède l’énergie la plus élevée (bien que cette relation ne soit pas linéaire comme celle de Planck)., En exigeant que la lumière haute fréquence soit émise par un oscillateur de fréquence égale, et en exigeant en outre que cet oscillateur occupe une énergie plus élevée que celle d’une fréquence inférieure, Planck a évité toute catastrophe, donnant une partition égale aux oscillateurs haute fréquence produisant successivement moins d’oscillateurs et moins de lumière émise. Et comme dans la distribution de Maxwell–Boltzmann, les oscillateurs à basse fréquence et à basse énergie ont été supprimés par l’assaut du tremblement thermique des oscillateurs à haute énergie, ce qui a nécessairement augmenté leur énergie et leur fréquence.,
L’aspect le plus révolutionnaire du traitement du corps noir par Planck est qu’il repose intrinsèquement sur un nombre entier d’oscillateurs en équilibre thermique avec le champ électromagnétique. Ces oscillateurs donnent toute leur énergie au champ électromagnétique, créant un quantum de lumière, aussi souvent qu’ils sont excités par le champ électromagnétique, absorbant un quantum de lumière et commençant à osciller à la fréquence correspondante., Planck avait intentionnellement créé une théorie atomique du corps noir, mais avait involontairement généré une théorie atomique de la lumière, où le corps noir ne génère jamais de quanta de lumière à une fréquence donnée avec une énergie inférieure à hf. Cependant, une fois qu’il s’est rendu compte qu’il avait quantifié le champ électromagnétique, il a dénoncé les particules de lumière comme une limitation de son approximation, pas une propriété de la réalité.
Photoélectrique effectEdit
article Principal: l’effet PhotoélectriqueL’effet photoélectrique., Les photons entrants sur la gauche frappent une plaque de métal (en bas) et éjectent des électrons, représentés comme s’envolant vers la droite.
alors que Planck avait résolu la catastrophe ultraviolette en utilisant des atomes et un champ électromagnétique quantifié, la plupart des physiciens contemporains ont convenu que les « quanta de lumière » de Planck ne représentaient que des défauts dans son modèle. Une dérivation plus complète du rayonnement du corps noir donnerait un champ électromagnétique entièrement continu et « ondulatoire » sans quantification., Cependant, en 1905, Albert Einstein a pris le modèle du corps noir de Planck pour produire sa solution à un autre problème exceptionnel de l’époque: l’effet photoélectrique, dans lequel les électrons sont émis par les atomes lorsqu’ils absorbent l’énergie de la lumière. Depuis que leur existence a été théorisée huit ans auparavant, les phénomènes avaient été étudiés avec le modèle électronique à l’esprit dans les laboratoires de physique du monde entier.
en 1902, Philipp Lenard découvrit que l’énergie de ces électrons éjectés ne dépendait pas de l’intensité de la lumière entrante, mais plutôt de sa fréquence., Donc, si l’on brille un peu de lumière basse fréquence sur un métal, quelques électrons de basse énergie sont éjectés. Si l’on émet maintenant un faisceau très intense de lumière basse fréquence sur le même métal, toute une série d’électrons sont éjectés; cependant, ils possèdent la même faible énergie, il y en a simplement plus. Plus il y a de lumière, plus les électrons sont éjectés. Alors que pour obtenir des électrons de haute énergie, il faut éclairer le métal avec une lumière à haute fréquence. Comme le rayonnement de corps noir, cela était en contradiction avec une théorie invoquant le transfert continu d’énergie entre le rayonnement et la matière., Cependant, il peut encore être expliqué en utilisant une description entièrement classique de la lumière, tant que la matière est de nature mécanique quantique.
Si L’on utilisait les quanta d’énergie de Planck et exigeait que le rayonnement électromagnétique à une fréquence donnée ne puisse transférer de l’énergie à la matière que dans des multiples entiers d’une hf quantique d’énergie, alors l’effet photoélectrique pourrait être expliqué très simplement. La lumière basse fréquence n’éjecte que des électrons de faible énergie car chaque électron est excité par l’absorption d’un seul photon., L’augmentation de l’intensité de la lumière basse fréquence (augmentation du nombre de photons) ne fait qu’augmenter le nombre d’électrons excités, pas leur énergie, car l’énergie de chaque photon reste faible. Ce n’est qu’en augmentant la fréquence de la lumière, et donc en augmentant l’énergie des photons, que l’on peut éjecter des électrons avec une énergie plus élevée. Ainsi, en utilisant la constante h de Planck pour déterminer l’énergie des photons en fonction de leur fréquence, l’énergie des électrons éjectés devrait également augmenter linéairement avec la fréquence, le gradient de la droite étant la constante de Planck., Ces résultats n’ont été confirmés qu’en 1915, lorsque Robert Andrews Millikan a produit des résultats expérimentaux en parfait accord avec les prédictions D’Einstein.
bien que l’énergie des électrons éjectés reflète la constante de Planck, l’existence des photons n’a pas été explicitement prouvée jusqu’à la découverte de l’effet antibunching des photons. Cela fait référence à l’observation qu’une fois un seul émetteur (un atome, une molécule, un émetteur à l’état solide, etc.) émet un signal lumineux détectable, il ne peut pas libérer immédiatement un deuxième signal avant que l’émetteur ait été réexcité., Cela conduit à un délai statistiquement quantifiable entre les émissions de lumière, de sorte que la détection de plusieurs signaux devient de plus en plus improbable à mesure que le temps d’observation plonge sous la durée de vie de l’état excité de l’émetteur. L’effet peut être démontré dans un laboratoire de premier cycle.
ce phénomène ne peut s’expliquer que par des photons. Les « quanta de lumière » d’Einstein ne seraient pas appelés photons avant 1925, mais même en 1905, ils représentaient l’exemple par excellence de la dualité onde-particule., Le rayonnement électromagnétique se propage suivant des équations d’ondes linéaires, mais ne peut être émis ou absorbé que sous forme d’éléments discrets, agissant ainsi simultanément comme une onde et une particule.
L’explication D’Einstein de l’effet photoélectriquemodifier
en 1905, Albert Einstein a fourni une explication de l’effet photoélectrique, une expérience que la théorie des ondes de la lumière n’a pas réussi à expliquer. Il l’a fait en postulant l’existence de photons, quanta d’énergie lumineuse avec des qualités particulaires.,
dans l’effet photoélectrique, il a été observé qu’une lumière sur certains métaux entraînerait un courant électrique dans un circuit. Vraisemblablement, la lumière frappait les électrons du métal, provoquant le flux de courant. Cependant, en utilisant le cas du potassium comme exemple, il a également été observé que, même si une faible lumière bleue suffisait à provoquer un courant, même la lumière rouge la plus forte et la plus brillante disponible avec la technologie de l’époque ne provoquait aucun courant., Selon la théorie classique de la lumière et de la matière, la force ou l’amplitude d’une onde lumineuse était proportionnelle à sa luminosité: une lumière vive aurait dû être facilement assez forte pour créer un courant important. Pourtant, curieusement, ce n’était pas ainsi.
Einstein a expliqué cette énigme en postulant que les électrons ne peuvent recevoir l’énergie du champ électromagnétique qu’en unités discrètes (quanta ou photons): une quantité D’énergie E qui était liée à la fréquence f de la lumière par
E = h F {\displaystyle E=HF\,}
où h est la constante de Planck (6,626 × 10-34 Js)., Seuls les photons d’une fréquence suffisamment élevée (au-dessus d’une certaine valeur seuil) pourraient frapper un électron libre. Par exemple, les photons de lumière bleue avaient suffisamment d’énergie pour libérer un électron du métal, mais pas les photons de lumière rouge. Un photon de lumière au-dessus du seuil de fréquence pourrait libérer un seul électron; plus la fréquence d’un photon, plus l’énergie cinétique de l’électron émis, mais aucun montant de la lumière en dessous du seuil de fréquence pourrait libérer un électron. Violer cette loi nécessiterait des lasers à très haute intensité qui n’avaient pas encore été inventés., Les phénomènes dépendant de l’intensité ont maintenant été étudiés en détail avec de tels lasers.
Einstein a reçu le Prix Nobel de Physique en 1921 pour sa découverte de la loi de l’effet photoélectrique.
hypothèse de de Brogliemodifier
Article principal: onde de matièrePropagation des ondes de De Broglie en 1D—une partie réelle de l’amplitude complexe est bleue, une partie imaginaire est verte., La probabilité (représentée par l’opacité de la couleur) de trouver la particule en un point x donné est étalée comme une forme d’onde; il n’y a pas de position définie de la particule. Lorsque l’amplitude augmente au—dessus de zéro, la courbure diminue, de sorte que l’amplitude diminue à nouveau, et vice versa-le résultat est une amplitude alternative: une onde. Haut: d’une onde Plane. En bas: un paquet d’Onde.,en 1924, Louis-Victor de Broglie a formulé L’hypothèse de De Broglie, affirmant que toute matière a une nature ondulatoire, il a lié la longueur d’onde et le momentum:
λ = h P {\displaystyle \lambda ={\frac {H}{p}}}
la formule de De Broglie a été confirmée trois ans plus tard pour les électrons avec l’observation de la diffraction des électrons dans deux expériences indépendantes. À L’Université D’Aberdeen, George Paget Thomson a fait passer un faisceau d’électrons à travers un mince film métallique et a observé les modèles d’interférence prévus., Aux Bell Labs, Clinton Joseph Davisson et Lester Halbert Germer ont guidé le faisceau d’électrons à travers une grille cristalline dans leur expérience populairement connue sous le nom D’expérience Davisson–Germer.
De Broglie a reçu le prix Nobel de physique en 1929 pour son hypothèse. Thomson et Davisson ont partagé le prix Nobel de physique en 1937 pour leurs travaux expérimentaux.,
le principe d’incertitude de Heisenblemodifier
Article principal: principe d’incertitudedans son travail sur la formulation de la mécanique quantique, Werner Heisenberg postule son principe d’incertitude, qui stipule:
Δ X Δ P ≥ 1 2 {{\displaystyle \Delta x\,\Delta p\geq {\tfrac{1} {2}}\hbar }
où
Δ {\displaystyle \Delta } ici indique l’écart-type, une mesure de l’écart ou de L’incertitude; X et p sont respectivement la position et le moment linéaire d’une particule. ℏ {\displaystyle \ Hbar} est la constante de Planck réduite (constante de Planck divisée par 2 π {\displaystyle \pi}).,
Heisenberg a expliqué cela à l’origine comme une conséquence du processus de mesure: Mesurer la position avec précision perturberait l’élan et vice versa, offrant un exemple (le « microscope à rayons gamma ») qui dépendait de l’hypothèse de De Broglie. On pense maintenant que cela n’explique qu’en partie le phénomène, mais que l’incertitude existe également dans la particule elle-même, avant même que la mesure ne soit effectuée.,
en fait, l’explication moderne du principe d’incertitude, prolongeant l’interprétation de Copenhague proposée d’abord par Bohr et Heisenberg, dépend encore plus de la nature ondulatoire d’une particule. Tout comme il est absurde de discuter de l’emplacement précis d’une onde sur une chaîne, les particules n’ont pas de positions parfaitement précises; de même, tout comme il est absurde de discuter de la longueur d’onde d’une onde « pulsée » voyageant le long d’une chaîne, les particules n’ont pas de moment parfaitement précis qui correspond à, De plus, lorsque la position est relativement bien définie, l’onde ressemble à une impulsion et a une longueur d’onde très mal définie, et donc une impulsion. Et inversement, lorsque l’impulsion, et donc la longueur d’onde, est relativement bien définie, l’onde semble longue et sinusoïdale, et donc elle a une position très mal définie.
théorie de Broglie–Bohmmodifier
Article principal: théorie de De Broglie–Bohmexpériences de Couder, « matérialisant » le modèle d’onde pilote.,De Broglie lui-même avait proposé une construction d’onde pilote pour expliquer la dualité onde-particule observée. Dans cette vue, chaque particule a une position et une impulsion bien définies, mais est guidée par une fonction d’onde dérivée de L’équation de Schrödinger. La théorie des ondes pilotes a été initialement rejetée parce qu’elle générait des effets non locaux lorsqu’elle était appliquée à des systèmes impliquant plus d’une particule. La non-localité, cependant, s’est rapidement établie comme une caractéristique intégrale de la théorie quantique et David Bohm a étendu le modèle de de Broglie pour l’inclure explicitement.,
dans la représentation résultante, également appelée théorie de De Broglie–Bohm ou mécanique Bohmienne, la dualité onde-particule disparaît et explique le comportement de l’onde comme une diffusion avec apparence d’onde, car le mouvement de la particule est soumis à une équation de guidage ou à un potentiel quantique.
Cette idée me semble tellement naturel et simple, pour résoudre l’onde–particule dilemme dans de telles clairement et de manière ordinaire, que c’est un grand mystère pour moi qu’il est généralement ignoré. – J. S.,Bell
La meilleure illustration du modèle d’onde pilote a été donnée par les expériences « walking droplets » de Couder en 2010, démontrant le comportement de l’onde pilote dans un analogue mécanique macroscopique.
Laisser un commentaire