Classica particella e onda teorie di lightEdit

Thomas Young schizzo di due-fessura di diffrazione di onde, 1803

Democrito (5 ° secolo A.C.) ha sostenuto che tutte le cose nell’universo, compresa la luce, sono composti da indivisibile sub-componenti., Euclide (4 ° -3 ° secolo AC) fornisce trattati sulla propagazione della luce, afferma il principio della traiettoria più breve della luce, incluse riflessioni multiple su specchi, tra cui sferica, mentre Plutarco (1 ° – 2 ° secolo DC) descrive riflessioni multiple su specchi sferici discutendo la creazione di immagini più grandi o più piccole, reali o immaginarie, incluso il caso della chiralità delle immagini., All’inizio dell’xi secolo, lo scienziato arabo Ibn al-Haytham scrisse il primo libro completo di ottica che descriveva la riflessione, la rifrazione e il funzionamento di una lente stenopeica attraverso raggi di luce che viaggiano dal punto di emissione all’occhio. Ha affermato che questi raggi erano composti da particelle di luce. Nel 1630, René Descartes rese popolare e accreditò la descrizione dell’onda opposta nel suo trattato sulla luce, Il mondo (Descartes), mostrando che il comportamento della luce poteva essere ricreato modellando disturbi simili a onde in un mezzo universale, cioè l’etere luminifero., A partire dal 1670 e progredendo per tre decenni, Isaac Newton sviluppò e sostenne la sua teoria corpuscolare, sostenendo che le linee perfettamente rette di riflessione dimostravano la natura delle particelle della luce, solo le particelle potevano viaggiare in tali linee rette. Spiegò la rifrazione postulando che le particelle di luce acceleravano lateralmente entrando in un mezzo più denso., Nello stesso periodo, i contemporanei di Newton Robert Hooke e Christiaan Huygens, e più tardi Augustin-Jean Fresnel, perfezionarono matematicamente il punto di vista delle onde, dimostrando che se la luce viaggiava a velocità diverse in diversi media, la rifrazione potrebbe essere facilmente spiegata come la propagazione delle onde luminose dipendente dal mezzo. Il principio di Huygens–Fresnel risultante ebbe un grande successo nel riprodurre il comportamento della luce e fu successivamente supportato dalla scoperta di Thomas Young dell’interferenza delle onde della luce dal suo esperimento a doppia fenditura nel 1801., La vista delle onde non ha immediatamente spostato la vista dei raggi e delle particelle, ma ha iniziato a dominare il pensiero scientifico sulla luce a metà del 19 ° secolo, dal momento che potrebbe spiegare i fenomeni di polarizzazione che le alternative non potevano.

James Clerk Maxwell scoprì che poteva applicare le equazioni di Maxwell precedentemente scoperte, insieme a una leggera modifica per descrivere onde auto-propaganti di campi elettrici e magnetici oscillanti. Divenne subito evidente che la luce visibile, la luce ultravioletta e la luce infrarossa erano tutte onde elettromagnetiche di frequenza diversa.,

  • Play media

    Animazione che mostra la dualità onda-particella con un doppio fessura esperimento e l’effetto di un osservatore. Aumentare le dimensioni per vedere le spiegazioni nel video stesso. Vedi anche un quiz basato su questa animazione.

  • Gli impatti delle particelle rendono visibile il pattern di interferenza delle onde.,

  • Una particella quantistica è rappresentata da un pacchetto d’onda.

  • Interferenza di una particella quantistica con se stessa.

Radiazione del corpo nero e lawEdit di Planck

Articolo principale: Radiazione del corpo nero

Nel 1901, Max Planck pubblicò un’analisi che riuscì a riprodurre lo spettro di luce osservato emesso da un oggetto incandescente., Per fare ciò, Planck ha dovuto fare un’ipotesi matematica dell’energia quantizzata degli oscillatori, cioè gli atomi del corpo nero che emettono radiazioni. Einstein in seguito propose che la radiazione elettromagnetica stessa fosse quantizzata, non l’energia degli atomi radianti.

La radiazione del corpo nero, l’emissione di energia elettromagnetica dovuta al calore di un oggetto, non poteva essere spiegata solo dagli argomenti classici., Il teorema di equipartizione della meccanica classica, alla base di tutte le teorie termodinamiche classiche, affermava che l’energia di un oggetto è suddivisa equamente tra i modi vibrazionali dell’oggetto. Ma applicare lo stesso ragionamento all’emissione elettromagnetica di un tale oggetto termico non ha avuto così successo. Che gli oggetti termici emettano luce era noto da tempo. Poiché la luce era nota per essere onde di elettromagnetismo, i fisici speravano di descrivere questa emissione attraverso le leggi classiche. Questo divenne noto come il problema del corpo nero., Poiché il teorema di equipartizione funzionava così bene nel descrivere le modalità vibrazionali dell’oggetto termico stesso, era naturale supporre che avrebbe funzionato altrettanto bene nel descrivere l’emissione radiativa di tali oggetti. Ma un problema sorse rapidamente se ogni modalità riceveva una partizione uguale di energia, le modalità a lunghezza d’onda corta consumavano tutta l’energia. Questo è diventato chiaro quando si traccia la legge di Rayleigh-Jeans, che, mentre predice correttamente l’intensità delle emissioni di lunghezza d’onda lunga, ha previsto l’energia totale infinita mentre l’intensità diverge all’infinito per le lunghezze d’onda corte., Questo divenne noto come la catastrofe ultravioletta.

Nel 1900, Max Planck ipotizzò che la frequenza della luce emessa dal corpo nero dipendesse dalla frequenza dell’oscillatore che la emetteva, e l’energia di questi oscillatori aumentava linearmente con la frequenza (secondo E = hf dove h è la costante di Planck e f è la frequenza)., Questa non era una proposta sbagliata considerando che gli oscillatori macroscopici funzionano allo stesso modo quando si studiano cinque semplici oscillatori armonici di uguale ampiezza ma frequenza diversa, l’oscillatore con la frequenza più alta possiede la più alta energia (anche se questa relazione non è lineare come quella di Planck)., Richiedendo che la luce ad alta frequenza debba essere emessa da un oscillatore di uguale frequenza, e richiedendo inoltre che questo oscillatore occupi un’energia superiore a quella di una frequenza minore, Planck evitò qualsiasi catastrofe, dando una partizione uguale agli oscillatori ad alta frequenza prodotti successivamente meno oscillatori e meno luce emessa. E come nella distribuzione di Maxwell–Boltzmann, gli oscillatori a bassa frequenza e bassa energia furono soppressi dall’assalto del jiggling termico da oscillatori a energia più alta, che necessariamente aumentarono la loro energia e frequenza.,

L’aspetto più rivoluzionario del trattamento di Planck del corpo nero è che si basa intrinsecamente su un numero intero di oscillatori in equilibrio termico con il campo elettromagnetico. Questi oscillatori danno tutta la loro energia al campo elettromagnetico, creando un quanto di luce, tutte le volte che sono eccitati dal campo elettromagnetico, assorbendo un quanto di luce e iniziando a oscillare alla frequenza corrispondente., Planck aveva intenzionalmente creato una teoria atomica del corpo nero, ma aveva involontariamente generato una teoria atomica della luce, dove il corpo nero non genera mai quanti di luce ad una data frequenza con un’energia inferiore a hf. Tuttavia, una volta capito che aveva quantizzato il campo elettromagnetico, denunciò le particelle di luce come una limitazione della sua approssimazione, non una proprietà della realtà.

Effetto fotoelettricomodifica

Articolo principale: Effetto fotoelettrico

L’effetto fotoelettrico., I fotoni in arrivo a sinistra colpiscono una piastra metallica (in basso) ed espellono gli elettroni, raffigurati come volando a destra.

Mentre Planck aveva risolto la catastrofe ultravioletta usando atomi e un campo elettromagnetico quantizzato, la maggior parte dei fisici contemporanei concordava sul fatto che i “quanti di luce” di Planck rappresentassero solo difetti nel suo modello. Una derivazione più completa della radiazione del corpo nero produrrebbe un campo elettromagnetico completamente continuo e “ondulatorio” senza quantizzazione., Tuttavia, nel 1905 Albert Einstein prese il modello del corpo nero di Planck per produrre la sua soluzione ad un altro problema eccezionale del giorno: l’effetto fotoelettrico, in cui gli elettroni vengono emessi dagli atomi quando assorbono energia dalla luce. Dal momento che la loro esistenza è stata teorizzata otto anni prima, i fenomeni erano stati studiati con il modello elettronico in mente nei laboratori di fisica di tutto il mondo.

Nel 1902, Philipp Lenard scoprì che l’energia di questi elettroni espulsi non dipendeva dall’intensità della luce in arrivo, ma piuttosto dalla sua frequenza., Quindi se uno brilla un po ‘ di luce a bassa frequenza su un metallo, alcuni elettroni a bassa energia vengono espulsi. Se uno ora brilla un fascio molto intenso di luce a bassa frequenza sullo stesso metallo, un’intera sfilza di elettroni vengono espulsi; tuttavia possiedono la stessa bassa energia, ce ne sono solo di più. Più luce c’è, più elettroni vengono espulsi. Mentre per ottenere elettroni ad alta energia, si deve illuminare il metallo con luce ad alta frequenza. Come la radiazione del corpo nero, questo era in contrasto con una teoria che invocava il trasferimento continuo di energia tra radiazione e materia., Tuttavia, può ancora essere spiegato usando una descrizione completamente classica della luce, purché la materia sia di natura meccanica quantistica.

Se si usassero i quanti energetici di Planck e si richiedesse che la radiazione elettromagnetica ad una data frequenza potesse trasferire energia alla materia solo in multipli interi di un quantum energetico hf, allora l’effetto fotoelettrico potrebbe essere spiegato molto semplicemente. La luce a bassa frequenza espelle solo elettroni a bassa energia perché ogni elettrone è eccitato dall’assorbimento di un singolo fotone., Aumentando l’intensità della luce a bassa frequenza (aumentando il numero di fotoni) aumenta solo il numero di elettroni eccitati, non la loro energia, perché l’energia di ciascun fotone rimane bassa. Solo aumentando la frequenza della luce, e aumentando così l’energia dei fotoni, si possono espellere elettroni con energia più elevata. Quindi, usando la costante h di Planck per determinare l’energia dei fotoni in base alla loro frequenza, l’energia degli elettroni espulsi dovrebbe anche aumentare linearmente con la frequenza, il gradiente della linea è la costante di Planck., Questi risultati non furono confermati fino al 1915, quando Robert Andrews Millikan produsse risultati sperimentali in perfetto accordo con le previsioni di Einstein.

Mentre l’energia degli elettroni espulsi rifletteva la costante di Planck, l’esistenza dei fotoni non fu esplicitamente dimostrata fino alla scoperta dell’effetto antibunching del fotone. Questo si riferisce all’osservazione che una volta un singolo emettitore (un atomo, molecola, emettitore allo stato solido, ecc.) irradia un segnale luminoso rilevabile, non può rilasciare immediatamente un secondo segnale fino a dopo che l’emettitore è stato rieccitato., Ciò porta a un ritardo statisticamente quantificabile tra le emissioni luminose, quindi il rilevamento di più segnali diventa sempre più improbabile man mano che il tempo di osservazione scende sotto la durata dello stato eccitato dell’emettitore. L’effetto può essere dimostrato in un laboratorio di livello universitario.

Questo fenomeno potrebbe essere spiegato solo tramite fotoni. I “quanti di luce” di Einstein non sarebbero stati chiamati fotoni fino al 1925, ma anche nel 1905 rappresentavano l’esempio per eccellenza della dualità onda-particella., La radiazione elettromagnetica si propaga seguendo le equazioni delle onde lineari, ma può essere emessa o assorbita solo come elementi discreti, agendo così come un’onda e una particella simultaneamente.

La spiegazione di Einstein dell’effetto fotoelettricomodifica

Nel 1905, Albert Einstein fornì una spiegazione dell’effetto fotoelettrico, un esperimento che la teoria delle onde della luce non riuscì a spiegare. Lo ha fatto postulando l’esistenza di fotoni, quanti di energia luminosa con qualità di particolato.,

Nell’effetto fotoelettrico, è stato osservato che brillare una luce su alcuni metalli porterebbe a una corrente elettrica in un circuito. Presumibilmente, la luce stava facendo cadere gli elettroni dal metallo, causando il flusso di corrente. Tuttavia, usando il caso del potassio come esempio, è stato anche osservato che mentre una luce blu fioca era sufficiente a causare una corrente, anche la luce rossa più forte e luminosa disponibile con la tecnologia del tempo non causava alcuna corrente., Secondo la teoria classica della luce e della materia, la forza o l’ampiezza di un’onda luminosa era proporzionale alla sua luminosità: una luce intensa avrebbe dovuto essere facilmente abbastanza forte da creare una grande corrente. Eppure, stranamente, non era così.

Einstein ha spiegato l’enigma postulando che gli elettroni possono ricevere energia dal campo elettromagnetico solo in unità discrete (quanta o fotoni): una quantità di energia E che era imparentato con la frequenza f della luce,

E = h f {\displaystyle E=hf\,}

dove h è la costante di Planck (6.626 × 10-34 Js)., Solo i fotoni di una frequenza abbastanza alta (al di sopra di un certo valore di soglia) potrebbero battere un elettrone libero. Ad esempio, i fotoni di luce blu avevano energia sufficiente per liberare un elettrone dal metallo, ma i fotoni di luce rossa no. Un fotone di luce al di sopra della frequenza di soglia potrebbe rilasciare un solo elettrone; maggiore è la frequenza di un fotone, maggiore è l’energia cinetica dell’elettrone emesso, ma nessuna quantità di luce al di sotto della frequenza di soglia potrebbe rilasciare un elettrone. Violare questa legge richiederebbe laser ad altissima intensità che non erano ancora stati inventati., I fenomeni dipendenti dall’intensità sono stati ora studiati in dettaglio con tali laser.

Einstein ricevette il premio Nobel per la Fisica nel 1921 per la sua scoperta della legge dell’effetto fotoelettrico.

ipotesi di de Broglieedit

Articolo principale: Onda della materia

Propagazione delle onde di de Broglie in 1d—la parte reale dell’ampiezza complessa è blu, la parte immaginaria è verde., La probabilità (mostrata come l’opacità del colore) di trovare la particella in un dato punto x è distribuita come una forma d’onda; non esiste una posizione definita della particella. Quando l’ampiezza aumenta sopra lo zero, la curvatura diminuisce, quindi l’ampiezza diminuisce di nuovo e viceversa—il risultato è un’ampiezza alternata: un’onda. Top: Onda piana. In basso: pacchetto onda.,

Nel 1924, Louis-Victor de Broglie formulato l’ipotesi di de Broglie, sostenendo che tutta la materia è un’onda, come la natura, in relazione con la lunghezza d’onda e la velocità:

λ = h p {\displaystyle \lambda ={\frac {h}{p}}}

De Broglie formula è stata confermata tre anni dopo per elettroni con l’osservazione di diffrazione di elettroni in due esperimenti indipendenti. All’Università di Aberdeen, George Paget Thomson passò un fascio di elettroni attraverso un sottile film metallico e osservò i modelli di interferenza previsti., Ai Bell Labs, Clinton Joseph Davisson e Lester Halbert Germer guidarono il fascio di elettroni attraverso una griglia cristallina nel loro esperimento popolarmente noto come esperimento Davisson-Germer.

De Broglie è stato insignito del Premio Nobel per la Fisica nel 1929 per la sua ipotesi. Thomson e Davisson hanno condiviso il premio Nobel per la Fisica nel 1937 per il loro lavoro sperimentale.,

di indeterminazione di Heisenberg principleEdit

articolo Principale: il principio di indeterminazione

Nel suo lavoro sulla formulazione della meccanica quantistica, Werner Heisenberg, hanno postulato il principio di indeterminazione, che afferma:

Δ Δ x p ≥ 1 2 ℏ {\displaystyle \Delta x\,\Delta p\geq {\tfrac {1}{2}}\editormaniglie }

dove

Δ {\displaystyle \Delta } qui indica la deviazione standard, una misura di dispersione o di incertezza; x e p sono una particella di posizione e quantità di moto lineare, rispettivamente. ℏ {\displaystyle \ hbar } è la costante di Planck ridotta (la costante di Planck divisa per 2 π {\displaystyle \ pi }).,

Heisenberg spiegò originariamente questo come conseguenza del processo di misurazione: misurare la posizione con precisione disturberebbe la quantità di moto e viceversa, offrendo un esempio (il “microscopio a raggi gamma”) che dipendeva in modo cruciale dall’ipotesi di de Broglie. Il pensiero è ora, tuttavia, che questo spiega solo in parte il fenomeno, ma che l’incertezza esiste anche nella particella stessa, anche prima che la misurazione sia effettuata.,

In effetti, la spiegazione moderna del principio di indeterminazione, estendendo l’interpretazione di Copenaghen avanzata per la prima volta da Bohr e Heisenberg, dipende ancora più centralmente dalla natura ondulatoria di una particella. Proprio come è assurdo discutere la posizione precisa di un’onda su una corda, le particelle non hanno posizioni perfettamente precise; allo stesso modo, proprio come è assurdo discutere la lunghezza d’onda di un’onda “a impulsi” che viaggia lungo una corda, le particelle non hanno momenti perfettamente precisi che corrispondono all’inverso della lunghezza d’onda., Inoltre, quando la posizione è relativamente ben definita, l’onda è pulsata e ha una lunghezza d’onda molto mal definita, e quindi quantità di moto. E viceversa, quando la quantità di moto, e quindi la lunghezza d’onda, è relativamente ben definita, l’onda sembra lunga e sinusoidale, e quindi ha una posizione molto mal definita.

Teoria di de Broglie–Bohmedit

Articolo principale: teoria di de Broglie–Bohm

Esperimenti di Couder, “materializzando” il modello dell’onda pilota.,

De Broglie stesso aveva proposto un costrutto di onde pilota per spiegare la dualità onda-particella osservata. In questa visione, ogni particella ha una posizione e una quantità di moto ben definite, ma è guidata da una funzione d’onda derivata dall’equazione di Schrödinger. La teoria delle onde pilota è stata inizialmente respinta perché ha generato effetti non locali quando applicato a sistemi che coinvolgono più di una particella. La non-località, tuttavia, divenne presto una caratteristica integrante della teoria quantistica e David Bohm estese il modello di de Broglie per includerlo esplicitamente.,

Nella rappresentazione risultante, chiamata anche teoria di de Broglie–Bohm o meccanica bohmiana, la dualità onda-particella svanisce e spiega il comportamento dell’onda come uno scattering con aspetto ondulatorio, perché il moto della particella è soggetto a un’equazione guida o potenziale quantistico.

Questa idea mi sembra così naturale e semplice, per risolvere il dilemma onda–particella in modo così chiaro e ordinario, che è un grande mistero per me che sia stato così generalmente ignorato. – J. S.,Bell

La migliore illustrazione del modello pilota-onda è stata data dagli esperimenti “walking droplets” di Couder del 2010, dimostrando il comportamento pilota-onda in un analogo meccanico macroscopico.