teorías clásicas de partículas y ondas de lightEdit

el bosquejo de Thomas Young de la difracción de dos ranuras de ondas, 1803

Demócrito (siglo 5 AC) argumentó que todas las cosas en el universo, incluyendo luz, se componen de subcomponentes indivisibles., Euclides (4to-3ro siglo AC) da tratados sobre la propagación de la luz, establece el principio de la trayectoria más corta de la luz, incluyendo múltiples reflexiones en espejos, incluyendo esféricos, mientras que Plutarco (1to-2do siglo dC) describe múltiples reflexiones en espejos esféricos discutiendo la creación de imágenes más grandes o más pequeñas, reales o imaginarias, incluyendo el caso de quiralidad de las imágenes., A principios del siglo XI, el científico árabe Ibn al-Haytham escribió el primer libro completo de óptica que describe la reflexión, la refracción y el funcionamiento de una lente estenopeica a través de rayos de luz que viajan desde el punto de emisión hasta el ojo. Afirmó que estos rayos estaban compuestos de partículas de luz. En 1630, René Descartes popularizó y acreditó la descripción de onda opuesta en su Tratado sobre la luz, el mundo (Descartes), mostrando que el comportamiento de la luz podría ser recreado modelando perturbaciones como ondas en un medio universal, es decir, éter luminífero., Comenzando en 1670 y progresando durante tres décadas, Isaac Newton desarrolló y defendió su teoría corpuscular, argumentando que las líneas perfectamente rectas de reflexión demostraban la naturaleza de las partículas de la luz, solo las partículas podían viajar en tales líneas rectas. Explicó la refracción postulando que las partículas de luz se aceleraban lateralmente al entrar en un medio más denso., Al mismo tiempo, los contemporáneos de Newton, Robert Hooke y Christiaan Huygens, y más tarde Augustin-Jean Fresnel, refinaron matemáticamente el punto de vista de la onda, mostrando que si la luz viajaba a diferentes velocidades en diferentes medios, la refracción podría explicarse fácilmente como la propagación dependiente del medio de las ondas de luz. El principio resultante de Huygens-Fresnel fue extremadamente exitoso en la reproducción del comportamiento de la luz y posteriormente fue apoyado por el descubrimiento de Thomas Young de la interferencia de onda de la luz por su experimento de doble rendija en 1801., La vista de onda no desplazó inmediatamente la vista de rayos y partículas, pero comenzó a dominar el pensamiento científico sobre la luz a mediados del siglo XIX, ya que podía explicar fenómenos de polarización que las alternativas no podían.

James Clerk Maxwell descubrió que podía aplicar sus ecuaciones de Maxwell previamente descubiertas, junto con una ligera modificación para describir ondas de auto-propagación de campos eléctricos y magnéticos oscilantes. Rápidamente se hizo evidente que la luz visible, la luz ultravioleta y la luz infrarroja eran ondas electromagnéticas de diferente frecuencia.,

  • Reproducir

    Animación que muestra la dualidad onda-partícula con un doble-el experimento de la rendija y el efecto de un observador. Aumentar el tamaño para ver las explicaciones en el vídeo en sí. Vea también un cuestionario basado en esta animación.

  • de Partículas impactos hacer visible el patrón de interferencia de ondas.,

  • Una partícula cuántica es representado por un paquete de ondas.

  • la Interferencia de una partícula cuántica con la misma.

black-body radiation and planck’s lawEdit

Artículo principal: black-body radiation

en 1901, Max Planck publicó un análisis que logró reproducir el espectro observado de luz emitida por un objeto brillante., Para lograr esto, Planck tuvo que hacer una suposición matemática de la energía cuantizada de los osciladores, es decir, los átomos del cuerpo negro que emiten radiación. Einstein propuso más tarde que la radiación electromagnética en sí misma está cuantizada, no la energía de los átomos radiantes.

la radiación del cuerpo negro, la emisión de energía electromagnética debido al calor de un objeto, no podía explicarse solo a partir de argumentos clásicos., El teorema de equipartición de la mecánica clásica, la base de todas las teorías termodinámicas clásicas, declaró que la energía de un objeto se divide por igual entre los modos vibratorios del objeto. Pero aplicar el mismo razonamiento a la emisión electromagnética de tal objeto térmico no fue tan exitoso. Que los objetos térmicos emiten luz se conocía desde hacía mucho tiempo. Dado que la luz era conocida por ser ondas de electromagnetismo, los físicos esperaban describir esta emisión a través de las leyes clásicas. Esto se conoció como el problema del cuerpo negro., Dado que el teorema de equipartición funcionó tan bien en la descripción de los modos vibracionales del objeto térmico en sí, era natural suponer que funcionaría igualmente bien en la descripción de la emisión radiativa de tales objetos. Pero un problema surgió rápidamente si cada modo recibía una partición igual de energía, los modos de longitud de onda corta consumirían toda la energía. Esto quedó claro cuando se trazó la Ley de Rayleigh–Jeans, que, mientras predecía correctamente la intensidad de las emisiones de longitud de onda larga, predecía la energía total infinita a medida que la intensidad diverge hasta el infinito para longitudes de onda cortas., Esto se conoció como la catástrofe ultravioleta.

en 1900, Max Planck hipotetizó que la frecuencia de la luz emitida por el cuerpo negro dependía de la frecuencia del oscilador que la emitía, y la energía de estos osciladores aumentaba linealmente con la frecuencia (según E = hf donde h es la constante de Planck y f es la frecuencia)., Esta no fue una propuesta errónea teniendo en cuenta que los osciladores macroscópicos operan de manera similar cuando se estudian cinco osciladores armónicos simples de igual amplitud pero diferente frecuencia, el oscilador con la frecuencia más alta posee la energía más alta (aunque esta relación no es lineal como la de Planck)., Al exigir que la luz de alta frecuencia debe ser emitida por un oscilador de igual frecuencia, y además requerir que este oscilador ocupe una energía más alta que uno de menor frecuencia, Planck evitó cualquier catástrofe, dando una partición igual a los osciladores de alta frecuencia producidos sucesivamente menos osciladores y menos luz emitida. Y como en la distribución de Maxwell–Boltzmann, los osciladores de baja frecuencia y baja energía fueron suprimidos por la embestida del jiggling térmico de osciladores de mayor energía, lo que necesariamente aumentó su energía y frecuencia.,

el aspecto más revolucionario del tratamiento de Planck del cuerpo negro es que depende inherentemente de un número entero de osciladores en equilibrio térmico con el campo electromagnético. Estos osciladores dan toda su energía al campo electromagnético, creando un quantum de luz, tan a menudo como son excitados por el campo electromagnético, absorbiendo un quantum de luz y comenzando a oscilar en la frecuencia correspondiente., Planck había creado intencionalmente una teoría atómica del cuerpo negro, pero había generado involuntariamente una teoría atómica de la luz, donde el cuerpo negro nunca genera cuantos de luz a una frecuencia dada con una energía menor que hf. Sin embargo, una vez que se dio cuenta de que había cuantificado el campo electromagnético, denunció las partículas de luz como una limitación de su aproximación, no como una propiedad de la realidad.

Fotoeléctrico effectEdit

artículo Principal: efecto Fotoeléctrico

El efecto fotoeléctrico., Los fotones entrantes a la izquierda golpean una placa de metal (abajo), y expulsan electrones, representados como volando hacia la derecha.

mientras que Planck había resuelto la catástrofe ultravioleta usando átomos y un campo electromagnético cuantizado, la mayoría de los físicos contemporáneos estuvieron de acuerdo en que los «cuantos de luz» de Planck solo representaban fallas en su modelo. Una derivación más completa de la radiación de cuerpo negro produciría un campo electromagnético completamente continuo y «ondulatorio» sin cuantización., Sin embargo, en 1905 Albert Einstein tomó el modelo de cuerpo negro de Planck para producir su solución a otro problema pendiente del día: el efecto fotoeléctrico, en el que los electrones son emitidos por los átomos cuando absorben energía de la luz. Desde que se teorizó su existencia ocho años antes, los fenómenos habían sido estudiados con el modelo de electrones en mente en laboratorios de física de todo el mundo.

en 1902, Philipp Lenard descubrió que la energía de estos electrones expulsados no dependía de la intensidad de la luz entrante, sino de su frecuencia., Así que si uno brilla un poco de luz de baja frecuencia sobre un metal, unos pocos electrones de baja energía son expulsados. Si uno ahora hace brillar un haz muy intenso de luz de baja frecuencia sobre el mismo metal, toda una serie de electrones son expulsados; sin embargo, poseen la misma baja energía, simplemente hay más de ellos. Cuanta más luz hay, más electrones son expulsados. Mientras que para obtener electrones de alta energía, uno debe iluminar el metal con luz de alta frecuencia. Al igual que la radiación de cuerpo negro, esto estaba en desacuerdo con una teoría que invoca la transferencia continua de energía entre la radiación y la materia., Sin embargo, todavía se puede explicar usando una descripción completamente clásica de la luz, siempre y cuando la materia sea de naturaleza mecánica cuántica.

si se usa el quanta de energía de Planck, y se exige que la radiación electromagnética a una frecuencia dada solo pueda transferir energía a la materia en múltiplos enteros de un cuántico de energía hf, entonces el efecto fotoeléctrico podría explicarse de manera muy simple. La luz de baja frecuencia solo expulsa electrones de baja energía porque cada electrón es excitado por la absorción de un solo fotón., Aumentar la intensidad de la luz de baja frecuencia (aumentar el número de fotones) solo aumenta el número de electrones excitados, no su energía, porque la energía de cada fotón permanece baja. Solo aumentando la frecuencia de la luz, y así aumentando la energía de los fotones, uno puede expulsar electrones con mayor energía. Así, usando la constante de Planck h para determinar la energía de los fotones basada en su frecuencia, la energía de los electrones expulsados también debería aumentar linealmente con la frecuencia, siendo el gradiente de la línea la constante de Planck., Estos resultados no fueron confirmados hasta 1915, cuando Robert Andrews Millikan produjo resultados experimentales en perfecto acuerdo con las predicciones de Einstein.

mientras que la energía de los electrones expulsados reflejaba la constante de Planck, la existencia de fotones no se demostró explícitamente hasta el descubrimiento del efecto antibunching de fotones. Esto se refiere a la observación de que una vez un solo emisor(un átomo, molécula, emisor de estado sólido, etc.) irradia una señal de luz detectable, no puede liberar inmediatamente una segunda señal hasta después de que el emisor haya sido re-excitado., Esto conduce a un retraso de tiempo estadísticamente cuantificable entre las emisiones de luz, por lo que la detección de múltiples señales se vuelve cada vez más improbable a medida que el tiempo de observación cae bajo la vida útil del estado excitado del emisor. El efecto se puede demostrar en un laboratorio de nivel universitario.

este fenómeno solo puede explicarse a través de fotones. Los «cuantos de luz» de Einstein no se llamarían fotones hasta 1925, pero incluso en 1905 representaban el ejemplo por excelencia de la dualidad onda-partícula., La radiación electromagnética se propaga siguiendo ecuaciones de onda lineal, pero solo puede ser emitida o absorbida como elementos discretos, actuando así como una onda y una partícula simultáneamente.

la explicación de Einstein del efecto fotoeléctricoditar

en 1905, Albert Einstein proporcionó una explicación del efecto fotoeléctrico, un experimento que la teoría ondulatoria de la luz no pudo explicar. Lo hizo postulando la existencia de fotones, cuantos de energía de la luz con cualidades particuladas.,

en el efecto fotoeléctrico, se observó que brillar una luz sobre ciertos metales conduciría a una corriente eléctrica en un circuito. Presumiblemente, la luz estaba expulsando electrones del metal, haciendo que la corriente fluyera. Sin embargo, usando el caso del potasio como ejemplo, también se observó que mientras que una luz azul tenue era suficiente para causar una corriente, incluso la luz roja más fuerte y brillante disponible con la tecnología de la época no causaba ninguna corriente., Según la teoría clásica de la luz y la materia, la fuerza o amplitud de una onda de luz era proporcional a su brillo: una luz brillante debería haber sido lo suficientemente fuerte como para crear una gran corriente. Sin embargo, curiosamente, esto no fue así.

Einstein explicó este enigma postulando que los electrones pueden recibir energía del campo electromagnético solo en unidades discretas (cuantos o fotones): una cantidad de energía e que estaba relacionada con la frecuencia f de la luz por

E = h f {\displaystyle E=hf\,}

donde h es la constante de Planck (6.626 × 10-34 Js)., Solo los fotones de una frecuencia lo suficientemente alta (por encima de un cierto valor umbral) podrían golpear un electrón libre. Por ejemplo, los fotones de luz azul tenían suficiente energía para liberar un electrón del metal, pero los fotones de luz roja no. Un fotón de luz por encima de la frecuencia umbral podría liberar solo un electrón; cuanto mayor sea la frecuencia de un fotón, mayor será la energía cinética del electrón emitido, pero ninguna cantidad de luz por debajo de la frecuencia umbral podría liberar un electrón. Para violar esta ley se requerirían láseres de intensidad extremadamente alta que aún no se habían inventado., Los fenómenos dependientes de la intensidad ahora se han estudiado en detalle con tales láseres.

Einstein fue galardonado con el Premio Nobel de Física en 1921 por su descubrimiento de la ley del efecto fotoeléctrico.

hipótesis de de Broglieditar

Artículo principal: onda de materia

propagación de las ondas de De Broglie en 1d—la parte real de la amplitud compleja es azul, la parte imaginaria es verde., La probabilidad (mostrada como la opacidad del color) de encontrar la partícula en un punto dado x se extiende como una forma de onda; no hay una posición definida de la partícula. A medida que la amplitud aumenta por encima de cero la curvatura disminuye, por lo que la amplitud disminuye de nuevo, y viceversa—el resultado es una amplitud alterna: una onda. Arriba: onda plana. Abajo: paquete de ondas.,

en 1924, Louis-Victor De Broglie formuló la hipótesis de Broglie, afirmando que toda la materia tiene una naturaleza ondulatoria, relacionó la longitud de onda y el momento:

λ = h p {\displaystyle \ lambda = {\frac {h}{p}}}

la fórmula de Broglie fue confirmada tres años más tarde para los electrones con la observación de la difracción de electrones en dos experimentos independientes. En la Universidad de Aberdeen, George Paget Thomson pasó un haz de electrones a través de una delgada película de metal y observó los patrones de interferencia predichos., En Bell Labs, Clinton Joseph Davisson y Lester Halbert Germer guiaron el haz de electrones a través de una rejilla cristalina en su experimento popularmente conocido como experimento Davisson–Germer.

de Broglie fue galardonado con el Premio Nobel de Física en 1929 por su hipótesis. Thomson y Davisson compartieron el Premio Nobel de Física en 1937 por su trabajo experimental.,

principio de incertidumbre de Heisenberg edit

Artículo principal: principio de incertidumbre

en su trabajo sobre la formulación de la mecánica cuántica, Werner Heisenberg postuló su principio de incertidumbre, que establece:

Δ x Δ p ≥ 1 2 {{\displaystyle \Delta x\,\Delta P\geq {\tfrac{1} {2}}\hbar }

donde

Δ {\displaystyle \Delta } Aquí indica la desviación estándar, una medida de dispersión o incertidumbre; X Y P son la posición de una partícula y el momento lineal respectivamente. ℏ {\displaystyle \ hbar } es la constante de Planck reducida (constante de Planck dividida por 2 π {\displaystyle \ pi }).,

Heisenberg originalmente explicó esto como consecuencia del proceso de medición: medir la posición con precisión perturbaría el momento y viceversa, ofreciendo un ejemplo (el «microscopio de rayos gamma») que dependía crucialmente de la hipótesis de Broglie. Sin embargo, ahora se piensa que esto solo explica parcialmente el fenómeno, pero que la incertidumbre también existe en la partícula misma, incluso antes de que se realice la medición.,

de hecho, la explicación moderna del principio de incertidumbre, extendiendo la interpretación de Copenhague presentada por Bohr y Heisenberg, depende aún más centralmente de la naturaleza ondulatoria de una partícula. Así como no tiene sentido discutir la ubicación precisa de una onda en una cuerda, las partículas no tienen posiciones perfectamente precisas; del mismo modo, así como no tiene sentido discutir la longitud de onda de una onda de «pulso» que viaja por una cuerda, las partículas no tienen momentos perfectamente precisos que correspondan a la inversa de la longitud de onda., Además, cuando la posición está relativamente bien definida, la onda es como un pulso y tiene una longitud de onda muy mal definida, y por lo tanto el momento. Y por el contrario, cuando el momento, y por lo tanto la longitud de onda, está relativamente bien definida, la onda se ve larga y sinusoidal, y por lo tanto tiene una posición muy mal definida.

de Broglie–Bohm theoryEdit

Artículo principal: de Broglie–Bohm theory

Couder experiments,» materializing » the pilot wave model.,

El Propio De Broglie había propuesto una construcción de onda piloto para explicar la dualidad onda-partícula observada. En este punto de vista, cada partícula tiene una posición y un momento bien definidos, pero es guiada por una función de onda derivada de la ecuación de Schrödinger. La teoría de ondas piloto fue rechazada inicialmente porque generaba efectos no locales cuando se aplicaba a sistemas que involucraban más de una partícula. La no-localidad, sin embargo, pronto se estableció como una característica integral de la teoría cuántica y David Bohm extendió el modelo de Broglie para incluirlo explícitamente.,

en la representación resultante, también llamada teoría de Broglie-Bohm o mecánica Bohmiana, la dualidad onda-partícula desaparece, y explica el comportamiento de la onda como una dispersión con apariencia de onda, porque el movimiento de la partícula está sujeto a una ecuación guía o potencial cuántico.

esta idea me parece tan natural y simple, para resolver el dilema onda-partícula de una manera tan clara y ordinaria, que es un gran misterio para mí que fue tan generalmente ignorado. – J. S.,Bell

La mejor ilustración del modelo de onda piloto fue dada por los experimentos» walking droplets » de Couder de 2010, demostrando el comportamiento de la onda piloto en un análogo mecánico macroscópico.

Anterior

Kamikaze

Siguiente

¡los cinco mejores bailarines de Ballet masculino de todos los tiempos!

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *