Un fotón (del griego antiguo φῶς , φωτός ( phôs, phōtós ) 'luz') es una partícula elemental que es un cuanto del campo electromagnético , que incluye la radiación electromagnética como la luz y las ondas de radio , y el portador de fuerza para la fuerza electromagnética . Los fotones son partículas sin masa que siempre se mueven a la velocidad de la luz medida en el vacío. El fotón pertenece a la clase de partículas bosónicas .
Al igual que con otras partículas elementales, los fotones se explican mejor mediante la mecánica cuántica y exhiben dualidad onda-partícula , su comportamiento presenta propiedades tanto de ondas como de partículas . [2] El concepto moderno de fotón se originó durante las primeras dos décadas del siglo XX con el trabajo de Albert Einstein , quien se basó en la investigación de Max Planck . Mientras Planck intentaba explicar cómo la materia y la radiación electromagnética podían estar en equilibrio térmico entre sí, propuso que la energía almacenada dentro de un objeto material debería considerarse compuesta de un número entero de partes discretas de igual tamaño. Para explicar el efecto fotoeléctrico , Einstein introdujo la idea de que la luz en sí misma está hecha de unidades discretas de energía. En 1926, Gilbert N. Lewis popularizó el término fotón para estas unidades de energía. [3] [4] [5] Posteriormente, muchos otros experimentos validaron el enfoque de Einstein. [6] [7] [8]
En el Modelo Estándar de física de partículas , los fotones y otras partículas elementales se describen como una consecuencia necesaria de las leyes físicas que tienen una cierta simetría en cada punto del espacio-tiempo . Las propiedades intrínsecas de las partículas, como la carga , la masa y el espín , están determinadas por la simetría de calibre . El concepto de fotón ha llevado a avances trascendentales en la física experimental y teórica, incluidos los láseres , la condensación de Bose-Einstein , la teoría cuántica de campos y la interpretación probabilística de la mecánica cuántica. Se ha aplicado a la fotoquímica , la microscopía de alta resolución y las mediciones de distancias moleculares . Además, los fotones se han estudiado como elementos de las computadoras cuánticas y para aplicaciones en imágenes ópticas y comunicación óptica , como la criptografía cuántica .
La palabra quanta ( cuanto en singular, del latín cuánto ) se usaba antes de 1900 para referirse a partículas o cantidades de diferentes magnitudes , incluida la electricidad . En 1900, el físico alemán Max Planck estaba estudiando la radiación del cuerpo negro y sugirió que las observaciones experimentales, específicamente en longitudes de onda más cortas , se explicarían si la energía almacenada dentro de una molécula fuera una "cantidad discreta compuesta de un número entero de partes iguales finitas", a las que llamó "elementos de energía". [9] En 1905, Albert Einstein publicó un artículo en el que propuso que muchos fenómenos relacionados con la luz, incluida la radiación del cuerpo negro y el efecto fotoeléctrico , se explicarían mejor modelando las ondas electromagnéticas como si estuvieran formadas por paquetes de ondas discretos y localizados espacialmente. [10] A ese paquete de ondas lo llamó un cuanto de luz (en alemán: ein Lichtquant ). [a]
El nombre fotón deriva de la palabra griega para luz, φῶς (transliterado phôs ). Arthur Compton utilizó fotón en 1928, refiriéndose a Gilbert N. Lewis , quien acuñó el término en una carta a Nature el 18 de diciembre de 1926. [3] [11] El mismo nombre fue utilizado anteriormente pero nunca fue ampliamente adoptado antes de Lewis: en 1916 por el físico y psicólogo estadounidense Leonard T. Troland , en 1921 por el físico irlandés John Joly , en 1924 por el fisiólogo francés René Wurmser (1890-1993), y en 1926 por el físico francés Frithiof Wolfers (1891-1971). [5] El nombre fue sugerido inicialmente como una unidad relacionada con la iluminación del ojo y la sensación de luz resultante y se utilizó más tarde en un contexto fisiológico. Aunque las teorías de Wolfers y Lewis fueron contradichas por muchos experimentos y nunca fueron aceptadas, el nuevo nombre fue adoptado por la mayoría de los físicos muy pronto después de que Compton lo usara. [5] [b]
En física, un fotón se suele denotar con el símbolo γ (la letra griega gamma ). Este símbolo para el fotón probablemente deriva de los rayos gamma , que fueron descubiertos en 1900 por Paul Villard , [13] [14] nombrados por Ernest Rutherford en 1903, y demostrados como una forma de radiación electromagnética en 1914 por Rutherford y Edward Andrade . [15] En química e ingeniería óptica , los fotones se simbolizan generalmente por hν , que es la energía del fotón , donde h es la constante de Planck y la letra griega ν ( nu ) es la frecuencia del fotón . [16]
El fotón no tiene carga eléctrica , [17] [18] generalmente se considera que tiene masa en reposo cero [19] y es una partícula estable . El límite superior experimental de la masa del fotón [20] [21] es muy pequeño, del orden de 10 −50 kg; su vida útil sería más de 10 18 años. [22] A modo de comparación, la edad del universo es de aproximadamente 1,38 × 10 10 años.
En el vacío, un fotón tiene dos posibles estados de polarización . [23] El fotón es el bosón de calibre para el electromagnetismo , [24] : 29–30 y, por lo tanto, todos los demás números cuánticos del fotón (como el número leptónico , el número bariónico y los números cuánticos de sabor ) son cero. [25] Además, el fotón obedece a las estadísticas de Bose-Einstein y no a las estadísticas de Fermi-Dirac . Es decir, no obedecen al principio de exclusión de Pauli [26] : 1221 y más de uno puede ocupar el mismo estado cuántico ligado.
Los fotones se emiten en muchos procesos naturales. Por ejemplo, cuando una carga se acelera , emite radiación de sincrotrón . Durante una transición molecular , atómica o nuclear a un nivel de energía inferior , se emitirán fotones de diversas energías, que van desde ondas de radio hasta rayos gamma . Los fotones también pueden emitirse cuando se aniquilan una partícula y su antipartícula correspondiente (por ejemplo, aniquilación electrón-positrón ). [26] : 572, 1114, 1172
En el espacio vacío, el fotón se mueve a c (la velocidad de la luz ) y su energía y momento están relacionados por E = pc , donde p es la magnitud del vector de momento p . Esto se deriva de la siguiente relación relativista, con m = 0 : [27]
La energía y el momento de un fotón dependen únicamente de su frecuencia ( ) o, inversamente, de su longitud de onda ( λ ):
donde k es el vector de onda , donde
Dado que apunta en la dirección de propagación del fotón, la magnitud de su momento es
El fotón también lleva un momento angular de espín , que está relacionado con la polarización del fotón . (Los rayos de luz también exhiben propiedades descritas como momento angular orbital de la luz ).
El momento angular del fotón tiene dos valores posibles, +ħ o −ħ . Estos dos valores posibles corresponden a los dos estados puros posibles de polarización circular . Las colecciones de fotones en un haz de luz pueden tener mezclas de estos dos valores; un haz de luz polarizado linealmente actuará como si estuviera compuesto por cantidades iguales de los dos momentos angulares posibles. [29] : 325
El momento angular de espín de la luz no depende de su frecuencia y fue verificado experimentalmente por CV Raman y S. Bhagavantam en 1931. [30]
La colisión de una partícula con su antipartícula puede crear fotones. En el espacio libre se deben crear al menos dos fotones ya que, en el centro del marco de momento , las antipartículas en colisión no tienen momento neto, mientras que un solo fotón siempre tiene momento (determinado por la frecuencia o longitud de onda del fotón, que no puede ser cero). Por lo tanto, la conservación del momento (o equivalentemente, la invariancia traslacional ) requiere que se creen al menos dos fotones, con momento neto cero. [c] [31] : 64–65 La energía de los dos fotones o, equivalentemente, su frecuencia, se puede determinar a partir de la conservación del momento cuadripolar .
Visto de otra manera, el fotón puede ser considerado como su propia antipartícula (por lo tanto, un "antifotón" es simplemente un fotón normal con momento opuesto, polarización igual y 180° desfasado). El proceso inverso, la producción de pares , es el mecanismo dominante por el cual los fotones de alta energía, como los rayos gamma , pierden energía al atravesar la materia. [32] Ese proceso es el inverso de la "aniquilación a un fotón" permitida en el campo eléctrico de un núcleo atómico.
Las fórmulas clásicas para la energía y el momento de la radiación electromagnética pueden reexpresarse en términos de eventos fotónicos. Por ejemplo, la presión de la radiación electromagnética sobre un objeto se deriva de la transferencia de momento fotónico por unidad de tiempo y unidad de área a ese objeto, ya que la presión es la fuerza por unidad de área y la fuerza es el cambio en el momento por unidad de tiempo. [33]
Las teorías físicas comúnmente aceptadas actualmente implican o suponen que el fotón no tiene masa. Si los fotones no tuvieran masa pura, sus velocidades variarían con la frecuencia, y los fotones de menor energía (más rojos) se moverían ligeramente más lento que los de mayor energía. Esto no afectaría a la relatividad; la llamada velocidad de la luz, c , no sería entonces la velocidad real a la que se mueve la luz, sino una constante de la naturaleza que es el límite superior de la velocidad que cualquier objeto podría alcanzar teóricamente en el espacio-tiempo. [34] Por lo tanto, seguiría siendo la velocidad de las ondulaciones del espacio-tiempo ( ondas gravitacionales y gravitones ), pero no sería la velocidad de los fotones.
Si un fotón tuviera masa distinta de cero, también habría otros efectos. La ley de Coulomb se modificaría y el campo electromagnético tendría un grado físico adicional de libertad . Estos efectos producen sondas experimentales más sensibles de la masa del fotón que la dependencia de la frecuencia de la velocidad de la luz. Si la ley de Coulomb no es exactamente válida, entonces eso permitiría la presencia de un campo eléctrico dentro de un conductor hueco cuando se somete a un campo eléctrico externo. Esto proporciona un medio para pruebas de precisión de la ley de Coulomb . [35] Un resultado nulo de un experimento de este tipo ha establecido un límite de m ≲10 −14 eV/ c2 . [ 36]
Se han obtenido límites superiores más precisos para la masa de la luz en experimentos diseñados para detectar efectos causados por el potencial vectorial galáctico . Aunque el potencial vectorial galáctico es grande porque el campo magnético galáctico existe en grandes escalas de longitud, solo el campo magnético sería observable si el fotón no tuviera masa. En el caso de que el fotón tenga masa, el término de masa 1/2 m 2 A μ A μ afectaría al plasma galáctico. El hecho de que no se observen tales efectos implica un límite superior en la masa del fotón de m <3 × 10 −27 eV/ c 2 . [37] El potencial vectorial galáctico también se puede probar directamente midiendo el par ejercido sobre un anillo magnetizado. [38] Dichos métodos se utilizaron para obtener el límite superior más nítido de1,07 × 10 −27 eV/ c 2 (el equivalente de10 −36 daltons ) proporcionada por el Particle Data Group . [39]
Se ha demostrado que estos límites agudos derivados de la no observación de los efectos causados por el potencial vectorial galáctico dependen del modelo. [40] Si la masa del fotón se genera a través del mecanismo de Higgs , entonces el límite superior de m ≲10 −14 eV/ c 2 de la prueba de la ley de Coulomb es válido.
En la mayoría de las teorías hasta el siglo XVIII, la luz se describía como formada por partículas. Dado que los modelos de partículas no pueden explicar fácilmente la refracción , la difracción y la birrefringencia de la luz, René Descartes (1637), [41] Robert Hooke (1665), [42] y Christiaan Huygens (1678) propusieron teorías ondulatorias de la luz ; [43] sin embargo, los modelos de partículas siguieron siendo dominantes, principalmente debido a la influencia de Isaac Newton . [44] A principios del siglo XIX, Thomas Young y August Fresnel demostraron claramente la interferencia y la difracción de la luz, y en 1850 los modelos ondulatorios eran generalmente aceptados. [45] La predicción de James Clerk Maxwell de 1865 [46] de que la luz era una onda electromagnética, que fue confirmada experimentalmente en 1888 por la detección de ondas de radio por parte de Heinrich Hertz [47] , pareció ser el golpe final a los modelos de partículas de la luz.
Sin embargo, la teoría ondulatoria de Maxwell no explica todas las propiedades de la luz. La teoría de Maxwell predice que la energía de una onda de luz depende sólo de su intensidad , no de su frecuencia ; sin embargo, varios tipos independientes de experimentos muestran que la energía impartida por la luz a los átomos depende sólo de la frecuencia de la luz, no de su intensidad. Por ejemplo, algunas reacciones químicas son provocadas sólo por luz de frecuencia superior a un cierto umbral; la luz de frecuencia inferior al umbral, sin importar cuán intensa sea, no inicia la reacción. De manera similar, los electrones pueden ser expulsados de una placa de metal al iluminarla con una luz de frecuencia suficientemente alta (el efecto fotoeléctrico ); la energía del electrón expulsado está relacionada sólo con la frecuencia de la luz, no con su intensidad. [48] [d]
Al mismo tiempo, las investigaciones sobre la radiación del cuerpo negro llevadas a cabo durante cuatro décadas (1860-1900) por varios investigadores [50] culminaron en la hipótesis de Max Planck [51] [52] de que la energía de cualquier sistema que absorbe o emite radiación electromagnética de frecuencia ν es un múltiplo entero de un cuanto de energía E = hν . Como lo demostró Albert Einstein , [10] [53] se debe suponer alguna forma de cuantificación de la energía para explicar el equilibrio térmico observado entre la materia y la radiación electromagnética ; por esta explicación del efecto fotoeléctrico, Einstein recibió el Premio Nobel de Física en 1921. [54]
Como la teoría de Maxwell de la luz permite todas las energías posibles de la radiación electromagnética, la mayoría de los físicos asumieron inicialmente que la cuantificación de la energía era resultado de alguna restricción desconocida sobre la materia que absorbe o emite la radiación. En 1905, Einstein fue el primero en proponer que la cuantificación de la energía era una propiedad de la radiación electromagnética en sí. [10] Aunque aceptó la validez de la teoría de Maxwell, Einstein señaló que muchos experimentos anómalos podrían explicarse si la energía de una onda de luz maxwelliana se localizara en cuantos puntuales que se movieran independientemente unos de otros, incluso si la onda misma se extendiera continuamente por el espacio. [10] En 1909 [53] y 1916 [55], Einstein demostró que, si se acepta la ley de Planck con respecto a la radiación del cuerpo negro, los cuantos de energía también deben tener un momento p = yo / la ,convirtiéndolas en partículas de pleno derecho. Este momento fotónico fue observado experimentalmente porArthur Compton,[56]por lo que recibió el Premio Nobel en 1927. La pregunta fundamental entonces era cómo unificar la teoría ondulatoria de la luz de Maxwell con su naturaleza de partícula observada experimentalmente. La respuesta a esta pregunta ocupó a Albert Einstein por el resto de su vida,[57]y se resolvió enla electrodinámica cuánticay su sucesor, elModelo Estándar. (Véase§ Teoría cuántica de camposy§ Como bosón de gauge, a continuación.)
Las predicciones de Einstein de 1905 se verificaron experimentalmente de varias maneras en las primeras dos décadas del siglo XX, como se relata en la conferencia Nobel de Robert Millikan . [58] Sin embargo, antes de que el experimento de Compton [56] demostrara que los fotones tenían un momento proporcional a su número de onda (1922), [ cita completa requerida ] la mayoría de los físicos eran reacios a creer que la radiación electromagnética en sí misma pudiera ser particulada. (Véase, por ejemplo, las conferencias Nobel de Viena , [50] Planck [52] y Millikan.) [58] En cambio, había una creencia generalizada de que la cuantificación de la energía resultaba de alguna restricción desconocida sobre la materia que absorbía o emitía radiación. Las actitudes cambiaron con el tiempo. En parte, el cambio se puede rastrear hasta experimentos como los que revelaron la dispersión Compton , donde era mucho más difícil no atribuir la cuantificación a la luz misma para explicar los resultados observados. [59]
Incluso después del experimento de Compton, Niels Bohr , Hendrik Kramers y John Slater hicieron un último intento de preservar el modelo de campo electromagnético continuo de Maxwell para la luz, la llamada teoría BKS . [60] Una característica importante de la teoría BKS es cómo trató la conservación de la energía y la conservación del momento . En la teoría BKS, la energía y el momento solo se conservan en promedio a lo largo de muchas interacciones entre la materia y la radiación. Sin embargo, los experimentos refinados de Compton mostraron que las leyes de conservación se mantienen para interacciones individuales. [61] En consecuencia, Bohr y sus colaboradores dieron a su modelo "un funeral lo más honorable posible". [57] Sin embargo, los fracasos del modelo BKS inspiraron a Werner Heisenberg en su desarrollo de la mecánica matricial . [62]
Algunos físicos persistieron [63] en desarrollar modelos semiclásicos en los que la radiación electromagnética no está cuantizada, pero la materia parece obedecer las leyes de la mecánica cuántica . Aunque la evidencia de los experimentos químicos y físicos de la existencia de fotones era abrumadora en la década de 1970, esta evidencia no podía considerarse absolutamente definitiva; ya que se basaba en la interacción de la luz con la materia, y una teoría suficientemente completa de la materia podría, en principio, explicar la evidencia. Sin embargo, todas las teorías semiclásicas fueron refutadas definitivamente en las décadas de 1970 y 1980 mediante experimentos de correlación de fotones. [e] Por lo tanto, la hipótesis de Einstein de que la cuantización es una propiedad de la luz misma se considera probada.
Los fotones obedecen las leyes de la mecánica cuántica, por lo que su comportamiento tiene aspectos tanto ondulatorios como particulados. Cuando un fotón es detectado por un instrumento de medición, se registra como una unidad única de partículas. Sin embargo, la probabilidad de detectar un fotón se calcula mediante ecuaciones que describen ondas. Esta combinación de aspectos se conoce como dualidad onda-partícula . Por ejemplo, la distribución de probabilidad para la ubicación en la que un fotón podría detectarse muestra claramente fenómenos ondulatorios como la difracción y la interferencia . Un solo fotón que pasa a través de una rendija doble recibe su energía en un punto de la pantalla con una distribución de probabilidad dada por su patrón de interferencia determinado por las ecuaciones de onda de Maxwell . [66] Sin embargo, los experimentos confirman que el fotón no es un pulso corto de radiación electromagnética; las ondas de Maxwell de un fotón se difractarán, pero la energía del fotón no se dispersa a medida que se propaga, ni esta energía se divide cuando encuentra un divisor de haz . [67] Más bien, el fotón recibido actúa como una partícula puntual , ya que es absorbido o emitido en su totalidad por sistemas arbitrariamente pequeños, incluidos sistemas mucho más pequeños que su longitud de onda, como un núcleo atómico (≈10 −15 m de diámetro) o incluso el electrón puntual .
Aunque muchos textos introductorios tratan los fotones utilizando las técnicas matemáticas de la mecánica cuántica no relativista, esto es en cierto modo una simplificación excesiva y extraña, ya que los fotones son por naturaleza intrínsecamente relativistas. Debido a que los fotones tienen masa en reposo cero , ninguna función de onda definida para un fotón puede tener todas las propiedades familiares de las funciones de onda en la mecánica cuántica no relativista. [f] Para evitar estas dificultades, los físicos emplean la teoría de fotones de segunda cuantización descrita a continuación, la electrodinámica cuántica , en la que los fotones son excitaciones cuantizadas de modos electromagnéticos. [72]
Otra dificultad es encontrar el análogo adecuado para el principio de incertidumbre , una idea atribuida con frecuencia a Heisenberg, quien introdujo el concepto al analizar un experimento mental que involucraba un electrón y un fotón de alta energía . Sin embargo, Heisenberg no dio definiciones matemáticas precisas de lo que significaba la "incertidumbre" en estas mediciones. La declaración matemática precisa del principio de incertidumbre de posición-momento se debe a Kennard , Pauli y Weyl . [73] [74] El principio de incertidumbre se aplica a situaciones en las que un experimentador tiene la opción de medir una de dos cantidades "canónicamente conjugadas", como la posición y el momento de una partícula. Según el principio de incertidumbre, sin importar cómo se prepare la partícula, no es posible hacer una predicción precisa para ambas mediciones alternativas: si el resultado de la medición de la posición se hace más seguro, el resultado de la medición del momento se vuelve menos seguro, y viceversa. [75] Un estado coherente minimiza la incertidumbre general en la medida en que lo permite la mecánica cuántica. [72] La óptica cuántica utiliza estados coherentes para los modos del campo electromagnético. Existe una disyuntiva, que recuerda a la relación de incertidumbre entre posición y momento, entre las mediciones de la amplitud de una onda electromagnética y su fase. [72] Esto a veces se expresa informalmente en términos de la incertidumbre en el número de fotones presentes en la onda electromagnética, , y la incertidumbre en la fase de la onda, . Sin embargo, esta no puede ser una relación de incertidumbre del tipo Kennard-Pauli-Weyl, ya que a diferencia de la posición y el momento, la fase no puede representarse mediante un operador hermítico . [76]
En 1924, Satyendra Nath Bose derivó la ley de Planck de la radiación del cuerpo negro sin usar ningún electromagnetismo, sino más bien usando una modificación del conteo de grano grueso del espacio de fases . [77] Einstein demostró que esta modificación es equivalente a asumir que los fotones son rigurosamente idénticos y que implicaba una "misteriosa interacción no local", [78] [79] ahora entendida como el requisito de un estado mecánico cuántico simétrico . Este trabajo condujo al concepto de estados coherentes y al desarrollo del láser. En los mismos artículos, Einstein extendió el formalismo de Bose a las partículas materiales (bosones) y predijo que se condensarían en su estado cuántico más bajo a temperaturas suficientemente bajas; esta condensación de Bose-Einstein se observó experimentalmente en 1995. [80] Más tarde fue utilizada por Lene Hau para ralentizar, y luego detener por completo, la luz en 1999 [81] y 2001. [82]
La visión moderna sobre esto es que los fotones son, en virtud de su espín entero, bosones (a diferencia de los fermiones con espín semientero). Por el teorema de estadística de espín , todos los bosones obedecen a la estadística de Bose-Einstein (mientras que todos los fermiones obedecen a la estadística de Fermi-Dirac ). [83]
En 1916, Albert Einstein demostró que la ley de radiación de Planck podía derivarse de un tratamiento estadístico semiclásico de los fotones y los átomos, lo que implica un vínculo entre las tasas a las que los átomos emiten y absorben fotones. La condición se desprende de la suposición de que las funciones de emisión y absorción de radiación por los átomos son independientes entre sí, y que el equilibrio térmico se realiza mediante la interacción de la radiación con los átomos. Consideremos una cavidad en equilibrio térmico con todas sus partes y llena de radiación electromagnética y que los átomos pueden emitir y absorber esa radiación. El equilibrio térmico requiere que la densidad de energía de los fotones con frecuencia (que es proporcional a su densidad numérica ) sea, en promedio, constante en el tiempo; por lo tanto, la tasa a la que se emiten fotones de cualquier frecuencia particular debe ser igual a la tasa a la que se absorben . [84]
Einstein comenzó postulando relaciones de proporcionalidad simples para las diferentes velocidades de reacción involucradas. En su modelo, la velocidad con la que un sistema absorbe un fotón de frecuencia y pasa de una energía más baja a una más alta es proporcional al número de átomos con energía y a la densidad de energía de los fotones ambientales de esa frecuencia.
donde es la constante de velocidad de absorción. Para el proceso inverso, hay dos posibilidades: emisión espontánea de un fotón o emisión de un fotón iniciada por la interacción del átomo con un fotón que pasa por el átomo y el retorno del átomo al estado de menor energía. Siguiendo el enfoque de Einstein, la velocidad correspondiente para la emisión de fotones de frecuencia y transición de una energía más alta a una energía más baja es
donde es la constante de velocidad para emitir un fotón espontáneamente , y es la constante de velocidad para emisiones en respuesta a fotones ambientales ( emisión inducida o estimulada ). En equilibrio termodinámico, el número de átomos en estado y aquellos en estado deben, en promedio, ser constantes; por lo tanto, las velocidades y deben ser iguales. Además, por argumentos análogos a la derivación de las estadísticas de Boltzmann , la relación de y es donde y son la degeneración del estado y la de , respectivamente, y sus energías, la constante de Boltzmann y la temperatura del sistema . De esto, se deduce fácilmente que
y
Los y se conocen colectivamente como los coeficientes de Einstein . [85]
Einstein no pudo justificar completamente sus ecuaciones de velocidad, pero afirmó que debería ser posible calcular los coeficientes , y una vez que los físicos hubieran obtenido "mecánica y electrodinámica modificadas para acomodar la hipótesis cuántica". [86] No mucho después, en 1926, Paul Dirac derivó las constantes de velocidad utilizando un enfoque semiclásico, [87] y, en 1927, logró derivar todas las constantes de velocidad a partir de los primeros principios dentro del marco de la teoría cuántica. [88] [89] El trabajo de Dirac fue la base de la electrodinámica cuántica, es decir, la cuantización del campo electromagnético en sí. El enfoque de Dirac también se llama segunda cuantización o teoría cuántica de campos ; [90] [91] [92] los tratamientos mecánicos cuánticos anteriores solo tratan las partículas materiales como mecánicas cuánticas, no el campo electromagnético.
Einstein estaba preocupado por el hecho de que su teoría parecía incompleta, ya que no determinaba la dirección de un fotón emitido espontáneamente. Newton consideró por primera vez la naturaleza probabilística del movimiento de partículas de luz en su tratamiento de la birrefringencia y, de manera más general, de la división de los rayos de luz en las interfaces en un rayo transmitido y un rayo reflejado. Newton planteó la hipótesis de que las variables ocultas en la partícula de luz determinaban cuál de los dos caminos tomaría un solo fotón. [44] De manera similar, Einstein esperaba una teoría más completa que no dejara nada al azar, lo que inició su separación [57] de la mecánica cuántica. Irónicamente, la interpretación probabilística de Max Born de la función de onda [93] [94] se inspiró en el trabajo posterior de Einstein en busca de una teoría más completa. [95]
En 1910, Peter Debye derivó la ley de Planck de la radiación del cuerpo negro a partir de una suposición relativamente simple. [96] Descompuso el campo electromagnético en una cavidad en sus modos de Fourier y supuso que la energía en cualquier modo era un múltiplo entero de , donde es la frecuencia del modo electromagnético. La ley de Planck de la radiación del cuerpo negro se deduce inmediatamente como una suma geométrica. Sin embargo, el enfoque de Debye no logró proporcionar la fórmula correcta para las fluctuaciones de energía de la radiación del cuerpo negro, que fueron derivadas por Einstein en 1909. [53]
En 1925, Born , Heisenberg y Jordan reinterpretaron el concepto de Debye de una manera clave. [97] Como se puede demostrar clásicamente, los modos de Fourier del campo electromagnético —un conjunto completo de ondas planas electromagnéticas indexadas por su vector de onda k y estado de polarización— son equivalentes a un conjunto de osciladores armónicos simples desacoplados . Tratados mecánicamente cuánticos, se sabe que los niveles de energía de tales osciladores son , donde es la frecuencia del oscilador. El nuevo paso clave fue identificar un modo electromagnético con energía como un estado con fotones, cada uno de energía . Este enfoque proporciona la fórmula correcta de fluctuación de energía.
Dirac llevó esto un paso más allá. [88] [89] Trató la interacción entre una carga y un campo electromagnético como una pequeña perturbación que induce transiciones en los estados de los fotones, cambiando el número de fotones en los modos, mientras conserva la energía y el momento en general. Dirac pudo derivar los coeficientes de Einstein y de los primeros principios, y demostró que la estadística de Bose-Einstein de los fotones es una consecuencia natural de la cuantificación correcta del campo electromagnético (el razonamiento de Bose fue en la dirección opuesta; derivó la ley de Planck de la radiación del cuerpo negro asumiendo la estadística B-E). En la época de Dirac, aún no se sabía que todos los bosones, incluidos los fotones, deben obedecer la estadística de Bose-Einstein.
La teoría de perturbación de segundo orden de Dirac puede involucrar fotones virtuales , estados intermedios transitorios del campo electromagnético; las interacciones eléctricas y magnéticas estáticas están mediadas por dichos fotones virtuales. En tales teorías de campos cuánticos , la amplitud de probabilidad de eventos observables se calcula sumando todos los pasos intermedios posibles, incluso aquellos que no son físicos; por lo tanto, los fotones virtuales no están restringidos a satisfacer , y pueden tener estados de polarización adicionales ; dependiendo del calibre utilizado, los fotones virtuales pueden tener tres o cuatro estados de polarización, en lugar de los dos estados de los fotones reales. Aunque estos fotones virtuales transitorios nunca pueden observarse, contribuyen mensurablemente a las probabilidades de eventos observables. [98]
De hecho, estos cálculos de perturbaciones de segundo orden y de orden superior pueden dar contribuciones aparentemente infinitas a la suma. Estos resultados no físicos se corrigen utilizando la técnica de renormalización . [99]
Otras partículas virtuales también pueden contribuir a la suma; por ejemplo, dos fotones pueden interactuar indirectamente a través de pares virtuales electrón - positrón . [100] Tal dispersión fotón-fotón (ver física de dos fotones ), así como la dispersión electrón-fotón, está destinada a ser uno de los modos de operaciones del acelerador de partículas planificado, el Colisionador Lineal Internacional . [101]
En la notación de la física moderna , el estado cuántico del campo electromagnético se escribe como un estado de Fock , un producto tensorial de los estados de cada modo electromagnético.
donde representa el estado en el que los fotones están en el modo . En esta notación, la creación de un nuevo fotón en modo (por ejemplo, emitido desde una transición atómica) se escribe como . Esta notación simplemente expresa el concepto de Born, Heisenberg y Jordan descrito anteriormente, y no agrega nada de física.
El campo electromagnético puede ser entendido como un campo de calibre , es decir, como un campo que resulta de requerir que una simetría de calibre se mantenga independientemente en cada posición en el espacio-tiempo . [102] Para el campo electromagnético , esta simetría de calibre es la simetría abeliana U(1) de los números complejos de valor absoluto 1, que refleja la capacidad de variar la fase de un campo complejo sin afectar observables o funciones de valor real hechas a partir de él, como la energía o el lagrangiano .
Los cuantos de un campo de calibración abeliano deben ser bosones sin masa y sin carga, siempre que no se rompa la simetría; por lo tanto, se predice que el fotón no tendrá masa, carga eléctrica cero y espín entero. La forma particular de la interacción electromagnética especifica que el fotón debe tener espín ±1; por lo tanto, su helicidad debe ser . Estos dos componentes de espín corresponden a los conceptos clásicos de luz polarizada circularmente dextrógira y levógira . Sin embargo, los fotones virtuales transitorios de la electrodinámica cuántica también pueden adoptar estados de polarización no físicos. [102]
En el Modelo Estándar de física predominante, el fotón es uno de los cuatro bosones de calibración en la interacción electrodébil ; los otros tres se denotan W + , W − y Z 0 y son responsables de la interacción débil . A diferencia del fotón, estos bosones de calibración tienen masa , debido a un mecanismo que rompe su simetría de calibración SU(2) . La unificación del fotón con los bosones de calibración W y Z en la interacción electrodébil fue lograda por Sheldon Glashow , Abdus Salam y Steven Weinberg , por la que fueron galardonados con el Premio Nobel de Física de 1979. [103] [104] [105] Los físicos continúan planteando hipótesis de grandes teorías unificadas que conectan estos cuatro bosones de calibración con los ocho bosones de calibración de gluones de la cromodinámica cuántica ; sin embargo, las predicciones clave de estas teorías, como la desintegración del protón , no se han observado experimentalmente. [106]
Las mediciones de la interacción entre fotones energéticos y hadrones muestran que la interacción es mucho más intensa de lo esperado por la interacción de meros fotones con la carga eléctrica del hadrón. Además, la interacción de fotones energéticos con protones es similar a la interacción de fotones con neutrones [107] a pesar del hecho de que las estructuras de carga eléctrica de protones y neutrones son sustancialmente diferentes. Se desarrolló una teoría llamada Dominancia de Mesones Vectoriales (VMD) para explicar este efecto. Según VMD, el fotón es una superposición del fotón electromagnético puro, que interactúa solo con cargas eléctricas, y mesones vectoriales, que median la fuerza nuclear residual . [108] Sin embargo, si se prueba experimentalmente a distancias muy cortas, la estructura intrínseca del fotón parece tener como componentes un flujo de quarks y gluones de carga neutral, cuasi libre de acuerdo con la libertad asintótica en QCD . Ese flujo se describe mediante la función de estructura del fotón . [109] [110] Una revisión de Nisius (2000) presentó una comparación exhaustiva de los datos con las predicciones teóricas. [111]
La energía de un sistema que emite un fotón disminuye en la energía del fotón medida en el marco de reposo del sistema emisor, lo que puede resultar en una reducción de la masa en la cantidad . De manera similar, la masa de un sistema que absorbe un fotón aumenta en una cantidad correspondiente. Como aplicación, el balance de energía de las reacciones nucleares que involucran fotones se escribe comúnmente en términos de las masas de los núcleos involucrados y términos de la forma para los fotones gamma (y para otras energías relevantes, como la energía de retroceso de los núcleos). [112]
Este concepto se aplica en predicciones clave de la electrodinámica cuántica (EDQ, ver arriba). En esa teoría, la masa de los electrones (o, más generalmente, de los leptones) se modifica incluyendo las contribuciones de masa de los fotones virtuales, en una técnica conocida como renormalización . Tales " correcciones radiativas " contribuyen a una serie de predicciones de la EQQ, como el momento dipolar magnético de los leptones , el desplazamiento de Lamb y la estructura hiperfina de pares de leptones ligados, como el muonio y el positronio . [113]
Como los fotones contribuyen al tensor de tensión-energía , ejercen una atracción gravitatoria sobre otros objetos, según la teoría de la relatividad general . Por el contrario, los fotones se ven afectados por la gravedad; sus trayectorias normalmente rectas pueden ser dobladas por el espacio-tiempo deformado , como en el efecto de lente gravitacional , y sus frecuencias pueden reducirse al moverse a un potencial gravitacional más alto , como en el experimento de Pound-Rebka . Sin embargo, estos efectos no son específicos de los fotones; se predecirían exactamente los mismos efectos para las ondas electromagnéticas clásicas . [114]
La luz que viaja a través de la materia transparente lo hace a una velocidad menor que c , la velocidad de la luz en el vacío. El factor por el cual se reduce la velocidad se llama índice de refracción del material. En una imagen de onda clásica, la desaceleración se puede explicar por la luz que induce polarización eléctrica en la materia, la materia polarizada irradia nueva luz y esa nueva luz interfiere con la onda de luz original para formar una onda retardada. En una imagen de partículas, la desaceleración se puede describir en cambio como una mezcla del fotón con excitaciones cuánticas de la materia para producir cuasipartículas conocidas como polaritones . Los polaritones tienen una masa efectiva distinta de cero , lo que significa que no pueden viajar a c . La luz de diferentes frecuencias puede viajar a través de la materia a diferentes velocidades ; esto se llama dispersión (que no debe confundirse con dispersión). En algunos casos, puede dar como resultado velocidades extremadamente lentas de la luz en la materia. Los efectos de las interacciones de los fotones con otras cuasipartículas se pueden observar directamente en la dispersión Raman y la dispersión Brillouin . [115]
Los fotones pueden dispersarse por la materia. Por ejemplo, los fotones entran en contacto con tantas partículas en su camino desde el núcleo del Sol que la energía radiante puede tardar alrededor de un millón de años en llegar a la superficie; [116] sin embargo, una vez en el espacio abierto, un fotón tarda sólo 8,3 minutos en llegar a la Tierra. [117]
Los fotones también pueden ser absorbidos por núcleos, átomos o moléculas, provocando transiciones entre sus niveles de energía . Un ejemplo clásico es la transición molecular del retinal (C 20 H 28 O), responsable de la visión , como lo descubrieron en 1958 el bioquímico premio Nobel George Wald y sus colaboradores. La absorción provoca una isomerización cis-trans que, en combinación con otras transiciones similares, se transduce en impulsos nerviosos. La absorción de fotones puede incluso romper enlaces químicos, como en la fotodisociación del cloro ; este es el tema de la fotoquímica . [118] [119]
Los fotones tienen muchas aplicaciones en la tecnología. Estos ejemplos se han elegido para ilustrar las aplicaciones de los fotones en sí , en lugar de los dispositivos ópticos generales, como lentes, etc., que podrían funcionar según una teoría clásica de la luz. El láser es una aplicación importante y se analiza anteriormente en el apartado de emisión estimulada .
Los fotones individuales pueden detectarse mediante varios métodos. El clásico tubo fotomultiplicador explota el efecto fotoeléctrico : un fotón de suficiente energía choca contra una placa metálica y libera un electrón, iniciando una avalancha de electrones que se amplifica cada vez más. Los chips de dispositivos acoplados a carga de semiconductores utilizan un efecto similar: un fotón incidente genera una carga en un condensador microscópico que puede detectarse. Otros detectores, como los contadores Geiger, utilizan la capacidad de los fotones para ionizar las moléculas de gas contenidas en el dispositivo, lo que provoca un cambio detectable en la conductividad del gas. [120]
Los ingenieros y químicos suelen utilizar la fórmula de energía de Planck en el diseño, tanto para calcular el cambio de energía resultante de la absorción de un fotón como para determinar la frecuencia de la luz emitida a partir de una emisión de fotón dada. Por ejemplo, el espectro de emisión de una lámpara de descarga de gas se puede alterar llenándola con (mezclas de) gases con diferentes configuraciones de niveles de energía electrónica . [121]
En determinadas condiciones, una transición energética puede ser excitada por "dos" fotones que individualmente serían insuficientes. Esto permite una microscopía de mayor resolución, porque la muestra absorbe energía solo en el espectro donde dos haces de diferentes colores se superponen significativamente, lo que puede hacerse mucho más pequeño que el volumen de excitación de un solo haz (véase microscopía de excitación de dos fotones ). Además, estos fotones causan menos daño a la muestra, ya que son de menor energía. [122]
En algunos casos, se pueden acoplar dos transiciones de energía de modo que, cuando un sistema absorbe un fotón, otro sistema cercano "roba" su energía y reemite un fotón de una frecuencia diferente. Esta es la base de la transferencia de energía por resonancia de fluorescencia , una técnica que se utiliza en biología molecular para estudiar la interacción de proteínas adecuadas . [123]
Existen varios tipos diferentes de generadores de números aleatorios de hardware que implican la detección de fotones individuales. En un ejemplo, por cada bit de la secuencia aleatoria que se va a producir, se envía un fotón a un divisor de haz . En tal situación, hay dos resultados posibles con la misma probabilidad. El resultado real se utiliza para determinar si el siguiente bit de la secuencia es "0" o "1". [124] [125]
Se ha dedicado mucha investigación a las aplicaciones de los fotones en el campo de la óptica cuántica . Los fotones parecen muy adecuados para ser elementos de una computadora cuántica extremadamente rápida , y el entrelazamiento cuántico de fotones es un foco de investigación. Los procesos ópticos no lineales son otra área de investigación activa, con temas como la absorción de dos fotones , la modulación de autofase , la inestabilidad modulacional y los osciladores paramétricos ópticos . Sin embargo, tales procesos generalmente no requieren la suposición de fotones per se ; a menudo se pueden modelar tratando los átomos como osciladores no lineales. El proceso no lineal de conversión descendente paramétrica espontánea se utiliza a menudo para producir estados de un solo fotón. Finalmente, los fotones son esenciales en algunos aspectos de la comunicación óptica , especialmente para la criptografía cuántica . [126]
La física de dos fotones estudia las interacciones entre fotones, que son poco frecuentes. En 2018, investigadores del Instituto Tecnológico de Massachusetts anunciaron el descubrimiento de tripletes de fotones ligados, que pueden involucrar polaritones . [127] [128]
{{cite conference}}
: CS1 maint: others (link){{cite book}}
: |journal=
ignorado ( ayuda ){{cite book}}
: |journal=
ignorado ( ayuda ){{cite book}}
: |journal=
ignorado ( ayuda )pag. 322: Die Konstanten
and
würden sich direkt berechnen lassen, wenn wir im Besitz einer im Sinne der Quantenhypothese modifizierten Elektrodynamik und Mechanik wären."