La mecánica cuántica es el estudio de la materia y sus interacciones con la energía en la escala de partículas atómicas y subatómicas . Por el contrario, la física clásica explica la materia y la energía sólo en una escala familiar a la experiencia humana, incluido el comportamiento de cuerpos astronómicos como la Luna. La física clásica todavía se utiliza en gran parte de la ciencia y la tecnología modernas. Sin embargo, hacia finales del siglo XIX, los científicos descubrieron fenómenos tanto en el mundo grande ( macro ) como en el pequeño ( micro ) que la física clásica no podía explicar. [1] El deseo de resolver las inconsistencias entre los fenómenos observados y la teoría clásica condujo a una revolución en la física, un cambio en el paradigma científico original : [2] el desarrollo de la mecánica cuántica .
Muchos aspectos de la mecánica cuántica son contrarios a la intuición [3] y pueden parecer paradójicos porque describen un comportamiento bastante diferente del observado a escalas mayores. En palabras del físico cuántico Richard Feynman , la mecánica cuántica trata de "la naturaleza tal como es: absurda". [4] Las características de la mecánica cuántica a menudo desafían explicaciones simples en el lenguaje cotidiano. Un ejemplo de esto es el principio de incertidumbre : las mediciones precisas de la posición no se pueden combinar con mediciones precisas de la velocidad. Otro ejemplo es el entrelazamiento : una medición realizada en una partícula (como un electrón cuyo espín se mide hacia arriba) se correlacionará con una medición en una segunda partícula (se encontrará que un electrón tiene espín "hacia abajo") si el Dos partículas tienen una historia compartida. Esto se aplicará incluso si es imposible que el resultado de la primera medición se haya transmitido a la segunda partícula antes de que tenga lugar la segunda medición.
La mecánica cuántica nos ayuda a comprender la química , porque explica cómo los átomos interactúan entre sí y forman moléculas . Muchos fenómenos notables pueden explicarse mediante la mecánica cuántica, como la superfluidez . Por ejemplo, si se coloca helio líquido enfriado a una temperatura cercana al cero absoluto en un recipiente, fluye espontáneamente hacia arriba y sobre el borde de su recipiente; este es un efecto que no puede explicarse mediante la física clásica.
La unificación de James C. Maxwell de las ecuaciones que gobiernan la electricidad, el magnetismo y la luz a finales del siglo XIX condujo a experimentos sobre la interacción de la luz y la materia. Algunos de estos experimentos tenían aspectos que no pudieron explicarse hasta que surgió la mecánica cuántica a principios del siglo XX. [5]
Las semillas de la revolución cuántica aparecen en el descubrimiento de JJ Thomson en 1897 de que los rayos catódicos no eran continuos sino "corpúsculos" ( electrones ). Los electrones habían sido nombrados apenas seis años antes como parte de la emergente teoría de los átomos . En 1900, Max Planck , no convencido por la teoría atómica , descubrió que necesitaba entidades discretas como átomos o electrones para explicar la radiación del cuerpo negro . [6]
Los objetos muy calientes (al rojo vivo o blanco) se ven similares cuando se calientan a la misma temperatura. Esta apariencia resulta de una curva común de intensidad de luz en diferentes frecuencias (colores), que se llama radiación de cuerpo negro. Los objetos al rojo vivo tienen intensidad en muchos colores en el rango visible. Las frecuencias más bajas por encima de los colores visibles son la luz infrarroja , que también desprende calor. Las teorías de ondas continuas de la luz y la materia no pueden explicar la curva de radiación del cuerpo negro. Planck distribuyó la energía térmica entre "osciladores" individuales de carácter indefinido pero con capacidad energética discreta; este modelo explicaba la radiación del cuerpo negro.
En aquella época, los electrones, los átomos y los osciladores discretos eran ideas exóticas para explicar fenómenos exóticos. Pero en 1905 Albert Einstein propuso que la luz también era corpuscular y estaba formada por "cuantos de energía", en contradicción con la ciencia establecida de la luz como una onda continua, que se remontaba cien años atrás, hasta el trabajo de Thomas Young sobre la difracción .
La revolucionaria propuesta de Einstein comenzó reanalizando la teoría del cuerpo negro de Planck, llegando a las mismas conclusiones utilizando los nuevos "cuantos de energía". Luego, Einstein mostró cómo los cuantos de energía se conectaban con el electrón de Thomson. En 1902, Philipp Lenard dirigió la luz de una lámpara de arco sobre placas de metal recién limpiadas alojadas en un tubo de vidrio al vacío. Midió la corriente eléctrica que salía de la placa de metal, a intensidades de luz más altas y más bajas y para diferentes metales. Lenard demostró que la cantidad de corriente (el número de electrones) dependía de la intensidad de la luz, pero que la velocidad de estos electrones no dependía de la intensidad. Este es el efecto fotoeléctrico . Las teorías de onda continua de la época predijeron que una mayor intensidad de luz aceleraría la misma cantidad de corriente a mayor velocidad, contrariamente a este experimento. Los cuantos de energía de Einstein explicaban el aumento de volumen: por cada cuanto se expulsa un electrón: más cuantos significan más electrones. [6] : 23
Luego, Einstein predijo que la velocidad del electrón aumentaría en proporción directa a la frecuencia de la luz por encima de un valor fijo que dependía del metal. Aquí la idea es que la energía en los cuantos de energía depende de la frecuencia de la luz; la energía transferida al electrón es proporcional a la frecuencia de la luz. El tipo de metal proporciona una barrera , el valor fijo, que los electrones deben superar para salir de sus átomos, para ser emitidos desde la superficie del metal y ser medidos.
Pasaron diez años antes de que el experimento definitivo de Millikan [7] verificara la predicción de Einstein. Durante esa época, muchos científicos rechazaron la idea revolucionaria de los cuantos. [8] Pero el concepto de Planck y Einstein estaba en el aire y pronto comenzó a afectar a otras teorías físicas y cuánticas.
Los experimentos con luz y materia a finales del siglo XIX descubrieron una regularidad reproducible pero desconcertante. Cuando la luz se mostraba a través de gases purificados, ciertas frecuencias (colores) no pasaban. Estas "líneas" de absorción oscura seguían un patrón distintivo: los espacios entre las líneas disminuían constantemente. En 1889, la fórmula de Rydberg predijo las líneas del gas hidrógeno utilizando sólo un número constante y números enteros para indexar las líneas. [5] : v1:376 Se desconocía el origen de esta regularidad. Resolver este misterio eventualmente se convertiría en el primer gran paso hacia la mecánica cuántica.
A lo largo del siglo XIX crecieron las pruebas de la naturaleza atómica de la materia. Con el descubrimiento del electrón por Thomson en 1897, los científicos comenzaron la búsqueda de un modelo del interior del átomo. Thomson propuso electrones negativos nadando en un charco de carga positiva . Entre 1908 y 1911, Rutherford demostró que la parte positiva era sólo 1/3000 del diámetro del átomo. [6] : 26
Se propusieron modelos de electrones "planetarios" que orbitan alrededor de un "Sol" nuclear, pero no pueden explicar por qué el electrón no cae simplemente en una carga positiva. En 1913, Niels Bohr y Ernest Rutherford relacionaron los nuevos modelos atómicos con el misterio de la fórmula de Rydberg: el radio orbital de los electrones estaba limitado y las diferencias de energía resultantes coincidían con las diferencias de energía en las líneas de absorción. Esto significaba que la absorción y emisión de luz de los átomos estaba cuantificada en energía: sólo se emitirían o absorberían energías específicas que coincidieran con la diferencia en la energía orbital. [6] : 31
Cambiar un misterio (el patrón regular de la fórmula de Rydberg) por otro misterio (las restricciones en las órbitas de los electrones) puede no parecer un gran avance, pero el nuevo modelo atómico resumió muchos otros hallazgos experimentales. La cuantificación del efecto fotoeléctrico y ahora la cuantificación de las órbitas de los electrones prepararon el escenario para la revolución final.
A lo largo de la primera y moderna era de la mecánica cuántica, el concepto de que la mecánica clásica debe ser válido macroscópicamente restringió posibles modelos cuánticos. Este concepto fue formalizado por Bohr en 1923 como principio de correspondencia . Requiere que la teoría cuántica converja a los límites clásicos. [9] : 29 Un concepto relacionado es el teorema de Ehrenfest , que muestra que los valores promedio obtenidos de la mecánica cuántica (por ejemplo, posición y momento) obedecen a leyes clásicas. [10]
En 1922, Otto Stern y Walther Gerlach demostraron que las propiedades magnéticas de los átomos de plata desafían la explicación clásica, trabajo que contribuyó al Premio Nobel de Física de 1943 de Stern . Dispararon un rayo de átomos de plata a través de un campo magnético. Según la física clásica, los átomos deberían haber surgido en forma de spray, con un rango continuo de direcciones. En cambio, el haz se separó en dos, y sólo dos, corrientes divergentes de átomos. [11] A diferencia de otros efectos cuánticos conocidos en ese momento, este sorprendente resultado involucra el estado de un solo átomo. [5] : v2:130 En 1927, TE Phipps y JB Taylor obtuvieron un efecto similar, pero menos pronunciado, utilizando átomos de hidrógeno en su estado fundamental , eliminando así cualquier duda que pudiera haber surgido por el uso de átomos de plata . [12]
En 1924, Wolfgang Pauli lo llamó "dos valores no descriptibles clásicamente" y lo asoció con electrones en la capa más externa. [13] Los experimentos conducen a la formulación de su teoría descrita como derivada del espín del electrón en 1925, por Samuel Goudsmit y George Uhlenbeck , bajo el asesoramiento de Paul Ehrenfest . [14]
En 1924, Louis de Broglie propuso [15] que los electrones de un átomo no están limitados a "órbitas" sino a ondas estacionarias. En detalle, su solución no funcionó, pero su hipótesis (que el "corpúsculo" del electrón se mueve en el átomo como una onda) impulsó a Erwin Schrödinger a desarrollar una ecuación de onda para los electrones; cuando se aplicó al hidrógeno, la fórmula de Rydberg se reprodujo con precisión. [6] : 65
El artículo de Max Born de 1924 , "Zur Quantenmechanik", fue el primer uso impreso de las palabras "mecánica cuántica". [16] [17] Su trabajo posterior incluyó el desarrollo de modelos de colisión cuántica; en una nota a pie de página de un artículo de 1926 propuso la regla de Born que conecta los modelos teóricos con el experimento. [18]
En 1927, en los Laboratorios Bell, Clinton Davisson y Lester Germer dispararon electrones de movimiento lento a un objetivo de níquel cristalino que mostraba un patrón de difracción [19] [20] [21] [22] que indicaba la naturaleza ondulatoria del electrón cuya teoría fue explicada completamente por Hans. Ser el . [23] Un experimento similar realizado por George Paget Thomson y Alexander Reid, disparando electrones contra finas láminas de celuloide y más tarde películas metálicas, observando anillos, descubrió de forma independiente la naturaleza ondulatoria de los electrones. [24]
En 1928, Paul Dirac publicó su ecuación de onda relativista incorporando simultáneamente la relatividad , prediciendo la antimateria y proporcionando una teoría completa para el resultado de Stern-Gerlach. [6] : 131 Estos éxitos lanzaron una nueva comprensión fundamental de nuestro mundo a pequeña escala: la mecánica cuántica.
Planck y Einstein iniciaron la revolución con cuantos que rompieron los modelos continuos de materia y luz. Veinte años más tarde, los "corpúsculos" como los electrones llegaron a modelarse como ondas continuas. Este resultado pasó a denominarse dualidad onda-partícula, una idea icónica junto con el principio de incertidumbre que distingue a la mecánica cuántica de los modelos más antiguos de física.
En 1923, Compton demostró que los cuantos de energía de Planck-Einstein procedentes de la luz también tenían impulso; tres años más tarde, los "cuantos de energía" recibieron un nuevo nombre " fotón " [25] A pesar de su papel en casi todas las etapas de la revolución cuántica, no existió ningún modelo explícito para los cuantos de luz hasta 1927, cuando Paul Dirac comenzó a trabajar en una teoría cuántica de la radiación. [26] que se convirtió en electrodinámica cuántica . Durante las décadas siguientes, este trabajo evolucionó hasta convertirse en la teoría cuántica de campos , la base de la óptica cuántica y la física de partículas modernas .
El concepto de dualidad onda-partícula dice que ni el concepto clásico de "partícula" ni de "onda" puede describir completamente el comportamiento de objetos a escala cuántica, ya sean fotones o materia. La dualidad onda-partícula es un ejemplo del principio de complementariedad en la física cuántica. [27] [28] [29] [30] [31] Un ejemplo elegante de dualidad onda-partícula es el experimento de la doble rendija.
En el experimento de la doble rendija, realizado originalmente por Thomas Young en 1803, [32] y luego por Augustin Fresnel una década después, [32] un haz de luz se dirige a través de dos rendijas estrechas y poco espaciadas, produciendo un patrón de interferencia de luz. y bandas oscuras en una pantalla. El mismo comportamiento se puede demostrar en las ondas del agua: el experimento de la doble rendija se consideró una demostración de la naturaleza ondulatoria de la luz.
Se han realizado variaciones del experimento de la doble rendija utilizando electrones, átomos e incluso moléculas grandes, [33] [34] y se observa el mismo tipo de patrón de interferencia. Así se ha demostrado que toda la materia posee características ondulatorias.
Si se reduce la intensidad de la fuente, el mismo patrón de interferencia se acumulará lentamente, una "cuenta" o partícula (por ejemplo, un fotón o un electrón) a la vez. El sistema cuántico actúa como una onda al pasar por las dobles rendijas, pero como una partícula cuando es detectada. Ésta es una característica típica de la complementariedad cuántica: un sistema cuántico actúa como una onda en un experimento para medir sus propiedades ondulatorias, y como una partícula en un experimento para medir sus propiedades similares a partículas. El punto en la pantalla del detector donde aparece cualquier partícula individual es el resultado de un proceso aleatorio. Sin embargo, el patrón de distribución de muchas partículas individuales imita el patrón de difracción producido por las ondas.
Supongamos que se desea medir la posición y la velocidad de un objeto (por ejemplo, un automóvil que pasa por un radar de velocidad). Se puede suponer que el automóvil tiene una posición y una velocidad definidas en un momento determinado. La precisión con la que se pueden medir estos valores depende de la calidad del equipo de medición. Si se mejora la precisión del equipo de medición, se proporciona un resultado más cercano al valor real. Se podría suponer que la velocidad del automóvil y su posición podrían definirse y medirse operativamente simultáneamente, con la precisión que se desee.
En 1927, Heisenberg demostró que esta última suposición no es correcta. [36] La mecánica cuántica muestra que ciertos pares de propiedades físicas, por ejemplo, posición y velocidad, no pueden medirse simultáneamente, ni definirse en términos operativos, con precisión arbitraria: cuanto más precisamente se mide o se define una propiedad en términos operativos, más con menos precisión se puede tratar así al otro. Esta afirmación se conoce como principio de incertidumbre . El principio de incertidumbre no es sólo una afirmación sobre la precisión de nuestro equipo de medición sino, más profundamente, sobre la naturaleza conceptual de las cantidades medidas: la suposición de que el automóvil tenía posición y velocidad definidas simultáneamente no funciona en la mecánica cuántica. En una escala de automóviles y personas, estas incertidumbres son insignificantes, pero cuando se trata de átomos y electrones se vuelven críticas. [37]
Heisenberg dio, a modo de ilustración, la medición de la posición y el momento de un electrón utilizando un fotón de luz. Al medir la posición del electrón, cuanto mayor es la frecuencia del fotón, más precisa es la medición de la posición del impacto del fotón con el electrón, pero mayor es la perturbación del electrón. Esto se debe a que, a partir del impacto con el fotón, el electrón absorbe una cantidad aleatoria de energía, lo que hace que la medición obtenida de su momento sea cada vez más incierta, ya que necesariamente se mide su momento perturbado posterior al impacto a partir de los productos de la colisión y no su momento original ( impulso que debe medirse simultáneamente con la posición). Con un fotón de menor frecuencia, la perturbación (y por tanto la incertidumbre) en el momento es menor, pero también lo es la precisión de la medición de la posición del impacto. [38]
En el corazón del principio de incertidumbre está el hecho de que para cualquier análisis matemático en los dominios de posición y velocidad, lograr una curva más pronunciada (más precisa) en el dominio de posición sólo puede lograrse a expensas de una curva más gradual (menos precisa). en el dominio de la velocidad y viceversa. Una mayor nitidez en el dominio de la posición requiere contribuciones de más frecuencias en el dominio de la velocidad para crear una curva más estrecha, y viceversa. Es una compensación fundamental inherente a cualquier medición relacionada o complementaria , pero sólo es realmente perceptible en la escala más pequeña (Planck), cerca del tamaño de las partículas elementales .
El principio de incertidumbre muestra matemáticamente que el producto de la incertidumbre en la posición y el momento de una partícula (el momento es la velocidad multiplicada por la masa) nunca podría ser menor que un valor determinado, y que este valor está relacionado con la constante de Planck .
El colapso de la función de onda significa que una medición ha forzado o convertido un estado cuántico (probabilístico o potencial) en un valor medido definido. Este fenómeno sólo se ve en la mecánica cuántica y no en la mecánica clásica.
Por ejemplo, antes de que un fotón "aparezca" realmente en una pantalla de detección, sólo se puede describir con un conjunto de probabilidades de dónde podría aparecer. Cuando aparece, por ejemplo en el CCD de una cámara electrónica, el tiempo y el espacio en el que interactuó con el dispositivo se conocen dentro de límites muy estrictos. Sin embargo, el fotón ha desaparecido en el proceso de captura (medición) y su función de onda cuántica ha desaparecido con él. En su lugar, ha aparecido algún cambio físico macroscópico en la pantalla de detección, por ejemplo, un punto expuesto en una hoja de película fotográfica, o un cambio en el potencial eléctrico en alguna celda de un CCD.
Debido al principio de incertidumbre, las afirmaciones sobre la posición y el momento de las partículas sólo pueden asignar una probabilidad de que la posición o el momento tengan algún valor numérico. Por lo tanto, es necesario formular claramente la diferencia entre el estado de algo indeterminado, como un electrón en una nube de probabilidad, y el estado de algo que tiene un valor definido. Cuando un objeto puede ser definitivamente "fijado" en algún aspecto, se dice que posee un estado propio .
En el experimento de Stern-Gerlach analizado anteriormente, el modelo cuántico predice dos posibles valores de espín del átomo en comparación con el eje magnético. Estos dos estados propios se denominan arbitrariamente "arriba" y "abajo". El modelo cuántico predice que estos estados se medirán con la misma probabilidad, pero no se verán valores intermedios. Esto es lo que muestra el experimento de Stern-Gerlach.
Los estados propios de espín alrededor del eje vertical no son simultáneamente estados propios de espín alrededor del eje horizontal, por lo que este átomo tiene la misma probabilidad de tener cualquiera de los valores de espín alrededor del eje horizontal. Como se describe en la sección anterior, medir el espín alrededor del eje horizontal puede permitir que un átomo que giró hacia arriba gire hacia abajo: medir su espín alrededor del eje horizontal colapsa su función de onda en uno de los estados propios de esta medición, lo que significa que es ya no está en un estado propio de giro alrededor del eje vertical, por lo que puede tomar cualquier valor.
En 1924, Wolfgang Pauli propuso un nuevo grado de libertad cuántico (o número cuántico ), con dos valores posibles, para resolver inconsistencias entre los espectros moleculares observados y las predicciones de la mecánica cuántica. En particular, el espectro del hidrógeno atómico tenía un doblete , o un par de líneas que diferían en una pequeña cantidad, donde solo se esperaba una línea. Pauli formuló su principio de exclusión , afirmando: "No puede existir un átomo en un estado cuántico tal que dos electrones en su interior tengan el mismo conjunto de números cuánticos". [39]
Un año después, Uhlenbeck y Goudsmit identificaron el nuevo grado de libertad de Pauli con la propiedad denominada espín cuyos efectos se observaron en el experimento de Stern-Gerlach .
En 1928, Paul Dirac amplió la ecuación de Pauli , que describía el giro de los electrones, para dar cuenta de la relatividad especial . El resultado fue una teoría que abordaba adecuadamente sucesos, como la velocidad a la que un electrón orbita alrededor del núcleo, que ocurren a una fracción sustancial de la velocidad de la luz . Utilizando la interacción electromagnética más simple , Dirac pudo predecir el valor del momento magnético asociado con el espín del electrón y encontró el valor observado experimentalmente, que era demasiado grande para ser el de una esfera cargada giratoria regida por la física clásica . Pudo resolver las líneas espectrales del átomo de hidrógeno y reproducir, a partir de los primeros principios físicos, la exitosa fórmula de Sommerfeld para la estructura fina del espectro del hidrógeno.
Las ecuaciones de Dirac a veces arrojaban un valor negativo para la energía, para lo cual propuso una solución novedosa: postuló la existencia de un antielectrón y un vacío dinámico. Esto condujo a la teoría cuántica de campos de muchas partículas .
En física cuántica, un grupo de partículas puede interactuar o crearse juntas de tal manera que el estado cuántico de cada partícula del grupo no pueda describirse independientemente del estado de las demás, incluso cuando las partículas están separadas por una gran distancia. Esto se conoce como entrelazamiento cuántico .
Un hito temprano en el estudio del entrelazamiento fue la paradoja de Einstein-Podolsky-Rosen (EPR) , un experimento mental propuesto por Albert Einstein, Boris Podolsky y Nathan Rosen que sostiene que la descripción de la realidad física proporcionada por la mecánica cuántica es incompleta. [40] En un artículo de 1935 titulado "¿Se puede considerar completa la descripción mecánico-cuántica de la realidad física?", argumentaron a favor de la existencia de "elementos de la realidad" que no eran parte de la teoría cuántica, y especularon que debería ser posible construir una teoría que contenga estas variables ocultas .
El experimento mental involucra un par de partículas preparadas en lo que más tarde se conocería como estado entrelazado. Einstein, Podolsky y Rosen señalaron que, en este estado, si se midiera la posición de la primera partícula, se podría predecir el resultado de medir la posición de la segunda partícula. Si, en cambio, se midiera el momento de la primera partícula, entonces se podría predecir el resultado de medir el momento de la segunda partícula. Argumentaron que ninguna acción tomada sobre la primera partícula podría afectar instantáneamente a la otra, ya que esto implicaría que la información se transmitiera más rápido que la luz, lo que está prohibido por la teoría de la relatividad . Invocaron un principio, más tarde conocido como el "criterio de realidad EPR", postulando que: "Si, sin perturbar de ninguna manera un sistema, podemos predecir con certeza (es decir, con probabilidad igual a la unidad) el valor de una cantidad física , entonces existe un elemento de realidad correspondiente a esa cantidad." De esto, dedujeron que la segunda partícula debe tener un valor definido tanto de posición como de momento antes de medir cualquiera de las cantidades. Pero la mecánica cuántica considera que estos dos observables son incompatibles y, por tanto, no asocia valores simultáneos para ambos a ningún sistema. Por tanto, Einstein, Podolsky y Rosen concluyeron que la teoría cuántica no proporciona una descripción completa de la realidad. [41] Ese mismo año, Erwin Schrödinger utilizó la palabra "entrelazamiento" y declaró: "Yo no lo llamaría así, sino más bien el rasgo característico de la mecánica cuántica". [42]
El físico irlandés John Stewart Bell llevó mucho más allá el análisis del entrelazamiento cuántico. Dedujo que si las mediciones se realizan de forma independiente en las dos partículas separadas de un par entrelazado, entonces la suposición de que los resultados dependen de variables ocultas dentro de cada mitad implica una restricción matemática sobre cómo se correlacionan los resultados de las dos mediciones. Esta restricción se denominaría más tarde desigualdad de Bell . Bell demostró luego que la física cuántica predice correlaciones que violan esta desigualdad. En consecuencia, la única forma en que las variables ocultas podrían explicar las predicciones de la física cuántica es si son "no locales", es decir, que de alguna manera las dos partículas son capaces de interactuar instantáneamente sin importar cuán separadas estén. [43] [44] Al realizar experimentos como los que sugirió Bell, los físicos han descubierto que la naturaleza obedece a la mecánica cuántica y viola las desigualdades de Bell. En otras palabras, los resultados de estos experimentos son incompatibles con cualquier teoría de variables ocultas locales. [45] [46]
La idea de la teoría cuántica de campos comenzó a finales de la década de 1920 con el físico británico Paul Dirac, cuando intentó cuantificar la energía del campo electromagnético ; al igual que en la mecánica cuántica se cuantizó la energía de un electrón en el átomo de hidrógeno. La cuantización es un procedimiento para construir una teoría cuántica a partir de una teoría clásica.
Merriam-Webster define un campo en física como "una región o espacio en el que existe un efecto determinado (como el magnetismo )". [47] Otros efectos que se manifiestan como campos son la gravitación y la electricidad estática . [48] En 2008, el físico Richard Hammond escribió:
A veces distinguimos entre mecánica cuántica (QM) y teoría cuántica de campos (QFT). QM se refiere a un sistema en el que el número de partículas es fijo y los campos (como el campo electromecánico) son entidades clásicas continuas. QFT... va un paso más allá y permite la creación y aniquilación de partículas...
Sin embargo, añadió que la mecánica cuántica se utiliza a menudo para referirse a "toda la noción de visión cuántica". [49] : 108
En 1931, Dirac propuso la existencia de partículas que luego se conocieron como antimateria . [50] Dirac compartió el Premio Nobel de Física de 1933 con Schrödinger "por el descubrimiento de nuevas formas productivas de la teoría atómica". [51]
Electrodinámica cuántica (QED) es el nombre de la teoría cuántica de la fuerza electromagnética . Comprender la QED comienza con la comprensión del electromagnetismo . Al electromagnetismo se le puede llamar "electrodinámica" porque es una interacción dinámica entre fuerzas eléctricas y magnéticas . El electromagnetismo comienza con la carga eléctrica .
Las cargas eléctricas son la fuente y crean campos eléctricos . Un campo eléctrico es un campo que ejerce una fuerza sobre cualquier partícula que transporte cargas eléctricas, en cualquier punto del espacio. Esto incluye al electrón, al protón e incluso a los quarks , entre otros. Cuando se ejerce una fuerza, las cargas eléctricas se mueven, fluye una corriente y se produce un campo magnético. El campo magnético cambiante, a su vez, provoca corriente eléctrica (a menudo electrones en movimiento). La descripción física de la interacción de partículas cargadas , corrientes eléctricas, campos eléctricos y campos magnéticos se llama electromagnetismo.
En 1928 Paul Dirac formuló una teoría cuántica relativista del electromagnetismo. Este fue el progenitor de la electrodinámica cuántica moderna, en el sentido de que tenía ingredientes esenciales de la teoría moderna. Sin embargo, el problema de los infinitos irresolubles se desarrolló en esta teoría cuántica relativista . Años más tarde, la renormalización resolvió en gran medida este problema. Inicialmente vista como un procedimiento provisional y sospechoso por algunos de sus creadores, la renormalización finalmente fue adoptada como una herramienta importante y autoconsistente en QED y otros campos de la física. Además, a finales de la década de 1940, los diagramas de Feynman proporcionaron una forma de hacer predicciones con QED al encontrar una amplitud de probabilidad para cada forma posible en que podría ocurrir una interacción. Los diagramas mostraron en particular que la fuerza electromagnética es el intercambio de fotones entre partículas que interactúan. [52]
El desplazamiento de Lamb es un ejemplo de predicción de la electrodinámica cuántica que ha sido verificada experimentalmente. Es un efecto por el cual la naturaleza cuántica del campo electromagnético hace que los niveles de energía en un átomo o ion se desvíen ligeramente de lo que serían de otro modo. Como resultado, las líneas espectrales pueden desplazarse o dividirse.
De manera similar, dentro de una onda electromagnética que se propaga libremente, la corriente también puede ser simplemente una corriente de desplazamiento abstracta , en lugar de involucrar portadores de carga. En QED, su descripción completa hace uso esencial de partículas virtuales de corta duración . Allí, la QED valida nuevamente un concepto anterior, bastante misterioso.
El modelo estándar de física de partículas es la teoría cuántica de campos que describe tres de las cuatro fuerzas fundamentales conocidas ( interacciones electromagnéticas , débiles y fuertes , excluyendo la gravedad ) en el universo y clasifica todas las partículas elementales conocidas . Se desarrolló por etapas a lo largo de la segunda mitad del siglo XX, gracias al trabajo de muchos científicos de todo el mundo, y la formulación actual se finalizó a mediados de la década de 1970 tras la confirmación experimental de la existencia de los quarks . Desde entonces, la prueba del quark top (1995), el neutrino tau (2000) y el bosón de Higgs (2012) han añadido mayor credibilidad al modelo estándar. Además, el Modelo Estándar ha predicho varias propiedades de las corrientes neutras débiles y de los bosones W y Z con gran precisión.
Aunque se cree que el modelo estándar es teóricamente autoconsistente y ha demostrado éxito en proporcionar predicciones experimentales , deja algunos fenómenos físicos sin explicación y, por lo tanto, no llega a ser una teoría completa de las interacciones fundamentales . Por ejemplo, no explica completamente la asimetría bariónica , no incorpora la teoría completa de la gravitación como la describe la relatividad general , ni explica la expansión acelerada del universo como posiblemente la describe la energía oscura . El modelo no contiene ninguna partícula viable de materia oscura que posea todas las propiedades requeridas deducidas de la cosmología observacional . Tampoco incorpora oscilaciones de neutrinos y sus masas distintas de cero. En consecuencia, se utiliza como base para construir modelos más exóticos que incorporan partículas hipotéticas , dimensiones adicionales y simetrías elaboradas (como la supersimetría ) para explicar resultados experimentales que difieren del modelo estándar, como la existencia de materia oscura y oscilaciones de neutrinos. .
Las mediciones físicas, ecuaciones y predicciones pertinentes a la mecánica cuántica son todas consistentes y tienen un nivel muy alto de confirmación. Sin embargo, la pregunta de qué dicen estos modelos abstractos sobre la naturaleza subyacente del mundo real ha recibido respuestas contrapuestas. Estas interpretaciones son muy variadas y, a veces, algo abstractas. Por ejemplo, la interpretación de Copenhague afirma que antes de una medición, las afirmaciones sobre las propiedades de una partícula carecen por completo de sentido, mientras que la interpretación de muchos mundos describe la existencia de un multiverso formado por todos los universos posibles. [53]
La luz se comporta en algunos aspectos como partículas y en otros aspectos como ondas. La materia, la "materia" del universo que consiste en partículas como electrones y átomos , también exhibe un comportamiento ondulatorio . Algunas fuentes de luz, como las luces de neón , emiten sólo ciertas frecuencias de luz específicas, un pequeño conjunto de colores puros distintos determinados por la estructura atómica del neón. La mecánica cuántica muestra que la luz, junto con todas las demás formas de radiación electromagnética , se presenta en unidades discretas, llamadas fotones , y predice sus energías espectrales (correspondientes a colores puros) y las intensidades de sus haces de luz. Un solo fotón es un cuanto , o la partícula más pequeña observable, del campo electromagnético. Nunca se observa experimentalmente un fotón parcial. En términos más generales, la mecánica cuántica muestra que muchas propiedades de los objetos, como la posición, la velocidad y el momento angular , que parecían continuas en la visión alejada de la mecánica clásica, resultan ser (en la minúscula escala ampliada de mecánica cuántica) cuantificada . Se requiere que tales propiedades de las partículas elementales adopten uno de un conjunto de valores pequeños y discretos permitidos, y dado que la brecha entre estos valores también es pequeña, las discontinuidades sólo son aparentes a escalas (atómicas) muy pequeñas.
La relación entre la frecuencia de la radiación electromagnética y la energía de cada fotón es la razón por la que la luz ultravioleta puede provocar quemaduras solares , pero la luz visible o infrarroja no. Un fotón de luz ultravioleta emite una gran cantidad de energía , suficiente para contribuir al daño celular como el que ocurre en una quemadura solar. Un fotón de luz infrarroja emite menos energía, sólo la suficiente para calentar la piel. Por lo tanto, una lámpara de infrarrojos puede calentar una superficie grande, quizás lo suficientemente grande como para mantener a las personas cómodas en una habitación fría, pero no puede provocar quemaduras solares a nadie. [54]
Las aplicaciones de la mecánica cuántica incluyen el láser , el transistor , el microscopio electrónico y la resonancia magnética . Una clase especial de aplicaciones de la mecánica cuántica está relacionada con fenómenos cuánticos macroscópicos como el helio superfluido y los superconductores. El estudio de los semiconductores condujo a la invención del diodo y el transistor , indispensables para la electrónica moderna .
Incluso en un simple interruptor de luz , el túnel cuántico es absolutamente vital, ya que de lo contrario los electrones de la corriente eléctrica no podrían atravesar la barrera de potencial formada por una capa de óxido. Los chips de memoria flash que se encuentran en las unidades USB también utilizan túneles cuánticos para borrar sus celdas de memoria. [55]
Las notas están en el guión principal.
principio de complementariedad dualidad onda-partícula.
[I]n un interferómetro de tres rejillas... Observamos patrones de franjas cuánticas de moléculas de alto contraste... que tienen 810 átomos en una sola partícula.
Cuando dos sistemas, cuyos estados conocemos por su respectiva representación, entran en una interacción física temporal debido a fuerzas conocidas entre ellos y cuando después de un tiempo de influencia mutua los sistemas se separan nuevamente, entonces ya no pueden describirse como antes. es decir, dotando a cada uno de ellos de un representante propio. No lo llamaría así,
sino
más bien
el
rasgo característico de la mecánica cuántica, el que impone su total alejamiento de las líneas de pensamiento clásicas.
Los siguientes títulos, todos escritos por físicos en activo, intentan comunicar la teoría cuántica a los profanos, utilizando un mínimo de aparatos técnicos.