Una prueba de Bell , también conocida como prueba de desigualdad de Bell o experimento de Bell , es un experimento de física del mundo real diseñado para probar la teoría de la mecánica cuántica en relación con el concepto de realismo local de Albert Einstein . Los experimentos, que llevan el nombre de John Stewart Bell , prueban si el mundo real satisface o no el realismo local, que requiere la presencia de algunas variables locales adicionales (llamadas "ocultas" porque no son una característica de la teoría cuántica) para explicar el comportamiento de partículas como fotones y electrones . A partir de 2015 , todas las pruebas de Bell han encontrado que la hipótesis de variables ocultas locales es inconsistente con la forma en que se comportan los sistemas físicos. [1][update]
Según el teorema de Bell , si la naturaleza realmente opera de acuerdo con cualquier teoría de variables locales ocultas, entonces los resultados de una prueba de Bell estarán restringidos de una manera particular y cuantificable. Si se realiza un experimento de Bell y los resultados no están así restringidos, entonces las variables locales ocultas hipotéticas no pueden existir. Tales resultados apoyarían la posición de que no hay manera de explicar los fenómenos de la mecánica cuántica en términos de una descripción más fundamental de la naturaleza que esté más en línea con las reglas de la física clásica .
Se han realizado muchos tipos de pruebas de Bell en laboratorios de física, a menudo con el objetivo de mejorar problemas de diseño o configuración experimental que, en principio, podrían afectar la validez de los hallazgos de pruebas de Bell anteriores . Esto se conoce como "cerrar lagunas en las pruebas de Bell ". [1]
Las violaciones de la desigualdad de Bell también se utilizan en algunos protocolos de criptografía cuántica , mediante los cuales se detecta la presencia de un espía cuando las desigualdades de Bell dejan de ser violadas.
La prueba de Bell tiene su origen en el debate entre Einstein y otros pioneros de la física cuántica, principalmente Niels Bohr . Una característica de la teoría de la mecánica cuántica que se estaba debatiendo era el significado del principio de incertidumbre de Heisenberg . Este principio establece que si se conoce cierta información sobre una partícula determinada, hay otra información sobre ella que es imposible de conocer. Un ejemplo de esto se encuentra en las observaciones de la posición y el momento de una partícula determinada. Según el principio de incertidumbre, el momento y la posición de una partícula no pueden determinarse simultáneamente con una precisión arbitrariamente alta. [2]
En 1935, Einstein, Boris Podolsky y Nathan Rosen publicaron una afirmación de que la mecánica cuántica predice que se podría observar más información sobre un par de partículas entrelazadas de la que permitía el principio de Heisenberg, lo que sólo sería posible si la información viajara instantáneamente entre las dos partículas. Esto produce una paradoja que llegó a conocerse como la " paradoja EPR " en honor a los tres autores. Surge si cualquier efecto sentido en un lugar no es el resultado de una causa que ocurrió en su pasado , en relación con su ubicación. Esta acción a distancia violaría la teoría de la relatividad , al permitir que la información entre ambas ubicaciones viaje más rápido que la velocidad de la luz. [ cita necesaria ]
Basándose en esto, los autores concluyeron que la función de onda cuántica no proporciona una descripción completa de la realidad. Sugirieron que debe haber algunas variables locales ocultas en juego para explicar el comportamiento de las partículas entrelazadas. En una teoría de variables ocultas, tal como la concibió Einstein, la aleatoriedad y la indeterminación observadas en el comportamiento de las partículas cuánticas sólo serían aparentes. Por ejemplo, si se conocieran los detalles de todas las variables ocultas asociadas con una partícula, entonces se podrían predecir tanto su posición como su momento. La incertidumbre que había sido cuantificada por el principio de Heisenberg sería simplemente un artefacto de no tener información completa sobre las variables ocultas. Además, Einstein argumentó que las variables ocultas deberían obedecer la condición de localidad: cualesquiera que sean realmente las variables ocultas, el comportamiento de las variables ocultas de una partícula no debería poder afectar instantáneamente el comportamiento de las de otra partícula lejana. Esta idea, llamada principio de localidad , tiene sus raíces en la intuición de la física clásica de que las interacciones físicas no se propagan instantáneamente a través del espacio. Estas ideas fueron objeto de un debate continuo entre sus proponentes. En particular, el propio Einstein no aprobaba la forma en que Podolsky había planteado el problema en el famoso artículo del EPR. [3] [4]
En 1964, John Stewart Bell propuso su famoso teorema, que establece que ninguna teoría física de variables locales ocultas podrá reproducir todas las predicciones de la mecánica cuántica. Implícita en el teorema está la proposición de que el determinismo de la física clásica es fundamentalmente incapaz de describir la mecánica cuántica. Bell amplió el teorema para proporcionar lo que se convertiría en la base conceptual de los experimentos de prueba de Bell. [ cita necesaria ]
Un experimento típico implica la observación de partículas, a menudo fotones, en un aparato diseñado para producir pares entrelazados y permitir medir alguna característica de cada uno, como su espín . Los resultados del experimento podrían compararse entonces con lo predicho por el realismo local y con los predichos por la mecánica cuántica. [ cita necesaria ]
En teoría, los resultados podrían ser "casualmente" consistentes con ambos. Para abordar este problema, Bell propuso una descripción matemática del realismo local que ponía un límite estadístico a la probabilidad de esa eventualidad. Si los resultados de un experimento violan la desigualdad de Bell, se pueden descartar variables locales ocultas como su causa. Investigadores posteriores se basaron en el trabajo de Bell proponiendo nuevas desigualdades que sirven al mismo propósito y refinan la idea básica de una forma u otra. [5] [6] En consecuencia, el término "desigualdad de Bell" puede significar cualquiera de una serie de desigualdades satisfechas por teorías de variables ocultas locales; En la práctica, muchos experimentos actuales emplean la desigualdad CHSH . Todas estas desigualdades, como la original ideada por Bell, expresan la idea de que asumir el realismo local impone restricciones a los resultados estadísticos de experimentos con conjuntos de partículas que han participado en una interacción y luego se han separado. [ cita necesaria ]
Hasta la fecha, todas las pruebas de Bell han apoyado la teoría de la física cuántica y no la hipótesis de variables locales ocultas. Estos esfuerzos por validar experimentalmente las violaciones de las desigualdades de Bell dieron como resultado que John Clauser , Alain Aspect y Anton Zeilinger recibieran el Premio Nobel de Física de 2022 . [7]
En la práctica, la mayoría de los experimentos reales han utilizado luz, que se supone se emite en forma de fotones similares a partículas (producidos por una cascada atómica o una conversión descendente paramétrica espontánea ), en lugar de los átomos que Bell tenía originalmente en mente. La propiedad de interés es, en los experimentos más conocidos, la dirección de polarización , aunque se pueden utilizar otras propiedades. Estos experimentos se dividen en dos clases, dependiendo de si los analizadores utilizados tienen uno o dos canales de salida.
El diagrama muestra un experimento óptico típico de dos canales, que Alain Aspect sentó un precedente en 1982. [8] Se registran las coincidencias (detecciones simultáneas) y los resultados se clasifican como '++', '+−', ' −+' o '−−' y los recuentos correspondientes acumulados.
Se realizan cuatro subexperimentos separados, correspondientes a los cuatro términos E ( a , b ) en la estadística de prueba S (ecuación (2) que se muestra a continuación). En la práctica, los ajustes a , a ′, b y b ′ generalmente se eligen como 0, 45°, 22,5° y 67,5° respectivamente (los "ángulos de prueba de Bell"), siendo éstos aquellos para los cuales la fórmula de la mecánica cuántica proporciona la mayor violación de la desigualdad.
Para cada valor seleccionado de a y b , se registran los números de coincidencias en cada categoría ( N ++ , N −− , N +− y N −+ ). La estimación experimental para E ( a , b ) se calcula entonces como:
Una vez que se han estimado las cuatro E , se realiza una estimación experimental del estadístico de prueba.
puede ser encontrado. Si S es numéricamente mayor que 2 se ha infringido la desigualdad CHSH. Se declara que el experimento apoyó la predicción de QM y descartó todas las teorías de variables ocultas locales.
Sin embargo, se ha tenido que hacer una fuerte suposición para justificar el uso de la expresión (2), a saber, que la muestra de pares detectados es representativa de los pares emitidos por la fuente. La negación de esta suposición se denomina laguna jurídica en el muestreo justo .
Antes de 1982, todas las pruebas reales de Bell utilizaban polarizadores de "canal único" y variaciones de una desigualdad diseñadas para esta configuración. Este último se describe en el muy citado artículo de Clauser, Horne, Shimony y Holt de 1969 como el más adecuado para uso práctico. [5] Al igual que con la prueba CHSH, hay cuatro subexperimentos en los que cada polarizador toma una de dos configuraciones posibles, pero además hay otros subexperimentos en los que uno u otro polarizador o ambos están ausentes. Los recuentos se toman como antes y se utilizan para estimar la estadística de prueba.
donde el símbolo ∞ indica ausencia de polarizador.
Si S excede 0, entonces se declara que el experimento ha infringido la desigualdad CH y, por tanto, ha refutado las variables ocultas locales. Esta desigualdad se conoce como desigualdad CH en lugar de CHSH, ya que también se dedujo en un artículo de 1974 de Clauser y Horne de manera más rigurosa y bajo supuestos más débiles. [9]
Además de los supuestos teóricos, existen otros prácticos. Puede haber, por ejemplo, varias "coincidencias accidentales" además de las de interés. Se supone que no se introduce ningún sesgo al restar su número estimado antes de calcular S , pero algunos no consideran que esto sea obvio. Puede haber problemas de sincronización: ambigüedad en el reconocimiento de pares porque en la práctica no se detectarán exactamente al mismo tiempo.
Sin embargo, a pesar de todas las deficiencias de los experimentos reales, surge un hecho sorprendente: los resultados son, en gran medida, lo que predice la mecánica cuántica. Si los experimentos imperfectos nos dan una superposición tan excelente con las predicciones cuánticas, la mayoría de los físicos cuánticos en activo estarían de acuerdo con John Bell en esperar que, cuando se realice una prueba de Bell perfecta, las desigualdades de Bell seguirán siendo violadas. Esta actitud ha propiciado el surgimiento de un nuevo subcampo de la física conocido como teoría de la información cuántica . Uno de los principales logros de esta nueva rama de la física es demostrar que la violación de las desigualdades de Bell conduce a la posibilidad de una transferencia segura de información, que utiliza la llamada criptografía cuántica (que implica estados entrelazados de pares de partículas).
Durante el último medio siglo se han llevado a cabo un gran número de experimentos de prueba de Bell. Los experimentos se interpretan comúnmente para descartar teorías locales de variables ocultas, y en 2015 se realizó un experimento que no está sujeto ni al vacío legal de localidad ni al vacío legal de detección (Hensen et al. [10] ). Un experimento libre de la laguna jurídica de localidad es aquel en el que para cada medición separada y en cada ala del experimento, se elige una nueva configuración y la medición se completa antes de que las señales puedan comunicar las configuraciones de un ala del experimento a la otra. Un experimento libre de lagunas de detección es aquel en el que cerca del 100% de los resultados de medición exitosos en un ala del experimento se combinan con una medición exitosa en la otra ala. Este porcentaje se llama eficiencia del experimento. Los avances tecnológicos han dado lugar a una gran variedad de métodos para probar las desigualdades de tipo Bell.
Algunos de los experimentos más conocidos y recientes incluyen:
Leonard Ralph Kasday, Jack R. Ullman y Chien-Shiung Wu llevaron a cabo la primera prueba experimental de Bell, utilizando pares de fotones producidos por la desintegración del positronio y analizados mediante dispersión de Compton . El experimento observó correlaciones de polarización de fotones consistentes con predicciones cuánticas e inconsistentes con modelos realistas locales que obedecen a la conocida dependencia de polarización de la dispersión de Compton. Debido a la baja selectividad de polarización de la dispersión de Compton, los resultados no violaron la desigualdad de Bell. [11] [12]
Stuart J. Freedman y John Clauser llevaron a cabo la primera prueba de Bell que observó una violación de la desigualdad de Bell, utilizando la desigualdad de Freedman, una variante de la desigualdad CH74 . [13]
Alain Aspect y su equipo en Orsay, París, realizaron tres pruebas de Bell utilizando fuentes de calcio en cascada. El primero y el último utilizaron la desigualdad CH74 . La segunda fue la primera aplicación de la desigualdad CHSH . El tercero (y el más famoso) estaba dispuesto de tal manera que la elección entre los dos ajustes de cada lado se hacía durante el vuelo de los fotones (como sugirió originalmente John Bell ). [14] [15]
Los experimentos de Bell de Ginebra de 1998 demostraron que la distancia no destruía el "entrelazamiento". La luz se enviaba a través de cables de fibra óptica a distancias de varios kilómetros antes de ser analizada. Como ocurre con casi todas las pruebas de Bell desde aproximadamente 1985, se utilizó una fuente de "conversión descendente paramétrica" (PDC). [16] [17]
En 1998, Gregor Weihs y un equipo de Innsbruck, dirigido por Anton Zeilinger , llevaron a cabo un experimento que cerró el vacío legal de la "localidad", mejorando el de Aspect de 1982. La elección del detector se realizó mediante un proceso cuántico para garantizar que fuera aleatorio. Esta prueba violó la desigualdad CHSH en más de 30 desviaciones estándar, y las curvas de coincidencia coincidieron con las predichas por la teoría cuántica. [18]
Este es el primero de nuevos experimentos tipo Bell con más de dos partículas; éste utiliza el llamado estado GHZ de tres partículas. [19]
La laguna de detección se cerró por primera vez en un experimento con dos iones atrapados entrelazados, llevado a cabo en el grupo de almacenamiento de iones de David Wineland en el Instituto Nacional de Estándares y Tecnología en Boulder. El experimento tuvo eficiencias de detección muy superiores al 90%. [20]
Utilizando desintegraciones semileptónicas de B0 de Υ(4S) en el experimento de Belle, se observa una clara violación de la desigualdad de Bell en la correlación partícula-antipartícula. [21]
Se descarta una clase específica de teorías no locales sugeridas por Anthony Leggett . Basándose en esto, los autores concluyen que cualquier posible teoría de variables ocultas no locales consistente con la mecánica cuántica debe ser altamente contraintuitiva. [22] [23]
Este experimento llenó un vacío al proporcionar una separación de 18 km entre detectores, que es suficiente para permitir la finalización de las mediciones del estado cuántico antes de que cualquier información pudiera haber viajado entre los dos detectores. [24] [25]
Este fue el primer experimento que probó las desigualdades de Bell con qubits de estado sólido ( se utilizaron qubits superconductores de fase Josephson ). Este experimento superó la laguna de detección utilizando un par de qubits superconductores en estado entrelazado. Sin embargo, el experimento aún adolecía del vacío legal de localidad porque los qubits solo estaban separados por unos pocos milímetros. [26]
Marissa Giustina ha cerrado por primera vez el vacío legal en la detección de fotones utilizando detectores altamente eficientes . Esto convierte a los fotones en el primer sistema en el que se han cerrado todas las lagunas principales, aunque en experimentos diferentes. [27] [28]
Christensen et al. (2013) [29] el experimento es similar al de Giustina et al. [27] Giustina et al. Hizo solo cuatro carreras largas con configuraciones de medición constantes (una para cada uno de los cuatro pares de configuraciones). El experimento no fue pulsado, por lo que la formación de "pares" a partir de los dos registros de resultados de medición (Alice y Bob) tuvo que realizarse después del experimento, lo que de hecho expone al experimento a la laguna de coincidencia. Esto llevó a un nuevo análisis de los datos experimentales de una manera que eliminó la laguna de coincidencia y, afortunadamente, el nuevo análisis aún mostró una violación de la desigualdad CHSH o CH apropiada. [28] Por otro lado, Christensen et al. El experimento se pulsó y los ajustes de medición se restablecieron con frecuencia de forma aleatoria, aunque sólo una vez cada 1.000 pares de partículas, no todas las veces. [29]
En 2015, grupos independientes de Delft, Viena y Boulder publicaron en un plazo de tres meses las tres primeras pruebas de Bell sin lagunas importantes. Las tres pruebas abordaron simultáneamente la laguna de detección, la laguna de localidad y la laguna de memoria. Esto los hace “libres de lagunas jurídicas” en el sentido de que todas las lagunas concebibles restantes, como el superdeterminismo, requieren hipótesis verdaderamente exóticas que tal vez nunca se cierren experimentalmente.
El primer experimento publicado por Hensen et al. [10] utilizaron un enlace fotónico para entrelazar los espines de los electrones de dos centros de defectos de nitrógeno vacante en diamantes separados por 1,3 kilómetros y midieron una violación de la desigualdad CHSH ( S = 2,42 ± 0,20). De este modo, la hipótesis del realismo local podría rechazarse con un valor p de 0,039.
Ambos experimentos publicados simultáneamente por Giustina et al. [30] y Shalm et al. [31] utilizaron fotones entrelazados para obtener una violación de la desigualdad de Bell con alta significación estadística (valor p ≪10 −6 ). En particular, el experimento de Shalm et al. También combinó tres tipos de generadores de números (cuasi) aleatorios para determinar las opciones de base de medición. Uno de estos métodos, detallado en un archivo auxiliar, es la “ fuente pseudoaleatoria 'cultural' ” que implicaba el uso de cadenas de bits de medios populares como las películas Regreso al futuro , Star Trek: Más allá de la frontera final , Monty Python y el Santo Grial , y los programas de televisión Salvados por la Campana y Dr. Who . [32]
Utilizando un testigo de las correlaciones de Bell derivadas de una desigualdad de Bell multipartita, los físicos de la Universidad de Basilea pudieron concluir por primera vez la correlación de Bell en un sistema de muchos cuerpos compuesto por unos 480 átomos en un condensado de Bose-Einstein. Aunque no se cerraron las lagunas, este experimento muestra la posibilidad de observar correlaciones de Bell en el régimen macroscópico.[33]
Físicos dirigidos por David Kaiser del Instituto de Tecnología de Massachusetts y Anton Zeilinger del Instituto de Óptica Cuántica e Información Cuántica de la Universidad de Viena realizaron un experimento que "produjo resultados consistentes con la no localización" midiendo la luz de las estrellas que había tardado 600 años en viajar a la Tierra. . [34] El experimento "representa el primer experimento que limita drásticamente la región espacio-temporal en la que las variables ocultas podrían ser relevantes". [35] [36] [37]
Físicos de la Universidad Ludwig Maximilian de Múnich y del Instituto Max Planck de Óptica Cuántica publicaron los resultados de un experimento en el que observaron una violación de la desigualdad de Bell utilizando estados de espín entrelazados de dos átomos con una distancia de separación de 398 metros en los que se encontraba la laguna de detección, la La laguna de la localidad y la laguna de la memoria se cerraron. La violación de S = 2,221 ± 0,033 rechazó el realismo local con un valor de significancia de P = 1,02×10 −16 al tener en cuenta 7 meses de datos y 55000 eventos o un límite superior de P = 2,57×10 −9 de una sola ejecución. con 10000 eventos. [38]
Un esfuerzo científico colaborativo internacional utilizó la elección humana arbitraria para definir configuraciones de medición en lugar de utilizar generadores de números aleatorios. Suponiendo que exista el libre albedrío humano, esto cerraría la “laguna de la libertad de elección”. Se reclutó a alrededor de 100.000 participantes para proporcionar información suficiente para que el experimento fuera estadísticamente significativo. [39]
En 2018, un equipo internacional utilizó la luz de dos quásares (uno cuya luz se generó hace aproximadamente ocho mil millones de años y el otro hace aproximadamente doce mil millones de años) como base para sus ajustes de medición. [40] Este experimento amplió el período de tiempo en el que las configuraciones podrían haberse determinado mutuamente a al menos 7.800 millones de años en el pasado, una fracción sustancial del límite superdeterminista (que es la creación del universo hace 13.800 millones de años). [41]
El episodio Einstein's Quantum Riddle de PBS Nova de 2019 documenta esta medición de la "prueba de Bell cósmica", con imágenes del equipo científico en el Observatorio del Teide a gran altitud ubicado en las Islas Canarias . [42]
En 2023, un equipo internacional dirigido por el grupo de Andreas Wallraff en ETH Zurich demostró una violación sin lagunas de la desigualdad CHSH con circuitos superconductores entrelazados de manera determinista a través de un enlace criogénico que abarca una distancia de 30 metros. [43]
Aunque la serie de experimentos de prueba de Bell, cada vez más sofisticados, ha convencido a la comunidad física de que las teorías de variables locales ocultas son indefendibles; nunca pueden excluirse por completo. [44] Por ejemplo, la hipótesis del superdeterminismo en la que todos los experimentos y resultados (y todo lo demás) están predeterminados no puede excluirse (porque es infalsificable). [45]
Hasta 2015, el resultado de todos los experimentos que violan una desigualdad de Bell todavía podría explicarse teóricamente explotando la laguna de detección y/o la laguna de localidad. La laguna jurídica de localidad (o comunicación) significa que, dado que en la práctica real las dos detecciones están separadas por un intervalo de tiempo , la primera detección puede influir en la segunda mediante algún tipo de señal. Para evitar este vacío legal, el experimentador debe asegurarse de que las partículas se desplacen a gran distancia antes de ser medidas y que el proceso de medición sea rápido. Más grave es la laguna jurídica en la detección (o muestreo injusto), porque no siempre se detectan partículas en ambas alas del experimento. Se puede imaginar que el conjunto completo de partículas se comportaría de forma aleatoria, pero los instrumentos solo detectan una submuestra que muestra correlaciones cuánticas , al permitir que la detección dependa de una combinación de variables locales ocultas y la configuración del detector. [ cita necesaria ]
Los experimentadores han expresado repetidas veces que en un futuro próximo se podrán realizar pruebas sin lagunas. [46] [47] En 2015, se informó de una violación de Bell sin lagunas jurídicas utilizando giros de diamantes entrelazados en una distancia de 1,3 kilómetros (1300 m) [10] y corroborada por dos experimentos que utilizaron pares de fotones entrelazados. [30] [31]
El resto de teorías posibles que obedecen al realismo local pueden restringirse aún más probando diferentes configuraciones espaciales, métodos para determinar los ajustes de medición y dispositivos de registro. Se ha sugerido que utilizar seres humanos para generar los ajustes de medición y observar los resultados constituye una prueba adicional. [48] David Kaiser del MIT dijo al New York Times en 2015 que una debilidad potencial de los experimentos "libres de lagunas" es que los sistemas utilizados para agregar aleatoriedad a la medición pueden estar predeterminados en un método que no se detectó en los experimentos. [49]
Un problema común en las pruebas ópticas de Bell es que sólo se detecta una pequeña fracción de los fotones emitidos. Entonces es posible que las correlaciones de los fotones detectados no sean representativas: aunque muestran una violación de una desigualdad de Bell, si se detectaran todos los fotones, la desigualdad de Bell en realidad se respetaría. Esto fue observado por primera vez por Philip M. Pearle en 1970, [50] quien ideó un modelo de variable oculta local que simulaba una violación de Bell al permitir que el fotón fuera detectado sólo si la configuración de medición era favorable. El supuesto de que esto no sucede, es decir, que la pequeña muestra es en realidad representativa del todo, se denomina supuesto de muestreo justo .
Para eliminar esta suposición es necesario detectar una fracción suficientemente grande de fotones. Esto suele caracterizarse en términos de la eficiencia de detección , definida como la probabilidad de que un fotodetector detecte un fotón que le llega. Anupam Garg y N. David Mermin demostraron que cuando se utiliza un estado entrelazado máximo y la desigualdad CHSH se requiere una eficiencia de para una violación sin lagunas. [51] Posteriormente, Philippe H. Eberhard demostró que cuando se utiliza un estado parcialmente entrelazado es posible una violación sin lagunas para , [52] que es el límite óptimo para la desigualdad CHSH. [53] Otras desigualdades de Bell permiten límites aún más bajos. Por ejemplo, existe una desigualdad de cuatro escenarios que se viola para . [54]
Históricamente, sólo los experimentos con sistemas no ópticos han podido alcanzar eficiencias suficientemente altas para cerrar esta laguna, como iones atrapados, [55] qubits superconductores, [56] y centros de nitrógeno vacante . [57] Estos experimentos no pudieron cerrar la laguna jurídica de la localidad, lo cual es fácil de hacer con fotones. Sin embargo, más recientemente, las configuraciones ópticas han logrado alcanzar eficiencias de detección suficientemente altas mediante el uso de fotodetectores superconductores, [30] [31] y las configuraciones híbridas han logrado combinar la alta eficiencia de detección típica de los sistemas de materia con la facilidad de distribuir el entrelazamiento a distancia. típico de los sistemas fotónicos. [10]
Uno de los supuestos del teorema de Bell es el de localidad, es decir, que la elección del lugar de medición en un lugar no influye en el resultado del otro. La motivación de esta suposición es la teoría de la relatividad , que prohíbe la comunicación más rápida que la luz. Para que esta motivación se aplique a un experimento, es necesario que haya una separación similar a un espacio entre los eventos de medición. Es decir, el tiempo que transcurre entre la elección del entorno de medición y la producción de un resultado debe ser más corto que el tiempo que tarda una señal luminosa en viajar entre los sitios de medición. [58]
El primer experimento que se esforzó por respetar esta condición fue el experimento de Aspect de 1982. [15] En él, los ajustes se cambiaron con bastante rapidez, pero de forma determinista. El primer experimento para cambiar la configuración aleatoriamente, con las elecciones realizadas por un generador de números aleatorios cuánticos , fue el experimento de Weihs et al. de 1998. [18] Scheidl y cols. mejoró esto aún más en 2010 al realizar un experimento entre ubicaciones separadas por una distancia de 144 km (89 millas). [59]
En muchos experimentos, especialmente aquellos basados en la polarización de fotones, los pares de eventos en las dos alas del experimento solo se identifican como pertenecientes a un solo par después de realizar el experimento, juzgando si sus tiempos de detección son lo suficientemente cercanos entre sí. . Esto genera una nueva posibilidad para que una teoría local de variables ocultas "falsifique" correlaciones cuánticas: retrasar el tiempo de detección de cada una de las dos partículas en una cantidad mayor o menor dependiendo de alguna relación entre las variables ocultas transportadas por las partículas y la configuración del detector encontrada. en la estación de medición. [60]
La laguna de coincidencia se puede descartar por completo simplemente trabajando con un entramado prefijado de ventanas de detección que sean lo suficientemente cortas como para que la mayoría de los pares de eventos que ocurren en la misma ventana se originen con la misma emisión y lo suficientemente largas como para que un par verdadero no se separe. por el límite de una ventana. [60]
En la mayoría de los experimentos, las mediciones se realizan repetidamente en los mismos dos lugares. Una teoría de variables ocultas locales podría explotar la memoria de configuraciones y resultados de mediciones pasadas para aumentar la violación de una desigualdad de Bell. Además, los parámetros físicos pueden variar con el tiempo. Se ha demostrado que, siempre que cada nuevo par de mediciones se realice con un nuevo par aleatorio de configuraciones de medición, ni la memoria ni la falta de homogeneidad del tiempo tienen un efecto grave en el experimento. [61] [62] [63]
Una suposición necesaria para derivar el teorema de Bell es que las variables ocultas no están correlacionadas con los ajustes de medición. Esta suposición se ha justificado sobre la base de que el experimentador tiene " libre albedrío " para elegir los escenarios, y que eso es necesario para hacer ciencia en primer lugar. Una teoría (hipotética) en la que la elección de la medición está determinada por el sistema que se está midiendo se conoce como superdeterminista . [45]
La interpretación de muchos mundos , también conocida como interpretación de Hugh Everett , es determinista y tiene una dinámica local, consistente en la parte unitaria de la mecánica cuántica sin colapso. El teorema de Bell no se aplica debido a la suposición implícita de que las mediciones tienen un resultado único. [64]