stringtranslate.com

Entropía de von Neumann

En física , la entropía de von Neumann , llamada así en honor a John von Neumann , es una extensión del concepto de entropía de Gibbs de la mecánica estadística clásica a la mecánica estadística cuántica . Para un sistema mecánico-cuántico descrito por una matriz de densidad ρ , la entropía de von Neumann es [1]

donde denota la traza y ln denota el logaritmo de la matriz (natural) . Si la matriz de densidad ρ se escribe en base a sus vectores propios como

entonces la entropía de von Neumann es simplemente [1]

De esta forma, S puede verse como la entropía de Shannon de la teoría de la información . [1]

La entropía de von Neumann también se utiliza en diferentes formas ( entropías condicionales , entropías relativas , etc.) en el marco de la teoría de la información cuántica para caracterizar la entropía de entrelazamiento . [2]

Fondo

John von Neumann estableció un marco matemático riguroso para la mecánica cuántica en su obra de 1932 Fundamentos matemáticos de la mecánica cuántica . [3] En él, proporcionó una teoría de la medición, donde la noción habitual de colapso de la función de onda se describe como un proceso irreversible (la llamada von Neumann o medición proyectiva).

La matriz de densidad fue introducida, con diferentes motivaciones, por von Neumann y por Lev Landau . La motivación que inspiró a Landau fue la imposibilidad de describir un subsistema de un sistema cuántico compuesto mediante un vector de estados. [4] Por otro lado, von Neumann introdujo la matriz de densidad para desarrollar tanto la mecánica estadística cuántica como una teoría de las mediciones cuánticas.

El formalismo de la matriz de densidad, así desarrollado, extendió las herramientas de la mecánica estadística clásica al dominio cuántico. En el marco clásico, la distribución de probabilidad y la función de partición del sistema nos permiten calcular todas las cantidades termodinámicas posibles. Von Neumann introdujo la matriz de densidad para que desempeñara el mismo papel en el contexto de estados y operadores cuánticos en un espacio de Hilbert complejo. El conocimiento del operador estadístico de la matriz de densidad nos permitiría calcular todas las entidades cuánticas promedio de una manera conceptualmente similar, pero matemáticamente diferente.

Supongamos que tenemos un conjunto de funciones de onda | Ψ〉 que dependen paramétricamente de un conjunto de números cuánticos n 1 , n 2 , ..., n N . La variable natural que tenemos es la amplitud con la que una función de onda particular del conjunto básico participa en la función de onda real del sistema. Denotemos el cuadrado de esta amplitud por p ( n 1 , n 2 , ..., n N ). El objetivo es convertir esta cantidad p en la función de densidad clásica en el espacio de fases. Tenemos que verificar que p pasa a la función de densidad en el límite clásico y que tiene propiedades ergódicas . Después de comprobar que p ( n 1 , n 2 , ..., n N ) es una constante de movimiento, un supuesto ergódico para las probabilidades p ( n 1 , n 2 , ..., n N ) hace que p sea una función de la energía solamente.

Luego de este procedimiento, finalmente se llega al formalismo matricial de densidad al buscar una forma donde p ( n 1 , n 2 , ..., n N ) sea invariante con respecto a la representación utilizada. En la forma en que está escrito, sólo producirá los valores esperados correctos para cantidades que son diagonales con respecto a los números cuánticos n 1 , n 2 , ..., n N .

Los valores esperados de operadores que no son diagonales implican las fases de las amplitudes cuánticas. Supongamos que codificamos los números cuánticos n 1 , n 2 , ..., n N en el índice único i o j . Entonces nuestra función de onda tiene la forma

El valor esperado de un operador B que no es diagonal en estas funciones de onda, por lo que

El papel originalmente reservado a las cantidades es asumido por la matriz de densidad del sistema S.

Por lo tanto, 〈B〉 se lee

La invariancia del término anterior se describe mediante la teoría de matrices. La traza es invariante bajo permutaciones cíclicas, y tanto las matrices ρ como B pueden transformarse en cualquier base que sea conveniente, típicamente una base de los vectores propios. Mediante permutaciones cíclicas del producto matricial, se puede ver que surgirá una matriz identidad y, por lo tanto, la traza no se verá afectada por el cambio de base. Se describió un marco matemático donde el valor esperado de los operadores cuánticos, tal como lo describen las matrices, se obtiene tomando la traza del producto del operador de densidad y un operador (producto escalar de Hilbert entre operadores). El formalismo matricial aquí está en el marco de la mecánica estadística, aunque también se aplica a sistemas cuánticos finitos, como suele ser el caso, donde el estado del sistema no puede describirse mediante un estado puro , sino como un operador estadístico de la forma anterior. . Matemáticamente, es una matriz hermitiana positiva-semidefinida con traza unitaria.

Definición

Dada la matriz de densidad ρ , von Neumann definió la entropía [5] [6] como

que es una extensión adecuada de la entropía de Gibbs (hasta un factor k B ) y la entropía de Shannon al caso cuántico. Para calcular S ( ρ ) es conveniente (ver logaritmo de una matriz ) calcular la descomposición propia de . La entropía de von Neumann viene dada por

Propiedades

Algunas propiedades de la entropía de von Neumann:

donde la igualdad se logra si los ρ i tienen soporte ortogonal, y como antes ρ i son operadores de densidad y λ i es una colección de números positivos que suman la unidad ( )
.
Esto significa automáticamente que S ( ρ ) es subaditivo:

A continuación, se analiza el concepto de subaditividad, seguido de su generalización a una subaditividad fuerte.

Subaditividad

Si ρ A , ρ B son las matrices de densidad reducida del estado general ρ AB , entonces

Esta desigualdad de la derecha se conoce como subaditividad . Las dos desigualdades juntas a veces se conocen como desigualdad triangular . Fueron probados en 1970 por Huzihiro Araki y Elliott H. Lieb . [7] Mientras que en la teoría de Shannon la entropía de un sistema compuesto nunca puede ser menor que la entropía de cualquiera de sus partes, en la teoría cuántica este no es el caso, es decir, es posible que S ( ρ AB ) = 0 , mientras que S ( ρ A ) = S ( ρ B ) > 0 .

Intuitivamente, esto se puede entender de la siguiente manera: en la mecánica cuántica, la entropía del sistema conjunto puede ser menor que la suma de la entropía de sus componentes, porque los componentes pueden estar entrelazados . Por ejemplo, como se ve explícitamente, el estado de Bell de dos espines ½,

Es un estado puro con entropía cero, pero cada espín tiene entropía máxima cuando se considera individualmente en su matriz de densidad reducida . [8] La entropía en un giro se puede "cancelar" correlacionándola con la entropía del otro. La desigualdad de la izquierda se puede interpretar aproximadamente en el sentido de que la entropía sólo puede cancelarse con una cantidad igual de entropía.

Si el sistema A y el sistema B tienen diferentes cantidades de entropía, el menor sólo puede cancelar parcialmente al mayor, y debe quedar algo de entropía. Asimismo, se puede interpretar que la desigualdad de la derecha dice que la entropía de un sistema compuesto se maximiza cuando sus componentes no están correlacionados, en cuyo caso la entropía total es solo una suma de las subentropías. Esto puede ser más intuitivo en la formulación del espacio de fase , en lugar del espacio uno de Hilbert, donde la entropía de Von Neumann equivale a menos el valor esperado del -logaritmo de la función de Wigner , ∫ f ​​log f  dx  dp , hasta un cambio compensado. [6] Hasta este cambio de compensación de normalización, la entropía es mayorizada por la de su límite clásico .

Fuerte subaditividad

La entropía de von Neumann también es fuertemente subaditiva . Dados tres espacios de Hilbert , A , B , C ,

Este es un teorema más difícil y fue demostrado primero por J. Kiefer en 1959 [9] [10] e independientemente por Elliott H. Lieb y Mary Beth Ruskai en 1973, [11] utilizando una desigualdad matricial de Elliott H. Lieb [12 ] demostró en 1973. Al utilizar la técnica de prueba que establece el lado izquierdo de la desigualdad del triángulo anterior, se puede demostrar que la desigualdad de subaditividad fuerte es equivalente a la siguiente desigualdad.

cuando ρ AB , etc. son las matrices de densidad reducida de una matriz de densidad ρ ABC . Si aplicamos la subaditividad ordinaria al lado izquierdo de esta desigualdad y consideramos todas las permutaciones de A , B , C , obtenemos la desigualdad triangular para ρ ABC : Cada uno de los tres números S ( ρ AB ), S ( ρ BC ), S ( ρ AC ) es menor o igual a la suma de los otros dos.

De grano grueso

Dado que, para un estado puro, la matriz de densidad es idempotente , ρ = ρ 2 , la entropía S ( ρ ) desaparece. Así, si el sistema es finito (representación matricial de dimensión finita), la entropía S ( ρ ) cuantifica la salida del sistema de un estado puro . En otras palabras, codifica el grado de mezcla del estado que describe un sistema finito dado.

La medición desacopla un sistema cuántico hasta convertirlo en algo que no interfiere y ostensiblemente clásico ; entonces, por ejemplo, la entropía evanescente de un estado puro , correspondiente a una matriz de densidad

aumenta a para la mezcla de resultados de medición

a medida que se borra la información de interferencia cuántica.

Sin embargo, si el dispositivo de medición también es mecánico cuántico y también comienza en un estado puro, entonces el sistema conjunto dispositivo-sistema es simplemente un sistema cuántico más grande. Dado que comienza en un estado puro, termina también en un estado puro, por lo que la entropía de von Neumann nunca aumenta. El problema se puede resolver utilizando la idea de grano grueso .

Concretamente, dejemos que el sistema sea un qubit y que el dispositivo de medición sea otro qubit. El dispositivo de medición comienza en el estado. El proceso de medición es una puerta CNOT , por lo que tenemos . Es decir, si el sistema comienza en el estado 1 puro, después de medir, el dispositivo de medición también se encuentra en el estado 1 puro.

Ahora bien, si el sistema comienza en el estado, luego de la medición, el sistema conjunto está en el estado Bell . La entropía vN del sistema conjunto sigue siendo 0, ya que sigue siendo un estado puro. Sin embargo, si analizamos el sistema en términos generales midiendo la entropía vN solo del dispositivo, luego solo el qubit, y luego los sumamos, obtenemos .

Por subaditividad, es decir, cualquier forma de dividir el sistema completo en partes igualaría o aumentaría la entropía vN.

Ver también

Referencias

  1. ^ abc Bengtsson, Ingemar; Zyczkowski, Karol. Geometría de los estados cuánticos: una introducción al entrelazamiento cuántico (1ª ed.). pag. 301.
  2. ^ Nielsen, Michael A. e Isaac Chuang (2001). Computación cuántica e información cuántica (Repr. ed.). Cambridge [ua]: Universidad de Cambridge. Prensa. pag. 700.ISBN 978-0-521-63503-5.
  3. ^ Von Neumann, Juan (1932). Mathematische Grundlagen der Quantenmechanik . Berlín: Springer. ISBN 3-540-59207-5.; Von Neumann, John (1955). Fundamentos matemáticos de la mecánica cuántica . Prensa de la Universidad de Princeton. ISBN 978-0-691-02893-4.
  4. ^ Landau, L. (1927). "Das Daempfungsproblem in der Wellenmechanik". Zeitschrift für Physik . 45 (5–6): 430–464. Código Bib : 1927ZPhy...45..430L. doi :10.1007/BF01343064. S2CID  125732617.
  5. ^ Geometría de los estados cuánticos: una introducción al entrelazamiento cuántico, por Ingemar Bengtsson, Karol Życzkowski, p301
  6. ^ ab Zachos, CK (2007). "Un límite clásico de la entropía cuántica". Revista de Física A: Matemática y Teórica . 40 (21): F407–F412. arXiv : hep-th/0609148 . Código Bib : 2007JPhA...40..407Z. doi :10.1088/1751-8113/40/21/F02. S2CID  1619604.
  7. ^ Araki, Huzihiro ; Lieb, Elliott H. (1970). "Desigualdades de entropía". Comunicaciones en Física Matemática . 18 (2): 160-170. Código bibliográfico : 1970CMaPh..18..160A. doi :10.1007/BF01646092. S2CID  189832417.
  8. ^ Zurek, WH (2003). "Decoherencia, einselección y orígenes cuánticos de lo clásico". Reseñas de Física Moderna . 75 (3): 715–775. arXiv : quant-ph/0105127 . Código Bib : 2003RvMP...75..715Z. doi :10.1103/RevModPhys.75.715. S2CID  14759237.
  9. ^ Kiefer, J. (julio de 1959). "Diseños experimentales óptimos". Revista de la Royal Statistical Society, Serie B (Metodológica) . 21 (2): 272–310. doi :10.1111/j.2517-6161.1959.tb00338.x.
  10. ^ Ruskai, María Beth. "Evolución de un teorema fundamental [sic] sobre la entropía cuántica". youtube.com . Científico mundial. Archivado desde el original el 21 de diciembre de 2021 . Consultado el 20 de agosto de 2020 . Charla invitada en la Conferencia en honor del 90 cumpleaños de Freeman Dyson, Instituto de Estudios Avanzados, Universidad Tecnológica de Nanyang, Singapur, 26 al 29 de agosto de 2013. La nota sobre Kiefer (1959) está en el minuto 26:40.
  11. ^ Lieb, Elliott H .; Ruskai, Mary Beth (1973). "Prueba de la fuerte subaditividad de la entropía mecánico-cuántica". Revista de Física Matemática . 14 (12): 1938-1941. Código bibliográfico : 1973JMP....14.1938L. doi : 10.1063/1.1666274 .
  12. ^ Lieb, Elliott H. (1973). "Funciones de traza convexa y la conjetura de Wigner-Yanase-Dyson". Avances en Matemáticas . 11 (3): 267–288. doi : 10.1016/0001-8708(73)90011-X .