En física , la entropía de von Neumann , llamada así por John von Neumann , es una extensión del concepto de entropía de Gibbs de la mecánica estadística clásica a la mecánica estadística cuántica . Para un sistema mecánico cuántico descrito por una matriz de densidad ρ , la entropía de von Neumann es [1]
donde denota la traza y ln denota el logaritmo matricial (natural) . Si la matriz de densidad ρ se escribe en base a sus vectores propios como
Entonces la entropía de von Neumann es simplemente [1]
De esta forma, S puede verse como la entropía de Shannon de la teoría de la información . [1]
La entropía de von Neumann también se utiliza en diferentes formas ( entropías condicionales , entropías relativas , etc.) en el marco de la teoría de la información cuántica para caracterizar la entropía del entrelazamiento . [2]
John von Neumann estableció un marco matemático riguroso para la mecánica cuántica en su obra de 1932 Fundamentos matemáticos de la mecánica cuántica . [3] En ella, proporcionó una teoría de la medición, donde la noción habitual de colapso de la función de onda se describe como un proceso irreversible (la llamada medición de von Neumann o proyectiva).
La matriz de densidad fue introducida, con diferentes motivaciones, por von Neumann y por Lev Landau . La motivación que inspiró a Landau fue la imposibilidad de describir un subsistema de un sistema cuántico compuesto mediante un vector de estado. [4] Por otro lado, von Neumann introdujo la matriz de densidad con el fin de desarrollar tanto la mecánica estadística cuántica como una teoría de las mediciones cuánticas.
El formalismo de la matriz de densidad, así desarrollado, extendió las herramientas de la mecánica estadística clásica al dominio cuántico. En el marco clásico, la distribución de probabilidad y la función de partición del sistema nos permiten calcular todas las posibles magnitudes termodinámicas. Von Neumann introdujo la matriz de densidad para que desempeñara el mismo papel en el contexto de los estados y operadores cuánticos en un espacio de Hilbert complejo. El conocimiento del operador estadístico de la matriz de densidad nos permitiría calcular todas las entidades cuánticas promedio de una manera conceptualmente similar, pero matemáticamente diferente.
Supongamos que tenemos un conjunto de funciones de onda | Ψ〉 que dependen paramétricamente de un conjunto de números cuánticos n 1 , n 2 , ..., n N . La variable natural que tenemos es la amplitud con la que una función de onda particular del conjunto básico participa en la función de onda real del sistema. Denotemos el cuadrado de esta amplitud por p ( n 1 , n 2 , ..., n N ). El objetivo es convertir esta cantidad p en la función de densidad clásica en el espacio de fases. Tenemos que verificar que p pasa a la función de densidad en el límite clásico, y que tiene propiedades ergódicas . Después de verificar que p ( n 1 , n 2 , ..., n N ) es una constante de movimiento, una suposición ergódica para las probabilidades p ( n 1 , n 2 , ..., n N ) hace que p sea una función de la energía solamente.
Después de este procedimiento, finalmente se llega al formalismo de la matriz de densidad cuando se busca una forma donde p ( n 1 , n 2 , ..., n N ) sea invariante con respecto a la representación utilizada. En la forma en que está escrita, solo arrojará los valores esperados correctos para cantidades que sean diagonales con respecto a los números cuánticos n 1 , n 2 , ..., n N .
Los valores esperados de los operadores que no son diagonales involucran las fases de las amplitudes cuánticas. Supongamos que codificamos los números cuánticos n 1 , n 2 , ..., n N en el índice único i o j . Entonces nuestra función de onda tiene la forma
El valor esperado de un operador B que no es diagonal en estas funciones de onda, por lo que
El papel que originalmente estaba reservado a las cantidades lo asume así la matriz de densidad del sistema S.
Por lo tanto, 〈B〉 se lee
La invariancia del término anterior se describe mediante la teoría de matrices. La traza es invariante bajo permutaciones cíclicas, y ambas matrices ρ y B se pueden transformar en cualquier base que sea conveniente, típicamente una base de los vectores propios. Mediante permutaciones cíclicas del producto matricial, se puede ver que surgirá una matriz identidad y, por lo tanto, la traza no se verá afectada por el cambio de base. Se describió un marco matemático donde el valor esperado de los operadores cuánticos, como se describe mediante matrices, se obtiene tomando la traza del producto del operador de densidad y un operador (producto escalar de Hilbert entre operadores). El formalismo matricial aquí está en el marco de la mecánica estadística, aunque también se aplica para sistemas cuánticos finitos, que suele ser el caso, donde el estado del sistema no se puede describir mediante un estado puro , sino como un operador estadístico de la forma anterior. Matemáticamente, es una matriz hermítica positiva-semidefinida con traza unitaria.
Dada la matriz de densidad ρ , von Neumann definió la entropía [5] [6] como
que es una extensión propia de la entropía de Gibbs (hasta un factor k B ) y la entropía de Shannon al caso cuántico. Para calcular S( ρ ) es conveniente (ver logaritmo de una matriz ) calcular la descomposición propia de . La entropía de von Neumann viene dada entonces por
Algunas propiedades de la entropía de von Neumann:
A continuación, se analiza el concepto de subaditividad, seguido de su generalización a subaditividad fuerte.
Si ρ A , ρ B son las matrices de densidad reducidas del estado general ρ AB , entonces
Esta desigualdad de la mano derecha se conoce como subaditividad . Las dos desigualdades juntas a veces se conocen como la desigualdad del triángulo . Fueron demostradas en 1970 por Huzihiro Araki y Elliott H. Lieb . [7] Mientras que en la teoría de Shannon la entropía de un sistema compuesto nunca puede ser menor que la entropía de cualquiera de sus partes, en la teoría cuántica este no es el caso, es decir, es posible que S ( ρ AB ) = 0 , mientras que S ( ρ A ) = S ( ρ B ) > 0 .
Intuitivamente, esto se puede entender de la siguiente manera: en mecánica cuántica, la entropía del sistema conjunto puede ser menor que la suma de la entropía de sus componentes porque los componentes pueden estar entrelazados . Por ejemplo, como se ve explícitamente, el estado de Bell de dos espín ½,
es un estado puro con entropía cero, pero cada espín tiene una entropía máxima cuando se lo considera individualmente en su matriz de densidad reducida . [8] La entropía en un espín se puede "cancelar" al correlacionarla con la entropía del otro. La desigualdad de la izquierda se puede interpretar aproximadamente como que la entropía solo se puede cancelar con una cantidad igual de entropía.
Si el sistema A y el sistema B tienen diferentes cantidades de entropía, la menor solo puede cancelar parcialmente a la mayor, y debe quedar algo de entropía. Del mismo modo, la desigualdad de la derecha puede interpretarse como que dice que la entropía de un sistema compuesto se maximiza cuando sus componentes no están correlacionados, en cuyo caso la entropía total es solo una suma de las subentropías. Esto puede ser más intuitivo en la formulación del espacio de fases , en lugar de la del espacio de Hilbert, donde la entropía de Von Neumann equivale a menos el valor esperado del ★ -logaritmo de la función de Wigner , − ∫ f ★ log ★ f dx dp , hasta un desplazamiento de compensación. [6] Hasta este desplazamiento de compensación de normalización, la entropía se ve mayorada por la de su límite clásico .
La entropía de von Neumann también es fuertemente subaditiva . Dados tres espacios de Hilbert , A , B , C ,
Este es un teorema más difícil y fue demostrado primero por J. Kiefer en 1959 [9] [10] e independientemente por Elliott H. Lieb y Mary Beth Ruskai en 1973, [11] usando una desigualdad matricial de Elliott H. Lieb [12] probada en 1973. Al usar la técnica de prueba que establece el lado izquierdo de la desigualdad triangular anterior, se puede demostrar que la desigualdad de subaditividad fuerte es equivalente a la siguiente desigualdad.
cuando ρ AB , etc. son las matrices de densidad reducidas de una matriz de densidad ρ ABC . Si aplicamos la subaditividad ordinaria al lado izquierdo de esta desigualdad, y consideramos todas las permutaciones de A , B , C , obtenemos la desigualdad triangular para ρ ABC : Cada uno de los tres números S ( ρ AB ), S ( ρ BC ), S ( ρ AC ) es menor o igual que la suma de los otros dos.
Teorema. [13] La distribución canónica es el máximo único de la entropía libre de Helmholtz , que tiene la solución en la base propia del operador hamiltoniano . Este estado tiene entropía libre donde es la función de partición.
De manera equivalente, la distribución canónica es el máximo único de entropía bajo restricción:
Como, para un estado puro, la matriz de densidad es idempotente , ρ = ρ 2 , la entropía S ( ρ ) para ella se anula. Por lo tanto, si el sistema es finito (representación matricial de dimensión finita), la entropía S ( ρ ) cuantifica la desviación del sistema de un estado puro . En otras palabras, codifica el grado de mezcla del estado que describe un sistema finito dado.
La medición descoherencia un sistema cuántico en algo que no interfiere y aparentemente es clásico ; así, por ejemplo, la entropía que desaparece de un estado puro , correspondiente a una matriz de densidad.
aumenta para la mezcla de resultados de medición
a medida que se borra la información de interferencia cuántica.
Sin embargo, si el dispositivo de medición también es mecánico cuántico y comienza en un estado puro, entonces el sistema conjunto de dispositivo-sistema es simplemente un sistema cuántico más grande. Como comienza en un estado puro, termina con un estado puro también, y por lo tanto la entropía de von Neumann nunca aumenta. El problema se puede resolver utilizando la idea de granulado grueso .
Concretamente, supongamos que el sistema es un qubit y que el dispositivo de medición es otro qubit. El dispositivo de medición comienza en el estado . El proceso de medición es una puerta CNOT , de modo que tenemos , . Es decir, si el sistema comienza en el estado 1 puro, entonces, después de la medición, el dispositivo de medición también está en el estado 1 puro.
Ahora bien, si el sistema comienza en el estado , luego de la medición, el sistema conjunto está en el estado Bell . La entropía vN del sistema conjunto sigue siendo 0, ya que sigue siendo un estado puro. Sin embargo, si analizamos el sistema a gran escala midiendo la entropía vN solo del dispositivo, luego solo del cúbit y luego los sumamos, obtenemos .
Por subaditividad , es decir, cualquier forma de dividir en partes todo el sistema en partes iguales sería igual o aumentaría la entropía vN.
Charla invitada en la Conferencia en honor del 90.º cumpleaños de Freeman Dyson, Instituto de Estudios Avanzados, Universidad Tecnológica de Nanyang, Singapur, 26-29 de agosto de 2013. La nota sobre Kiefer (1959) está en la marca 26:40.