stringtranslate.com

Diezmación de bloques que evoluciona con el tiempo

El algoritmo de diezmado de bloques evolutivo en el tiempo ( TEBD ) es un esquema numérico utilizado para simular sistemas cuánticos unidimensionales de muchos cuerpos, caracterizados por interacciones con el vecino más cercano como máximo. Se denomina diezmado de bloques evolutivo en el tiempo porque identifica dinámicamente los subespacios de Hilbert relevantes de baja dimensión de un espacio de Hilbert original exponencialmente más grande . El algoritmo, basado en el formalismo de estados de producto de matriz, es altamente eficiente cuando la cantidad de entrelazamiento en el sistema es limitada, un requisito que se cumple con una gran clase de sistemas cuánticos de muchos cuerpos en una dimensión.

Introducción

Teniendo en cuenta las dificultades inherentes a la simulación de sistemas cuánticos de muchos cuerpos generales, el aumento exponencial de los parámetros con el tamaño del sistema y, en consecuencia, los altos costes computacionales, una solución sería buscar métodos numéricos que se ocupen de casos especiales, en los que se pueda sacar provecho de la física del sistema. El enfoque básico, que trata directamente con todos los parámetros utilizados para caracterizar completamente un sistema cuántico de muchos cuerpos, se ve seriamente obstaculizado por la acumulación exponencial con el tamaño del sistema de la cantidad de variables necesarias para la simulación, lo que conduce, en el mejor de los casos, a tiempos computacionales irrazonablemente largos y a un uso extendido de la memoria. Para superar este problema se han desarrollado varios métodos diferentes que se han puesto en práctica con el paso del tiempo, siendo uno de los más exitosos el método de Monte Carlo cuántico (QMC). Además, el método del grupo de renormalización de la matriz de densidad (DMRG), junto con el QMC, es un método muy confiable, con una comunidad de usuarios en expansión y un número cada vez mayor de aplicaciones a los sistemas físicos.

Cuando el primer ordenador cuántico esté enchufado y funcionando, las perspectivas para el campo de la física computacional parecerán bastante prometedoras, pero hasta ese día uno tiene que restringirse a las herramientas mundanas que ofrecen los ordenadores clásicos. Mientras que los físicos experimentales están poniendo mucho esfuerzo en tratar de construir el primer ordenador cuántico, los físicos teóricos están buscando, en el campo de la teoría de la información cuántica (QIT), algoritmos cuánticos genuinos, apropiados para problemas que funcionarían mal al intentar ser resueltos en un ordenador clásico, pero bastante rápidos y exitosos en uno cuántico. La búsqueda de tales algoritmos aún continúa, siendo los más conocidos (y casi los únicos encontrados) el algoritmo de Shor , para factorizar números grandes, y el algoritmo de búsqueda de Grover .

En el campo de la informática cuántica cuantitativa, es necesario identificar los recursos primarios necesarios para la computación cuántica genuina. Dichos recursos pueden ser responsables de la ganancia de velocidad en la computación cuántica en comparación con la clásica; identificarlos significa también identificar sistemas que se puedan simular de una manera razonablemente eficiente en una computadora clásica. Dicho recurso es el entrelazamiento cuántico ; por lo tanto, es posible establecer un límite inferior claro para el entrelazamiento necesario para las aceleraciones computacionales cuánticas.

Guifré Vidal , entonces en el Instituto de Información Cuántica, Caltech , ha propuesto recientemente un esquema útil para simular una cierta categoría de sistemas cuánticos [1] . Afirma que "cualquier computación cuántica con estados puros puede ser simulada eficientemente con una computadora clásica siempre que la cantidad de entrelazamiento involucrado sea lo suficientemente restringida" . Este es el caso de los hamiltonianos genéricos que muestran interacciones locales, como por ejemplo, los hamiltonianos tipo Hubbard . El método exhibe un comportamiento polinomial de bajo grado en el aumento del tiempo computacional con respecto a la cantidad de entrelazamiento presente en el sistema. El algoritmo se basa en un esquema que explota el hecho de que en estos sistemas unidimensionales los valores propios de la matriz de densidad reducida en una división bipartita del sistema están decayendo exponencialmente, lo que nos permite trabajar en un espacio redimensionado abarcado por los vectores propios correspondientes a los valores propios que seleccionamos.

También se puede estimar la cantidad de recursos computacionales necesarios para la simulación de un sistema cuántico en una computadora clásica, sabiendo cómo el entrelazamiento contenido en el sistema escala con el tamaño del sistema. Las simulaciones clásicas (y cuánticas también) factibles son aquellas que involucran sistemas ligeramente entrelazados; las fuertemente entrelazadas, por otro lado, son buenas candidatas solo para cálculos cuánticos genuinos.

El método numérico es eficiente para simular dinámicas en tiempo real o cálculos de estados fundamentales mediante evolución en tiempo imaginario o interpolaciones isentrópicas entre un hamiltoniano objetivo y un hamiltoniano con un estado fundamental ya conocido. El tiempo computacional escala linealmente con el tamaño del sistema, por lo que se pueden investigar sistemas de muchas partículas en 1D.

Una característica útil del algoritmo TEBD es que puede emplearse de manera confiable para simulaciones de evolución temporal de hamiltonianos dependientes del tiempo, que describen sistemas que pueden realizarse con átomos fríos en redes ópticas o en sistemas lejos del equilibrio en transporte cuántico. Desde este punto de vista, TEBD tuvo cierta ascendencia sobre DMRG, una técnica muy poderosa, pero hasta hace poco no muy adecuada para simular evoluciones temporales. Con el formalismo de Estados de Producto de Matriz como el corazón matemático de DMRG, el esquema TEBD fue adoptado por la comunidad DMRG, dando así nacimiento al DMRG dependiente del tiempo [2] [ enlace muerto permanente ] , t-DMRG para abreviar.

Casi al mismo tiempo, otros grupos han desarrollado enfoques similares en los que la información cuántica juega un papel predominante como, por ejemplo, en las implementaciones DMRG para condiciones de contorno periódicas [3], y para estudiar la dinámica de estados mixtos en sistemas de redes cuánticas unidimensionales. [2] [3] Estos últimos enfoques en realidad proporcionan un formalismo que es más general que el enfoque TEBD original, ya que también permite tratar con evoluciones con operadores de producto matricial; esto permite la simulación de evoluciones no triviales no infinitesimales a diferencia del caso TEBD, y es un ingrediente crucial para tratar con análogos de dimensiones superiores de estados de producto matricial.

La descomposición del estado

Introduciendo la descomposición del Estado

Consideremos una cadena de N qubits , descrita por la función . La forma más natural de describirla sería utilizando la base de dimensión local : donde M es la dimensión in situ.

El truco de TEBD es reescribir los coeficientes :

Esta forma, conocida como estado del producto matricial , simplifica enormemente los cálculos.

Para entender por qué, se puede observar la descomposición de Schmidt de un estado, que utiliza la descomposición en valores singulares para expresar un estado con entrelazamiento limitado de manera más simple.

La descomposición de Schmidt

Considere el estado de un sistema bipartito . Cada uno de estos estados se puede representar en una base elegida apropiadamente como: donde se forman con vectores que forman una base ortonormal en y, correspondientemente, vectores , que forman una base ortonormal en , con coeficientes reales y positivos, . Esto se llama descomposición de Schmidt (SD) de un estado. En general, la suma llega hasta . El rango de Schmidt de una división bipartita está dado por el número de coeficientes de Schmidt distintos de cero. Si el rango de Schmidt es uno, la división se caracteriza por un estado de producto. Los vectores de la SD se determinan hasta una fase y los valores propios y el rango de Schmidt son únicos.

Por ejemplo, el estado de dos qubits: tiene la siguiente DE: con

Por otra parte, el estado: es un estado de producto:

Construyendo la descomposición del Estado

En este punto sabemos lo suficiente para intentar ver cómo construimos explícitamente la descomposición (llamémosla D ).

Consideremos la división bipartita . La SD tiene los coeficientes y vectores propios . Al expandir los en la base local, se puede escribir:

El proceso se puede descomponer en tres pasos, iterados para cada enlace (y, correspondientemente, SD) en la cadena: Paso 1 : expresar el s en una base local para el qubit 2:

Los vectores no están necesariamente normalizados .

Paso 2 : escribe cada vectoren términos de losvectores de Schmidt(énfasis de Vidal) como máximo y, correspondientemente, los coeficientes:

Paso 3 : haz las sustituciones y obtén:

Repitiendo los pasos 1 a 3, se puede construir toda la descomposición del estado D . Los últimos son un caso especial, como los primeros, expresando los vectores Schmidt de la derecha en el enlace en términos de la base local en el lugar de la red. Como se muestra en [1] es sencillo obtener la descomposición Schmidt en el enlace, es decir , a partir de D .

Los valores propios de Schmidt se dan explícitamente en D :

Los vectores propios de Schmidt son simplemente:

y

Razón fundamental

Ahora, si observamos D , en lugar de términos iniciales, hay . Aparentemente, esta es solo una forma elegante de reescribir los coeficientes , pero de hecho hay más que eso. Suponiendo que N es par, el rango de Schmidt para un corte bipartito en el medio de la cadena puede tener un valor máximo de ; en este caso, terminamos con al menos coeficientes, considerando solo los unos, ¡un poco más que el inicial ! La verdad es que la descomposición D es útil cuando se trata de sistemas que exhiben un bajo grado de entrelazamiento, lo que afortunadamente es el caso de muchos sistemas 1D, donde los coeficientes de Schmidt del estado fundamental decaen de manera exponencial con :

Por lo tanto, es posible tener en cuenta sólo algunos de los coeficientes de Schmidt (es decir, los más grandes), descartando los demás y, en consecuencia, normalizando nuevamente el estado:

donde es el número de coeficientes Schmidt conservados.

Alejémonos de esta imagen abstracta y refresquémonos con un ejemplo concreto, para enfatizar la ventaja de hacer esta descomposición. Consideremos por ejemplo el caso de 50 fermiones en una cadena ferromagnética , por simplicidad. Una dimensión de 12, digamos, para los sería una elección razonable, manteniendo los valores propios descartados en % del total, como lo muestran los estudios numéricos [4] , es decir, aproximadamente coeficientes, en comparación con los originales .

Incluso si los valores propios de Schmidt no tienen esta decadencia exponencial, pero muestran una disminución algebraica, aún podemos usar D para describir nuestro estado . El número de coeficientes para dar cuenta de una descripción fiel de puede ser sensiblemente mayor, pero aún está al alcance de eventuales simulaciones numéricas.

La actualización de la descomposición

Ahora podemos proceder a investigar el comportamiento de la descomposición D cuando se actúa sobre ella con puertas de un cúbit (OQG) y puertas de dos cúbits (TQG) que actúan sobre cúbits vecinos. En lugar de actualizar todos los coeficientes , nos limitaremos a una serie de operaciones que aumentan en como un polinomio de bajo grado, ahorrando así tiempo computacional .

Puertas de un qubit que actúan sobre qubita

Los OQGs afectan solo al qubit sobre el que actúan, la actualización del estado después de un operador unitario en el qubit k no modifica los valores propios de Schmidt ni los vectores de la izquierda, en consecuencia los , ni los de la derecha, en consecuencia los . Los únicos que se actualizarán son los (que requieren solo operaciones como máximo), como

Puertas de dos qubits que actúan sobre qubitsyo, yo+1

Los cambios necesarios para actualizar los y los, tras una operación unitaria V sobre los qubits k , k +1, afectan únicamente a , y . Consisten en una serie de operaciones básicas.

Siguiendo el planteamiento original de Vidal, puede considerarse perteneciente únicamente a cuatro subsistemas:

El subespacio J está abarcado por los vectores propios de la matriz de densidad reducida :

De manera similar, el subespacio K está abarcado por los vectores propios de la matriz de densidad reducida:

Los subespacios y pertenecen a los qubits k y k + 1. Usando esta base y la descomposición D , se puede escribir como:

Usando el mismo razonamiento que para el OQG, al aplicar el TQG V a los qubits k , k + 1 solo se necesita actualizar , y

Podemos escribir como: donde

Para averiguar la nueva descomposición, se deben calcular los nuevos s en el enlace k y sus vectores propios de Schmidt correspondientes y expresarlos en términos de los s de la descomposición D. Por lo tanto, la matriz de densidad reducida se diagonaliza :

Las raíces cuadradas de sus valores propios son los nuevos . Expresando los vectores propios de la matriz diagonalizada en la base: los , se obtienen también así:

A partir de los vectores propios del lado izquierdo, después de expresarlos en la base , los son:

El costo computacional

La dimensión de los tensores más grandes en D es del orden ; al construir el uno se hace la suma sobre , y para cada , sumando hasta un total de operaciones. Lo mismo vale para la formación de los elementos , o para calcular los vectores propios de la izquierda , un máximo de , respectivamente operaciones básicas. En el caso de los qubits, , por lo tanto su papel no es muy relevante para el orden de magnitud del número de operaciones básicas, pero en el caso en que la dimensión in situ es mayor que dos tiene una contribución bastante decisiva.

La simulación numérica

La simulación numérica apunta a los hamiltonianos (posiblemente dependientes del tiempo) de un sistema de partículas dispuestas en una línea, que se componen de OQG y TQG arbitrarios:

Es útil descomponer como una suma de dos términos posiblemente no conmutables, , donde

Cualquier término de dos cuerpos conmuta: , Esto se hace para generar la expansión de Suzuki-Trotter (ST) [5] del operador exponencial, llamado así por Masuo Suzuki y Hale Trotter .

La expansión Suzuki-Trotter

La expansión de Suzuki-Trotter de primer orden (ST1) representa una forma general de escribir operadores exponenciales: o, equivalentemente

El término de corrección desaparece en el límite.

Para simulaciones de dinámica cuántica es útil utilizar operadores que sean unitarios , conservando la norma (a diferencia de las expansiones en serie de potencias), y ahí es donde entra en juego la expansión de Trotter-Suzuki. En problemas de dinámica cuántica la unitaridad de los operadores en la expansión ST resulta bastante práctica, ya que el error tiende a concentrarse en la fase general , lo que nos permite calcular fielmente los valores esperados y las cantidades conservadas. Debido a que el ST conserva el volumen del espacio de fases, también se lo denomina integrador simpléctico.

El truco del ST2 es escribir los operadores unitarios como: donde . El número se llama número de Trotter.

Simulación de la evolución temporal

Los operadores , son fáciles de expresar como:

dado que dos operadores cualesquiera , (respectivamente, , ) conmutan para y una expansión ST de primer orden conserva solo el producto de las exponenciales, volviéndose la aproximación, en este caso, exacta.

La evolución temporal se puede realizar según

Para cada "paso de tiempo" , se aplican sucesivamente a todos los sitios impares, luego a los pares y nuevamente a los impares; esto es básicamente una secuencia de TQG, y se ha explicado anteriormente cómo actualizar la descomposición al aplicarlos.

Nuestro objetivo es realizar la evolución temporal de un estado para un tiempo T, hacia el estado utilizando el hamiltoniano de n-partículas .

Es bastante complicado, si es que es posible, construir la descomposición para un estado arbitrario de n partículas, ya que esto significaría que hay que calcular la descomposición de Schmidt en cada enlace, ordenar los valores propios de Schmidt en orden decreciente y elegir el primer vector propio de Schmidt y el apropiado. Tenga en cuenta que esto implicaría diagonalizar matrices de densidad reducida algo generosas, lo que, dependiendo del sistema que tengamos que simular, podría ser una tarea que esté más allá de nuestro alcance y paciencia. En cambio, podemos intentar hacer lo siguiente:

  1. construir la descomposición para un estado inicial simple, digamos, algún estado de producto , para el cual la descomposición es sencilla.
  2. relacionarse con el estado fundamental de un hamiltoniano mediante una transformación suficientemente local Q (una que pueda expresarse como un producto de TQG, por ejemplo)
  3. realizar una evolución en tiempo imaginario hacia el estado fundamental del hamiltoniano , de acuerdo con:

    o, alternativamente, simular una evolución isentrópica utilizando un hamiltoniano dependiente del tiempo, que interpola entre el hamiltoniano , que tiene el estado del producto como su estado fundamental, y el hamiltoniano ; la evolución debe hacerse lo suficientemente lenta, de modo que el sistema esté siempre en el estado fundamental o, al menos, muy cerca de él.
  4. Finalmente, haga la evolución temporal del estado hacia el uso del hamiltoniano :

Fuentes de error

Los errores en la simulación son resultado de la aproximación de Suzuki-Trotter y del truncamiento involucrado del espacio de Hilbert.

Errores derivados de la ampliación Suzuki-Trotter

En el caso de una aproximación de Trotter de orden, el error es de orden . Teniendo en cuenta los pasos, el error después del tiempo T es:

El estado no aproximado es:

¿Dónde se mantiene el estado después de la expansión de Trotter y se tiene en cuenta la parte que se descuida al realizar la expansión?

El error total aumenta con el tiempo como sigue:

El error de Trotter es independiente de la dimensión de la cadena.

Errores que surgen del truncamiento del espacio de Hilbert

Considerando los errores que surgen del truncamiento del espacio de Hilbert comprendido en la descomposición D , son dobles.

En primer lugar, como hemos visto anteriormente, se dejan de lado las contribuciones más pequeñas al espectro de Schmidt, y el estado se representa fielmente hasta: donde es la suma de todos los valores propios descartados de la matriz de densidad reducida, en el enlace . El estado se describe, en un enlace dado , mediante la descomposición de Schmidt: donde es el estado que se mantiene después del truncamiento y es el estado formado por las funciones propias correspondientes a los coeficientes de Schmidt más pequeños e irrelevantes, que se descuidan. Ahora bien, como están abarcados por vectores correspondientes a espacios ortogonales. Utilizando el mismo argumento que para la expansión de Trotter, el error después del truncamiento es:

Después de pasar al siguiente enlace, el estado es, de manera similar: El error, después del segundo truncamiento, es: y así sucesivamente, a medida que nos movemos de un enlace a otro.

La segunda fuente de error implicada en la descomposición es más sutil y requiere un poco de cálculo.

Como calculamos anteriormente, la constante de normalización después de realizar el truncamiento en el enlace es:

Ahora vayamos al enlace y calculemos la norma de los vectores Schmidt del lado derecho ; teniendo en cuenta la dimensión completa de Schmidt, la norma es:


dónde .

Teniendo en cuenta el espacio truncado, la norma es:

Tomando la diferencia, , obtenemos:

Por lo tanto, al construir la matriz de densidad reducida, la traza de la matriz se multiplica por el factor:

El error de truncamiento total

El error de truncamiento total, considerando ambas fuentes, está limitado superiormente por:

Al utilizar la expansión de Trotter, no nos movemos de enlace en enlace, sino entre enlaces de la misma paridad; además, para el ST2, hacemos un barrido de los pares y dos para los impares. Sin embargo, el cálculo presentado anteriormente sigue siendo válido. El error se evalúa multiplicando sucesivamente por la constante de normalización, cada vez que construimos la matriz de densidad reducida y seleccionamos sus valores propios relevantes.

Dimensión Schmidt "adaptativa"

Una cosa que puede ahorrar mucho tiempo computacional sin pérdida de precisión es usar una dimensión Schmidt diferente para cada enlace en lugar de una fija para todos los enlaces, manteniendo solo la cantidad necesaria de coeficientes relevantes, como es habitual. Por ejemplo, tomando el primer enlace, en el caso de los qubits, la dimensión Schmidt es solo dos. Por lo tanto, en el primer enlace, en lugar de diagonalizar inútilmente, digamos, matrices de 10 por 10 o 20 por 20, podemos limitarnos a las matrices ordinarias de 2 por 2, lo que hace que el algoritmo sea generalmente más rápido. Lo que podemos hacer en cambio es establecer un umbral para los valores propios de la DE, manteniendo solo aquellos que están por encima del umbral.

El TEBD también ofrece la posibilidad de una paralelización sencilla gracias a la factorización del operador exponencial de evolución temporal mediante la expansión de Suzuki-Trotter. Un TEBD paralelo tiene las mismas matemáticas que su contraparte no paralelizada, la única diferencia está en la implementación numérica.

Referencias

  1. ^ ab Vidal, Guifré (1 de octubre de 2003). "Simulación clásica eficiente de cálculos cuánticos ligeramente entrelazados". Physical Review Letters . 91 (14): 147902. arXiv : quant-ph/0301063 . doi :10.1103/physrevlett.91.147902. ISSN  0031-9007. PMID  14611555. S2CID  15188855.
  2. ^ F. Verstraete; JJ Garcia-Ripoll; JI Cirac (2004). "Operadores de densidad de producto matricial: simulación de sistemas finitos-T y disipativos". Phys. Rev. Lett . 93 (20): 207204. arXiv : cond-mat/0406426 . Bibcode :2004PhRvL..93t7204V. doi :10.1103/PhysRevLett.93.207204. PMID  15600964. S2CID  36218923.[1]
  3. ^ M. Zwolak; G. Vidal (2004). "Dinámica de estados mixtos en sistemas de red cuántica unidimensionales: un algoritmo de renormalización de superoperadores dependiente del tiempo". Phys. Rev. Lett . 93 (20): 207205. arXiv : cond-mat/0406440 . Bibcode :2004PhRvL..93t7205Z. doi :10.1103/PhysRevLett.93.207205. PMID  15600965. S2CID  26736344.
  4. ^ Vidal, Guifré (19 de julio de 2004). "Simulación eficiente de sistemas cuánticos unidimensionales de muchos cuerpos". Physical Review Letters . 93 (4): 040502. arXiv : quant-ph/0310089 . doi :10.1103/physrevlett.93.040502. ISSN  0031-9007. PMID  15323740. S2CID  30670203.
  5. ^ Hatano, Naomichi; Suzuki, Masuo (16 de noviembre de 2005). "Encontrar fórmulas de productos exponenciales de órdenes superiores". Recocido cuántico y otros métodos de optimización . Berlín, Heidelberg: Springer Berlin Heidelberg. págs. 37–68. arXiv : math-ph/0506007v1 . doi :10.1007/11526216_2. ISBN. 978-3-540-27987-7. ISSN  0075-8450. S2CID  118378501.