stringtranslate.com

Capacidad clásica

En la teoría de la información cuántica , la capacidad clásica de un canal cuántico es la velocidad máxima a la que se pueden enviar datos clásicos sin errores en el límite de muchos usos del canal. Holevo , Schumacher y Westmoreland demostraron el siguiente límite superior mínimo de la capacidad clásica de cualquier canal cuántico :

donde es un estado cuántico clásico de la siguiente forma:

es una distribución de probabilidad y cada uno es un operador de densidad que se puede ingresar al canal .

Alcanzabilidad mediante decodificación secuencial

Revisamos brevemente el teorema de codificación HSW (la declaración de la viabilidad de la tasa de información de Holevo para comunicar datos clásicos a través de un canal cuántico). Primero revisamos la cantidad mínima de mecánica cuántica necesaria para el teorema. Luego cubrimos la tipicidad cuántica y finalmente demostramos el teorema utilizando una técnica reciente de decodificación secuencial.

Revisión de la mecánica cuántica.

Para demostrar el teorema de codificación HSW, en realidad sólo necesitamos algunos conocimientos básicos de la mecánica cuántica . Primero, un estado cuántico es un operador positivo de traza unitaria conocido como operador de densidad . Por lo general, lo denotamos por , , , etc. El modelo más simple para un canal cuántico se conoce como canal cuántico clásico:

El significado de la notación anterior es que ingresar la letra clásica en el extremo transmisor conduce a un estado cuántico en el extremo receptor. Es tarea del receptor realizar una medición para determinar la entrada del emisor. Si es cierto que los estados son perfectamente distinguibles entre sí (es decir, si tienen soportes ortogonales tales como para ), entonces el canal es un canal silencioso. Nos interesan situaciones en las que este no es el caso. Si es cierto que todos los estados conmutan entre sí, entonces esto es efectivamente idéntico a la situación de un canal clásico, por lo que tampoco estamos interesados ​​en estas situaciones. Entonces, la situación que nos interesa es aquella en la que los estados tienen apoyo superpuesto y no son conmutativos.

La forma más general de describir una medición cuántica es con una medida positiva valorada por el operador ( POVM ). Generalmente denotamos los elementos de un POVM como . Estos operadores deben satisfacer la positividad y la integridad para formar un POVM válido:

La interpretación probabilística de la mecánica cuántica establece que si alguien mide un estado cuántico usando un dispositivo de medición correspondiente al POVM , entonces la probabilidad de obtener el resultado es igual a

y el estado posterior a la medición es

si la persona que mide obtiene el resultado . Estas reglas son suficientes para que consideremos los esquemas de comunicación clásicos a través de canales cq.

Tipicidad cuántica

El lector puede encontrar una buena reseña sobre este tema en el artículo sobre el subespacio típico .

Lema del operador gentil

El siguiente lema es importante para nuestras pruebas. Demuestra que una medición que tiene éxito con una alta probabilidad en promedio no perturba demasiado el estado en promedio:

Lema: [Invierno] Dado un conjunto con el operador de densidad esperado , supongamos que un operador que tiene éxito con alta probabilidad en el estado :

Entonces el estado subnormalizado está cerca en la distancia de seguimiento esperada del estado original :

(Nótese que es la norma nuclear del operador por lo que Tr .)

La siguiente desigualdad también nos resulta útil. Es válido para cualquier operador , tal que :

La interpretación teórica de la información cuántica de la desigualdad anterior es que la probabilidad de obtener un resultado de una medición cuántica que actúa sobre el estado está limitada superiormente por la probabilidad de obtener un resultado en el estado sumada a la distinguibilidad de los dos estados y .

Unión no conmutativa ligada

Lema: [límite de Sen] El siguiente límite es válido para un estado subnormalizado tal que y con , ... , siendo proyectores:

Podemos pensar en la cota de Sen como una "cota de unión no conmutativa" porque es análoga a la siguiente cota de unión de la teoría de la probabilidad:

¿Dónde están los eventos? El límite análogo para la lógica del proyector sería

si lo pensamos como un proyector sobre la intersección de subespacios. Sin embargo, el límite anterior solo se cumple si los proyectores , ..., están conmutando (eligiendo , y da un contraejemplo). Si los proyectores no son conmutables, entonces el límite de Sen es la mejor opción y suficiente para nuestros propósitos aquí.

Teorema de HSW con la unión no conmutativa ligada

Ahora demostramos el teorema HSW con la unión no conmutativa de Sen. Dividimos la prueba en algunas partes: generación de libros de códigos, construcción de POVM y análisis de errores.

Generación de libros de códigos. Primero describimos cómo Alice y Bob acuerdan una elección aleatoria de código. Tienen el canal y una distribución . Eligen secuencias clásicas según la distribución IID\ . Después de seleccionarlos, los etiquetan con índices como . Esto lleva a las siguientes palabras en clave cuánticas:

El libro de códigos cuánticos es entonces . El estado promedio del libro de códigos es entonces

dónde .

Construcción POVM . El límite de Sens del lema anterior sugiere un método para que Bob decodifique un estado que transmite Alice. Bob debería preguntar primero: "¿El estado recibido está en el subespacio típico promedio?" Puede hacer esto operativamente realizando una medición subespacial típica correspondiente a . A continuación, pregunta en orden secuencial: "¿La palabra clave recibida está en el subespacio condicionalmente típico?" En cierto sentido, esto equivale a la pregunta: "¿Es la palabra clave recibida la palabra clave transmitida?" Puede plantear estas preguntas operativamente realizando las mediciones correspondientes a los proyectores condicionalmente típicos .

¿Por qué debería funcionar bien este esquema de decodificación secuencial? La razón es que la palabra clave transmitida se encuentra en promedio en el subespacio típico:

donde la desigualdad se deriva de (\ref{eq:1st-typ-prop}). Además, los proyectores son "buenos detectores" de los estados (en promedio) porque la siguiente condición se cumple desde la tipicidad cuántica condicional:

Análisis de errores . La probabilidad de detectar la palabra clave correctamente según nuestro esquema de decodificación secuencial es igual a

donde hacemos la abreviatura . (Obsérvese que proyectamos en el subespacio típico promedio sólo una vez). Por tanto, la probabilidad de una detección incorrecta de la palabra clave viene dada por

y la probabilidad de error promedio de este esquema es igual a

En lugar de analizar la probabilidad de error promedio, analizamos la expectativa de probabilidad de error promedio, donde la expectativa es con respecto a la elección aleatoria de código:

Nuestro primer paso es aplicar la cota de Sen a la cantidad anterior. Pero antes de hacerlo, deberíamos reescribir ligeramente la expresión anterior, observando que

Sustituyendo en ( 3 ) (y olvidándonos del término pequeño por ahora) se obtiene un límite superior de

Luego aplicamos el límite de Sen a esta expresión con y los proyectores secuenciales como , , ..., . Esto da el límite superior. Debido a la concavidad de la raíz cuadrada, podemos limitar esta expresión desde arriba por

donde el segundo límite sigue sumando todas las palabras de código que no son iguales a la palabra de código (esta suma solo puede ser mayor).

Ahora nos centraremos exclusivamente en mostrar que el término dentro de la raíz cuadrada se puede hacer pequeño. Considere el primer término:

donde la primera desigualdad se deriva de ( 1 ) y la segunda desigualdad se deriva del lema del operador suave y las propiedades de tipicidad incondicional y condicional. Consideremos ahora el segundo término y la siguiente cadena de desigualdades:

La primera igualdad se sigue porque las palabras en clave y son independientes ya que son diferentes. La segunda igualdad se deriva de ( 2 ). La primera desigualdad se deriva de (\ref{eq:3rd-typ-prop}). Continuando tenemos

La primera desigualdad se deriva de e intercambiando la traza con la expectativa. La segunda desigualdad se deriva de (\ref{eq:2nd-cond-typ}). Los dos siguientes son sencillos.

Juntando todo, obtenemos nuestro límite final de la expectativa de probabilidad de error promedio:

Por lo tanto, siempre que elijamos , existe un código con probabilidad de error nula.

Ver también

Referencias