stringtranslate.com

Min-entropía

La min-entropía , en teoría de la información , es la más pequeña de la familia de entropías de Rényi , que corresponde a la forma más conservadora de medir la imprevisibilidad de un conjunto de resultados, como el logaritmo negativo de la probabilidad del resultado más probable . Las diversas entropías de Rényi son todas iguales para una distribución uniforme, pero miden la imprevisibilidad de una distribución no uniforme de diferentes maneras. La min-entropía nunca es mayor que la entropía ordinaria o de Shannon (que mide la imprevisibilidad promedio de los resultados) y esta a su vez nunca es mayor que la Hartley o max-entropía , definida como el logaritmo del número de resultados con probabilidad distinta de cero.

Al igual que con la entropía clásica de Shannon y su generalización cuántica, la entropía de von Neumann , se puede definir una versión condicional de la min-entropía. La min-entropía cuántica condicional es un análogo único o conservador de la entropía cuántica condicional .

Para interpretar una medida de información condicional, supongamos que Alice y Bob comparten un estado cuántico bipartito . Alice tiene acceso al sistema y Bob al sistema . La entropía condicional mide la incertidumbre promedio que Bob tiene sobre el estado de Alice al tomar muestras de su propio sistema. La min-entropía se puede interpretar como la distancia de un estado a un estado máximamente entrelazado.

Este concepto es útil en criptografía cuántica, en el contexto de la amplificación de la privacidad (véase por ejemplo [1] ).

Definición de distribuciones clásicas

Si es una distribución de probabilidad finita clásica, su min-entropía se puede definir como [2] Una forma de justificar el nombre de la cantidad es compararlo con la definición más estándar de entropía, que se lee , y por lo tanto se puede escribir de manera concisa como el valor esperado de sobre la distribución. Si en lugar de tomar el valor esperado de esta cantidad tomamos su valor mínimo, obtenemos precisamente la definición anterior de .

Desde una perspectiva operativa, la entropía mínima es igual al logaritmo negativo de la probabilidad de adivinar correctamente el resultado de un sorteo aleatorio de . Esto se debe a que es óptimo adivinar el elemento con la mayor probabilidad y la probabilidad de éxito es igual a la probabilidad de ese elemento.

Definición de estados cuánticos

Una forma natural de generalizar la "min-entropía" de los estados clásicos a los cuánticos es aprovechar la simple observación de que los estados cuánticos definen distribuciones de probabilidad clásicas cuando se miden en alguna base. Sin embargo, existe la dificultad añadida de que un solo estado cuántico puede dar lugar a infinitas distribuciones de probabilidad posibles, dependiendo de cómo se mida. Un camino natural es entonces, dado un estado cuántico , seguir definiendo como , pero esta vez definiendo como la máxima probabilidad posible que se puede obtener midiendo , maximizando sobre todas las posibles mediciones proyectivas. Usando esto, se obtiene la definición operativa de que la min-entropía de es igual al logaritmo negativo de la probabilidad de adivinar con éxito el resultado de cualquier medición de .

Formalmente, esto conduce a la definición donde estamos maximizando sobre el conjunto de todas las mediciones proyectivas , representamos los resultados de la medición en el formalismo POVM y, por lo tanto, es la probabilidad de observar el -ésimo resultado cuando la medición es .

Un método más conciso para escribir la doble maximización es observar que cualquier elemento de cualquier POVM es un operador hermítico tal que , y por lo tanto podemos maximizar directamente de manera equivalente sobre estos para obtener De hecho, esta maximización se puede realizar explícitamente y el máximo se obtiene cuando es la proyección sobre (cualquiera de) el valor propio más grande de . Por lo tanto, obtenemos otra expresión para la min-entropía como: recordando que la norma del operador de un operador semidefinido positivo hermítico es igual a su valor propio más grande.

Entropías condicionales

Sea un operador de densidad bipartito en el espacio . La entropía mínima de condicionado en se define como

donde el ínfimo se extiende sobre todos los operadores de densidad en el espacio . La medida es la entropía relativa máxima definida como

La min-entropía suave se define en términos de la min-entropía.

donde el rango sup e inf abarca operadores de densidad que son -cercanos a . Esta medida de -cercano se define en términos de la distancia purificada

¿Dónde está la medida de fidelidad ?

Estas cantidades pueden considerarse como generalizaciones de la entropía de von Neumann . De hecho, la entropía de von Neumann puede expresarse como

Esto se denomina teorema de equipartición asintótica completamente cuántica. [3] Las entropías suavizadas comparten muchas propiedades interesantes con la entropía de von Neumann. Por ejemplo, la min-entropía suavizada satisface una desigualdad de procesamiento de datos: [4]

Interpretación operativa de la min-entropía suavizada

De ahora en adelante, eliminaremos el subíndice de la min-entropía cuando sea obvio por el contexto en qué estado se evalúa.

Min-entropía como incertidumbre sobre la información clásica

Supongamos que un agente tuviera acceso a un sistema cuántico cuyo estado depende de alguna variable clásica . Además, supongamos que cada uno de sus elementos se distribuye de acuerdo con alguna distribución . Esto puede describirse mediante el siguiente estado sobre el sistema .

donde forma una base ortonormal. Nos gustaría saber qué puede aprender el agente sobre la variable clásica . Sea la probabilidad de que el agente adivine cuando utilice una estrategia de medición óptima.

¿Dónde está el POVM que maximiza esta expresión? Se puede demostrar [ cita requerida ] que este óptimo se puede expresar en términos de la entropía mínima como

Si el estado es un estado de producto, es decir, para algunos operadores de densidad y , entonces no hay correlación entre los sistemas y . En este caso, resulta que

Dado que la min-entropía condicional es siempre menor que la entropía condicional de Von Neumann, se deduce que

Min-entropía como superposición con el estado de máxima enredo

El estado máximamente entrelazado en un sistema bipartito se define como

donde y forman una base ortonormal para los espacios y respectivamente. Para un estado cuántico bipartito , definimos la superposición máxima con el estado máximamente entrelazado como

donde el máximo es sobre todas las operaciones CPTP y es la dimensión del subsistema . Esta es una medida de cuán correlacionado está el estado. Se puede demostrar que . Si la información contenida en es clásica, esto se reduce a la expresión anterior para la probabilidad de adivinación.

Prueba de la caracterización operacional de la min-entropía

La prueba proviene de un artículo de König, Schaffner, Renner en 2008. [5] Implica la maquinaria de programas semidefinidos . [6] Supongamos que se nos da algún operador de densidad bipartito . A partir de la definición de la min-entropía, tenemos

Esto se puede reescribir como

Sujeto a las condiciones

Observamos que el ínfimo se toma sobre conjuntos compactos y, por lo tanto, se puede reemplazar por un mínimo. Esto se puede expresar sucintamente como un programa semidefinido. Consideremos el problema primal

Este problema primario también puede especificarse completamente mediante las matrices donde es el adjunto de la traza parcial sobre . La acción de los operadores on puede escribirse como

Podemos expresar el problema dual como una maximización sobre operadores en el espacio como

Usando el isomorfismo de Choi–Jamiołkowski , podemos definir el canal tal que

donde el estado de campana se define sobre el espacio . Esto significa que podemos expresar la función objetivo del problema dual como

como desees.

Nótese que en el caso de que el sistema sea un estado parcialmente clásico como el anterior, entonces la cantidad que buscamos se reduce a

Podemos interpretarlo como una estrategia de adivinación y esto luego se reduce a la interpretación dada anteriormente, donde un adversario quiere encontrar la cadena dado acceso a la información cuántica a través del sistema .

Véase también

Referencias

  1. ^ Vazirani, Umesh; Vidick, Thomas (29 de septiembre de 2014). "Distribución de clave cuántica totalmente independiente del dispositivo". Physical Review Letters . 113 (14): 140501. arXiv : 1210.1810 . Bibcode :2014PhRvL.113n0501V. doi :10.1103/physrevlett.113.140501. ISSN  0031-9007. PMID  25325625. S2CID  119299119.
  2. ^ König, Robert; Renner, Renato ; Schaffner, Christian (2009). "El significado operacional de la entropía mínima y máxima". IEEE Transactions on Information Theory . 55 (9). Instituto de Ingenieros Eléctricos y Electrónicos (IEEE): 4337–4347. arXiv : 0807.1338 . doi :10.1109/tit.2009.2025545. ISSN  0018-9448. S2CID  17160454.
  3. ^ Tomamichel, Marco; Colbeck, Roger; Renner, Renato (2009). "Una propiedad de equipartición asintótica completamente cuántica". IEEE Transactions on Information Theory . 55 (12). Instituto de Ingenieros Eléctricos y Electrónicos (IEEE): 5840–5847. arXiv : 0811.1221 . doi :10.1109/tit.2009.2032797. ISSN  0018-9448. S2CID  12062282.
  4. ^ Renato Renner, "Seguridad de la distribución de claves cuánticas", tesis doctoral, Diss. ETH No. 16242 arXiv :quant-ph/0512258
  5. ^ König, Robert; Renner, Renato ; Schaffner, Christian (2009). "El significado operacional de la entropía mínima y máxima". IEEE Transactions on Information Theory . 55 (9). Instituto de Ingenieros Eléctricos y Electrónicos (IEEE): 4337–4347. arXiv : 0807.1338 . doi :10.1109/tit.2009.2025545. ISSN  0018-9448. S2CID  17160454.
  6. ^ John Watrous, Teoría de la información cuántica, otoño de 2011, notas del curso, https://cs.uwaterloo.ca/~watrous/CS766/LectureNotes/07.pdf