stringtranslate.com

Capacidad del canal

La capacidad del canal , en ingeniería eléctrica , informática y teoría de la información , es la velocidad máxima teórica a la que la información puede transmitirse de manera confiable a través de un canal de comunicación .

Siguiendo los términos del teorema de codificación de canales ruidosos , la capacidad de un canal determinado es la tasa de información más alta (en unidades de información por unidad de tiempo) que se puede lograr con una probabilidad de error arbitrariamente pequeña. [1] [2]

La teoría de la información , desarrollada por Claude E. Shannon en 1948, define la noción de capacidad del canal y proporciona un modelo matemático mediante el cual se puede calcular. El resultado clave establece que la capacidad del canal, como se define anteriormente, está dada por el máximo de la información mutua entre la entrada y la salida del canal, donde la maximización es con respecto a la distribución de entrada. [3]

La noción de capacidad del canal ha sido fundamental para el desarrollo de los sistemas de comunicación inalámbricos y alámbricos modernos, con la llegada de nuevos mecanismos de codificación de corrección de errores que han resultado en lograr un rendimiento muy cercano a los límites prometidos por la capacidad del canal.

Definicion formal

El modelo matemático básico para un sistema de comunicación es el siguiente:

dónde:

Sea y modelé como variables aleatorias. Además, sea la función de distribución de probabilidad condicional de dada , que es una propiedad fija inherente del canal de comunicación. Entonces la elección de la distribución marginal determina completamente la distribución conjunta debido a la identidad

lo que, a su vez, induce una información mutua . La capacidad del canal se define como

donde el supremum se toma sobre todas las opciones posibles de .

Aditividad de la capacidad del canal.

La capacidad del canal es aditiva respecto de los canales independientes. [4] Significa que utilizar dos canales independientes de forma combinada proporciona la misma capacidad teórica que utilizarlos de forma independiente. Más formalmente, sean y sean dos canales independientes modelados como arriba; tener un alfabeto de entrada y un alfabeto de salida . Ídem para . Definimos el canal de producto como

Este teorema establece:

Prueba

Primero mostramos eso .

Sean y dos variables aleatorias independientes. Sea una variable aleatoria correspondiente a la salida de a través del canal y para a través de .

Por definición .

Dado que y son independientes, al igual que y , es independiente de . Podemos aplicar la siguiente propiedad de información mutua :

Por ahora sólo necesitamos encontrar una distribución tal que . De hecho, y , dos distribuciones de probabilidad para y lograr y , son suficientes:

es decir.

Ahora demostrémoslo .

Sea alguna distribución para la definición del canal y la salida correspondiente . Sea el alfabeto de , for , y análogamente y .

Por definición de información mutua, tenemos

Reescribamos el último término de entropía .

Por definición del canal de producto, . Para un par dado , podemos reescribir como:

Sumando esta igualdad sobre todo , obtenemos .

Ahora podemos dar un límite superior a la información mutua:

Esta relación se conserva en el supremo. Por lo tanto

Combinando las dos desigualdades que demostramos, obtenemos el resultado del teorema:

Capacidad de Shannon de un gráfico

Si G es un gráfico no dirigido , se puede utilizar para definir un canal de comunicaciones en el que los símbolos son los vértices del gráfico, y dos palabras de código pueden confundirse entre sí si sus símbolos en cada posición son iguales o adyacentes. La complejidad computacional de encontrar la capacidad de Shannon de dicho canal permanece abierta, pero puede estar limitada por otro invariante gráfico importante, el número de Lovász . [5]

Teorema de codificación de canales ruidosos

El teorema de codificación de canal ruidoso establece que para cualquier probabilidad de error ε > 0 y para cualquier velocidad de transmisión R menor que la capacidad del canal C , existe un esquema de codificación y decodificación que transmite datos a una velocidad R cuya probabilidad de error es menor que ε, para un longitud de bloque suficientemente grande. Además, para cualquier velocidad mayor que la capacidad del canal, la probabilidad de error en el receptor llega a 0,5 a medida que la longitud del bloque llega al infinito.

Aplicación de ejemplo

Una aplicación del concepto de capacidad del canal a un canal de ruido blanco gaussiano aditivo (AWGN) con un ancho de banda de B Hz y una relación señal-ruido S/N es el teorema de Shannon-Hartley :

C se mide en bits por segundo si el logaritmo se toma en base 2, o nats por segundo si se usa el logaritmo natural , suponiendo que B esté en hercios ; las potencias de señal y ruido S y N se expresan en una unidad de potencia lineal (como vatios o voltios 2 ). Dado que las cifras S/N a menudo se citan en dB , es posible que sea necesaria una conversión. Por ejemplo, una relación señal-ruido de 30 dB corresponde a una relación de potencia lineal de .

Estimación de capacidad del canal.

Para determinar la capacidad del canal, es necesario encontrar la distribución de capacidad y evaluar la información mutua . La investigación se ha centrado principalmente en estudiar canales de ruido aditivo bajo ciertas restricciones de potencia y distribuciones de ruido, ya que los métodos analíticos no son factibles en la mayoría de los otros escenarios. Por lo tanto, en la literatura se han propuesto enfoques alternativos como la investigación sobre el soporte de insumos, [6], relajaciones [7] y límites de capacidad, [8] .

La capacidad de un canal discreto sin memoria se puede calcular utilizando el algoritmo de Blahut-Arimoto .

El aprendizaje profundo se puede utilizar para estimar la capacidad del canal. De hecho, la capacidad del canal y la distribución de capacidad de cualquier canal vectorial continuo sin memoria en tiempo discreto se pueden obtener utilizando CORTICAL, [9] un marco cooperativo inspirado en redes generativas adversarias . CORTICAL consta de dos redes cooperativas: un generador con el objetivo de aprender a tomar muestras de la distribución de entrada para lograr capacidad, y un discriminador con el objetivo de aprender a distinguir entre muestras y estimaciones de entrada-salida de canales emparejados y no emparejados .

Capacidad de canales en comunicaciones inalámbricas

Esta sección [10] se centra en el escenario punto a punto de una sola antena. Para conocer la capacidad de canales en sistemas con múltiples antenas, consulte el artículo sobre MIMO .

Canal AWGN de ​​banda limitada

Capacidad del canal AWGN con el régimen de potencia limitada y el régimen de ancho de banda limitado indicados. Aquí, ; B y C se pueden escalar proporcionalmente para otros valores.

Si la potencia promedio recibida es [W], el ancho de banda total está en Hertz y la densidad espectral de potencia de ruido es [W/Hz], la capacidad del canal AWGN es

[bits/s],

¿Dónde está la relación señal-ruido recibida (SNR)? Este resultado se conoce como teorema de Shannon-Hartley . [11]

Cuando la SNR es grande (SNR ≫ 0 dB), la capacidad es logarítmica en potencia y aproximadamente lineal en ancho de banda. A esto se le llama régimen de ancho de banda limitado .

Cuando la SNR es pequeña (SNR ≪ 0 dB), la capacidad es lineal en potencia pero insensible al ancho de banda. A esto se le llama régimen de poder limitado .

En la figura se ilustran el régimen de ancho de banda limitado y el régimen de potencia limitada.

Canal AWGN selectivo en frecuencia

La capacidad del canal selectivo en frecuencia viene dada por la llamada asignación de potencia de llenado de agua ,

donde y es la ganancia del subcanal elegido para cumplir con la restricción de potencia.

Canal de desvanecimiento lento

En un canal de desvanecimiento lento , donde el tiempo de coherencia es mayor que el requisito de latencia, no hay capacidad definida ya que la tasa máxima de comunicaciones confiables admitidas por el canal depende de la ganancia aleatoria del canal , que el transmisor desconoce. Si el transmisor codifica datos a una velocidad [bits/s/Hz], existe una probabilidad distinta de cero de que la probabilidad de error de decodificación no pueda hacerse arbitrariamente pequeña.

,

en cuyo caso se dice que el sistema está fuera de servicio. Con una probabilidad distinta de cero de que el canal esté en desvanecimiento profundo, la capacidad del canal de desvanecimiento lento en sentido estricto es cero. Sin embargo, es posible determinar el valor más grande de tal que la probabilidad de interrupción sea menor que . Este valor se conoce como capacidad de interrupción.

Canal que se desvanece rápidamente

En un canal de desvanecimiento rápido , donde el requisito de latencia es mayor que el tiempo de coherencia y la longitud de la palabra clave abarca muchos períodos de coherencia, se puede promediar muchos desvanecimientos de canales independientes codificando sobre un gran número de intervalos de tiempo de coherencia. Por tanto, es posible conseguir una velocidad de comunicación fiable de [bits/s/Hz] y tiene sentido hablar de este valor como la capacidad del canal de desvanecimiento rápido.

Capacidad de retroalimentación

La capacidad de retroalimentación es la mayor velocidad a la que se puede transmitir información de manera confiable, por unidad de tiempo, a través de un canal de comunicación punto a punto en el que el receptor retroalimenta las salidas del canal al transmisor. El análisis teórico de la información de los sistemas de comunicación que incorporan retroalimentación es más complicado y desafiante que sin retroalimentación. Posiblemente, esta fue la razón por la que CE Shannon eligió la retroalimentación como tema de la primera Conferencia Shannon, pronunciada en el Simposio Internacional IEEE sobre Teoría de la Información de 1973 en Ashkelon, Israel.

La capacidad de retroalimentación se caracteriza por el máximo de la información dirigida entre las entradas del canal y las salidas del canal, donde la maximización es con respecto al condicionamiento causal de la entrada dada la salida. La información dirigida fue acuñada por James Massey [12] en 1990, quien demostró que es un límite superior en la capacidad de retroalimentación. Para canales sin memoria, Shannon demostró [13] que la retroalimentación no aumenta la capacidad y la capacidad de retroalimentación coincide con la capacidad del canal caracterizada por la información mutua entre la entrada y la salida. La capacidad de retroalimentación se conoce como expresión cerrada solo para varios ejemplos, tales como: el canal Trapdoor, [14] el canal Ising, [15] [16] el canal de borrado binario con una restricción de entrada sin unidades consecutivas, canales NOST. .

El modelo matemático básico para un sistema de comunicación es el siguiente:

Comunicación con retroalimentación

Aquí está la definición formal de cada elemento (donde la única diferencia con respecto a la capacidad de no retroalimentación es la definición del codificador):

Es decir, cada vez existe una retroalimentación de la salida anterior de modo que el codificador tiene acceso a todas las salidas anteriores . Un código es un par de asignaciones de codificación y decodificación con y está distribuido uniformemente. Se dice que una tasa es alcanzable si existe una secuencia de códigos tal que la probabilidad promedio de error: tiende a cero cuando .

La capacidad de retroalimentación se denota por y se define como el valor superior a todas las tasas alcanzables.

Principales resultados sobre la capacidad de retroalimentación

Sea y modelé como variables aleatorias. El condicionamiento causal describe el canal dado. La elección de la distribución causalmente condicional determina la distribución conjunta debido a la regla de la cadena para el condicionamiento causal [17] que, a su vez, induce una información dirigida .

La capacidad de retroalimentación está dada por

,

donde el supremum se toma sobre todas las opciones posibles de .

Capacidad de retroalimentación gaussiana

Cuando el ruido gaussiano está coloreado, el canal tiene memoria. Considere, por ejemplo, el caso simple de un proceso de ruido de modelo autorregresivo donde hay un proceso iid.

Técnicas de solución

La capacidad de retroalimentación es difícil de resolver en el caso general. Existen algunas técnicas que están relacionadas con la teoría del control y los procesos de decisión de Markov si el canal es discreto.

Ver también

Temas de comunicación avanzada

enlaces externos

Referencias

  1. ^ Saleem Bhatti. "Capacidad del canal". Apuntes de conferencias para M.Sc. Redes de Comunicación de Datos y Sistemas Distribuidos D51 - Comunicaciones y Redes Básicas . Archivado desde el original el 21 de agosto de 2007.
  2. ^ Jim Lesurf. "¡Las señales parecen ruido!". Información y Medición, 2ª ed .
  3. ^ Portada de Thomas M., Joy A. Thomas (2006). Elementos de la teoría de la información. John Wiley & Sons, Nueva York. ISBN 9781118585771.
  4. ^ Portada, Thomas M.; Thomas, alegría A. (2006). "Capítulo 7: Capacidad del canal". Elementos de la teoría de la información (Segunda ed.). Wiley-Interscience. págs. 206-207. ISBN 978-0-471-24195-9.
  5. ^ Lovász, László (1979), "Sobre la capacidad de Shannon de un gráfico", IEEE Transactions on Information Theory , IT-25 (1): 1–7, doi :10.1109/tit.1979.1055985.
  6. ^ Smith, Joel G. (1971). "La capacidad de información de los canales sclar gaussianos restringidos en amplitud y varianza". Información y Control . 18 (3): 203–219. doi :10.1016/S0019-9958(71)90346-9.
  7. ^ Huang, J.; Meyn, SP (2005). "Caracterización y Cálculo de Distribuciones Óptimas para Codificación de Canales". Transacciones IEEE sobre teoría de la información . 51 (7): 2336–2351. doi :10.1109/TIT.2005.850108. ISSN  0018-9448. S2CID  2560689.
  8. ^ McKellips, AL (2004). "Límites estrictos y simples de capacidad para el canal de tiempo discreto con picos limitados". Simposio internacional sobre teoría de la información, 2004. ISIT 2004. Actas . IEEE. pag. 348. doi :10.1109/ISIT.2004.1365385. ISBN 978-0-7803-8280-0. S2CID  41462226.
  9. ^ Letizia, Nunzio A.; Tonello, Andrea M.; Pobre, H. Vincent (2023). "Aprendizaje de Capacidades del Canal Cooperativo". Cartas de comunicaciones del IEEE . 27 (8): 1984–1988. arXiv : 2305.13493 . doi :10.1109/LCOMM.2023.3282307. ISSN  1089-7798.
  10. ^ David Tse, Pramod Viswanath (2005), Fundamentos de la comunicación inalámbrica, Cambridge University Press, Reino Unido, ISBN 9780521845274
  11. ^ El manual de ingeniería eléctrica. Asociación de Investigación y Educación. 1996. pág. D-149. ISBN 9780878919819.
  12. ^ Massey, James (noviembre de 1990). «Causalidad, Retroalimentación e Información Dirigida» (PDF) . Proc. 1990 Internacional. Síntoma. Sobre la teoría de la información y sus aplicaciones (ISITA-90), Waikiki, HI. : 303–305.
  13. ^ Shannon, C. (septiembre de 1956). "La capacidad de error cero de un canal ruidoso". Transacciones IEEE sobre teoría de la información . 2 (3): 8–19. doi :10.1109/TIT.1956.1056798.
  14. ^ Permutador, Haim; Puño, Paul; Van Roy, Benjamín; Weissman, Tsachy (julio de 2008). «Capacidad del canal trampilla con retroalimentación» (PDF) . Traducción IEEE. inf. Teoría . 54 (7): 3150–3165. arXiv : cs/0610047 . doi :10.1109/TIT.2008.924681. S2CID  1265.
  15. ^ Elishco, Ohad; Permuter, Haim (septiembre de 2014). "Capacidad y codificación para el canal Ising con retroalimentación". Transacciones IEEE sobre teoría de la información . 60 (9): 5138–5149. arXiv : 1205.4674 . doi :10.1109/TIT.2014.2331951. S2CID  9761759.
  16. ^ Aharoni, Ziv; Sabag, Orón; Permuter, Haim H. (septiembre de 2022). "Capacidad de retroalimentación de canales Ising con alfabeto grande mediante aprendizaje por refuerzo". Transacciones IEEE sobre teoría de la información . 68 (9): 5637–5656. doi :10.1109/TIT.2022.3168729. S2CID  248306743.
  17. ^ Permutador, Haim Henry; Weissman, Tsachy; Goldsmith, Andrea J. (febrero de 2009). "Canales de estado finito con retroalimentación determinista invariante en el tiempo". Transacciones IEEE sobre teoría de la información . 55 (2): 644–662. arXiv : cs/0608070 . doi :10.1109/TIT.2008.2009849. S2CID  13178.