La teoría de la información , desarrollada por Claude E. Shannon en 1948, define la noción de capacidad del canal y proporciona un modelo matemático mediante el cual se puede calcular. El resultado clave establece que la capacidad del canal, como se define anteriormente, está dada por el máximo de la información mutua entre la entrada y la salida del canal, donde la maximización es con respecto a la distribución de entrada. [3]
La noción de capacidad del canal ha sido fundamental para el desarrollo de los sistemas de comunicación inalámbricos y alámbricos modernos, con la llegada de nuevos mecanismos de codificación de corrección de errores que han resultado en lograr un rendimiento muy cercano a los límites prometidos por la capacidad del canal.
Definicion formal
El modelo matemático básico para un sistema de comunicación es el siguiente:
dónde:
es el mensaje a transmitir;
es el símbolo de entrada del canal ( es una secuencia de símbolos) tomado en un alfabeto ;
es el símbolo de salida del canal ( es una secuencia de símbolos) tomado en un alfabeto ;
es la estimación del mensaje transmitido;
es la función de codificación para un bloque de longitud ;
lo que, a su vez, induce una información mutua . La capacidad del canal se define como
donde el supremum se toma sobre todas las opciones posibles de .
Aditividad de la capacidad del canal.
La capacidad del canal es aditiva respecto de los canales independientes. [4] Significa que utilizar dos canales independientes de forma combinada proporciona la misma capacidad teórica que utilizarlos de forma independiente. Más formalmente, sean y sean dos canales independientes modelados como arriba; tener un alfabeto de entrada y un alfabeto de salida . Ídem para . Definimos el canal de producto como
Este teorema establece:
Prueba
Primero mostramos eso .
Sean y dos variables aleatorias independientes. Sea una variable aleatoria correspondiente a la salida de a través del canal y para a través de .
Por definición .
Dado que y son independientes, al igual que y , es independiente de . Podemos aplicar la siguiente propiedad de información mutua :
Por ahora sólo necesitamos encontrar una distribución tal que . De hecho, y , dos distribuciones de probabilidad para y lograr y , son suficientes:
es decir.
Ahora demostrémoslo .
Sea alguna distribución para la definición del canal y la salida correspondiente . Sea el alfabeto de , for , y análogamente y .
Por definición del canal de producto, . Para un par dado , podemos reescribir como:
Sumando esta igualdad sobre todo , obtenemos .
Ahora podemos dar un límite superior a la información mutua:
Esta relación se conserva en el supremo. Por lo tanto
Combinando las dos desigualdades que demostramos, obtenemos el resultado del teorema:
Capacidad de Shannon de un gráfico
Si G es un gráfico no dirigido , se puede utilizar para definir un canal de comunicaciones en el que los símbolos son los vértices del gráfico, y dos palabras de código pueden confundirse entre sí si sus símbolos en cada posición son iguales o adyacentes. La complejidad computacional de encontrar la capacidad de Shannon de dicho canal permanece abierta, pero puede estar limitada por otro invariante gráfico importante, el número de Lovász . [5]
Teorema de codificación de canales ruidosos
El teorema de codificación de canal ruidoso establece que para cualquier probabilidad de error ε > 0 y para cualquier velocidad de transmisión R menor que la capacidad del canal C , existe un esquema de codificación y decodificación que transmite datos a una velocidad R cuya probabilidad de error es menor que ε, para un longitud de bloque suficientemente grande. Además, para cualquier velocidad mayor que la capacidad del canal, la probabilidad de error en el receptor llega a 0,5 a medida que la longitud del bloque llega al infinito.
C se mide en bits por segundo si el logaritmo se toma en base 2, o nats por segundo si se usa el logaritmo natural , suponiendo que B esté en hercios ; las potencias de señal y ruido S y N se expresan en una unidad de potencia lineal (como vatios o voltios 2 ). Dado que las cifras S/N a menudo se citan en dB , es posible que sea necesaria una conversión. Por ejemplo, una relación señal-ruido de 30 dB corresponde a una relación de potencia lineal de .
Estimación de capacidad del canal.
Para determinar la capacidad del canal, es necesario encontrar la distribución de capacidad y evaluar la información mutua . La investigación se ha centrado principalmente en estudiar canales de ruido aditivo bajo ciertas restricciones de potencia y distribuciones de ruido, ya que los métodos analíticos no son factibles en la mayoría de los otros escenarios. Por lo tanto, en la literatura se han propuesto enfoques alternativos como la investigación sobre el soporte de insumos, [6], relajaciones [7] y límites de capacidad, [8] .
El aprendizaje profundo se puede utilizar para estimar la capacidad del canal. De hecho, la capacidad del canal y la distribución de capacidad de cualquier canal vectorial continuo sin memoria en tiempo discreto se pueden obtener utilizando CORTICAL, [9] un marco cooperativo inspirado en redes generativas adversarias . CORTICAL consta de dos redes cooperativas: un generador con el objetivo de aprender a tomar muestras de la distribución de entrada para lograr capacidad, y un discriminador con el objetivo de aprender a distinguir entre muestras y estimaciones de entrada-salida de canales emparejados y no emparejados .
Capacidad de canales en comunicaciones inalámbricas
Esta sección [10] se centra en el escenario punto a punto de una sola antena. Para conocer la capacidad de canales en sistemas con múltiples antenas, consulte el artículo sobre MIMO .
Canal AWGN de banda limitada
Capacidad del canal AWGN con el régimen de potencia limitada y el régimen de ancho de banda limitado indicados. Aquí, ; B y C se pueden escalar proporcionalmente para otros valores.
Si la potencia promedio recibida es [W], el ancho de banda total está en Hertz y la densidad espectral de potencia de ruido es [W/Hz], la capacidad del canal AWGN es
[bits/s],
¿Dónde está la relación señal-ruido recibida (SNR)? Este resultado se conoce como teorema de Shannon-Hartley . [11]
Cuando la SNR es grande (SNR ≫ 0 dB), la capacidad es logarítmica en potencia y aproximadamente lineal en ancho de banda. A esto se le llama régimen de ancho de banda limitado .
Cuando la SNR es pequeña (SNR ≪ 0 dB), la capacidad es lineal en potencia pero insensible al ancho de banda. A esto se le llama régimen de poder limitado .
En la figura se ilustran el régimen de ancho de banda limitado y el régimen de potencia limitada.
donde y es la ganancia del subcanal elegido para cumplir con la restricción de potencia.
Canal de desvanecimiento lento
En un canal de desvanecimiento lento , donde el tiempo de coherencia es mayor que el requisito de latencia, no hay capacidad definida ya que la tasa máxima de comunicaciones confiables admitidas por el canal depende de la ganancia aleatoria del canal , que el transmisor desconoce. Si el transmisor codifica datos a una velocidad [bits/s/Hz], existe una probabilidad distinta de cero de que la probabilidad de error de decodificación no pueda hacerse arbitrariamente pequeña.
,
en cuyo caso se dice que el sistema está fuera de servicio. Con una probabilidad distinta de cero de que el canal esté en desvanecimiento profundo, la capacidad del canal de desvanecimiento lento en sentido estricto es cero. Sin embargo, es posible determinar el valor más grande de tal que la probabilidad de interrupción sea menor que . Este valor se conoce como capacidad de interrupción.
Canal que se desvanece rápidamente
En un canal de desvanecimiento rápido , donde el requisito de latencia es mayor que el tiempo de coherencia y la longitud de la palabra clave abarca muchos períodos de coherencia, se puede promediar muchos desvanecimientos de canales independientes codificando sobre un gran número de intervalos de tiempo de coherencia. Por tanto, es posible conseguir una velocidad de comunicación fiable de [bits/s/Hz] y tiene sentido hablar de este valor como la capacidad del canal de desvanecimiento rápido.
Capacidad de retroalimentación
La capacidad de retroalimentación es la mayor velocidad a la que se puede transmitir información de manera confiable, por unidad de tiempo, a través de un canal de comunicación punto a punto en el que el receptor retroalimenta las salidas del canal al transmisor. El análisis teórico de la información de los sistemas de comunicación que incorporan retroalimentación es más complicado y desafiante que sin retroalimentación. Posiblemente, esta fue la razón por la que CE Shannon eligió la retroalimentación como tema de la primera Conferencia Shannon, pronunciada en el Simposio Internacional IEEE sobre Teoría de la Información de 1973 en Ashkelon, Israel.
La capacidad de retroalimentación se caracteriza por el máximo de la información dirigida entre las entradas del canal y las salidas del canal, donde la maximización es con respecto al condicionamiento causal de la entrada dada la salida. La información dirigida fue acuñada por James Massey [12] en 1990, quien demostró que es un límite superior en la capacidad de retroalimentación. Para canales sin memoria, Shannon demostró [13] que la retroalimentación no aumenta la capacidad y la capacidad de retroalimentación coincide con la capacidad del canal caracterizada por la información mutua entre la entrada y la salida. La capacidad de retroalimentación se conoce como expresión cerrada solo para varios ejemplos, tales como: el canal Trapdoor, [14] el canal Ising, [15] [16] el canal de borrado binario con una restricción de entrada sin unidades consecutivas, canales NOST. .
El modelo matemático básico para un sistema de comunicación es el siguiente:
Comunicación con retroalimentación
Aquí está la definición formal de cada elemento (donde la única diferencia con respecto a la capacidad de no retroalimentación es la definición del codificador):
es el mensaje a transmitir, expresado en un alfabeto ;
es el símbolo de entrada del canal ( es una secuencia de símbolos) tomado en un alfabeto ;
es el símbolo de salida del canal ( es una secuencia de símbolos) tomado en un alfabeto ;
es la estimación del mensaje transmitido;
es la función de codificación en el momento , para un bloque de longitud ;
es la función de decodificación para un bloque de longitud .
Es decir, cada vez existe una retroalimentación de la salida anterior de modo que el codificador tiene acceso a todas las salidas anteriores . Un código es un par de asignaciones de codificación y decodificación con y está distribuido uniformemente. Se dice que una tasa es alcanzable si existe una secuencia de códigos tal que la probabilidad promedio de error: tiende a cero cuando .
La capacidad de retroalimentación se denota por y se define como el valor superior a todas las tasas alcanzables.
Principales resultados sobre la capacidad de retroalimentación
Sea y modelé como variables aleatorias. El condicionamiento causal describe el canal dado. La elección de la distribución causalmente condicional determina la distribución conjunta debido a la regla de la cadena para el condicionamiento causal [17] que, a su vez, induce una información dirigida .
La capacidad de retroalimentación está dada por
,
donde el supremum se toma sobre todas las opciones posibles de .
Capacidad de retroalimentación gaussiana
Cuando el ruido gaussiano está coloreado, el canal tiene memoria. Considere, por ejemplo, el caso simple de un proceso de ruido de modelo autorregresivo donde hay un proceso iid.
Técnicas de solución
La capacidad de retroalimentación es difícil de resolver en el caso general. Existen algunas técnicas que están relacionadas con la teoría del control y los procesos de decisión de Markov si el canal es discreto.
Capacidad del canal AWGN con varias restricciones en la entrada del canal (demostración interactiva)
Referencias
^ Saleem Bhatti. "Capacidad del canal". Apuntes de conferencias para M.Sc. Redes de Comunicación de Datos y Sistemas Distribuidos D51 - Comunicaciones y Redes Básicas . Archivado desde el original el 21 de agosto de 2007.
^ Jim Lesurf. "¡Las señales parecen ruido!". Información y Medición, 2ª ed .
^ Portada de Thomas M., Joy A. Thomas (2006). Elementos de la teoría de la información. John Wiley & Sons, Nueva York. ISBN9781118585771.
^ Portada, Thomas M.; Thomas, alegría A. (2006). "Capítulo 7: Capacidad del canal". Elementos de la teoría de la información (Segunda ed.). Wiley-Interscience. págs. 206-207. ISBN978-0-471-24195-9.
^ Smith, Joel G. (1971). "La capacidad de información de los canales sclar gaussianos restringidos en amplitud y varianza". Información y Control . 18 (3): 203–219. doi :10.1016/S0019-9958(71)90346-9.
^ Huang, J.; Meyn, SP (2005). "Caracterización y Cálculo de Distribuciones Óptimas para Codificación de Canales". Transacciones IEEE sobre teoría de la información . 51 (7): 2336–2351. doi :10.1109/TIT.2005.850108. ISSN 0018-9448. S2CID 2560689.
^ McKellips, AL (2004). "Límites estrictos y simples de capacidad para el canal de tiempo discreto con picos limitados". Simposio internacional sobre teoría de la información, 2004. ISIT 2004. Actas . IEEE. pag. 348. doi :10.1109/ISIT.2004.1365385. ISBN978-0-7803-8280-0. S2CID 41462226.
^ Letizia, Nunzio A.; Tonello, Andrea M.; Pobre, H. Vincent (2023). "Aprendizaje de Capacidades del Canal Cooperativo". Cartas de comunicaciones del IEEE . 27 (8): 1984–1988. arXiv : 2305.13493 . doi :10.1109/LCOMM.2023.3282307. ISSN 1089-7798.
^ David Tse, Pramod Viswanath (2005), Fundamentos de la comunicación inalámbrica, Cambridge University Press, Reino Unido, ISBN9780521845274
^ El manual de ingeniería eléctrica. Asociación de Investigación y Educación. 1996. pág. D-149. ISBN9780878919819.
^ Massey, James (noviembre de 1990). «Causalidad, Retroalimentación e Información Dirigida» (PDF) . Proc. 1990 Internacional. Síntoma. Sobre la teoría de la información y sus aplicaciones (ISITA-90), Waikiki, HI. : 303–305.
^ Shannon, C. (septiembre de 1956). "La capacidad de error cero de un canal ruidoso". Transacciones IEEE sobre teoría de la información . 2 (3): 8–19. doi :10.1109/TIT.1956.1056798.
^ Permutador, Haim; Puño, Paul; Van Roy, Benjamín; Weissman, Tsachy (julio de 2008). «Capacidad del canal trampilla con retroalimentación» (PDF) . Traducción IEEE. inf. Teoría . 54 (7): 3150–3165. arXiv : cs/0610047 . doi :10.1109/TIT.2008.924681. S2CID 1265.
^ Elishco, Ohad; Permuter, Haim (septiembre de 2014). "Capacidad y codificación para el canal Ising con retroalimentación". Transacciones IEEE sobre teoría de la información . 60 (9): 5138–5149. arXiv : 1205.4674 . doi :10.1109/TIT.2014.2331951. S2CID 9761759.
^ Aharoni, Ziv; Sabag, Orón; Permuter, Haim H. (septiembre de 2022). "Capacidad de retroalimentación de canales Ising con alfabeto grande mediante aprendizaje por refuerzo". Transacciones IEEE sobre teoría de la información . 68 (9): 5637–5656. doi :10.1109/TIT.2022.3168729. S2CID 248306743.
^ Permutador, Haim Henry; Weissman, Tsachy; Goldsmith, Andrea J. (febrero de 2009). "Canales de estado finito con retroalimentación determinista invariante en el tiempo". Transacciones IEEE sobre teoría de la información . 55 (2): 644–662. arXiv : cs/0608070 . doi :10.1109/TIT.2008.2009849. S2CID 13178.