Teorema de Shannon-Hartley

En las hipótesis de partida, para la correcta aplicación del teorema, se asume una limitación en la potencia de la señal y, además, que el proceso del ruido gaussiano es caracterizado por una potencia conocida o una densidad espectral de potencia.

La ley debe su nombre a Claude Shannon y Ralph Hartley.

Fue en los años 40, cuando Claude Shannon desarrolló el concepto de capacidad de un canal basándose, en parte, en las ideas que ya habían propuesto Nyquist y Hartley y formulando, después, una teoría completa sobre la información y la transmisión de esta, a través de canales.

pulsos por segundo se le denominó señalización a la tasa de Nyquist.

Nyquist publicó sus resultados en 1928 como parte de su artículo "Certain topics in Telegraph Transmission Theory".

: Hartley no resolvió, de manera precisa cómo el parámetro

Algunos autores se refieren a ello como capacidad.

La prueba del teorema muestra que un código corrector de errores construido aleatoriamente es, esencialmente, igual de bueno que el mejor código posible.

El teorema se prueba con la estadística de tales códigos aleatorios.

, entonces si existe una técnica de codificación que permite que la probabilidad de error en el receptor se haga arbitrariamente pequeña.

Esto significa que, teóricamente, es posible transmitir información casi sin error hasta un límite cercano a

El teorema no trata la situación, poco frecuente, en que la tasa y la capacidad son iguales.

El teorema de Shannon-Hartley establece cuál es la capacidad del canal, para un canal con ancho de banda finito y una señal continua que sufre un ruido gaussiano.

Sin embargo, los canales de comunicación reales están sujetos a las limitaciones impuestas por el ancho de banda finito y el ruido.

Aunque parezca sorprendente, las limitaciones del ancho de banda, por sí solas, no imponen restricciones sobre la tasa máxima de información.

Esta suma crea incertidumbre en cuanto al valor de la señal original.

Si el receptor tiene cierta información sobre el proceso aleatorio que genera el ruido, se puede, en principio, recuperar la información de la señal original considerando todos los posibles estados del proceso del ruido.

En el caso del teorema de Shannon-Hartley, se asume que el ruido es generado por un proceso gaussiano con una varianza conocida.

Puesto que la varianza del proceso gaussiano es equivalente a su potencia, normalmente se llama a esta varianza la potencia de ruido.

Tal canal es llamado canal aditivo del ruido blanco gaussiano, porque el ruido gaussiano es añadido a la señal; blanco significa igual cantidad de ruido en todas las frecuencias dentro del ancho de banda del canal.

niveles de pulsos pueden enviarse literalmente sin ninguna confusión.

Se necesitan más niveles, para permitir codificación redundante y la corrección de errores, pero la tasa de datos neta que puede acercarse con la codificación es equivalente a usar

es la potencia total de la señal y del ruido recibidos juntos.

Una generalización de la ecuación antedicha para el caso donde el ruido adicional no es blanco (es decir, la relación S/N no es constante con la frecuencia sobre el ancho de banda) como muchos canales estrechos independientes y gaussianos en paralelo: donde: Nota: el teorema se aplica solamente a los ruidos que son procesos gaussianos estacionarios.

La manera en que esta fórmula introduce el ruido dependiente de la frecuencia no sirve para describir todos los procesos del ruido continuo en el tiempo.

Por ejemplo, consideremos un proceso del ruido que consista en sumar una onda aleatoria cuya amplitud sea 1 o -1 en cualquier momento del tiempo, y un canal que añada dicha onda a la señal original.

Aunque tal ruido puede tener una alta potencia, es bastante fácil transmitir una señal continua con mucha menos potencia que la necesaria si el ruido subyacente fuera una suma de los ruidos independientes de cada banda de frecuencia.

Para las relaciones señal/ruido grandes o pequeñas y constantes, la fórmula de la capacidad puede ser aproximada: Se trata del caso en el que

, entonces: En esta situación es posible observar, que la capacidad crece logarítmicamente con la relación señal a ruido.

Por otro lado, desaparece la dependencia con el ancho de banda.

Soy el creador de esta imagen. Creé la trama usando MATLAB basado en las fórmulas del artículo. El diagrama muestra la capacidad del canal de un canal AWGN, indicando la región de ancho de banda limitado y la potencia limitada.