El rendimiento de la red se refiere a las medidas de la calidad del servicio de una red tal como la ve el cliente.
Existen muchas formas distintas de medir el rendimiento de una red, ya que cada red es diferente en su naturaleza y diseño. El rendimiento también se puede modelar y simular en lugar de medir; un ejemplo de esto es el uso de diagramas de transición de estados para modelar el rendimiento de las colas o utilizar un simulador de red.
Las siguientes medidas suelen considerarse importantes:
El ancho de banda del canal disponible y la relación señal/ruido alcanzable determinan el máximo rendimiento posible. Por lo general, no es posible enviar más datos que los que dicta el teorema de Shannon-Hartley .
El rendimiento es la cantidad de mensajes entregados con éxito por unidad de tiempo. El rendimiento está controlado por el ancho de banda disponible, así como por la relación señal/ruido disponible y las limitaciones del hardware. Para los fines de este artículo, se entenderá que el rendimiento se mide a partir de la llegada del primer bit de datos al receptor, para disociar el concepto de rendimiento del concepto de latencia. Para discusiones de este tipo, los términos "rendimiento" y "ancho de banda" se usan a menudo indistintamente.
La ventana de tiempo es el período durante el cual se mide el rendimiento. La elección de una ventana de tiempo adecuada suele ser determinante para los cálculos del rendimiento, y el hecho de que se tenga en cuenta o no la latencia determinará si esta afecta o no al rendimiento.
La velocidad de la luz impone un tiempo mínimo de propagación a todas las señales electromagnéticas. No es posible reducir la latencia por debajo de ese valor.
donde s es la distancia y cm es la velocidad de la luz en el medio (aproximadamente 200.000 km/s para la mayoría de los medios de fibra o eléctricos , dependiendo de su factor de velocidad ). Esto significa aproximadamente un retraso de ida y vuelta (RTT) adicional de milisegundos por cada 100 km (o 62 millas) de distancia entre hosts.
También se producen otros retrasos en los nodos intermedios. En las redes con conmutación de paquetes, los retrasos pueden deberse a la formación de colas.
El jitter es la desviación no deseada de la periodicidad real de una señal periódica asumida en electrónica y telecomunicaciones , a menudo en relación con una fuente de reloj de referencia . El jitter se puede observar en características como la frecuencia de pulsos sucesivos, la amplitud de la señal o la fase de señales periódicas. El jitter es un factor significativo, y generalmente no deseado, en el diseño de casi todos los enlaces de comunicaciones (por ejemplo, USB , PCI-e , SATA , OC-48 ). En aplicaciones de recuperación de reloj se denomina jitter de temporización . [1]
En la transmisión digital , el número de errores de bits es el número de bits recibidos de un flujo de datos a través de un canal de comunicación que han sido alterados debido a ruido , interferencia , distorsión o errores de sincronización de bits .
La tasa de error de bits o proporción de error de bits ( BER ) es el número de errores de bits dividido por el número total de bits transferidos durante un intervalo de tiempo estudiado. BER es una medida de rendimiento sin unidades, a menudo expresada como un porcentaje .
La probabilidad de error de bit p e es el valor esperado de la BER. La BER puede considerarse como una estimación aproximada de la probabilidad de error de bit. Esta estimación es precisa para un intervalo de tiempo largo y un número elevado de errores de bit.
Todos los factores anteriores, junto con los requisitos y las percepciones de los usuarios, influyen en la percepción de la "rapidez" o utilidad de una conexión de red. La relación entre el rendimiento, la latencia y la experiencia del usuario se entiende mejor en el contexto de un medio de red compartido y como un problema de programación.
En algunos sistemas, la latencia y el rendimiento son entidades acopladas. En TCP/IP, la latencia también puede afectar directamente al rendimiento. En las conexiones TCP , el gran producto de ancho de banda-retardo de las conexiones de alta latencia, combinado con tamaños de ventana TCP relativamente pequeños en muchos dispositivos, hace que el rendimiento de una conexión de alta latencia caiga drásticamente con la latencia. Esto se puede remediar con varias técnicas, como aumentar el tamaño de la ventana de congestión TCP, o soluciones más drásticas, como la fusión de paquetes, la aceleración TCP y la corrección de errores de reenvío , todas las cuales se utilizan comúnmente para enlaces satelitales de alta latencia.
La aceleración TCP convierte los paquetes TCP en un flujo similar al UDP . Por ello, el software de aceleración TCP debe proporcionar sus propios mecanismos para garantizar la fiabilidad del enlace, teniendo en cuenta la latencia y el ancho de banda del enlace, y ambos extremos del enlace de alta latencia deben soportar el método utilizado.
En la capa de control de acceso al medio (MAC), también se abordan cuestiones de rendimiento como el rendimiento y el retraso de extremo a extremo.
Muchos sistemas pueden caracterizarse como dominados por limitaciones de rendimiento o por limitaciones de latencia en términos de utilidad o experiencia del usuario final. En algunos casos, límites estrictos como la velocidad de la luz presentan problemas únicos para dichos sistemas y no se puede hacer nada para corregirlos. Otros sistemas permiten un equilibrio y una optimización significativos para lograr la mejor experiencia del usuario.
Un satélite de telecomunicaciones en órbita geoestacionaria impone una longitud de trayecto de al menos 71000 km entre el transmisor y el receptor. [2] lo que significa un retraso mínimo entre la solicitud del mensaje y su recepción, o latencia de 473 ms. Este retraso puede ser muy notable y afecta al servicio de telefonía satelital independientemente de la capacidad de transmisión disponible.
Estas consideraciones sobre la longitud de la trayectoria se ven exacerbadas cuando se comunica con sondas espaciales y otros objetivos de largo alcance más allá de la atmósfera terrestre. La Red de Espacio Profundo implementada por la NASA es uno de esos sistemas que debe hacer frente a estos problemas. La arquitectura actual, que se basa en gran medida en la latencia, ha sido criticada por la GAO. [3] Se han propuesto varios métodos diferentes para manejar la conectividad intermitente y los largos retrasos entre paquetes, como las redes tolerantes a los retrasos . [4]
A distancias interestelares, las dificultades para diseñar sistemas de radio que puedan alcanzar un cierto nivel de rendimiento son enormes. En estos casos, mantener la comunicación es un problema mayor que el tiempo que dura la comunicación.
El transporte se relaciona casi exclusivamente con el rendimiento, por lo que las entregas físicas de archivos de cintas de respaldo todavía se realizan en gran medida en vehículos.