stringtranslate.com

Inflamación del búfer

El bufferbloat es una causa de alta latencia y fluctuación en redes de conmutación de paquetes causada por el almacenamiento en búfer excesivo de paquetes . El bufferbloat también puede causar variación de retardo de paquetes (también conocido como fluctuación), así como reducir el rendimiento general de la red . Cuando un enrutador o conmutador está configurado para usar búferes excesivamente grandes, incluso las redes de muy alta velocidad pueden volverse prácticamente inutilizables para muchas aplicaciones interactivas como voz sobre IP (VoIP), transmisión de audio , juegos en línea e incluso navegación web común .

Algunos fabricantes de equipos de comunicaciones han diseñado búferes innecesariamente grandes en algunos de sus productos de red . En estos equipos, el búfer se hincha cuando un enlace de red se congestiona , lo que hace que los paquetes queden en cola durante largos períodos en estos búferes de gran tamaño. En un sistema de colas de tipo "primero en entrar, primero en salir" , los búferes demasiado grandes dan lugar a colas más largas y una mayor latencia, y no mejoran el rendimiento de la red. También puede ser inducido por conexiones específicas de baja velocidad que dificultan la entrega a tiempo de otros paquetes.

El fenómeno del bufferbloat fue descrito ya en 1985. [1] Ganó mayor atención a partir de 2009. [2]

Según algunas fuentes, la causa más frecuente de latencia alta ("lag") en los videojuegos en línea es el exceso de capacidad del búfer de la red doméstica local. Una latencia alta puede hacer que los juegos en línea modernos sean imposibles. [3]

Almacenamiento en búfer

Una regla general establecida para los fabricantes de equipos de red era proporcionar buffers lo suficientemente grandes como para albergar al menos 250  ms de almacenamiento en búfer para un flujo de tráfico que pasa a través de un dispositivo. Por ejemplo, la interfaz Gigabit Ethernet de un enrutador requeriría un búfer relativamente grande de 32  MB . [4] Este tamaño de los búferes puede provocar un fallo del algoritmo de control de congestión TCP . Los búferes tardan un tiempo en vaciarse, antes de que el control de congestión se restablezca y la conexión TCP vuelva a alcanzar la velocidad necesaria y llene los búferes de nuevo. [5] Por lo tanto, el búfer inflado causa problemas como una latencia alta y variable, y cuellos de botella de la red que obstruyen a todos los demás flujos, ya que el búfer se llena con los paquetes de un flujo TCP y luego se descartan otros paquetes. [6]

Un buffer inflado tiene efecto solamente cuando este buffer se usa realmente. En otras palabras, los buffers sobredimensionados tienen un efecto dañino solamente cuando el enlace que almacenan se convierte en un cuello de botella. El tamaño del buffer que sirve a un cuello de botella se puede medir usando la utilidad ping provista por la mayoría de los sistemas operativos. Primero, se debe hacer ping al otro host continuamente; luego, se debe iniciar y detener una descarga de varios segundos desde él unas cuantas veces. Por diseño, el algoritmo de prevención de congestión TCP llenará rápidamente el cuello de botella en la ruta. Si la descarga (y la carga, respectivamente) se correlaciona con un aumento directo e importante del tiempo de ida y vuelta informado por ping, entonces demuestra que el buffer del cuello de botella actual en la dirección de descarga (y carga, respectivamente) está inflado. Dado que el aumento del tiempo de ida y vuelta es causado por el buffer en el cuello de botella, el aumento máximo da una estimación aproximada de su tamaño en milisegundos. [ cita requerida ]

En el ejemplo anterior, el uso de una herramienta de traceroute avanzada en lugar del simple ping (por ejemplo, MTR ) no solo demostrará la existencia de un buffer inflado en el cuello de botella, sino que también señalará su ubicación en la red. Traceroute logra esto mostrando la ruta (path) y midiendo los retrasos de tránsito de los paquetes a través de la red. El historial de la ruta se registra como tiempos de ida y vuelta de los paquetes recibidos de cada host sucesivo (nodo remoto) en la ruta (path). [7]

Mecanismo

La mayoría de los algoritmos de control de congestión TCP se basan en la medición de la ocurrencia de pérdidas de paquetes para determinar el ancho de banda disponible entre dos extremos de una conexión. Los algoritmos aceleran la transferencia de datos hasta que los paquetes comienzan a perderse, y luego reducen la velocidad de transmisión. Lo ideal es que sigan ajustando la velocidad de transmisión hasta que alcance una velocidad de equilibrio del enlace. Para que los algoritmos puedan seleccionar una velocidad de transferencia adecuada, la retroalimentación sobre las pérdidas de paquetes debe producirse de manera oportuna. Con un búfer grande que se ha llenado, los paquetes llegarán a su destino, pero con una latencia más alta. Los paquetes no se han perdido, por lo que TCP no reduce la velocidad una vez que se ha saturado el enlace ascendente, llenando aún más el búfer. Los paquetes recién llegados se descartan solo cuando el búfer está completamente saturado. Una vez que esto sucede, TCP puede incluso decidir que la ruta de la conexión ha cambiado y volver a realizar una búsqueda más agresiva de un nuevo punto de operación. [8]

Los paquetes se ponen en cola dentro de un búfer de red antes de ser transmitidos; en situaciones problemáticas, los paquetes se descartan solo si el búfer está lleno. En los enrutadores más antiguos, los búferes eran bastante pequeños, por lo que se llenaban rápidamente y, por lo tanto, los paquetes comenzaron a descartarse poco después de que el enlace se saturara, de modo que el protocolo TCP pudiera ajustarse y el problema no se hiciera evidente. En los enrutadores más nuevos, los búferes se han vuelto lo suficientemente grandes como para contener varios segundos de datos almacenados en búfer. Para TCP, un enlace congestionado puede parecer que funciona normalmente mientras el búfer se llena. El algoritmo TCP no se da cuenta de que el enlace está congestionado y no comienza a tomar medidas correctivas hasta que el búfer finalmente se desborda y se descartan los paquetes.

Todos los paquetes que pasan por un búfer simple implementado como una cola única experimentarán un retraso similar, por lo que la latencia de cualquier conexión que pase por un búfer lleno se verá afectada. El ancho de banda del canal disponible también puede terminar sin usarse, ya que es posible que no se llegue rápidamente a algunos destinos rápidos debido a que los búferes están obstruidos con datos que esperan ser entregados a destinos lentos. Estos efectos perjudican la interactividad de las aplicaciones que utilizan otros protocolos de red , incluido el UDP utilizado en aplicaciones sensibles a la latencia como VoIP y juegos en línea. [9] [ fuente autopublicada ]

Impacto en las aplicaciones

Independientemente de los requisitos de ancho de banda, cualquier tipo de servicio que requiera una latencia baja constante o una transmisión sin fluctuaciones puede verse afectado por el bufferbloat. Dichos servicios incluyen llamadas de voz digitales (VOIP), juegos en línea, chat de video y otras aplicaciones interactivas como transmisión de radio , video a pedido e inicio de sesión remoto .

Cuando el fenómeno de bufferbloat está presente y la red está bajo carga, incluso las cargas normales de páginas web pueden tardar muchos segundos en completarse, o las consultas DNS simples pueden fallar debido a tiempos de espera. [10] En realidad, cualquier conexión TCP puede expirar y desconectarse, y los paquetes UDP pueden descartarse. Dado que la continuación de un flujo de descarga TCP depende de los paquetes de reconocimiento (ACK) en el flujo de carga, un problema de bufferbloat en la carga puede provocar el fallo de otras aplicaciones de descarga no relacionadas, porque los paquetes ACK del cliente no llegan a tiempo al servidor de Internet.

Detección

El DSL Reports Speedtest [11] es una prueba fácil de usar que incluye una puntuación para el bufferbloat. El ICSI Netalyzr [12] era otra herramienta en línea que podía usarse para verificar la presencia de bufferbloat en las redes, además de verificar muchos otros problemas de configuración comunes. [13] El servicio se cerró en marzo de 2019. El sitio web bufferbloat.net enumera herramientas y procedimientos para determinar si una conexión tiene un exceso de buffering que la ralentizará. [14] [15]

Soluciones y mitigaciones

Existen varias soluciones técnicas que pueden agruparse en dos categorías: soluciones que apuntan a la red y soluciones que apuntan a los puntos finales. Los dos tipos de soluciones suelen ser complementarios. El problema a veces surge con una combinación de rutas de red rápidas y lentas.

Las soluciones de red generalmente adoptan la forma de algoritmos de gestión de colas. Este tipo de solución ha sido el foco del grupo de trabajo AQM de la IETF . [16] Algunos ejemplos notables incluyen:

Algunos ejemplos notables de soluciones dirigidas a los puntos finales son:

El problema también se puede mitigar reduciendo el tamaño del búfer en el sistema operativo [10] y el hardware de red; sin embargo, esto a menudo no es configurable y el tamaño de búfer óptimo depende de la velocidad de la línea, que puede diferir para diferentes destinos.

El uso de DiffServ (y el empleo de múltiples colas basadas en prioridades) ayuda a priorizar la transmisión de tráfico de baja latencia (como VoIP, videoconferencias, juegos), relegando la gestión de la congestión y el exceso de buffer al tráfico no priorizado. [21]

Tamaño de buffer óptimo

Para que las conexiones TCP con el retraso más largo sigan obteniendo su parte justa del ancho de banda, el tamaño del búfer debe ser al menos el producto del ancho de banda por el retraso dividido por la raíz cuadrada del número de transmisiones simultáneas. [22] [4] Una regla general es 50 ms de datos de velocidad de línea, [23] pero algunos conmutadores populares de grado de consumidor solo tienen 1 ms, [24] lo que puede resultar en una pérdida de ancho de banda adicional en las conexiones con retraso más largo en caso de contención local con otros.

Véase también

Referencias

  1. ^ "Sobre los conmutadores de paquetes con almacenamiento infinito". 31 de diciembre de 1985.
  2. ^ van Beijnum, Iljitsch (7 de enero de 2011). "Understanding Bufferbloat and the Network Buffer Arms Race" (Comprender el problema del búfer y la carrera armamentista de los búferes de red). Ars Technica . Consultado el 12 de noviembre de 2011 .
  3. ^ "Bufferbloat: búferes oscuros en Internet: las redes sin AQM eficaz pueden volver a ser vulnerables al colapso por congestión". Cola . doi : 10.1145/2063166.2071893 . S2CID  18820360.
  4. ^ por Guido Appenzeller; Isaac Keslassy; Nick McKeown (2004). "Dimensionamiento de los buffers del enrutador" (PDF) . ACM SIGCOMM . ACM . Consultado el 15 de octubre de 2013 .
  5. ^ Nichols, Kathleen ; Jacobson, Van (6 de mayo de 2012). "Controlling Queue Delay" (Control del retraso de la cola). ACM Queue . ACM Publishing . Consultado el 27 de septiembre de 2013 .
  6. ^ Gettys, Jim (mayo-junio de 2011), Bufferbloat: Dark Buffers in the Internet, IEEE Internet Computing, vol. 15, IEEE, pp. 95-96, doi :10.1109/MIC.2011.56, archivado desde el original el 12 de octubre de 2012 , consultado el 20 de febrero de 2012
  7. ^ "traceroute(8) – Página del manual de Linux". die.net . Consultado el 27 de septiembre de 2013 .
  8. ^ Jacobson, Van; Karels, MJ (1988). "Evitación y control de la congestión" (PDF) . ACM SIGCOMM Computer Communication Review . 18 (4): 314–329. doi :10.1145/52325.52356. Archivado desde el original (PDF) el 22 de junio de 2004.
  9. ^ "Introducción técnica a Bufferbloat". Bufferbloat.net . Consultado el 27 de septiembre de 2013 .
  10. ^ abcd Gettys, Jim; Nichols, Kathleen (enero de 2012). "Bufferbloat: búferes oscuros en Internet". Comunicaciones de la ACM . 55 (1). ACM: 57–65. doi : 10.1145/2063176.2063196 .
  11. ^ "Prueba de velocidad: ¿qué tan rápido es tu Internet?". dslreports.com . Consultado el 26 de octubre de 2017 .
  12. ^ "ICSI Netalyzr". berkeley.edu . Archivado desde el original el 7 de abril de 2019. Consultado el 30 de enero de 2015 .
  13. ^ "Cómo entender los resultados de Netalyzr" . Consultado el 26 de octubre de 2017 .
  14. ^ "Pruebas para detectar Bufferbloat". bufferbloat.net . Consultado el 26 de octubre de 2017 .[ fuente autopublicada ]
  15. ^ "Introducción a Bufferbloat". bufferbloat.net . Consultado el 8 de mayo de 2023 .
  16. ^ "Grupo de trabajo AQM de la IETF". ietf.org . Consultado el 26 de octubre de 2017 .
  17. ^ Pan, Rong; Natarajan, Preethi; Piglione, Chiara; Prabhu, Mythili; Subramanian, Vijay; Baker, Fred; VerSteeg, Bill (2013). "PIE: un esquema de control ligero para abordar el problema del búfer inflado". 2013 IEEE 14th International Conference on High Performance Switching and Routing (HPSR) . 2013 IEEE 14th International Conference on High Performance Switching and Routing (HPSR). IEEE. págs. 148–155. doi :10.1109/HPSR.2013.6602305. ISBN 978-1-4673-4620-7.
  18. ^ Høiland-Jørgensen, Toke; McKenney, Paul; Taht, Dave; Gettys, Jim; Dumazet, Eric. El programador de paquetes FlowQueue-CoDel y el algoritmo de gestión de colas activas. doi : 10.17487/RFC8290 . RFC 8290.
  19. ^ "Función DOCSIS "Upstream Buffer Control"". CableLabs. pp. 554–556 . Consultado el 9 de agosto de 2012 .
  20. ^ Høiland-Jørgensen, Toke; Kazior, Michał; Täht, Dave; Hurtig, Per; Brunstrom, Anna (2017). Poner fin a la anomalía: lograr baja latencia y equidad en el tiempo de transmisión en WiFi. Conferencia técnica anual de USENIX de 2017 (USENIX ATC 17). USENIX: la Asociación de sistemas informáticos avanzados. págs. 139–151. ISBN 978-1-931971-38-6. Recuperado el 28 de septiembre de 2017 .Código fuente.
  21. ^ Hein, Mathias. «Bufferbloat» Revista ADMIN. Revista ADMIN . Consultado el 11 de junio de 2020 .
  22. ^ Huston, Geoff (12 de diciembre de 2019). "Dimensionamiento del búfer". Blog de APNIC . Consultado el 16 de octubre de 2022 .
  23. ^ "Problemas de tamaño de búfer del enrutador/conmutador". fasterdata.es.net . Consultado el 16 de octubre de 2022 .
  24. ^ "BCM53115". www.broadcom.com . Consultado el 16 de octubre de 2022 .

Enlaces externos