stringtranslate.com

Latencia (ingeniería)

La latencia , desde un punto de vista general, es un retraso temporal entre la causa y el efecto de algún cambio físico en el sistema que se observa. El retraso , como se lo conoce en los círculos de juegos , se refiere a la latencia entre la entrada a una simulación y la respuesta visual o auditiva, que a menudo ocurre debido al retraso de la red en los juegos en línea. [1]

La latencia es una consecuencia física de la velocidad limitada a la que se puede propagar cualquier interacción física . La magnitud de esta velocidad es siempre menor o igual a la velocidad de la luz . Por lo tanto, todo sistema físico con cualquier separación física (distancia) entre causa y efecto experimentará algún tipo de latencia, independientemente de la naturaleza del estímulo al que haya sido expuesto.

La definición precisa de latencia depende del sistema que se esté observando o de la naturaleza de la simulación. En las comunicaciones , el límite inferior de latencia está determinado por el medio que se utiliza para transferir información. En sistemas de comunicación bidireccionales fiables , la latencia limita la velocidad máxima a la que se puede transmitir la información, ya que a menudo hay un límite en la cantidad de información que está en tránsito en un momento dado. La latencia perceptible tiene un fuerte efecto en  la satisfacción del usuario  y  la facilidad de uso en el campo de la interacción hombre-máquina . [2]

Comunicaciones

Los juegos en línea son sensibles a la latencia ( lag ), ya que los tiempos de respuesta rápidos a los nuevos eventos que ocurren durante una sesión de juego son recompensados, mientras que los tiempos de respuesta lentos pueden acarrear penalizaciones. Debido a un retraso en la transmisión de eventos del juego, un jugador con una conexión a Internet de alta latencia puede mostrar respuestas lentas a pesar de un tiempo de reacción adecuado . Esto les da a los jugadores con conexiones de baja latencia una ventaja técnica.

Mercados de capitales

Joel Hasbrouck y Gideon Saar (2011) miden la latencia para ejecutar transacciones financieras basándose en tres componentes: el tiempo que tarda la información en llegar al operador, la ejecución de los algoritmos del operador para analizar la información y decidir un curso de acción, y la acción generada para llegar a la bolsa y ser implementada. Hasbrouck y Saar contrastan esto con la forma en que se miden las latencias en muchos lugares de negociación que utilizan definiciones mucho más estrechas, como el retraso de procesamiento medido desde la entrada de la orden (en la computadora del vendedor) hasta la transmisión de un acuse de recibo (desde la computadora del vendedor). [3] El comercio mediante computadoras se ha desarrollado hasta el punto en que las mejoras de milisegundos en las velocidades de la red ofrecen una ventaja competitiva para las instituciones financieras. [4]

Redes de conmutación de paquetes

La latencia de red en una red de conmutación de paquetes se mide como unidireccional ( el tiempo desde que la fuente envía un paquete hasta que el destino lo recibe) o como tiempo de retardo de ida y vuelta (la latencia unidireccional desde la fuente hasta el destino más la latencia unidireccional desde el destino de regreso a la fuente). La latencia de ida y vuelta se cita con más frecuencia, porque se puede medir desde un solo punto. Muchas plataformas de software proporcionan un servicio llamado ping que se puede utilizar para medir la latencia de ida y vuelta. Ping utiliza la solicitud de eco del Protocolo de mensajes de control de Internet (ICMP) que hace que el destinatario envíe el paquete recibido como respuesta inmediata, por lo que proporciona una forma aproximada de medir el tiempo de retardo de ida y vuelta. Ping no puede realizar mediciones precisas, [5] principalmente porque ICMP está destinado solo a fines de diagnóstico o control, y difiere de los protocolos de comunicación reales como TCP . Además, los enrutadores y los proveedores de servicios de Internet pueden aplicar diferentes políticas de modelado de tráfico a diferentes protocolos. [6] [7] Para mediciones más precisas es mejor utilizar software específico, por ejemplo: hping , Netperf o Iperf .

Sin embargo, en una red no trivial, un paquete típico se reenvía a través de múltiples enlaces y puertas de enlace, cada una de las cuales no comenzará a reenviar el paquete hasta que se haya recibido por completo. En una red de este tipo, la latencia mínima es la suma del retraso de transmisión de cada enlace, más la latencia de reenvío de cada puerta de enlace. En la práctica, la latencia mínima también incluye retrasos de cola y procesamiento. El retraso de cola se produce cuando una puerta de enlace recibe múltiples paquetes de diferentes fuentes que se dirigen al mismo destino. Dado que normalmente solo se puede transmitir un paquete a la vez, algunos de los paquetes deben ponerse en cola para su transmisión, lo que genera un retraso adicional. Los retrasos de procesamiento se producen mientras una puerta de enlace determina qué hacer con un paquete recién recibido. El búfer inflado también puede provocar un aumento de latencia de un orden de magnitud o más. La combinación de retrasos de propagación, serialización, cola y procesamiento a menudo produce un perfil de latencia de red complejo y variable.

La latencia limita el rendimiento total en sistemas de comunicación bidireccionales confiables, tal como lo describe el producto ancho de banda-retardo .

Fibra óptica

La latencia en la fibra óptica es en gran medida una función de la velocidad de la luz . Esto equivaldría a una latencia de 3,33  μs por cada kilómetro de longitud de trayectoria. El índice de refracción de la mayoría de los cables de fibra óptica es de aproximadamente 1,5, lo que significa que la luz viaja aproximadamente 1,5 veces más rápido en el vacío que en el cable. Esto equivale a aproximadamente 5,0 μs de latencia por cada kilómetro. En redes de metro más cortas, se puede experimentar una latencia más alta debido a la distancia adicional en la construcción de tuberías verticales y conexiones cruzadas. Para calcular la latencia de una conexión, uno tiene que saber la distancia recorrida por la fibra, que rara vez es una línea recta, ya que tiene que atravesar contornos geográficos y obstáculos, como carreteras y vías férreas, así como otros derechos de paso.

Debido a imperfecciones en la fibra, la luz se degrada a medida que se transmite a través de ella. Para distancias superiores a 100 kilómetros, se utilizan amplificadores o regeneradores . Es necesario tener en cuenta la latencia que introducen estos componentes.

Transmisión por satélite

Los satélites en órbitas geoestacionarias están lo suficientemente alejados de la Tierra como para que la latencia de las comunicaciones sea significativa: alrededor de un cuarto de segundo para un viaje desde un transmisor terrestre al satélite y de regreso a otro transmisor terrestre; cerca de medio segundo para una comunicación bidireccional desde una estación terrestre a otra y luego de regreso a la primera. A veces se utiliza la órbita terrestre baja para reducir esta demora, a expensas de un seguimiento satelital más complicado en tierra y de la necesidad de más satélites en la constelación para garantizar una cobertura continua.

Audio

La latencia de audio es el retraso entre el momento en que una señal de audio entra y sale de un sistema. Entre los posibles factores que contribuyen a la latencia en un sistema de audio se encuentran la conversión de analógico a digital , el almacenamiento en búfer , el procesamiento de señales digitales , el tiempo de transmisión , la conversión de digital a analógico y la velocidad del sonido en el aire.

Video

La latencia de video se refiere al grado de demora entre el momento en que se solicita la transferencia de una secuencia de video y el momento en que comienza la transferencia. Las redes que presentan demoras relativamente pequeñas se conocen como redes de baja latencia, mientras que sus contrapartes se conocen como redes de alta latencia.

Flujo de trabajo

Cualquier flujo de trabajo individual dentro de un sistema de flujos de trabajo puede estar sujeto a algún tipo de latencia operativa. Incluso puede darse el caso de que un sistema individual tenga más de un tipo de latencia, dependiendo del tipo de participante o del comportamiento de búsqueda de objetivos. Esto se ilustra mejor con los dos ejemplos siguientes relacionados con los viajes aéreos .

Desde el punto de vista de un pasajero, la latencia se puede describir de la siguiente manera. Supongamos que John Doe vuela de Londres a Nueva York . La latencia de su viaje es el tiempo que tarda en ir desde su casa en Inglaterra hasta el hotel en el que se hospeda en Nueva York. Esto es independiente del rendimiento del enlace aéreo Londres-Nueva York: ya sea que haya 100 pasajeros al día haciendo el viaje o 10000, la latencia del viaje seguirá siendo la misma.

Desde el punto de vista del personal de operaciones de vuelo, la latencia puede ser completamente diferente. Pensemos en el personal de los aeropuertos de Londres y Nueva York. Solo un número limitado de aviones puede realizar el viaje transatlántico, por lo que cuando uno aterriza, deben prepararlo para el viaje de regreso lo más rápido posible. Podría tardar, por ejemplo:

Suponiendo que lo anterior se realiza de forma consecutiva, el tiempo mínimo de retorno del avión es:

35 + 15 + 10 + 30 = 90

Sin embargo, la limpieza, el reabastecimiento de combustible y la carga de la mercancía se pueden realizar al mismo tiempo. Los pasajeros solo pueden subir al avión después de que se haya completado la limpieza. La latencia reducida, por tanto, es:

35 + 10 = 45
15
30
Latencia mínima = 45

Las personas que participan en la operación de cambio de ruta solo están interesadas en el tiempo que lleva realizar sus tareas individuales. Sin embargo, cuando todas las tareas se realizan al mismo tiempo, es posible reducir la latencia a la duración de la tarea más larga. Si algunos pasos tienen requisitos previos, resulta más difícil realizar todos los pasos en paralelo. En el ejemplo anterior, el requisito de limpiar el avión antes de cargar pasajeros da como resultado una latencia mínima más larga que cualquier tarea individual.

Mecánica

Todo proceso mecánico se enfrenta a limitaciones modeladas por la física newtoniana . El comportamiento de las unidades de disco proporciona un ejemplo de latencia mecánica. Aquí, es el tiempo de búsqueda de tiempo para que el brazo del actuador se posicione sobre la pista adecuada y luego la latencia rotacional para que los datos codificados en un plato giren desde su posición actual a una posición debajo del cabezal de lectura y escritura del disco .

Sistemas de hardware y software informáticos

Las computadoras ejecutan instrucciones en el contexto de un proceso . En el contexto de la multitarea de la computadora , la ejecución del proceso se puede posponer si también se están ejecutando otros procesos. Además, el sistema operativo puede programar cuándo realizar la acción que el proceso está ordenando. Por ejemplo, supongamos que un proceso ordena que la salida de voltaje de una tarjeta de computadora se establezca en alto-bajo-alto-bajo y así sucesivamente a una velocidad de 1000 Hz. El sistema operativo programa el proceso para cada transición (alto-bajo o bajo-alto) según un reloj de hardware como el High Precision Event Timer . La latencia es el retraso entre los eventos generados por el reloj de hardware y las transiciones reales de voltaje de alto a bajo o de bajo a alto.

Muchos sistemas operativos de escritorio tienen limitaciones de rendimiento que generan latencia adicional. El problema se puede mitigar con extensiones y parches en tiempo real como PREEMPT RT .

En los sistemas integrados, la ejecución de instrucciones en tiempo real suele estar respaldada por un sistema operativo en tiempo real .

Tenga en cuenta que en los sistemas de software , la evaluación comparativa con la latencia "promedio" y "mediana" puede ser engañosa porque hay algunos números atípicos que pueden distorsionarla. En cambio, los arquitectos y desarrolladores de software deberían utilizar el "percentil 99". [8]

Simulaciones

En aplicaciones de simulación, la latencia se refiere al retraso temporal, a menudo medido en milisegundos , entre la entrada inicial y la salida claramente discernible para el alumno o el sujeto del simulador. La latencia a veces también se denomina retraso de transporte . Algunas autoridades [ ¿quiénes? ] distinguen entre latencia y retraso de transporte utilizando el término latencia en el sentido del retraso temporal adicional de un sistema por encima del tiempo de reacción del vehículo que se está simulando, pero esto requiere un conocimiento detallado de la dinámica del vehículo y puede ser controvertido.

En los simuladores con sistemas visuales y de movimiento, es especialmente importante que la latencia del sistema de movimiento no sea mayor que la del sistema visual, ya que pueden aparecer síntomas de mareo en el simulador . Esto se debe a que, en el mundo real, las señales de movimiento son las de aceleración y se transmiten rápidamente al cerebro, normalmente en menos de 50 milisegundos; a esto le sigue, unos milisegundos más tarde, una percepción de cambio en la escena visual. El cambio de escena visual es esencialmente un cambio de perspectiva o desplazamiento de objetos como el horizonte, que tarda un tiempo en acumularse hasta alcanzar cantidades perceptibles después de la aceleración inicial que causó el desplazamiento. Por lo tanto, un simulador debe reflejar la situación del mundo real asegurando que la latencia del movimiento sea igual o menor que la del sistema visual y no al revés.

Véase también

Referencias

  1. ^ "Latencia" Archivado el 22 de abril de 2021 en Wayback Machine . Consultado el 27 de octubre de 2020.
  2. ^ Souders, Steve. "Velocity and the Bottom Line" (Velocidad y resultado final) . Consultado el 23 de febrero de 2023 .
  3. ^ Hasbrouck, Joel; Saar, Gideon. "Trading de baja latencia" (PDF) . pág. 1. Archivado desde el original (PDF) el 11 de noviembre de 2011. Consultado el 18 de julio de 2011 .
  4. ^ "Trading de alta frecuencia: cuando los milisegundos significan millones". The Telegraph . Consultado el 25 de marzo de 2018 .
  5. ^ "¡No hagas un mal uso del ping!". Archivado desde el original el 12 de octubre de 2017. Consultado el 29 de abril de 2015 .
  6. ^ Shane Chen (2005). "Discusión sobre protocolos de red/estrategias de modelado de tráfico". knowplace.org . Archivado desde el original el 9 de enero de 2007.
  7. ^ "QoS básico parte 1: control y modelado de tráfico en el enrutador Cisco IOS". The CCIE R&S . 19 de septiembre de 2012 . Consultado el 29 de abril de 2015 .
  8. ^ Fundamentos de las aplicaciones intensivas en datos Análisis de datos a gran escala bajo el capó . 2021. ISBN 9781119713012.

Lectura adicional

Enlaces externos