stringtranslate.com

Latencia (ingeniería)

La latencia , desde un punto de vista general, es un retraso de tiempo entre la causa y el efecto de algún cambio físico en el sistema que se observa. El retraso , como se lo conoce en los círculos de los videojuegos , se refiere a la latencia entre la entrada a una simulación y la respuesta visual o auditiva, que a menudo ocurre debido al retraso de la red en los juegos en línea. [1]

La latencia es físicamente una consecuencia de la velocidad limitada a la que puede propagarse cualquier interacción física . La magnitud de esta velocidad es siempre menor o igual a la velocidad de la luz . Por lo tanto, todo sistema físico con alguna separación física (distancia) entre causa y efecto experimentará algún tipo de latencia, independientemente de la naturaleza de la estimulación a la que haya sido expuesto.

La definición precisa de latencia depende del sistema que se observa o de la naturaleza de la simulación. En las comunicaciones , el límite inferior de latencia está determinado por el medio que se utiliza para transferir la información. En los sistemas de comunicación bidireccionales confiables , la latencia limita la velocidad máxima a la que se puede transmitir la información, ya que a menudo hay un límite en la cantidad de información que está en tránsito en un momento dado. La latencia perceptible tiene un fuerte efecto en  la satisfacción del usuario  y  la usabilidad en el campo de la interacción hombre-máquina . [2]

Comunicaciones

Los juegos en línea son sensibles a la latencia ( lag ), ya que los tiempos de respuesta rápidos a nuevos eventos que ocurren durante una sesión de juego son recompensados, mientras que los tiempos de respuesta lentos pueden conllevar penalizaciones. Debido a un retraso en la transmisión de eventos del juego, un jugador con una conexión a Internet de alta latencia puede mostrar respuestas lentas a pesar del tiempo de reacción adecuado . Esto les da a los jugadores con conexiones de baja latencia una ventaja técnica.

Los mercados de capitales

Joel Hasbrouck y Gideon Saar (2011) miden la latencia para ejecutar transacciones financieras en función de tres componentes: el tiempo que tarda la información en llegar al operador, la ejecución de los algoritmos del operador para analizar la información y decidir un curso de acción, y la acción generada. para llegar al intercambio y ser implementado. Hasbrouck y Saar contrastan esto con la forma en que se miden las latencias en muchos centros de negociación que utilizan definiciones mucho más estrictas, como el retraso en el procesamiento medido desde la entrada de la orden (en la computadora del vendedor) hasta la transmisión de un acuse de recibo (de la computadora del proveedor). [3] El comercio utilizando computadoras se ha desarrollado hasta el punto en que las mejoras de milisegundos en las velocidades de la red ofrecen una ventaja competitiva para las instituciones financieras. [4]

Redes de conmutación de paquetes

La latencia de red en una red de conmutación de paquetes se mide como unidireccional (el tiempo desde que el origen envía un paquete hasta el destino que lo recibe) o como tiempo de retardo de ida y vuelta (la latencia unidireccional desde el origen al destino más el latencia bidireccional desde el destino hasta el origen). La latencia de ida y vuelta se cita con más frecuencia porque se puede medir desde un único punto. Tenga en cuenta que la latencia de ida y vuelta excluye la cantidad de tiempo que un sistema de destino dedica a procesar el paquete. [ cita necesaria ] Muchas plataformas de software brindan un servicio llamado ping que se puede utilizar para medir la latencia de ida y vuelta. Ping utiliza la solicitud de eco del Protocolo de mensajes de control de Internet (ICMP) que hace que el destinatario envíe el paquete recibido como respuesta inmediata, por lo que proporciona una forma aproximada de medir el tiempo de retardo de ida y vuelta. Ping no puede realizar mediciones precisas, [5] principalmente porque ICMP está destinado únicamente a fines de diagnóstico o control y difiere de los protocolos de comunicación reales como TCP . Además, los enrutadores y los proveedores de servicios de Internet pueden aplicar diferentes políticas de configuración del tráfico a diferentes protocolos. [6] [7] Para mediciones más precisas es mejor utilizar software específico, por ejemplo: hping , Netperf o Iperf .

Sin embargo, en una red no trivial, un paquete típico se reenviará a través de múltiples enlaces y puertas de enlace, cada uno de los cuales no comenzará a reenviar el paquete hasta que se haya recibido por completo. En dicha red, la latencia mínima es la suma del retraso de transmisión de cada enlace, más la latencia de reenvío de cada puerta de enlace. En la práctica, la latencia mínima también incluye retrasos en las colas y en el procesamiento. El retraso en la cola ocurre cuando una puerta de enlace recibe múltiples paquetes de diferentes fuentes que se dirigen al mismo destino. Dado que normalmente sólo se puede transmitir un paquete a la vez, algunos de los paquetes deben ponerse en cola para la transmisión, lo que genera un retraso adicional. Se producen retrasos en el procesamiento mientras una puerta de enlace determina qué hacer con un paquete recién recibido. Bufferbloat también puede provocar un aumento de la latencia de un orden de magnitud o más. La combinación de retrasos en la propagación, la serialización, las colas y el procesamiento a menudo produce un perfil de latencia de red complejo y variable.

La latencia limita el rendimiento total en sistemas de comunicación bidireccionales confiables como lo describe el producto de retardo de ancho de banda .

Fibra óptica

La latencia en la fibra óptica es en gran medida función de la velocidad de la luz . Esto equivaldría a una latencia de 3,33  µs por cada kilómetro de longitud del camino. El índice de refracción de la mayoría de los cables de fibra óptica es de aproximadamente 1,5, lo que significa que la luz viaja aproximadamente 1,5 veces más rápido en el vacío que en el cable. Esto equivale a aproximadamente 5,0 µs de latencia por cada kilómetro. En redes de metro más cortas, se puede experimentar una mayor latencia debido a la distancia adicional en los elevadores y conexiones cruzadas de los edificios. Para calcular la latencia de una conexión es necesario conocer la distancia recorrida por la fibra, que rara vez es una línea recta, ya que tiene que atravesar contornos geográficos y obstáculos, como carreteras y vías de ferrocarril, así como otros derechos de -forma.

Debido a imperfecciones en la fibra, la luz se degrada a medida que se transmite a través de ella. Para distancias superiores a 100 kilómetros se utilizan amplificadores o regeneradores . Es necesario tener en cuenta la latencia introducida por estos componentes.

Transmisión por satélite

Los satélites en órbitas geoestacionarias están lo suficientemente lejos de la Tierra como para que la latencia de las comunicaciones sea significativa: alrededor de un cuarto de segundo para un viaje desde un transmisor terrestre al satélite y de regreso a otro transmisor terrestre; cerca de medio segundo para la comunicación bidireccional de una estación terrestre a otra y luego de regreso a la primera. A veces se utiliza la órbita terrestre baja para reducir este retraso, a expensas de un seguimiento de satélites más complicado en tierra y que requiere más satélites en la constelación de satélites para garantizar una cobertura continua.

Audio

La latencia de audio es el retraso entre el momento en que entra una señal de audio y el momento en que sale de un sistema. Los posibles contribuyentes a la latencia en un sistema de audio incluyen la conversión de analógico a digital , el almacenamiento en búfer , el procesamiento de señales digitales , el tiempo de transmisión , la conversión de digital a analógico y la velocidad del sonido en el aire.

Video

La latencia de vídeo se refiere al grado de retraso entre el momento en que se solicita una transferencia de una transmisión de vídeo y el momento real en que comienza la transferencia. Las redes que presentan retrasos relativamente pequeños se conocen como redes de baja latencia, mientras que sus contrapartes se conocen como redes de alta latencia.

Flujo de trabajo

Cualquier flujo de trabajo individual dentro de un sistema de flujos de trabajo puede estar sujeto a algún tipo de latencia operativa. Incluso puede darse el caso de que un sistema individual tenga más de un tipo de latencia, dependiendo del tipo de participante o del comportamiento de búsqueda de objetivos. Esto se ilustra mejor con los siguientes dos ejemplos relacionados con viajes aéreos .

Desde el punto de vista de un pasajero, la latencia se puede describir de la siguiente manera. Supongamos que John Doe vuela de Londres a Nueva York . La latencia de su viaje es el tiempo que le lleva ir desde su casa en Inglaterra hasta el hotel en el que se aloja en Nueva York. Esto es independiente del rendimiento del enlace aéreo Londres-Nueva York: ya sea que hicieran el viaje 100 pasajeros por día o 10.000, la latencia del viaje seguiría siendo la misma.

Desde el punto de vista del personal de operaciones de vuelo, la latencia puede ser completamente diferente. Considere el personal de los aeropuertos de Londres y Nueva York. Sólo un número limitado de aviones pueden realizar el viaje transatlántico, por lo que cuando uno aterriza debe prepararlo para el viaje de regreso lo más rápido posible. Podría ser necesario, por ejemplo:

Suponiendo que lo anterior se haga consecutivamente, el tiempo mínimo de respuesta del avión es:

35 + 15 + 10 + 30 = 90

Sin embargo, la limpieza, el reabastecimiento de combustible y la carga de la carga se pueden realizar al mismo tiempo. Los pasajeros solo podrán ser cargados después de que se complete la limpieza. La latencia reducida entonces es:

35 + 10 = 45
15
30
Latencia mínima = 45

Las personas involucradas en el cambio sólo están interesadas en el tiempo que lleva realizar sus tareas individuales. Sin embargo, cuando todas las tareas se realizan al mismo tiempo, es posible reducir la latencia a la duración de la tarea más larga. Si algunos pasos tienen requisitos previos, resulta más difícil realizar todos los pasos en paralelo. En el ejemplo anterior, el requisito de limpiar el avión antes de cargar pasajeros da como resultado una latencia mínima más larga que cualquier tarea individual.

Mecánica

Cualquier proceso mecánico encuentra limitaciones modeladas por la física newtoniana . El comportamiento de las unidades de disco proporciona un ejemplo de latencia mecánica. Aquí, es el tiempo de búsqueda de tiempo para que el brazo actuador se coloque sobre la pista apropiada y luego la latencia rotacional para que los datos codificados en un plato giren desde su posición actual hasta una posición debajo del cabezal de lectura y escritura del disco .

Hardware informático y sistemas operativos.

Las computadoras ejecutan instrucciones en el contexto de un proceso . En el contexto de la multitarea informática , la ejecución del proceso puede posponerse si también se están ejecutando otros procesos. Además, el sistema operativo puede programar cuándo realizar la acción que ordena el proceso. Por ejemplo, supongamos que un proceso ordena que la salida de voltaje de una tarjeta de computadora se establezca en alto-bajo-alto-bajo y así sucesivamente a una velocidad de 1000 Hz. El sistema operativo programa el proceso para cada transición (alto-bajo o bajo-alto) basándose en un reloj de hardware como el temporizador de eventos de alta precisión . La latencia es el retraso entre los eventos generados por el reloj del hardware y las transiciones reales de voltaje de alto a bajo o de bajo a alto.

Muchos sistemas operativos de escritorio tienen limitaciones de rendimiento que crean una latencia adicional. El problema se puede mitigar con extensiones y parches en tiempo real como PREEMPT_RT .

En los sistemas integrados, la ejecución de instrucciones en tiempo real suele estar respaldada por un sistema operativo en tiempo real .

Simulaciones

En aplicaciones de simulación, la latencia se refiere al retraso de tiempo, a menudo medido en milisegundos , entre la entrada inicial y la salida claramente discernible para el aprendiz del simulador o el sujeto del simulador. La latencia a veces también se denomina retraso en el transporte . Algunas autoridades [ ¿quién? ] distinguen entre latencia y retraso en el transporte utilizando el término latencia en el sentido del retraso adicional de un sistema por encima del tiempo de reacción del vehículo que se simula, pero esto requiere un conocimiento detallado de la dinámica del vehículo y puede ser controvertido.

En simuladores con sistemas visuales y de movimiento, es particularmente importante que la latencia del sistema de movimiento no sea mayor que la del sistema visual, o pueden producirse síntomas de malestar en el simulador . Esto se debe a que, en el mundo real, las señales de movimiento son las de aceleración y se transmiten rápidamente al cerebro, normalmente en menos de 50 milisegundos; A esto le sigue unos milisegundos después una percepción de cambio en la escena visual. El cambio de escena visual es esencialmente un cambio de perspectiva o desplazamiento de objetos como el horizonte, que tarda algún tiempo en alcanzar cantidades discernibles después de la aceleración inicial que provocó el desplazamiento. Por lo tanto, un simulador debería reflejar la situación del mundo real garantizando que la latencia del movimiento sea igual o menor que la del sistema visual y no al revés.

Ver también

Referencias

  1. ^ "Latencia" Archivado el 22 de abril de 2021 en Wayback Machine. Consultado el 27 de octubre de 2020.
  2. ^ Souders, Steve. "Velocidad y resultado final" . Consultado el 23 de febrero de 2023 .
  3. ^ Hasbrouck, Joel; Sarre, Gedeón. "Comercio de baja latencia" (PDF) . pag. 1. Archivado desde el original (PDF) el 11 de noviembre de 2011 . Consultado el 18 de julio de 2011 .
  4. ^ "Comercio de alta frecuencia: cuando milisegundos significan millones". El Telégrafo . Consultado el 25 de marzo de 2018 .
  5. ^ "¡No hagas mal uso del ping!". Archivado desde el original el 12 de octubre de 2017 . Consultado el 29 de abril de 2015 .
  6. ^ Shane Chen (2005). "Discusión sobre protocolos de red / estrategias de configuración del tráfico". knowplace.org . Archivado desde el original el 9 de enero de 2007.
  7. ^ "QoS básica, parte 1: control y configuración del tráfico en el enrutador Cisco IOS". El CCIE R&S . 19 de septiembre de 2012 . Consultado el 29 de abril de 2015 .

Otras lecturas

enlaces externos