stringtranslate.com

Latencia (audio)

La latencia se refiere a un breve período de retraso (generalmente medido en milisegundos ) entre el momento en que una señal de audio ingresa a un sistema y el momento en que emerge. Los posibles contribuyentes a la latencia en un sistema de audio incluyen la conversión de analógico a digital , el almacenamiento en búfer , el procesamiento de señales digitales , el tiempo de transmisión , la conversión de digital a analógico y la velocidad del sonido en el medio de transmisión .

La latencia puede ser una métrica de rendimiento crítica en audio profesional , incluidos sistemas de refuerzo de sonido , sistemas plegables (especialmente aquellos que utilizan monitores internos ), radio y televisión en vivo . Una latencia de audio excesiva tiene el potencial de degradar la calidad de las llamadas en aplicaciones de telecomunicaciones . El audio de baja latencia en las computadoras es importante para la interactividad .

llamadas telefonicas

En todos los sistemas, se puede decir que la latencia consta de tres elementos: retraso del códec , retraso de reproducción y retraso de la red.

La latencia en las llamadas telefónicas a veces se denominaretraso boca a oído ; La industria de las telecomunicaciones también utiliza el términocalidad de experiencia(QoE). La calidad de la voz se mide según elde la UIT; La calidad medible de una llamada se degrada rápidamente cuando la latencia del retardo boca a oído supera los 200 milisegundos. Lapuntuación media de opinión(MOS) también es comparable de forma casi lineal con la escala de calidad de la UIT - definida en los estándares G.107,[1] : 800  G.108[2]y G.109[3]- con un factor de calidadRque oscila entre 0 y 100. Un MOS de 4 ("Bueno") tendría unaRde 80 o superior; para alcanzar 100R se requiere un MOS superior a 4,5.

La UIT y el 3GPP agrupan los servicios de usuario final en clases basadas en la sensibilidad a la latencia: [4]

De manera similar, la recomendación G.114 con respecto al retraso boca a oído indica que la mayoría de los usuarios están "muy satisfechos" siempre que la latencia no supere los 200 ms, con un R correspondiente de 90+. La elección del códec también juega un papel importante; Los códecs de mayor calidad (y mayor ancho de banda), como G.711, generalmente están configurados para incurrir en la menor latencia de codificación-decodificación, por lo que en una red con suficiente rendimiento se pueden lograr latencias inferiores a 100 ms . G.711 a una velocidad de bits de 64 kbit/s es el método de codificación utilizado predominantemente en la red telefónica pública conmutada .

Llamadas móviles

El códec de banda estrecha AMR , utilizado en redes GSM y UMTS , introduce latencia en los procesos de codificación y decodificación.

A medida que los operadores móviles actualizan las redes de mejor esfuerzo existentes para admitir múltiples tipos de servicios simultáneos en redes totalmente IP, servicios como la Calidad de Servicio Jerárquica ( H-QoS ) permiten políticas de QoS por usuario y por servicio para priorizar las cuestiones urgentes. protocolos como llamadas de voz y otro tráfico de retorno inalámbrico. [5] [6] [7]

Otro aspecto de la latencia móvil es la transferencia entre redes; Cuando un cliente de la Red A llama a un cliente de la Red B, la llamada debe atravesar dos redes de acceso de radio separadas , dos redes centrales y un centro de conmutación móvil de puerta de enlace (GMSC) interconectado que realiza la interconexión física entre los dos proveedores. [8]

llamadas IP

Con conexiones de velocidad asegurada y administradas con QoS de extremo a extremo , la latencia se puede reducir a niveles PSTN/POTS analógicos. En una conexión estable con suficiente ancho de banda y latencia mínima, los sistemas VoIP suelen tener una latencia inherente mínima de 20 ms. En condiciones de red menos ideales, se busca una latencia máxima de 150 ms para uso general del consumidor. [9] [10] Muchos sistemas de videoconferencia populares dependen del almacenamiento en búfer y la redundancia de datos para hacer frente a la fluctuación de la red y la pérdida de paquetes. Las mediciones han demostrado que el retraso boca a oído es de entre 160 y 300 ms en una distancia de 500 millas, en condiciones promedio de red en EE. UU. [ cita requerida ] La latencia es una consideración más importante cuando hay un eco presente y los sistemas deben realizar la supresión y cancelación del eco . [11]

audio de computadora

La latencia puede ser un problema particular en las plataformas de audio de las computadoras. Las optimizaciones de interfaz admitidas reducen el retraso a tiempos demasiado cortos para que el oído humano los detecte. Al reducir el tamaño del búfer, se puede reducir la latencia. [12] Una solución de optimización popular es ASIO de Steinberg , que pasa por alto la plataforma de audio y conecta las señales de audio directamente al hardware de la tarjeta de sonido. Muchas aplicaciones de audio profesionales y semiprofesionales utilizan el controlador ASIO, lo que permite a los usuarios trabajar con audio en tiempo real. [13] Pro Tools HD ofrece un sistema de baja latencia similar a ASIO. Pro Tools 10 y 11 también son compatibles con los controladores de interfaz ASIO.

El kernel en tiempo real de Linux [14] es un kernel modificado que altera la frecuencia del temporizador estándar que utiliza el kernel de Linux y otorga a todos los procesos o subprocesos la capacidad de tener prioridad en tiempo real. Esto significa que un proceso crítico en el tiempo, como una transmisión de audio, puede tener prioridad sobre otro proceso menos crítico, como la actividad de la red. Esto también es configurable por usuario (por ejemplo, los procesos del usuario "tux" podrían tener prioridad sobre los procesos del usuario "nadie" o sobre los procesos de varios demonios del sistema ).

Audio de televisión digital

Muchos receptores de televisión digital, decodificadores y receptores AV modernos utilizan un procesamiento de audio sofisticado, que puede crear un retraso entre el momento en que se recibe la señal de audio y el momento en que se escucha en los altavoces. Dado que los televisores también introducen retrasos en el procesamiento de la señal de vídeo, esto puede provocar que las dos señales estén lo suficientemente sincronizadas como para que el espectador no las note. Sin embargo, si la diferencia entre el retardo de audio y vídeo es significativa, el efecto puede ser desconcertante. Algunos sistemas tienen una configuración de sincronización de labios que permite ajustar el retraso del audio para sincronizarlo con el video, y otros pueden tener configuraciones avanzadas donde algunos de los pasos del procesamiento de audio se pueden desactivar.

El retraso del audio también es un perjuicio importante en los juegos de ritmo , donde se requiere una sincronización precisa para tener éxito. La mayoría de estos juegos tienen una configuración de calibración de retraso, tras lo cual el juego ajustará las ventanas de tiempo en una cierta cantidad de milisegundos para compensar. En estos casos, las notas de una canción se enviarán a los parlantes antes de que el juego reciba la información necesaria del jugador para mantener la ilusión de ritmo. Los juegos que dependen de la improvisación musical , como la batería de Rock Band o DJ Hero , aún pueden sufrir enormemente, ya que el juego no puede predecir qué tocará el jugador en estos casos, y el retraso excesivo seguirá creando un retraso notable entre tocar las notas y escuchar. ellos juegan.

Audio de transmisión

La latencia de audio se puede experimentar en sistemas de transmisión en los que alguien contribuye a una transmisión en vivo a través de un satélite o enlace similar con un gran retraso. La persona en el estudio principal tiene que esperar a que el colaborador al otro lado del enlace reaccione a las preguntas. La latencia en este contexto podría oscilar entre varios cientos de milisegundos y unos pocos segundos. Manejar latencias de audio tan altas requiere capacitación especial para que la salida de audio combinada resultante sea razonablemente aceptable para los oyentes. Siempre que sea práctico, es importante intentar mantener baja la latencia del audio de la producción en vivo para que las reacciones y el intercambio de los participantes sean lo más naturales posible. Una latencia de 10 milisegundos o mejor es el objetivo de los circuitos de audio dentro de las estructuras de producción profesionales. [15]

audio de actuación en vivo

La latencia en una interpretación en vivo se produce naturalmente a partir de la velocidad del sonido . El sonido tarda unos 3 milisegundos en recorrer 1 metro. Se producen pequeñas cantidades de latencia entre los artistas dependiendo de cómo están separados entre sí y de los monitores de escenario, si se utilizan. Esto crea un límite práctico a la distancia que pueden tener los artistas de un grupo entre sí. El monitoreo de escenario amplía ese límite, ya que el sonido viaja cerca de la velocidad de la luz a través de los cables que conectan los monitores de escenario.

Los artistas, especialmente en espacios grandes, también escucharán la reverberación o el eco de su música, a medida que el sonido que se proyecta desde el escenario rebota en las paredes y estructuras y regresa con latencia y distorsión. Un objetivo principal de la monitorización escénica es proporcionar a los artistas un sonido más primario para que no se sientan confundidos por la latencia de estas reverberaciones.

Procesamiento de señal en vivo

Mientras que los equipos de audio analógicos no tienen una latencia apreciable, los equipos de audio digital tienen latencia asociada con dos procesos generales: conversión de un formato a otro y tareas de procesamiento de señales digitales (DSP), como ecualización, compresión y enrutamiento.

Los procesos de conversión digital incluyen convertidores de analógico a digital (ADC), convertidores de digital a analógico (DAC) y varios cambios de un formato digital a otro, como AES3 , que transporta señales eléctricas de bajo voltaje a ADAT , un sistema de transporte óptico. . Cualquier proceso de este tipo requiere una pequeña cantidad de tiempo para realizarse; las latencias típicas están en el rango de 0,2 a 1,5 milisegundos, según la frecuencia de muestreo, el diseño del software y la arquitectura del hardware. [16]

Diferentes operaciones de procesamiento de señales de audio , como los filtros de respuesta de impulso finito (FIR) y de respuesta de impulso infinito (IIR), adoptan diferentes enfoques matemáticos para el mismo fin y pueden tener diferentes latencias. Además, el almacenamiento en búfer de muestras de entrada y salida añade retraso. Las latencias típicas oscilan entre 0,5 y diez milisegundos y algunos diseños tienen hasta 30 milisegundos de retraso. [17]

La latencia en los equipos de audio digital es más notable cuando la voz de un cantante se transmite a través de su micrófono, a través de rutas de mezcla, procesamiento y enrutamiento de audio digital, y luego se envía a sus propios oídos a través de monitores internos o auriculares. En este caso, el sonido vocal del cantante se conduce a su propio oído a través de los huesos de la cabeza y luego a través de la vía digital hasta sus oídos unos milisegundos más tarde. En un estudio, los oyentes encontraron que se notaba una latencia superior a 15 ms. La latencia para otras actividades musicales como tocar la guitarra no tiene la misma preocupación crítica. Diez milisegundos de latencia no son tan perceptibles para un oyente que no escucha su propia voz. [18]

Altavoces retardados

En el refuerzo de sonido para presentaciones de música o discursos en lugares grandes, lo óptimo es entregar suficiente volumen de sonido en la parte trasera del lugar sin recurrir a volúmenes de sonido excesivos cerca del frente. Una forma que tienen los ingenieros de audio de lograr esto es utilizar altavoces adicionales colocados a cierta distancia del escenario pero más cerca de la parte trasera de la audiencia. El sonido viaja a través del aire a la velocidad del sonido (alrededor de 343 metros (1125 pies) por segundo, dependiendo de la temperatura y la humedad del aire). Al medir o estimar la diferencia de latencia entre los altavoces cerca del escenario y los altavoces más cercanos a la audiencia, el ingeniero de audio puede introducir un retraso apropiado en la señal de audio que llega a estos últimos altavoces, de modo que los frentes de onda de los altavoces cercanos y lejanos lleguen a al mismo tiempo. Debido al efecto Haas, se pueden agregar 15 milisegundos adicionales al tiempo de retardo de los altavoces más cercanos al público, de modo que el frente de onda del escenario llegue primero a ellos, para centrar la atención del público en el escenario en lugar de en el altavoz local. El sonido ligeramente posterior de los altavoces retardados simplemente aumenta el nivel de sonido percibido sin afectar negativamente a la localización.

Ver también

Referencias

  1. ^ "G.107: El modelo E: un modelo computacional para su uso en la planificación de la transmisión" (PDF) . Unión Internacional de Telecomunicaciones . 2000-06-07 . Consultado el 14 de enero de 2013 .
  2. ^ "G.108: Aplicación del modelo E: una guía de planificación" (PDF) . Unión Internacional de Telecomunicaciones . 2000-07-28 . Consultado el 14 de enero de 2013 .
  3. ^ "G.109: Definición de categorías de calidad de transmisión de voz - UIT" (PDF) . Unión Internacional de Telecomunicaciones . 2000-05-11 . Consultado el 14 de enero de 2013 .
  4. ^ Redes O3b y Sofrecom. "Por qué la latencia es importante para el backhaul móvil: O3b Networks" (PDF) . Redes O3b . Consultado el 11 de enero de 2013 .{{cite web}}: Mantenimiento CS1: nombres numéricos: lista de autores ( enlace )
  5. ^ Nir, Halajmi; O3b Networks y Sofrecom (17 de junio de 2011). "Solución HQoS". Telco.com . Consultado el 11 de enero de 2013 .{{cite web}}: Mantenimiento CS1: nombres numéricos: lista de autores ( enlace )
  6. ^ Cisco. "Consideraciones arquitectónicas para el backhaul de redes 2G/3G y de evolución a largo plazo". Documento técnico de Cisco . Cisco . Consultado el 11 de enero de 2013 .
  7. ^ "Informe técnico: El impacto de la latencia en el rendimiento de las aplicaciones" (PDF) . Redes Nokia Siemens . 2009. Archivado desde el original (PDF) el 1 de agosto de 2013.
  8. ^ "Arquitectura de red GSM". GSM para tontos . Consultado el 11 de enero de 2013 .
  9. ^ "G.114: tiempo de transmisión unidireccional". www.itu.int . Consultado el 16 de noviembre de 2019 .
  10. ^ "Requisitos de QoS para voz, vídeo y datos> Implementación de calidad de servicio a través de VPN MPLS de Cisco". www.ciscopress.com . Consultado el 16 de noviembre de 2019 .
  11. ^ Michael Dosch y Steve Church. "VoIP en el estudio de transmisión". Audio Axia. Archivado desde el original el 7 de octubre de 2011 . Consultado el 21 de junio de 2011 .
  12. ^ Huber, David M. y Robert E. Runstein. "Estado latente." Técnicas modernas de grabación. 7ª edición. Nueva York y Londres: Focal, 2013. 252. Imprimir.
  13. ^ JD Marte. Mejor latente que nunca: una discusión muy esperada sobre los problemas de latencia de audio
  14. ^ Wiki de Linux en tiempo real
  15. ^ Introducción a Livewire (PDF) , Axia Audio, abril de 2007, archivado desde el original (PDF) el 7 de octubre de 2011 , consultado el 21 de junio de 2011
  16. ^ Fonseca, Nuño; Monteiro, Edmundo (mayo de 2005), Problemas de latencia en redes de audio, Sociedad de Ingeniería de Audio
  17. ^ ProSoundWeb. David McNell. Transporte de audio en red: análisis de los métodos y factores Archivado el 21 de marzo de 2008 en Wayback Machine.
  18. ^ Torbellino. ¿Abriendo la caja de Pandora? La palabra "L": latencia y sistemas de audio digital

Enlaces externos