stringtranslate.com

Transmisión de tasa de bits adaptable

Descripción general de la transmisión adaptativa
Transmisión adaptativa en acción

La transmisión de tasa de bits adaptable es una técnica utilizada en la transmisión de multimedia a través de redes de computadoras .

Si bien en el pasado la mayoría de las tecnologías de transmisión de video o audio utilizaban protocolos de transmisión como RTP con RTSP , las tecnologías de transmisión adaptativas actuales se basan casi exclusivamente en HTTP , [1] y están diseñadas para funcionar de manera eficiente en grandes redes HTTP distribuidas.

La transmisión de velocidad de bits adaptativa funciona detectando el ancho de banda y la capacidad de la CPU de un usuario en tiempo real, ajustando la calidad de la transmisión de medios en consecuencia. [2] Requiere el uso de un codificador que codifica un solo medio de origen (video o audio) a múltiples velocidades de bits . El cliente del reproductor [3] cambia entre la transmisión de las diferentes codificaciones según los recursos disponibles. [4] Esto da como resultado un almacenamiento en búfer muy bajo , tiempos de inicio más rápidos y una buena experiencia tanto para conexiones de gama alta como de gama baja. [5]

Más específicamente, la transmisión de velocidad de bits adaptativa es un método de transmisión de video a través de HTTP donde el contenido de origen se codifica a múltiples velocidades de bits. Cada uno de los flujos de diferentes velocidades de bits se segmenta en pequeñas partes de varios segundos. [6] El tamaño del segmento puede variar según la implementación particular, pero normalmente son de entre dos y diez segundos. [4] [6] Primero, el cliente descarga un archivo de manifiesto que describe los segmentos de flujo disponibles y sus respectivas velocidades de bits. Durante el inicio de la transmisión, el cliente generalmente solicita los segmentos del flujo de velocidad de bits más baja. Si el cliente descubre que el rendimiento de la red es mayor que la velocidad de bits del segmento descargado, solicitará un segmento de velocidad de bits más alta. Más tarde, si el cliente descubre que el rendimiento de la red se ha deteriorado, solicitará un segmento de velocidad de bits más baja. Un algoritmo de velocidad de bits adaptativa (ABR) en el cliente realiza la función clave de decidir qué segmentos de velocidad de bits descargar, según el estado actual de la red. Existen varios tipos de algoritmos ABR en uso comercial: los algoritmos basados ​​en el rendimiento utilizan el rendimiento alcanzado en descargas anteriores recientes para la toma de decisiones (por ejemplo, la regla de rendimiento en dash.js), los algoritmos basados ​​en búfer utilizan solo el nivel de búfer actual del cliente (por ejemplo, BOLA [7] en dash.js) y los algoritmos híbridos combinan ambos tipos de información (por ejemplo, DYNAMIC [8] en dash.js).

Usos actuales

Las empresas de posproducción , las redes de distribución de contenidos y los estudios utilizan la tecnología de velocidad de bits adaptativa para ofrecer a los consumidores vídeos de mayor calidad utilizando menos mano de obra y menos recursos. La creación de múltiples salidas de vídeo, en particular para la transmisión con velocidad de bits adaptativa, añade un gran valor a los consumidores. [9] Si la tecnología funciona correctamente, el contenido del usuario final o del consumidor debería reproducirse sin interrupciones y potencialmente pasar desapercibido. Las empresas de medios han estado utilizando activamente la tecnología de velocidad de bits adaptativa durante muchos años y se ha convertido esencialmente en una práctica estándar para los proveedores de transmisión de alta gama; permitiendo poco almacenamiento en búfer cuando se transmiten señales de alta resolución (comienza con baja resolución y va subiendo).

Beneficios de la transmisión con tasa de bits adaptable

La transmisión tradicional con tasa de bits adaptativa basada en servidor ofrece a los consumidores de transmisión multimedia la mejor experiencia posible, ya que el servidor multimedia se adapta automáticamente a cualquier cambio en la red y las condiciones de reproducción de cada usuario. [10] La industria de los medios y el entretenimiento también se beneficia de la transmisión con tasa de bits adaptativa. A medida que crece el espacio del video, las redes de distribución de contenido y los proveedores de video pueden brindar a los clientes una experiencia de visualización superior. La tecnología de tasa de bits adaptativa requiere codificación adicional , pero simplifica el flujo de trabajo general y crea mejores resultados.

Las tecnologías de streaming de velocidad de bits adaptativa basadas en HTTP ofrecen ventajas adicionales con respecto a la transmisión de velocidad de bits adaptativa basada en servidor tradicional. En primer lugar, dado que la tecnología de streaming se basa en HTTP , a diferencia de la transmisión adaptativa basada en RTP , los paquetes no tienen dificultades para atravesar dispositivos NAT y cortafuegos. En segundo lugar, dado que la transmisión HTTP está puramente impulsada por el cliente, toda la lógica de adaptación reside en el cliente. Esto reduce el requisito de conexiones persistentes entre el servidor y la aplicación cliente. Además, no se requiere que el servidor mantenga información del estado de la sesión en cada cliente, lo que aumenta la escalabilidad. Por último, la infraestructura de entrega HTTP existente, como los cachés y servidores HTTP, se puede adoptar sin problemas. [11] [12] [13] [14]

Se utiliza una CDN escalable para entregar streaming de medios a una audiencia de Internet. La CDN recibe el stream de la fuente en su servidor de origen, luego lo replica a muchos o todos sus servidores de caché Edge . El usuario final solicita el stream y es redirigido al servidor Edge "más cercano". Esto se puede probar utilizando libdash [15] y el conjunto de datos DASH distribuido (D-DASH), [16] que tiene varios espejos en Europa, Asia y los EE. UU. El uso de streaming adaptativo basado en HTTP permite que el servidor Edge ejecute un software de servidor HTTP simple, cuyo costo de licencia es barato o gratuito, lo que reduce el costo de la licencia del software, en comparación con las costosas licencias de servidor de medios (por ejemplo, Adobe Flash Media Streaming Server). El costo de CDN para streaming de medios HTTP es entonces similar al costo de CDN de caché web HTTP.

Historia

La tasa de bits adaptativa sobre HTTP fue creada por el DVD Forum en el grupo WG1 Special Streaming en octubre de 2002. El grupo fue copresidido por Toshiba y Phoenix Technologies , el grupo de expertos cuenta con la colaboración de Microsoft , Apple Computer , DTS Inc. , Warner Brothers , 20th Century Fox , Digital Deluxe, Disney , Macromedia y Akamai . [ dudosodiscutir ] [ cita requerida ] La tecnología se llamó originalmente DVDoverIP y fue un esfuerzo integral del libro DVD ENAV. [ 17 ] El concepto surgió de almacenar sectores TS de DVD MPEG-1 y MPEG-2 en pequeños archivos de 2 KB, que se servirán utilizando un servidor HTTP al reproductor. Los segmentos MPEG-1 proporcionaron el flujo de ancho de banda más bajo, mientras que MPEG-2 proporcionó un flujo de tasa de bits más alto. El esquema XML original proporcionó una lista de reproducción simple de tasas de bits, idiomas y servidores URL. El primer prototipo funcional fue presentado en el DVD Forum por Phoenix Technologies en el Laboratorio Harman Kardon en Villingen, Alemania. [ cita requerida ]

Implementaciones

Move Networks introdujo la transmisión de velocidad de bits adaptativa en 2006 [18] y ahora está siendo desarrollada y utilizada por Adobe Systems , Apple , Microsoft y Octoshape. [19] En octubre de 2010, Move Networks recibió una patente por su transmisión de velocidad de bits adaptativa (número de patente de EE. UU. 7818444). [20]

Transmisión dinámica adaptativa a través de HTTP (DASH)

Dynamic Adaptive Streaming over HTTP (DASH), también conocido como MPEG-DASH, es la única solución de streaming basada en HTTP con velocidad de bits adaptable que es un estándar internacional [21] La tecnología MPEG-DASH se desarrolló bajo el MPEG . El trabajo sobre DASH comenzó en 2010 y se convirtió en un borrador de estándar internacional en enero de 2011 y en un estándar internacional en noviembre de 2011. [21] [22] [23] El estándar MPEG-DASH se publicó como ISO/IEC 23009-1:2012 en abril de 2012.

MPEG-DASH es una tecnología relacionada con Adobe Systems HTTP Dynamic Streaming, Apple Inc. HTTP Live Streaming (HLS) y Microsoft Smooth Streaming. [24] DASH se basa en Adaptive HTTP Streaming (AHS) en 3GPP Release 9 y en HTTP Adaptive Streaming (HAS) en Open IPTV Forum Release 2. [25] Como parte de su colaboración con MPEG, 3GPP Release 10 ha adoptado DASH (con códecs y modos operativos específicos) para su uso en redes inalámbricas. [25]

El objetivo de estandarizar una solución de transmisión adaptativa es asegurar al mercado que la solución puede funcionar universalmente, a diferencia de otras soluciones que son más específicas de ciertos proveedores, como HLS de Apple, Smooth Streaming de Microsoft o HDS de Adobe.

Las implementaciones disponibles son el reproductor MPEG-DASH bitdash basado en HTML5 [26], así como la biblioteca de acceso de cliente DASH basada en C++ de código abierto libdash de bitmovin GmbH, [15] las herramientas DASH del Instituto de Tecnología de la Información (ITEC) de la Universidad Alpen-Adria de Klagenfurt, [3] [27] el marco multimedia del grupo GPAC de Telecom ParisTech, [28] y el reproductor dash.js [29] de DASH-IF .

Transmisión en vivo HTTP de Apple (HLS)

HTTP Live Streaming (HLS) es un protocolo de comunicaciones de transmisión de medios basado en HTTP implementado por Apple Inc. como parte de QuickTime X e iOS . HLS admite contenido en vivo y video a pedido . Funciona dividiendo los flujos de medios o archivos en fragmentos cortos (segmentos de medios) que se almacenan como MPEG-TS o archivos MP4 fragmentados . Esto generalmente se hace a múltiples tasas de bits utilizando una aplicación de segmentación de flujo o archivo, también conocida como empaquetador. Apple proporciona una de esas implementaciones de segmentación. [30] Hay empaquetadores adicionales disponibles, incluidas ofertas gratuitas / de código abierto como Shaka Packager de Google [31] y varias herramientas comerciales también, como Unified Streaming. [32] El segmentador también es responsable de producir un conjunto de archivos de lista de reproducción en el formato M3U8 que describen los fragmentos de medios. Cada lista de reproducción es específica para una tasa de bits determinada y contiene las URL relativas o absolutas de los fragmentos para esa tasa de bits. Luego, el cliente es responsable de solicitar la lista de reproducción adecuada según el ancho de banda disponible.

La transmisión en vivo HTTP es una función estándar en el iPhone 3.0 y versiones más nuevas. [33]

Apple ha enviado su solución al IETF para su consideración como una solicitud informativa de comentarios . [34] Esto fue aceptado oficialmente como RFC  8216. Existen varias soluciones patentadas y de código abierto tanto para la implementación del servidor (segmentador) como para el reproductor del cliente.

Las transmisiones HLS se pueden identificar por la extensión de formato de URL de lista de reproducción de m3u8 o el tipo MIME de application/vnd.apple.mpegurl. [35] Estas transmisiones adaptables se pueden poner a disposición en muchas tasas de bits diferentes y el dispositivo cliente interactúa con el servidor para obtener la mejor tasa de bits disponible que se pueda entregar de manera confiable.

La reproducción de HLS es compatible con muchas plataformas, incluidas Safari y aplicaciones nativas en macOS/iOS, Microsoft Edge en Windows 10, ExoPlayer en Android y la plataforma Roku. Muchos televisores inteligentes también tienen compatibilidad nativa con HLS. La reproducción de HLS en otras plataformas, como Chrome/Firefox, generalmente se logra a través de una implementación de navegador/reproductor JavaScript. Hay muchos reproductores comerciales y de código abierto disponibles, incluidos hls.js, video.js http-streaming, BitMovin, JWPlayer, THEOplayer, etc.

Transmisión dinámica HTTP de Adobe (HDS)

"La transmisión dinámica HTTP es el proceso de entregar de manera eficiente la transmisión de video a los usuarios al cambiar dinámicamente entre diferentes transmisiones de calidad y tamaño variables durante la reproducción. Esto proporciona a los usuarios la mejor experiencia de visualización posible que su ancho de banda y el hardware de su computadora local ( CPU ) puedan soportar. Otro objetivo principal de la transmisión dinámica es hacer que este proceso sea fluido y sin inconvenientes para los usuarios, de modo que si es necesario aumentar o reducir la calidad de la transmisión, se realice un cambio fluido y casi imperceptible sin interrumpir la reproducción continua". [36]

Las últimas versiones de Flash Player y Flash Media Server admiten la transmisión de velocidad de bits adaptable a través del protocolo RTMP tradicional , así como HTTP , de forma similar a las soluciones basadas en HTTP de Apple y Microsoft, [37] la transmisión dinámica HTTP es compatible con Flash Player 10.1 y versiones posteriores. [38] La transmisión basada en HTTP tiene la ventaja de no requerir que se abran puertos de firewall fuera de los puertos normales utilizados por los navegadores web. La transmisión basada en HTTP también permite que los fragmentos de vídeo se almacenen en caché por navegadores, servidores proxy y CDN , lo que reduce drásticamente la carga en el servidor de origen.

Transmisión fluida de Microsoft (MSS)

Smooth Streaming es una extensión de IIS Media Services que permite la transmisión adaptable de contenido multimedia a clientes a través de HTTP. [39] La especificación de formato se basa en el formato de archivo multimedia base ISO y está estandarizada por Microsoft como el Formato de Archivo Interoperable Protegido. [40] Microsoft participa activamente en los esfuerzos de las organizaciones 3GPP , MPEG y DECE para estandarizar la transmisión HTTP de velocidad de bits adaptable. Microsoft proporciona kits de desarrollo de software Smooth Streaming Client para Silverlight y Windows Phone 7 , así como un Smooth Streaming Porting Kit que se puede utilizar para otros sistemas operativos cliente, como Apple iOS, Android y Linux. [41] IIS Media Services 4.0, lanzado en noviembre de 2010, introdujo una característica que permite que los videos Live Smooth Streaming H.264/AAC se vuelvan a empaquetar dinámicamente en el formato Apple HTTP Adaptive Streaming y se entreguen a dispositivos iOS sin necesidad de volver a codificarlos. Microsoft ha demostrado con éxito la entrega de video HD 1080p en vivo y bajo demanda con Smooth Streaming a clientes Silverlight. En 2010, Microsoft también se asoció con NVIDIA para demostrar la transmisión en vivo de video 3D estereoscópico de 1080p a PC equipadas con tecnología NVIDIA 3D Vision . [42]

Formato común de solicitud de medios (CMAF)

CMAF es un formato de contenedor de presentación que se utiliza para la entrega de HLS y MPEG-DASH. Por lo tanto, su objetivo es simplificar la entrega de contenido multimedia en streaming basado en HTTP. Fue propuesto en 2016 por Apple y Microsoft y publicado oficialmente en 2018. [43]

Transmisión adaptable de QuavStreams a través de HTTP

QuavStreams Adaptive Streaming es una tecnología de transmisión multimedia desarrollada por Quavlive. El servidor de transmisión es un servidor HTTP que tiene múltiples versiones de cada video, codificadas a diferentes tasas de bits y resoluciones. El servidor entrega los fotogramas de video/audio codificados cambiando de un nivel a otro, según el ancho de banda disponible en ese momento. El control se basa completamente en el servidor, por lo que el cliente no necesita características adicionales especiales. El control de transmisión emplea la teoría de control de retroalimentación. [44] Actualmente, QuavStreams admite códecs H.264/MP3 multiplexados en el contenedor FLV y códecs VP8/Vorbis multiplexados en el contenedor WEBM.

Enlace ascendente

Uplynk ofrece streaming de alta definición con tasa de bits adaptable a múltiples plataformas, incluidas iOS, Android, Windows Mac, Linux y Roku, a través de varias combinaciones de navegadores, codificando el vídeo en la nube utilizando un único formato de streaming adaptable no propietario. En lugar de transmitir y almacenar múltiples formatos para diferentes plataformas y dispositivos, Uplynk almacena y transmite solo uno. El primer estudio en utilizar esta tecnología para la entrega fue Disney–ABC Television Group , que la utilizó para la codificación de vídeo para aplicaciones de streaming web, móviles y de tabletas en las aplicaciones ABC Player, ABC Family y Watch Disney, así como en el canal en directo Watch Disney Channel, Watch Disney Junior y Watch Disney XD. [45] [46]

Clientes que aprenden por sí mismos

En los últimos años, en el ámbito académico se han investigado los beneficios de los algoritmos de autoaprendizaje en la transmisión de tasa de bits adaptativa. Si bien la mayoría de los enfoques de autoaprendizaje iniciales se implementan en el lado del servidor [47] [48] [49] (por ejemplo, realizando un control de admisión mediante aprendizaje de refuerzo o redes neuronales artificiales ), la investigación más reciente se centra en el desarrollo de clientes de transmisión adaptativa HTTP de autoaprendizaje. Se han presentado múltiples enfoques en la literatura que utilizan el algoritmo SARSA [50] o Q-learning [51] . En todos estos enfoques, el estado del cliente se modela utilizando, entre otros, información sobre el rendimiento actual de la red percibida y el nivel de llenado del búfer. Con base en esta información, el cliente de autoaprendizaje decide de forma autónoma qué nivel de calidad seleccionar para el siguiente segmento de video. El proceso de aprendizaje se dirige utilizando información de retroalimentación, que representa la Calidad de la Experiencia (QoE) (por ejemplo, basada en el nivel de calidad, la cantidad de cambios y la cantidad de congelamientos de video). Además, se demostró que el Q-learning multiagente se puede aplicar para mejorar la equidad de la QoE entre múltiples clientes de transmisión adaptativa. [52]

Críticas

Las tecnologías de velocidad de bits adaptable basadas en HTTP son significativamente más complejas desde el punto de vista operativo que las tecnologías de transmisión tradicionales. Algunas de las consideraciones documentadas son aspectos como los costos adicionales de almacenamiento y codificación y los desafíos para mantener la calidad a nivel global. También se han encontrado algunas dinámicas interesantes en torno a las interacciones entre la lógica compleja de velocidad de bits adaptable que compite con la lógica compleja de control de flujo TCP. [11] [53] [54] [55] [56]

Sin embargo, en la práctica, estas críticas se han visto superadas por la economía y la escalabilidad de la distribución HTTP: mientras que las soluciones de streaming no HTTP requieren una implementación masiva de una infraestructura de servidor de streaming especializada, el streaming de velocidad de bits adaptativa basado en HTTP puede aprovechar los mismos servidores web HTTP utilizados para distribuir todo el resto del contenido a través de Internet. [ cita requerida ]

Dado que no existe un único estándar abierto y claramente definido para la gestión de derechos digitales que se utiliza en los métodos anteriores, no existe una forma 100 % compatible de entregar contenido restringido o sensible al tiempo a cualquier dispositivo o reproductor. Esto también resulta ser un problema con la gestión de derechos digitales que se utiliza en cualquier protocolo de transmisión.

El método de segmentación de archivos en archivos más pequeños que utilizan algunas implementaciones (como el que utiliza HTTP Live Streaming ) podría considerarse innecesario debido a la capacidad de los clientes HTTP de solicitar rangos de bytes de un único archivo de recurso de video que podría tener múltiples pistas de video a diferentes velocidades de bits, y el archivo de manifiesto solo indica el número de pista y la velocidad de bits. Sin embargo, este enfoque permite que cualquier servidor HTTP simple sirva fragmentos y, por lo tanto, garantiza la compatibilidad con CDN . Las implementaciones que utilizan rangos de bytes, como Microsoft Smooth Streaming, requieren un servidor HTTP dedicado, como IIS, para responder a las solicitudes de fragmentos de recursos de video.

Véase también

Referencias

  1. ^ Saamer Akhshabi; Ali C. Begen; Constantine Dovrolis (2011). Una evaluación experimental de algoritmos de adaptación de velocidad en streaming adaptativo sobre HTTP . En Actas de la segunda conferencia anual de la ACM sobre sistemas multimedia (MMSys '11). Nueva York, NY, EE. UU.: ACM.
  2. ^ A. Bentaleb, B. Taani, A. Begen, C. Timmermer y R. Zimmermann, "Una encuesta sobre esquemas de adaptación de la velocidad de bits para la transmisión de medios a través de HTTP", en IEEE Communications Surveys y (IEEE COMST), volumen 1, número 1 , págs. 1-1, 2018.
  3. ^ ab DASH en ITEC, complemento VLC, DASHEncoder y conjunto de datos de C. Mueller, S. Lederer, C. Timmerer
  4. ^ ab "Plantilla de actas – WORD" (PDF) . Consultado el 16 de diciembre de 2017 .
  5. ^ Gannes, Liz (10 de junio de 2009). "La próxima gran novedad en vídeo: streaming con tasa de bits adaptativa". Archivado desde el original el 19 de junio de 2010. Consultado el 1 de junio de 2010 .
  6. ^ ab "mmsys2012-final36.pdf" (PDF) . Consultado el 16 de diciembre de 2017 .
  7. ^ Spiteri, Kevin; Urgaonkar, Rahul; Sitaraman, Ramesh K. (2016). "BOLA: Adaptación de la tasa de bits casi óptima para videos en línea. IEEE INFOCOM, 2016, por Spiteri, Urgaonkar y Sitaraman, IEEE INFOCOM, abril de 2016". arXiv : 1601.06748 . doi :10.1109/TNET.2020.2996964. S2CID  219792107. {{cite journal}}: Requiere citar revista |journal=( ayuda )
  8. ^ "De la teoría a la práctica: mejora de la adaptación de la tasa de bits en el reproductor de referencia DASH, por Spiteri, Sitaraman y Sparacio, Conferencia de sistemas multimedia de la ACM, junio de 2018" (PDF) .
  9. ^ Marshall, Daniel (18 de febrero de 2010). "Informe de la muestra: el procesamiento de vídeo es fundamental para la gestión de activos digitales". Elemental Technologies. Archivado desde el original el 4 de octubre de 2011. Consultado el 15 de octubre de 2011 .
  10. ^ Seufert, Michael; Egger, Sebastian; Slanina, Martin; Zinner, Thomas; Hoßfeld, Tobias; Tran-Gia, Phuoc (2015). "Una encuesta sobre la calidad de la experiencia de transmisión adaptativa HTTP". IEEE Communications Surveys & Tutorials . 17 (1): 469–492. doi :10.1109/COMST.2014.2360940. S2CID  18220375.
  11. ^ ab Saamer Akhshabi; Ali C. Begen; Constantine Dovrolis. "Una evaluación experimental de algoritmos de adaptación de velocidad en streaming adaptativo sobre HTTP" (PDF) . Archivado desde el original (PDF) el 17 de octubre de 2011. Consultado el 15 de octubre de 2011 . {{cite journal}}: Requiere citar revista |journal=( ayuda )
  12. ^ Anthony Vetro. "El estándar MPEG-DASH para la transmisión multimedia por Internet" (PDF) . Consultado el 10 de julio de 2015 . {{cite journal}}: Requiere citar revista |journal=( ayuda )
  13. ^ Jan Ozer (28 de abril de 2011). «¿Qué es el streaming adaptativo?» . Consultado el 10 de julio de 2015 . {{cite journal}}: Requiere citar revista |journal=( ayuda )
  14. ^ Jeroen Famaey; Steven Latre; Niels Bouten; Wim Van de Meerssche; Bart de Vleeschauwer; Werner Van Leekwijck; Filip De Turck (mayo de 2013). "Sobre los méritos de la transmisión adaptativa HTTP basada en SVC": 419–426 . Consultado el 10 de julio de 2015 . {{cite journal}}: Requiere citar revista |journal=( ayuda )
  15. ^ ab libdash: Biblioteca de cliente DASH de código abierto de bitmovin
  16. ^ "Conjunto de datos DASH distribuido | ITEC – Transmisión dinámica adaptativa a través de HTTP". Itec.uni-klu.ac.at . Consultado el 16 de diciembre de 2017 .
  17. ^ Construcción de libros en DVD, DVD Forum, mayo de 2005
  18. ^ Yang, Hongyun (2014). "Oportunidades y desafíos de la transmisión adaptativa HTTP" (PDF) . Revista internacional de comunicaciones y redes de la futura generación . 7 (6): 165–180.
  19. ^ Gannes, Liz (10 de junio de 2009). "La verdad sobre el streaming de velocidad de bits adaptable HTTP de Apple". Archivado desde el original el 19 de junio de 2010. Consultado el 24 de junio de 2010 .
  20. ^ "Move obtiene patente de transmisión; ¿Adobe y Apple están en problemas? – Online Video News". Gigaom.com. 15 de septiembre de 2010. Archivado desde el original el 22 de octubre de 2011. Consultado el 15 de octubre de 2011 .
  21. ^ ab «MPEG ratifica su borrador de estándar para DASH». MPEG. 2 de diciembre de 2011. Archivado desde el original el 20 de agosto de 2012. Consultado el 26 de agosto de 2012 .
  22. ^ Timmerer, Christian (26 de abril de 2012). «Transmisión HTTP de contenido multimedia MPEG: entrada de blog». Multimediacommunication.blogspot.com . Consultado el 16 de diciembre de 2017 .
  23. ^ "ISO/IEC DIS 23009-1.2 Transmisión dinámica adaptativa sobre HTTP (DASH)". Iso.org . Consultado el 16 de diciembre de 2017 .
  24. ^ Actualizaciones sobre DASH – entrada de blog
  25. ^ ab ETSI 3GPP 3GPP TS 26.247; Servicio de transmisión por conmutación de paquetes de extremo a extremo transparente (PSS); Descarga progresiva y transmisión adaptativa dinámica sobre HTTP (3GP-DASH)
  26. ^ "reproductor MPEG-DASH HTML5 bitdash". Dash-player.com. 22 de enero de 2016. Archivado desde el original el 10 de julio de 2016 . Consultado el 16 de diciembre de 2017 .
  27. ^ "Un complemento del reproductor multimedia VLC que permite la transmisión dinámica y adaptativa a través de HTTP" (PDF) . Consultado el 16 de diciembre de 2017 .
  28. ^ "GPAC Telecom ParisTech". Archivado desde el original el 24 de febrero de 2012. Consultado el 28 de marzo de 2013 .
  29. ^ "dash.js". Github.com . Consultado el 16 de diciembre de 2017 .
  30. ^ Biblioteca para desarrolladores de Mac, Apple , consultado el 2 de junio de 2014
  31. ^ Repositorio de Github de Shaka Packager, Google , consultado el 3 de enero de 2023
  32. ^ Transmisión unificada, Transmisión unificada , consultado el 3 de enero de 2023
  33. ^ Prince McLean (9 de julio de 2009). «Apple lanza el estándar HTTP Live Streaming en el iPhone 3.0». AppleInsider . Consultado el 15 de octubre de 2011 .
  34. ^ R. Pantos, HTTP Live Streaming, IETF , consultado el 11 de octubre de 2011
  35. ^ RFC 8216. sección 4. doi : 10.17487/RFC8216 .
  36. ^ Hassoun, David. «Transmisión dinámica en Flash Media Server 3.5 – Parte 1: Descripción general de las nuevas capacidades». Adobe Developer Connection . Adobe Systems. Archivado desde el original el 30 de marzo de 2014.
  37. ^ "Transmisión dinámica HTTP". Adobe Systems . Consultado el 13 de octubre de 2010 .
  38. ^ "Preguntas frecuentes sobre transmisión dinámica HTTP". Adobe Systems . Consultado el 12 de enero de 2015 .
  39. ^ "Transmisión fluida". IIS.net. Archivado desde el original el 15 de junio de 2010. Consultado el 24 de junio de 2010 .
  40. ^ Chris Knowlton (8 de septiembre de 2009), Protected Interoperable File Format, Microsoft , consultado el 15 de octubre de 2011
  41. ^ "La plataforma de extremo a extremo de Microsoft potencia las experiencias multimedia de Silverlight e IIS de próxima generación en múltiples pantallas". Microsoft. 8 de abril de 2010. Consultado el 30 de julio de 2011 .
  42. ^ "Primer día de IBC". Microsoft. Archivado desde el original el 2 de febrero de 2011. Consultado el 22 de enero de 2011 .
  43. ^ Traci Ruether (23 de enero de 2019). "¿Qué es CMAF?" . Consultado el 13 de enero de 2022 .
  44. ^ Luca De Cicco; Saverio Mascolo; Vittorio Palmisano. "Control de retroalimentación para transmisión de video en vivo adaptativa" (PDF) . MMSYS2011 . Consultado el 9 de septiembre de 2012 .
  45. ^ Dean Takahashi (16 de enero de 2013). «Uplynk crea una forma barata y eficiente para que Disney transmita videos». VentureBeat . Consultado el 16 de diciembre de 2017 .
  46. ^ Dreier, Troy (16 de enero de 2013). "UpLynk sale del modo oculto; DisneyABC es el primer cliente - Streaming Media Magazine". Streamingmedia.com . Consultado el 16 de diciembre de 2017 .
  47. ^ Y. Fei; VWS Wong; VCM Leung (2006). "Aprovisionamiento eficiente de QoS para multimedia adaptativa en redes de comunicación móvil mediante aprendizaje de refuerzo". Redes móviles y aplicaciones . 11 (1): 101–110. CiteSeerX 10.1.1.70.1430 . doi :10.1007/s11036-005-4464-2. S2CID  13022779. 
  48. ^ V. Charvillat; R. Grigoras (2007). "Aprendizaje de refuerzo para adaptación multimedia dinámica". Revista de aplicaciones informáticas y de redes . 30 (3): 1034–1058. doi :10.1016/j.jnca.2005.12.010.
  49. ^ DW McClary; VR Syrotiuk; V. Lecuire (2008). "Transmisión de audio adaptativa en redes ad hoc móviles utilizando redes neuronales". Redes ad hoc . 6 (4): 524–538. doi :10.1016/j.adhoc.2007.04.005.
  50. ^ V. Menkovski; A. Liotta (2013). "Control inteligente para transmisión de video adaptativa". IEEE International Conference on Consumer Electronics (ICCE) . Washington, DC. págs. 127–128. doi :10.1109/ICCE.2013.6486825.
  51. ^ M. Claeys; S. Latré; J. Famaey; F. De Turck (2014). "Diseño y evaluación de un cliente de streaming de vídeo adaptativo HTTP con autoaprendizaje". IEEE Communications Letters . 18 (4): 716–719. doi :10.1109/lcomm.2014.020414.132649. hdl : 1854/LU-5733061 . S2CID  26955239.
  52. ^ S. Petrangeli; M. Claeys; S. Latré; J. Famaey; F. De Turck (2014). "Un marco de trabajo basado en Q-Learning multiagente para lograr equidad en HTTP Adaptive Streaming". Simposio de Gestión y Operaciones de Redes IEEE (NOMS) . Cracovia. págs. 1–9. doi :10.1109/NOMS.2014.6838245.
  53. ^ Pete Mastin (28 de enero de 2011). "¿La tasa de bits adaptativa es el camino de baldosas amarillas o el oro de los tontos para la transmisión en HD?". Archivado desde el original el 7 de septiembre de 2011. Consultado el 15 de octubre de 2011 .
  54. ^ Luca De Cicco; Saverio Mascolo. "Una investigación experimental sobre la transmisión de vídeo adaptativa de Akamai" (PDF) . Consultado el 29 de noviembre de 2011 . {{cite journal}}: Requiere citar revista |journal=( ayuda )
  55. ^ "Transmisión adaptativa: una comparación". Archivado desde el original el 19 de abril de 2014. Consultado el 17 de abril de 2014 . {{cite journal}}: Requiere citar revista |journal=( ayuda )
  56. ^ Chris Knowlton (28 de enero de 2010). "Comparación de streaming adaptativo". {{cite journal}}: Requiere citar revista |journal=( ayuda )

Lectura adicional