stringtranslate.com

Subtítulos

El logo "CC" en un cuadrado redondo blanco, enmarcado en negro.
El símbolo "CC en un televisor" fue creado en WGBH
Un símbolo de una oreja cortada.
El símbolo de la "oreja cortada" es el símbolo internacional de la sordera utilizado por TVNZ y otras emisoras de Nueva Zelanda , así como en cintas VHS publicadas por Alliance Atlantis . Se utilizó el símbolo [ ¿cuándo? ] en las señales de tráfico para identificar el acceso a TTY . Un símbolo similar que representa una oreja (cortada o no) se utiliza en la televisión en varios otros países, incluidos Francia y España .

Los subtítulos ( CC ) y los subtítulos son procesos de mostrar texto en un televisor, pantalla de video u otra presentación visual para proporcionar información adicional o interpretativa. Ambos se utilizan normalmente como transcripción de la parte de audio de un programa tal como aparece (ya sea palabra por palabra o en forma editada), y a veces incluyen descripciones de elementos que no son de habla. Otros usos han incluido proporcionar una traducción textual a un idioma alternativo del idioma de audio principal de una presentación que generalmente está grabado (o "abierto") en el video y no se puede seleccionar.

HTML5 define los subtítulos como una "transcripción o traducción del diálogo cuando el sonido está disponible pero el espectador no lo entiende" (por ejemplo, un diálogo en un idioma extranjero) y los subtítulos como una "transcripción o traducción del diálogo, efectos de sonido, música relevante". señales y otra información de audio relevante cuando el sonido no está disponible o no es claramente audible" (por ejemplo, cuando el audio está silenciado o el espectador es sordo o tiene problemas de audición). [1]

Terminología

El término cerrado indica que los subtítulos no son visibles hasta que el espectador los activa, generalmente a través del control remoto o la opción de menú. Por otro lado, los términos abierto , grabado , horneado , codificado o simplemente fijo indican que los subtítulos son visibles para todos los espectadores ya que están incrustados en el video.

En Estados Unidos y Canadá, los términos subtítulos y leyendas tienen significados diferentes. Los subtítulos suponen que el espectador puede oír pero no entender el idioma o el acento, o que el discurso no es del todo claro, por lo que transcriben sólo el diálogo y parte del texto en pantalla. Los subtítulos tienen como objetivo describir a las personas sordas y con problemas de audición todo el contenido de audio significativo (diálogos hablados e información no verbal, como la identidad de los hablantes y, ocasionalmente, su forma de hablar), junto con cualquier música o efecto de sonido significativo utilizando palabras o símbolos. . Además, el término subtítulos ha pasado a utilizarse para referirse también a la codificación norteamericana EIA-608 que se utiliza con vídeo compatible con NTSC.

El Reino Unido , Irlanda y la mayoría de los demás países [ palabras de comadreja ] no distinguen entre subtítulos y leyendas y utilizan subtítulos como término general. [ cita requerida ] El equivalente a los subtítulos generalmente se conoce como subtítulos para personas con problemas de audición . Se hace referencia a su presencia en pantalla mediante una notación que dice "Subtítulos", o anteriormente "Subtítulos 888" o simplemente "888" (los dos últimos hacen referencia al canal de videotexto convencional para subtítulos), razón por la cual también se utiliza el término subtítulo. para referirse a la codificación de videotexto basada en Ceefax que se utiliza con video compatible con PAL. El término subtítulo ha sido reemplazado por subtítulo en varios mercados, como Australia y Nueva Zelanda, que compran grandes cantidades de material importado de EE. UU., y gran parte de ese video ya tenía el logotipo CC de EE. UU. superpuesto al principio. En Nueva Zelanda, las emisoras superponen un logotipo en una oreja con una línea que representa los subtítulos para personas con problemas de audición, aunque actualmente se los conoce como subtítulos. En el Reino Unido, los servicios modernos de televisión digital tienen subtítulos para la mayoría de los programas, por lo que ya no es necesario resaltar cuáles tienen subtítulos y cuáles no. [ cita necesaria ]

Los teléfonos con control remoto para televisores, DVD y dispositivos similares en la mayoría de los mercados europeos suelen utilizar "SUB" o "SUBTITLE" en el botón utilizado para controlar la visualización de subtítulos.

Historia

Subtítulos abiertos

Las transmisiones regulares con subtítulos comenzaron en The French Chef de PBS en 1972. [2] WGBH comenzó a subtitular los programas Zoom , ABC World News Tonight y Once Upon a Classic poco después.

Desarrollo técnico de subtítulos

Los subtítulos se demostraron por primera vez en los Estados Unidos en la Primera Conferencia Nacional sobre Televisión para Personas con Discapacidad Auditiva en Nashville, Tennessee, en 1971. [2] Una segunda demostración de subtítulos se llevó a cabo en Gallaudet College (ahora Universidad Gallaudet ) el 15 de febrero. , 1972, donde ABC y la Oficina Nacional de Estándares demostraron subtítulos integrados dentro de una transmisión normal de The Mod Squad . Al mismo tiempo, en el Reino Unido, la BBC estaba haciendo una demostración de su servicio de transmisión basado en texto Ceefax, que ya estaban utilizando como base para el desarrollo de un sistema de producción de subtítulos. Estaban trabajando con el profesor Alan Newell de la Universidad de Southampton, que había estado desarrollando prototipos a finales de los años 1960.

El sistema de subtítulos fue codificado y transmitido con éxito en 1973 con la cooperación de la estación WETA de PBS . [2] Como resultado de estas pruebas, la FCC en 1976 reservó la línea 21 para la transmisión de subtítulos. Luego, los ingenieros de PBS desarrollaron las consolas de edición de subtítulos que se usarían para subtitular programas pregrabados.

La BBC del Reino Unido fue la primera emisora ​​en incluir subtítulos (llamados subtítulos en el Reino Unido) en 1979, basándose en el marco del teletexto para programación pregrabada.

Los subtítulos en tiempo real, un proceso para subtitular transmisiones en vivo, fue desarrollado por el Instituto Nacional de Subtítulos en 1982. [2] En los subtítulos en tiempo real, los operadores de estenotipia que pueden escribir a velocidades de más de 225 palabras por minuto proporcionan subtítulos para transmisiones en vivo. programas de televisión, lo que permite al espectador ver los subtítulos dentro de los dos o tres segundos posteriores a la pronunciación de las palabras.

Los principales productores estadounidenses de subtítulos son WGBH-TV , VITAC , CaptionMax y el National Captioning Institute . En el Reino Unido y Australasia , Ai-Media, Red Bee Media , itfc e Independent Media Support son los principales proveedores.

Las mejoras en la tecnología de reconocimiento de voz significan que los subtítulos en vivo pueden automatizarse total o parcialmente. Las transmisiones de BBC Sport utilizan un "volver a hablar": un humano capacitado que repite el comentario continuo (con una enunciación cuidadosa y cierta simplificación y marcado ) para ingresar al sistema automatizado de generación de texto. Esto es generalmente confiable, aunque no se desconocen los errores. [3]

Subtítulos a gran escala

El Instituto Nacional de Subtítulos fue creado en 1979 con el fin de conseguir la cooperación de las cadenas de televisión comerciales. [2]

El primer uso de subtítulos programados regularmente en la televisión estadounidense se produjo el 16 de marzo de 1980. [4] Sears había desarrollado y vendido el adaptador Telecaption, una unidad de decodificación que se podía conectar a un televisor estándar. Los primeros programas vistos con subtítulos fueron una presentación de Disney's Wonderful World de la película Son of Flubber en NBC , una transmisión de ABC Sunday Night Movie de Semi-Tough y Masterpiece Theatre en PBS . [5]

Desde 2010, la BBC ofrece un servicio de subtítulos de transmisión 100% en sus 7 canales de transmisión principales: BBC One , BBC Two , BBC Three , BBC Four , CBBC , CBeebies y BBC News .

BBC iPlayer se lanzó en 2008 como el primer servicio de vídeo a la carta con subtítulos de una importante emisora ​​que alcanza niveles de subtítulos comparables a los proporcionados en sus canales de transmisión.

Desarrollo legislativo en EE.UU.

Hasta la aprobación de la Ley de circuitos decodificadores de televisión de 1990, los subtítulos de televisión se realizaban mediante un descodificador fabricado por Sanyo Electric y comercializado por el Instituto Nacional de Subtítulos (NCI). (En aquella época, un descodificador costaba aproximadamente lo mismo que un televisor, aproximadamente 200 dólares). A través de conversaciones con el fabricante se estableció que el circuito apropiado integrado en el televisor sería menos costoso que la caja independiente. , y Ronald May, entonces empleado de Sanyo, proporcionaron el testimonio del perito en nombre de Sanyo y la Universidad Gallaudet en apoyo de la aprobación del proyecto de ley. El 23 de enero de 1991, el Congreso aprobó la Ley de circuitos decodificadores de televisión de 1990. [2] Esta Ley otorgó a la Comisión Federal de Comunicaciones (FCC) el poder de promulgar reglas sobre la implementación de subtítulos. Esta Ley requería que todos los receptores de televisión analógica con pantallas de al menos 13 pulgadas o más, vendidos o fabricados, tuvieran la capacidad de mostrar subtítulos antes del 1 de julio de 1993. [6]

Además, en 1990 se aprobó la Ley de Estadounidenses con Discapacidades (ADA) para garantizar la igualdad de oportunidades para las personas con discapacidad. [2] La ADA prohíbe la discriminación contra personas con discapacidades en alojamientos públicos o instalaciones comerciales. El Título III de la ADA exige que las instalaciones públicas, como hospitales, bares, centros comerciales y museos (pero no cines), proporcionen acceso a información verbal en televisores, películas o presentaciones de diapositivas.

La Comisión Federal de Comunicaciones exige que todos los proveedores de programas subtitulen el material que tenga audio en inglés o español, con ciertas excepciones especificadas en la Sección 79.1(d) de las reglas de la comisión. Estas excepciones se aplican a redes nuevas; programas en idiomas distintos del inglés o español; las redes tienen que gastar más del 2% de sus ingresos en subtítulos; redes con ingresos inferiores a 3.000.000 de dólares estadounidenses; y ciertos programas locales; entre otras excepciones. [7] Aquellos que no están cubiertos por las excepciones pueden solicitar una exención por dificultades económicas. [8]

La Ley de Telecomunicaciones de 1996 amplió la Ley de Circuitos Decodificadores para imponer los mismos requisitos a los receptores de televisión digital a partir del 1 de julio de 2002. [9] Todos los distribuidores de programación de televisión en los EE. UU. deben proporcionar subtítulos para la programación de video en español a partir de 1 de enero de 2010. [10]

En julio de 2010, la Cámara de Representantes de los Estados Unidos aprobó un proyecto de ley, HR 3101, la Ley de Accesibilidad a las Comunicaciones y Vídeos del Siglo XXI de 2010. [11] Se aprobó un proyecto de ley similar, S. 3304, con el mismo nombre. por el Senado de los Estados Unidos el 5 de agosto de 2010, por la Cámara de Representantes el 28 de septiembre de 2010 y fue firmada por el presidente Barack Obama el 8 de octubre de 2010. La Ley exige, en parte, que el decodificador ATSC descifre Los controles remotos tendrán un botón para activar o desactivar los subtítulos en la señal de salida. También exige que las emisoras proporcionen subtítulos para los programas de televisión redistribuidos en Internet. [12]

El 20 de febrero de 2014, la FCC aprobó por unanimidad la implementación de estándares de calidad para los subtítulos, [13] que abordan la precisión, el tiempo, la integridad y la ubicación. Esta es la primera vez que la FCC aborda problemas de calidad en los subtítulos.

En 2015, se aprobó una ley en Hawái que exige dos proyecciones por semana de cada película con subtítulos en pantalla. En 2022, entró en vigor una ley en la ciudad de Nueva York que exige que las salas de cine ofrezcan subtítulos en la pantalla hasta cuatro horarios por película cada semana, incluidos los fines de semana y los viernes por la noche. [14]

Algunos gobiernos estatales y locales (incluidos Boston, Massachusetts ; Portland, Oregón ; Rochester, Nueva York ; y el estado de Washington ) exigen que los subtítulos estén activados en televisores en lugares públicos en todo momento, incluso si nadie lo ha solicitado. [15]

Filipinas

Según lo modificado por RA 10905, todas las redes de televisión de Filipinas deben proporcionar CC. [16] A partir de 2018, las tres principales cadenas de televisión del país se encuentran probando el sistema de subtítulos en sus transmisiones. ABS-CBN agregó CC en su hábito diario de las 3 en punto de la tarde. 5 comenzaron a implementar CC en sus programas de noticias en vivo del mediodía y de la noche. Una vez, GMA comenzó a transmitir programas de noticias nocturnos y nocturnos, pero últimamente dejaron de agregar CC. Solo dramas coreanos seleccionados y películas locales o extranjeras, Biyahe ni Drew (inglés: Drew's Explorations ) e Idol sa Kusina (inglés: Kitchen Idol ) son los programas y programas que se transmiten con subtítulos adecuados. [17]

Los subtítulos en algunas películas filipinas deben "incluirse" si las productoras cinematográficas tienen la tendencia de tener un impacto en la experiencia visual de aquellos que no entienden el idioma. Desde 2016, todas las películas en idioma filipino y también algunos servicios de transmisión como iWant han incluido sus subtítulos en inglés en algunas proyecciones de películas. La ley al respecto fue aprobada por Gerald Anthony Gullas Jr., un legislador de la ciudad de Cebú, quien había implementado las regulaciones para estandarizar ambos idiomas oficiales de Filipinas, ya que la gente no dominaba con fluidez su vocabulario inglés. [18]

Desarrollo legislativo en Australia

El gobierno de Australia proporcionó financiación inicial en 1981 para el establecimiento del Centro Australiano de Subtítulos (ACC) y la compra de equipos. La subtitulación por parte del ACC comenzó en 1982 y una subvención adicional del gobierno australiano permitió al ACC lograr y mantener la autosuficiencia financiera. El ACC, ahora conocido como Media Access Australia , vendió su división de subtítulos comerciales a Red Bee Media en diciembre de 2005. Red Bee Media continúa brindando servicios de subtítulos en Australia en la actualidad. [19] [20] [21]

Financiamiento del desarrollo en Nueva Zelanda

En 1981, TVNZ celebró un teletón para recaudar fondos para equipos de codificación de teletexto utilizados para la creación y edición de servicios de transmisión de texto para personas sordas. El servicio comenzó a utilizarse en 1984 y la creación e importación de subtítulos se pagaba como parte de la tarifa de transmisión pública hasta la creación del fondo de contribuyentes de NZ on Air , que se utiliza para proporcionar subtítulos para el contenido de NZ On Air , programas de noticias de TVNZ y conversión de Subtítulos EIA-608 de EE. UU. en el formato EBU STL preferido solo para TVNZ 1 , TV 2 y TV 3 con subtítulos archivados disponibles para CUATRO y programación selecta de Sky . Durante la segunda mitad de 2012, TV3 y FOUR comenzaron a proporcionar subtítulos basados ​​en imágenes DVB sin teletexto en su servicio HD y utilizaron el mismo formato en el servicio satelital, lo que desde entonces ha causado importantes problemas de sincronización en relación con la carga del servidor y la pérdida de subtítulos de la mayoría de los receptores SD DVB-S, como los que Sky Television ofrece a sus clientes. A partir del 2 de abril de 2013, solo el servicio de subtítulos de la página 801 de Teletexto permanecerá en uso y el contenido informativo sin subtítulos de Teletexto quedará descontinuado.

Solicitud

Se crearon subtítulos para personas sordas y con problemas de audición para ayudar en la comprensión. También pueden ser utilizados como herramienta por quienes están aprendiendo a leer, aprendiendo a hablar un idioma no nativo o en un entorno donde el audio es difícil de escuchar o está silenciado intencionalmente. Los espectadores que simplemente deseen leer una transcripción junto con el audio del programa también pueden utilizar los subtítulos.

En Estados Unidos, el Instituto Nacional de Subtítulos señaló que los estudiantes de inglés como lengua extranjera o segunda lengua (ESL) eran el grupo más grande que compraba decodificadores a finales de los años 80 y principios de los 90, antes de que los decodificadores integrados se convirtieran en una característica estándar de los televisores estadounidenses. Esto sugirió que la mayor audiencia de subtítulos era gente cuya lengua materna no era el inglés. En el Reino Unido, de 7,5 millones de personas que utilizan subtítulos de televisión (closed caption), 6 millones no tienen problemas de audición. [22]

Los subtítulos ocultos también se utilizan en entornos públicos, como bares y restaurantes, donde es posible que los clientes no puedan escuchar por el ruido de fondo o donde varios televisores muestran diferentes programas. Además, los vídeos en línea pueden ser tratados mediante el procesamiento digital de su contenido de audio mediante diversos algoritmos robóticos (robots). El resultado son múltiples cadenas de errores. Cuando un vídeo se transcribe de forma verdadera y precisa, la publicación de subtítulos tiene un propósito útil y el contenido está disponible para que los motores de búsqueda lo indexen y lo pongan a disposición de los usuarios en Internet. [23] [24] [25]

Algunos televisores se pueden configurar para que activen automáticamente los subtítulos cuando el volumen esté silenciado.

Televisión y vídeo

Para los programas en vivo , las palabras habladas que componen la banda sonora del programa de televisión son transcritas por un operador humano (un reportero de voz a texto ) utilizando máquinas del tipo estenotipo o estenomask , cuya salida fonética se traduce instantáneamente a texto por una computadora y se muestra en la pantalla. . Esta técnica se desarrolló en la década de 1970 como iniciativa del servicio de teletexto Ceefax de la BBC . [26] En colaboración con la BBC, un estudiante universitario asumió el proyecto de investigación de escribir el primer programa de conversión de fonética a texto para este propósito. A veces, los subtítulos de transmisiones en vivo, como boletines de noticias, eventos deportivos, programas de entretenimiento en vivo y otros programas en vivo, se retrasan unos segundos. Este retraso se debe a que la máquina no sabe lo que la persona va a decir a continuación, por lo que después de que la persona en el programa dice la frase, aparecen los subtítulos. [27] El reconocimiento automático de voz por computadora funciona bien cuando se entrena para reconocer una sola voz, por lo que desde 2003, la BBC realiza subtítulos en vivo haciendo que alguien vuelva a hablar lo que se está transmitiendo. Los subtítulos en vivo también son una forma de texto en tiempo real . Mientras tanto, los eventos deportivos en ESPN utilizan taquígrafos judiciales , un teclado especial (steno) y "diccionarios" construidos individualmente.

En algunos casos, la transcripción está disponible de antemano y los subtítulos simplemente se muestran durante el programa después de editarlos. Para programas que tienen una combinación de contenido preparado previamente y en vivo, como boletines de noticias , se utiliza una combinación de técnicas.

Para programas pregrabados, comerciales y videos caseros, el audio se transcribe y los subtítulos se preparan, posicionan y cronometran con anticipación.

Para todos los tipos de programación NTSC , los subtítulos están "codificados" en la línea 21 del intervalo de supresión vertical , una parte de la imagen de televisión que se encuentra justo encima de la parte visible y que normalmente no se ve. Para la programación ATSC ( televisión digital ), se codifican tres transmisiones en el video: dos son subtítulos de "línea 21" compatibles con versiones anteriores y el tercero es un conjunto de hasta 63 transmisiones de subtítulos adicionales codificadas en formato EIA-708 . [28]

Los subtítulos se modulan y almacenan de manera diferente en los países PAL y SECAM de 625 líneas y 25 cuadros, donde se usa teletexto en lugar de en EIA-608 , pero los métodos de preparación y el campo de línea 21 utilizados son similares. Para cintas de vídeo Betamax y VHS domésticas , se debe realizar un desplazamiento hacia abajo de este campo de la línea 21 debido a la mayor cantidad de líneas VBI utilizadas en los países PAL de 625 líneas, aunque solo una pequeña minoría de máquinas VHS PAL europeas admiten este (o cualquier otro) formato. para grabación de subtítulos. Como todos los campos de teletexto, los subtítulos de teletexto no se pueden almacenar en una grabadora VHS estándar de 625 líneas (debido a la falta de soporte para cambio de campo); están disponibles en todas las grabaciones profesionales S-VHS debido a que se graban todos los campos. Los campos de subtítulos de teletexto grabados también sufren una mayor cantidad de errores de subtítulos debido al mayor número de bits y una SNR baja , especialmente en VHS de bajo ancho de banda. Esta es la razón por la que los subtítulos del teletexto solían almacenarse por separado en un disquete de la cinta maestra analógica. Los DVD tienen su propio sistema de subtítulos, que se insertan digitalmente en el flujo de datos y se decodifican en vídeo durante la reproducción.

Para televisores más antiguos, generalmente se requiere un decodificador u otro decodificador. En los EE. UU., desde la aprobación de la Ley de circuitos decodificadores de televisión, se ha exigido a los fabricantes de la mayoría de los receptores de televisión vendidos que incluyan la capacidad de visualización de subtítulos. Los televisores de alta definición, los receptores y las tarjetas sintonizadoras también están cubiertos, aunque las especificaciones técnicas son diferentes (las pantallas de alta definición, a diferencia de los televisores de alta definición, pueden carecer de subtítulos). Canadá no tiene una ley similar, pero recibe los mismos conjuntos que Estados Unidos en la mayoría de los casos.

Durante la transmisión, los errores de un solo byte pueden ser reemplazados por un espacio en blanco que puede aparecer al comienzo del programa. Más errores de bytes durante la transmisión EIA-608 pueden afectar la pantalla momentáneamente, al cambiar de forma predeterminada a un modo de tiempo real como el estilo "enrollar", escribir letras aleatorias en la pantalla y luego volver a la normalidad. Los errores de bytes no corregibles dentro del encabezado de la página de teletexto provocarán que se eliminen subtítulos completos. EIA-608, debido a que utiliza sólo dos caracteres por fotograma de vídeo, envía estos subtítulos con antelación almacenándolos en un segundo buffer a la espera de un comando para mostrarlos; El teletexto los envía en tiempo real.

El uso de mayúsculas varía entre los proveedores de subtítulos. La mayoría de los proveedores de subtítulos escriben en mayúscula todas las palabras, mientras que otros, como WGBH y proveedores fuera de los EE. UU., prefieren utilizar letras en mayúsculas y minúsculas.

Hay dos estilos principales de subtítulos de la línea 21:

Un fotograma fijo que muestra subtítulos simulados en estilo emergente

Formato de subtítulos

Ejemplo de TVNZ Access Services y Red Bee Media para BBC y Australia:

Preparé la máquina.
ARRANQUE DEL MOTOR(alejándose a toda velocidad)

Ejemplo de IMS del Reino Unido para ITV y Sky:

(hombre) Tengo la máquina lista. (arranque del motor)

Ejemplo de servicios de acceso WGBH de EE. UU.:

HOMBRE: Preparé la máquina. (arranque del motor)

Ejemplo del Instituto Nacional de Subtítulos de EE. UU .:

- TENGO LA MÁQUINA LISTA.[ARRANQUE DEL MOTOR]

Ejemplo de CaptionMax de EE. UU .:

- Preparé la máquina.[arranque del motor]

Ejemplo de resumen interno en tiempo real de EE. UU.:

>> Hombre: TENGO LA MÁQUINA LISTA.[arranque del motor]

Ejemplo de resumen en tiempo real interno fuera de EE. UU.:

HOMBRE: Preparé la máquina.(ARRANQUE DEL MOTOR)

Ejemplo de VITAC estadounidense :

[HOMBRE]Preparé la máquina.[arranque del motor]

Sintaxis

Para los subtítulos en tiempo real realizados fuera de las instalaciones de subtítulos, se utiliza la siguiente sintaxis:

Estilos de sintaxis que utilizan varios productores de subtítulos:

Aspectos técnicos

Había muchas deficiencias en la especificación original de la Línea 21 desde el punto de vista tipográfico , ya que, por ejemplo, carecía de muchos de los caracteres necesarios para los subtítulos en idiomas distintos del inglés. Desde entonces, el conjunto de caracteres principal de Line 21 se ha ampliado para incluir bastantes caracteres más, manejando la mayoría de los requisitos de los idiomas comunes en América del Norte y del Sur, como francés , español y portugués , aunque esos caracteres extendidos no son necesarios en todos. decodificadores y, por tanto, no son fiables en el uso diario. El problema casi se ha eliminado con un conjunto completo de caracteres de Europa occidental específico para el mercado y una extensión Norpak adoptada de forma privada para los mercados de Corea del Sur y Japón . El estándar EIA-708 completo para televisión digital tiene soporte para juegos de caracteres en todo el mundo, pero se ha utilizado poco debido a que el teletexto EBU domina los países DVB , que tiene sus propios juegos de caracteres extendidos.

Los subtítulos a menudo se editan para hacerlos más fáciles de leer y reducir la cantidad de texto que se muestra en pantalla. Esta edición puede ser desde muy pequeña, con sólo unas pocas líneas ocasionales omitidas sin importancia, hasta severa, donde prácticamente cada línea pronunciada por los actores está condensada. La medida utilizada para guiar esta edición es de palabras por minuto, variando comúnmente entre 180 y 300, dependiendo del tipo de programa. Las palabras ofensivas también se subtitulan, pero si el programa está censurado para su transmisión por televisión, es posible que la emisora ​​​​no haya hecho arreglos para que los subtítulos sean editados o censurados también. El "TV Guardian", un descodificador de televisión , está disponible para los padres que deseen censurar el lenguaje ofensivo de los programas: la señal de vídeo se introduce en el decodificador y, si detecta una palabra ofensiva en los subtítulos, se emite un pitido en la señal de audio. o silenciado durante ese período de tiempo.

Canales de subtítulos

Un error al promocionar subtítulos CC1 y CC3 (en Telemundo )

El flujo de datos de la Línea 21 puede consistir en datos de varios canales de datos multiplexados entre sí. El campo impar 1 puede tener cuatro canales de datos: dos subtítulos sincronizados separados (CC1, CC2) con texto relacionado con los subtítulos, como las URL de sitios web (T1, T2). Incluso el campo 2 puede tener cinco canales de datos adicionales: dos subtítulos sincronizados separados (CC3, CC4) con texto relacionado con los subtítulos (T3, T4) y servicios de datos extendidos (XDS) para detalles de la EPG actual/próxima . La estructura de datos XDS está definida en CEA-608.

Como CC1 y CC2 comparten ancho de banda, si hay muchos datos en CC1, habrá poco espacio para los datos de CC2 y generalmente solo se usan para los subtítulos de audio principales. De manera similar, CC3 y CC4 comparten el segundo campo par de la línea 21. Dado que algunos de los primeros decodificadores de subtítulos solo admitían la decodificación de un solo campo de CC1 y CC2, los subtítulos para SAP en un segundo idioma a menudo se colocaban en CC2. Esto provocó problemas de ancho de banda, y la recomendación de la Comisión Federal de Comunicaciones (FCC) de EE. UU. es que la programación bilingüe debería tener el segundo idioma de subtítulos en CC3. Muchas cadenas de televisión españolas como Univisión y Telemundo , por ejemplo, ofrecen subtítulos en inglés para muchos de sus programas en español en CC3. Las emisoras canadienses utilizan CC3 para los SAP traducidos al francés, lo que también es una práctica similar en Corea del Sur y Japón.

Ceefax y Teletext pueden tener una mayor cantidad de subtítulos para otros idiomas debido al uso de múltiples líneas VBI. Sin embargo, solo los países europeos utilizaron una segunda página de subtítulos para pistas de audio en un segundo idioma donde se utilizó NICAM dual mono o Zweikanalton .

Problemas de interoperabilidad de la televisión digital

El sistema de televisión digital ATSC de EE. UU . especificó originalmente dos tipos diferentes de estándares de flujo de datos de subtítulos : el formato analógico original compatible (disponible en Line 21 ) y el más moderno formato CEA-708 exclusivamente digital que se entrega dentro del flujo de video. [28] La FCC de EE. UU. exige que los organismos de radiodifusión entreguen (y generen, si es necesario) ambos formatos de flujo de datos con el formato CEA-708 simplemente una conversión del formato Línea 21. [28] La CRTC canadiense no ha ordenado que los organismos de radiodifusión transmitan ambos formatos de flujo de datos o exclusivamente en un formato. Para evitar grandes costos de conversión, la mayoría de las emisoras y redes simplemente proporcionan subtítulos EIA-608 junto con una versión CEA-708 transcodificada y encapsulada dentro de paquetes CEA-708 .

Problemas de incompatibilidad con la TV digital

Muchos espectadores descubren que cuando adquieren un televisor digital o un decodificador no pueden ver la información de subtítulos (CC), a pesar de que la emisora ​​la envía y el televisor puede mostrarla.

Originalmente, la información CC se incluía en la imagen ("línea 21") a través de una entrada de vídeo compuesto , pero no existe una capacidad equivalente en las interconexiones de vídeo digital (como DVI y HDMI ) entre la pantalla y una "fuente". Una "fuente", en este caso, puede ser un reproductor de DVD o un receptor de televisión digital terrestre o por cable. Cuando la información CC se codifica en el flujo de datos MPEG-2 , sólo el dispositivo que decodifica los datos MPEG-2 (una fuente) tiene acceso a la información de los subtítulos ; No existe un estándar para transmitir la información CC a un monitor por separado. Por lo tanto, si hay información CC, el dispositivo fuente necesita superponer la información CC en la imagen antes de transmitirla a la pantalla a través de la salida de video de la interconexión.

La responsabilidad de decodificar la información CC y superponerla a la imagen de vídeo visible se ha eliminado de la pantalla del televisor y se ha colocado en la "fuente" de las interconexiones de vídeo digital DVI y HDMI. Debido a que el televisor maneja el "silencio" y, cuando se usa DVI y HDMI , un dispositivo diferente maneja el encendido y apagado de CC, esto significa que la función "los subtítulos se encienden automáticamente cuando el televisor está silenciado" ya no funciona. Ese dispositivo fuente, como un reproductor de DVD o un decodificador , debe "grabar" la imagen del texto CC en los datos de imagen transportados por el cable HDMI o DVI ; no hay otra forma de transmitir el texto CC a través del cable HDMI o DVI . [29] [30] [31] [32] [33] [34]

Muchos dispositivos fuente no tienen la capacidad de superponer información CC, ya que controlar la superposición CC puede resultar complicado. Por ejemplo, los receptores de cable Motorola DCT-5xxx y -6xxx tienen la capacidad de decodificar información CC ubicada en la transmisión MPEG-2 y superponerla en la imagen, pero para encender y apagar CC es necesario apagar la unidad y encender en un menú de configuración especial (no está en el menú de configuración estándar y no se puede controlar con el control remoto). Históricamente, los reproductores de DVD , VCR y sintonizadores no necesitaban realizar esta superposición, ya que simplemente pasaban esta información al televisor y no están obligados a realizar esta superposición.

Muchos receptores de televisión digital modernos se pueden conectar directamente a cables, pero a menudo no pueden recibir canales codificados por los que el usuario paga. Por lo tanto, la falta de una forma estándar de enviar información CC entre componentes, junto con la falta de un mandato para agregar esta información a una imagen, hace que CC no esté disponible para muchos usuarios sordos y con problemas de audición.

Los sistemas de teletexto basados ​​en EBU Ceefax son la fuente de señales de subtítulos, por lo que cuando el teletexto está integrado en DVB-T o DVB-S, se incluye la señal de subtítulos. [35] Sin embargo, para DVB-T y DVB-S, no es necesario que también esté presente una señal de búsqueda de teletexto ( ITV1 , por ejemplo, no transmite señales de teletexto analógico en Sky Digital , pero sí la versión integrada, accesible desde el menú "Servicios" del receptor, o más recientemente apagándolos/encendiéndolos desde un mini menú accesible desde el botón "ayuda").

Las pautas editoriales de subtítulos de la BBC nacieron de las capacidades del teletexto , pero ahora son utilizadas por múltiples emisoras europeas como guía de mejores prácticas editoriales y de diseño [36].

Nueva Zelanda

En Nueva Zelanda, los subtítulos utilizan un sistema de teletexto basado en EBU Ceefax en transmisiones DVB vía satélite y televisión por cable , con la excepción de los canales MediaWorks New Zealand que cambiaron completamente a subtítulos DVB RLE en 2012 tanto en transmisiones por satélite Freeview como en UHF , se tomó esta decisión. basado en la práctica de TVNZ de utilizar este formato únicamente en transmisiones DVB UHF (también conocido como Freeview HD ). Esto hizo que los televisores conectados a vídeo compuesto fueran incapaces de decodificar los subtítulos por sí solos. Además, estos subtítulos prerenderizados utilizan fondos opacos de estilo de subtítulos clásico con un tamaño de fuente demasiado grande y oscurecen la imagen más que los fondos más modernos, parcialmente transparentes.

Mejoras en los subtítulos estándar de televisión digital

La especificación CEA-708 proporciona subtítulos dramáticamente mejorados.

A partir de 2009, la mayoría de los subtítulos para entornos de televisión digital se realizan utilizando herramientas diseñadas para subtítulos analógicos (que funcionan según la especificación CEA-608 NTSC en lugar de la especificación CEA-708 ATSC ). Luego, los subtítulos pasan a través de transcodificadores fabricados por empresas como EEG Enterprises o Evertz , que convierten el formato de subtítulos analógico Line 21 al formato digital. Esto significa que no se utiliza ninguna de las funciones de CEA-708 a menos que también estuvieran contenidas en CEA-608 .

Usos en otros medios

DVD y discos Blu-ray

Los DVD NTSC pueden contener subtítulos en paquetes de datos de transmisiones de video MPEG-2 dentro de la carpeta Video-TS. Una vez reproducidos en las salidas analógicas de un reproductor de DVD, los datos de los subtítulos se convierten al formato Line 21. [37] El reproductor los envía al vídeo compuesto (o a un conector RF disponible ) para el decodificador incorporado de un televisor conectado o un decodificador como de costumbre. No se pueden emitir en salidas de S-Video o video componente debido a la falta de una señal de ráfaga de color en la línea 21. (En realidad, independientemente de esto, si el reproductor de DVD está en modo entrelazado en lugar de progresivo, los subtítulos se mostrarán en el televisor a través de la entrada de video componente si los subtítulos del televisor están activados y configurados en CC1.) Cuando se ven en una computadora personal, los datos de subtítulos se pueden ver mediante un software que puede leer y decodificar los paquetes de datos de subtítulos en las secuencias MPEG-2 del Disco DVD-Vídeo. Windows Media Player (antes de Windows 7 ) en Vista solo admitía los canales de subtítulos 1 y 2 (no 3 o 4). El reproductor de DVD de Apple no tiene la capacidad de leer ni decodificar los datos de subtítulos de la Línea 21 que se graban en un DVD creado a partir de una transmisión inalámbrica. Puede mostrar algunos subtítulos de películas en DVD.

Además de los subtítulos cerrados de Line 21, los DVD de vídeo también pueden contener subtítulos, que generalmente se reproducen a partir de los subtítulos EIA-608 como una superposición de mapa de bits que se puede activar y desactivar a través de un reproductor de DVD o software de reproducción de DVD, al igual que el texto. subtítulos. Este tipo de subtítulos generalmente se incluye en una pista de subtítulos con la etiqueta "Inglés para personas con discapacidad auditiva" o, más recientemente, "SDH" (subtitulado para personas sordas y con problemas de audición). [38] Muchos DVD-Video populares de Hollywood pueden contener subtítulos y subtítulos (por ejemplo, Stepmom DVD de Columbia Pictures). En algunos DVD, los subtítulos de la Línea 21 pueden contener el mismo texto que los subtítulos; en otros, solo los subtítulos de la Línea 21 incluyen la información adicional no hablada (incluso a veces letras de canciones) necesaria para los espectadores sordos y con problemas de audición. Los DVD de la Región Europea 2 no incluyen subtítulos de la Línea 21 y, en su lugar, enumeran los idiomas de subtítulos disponibles; el inglés a menudo aparece dos veces, una como representación del diálogo únicamente y un segundo conjunto de subtítulos que contiene información adicional para personas sordas y con dificultades auditivas. -audiencia auditiva. (Muchos archivos de subtítulos HOH /sordos en DVD son reelaboraciones de archivos de subtítulos de teletexto originales).

Los medios Blu-ray generalmente no pueden transportar datos VBI, como los subtítulos de Line 21, debido al diseño de especificaciones de interfaz multimedia de alta definición (HDMI) basada en DVI que solo se extendió para audio digital sincronizado reemplazando estándares analógicos más antiguos, como VGA . S-Video, vídeo por componentes y SCART . Sin embargo, algunos de los primeros títulos de 20th Century Fox Home Entertainment llevaban subtítulos de Line 21 que se emiten cuando se utilizan las salidas analógicas (normalmente vídeo compuesto) de algunos reproductores de Blu-ray. Tanto Blu-ray como DVD pueden usar subtítulos de mapa de bits PNG o 'subtítulos avanzados' para llevar subtítulos de tipo SDH, siendo este último un formato textual basado en XML que incluye información de fuente, estilo y posición, así como una representación Unicode del texto. Los subtítulos avanzados también pueden incluir funciones adicionales de accesibilidad a los medios, como "audio descriptivo".

Películas

Existen varias tecnologías competitivas que se utilizan para proporcionar subtítulos para películas en los cines. Los subtítulos de cine se clasifican en abiertos y cerrados. La definición de subtítulos "cerrados" en este contexto es diferente a la de la televisión, ya que se refiere a cualquier tecnología que permite que tan solo un miembro de la audiencia vea los subtítulos.

Los subtítulos abiertos en una sala de cine se pueden lograr mediante subtítulos grabados, texto proyectado o mapas de bits o (raramente) una pantalla ubicada encima o debajo de la pantalla de cine. Normalmente, esta pantalla es un letrero LED grande. En un cine digital, la capacidad de visualización de subtítulos abiertos está integrada en el proyector digital. La capacidad de subtítulos también está disponible, con la posibilidad de que dispositivos de subtítulos de terceros se conecten al servidor de cine digital.

Probablemente la opción de subtítulos más conocida para las salas de cine sea el Sistema de subtítulos en la ventana trasera del Centro Nacional de Medios Accesibles . Al entrar al teatro, a los espectadores que necesitan subtítulos se les entrega un panel de vidrio o plástico plano translúcido sobre un mango de cuello de cisne, que se puede montar frente al asiento del espectador. En la parte trasera del cine hay una pantalla LED que muestra los subtítulos en imagen especular. El panel refleja subtítulos para el espectador, pero es casi invisible para los clientes que lo rodean. El panel se puede colocar de manera que el espectador vea la película a través del panel y los subtítulos aparezcan sobre o cerca de la imagen de la película. Una empresa llamada Cinematic Captioning Systems tiene un sistema reflectante similar llamado Bounce Back. Un problema importante para los distribuidores ha sido que estos sistemas son propietarios y requieren distribuciones separadas al cine para que puedan funcionar. Los sistemas propietarios también generan tarifas de licencia.

Para los sistemas de proyección de películas, Digital Theatre Systems , la empresa detrás del estándar de sonido envolvente DTS , ha creado un dispositivo de subtítulos digitales llamado DTS-CSS (Cinema Subtitling System). Es una combinación de un proyector láser que coloca los subtítulos (palabras, sonidos) en cualquier lugar de la pantalla y un dispositivo de reproducción delgado con un CD que admite muchos idiomas. Si se utiliza el sistema de subtítulos de la ventana trasera, también se requiere el reproductor DTS-CSS para enviar texto de subtítulos al letrero de la ventana trasera ubicado en la parte trasera del cine.

Se ha hecho un esfuerzo especial para incorporar características de accesibilidad en los sistemas de proyección digital (ver cine digital ). A través de SMPTE , ahora existen estándares que dictan cómo los subtítulos abiertos y cerrados, así como el audio narrativo para personas con discapacidad auditiva y visual, se empaquetan con el resto de la película digital. Esto elimina las distribuciones de subtítulos de propiedad requeridas para las películas y las regalías asociadas. SMPTE también ha estandarizado la comunicación de contenido de subtítulos entre el servidor de cine digital y sistemas de subtítulos de terceros (el protocolo CSP/RPL). Como resultado, ahora están surgiendo sistemas de subtítulos cerrados nuevos y competitivos para cine digital que funcionarán con cualquier servidor de cine digital que cumpla con los estándares. Estos dispositivos de subtítulos más nuevos incluyen pantallas electrónicas montadas en portavasos y gafas inalámbricas que muestran el texto de los subtítulos frente a los ojos del usuario. [39] También se encuentran disponibles dispositivos de puente para permitir el uso de sistemas de ventana trasera. A mediados de 2010, el desafío restante para la introducción generalizada de la accesibilidad en el cine digital es la transición en toda la industria a SMPTE DCP, el método de empaquetado estandarizado para la distribución segura y de muy alta calidad de películas digitales.

Instalaciones deportivas

Los sistemas de subtítulos también han sido adoptados por la mayoría de los estadios y arenas universitarias de alto perfil y de las grandes ligas , generalmente a través de partes dedicadas de sus marcadores principales o como parte de los tableros LED de la fascia de los balcones . Estas pantallas muestran subtítulos del locutor del discurso público y otro contenido hablado, como los contenidos en segmentos del juego, anuncios de servicio público y letras de canciones que se reproducen en el estadio. En algunas instalaciones, estos sistemas se agregaron como resultado de demandas por discriminación. Luego de una demanda bajo la Ley de Estadounidenses con Discapacidades , FedExField agregó pantallas de subtítulos en 2006. [40] [41] Algunos estadios utilizan subtítulos en el sitio, mientras que otros los subcontratan a proveedores externos que subtitulan de forma remota. [42] [43]

Juegos de vídeo

La aparición poco frecuente de subtítulos en los videojuegos se convirtió en un problema en la década de 1990 cuando los juegos comenzaron a incluir pistas de voz, que en algunos casos contenían información que el jugador necesitaba para saber cómo progresar en el juego. [44] Los subtítulos ocultos en los videojuegos se están volviendo más comunes. Una de las primeras empresas de videojuegos en incluir subtítulos fue Bethesda Softworks en su lanzamiento de 1990 de Hockey League Simulator y The Terminator 2029 . [ cita necesaria ] Infocom también ofreció Zork Grand Inquisitor en 1997. [45] Desde entonces, muchos juegos han ofrecido al menos subtítulos para el diálogo hablado durante las escenas , y muchos también incluyen importantes diálogos dentro del juego y efectos de sonido en los subtítulos; por ejemplo, con los subtítulos activados en la serie de juegos de sigilo Metal Gear Solid , no solo están disponibles los subtítulos durante las escenas de corte, sino que cualquier diálogo pronunciado durante el juego en tiempo real también será subtitulado, lo que permitirá a los jugadores que no pueden escuchar el diálogo. para saber qué dicen los guardias enemigos y cuándo han detectado al personaje principal. Además, en muchos de los videojuegos del desarrollador Valve (como Half-Life 2 o Left 4 Dead ), cuando se activan los subtítulos, los diálogos y casi todos los efectos de sonido, ya sea hechos por el jugador o de otras fuentes (por ejemplo, disparos, explosiones). ) será subtitulado.

Los videojuegos no ofrecen subtítulos Line 21, decodificados y mostrados por el propio televisor, sino más bien una visualización de subtítulos incorporada, más parecida a la de un DVD. Los propios sistemas de juego tampoco tienen ningún papel en los subtítulos; cada juego debe tener su visualización de subtítulos programada individualmente.

Reid Kimball, un diseñador de juegos con problemas de audición, está intentando educar a los desarrolladores de juegos sobre los subtítulos para juegos. Reid fundó el grupo Games[CC] para juegos de subtítulos y sirvió como equipo de investigación y desarrollo para ayudar a la industria. Kimball diseñó el sistema de subtítulos dinámicos, [ cita necesaria ] escribe artículos y habla en conferencias de desarrolladores. El primer proyecto de subtítulos de Games[CC], llamado Doom3[CC], fue nominado para un premio como Mejor Mod de Doom3 del año en el programa IGDA's Choice Awards 2006.

Transmisión de vídeo en línea

El servicio de transmisión de videos por Internet YouTube ofrece servicios de subtítulos en videos. El autor del vídeo puede cargar un archivo SubViewer (*.SUB), SubRip (*.SRT) o *.SBV. [46] Como característica beta, el sitio también agregó la capacidad de transcribir y generar subtítulos automáticamente en videos, con distintos grados de éxito según el contenido del video. [47] Sin embargo, el 30 de agosto de 2020, la compañía anunció que los subtítulos comunitarios finalizarán el 28 de septiembre. [48] Los subtítulos automáticos suelen ser inexactos en videos con música de fondo o emoción exagerada al hablar. Las variaciones de volumen también pueden dar lugar a subtítulos sin sentido generados por máquinas. Surgen problemas adicionales con acentos fuertes, sarcasmo , contextos diferentes u homónimos . [49]

El 30 de junio de 2010, YouTube anunció una nueva designación "YouTube Ready" para proveedores de subtítulos profesionales en los Estados Unidos. [50] La lista inicial incluía doce empresas que aprobaron una evaluación de la calidad de los subtítulos administrada por el Proyecto de Medios Descritos y Subtitulados, tienen un sitio web y un canal de YouTube donde los clientes pueden aprender más sobre sus servicios y han acordado publicar tarifas para la gama de servicios. que ofrecen para el contenido de YouTube.

El vídeo Flash también admite subtítulos utilizando el perfil de intercambio de distribución (DFXP) del formato de texto cronometrado W3C . El último software de creación Flash agrega máscaras de reproductor y componentes de subtítulos gratuitos que permiten a los espectadores activar o desactivar los subtítulos durante la reproducción desde una página web. Las versiones anteriores de Flash se basaban en el componente y máscara de terceros Captionate para subtitular vídeos Flash. Los reproductores Flash personalizados diseñados en Flex se pueden adaptar para admitir el perfil de intercambio de texto cronometrado, Captionate .XML o archivos SAMI (por ejemplo, subtítulos de Hulu ). Este es el método preferido para la mayoría de las redes de cable y transmisión de EE. UU . que tienen el mandato de la Comisión Federal de Comunicaciones de EE. UU . de proporcionar contenido subtitulado a pedido. Las empresas de codificación de medios generalmente utilizan software como MacCaption para convertir subtítulos EIA-608 a este formato. Silverlight Media Framework [51] también incluye soporte para el perfil de intercambio de texto cronometrado tanto para descarga como para medios de transmisión adaptativos .

Windows Media Video puede admitir subtítulos para escenarios de transmisión de video a pedido o de transmisión en vivo. Normalmente, los subtítulos de Windows Media admiten el formato de archivo SAMI , pero también pueden contener datos de subtítulos integrados.

El formato de distribución EBU-TT-D admite múltiples reproductores en múltiples plataformas.

El video QuickTime admite datos de subtítulos EIA-608 sin procesar a través de una pista de subtítulos patentada, que son solo pares de bytes EIA-608 envueltos en un contenedor de paquetes QuickTime con diferentes ID para ambos campos de la línea 21. Estos subtítulos se pueden activar y desactivar y aparecen en el mismo estilo que los subtítulos de TV, con todo el formato estándar (pop-on, roll-up, paint-on) y se pueden colocar y dividir en cualquier lugar de la pantalla de video. Las pistas de subtítulos de QuickTime se pueden ver en las versiones macOS o Windows de QuickTime Player, iTunes (a través de QuickTime), iPod Nano , iPod Classic , iPod Touch , iPhone y iPad .

Teatro

Las obras en vivo pueden ser subtituladas abiertamente por un subtitulador que muestra líneas del guión e incluye elementos que no son de habla en una pantalla grande cerca del escenario. [52] Ahora también hay software disponible que genera automáticamente los subtítulos y los transmite a las personas sentadas en el cine, y esos subtítulos se ven usando gafas de visualización frontal o en un teléfono inteligente o tableta de computadora.

Teléfonos

Un teléfono con subtítulos es un teléfono que muestra subtítulos en tiempo real de la conversación actual. Los subtítulos normalmente se muestran en una pantalla integrada en la base del teléfono.

Videoconferencia

Algunos servicios de videoconferencia online, como Google Meet , ofrecen la posibilidad de mostrar subtítulos en tiempo real de la conversación actual.

Servicios de seguimiento de medios.

Especialmente en Estados Unidos, la mayoría de los servicios de monitoreo de medios capturan e indexan textos de subtítulos de programas de noticias y asuntos públicos, lo que les permite buscar en el texto referencias de clientes. El uso de subtítulos para el monitoreo de noticias televisivas fue iniciado por Universal Press Clipping Bureau (Universal Information Services) en 1992, [ cita necesaria ] y más tarde en 1993 por NewsTrak de Oklahoma, con sede en Tulsa (más tarde conocido como Broadcast News of Mid-America, adquirido por el pionero de los comunicados de prensa en vídeo Medialink Worldwide Incorporated en 1997). [ cita necesaria ] La patente estadounidense 7.009.657 describe un "método y sistema para la recopilación y el acondicionamiento automático de texto de subtítulos que se originan en múltiples ubicaciones geográficas" tal como lo utilizan los servicios de monitoreo de noticias.

Conversaciones

Hay programas de software disponibles que generan automáticamente subtítulos de las conversaciones. Ejemplos de tales conversaciones incluyen discusiones en salas de conferencias, conferencias en el aula o servicios religiosos.

Sistemas de edición de vídeo no lineal y subtítulos

En 2010, Vegas Pro , el editor no lineal profesional, se actualizó para admitir la importación, edición y entrega de subtítulos CEA-608 . [53] Vegas Pro 10, lanzado el 11 de octubre de 2010, agregó varias mejoras al soporte de subtítulos. Los subtítulos CEA-608 similares a los de un televisor ahora se pueden mostrar como una superposición cuando se reproducen en las ventanas Vista previa y Recortador, lo que facilita verificar la ubicación, las ediciones y el tiempo de la información CC. Los subtítulos estilo CEA708 se crean automáticamente cuando se crean los datos CEA-608. Ahora se admiten los subtítulos de Line 21, así como la captura e impresión de subtítulos HD-SDI desde tarjetas AJA y Blackmagic Design . El soporte de la Línea 21 proporciona un flujo de trabajo para los medios heredados existentes. Otras mejoras incluyen una mayor compatibilidad con múltiples tipos de archivos de subtítulos, así como la capacidad de exportar datos de subtítulos para DVD Architect, YouTube, RealPlayer, QuickTime y Windows Media Player.

A mediados de 2009, Apple lanzó la versión 7 de Final Cut Pro y comenzó a admitir la inserción de datos de subtítulos en cintas maestras SD y HD a través de FireWire y tarjetas de captura de video compatibles. [54] Hasta ese momento, no era posible que los editores de video insertaran datos de subtítulos con CEA-608 y CEA-708 en sus cintas maestras. El flujo de trabajo típico incluía imprimir primero el vídeo SD o HD en una cinta y enviarlo a una empresa de servicios de subtítulos profesional que tuviera un codificador de hardware de subtítulos independiente.

Este nuevo flujo de trabajo de subtítulos conocido como e-Captioning implica crear un video proxy desde el sistema no lineal para importarlo a un software de subtítulos no lineales de terceros. Una vez completado el proyecto del software de subtítulos, se debe exportar un archivo de subtítulos compatible con el sistema de edición no lineal . En el caso de Final Cut Pro 7, se pueden aceptar tres formatos de archivo diferentes: un archivo .SCC (archivo de subtítulos cerrados de Scenarist) para video de definición estándar, una pista de subtítulos cerrados QuickTime 608 (una pista codificada 608 especial en el contenedor de archivos .mov ) para vídeo de definición estándar y, finalmente, una pista de subtítulos QuickTime 708 (una pista codificada 708 especial en el contenedor del archivo .mov) para salida de vídeo de alta definición.

Alternativamente, los sistemas de video Matrox idearon otro mecanismo para insertar datos de subtítulos al permitir que el editor de video incluya CEA-608 y CEA-708 en un canal de audio discreto en la línea de tiempo de edición de video. Esto permite una vista previa en tiempo real de los subtítulos durante la edición y es compatible con Final Cut Pro 6 y 7. [55]

Otros sistemas de edición no lineal admiten indirectamente subtítulos solo en la línea 21 de definición estándar. Los archivos de vídeo en la línea de tiempo de edición deben estar compuestos con una capa gráfica VBI de línea 21 conocida en la industria como "película negra" con datos de subtítulos. [56] Alternativamente, los editores de video que trabajan con los flujos de trabajo FireWire DV25 y DV50 deben codificar su archivo DV .avi o .mov con datos VAUX que incluyen datos de subtítulos CEA-608.

Logo

El logotipo actual y más familiar para los subtítulos consta de dos C (de "subtítulos") dentro de una pantalla de televisión. Fue creado en WGBH . El otro logotipo, registrado por el Instituto Nacional de Subtítulos , es el de una representación geométrica simple de un televisor fusionado con la cola de un globo de diálogo ; Existen dos versiones de este tipo: una con cola a la izquierda y otra con cola a la derecha. [57]

Ver también

Referencias

  1. ^ "4.8.10 El elemento de vía". Estándar HTML . Archivado desde el original el 6 de junio de 2013.
  2. ^ abcdefg "Una breve historia de la televisión subtitulada". Instituto Nacional de Subtitulado . Archivado desde el original el 19 de julio de 2011.
  3. ^ "Partido del día 2: el error de subtítulos de Newcastle deja a la BBC con la cara roja". BBC en línea . 2 de octubre de 2017 . Consultado el 2 de octubre de 2017 .
  4. ^ Gannon, Jack. 1981. Herencia de los sordos: una historia narrativa de los Estados Unidos de los sordos . Silver Spring, MD: Asociación Nacional de Sordos, págs. 384-387
  5. ^ "Hoy en la televisión", Chicago Daily Herald , 11 de marzo de 1980, sección 2-5
  6. ^ "Cruce en rotondas - Tablero de acceso de Estados Unidos". www.access-board.gov . Archivado desde el original el 5 de noviembre de 2020 . Consultado el 20 de julio de 2019 .
  7. ^ "Exenciones de implementación automática de las reglas de subtítulos". Comisión Federal de Comunicaciones . 8 de julio de 2011.
  8. ^ "Exención económicamente onerosa de los requisitos de subtítulos". Comisión Federal de Comunicaciones . 30 de mayo de 2017.
  9. ^ "Subtítulos en televisión". Comisión Federal de Comunicaciones . 6 de mayo de 2011.
  10. ^ "Parte 79 - Subtítulos de programación de vídeo". Archivado desde el original el 13 de mayo de 2004.
  11. ^ "Ley de accesibilidad a vídeos y comunicaciones del siglo XXI de 2010". 2010. Archivado desde el original el 26 de marzo de 2023 . Consultado el 28 de marzo de 2013 .
  12. ^ "Ley de accesibilidad a vídeos y comunicaciones del siglo XXI de 2010". 2010. Archivado desde el original el 26 de marzo de 2023 . Consultado el 28 de marzo de 2013 .
  13. ^ "La FCC avanza para mejorar la calidad de los subtítulos de televisión". 2014.
  14. ^ "Por qué los subtítulos están de repente en todas partes y cómo llegaron allí". NOTICIAS AP . 27 de junio de 2022.
  15. ^ Cada vez más ciudades exigen subtítulos en los televisores públicos. He aquí por qué eso es importante.
  16. ^ "La televisión filipina ofrecerá subtítulos: Kapisanan ng mga Brodkaster ng Pilipinas". www.kbp.org.ph.
  17. ^ Carl Lamiel (14 de octubre de 2017). "GMA y TV5 ahora transmiten programas con subtítulos". YugaTech . Consultado el 2 de febrero de 2019 .
  18. ^ "El legislador quiere subtítulos en inglés para PH TV y películas". Rappler . 6 de octubre de 2013 . Consultado el 6 de septiembre de 2019 .
  19. ^ Alex Varley (junio de 2008). "Presentación a la investigación del DBCDE sobre el acceso a medios electrónicos para personas con discapacidad auditiva y visual" (PDF) . Australia: Acceso a los medios de Australia. págs. 12, 18, 43. Archivado desde el original (PDF) el 26 de marzo de 2009 . Consultado el 7 de febrero de 2009 .
  20. ^ "Acerca de Media Access Australia". Australia: Acceso a los medios de Australia. Archivado desde el original el 1 de enero de 2009 . Consultado el 7 de febrero de 2009 .
  21. ^ "Acerca de Red Bee Media Australia". Australia: Red Bee Media Australia Pty Limited. Archivado desde el original el 13 de junio de 2009 . Consultado el 7 de febrero de 2009 .
  22. ^ [1] Ofcom, Reino Unido: servicios de acceso a televisión Archivado el 1 de junio de 2010 en Wayback Machine.
  23. ^ Alex Varley (junio de 2008). "Presentación a la investigación del DBCDE sobre el acceso a medios electrónicos para personas con discapacidad auditiva y visual" (PDF) . Australia: Acceso a los medios de Australia. pag. 16. Archivado desde el original (PDF) el 3 de diciembre de 2008 . Consultado el 29 de enero de 2009 . El uso de subtítulos y descripción de audio no se limita a personas sordas y ciegas. Los subtítulos se pueden utilizar en situaciones de sordera "temporal", como mirar televisores en áreas públicas donde se ha bajado el sonido (algo común en Estados Unidos y que comienza a aparecer más en Australia).
  24. ^ Consejo de Discapacidad del Alcalde (16 de mayo de 2008). "Resolución en apoyo de la ordenanza de la Junta de Supervisores que requiere la activación de subtítulos en televisores en áreas públicas". Ciudad y condado de San Francisco. Archivado desde el original el 28 de enero de 2009 . Consultado el 29 de enero de 2009 . que los receptores de televisión ubicados en cualquier parte de una instalación abierta al público en general tengan subtítulos activados en todo momento cuando la instalación esté abierta y el receptor de televisión esté en uso.
  25. ^ Alex Varley (18 de abril de 2005). "Acuerdo de conciliación entre los Estados Unidos y el Hospital Americano Noruego en virtud de la Ley de Estadounidenses con Discapacidades". Departamento de Justicia de EE. UU . Consultado el 29 de enero de 2009 . tendrá subtítulos operativos en todas las áreas públicas donde haya televisores con subtítulos; Los televisores en áreas públicas sin capacidad incorporada de subtítulos serán reemplazados por televisores que tengan dicha capacidad.
  26. ^ "mb21 - ether.net - Museo del Teletexto - Cronología". mb21.co.uk.
  27. ^ "Publicaciones" (PDF) . bbc.co.uk.Archivado (PDF) desde el original el 12 de octubre de 2006.
  28. ^ abc "Preguntas frecuentes sobre subtítulos". Archivado desde el original el 1 de septiembre de 2008 . Consultado el 31 de mayo de 2008 .- Preguntas frecuentes sobre subtítulos ocultos de ATSC (copia en caché archivada el 22 de marzo de 2006 en Wayback Machine )
  29. ^ "Soporte HDMI para 'subtítulos'".
  30. ^ "¿Qué tipos de cables admiten subtítulos?".
  31. ^ Steve barbero. "Comprensión de los subtítulos digitales".
  32. ^ Neil Bauman. "Obtener subtítulos en su nuevo televisor: lo bueno, lo malo y lo francamente frustrante".
  33. ^ Estuardo dulce. "¿Se pueden obtener subtítulos a través de HDMI con DIRECTV?".
  34. ^ "Compatibilidad con subtítulos en HDLink".
  35. ^ "ETSI EN 300 743: Transmisión de vídeo digital (DVB); Sistemas de subtitulado" (PDF) . Archivado (PDF) desde el original el 16 de diciembre de 2010.
  36. ^ "Pautas de subtítulos de la BBC". bbc.github.io . Archivado desde el original el 2019-10-20 . Consultado el 19 de julio de 2019 .
  37. ^ Jim Taylor. "Preguntas frecuentes sobre DVD". dvddemystified.com . Archivado desde el original el 22 de agosto de 2009.
  38. ^ Jim Taylor. "Preguntas frecuentes sobre DVD". dvddemystified.com . Archivado desde el original el 22 de agosto de 2009.
  39. ^ MKPE Consultoría LLC. "Habilitar a las personas con discapacidad en el cine digital". mkpe.com .
  40. ^ "Se ordenó a los Redskins continuar con los subtítulos". El Correo de Washington . 3 de octubre de 2008 . Consultado el 20 de julio de 2015 .
  41. ^ "El Cuarto Circuito sostiene que la ADA requiere un acceso ampliado al contenido auditivo en los estadios". 4 de abril de 2011.
  42. ^ "Salvavidas para personas con discapacidad auditiva en los estadios". ESPN.com . Consultado el 20 de julio de 2015 .
  43. ^ "Las tarjetas proporcionan subtítulos para sordos en el estadio". La República de Arizona . Consultado el 20 de julio de 2015 .
  44. ^ "Cartas". Próxima generación . Núm. 30. Imagine Media . Junio ​​de 1997. pág. 133.
  45. ^ Robson, Gary (1998). "Subtítulos de juegos de computadora".
  46. ^ "Subtítulos". google.com .
  47. ^ "Blog oficial de YouTube: El futuro será subtitulado: mejorar la accesibilidad en YouTube". Blog oficial de YouTube .
  48. ^ Lyons, Kim (31 de julio de 2020). "YouTube está finalizando su función de subtítulos comunitarios y los creadores sordos no están contentos con eso". El borde .
  49. ^ Nam, Tammy H. "El lamentable estado de los subtítulos". El Atlántico , 24 de junio de 2014. Consultado el 23 de diciembre de 2015.
  50. ^ "Blog oficial de YouTube: los servicios de subtítulos profesionales están listos para YouTube"". Blog oficial de YouTube .
  51. ^ "Plataforma de medios de Microsoft: marco del reproductor". CódigoPlex . Archivado desde el original el 23 de abril de 2011 . Consultado el 15 de mayo de 2011 .
  52. ^ "Stagetext.org". Archivado desde el original el 14 de agosto de 2007.
  53. ^ Sony Creative Software (abril de 2010): actualización de Vegas Pro 9.0d.
  54. ^ "Final Cut Pro X". Manzana . Archivado desde el original el 8 de junio de 2011.
  55. ^ "Software de subtítulos y subtítulos CPC para Matrox MXO2". Archivado desde el original el 16 de abril de 2010.
  56. ^ "Software de subtítulos y subtítulos CPC para editores no lineales (NLE)". Archivado desde el original el 16 de marzo de 2010.
  57. ^ "Logotipos del Instituto Nacional de Subtítulos". Archivado desde el original el 15 de febrero de 2008.
Fuentes

enlaces externos