stringtranslate.com

Código de corrección de errores

En informática , telecomunicaciones , teoría de la información y teoría de la codificación , la corrección de errores directa ( FEC ) o codificación de canales [1] [2] [3] es una técnica utilizada para controlar errores en la transmisión de datos a través de canales de comunicación ruidosos o poco confiables .

La idea central es que el remitente codifique el mensaje de forma redundante , generalmente mediante el uso de un código de corrección de errores o código de corrección de errores ( ECC ). [4] [5] La redundancia permite al receptor no sólo detectar errores que pueden ocurrir en cualquier parte del mensaje, sino que a menudo corrige un número limitado de errores. Por lo tanto, es posible que no sea necesario un canal inverso para solicitar la retransmisión. El costo es un ancho de banda de canal directo mayor y fijo.

El matemático estadounidense Richard Hamming fue pionero en este campo en la década de 1940 e inventó el primer código de corrección de errores en 1950: el código Hamming (7,4) . [5]

FEC se puede aplicar en situaciones donde las retransmisiones son costosas o imposibles, como enlaces de comunicación unidireccionales o cuando se transmite a múltiples receptores en multidifusión . Las conexiones de larga latencia también se benefician; En el caso de un satélite que orbita alrededor de Urano , la retransmisión debida a errores puede generar un retraso de cinco horas. FEC también se usa ampliamente en módems y redes celulares .

El procesamiento FEC en un receptor se puede aplicar a un flujo de bits digitales o en la demodulación de una portadora modulada digitalmente. Para este último, FEC es una parte integral de la conversión inicial de analógico a digital en el receptor. El decodificador Viterbi implementa un algoritmo de decisión suave para demodular datos digitales a partir de una señal analógica corrompida por ruido. Muchos decodificadores FEC también pueden generar una señal de tasa de error de bits (BER) que puede usarse como retroalimentación para ajustar la electrónica de recepción analógica.

La información FEC se agrega a dispositivos de almacenamiento masivo (magnéticos, ópticos y de estado sólido/flash) para permitir la recuperación de datos corruptos, y se utiliza como memoria de computadora ECC en sistemas que requieren disposiciones especiales para la confiabilidad.

La proporción máxima de errores o bits faltantes que se pueden corregir está determinada por el diseño del ECC, por lo que diferentes códigos de corrección de errores directos son adecuados para diferentes condiciones. En general, un código más fuerte induce una mayor redundancia que debe transmitirse utilizando el ancho de banda disponible, lo que reduce la tasa de bits efectiva al tiempo que mejora la relación señal-ruido efectiva recibida . El teorema de codificación de canales ruidosos de Claude Shannon se puede utilizar para calcular el ancho de banda de comunicación máximo alcanzable para una probabilidad de error máxima aceptable dada. Esto establece límites a la velocidad de transferencia de información máxima teórica de un canal con un nivel de ruido base determinado. Sin embargo, la prueba no es constructiva y, por lo tanto, no proporciona información sobre cómo desarrollar una capacidad para lograr código. Después de años de investigación, algunos sistemas FEC avanzados como el código polar [3] se acercan mucho al máximo teórico dado por la capacidad del canal de Shannon bajo la hipótesis de un marco de longitud infinita.

Método

ECC se logra agregando redundancia a la información transmitida mediante un algoritmo. Un bit redundante puede ser una función complicada de muchos bits de información originales. La información original puede aparecer o no literalmente en la salida codificada; Los códigos que incluyen la entrada no modificada en la salida son sistemáticos , mientras que los que no lo hacen no son sistemáticos .

Un ejemplo simplista de ECC es transmitir cada bit de datos 3 veces, lo que se conoce como código de repetición (3,1) . A través de un canal ruidoso, un receptor puede ver 8 versiones de la salida; consulte la tabla a continuación.

Esto permite corregir un error en cualquiera de las tres muestras mediante "voto mayoritario" o "votación democrática". La capacidad correctora de este ECC es:

Aunque es fácil de implementar y ampliamente utilizada, esta triple redundancia modular es una ECC relativamente ineficiente. Los mejores códigos ECC normalmente examinan las últimas decenas o incluso los últimos cientos de bits recibidos previamente para determinar cómo decodificar el pequeño puñado de bits actual (normalmente en grupos de 2 a 8 bits).

Promedio de ruido para reducir errores

Se podría decir que ECC funciona mediante "promediado de ruido"; Dado que cada bit de datos afecta a muchos símbolos transmitidos, la corrupción de algunos símbolos por el ruido generalmente permite que los datos de usuario originales se extraigan de otros símbolos recibidos no corrompidos que también dependen de los mismos datos de usuario.

La mayoría de los sistemas de telecomunicaciones utilizan un código de canal fijo diseñado para tolerar la tasa de error de bits esperada en el peor de los casos , y luego no funcionan en absoluto si la tasa de error de bits es cada vez peor. Sin embargo, algunos sistemas se adaptan a las condiciones de error del canal dadas: algunos casos de solicitud de repetición automática híbrida utilizan un método ECC fijo siempre que el ECC pueda manejar la tasa de error, luego cambian a ARQ cuando la tasa de error aumenta demasiado; La modulación y codificación adaptativa utiliza una variedad de tasas de ECC, agregando más bits de corrección de errores por paquete cuando hay tasas de error más altas en el canal, o eliminándolos cuando no son necesarios.

Tipos

Un código de bloque (específicamente un código Hamming ) donde se agregan bits redundantes como un bloque al final del mensaje inicial.
Un código convolucional continuo donde se agregan continuamente bits redundantes a la estructura de la palabra código.

Las dos categorías principales de códigos ECC son códigos de bloque y códigos convolucionales .

Existen muchos tipos de códigos de bloqueo; La codificación Reed-Solomon destaca por su uso generalizado en discos compactos , DVD y unidades de disco duro . Otros ejemplos de códigos de bloques clásicos incluyen los códigos Golay , BCH , paridad multidimensional y Hamming .

Hamming ECC se utiliza comúnmente para corregir errores de memoria flash NAND . [6] Esto proporciona corrección de errores de un solo bit y detección de errores de 2 bits. Los códigos Hamming solo son adecuados para NAND de celda de un solo nivel (SLC) más confiable. La NAND de celda multinivel (MLC) más densa puede utilizar ECC de corrección de múltiples bits, como BCH o Reed-Solomon. [7] [8] NOR Flash normalmente no utiliza ninguna corrección de errores. [7]

Los códigos de bloque clásicos generalmente se decodifican utilizando algoritmos de decisión estricta , [9] lo que significa que para cada señal de entrada y salida se toma una decisión estricta si corresponde a un bit uno o cero. Por el contrario, los códigos convolucionales normalmente se decodifican utilizando algoritmos de decisión suave como los algoritmos de Viterbi, MAP o BCJR , que procesan señales analógicas (discretizadas) y que permiten un rendimiento de corrección de errores mucho mayor que la decodificación de decisión dura.

Casi todos los códigos de bloques clásicos aplican las propiedades algebraicas de campos finitos . De ahí que los códigos de bloques clásicos a menudo se denominen códigos algebraicos.

A diferencia de los códigos de bloque clásicos que a menudo especifican una capacidad de detección o corrección de errores, muchos códigos de bloque modernos, como los códigos LDPC, carecen de tales garantías. En cambio, los códigos modernos se evalúan en términos de sus tasas de error de bits.

La mayoría de los códigos de corrección de errores directos corrigen sólo los cambios de bits, pero no las inserciones o eliminaciones de bits. En esta configuración, la distancia de Hamming es la forma adecuada de medir la tasa de error de bits . Algunos códigos de corrección de errores directos están diseñados para corregir inserciones y eliminaciones de bits, como códigos de marcador y códigos de marca de agua. La distancia de Levenshtein es una forma más apropiada de medir la tasa de error de bits cuando se utilizan dichos códigos. [10]

Velocidad de código y equilibrio entre confiabilidad y velocidad de datos

El principio fundamental de ECC es agregar bits redundantes para ayudar al decodificador a descubrir el verdadero mensaje codificado por el transmisor. La velocidad de código de un sistema ECC determinado se define como la relación entre el número de bits de información y el número total de bits (es decir, información más bits de redundancia) en un paquete de comunicación determinado. La tasa de código es, por tanto, un número real. Una tasa de código baja cercana a cero implica un código fuerte que utiliza muchos bits redundantes para lograr un buen rendimiento, mientras que una tasa de código grande cercana a 1 implica un código débil.

Los bits redundantes que protegen la información deben transferirse utilizando los mismos recursos de comunicación que intentan proteger. Esto provoca un equilibrio fundamental entre confiabilidad y velocidad de datos. [11] En un extremo, un código fuerte (con una tasa de código baja) puede inducir un aumento importante en la SNR (relación señal-ruido) del receptor, disminuyendo la tasa de error de bits, a costa de reducir la tasa de datos efectiva. . En el otro extremo, al no utilizar ningún ECC (es decir, una tasa de código igual a 1), se utiliza el canal completo para fines de transferencia de información, a costa de dejar los bits sin ninguna protección adicional.

Una pregunta interesante es la siguiente: ¿qué tan eficiente en términos de transferencia de información puede ser una ECC que tenga una tasa de error de decodificación insignificante? Esta pregunta fue respondida por Claude Shannon con su segundo teorema, que dice que la capacidad del canal es la velocidad de bits máxima alcanzable por cualquier ECC cuya tasa de error tienda a cero: [12] Su prueba se basa en la codificación aleatoria gaussiana, que no es adecuada para aplicaciones del mundo real. El límite superior propuesto por el trabajo de Shannon inspiró un largo viaje en el diseño de ECC que puedan acercarse al límite máximo de rendimiento. Actualmente, varios códigos pueden alcanzar casi el límite de Shannon. Sin embargo, la capacidad para lograr ECC suele ser extremadamente compleja de implementar.

Los ECC más populares tienen un equilibrio entre rendimiento y complejidad computacional. Por lo general, sus parámetros proporcionan una variedad de velocidades de código posibles, que se pueden optimizar según el escenario. Por lo general, esta optimización se realiza para lograr una baja probabilidad de error de decodificación y al mismo tiempo minimizar el impacto en la velocidad de datos. Otro criterio para optimizar la tasa de código es equilibrar la baja tasa de error y el número de retransmisiones con el coste de energía de la comunicación. [13]

Códigos ECC concatenados para mejorar el rendimiento

Los códigos de bloque clásicos (algebraicos) y los códigos convolucionales se combinan frecuentemente en esquemas de codificación concatenados en los que un código convolucional decodificado por Viterbi de longitud limitada corta hace la mayor parte del trabajo y un código de bloque (generalmente Reed-Solomon) con un tamaño de símbolo y una longitud de bloque mayores. "limpia" cualquier error cometido por el decodificador convolucional. La decodificación de un solo paso con esta familia de códigos de corrección de errores puede producir tasas de error muy bajas, pero para condiciones de transmisión de largo alcance (como el espacio profundo) se recomienda la decodificación iterativa.

Los códigos concatenados han sido una práctica estándar en las comunicaciones por satélite y en el espacio profundo desde que la Voyager 2 utilizó por primera vez la técnica en su encuentro con Urano en 1986 . La nave Galileo utilizó códigos concatenados iterativos para compensar las condiciones de tasa de error muy alta causadas por tener una antena defectuosa.

Verificación de paridad de baja densidad (LDPC)

Los códigos de verificación de paridad de baja densidad (LDPC) son una clase de códigos de bloque lineales altamente eficientes elaborados a partir de muchos códigos de verificación de paridad única (SPC). Pueden proporcionar un rendimiento muy cercano a la capacidad del canal (el máximo teórico) utilizando un enfoque de decodificación de decisión suave iterada, con una complejidad de tiempo lineal en términos de la longitud de su bloque. Las implementaciones prácticas dependen en gran medida de la decodificación de los códigos SPC constituyentes en paralelo.

Los códigos LDPC fueron introducidos por primera vez por Robert G. Gallager en su tesis doctoral en 1960, pero debido al esfuerzo computacional en la implementación del codificador y decodificador y la introducción de los códigos Reed-Solomon , fueron ignorados en su mayoría hasta la década de 1990.

Los códigos LDPC se utilizan ahora en muchos estándares recientes de comunicación de alta velocidad, como DVB-S2 (Difusión de vídeo digital – Satélite – Segunda generación), WiMAX ( estándar IEEE 802.16e para comunicaciones por microondas), LAN inalámbrica de alta velocidad ( IEEE 802.11n ), [14] 10GBase-T Ethernet (802.3an) y G.hn/G.9960 (Estándar ITU-T para redes a través de líneas eléctricas, líneas telefónicas y cable coaxial). Otros códigos LDPC están estandarizados para estándares de comunicación inalámbrica dentro de 3GPP MBMS (ver códigos fuente ).

códigos turbo

La codificación turbo es un esquema iterado de decodificación suave que combina dos o más códigos convolucionales relativamente simples y un entrelazador para producir un código de bloque que puede funcionar dentro de una fracción de un decibelio del límite de Shannon . Son anteriores a los códigos LDPC en términos de aplicación práctica y ahora ofrecen un rendimiento similar.

Una de las primeras aplicaciones comerciales de codificación turbo fue la tecnología celular digital CDMA2000 1x (TIA IS-2000) desarrollada por Qualcomm y vendida por Verizon Wireless , Sprint y otros operadores. También se utiliza para la evolución de CDMA2000 1x específicamente para acceso a Internet, 1xEV-DO (TIA IS-856). Al igual que 1x, EV-DO fue desarrollado por Qualcomm y lo venden Verizon Wireless , Sprint y otros operadores (el nombre comercial de Verizon para 1xEV-DO es Broadband Access , los nombres comerciales de Sprint para consumidores y empresas para 1xEV-DO son Power Vision y Mobile). Banda Ancha , respectivamente).

Decodificación local y prueba de códigos.

A veces sólo es necesario decodificar bits individuales del mensaje, o comprobar si una señal determinada es una palabra en clave, y hacerlo sin mirar la señal completa. Esto puede tener sentido en un entorno de transmisión por secuencias, donde las palabras en clave son demasiado grandes para ser descodificadas de forma clásica con la suficiente rapidez y donde por ahora sólo interesan unos pocos fragmentos del mensaje. Además, estos códigos se han convertido en una herramienta importante en la teoría de la complejidad computacional , por ejemplo, para el diseño de pruebas comprobables probabilísticamente .

Los códigos decodificables localmente son códigos de corrección de errores para los cuales bits individuales del mensaje pueden recuperarse probabilísticamente con solo observar un número pequeño (digamos constante) de posiciones de una palabra clave, incluso después de que la palabra clave se haya corrompido en alguna fracción constante de posiciones. Los códigos comprobables localmente son códigos de corrección de errores para los cuales se puede verificar probabilísticamente si una señal está cerca de una palabra de código mirando solo un pequeño número de posiciones de la señal.

No todos los códigos de prueba se decodifican y prueban localmente

No todos los códigos decodificables localmente (LDC) son códigos comprobables localmente (LTC) [15] ni los códigos corregibles localmente (LCC), [16] Los LCC de consulta q están limitados exponencialmente [17] [18], mientras que los PMA pueden tener longitudes subexponenciales . [19] [20]

Intercalado

Una breve ilustración de la idea de entrelazado.

El entrelazado se utiliza con frecuencia en sistemas de almacenamiento y comunicación digital para mejorar el rendimiento de los códigos de corrección de errores directos. Muchos canales de comunicación no carecen de memoria: los errores suelen ocurrir en ráfagas y no de forma independiente. Si el número de errores dentro de una palabra de código excede la capacidad del código de corrección de errores, no podrá recuperar la palabra de código original. El entrelazado alivia este problema al mezclar los símbolos fuente en varias palabras de código, creando así una distribución más uniforme de errores. [21] Por lo tanto, el entrelazado se utiliza ampliamente para la corrección de errores en ráfagas .

El análisis de códigos iterados modernos, como códigos turbo y códigos LDPC , normalmente supone una distribución independiente de errores. [22] Por lo tanto, los sistemas que utilizan códigos LDPC suelen emplear un entrelazado adicional entre los símbolos dentro de una palabra de código. [23]

Para los códigos turbo, un intercalador es un componente integral y su diseño adecuado es crucial para un buen rendimiento. [21] [24] El algoritmo de decodificación iterativa funciona mejor cuando no hay ciclos cortos en el gráfico de factores que representa el decodificador; El intercalador se elige para evitar ciclos cortos.

Los diseños de intercaladores incluyen:

En sistemas de comunicación de múltiples portadoras , se puede emplear el entrelazado entre portadoras para proporcionar diversidad de frecuencia , por ejemplo, para mitigar el desvanecimiento selectivo de frecuencia o la interferencia de banda estrecha. [28]

Ejemplo

Transmisión sin entrelazado :

Mensaje sin errores: aaaabbbbccccdddeeeeffffggggTransmisión con error de ráfaga: aaaabbbbccc____deeeeffffgggg

Aquí, cada grupo de la misma letra representa una palabra clave de corrección de errores de un bit y 4 bits. La palabra clave cccc se modifica en un bit y se puede corregir, pero la palabra clave dddd se modifica en tres bits, por lo que no se puede decodificar en absoluto o puede que se decodifica incorrectamente .

Con intercalado :

Palabras de código sin errores: aaaabbbbccccddddeeeeffffggggIntercalado: abcdefgabcdefgabcdefgabcdefgTransmisión con error de ráfaga: abcdefgabcd____bcdefgabcdefgPalabras de código recibidas después del desintercalado: aa_abbbbccccdddde_eef_ffg_gg

En cada una de las palabras en clave "aaaa", "eeee", "ffff" y "gggg", sólo se modifica un bit, por lo que el código de corrección de errores de un bit decodificará todo correctamente.

Transmisión sin entrelazado :

Oración original transmitida: ThisIsAnExampleOfInterleavingFrase recibida con un error de ráfaga: ThisIs______pleOfInterleaving

El término "Un ejemplo" resulta en su mayor parte ininteligible y difícil de corregir.

Con intercalado :

Oración transmitida: ThisIsAnExampleOfInterleaving...Transmisión sin errores: TIEpfeaghsxlIrv.iAaenli.snmOten.Frase recibida con un error de ráfaga: TIEpfe______Irv.iAaenli.snmOten.Frase recibida después del desintercalado: T_isI_AnE_amp_eOfInterle_vin_...

Ninguna palabra se pierde por completo y las letras que faltan se pueden recuperar con un mínimo de conjeturas.

Desventajas del entrelazado

El uso de técnicas de entrelazado aumenta el retraso total. Esto se debe a que se debe recibir todo el bloque entrelazado antes de que se puedan decodificar los paquetes. [29] También los entrelazadores ocultan la estructura de los errores; Sin un entrelazador, los algoritmos de decodificación más avanzados pueden aprovechar la estructura de error y lograr una comunicación más confiable que un decodificador más simple combinado con un entrelazador [ cita necesaria ] . Un ejemplo de tal algoritmo se basa en estructuras de redes neuronales [30] .

Software para códigos de corrección de errores

Simular el comportamiento de los códigos de corrección de errores (ECC) en el software es una práctica común para diseñar, validar y mejorar los ECC. El próximo estándar inalámbrico 5G plantea una nueva gama de aplicaciones para los ECC de software: las redes de acceso a radio en la nube (C-RAN) en un contexto de radio definida por software (SDR) . La idea es utilizar directamente software ECC en las comunicaciones. Por ejemplo, en 5G, los ECC de software podrían ubicarse en la nube y las antenas conectarse a estos recursos informáticos: mejorando de esta manera la flexibilidad de la red de comunicación y, eventualmente, aumentando la eficiencia energética del sistema.

En este contexto, hay varios programas de código abierto disponibles que se enumeran a continuación (no exhaustivos).

Lista de códigos de corrección de errores

Ver también

Referencias

  1. ^ Carlos Wang; el decano Sklar; Diana Johnson (invierno de 2001-2002). "Codificación de corrección de errores hacia adelante". Enlace cruzado . 3 (1). La Corporación Aeroespacial. Archivado desde el original el 14 de marzo de 2012 . Consultado el 5 de marzo de 2006 .
  2. ^ Carlos Wang; el decano Sklar; Diana Johnson (invierno de 2001-2002). "Codificación de corrección de errores hacia adelante". Enlace cruzado . 3 (1). La Corporación Aeroespacial. Archivado desde el original el 14 de marzo de 2012 . Consultado el 5 de marzo de 2006 . Cómo funcionan los códigos de corrección de errores de reenvío]
  3. ^ ab Maunder, Robert (2016). "Descripción general de la codificación de canales".
  4. ^ Glover, Neal; Dudley, Trento (1990). Diseño práctico de corrección de errores para ingenieros (Revisión 1.1, 2ª ed.). CO, EE.UU.: Cirrus Logic . ISBN 0-927239-00-0.
  5. ^ ab Hamming, Richard Wesley (abril de 1950). "Códigos de detección y corrección de errores". Revista técnica del sistema Bell . 29 (2). Estados Unidos: AT&T : 147–160. doi :10.1002/j.1538-7305.1950.tb00463.x. S2CID  61141773.
  6. «Códigos Hamming para dispositivos de memoria flash NAND» Archivado el 21 de agosto de 2016 en Wayback Machine . EE Times-Asia. Aparentemente basado en la "Nota técnica de Micron TN-29-08: Códigos Hamming para dispositivos de memoria flash NAND" Archivado el 29 de agosto de 2017 en Wayback Machine . 2005. Ambos dicen: "El algoritmo Hamming es un método aceptado en la industria para la detección y corrección de errores en muchas aplicaciones basadas en flash SLC NAND".
  7. ^ ab "¿Qué tipos de ECC se deben utilizar en la memoria flash?" (Nota de aplicación) . Espansión. 2011. Tanto el algoritmo Reed-Solomon como el algoritmo BCH son opciones ECC comunes para flash MLC NAND. ... Los códigos de bloque basados ​​en Hamming son el ECC más utilizado para SLC... tanto Reed-Solomon como BCH son capaces de manejar múltiples errores y se utilizan ampliamente en flash MLC.
  8. ^ Jim Cooke (agosto de 2007). "Las verdades incómodas de la memoria flash NAND" (PDF) . pag. 28. Para SLC, es suficiente un código con un umbral de corrección de 1. t=4 requerido... para MLC.
  9. ^ Baldi, M.; Chiaraluce, F. (2008). "Un esquema simple para la decodificación de propagación de creencias de códigos BCH y RS en transmisiones multimedia". Revista Internacional de Radiodifusión Multimedia Digital . 2008 : 1–12. doi : 10.1155/2008/957846 .
  10. ^ Shah, Gaurav; Molina, Andrés; Resplandor, Matt (2006). "Teclados y canales encubiertos". USENIX . Consultado el 20 de diciembre de 2018 .
  11. ^ Tse, David; Viswanath, Pramod (2005), Fundamentos de la comunicación inalámbrica , Cambridge University Press , Reino Unido
  12. ^ Shannon, CE (1948). "Una teoría matemática de la comunicación" (PDF) . Revista técnica del sistema Bell . 27 (3–4): 379–423 y 623–656. doi :10.1002/j.1538-7305.1948.tb01338.x. hdl : 11858/00-001M-0000-002C-4314-2 .
  13. ^ Rosas, F.; Brante, G.; Sousa, RD; Oberli, C. (2014). "Optimización de la tasa de código para lograr comunicaciones inalámbricas energéticamente eficientes". Actas de la Conferencia de redes y comunicaciones inalámbricas IEEE (WCNC) . págs. 775–780. doi :10.1109/WCNC.2014.6952166. ISBN 978-1-4799-3083-8.
  14. ^ Estándar IEEE, sección 20.3.11.6 "802.11n-2009" Archivado el 3 de febrero de 2013 en Wayback Machine , IEEE, 29 de octubre de 2009, consultado el 21 de marzo de 2011.
  15. ^ Kaufman, Tali ; Viderman, Michael. "Códigos comprobables localmente frente a códigos decodificables localmente".
  16. ^ Brubaker, Ben (9 de enero de 2024). "El esquema de corrección de errores 'mágico' demostró ser inherentemente ineficiente" . Revista Quanta . Consultado el 9 de enero de 2024 .
  17. ^ Kothari, Pravesh K.; Manohar, Peter (2023). "Un límite inferior exponencial para códigos lineales de 3 consultas corregibles localmente". arXiv : 2311.00558 [cs.CC].
  18. ^ Kerenidis, Iordanis; de Wolf, Ronald (9 de junio de 2003). "Límite inferior exponencial para códigos decodificables localmente de 2 consultas mediante un argumento cuántico". Actas del trigésimo quinto simposio anual de ACM sobre teoría de la informática . ACM. págs. 106-115. arXiv : quant-ph/0208062 . doi :10.1145/780542.780560. ISBN 978-1-58113-674-6. S2CID  10585919.
  19. ^ Yekhanin, Sergey (febrero de 2008). "Hacia códigos decodificables localmente de 3 consultas de longitud subexponencial". Revista de la ACM . 55 (1): 1–16. doi :10.1145/1326554.1326555. ISSN  0004-5411. S2CID  14617710.
  20. ^ Efremenko, Klim (31 de mayo de 2009). "Códigos decodificables localmente de 3 consultas de longitud subexponencial". Actas del cuadragésimo primer simposio anual de ACM sobre teoría de la informática . ACM. págs. 39–44. doi :10.1145/1536414.1536422. ISBN 978-1-60558-506-2. S2CID  263865692. {{cite book}}: |journal=ignorado ( ayuda )
  21. ^ abVucetic , B.; Yuan, J. (2000). Códigos turbo: principios y aplicaciones . Springer Verlag . ISBN 978-0-7923-7868-6.
  22. ^ Luby, Michael ; Mitzenmacher, M.; Shokrollahi, A.; Spielman, D.; Stemann, V. (1997). "Códigos prácticos resistentes a pérdidas". Proc. 29º Simposio anual de la Asociación de Maquinaria de Computación (ACM) sobre Teoría de la Computación .
  23. ^ "Difusión de vídeo digital (DVB); estructura de encuadre de segunda generación, sistemas de modulación y codificación de canales para radiodifusión, servicios interactivos, recopilación de noticias y otras aplicaciones de banda ancha por satélite (DVB-S2)". En 302 307 (V1.2.1). ETSI . Abril de 2009.
  24. ^ Andrews, Kansas; Divsalar, D.; Dolinar, S.; Hamkins, J.; Jones, CR; Pollara, F. (noviembre de 2007). "El desarrollo de códigos Turbo y LDPC para aplicaciones del espacio profundo". Actas del IEEE . 95 (11): 2142–2156. doi :10.1109/JPROC.2007.905132. S2CID  9289140.
  25. ^ Dolinar, S.; Divsalar, D. (15 de agosto de 1995). "Distribuciones de peso para códigos Turbo utilizando permutaciones aleatorias y no aleatorias". Informe de progreso de la TDA . 122 : 42–122. Código Bib : 1995TDAPR.122...56D. CiteSeerX 10.1.1.105.6640 . 
  26. ^ Takeshita, Óscar (2006). "Intercaladores polinómicos de permutación: una perspectiva algebraico-geométrica". Transacciones IEEE sobre teoría de la información . 53 (6): 2116–2132. arXiv : cs/0601048 . Código Bib : 2006cs.......1048T. doi :10.1109/TIT.2007.896870. S2CID  660.
  27. ^ 3GPP TS 36.212, versión 8.8.0, página 14
  28. ^ "Difusión de vídeo digital (DVB); estructura de trama, codificación de canales y modulación para un sistema de difusión de televisión digital terrestre de segunda generación (DVB-T2)". En 302 755 (V1.1.1). ETSI . Septiembre de 2009.
  29. ^ Techie (3 de junio de 2010). "Explicación del entrelazado". Blog técnico de W3 . Consultado el 3 de junio de 2010 .
  30. ^ Krastanov, Stefan; Jiang, Liang (8 de septiembre de 2017). "Decodificador probabilístico de redes neuronales profundas para códigos estabilizadores". Informes científicos . 7 (1): 11003. arXiv : 1705.09334 . Código Bib : 2017NatSR...711003K. doi : 10.1038/s41598-017-11266-1 . PMC 5591216 . PMID  28887480. 
  31. ^ Nordstrom, AW; Robinson, JP (1967), "Un código no lineal óptimo", Información y control , 11 (5–6): 613–616, doi : 10.1016/S0019-9958(67)90835-2
  32. ^ Perry, Jonathan; Balakrishnan, Hari; Shah, Devavrat (2011). "Códigos espinales sin tasa". Actas del décimo taller de ACM sobre temas candentes en redes . págs. 1–6. doi :10.1145/2070562.2070568. hdl : 1721.1/79676 . ISBN 9781450310598.

Otras lecturas

enlaces externos