A grandes rasgos, codificar es transformar una información en una señal convenida para su comunicación.
Decodificar sería el proceso inverso y complementario del anterior por el cual la señal comunicada es transformada en la información original.
Puesto que los códigos se usan para comunicar información, uno de los problemas a los que todo código se enfrenta es el error sistemático y, también, el fortuito.
Los lenguajes humanos tienen una gran redundancia que les da flexibilidad a costa, eso sí, de eficacia.
Un ejemplo típico y vistoso es cuando se envía una nave espacial a los confines del sistema solar y desde allí debe enviar una serie de fotografías antes de que se le acaben, digamos, las pilas.
Se trata de una situación delicada, porque si las ondas electromagnéticas que portan la información llegan distorsionadas toda la misión fracasa.
Es necesario algo más, un código no solo detector sino corrector de errores.
Por ejemplo, el sistema de codificación más sencillo puede consistir en que un "0" se representa un "no" y con un "1" un sí.
En este caso, si quiero transmitir un "si", y se comete un error al transmitir un "0" en vez del "1", el receptor del mensaje hará lo opuesto a lo pedido.
Pero si en cambio se conviene que "00" sea "no" y "11" sea "sí", entonces, si se comete un error en un dígito, y por ejemplo el receptor recibe un "01", detectará que hubo un error, aunque no sabrá cual es el mensaje correcto.
En cambio si la convención es que "000" es "no" y "111" un sí, y se supiese que al transmitir un mensaje solo es posible, por la metodología utilizada, cometer un solo error de dígito, entonces, si al recibir un "001", el receptor sabrá que se trata de un "no".
es un alfabeto de D "letras", ¿qué código debe asignársele a la palabra
usando "letras" del alfabeto de tal manera que se consiga una codificación tan económica como sea posible?
El autor de un mensaje cifrado compartió la técnica de decodificación necesaria para recuperar la información original solo con los destinatarios previstos, evitando así que personas no deseadas hicieran lo mismo.
Desde la Primera Guerra Mundial y el advenimiento del ordenador, los métodos utilizados para llevar a cabo la criptología se han vuelto cada vez más complejos y su aplicación más extendida.
La criptografía moderna se basa en gran medida en la teoría matemática y la práctica informática; Los algoritmos criptográficos están diseñados en torno a suposiciones de dureza computacional, lo que hace que dichos algoritmos sean difíciles de romper en la práctica por parte de cualquier adversario.
En teoría, es posible romper un sistema de este tipo, pero no es factible hacerlo por ningún medio práctico conocido.
Por lo tanto, estos esquemas se denominan computacionalmente seguros; Los avances teóricos, por ejemplo, las mejoras en los algoritmos de factorización de enteros y la tecnología informática más rápida requieren que estas soluciones se adapten continuamente.
La codificación de línea consiste en representar la señal digital para ser transportada por una señal discreta de amplitud y tiempo que está sintonizada de manera óptima para las propiedades específicas del canal físico (y del equipo receptor).
En el receptor se realiza un proceso de demodulación para recuperar los datos.
Si los bits de verificación no son consistentes con el resto del mensaje cuando llega, el receptor le pedirá al remitente que retransmita el mensaje.
Los protocolos comunes incluyen SDLC (IBM), TCP (Internet), X.25 (Internacional) y muchos otros.
Existe un amplio campo de investigación sobre este tema debido al problema de hacer coincidir un paquete rechazado con un paquete nuevo.
Normalmente se utilizan esquemas de numeración, como en TCP.
[7] Para las pruebas en grupo se usa códigos de una manera diferente.
El origen del problema tiene sus raíces en la Segunda Guerra Mundial cuando las Fuerzas Aéreas del Ejército de los Estados Unidos necesitaban examinar a sus soldados para detectar sífilis.
El objetivo principal de estudiar la codificación neuronal es caracterizar la relación entre el estímulo y las respuestas neuronales individuales o grupales y la relación entre la actividad eléctrica de las neuronas en el conjunto.
La detección de las características estadísticas de un texto también permite verificar, incluso sin entender su lenguaje, si un texto ha tenido más de un autor (puede decirse que el todavía indescifrado Manuscrito Voynich tenía dos autores distintos).
El ingeniero Jean-Jacques Walter también llevó a cabo este análisis sobre el texto del Corán y defendió una tesis según la cual le atribuyó varias docenas de autores (al menos 30 autores diferentes, probablemente 50, como máximo 100), inicialmente en varios idiomas, durante un período de doscientos años.