Los datos digitales se pueden contrastar con los datos analógicos , que se representan mediante un valor de un rango continuo de números reales . Los datos analógicos se transmiten mediante una señal analógica , que no solo adopta valores continuos, sino que también puede variar continuamente con el tiempo, una función continua de valor real del tiempo. Un ejemplo es la variación de la presión del aire en una onda de sonido .
La palabra digital proviene de la misma fuente que las palabras dígito y digitus (la palabra latina para dedo ), ya que los dedos se utilizan a menudo para contar. El matemático George Stibitz de Bell Telephone Laboratories utilizó la palabra digital en referencia a los pulsos eléctricos rápidos emitidos por un dispositivo diseñado para apuntar y disparar cañones antiaéreos en 1942. [1] El término se usa más comúnmente en informática y electrónica , especialmente donde la información del mundo real se convierte a forma numérica binaria como en audio digital y fotografía digital .
Un dispositivo de entrada de símbolos generalmente consta de un grupo de interruptores que se sondean a intervalos regulares para ver qué interruptores están activados. Los datos se perderán si, dentro de un solo intervalo de sondeo, se presionan dos interruptores, o se presiona un interruptor, se suelta y se presiona nuevamente. Este sondeo puede ser realizado por un procesador especializado en el dispositivo para evitar sobrecargar la CPU principal . [2] Cuando se ingresa un nuevo símbolo, el dispositivo generalmente envía una interrupción , en un formato especializado, para que la CPU pueda leerlo.
En el caso de dispositivos con solo unos pocos interruptores (como los botones de un joystick ), el estado de cada uno se puede codificar como bits (normalmente 0 para los que se han soltado y 1 para los que se han presionado) en una sola palabra. Esto resulta útil cuando las combinaciones de pulsaciones de teclas son significativas y, a veces, se utiliza para pasar el estado de las teclas modificadoras de un teclado (como Shift y Control). Pero no se puede escalar para admitir más teclas que la cantidad de bits en un solo byte o palabra.
Los dispositivos con muchos interruptores (como un teclado de computadora ) generalmente disponen estos interruptores en una matriz de escaneo, con los interruptores individuales en las intersecciones de las líneas x e y. Cuando se presiona un interruptor, conecta las líneas x e y correspondientes entre sí. El sondeo (a menudo llamado escaneo en este caso) se realiza activando cada línea x en secuencia y detectando qué líneas y tienen una señal , es decir, qué teclas se presionan. Cuando el procesador del teclado detecta que una tecla ha cambiado de estado, envía una señal a la CPU indicando el código de escaneo de la tecla y su nuevo estado. Luego, el símbolo se codifica o se convierte en un número según el estado de las teclas modificadoras y la codificación de caracteres deseada .
Se puede utilizar una codificación personalizada para una aplicación específica sin pérdida de datos. Sin embargo, utilizar una codificación estándar como ASCII es problemático si se necesita convertir un símbolo como "ß" que no está en el estándar.
Se estima que en el año 1986 menos del 1% de la capacidad tecnológica mundial para almacenar información era digital y en 2007 ya era del 94%. [3] Se supone que el año 2002 fue el año en que la humanidad fue capaz de almacenar más información en formato digital que en analógico (el "inicio de la era digital "). [4] [5]
Toda información digital posee propiedades comunes que la distinguen de los datos analógicos con respecto a las comunicaciones:
Sincronización: dado que la información digital se transmite mediante la secuencia en la que se ordenan los símbolos, todos los esquemas digitales tienen algún método para determinar el comienzo de una secuencia. En los lenguajes humanos escritos o hablados, la sincronización suele proporcionarse mediante pausas (espacios), mayúsculas y puntuación . Las comunicaciones entre máquinas suelen utilizar secuencias de sincronización especiales .
Lenguaje: Toda comunicación digital requiere un lenguaje formal , que en este contexto consiste en toda la información que tanto el emisor como el receptor de la comunicación digital deben poseer de antemano para que la comunicación sea exitosa. Los lenguajes son generalmente arbitrarios y especifican el significado que se debe asignar a secuencias de símbolos particulares, el rango de valores permitido, los métodos que se deben utilizar para la sincronización, etc.
Errores: Las perturbaciones ( ruido ) en las comunicaciones analógicas introducen invariablemente alguna desviación o error, generalmente pequeño, entre la comunicación prevista y la comunicación real. Las perturbaciones en la comunicación digital sólo dan lugar a errores cuando la perturbación es tan grande que hace que un símbolo se interprete erróneamente como otro símbolo o que altere la secuencia de símbolos. Por lo general, es posible tener una comunicación digital casi libre de errores. Además, se pueden utilizar técnicas como los códigos de verificación para detectar errores y corregirlos mediante redundancia o retransmisión. Los errores en las comunicaciones digitales pueden adoptar la forma de errores de sustitución, en los que un símbolo se sustituye por otro símbolo, o errores de inserción/eliminación , en los que se inserta o elimina un símbolo incorrecto adicional de un mensaje digital. Los errores no corregidos en las comunicaciones digitales tienen un impacto impredecible y generalmente grande en el contenido de información de la comunicación.
Copia : Debido a la inevitable presencia de ruido, no es posible realizar muchas copias sucesivas de una comunicación analógica, ya que cada generación aumenta el ruido. Como las comunicaciones digitales generalmente no tienen errores, se pueden realizar copias de copias indefinidamente.
Granularidad : La representación digital de un valor analógico continuamente variable normalmente implica una selección del número de símbolos que se asignarán a ese valor. El número de símbolos determina la precisión o resolución del dato resultante. La diferencia entre el valor analógico real y la representación digital se conoce como error de cuantificación . Por ejemplo, si la temperatura real es 23,234456544453 grados, pero solo se asignan dos dígitos (23) a este parámetro en una representación digital particular, el error de cuantificación es 0,234456544453. Esta propiedad de la comunicación digital se conoce como granularidad .
Compresibilidad : según Miller, "los datos digitales sin comprimir son muy grandes y, en su forma original, producirían una señal más grande (y, por lo tanto, serían más difíciles de transferir) que los datos analógicos. Sin embargo, los datos digitales se pueden comprimir. La compresión reduce la cantidad de espacio de ancho de banda necesario para enviar información. Los datos se pueden comprimir, enviar y luego descomprimir en el sitio de consumo. Esto hace posible enviar mucha más información y da como resultado, por ejemplo, que las señales de televisión digital ofrezcan más espacio en el espectro de ondas para más canales de televisión". [5]
Sistemas digitales históricos
Aunque las señales digitales generalmente se asocian con los sistemas digitales electrónicos binarios utilizados en la electrónica y la informática modernas, los sistemas digitales en realidad son antiguos y no necesitan ser binarios o electrónicos.
Texto escrito (debido al conjunto limitado de caracteres y al uso de símbolos discretos, el alfabeto en la mayoría de los casos)
El ábaco se creó en algún momento entre el año 1000 a. C. y el 500 a. C. y, más tarde, se convirtió en una forma de cálculo de frecuencias. Hoy en día, se puede utilizar como una calculadora digital muy avanzada, aunque básica, que utiliza cuentas en filas para representar números. Las cuentas solo tienen significado en estados discretos de arriba y abajo, no en estados intermedios analógicos.
Una baliza es quizás la señal digital no electrónica más simple, con solo dos estados (encendido y apagado). En particular, las señales de humo son uno de los ejemplos más antiguos de una señal digital, donde un "portador" analógico (humo) se modula con una manta para generar una señal digital (bocanadas) que transmite información.
El código Morse utiliza seis estados digitales (punto, raya, espacio entre caracteres (entre cada punto o raya), espacio corto (entre cada letra), espacio medio (entre palabras) y espacio largo (entre oraciones)) para enviar mensajes a través de una variedad de portadores potenciales, como electricidad o luz, por ejemplo utilizando un telégrafo eléctrico o una luz intermitente.
El Braille utiliza un código de seis bits representado en patrones de puntos.
El semáforo de bandera utiliza varillas o banderas colocadas en posiciones particulares para enviar mensajes al receptor que las observa a cierta distancia.
Un módem , inventado más recientemente, modula una señal "portadora" analógica (como el sonido) para codificar información digital eléctrica binaria, como una serie de pulsos de sonido digitales binarios. Una versión ligeramente anterior y sorprendentemente confiable del mismo concepto consistía en agrupar una secuencia de información de "señal" y "sin señal" de audio digital (es decir, "sonido" y "silencio") en una cinta de casete magnética para su uso con los primeros ordenadores domésticos .
^ Ceruzzi, Paul E (29 de junio de 2012). Computación: una historia concisa . MIT Press . ISBN 978-0-262-51767-6.
^ Heinrich, Lutz J.; Heinzl, Armin; Roithmayr, Friedrich (29 de agosto de 2014). Wirtschaftsinformatik-Lexikon (en alemán). Walter de Gruyter GmbH & Co KG. ISBN978-3-486-81590-0.
^ Martin Hilbert; Priscila López (10 de febrero de 2011). «La capacidad tecnológica mundial para almacenar, comunicar y computar información». Science . Vol. 332, núm. 6025. págs. 60–65. doi :10.1126/science.1200970. Archivado (PDF) desde el original el 31 de mayo de 2011.También "Material de apoyo en línea para La capacidad tecnológica mundial para almacenar, comunicar y computar información" (PDF) . Science . doi :10.1126/science.1200970. Archivado (PDF) desde el original el 31 de mayo de 2011.Acceso gratuito al artículo a través de aquí: www.martinhilbert.net/WorldInfoCapacity.html/
^ "Animación en video sobre la capacidad tecnológica mundial para almacenar, comunicar y computar información de 1986 a 2010". 11 de junio de 2011. Archivado desde el original el 21 de febrero de 2013. Consultado el 6 de noviembre de 2013 en YouTube.
^ ab Miller, Vincent (2011). Entender la cultura digital . Londres: Sage Publications. sec. "Convergencia y la experiencia mediática contemporánea". ISBN978-1-84787-497-9.
^ "Los tres estados de la información". Universidad de Edimburgo . Archivado desde el original el 14 de abril de 2021. Consultado el 21 de febrero de 2021 .
Lectura adicional
Tocci, R. 2006. Sistemas digitales: principios y aplicaciones (10.ª edición). Prentice Hall. ISBN 0-13-172579-3