Representación discreta y discontinua de información.
Los datos digitales , en la teoría de la información y los sistemas de información , son información representada como una cadena de símbolos discretos , cada uno de los cuales puede tomar uno de un número finito de valores de algún alfabeto , como letras o dígitos. Un ejemplo es un documento de texto , que consta de una cadena de caracteres alfanuméricos . La forma más común de datos digitales en los sistemas de información modernos son los datos binarios , que están representados por una cadena de dígitos binarios (bits), cada uno de los cuales puede tener uno de dos valores, 0 o 1.
Los datos digitales se pueden contrastar con los datos analógicos , que están representados por un valor de un rango continuo de números reales . Los datos analógicos se transmiten mediante una señal analógica , que no solo toma valores continuos sino que puede variar continuamente con el tiempo, una función continua del tiempo con valores reales . Un ejemplo es la variación de la presión del aire en una onda sonora .
La palabra digital proviene de la misma fuente que las palabras dígito y digitus (la palabra latina para dedo ), ya que los dedos se utilizan a menudo para contar. El matemático George Stibitz de Bell Telephone Laboratories usó la palabra digital en referencia a los rápidos pulsos eléctricos emitidos por un dispositivo diseñado para apuntar y disparar cañones antiaéreos en 1942. [1] El término se usa más comúnmente en informática y electrónica , especialmente donde La información del mundo real se convierte a forma numérica binaria como en el audio digital y la fotografía digital .
Un dispositivo de entrada de símbolos generalmente consta de un grupo de interruptores que son consultados a intervalos regulares para ver qué interruptores están conmutados. Los datos se perderán si, dentro de un único intervalo de sondeo, se presionan dos interruptores o si se presiona, suelta y presiona un interruptor nuevamente. Este sondeo lo puede realizar un procesador especializado en el dispositivo para evitar sobrecargar la CPU principal . [2] Cuando se ingresa un nuevo símbolo, el dispositivo generalmente envía una interrupción , en un formato especializado, para que la CPU pueda leerlo.
Para dispositivos con solo unos pocos interruptores (como los botones de un joystick ), el estado de cada uno se puede codificar como bits (generalmente 0 para liberado y 1 para presionado) en una sola palabra. Esto es útil cuando las combinaciones de pulsaciones de teclas son significativas y, a veces, se usa para pasar el estado de las teclas modificadoras en un teclado (como mayúsculas y control). Pero no se escala para admitir más claves que la cantidad de bits en un solo byte o palabra.
Los dispositivos con muchos interruptores (como el teclado de una computadora ) generalmente organizan estos interruptores en una matriz de escaneo, con los interruptores individuales en las intersecciones de las líneas xey. Cuando se presiona un interruptor, conecta las líneas x e y correspondientes. El sondeo (a menudo llamado escaneo en este caso) se realiza activando cada línea x en secuencia y detectando qué líneas y tienen una señal y, por lo tanto, qué teclas se presionan. Cuando el procesador del teclado detecta que una tecla ha cambiado de estado, envía una señal a la CPU indicando el código de escaneo de la tecla y su nuevo estado. Luego, el símbolo se codifica o se convierte en un número según el estado de las teclas modificadoras y la codificación de caracteres deseada .
Se puede utilizar una codificación personalizada para una aplicación específica sin pérdida de datos. Sin embargo, utilizar una codificación estándar como ASCII es problemático si es necesario convertir un símbolo como 'ß' pero no está en el estándar.
Se estima que en el año 1986 menos del 1% de la capacidad tecnológica mundial para almacenar información era digital y en 2007 ya era el 94%. [3] Se supone que el año 2002 será el año en que la humanidad pudo almacenar más información en formato digital que en analógico (el "comienzo de la era digital "). [4] [5]
Toda la información digital posee propiedades comunes que la distinguen de los datos analógicos con respecto a las comunicaciones:
Sincronización: dado que la información digital se transmite mediante la secuencia en la que se ordenan los símbolos, todos los esquemas digitales tienen algún método para determinar el comienzo de una secuencia. En los lenguajes humanos escritos o hablados, la sincronización generalmente se proporciona mediante pausas (espacios), mayúsculas y puntuación . Las comunicaciones entre máquinas suelen utilizar secuencias de sincronización especiales .
Idioma: Todas las comunicaciones digitales requieren de un lenguaje formal , que en este contexto consiste en toda la información que tanto el emisor como el receptor de la comunicación digital deben poseer, de antemano, para que la comunicación sea exitosa. Los lenguajes son generalmente arbitrarios y especifican el significado que se asignará a secuencias de símbolos particulares, el rango permitido de valores, los métodos que se utilizarán para la sincronización, etc.
Errores: Las perturbaciones ( ruido ) en las comunicaciones analógicas invariablemente introducen alguna desviación o error, generalmente pequeño, entre la comunicación prevista y la real. Las perturbaciones en la comunicación digital sólo dan lugar a errores cuando la perturbación es tan grande como para dar lugar a que un símbolo se malinterprete como otro símbolo o se perturbe la secuencia de símbolos. Generalmente es posible tener una comunicación digital casi libre de errores. Además, se pueden utilizar técnicas tales como códigos de verificación para detectar errores y corregirlos mediante redundancia o retransmisión. Los errores en las comunicaciones digitales pueden tomar la forma de errores de sustitución, en los que un símbolo se reemplaza por otro símbolo, o errores de inserción/eliminación , en los que se inserta o elimina un símbolo incorrecto adicional en un mensaje digital. Los errores no corregidos en las comunicaciones digitales tienen un impacto impredecible y generalmente grande en el contenido informativo de la comunicación.
Copiar : Debido a la inevitable presencia de ruido, hacer muchas copias sucesivas de una comunicación analógica es inviable porque cada generación aumenta el ruido. Debido a que las comunicaciones digitales generalmente están libres de errores, se pueden hacer copias de copias de manera indefinida.
Granularidad : la representación digital de un valor analógico continuamente variable generalmente implica una selección del número de símbolos que se asignarán a ese valor. El número de símbolos determina la precisión o resolución del dato resultante. La diferencia entre el valor analógico real y la representación digital se conoce como error de cuantificación . Por ejemplo, si la temperatura real es 23,234456544453 grados, pero solo se asignan dos dígitos (23) a este parámetro en una representación digital particular, el error de cuantificación es 0,234456544453. Esta propiedad de la comunicación digital se conoce como granularidad .
Compresible : según Miller, "los datos digitales sin comprimir son muy grandes y, en su forma original, en realidad producirían una señal más grande (por lo tanto, serían más difíciles de transferir) que los datos analógicos. Sin embargo, los datos digitales se pueden comprimir. La compresión reduce el La cantidad de espacio de ancho de banda necesario para enviar información se puede comprimir, enviar y luego descomprimir en el sitio de consumo. Esto hace posible enviar mucha más información y da como resultado, por ejemplo, que las señales de televisión digital ofrezcan más espacio en la onda. espectro para más canales de televisión". [5]
Sistemas digitales históricos
Aunque las señales digitales generalmente se asocian con los sistemas digitales electrónicos binarios utilizados en la electrónica y la informática modernas, los sistemas digitales son en realidad antiguos y no necesitan ser binarios o electrónicos.
Texto escrito (debido al conjunto limitado de caracteres y al uso de símbolos discretos: el alfabeto en la mayoría de los casos)
El ábaco fue creado en algún momento entre el 1000 a. C. y el 500 a. C. y más tarde se convirtió en una forma de cálculo de frecuencia. Hoy en día se puede utilizar como una calculadora digital muy avanzada pero básica que utiliza cuentas en filas para representar números. Las cuentas sólo tienen significado en estados discretos hacia arriba y hacia abajo, no en estados intermedios analógicos.
Una baliza es quizás la señal digital no electrónica más simple, con sólo dos estados (encendido y apagado). En particular, las señales de humo son uno de los ejemplos más antiguos de señal digital, donde una "portadora" analógica (humo) se modula con una manta para generar una señal digital (bocanadas) que transmite información.
El código Morse utiliza seis estados digitales: punto, guión, espacio entre caracteres (entre cada punto o guión), espacio corto (entre cada letra), espacio medio (entre palabras) y espacio largo (entre oraciones) para enviar mensajes a través de una variedad de portadores potenciales como electricidad o luz, por ejemplo mediante un telégrafo eléctrico o una luz intermitente.
El Braille utiliza un código de seis bits representado como patrones de puntos.
El semáforo de bandera utiliza varillas o banderas sostenidas en posiciones particulares para enviar mensajes al receptor que los observa a cierta distancia.
Inventado más recientemente, un módem modula una señal "portadora" analógica (como el sonido) para codificar información digital eléctrica binaria, como una serie de pulsos de sonido digitales binarios. Una versión ligeramente anterior, sorprendentemente confiable, del mismo concepto consistía en agrupar una secuencia de información de audio digital de "señal" y "sin señal" (es decir, "sonido" y "silencio") en una cinta de casete magnética para usar con las primeras computadoras domésticas .
^ Heinrich, Lutz J.; Heinzl, Armin; Roithmayr, Friedrich (29 de agosto de 2014). Wirtschaftsinformatik-Lexikon (en alemán). Walter de Gruyter GmbH & Co KG. ISBN978-3-486-81590-0.
^ Martín Hilbert; Priscila López (10 de febrero de 2011). "La capacidad tecnológica del mundo para almacenar, comunicar y calcular información". Ciencia . vol. 332, núm. 6025, págs. 60–65. doi :10.1126/ciencia.1200970. Archivado (PDF) desde el original el 31 de mayo de 2011.También "Material de apoyo en línea para la capacidad tecnológica mundial para almacenar, comunicar y calcular información" (PDF) . Ciencia . doi : 10.1126/ciencia.1200970. Archivado (PDF) desde el original el 31 de mayo de 2011.Acceso gratuito al artículo a través de aquí: www.martinhilbert.net/WorldInfoCapacity.html/
^ "animación en vídeo sobre la capacidad tecnológica del mundo para almacenar, comunicar y calcular información de 1986 a 2010". Archivado desde el original el 21 de febrero de 2013 . Consultado el 6 de noviembre de 2013 , a través de YouTube.
^ ab Miller, Vicente (2011). Comprender la cultura digital . Londres: Publicaciones Sage. segundo. "Convergencia y experiencia mediática contemporánea". ISBN978-1-84787-497-9.
^ "Los tres estados de la información". La Universidad de Edimburgo . Archivado desde el original el 14 de abril de 2021 . Consultado el 21 de febrero de 2021 .
Otras lecturas
Tocci, R. 2006. Sistemas digitales: principios y aplicaciones (décima edición). Prentice Hall. ISBN 0-13-172579-3