ASCII ( / ˈ æ s k iː / ASS-kee),[3]: 6 acrónimo deAmerican Standard Code for Information Interchange, es unestándarde codificación de caracteresequipos de telecomunicacionesy otros dispositivos. ASCII tiene solo 128puntos de código, de los cuales solo 95 son caracteres imprimibles, lo que limita severamente su alcance. El conjunto de puntuación disponible tuvo un impacto significativo en la sintaxis de los lenguajes informáticos y el marcado de texto. ASCII influyó enormemente en el diseño de los conjuntos de caracteres utilizados por las computadoras modernas, incluidoUnicode, que tiene más de un millón de puntos de código, pero los primeros 128 de estos son los mismos que ASCII.
La Autoridad de Números Asignados en Internet (IANA) prefiere el nombre US-ASCII para esta codificación de caracteres. [2]
ASCII es uno de los hitos del IEEE . [4]
El ASCII se desarrolló en parte a partir del código telegráfico . Su primer uso comercial fue en el Teletipo Modelo 33 y el Teletipo Modelo 35 como un código de teleimpresora de siete bits promovido por los servicios de datos de Bell. [ ¿Cuándo? ] El trabajo sobre el estándar ASCII comenzó en mayo de 1961, con la primera reunión del subcomité X3.2 de la Asociación Estadounidense de Estándares (ASA) (ahora el Instituto Nacional Estadounidense de Estándares o ANSI). La primera edición del estándar se publicó en 1963, [5] [6] sufrió una revisión importante durante 1967, [7] [8] y experimentó su actualización más reciente durante 1986. [9] En comparación con los códigos telegráficos anteriores, el código Bell propuesto y el ASCII se ordenaron para una clasificación más conveniente (es decir, alfabetización) de listas y agregaron características para dispositivos distintos de los teleimpresores. [9]
El uso del formato ASCII para el intercambio de redes se describió en 1969. [10] Ese documento se elevó formalmente a estándar de Internet en 2015. [11]
Originalmente basado en el alfabeto inglés (moderno) , ASCII codifica 128 caracteres específicos en números enteros de siete bits, como se muestra en la tabla ASCII de este artículo. [12] Noventa y cinco de los caracteres codificados son imprimibles: estos incluyen los dígitos del 0 al 9 , letras minúsculas de la a a la z , letras mayúsculas de la A a la Z y símbolos de puntuación . Además, la especificación ASCII original incluía 33 códigos de control no imprimibles que se originaron con los modelos de teletipo ; la mayoría de estos ahora están obsoletos, [13] aunque algunos todavía se usan comúnmente, como el retorno de carro , el avance de línea y los códigos de tabulación .
Por ejemplo, la i minúscula se representaría en la codificación ASCII por el binario 1101001 = hexadecimal 69 ( i es la novena letra) = decimal 105.
A pesar de ser un estándar estadounidense, ASCII no tiene un punto de código para el centavo (¢). Tampoco admite términos en inglés con signos diacríticos como résumé y jalapeño , ni nombres propios con signos diacríticos como Beyoncé (aunque en ciertos dispositivos los caracteres podrían combinarse con signos de puntuación como tilde (~) y backtick (`) para aproximarse a dichos caracteres).
El Código Estándar Americano para el Intercambio de Información (ASCII) fue desarrollado bajo los auspicios de un comité de la Asociación Estadounidense de Estándares (ASA), llamado el comité X3, por su subcomité X3.2 (posteriormente X3L2), y más tarde por el grupo de trabajo X3.2.4 de ese subcomité (ahora INCITS ). La ASA más tarde se convirtió en el Instituto de Estándares de los Estados Unidos de América (USASI) [3] : 211 y finalmente se convirtió en el Instituto Nacional Estadounidense de Estándares (ANSI).
Una vez completados los demás caracteres especiales y códigos de control, se publicó ASCII como ASA X3.4-1963, [6] [14] dejando 28 posiciones de código sin ningún significado asignado, reservadas para una futura estandarización, y un código de control sin asignar. [3] : 66, 245 Hubo cierto debate en ese momento sobre si debería haber más caracteres de control en lugar del alfabeto en minúsculas. [3] : 435 La indecisión no duró mucho: durante mayo de 1963, el Grupo de Trabajo del CCITT sobre el Nuevo Alfabeto Telegráfico propuso asignar caracteres en minúsculas a los palos [a] [15] 6 y 7, [16] y la Organización Internacional de Normalización TC 97 SC 2 votó durante octubre para incorporar el cambio en su borrador de norma. [17] El grupo de trabajo X3.2.4 votó su aprobación para el cambio a ASCII en su reunión de mayo de 1963. [18] La ubicación de las letras minúsculas en los palitos [a] [15] 6 y 7 provocó que los caracteres difirieran en patrón de bits de las mayúsculas por un solo bit, lo que simplificó la correspondencia de caracteres sin distinción entre mayúsculas y minúsculas y la construcción de teclados e impresoras.
El comité X3 realizó otros cambios, incluidos otros caracteres nuevos (los caracteres de llave y barra vertical ), [19] renombró algunos caracteres de control (SOM se convirtió en inicio de encabezado (SOH)) y movió o eliminó otros (RU fue eliminado). [3] : 247–248 ASCII se actualizó posteriormente como USAS X3.4-1967, [7] [20] luego USAS X3.4-1968, [21] ANSI X3.4-1977 y, finalmente, ANSI X3.4-1986. [9] [22]
En el estándar X3.15, el comité X3 también abordó cómo se debía transmitir el código ASCII ( el bit menos significativo primero) [3] : 249–253 [29] y cómo se debía grabar en cinta perforada. Propusieron un estándar de 9 pistas para cinta magnética e intentaron abordar algunos formatos de tarjetas perforadas .
El subcomité X3.2 diseñó ASCII basándose en los sistemas de codificación de teleimpresora anteriores. Al igual que otras codificaciones de caracteres , ASCII especifica una correspondencia entre patrones de bits digitales y símbolos de caracteres (es decir, grafemas y caracteres de control ). Esto permite que los dispositivos digitales se comuniquen entre sí y procesen, almacenen y comuniquen información orientada a caracteres, como el lenguaje escrito. Antes de que se desarrollara ASCII, las codificaciones en uso incluían 26 caracteres alfabéticos , 10 dígitos numéricos y de 11 a 25 símbolos gráficos especiales. Para incluir todos estos, y caracteres de control compatibles con el estándar Alfabeto Telegráfico Internacional N.º 2 (ITA2) del Comité Consultatif International Téléphonique et Télégraphique (CCITT) de 1932, [30] [31] FIELDATA (1956 [ cita requerida ] ), y el EBCDIC temprano (1963), se requirieron más de 64 códigos para ASCII.
El ITA2 se basó a su vez en el código Baudot , el código telegráfico de 5 bits que Émile Baudot inventó en 1870 y patentó en 1874. [31]
El comité debatió la posibilidad de una función de desplazamiento (como en ITA2 ), que permitiría representar más de 64 códigos con un código de seis bits . En un código desplazado, algunos códigos de caracteres determinan las opciones entre los siguientes códigos de caracteres. Permite una codificación compacta, pero es menos fiable para la transmisión de datos , ya que un error en la transmisión del código desplazado normalmente hace que una parte larga de la transmisión sea ilegible. El comité de estándares decidió no utilizar el desplazamiento, por lo que ASCII requirió al menos un código de siete bits. [3] : 215 §13.6, 236 §4
El comité consideró un código de ocho bits, ya que ocho bits ( octetos ) permitirían que dos patrones de cuatro bits codificaran eficientemente dos dígitos con decimales codificadas en binario . Sin embargo, requeriría que toda transmisión de datos enviara ocho bits cuando siete podrían ser suficientes. El comité votó por usar un código de siete bits para minimizar los costos asociados con la transmisión de datos. Dado que la cinta perforada en ese momento podía grabar ocho bits en una posición, también permitía un bit de paridad para la verificación de errores si se deseaba. [3] : 217 §c, 236 §5 Las máquinas de ocho bits (con octetos como tipo de datos nativo) que no usaban verificación de paridad generalmente establecían el octavo bit en 0. [32]
El código en sí fue diseñado de modo que la mayoría de los códigos de control estuvieran juntos y todos los códigos gráficos estuvieran juntos, para facilitar su identificación. Los dos primeros llamados palitos ASCII [a] [15] (32 posiciones) se reservaron para caracteres de control. [3] : 220, 236 8, 9) El carácter "espacio" tuvo que ir antes de los gráficos para facilitar la clasificación , por lo que se convirtió en la posición 20 hexadecimal ; [3] : 237 §10 por la misma razón, muchos signos especiales comúnmente utilizados como separadores se colocaron antes de los dígitos. El comité decidió que era importante admitir alfabetos en mayúsculas de 64 caracteres , y eligió diseñar el ASCII de modo que pudiera reducirse fácilmente a un conjunto utilizable de 64 caracteres de códigos gráficos, [3] : 228, 237 §14 como se hizo en el código DEC SIXBIT (1963). Por lo tanto, las letras minúsculas no se intercalaron con las mayúsculas . Para mantener las opciones disponibles para letras minúsculas y otros gráficos, los códigos especiales y numéricos se organizaron antes de las letras, y la letra A se colocó en la posición 41 hexadecimal para que coincida con el borrador del estándar británico correspondiente. [3] : 238 §18 Los dígitos 0-9 tienen el prefijo 011, pero los 4 bits restantes corresponden a sus respectivos valores en binario, lo que hace que la conversión con decimal codificado en binario sea sencilla (por ejemplo, 5 está codificado como 011 0101 , donde 5 es 0101 en binario).
Muchos de los caracteres no alfanuméricos se posicionaron para corresponder a su posición desplazada en las máquinas de escribir; una sutileza importante es que estas se basaban en máquinas de escribir mecánicas , no eléctricas . [33] Las máquinas de escribir mecánicas siguieron el estándar de facto establecido por la Remington No. 2 (1878), la primera máquina de escribir con una tecla de mayúsculas, y los valores desplazados de 23456789-
eran "#$%_&'()
: las primeras máquinas de escribir omitieron 0 y 1 , usando O (letra mayúscula o ) y l (letra minúscula L ) en su lugar, pero los pares 1!
y 0)
se volvieron estándar una vez que 0 y 1 se volvieron comunes. Por lo tanto, en ASCII !"#$%
se colocaron en la segunda barra, [a] [15] las posiciones 1-5, correspondientes a los dígitos 1-5 en la barra adyacente. [a] [15] Sin embargo, los paréntesis no podían corresponder a 9 y 0 , porque el lugar correspondiente a 0 estaba ocupado por el carácter de espacio. Esto se solucionó eliminando _
el guión bajo del 6 y desplazando los caracteres restantes, lo que correspondía a muchas máquinas de escribir europeas que colocaban los paréntesis con el 8 y el 9. Esta discrepancia con las máquinas de escribir condujo a los teclados de pares de bits , en particular el Teletype Model 33 , que utilizaba la disposición desplazada a la izquierda correspondiente al ASCII, a diferencia de las máquinas de escribir mecánicas tradicionales.
Las máquinas de escribir eléctricas, en particular la IBM Selectric (1961), utilizaban una disposición algo diferente que se ha convertido en estándar de facto en las computadoras (después de la IBM PC (1981), especialmente el Modelo M (1984)) y, por lo tanto, los valores de desplazamiento de los símbolos en los teclados modernos no se corresponden tan estrechamente con la tabla ASCII como lo hacían los teclados anteriores. El /?
par también data del N.º 2, y los ,< .>
pares se usaban en algunos teclados (otros, incluido el N.º 2, no desplazaban ,
(coma) ni .
(punto) para que pudieran usarse en mayúsculas sin desviar el desplazamiento). Sin embargo, ASCII dividió el ;:
par (que data del N.º 2) y reorganizó los símbolos matemáticos (convenciones variadas, comúnmente -* =+
) a :* ;+ -=
.
Algunos caracteres de máquina de escribir que eran comunes en ese momento no se incluyeron, en particular ½ ¼ ¢
, mientras que ^ ` ~
se incluyeron como diacríticos para uso internacional y < >
para uso matemático, junto con los caracteres de línea simple \ |
(además de los comunes /
). El símbolo @ no se usó en Europa continental y el comité esperaba que fuera reemplazado por una À acentuada en la variante francesa, por lo que la @ se colocó en la posición 40 hexadecimal , justo antes de la letra A. [3] : 243
Los códigos de control que se consideraron esenciales para la transmisión de datos fueron el inicio del mensaje (SOM), el fin de la dirección (EOA), el fin del mensaje (EOM), el fin de la transmisión (EOT), "¿quién eres?" (WRU), "¿eres?" (RU), un control de dispositivo reservado (DC0), inactividad sincrónica (SYNC) y reconocimiento (ACK). Estos se colocaron para maximizar la distancia de Hamming entre sus patrones de bits. [3] : 243–245
El orden del código ASCII también se denomina orden ASCIIbético . [34] La intercalación de datos a veces se realiza en este orden en lugar del orden alfabético "estándar" ( secuencia de intercalación ). Las principales desviaciones en el orden ASCII son:
Una orden intermedia convierte letras mayúsculas en minúsculas antes de comparar los valores ASCII.
ASCII reserva los primeros 32 puntos de código (números decimales 0–31) y el último (número decimal 127) para caracteres de control . Se trata de códigos destinados a controlar dispositivos periféricos (como impresoras ), o a proporcionar metainformación sobre flujos de datos, como los almacenados en cintas magnéticas. A pesar de su nombre, estos puntos de código no representan caracteres imprimibles (es decir, no son caracteres en absoluto, sino señales). Para fines de depuración, se les asignan símbolos "de marcador de posición" (como los que se dan en ISO 2047 y sus predecesores).
Por ejemplo, el carácter 0x0A representa la función de "avance de línea" (que hace que una impresora avance su papel), y el carácter 8 representa " retroceso ". RFC 2822 se refiere a los caracteres de control que no incluyen retorno de carro, avance de línea o espacio en blanco como caracteres de control que no son espacios en blanco. [35] A excepción de los caracteres de control que prescriben un formato orientado a líneas elemental, ASCII no define ningún mecanismo para describir la estructura o apariencia del texto dentro de un documento. Otros esquemas, como los lenguajes de marcado , la página de direcciones y el diseño y formato de documentos.
El estándar ASCII original utilizaba únicamente frases descriptivas breves para cada carácter de control. La ambigüedad que esto causaba era a veces intencional, por ejemplo, cuando un carácter se utilizaba de forma ligeramente diferente en un enlace de terminal que en un flujo de datos , y a veces accidental, por ejemplo, el estándar no es claro sobre el significado de "borrar".
Probablemente el dispositivo individual más influyente que afectó la interpretación de estos caracteres fue el Teletype Model 33 ASR, que era un terminal de impresión con una opción de lector/perforador de cinta de papel disponible . La cinta de papel fue un medio muy popular para el almacenamiento de programas a largo plazo hasta la década de 1980, menos costoso y en algunos aspectos menos frágil que la cinta magnética. En particular, las asignaciones de la máquina Teletype Model 33 para los códigos 17 (control-Q, DC1, también conocido como XON), 19 (control-S, DC3, también conocido como XOFF) y 127 ( delete ) se convirtieron en estándares de facto . El Model 33 también fue notable por tomar la descripción de control-G (código 7, BEL, que significa alertar audiblemente al operador) literalmente, ya que la unidad contenía una campana real que sonaba cuando recibía un carácter BEL. Debido a que la parte superior de la tecla O también mostraba un símbolo de flecha hacia la izquierda (de ASCII-1963, que tenía este carácter en lugar de un guión bajo ), muchos de los primeros sistemas de tiempo compartido también adoptaron un uso no compatible del código 15 (control-O, shift in) interpretado como "borrar carácter anterior", pero con el tiempo quedó desatendido.
Cuando un Teletype 33 ASR equipado con el lector automático de cinta de papel recibía un control S (XOFF, una abreviatura de transmisión desactivada), hacía que el lector de cinta se detuviera; al recibir un control Q (XON, transmisión activada), hacía que el lector de cinta se reanudara. Esta técnica, denominada control de flujo , fue adoptada por varios de los primeros sistemas operativos de computadoras como una señal de "apretón de manos" que advertía al remitente que detuviera la transmisión debido a un desbordamiento de búfer inminente ; persiste hasta el día de hoy en muchos sistemas como una técnica de control de salida manual. En algunos sistemas, el control S conserva su significado, pero el control Q se reemplaza por un segundo control S para reanudar la salida.
El 33 ASR también podría configurarse para emplear control-R (DC2) y control-T (DC4) para iniciar y detener la perforación de la cinta; en algunas unidades equipadas con esta función, las letras del carácter de control correspondiente en la tecla sobre la letra eran TAPE y TAPE respectivamente. [36]
El teletipo no podía mover su cabezal de escritura hacia atrás, por lo que no tenía una tecla en su teclado para enviar un BS (retroceso). En su lugar, había una tecla marcada RUB OUTque enviaba el código 127 (DEL). El propósito de esta tecla era borrar errores en una cinta de papel ingresada manualmente: el operador tenía que presionar un botón en el perforador de cinta para retrocederla, luego escribir el borrado, que perforaba todos los agujeros y reemplazaba el error con un carácter que se pretendía ignorar. [37] Los teletipos se usaban comúnmente con las computadoras menos costosas de Digital Equipment Corporation (DEC); estos sistemas tenían que usar las teclas que estaban disponibles y, por lo tanto, el carácter DEL se asignaba para borrar el carácter anterior. [38] [39] Debido a esto, los terminales de video DEC (por defecto) enviaban el carácter DEL para la tecla marcada "Retroceso" mientras que la tecla separada marcada "Borrar" enviaba una secuencia de escape ; muchos otros terminales de la competencia enviaban un carácter BS para la tecla de retroceso.
Los primeros controladores tty de Unix, a diferencia de algunas implementaciones modernas, permitían que sólo se estableciera un carácter para borrar el carácter anterior en el procesamiento de entrada canónico (donde está disponible un editor de línea muy simple); esto podía establecerse en BS o DEL, pero no ambos, lo que resultaba en situaciones recurrentes de ambigüedad donde los usuarios tenían que decidir dependiendo de qué terminal estaban usando ( los shells que permiten la edición de línea, como ksh , bash y zsh , entienden ambos). La suposición de que ninguna tecla enviaba un carácter BS permitió que Ctrl+H se usara para otros fines, como el comando de prefijo "ayuda" en GNU Emacs . [40]
A muchos otros caracteres de control se les han asignado significados muy diferentes de los originales. El carácter de "escape" (ESC, código 27), por ejemplo, fue pensado originalmente para permitir el envío de otros caracteres de control como literales en lugar de invocar su significado, una "secuencia de escape". Este es el mismo significado de "escape" que encontramos en codificaciones de URL, cadenas de lenguaje C y otros sistemas donde ciertos caracteres tienen un significado reservado. Con el tiempo, esta interpretación ha sido adoptada y finalmente modificada.
En el uso moderno, un ESC enviado a la terminal generalmente indica el inicio de una secuencia de comandos, que se puede utilizar para direccionar el cursor, desplazarse por una región, establecer/consultar varias propiedades de la terminal y más. Por lo general, tienen la forma de un llamado " código de escape ANSI " (que a menudo comienza con un " Introductor de secuencia de control ", "CSI", " ESC [ ") de ECMA-48 (1972) y sus sucesores. Algunas secuencias de escape no tienen introductores, como el comando de reinicio completo del VT100 " ESC c ". [41]
Por el contrario, una lectura ESC desde la terminal se utiliza con mayor frecuencia como un carácter fuera de banda que se utiliza para finalizar una operación o un modo especial, como en los editores de texto TECO y vi . En los sistemas de ventanas e interfaces gráficas de usuario (GUI) , ESC generalmente hace que una aplicación cancele su operación actual o salga (termine) por completo.
La ambigüedad inherente de muchos caracteres de control, combinada con su uso histórico, creó problemas al transferir archivos de "texto simple" entre sistemas. El mejor ejemplo de esto es el problema de la nueva línea en varios sistemas operativos . Las máquinas de teletipo requerían que una línea de texto terminara con un "retorno de carro" (que mueve el cabezal de impresión al principio de la línea) y un "avance de línea" (que avanza el papel una línea sin mover el cabezal de impresión). El nombre "retorno de carro" proviene del hecho de que en una máquina de escribir manual el carro que sostiene el papel se mueve mientras que las barras de tipos que golpean la cinta permanecen estacionarias. Todo el carro tenía que ser empujado (regresado) hacia la derecha para colocar el papel para la siguiente línea.
Los sistemas operativos DEC ( OS/8 , RT-11 , RSX-11 , RSTS , TOPS-10 , etc.) utilizaban ambos caracteres para marcar el final de una línea de modo que el dispositivo de consola (originalmente máquinas de teletipo) pudiera funcionar. Cuando aparecieron los llamados "TTY de cristal" (posteriormente llamados CRT o "terminales tontos"), la convención estaba tan bien establecida que la compatibilidad con versiones anteriores hizo necesario seguirla. Cuando Gary Kildall creó CP/M , se inspiró en algunas de las convenciones de interfaz de línea de comandos utilizadas en el sistema operativo RT-11 de DEC.
Hasta la introducción del PC DOS en 1981, IBM no tuvo influencia en esto porque sus sistemas operativos de los años 70 usaban codificación EBCDIC en lugar de ASCII, y estaban orientados a la entrada de tarjetas perforadas y la salida de impresora de línea en las que el concepto de "retorno de carro" no tenía sentido. El PC DOS de IBM (también comercializado como MS-DOS por Microsoft) heredó la convención en virtud de estar vagamente basado en CP/M, [42] y Windows a su vez la heredó de MS-DOS.
Requerir dos caracteres para marcar el final de una línea introduce una complejidad y ambigüedad innecesarias en cuanto a cómo interpretar cada carácter cuando se encuentra solo. Para simplificar las cosas, los flujos de datos de texto sin formato , incluidos los archivos, en Multics usaban solo el salto de línea (LF) como terminador de línea. [43] : 357 El controlador tty manejaría la conversión de LF a CRLF en la salida para que los archivos se puedan imprimir directamente en la terminal, y NL (nueva línea) se usa a menudo para hacer referencia a CRLF en documentos UNIX . Los sistemas Unix y similares a Unix , y los sistemas Amiga , adoptaron esta convención de Multics. Por otro lado, el Macintosh OS original , Apple DOS y ProDOS usaban solo el retorno de carro (CR) como terminador de línea; sin embargo, dado que Apple luego reemplazó estos sistemas operativos obsoletos con su sistema operativo macOS (anteriormente llamado OS X) basado en Unix , ahora también usan el salto de línea (LF). El Radio Shack TRS-80 también usó un CR solitario para terminar líneas.
Las computadoras conectadas a ARPANET incluían máquinas que ejecutaban sistemas operativos como TOPS-10 y TENEX que utilizaban terminaciones de línea CR-LF; máquinas que ejecutaban sistemas operativos como Multics que utilizaban terminaciones de línea LF; y máquinas que ejecutaban sistemas operativos como OS/360 que representaban las líneas como un recuento de caracteres seguido de los caracteres de la línea y que utilizaban codificación EBCDIC en lugar de ASCII. El protocolo Telnet definía una "Terminal Virtual de Red" (NVT) ASCII, de modo que las conexiones entre hosts con diferentes convenciones de final de línea y conjuntos de caracteres pudieran ser compatibles mediante la transmisión de un formato de texto estándar a través de la red. Telnet utilizaba ASCII junto con terminaciones de línea CR-LF, y el software que utilizaba otras convenciones traduciría entre las convenciones locales y la NVT. [44] El Protocolo de Transferencia de Archivos adoptó el protocolo Telnet, incluido el uso de la Terminal Virtual de Red, para su uso al transmitir comandos y transferir datos en el modo ASCII predeterminado. [45] [46] Esto agrega complejidad a las implementaciones de esos protocolos y a otros protocolos de red, como los utilizados para el correo electrónico y la World Wide Web, en sistemas que no utilizan la convención de final de línea CR-LF de NVT. [47] [48]
El monitor PDP-6, [38] y su sucesor PDP-10 TOPS-10, [39] usaban control-Z (SUB) como una indicación de fin de archivo para la entrada desde un terminal. Algunos sistemas operativos como CP/M rastreaban la longitud del archivo solo en unidades de bloques de disco y usaban control-Z para marcar el final del texto real en el archivo. [49] Por estas razones, EOF, o fin de archivo , se usaba coloquial y convencionalmente como un acrónimo de tres letras para control-Z en lugar de SUBstitute. El carácter de fin de texto ( ETX ), también conocido como control-C , era inadecuado por una variedad de razones, mientras que usar control-Z como el carácter de control para finalizar un archivo es análogo a la posición de la letra Z al final del alfabeto y sirve como una ayuda mnemotécnica muy conveniente . Una convención históricamente común y aún prevaleciente usa la convención de caracteres ETX para interrumpir y detener un programa a través de un flujo de datos de entrada, generalmente desde un teclado.
El controlador de terminal Unix utiliza el carácter de fin de transmisión ( EOT ), también conocido como control-D, para indicar el final de un flujo de datos.
En el lenguaje de programación C , y en las convenciones de Unix, el carácter nulo se utiliza para terminar cadenas de texto ; dichas cadenas terminadas en nulo se pueden conocer en forma abreviada como ASCIZ o ASCIIZ, donde aquí Z representa "cero".
Los equipos especializados podrían utilizar otras representaciones, por ejemplo, gráficos ISO 2047 o números hexadecimales .
Los códigos 20 hexadecimales a 7E hexadecimales , conocidos como caracteres imprimibles, representan letras, dígitos, signos de puntuación y algunos símbolos diversos. Hay 95 caracteres imprimibles en total. [n]
El código 20 hexadecimal , el carácter "espacio", denota el espacio entre palabras, tal como lo produce la barra espaciadora de un teclado. Dado que el carácter de espacio se considera un gráfico invisible (en lugar de un carácter de control) [3] : 223 [10], se incluye en la tabla siguiente en lugar de en la sección anterior.
El código 7F hexadecimal corresponde al carácter de control "borrar" (DEL) no imprimible y, por lo tanto, se omite en este cuadro; se trata en el cuadro de la sección anterior. Las versiones anteriores de ASCII usaban la flecha hacia arriba en lugar del signo de intercalación (5E hexadecimal ) y la flecha hacia la izquierda en lugar del guión bajo (5F hexadecimal ). [6] [50]
El código ASCII se utilizó por primera vez comercialmente en 1963 como un código de teleimpresora de siete bits para la red TWX (TeletypeWriter eXchange) de la American Telephone & Telegraph . TWX originalmente utilizaba el código ITA2 de cinco bits , que también utilizaba el sistema de teleimpresora Telex de la competencia. Bob Bemer introdujo características como la secuencia de escape . [5] Su colega británico Hugh McGregor Ross ayudó a popularizar este trabajo; según Bemer, "tanto que el código que se convertiría en ASCII se llamó primero Código Bemer-Ross en Europa". [51] Debido a su extenso trabajo sobre ASCII, Bemer ha sido llamado "el padre de ASCII". [52]
El 11 de marzo de 1968, el presidente de los Estados Unidos, Lyndon B. Johnson, ordenó que todas las computadoras adquiridas por el gobierno federal de los Estados Unidos admitieran ASCII, declarando: [53] [54] [55]
También he aprobado las recomendaciones del Secretario de Comercio [ Luther H. Hodges ] sobre las normas para registrar el Código Estándar para el Intercambio de Información en cintas magnéticas y cintas de papel cuando se utilicen en operaciones informáticas. Todas las computadoras y configuraciones de equipos relacionados que se incorporen al inventario del Gobierno Federal a partir del 1 de julio de 1969 deben tener la capacidad de utilizar el Código Estándar para el Intercambio de Información y los formatos prescritos por las normas de cintas magnéticas y cintas de papel cuando se utilicen estos medios.
ASCII fue la codificación de caracteres más común en la World Wide Web hasta diciembre de 2007, cuando la codificación UTF-8 la superó; UTF-8 es compatible con versiones anteriores de ASCII. [56] [57] [58]
A medida que la tecnología informática se fue extendiendo por el mundo, diferentes organismos de normalización y corporaciones desarrollaron muchas variantes del código ASCII para facilitar la expresión de idiomas distintos del inglés que utilizaban alfabetos basados en el alfabeto romano. Se podrían clasificar algunas de estas variantes como " extensiones ASCII ", aunque algunos usan incorrectamente ese término para representar todas las variantes, incluidas aquellas que no conservan el mapa de caracteres ASCII en el rango de 7 bits. Además, las extensiones ASCII también han sido etiquetadas incorrectamente como ASCII.
Desde el comienzo de su desarrollo, [59] ASCII fue concebido para ser sólo una de varias variantes nacionales de un estándar de código de caracteres internacional.
Otros organismos de normalización internacionales han ratificado codificaciones de caracteres como la ISO 646 (1967) que son idénticas o casi idénticas a ASCII, con extensiones para caracteres fuera del alfabeto inglés y símbolos utilizados fuera de los Estados Unidos, como el símbolo de la libra esterlina del Reino Unido (£); por ejemplo, con la página de códigos 1104. Casi todos los países necesitaban una versión adaptada de ASCII, ya que ASCII se adaptaba a las necesidades de solo los EE. UU. y algunos otros países. Por ejemplo, Canadá tenía su propia versión que admitía caracteres franceses.
Muchos otros países desarrollaron variantes del ASCII para incluir letras no inglesas (por ejemplo, é , ñ , ß , Ł ), símbolos monetarios (por ejemplo, £ , ¥ ), etc. Véase también YUSCII (Yugoslavia).
Compartiría la mayoría de los caracteres en común, pero asignaría otros caracteres útiles a nivel local a varios puntos de código reservados para "uso nacional". Sin embargo, los cuatro años que transcurrieron entre la publicación de ASCII-1963 y la primera aceptación por parte de la ISO de una recomendación internacional durante 1967 [60] hicieron que las opciones de ASCII para los caracteres de uso nacional parecieran ser estándares de facto para el mundo, lo que causó confusión e incompatibilidad una vez que otros países comenzaron a hacer sus propias asignaciones a estos puntos de código.
La norma ISO/IEC 646, al igual que el ASCII, es un conjunto de caracteres de 7 bits. No ofrece códigos adicionales, por lo que los mismos puntos de código codifican caracteres diferentes en distintos países. Se definieron códigos de escape para indicar qué variante nacional se aplicaba a un fragmento de texto, pero rara vez se utilizaban, por lo que a menudo era imposible saber con qué variante trabajar y, por lo tanto, qué carácter representaba un código y, en general, los sistemas de procesamiento de textos solo podían manejar una variante de todos modos.
Debido a que los caracteres de corchetes y llaves de ASCII se asignaron a puntos de código de "uso nacional" que se usaban para letras acentuadas en otras variantes nacionales de ISO/IEC 646, un programador alemán, francés o sueco, etc. que usara su variante nacional de ISO/IEC 646, en lugar de ASCII, tenía que escribir, y por lo tanto leer, algo como
ä aÄiÜ = 'Ön'; ü
en lugar de
{ a[i] = '\n'; }
Los trígrafos C se crearon para resolver este problema en el ANSI C , aunque su introducción tardía y su implementación inconsistente en los compiladores limitaron su uso. Muchos programadores mantenían sus computadoras en ASCII, por lo que el texto simple en sueco, alemán, etc. (por ejemplo, en el correo electrónico o Usenet ) contenía "{, }" y variantes similares en medio de las palabras, algo a lo que esos programadores se acostumbraron. Por ejemplo, un programador sueco que le escribiera a otro programador preguntándole si deberían ir a almorzar, podría recibir "N{ jag har sm|rg}sar" como respuesta, que debería ser "Nä jag har smörgåsar", que significa "No, tengo sándwiches".
En Japón y Corea, a partir de la década de 2020, [actualizar]se utiliza una variación del código ASCII en la que la barra invertida (hexadecimal 5C) se representa como ¥ (un símbolo de yen en Japón) o ₩ (un símbolo de won en Corea). Esto significa que, por ejemplo, la ruta de archivo C:\Users\Smith se muestra como C:¥Users¥Smith (en Japón) o C:₩Users₩Smith (en Corea).
En Europa, los conjuntos de caracteres de teletexto , que son variantes de ASCII, se utilizan para los subtítulos de transmisión de televisión, definidos por World System Teletext y transmitidos utilizando el estándar DVB-TXT para integrar teletexto en transmisiones DVB. [61] En el caso de que los subtítulos se hayan creado inicialmente para teletexto y se hayan convertido, los formatos de subtítulos derivados están restringidos a los mismos conjuntos de caracteres.
Con el tiempo, a medida que las computadoras de 8, 16 y 32 bits (y más tarde, de 64 bits ) comenzaron a reemplazar a las computadoras de 12 , 18 y 36 bits como norma, se volvió común usar un byte de 8 bits para almacenar cada carácter en la memoria, lo que brindó la oportunidad de desarrollar parientes extendidos de 8 bits de ASCII. En la mayoría de los casos, estos se desarrollaron como verdaderas extensiones de ASCII, dejando intacta la asignación de caracteres original, pero agregando definiciones de caracteres adicionales después de los primeros 128 caracteres (es decir, 7 bits). ASCII en sí siguió siendo un código de siete bits: el término "ASCII extendido" no tiene estatus oficial.
En algunos países se desarrollaron extensiones de 8 bits del ASCII que incluían compatibilidad con caracteres utilizados en los idiomas locales; por ejemplo, ISCII para la India y VISCII para Vietnam. Las computadoras Kaypro CP/M utilizaban los 128 caracteres "superiores" del alfabeto griego. [ cita requerida ]
Incluso para los mercados en los que no era necesario añadir muchos caracteres para admitir idiomas adicionales, los fabricantes de los primeros sistemas informáticos domésticos solían desarrollar sus propias extensiones de 8 bits de ASCII para incluir caracteres adicionales, como caracteres de dibujo de cajas , semigráficos y sprites de videojuegos . A menudo, estas adiciones también reemplazaban caracteres de control (índice 0 a 31, así como índice 127) con extensiones aún más específicas de la plataforma. En otros casos, el bit adicional se utilizaba para algún otro propósito, como alternar el vídeo inverso ; este enfoque fue utilizado por ATASCII , una extensión de ASCII desarrollada por Atari .
La mayoría de las extensiones ASCII se basan en ASCII-1967 (el estándar actual), pero algunas extensiones se basan en el anterior ASCII-1963. Por ejemplo, PETSCII , que fue desarrollado por Commodore International para sus sistemas de 8 bits , se basa en ASCII-1963. Asimismo, muchos conjuntos de caracteres Sharp MZ se basan en ASCII-1963.
IBM definió la página de códigos 437 para el IBM PC , reemplazando los caracteres de control con símbolos gráficos como caras sonrientes y asignando caracteres gráficos adicionales a las 128 posiciones superiores. [62] Digital Equipment Corporation desarrolló el Conjunto de caracteres multinacionales (DEC-MCS) para su uso en el popular terminal VT220 como una de las primeras extensiones diseñadas más para idiomas internacionales que para gráficos de bloques. Apple definió Mac OS Roman para Macintosh y Adobe definió la codificación estándar PostScript para PostScript ; ambos conjuntos contenían letras "internacionales", símbolos tipográficos y signos de puntuación en lugar de gráficos, más como conjuntos de caracteres modernos.
El estándar ISO/IEC 8859 (derivado del DEC-MCS) proporcionó un estándar que la mayoría de los sistemas copiaron (o al menos se basaron en él, cuando no lo copiaron exactamente). Una extensión popular adicional diseñada por Microsoft, Windows-1252 (a menudo etiquetada erróneamente como ISO-8859-1 ), agregó los signos de puntuación tipográficos necesarios para la impresión de texto tradicional. ISO-8859-1, Windows-1252 y el ASCII original de 7 bits fueron los métodos de codificación de caracteres más comunes en la World Wide Web hasta 2008, cuando UTF-8 los superó. [57]
La norma ISO/IEC 4873 introdujo 32 códigos de control adicionales definidos en el rango hexadecimal 80–9F , como parte de la extensión de la codificación ASCII de 7 bits para convertirse en un sistema de 8 bits. [63]
Unicode y el conjunto de caracteres universales (UCS) ISO/IEC 10646 tienen una gama mucho más amplia de caracteres y sus diversas formas de codificación han comenzado a suplantar rápidamente a ISO/IEC 8859 y ASCII en muchos entornos. Mientras que ASCII está limitado a 128 caracteres, Unicode y el UCS admiten más caracteres al separar los conceptos de identificación única (utilizando números naturales llamados puntos de código ) y codificación (en formatos binarios de 8, 16 o 32 bits, llamados UTF-8 , UTF-16 y UTF-32 , respectivamente).
El ASCII se incorporó al conjunto de caracteres Unicode (1991) como los primeros 128 símbolos, por lo que los caracteres ASCII de 7 bits tienen los mismos códigos numéricos en ambos conjuntos. Esto permite que UTF-8 sea compatible con versiones anteriores del ASCII de 7 bits, ya que un archivo UTF-8 que contiene solo caracteres ASCII es idéntico a un archivo ASCII que contiene la misma secuencia de caracteres. Aún más importante, se garantiza la compatibilidad con versiones posteriores , ya que el software que reconoce solo caracteres ASCII de 7 bits como especiales y no altera los bytes con el bit más alto establecido (como se hace a menudo para admitir extensiones ASCII de 8 bits como ISO-8859-1) conservará los datos UTF-8 sin cambios. [64]
^@
!"#$%&'()*+,-./0123456789:;<=>?@ABCDEFGHIJKLMNOPQRSTUVWXYZ[\]^_`abcdefghijklmnopqrstuvwxyz{|}~
Además, define códigos para 33 caracteres de control no imprimibles, en su mayoría obsoletos, que afectan el modo en que se procesa el texto.
El uso de una función de "nueva línea" (retorno de carro y avance de línea combinados) es más simple tanto para el hombre como para la máquina que requerir ambas funciones para iniciar una nueva línea; el Estándar Nacional Estadounidense X3.4-1968 permite que el código de avance de línea lleve el significado de nueva línea.
Se produjo el cambio de ASCII 1961 a ASCII 1968. Algunos lenguajes informáticos usaban caracteres en ASCII 1961, como la flecha hacia arriba y la flecha hacia la izquierda. Estos caracteres desaparecieron del ASCII 1968. Trabajamos con Fred Mocking, que para entonces estaba en Ventas en
Teletype
, en un cilindro tipográfico que comprometería los caracteres cambiantes para que los significados del ASCII 1961 no se perdieran por completo. El carácter de subrayado se hizo más bien en forma de cuña para que también pudiera servir como flecha hacia la izquierda.