El término Unicode proviene de los tres objetivos perseguidos: universalidad, uniformidad, y unicidad.[1] Unicode define cada carácter o símbolo mediante un nombre e identificador numérico, el punto de código (code point).[2] Este estándar es mantenido por el Unicode Technical Committee (UTC), integrado en el Consorcio Unicode, del que forman parte con distinto grado de implicación empresas como: Microsoft, Apple, Adobe, IBM, Oracle, SAP, Google o Facebook, instituciones como la Universidad de Berkeley, o el Gobierno de la India y profesionales y académicos a título individual.Este estándar ha sido ampliamente adoptado en diversas tecnologías recientes, como XML, Java y sistemas operativos modernos.Además, Unicode incluye los signos diacríticos como caracteres individuales que pueden combinarse con otros caracteres, también ofrece versiones predefinidas de la mayoría de las letras con símbolos diacríticos utilizados en la actualidad, como las vocales acentuadas del español.Unicode es un estándar en constante evolución, y se agregan nuevos caracteres de forma continua.[6] Unicode está sincronizado con el estándar ISO/IEC conocido como UCS o Juego de Caracteres Universal.Además, Unicode reserva espacio para que los fabricantes de software puedan crear extensiones para su propio uso.El estándar Unicode codifica los caracteres esenciales ―grafemas― definiéndolos de forma abstracta y deja la representación visual (tamaño, dimensión, fuente o estilo) al software que lo trate, como procesadores de texto o navegadores web.Se considera que son diferentes los caracteres de alfabetos distintos, aunque compartan forma y significación.El tipo de cada carácter y sus atributos definen el papel que pueden jugar en una combinación.La versión original del estándar se desarrolló a partir de los estándares industriales existentes en los países afectados.IRG es un grupo de trabajo integrado en ISO/IEC JTC1/SC2/WG2, incluyendo a China, Hong Kong, Macao, Taipei Computer Association, Singapur, Japón, Corea del Sur, Corea del Norte, Vietnam y Estados Unidos de América.Dado un punto de código expresado en hexadecimal, los 4 últimos dígitos determinan la posición del carácter en el plano.Los bloques están definidos normativamente y son rangos consecutivos del espacio de códigos.Según su arquitectura, un ordenador utilizará unidades de 8, 16 o 32 bits para representar dichos enteros.Durante el año 1989 se sumaron colaboradores de otras compañías como Microsoft o Sun Microsystems.La segunda versión, que ya incluía la escritura ideográfica han se publicó en junio de 1992.A continuación se muestra una tabla con las distintas versiones del Estándar Unicode con sus adiciones o modificaciones más importantes.
Composición del carácter "ñ". La primera es un carácter independiente, la segunda una
n
más una virgulilla (en inglés conocida como
tilde
) combinable.