La longitud o el ancho de bits es la cantidad de dígitos binarios, llamados bits , necesarios para representar un entero sin signo [1] como un número binario . Formalmente, la longitud de bits de un número natural es
donde es el logaritmo binario y es la función techo.
En su nivel más básico, las computadoras digitales y los dispositivos de telecomunicaciones (a diferencia de los dispositivos analógicos ) procesan datos codificados en formato binario . El formato binario expresa los datos como una serie de valores de longitud arbitraria con una de dos opciones: Sí/No, 1/0, Verdadero/Falso, etc., todas las cuales pueden expresarse electrónicamente como Encendido/Apagado. Para las aplicaciones de tecnología de la información, la cantidad de información que se procesa es una consideración de diseño importante. El término longitud de bits es una abreviatura técnica para esta medida.
Por ejemplo, los procesadores de ordenador suelen estar diseñados para procesar datos agrupados en palabras de una longitud determinada de bits (8 bits, 16 bits, 32 bits, 64 bits, etc.). La longitud en bits de cada palabra define, por un lado, cuántas posiciones de memoria puede abordar de forma independiente el procesador. En criptografía , el tamaño de clave de un algoritmo es la longitud en bits de las claves utilizadas por ese algoritmo, y es un factor importante de la solidez de un algoritmo.