Precisión arbitraria

En computación, precisión arbitraria o bignum (por big number, "número grande" en inglés) es un método que permite la representación, en un programa informático, de números ya sean enteros o racionales con tantos dígitos de precisión como sean deseados y además posibilita la realización de operaciones aritméticas sobre dichos números.

Si se trata de números fraccionarios se puede representar con arrays separados el denominador y el numerador; o bien utilizar una notación de punto fijo almacenando los dígitos decimales con la precisión deseada; o bien utilizar un formato de punto flotante con un significando multiplicado por un exponente.

Hoy en día, bibliotecas bignum están disponibles para los lenguajes de programación más usados.

Todos los sistemas de álgebra computacional implementan facilidades bignum.

También se usa para computar constantes matemáticas fundamentales tales como pi con millones o más dígitos y analizar sus propiedades.