stringtranslate.com

Precisión (informática)

En informática , la precisión de una cantidad numérica es una medida del detalle con el que se expresa la cantidad. Generalmente se mide en bits, pero a veces en dígitos decimales. Está relacionado con la precisión en matemáticas , que describe la cantidad de dígitos que se utilizan para expresar un valor.

Algunos de los formatos de precisión estandarizados son

De estos, el formato de precisión óctuple rara vez se utiliza. Los formatos de precisión simple y doble son los más utilizados y soportados en casi todas las plataformas. El uso del formato de media precisión ha aumentado, especialmente en el campo del aprendizaje automático, ya que muchos algoritmos de aprendizaje automático son inherentemente tolerantes a errores.

Error de redondeo

La precisión es a menudo la fuente de errores de redondeo en los cálculos . La cantidad de bits utilizados para almacenar un número a menudo causará cierta pérdida de precisión. Un ejemplo sería almacenar "sin(0.1)" en el estándar de punto flotante de precisión simple IEEE. El error suele amplificarse a medida que se realizan cálculos posteriores utilizando los datos (aunque también se puede reducir).

Ver también

Referencias