stringtranslate.com

Precisión (informática)

En informática , la precisión de una cantidad numérica es una medida del nivel de detalle con el que se expresa la cantidad. Normalmente se mide en bits, pero a veces en dígitos decimales. Está relacionada con la precisión en matemáticas , que describe la cantidad de dígitos que se utilizan para expresar un valor.

Algunos de los formatos de precisión estandarizados son

De estos, el formato de precisión óctuple se utiliza con poca frecuencia. Los formatos de precisión simple y doble son los más utilizados y compatibles con casi todas las plataformas. El uso del formato de precisión media ha aumentado, especialmente en el campo del aprendizaje automático , ya que muchos algoritmos de aprendizaje automático son inherentemente tolerantes a errores.

Error de redondeo

La precisión es a menudo la fuente de errores de redondeo en los cálculos . La cantidad de bits que se utilizan para almacenar un número suele provocar cierta pérdida de precisión. Un ejemplo sería almacenar "sin(0.1)" en el estándar IEEE de punto flotante de precisión simple. El error suele aumentar a medida que se realizan cálculos posteriores con los datos (aunque también se puede reducir).

Véase también

Referencias