stringtranslate.com

Análisis de errores (matemáticas)

En matemáticas, el análisis de errores es el estudio del tipo y la cantidad de error o incertidumbre que puede estar presente en la solución de un problema. Esta cuestión es especialmente importante en áreas aplicadas como el análisis numérico y la estadística .

Análisis de errores en modelado numérico

En la simulación numérica o el modelado de sistemas reales, el análisis de errores se ocupa de los cambios en la salida del modelo a medida que los parámetros del modelo varían alrededor de una media .

Por ejemplo, en un sistema modelado como una función de dos variables, el análisis de errores se ocupa de la propagación de los errores numéricos en y (alrededor de los valores medios y ) al error en (alrededor de una media ). [1]

En el análisis numérico, el análisis de errores comprende tanto el análisis de errores hacia adelante como el análisis de errores hacia atrás .

Análisis de errores de avance

El análisis de errores hacia adelante implica el análisis de una función que es una aproximación (generalmente un polinomio finito) a una función para determinar los límites del error en la aproximación; es decir, para encontrar tal que La evaluación de errores hacia adelante es deseada en números validados . [2]

Análisis de errores hacia atrás

El análisis de error hacia atrás implica el análisis de la función de aproximación para determinar los límites de los parámetros de modo que el resultado [3]

El análisis de errores hacia atrás, cuya teoría fue desarrollada y popularizada por James H. Wilkinson , se puede utilizar para establecer que un algoritmo que implementa una función numérica es numéricamente estable. [4] El enfoque básico es mostrar que, aunque el resultado calculado, debido a los errores de redondeo, no será exactamente correcto, es la solución exacta a un problema cercano con datos de entrada ligeramente perturbados. Si la perturbación requerida es pequeña, del orden de la incertidumbre en los datos de entrada, entonces los resultados son en cierto sentido tan precisos como los datos "merecen". El algoritmo se define entonces como estable hacia atrás . La estabilidad es una medida de la sensibilidad a los errores de redondeo de un procedimiento numérico dado; por el contrario, el número de condición de una función para un problema dado indica la sensibilidad inherente de la función a pequeñas perturbaciones en su entrada y es independiente de la implementación utilizada para resolver el problema. [5] [6]

Aplicaciones

Sistema de posicionamiento global

El análisis de los errores calculados mediante el sistema de posicionamiento global es importante para comprender cómo funciona el GPS y para saber qué magnitud de errores se deben esperar. El sistema de posicionamiento global realiza correcciones para los errores del reloj del receptor y otros efectos, pero aún quedan errores residuales que no se corrigen. El sistema de posicionamiento global (GPS) fue creado por el Departamento de Defensa de los Estados Unidos (DOD) en la década de 1970. Se ha utilizado ampliamente para la navegación tanto por parte del ejército estadounidense como del público en general.

Simulación de dinámica molecular

En las simulaciones de dinámica molecular (MD), existen errores debido a un muestreo inadecuado del espacio de fases o eventos que ocurren con poca frecuencia, estos conducen al error estadístico debido a la fluctuación aleatoria en las mediciones.

Para una serie de M mediciones de una propiedad fluctuante A , el valor medio es:

Cuando estas M medidas son independientes, la varianza de la media A es:

Pero en la mayoría de las simulaciones MD, existe una correlación entre la cantidad A en diferentes momentos, por lo que la varianza de la media A se subestimará ya que el número efectivo de mediciones independientes es en realidad menor que M . En tales situaciones, reescribimos la varianza como:

¿Dónde está la función de autocorrelación definida por

Podemos entonces utilizar la función de autocorrelación para estimar la barra de error . Afortunadamente, tenemos un método mucho más simple basado en el promedio de bloques. [7]

Verificación de datos científicos

Las mediciones suelen tener una pequeña cantidad de error y las mediciones repetidas del mismo elemento generalmente darán como resultado ligeras diferencias en las lecturas. Estas diferencias se pueden analizar y siguen ciertas propiedades matemáticas y estadísticas conocidas. Si un conjunto de datos parece ser demasiado fiel a la hipótesis, es decir, no aparece la cantidad de error que normalmente habría en tales mediciones, se puede llegar a la conclusión de que los datos pueden haber sido falsificados. El análisis de errores por sí solo no suele ser suficiente para demostrar que los datos han sido falsificados o inventados, pero puede proporcionar la evidencia de respaldo necesaria para confirmar las sospechas de mala conducta.

Véase también

Referencias

  1. ^ James W. Haefner (1996). Modelado de sistemas biológicos: principios y aplicaciones . Springer. pp. 186–189. ISBN. 0412042010.
  2. ^ Tucker, W. (2011). Cifras validadas: una breve introducción a los cálculos rigurosos. Princeton University Press.
  3. ^ Francis J. Scheid (1988). Esquema de teoría y problemas del análisis numérico de Schaum . McGraw-Hill Professional. pp. 11. ISBN 0070552215.
  4. ^ James H. Wilkinson (8 de septiembre de 2003). Anthony Ralston; Edwin D. Reilly; David Hemmendinger (eds.). "Análisis de errores" en Encyclopedia of Computer Science. págs. 669–674. Wiley. ISBN 978-0-470-86412-8. Recuperado el 14 de mayo de 2013 .
  5. ^ Bo Einarsson (2005). Precisión y fiabilidad en la computación científica. SIAM. pp. 50–. ISBN 978-0-89871-815-7. Recuperado el 14 de mayo de 2013 .
  6. ^ Corless M. Robert; Fillion Nicolas (2013). Introducción a los métodos numéricos para estudiantes de posgrado: desde el punto de vista del análisis de errores hacia atrás . Springer. ISBN 978-1-4614-8452-3.
  7. ^ DC Rapaport, El arte de la simulación de dinámica molecular , Cambridge University Press.

Enlaces externos