stringtranslate.com

Análisis de errores (matemáticas)

En matemáticas, el análisis de errores es el estudio del tipo y cantidad de error , o incertidumbre, que puede estar presente en la solución de un problema. Esta cuestión es particularmente importante en áreas aplicadas como el análisis numérico y la estadística .

Análisis de errores en modelado numérico.

En la simulación numérica o el modelado de sistemas reales, el análisis de errores se ocupa de los cambios en la salida del modelo a medida que los parámetros del modelo varían alrededor de una media .

Por ejemplo, en un sistema modelado como una función de dos variables, el análisis de errores se ocupa de la propagación de los errores numéricos en y (alrededor de los valores medios y ) al error en (alrededor de una media ). [1]

En el análisis numérico, el análisis de errores comprende tanto el análisis de errores hacia adelante como el análisis de errores hacia atrás .

Análisis de errores directos

El análisis de error directo implica el análisis de una función que es una aproximación (generalmente un polinomio finito) a una función para determinar los límites del error en la aproximación; es decir, encontrar tal que la evaluación de errores directos se desee en números validados . [2]

Análisis de errores hacia atrás

El análisis de error hacia atrás implica el análisis de la función de aproximación para determinar los límites de los parámetros de modo que el resultado [3]

El análisis de errores hacia atrás, cuya teoría fue desarrollada y popularizada por James H. Wilkinson , se puede utilizar para establecer que un algoritmo que implementa una función numérica es numéricamente estable. [4] El enfoque básico es mostrar que aunque el resultado calculado, debido a errores de redondeo, no será exactamente correcto, es la solución exacta a un problema cercano con datos de entrada ligeramente perturbados. Si la perturbación requerida es pequeña, del orden de la incertidumbre en los datos de entrada, entonces los resultados son, en cierto sentido, tan precisos como los datos "merece". El algoritmo se define entonces como retroestable . La estabilidad es una medida de la sensibilidad a los errores de redondeo de un procedimiento numérico determinado; por el contrario, el número de condición de una función para un problema determinado indica la sensibilidad inherente de la función a pequeñas perturbaciones en su entrada y es independiente de la implementación utilizada para resolver el problema. [5] [6]

Aplicaciones

Sistema de Posicionamiento Global

El análisis de los errores calculados utilizando el sistema de posicionamiento global es importante para comprender cómo funciona el GPS y para saber qué magnitud de error se debe esperar. El Sistema de Posicionamiento Global realiza correcciones por errores de reloj del receptor y otros efectos, pero aún quedan errores residuales que no se corrigen. El Sistema de Posicionamiento Global (GPS) fue creado por el Departamento de Defensa (DOD) de los Estados Unidos en la década de 1970. Ha llegado a ser ampliamente utilizado para la navegación tanto por el ejército estadounidense como por el público en general.

Simulación de dinámica molecular.

En las simulaciones de dinámica molecular (MD), existen errores debido a un muestreo inadecuado del espacio de fase o eventos que ocurren con poca frecuencia, lo que conduce a errores estadísticos debido a fluctuaciones aleatorias en las mediciones.

Para una serie de M mediciones de una propiedad fluctuante A , el valor medio es:

Cuando estas M medidas son independientes, la varianza de la media A es:

pero en la mayoría de las simulaciones MD, existe una correlación entre la cantidad A en diferentes momentos, por lo que la varianza de la media A se subestimará ya que el número efectivo de mediciones independientes es en realidad menor que M. En tales situaciones reescribimos la varianza como:

¿Dónde está la función de autocorrelación definida por

Luego podemos usar la función de correlación automática para estimar la barra de error . Afortunadamente, tenemos un método mucho más sencillo basado en el promedio de bloques. [7]

Verificación de datos científicos

Las mediciones generalmente tienen una pequeña cantidad de error y las mediciones repetidas del mismo artículo generalmente darán como resultado ligeras diferencias en las lecturas. Estas diferencias se pueden analizar y siguen ciertas propiedades matemáticas y estadísticas conocidas. Si un conjunto de datos parece ser demasiado fiel a la hipótesis, es decir, no aparece la cantidad de error que normalmente habría en tales mediciones, se puede llegar a la conclusión de que los datos pueden haber sido falsificados. El análisis de errores por sí solo no suele ser suficiente para demostrar que los datos han sido falsificados o fabricados, pero puede proporcionar las pruebas necesarias para confirmar las sospechas de mala conducta.

Ver también

Referencias

  1. ^ James W. Haefner (1996). Modelado de sistemas biológicos: principios y aplicaciones . Saltador. págs. 186-189. ISBN 0412042010.
  2. ^ Tucker, W. (2011). Numéricos validados: una breve introducción a los cálculos rigurosos. Prensa de la Universidad de Princeton.
  3. ^ Francisco J. Scheid (1988). Esquema de la teoría y problemas del análisis numérico de Schaum . Profesional de McGraw-Hill. págs.11. ISBN 0070552215.
  4. ^ James H. Wilkinson (8 de septiembre de 2003). Antonio Ralston; Edwin D. Reilly; David Hemmendinger (eds.). "Análisis de errores" en la Enciclopedia de Ciencias de la Computación. págs. 669–674. Wiley. ISBN 978-0-470-86412-8. Consultado el 14 de mayo de 2013 .
  5. ^ Bo Einarsson (2005). Precisión y confiabilidad en la computación científica. SIAM. págs.50–. ISBN 978-0-89871-815-7. Consultado el 14 de mayo de 2013 .
  6. ^ Corless M. Robert; Fillion Nicolás (2013). Una introducción de posgrado a los métodos numéricos: desde el punto de vista del análisis de errores hacia atrás . Saltador. ISBN 978-1-4614-8452-3.
  7. ^ DC Rapaport, El arte de la simulación de dinámica molecular , Cambridge University Press.

enlaces externos