stringtranslate.com

Error de aproximación

Gráfica de (azul) con su aproximación lineal (roja) en a = 0. El error de aproximación es la brecha entre las curvas, y aumenta para valores x más alejados de 0.

El error de aproximación se refiere a la diferencia entre un valor exacto y su aproximación. Esta discrepancia se puede cuantificar de dos maneras: como error absoluto , que mide la diferencia numérica, y como error relativo , que expresa el error absoluto en relación con el valor verdadero. Al comprender ambos tipos de errores, podemos evaluar mejor la precisión de nuestras estimaciones y mediciones.

Los errores de aproximación pueden ocurrir debido a varios factores, que a menudo se originan en limitaciones en las herramientas de medición o en la precisión computacional. Por ejemplo, si una hoja de papel mide exactamente 4,53 cm, pero la regla solo marca el 0,1 cm más cercano, se registraría como 4,5 cm. De manera similar, en informática , las limitaciones en la precisión de las máquinas hacen que los números se redondeen a veces, lo que genera pequeñas discrepancias . Estos errores, aunque a menudo son menores, pueden afectar la precisión de los cálculos, especialmente cuando se acumulan en varios pasos.

En el campo matemático del análisis numérico , la estabilidad numérica de un algoritmo indica hasta qué punto los errores en la entrada del algoritmo darán lugar a grandes errores en la salida; los algoritmos numéricamente estables no producen un error significativo en la salida cuando la entrada está mal formada y viceversa. [1]

Definición formal

Dado un valor v , decimos que v approx se aproxima a v con un error absoluto ε >0 si [2] [3]

donde las barras verticales indican el valor absoluto .

Decimos que v approx se aproxima a v con un error relativo η > 0 si

.

Si v ≠ 0, entonces

.

El error porcentual (una expresión del error relativo) es [3]

Un límite de error es un límite superior en el tamaño relativo o absoluto de un error de aproximación. [4]

Ejemplos

Mejores aproximaciones racionales para π (círculo verde), e (rombo azul), ϕ (oblongo rosa), (√3)/2 (hexágono gris), 1/√2 (octágono rojo) y 1/√3 (triángulo naranja) calculadas a partir de sus expansiones en fracciones continuas, representadas como pendientes y / x con errores respecto de sus valores verdaderos (guiones negros)  

Por ejemplo, si el valor exacto es 50 y lo aproximamos a 49,9, el error absoluto es 0,1. El error relativo, calculado como 0,1/50, equivale a 0,002, o 0,2%.

En un escenario práctico, considere medir líquido en un vaso de precipitados de 6 mL . Si la lectura muestra 5 mL , pero el valor correcto es 6 mL, el error porcentual es 61​≈16,7 % . Este tipo de error muestra cómo incluso pequeñas discrepancias pueden traducirse en errores porcentuales significativos, ¡especialmente con mediciones más pequeñas!

El error relativo se utiliza a menudo para comparar aproximaciones de números de tamaño muy diferente; por ejemplo, aproximar el número 1.000 con un error absoluto de 3 es, en la mayoría de las aplicaciones, mucho peor que aproximar el número 1.000.000 con un error absoluto de 3; en el primer caso, el error relativo es 0,003 mientras que en el segundo es sólo 0,000003.

Hay dos aspectos importantes del error relativo que hay que recordar. En primer lugar, el error relativo se vuelve indefinido cuando el valor exacto es cero, ya que esto colocaría cero en el denominador. En segundo lugar, el error relativo solo es significativo cuando los valores se miden en una escala de proporción, una que tiene un cero verdadero. Esto se debe a que el error relativo es sensible a las unidades de medida. Por ejemplo, una medición de temperatura con un error absoluto de 1 °C y un valor verdadero de 2 °C tiene un error relativo de 0,5. Sin embargo, en la escala Kelvin, el mismo error de 1 K con un valor verdadero de 275,15 K (equivalente a 2 °C) da como resultado un error relativo mucho menor de 0,00363.

Comparación

Las afirmaciones sobre errores relativos son sensibles a la suma de constantes, pero no a la multiplicación por constantes. Para los errores absolutos , ocurre lo contrario: son sensibles a la multiplicación por constantes, pero no a la suma de constantes. [5] : 34 

Aproximación de números reales en tiempo polinomial

Decimos que un valor real v es polinomialmente computable con error absoluto a partir de una entrada si, para cada número racional ε > 0, es posible calcular un número racional v approx que se aproxima a v con error absoluto ε , en un polinomio temporal en el tamaño de la entrada y el tamaño de codificación de ε (que es O(log(1/ ε )). Análogamente, v es polinomialmente computable con error relativo si, para cada número racional η > 0, es posible calcular un número racional v approx que se aproxima a v con un error relativo η , en un polinomio temporal en el tamaño de la entrada y el tamaño de codificación de η .

Si v es polinomialmente computable con error relativo (mediante algún algoritmo llamado REL), entonces también es polinomialmente computable con error absoluto. Demostración . Sea ε > 0 el error absoluto deseado. Primero, use REL con error relativo η = 1/2; encuentre un número racional r 1 tal que | v - r 1 | ≤ | v |/2, y por lo tanto | v | ≤ 2 | r 1 |. Si r 1 = 0, entonces v = 0 y hemos terminado. Dado que REL es polinomial, la longitud de codificación de r 1 es polinomial en la entrada. Ahora, ejecute REL nuevamente con error relativo η = ε / (2 | r 1 |). Esto produce un número racional r 2 que satisface | v - r 2 | ≤ ε | v | / (2 r 1 ) ≤ ε , por lo que tiene un error absoluto ε como se deseaba. [5] : 34 

La implicación inversa no suele ser cierta. Pero, si suponemos que se puede calcular algún límite inferior positivo de |v| en tiempo polinomial, p. ej., | v | > b > 0, y v es polinomialmente computable con error absoluto (mediante algún algoritmo llamado ABS), entonces también es polinomialmente computable con error relativo, ya que podemos simplemente llamar ABS con error absoluto ε = η b.

Un algoritmo que, para cada número racional η > 0, calcula un número racional v approx que se aproxima a v con un error relativo η , en un polinomio de tiempo en el tamaño de la entrada y 1/ η (en lugar de log(1/ η )), se denomina FPTAS .

Instrumentos

En la mayoría de los instrumentos indicadores, la precisión está garantizada hasta un cierto porcentaje de la lectura de escala completa. Los límites de estas desviaciones con respecto a los valores especificados se conocen como errores límite o errores de garantía. [6]

Generalizaciones

Las definiciones se pueden extender al caso en que y son vectores n -dimensionales , reemplazando el valor absoluto con una n -norma . [7]

Véase también

Referencias

  1. ^ Weisstein, Eric W. "Estabilidad numérica". mathworld.wolfram.com . Consultado el 11 de junio de 2023 .
  2. ^ Weisstein, Eric W. "Absolute Error". mathworld.wolfram.com . Consultado el 11 de junio de 2023 .
  3. ^ ab "Error absoluto y relativo | Cálculo II". courses.lumenlearning.com . Consultado el 11 de junio de 2023 .
  4. ^ "Aproximación y límites de error". www.math.wpi.edu . Consultado el 11 de junio de 2023 .
  5. ^ ab Grötschel, Martín ; Lovász, László ; Schrijver, Alexander (1993), Algoritmos geométricos y optimización combinatoria, Algoritmos y combinatoria, vol. 2 (2ª ed.), Springer-Verlag, Berlín, doi :10.1007/978-3-642-78240-4, ISBN 978-3-642-78242-8, Sr.  1261419
  6. ^ Helfrick, Albert D. (2005) Instrumentación electrónica moderna y técnicas de medición . pág. 16. ISBN 81-297-0731-4 
  7. ^ Golub, Gene ; Charles F. Van Loan (1996). Cálculos matriciales – Tercera edición . Baltimore: The Johns Hopkins University Press. pág. 53. ISBN 0-8018-5413-X.

Enlaces externos