stringtranslate.com

Interpolación polinomial

En análisis numérico , la interpolación polinomial es la interpolación de un conjunto de datos bivariados dado por el polinomio de menor grado posible que pasa por los puntos del conjunto de datos. [1]

Dado un conjunto de n + 1 puntos de datos , sin dos iguales, se dice que una función polinómica interpola los datos si para cada uno .

Siempre existe un polinomio único, comúnmente dado por dos fórmulas explícitas, los polinomios de Lagrange y los polinomios de Newton .

Aplicaciones

El uso original de los polinomios de interpolación era aproximar valores de funciones trascendentales importantes como el logaritmo natural y las funciones trigonométricas . Comenzando con unos pocos puntos de datos calculados con precisión, el polinomio de interpolación correspondiente aproximará la función en un punto cercano arbitrario. La interpolación polinómica también constituye la base de algoritmos de cuadratura numérica ( regla de Simpson ) y ecuaciones diferenciales ordinarias numéricas ( métodos multicuadrícula ).

En gráficos por computadora , los polinomios se pueden utilizar para aproximar curvas planas complicadas dados unos pocos puntos específicos, por ejemplo, las formas de las letras en tipografía . Esto generalmente se hace con curvas de Bézier , que son una generalización simple de polinomios de interpolación (que tienen tangentes y puntos específicos).

En el análisis numérico, la interpolación polinomial es esencial para realizar multiplicaciones subcuadráticas y elevaciones al cuadrado, como la multiplicación de Karatsuba y la multiplicación de Toom-Cook , donde la interpolación a través de puntos en un polinomio producto produce el producto específico requerido. Por ejemplo, dado a = f ( x ) = a 0 x 0 + a 1 x 1 + ··· y b = g ( x ) = b 0 x 0 + b 1 x 1 + ···, el producto ab es un valor específico de W ( x ) = f ( x ) g ( x ). Se pueden encontrar fácilmente puntos a lo largo de W ( x ) con valores pequeños de x , y la interpolación basada en esos puntos producirá los términos de W ( x ) y el producto específico ab . Como se formula en la multiplicación de Karatsuba, esta técnica es sustancialmente más rápida que la multiplicación cuadrática, incluso para entradas de tamaño modesto, especialmente en hardware paralelo.

En informática , la interpolación polinómica también conduce a algoritmos para la computación multipartita segura y el intercambio de secretos .

Teorema de interpolación

Para cualquier punto de datos bivariado , donde no hay dos iguales, existe como máximo un polinomio de grado único que interpola estos puntos, es decir . [2]

De manera equivalente, para una elección fija de nodos de interpolación , la interpolación polinomial define una biyección lineal entre las ( n +1)-tuplas de valores de números reales y el espacio vectorial de polinomios reales de grado como máximo n :

Este es un tipo de teorema de unisolvencia . El teorema también es válido sobre cualquier campo infinito en lugar de los números reales , por ejemplo los números racionales o complejos.

Primera prueba

Considere las funciones básicas de Lagrange dadas por:

Note que es un polinomio de grado , y tenemos para cada uno , while . De ello se deduce que la combinación lineal: tiene , por lo que es un polinomio de interpolación de grado .

Para demostrar la unicidad, supongamos que existe otro polinomio de interpolación de grado como máximo , de modo que para todos . Entonces es un polinomio de grado como máximo que tiene ceros distintos (los ). Pero un polinomio de grado distinto de cero como máximo puede tener como máximo ceros, [a] por lo que debe ser el polinomio cero, es decir . [3]

Segunda prueba

Escribe el polinomio de interpolación en la forma.

Sustituyendo esto en las ecuaciones de interpolación , obtenemos un sistema de ecuaciones lineales en los coeficientes , que se lee en forma de matriz-vector como la siguiente multiplicación :

Un interpolante corresponde a una solución de la ecuación matricial anterior . La matriz X de la izquierda es una matriz de Vandermonde , cuyo determinante se sabe que es distinto de cero ya que todos los nodos son distintos. Esto asegura que la matriz sea invertible y que la ecuación tenga una solución única ; es decir, existe y es único.

Corolario

Si es un polinomio de grado como máximo , entonces el polinomio de interpolación de en distintos puntos es él mismo.

Construyendo el polinomio de interpolación

Los puntos rojos indican los puntos de datos ( x k , y k ) , mientras que la curva azul muestra el polinomio de interpolación.

Interpolación de Lagrange

Podemos escribir el polinomio inmediatamente en términos de polinomios de Lagrange como: Para argumentos matriciales, esta fórmula se llama fórmula de Sylvester y los polinomios de Lagrange con valores matriciales son las covariantes de Frobenius .

Interpolación de Newton

Teorema

Para un polinomio de grado menor o igual a n, eso interpola en los nodos donde . Sea el polinomio de grado menor o igual a n+1 que interpola en los nodos donde . Entonces viene dado por: donde también se conoce como base de Newton y .

Prueba:

Esto se puede demostrar para el caso donde : y cuando : Por la unicidad de polinomios interpolados de grado menor que , es la interpolación polinómica requerida. Por tanto, la función se puede expresar como:

Coeficientes polinomiales

Para encontrar , tenemos que resolver la matriz triangular inferior formada organizando la ecuación anterior en forma matricial:

Los coeficientes se derivan como

dónde

es la notación para diferencias divididas . Por tanto, los polinomios de Newton se utilizan para proporcionar una fórmula de interpolación polinomial de n puntos. [3]

Fórmula directa de Newton

El polinomio de Newton se puede expresar de forma simplificada cuando se ordenan consecutivamente con el mismo espacio.

Si están ordenados consecutivamente y espaciados equidistantemente para i = 0, 1, ..., k y alguna variable x se expresa como , entonces la diferencia se puede escribir como . Entonces el polinomio de Newton se convierte en

Dado que la relación entre diferencias divididas y diferencias directas se da como: [4] Tomando , si la representación de x en las secciones anteriores se tomó como , la fórmula de interpolación directa de Newton se expresa como: que es la interpolación de todos los puntos después de . Se amplía como:

Fórmula hacia atrás de Newton

Si los nodos se reordenan como , el polinomio de Newton se convierte en

Si están equidistantes con para i = 0, 1, ..., k y , entonces,

Dado que la relación entre diferencias divididas y diferencias hacia atrás se da como: [ cita necesaria ] tomando , si la representación de x en las secciones anteriores se tomó como , la fórmula de interpolación hacia atrás de Newton se expresa como: que es la interpolación de todos los puntos antes . Se amplía como:

Diagrama de pastilla

El diagrama de rombo es un diagrama que se utiliza para describir diferentes fórmulas de interpolación que se pueden construir para un conjunto de datos determinado. Se puede utilizar una línea que comienza en el borde izquierdo y recorre el diagrama hacia la derecha para representar una fórmula de interpolación si se siguen las siguientes reglas: [5]

Diagrama de rombo: representación geométrica de interpolaciones polinómicas.
  1. Los pasos de izquierda a derecha indican suma, mientras que los pasos de derecha a izquierda indican resta
  2. Si la pendiente del paso es positiva, el término a utilizar es el producto de la diferencia y el factor inmediatamente inferior. Si la pendiente del paso es negativa, el término a utilizar es el producto de la diferencia y el factor inmediatamente superior.
  3. Si el paso es horizontal y pasa por un factor, use el producto del factor y el promedio de dos términos inmediatamente encima y debajo de él. Si el paso es horizontal y pasa por una diferencia, utilice el producto de la diferencia y el promedio de dos términos inmediatamente encima y debajo de ella.

Los factores se expresan mediante la fórmula:

Prueba de equivalencia

Si un camino va de a , puede conectarse a través de tres pasos intermedios, (a) a través de , (b) a través de o (c) a través de . Demostrar la equivalencia de estos tres caminos de dos pasos debería demostrar que todos los caminos (n pasos) se pueden transformar con el mismo inicio y final, todos los cuales representan la misma fórmula.

Camino (un):

Camino (b):

Camino (c):

Restando las contribuciones de los caminos a y b:

Por tanto, la contribución de la ruta (a) o de la ruta (b) es la misma. Dado que la ruta (c) es el promedio de las rutas (a) y (b), también contribuye con una función idéntica al polinomio. De ahí se muestra la equivalencia de caminos con los mismos puntos inicial y final. Para comprobar si las rutas se pueden cambiar a diferentes valores en la esquina más a la izquierda, es suficiente tomar solo dos rutas de paso: (a) hasta el final o (b) factorizar entre y , hasta el final o (c) comenzando desde .

Camino (un)

Camino (b)

Camino (c)

Dado que , la sustitución en las ecuaciones anteriores muestra que todos los términos anteriores se reducen a y, por lo tanto, son equivalentes. Por lo tanto, estos caminos se pueden transformar para comenzar desde la esquina más a la izquierda y terminar en un punto común. [5]

fórmula de newton

Tomando la pendiente transversal negativa desde hasta se obtiene la fórmula de interpolación de todos los puntos dispuestos consecutivamente, equivalente a la fórmula de interpolación directa de Newton:

mientras que, tomando la pendiente transversal positiva desde hasta , se obtiene la fórmula de interpolación de todos los puntos dispuestos consecutivamente, equivalente a la fórmula de interpolación hacia atrás de Newton:

donde está el número correspondiente al introducido en la interpolación de Newton.

fórmula de Gauss

Tomando una línea en zigzag hacia la derecha comenzando con pendiente negativa, obtenemos la fórmula de avance de Gauss:

mientras que partiendo de una pendiente positiva, obtenemos la fórmula de Gauss hacia atrás:

fórmula de Stirling

Al tomar un camino horizontal hacia la derecha a partir de , obtenemos la fórmula de Stirling:

La fórmula de Stirling es el promedio de las fórmulas de Gauss hacia adelante y hacia atrás.

Fórmula de Bessel

Al tomar un camino horizontal hacia la derecha a partir del factor entre y , obtenemos la fórmula de Stirling:

Algoritmos de Vandermonde

La matriz de Vandermonde en la segunda prueba anterior puede tener un número de condición grande , [6] causando grandes errores al calcular los coeficientes a i si el sistema de ecuaciones se resuelve mediante eliminación gaussiana .

Por lo tanto, varios autores han propuesto algoritmos que explotan la estructura de la matriz de Vandermonde para calcular soluciones numéricamente estables en operaciones O( n 2 ) en lugar de las O( n 3 ) requeridas por la eliminación gaussiana. [7] [8] [9] Estos métodos se basan en construir primero una interpolación de Newton del polinomio y luego convertirlo a una forma monomial .

Algoritmos que no son de Vandermonde

Para encontrar el polinomio de interpolación p ( x ) en el espacio vectorial P ( n ) de polinomios de grado n , podemos usar la base monomial habitual para P ( n ) e invertir la matriz de Vandermonde mediante eliminación gaussiana, dando un costo computacional de O ( n 3 ) operaciones. Para mejorar este algoritmo, una base más conveniente para P ( n ) puede simplificar el cálculo de los coeficientes, que luego deben traducirse nuevamente en términos de la base monomial .

Un método consiste en escribir el polinomio de interpolación en la forma de Newton (es decir, utilizando la base de Newton) y utilizar el método de diferencias divididas para construir los coeficientes, por ejemplo, el algoritmo de Neville . El costo es O( n 2 ) operaciones. Además, solo necesita hacer O( n ) trabajo adicional si se agrega un punto extra al conjunto de datos, mientras que para los otros métodos, debe rehacer todo el cálculo.

Se prefiere otro método cuando el objetivo no es calcular los coeficientes de p ( x ), sino solo un valor único p ( a ) en un punto x = a que no está en el conjunto de datos original. La forma de Lagrange calcula el valor p ( a ) con complejidad O ( n 2 ). [10]

La forma de Bernstein fue utilizada por Bernstein en una prueba constructiva del teorema de aproximación de Weierstrass y ha adquirido gran importancia en los gráficos por computadora en forma de curvas de Bézier .

Interpolaciones como combinaciones lineales de valores.

Dado un conjunto de puntos de datos (posición, valor) donde no hay dos posiciones iguales, el polinomio de interpolación puede considerarse como una combinación lineal de los valores , utilizando coeficientes que son polinomios dependiendo de . Por ejemplo, el polinomio de interpolación en la forma de Lagrange es la combinación lineal con cada coeficiente dado por el polinomio de base de Lagrange correspondiente en las posiciones dadas :

Dado que los coeficientes dependen sólo de las posiciones , no de los valores , podemos usar los mismos coeficientes para encontrar el polinomio de interpolación para un segundo conjunto de puntos de datos en las mismas posiciones:

Además, los coeficientes sólo dependen de los espacios relativos entre las posiciones. Así, dado un tercer conjunto de datos cuyos puntos están dados por la nueva variable (una transformación afín de , invertida por ):

podemos usar una versión transformada de los polinomios de coeficientes anteriores:

y escribe el polinomio de interpolación como:

Los puntos de datos suelen tener posiciones igualmente espaciadas , que pueden normalizarse mediante una transformación afín a . Por ejemplo, considere los puntos de datos

.

El polinomio de interpolación en forma de Lagrange es la combinación lineal

Por ejemplo, y .

El caso de puntos equidistantes también puede tratarse mediante el método de diferencias finitas . La primera diferencia de una secuencia de valores es la secuencia definida por . Al iterar esta operación se obtiene la enésima operación de diferencia , definida explícitamente por: donde los coeficientes forman una versión con signo del triángulo de Pascal, el triángulo de los coeficientes de transformación binomial :

Un polinomio de grado d define una secuencia de valores en puntos enteros positivos, y la diferencia de esta secuencia es idénticamente cero:

.

Por lo tanto, valores dados en puntos equidistantes, donde , tenemos: Por ejemplo, 4 puntos de datos equidistantes de una cuadrática obedecen y al resolver se obtiene la misma ecuación de interpolación obtenida anteriormente usando el método de Lagrange.

Error de interpolación: fórmula del resto de Lagrange

Al interpolar una función dada f por un polinomio de grado n en los nodos x 0 ,..., x n obtenemos el error

¿Dónde está la ( n +1) st diferencia dividida de los puntos de datos?

.

Además, existe una forma de resto de Lagrange del error, para una función f que es n + 1 veces continuamente diferenciable en un intervalo cerrado , y un polinomio de grado como máximo n que interpola f en n + 1 puntos distintos . Para cada uno existe tal que

Este límite de error sugiere elegir los puntos de interpolación xi para minimizar el producto , lo cual se logra mediante los nodos de Chebyshev .

Prueba del resto de Lagrange

Establezca el término de error como y defina una función auxiliar: Así:

Pero como es un polinomio de grado como máximo n , tenemos y:

Ahora, dado que x i son raíces de y , tenemos , lo que significa que Y tiene al menos n + 2 raíces. Según el teorema de Rolle , tiene al menos n + 1 raíces e iterativamente tiene al menos una raíz ξ en el intervalo I. De este modo:

y:

Esto es paralelo al razonamiento detrás del término restante de Lagrange en el teorema de Taylor ; de hecho, el resto de Taylor es un caso especial de error de interpolación cuando todos los nodos de interpolación x i son idénticos. [11] Tenga en cuenta que el error será cero cuando sea para cualquier i . Por tanto, el error máximo se producirá en algún punto del intervalo entre dos nodos sucesivos.

Intervalos equidistantes

En el caso de nodos de interpolación igualmente espaciados donde , para y donde el término del producto en la fórmula del error de interpolación se puede vincular como [12]

Por tanto, el límite de error se puede dar como

Sin embargo, esto supone que está dominado por , es decir . En varios casos, esto no es cierto y el error en realidad aumenta cuando n → ∞ (ver fenómeno de Runge ). Esa cuestión se trata en la sección Propiedades de convergencia.

Constantes de Lebesgue

Arreglamos los nodos de interpolación x 0 , ..., x n y un intervalo [ a , b ] que contiene todos los nodos de interpolación. El proceso de interpolación asigna la función f a un polinomio p . Esto define un mapeo X desde el espacio C ([ a , b ]) de todas las funciones continuas en [ a , b ] a sí mismo. La aplicación X es lineal y es una proyección sobre el subespacio de polinomios de grado n o menor.

La constante de Lebesgue L se define como la norma del operador de X. Se tiene (un caso especial del lema de Lebesgue ):

En otras palabras, el polinomio de interpolación es como mucho un factor ( L  + 1) peor que la mejor aproximación posible. Esto sugiere que busquemos un conjunto de nodos de interpolación que hagan que L sea pequeño. En particular, tenemos para los nodos de Chebyshev :

Concluimos nuevamente que los nodos de Chebyshev son una muy buena opción para la interpolación polinómica, ya que el crecimiento en n es exponencial para nodos equidistantes. Sin embargo, esos nodos no son óptimos.

Propiedades de convergencia

Es natural preguntar, ¿para qué clases de funciones y para qué nodos de interpolación la secuencia de polinomios de interpolación converge a la función interpolada cuando n → ∞ ? La convergencia puede entenderse de diferentes maneras, por ejemplo, puntual, uniforme o en alguna norma integral.

La situación es bastante mala para los nodos equidistantes, ya que la convergencia uniforme ni siquiera está garantizada para funciones infinitamente diferenciables. Un ejemplo clásico, debido a Carl Runge , es la función f ( x ) = 1/(1 + x 2 ) en el intervalo [−5, 5] . El error de interpolación ||  fp norte || crece sin límite cuando n → ∞ . Otro ejemplo es la función f ( x ) = | x | en el intervalo [−1, 1] , para el cual los polinomios de interpolación ni siquiera convergen puntualmente excepto en los tres puntos x = ±1, 0. [13]

Se podría pensar que se pueden obtener mejores propiedades de convergencia eligiendo diferentes nodos de interpolación. El siguiente resultado parece dar una respuesta bastante alentadora:

Teorema  :  para cualquier función f ( x ) continua en un intervalo [ a , b ] existe una tabla de nodos para la cual la secuencia de polinomios de interpolación converge a f ( x ) uniformemente en [ a , b ].

Prueba

Está claro que la secuencia de polinomios de mejor aproximación converge a f ( x ) uniformemente (debido al teorema de aproximación de Weierstrass ). Ahora sólo nos queda demostrar que cada uno puede obtenerse mediante interpolación en ciertos nodos. Pero esto es cierto debido a una propiedad especial de los polinomios de mejor aproximación conocida por el teorema de la equioscilación . Específicamente, sabemos que dichos polinomios deben interceptar a f ( x ) al menos n + 1 veces. Eligiendo los puntos de intersección como nodos de interpolación obtenemos el polinomio de interpolación coincidiendo con el polinomio de mejor aproximación.

Sin embargo, el defecto de este método es que los nodos de interpolación deben calcularse nuevamente para cada nueva función f ( x ), pero el algoritmo es difícil de implementar numéricamente. ¿Existe una única tabla de nodos para la cual la secuencia de polinomios de interpolación converge a cualquier función continua f ( x )? Lamentablemente la respuesta es negativa:

Teorema  :  para cualquier tabla de nodos existe una función continua f ( x ) en un intervalo [ a , b ] para el cual la secuencia de polinomios de interpolación diverge en [ a , b ]. [14]

La prueba esencialmente utiliza la estimación del límite inferior de la constante de Lebesgue, que definimos anteriormente como la norma del operador de X n (donde X n es el operador de proyección en Π n ). Ahora buscamos una tabla de nodos para los cuales

Debido al teorema de Banach-Steinhaus , esto sólo es posible cuando las normas de X n están uniformemente acotadas, lo cual no puede ser cierto ya que sabemos que

Por ejemplo, si se eligen puntos equidistantes como nodos de interpolación, la función del fenómeno de Runge demuestra la divergencia de dicha interpolación. Tenga en cuenta que esta función no solo es continua sino incluso infinitamente diferenciable en [−1, 1] . Sin embargo, para mejores nodos de Chebyshev , un ejemplo de este tipo es mucho más difícil de encontrar debido al siguiente resultado:

Teorema  :  para cada función absolutamente continua en [−1, 1], la secuencia de polinomios de interpolación construida en los nodos de Chebyshev converge a  f ( x ) de manera uniforme. [15]

Conceptos relacionados

El fenómeno de Runge muestra que para valores altos de n , el polinomio de interpolación puede oscilar enormemente entre los puntos de datos. Este problema se resuelve comúnmente mediante el uso de interpolación spline . Aquí, el interpolante no es un polinomio sino un spline : una cadena de varios polinomios de menor grado.

La interpolación de funciones periódicas por funciones armónicas se logra mediante la transformada de Fourier . Esto puede verse como una forma de interpolación polinomial con funciones base armónicas, consulte interpolación trigonométrica y polinomio trigonométrico .

Los problemas de interpolación de Hermite son aquellos en los que no sólo se dan los valores del polinomio p en los nodos, sino también todas las derivadas hasta un orden determinado. Esto resulta ser equivalente a un sistema de congruencias polinomiales simultáneas y puede resolverse mediante el teorema chino del resto para polinomios. La interpolación de Birkhoff es una generalización adicional en la que solo se prescriben derivadas de algunos órdenes, no necesariamente de todas las órdenes de 0 a k .

Los métodos de colocación para la solución de ecuaciones diferenciales e integrales se basan en la interpolación polinomial.

La técnica de modelado de funciones racionales es una generalización que considera razones de funciones polinómicas.

Por fin, interpolación multivariada para dimensiones superiores.

Ver también

Notas

  1. ^ Esto se desprende del teorema del factor para la división polinomial.

Citas

  1. ^ Tiemann, Jerome J. (mayo-junio de 1981). "Interpolación polinómica". Noticias de E/S . 1 (5): 16. ISSN  0274-9998 . Consultado el 3 de noviembre de 2017 .
  2. ^ Humpherys, Jeffrey; Jarvis, Tyler J. (2020). "9.2 - Interpolación". Fundamentos de las matemáticas aplicadas Volumen 2: algoritmos, aproximación, optimización . Sociedad de Matemática Industrial y Aplicada. pag. 418.ISBN 978-1-611976-05-2.
  3. ^ ab Epperson, James F. (2013). Una introducción a los métodos y análisis numéricos (2ª ed.). Hoboken, Nueva Jersey: Wiley. ISBN 978-1-118-36759-9.
  4. ^ Carga, Richard L.; Ferias, J. Douglas (2011). Análisis numérico (9ª ed.). pag. 129.ISBN 9780538733519.
  5. ^ ab Hamming, Richard W. (1986). Métodos numéricos para científicos e ingenieros (Republica íntegra de la 2. ed. (1973) ed.). Nueva York: Dover. ISBN 978-0-486-65241-2.
  6. ^ Gautschi, Walter (1975). "Estimaciones normativas para inversas de matrices de Vandermonde". Matemática numérica . 23 (4): 337–347. doi :10.1007/BF01438260. S2CID  122300795.
  7. ^ Higham, Nueva Jersey (1988). "Solución rápida de sistemas similares a Vandermonde que involucran polinomios ortogonales". Revista IMA de Análisis Numérico . 8 (4): 473–486. doi :10.1093/imanum/8.4.473.
  8. ^ Björck, Å; V. Pereyra (1970). "Solución de sistemas de ecuaciones de Vandermonde". Matemáticas de la Computación . 24 (112). Sociedad Estadounidense de Matemáticas: 893–903. doi :10.2307/2004623. JSTOR  2004623.
  9. ^ Calvetti, D .; Reichel, L. (1993). "Inversión rápida de matrices similares a Vandermonde que involucran polinomios ortogonales". POCO . 33 (3): 473–484. doi :10.1007/BF01990529. S2CID  119360991.
  10. ^ R.Bevilaqua, D. Bini, M.Capovani y O. Menchi (2003). Appunti di Calcolo Numerico . Capítulo 5, pág. 89. Servizio Editoriale Universitario Pisa - Azienda Regionale Diritto allo Studio Universitario.
  11. ^ "Errores en la interpolación polinómica" (PDF) .
  12. ^ "Notas sobre interpolación polinómica" (PDF) .
  13. ^ Watson (1980, p. 21) atribuye el último ejemplo a Bernstein (1912).
  14. ^ Watson (1980, p. 21) atribuye este teorema a Faber (1914).
  15. ^ Krylov, VI (1956). "Сходимость алгебраического интерполирования покорням многочленов Чебышева для абсолютно непрерывных функций и функций с ченным изменением" [Convergencia de la interpolación algebraica con respecto a las raíces del polinomio de Chebyshev para funciones absolutamente continuas y funciones de variación acotada]. Doklady Akademii Nauk SSSR . Nueva Serie (en ruso). 107 : 362–365.SEÑOR 18-32.

Referencias

Otras lecturas

enlaces externos