stringtranslate.com

algoritmo remez

El algoritmo de Remez o algoritmo de intercambio de Remez , publicado por Evgeny Yakovlevich Remez en 1934, es un algoritmo iterativo utilizado para encontrar aproximaciones simples a funciones, específicamente, aproximaciones por funciones en un espacio de Chebyshev que sean las mejores en el sentido de la norma uniforme L . [1] A veces se lo denomina algoritmo Remes o algoritmo Reme . [ cita necesaria ]

Un ejemplo típico de un espacio de Chebyshev es el subespacio de polinomios de Chebyshev de orden n en el espacio de funciones reales continuas en un intervalo , C [ a , b ]. El polinomio de mejor aproximación dentro de un subespacio dado se define como aquel que minimiza la máxima diferencia absoluta entre el polinomio y la función. En este caso, la forma de la solución viene precisada por el teorema de equioscilación .

Procedimiento

El algoritmo de Remez comienza con la función que se va a aproximar y un conjunto de puntos de muestra en el intervalo de aproximación, generalmente los extremos del polinomio de Chebyshev asignados linealmente al intervalo. Los pasos son:

(dónde ),
para las incógnitas y E .

El resultado se denomina polinomio de mejor aproximación o algoritmo de aproximación minimax .

W. Fraser ofrece una revisión de los tecnicismos en la implementación del algoritmo Remez. [2]

Elección de inicialización

Los nodos de Chebyshev son una elección común para la aproximación inicial debido a su papel en la teoría de la interpolación polinómica. Para la inicialización del problema de optimización para la función f mediante el interpolante de Lagrange L n ( f ), se puede demostrar que esta aproximación inicial está acotada por

siendo la norma o constante de Lebesgue del operador de interpolación de Lagrange L n de los nodos ( t 1 , ..., t n  + 1 )

siendo T los ceros de los polinomios de Chebyshev y siendo las funciones de Lebesgue

Theodore A. Kilgore, [3] Carl de Boor y Allan Pinkus [4] demostraron que existe un ti único para cada L n , aunque no se conoce explícitamente para polinomios (ordinarios). De manera similar, y la optimización de una elección de nodos se puede expresar como

Para los nodos de Chebyshev, que proporcionan una elección subóptima, pero analíticamente explícita, el comportamiento asintótico se conoce como [5]

( siendo γ la constante de Euler-Mascheroni ) con

para

y límite superior [6]

Lev Brutman [7] obtuvo la cota para , y siendo los ceros de los polinomios expandidos de Chebyshev:

Rüdiger Günttner [8] obtuvo a partir de una estimación más precisa para

Discusión detallada

Esta sección proporciona más información sobre los pasos descritos anteriormente. En esta sección, el índice i va de 0 a n +1.

Paso 1: Dado , resuelve el sistema lineal de n +2 ecuaciones

(dónde ),
para las incógnitas y E .

Debe quedar claro que en esta ecuación sólo tiene sentido si los nodos están ordenados , ya sea estrictamente creciente o estrictamente decreciente. Entonces este sistema lineal tiene una solución única. (Como es bien sabido, no todos los sistemas lineales tienen una solución). Además, la solución se puede obtener solo con operaciones aritméticas, mientras que un solucionador estándar de la biblioteca tomaría operaciones. Aquí está la prueba simple:

Calcule el interpolante estándar de n -ésimo grado en los primeros n +1 nodos y también el interpolante estándar de n -ésimo grado en las ordenadas

Para ello se utiliza cada vez la fórmula de interpolación de Newton con las diferencias de orden divididas y operaciones aritméticas.

El polinomio tiene su i -ésimo cero entre y , y por lo tanto no hay más ceros entre y : y tienen el mismo signo .

La combinación lineal también es un polinomio de grado n y

Esto es lo mismo que la ecuación anterior para y para cualquier elección de E. La misma ecuación para i = n +1 es

y necesita un razonamiento especial: resuelto para la variable E , es la definición de E :

Como se mencionó anteriormente, los dos términos en el denominador tienen el mismo signo: E y, por lo tanto, siempre están bien definidos.

El error en los n +2 nodos ordenados dados es positivo y negativo a su vez porque

El teorema de de La Vallée Poussin establece que bajo esta condición no existe ningún polinomio de grado n con error menor que E. De hecho, si tal polinomio existiera, llámelo , entonces la diferencia seguiría siendo positiva/negativa en los n +2 nodos y, por lo tanto, tendría al menos n +1 ceros, lo cual es imposible para un polinomio de grado n . Por tanto, este E es un límite inferior para el error mínimo que se puede lograr con polinomios de grado n .

El paso 2 cambia la notación de a .

El paso 3 mejora los nodos de entrada y sus errores de la siguiente manera.

En cada región P, el nodo actual se reemplaza con el maximizador local y en cada región N se reemplaza con el minimizador local. (Espere en A , el cercano y en B .) Aquí no se requiere alta precisión, la búsqueda de línea estándar con un par de ajustes cuadráticos debería ser suficiente. (Ver [9] )

Dejar . Cada amplitud es mayor o igual a E. El teorema de La Vallée Poussin y su demostración también se aplican como nuevo límite inferior para el mejor error posible con polinomios de grado n .

Además, resulta útil como límite superior obvio para lograr el mejor error posible.

Paso 4: Con y como límite inferior y superior para el mejor error de aproximación posible, se tiene un criterio de parada fiable: repetir los pasos hasta que sea lo suficientemente pequeño o ya no disminuya. Estos límites indican el progreso.

Variantes

Algunas modificaciones del algoritmo están presentes en la literatura. [10] Estos incluyen:

Ver también

Referencias

  1. ^ E.Ya. Remez, "Sur la determinación de polinômes d'approximation de degré donnée", Comm. Soc. Matemáticas. Jarkov 10 , 41 (1934);
    "Sur un procédé convergent d'approximations sucesivas para determinar los polinômes d'approximation, Compt. Rend. Acad. Sc. 198 , 2063 (1934);
    "Sur le calcul effectiv des polynômes d'approximation des Tschebyscheff", Compt. Rend. Academia Sc. 199 , 337 (1934).
  2. ^ Fraser, W. (1965). "Un estudio de métodos de cálculo de aproximaciones polinómicas minimax y casi minimax para funciones de una única variable independiente". J. ACM . 12 (3): 295–314. doi : 10.1145/321281.321282 . S2CID  2736060.
  3. ^ Kilgore, TA (1978). "Una caracterización de la proyección interpoladora de Lagrange con norma mínima de Tchebycheff". J. Aprox. Teoría . 24 (4): 273–288. doi :10.1016/0021-9045(78)90013-8.
  4. ^ de Boor, C.; Pinkus, A. (1978). "Prueba de las conjeturas de Bernstein y Erdös sobre los nodos óptimos para la interpolación polinomial". Revista de teoría de la aproximación . 24 (4): 289–303. doi : 10.1016/0021-9045(78)90014-X .
  5. ^ Luttmann, FW; Rivlin, TJ (1965). "Algunos experimentos numéricos en la teoría de la interpolación polinómica". IBM J. Res. Desarrollo . 9 (3): 187-191. doi :10.1147/rd.93.0187.
  6. ^ T. Rivlin, "Las constantes de Lebesgue para la interpolación polinomial", en Actas del Int. Conf. sobre análisis funcional y su aplicación , editado por HG Garnier et al. (Springer-Verlag, Berlín, 1974), pág. 422; Los polinomios de Chebyshev (Wiley-Interscience, Nueva York, 1974).
  7. ^ Brutman, L. (1978). "Sobre la función de Lebesgue para la interpolación polinómica". SIAM J. Número. Anal . 15 (4): 694–704. Código bibliográfico : 1978SJNA...15..694B. doi :10.1137/0715046.
  8. ^ Günttner, R. (1980). "Evaluación de las constantes de Lebesgue". SIAM J. Número. Anal . 17 (4): 512–520. Código Bib : 1980SJNA...17..512G. doi :10.1137/0717043.
  9. ^ David G. Luenberger: Introducción a la programación lineal y no lineal , Addison-Wesley Publishing Company 1973.
  10. ^ Egidi, Nadaniela; Fatone, Lorella; Misici, Luciano (2020), Sergeyev, Yaroslav D.; Kvasov, Dmitri E. (eds.), "Un nuevo algoritmo tipo Remez para la mejor aproximación polinómica", Computaciones numéricas: teoría y algoritmos , vol. 11973, Cham: Springer International Publishing, págs. 56–69, doi :10.1007/978-3-030-39081-5_7, ISBN 978-3-030-39080-8, S2CID  211159177 , consultado el 19 de marzo de 2022
  11. ^ ab Temes, GC; Barcilón, V.; Marshall, FC (1973). "La optimización de sistemas de banda limitada". Actas del IEEE . 61 (2): 196–234. doi :10.1109/PROC.1973.9004. ISSN  0018-9219.
  12. ^ Dunham, Charles B. (1975). "Convergencia del algoritmo Fraser-Hart para la aproximación racional de Chebyshev". Matemáticas de la Computación . 29 (132): 1078-1082. doi : 10.1090/S0025-5718-1975-0388732-9 . ISSN  0025-5718.

enlaces externos