Algoritmo para aproximar funciones
El algoritmo de Remez o algoritmo de intercambio de Remez , publicado por Evgeny Yakovlevich Remez en 1934, es un algoritmo iterativo utilizado para encontrar aproximaciones simples a funciones, específicamente, aproximaciones por funciones en un espacio de Chebyshev que sean las mejores en el sentido de la norma uniforme L ∞ . [1] A veces se lo conoce como algoritmo de Remes o algoritmo de Reme . [ cita requerida ]
Un ejemplo típico de un espacio de Chebyshev es el subespacio de polinomios de Chebyshev de orden n en el espacio de funciones continuas reales en un intervalo , C [ a , b ]. El polinomio de mejor aproximación dentro de un subespacio dado se define como aquel que minimiza la diferencia absoluta máxima entre el polinomio y la función. En este caso, la forma de la solución está precisada por el teorema de equioscilación .
Procedimiento
El algoritmo de Remez comienza con la función que se va a aproximar y un conjunto de puntos de muestra en el intervalo de aproximación, generalmente los extremos del polinomio de Chebyshev mapeados linealmente al intervalo. Los pasos son:
- Resolver el sistema de ecuaciones lineales
- (dónde ),
- para las incógnitas y E .
- Utilice los coeficientes as para formar un polinomio .
- Encuentra el conjunto de puntos de error máximo local .
- Si los errores en cada caso tienen la misma magnitud y signos alternados, entonces es el polinomio de aproximación minimax. Si no es así, reemplácelo con y repita los pasos anteriores.
El resultado se llama polinomio de mejor aproximación o algoritmo de aproximación minimax .
W. Fraser ofrece una revisión de los aspectos técnicos de la implementación del algoritmo Remez. [2]
Elección de inicialización
Los nodos de Chebyshev son una opción común para la aproximación inicial debido a su papel en la teoría de interpolación polinómica. Para la inicialización del problema de optimización para la función f mediante el interpolante de Lagrange L n ( f ), se puede demostrar que esta aproximación inicial está limitada por
con la norma o constante de Lebesgue del operador de interpolación de Lagrange L n de los nodos ( t 1 , ..., t n + 1 ) siendo
Siendo T los ceros de los polinomios de Chebyshev y las funciones de Lebesgue
Theodore A. Kilgore, [3] Carl de Boor y Allan Pinkus [4] demostraron que existe un t i único para cada L n , aunque no se conoce explícitamente para polinomios (ordinarios). De manera similar, , y la optimalidad de una elección de nodos se puede expresar como
Para los nodos de Chebyshev, que proporcionan una elección subóptima, pero analíticamente explícita, el comportamiento asintótico se conoce como [5]
( siendo γ la constante de Euler-Mascheroni ) con
- para
y límite superior [6]
Lev Brutman [7] obtuvo el límite para , y siendo los ceros de los polinomios de Chebyshev expandidos:
Rüdiger Günttner [8] obtuvo una estimación más precisa para
Discusión detallada
En esta sección se proporciona más información sobre los pasos descritos anteriormente. En esta sección, el índice i va de 0 a n +1.
Paso 1: Dado , resuelva el sistema lineal de n + 2 ecuaciones
- (dónde ),
- para las incógnitas y E .
Debe quedar claro que en esta ecuación solo tiene sentido si los nodos están ordenados , ya sea estrictamente creciente o estrictamente decreciente. Entonces este sistema lineal tiene una solución única. (Como es bien sabido, no todos los sistemas lineales tienen una solución). Además, la solución se puede obtener solo con operaciones aritméticas mientras que un solucionador estándar de la biblioteca realizaría operaciones. Aquí está la prueba simple:
Calcule el interpolante estándar de grado n en los primeros n +1 nodos y también el interpolante estándar de grado n en las ordenadas
Para ello se utiliza cada vez la fórmula de interpolación de Newton con las diferencias divididas de orden y operaciones aritméticas.
El polinomio tiene su i -ésimo cero entre y , y por lo tanto no hay más ceros entre y : y tienen el mismo signo .
La combinación lineal también es un polinomio de grado n y
Esta es la misma que la ecuación anterior para y para cualquier elección de E . La misma ecuación para i = n +1 es
- y necesita un razonamiento especial: resuelto para la variable E , es la definición de E :
Como se mencionó anteriormente, los dos términos en el denominador tienen el mismo signo: E y, por lo tanto, siempre están bien definidos.
El error en los n +2 nodos ordenados dados es positivo y negativo a su vez porque
El teorema de de La Vallée Poussin establece que bajo esta condición no existe ningún polinomio de grado n con error menor que E . De hecho, si existiera tal polinomio, llamémoslo , entonces la diferencia seguiría siendo positiva/negativa en los n + 2 nodos y por lo tanto tendría al menos n + 1 ceros, lo cual es imposible para un polinomio de grado n . Por lo tanto, este E es un límite inferior para el error mínimo que se puede lograr con polinomios de grado n .
El paso 2 cambia la notación de a .
El paso 3 mejora los nodos de entrada y sus errores de la siguiente manera.
En cada región P, el nodo actual se reemplaza con el maximizador local y en cada región N se reemplaza con el minimizador local. (Excepto en A , el nodo cercano y en B ). No se requiere alta precisión aquí, la búsqueda de línea estándar con un par de ajustes cuadráticos debería ser suficiente. (Ver [9] )
Sea . Cada amplitud es mayor o igual que E . El teorema de de La Vallée Poussin y su demostración también se aplican a con como el nuevo límite inferior para el mejor error posible con polinomios de grado n .
Además, resulta útil como límite superior obvio para ese mejor error posible.
Paso 4: Con y como límite inferior y superior para el mejor error de aproximación posible, se dispone de un criterio de parada fiable: repetir los pasos hasta que sea suficientemente pequeño o deje de disminuir. Estos límites indican el progreso.
Variantes
Existen algunas modificaciones del algoritmo en la literatura. [10] Estas incluyen:
- Reemplazar más de un punto de muestra con las ubicaciones de las diferencias absolutas máximas cercanas. [ cita requerida ]
- Reemplazar todos los puntos de muestra en una sola iteración con las ubicaciones de todas las diferencias máximas de signo alternado. [11]
- Utilizando el error relativo para medir la diferencia entre la aproximación y la función, especialmente si la aproximación se utilizará para calcular la función en una computadora que utiliza aritmética de punto flotante ;
- Incluyendo restricciones de puntos de error cero. [11]
- La variante Fraser-Hart, utilizada para determinar la mejor aproximación racional de Chebyshev. [12]
Véase también
Referencias
- ^ E.Ya. Remez, "Sur la determinación de polinômes d'approximation de degré donnée", Comm. Soc. Matemáticas. Jarkov 10 , 41 (1934);
"Sur un procédé convergent d'approximations sucesivas para determinar los polinômes d'approximation, Compt. Rend. Acad. Sc. 198 , 2063 (1934);
"Sur le calcul effectiv des polynômes d'approximation des Tschebyscheff", Compt. Rend. Academia Sc. 199 , 337 (1934). - ^ Fraser, W. (1965). "Un estudio de métodos de cálculo de aproximaciones polinómicas minimax y casi minimax para funciones de una sola variable independiente". J. ACM . 12 (3): 295–314. doi : 10.1145/321281.321282 . S2CID 2736060.
- ^ Kilgore, TA (1978). "Una caracterización de la proyección de interpolación de Lagrange con norma mínima de Tchebycheff". J. Approach. Theory . 24 (4): 273–288. doi :10.1016/0021-9045(78)90013-8.
- ^ de Boor, C.; Pinkus, A. (1978). "Prueba de las conjeturas de Bernstein y Erdös relativas a los nodos óptimos para la interpolación polinómica". Journal of Approximation Theory . 24 (4): 289–303. doi : 10.1016/0021-9045(78)90014-X .
- ^ Luttmann, FW; Rivlin, TJ (1965). "Algunos experimentos numéricos en la teoría de la interpolación polinómica". IBM J. Res. Dev . 9 (3): 187–191. doi :10.1147/rd.93.0187.
- ^ T. Rivlin, "Las constantes de Lebesgue para la interpolación polinómica", en Actas de la Conferencia Internacional sobre Análisis Funcional y su Aplicación , editado por HG Garnier et al. (Springer-Verlag, Berlín, 1974), pág. 422; Los polinomios de Chebyshev (Wiley-Interscience, Nueva York, 1974).
- ^ Brutman, L. (1978). "Sobre la función de Lebesgue para interpolación polinómica". SIAM J. Numer. Anal . 15 (4): 694–704. Bibcode :1978SJNA...15..694B. doi :10.1137/0715046.
- ^ Günttner, R. (1980). "Evaluación de las constantes de Lebesgue". SIAM J. Numer. Anal . 17 (4): 512–520. Bibcode :1980SJNA...17..512G. doi :10.1137/0717043.
- ^ David G. Luenberger: Introducción a la programación lineal y no lineal , Addison-Wesley Publishing Company 1973.
- ^ Egidi, Nadaniela; Fatone, Lorella; Misici, Luciano (2020), Sergeyev, Yaroslav D.; Kvasov, Dmitri E. (eds.), "Un nuevo algoritmo de tipo Remez para la mejor aproximación polinomial", Numerical Computations: Theory and Algorithms , vol. 11973, Cham: Springer International Publishing, págs. 56–69, doi :10.1007/978-3-030-39081-5_7, ISBN 978-3-030-39080-8, S2CID 211159177 , consultado el 19 de marzo de 2022
- ^ ab Temes, GC; Barcilon, V.; Marshall, FC (1973). "La optimización de sistemas de banda limitada". Actas del IEEE . 61 (2): 196–234. doi :10.1109/PROC.1973.9004. ISSN 0018-9219.
- ^ Dunham, Charles B. (1975). "Convergencia del algoritmo Fraser-Hart para la aproximación racional de Chebyshev". Matemáticas de la computación . 29 (132): 1078–1082. doi : 10.1090/S0025-5718-1975-0388732-9 . ISSN 0025-5718.
Enlaces externos
- Aproximaciones Minimax y el algoritmo Remez, capítulo de referencia en la documentación de Boost Math Tools, con enlace a una implementación en C++
- Introducción al procesamiento digital de señales (DSP)
- Aarts, Ronald M .; Vínculo, Carlos; Mendelsohn, Phil y Weisstein, Eric W. "Algoritmo Remez". MundoMatemático .