En matemáticas , una secuencia polinomial ortogonal es una familia de polinomios tales que dos polinomios diferentes en la secuencia son ortogonales entre sí bajo algún producto interno .
Los polinomios ortogonales más utilizados son los polinomios ortogonales clásicos , que consisten en los polinomios de Hermite , los polinomios de Laguerre y los polinomios de Jacobi . Los polinomios de Gegenbauer forman la clase más importante de polinomios de Jacobi; incluyen los polinomios de Chebyshev y los polinomios de Legendre como casos especiales.
El campo de los polinomios ortogonales se desarrolló a finales del siglo XIX a partir de un estudio de fracciones continuas por PL Chebyshev y fue continuado por AA Markov y TJ Stieltjes . Aparecen en una amplia variedad de campos: análisis numérico ( reglas de cuadratura ), teoría de probabilidad , teoría de representación (de grupos de Lie , grupos cuánticos y objetos relacionados), combinatoria enumerativa , combinatoria algebraica , física matemática (la teoría de matrices aleatorias , sistemas integrables , etc.) y teoría de números . Algunos de los matemáticos que han trabajado en polinomios ortogonales incluyen a Gábor Szegő , Sergei Bernstein , Naum Akhiezer , Arthur Erdélyi , Yakov Geronimus , Wolfgang Hahn , Theodore Seio Chihara , Mourad Ismail , Waleed Al-Salam , Richard Askey y Rehuel Lobatto .
Dada cualquier función no decreciente α sobre los números reales, podemos definir la integral de Lebesgue–Stieltjes de una función f . Si esta integral es finita para todos los polinomios f , podemos definir un producto interno sobre pares de polinomios f y g mediante
Esta operación es un producto interno semidefinido positivo en el espacio vectorial de todos los polinomios, y es definida positiva si la función α tiene un número infinito de puntos de crecimiento. Induce una noción de ortogonalidad de la manera habitual, es decir, que dos polinomios son ortogonales si su producto interno es cero.
Entonces la secuencia ( P n )∞
n = 0de polinomios ortogonales se define por las relaciones
En otras palabras, la secuencia se obtiene a partir de la secuencia de monomios 1, x , x 2 , … mediante el proceso de Gram-Schmidt con respecto a este producto interno.
Generalmente se requiere que la secuencia sea ortonormal , aunque a veces se utilizan otras normalizaciones.
A veces tenemos donde es una función no negativa con soporte en algún intervalo [ x 1 , x 2 ] en la recta real (donde x 1 = −∞ y x 2 = ∞ están permitidos). Tal W se llama función de peso . [1] Entonces el producto interno está dado por Sin embargo, hay muchos ejemplos de polinomios ortogonales donde la medida dα ( x ) tiene puntos con medida distinta de cero donde la función α es discontinua, por lo que no puede estar dada por una función de peso W como la anterior.
Los polinomios ortogonales más utilizados son los ortogonales para una medida con soporte en un intervalo real. Entre ellos se incluyen:
Los polinomios ortogonales discretos son ortogonales con respecto a alguna medida discreta. A veces la medida tiene un soporte finito, en cuyo caso la familia de polinomios ortogonales es finita, en lugar de una secuencia infinita. Los polinomios de Racah son ejemplos de polinomios ortogonales discretos e incluyen como casos especiales los polinomios de Hahn y los polinomios duales de Hahn , que a su vez incluyen como casos especiales los polinomios de Meixner , los polinomios de Krawtchouk y los polinomios de Charlier .
Meixner clasificó todas las sucesiones ortogonales de Sheffer : sólo están Hermite, Laguerre, Charlier, Meixner y Meixner–Pollaczek. En cierto sentido Krawtchouk también debería estar en esta lista, pero son una sucesión finita. Estas seis familias corresponden a las NEF-QVF y son polinomios de martingala para ciertos procesos de Lévy .
Los polinomios ortogonales tamizados , como los polinomios ultrasféricos tamizados , los polinomios de Jacobi tamizados y los polinomios de Pollaczek tamizados , tienen relaciones de recurrencia modificadas.
También se pueden considerar polinomios ortogonales para alguna curva en el plano complejo. El caso más importante (aparte de los intervalos reales) es cuando la curva es el círculo unitario, lo que da lugar a polinomios ortogonales en el círculo unitario , como los polinomios de Rogers–Szegő .
Existen algunas familias de polinomios ortogonales que son ortogonales en regiones planas, como triángulos o discos. A veces se pueden escribir en términos de polinomios de Jacobi. Por ejemplo, los polinomios de Zernike son ortogonales en el disco unitario.
La ventaja de la ortogonalidad entre los diferentes órdenes de los polinomios de Hermite se aplica a la estructura de multiplexación por división de frecuencia generalizada (GFDM). Se puede transportar más de un símbolo en cada cuadrícula de la red de tiempo-frecuencia. [2]
Los polinomios ortogonales de una variable definida por una medida no negativa en la línea real tienen las siguientes propiedades.
Los polinomios ortogonales P n pueden expresarse en términos de los momentos
como sigue:
donde las constantes c n son arbitrarias (dependen de la normalización de P n ).
Esto se deriva directamente de aplicar el proceso de Gram-Schmidt a los monomios, imponiendo que cada polinomio sea ortogonal respecto de los anteriores. Por ejemplo, la ortogonalidad con prescribe que debe tener la forma que se puede ver que es consistente con la expresión dada previamente con el determinante.
Los polinomios P n satisfacen una relación de recurrencia de la forma
donde A n no es 0. La inversa también es cierta; véase el teorema de Favard .
Si la medida d α se apoya en un intervalo [ a , b ], todos los ceros de P n se encuentran en [ a , b ]. Además, los ceros tienen la siguiente propiedad de entrelazamiento: si m < n , hay un cero de P n entre dos ceros cualesquiera de P m . Se pueden dar interpretaciones electrostáticas de los ceros. [ cita requerida ]
A partir de la década de 1980, con el trabajo de XG Viennot, J. Labelle, Y.-N. Yeh, D. Foata y otros, se encontraron interpretaciones combinatorias para todos los polinomios ortogonales clásicos. [3]
Los polinomios de Macdonald son polinomios ortogonales en varias variables, dependiendo de la elección de un sistema de raíces afín. Incluyen muchas otras familias de polinomios ortogonales multivariables como casos especiales, incluidos los polinomios de Jack , los polinomios de Hall-Littlewood , los polinomios de Heckman-Opdam y los polinomios de Koornwinder . Los polinomios de Askey-Wilson son el caso especial de los polinomios de Macdonald para un cierto sistema de raíces no reducido de rango 1.
Los polinomios ortogonales múltiples son polinomios en una variable que son ortogonales con respecto a una familia finita de medidas.
Se trata de polinomios ortogonales respecto de un producto interno de Sobolev , es decir, un producto interno con derivadas. La inclusión de derivadas tiene grandes consecuencias para los polinomios, que en general ya no comparten algunas de las características agradables de los polinomios ortogonales clásicos.
Los polinomios ortogonales con matrices tienen coeficientes que son matrices o el indeterminado es una matriz.
Hay dos ejemplos populares: o bien los coeficientes son matrices o bien :
Los polinomios cuánticos o q-polinomios son los q-análogos de los polinomios ortogonales.