stringtranslate.com

Propiedades geométricas de las raíces polinómicas

En matemáticas , un polinomio univariante de grado n con coeficientes reales o complejos tiene n raíces complejas , si se cuentan con sus multiplicidades . Forman un multiconjunto de n puntos en el plano complejo . Este artículo trata de la geometría de estos puntos, es decir, de la información sobre su localización en el plano complejo que se puede deducir a partir del grado y los coeficientes del polinomio.

Algunas de estas propiedades geométricas están relacionadas con un único polinomio, como los límites superiores de los valores absolutos de las raíces, que definen un disco que contiene todas las raíces, o los límites inferiores de la distancia entre dos raíces. Dichos límites se utilizan ampliamente en algoritmos de búsqueda de raíces para polinomios, ya sea para ajustarlos o para calcular su complejidad computacional .

Algunas otras propiedades son probabilísticas, como el número esperado de raíces reales de un polinomio aleatorio de grado n con coeficientes reales, que es menor que para n suficientemente grande.

En este artículo, un polinomio que se considera siempre se denota

donde son números reales o complejos y ; por tanto es el grado del polinomio.

Dependencia continua de los coeficientes

Las n raíces de un polinomio de grado n dependen continuamente de los coeficientes. Para raíces simples, esto resulta inmediatamente del teorema de la función implícita . Esto es cierto también para raíces múltiples, pero es necesario tener cuidado al probarlo.

Un pequeño cambio de coeficientes puede inducir un cambio drástico en las raíces, incluido el cambio de una raíz real a una raíz compleja con una parte imaginaria bastante grande (véase el polinomio de Wilkinson ). Una consecuencia es que, para los algoritmos clásicos de búsqueda de raíces numéricas , el problema de aproximar las raíces dados los coeficientes puede estar mal condicionado para muchas entradas.

Conjugación

El teorema de la raíz conjugada compleja establece que si los coeficientes de un polinomio son reales, entonces las raíces no reales aparecen en pares de la forma ( a + ib , aib ) .

De ello se deduce que las raíces de un polinomio con coeficientes reales son simétricas en espejo con respecto al eje real.

Esto puede extenderse a la conjugación algebraica : las raíces de un polinomio con coeficientes racionales son conjugadas (es decir, invariantes) bajo la acción del grupo de Galois del polinomio. Sin embargo, esta simetría rara vez puede interpretarse geométricamente.

Límites en todas las raíces

Los límites superiores de los valores absolutos de las raíces polinómicas se utilizan ampliamente en los algoritmos de búsqueda de raíces , ya sea para limitar las regiones en las que se deben buscar raíces o para calcular la complejidad computacional de estos algoritmos.

Se han dado muchos límites de este tipo, y el más preciso depende generalmente de la secuencia específica de coeficientes que se considera. La mayoría de los límites son mayores o iguales a uno y, por lo tanto, no son precisos para un polinomio que solo tiene raíces de valores absolutos menores que uno. Sin embargo, tales polinomios son muy raros, como se muestra a continuación.

Cualquier límite superior de los valores absolutos de las raíces proporciona un límite inferior correspondiente. De hecho, si y U es un límite superior de los valores absolutos de las raíces de

entonces 1/ U es un límite inferior de los valores absolutos de las raíces de

ya que las raíces de cada polinomio son las inversas multiplicativas de las raíces del otro. Por lo tanto, en el resto del artículo no se darán explícitamente los límites inferiores .

Límites de Lagrange y Cauchy

Lagrange y Cauchy fueron los primeros en proporcionar límites superiores para todas las raíces complejas. [1] El límite de Lagrange es [2]

y el límite de Cauchy es [3]

El límite de Lagrange es más preciso (menor) que el límite de Cauchy solo cuando 1 es mayor que la suma de todos los valores excepto el mayor. Esto es relativamente poco frecuente en la práctica y explica por qué el límite de Cauchy se utiliza más que el de Lagrange.

Ambos límites resultan del teorema del círculo de Gershgorin aplicado a la matriz compañera del polinomio y su transpuesta . También pueden demostrarse por métodos elementales.

Estos límites no son invariantes por escalamiento. Es decir, las raíces del polinomio p ( sx ) son el cociente por s de la raíz de p , y los límites dados para las raíces de p ( sx ) no son el cociente por s de los límites de p . Por lo tanto, se pueden obtener límites más precisos al minimizar sobre posibles escalamientos. Esto da

y

para los límites de Lagrange y Cauchy respectivamente.

Otro límite, originalmente dado por Lagrange, pero atribuido a Zassenhaus por Donald Knuth , es [4]

Este límite es invariante por escala.

Lagrange mejoró este último límite en la suma de los dos valores más grandes (posiblemente iguales) en la secuencia [4].

Lagrange también proporcionó el límite [ cita requerida ]

donde denota el i -ésimo coeficiente distinto de cero cuando los términos de los polinomios se ordenan por grados crecientes.

Utilizando la desigualdad de Hölder

La desigualdad de Hölder permite la extensión de los límites de Lagrange y Cauchy a toda norma h . La norma h de una secuencia

es

para cualquier número real h ≥ 1 , y

Si con 1 ≤ h , k ≤ ∞ y 1 / ∞ = 0 , un límite superior para los valores absolutos de las raíces de p es

Para k = 1 y k = ∞ , se obtienen respectivamente los límites de Cauchy y de Lagrange.

Para h = k = 2 , se tiene el límite

Este no es sólo un límite de los valores absolutos de las raíces, sino también un límite del producto de sus valores absolutos mayores que 1; ver § Desigualdad de Landau, a continuación.

Otros límites

Se han dado muchos otros límites superiores para las magnitudes de todas las raíces. [5]

El límite de Fujiwara [6]

mejora ligeramente el límite dado anteriormente al dividiendo el último argumento del máximo por dos.

El límite de Kojima es [7] [ se necesita verificación ]

donde denota el i -ésimo coeficiente distinto de cero cuando los términos de los polinomios se ordenan por grados crecientes. Si todos los coeficientes son distintos de cero, el límite de Fujiwara es más preciso, ya que cada elemento del límite de Fujiwara es la media geométrica de los primeros elementos del límite de Kojima.

Sun y Hsieh obtuvieron otra mejora en el límite de Cauchy. [8] Supongamos que el polinomio es mónico con término general a i x i . Sun y Hsieh demostraron que los límites superiores 1 + d 1 y 1 + d 2 se podían obtener a partir de las siguientes ecuaciones.

d 2 es la raíz positiva de la ecuación cúbica

También observaron que d 2d 1 .

Desigualdad de Landau

Los límites anteriores son límites superiores para cada raíz por separado. La desigualdad de Landau proporciona un límite superior para los valores absolutos del producto de las raíces que tienen un valor absoluto mayor que uno. Esta desigualdad, descubierta en 1905 por Edmund Landau [9] , ha sido olvidada y redescubierta al menos tres veces durante el siglo XX. [10] [11] [12]

Este límite del producto de raíces no es mucho mayor que los mejores límites precedentes de cada raíz por separado. [13] Sean las n raíces del polinomio p . Si

es la medida de Mahler de p , entonces

Sorprendentemente, este límite del producto de los valores absolutos mayores que 1 de las raíces no es mucho mayor que los mejores límites de una raíz que se han dado anteriormente para una sola raíz. Este límite es incluso exactamente igual a uno de los límites que se obtienen utilizando la desigualdad de Hölder.

Este límite también es útil para acotar los coeficientes de un divisor de un polinomio con coeficientes enteros: [14] si

es un divisor de p , entonces

y, según las fórmulas de Vieta ,

para i = 0, ..., m , donde es un coeficiente binomial . Por lo tanto

y

Discos que contienen algunas raíces

Del teorema de Rouché

El teorema de Rouché permite definir discos centrados en cero y que contienen un número dado de raíces. Más precisamente, si existe un número real positivo R y un entero 0 ≤ kn tal que

entonces hay exactamente k raíces, contadas con multiplicidad, de valor absoluto menor que R .

El resultado anterior se puede aplicar si el polinomio

toma un valor negativo para algún valor real positivo de x .

En el resto de la sección, supongamos que a 0 ≠ 0 . Si no es el caso, cero es una raíz, y la localización de las otras raíces puede estudiarse dividiendo el polinomio por una potencia del indeterminado, obteniéndose un polinomio con un término constante distinto de cero.

Para k = 0 y k = n , la regla de los signos de Descartes muestra que el polinomio tiene exactamente una raíz real positiva. Si y son estas raíces, el resultado anterior muestra que todas las raíces satisfacen

Como estas desigualdades se aplican también a y estos límites son óptimos para polinomios con una secuencia dada de valores absolutos de sus coeficientes, son, por lo tanto, más precisos que todos los límites dados en las secciones anteriores.

Para 0 < k < n , la regla de los signos de Descartes implica que o bien tiene dos raíces reales positivas que no son múltiples, o bien es no negativo para todo valor positivo de x . Por lo tanto, el resultado anterior puede aplicarse solo en el primer caso. Si son estas dos raíces, el resultado anterior implica que

para k raíces de p , y que

para las otras nk raíces.

En lugar de calcular explícitamente y , generalmente es suficiente calcular un valor tal que (necesariamente ). Estos tienen la propiedad de separar raíces en términos de sus valores absolutos: si, para h < k , existen tanto y , hay exactamente kh raíces z tales que

Para calcularlo se puede utilizar el hecho de que es una función convexa (su segunda derivada es positiva). Por lo tanto, existe si y solo si es negativa en su único mínimo. Para calcular este mínimo, se puede utilizar cualquier método de optimización o, alternativamente, el método de Newton para calcular el único cero positivo de la derivada de (converge rápidamente, ya que la derivada es una función monótona ).

Se puede aumentar el número de 's existentes aplicando la operación de elevación al cuadrado de la raíz de la iteración de Dandelin–Graeffe . Si las raíces tienen valores absolutos distintos, se pueden separar completamente las raíces en términos de sus valores absolutos, es decir, calcular n + 1 números positivos tales que haya exactamente una raíz con un valor absoluto en el intervalo abierto para k = 1, ..., n .

Del teorema del círculo de Gershgorin

El teorema del círculo de Gershgorin aplica la matriz compañera del polinomio sobre una base relacionada con la interpolación de Lagrange para definir discos centrados en los puntos de interpolación, cada uno de los cuales contiene una raíz del polinomio; consulte el método de Durand-Kerner § Inclusión de raíces mediante los círculos de Gershgorin para obtener más detalles.

Si los puntos de interpolación están cerca de las raíces de las raíces del polinomio, los radios de los discos son pequeños, y este es un ingrediente clave del método de Durand-Kerner para calcular raíces polinomiales.

Límites de las raíces reales

En el caso de polinomios con coeficientes reales, suele ser útil limitar únicamente las raíces reales. Basta con limitar las raíces positivas, ya que las raíces negativas de p ( x ) son las raíces positivas de p (– x ) .

Es evidente que todos los límites de todas las raíces se aplican también a las raíces reales, pero en algunos contextos resultan útiles límites más estrictos para las raíces reales. Por ejemplo, la eficiencia del método de fracciones continuas para el aislamiento de raíces reales depende en gran medida de la rigidez de un límite para las raíces positivas. Esto ha llevado a establecer nuevos límites que son más estrictos que los límites generales para todas las raíces. Estos límites se expresan generalmente no solo en términos de los valores absolutos de los coeficientes, sino también en términos de sus signos.

Otros límites se aplican sólo a polinomios cuyas raíces son todas reales (ver más abajo).

Límites de raíces reales positivas

Para dar un límite de las raíces positivas, se puede asumir sin pérdida de generalidad que cambiar los signos de todos los coeficientes no cambia las raíces.

Cada límite superior de las raíces positivas de

es también un límite de los ceros reales de

.

De hecho, si B es dicho límite, para todo x > B , se tiene p ( x ) ≥ q ( x ) > 0 .

Aplicado al límite de Cauchy, esto da el límite superior

para las raíces reales de un polinomio con coeficientes reales. Si este límite no es mayor que1 , esto significa que todos los coeficientes distintos de cero tienen el mismo signo y que no hay raíz positiva.

De manera similar, otro límite superior de las raíces positivas es

Si todos los coeficientes distintos de cero tienen el mismo signo, no hay raíz positiva y el máximo debe ser cero.

Recientemente se han desarrollado otros límites, principalmente para el método de fracciones continuas para el aislamiento de raíces reales . [15] [16]

Polinomios cuyas raíces son todas reales

Si todas las raíces de un polinomio son reales, Laguerre demostró los siguientes límites inferior y superior de las raíces, utilizando lo que ahora se llama desigualdad de Samuelson . [17]

Sea un polinomio con todas sus raíces reales. Entonces sus raíces están ubicadas en el intervalo con extremos

Por ejemplo, las raíces del polinomio satisfacen

Separación de raíces

La separación de raíces de un polinomio es la distancia mínima entre dos raíces, es decir el mínimo de los valores absolutos de la diferencia de dos raíces:

La separación de raíces es un parámetro fundamental de la complejidad computacional de los algoritmos de búsqueda de raíces para polinomios. De hecho, la separación de raíces determina la precisión de la representación numérica que se necesita para estar seguro de distinguir raíces distintas. Además, para el aislamiento de raíces reales , permite limitar el número de divisiones de intervalo que se necesitan para aislar todas las raíces.

En el caso de polinomios con coeficientes reales o complejos, no es posible expresar un límite inferior de la separación de raíces en términos del grado y los valores absolutos de los coeficientes únicamente, porque un pequeño cambio en un único coeficiente transforma un polinomio con múltiples raíces en un polinomio sin cuadrados con una pequeña separación de raíces y, esencialmente, los mismos valores absolutos del coeficiente. Sin embargo, la participación del discriminante del polinomio permite un límite inferior.

Para polinomios sin cuadrados con coeficientes enteros, el discriminante es un entero y, por lo tanto, tiene un valor absoluto que no es menor que1. Esto permite límites inferiores para la separación de raíces que son independientes del discriminante.

El límite de separación de Mignotte es [18] [19] [20]

¿Dónde está el discriminante, y

Para un polinomio cuadrado libre con coeficientes enteros, esto implica

donde s es el tamaño de bit de p , es decir la suma del tamaño de bit de sus coeficientes.

Teorema de Gauss-Lucas

El teorema de Gauss-Lucas establece que la envoltura convexa de las raíces de un polinomio contiene las raíces de la derivada del polinomio.

Un corolario a veces útil es que, si todas las raíces de un polinomio tienen una parte real positiva, entonces también la tienen las raíces de todas las derivadas del polinomio.

Un resultado relacionado es la desigualdad de Bernstein . Establece que para un polinomio P de grado n con derivada P′ tenemos

Distribución estadística de las raíces

Si los coeficientes a i de un polinomio aleatorio se distribuyen de forma independiente e idéntica con una media de cero, la mayoría de las raíces complejas están en el círculo unitario o cerca de él. En particular, las raíces reales se encuentran en su mayoría cerca de ±1 y, además, su número esperado es, para un grado grande, menor que el logaritmo natural del grado.

Si los coeficientes se distribuyen gaussianamente con una media de cero y una varianza de σ , entonces la densidad media de raíces reales se da mediante la fórmula Kac [21] [22]

dónde

Cuando los coeficientes se distribuyen gaussianamente con una media distinta de cero y una varianza de σ , se conoce una fórmula similar pero más compleja. [ cita requerida ]

Raíces reales

Para n grande , la densidad media de raíces reales cerca de x es asintóticamente

Si y

De ello se deduce que el número esperado de raíces reales es, utilizando la notación O grande

donde C es una constante aproximadamente igual a0,625 735 8072 . [23]

En otras palabras, el número esperado de raíces reales de un polinomio aleatorio de alto grado es menor que el logaritmo natural del grado .

Kac, Erdős y otros han demostrado que estos resultados son insensibles a la distribución de los coeficientes, si son independientes y tienen la misma distribución con media cero. Sin embargo, si la varianza del i -ésimo coeficiente es igual al número esperado de raíces reales es [23]

Geometría de raíces múltiples

Un polinomio se puede escribir en la forma de

con raíces distintas y multiplicidades correspondientes . Una raíz es una raíz simple si o una raíz múltiple si . Las raíces simples son Lipschitz continuas con respecto a los coeficientes, pero las raíces múltiples no lo son. En otras palabras, las raíces simples tienen sensibilidades limitadas, pero las raíces múltiples son infinitamente sensibles si los coeficientes se perturban arbitrariamente. Como resultado, la mayoría de los algoritmos de búsqueda de raíces sufren una pérdida sustancial de precisión en raíces múltiples en el cálculo numérico.

En 1972, William Kahan demostró que existe una estabilidad inherente de las raíces múltiples. [24] Kahan descubrió que los polinomios con un conjunto particular de multiplicidades forman lo que llamó una variedad peyorativa y demostró que una raíz múltiple es Lipschitz continua si la perturbación mantiene su multiplicidad.

Esta propiedad geométrica de raíces múltiples es crucial en el cálculo numérico de raíces múltiples .

Véase también

Notas

  1. ^ Hirst, Holly P.; Macey, Wade T. (1997). "Acotación de las raíces de polinomios". The College Mathematics Journal . 28 (4): 292–295. doi :10.1080/07468342.1997.11973878. JSTOR  2687152.
  2. ^ Lagrange J – L (1798) Traité de la résolution des équations numériques. París.
  3. ^ Cauchy Augustin-Louis (1829). Ejercicios de matemáticas . Obras 2 (9) p.122
  4. ^ ab Yap 2000, §VI.2
  5. ^ Marden, M. (1966). Geometría de polinomios . Amer. Math. Soc. ISBN 0-8218-1503-2.
  6. ^ Fujiwara, M. (1916). "Über die obere Schranke des absolut Betrages der Wurzeln einer algebraischen Gleichung". Revista Matemática de Tohoku . Primera serie. 10 : 167-171.
  7. ^ Kojima, T. (1917). "Sobre los límites de las raíces de una ecuación algebraica". Tohoku Mathematical Journal . Primera serie. 11 : 119–127.
  8. ^ Sun, YJ; Hsieh, JG (1996). "Una nota sobre el límite circular de ceros polinómicos". IEEE Trans Circuits Syst. I . 43 (6): 476–478. doi :10.1109/81.503258.
  9. ^ E. Landeau, Sur quelques th & or & mes de M. Petrovic relatifs aux zéros des fonctions analytiques, Bull. Borrachín. Matemáticas. Francia 33 (1905), 251-261.
  10. ^ M. Mignotte. Una desigualdad sobre factores de polinomios, Math. Comp. 28 (1974). 1153-1157.
  11. ^ W. Specht, Abschätzungen der Wurzeln algebraischer Gleichungen, Matemáticas. Z. 52 (1949). 310-321.
  12. ^ J. Vincente Gonçalves, L'inégalité de W. Specht. Univ. Lisboa Revista Fac. Ci A. Ci. Estera. 1 (195O), 167-171.
  13. ^ Mignotte, Maurice (1983). "Algunos límites útiles". Álgebra informática: cálculo simbólico y algebraico . Viena: Springer. pp. 259–263. ISBN 0-387-81776-X.
  14. ^ Mignotte, M. (1988). Una desigualdad sobre factores irreducibles de polinomios enteros. Journal of number theory , 30(2), 156-166.
  15. ^ Akritas, Alkiviadis G.; Strzeboński, AW; Vigklas, PS (2008). "Mejora del rendimiento del método de fracciones continuas utilizando nuevos límites de raíces positivas". Análisis no lineal: modelado y control . 13 (3): 265–279. doi : 10.15388/NA.2008.13.3.14557 .
  16. ^ Ştefănescu, D. Límites para raíces reales y aplicaciones a polinomios ortogonales . En: VG Ganzha, EW Mayr y EV Vorozhtsov (Editores): Actas del 10º Taller internacional sobre álgebra computacional en computación científica, CASC 2007, págs. 377-391, Bonn, Alemania, 16-20 de septiembre de 2007. LNCS 4770, Springer Verlag, Berlín, Heidelberg.
  17. ^ Laguerre E (1880). "Sur une méthode pour obtenir par approximation les racines d'une équation algébrique qui a toutes ses racines réelles". Nuevos anales de matemáticas . 2. 19 : 161–172, 193–202. Archivado desde el original el 15 de julio de 2014 . Consultado el 3 de septiembre de 2013 ..
  18. ^ Mignotte, Maurice (1982). Algunos límites útiles (PDF) . Springer. pág. 262.
  19. ^ Yap 2000, § VI.7, Proposición 29
  20. ^ Collins, George E. (2001). "Separación de raíces mínimas polinomiales" (PDF) . Journal of Symbolic Computation . 32 (5): 467–473. doi : 10.1006/jsco.2001.0481 .
  21. ^ Kac, M. (1943). "Sobre el número medio de raíces reales de una ecuación algebraica aleatoria". Boletín de la Sociedad Matemática Americana . 49 (4): 314–320. doi : 10.1090/S0002-9904-1943-07912-8 .
  22. ^ Kac, M. (1948). "Sobre el número medio de raíces reales de una ecuación algebraica aleatoria (II)". Actas de la London Mathematical Society . Segunda serie. 50 (1): 390–408. doi :10.1112/plms/s2-50.5.390.
  23. ^ ab Edelman, Alan; Kostlan, Eric (1995). "¿Cuántos ceros de un polinomio aleatorio son reales?" (PDF) . Boletín de la Sociedad Americana de Matemáticas . 32 (1): 1–37. doi : 10.1090/S0273-0979-1995-00571-9 .
  24. ^ Kahan, W. (1972). "La conservación de la confluencia reduce las malas condiciones". Informe técnico 6, Ciencias de la computación, Univ. de California .

Referencias

Enlaces externos