stringtranslate.com

Propiedades geométricas de raíces polinómicas.

En matemáticas , un polinomio univariado de grado n con coeficientes reales o complejos tiene n raíces complejas , si se cuentan con sus multiplicidades . Forman un conjunto múltiple de n puntos en el plano complejo . Este artículo se refiere a la geometría de estos puntos, es decir, a la información sobre su localización en el plano complejo que se puede deducir del grado y los coeficientes del polinomio.

Algunas de estas propiedades geométricas están relacionadas con un solo polinomio, como los límites superiores de los valores absolutos de las raíces, que definen un disco que contiene todas las raíces, o los límites inferiores de la distancia entre dos raíces. Estos límites se utilizan ampliamente para algoritmos de búsqueda de raíces para polinomios, ya sea para ajustarlos o para calcular su complejidad computacional .

Algunas otras propiedades son probabilísticas, como el número esperado de raíces reales de un polinomio aleatorio de grado n con coeficientes reales, que es menor que para n suficientemente grande.

En este artículo, un polinomio que se considera siempre se denota

donde están los números reales o complejos y ; entonces n es el grado del polinomio.

Dependencia continua de los coeficientes.

Las n raíces de un polinomio de grado n dependen continuamente de los coeficientes. Para raíces simples, esto resulta inmediatamente del teorema de la función implícita . Esto también es válido para raíces múltiples, pero se necesita algo de cuidado para la prueba.

Un pequeño cambio de coeficientes puede inducir un cambio dramático de las raíces, incluido el cambio de una raíz real a una raíz compleja con una parte imaginaria bastante grande (ver polinomio de Wilkinson ). Una consecuencia es que, para los algoritmos numéricos clásicos de búsqueda de raíces , el problema de aproximar las raíces dados los coeficientes puede estar mal condicionado para muchas entradas.

Conjugación

El teorema de la raíz conjugada compleja establece que si los coeficientes de un polinomio son reales, entonces las raíces no reales aparecen en pares de la forma ( a + ib , aib ) .

De ello se deduce que las raíces de un polinomio con coeficientes reales son simétricas especulares con respecto al eje real.

Esto se puede extender a la conjugación algebraica : las raíces de un polinomio con coeficientes racionales son conjugadas (es decir, invariantes) bajo la acción del grupo de Galois del polinomio. Sin embargo, esta simetría rara vez puede interpretarse geométricamente.

Límites en todas las raíces.

Los límites superiores de los valores absolutos de las raíces polinómicas se utilizan ampliamente para los algoritmos de búsqueda de raíces , ya sea para limitar las regiones donde se deben buscar las raíces o para calcular la complejidad computacional de estos algoritmos.

Se han dado muchos de estos límites, y el más definido depende generalmente de la secuencia específica de coeficientes que se consideran. La mayoría de los límites son mayores o iguales a uno y, por tanto, no son nítidos para un polinomio que sólo tiene raíces de valores absolutos inferiores a uno. Sin embargo, estos polinomios son muy raros, como se muestra a continuación.

Cualquier límite superior de los valores absolutos de las raíces proporciona un límite inferior correspondiente. De hecho, si y U es un límite superior de los valores absolutos de las raíces de

entonces 1/ U es una cota inferior de los valores absolutos de las raíces de

ya que las raíces de cualquiera de los polinomios son los inversos multiplicativos de las raíces del otro. Por lo tanto, en el resto del artículo no se darán límites inferiores de forma explícita .

Límites de Lagrange y Cauchy

Lagrange y Cauchy fueron los primeros en proporcionar límites superiores a todas las raíces complejas. [1] La cota de Lagrange es [2]

y el límite de Cauchy es [3]

El límite de Lagrange es más nítido (más pequeño) que el límite de Cauchy sólo cuando 1 es mayor que la suma de todos menos el mayor. Esto es relativamente raro en la práctica y explica por qué la cota de Cauchy se utiliza más ampliamente que la de Lagrange.

Ambos límites resultan del teorema del círculo de Gershgorin aplicado a la matriz compañera del polinomio y su transpuesta . También pueden demostrarse mediante métodos elementales.

Estos límites no son invariantes según la escala. Es decir, las raíces del polinomio p ( sx ) son el cociente entre s de la raíz de p , y los límites dados para las raíces de p ( sx ) no son el cociente entre s de los límites de p . Por lo tanto, se pueden obtener límites más definidos minimizando posibles escalas. Esto da

y

para los límites de Lagrange y Cauchy respectivamente.

Otro límite, originalmente dado por Lagrange, pero atribuido a Zassenhaus por Donald Knuth , es [4]

Este límite es invariante mediante escala.

Lagrange mejoró este último límite en la suma de los dos valores más grandes (posiblemente iguales) en la secuencia [4]

Lagrange también proporcionó la encuadernación [ cita necesaria ]

donde denota el i- ésimo coeficiente distinto de cero cuando los términos de los polinomios se ordenan en grados crecientes.

Usando la desigualdad de Hölder

La desigualdad de Hölder permite la extensión de los límites de Lagrange y Cauchy a cada norma h . La norma h de una secuencia

es

para cualquier número real h ≥ 1 , y

Si con 1 ≤ h , k ≤ ∞ y 1 / ∞ = 0 , un límite superior en los valores absolutos de las raíces de p es

Para k = 1 y k = ∞ , se obtienen los límites de Cauchy y Lagrange, respectivamente.

Para h = k = 2 , uno tiene el límite

Éste no es sólo un límite de los valores absolutos de las raíces, sino también un límite del producto de sus valores absolutos mayores que 1; ver § Desigualdad de Landau, más abajo.

Otros límites

Se han dado muchos otros límites superiores para las magnitudes de todas las raíces. [5]

Atado de Fujiwara [6]

mejora ligeramente el límite dado anteriormente dividiendo el último argumento del máximo por dos.

El límite de Kojima es [7] [ se necesita verificación ]

donde denota el i- ésimo coeficiente distinto de cero cuando los términos de los polinomios se ordenan en grados crecientes. Si todos los coeficientes son distintos de cero, el límite de Fujiwara es más nítido, ya que cada elemento en el límite de Fujiwara es la media geométrica de los primeros elementos en el límite de Kojima.

Sun y Hsieh obtuvieron otra mejora en el salto de Cauchy. [8] Supongamos que el polinomio es mónico con término general a i x i . Sun y Hsieh demostraron que los límites superiores 1 + d 1 y 1 + d 2 podían obtenerse a partir de las siguientes ecuaciones.

d 2 es la raíz positiva de la ecuación cúbica

También notaron que d 2d 1 .

La desigualdad de Landau

Los límites anteriores son límites superiores para cada raíz por separado. La desigualdad de Landau proporciona un límite superior para los valores absolutos del producto de las raíces que tienen un valor absoluto mayor que uno. Esta desigualdad, descubierta en 1905 por Edmund Landau , [9] ha sido olvidada y redescubierta al menos tres veces durante el siglo XX. [10] [11] [12]

Este límite del producto de raíces no es mucho mayor que los mejores límites anteriores de cada raíz por separado. [13] Sean las n raíces del polinomio p . Si

es la medida de Mahler de p , entonces

Sorprendentemente, este límite del producto de los valores absolutos mayores que 1 de las raíces no es mucho mayor que los mejores límites de una raíz que se han dado anteriormente para una sola raíz. Este límite es incluso exactamente igual a uno de los límites que se obtienen utilizando la desigualdad de Hölder.

Esta cota también es útil para cotejar los coeficientes de un divisor de un polinomio con coeficientes enteros: [14] si

es un divisor de p , entonces

y, según las fórmulas de Vieta ,

para i = 0, ..., m , donde es un coeficiente binomial . De este modo

y

Discos que contienen algunas raíces.

Del teorema de Rouché

El teorema de Rouché permite definir discos centrados en cero y que contienen un número determinado de raíces. Más precisamente, si existe un número real positivo R y un número entero 0 ≤ kn tal que

entonces hay exactamente k raíces, contadas con multiplicidad, de valor absoluto menor que R .

El resultado anterior se puede aplicar si el polinomio

toma un valor negativo para algún valor real positivo de x .

En el resto de la sección, supongamos que a 0 ≠ 0 . Si no es así, cero es raíz, y la localización de las demás raíces se puede estudiar dividiendo el polinomio por una potencia de indeterminada, obteniendo un polinomio con un término constante distinto de cero.

Para k = 0 y k = n , la regla de los signos de Descartes muestra que el polinomio tiene exactamente una raíz real positiva. Si y son estas raíces, el resultado anterior muestra que todas las raíces satisfacen

Como estas desigualdades también se aplican y estos límites son óptimos para polinomios con una secuencia dada de los valores absolutos de sus coeficientes. Por tanto, son más precisos que todos los límites indicados en las secciones anteriores.

Para 0 < k < n , la regla de los signos de Descartes implica que tiene dos raíces reales positivas que no son múltiples o no es negativa para cada valor positivo de x . Por tanto, el resultado anterior sólo puede aplicarse en el primer caso. Si son estas dos raíces, el resultado anterior implica que

para k raíces de p , y que

para las nk otras raíces.

En lugar de calcular explícitamente y, generalmente es suficiente calcular un valor tal que (necesariamente ). Estos tienen la propiedad de separar raíces en términos de sus valores absolutos: si, para h < k , ambos y existen, hay exactamente kh raíces z tales que

Para calcular se puede utilizar el hecho de que es una función convexa (su segunda derivada es positiva). Así existe si y sólo si es negativo en su mínimo único. Para calcular este mínimo, se puede utilizar cualquier método de optimización o, alternativamente, el método de Newton para calcular el cero positivo único de la derivada de (converge rápidamente, ya que la derivada es una función monótona ).

Se puede aumentar el número de existentes aplicando la operación de raíz cuadrada de la iteración Dandelin-Graeffe . Si las raíces tienen valores absolutos distintos, eventualmente se pueden separar completamente las raíces en términos de sus valores absolutos, es decir, calcular n + 1 números positivos de modo que haya exactamente una raíz con un valor absoluto en el intervalo abierto para k = 1, ..., n .

Del teorema del círculo de Gershgorin

El teorema del círculo de Gershgorin aplica la matriz compañera del polinomio sobre una base relacionada con la interpolación de Lagrange para definir discos centrados en los puntos de interpolación, cada uno de los cuales contiene una raíz del polinomio; consulte el método Durand-Kerner § Inclusión de raíces a través de los círculos de Gerschgorin para obtener más detalles.

Si los puntos de interpolación están cerca de las raíces de las raíces del polinomio, los radios de los discos son pequeños, y este es un ingrediente clave del método Durand-Kerner para calcular raíces polinómicas.

Límites de raíces reales

Para polinomios con coeficientes reales, suele ser útil acotar sólo las raíces reales. Basta con acotar las raíces positivas, ya que las raíces negativas de p ( x ) son las raíces positivas de p (– x ) .

Claramente, cada límite de todas las raíces se aplica también a las raíces reales. Pero en algunos contextos, resulta útil establecer límites más estrictos a las raíces reales. Por ejemplo, la eficacia del método de fracciones continuas para el aislamiento de raíces reales depende en gran medida de la rigidez de la unión de raíces positivas. Esto ha llevado a establecer nuevos límites que son más estrictos que los límites generales de todas las raíces. Estos límites generalmente se expresan no sólo en términos de los valores absolutos de los coeficientes, sino también en términos de sus signos.

Otros límites se aplican sólo a polinomios cuyas raíces son reales (ver más abajo).

Límites de raíces reales positivas

Para dar una cota de las raíces positivas, se puede suponer sin pérdida de generalidad, ya que cambiar los signos de todos los coeficientes no cambia las raíces.

Cada límite superior de las raíces positivas de

también es una cota de los ceros reales de

.

De hecho, si B es uno de esos límites, para todo x > B , se tiene p ( x ) ≥ q ( x ) > 0 .

Aplicado al límite de Cauchy, esto da el límite superior

para las raíces reales de un polinomio con coeficientes reales. Si este límite no es mayor que1 , esto significa que todos los coeficientes distintos de cero tienen el mismo signo y que no hay una raíz positiva.

De manera similar, otro límite superior de las raíces positivas es

Si todos los coeficientes distintos de cero tienen el mismo signo, no hay raíz positiva y el máximo debe ser cero.

Recientemente se han desarrollado otros límites, principalmente para el método de fracciones continuas para el aislamiento de raíces reales . [15] [16]

Polinomios cuyas raíces son todas reales.

Si todas las raíces de un polinomio son reales, Laguerre demostró los siguientes límites inferior y superior de las raíces, utilizando lo que ahora se llama desigualdad de Samuelson . [17]

Sea un polinomio con todas las raíces reales. Entonces sus raíces se ubican en el intervalo con puntos finales.

Por ejemplo, las raíces del polinomio satisfacen

Separación de raíces

La separación de raíces de un polinomio es la distancia mínima entre dos raíces, es decir el mínimo de los valores absolutos de la diferencia de dos raíces:

La separación de raíces es un parámetro fundamental de la complejidad computacional de los algoritmos de búsqueda de raíces para polinomios. De hecho, la separación de raíces determina la precisión de la representación numérica que se necesita para estar seguro de distinguir raíces distintas. Además, para el aislamiento de raíces reales , permite limitar el número de divisiones de intervalo necesarias para aislar todas las raíces.

Para polinomios con coeficientes reales o complejos, no es posible expresar un límite inferior de la separación de raíces en términos del grado y los valores absolutos de los coeficientes únicamente, porque un pequeño cambio en un solo coeficiente transforma un polinomio con múltiples raíces en un polinomio sin cuadrados con una pequeña separación de raíces y esencialmente los mismos valores absolutos del coeficiente. Sin embargo, involucrar al discriminante del polinomio permite un límite inferior.

Para polinomios libres de cuadrados con coeficientes enteros, el discriminante es un número entero y, por lo tanto, tiene un valor absoluto que no es menor que1 . Esto permite límites inferiores para la separación de raíces que son independientes del discriminante.

El límite de separación de Mignotte es [18] [19] [20]

¿Dónde está el discriminante y

Para un polinomio cuadrado libre con coeficientes enteros, esto implica

donde s es el tamaño de bits de p , es decir, la suma del tamaño de bits de sus coeficientes.

Teorema de Gauss-Lucas

El teorema de Gauss-Lucas establece que la cáscara convexa de las raíces de un polinomio contiene las raíces de la derivada del polinomio.

Un corolario a veces útil es que, si todas las raíces de un polinomio tienen parte real positiva, también la tienen las raíces de todas las derivadas del polinomio.

Un resultado relacionado es la desigualdad de Bernstein . Afirma que para un polinomio P de grado n con derivada P′ tenemos

Distribución estadística de las raíces.

Si los coeficientes a i de un polinomio aleatorio están distribuidos de forma independiente e idéntica con una media cero, la mayoría de las raíces complejas están en el círculo unitario o cerca de él. En particular, las raíces reales se encuentran en su mayoría cerca de ±1 y, además, su número esperado es, en gran medida, menor que el logaritmo natural del grado.

Si los coeficientes tienen una distribución gaussiana con una media de cero y una varianza de σ , entonces la densidad media de las raíces reales viene dada por la fórmula de Kac [21] [22]

dónde

Cuando los coeficientes tienen una distribución gaussiana con una media distinta de cero y una varianza de σ , se conoce una fórmula similar pero más compleja. [ cita necesaria ]

Raíces reales

Para n grande , la densidad media de raíces reales cerca de x es asintóticamente

si y

De ello se deduce que el número esperado de raíces reales es, usando notación O grande

donde C es una constante aproximadamente igual a0,625 735 8072 . [23]

En otras palabras, el número esperado de raíces reales de un polinomio aleatorio de alto grado es menor que el logaritmo natural de grado .

Kac, Erdős y otros han demostrado que estos resultados son insensibles a la distribución de los coeficientes, si son independientes y tienen la misma distribución con media cero. Sin embargo, si la varianza del i -ésimo coeficiente es igual al número esperado de raíces reales es [23]

Geometría de múltiples raíces.

Un polinomio se puede escribir en la forma de

con raíces distintas y multiplicidades correspondientes . Una raíz es una raíz simple si o una raíz múltiple si . Las raíces simples son continuas de Lipschitz con respecto a los coeficientes, pero las raíces múltiples no lo son. En otras palabras, las raíces simples tienen sensibilidades limitadas, pero las raíces múltiples son infinitamente sensibles si los coeficientes se perturban arbitrariamente. Como resultado, la mayoría de los algoritmos de búsqueda de raíces sufren una pérdida sustancial de precisión en raíces múltiples en el cálculo numérico.

En 1972, William Kahan demostró que existe una estabilidad inherente a las raíces múltiples. [24] Kahan descubrió que los polinomios con un conjunto particular de multiplicidades forman lo que llamó una variedad peyorativa y demostró que una raíz múltiple es continua de Lipschitz si la perturbación mantiene su multiplicidad.

Esta propiedad geométrica de raíces múltiples es crucial en el cálculo numérico de raíces múltiples .

Ver también

Notas

  1. ^ Primero, Holly P.; Macey, Wade T. (1997). "Delimitación de las raíces de polinomios". La revista universitaria de matemáticas . 28 (4): 292–295. doi :10.1080/07468342.1997.11973878. JSTOR  2687152.
  2. ^ Lagrange J – L (1798) Traité de la résolution des équations numériques. París.
  3. ^ Cauchy Augustin-Louis (1829). Ejercicios de matemáticas . Obras 2 (9) p.122
  4. ^ ab Yap 2000, §VI.2
  5. ^ Marden, M. (1966). Geometría de Polinomios . América. Matemáticas. Soc. ISBN 0-8218-1503-2.
  6. ^ Fujiwara, M. (1916). "Über die obere Schranke des absolut Betrages der Wurzeln einer algebraischen Gleichung". Revista matemática de Tohoku . Primera serie. 10 : 167-171.
  7. ^ Kojima, T. (1917). "Sobre los límites de las raíces de una ecuación algebraica". Revista matemática de Tohoku . Primera serie. 11 : 119-127.
  8. ^ Sol, YJ; Hsieh, JG (1996). "Una nota sobre la cota circular de ceros polinomiales". Sistema de circuitos trans IEEE. I . 43 (6): 476–478. doi : 10.1109/81.503258.
  9. ^ E. Landeau, Sur quelques th & or & mes de M. Petrovic relatifs aux zéros des fonctions analytiques, Bull. Borrachín. Matemáticas. Francia 33 (1905), 251-261.
  10. ^ Señor Mignotte. Una desigualdad sobre factores de polinomios, Math. comp. 28 (1974). 1153-1157.
  11. ^ W. Specht, Abschätzungen der Wurzeln algebraischer Gleichungen, Matemáticas. Z. 52 (1949). 310-321.
  12. ^ J. Vincente Gonçalves, L'inégalité de W. Specht. Univ. Lisboa Revista Fac. Ci A. Ci. Estera. 1 (195O), 167-171.
  13. ^ Mignotte, Mauricio (1983). "Algunos límites útiles". Álgebra informática: computación simbólica y algebraica . Viena: Springer. págs. 259–263. ISBN 0-387-81776-X.
  14. ^ Mignotte, M. (1988). Una desigualdad sobre factores irreducibles de polinomios enteros. Revista de teoría de números , 30(2), 156-166.
  15. ^ Akritas, Alkiviadis G.; Strzeboński, AW; Vigklas, PS (2008). "Mejora del rendimiento del método de fracciones continuas utilizando nuevos límites de raíces positivas". Análisis no lineal: modelado y control . 13 (3): 265–279. doi : 10.15388/NA.2008.13.3.14557 .
  16. ^ Ştefănescu, D. Límites de raíces reales y aplicaciones a polinomios ortogonales . En: VG Ganzha, EW Mayr y EV Vorozhtsov (Editores): Actas del décimo taller internacional sobre álgebra informática en informática científica, CASC 2007, págs. 377 – 391, Bonn, Alemania, 16 al 20 de septiembre de 2007. LNCS 4770, Springer Verlag, Berlín, Heidelberg.
  17. ^ Laguerre E (1880). "Sur une méthode pour obtenir par approximation les racines d'une équation algébrique qui a toutes ses racines réelles". Nuevos anales de matemáticas . 2. 19 : 161–172, 193–202..
  18. ^ Mignotte, Mauricio (1982). Algunos límites útiles (PDF) . Saltador. pag. 262.
  19. ^ Yap 2000, § VI.7, Proposición 29
  20. ^ Collins, George E. (2001). "Separación mínima de raíces polinómicas" (PDF) . Revista de Computación Simbólica . 32 (5): 467–473. doi : 10.1006/jsco.2001.0481 .
  21. ^ Kac, M. (1943). "Sobre el número medio de raíces reales de una ecuación algebraica aleatoria". Boletín de la Sociedad Matemática Estadounidense . 49 (4): 314–320. doi : 10.1090/S0002-9904-1943-07912-8 .
  22. ^ Kac, M. (1948). "Sobre el número promedio de raíces reales de una ecuación algebraica aleatoria (II)". Actas de la Sociedad Matemática de Londres . Segunda Serie. 50 (1): 390–408. doi :10.1112/plms/s2-50.5.390.
  23. ^ ab Edelman, Alan; Kostlán, Eric (1995). "¿Cuántos ceros de un polinomio aleatorio son reales?" (PDF) . Boletín de la Sociedad Matemática Estadounidense . 32 (1): 1–37. doi : 10.1090/S0273-0979-1995-00571-9 .
  24. ^ Kahan, W. (1972). "La conservación de la confluencia frena el mal estado". Informe Técnico 6, Ciencias de la Computación, Univ. De California .

Referencias

enlaces externos