stringtranslate.com

Matriz de Hessenberg

En álgebra lineal , una matriz de Hessenberg es un tipo especial de matriz cuadrada , una que es "casi" triangular . Para ser exactos, una matriz de Hessenberg superior tiene cero entradas debajo de la primera subdiagonal , y una matriz de Hessenberg inferior tiene cero entradas encima de la primera superdiagonal . [1] Su nombre se debe a Karl Hessenberg . [2]

Una descomposición de Hessenberg es una descomposición matricial de una matriz en una matriz unitaria y una matriz de Hessenberg tal que donde denota la transpuesta conjugada .

Definiciones

Matriz del Alto Hessenberg

Se dice que una matriz cuadrada está en forma de Hessenberg superior o es una matriz de Hessenberg superior si para todos con .

Una matriz de Hessenberg superior se denomina no reducida si todas las entradas subdiagonales son distintas de cero, es decir, si para todos los . [3]

Matriz del Bajo Hessenberg

Se dice que una matriz cuadrada está en forma de Hessenberg inferior o es una matriz de Hessenberg inferior si su transpuesta es una matriz de Hessenberg superior o, equivalentemente, si para todos con .

Una matriz de Hessenberg inferior se denomina no reducida si todas las entradas superdiagonales son distintas de cero, es decir, si para todos los .

Ejemplos

Consideremos las siguientes matrices.

La matriz es una matriz de Hessenberg superior no reducida, es una matriz de Hessenberg inferior no reducida y es una matriz de Hessenberg inferior pero no está no reducida.

Programación de computadoras

Muchos algoritmos de álgebra lineal requieren un esfuerzo computacional significativamente menor cuando se aplican a matrices triangulares , y esta mejora a menudo se traslada también a las matrices de Hessenberg. Si las restricciones de un problema de álgebra lineal no permiten que una matriz general se reduzca convenientemente a una triangular, la reducción a la forma de Hessenberg es a menudo la siguiente mejor opción. De hecho, la reducción de cualquier matriz a una forma de Hessenberg se puede lograr en un número finito de pasos (por ejemplo, a través de la transformación de Householder de transformadas de similitud unitaria). La reducción posterior de la matriz de Hessenberg a una matriz triangular se puede lograr a través de procedimientos iterativos, como la factorización QR desplazada . En los algoritmos de valor propio , la matriz de Hessenberg se puede reducir aún más a una matriz triangular a través de la factorización QR desplazada combinada con pasos de deflación. Reducir una matriz general a una matriz de Hessenberg y luego reducir aún más a una matriz triangular, en lugar de reducir directamente una matriz general a una matriz triangular, a menudo economiza la aritmética involucrada en el algoritmo QR para problemas de valor propio.

Reducción a la matriz de Hessenberg

Transformaciones de los jefes de familia

Cualquier matriz puede transformarse en una matriz de Hessenberg mediante una transformación de similitud utilizando transformaciones de Householder . El siguiente procedimiento para dicha transformación es una adaptación de A Second Course In Linear Algebra de Garcia & Roger . [4]

Sea cualquier matriz real o compleja , entonces sea la submatriz de construida eliminando la primera fila en y sea la primera columna de . Construya la matriz de jefes de hogar donde

Esta matriz de jefes de hogar se asignará a y, como tal, la matriz de bloques asignará la matriz a la matriz que solo tiene ceros debajo de la segunda entrada de la primera columna. Ahora construya la matriz de jefes de hogar de manera similar a la que asigna la primera columna de a , donde es la submatriz de construida eliminando la primera fila y la primera columna de , luego sea que se asigna a la matriz que solo tiene ceros debajo de la primera y segunda entrada de la subdiagonal. Ahora construya y luego de manera similar, pero para la matriz construida eliminando la primera fila y la primera columna de y proceda como en los pasos anteriores. Continúe así por un total de pasos.

Por construcción de , las primeras columnas de cualquier matriz son invariantes ante la multiplicación por desde la derecha. Por lo tanto, cualquier matriz puede transformarse en una matriz de Hessenberg superior mediante una transformación de similitud de la forma .

Rotaciones de Jacobi (Givens)

Una rotación de Jacobi (también llamada rotación de Givens) es una transformación matricial ortogonal en la forma

donde , , es la matriz de rotación de Jacobi con todos los elementos de la matriz iguales a cero excepto

Se puede poner a cero el elemento de la matriz eligiendo el ángulo de rotación para satisfacer la ecuación.

Ahora, la secuencia de tales rotaciones de Jacobi con la siguiente

reduce la matriz a la forma Hessenberg inferior. [5]

Propiedades

Para , es vacuamente cierto que cada matriz es a la vez Hessenberg superior y Hessenberg inferior. [6]

El producto de una matriz de Hessenberg con una matriz triangular es nuevamente Hessenberg. Más precisamente, si es Hessenberg superior y es triangular superior, entonces y son Hessenberg superiores.

Una matriz que es a la vez Hessenberg superior e inferior es una matriz tridiagonal , de la que la matriz de Jacobi es un ejemplo importante. Esto incluye las matrices de Hessenberg simétricas o hermíticas. Una matriz hermítica se puede reducir a matrices simétricas reales tridiagonales. [7]

Operador de Hessenberg

El operador de Hessenberg es una matriz de Hessenberg de dimensión infinita. Suele presentarse como la generalización del operador de Jacobi a un sistema de polinomios ortogonales para el espacio de funciones holomorfas integrables al cuadrado sobre algún dominio, es decir, un espacio de Bergman . En este caso, el operador de Hessenberg es el operador de desplazamiento a la derecha , dado por

Los valores propios de cada submatriz principal del operador de Hessenberg están dados por el polinomio característico de esa submatriz. Estos polinomios se denominan polinomios de Bergman y proporcionan una base polinómica ortogonal para el espacio de Bergman.

Véase también

Notas

  1. ^ Horn y Johnson (1985), página 28; Stoer y Bulirsch (2002), página 251
  2. ^ Biswa Nath Datta (2010) Álgebra lineal numérica y aplicaciones, 2.ª edición, Sociedad de Matemáticas Industriales y Aplicadas (SIAM) ISBN  978-0-89871-685-6 , pág. 307
  3. ^ Horn y Johnson 1985, pág. 35
  4. ^ Ramon Garcia, Stephan; Horn, Roger (2017). Un segundo curso de álgebra lineal . Cambridge University Press. ISBN 9781107103818.
  5. ^ Bini, Dario A.; Robol, Leonardo (2016). "Reducción de Hessenberg cuasiseparable de matrices diagonales reales más matrices de bajo rango y aplicaciones". Álgebra lineal y sus aplicaciones . 502 : 186–213. arXiv : 1501.07812 . doi :10.1016/j.laa.2015.08.026.
  6. ^ Notas de la conferencia. Notas del 21 de octubre de 2016 Universidad de Cornell
  7. ^ "Rutinas computacionales (valores propios) en LAPACK". sites.science.oregonstate.edu . Consultado el 24 de mayo de 2020 .

Referencias

Enlaces externos