stringtranslate.com

Valores propios y vectores propios

En álgebra lineal , un vector propio ( / ˈaɪɡən- / EYE -gən- ) o vector característico es un vector cuya dirección no cambia con una transformación lineal dada . Más precisamente, un vector propio, , de una transformación lineal, , se escala por un factor constante , , cuando se le aplica la transformación lineal: . A menudo es importante conocer estos vectores en álgebra lineal. El valor propio correspondiente , valor característico o raíz característica es el factor multiplicador .

Geométricamente, los vectores son cantidades multidimensionales con magnitud y dirección, a menudo representadas como flechas. Una transformación lineal rota , estira o corta los vectores sobre los que actúa. Sus vectores propios son aquellos vectores que solo se estiran, sin rotación ni corte. El valor propio correspondiente es el factor por el cual un vector propio se estira o se aplasta. Si el valor propio es negativo, la dirección del vector propio se invierte. [1]

Los vectores y valores propios de una transformación lineal sirven para caracterizarla, por lo que desempeñan papeles importantes en todas las áreas en las que se aplica el álgebra lineal, desde la geología hasta la mecánica cuántica . En particular, a menudo se da el caso de que un sistema se representa mediante una transformación lineal cuyas salidas se introducen como entradas a la misma transformación ( retroalimentación ). En una aplicación de este tipo, el valor propio más grande es de particular importancia, porque gobierna el comportamiento a largo plazo del sistema después de muchas aplicaciones de la transformación lineal, y el vector propio asociado es el estado estacionario del sistema.

Definición

Consideremos una matriz A y un vector distinto de cero de longitud Si multiplicar A por (denotado por ) simplemente escala por un factor de λ , donde λ es un escalar , entonces se llama vector propio de A , y λ es el valor propio correspondiente. Esta relación se puede expresar como: . [2]

Existe una correspondencia directa entre matrices cuadradas de n por n y transformaciones lineales de un espacio vectorial de n dimensiones a sí mismo, dada cualquier base del espacio vectorial. Por lo tanto, en un espacio vectorial de dimensión finita, es equivalente definir valores propios y vectores propios utilizando el lenguaje de matrices o el lenguaje de transformaciones lineales. [3] [4]

La siguiente sección ofrece un punto de vista más general que también cubre los espacios vectoriales de dimensión infinita .

Descripción general

Los valores propios y los vectores propios ocupan un lugar destacado en el análisis de las transformaciones lineales. El prefijo eigen- se adopta de la palabra alemana eigen ( cognado de la palabra inglesa own ) para 'apropiado', 'característico', 'propio'. [5] [6] Originalmente utilizados para estudiar los ejes principales del movimiento rotacional de cuerpos rígidos , los valores propios y los vectores propios tienen una amplia gama de aplicaciones, por ejemplo en el análisis de estabilidad , análisis de vibraciones , orbitales atómicos , reconocimiento facial y diagonalización de matrices .

En esencia, un vector propio v de una transformación lineal T es un vector distinto de cero que, cuando se le aplica T , no cambia de dirección. La aplicación de T al vector propio solo escala el vector propio por el valor escalar λ , llamado valor propio. Esta condición se puede escribir como la ecuación denominada ecuación de valor propio o ecuación propia . En general, λ puede ser cualquier escalar . Por ejemplo, λ puede ser negativo, en cuyo caso el vector propio invierte la dirección como parte del escalamiento, o puede ser cero o complejo .

En esta aplicación de cizallamiento, la flecha roja cambia de dirección, pero la flecha azul no. La flecha azul es un vector propio de esta aplicación de cizallamiento porque no cambia de dirección y, dado que su longitud no cambia, su valor propio es 1.
Matriz real y simétrica de 2×2 que representa un estiramiento y un corte del plano. Los vectores propios de la matriz (líneas rojas) son las dos direcciones especiales de modo que cada punto de ellas se deslice sobre ellas.

El ejemplo que se muestra aquí, basado en la Mona Lisa , proporciona una ilustración sencilla. Cada punto de la pintura se puede representar como un vector que apunta desde el centro de la pintura hasta ese punto. La transformación lineal en este ejemplo se llama mapeo de cizallamiento . Los puntos en la mitad superior se mueven hacia la derecha y los puntos en la mitad inferior se mueven hacia la izquierda, de manera proporcional a la distancia que se encuentran del eje horizontal que pasa por el medio de la pintura. Por lo tanto, los vectores que apuntan a cada punto en la imagen original se inclinan hacia la derecha o hacia la izquierda y se alargan o acortan mediante la transformación. Los puntos a lo largo del eje horizontal no se mueven en absoluto cuando se aplica esta transformación. Por lo tanto, cualquier vector que apunte directamente a la derecha o a la izquierda sin componente vertical es un vector propio de esta transformación, porque el mapeo no cambia su dirección. Además, todos estos vectores propios tienen un valor propio igual a uno, porque el mapeo tampoco cambia su longitud.

Las transformaciones lineales pueden tomar muchas formas diferentes, mapeando vectores en una variedad de espacios vectoriales, por lo que los vectores propios también pueden tomar muchas formas. Por ejemplo, la transformación lineal podría ser un operador diferencial como , en cuyo caso los vectores propios son funciones llamadas funciones propias que son escaladas por ese operador diferencial, como Alternativamente, la transformación lineal podría tomar la forma de una matriz n por n , en cuyo caso los vectores propios son matrices n por 1. Si la transformación lineal se expresa en la forma de una matriz n por n A , entonces la ecuación de valor propio para una transformación lineal anterior se puede reescribir como la multiplicación de matrices donde el vector propio v es una matriz n por 1. Para una matriz, los valores propios y los vectores propios se pueden usar para descomponer la matriz , por ejemplo, diagonalizándola .

Los valores propios y los vectores propios dan lugar a muchos conceptos matemáticos estrechamente relacionados, y el prefijo eigen- se aplica generosamente al nombrarlos:

Historia

Los valores propios suelen introducirse en el contexto del álgebra lineal o la teoría de matrices . Sin embargo, históricamente, surgieron en el estudio de formas cuadráticas y ecuaciones diferenciales .

En el siglo XVIII, Leonhard Euler estudió el movimiento de rotación de un cuerpo rígido y descubrió la importancia de los ejes principales . [a] Joseph-Louis Lagrange se dio cuenta de que los ejes principales son los vectores propios de la matriz de inercia. [10]

A principios del siglo XIX, Augustin-Louis Cauchy vio cómo su trabajo podía usarse para clasificar las superficies cuadráticas y lo generalizó a dimensiones arbitrarias. [11] Cauchy también acuñó el término racine caractéristique (raíz característica), para lo que ahora se llama valor propio ; su término sobrevive en la ecuación característica . [b]

Más tarde, Joseph Fourier utilizó el trabajo de Lagrange y Pierre-Simon Laplace para resolver la ecuación del calor por separación de variables en su famoso libro de 1822 Théorie analytique de la chaleur . [12] Charles-François Sturm desarrolló aún más las ideas de Fourier y las llevó a la atención de Cauchy, quien las combinó con sus propias ideas y llegó al hecho de que las matrices simétricas reales tienen valores propios reales. [11] Esto fue extendido por Charles Hermite en 1855 a lo que ahora se llaman matrices hermíticas . [13]

Casi al mismo tiempo, Francesco Brioschi demostró que los valores propios de las matrices ortogonales se encuentran en el círculo unitario [11] y Alfred Clebsch encontró el resultado correspondiente para matrices antisimétricas [13] . Finalmente, Karl Weierstrass aclaró un aspecto importante en la teoría de estabilidad iniciada por Laplace, al darse cuenta de que las matrices defectuosas pueden causar inestabilidad [11] .

Mientras tanto, Joseph Liouville estudió problemas de valores propios similares a los de Sturm; la disciplina que surgió de su trabajo ahora se llama teoría de Sturm-Liouville . [14] Schwarz estudió el primer valor propio de la ecuación de Laplace en dominios generales hacia fines del siglo XIX, mientras que Poincaré estudió la ecuación de Poisson unos años más tarde. [15]

A principios del siglo XX, David Hilbert estudió los valores propios de los operadores integrales al considerarlos como matrices infinitas. [16] Fue el primero en utilizar la palabra alemana eigen , que significa "propio", [6] para denotar valores propios y vectores propios en 1904, [c] aunque es posible que haya seguido un uso relacionado de Hermann von Helmholtz . Durante algún tiempo, el término estándar en inglés fue "valor propio", pero el término más distintivo "valor propio" es el estándar en la actualidad. [17]

El primer algoritmo numérico para calcular valores y vectores propios apareció en 1929, cuando Richard von Mises publicó el método de potencia . Uno de los métodos más populares en la actualidad, el algoritmo QR , fue propuesto independientemente por John GF Francis [18] y Vera Kublanovskaya [19] en 1961. [20] [21]

Valores propios y vectores propios de matrices

Los valores propios y los vectores propios suelen presentarse a los estudiantes en el contexto de cursos de álgebra lineal centrados en matrices. [22] [23] Además, las transformaciones lineales sobre un espacio vectorial de dimensión finita se pueden representar utilizando matrices, [3] [4] lo que es especialmente común en aplicaciones numéricas y computacionales. [24]

La matriz A actúa estirando el vector x , sin cambiar su dirección, por lo que x es un vector propio de A .

Consideremos vectores n -dimensionales que se forman como una lista de n escalares, como los vectores tridimensionales

Se dice que estos vectores son múltiplos escalares entre sí, o paralelos o colineales , si existe un escalar λ tal que

En este caso, .

Consideremos ahora la transformación lineal de vectores n -dimensionales definidos por una matriz n por n A , o donde, para cada fila,

Si ocurre que v y w son múltiplos escalares, es decir si

entonces v es un vector propio de la transformación lineal A y el factor de escala λ es el valor propio correspondiente a ese vector propio. La ecuación ( 1 ) es la ecuación del valor propio para la matriz A.

La ecuación ( 1 ) se puede expresar de manera equivalente como

donde I es la matriz identidad n por n y 0 es el vector cero.

Valores propios y polinomio característico

La ecuación ( 2 ) tiene una solución v distinta de cero si y solo si el determinante de la matriz ( AλI ) es cero. Por lo tanto, los valores propios de A son valores de λ que satisfacen la ecuación

Utilizando la fórmula de Leibniz para determinantes , el lado izquierdo de la ecuación ( 3 ) es una función polinómica de la variable λ y el grado de este polinomio es n , el orden de la matriz A. Sus coeficientes dependen de las entradas de A , excepto que su término de grado n es siempre (−1) n λ n . Este polinomio se denomina polinomio característico de A. La ecuación ( 3 ) se denomina ecuación característica o ecuación secular de A.

El teorema fundamental del álgebra implica que el polinomio característico de una matriz n por n A , al ser un polinomio de grado n , puede factorizarse en el producto de n términos lineales,

donde cada λ i puede ser real pero en general es un número complejo. Los números λ 1 , λ 2 , ..., λ n , que pueden no tener todos valores distintos, son raíces del polinomio y son los valores propios de A .

Como ejemplo breve, que se describe con más detalle en la sección de ejemplos más adelante, considere la matriz

Tomando el determinante de ( AλI ) , el polinomio característico de A es

Si se iguala a cero el polinomio característico, éste tiene raíces en λ=1 y λ=3 , que son los dos valores propios de A. Los vectores propios correspondientes a cada valor propio se pueden encontrar resolviendo los componentes de v en la ecuación . En este ejemplo, los vectores propios son cualquier múltiplo escalar distinto de cero de

Si las entradas de la matriz A son todas números reales, entonces los coeficientes del polinomio característico también serán números reales, pero los valores propios pueden tener partes imaginarias distintas de cero. Por lo tanto, las entradas de los vectores propios correspondientes también pueden tener partes imaginarias distintas de cero. De manera similar, los valores propios pueden ser números irracionales incluso si todas las entradas de A son números racionales o incluso si son todos números enteros. Sin embargo, si las entradas de A son todas números algebraicos , que incluyen los racionales, los valores propios también deben ser números algebraicos.

Las raíces no reales de un polinomio real con coeficientes reales se pueden agrupar en pares de conjugados complejos , es decir, con los dos miembros de cada par que tienen partes imaginarias que difieren solo en el signo y la misma parte real. Si el grado es impar, entonces, por el teorema del valor intermedio, al menos una de las raíces es real. Por lo tanto, cualquier matriz real con orden impar tiene al menos un valor propio real, mientras que una matriz real con orden par puede no tener ningún valor propio real. Los vectores propios asociados con estos valores propios complejos también son complejos y también aparecen en pares conjugados complejos.

Espectro de una matriz

El espectro de una matriz es la lista de valores propios, repetidos según su multiplicidad; en una notación alternativa, el conjunto de valores propios con sus multiplicidades.

Una cantidad importante asociada con el espectro es el valor absoluto máximo de cualquier valor propio, conocido como radio espectral de la matriz.

Multiplicidad algebraica

Sea λ i un valor propio de una matriz A de n por n . La multiplicidad algebraica μ A ( λ i ) del valor propio es su multiplicidad como raíz del polinomio característico, es decir, el entero más grande k tal que ( λλ i ) k divide exactamente ese polinomio. [9] [25] [26]

Supóngase que una matriz A tiene dimensión n y dn valores propios distintos. Mientras que la ecuación ( 4 ) factoriza el polinomio característico de A en el producto de n términos lineales con algunos términos que potencialmente se repiten, el polinomio característico también puede escribirse como el producto de d términos, cada uno correspondiente a un valor propio distinto y elevado a la potencia de la multiplicidad algebraica,

Si d = n entonces el lado derecho es el producto de n términos lineales y esto es lo mismo que la ecuación ( 4 ). El tamaño de la multiplicidad algebraica de cada valor propio está relacionado con la dimensión n como

Si μ A ( λ i ) = 1, entonces se dice que λ i es un valor propio simple . [26] Si μ A ( λ i ) es igual a la multiplicidad geométrica de λ i , γ A ( λ i ), definida en la siguiente sección, entonces se dice que λ i es un valor propio semisimple .

Espacios propios, multiplicidad geométrica y base propia para matrices

Dado un valor propio particular λ de la matriz A de n por n , defina el conjunto E como todos los vectores v que satisfacen la ecuación ( 2 ),

Por un lado, este conjunto es precisamente el núcleo o espacio nulo de la matriz ( AλI ). Por otro lado, por definición, cualquier vector distinto de cero que satisfaga esta condición es un vector propio de A asociado a λ . Así, el conjunto E es la unión del vector cero con el conjunto de todos los vectores propios de A asociados a λ , y E es igual al espacio nulo de ( AλI ). E se denomina espacio propio o espacio característico de A asociado a λ . [27] [9] En general λ es un número complejo y los vectores propios son matrices complejas n por 1. Una propiedad del espacio nulo es que es un subespacio lineal , por lo que E es un subespacio lineal de .

Como el espacio propio E es un subespacio lineal, es cerrado bajo la adición. Es decir, si dos vectores u y v pertenecen al conjunto E , escrito u , vE , entonces ( u + v ) ∈ E o equivalentemente A ( u + v ) = λ ( u + v ) . Esto se puede comprobar utilizando la propiedad distributiva de la multiplicación de matrices. De manera similar, como E es un subespacio lineal, es cerrado bajo la multiplicación escalar. Es decir, si vE y α es un número complejo, ( α v ) ∈ E o equivalentemente A ( α v ) = λ ( α v ) . Esto se puede comprobar observando que la multiplicación de matrices complejas por números complejos es conmutativa . Siempre que u + v y α v no sean cero, también son vectores propios de A asociados con λ .

La dimensión del espacio propio E asociado con λ , o equivalentemente el número máximo de vectores propios linealmente independientes asociados con λ , se denomina multiplicidad geométrica del valor propio . Debido a que E también es el espacio nulo de ( AλI ), la multiplicidad geométrica de λ es la dimensión del espacio nulo de ( AλI ), también llamada nulidad de ( AλI ), que se relaciona con la dimensión y el rango de ( AλI ) como

Debido a la definición de valores propios y vectores propios, la multiplicidad geométrica de un valor propio debe ser al menos uno, es decir, cada valor propio tiene al menos un vector propio asociado. Además, la multiplicidad geométrica de un valor propio no puede superar su multiplicidad algebraica. Además, recuerde que la multiplicidad algebraica de un valor propio no puede superar n .

Para demostrar la desigualdad , considere cómo la definición de multiplicidad geométrica implica la existencia de vectores propios ortonormales , tales que . Por lo tanto, podemos encontrar una matriz (unitaria) cuyas primeras columnas son estos vectores propios, y cuyas columnas restantes pueden ser cualquier conjunto ortonormal de vectores ortogonales a estos vectores propios de . Entonces tiene rango completo y, por lo tanto, es invertible. Evaluando , obtenemos una matriz cuyo bloque superior izquierdo es la matriz diagonal . Esto se puede ver evaluando lo que el lado izquierdo hace con los vectores base de la primera columna. Al reorganizar y agregar en ambos lados, obtenemos ya que conmuta con . En otras palabras, es similar a , y . Pero a partir de la definición de , sabemos que contiene un factor , lo que significa que la multiplicidad algebraica de debe satisfacer .

Supongamos que tiene valores propios distintos , donde la multiplicidad geométrica de es . La multiplicidad geométrica total de , es la dimensión de la suma de todos los espacios propios de los valores propios de , o equivalentemente el número máximo de vectores propios linealmente independientes de . Si , entonces

Propiedades adicionales de los valores propios

Sea una matriz arbitraria de números complejos con valores propios . Cada valor propio aparece veces en esta lista, donde es la multiplicidad algebraica del valor propio. Las siguientes son propiedades de esta matriz y sus valores propios:

Vectores propios izquierdo y derecho

Muchas disciplinas tradicionalmente representan los vectores como matrices con una sola columna en lugar de matrices con una sola fila. Por esa razón, la palabra "vector propio" en el contexto de matrices casi siempre se refiere a un vector propio derecho , es decir, un vector columna que multiplica por la derecha la matriz en la ecuación definitoria, ecuación ( 1 ).

El problema de los valores propios y los vectores propios también se puede definir para vectores fila que multiplican por la izquierda la matriz . En esta formulación, la ecuación definitoria es

donde es un escalar y es una matriz. Cualquier vector fila que satisfaga esta ecuación se denomina vector propio izquierdo de y es su valor propio asociado. Tomando la transpuesta de esta ecuación,

Comparando esta ecuación con la ecuación ( 1 ), se sigue inmediatamente que un vector propio izquierdo de es el mismo que la transpuesta de un vector propio derecho de , con el mismo valor propio. Además, dado que el polinomio característico de es el mismo que el polinomio característico de , los vectores propios izquierdo y derecho de están asociados con los mismos valores propios.

Diagonalización y descomposición propia

Supóngase que los vectores propios de A forman una base, o equivalentemente, A tiene n vectores propios linealmente independientes v 1 , v 2 , ..., v n con valores propios asociados λ 1 , λ 2 , ..., λ n . Los valores propios no necesitan ser distintos. Defina una matriz cuadrada Q cuyas columnas sean los n vectores propios linealmente independientes de A ,

Dado que cada columna de Q es un vector propio de A , al multiplicar A por Q hacia la derecha se escala cada columna de Q por su valor propio asociado,

Con esto en mente, defina una matriz diagonal Λ donde cada elemento diagonal Λ ii es el valor propio asociado con la i- ésima columna de Q . Luego

Como las columnas de Q son linealmente independientes, Q es invertible. Multiplicando ambos lados de la ecuación por Q −1 ,

o en su lugar, multiplicando hacia la izquierda ambos lados por Q −1 ,

Por lo tanto, A se puede descomponer en una matriz compuesta por sus vectores propios, una matriz diagonal con sus valores propios a lo largo de la diagonal y la inversa de la matriz de vectores propios. Esto se llama descomposición propia y es una transformación de similitud . Se dice que una matriz A de este tipo es similar a la matriz diagonal Λ o diagonalizable . La matriz Q es la matriz de cambio de base de la transformación de similitud. Esencialmente, las matrices A y Λ representan la misma transformación lineal expresada en dos bases diferentes. Los vectores propios se utilizan como base cuando se representa la transformación lineal como Λ.

Por el contrario, supongamos que una matriz A es diagonalizable. Sea P una matriz cuadrada no singular tal que P −1 AP es una matriz diagonal D . Multiplicando ambas por P , AP = PD . Por lo tanto, cada columna de P debe ser un vector propio de A cuyo valor propio sea el elemento diagonal correspondiente de D . Como las columnas de P deben ser linealmente independientes para que P sea invertible, existen n vectores propios linealmente independientes de A . Entonces se deduce que los vectores propios de A forman una base si y solo si A es diagonalizable.

Una matriz que no es diagonalizable se dice que es defectuosa . Para matrices defectuosas, la noción de vectores propios se generaliza a vectores propios generalizados y la matriz diagonal de valores propios se generaliza a la forma normal de Jordan . Sobre un cuerpo algebraicamente cerrado, cualquier matriz A tiene una forma normal de Jordan y, por lo tanto, admite una base de vectores propios generalizados y una descomposición en espacios propios generalizados .

Caracterización variacional

En el caso hermítico , los valores propios pueden tener una caracterización variacional. El valor propio más grande de es el valor máximo de la forma cuadrática . Un valor de que realiza ese máximo es un vector propio.

Ejemplos de matrices

Ejemplo de matriz bidimensional

La matriz de transformación A = conserva la dirección de los vectores violeta paralelos a v λ =1 = [1 −1] T y los vectores azules paralelos a v λ =3 = [1 1] T . Los vectores rojos no son paralelos a ninguno de los vectores propios, por lo que sus direcciones cambian por la transformación. Las longitudes de los vectores violeta no cambian después de la transformación (debido a su valor propio de 1), mientras que los vectores azules tienen tres veces la longitud del original (debido a su valor propio de 3). Véase también: Una versión extendida, que muestra los cuatro cuadrantes .

Considere la matriz

La figura de la derecha muestra el efecto de esta transformación sobre las coordenadas de los puntos en el plano. Los vectores propios v de esta transformación satisfacen la ecuación ( 1 ), y los valores de λ para los cuales el determinante de la matriz ( A  −  λI ) es igual a cero son los valores propios.

Tomando el determinante para encontrar el polinomio característico de A ,

Al establecer el polinomio característico igual a cero, tiene raíces en λ = 1 y λ = 3 , que son los dos valores propios de A.

Para λ = 1 , la ecuación ( 2 ) se convierte en,

Cualquier vector distinto de cero con v 1 = − v 2 resuelve esta ecuación. Por lo tanto, es un vector propio de A correspondiente a λ = 1, al igual que cualquier múltiplo escalar de este vector.

Para λ = 3 , la ecuación ( 2 ) se convierte en

Cualquier vector distinto de cero con v 1 = v 2 resuelve esta ecuación. Por lo tanto,

es un vector propio de A correspondiente a λ = 3, como lo es cualquier múltiplo escalar de este vector.

Por tanto, los vectores v λ = 1 y v λ = 3 son vectores propios de A asociados a los valores propios λ = 1 y λ = 3 , respectivamente.

Ejemplo de matriz tridimensional

Considere la matriz

El polinomio característico de A es

Las raíces del polinomio característico son 2, 1 y 11, que son los únicos tres valores propios de A. Estos valores propios corresponden a los vectores propios , , y , o cualquier múltiplo distinto de cero de los mismos.

Ejemplo de matriz tridimensional con valores propios complejos

Considere la matriz de permutación cíclica

Esta matriz desplaza las coordenadas del vector una posición hacia arriba y desplaza la primera coordenada hacia abajo. Su polinomio característico es 1 −  λ 3 , cuyas raíces son donde es una unidad imaginaria con .

Para el valor propio real λ 1 = 1, cualquier vector con tres entradas iguales distintas de cero es un vector propio. Por ejemplo,

Para el par conjugado complejo de valores propios imaginarios,

Entonces y

Por lo tanto, los otros dos vectores propios de A son complejos y son y con valores propios λ 2 y λ 3 , respectivamente. Los dos vectores propios complejos también aparecen en un par conjugado complejo,

Ejemplo de matriz diagonal

Las matrices con entradas solo a lo largo de la diagonal principal se denominan matrices diagonales . Los valores propios de una matriz diagonal son los propios elementos diagonales. Considere la matriz

El polinomio característico de A es

que tiene las raíces λ 1 = 1 , λ 2 = 2 y λ 3 = 3 . Estas raíces son los elementos diagonales así como los valores propios de  A .

Cada elemento diagonal corresponde a un vector propio cuyo único componente distinto de cero está en la misma fila que ese elemento diagonal. En el ejemplo, los valores propios corresponden a los vectores propios,

respectivamente, así como múltiplos escalares de estos vectores.

Ejemplo de matriz triangular

Una matriz cuyos elementos por encima de la diagonal principal son todos cero se denomina matriz triangular inferior , mientras que una matriz cuyos elementos por debajo de la diagonal principal son todos cero se denomina matriz triangular superior . Al igual que con las matrices diagonales, los valores propios de las matrices triangulares son los elementos de la diagonal principal.

Consideremos la matriz triangular inferior,

El polinomio característico de A es

que tiene las raíces λ 1 = 1 , λ 2 = 2 y λ 3 = 3 . Estas raíces son los elementos diagonales así como los valores propios de  A .

Estos valores propios corresponden a los vectores propios,

respectivamente, así como múltiplos escalares de estos vectores.

Ejemplo de matriz con valores propios repetidos

Como en el ejemplo anterior, la matriz triangular inferior tiene un polinomio característico que es el producto de sus elementos diagonales,

Las raíces de este polinomio, y por tanto los valores propios, son 2 y 3. La multiplicidad algebraica de cada valor propio es 2; en otras palabras, ambos son raíces dobles. La suma de las multiplicidades algebraicas de todos los valores propios distintos es μ A = 4 = n , el orden del polinomio característico y la dimensión de A .

Por otra parte, la multiplicidad geométrica del valor propio 2 es solo 1, porque su espacio propio está abarcado por un solo vector y, por lo tanto, es unidimensional. De manera similar, la multiplicidad geométrica del valor propio 3 es 1 porque su espacio propio está abarcado por un solo vector . La multiplicidad geométrica total γ A es 2, que es la más pequeña que podría ser para una matriz con dos valores propios distintos. Las multiplicidades geométricas se definen en una sección posterior.

Identidad vector propio-valor propio

Para una matriz hermítica , la norma al cuadrado del componente j de un vector propio normalizado se puede calcular utilizando solo los valores propios de la matriz y los valores propios de la matriz menor correspondiente , donde es la submatriz formada al eliminar la fila y columna j de la matriz original. [33] [34] [35] Esta identidad también se extiende a matrices diagonalizables y ha sido redescubierta muchas veces en la literatura. [34] [36]

Valores propios y funciones propias de operadores diferenciales

Las definiciones de valor propio y vectores propios de una transformación lineal T siguen siendo válidas incluso si el espacio vectorial subyacente es un espacio de Hilbert o de Banach de dimensión infinita. Una clase ampliamente utilizada de transformaciones lineales que actúan sobre espacios de dimensión infinita son los operadores diferenciales sobre espacios de funciones . Sea D un operador diferencial lineal sobre el espacio C de funciones reales infinitamente diferenciables de un argumento real t . La ecuación de valor propio para D es la ecuación diferencial

Las funciones que satisfacen esta ecuación son vectores propios de D y se denominan comúnmente funciones propias .

Ejemplo de operador derivado

Considere el operador derivado con ecuación de valor propio

Esta ecuación diferencial se puede resolver multiplicando ambos lados por dt / f ( t ) e integrando . Su solución, la función exponencial, es la función propia del operador derivada. En este caso, la función propia es en sí misma una función de su valor propio asociado. En particular, para λ = 0, la función propia f ( t ) es una constante.

El artículo principal sobre funciones propias ofrece otros ejemplos.

Definición general

El concepto de valores propios y vectores propios se extiende naturalmente a transformaciones lineales arbitrarias sobre espacios vectoriales arbitrarios. Sea V cualquier espacio vectorial sobre un cuerpo K de escalares y sea T una transformación lineal que aplica V a V ,

Decimos que un vector distinto de cero vV es un vector propio de T si y solo si existe un escalar λK tal que

Esta ecuación se denomina ecuación de valor propio para T , y el escalar λ es el valor propio de T correspondiente al vector propio v . T ( v ) es el resultado de aplicar la transformación T al vector v , mientras que λ v es el producto del escalar λ con v . [37] [38]

Espacios propios, multiplicidad geométrica y base propia

Dado un valor propio λ , considere el conjunto

que es la unión del vector cero con el conjunto de todos los vectores propios asociados a  λ . E se denomina espacio propio o espacio característico de T asociado a  λ . [39]

Por definición de una transformación lineal,

para xy  ∈ V y α  ∈ K . Por lo tanto, si u y v son vectores propios de T asociados con el valor propio λ , es decir uv  ∈ E , entonces

Por lo tanto, tanto u + v como α v son cero o vectores propios de T asociados con λ , es decir, u + v , α vE , y E está cerrado bajo la adición y la multiplicación escalar. El espacio propio E asociado con λ es, por lo tanto, un subespacio lineal de V . [40] Si ese subespacio tiene dimensión 1, a veces se lo denomina línea propia . [41]

La multiplicidad geométrica γ T ( λ ) de un valor propio λ es la dimensión del espacio propio asociado con λ , es decir, el número máximo de vectores propios linealmente independientes asociados con ese valor propio. [9] [26] [42] Por la definición de valores propios y vectores propios, γ T ( λ ) ≥ 1 porque cada valor propio tiene al menos un vector propio.

Los espacios propios de T siempre forman una suma directa . En consecuencia, los vectores propios de distintos valores propios son siempre linealmente independientes. Por lo tanto, la suma de las dimensiones de los espacios propios no puede superar la dimensión n del espacio vectorial en el que opera T , y no puede haber más de n valores propios distintos. [d]

Cualquier subespacio abarcado por vectores propios de T es un subespacio invariante de T , y la restricción de T a dicho subespacio es diagonalizable. Además, si todo el espacio vectorial V puede ser abarcado por los vectores propios de T , o equivalentemente si la suma directa de los espacios propios asociados con todos los valores propios de T es todo el espacio vectorial V , entonces una base de V llamada base propia puede formarse a partir de vectores propios linealmente independientes de T . Cuando T admite una base propia, T es diagonalizable.

Teoría espectral

Si λ es un valor propio de T , entonces el operador ( TλI ) no es biunívoco y, por lo tanto, su inverso ( TλI ) −1 no existe. Lo contrario es cierto para espacios vectoriales de dimensión finita, pero no para espacios vectoriales de dimensión infinita. En general, el operador ( TλI ) puede no tener un inverso incluso si λ no es un valor propio.

Por esta razón, en el análisis funcional los valores propios se pueden generalizar al espectro de un operador lineal T como el conjunto de todos los escalares λ para los cuales el operador ( TλI ) no tiene inverso acotado . El espectro de un operador siempre contiene todos sus valores propios pero no está limitado a ellos.

Álgebras asociativas y teoría de la representación

Se puede generalizar el objeto algebraico que actúa sobre el espacio vectorial, reemplazando un único operador que actúa sobre un espacio vectorial por una representación algebraica : un álgebra asociativa que actúa sobre un módulo . El estudio de tales acciones es el campo de la teoría de la representación .

El concepto teórico de representación de peso es un análogo de los valores propios, mientras que los vectores de peso y los espacios de peso son los análogos de los vectores propios y los espacios propios, respectivamente.

El haz propio de Hecke es un tensor múltiplo de sí mismo y se considera en la correspondencia de Langlands .

Ecuaciones dinámicas

Las ecuaciones diferenciales más simples tienen la forma

La solución de esta ecuación para x en términos de t se encuentra utilizando su ecuación característica

que se puede encontrar apilando en forma matricial un conjunto de ecuaciones que consisten en la ecuación diferencial anterior y las ecuaciones k  – 1 que dan un sistema k -dimensional de primer orden en el vector de variable apilada en términos de su valor una vez rezagado, y tomando la ecuación característica de la matriz de este sistema. Esta ecuación da k raíces características para usar en la ecuación de solución

Se utiliza un procedimiento similar para resolver una ecuación diferencial de la forma

Cálculo

El cálculo de valores propios y vectores propios es un tema en el que la teoría, tal como se presenta en los libros de texto de álgebra lineal elemental, a menudo está muy lejos de la práctica.

Método clásico

El método clásico consiste en encontrar primero los valores propios y luego calcular los vectores propios para cada valor propio. En varios aspectos, no es adecuado para operaciones aritméticas no exactas, como la de punto flotante .

Valores propios

Los valores propios de una matriz se pueden determinar hallando las raíces del polinomio característico. Esto es fácil en el caso de las matrices, pero la dificultad aumenta rápidamente con el tamaño de la matriz.

En teoría, los coeficientes del polinomio característico se pueden calcular con exactitud, ya que son sumas de productos de elementos de la matriz; y hay algoritmos que pueden encontrar todas las raíces de un polinomio de grado arbitrario con cualquier precisión requerida . [43] Sin embargo, este enfoque no es viable en la práctica porque los coeficientes estarían contaminados por errores de redondeo inevitables , y las raíces de un polinomio pueden ser una función extremadamente sensible de los coeficientes (como lo ejemplifica el polinomio de Wilkinson ). [43] Incluso para matrices cuyos elementos son números enteros, el cálculo se vuelve no trivial, porque las sumas son muy largas; el término constante es el determinante , que para una matriz es una suma de diferentes productos. [e]

Las fórmulas algebraicas explícitas para las raíces de un polinomio solo existen si el grado es 4 o menos. Según el teorema de Abel-Ruffini, no existe una fórmula algebraica general, explícita y exacta para las raíces de un polinomio con grado 5 o más. (La generalidad importa porque cualquier polinomio con grado es el polinomio característico de alguna matriz compañera de orden ). Por lo tanto, para matrices de orden 5 o más, los valores y vectores propios no se pueden obtener mediante una fórmula algebraica explícita y, por lo tanto, deben calcularse mediante métodos numéricos aproximados . Incluso la fórmula exacta para las raíces de un polinomio de grado 3 es numéricamente impráctica.

Vectores propios

Una vez que se conoce el valor (exacto) de un valor propio, se pueden encontrar los vectores propios correspondientes hallando soluciones distintas de cero de la ecuación del valor propio, que se convierte en un sistema de ecuaciones lineales con coeficientes conocidos. Por ejemplo, una vez que se sabe que 6 es un valor propio de la matriz

Podemos encontrar sus vectores propios resolviendo la ecuación , es decir

Esta ecuación matricial es equivalente a dos ecuaciones lineales que son         

Ambas ecuaciones se reducen a una única ecuación lineal . Por lo tanto, cualquier vector de la forma , para cualquier número real distinto de cero , es un vector propio de con valor propio .

La matriz anterior tiene otro valor propio . Un cálculo similar muestra que los vectores propios correspondientes son las soluciones distintas de cero de , es decir, cualquier vector de la forma , para cualquier número real distinto de cero .

Métodos iterativos simples

El enfoque inverso, de buscar primero los vectores propios y luego determinar cada valor propio a partir de su vector propio, resulta ser mucho más manejable para las computadoras. El algoritmo más fácil aquí consiste en elegir un vector inicial arbitrario y luego multiplicarlo repetidamente por la matriz (normalizando opcionalmente el vector para mantener sus elementos de tamaño razonable); esto hace que el vector converja hacia un vector propio. Una variación es, en cambio, multiplicar el vector por ; esto hace que converja hacia un vector propio del valor propio más cercano a .

Si es (una buena aproximación de) un vector propio de , entonces el valor propio correspondiente se puede calcular como

donde denota la transpuesta conjugada de .

Métodos modernos

No se conocían métodos eficientes y precisos para calcular valores propios y vectores propios de matrices arbitrarias hasta que se diseñó el algoritmo QR en 1961. [43] La combinación de la transformación de Householder con la descomposición LU da como resultado un algoritmo con mejor convergencia que el algoritmo QR. [ cita requerida ] Para matrices dispersas hermíticas grandes , el algoritmo de Lanczos es un ejemplo de un método iterativo eficiente para calcular valores propios y vectores propios, entre varias otras posibilidades. [43]

La mayoría de los métodos numéricos que calculan los valores propios de una matriz también determinan un conjunto de vectores propios correspondientes como subproducto del cálculo, aunque a veces los implementadores optan por descartar la información del vector propio tan pronto como ya no es necesaria.

Aplicaciones

Transformaciones geométricas

Los vectores propios y los valores propios pueden ser útiles para comprender las transformaciones lineales de formas geométricas. La siguiente tabla presenta algunos ejemplos de transformaciones en el plano junto con sus matrices 2×2, valores propios y vectores propios.

La ecuación característica de una rotación es una ecuación cuadrática con discriminante , que es un número negativo siempre que θ no sea un múltiplo entero de 180°. Por lo tanto, excepto en estos casos especiales, los dos valores propios son números complejos, ; y todos los vectores propios tienen entradas no reales. De hecho, excepto en esos casos especiales, una rotación cambia la dirección de cada vector distinto de cero en el plano.

A linear transformation that takes a square to a rectangle of the same area (a squeeze mapping) has reciprocal eigenvalues.

Principal component analysis

PCA of the multivariate Gaussian distribution centered at with a standard deviation of 3 in roughly the direction and of 1 in the orthogonal direction. The vectors shown are unit eigenvectors of the (symmetric, positive-semidefinite) covariance matrix scaled by the square root of the corresponding eigenvalue. Just as in the one-dimensional case, the square root is taken because the standard deviation is more readily visualized than the variance.

The eigendecomposition of a symmetric positive semidefinite (PSD) matrix yields an orthogonal basis of eigenvectors, each of which has a nonnegative eigenvalue. The orthogonal decomposition of a PSD matrix is used in multivariate analysis, where the sample covariance matrices are PSD. This orthogonal decomposition is called principal component analysis (PCA) in statistics. PCA studies linear relations among variables. PCA is performed on the covariance matrix or the correlation matrix (in which each variable is scaled to have its sample variance equal to one). For the covariance or correlation matrix, the eigenvectors correspond to principal components and the eigenvalues to the variance explained by the principal components. Principal component analysis of the correlation matrix provides an orthogonal basis for the space of the observed data: In this basis, the largest eigenvalues correspond to the principal components that are associated with most of the covariability among a number of observed data.

Principal component analysis is used as a means of dimensionality reduction in the study of large data sets, such as those encountered in bioinformatics. In Q methodology, the eigenvalues of the correlation matrix determine the Q-methodologist's judgment of practical significance (which differs from the statistical significance of hypothesis testing; cf. criteria for determining the number of factors). More generally, principal component analysis can be used as a method of factor analysis in structural equation modeling.

Graphs

In spectral graph theory, an eigenvalue of a graph is defined as an eigenvalue of the graph's adjacency matrix , or (increasingly) of the graph's Laplacian matrix due to its discrete Laplace operator, which is either (sometimes called the combinatorial Laplacian) or (sometimes called the normalized Laplacian), where is a diagonal matrix with equal to the degree of vertex , and in , the th diagonal entry is . The th principal eigenvector of a graph is defined as either the eigenvector corresponding to the th largest or th smallest eigenvalue of the Laplacian. The first principal eigenvector of the graph is also referred to merely as the principal eigenvector.

The principal eigenvector is used to measure the centrality of its vertices. An example is Google's PageRank algorithm. The principal eigenvector of a modified adjacency matrix of the World Wide Web graph gives the page ranks as its components. This vector corresponds to the stationary distribution of the Markov chain represented by the row-normalized adjacency matrix; however, the adjacency matrix must first be modified to ensure a stationary distribution exists. The second smallest eigenvector can be used to partition the graph into clusters, via spectral clustering. Other methods are also available for clustering.

Markov chains

A Markov chain is represented by a matrix whose entries are the transition probabilities between states of a system. In particular the entries are non-negative, and every row of the matrix sums to one, being the sum of probabilities of transitions from one state to some other state of the system. The Perron–Frobenius theorem gives sufficient conditions for a Markov chain to have a unique dominant eigenvalue, which governs the convergence of the system to a steady state.

Vibration analysis

Mode shape of a tuning fork at eigenfrequency 440.09 Hz

Eigenvalue problems occur naturally in the vibration analysis of mechanical structures with many degrees of freedom. The eigenvalues are the natural frequencies (or eigenfrequencies) of vibration, and the eigenvectors are the shapes of these vibrational modes. In particular, undamped vibration is governed byor

That is, acceleration is proportional to position (i.e., we expect to be sinusoidal in time).

In dimensions, becomes a mass matrix and a stiffness matrix. Admissible solutions are then a linear combination of solutions to the generalized eigenvalue problemwhere is the eigenvalue and is the (imaginary) angular frequency. The principal vibration modes are different from the principal compliance modes, which are the eigenvectors of alone. Furthermore, damped vibration, governed byleads to a so-called quadratic eigenvalue problem,

This can be reduced to a generalized eigenvalue problem by algebraic manipulation at the cost of solving a larger system.

The orthogonality properties of the eigenvectors allows decoupling of the differential equations so that the system can be represented as linear summation of the eigenvectors. The eigenvalue problem of complex structures is often solved using finite element analysis, but neatly generalize the solution to scalar-valued vibration problems.

Tensor of moment of inertia

In mechanics, the eigenvectors of the moment of inertia tensor define the principal axes of a rigid body. The tensor of moment of inertia is a key quantity required to determine the rotation of a rigid body around its center of mass.

Stress tensor

In solid mechanics, the stress tensor is symmetric and so can be decomposed into a diagonal tensor with the eigenvalues on the diagonal and eigenvectors as a basis. Because it is diagonal, in this orientation, the stress tensor has no shear components; the components it does have are the principal components.

Schrödinger equation

The wavefunctions associated with the bound states of an electron in a hydrogen atom can be seen as the eigenvectors of the hydrogen atom Hamiltonian as well as of the angular momentum operator. They are associated with eigenvalues interpreted as their energies (increasing downward: ) and angular momentum (increasing across: s, p, d, ...). The illustration shows the square of the absolute value of the wavefunctions. Brighter areas correspond to higher probability density for a position measurement. The center of each figure is the atomic nucleus, a proton.

An example of an eigenvalue equation where the transformation is represented in terms of a differential operator is the time-independent Schrödinger equation in quantum mechanics:

where , the Hamiltonian, is a second-order differential operator and , the wavefunction, is one of its eigenfunctions corresponding to the eigenvalue , interpreted as its energy.

However, in the case where one is interested only in the bound state solutions of the Schrödinger equation, one looks for within the space of square integrable functions. Since this space is a Hilbert space with a well-defined scalar product, one can introduce a basis set in which and can be represented as a one-dimensional array (i.e., a vector) and a matrix respectively. This allows one to represent the Schrödinger equation in a matrix form.

The bra–ket notation is often used in this context. A vector, which represents a state of the system, in the Hilbert space of square integrable functions is represented by . In this notation, the Schrödinger equation is:

where is an eigenstate of and represents the eigenvalue. is an observable self-adjoint operator, the infinite-dimensional analog of Hermitian matrices. As in the matrix case, in the equation above is understood to be the vector obtained by application of the transformation to .

Wave transport

Light, acoustic waves, and microwaves are randomly scattered numerous times when traversing a static disordered system. Even though multiple scattering repeatedly randomizes the waves, ultimately coherent wave transport through the system is a deterministic process which can be described by a field transmission matrix .[44][45] The eigenvectors of the transmission operator form a set of disorder-specific input wavefronts which enable waves to couple into the disordered system's eigenchannels: the independent pathways waves can travel through the system. The eigenvalues, , of correspond to the intensity transmittance associated with each eigenchannel. One of the remarkable properties of the transmission operator of diffusive systems is their bimodal eigenvalue distribution with and .[45] Furthermore, one of the striking properties of open eigenchannels, beyond the perfect transmittance, is the statistically robust spatial profile of the eigenchannels.[46]

Molecular orbitals

In quantum mechanics, and in particular in atomic and molecular physics, within the Hartree–Fock theory, the atomic and molecular orbitals can be defined by the eigenvectors of the Fock operator. The corresponding eigenvalues are interpreted as ionization potentials via Koopmans' theorem. In this case, the term eigenvector is used in a somewhat more general meaning, since the Fock operator is explicitly dependent on the orbitals and their eigenvalues. Thus, if one wants to underline this aspect, one speaks of nonlinear eigenvalue problems. Such equations are usually solved by an iteration procedure, called in this case self-consistent field method. In quantum chemistry, one often represents the Hartree–Fock equation in a non-orthogonal basis set. This particular representation is a generalized eigenvalue problem called Roothaan equations.

Geology and glaciology

In geology, especially in the study of glacial till, eigenvectors and eigenvalues are used as a method by which a mass of information of a clast fabric's constituents' orientation and dip can be summarized in a 3-D space by six numbers. In the field, a geologist may collect such data for hundreds or thousands of clasts in a soil sample, which can only be compared graphically such as in a Tri-Plot (Sneed and Folk) diagram,[47][48] or as a Stereonet on a Wulff Net.[49]

The output for the orientation tensor is in the three orthogonal (perpendicular) axes of space. The three eigenvectors are ordered by their eigenvalues ;[50] then is the primary orientation/dip of clast, is the secondary and is the tertiary, in terms of strength. The clast orientation is defined as the direction of the eigenvector, on a compass rose of 360°. Dip is measured as the eigenvalue, the modulus of the tensor: this is valued from 0° (no dip) to 90° (vertical). The relative values of , , and are dictated by the nature of the sediment's fabric. If , the fabric is said to be isotropic. If , the fabric is said to be planar. If , the fabric is said to be linear.[51]

Basic reproduction number

The basic reproduction number () is a fundamental number in the study of how infectious diseases spread. If one infectious person is put into a population of completely susceptible people, then is the average number of people that one typical infectious person will infect. The generation time of an infection is the time, , from one person becoming infected to the next person becoming infected. In a heterogeneous population, the next generation matrix defines how many people in the population will become infected after time has passed. The value is then the largest eigenvalue of the next generation matrix.[52][53]

Eigenfaces

Eigenfaces as examples of eigenvectors

In image processing, processed images of faces can be seen as vectors whose components are the brightnesses of each pixel.[54] The dimension of this vector space is the number of pixels. The eigenvectors of the covariance matrix associated with a large set of normalized pictures of faces are called eigenfaces; this is an example of principal component analysis. They are very useful for expressing any face image as a linear combination of some of them. In the facial recognition branch of biometrics, eigenfaces provide a means of applying data compression to faces for identification purposes. Research related to eigen vision systems determining hand gestures has also been made.

Similar to this concept, eigenvoices represent the general direction of variability in human pronunciations of a particular utterance, such as a word in a language. Based on a linear combination of such eigenvoices, a new voice pronunciation of the word can be constructed. These concepts have been found useful in automatic speech recognition systems for speaker adaptation.

See also

Notes

  1. ^ Note:
    • In 1751, Leonhard Euler proved that any body has a principal axis of rotation: Leonhard Euler (presented: October 1751; published: 1760) "Du mouvement d'un corps solide quelconque lorsqu'il tourne autour d'un axe mobile" (On the movement of any solid body while it rotates around a moving axis), Histoire de l'Académie royale des sciences et des belles lettres de Berlin, pp. 176–227. On p. 212, Euler proves that any body contains a principal axis of rotation: "Théorem. 44. De quelque figure que soit le corps, on y peut toujours assigner un tel axe, qui passe par son centre de gravité, autour duquel le corps peut tourner librement & d'un mouvement uniforme." (Theorem. 44. Whatever be the shape of the body, one can always assign to it such an axis, which passes through its center of gravity, around which it can rotate freely and with a uniform motion.)
    • In 1755, Johann Andreas Segner proved that any body has three principal axes of rotation: Johann Andreas Segner, Specimen theoriae turbinum [Essay on the theory of tops (i.e., rotating bodies)] ( Halle ("Halae"), (Germany): Gebauer, 1755). (https://books.google.com/books?id=29 p. xxviiii [29]), Segner derives a third-degree equation in t, which proves that a body has three principal axes of rotation. He then states (on the same page): "Non autem repugnat tres esse eiusmodi positiones plani HM, quia in aequatione cubica radices tres esse possunt, et tres tangentis t valores." (However, it is not inconsistent [that there] be three such positions of the plane HM, because in cubic equations, [there] can be three roots, and three values of the tangent t.)
    • The relevant passage of Segner's work was discussed briefly by Arthur Cayley. See: A. Cayley (1862) "Report on the progress of the solution of certain special problems of dynamics," Report of the Thirty-second meeting of the British Association for the Advancement of Science; held at Cambridge in October 1862, 32: 184–252; see especially pp. 225–226.
  2. ^ Kline 1972, pp. 807–808 Augustin Cauchy (1839) "Mémoire sur l'intégration des équations linéaires" (Memoir on the integration of linear equations), Comptes rendus, 8: 827–830, 845–865, 889–907, 931–937. From p. 827: "On sait d'ailleurs qu'en suivant la méthode de Lagrange, on obtient pour valeur générale de la variable prinicipale une fonction dans laquelle entrent avec la variable principale les racines d'une certaine équation que j'appellerai l'équation caractéristique, le degré de cette équation étant précisément l'order de l'équation différentielle qu'il s'agit d'intégrer." (One knows, moreover, that by following Lagrange's method, one obtains for the general value of the principal variable a function in which there appear, together with the principal variable, the roots of a certain equation that I will call the "characteristic equation", the degree of this equation being precisely the order of the differential equation that must be integrated.)
  3. ^ See:
    • David Hilbert (1904) "Grundzüge einer allgemeinen Theorie der linearen Integralgleichungen. (Erste Mitteilung)" (Fundamentals of a general theory of linear integral equations. (First report)), Nachrichten von der Gesellschaft der Wissenschaften zu Göttingen, Mathematisch-Physikalische Klasse (News of the Philosophical Society at Göttingen, mathematical-physical section), pp. 49–91. From p. 51: "Insbesondere in dieser ersten Mitteilung gelange ich zu Formeln, die die Entwickelung einer willkürlichen Funktion nach gewissen ausgezeichneten Funktionen, die ich 'Eigenfunktionen' nenne, liefern: ..." (In particular, in this first report I arrive at formulas that provide the [series] development of an arbitrary function in terms of some distinctive functions, which I call eigenfunctions: ... ) Later on the same page: "Dieser Erfolg ist wesentlich durch den Umstand bedingt, daß ich nicht, wie es bisher geschah, in erster Linie auf den Beweis für die Existenz der Eigenwerte ausgehe, ... " (This success is mainly attributable to the fact that I do not, as it has happened until now, first of all aim at a proof of the existence of eigenvalues, ... )
    • For the origin and evolution of the terms eigenvalue, characteristic value, etc., see: Earliest Known Uses of Some of the Words of Mathematics (E)
  4. ^ For a proof of this lemma, see Roman 2008, Theorem 8.2 on p. 186; Shilov 1977, p. 109; Hefferon 2001, p. 364; Beezer 2006, Theorem EDELI on p. 469; and Lemma for linear independence of eigenvectors
  5. ^ By doing Gaussian elimination over formal power series truncated to terms it is possible to get away with operations, but that does not take combinatorial explosion into account.

Citations

  1. ^ Burden & Faires 1993, p. 401.
  2. ^ Gilbert Strang. "6: Eigenvalues and Eigenvectors". Introduction to Linear Algebra (PDF) (5 ed.). Wellesley-Cambridge Press.
  3. ^ a b Herstein 1964, pp. 228, 229.
  4. ^ a b Nering 1970, p. 38.
  5. ^ Betteridge 1965.
  6. ^ a b "Eigenvector and Eigenvalue". www.mathsisfun.com. Retrieved 19 August 2020.
  7. ^ Press et al. 2007, p. 536.
  8. ^ Wolfram.com: Eigenvector.
  9. ^ a b c d Nering 1970, p. 107.
  10. ^ Hawkins 1975, §2.
  11. ^ a b c d Hawkins 1975, §3.
  12. ^ Kline 1972, p. 673.
  13. ^ a b Kline 1972, pp. 807–808.
  14. ^ Kline 1972, pp. 715–716.
  15. ^ Kline 1972, pp. 706–707.
  16. ^ Kline 1972, p. 1063, p..
  17. ^ Aldrich 2006.
  18. ^ Francis 1961, pp. 265–271.
  19. ^ Kublanovskaya 1962.
  20. ^ Golub & Van Loan 1996, §7.3.
  21. ^ Meyer 2000, §7.3.
  22. ^ Cornell University Department of Mathematics (2016) Lower-Level Courses for Freshmen and Sophomores. Accessed on 2016-03-27.
  23. ^ University of Michigan Mathematics (2016) Math Course Catalogue Archived 2015-11-01 at the Wayback Machine. Accessed on 2016-03-27.
  24. ^ Press et al. 2007, p. 38.
  25. ^ Fraleigh 1976, p. 358.
  26. ^ a b c Golub & Van Loan 1996, p. 316.
  27. ^ Anton 1987, pp. 305, 307.
  28. ^ a b Beauregard & Fraleigh 1973, p. 307.
  29. ^ Herstein 1964, p. 272.
  30. ^ Nering 1970, pp. 115–116.
  31. ^ Herstein 1964, p. 290.
  32. ^ Nering 1970, p. 116.
  33. ^ Wolchover 2019.
  34. ^ a b Denton et al. 2022.
  35. ^ Van Mieghem 2014.
  36. ^ Van Mieghem 2024.
  37. ^ Korn & Korn 2000, Section 14.3.5a.
  38. ^ Friedberg, Insel & Spence 1989, p. 217.
  39. ^ Roman 2008, p. 186 §8
  40. ^ Nering 1970, p. 107; Shilov 1977, p. 109 Lemma for the eigenspace
  41. ^ Lipschutz & Lipson 2002, p. 111.
  42. ^ Roman 2008, p. 189 §8.
  43. ^ a b c d Trefethen & Bau 1997.
  44. ^ Vellekoop & Mosk 2007, pp. 2309–2311.
  45. ^ a b Rotter & Gigan 2017, p. 15005.
  46. ^ Bender et al. 2020, p. 165901.
  47. ^ Graham & Midgley 2000, pp. 1473–1477.
  48. ^ Sneed & Folk 1958, pp. 114–150.
  49. ^ Knox-Robinson & Gardoll 1998, p. 243.
  50. ^ Busche, Christian; Schiller, Beate. "Endogene Geologie - Ruhr-Universität Bochum". www.ruhr-uni-bochum.de.
  51. ^ Benn & Evans 2004, pp. 103–107.
  52. ^ Diekmann, Heesterbeek & Metz 1990, pp. 365–382.
  53. ^ Heesterbeek & Diekmann 2000.
  54. ^ Xirouhakis, Votsis & Delopoulus 2004.

Sources

Further reading

External links

Wikiversity uses introductory physics to introduce Eigenvalues and eigenvectors

Theory