stringtranslate.com

Matriz exponencial

En matemáticas , la matriz exponencial es una función matricial sobre matrices cuadradas análoga a la función exponencial ordinaria . Se utiliza para resolver sistemas de ecuaciones diferenciales lineales. En la teoría de grupos de Lie, la matriz exponencial da el mapa exponencial entre una matriz de álgebra de Lie y el grupo de Lie correspondiente .

Sea X una matriz real o compleja de n × n . El exponencial de X , denotado por e X o exp( X ) , es la matriz n × n dada por la serie de potencias

donde se define como la matriz identidad con las mismas dimensiones que . [1] La serie siempre converge, por lo que la exponencial de X está bien definida.

De manera equivalente,

donde I es la matriz identidad n × n .

Cuando X es una matriz diagonal de n × n , entonces exp( X ) será una matriz diagonal de n × n con cada elemento diagonal igual al exponencial ordinario aplicado al elemento diagonal correspondiente de X.

Propiedades

Propiedades elementales

Sean X e Y matrices complejas de n × n y sean a y b números complejos arbitrarios . Denotamos la matriz identidad n × n con I y la matriz cero con 0. La matriz exponencial satisface las siguientes propiedades. [2]

Comenzamos con las propiedades que son consecuencias inmediatas de la definición como serie de potencias:

El siguiente resultado clave es este:

La prueba de esta identidad es la misma que el argumento estándar de series de potencias para la identidad correspondiente del exponencial de los números reales. Es decir, siempre que y conmuten , no importa para el argumento si y son números o matrices. Es importante señalar que esta identidad normalmente no se cumple si y no se conmutan (consulte la desigualdad de Golden-Thompson a continuación).

Las consecuencias de la identidad anterior son las siguientes:

Utilizando los resultados anteriores, podemos verificar fácilmente las siguientes afirmaciones. Si X es simétrico, entonces e X también es simétrico, y si X es simétrico sesgado, entonces e X es ortogonal . Si X es hermitiano , entonces e X también es hermitiano, y si X es sesgado-hermitiano, entonces e X es unitario .

Finalmente, una transformada de Laplace de matrices exponenciales equivale al resolutivo , para todos los valores positivos suficientemente grandes de s .

Sistemas de ecuaciones diferenciales lineales

Una de las razones de la importancia de la matriz exponencial es que puede usarse para resolver sistemas de ecuaciones diferenciales ordinarias lineales . La solución de donde A es una matriz constante e y es un vector columna, viene dada por

La matriz exponencial también se puede utilizar para resolver la ecuación no homogénea. Consulte la sección sobre aplicaciones a continuación para ver ejemplos.

No existe una solución cerrada para ecuaciones diferenciales de la forma en la que A no es constante, pero la serie de Magnus da la solución como una suma infinita.

El determinante de la matriz exponencial.

Según la fórmula de Jacobi , para cualquier matriz cuadrada compleja se cumple la siguiente identidad de traza : [3]

Además de proporcionar una herramienta computacional, esta fórmula demuestra que una matriz exponencial es siempre una matriz invertible . Esto se desprende del hecho de que el lado derecho de la ecuación anterior siempre es distinto de cero, por lo que det( e A ) ≠ 0 , lo que implica que e A debe ser invertible.

En el caso del valor real, la fórmula también muestra que el mapa no es sobreyectivo , en contraste con el caso complejo mencionado anteriormente. Esto se desprende del hecho de que, para matrices de valores reales, el lado derecho de la fórmula siempre es positivo, mientras que existen matrices invertibles con un determinante negativo.

Matrices simétricas reales

La matriz exponencial de una matriz simétrica real es definida positiva. Sea una matriz simétrica real n × n y un vector columna. Usando las propiedades elementales de la matriz exponencial y de las matrices simétricas, tenemos:

Como es invertible, la igualdad solo es válida para , y tenemos para todos los valores distintos de cero . Por tanto, es positivo definido.

El exponencial de las sumas.

Para cualquier número real (escalares) xey sabemos que la función exponencial satisface e x + y = e x e y . Lo mismo ocurre con las matrices de conmutación. Si las matrices X e Y conmutan (lo que significa que XY = YX ), entonces,

Sin embargo, para matrices que no conmutan la igualdad anterior no necesariamente se cumple.

La fórmula del producto Mentira

Incluso si X e Y no se conmutan, el exponencial e X + Y se puede calcular mediante la fórmula del producto de Lie [4]

Usar una k finita grande para aproximar lo anterior es la base de la expansión de Suzuki-Trotter, que se usa a menudo en la evolución del tiempo numérico .

La fórmula Baker-Campbell-Hausdorff

En la otra dirección, si X e Y son matrices suficientemente pequeñas (pero no necesariamente conmutantes), tenemos donde Z puede calcularse como una serie en conmutadores de X e Y mediante la fórmula de Baker-Campbell-Hausdorff : [5] donde los términos restantes son todos conmutadores iterados que involucran X e Y. Si X e Y conmutan, entonces todos los conmutadores son cero y simplemente tenemos Z = X + Y.

Desigualdades para exponenciales de matrices hermitianas

Para las matrices hermitianas existe un teorema notable relacionado con la traza de las matrices exponenciales.

Si A y B son matrices hermitianas, entonces [6]

No hay requisito de conmutatividad. Hay contraejemplos que muestran que la desigualdad de Golden-Thompson no se puede extender a tres matrices y, en cualquier caso, no se garantiza que tr(exp( A )exp( B )exp( C )) sea real para Hermitian A , B , C . Sin embargo, Lieb demostró [7] [8] que se puede generalizar a tres matrices si modificamos la expresión de la siguiente manera

El mapa exponencial

La exponencial de una matriz es siempre una matriz invertible . La matriz inversa de e X viene dada por e X . Esto es análogo al hecho de que la exponencial de un número complejo siempre es distinta de cero. La matriz exponencial nos da entonces un mapa desde el espacio de todas las matrices n × n hasta el grupo lineal general de grado n , es decir, el grupo de todas las matrices invertibles n × n . De hecho, esta aplicación es sobreyectiva, lo que significa que toda matriz invertible puede escribirse como exponencial de alguna otra matriz [9] (para ello es imprescindible considerar el campo C de números complejos y no R ).

Para dos matrices cualesquiera X e Y ,

donde ‖·‖ denota una norma matricial arbitraria . De ello se deduce que el mapa exponencial es continuo y Lipschitz continuo en subconjuntos compactos de M n ( C ) .

El mapa define una curva suave en el grupo lineal general que pasa por el elemento identidad en t = 0 .

De hecho, esto da un subgrupo de un parámetro del grupo lineal general ya que

La derivada de esta curva (o vector tangente ) en un punto t viene dada por

La derivada en t = 0 es simplemente la matriz X , es decir, X genera este subgrupo de un parámetro.

De manera más general, [10] para un exponente genérico dependiente de t , X ( t ) ,

Tomando la expresión anterior e X ( t ) fuera del signo integral y expandiendo el integrando con la ayuda del lema de Hadamard, se puede obtener la siguiente expresión útil para la derivada del exponente matricial, [11]

Los coeficientes de la expresión anterior son diferentes de los que aparecen en la exponencial. Para una forma cerrada, consulte derivada de la aplicación exponencial .

Derivadas direccionales cuando se restringen a matrices hermitianas

Sea una matriz hermitiana con valores propios distintos. Sea su descomposición propia donde es una matriz unitaria cuyas columnas son los vectores propios de , es su transpuesta conjugada y el vector de valores propios correspondientes. Entonces, para cualquier matriz hermitiana , la derivada direccional de at en la dirección es [12] [13] donde , el operador denota el producto de Hadamard y, para todos , la matriz se define como Además, para cualquier matriz hermitiana , la segunda derivada direccional en direcciones y es [13] donde la función matricial se define, para todos , como con

Calcular la matriz exponencial

Es difícil encontrar métodos confiables y precisos para calcular la matriz exponencial, y este sigue siendo un tema de considerable investigación actual en matemáticas y análisis numérico. Matlab , GNU Octave , R y SciPy utilizan la aproximante Padé . [14] [15] [16] [17] En esta sección, analizamos métodos que son aplicables en principio a cualquier matriz y que pueden llevarse a cabo explícitamente para matrices pequeñas. [18] Las secciones siguientes describen métodos adecuados para la evaluación numérica en matrices grandes.

Caso diagonalizable

Si una matriz es diagonal : entonces su exponencial se puede obtener exponenciando cada entrada en la diagonal principal:

Este resultado también permite exponenciar matrices diagonalizables . Si

A = UDU −1

y D es diagonal, entonces

mi UN = Ue D U −1 .

La aplicación de la fórmula de Sylvester produce el mismo resultado. (Para ver esto, tenga en cuenta que la suma y multiplicación, por lo tanto también la exponenciación, de matrices diagonales es equivalente a la suma y multiplicación por elementos, y por lo tanto, la exponenciación; en particular, la exponenciación "unidimensional" se siente por elementos para la diagonal caso.)

Ejemplo: Diagonalizable

Por ejemplo, la matriz se puede diagonalizar como

De este modo,

Caso nilpotente

Una matriz N es nilpotente si N q = 0 para algún número entero q . En este caso, la matriz exponencial e N se puede calcular directamente a partir de la expansión de la serie, ya que la serie termina después de un número finito de términos:

Dado que la serie tiene un número finito de pasos, es un polinomio matricial, que se puede calcular de manera eficiente .

Caso general

Usando la descomposición Jordan-Chevalley

Mediante la descomposición de Jordan-Chevalley , cualquier matriz X con entradas complejas se puede expresar como donde

Esto significa que podemos calcular el exponencial de X reduciendo a los dos casos anteriores:

Tenga en cuenta que necesitamos la conmutatividad de A y N para que funcione el último paso.

Usando la forma canónica de Jordan

Un método estrechamente relacionado es, si el campo es algebraicamente cerrado , trabajar con la forma Jordan de X. Supongamos que X = PJP −1 donde J es la forma Jordan de X. Entonces

Además, desde

Por lo tanto, sólo necesitamos saber cómo calcular la matriz exponencial de un bloque de Jordan . Pero cada bloque de Jordan tiene la forma

donde N es una matriz nilpotente especial. La matriz exponencial de J viene dada por

Caso de proyección

Si P es una matriz de proyección (es decir, es idempotente : P 2 = P ), su matriz exponencial es:

mi PAG = yo + ( mi - 1) PAG .

Derivando esto por expansión de la función exponencial, cada potencia de P se reduce a P , que se convierte en un factor común de la suma:

Caso de rotación

Para una rotación simple en la que los vectores unitarios perpendiculares a y b especifican un plano, [19] la matriz de rotación R se puede expresar en términos de una función exponencial similar que involucra un generador G y un ángulo θ . [20] [21]

La fórmula para el exponencial resulta de reducir las potencias de G en la expansión de la serie e identificar los respectivos coeficientes de la serie de G 2 y G con −cos( θ ) y sin( θ ) respectivamente. La segunda expresión aquí para e es la misma que la expresión para R ( θ ) en el artículo que contiene la derivación del generador , R ( θ ) = e .

En dos dimensiones, si y , entonces , y se reduce a la matriz estándar para una rotación plana.

La matriz P = − G 2 proyecta un vector en el plano ab y la rotación solo afecta a esta parte del vector. Un ejemplo que ilustra esto es una rotación de 30° = π/6 en el plano abarcado por a y b ,

Sea N = I - P , entonces N 2 = N y sus productos con P y G son cero. Esto nos permitirá evaluar potencias de R.

Evaluación de la serie Laurent

En virtud del teorema de Cayley-Hamilton, la matriz exponencial se puede expresar como un polinomio de orden n −1.

Si P y Qt son polinomios distintos de cero en una variable, tales que P ( A ) = 0 , y si la función meromorfa es entera , entonces para probar esto, multiplique la primera de las dos igualdades anteriores por P ( z ) y reemplace z. por A.

Un polinomio de este tipo Q t ( z ) se puede encontrar de la siguiente manera: consulte la fórmula de Sylvester . Dejando que a sea una raíz de P , Q a,t ( z ) se resuelve a partir del producto de P por la parte principal de la serie de Laurent de f en a : Es proporcional a la covariante de Frobenius relevante . Entonces la suma St de Q a ,t , donde a recorre todas las raíces de P , puede tomarse como un Q t particular . Todos los demás Q t se obtendrán sumando un múltiplo de P a S t ( z ) . En particular, S t ( z ) , el polinomio de Lagrange-Sylvester , es el único Qt cuyo grado es menor que el de P.

Ejemplo : considere el caso de una matriz arbitraria de 2 × 2,

La matriz exponencial e tA , en virtud del teorema de Cayley-Hamilton , debe tener la forma

(Para cualquier número complejo z y cualquier C -álgebra B , denotamos nuevamente por z el producto de z por la unidad de B ).

Sean α y β las raíces del polinomio característico de A ,

Entonces tenemos por lo tanto

si αβ ; mientras que si α = β ,

de modo que

Definiendo

tenemos

donde sin( qt )/ q es 0 si t = 0 y t si q = 0 .

De este modo,

Así, como se indicó anteriormente, habiéndose descompuesto la matriz A en la suma de dos piezas que se conmutan entre sí, la pieza con traza y la pieza sin traza,

la matriz exponencial se reduce a un simple producto de los exponenciales de las dos piezas respectivas. Esta es una fórmula que se usa a menudo en física, ya que equivale a la fórmula análoga de Euler para las matrices de espín de Pauli , es decir, rotaciones de la representación doblete del grupo SU(2) .

Al polinomio St también se le puede dar la siguiente caracterización de " interpolación ". Defina e t ( z ) ≡ e tz y n ≡ grados P . Entonces S t ( z ) es el polinomio de grado único < n que satisface St ( k ) ( a ) = e t ( k ) ( a ) siempre que k sea menor que la multiplicidad de a como raíz de P . Suponemos, como obviamente podemos, que P es el polinomio mínimo de A. Suponemos además que A es una matriz diagonalizable . En particular, las raíces de P son simples, y la caracterización de " interpolación " indica que St está dada por la fórmula de interpolación de Lagrange , por lo que es el polinomio de Lagrange-Sylvester .

En el otro extremo, si P = ( z - a ) n , entonces

El caso más simple no cubierto por las observaciones anteriores es cuando con ab , lo que produce

Evaluación por implementación deLa fórmula de Sylvester

Un cálculo práctico y acelerado de lo anterior se reduce a los siguientes pasos rápidos. Recuerde lo visto anteriormente que una matriz n×n exp( tA ) equivale a una combinación lineal de las primeras n −1 potencias de A según el teorema de Cayley-Hamilton . Para matrices diagonalizables , como se ilustra arriba, por ejemplo, en el caso 2×2, la fórmula de Sylvester produce exp( tA ) = B α exp( ) + B β exp( ) , donde las B s son las covariantes de Frobenius de A.

Sin embargo, es más fácil resolver estos B directamente, evaluando esta expresión y su primera derivada en t = 0 , en términos de A e I , para encontrar la misma respuesta que antes.

Pero este sencillo procedimiento también sirve para matrices defectuosas , en una generalización debida a Buchheim. [22] Esto se ilustra aquí para un ejemplo de 4 × 4 de una matriz que no es diagonalizable , y las B no son matrices de proyección.

Considere con valores propios λ 1 = 3/4 y λ 2 = 1 , cada uno con una multiplicidad de dos.

Considere el exponencial de cada valor propio multiplicado por t , exp( λ i t ) . Multiplique cada valor propio exponenciado por la correspondiente matriz de coeficientes indeterminados B i . Si los valores propios tienen una multiplicidad algebraica mayor que 1, entonces se repite el proceso, pero ahora multiplicando por un factor extra de t para cada repetición, para asegurar la independencia lineal.

(Si un valor propio tuviera una multiplicidad de tres, entonces estarían los tres términos: . Por el contrario, cuando todos los valores propios son distintos, los B son solo las covariantes de Frobenius , y resolverlos como se muestra a continuación equivale a la inversión de las Matriz de Vandermonde de estos 4 valores propios).

Sume todos esos términos, aquí cuatro de ellos,

Para resolver todas las matrices desconocidas B en términos de las tres primeras potencias de A y la identidad, se necesitan cuatro ecuaciones, la anterior proporciona una en t = 0. Además, diferenciarla con respecto a t ,

y otra vez,

y una vez más,

(En el caso general, es necesario tomar n −1 derivadas).

Estableciendo t = 0 en estas cuatro ecuaciones, ahora se pueden resolver las cuatro matrices de coeficientes B s,

ceder

Sustituyendo con el valor de A se obtienen las matrices de coeficientes.

entonces la respuesta final es

El procedimiento es mucho más corto que el algoritmo de Putzer que a veces se utiliza en tales casos.

Ilustraciones

Supongamos que queremos calcular la exponencial de

Su forma de Jordan es donde la matriz P está dada por

Primero calculemos exp( J ). Tenemos

La exponencial de una matriz de 1×1 es solo la exponencial de una entrada de la matriz, por lo que exp( J 1 (4)) = [ e 4 ] . El exponencial de J 2 (16) se puede calcular mediante la fórmula e I + N ) = e λ e N mencionada anteriormente; esto produce [23]

Por tanto, la exponencial de la matriz B original es

Aplicaciones

Ecuaciones diferenciales lineales

La matriz exponencial tiene aplicaciones a sistemas de ecuaciones diferenciales lineales . (Véase también ecuación diferencial matricial .) Recuerde que anteriormente en este artículo una ecuación diferencial homogénea de la forma tiene solución e en y (0) .

Si consideramos el vector, podemos expresar un sistema de ecuaciones diferenciales lineales acopladas no homogéneas como Haciendo un ansatz para usar un factor integrante de e At y multiplicando, se obtiene

El segundo paso es posible debido a que, si AB = BA , entonces e At B = Be At . Entonces, calcular e At conduce a la solución del sistema, simplemente integrando el tercer paso con respecto a t .

Se puede obtener una solución a esto integrando y multiplicando por para eliminar el exponente en el LHS. Observa que while es una matriz, dado que es una matriz exponencial, podemos decir que . En otras palabras, .

Ejemplo (homogéneo)

Considere el sistema

La matriz defectuosa asociada es

La matriz exponencial es

de modo que la solución general del sistema homogéneo es

por un importe de

Ejemplo (homogéneo)

Consideremos ahora el sistema no homogéneo.

nuevamente tenemos

y

De antes ya tenemos la solución general de la ecuación homogénea. Dado que la suma de las soluciones homogénea y particular da la solución general al problema no homogéneo, ahora sólo necesitamos encontrar la solución particular.

Hemos visto lo anterior que podría simplificarse aún más para determinar la solución particular requerida mediante la variación de parámetros. Nota c = y p (0). Para mayor rigor, consulte la siguiente generalización.

Generalización de casos no homogéneos: variación de parámetros.

Para el caso no homogéneo, podemos utilizar factores integradores (un método similar a la variación de parámetros ). Buscamos una solución particular de la forma y p ( t ) = exp( tA ) z ( t ) ,

Para que y p sea una solución,

Por tanto, donde c está determinada por las condiciones iniciales del problema.

Más precisamente, considere la ecuación

con la condición inicial Y ( t 0 ) = Y 0 , donde

Multiplicando hacia la izquierda la igualdad mostrada arriba por e −tA se obtiene

Afirmamos que la solución de la ecuación

con las condiciones iniciales para 0 ≤ k < n es

donde la notación es la siguiente:

s k ( t ) es el coeficiente deen el polinomio denotado poren la subsección Evaluación de la serie Laurent anterior.

Para justificar esta afirmación, transformamos nuestra ecuación escalar de orden n en una ecuación vectorial de orden uno mediante la reducción habitual a un sistema de primer orden . Nuestra ecuación vectorial toma la forma donde A es la matriz compañera transpuesta de P. Resolvemos esta ecuación como se explicó anteriormente, calculando las exponenciales de la matriz mediante la observación realizada en la subsección Evaluación mediante la implementación de la fórmula de Sylvester anterior.

En el caso n = 2 obtenemos la siguiente afirmación. La solución a

es

donde las funciones s 0 y s 1 son como en la subsección Evaluación de la serie Laurent anterior.

Exponenciales matriz-matriz

La matriz exponencial de otra matriz (matriz-matriz exponencial), [24] se define como para cualquier matriz X normal y no singular de n × n , y para cualquier matriz Y compleja de n × n .

Para los exponenciales matriz-matriz, existe una distinción entre el exponencial izquierdo Y X y el exponencial derecho X Y , porque el operador de multiplicación de matriz a matriz no es conmutativo . Además,

Ver también

Referencias

  1. ^ Salón 2015 Ecuación 2.1
  2. ^ Propuesta 2.3 del Salón 2015
  3. ^ Teorema 2.12 de Hall 2015
  4. ^ Teorema 2.11 de Hall 2015
  5. ^ Salón 2015 Capítulo 5
  6. ^ Bhatia, R. (1997). Análisis matricial . Textos de Posgrado en Matemáticas. vol. 169. Saltador. ISBN 978-0-387-94846-1.
  7. ^ Lieb, Elliott H. (1973). "Funciones de traza convexas y la conjetura de Wigner-Yanase-Dyson". Avances en Matemáticas . 11 (3): 267–288. doi : 10.1016/0001-8708(73)90011-X .
  8. ^ H. Epstein (1973). "Observaciones sobre dos teoremas de E. Lieb". Comunicaciones en Física Matemática . 31 (4): 317–325. Código bibliográfico : 1973CMaPh..31..317E. doi :10.1007/BF01646492. S2CID  120096681.
  9. ^ Salón 2015 Ejercicios 2.9 y 2.10
  10. ^ RM Wilcox (1967). "Operadores exponenciales y diferenciación de parámetros en física cuántica". Revista de Física Matemática . 8 (4): 962–982. Código bibliográfico : 1967JMP......8..962W. doi :10.1063/1.1705306.
  11. ^ Teorema 5.4 de Hall 2015
  12. ^ Lewis, Adrián S.; Sendov, Hristo S. (2001). "Funciones espectrales dos veces diferenciables" (PDF) . Revista SIAM sobre Análisis y Aplicaciones de Matrices . 23 (2): 368–386. doi :10.1137/S089547980036838X.Véase el teorema 3.3.
  13. ^ ab Deledalle, Charles-Alban; Denis, Loïc; Tupin, Florencia (2022). "Reducción de moteado en el dominio de registro de matriz para imágenes de radar de apertura sintética". Revista de visión y imágenes matemáticas . 64 (3): 298–320. doi : 10.1007/s10851-022-01067-1 .Ver Proposiciones 1 y 2.
  14. ^ "Matriz exponencial - MATLAB expm - MathWorks Deutschland". Mathworks.de. 2011-04-30 . Consultado el 5 de junio de 2013 .
  15. ^ "GNU Octave - Funciones de una matriz". Teoría de redes.co.uk. 2007-01-11. Archivado desde el original el 29 de mayo de 2015 . Consultado el 5 de junio de 2013 .
  16. ^ "R - paquete {Matrix}: Matriz exponencial". 2005-02-28 . Consultado el 17 de julio de 2023 .
  17. ^ "Documentación de la función scipy.linalg.expm". La comunidad SciPy. 2015-01-18 . Consultado el 29 de mayo de 2015 .
  18. ^ Ver Salón 2015 Sección 2.2
  19. ^ en un espacio euclidiano
  20. ^ Weyl, Hermann (1952). La materia del espacio-tiempo. Dover. pag. 142.ISBN 978-0-486-60267-7.
  21. ^ Bjorken, James D.; Drell, Sidney D. (1964). Mecánica Cuántica Relativista . McGraw-Hill. pag. 22.
  22. ^ Rinehart, RF (1955). "La equivalencia de definiciones de una función mátrica". El Mensual Matemático Estadounidense , 62 (6), 395-414.
  23. ^ Esto se puede generalizar; en general, la exponencial de J n ( a ) es una matriz triangular superior con e a /0! en la diagonal principal, e a /1! en el de arriba, e a /2! en el siguiente, y así sucesivamente.
  24. ^ Ignacio Barradas y Joel E. Cohen (1994). "Exponciación iterada, exponenciación matriz-matriz y entropía" (PDF) . Academic Press, Inc. Archivado desde el original (PDF) el 26 de junio de 2009.

enlaces externos