stringtranslate.com

Matriz exponencial

En matemáticas , la función exponencial matricial es una función matricial sobre matrices cuadradas análoga a la función exponencial ordinaria . Se utiliza para resolver sistemas de ecuaciones diferenciales lineales. En la teoría de grupos de Lie, la función exponencial matricial da la función exponencial entre un álgebra de Lie matricial y el grupo de Lie correspondiente .

Sea X una matriz real o compleja de n × n . La exponencial de X , denotada por e X o exp( X ) , es la matriz de n × n dada por la serie de potencias

donde se define como la matriz identidad con las mismas dimensiones que . [1] La serie siempre converge, por lo que la exponencial de X está bien definida.

De manera equivalente,

donde I es la matriz identidad n × n .

Cuando X es una matriz diagonal n × n, entonces exp( X ) será una matriz diagonal n × n con cada elemento diagonal igual al exponencial ordinario aplicado al elemento diagonal correspondiente de X .

Propiedades

Propiedades elementales

Sean X e Y matrices complejas n × n y sean a y b números complejos arbitrarios. Denotamos la matriz identidad n × n por I y la matriz cero por 0. La matriz exponencial satisface las siguientes propiedades. [2]

Comenzamos con las propiedades que son consecuencias inmediatas de la definición como serie de potencias:

El siguiente resultado clave es éste:

La prueba de esta identidad es la misma que el argumento estándar de la serie de potencias para la identidad correspondiente para la exponencial de números reales. Es decir, mientras y conmuten , no hay diferencia en el argumento si y son números o matrices. Es importante notar que esta identidad típicamente no se cumple si y no conmutan (ver la desigualdad de Golden-Thompson a continuación).

Las consecuencias de la identidad anterior son las siguientes:

Utilizando los resultados anteriores, podemos verificar fácilmente las siguientes afirmaciones. Si X es simétrico , entonces e X también es simétrico, y si X es antisimétrico, entonces e X es ortogonal . Si X es hermítico , entonces e X también es hermítico, y si X es antihermítico , entonces e X es unitario .

Finalmente, una transformada de Laplace de exponenciales matriciales equivale al resolvente , para todos los valores positivos suficientemente grandes de s .

Sistemas de ecuaciones diferenciales lineales

Una de las razones de la importancia de la matriz exponencial es que se puede utilizar para resolver sistemas de ecuaciones diferenciales ordinarias lineales . La solución de donde A es una matriz constante e y es un vector columna, viene dada por

La matriz exponencial también se puede utilizar para resolver la ecuación no homogénea. Consulte la sección sobre aplicaciones a continuación para ver ejemplos.

No existe una solución de forma cerrada para ecuaciones diferenciales de la forma donde A no es constante, pero la serie de Magnus da la solución como una suma infinita.

El determinante de la matriz exponencial

Por la fórmula de Jacobi , para cualquier matriz cuadrada compleja se cumple la siguiente identidad de traza : [3]

Además de proporcionar una herramienta computacional, esta fórmula demuestra que una matriz exponencial es siempre una matriz invertible . Esto se deduce del hecho de que el lado derecho de la ecuación anterior siempre es distinto de cero, y por lo tanto det( e A ) ≠ 0 , lo que implica que e A debe ser invertible.

En el caso de valores reales, la fórmula también muestra que la función no es sobreyectiva , a diferencia del caso complejo mencionado anteriormente. Esto se desprende del hecho de que, para matrices de valores reales, el lado derecho de la fórmula siempre es positivo, mientras que existen matrices invertibles con determinante negativo.

Matrices simétricas reales

La matriz exponencial de una matriz simétrica real es definida positiva. Sea una matriz simétrica real de n × n y un vector columna. Utilizando las propiedades elementales de la matriz exponencial y de las matrices simétricas, tenemos:

Como es invertible, la igualdad solo se cumple para , y tenemos para todos los . Por lo tanto, es definida positiva.

La exponencial de sumas

Para cualquier número real (escalar) x e y sabemos que la función exponencial satisface e x + y = e x e y . Lo mismo es cierto para las matrices conmutativas. Si las matrices X e Y conmutan (es decir, XY = YX ), entonces,

Sin embargo, para matrices que no conmutan la igualdad anterior no se cumple necesariamente.

La fórmula del producto Lie

Incluso si X e Y no conmutan, la exponencial e X + Y se puede calcular mediante la fórmula del producto de Lie [4]

El uso de un k finito grande para aproximar lo anterior es la base de la expansión de Suzuki-Trotter, a menudo utilizada en la evolución numérica del tiempo .

La fórmula de Baker-Campbell-Hausdorff

En la otra dirección, si X e Y son matrices suficientemente pequeñas (pero no necesariamente conmutativas), tenemos donde Z puede calcularse como una serie en conmutadores de X e Y por medio de la fórmula de Baker–Campbell–Hausdorff : [5] donde los términos restantes son todos conmutadores iterados que involucran a X e Y . Si X e Y conmutan, entonces todos los conmutadores son cero y tenemos simplemente Z = X + Y .

Desigualdades para exponenciales de matrices hermíticas

Para las matrices hermíticas hay un teorema notable relacionado con la traza de las exponenciales matriciales.

Si A y B son matrices hermíticas, entonces [6]

No hay ningún requisito de conmutatividad. Hay contraejemplos que muestran que la desigualdad de Golden-Thompson no se puede extender a tres matrices y, en cualquier caso, no se garantiza que tr(exp( A )exp( B )exp( C )) sea real para las matrices hermíticas A , B , C . Sin embargo, Lieb demostró [7] [8] que se puede generalizar a tres matrices si modificamos la expresión de la siguiente manera

El mapa exponencial

La exponencial de una matriz es siempre una matriz invertible . La matriz inversa de e X está dada por e X . Esto es análogo al hecho de que la exponencial de un número complejo siempre es distinta de cero. La exponencial matricial nos da entonces una función desde el espacio de todas las matrices n × n hasta el grupo lineal general de grado n , es decir, el grupo de todas las matrices n × n invertibles. De hecho, esta función es sobreyectiva , lo que significa que toda matriz invertible puede escribirse como la exponencial de alguna otra matriz [9] (para esto, es esencial considerar el cuerpo C de los números complejos y no R ).

Para dos matrices cualesquiera X e Y ,

donde ‖ · ‖ denota una norma matricial arbitraria . De ello se deduce que la función exponencial es continua y Lipschitz continua en subconjuntos compactos de M n ( C ) .

El mapa define una curva suave en el grupo lineal general que pasa por el elemento identidad en t = 0 .

De hecho, esto da un subgrupo de un parámetro del grupo lineal general ya que

La derivada de esta curva (o vector tangente ) en un punto t está dada por

La derivada en t = 0 es simplemente la matriz X , lo que quiere decir que X genera este subgrupo de un parámetro.

De manera más general, [10] para un exponente genérico dependiente de t , X ( t ) ,

Tomando la expresión anterior e X ( t ) fuera del signo integral y expandiendo el integrando con la ayuda del lema de Hadamard se puede obtener la siguiente expresión útil para la derivada del exponente de la matriz, [11]

Los coeficientes de la expresión anterior son diferentes de los que aparecen en la función exponencial. Para una forma cerrada, consulte la derivada de la función exponencial .

Derivadas direccionales cuando se restringen a matrices hermíticas

Sea una matriz hermítica con valores propios distintos. Sea su descomposición propia donde es una matriz unitaria cuyas columnas son los vectores propios de , es su transpuesta conjugada y el vector de los valores propios correspondientes. Entonces, para cualquier matriz hermítica , la derivada direccional de en en la dirección es [12] [13] donde , el operador denota el producto de Hadamard y, para todos los , la matriz se define como Además, para cualquier matriz hermítica , la segunda derivada direccional en direcciones y es [13] donde la función con valores propios se define, para todos los , como con

Calcular la matriz exponencial

Encontrar métodos confiables y precisos para calcular la exponencial matricial es difícil, y este sigue siendo un tema de considerable investigación actual en matemáticas y análisis numérico. Matlab , GNU Octave , R y SciPy utilizan el aproximante de Padé . [14] [15] [16] [17] En esta sección, discutimos métodos que son aplicables en principio a cualquier matriz, y que se pueden llevar a cabo explícitamente para matrices pequeñas. [18] Las secciones posteriores describen métodos adecuados para la evaluación numérica en matrices grandes.

Caja diagonalizable

Si una matriz es diagonal : entonces su exponente se puede obtener exponenciando cada entrada en la diagonal principal:

Este resultado también permite exponenciar matrices diagonalizables . Si

A = UDU -1

y D es diagonal, entonces

y A = Ue D U −1 .

La aplicación de la fórmula de Sylvester arroja el mismo resultado. (Para comprobarlo, nótese que la suma y multiplicación, y por lo tanto también la exponenciación, de matrices diagonales es equivalente a la suma y multiplicación elemento por elemento, y por lo tanto a la exponenciación; en particular, la exponenciación "unidimensional" se percibe elemento por elemento para el caso diagonal).

Ejemplo: Diagonalizable

Por ejemplo, la matriz se puede diagonalizar como

De este modo,

Caso nilpotente

Una matriz N es nilpotente si N q = 0 para algún entero q . En este caso, la matriz exponencial e N se puede calcular directamente a partir de la expansión en serie, ya que la serie termina después de un número finito de términos:

Dado que la serie tiene un número finito de pasos, es un polinomio matricial, que puede calcularse de manera eficiente .

Caso general

Utilizando la descomposición de Jordan-Chevalley

Mediante la descomposición de Jordan-Chevalley , cualquier matriz X con entradas complejas se puede expresar como donde

Esto significa que podemos calcular la exponencial de X reduciendo a los dos casos anteriores:

Tenga en cuenta que necesitamos la conmutatividad de A y N para que el último paso funcione.

Utilizando la forma canónica de Jordan

Un método estrechamente relacionado es, si el campo está algebraicamente cerrado , trabajar con la forma de Jordan de X. Supongamos que X = PJP −1 donde J es la forma de Jordan de X. Entonces

Además, desde entonces

Por lo tanto, sólo necesitamos saber cómo calcular la matriz exponencial de un bloque de Jordan . Pero cada bloque de Jordan tiene la forma

donde N es una matriz nilpotente especial. La matriz exponencial de J viene dada por

Caso de proyección

Si P es una matriz de proyección (es decir, es idempotente : P 2 = P ), su matriz exponencial es:

y P = I + ( e − 1) P .

Derivando esto por expansión de la función exponencial, cada potencia de P se reduce a P que se convierte en un factor común de la suma:

Caso de rotación

Para una rotación simple en la que los vectores unitarios perpendiculares a y b especifican un plano, [19] la matriz de rotación R se puede expresar en términos de una función exponencial similar que involucra un generador G y un ángulo θ . [20] [21]

La fórmula para los resultados exponenciales de la reducción de las potencias de G en la expansión en serie y la identificación de los coeficientes de serie respectivos de G 2 y G con −cos( θ ) y sen( θ ) respectivamente. La segunda expresión aquí para e es la misma que la expresión para R ( θ ) en el artículo que contiene la derivación del generador , R ( θ ) = e .

En dos dimensiones, si y , entonces , y se reduce a la matriz estándar para una rotación plana.

La matriz P = − G 2 proyecta un vector sobre el plano ab y la rotación sólo afecta a esta parte del vector. Un ejemplo que ilustra esto es una rotación de 30° = π/6 en el plano abarcado por a y b ,

Sea N = I - P , por lo que N 2 = N y sus productos con P y G son cero. Esto nos permitirá evaluar potencias de R .

Evaluación de la serie Laurent

En virtud del teorema de Cayley-Hamilton la matriz exponencial se puede expresar como un polinomio de orden n −1.

Si P y Q t son polinomios distintos de cero en una variable, tales que P ( A ) = 0 , y si la función meromórfica es entera , entonces Para demostrarlo, multiplique la primera de las dos igualdades anteriores por P ( z ) y reemplace z por A .

Un polinomio de este tipo Q t ( z ) se puede hallar de la siguiente manera (véase la fórmula de Sylvester) . Si a es una raíz de P , Q a,t ( z ) se resuelve a partir del producto de P por la parte principal de la serie de Laurent de f en a : es proporcional a la covariante de Frobenius pertinente . Entonces, la suma S t de Q a,t , donde a recorre todas las raíces de P , se puede tomar como un Q t particular . Todos los demás Q t se obtendrán sumando un múltiplo de P a S t ( z ) . En particular, S t ( z ) , el polinomio de Lagrange-Sylvester , es el único Q t cuyo grado es menor que el de P .

Ejemplo : Consideremos el caso de una matriz arbitraria de 2×2,

La matriz exponencial e tA , en virtud del teorema de Cayley-Hamilton , debe tener la forma

(Para cualquier número complejo z y cualquier C -álgebra B , denotamos nuevamente por z el producto de z por la unidad de B. )

Sean α y β las raíces del polinomio característico de A ,

Entonces tenemos por lo tanto

si αβ ; mientras que si α = β ,

de modo que

Definiendo

tenemos

donde sin( qt )/ q es 0 si t = 0 , y t si q = 0 .

De este modo,

Así, como se indicó anteriormente, la matriz A se ha descompuesto en la suma de dos partes que conmutan entre sí, la parte con traza y la parte sin traza,

La matriz exponencial se reduce a un producto simple de las exponenciales de las dos partes respectivas. Esta es una fórmula que se usa a menudo en física, ya que equivale al análogo de la fórmula de Euler para las matrices de espín de Pauli , es decir, las rotaciones de la representación doblete del grupo SU(2) .

Al polinomio St también se le puede dar la siguiente caracterización de " interpolación " . Definamos e t ( z ) ≡ e tz , y n ≡ deg P . Entonces St ( z ) es el único polinomio de grado < n que satisface St ( k ) ( a ) = e t ( k ) ( a ) siempre que k sea menor que la multiplicidad de a como raíz de P . Suponemos, como obviamente podemos, que P es el polinomio mínimo de A . Suponemos además que A es una matriz diagonalizable . En particular, las raíces de P son simples, y la caracterización de " interpolación " indica que St está dado por la fórmula de interpolación de Lagrange , por lo que es el polinomio de Lagrange−Sylvester .

En el otro extremo, si P = ( z - a ) n , entonces

El caso más simple no cubierto por las observaciones anteriores es cuando a ≠ b , lo que produce

Evaluación por implementación deLa fórmula de Sylvester

Un cálculo práctico y acelerado de lo anterior se reduce a los siguientes pasos rápidos. Recordemos de lo anterior que una matriz n×n exp( tA ) equivale a una combinación lineal de las primeras n −1 potencias de A por el teorema de Cayley-Hamilton . Para matrices diagonalizables , como se ilustra arriba, por ejemplo en el caso 2×2, la fórmula de Sylvester produce exp( tA ) = B α exp( ) + B β exp( ) , donde las B son las covariantes de Frobenius de A .

Sin embargo, es más fácil resolver estos B directamente, evaluando esta expresión y su primera derivada en t = 0 , en términos de A e I , para encontrar la misma respuesta que la anterior.

Pero este procedimiento simple también funciona para matrices defectuosas , en una generalización debida a Buchheim. [22] Esto se ilustra aquí para un ejemplo 4×4 de una matriz que no es diagonalizable , y las B no son matrices de proyección.

Consideremos con valores propios λ 1 = 3/4 y λ 2 = 1 , cada uno con una multiplicidad de dos.

Considere la exponencial de cada valor propio multiplicado por t , exp( λ i t ) . Multiplique cada valor propio exponenciado por la matriz de coeficientes indeterminados correspondiente B i . Si los valores propios tienen una multiplicidad algebraica mayor que 1, repita el proceso, pero ahora multiplique por un factor adicional de t para cada repetición, para asegurar la independencia lineal.

(Si un valor propio tuviera una multiplicidad de tres, entonces habría tres términos: . Por el contrario, cuando todos los valores propios son distintos, las B son simplemente las covariantes de Frobenius , y resolverlas como se muestra a continuación simplemente equivale a la inversión de la matriz de Vandermonde de estos 4 valores propios).

Sume todos esos términos, aquí cuatro de ellos,

Para resolver todas las matrices desconocidas B en términos de las primeras tres potencias de A y la identidad, se necesitan cuatro ecuaciones, la anterior proporciona una de ellas en t = 0. Además, diferénciela con respecto a t ,

Y otra vez,

y una vez más,

(En el caso general, se deben tomar n −1 derivadas).

Si se establece t = 0 en estas cuatro ecuaciones, las cuatro matrices de coeficientes B s ahora se pueden resolver,

ceder

Sustituyendo con el valor de A se obtienen las matrices de coeficientes

Así que la respuesta final es

El procedimiento es mucho más corto que el algoritmo de Putzer, que a veces se utiliza en estos casos.

Ilustraciones

Supongamos que queremos calcular la exponencial de

Su forma de Jordan es donde la matriz P está dada por

Calculemos primero exp( J ). Tenemos

La exponencial de una matriz 1×1 es simplemente la exponencial de la única entrada de la matriz, por lo que exp( J 1 (4)) = [ e 4 ] . La exponencial de J 2 (16) se puede calcular mediante la fórmula e I + N ) = e λ e N mencionada anteriormente; esto produce [23]

Por lo tanto, la exponencial de la matriz original B es

Aplicaciones

Ecuaciones diferenciales lineales

La matriz exponencial tiene aplicaciones en sistemas de ecuaciones diferenciales lineales . (Véase también ecuación diferencial matricial ). Recordemos que anteriormente en este artículo una ecuación diferencial homogénea de la forma tiene solución e At y (0) .

Si consideramos el vector podemos expresar un sistema de ecuaciones diferenciales lineales acopladas no homogéneas como Haciendo un ansatz para utilizar un factor de integración de e At y multiplicando en todo el recorrido, obtenemos

El segundo paso es posible debido a que, si AB = BA , entonces e At B = Be At . Por lo tanto, el cálculo de e At conduce a la solución del sistema, simplemente integrando el tercer paso con respecto a t .

Se puede obtener una solución a esto integrando y multiplicando por para eliminar el exponente en el lado izquierdo. Observe que mientras que es una matriz, dado que es una matriz exponencial, podemos decir que . En otras palabras, .

Ejemplo (homogéneo)

Considere el sistema

La matriz defectuosa asociada es

La matriz exponencial es

de modo que la solución general del sistema homogéneo es

por un importe de

Ejemplo (no homogéneo)

Consideremos ahora el sistema no homogéneo

Tenemos de nuevo

y

De antes ya tenemos la solución general de la ecuación homogénea. Como la suma de las soluciones homogéneas y particulares da la solución general del problema no homogéneo, ahora sólo nos queda hallar la solución particular.

Tenemos, por lo anterior, que podría simplificarse aún más para obtener la solución particular requerida determinada mediante la variación de parámetros. Nótese que c = y p (0). Para mayor rigor, véase la siguiente generalización.

Generalización de casos no homogéneos: variación de parámetros

Para el caso no homogéneo, podemos utilizar factores de integración (un método similar a la variación de parámetros ). Buscamos una solución particular de la forma y p ( t ) = exp( tA ) z ( t ) ,

Para que y p sea una solución,

Por lo tanto, donde c está determinada por las condiciones iniciales del problema.

Más precisamente, considere la ecuación

con la condición inicial Y ( t 0 ) = Y 0 , donde

Al multiplicar por la izquierda la igualdad mostrada anteriormente por e −tA se obtiene

Afirmamos que la solución de la ecuación

con las condiciones iniciales para 0 ≤ k < n es

donde la notación es la siguiente:

s k ( t ) es el coeficiente deen el polinomio denotado poren la Subsección Evaluación por series de Laurent anterior.

Para justificar esta afirmación, transformamos nuestra ecuación escalar de orden n en una ecuación vectorial de orden uno mediante la reducción habitual a un sistema de primer orden . Nuestra ecuación vectorial toma la forma donde A es la matriz compañera transpuesta de P. Resolvemos esta ecuación como se explicó anteriormente, calculando las exponenciales matriciales mediante la observación realizada en la Subsección Evaluación por implementación de la fórmula de Sylvester anterior.

En el caso n = 2 obtenemos la siguiente afirmación. La solución a

es

donde las funciones s 0 y s 1 son como en la Subsección Evaluación por series de Laurent anterior.

Exponentes matriz-matrix

La matriz exponencial de otra matriz (exponencial matriz-matriz), [24] se define como para cualquier matriz n × n normal y no singular X , y cualquier matriz n × n compleja Y .

Para las exponenciales matriz-matriz, existe una distinción entre la exponencial izquierda Y X y la exponencial derecha X Y , porque el operador de multiplicación para matriz a matriz no es conmutativo . Además,

Véase también

Referencias

  1. ^ Hall 2015 Ecuación 2.1
  2. ^ Propuesta 2.3 del Salón 2015
  3. ^ Hall 2015 Teorema 2.12
  4. ^ Hall 2015 Teorema 2.11
  5. ^ Hall 2015 Capítulo 5
  6. ^ Bhatia, R. (1997). Análisis de matrices . Textos de posgrado en matemáticas. Vol. 169. Springer. ISBN 978-0-387-94846-1.
  7. ^ Lieb, Elliott H. (1973). "Funciones de traza convexas y la conjetura de Wigner–Yanase–Dyson". Avances en Matemáticas . 11 (3): 267–288. doi : 10.1016/0001-8708(73)90011-X .
  8. ^ H. Epstein (1973). "Observaciones sobre dos teoremas de E. Lieb". Communications in Mathematical Physics . 31 (4): 317–325. Bibcode :1973CMaPh..31..317E. doi :10.1007/BF01646492. S2CID  120096681.
  9. ^ Hall 2015 Ejercicios 2.9 y 2.10
  10. ^ RM Wilcox (1967). "Operadores exponenciales y diferenciación de parámetros en física cuántica". Journal of Mathematical Physics . 8 (4): 962–982. Bibcode :1967JMP.....8..962W. doi :10.1063/1.1705306.
  11. ^ Hall 2015 Teorema 5.4
  12. ^ Lewis, Adrian S.; Sendov, Hristo S. (2001). "Funciones espectrales dos veces diferenciables" (PDF) . Revista SIAM sobre análisis de matrices y aplicaciones . 23 (2): 368–386. doi :10.1137/S089547980036838X.Véase el teorema 3.3.
  13. ^ ab Deledalle, Charles-Alban; Denis, Loïc; Tupin, Florence (2022). "Reducción de moteado en el dominio de registro de matriz para imágenes de radar de apertura sintética". Revista de imágenes matemáticas y visión . 64 (3): 298–320. doi : 10.1007/s10851-022-01067-1 .Véanse las Proposiciones 1 y 2.
  14. ^ "Matriz exponencial – MATLAB expm – MathWorks Deutschland". Mathworks.de. 2011-04-30 . Consultado el 2013-06-05 .
  15. ^ "GNU Octave – Funciones de una matriz". Network-theory.co.uk. 11 de enero de 2007. Archivado desde el original el 29 de mayo de 2015. Consultado el 5 de junio de 2013 .
  16. ^ "R - pkg {Matrix}: Matriz exponencial". 28 de febrero de 2005. Consultado el 17 de julio de 2023 .
  17. ^ "Documentación de la función scipy.linalg.expm". La comunidad SciPy. 18 de enero de 2015. Consultado el 29 de mayo de 2015 .
  18. ^ Ver Hall 2015 Sección 2.2
  19. ^ en un espacio euclidiano
  20. ^ Weyl, Hermann (1952). Espacio-tiempo-materia. Dover. p. 142. ISBN 978-0-486-60267-7.
  21. ^ Bjorken, James D.; Drell, Sidney D. (1964). Mecánica cuántica relativista . McGraw-Hill. pág. 22.
  22. ^ Rinehart, RF (1955). "La equivalencia de definiciones de una función matricial". The American Mathematical Monthly , 62 (6), 395-414.
  23. ^ Esto se puede generalizar; en general, la exponencial de J n ( a ) es una matriz triangular superior con e a /0! en la diagonal principal, e a /1! en la superior, e a /2! en la siguiente, y así sucesivamente.
  24. ^ Ignacio Barradas y Joel E. Cohen (1994). "Exponencia iterada, exponenciación matriz-matriz y entropía" (PDF) . Academic Press, Inc. Archivado desde el original (PDF) el 26 de junio de 2009.

Enlaces externos