stringtranslate.com

Traza (álgebra lineal)

En álgebra lineal , la traza de una matriz cuadrada A , denotada tr( A ) , [1] se define como la suma de los elementos en la diagonal principal (desde la parte superior izquierda hasta la parte inferior derecha) de A . La traza solo se define para una matriz cuadrada ( n × n ).

En los textos de física matemática, si tr( A ) = 0, se dice que la matriz no tiene traza . Este es un nombre inapropiado, pero se usa ampliamente, como en las Matrices de Pauli .

Se puede demostrar que la traza de una matriz es la suma de sus valores propios (contados con multiplicidades). También se puede demostrar que tr( AB ) = tr( BA ) para dos matrices A y B cualesquiera de tamaños apropiados. Esto implica que matrices similares tienen la misma traza. En consecuencia, se puede definir la traza de un operador lineal que mapea un espacio vectorial de dimensión finita en sí mismo, ya que todas las matrices que describen dicho operador con respecto a una base son similares.

La traza está relacionada con la derivada del determinante (ver fórmula de Jacobi ).

Definición

La traza de una matriz cuadrada A de n × n se define como [1] [2] [3] : 34  donde a ii denota la entrada en la i  ésima fila y la i  ésima columna de A . Las entradas de A pueden ser números reales , números complejos o, de manera más general, elementos de un campo F . La traza no está definida para matrices no cuadradas.

Ejemplo

Sea A una matriz, con

Entonces

Propiedades

Propiedades básicas

La traza es una aplicación lineal . Es decir, [1] [2] para todas las matrices cuadradas A y B y todos los escalares c . [3] : 34 

Una matriz y su transpuesta tienen la misma traza: [1] [2] [3] : 34 

Esto se desprende inmediatamente del hecho de que la transposición de una matriz cuadrada no afecta a los elementos a lo largo de la diagonal principal.

Rastreo de un producto

La traza de una matriz cuadrada que es el producto de dos matrices se puede reescribir como la suma de los productos de sus elementos, es decir, como la suma de todos los elementos de su producto Hadamard . Expresado directamente, si A y B son dos matrices m × n , entonces:

Si se considera cualquier matriz real m × n como un vector de longitud mn (una operación llamada vectorización ), entonces la operación anterior sobre A y B coincide con el producto escalar estándar . Según la expresión anterior, tr( A A ) es una suma de cuadrados y, por lo tanto, no es negativa, igual a cero si y solo si A es cero. [4] : 7  Además, como se indica en la fórmula anterior, tr( A B ) = tr( B A ) . Estos demuestran la definitividad positiva y la simetría requeridas de un producto interno ; es común llamar a tr( A B ) el producto interno de Frobenius de A y B . Este es un producto interno natural en el espacio vectorial de todas las matrices reales de dimensiones fijas. La norma derivada de este producto interno se llama norma de Frobenius y satisface una propiedad submultiplicativa, como se puede demostrar con la desigualdad de Cauchy-Schwarz : si A y B son matrices reales semidefinidas positivas del mismo tamaño. El producto interno y la norma de Frobenius surgen con frecuencia en el cálculo matricial y la estadística .

El producto interno de Frobenius puede extenderse a un producto interno hermítico en el espacio vectorial complejo de todas las matrices complejas de un tamaño fijo, reemplazando B por su conjugado complejo .

La simetría del producto interno de Frobenius puede expresarse de forma más directa de la siguiente manera: las matrices en la traza de un producto pueden intercambiarse sin cambiar el resultado. Si A y B son matrices reales o complejas de m × n y n × m , respectivamente, entonces [1] [2] [3] : 34  [nota 1]

Esto es notable tanto por el hecho de que AB no suele ser igual a BA , como también porque la traza de cualquiera de ellos no suele ser igual a tr( A )tr( B ) . [nota 2] La invariancia de similitud de la traza, lo que significa que tr( A ) = tr( P −1 AP ) para cualquier matriz cuadrada A y cualquier matriz invertible P de las mismas dimensiones, es una consecuencia fundamental. Esto se demuestra por La invariancia de similitud es la propiedad crucial de la traza para discutir las trazas de las transformaciones lineales como se muestra a continuación.

Además, para los vectores de columna reales y , la traza del producto externo es equivalente al producto interno:

Propiedad cíclica

De manera más general, la traza es invariante ante desplazamientos circulares , es decir,

Esto se conoce como propiedad cíclica .

No se permiten permutaciones arbitrarias: en general,

Sin embargo, si se consideran productos de tres matrices simétricas , se permite cualquier permutación, ya que: donde la primera igualdad se debe a que las trazas de una matriz y su transpuesta son iguales. Nótese que esto no es cierto en general para más de tres factores.

Rastro de un producto Kronecker

La traza del producto Kronecker de dos matrices es el producto de sus trazas:

Caracterización de la traza

Las tres propiedades siguientes: caracterizan la traza hasta un múltiplo escalar en el siguiente sentido: Si es una funcional lineal en el espacio de matrices cuadradas que satisface entonces y son proporcionales. [nota 3]

Para las matrices, imponer la normalización hace que sea igual a la traza.

Traza como suma de valores propios

Dada cualquier matriz n × n A , existe

donde λ 1 , ..., λ n son los valores propios de A contados con multiplicidad. Esto es cierto incluso si A es una matriz real y algunos (o todos) de los valores propios son números complejos. Esto puede considerarse como una consecuencia de la existencia de la forma canónica de Jordan , junto con la invariancia de similitud de la traza discutida anteriormente.

Rastro del conmutador

Cuando A y B son matrices n × n , la traza del conmutador (teórico de anillos) de A y B se anula: tr([ A , B ]) = 0 , porque tr( AB ) = tr( BA ) y tr es lineal. Se puede enunciar esto como "la traza es una función de álgebras de Lie gl nk de operadores a escalares", ya que el conmutador de escalares es trivial (es un álgebra de Lie abeliana ). En particular, utilizando la invariancia de similitud, se deduce que la matriz identidad nunca es similar al conmutador de ningún par de matrices.

Por el contrario, cualquier matriz cuadrada con traza cero es una combinación lineal de los conmutadores de pares de matrices. [nota 4] Además, cualquier matriz cuadrada con traza cero es unitariamente equivalente a una matriz cuadrada con diagonal formada únicamente por ceros.

Rastros de tipos especiales de matrices

Relación con el polinomio característico

La traza de una matriz es el coeficiente de en el polinomio característico , posiblemente cambiado de signo, según la convención en la definición del polinomio característico.

Relación con los valores propios

Si A es un operador lineal representado por una matriz cuadrada con entradas reales o complejas y si λ 1 , ..., λ n son los valores propios de A (enumerados según sus multiplicidades algebraicas ), entonces

Esto se deduce del hecho de que A siempre es similar a su forma de Jordan , una matriz triangular superior que tiene λ 1 , ..., λ n en la diagonal principal. Por el contrario, el determinante de A es el producto de sus valores propios; es decir,

Todo lo expuesto en la presente sección se aplica también a cualquier matriz cuadrada con coeficientes en un cuerpo algebraicamente cerrado .

Relaciones derivadas

Si ΔA es una matriz cuadrada con entradas pequeñas e I denota la matriz identidad , entonces tenemos aproximadamente

Precisamente esto significa que la traza es la derivada de la función determinante en la matriz identidad. Fórmula de Jacobi

es más general y describe el diferencial del determinante en una matriz cuadrada arbitraria, en términos de la traza y el adjunto de la matriz.

A partir de esto (o de la conexión entre la traza y los valores propios), se puede derivar una relación entre la función traza, la función exponencial matricial y el determinante:

Una caracterización relacionada de la traza se aplica a los campos vectoriales lineales . Dada una matriz A , defina un campo vectorial F en R n mediante F ( x ) = Ax . Los componentes de este campo vectorial son funciones lineales (dadas por las filas de A ). Su divergencia div F es una función constante, cuyo valor es igual a tr( A ) .

Por el teorema de divergencia , esto se puede interpretar en términos de flujos: si F ( x ) representa la velocidad de un fluido en la ubicación x y U es una región en R n , el flujo neto del fluido fuera de U está dado por tr( A ) · vol( U ) , donde vol( U ) es el volumen de U .

La traza es un operador lineal, por lo tanto conmuta con la derivada:

Traza de un operador lineal

En general, dada una función lineal f  : VV (donde V es un espacio vectorial de dimensión finita ), podemos definir la traza de esta función considerando la traza de una representación matricial de f , es decir, eligiendo una base para V y describiendo f como una matriz relativa a esta base, y tomando la traza de esta matriz cuadrada. El resultado no dependerá de la base elegida, ya que bases diferentes darán lugar a matrices similares , lo que permite la posibilidad de una definición independiente de la base para la traza de una función lineal.

Tal definición puede darse usando el isomorfismo canónico entre el espacio End( V ) de aplicaciones lineales en V y VV * , donde V * es el espacio dual de V . Sea v en V y sea g en V * . Entonces la traza del elemento indecomponible vg se define como g ( v ) ; la traza de un elemento general se define por linealidad. La traza de una aplicación lineal f  : VV puede entonces definirse como la traza, en el sentido anterior, del elemento de VV * correspondiente a f bajo el isomorfismo canónico mencionado anteriormente. Usando una base explícita para V y la base dual correspondiente para V * , uno puede mostrar que esto da la misma definición de la traza que se dio anteriormente.

Algoritmos numéricos

Estimador estocástico

La traza se puede estimar de forma imparcial mediante el "truco de Hutchinson": [5]

Dada cualquier matriz , y cualquier número aleatorio con , tenemos . (Demostración: expanda la expectativa directamente).

Generalmente, el vector aleatorio se muestrea a partir de una (distribución normal) o una ( distribución de Rademacher ).

Se han desarrollado estimadores estocásticos de trazas más sofisticados. [6]

Aplicaciones

Si una matriz real de 2 x 2 tiene traza cero, su cuadrado es una matriz diagonal .

La traza de una matriz compleja de 2 × 2 se utiliza para clasificar las transformaciones de Möbius . En primer lugar, se normaliza la matriz para que su determinante sea igual a uno. Luego, si el cuadrado de la traza es 4, la transformación correspondiente es parabólica . Si el cuadrado está en el intervalo [0,4) , es elíptica . Finalmente, si el cuadrado es mayor que 4, la transformación es loxodrómica . Véase clasificación de las transformaciones de Möbius .

La traza se utiliza para definir caracteres de representaciones de grupo . Dos representaciones A , B  : GGL ( V ) de un grupo G son equivalentes (hasta cambio de base en V ) si tr( A ( g )) = tr( B ( g )) para todo gG.

La traza también juega un papel central en la distribución de formas cuadráticas .

Álgebra de Lie

La traza es un mapa de álgebras de Lie desde el álgebra de Lie de operadores lineales en un espacio n -dimensional ( matrices n × n con entradas en ) hasta el álgebra de Lie K de escalares; como K es abeliano (el corchete de Lie se desvanece), el hecho de que este sea un mapa de álgebras de Lie es exactamente la afirmación de que la traza de un corchete se desvanece:

El núcleo de este mapa, una matriz cuya traza es cero , se suele decir que essin dejar rastro otraza libre , y estas matrices forman elálgebra de Lie simple , que es elálgebra de Liedelgrupo lineal especialde matrices con determinante 1. El grupo lineal especial consiste en las matrices que no cambian de volumen, mientras que elálgebra de Lie lineal especialson las matrices que no alteran el volumen deinfinitesimales.

De hecho, existe una descomposición interna de suma directa de operadores/matrices en operadores/matrices sin traza y operadores/matrices escalares. El mapa de proyección sobre operadores escalares se puede expresar en términos de la traza, concretamente como:

Formalmente, se puede componer la traza (el mapa counit ) con el mapa unitario de "inclusión de escalares " para obtener un mapa que se aplica a escalares, y multiplicarlo por n . Dividir por n convierte esto en una proyección, lo que da como resultado la fórmula anterior.

En términos de secuencias exactas cortas , se tiene que es análogo a (donde ) para los grupos de Lie . Sin embargo, la traza se divide naturalmente (mediante los multiplicadores por los escalares), por lo que , pero la división del determinante sería como la raíz n- ésima multiplicada por los escalares, y esto en general no define una función, por lo que el determinante no se divide y el grupo lineal general no se descompone:

Formas bilineales

La forma bilineal (donde X , Y son matrices cuadradas) se denomina forma de Killing y se utiliza para la clasificación de las álgebras de Lie.

La traza define una forma bilineal:

La forma es simétrica, no degenerada [nota 5] y asociativa en el sentido de que:

Para un álgebra de Lie simple y compleja (como n ), cada una de estas formas bilineales es proporcional entre sí; en particular, a la forma de Killing [ cita requerida ] .

Se dice que dos matrices X e Y son ortogonales a las trazas si

Existe una generalización a una representación general de un álgebra de Lie , tal que es un homomorfismo de álgebras de Lie . La forma traza en se define como se indicó anteriormente. La forma bilineal es simétrica e invariante debido a la ciclicidad.

Generalizaciones

El concepto de traza de una matriz se generaliza a la clase de traza de operadores compactos en espacios de Hilbert , y el análogo de la norma de Frobenius se llama norma de Hilbert-Schmidt .

Si K es un operador de clase traza, entonces, para cualquier base ortonormal , la traza está dada por y es finita e independiente de la base ortonormal. [7]

La traza parcial es otra generalización de la traza que tiene valor de operador. La traza de un operador lineal Z que se encuentra en un espacio de producto AB es igual a las trazas parciales sobre A y B :

Para conocer más propiedades y una generalización de la traza parcial, consulte categorías monoidales trazadas .

Si A es un álgebra asociativa general sobre un cuerpo k , entonces una traza en A se define a menudo como cualquier función tr : Ak que se anula en conmutadores; tr([ a , b ]) = 0 para todo a , bA . Una traza de este tipo no está definida de forma única; siempre puede al menos modificarse mediante la multiplicación por un escalar distinto de cero.

Una supertraza es la generalización de una traza al contexto de las superálgebras .

La operación de contracción tensorial generaliza la traza a tensores arbitrarios.

Trazas en el lenguaje de los productos tensoriales

Dado un espacio vectorial V , existe una función bilineal natural V × V F que se obtiene al enviar ( v , φ) al escalar φ( v ) . La propiedad universal del producto tensorial VV implica automáticamente que esta función bilineal es inducida por una función lineal en VV . [8]

De manera similar, existe una función bilineal natural V × V → Hom( V , V ) dada al enviar ( v , φ) a la función lineal w ↦ φ( w ) v . La propiedad universal del producto tensorial, tal como se utilizó anteriormente, dice que esta función bilineal es inducida por una función lineal VV → Hom( V , V ) . Si V es de dimensión finita, entonces esta función lineal es un isomorfismo lineal . [8] Este hecho fundamental es una consecuencia directa de la existencia de una base (finita) de V , y también puede expresarse diciendo que cualquier función lineal VV puede escribirse como la suma de (un número finito) de funciones lineales de rango uno. Al componer la inversa del isomorfismo con la función lineal obtenida anteriormente se obtiene una función lineal en Hom( V , V ) . Esta función lineal es exactamente la misma que la traza.

Usando la definición de traza como la suma de elementos diagonales, la fórmula matricial tr( AB ) = tr( BA ) es fácil de demostrar, y fue dada anteriormente. En la presente perspectiva, uno está considerando las aplicaciones lineales S y T , y viéndolas como sumas de aplicaciones de rango uno, de modo que hay funcionales lineales φ i y ψ j y vectores no nulos v i y w j tales que S ( u ) = Σ φ i ( u ) v i y T ( u ) = Σ ψ j ( u ) w j para cualquier u en V . Entonces

para cualquier u en V . La función lineal de rango uno uψ j ( u ) φ i ( w j ) v i tiene traza ψ j ( v i ) φ i ( w j ) y por lo tanto

Siguiendo el mismo procedimiento con S y T invertidos, se encuentra exactamente la misma fórmula, demostrando que tr( ST ) es igual a tr( TS ) .

La prueba anterior puede considerarse basada en productos tensoriales, dado que la identidad fundamental de End( V ) con VV es equivalente a la expresibilidad de cualquier mapa lineal como la suma de mapas lineales de rango uno. Como tal, la prueba puede escribirse en la notación de productos tensoriales. Luego, se puede considerar el mapa multilineal V × V × V × V VV dado al enviar ( v , φ , w , ψ ) a φ ( w ) vψ . Una composición adicional con el mapa de trazas da como resultado φ ( w ) ψ ( v ) , y esto no cambia si uno hubiera comenzado con ( w , ψ , v , φ ) en su lugar. También se puede considerar la función bilineal End( V ) × End( V ) → End( V ) dada al enviar ( f , g ) a la composición fg , que luego es inducida por una función lineal End( V ) ⊗ End( V ) → End( V ) . Se puede ver que esto coincide con la función lineal VV VV VV . La simetría establecida sobre la composición con la función de traza establece entonces la igualdad de las dos trazas. [8]

Para cualquier espacio vectorial de dimensión finita V , existe una función lineal natural FVV ' ; en el lenguaje de las funciones lineales, asigna a un escalar c la función lineal c ⋅id V . A veces esto se denomina función de coevaluación , y la traza VV 'F se denomina función de evaluación . [8] Estas estructuras se pueden axiomatizar para definir trazas categóricas en el contexto abstracto de la teoría de categorías .

Véase también

Notas

  1. ^ Esto se desprende inmediatamente de la definición del producto matricial :
  2. ^ Por ejemplo, si entonces el producto es y las trazas son tr( AB ) = 1 ≠ 0 ⋅ 0 = tr( A )tr( B ) .
  3. ^ Prueba: Sea la base estándar y observe que si y solo si y De manera más abstracta, esto corresponde a la descomposición como (equivalentemente, ) define la traza en la que tiene complemento de las matrices escalares, y deja un grado de libertad: cualquier mapa de este tipo está determinado por su valor en escalares, que es un parámetro escalar y, por lo tanto, todos son múltiplos de la traza, un mapa distinto de cero.
  4. ^ Demostración: es un álgebra de Lie semisimple y, por lo tanto, cada elemento en ella es una combinación lineal de conmutadores de algunos pares de elementos, de lo contrario, el álgebra derivada sería un ideal propio.
  5. ^ Esto se deduce del hecho de que tr( A * A ) = 0 si y sólo si A = 0 .

Referencias

  1. ^ abcde "Rango, traza, determinante, transposición e inversa de matrices". fourier.eng.hmc.edu . Consultado el 9 de septiembre de 2020 .
  2. ^ abcd Weisstein, Eric W. (2003) [1999]. "Traza (matriz)". En Weisstein, Eric W. (ed.). CRC Concise Encyclopedia of Mathematics (2.ª ed.). Boca Raton, FL: Chapman & Hall . doi :10.1201/9781420035223. ISBN 1-58488-347-2. MR  1944431. Zbl  1079.00009 . Consultado el 9 de septiembre de 2020 .
  3. ^ abcd Lipschutz, Seymour; Lipson, Marc (septiembre de 2005). Teoría y problemas del álgebra lineal . Esquema de Schaum. McGraw-Hill. ISBN 9780070605022.
  4. ^ Horn, Roger A.; Johnson, Charles R. (2013). Análisis de matrices (2.ª ed.). Cambridge University Press. ISBN 9780521839402.
  5. ^ Hutchinson, MF (enero de 1989). "Un estimador estocástico de la traza de la matriz de influencia para splines de suavizado laplaciano". Comunicaciones en estadística: simulación y computación . 18 (3): 1059–1076. doi :10.1080/03610918908812806. ISSN  0361-0918.
  6. ^ Avron, Haim; Toledo, Sivan (11 de abril de 2011). "Algoritmos aleatorizados para estimar la traza de una matriz semidefinida positiva simétrica implícita". Revista de la ACM . 58 (2): 8:1–8:34. doi :10.1145/1944345.1944349. ISSN  0004-5411. S2CID  5827717.
  7. ^ Teschl, G. (30 de octubre de 2014). Métodos matemáticos en mecánica cuántica . Estudios de posgrado en matemáticas. Vol. 157 (2.ª ed.). Sociedad matemática estadounidense. ISBN 978-1470417048.
  8. ^ abcd Kassel, Christian (1995). Grupos cuánticos . Textos de posgrado en matemáticas . Vol. 155. Nueva York: Springer-Verlag . doi :10.1007/978-1-4612-0783-2. ISBN . 0-387-94370-6.MR 1321145.Zbl 0808.17003  . ​

Enlaces externos