stringtranslate.com

Transponer

La transpuesta AT de una matriz A se puede obtener reflejando los elementos a lo largo de su diagonal principal . Repetir el proceso en la matriz transpuesta devuelve los elementos a su posición original.

En álgebra lineal , la transpuesta de una matriz es un operador que invierte una matriz sobre su diagonal; es decir, cambia los índices de fila y columna de la matriz A produciendo otra matriz, a menudo denotada por A T (entre otras notaciones). [1]

La transpuesta de una matriz fue introducida en 1858 por el matemático británico Arthur Cayley . [2] En el caso de una matriz lógica que representa una relación binaria R, la transpuesta corresponde a la relación inversa R T .

Transpuesta de una matriz

Definición

La transpuesta de una matriz A , denotada por AT , [ 3] A , A , , [4] [5] A′ , [6] At tr , t A o At , puede construirse mediante cualquiera de los siguientes métodos:

  1. Refleje A sobre su diagonal principal (que va de arriba a la izquierda a abajo a la derecha) para obtener A T
  2. Escribe las filas de A como las columnas de A T
  3. Escribe las columnas de A como las filas de A T

Formalmente, el elemento i -ésima fila, j -ésima columna de A T es el elemento j -ésima fila, i -ésima columna de A :

Si A es una matriz de m × n , entonces A T es una matriz de n × m .

En el caso de matrices cuadradas, AT también puede denotar la T- ésima potencia de la matriz A. Para evitar una posible confusión, muchos autores utilizan mayúsculas izquierdas, es decir, denotan la transpuesta como T A . Una ventaja de esta notación es que no se necesitan paréntesis cuando se trata de exponentes: como ( T A ) n = T ( A n ) , la notación T A n no es ambigua.

En este artículo se evita esta confusión al no utilizar nunca el símbolo T como nombre de variable .

Definiciones matriciales que implican transposición

Una matriz cuadrada cuya transpuesta es igual a sí misma se llama matriz simétrica ; es decir, A es simétrica si

Una matriz cuadrada cuya transpuesta es igual a su negativo se llama matriz simétrica sesgada ; es decir, A es simétrico sesgado si

Una matriz compleja cuadrada cuya transpuesta es igual a la matriz con cada entrada reemplazada por su conjugado complejo (indicado aquí con una línea sobrepuesta) se llama matriz hermitiana (equivalente a que la matriz sea igual a su transpuesta conjugada ); es decir, A es hermitiano si

Una matriz compleja cuadrada cuya transpuesta es igual a la negación de su conjugado complejo se llama matriz sesgada-hermitiana ; es decir, A es sesgado-hermitiano si

Una matriz cuadrada cuya transpuesta es igual a su inversa se llama matriz ortogonal ; es decir, A es ortogonal si

Una matriz cuadrada compleja cuya transpuesta es igual a su inversa conjugada se llama matriz unitaria ; es decir, A es unitario si

Ejemplos

Propiedades

Sean A y B matrices y c un escalar .

Productos

Si A es una matriz de m × n y A T es su transpuesta, entonces el resultado de la multiplicación de matrices con estas dos matrices da dos matrices cuadradas: A T es m × m y A T A es n × n . Además, estos productos son matrices simétricas . De hecho, el producto matricial A T tiene entradas que son el producto interno de una fila de A con una columna de A T . Pero las columnas de A T son las filas de A , por lo que la entrada corresponde al producto interno de dos filas de A . Si p i j es la entrada del producto, se obtiene de las filas i y j en A. La entrada p j i también se obtiene de estas filas, por lo tanto p i j = p j i , y la matriz del producto ( p i j ) es simétrica. De manera similar, el producto A T A es una matriz simétrica.

Una prueba rápida de la simetría de AAT resulta del hecho de que es su propia transpuesta :

[7]

Implementación de transposición matricial en computadoras.

Ilustración del orden principal de filas y columnas

En una computadora , a menudo se puede evitar la transposición explícita de una matriz en la memoria simplemente accediendo a los mismos datos en un orden diferente. Por ejemplo, las bibliotecas de software para álgebra lineal , como BLAS , normalmente brindan opciones para especificar que ciertas matrices deben interpretarse en orden transpuesta para evitar la necesidad de movimiento de datos.

Sin embargo, sigue habiendo una serie de circunstancias en las que es necesario o deseable reordenar físicamente una matriz en la memoria según su orden transpuesto. Por ejemplo, con una matriz almacenada en orden de fila principal , las filas de la matriz son contiguas en la memoria y las columnas no son contiguas. Si es necesario realizar operaciones repetidas en las columnas, por ejemplo en un algoritmo de transformada rápida de Fourier , la transposición de la matriz en la memoria (para que las columnas sean contiguas) puede mejorar el rendimiento al aumentar la localidad de la memoria .

Idealmente, se podría esperar transponer una matriz con un almacenamiento adicional mínimo. Esto conduce al problema de transponer una matriz n  ×  m in situ , con O(1) almacenamiento adicional o, como máximo, un almacenamiento mucho menor que mn . Para n  ≠  m , esto implica una permutación complicada de los elementos de datos que no es trivial de implementar in situ. Por lo tanto, la transposición eficiente de matrices in situ ha sido objeto de numerosas publicaciones de investigación en informática , desde finales de la década de 1950, y se han desarrollado varios algoritmos.

Transposiciones de mapas lineales y formas bilineales.

Como el uso principal de las matrices es representar aplicaciones lineales entre espacios vectoriales de dimensión finita , la transposición es una operación sobre matrices que puede verse como la representación de alguna operación sobre aplicaciones lineales.

Esto lleva a una definición mucho más general de la transpuesta que funciona en todos los mapas lineales, incluso cuando los mapas lineales no pueden representarse mediante matrices (como en el caso de espacios vectoriales de dimensión infinita). En el caso de dimensión finita, la matriz que representa la transpuesta de un mapa lineal es la transpuesta de la matriz que representa el mapa lineal, independientemente de la elección de la base .

Transposición de un mapa lineal

Sea X # el espacio dual algebraico de un módulo R X. Sean X e Y R -módulos . Si u  : XY es una aplicación lineal , entonces su adjunto algebraico o dual , [8] es la aplicación u #  : Y #X # definida por ffu . El funcional resultante u # ( f ) se llama retroceso de f por u . La siguiente relación caracteriza el adjunto algebraico de u [9]

u # ​​( f ), x = f , u ( x )⟩ para todo fY # y xX

donde ⟨•, •⟩ es el emparejamiento natural (es decir, definido por h , z  := h ( z ) ). Esta definición también se aplica sin cambios a los módulos izquierdos y a los espacios vectoriales. [10]

Se puede considerar que la definición de la transpuesta es independiente de cualquier forma bilineal en los módulos, a diferencia del adjunto (a continuación).

El espacio dual continuo de un espacio vectorial topológico (TVS) X se denota por X ' . Si X e Y son TVS, entonces un mapa lineal u  : XY es débilmente continuo si y sólo si u # ( Y ' ) ⊆ X ' , en cuyo caso dejamos que t u  : Y 'X ' denote la restricción de u # juguete ' . _ La función tu se llama transpuesta [11 ] de u .

Si la matriz A describe una aplicación lineal con respecto a las bases de V y W , entonces la matriz A T describe la transpuesta de esa aplicación lineal con respecto a las bases duales .

Transpuesta de una forma bilineal

Cada aplicación lineal al espacio dual u  : XX # define una forma bilineal B  : X × XF , con la relación B ( x , y ) = u ( x )( y ) . Al definir la transpuesta de esta forma bilineal como la forma bilineal t B definida por la transpuesta t u  : X ##X # es decir, t B ( y , x ) = t u (Ψ( y ))( x ) , encontramos que B ( x , y ) = tB ( y , x ) . Aquí, Ψ es el homomorfismo natural XX ## en el doble dual .

adjunto

Si los espacios vectoriales X e Y tienen respectivamente formas bilineales no degeneradas B X y B Y , se puede definir un concepto conocido como adjunto , que está estrechamente relacionado con la transpuesta:

Si u  : XY es una aplicación lineal entre espacios vectoriales X e Y , definimos g como el adjunto de u si g  : YX satisface

para todo xX y yY .

Estas formas bilineales definen un isomorfismo entre X y X # , y entre Y e Y # , lo que resulta en un isomorfismo entre la transpuesta y el adjunto de u . La matriz del adjunto de un mapa es la matriz transpuesta sólo si las bases son ortonormales con respecto a sus formas bilineales. Sin embargo, en este contexto, muchos autores utilizan el término transponer para referirse al adjunto tal como se define aquí.

El adjunto nos permite considerar si g  : YX es igual a u  −1  : YX . En particular, esto permite definir el grupo ortogonal sobre un espacio vectorial X con forma cuadrática sin referencia a matrices (ni a sus componentes) como el conjunto de todos los mapas lineales XX para los cuales el adjunto es igual al inverso.

En un espacio vectorial complejo, a menudo se trabaja con formas sesquilineales (lineales conjugadas en un argumento) en lugar de formas bilineales. El adjunto hermitiano de una aplicación entre dichos espacios se define de manera similar, y la matriz del adjunto hermitiano viene dada por la matriz transpuesta conjugada si las bases son ortonormales.

Ver también

Referencias

  1. ^ Nykamp, ​​Duane. "La transpuesta de una matriz". Perspectiva matemática . Consultado el 8 de septiembre de 2020 .
  2. ^ Arthur Cayley (1858) "Una memoria sobre la teoría de matrices", Philosophical Transactions of the Royal Society of London , 148  : 17–37. La transposición (o "transposición") se define en la página 31.
  3. ^ TA Whitelaw (1 de abril de 1991). Introducción al Álgebra Lineal, 2ª edición. Prensa CRC. ISBN 978-0-7514-0159-2.
  4. ^ "Transposición de un producto Matrix (ProofWiki)". PruebaWiki . Consultado el 4 de febrero de 2021 .
  5. ^ "¿Cuál es el mejor símbolo para la transposición de vector/matriz?". Intercambio de pila . Consultado el 4 de febrero de 2021 .
  6. ^ Weisstein, Eric W. "Transponer". mathworld.wolfram.com . Consultado el 8 de septiembre de 2020 .
  7. ^ Gilbert Strang (2006) Álgebra lineal y sus aplicaciones , cuarta edición, página 51, Thomson Brooks/Cole ISBN 0-03-010567-6 
  8. ^ Schaefer y Wolff 1999, pág. 128.
  9. ^ Halmos 1974, §44
  10. ^ Bourbaki 1989, II §2.5
  11. ^ Tréves 2006, pag. 240.

Otras lecturas

enlaces externos