En álgebra lineal , la transpuesta de una matriz es un operador que invierte una matriz sobre su diagonal; es decir, cambia los índices de fila y columna de la matriz A produciendo otra matriz, a menudo denotada por A T (entre otras notaciones). [1]
La transpuesta de una matriz fue introducida en 1858 por el matemático británico Arthur Cayley . [2] En el caso de una matriz lógica que representa una relación binaria R, la transpuesta corresponde a la relación inversa R T .
La transpuesta de una matriz A , denotada por AT , [3] ⊤ A , A ⊤ , , [4] [ 5] A′ , [6] At tr , t A o At , puede construirse mediante cualquiera de los siguientes métodos:
Formalmente, el elemento i -ésima fila, j -ésima columna de A T es el elemento j -ésima fila, i -ésima columna de A :
Si A es una matriz de m × n , entonces A T es una matriz de n × m .
En el caso de matrices cuadradas, AT también puede denotar la T -ésima potencia de la matriz A. Para evitar una posible confusión, muchos autores utilizan mayúsculas izquierdas, es decir, denotan la transpuesta como T A . Una ventaja de esta notación es que no se necesitan paréntesis cuando se trata de exponentes: como ( T A ) n = T ( A n ) , la notación T A n no es ambigua.
En este artículo se evita esta confusión al no utilizar nunca el símbolo T como nombre de variable .
Una matriz cuadrada cuya transpuesta es igual a sí misma se llama matriz simétrica ; es decir, A es simétrica si
Una matriz cuadrada cuya transpuesta es igual a su negativo se llama matriz simétrica sesgada ; es decir, A es simétrico sesgado si
Una matriz compleja cuadrada cuya transpuesta es igual a la matriz con cada entrada reemplazada por su conjugado complejo (indicado aquí con una línea sobrepuesta) se llama matriz hermitiana (equivalente a que la matriz sea igual a su transpuesta conjugada ); es decir, A es hermitiano si
Una matriz compleja cuadrada cuya transpuesta es igual a la negación de su conjugado complejo se llama matriz sesgada-hermitiana ; es decir, A es sesgado-hermitiano si
Una matriz cuadrada cuya transpuesta es igual a su inversa se llama matriz ortogonal ; es decir, A es ortogonal si
Una matriz cuadrada compleja cuya transpuesta es igual a su inversa conjugada se llama matriz unitaria ; es decir, A es unitario si
Sean A y B matrices y c un escalar .
Si A es una matriz de m × n y A T es su transpuesta, entonces el resultado de la multiplicación de matrices con estas dos matrices da dos matrices cuadradas: A T es m × m y A T A es n × n . Además, estos productos son matrices simétricas . De hecho, el producto matricial A T tiene entradas que son el producto interno de una fila de A con una columna de A T . Pero las columnas de A T son las filas de A , por lo que la entrada corresponde al producto interno de dos filas de A . Si p i j es la entrada del producto, se obtiene de las filas i y j en A. La entrada p j i también se obtiene de estas filas, por lo tanto p i j = p j i , y la matriz del producto ( p i j ) es simétrica. De manera similar, el producto A T A es una matriz simétrica.
Una prueba rápida de la simetría de AAT resulta del hecho de que es su propia transpuesta:
En una computadora , a menudo se puede evitar la transposición explícita de una matriz en la memoria simplemente accediendo a los mismos datos en un orden diferente. Por ejemplo, las bibliotecas de software para álgebra lineal , como BLAS , normalmente brindan opciones para especificar que ciertas matrices deben interpretarse en orden transpuesta para evitar la necesidad de movimiento de datos.
Sin embargo, sigue habiendo una serie de circunstancias en las que es necesario o deseable reordenar físicamente una matriz en la memoria según su orden transpuesto. Por ejemplo, con una matriz almacenada en orden de fila principal , las filas de la matriz son contiguas en la memoria y las columnas no son contiguas. Si es necesario realizar operaciones repetidas en las columnas, por ejemplo en un algoritmo de transformada rápida de Fourier , la transposición de la matriz en la memoria (para que las columnas sean contiguas) puede mejorar el rendimiento al aumentar la localidad de la memoria .
Idealmente, se podría esperar transponer una matriz con un almacenamiento adicional mínimo. Esto conduce al problema de transponer una matriz n × m in situ , con almacenamiento adicional O(1) o, como máximo, un almacenamiento mucho menor que mn . Para n ≠ m , esto implica una permutación complicada de los elementos de datos que no es trivial de implementar in situ. Por lo tanto, la transposición eficiente de matrices in situ ha sido objeto de numerosas publicaciones de investigación en informática , desde finales de la década de 1950, y se han desarrollado varios algoritmos.
Como el uso principal de las matrices es representar aplicaciones lineales entre espacios vectoriales de dimensión finita , la transposición es una operación sobre matrices que puede verse como la representación de alguna operación sobre aplicaciones lineales.
Esto lleva a una definición mucho más general de la transpuesta que funciona en todos los mapas lineales, incluso cuando los mapas lineales no pueden representarse mediante matrices (como en el caso de espacios vectoriales de dimensión infinita). En el caso de dimensión finita, la matriz que representa la transpuesta de un mapa lineal es la transpuesta de la matriz que representa el mapa lineal, independientemente de la elección de la base .
Sea X # el espacio dual algebraico de un módulo R X. Sean X e Y R -módulos . Si u : X → Y es una aplicación lineal , entonces su adjunto algebraico o dual , [8] es la aplicación u # : Y # → X # definida por f ↦ f ∘ u . El funcional resultante u # ( f ) se llama retroceso de f por u . La siguiente relación caracteriza el adjunto algebraico de u [9]
donde ⟨•, •⟩ es el emparejamiento natural (es decir, definido por ⟨ h , z ⟩ := h ( z ) ). Esta definición también se aplica sin cambios a los módulos izquierdos y a los espacios vectoriales. [10]
Se puede considerar que la definición de la transpuesta es independiente de cualquier forma bilineal en los módulos, a diferencia del adjunto (a continuación).
El espacio dual continuo de un espacio vectorial topológico (TVS) X se denota por X ' . Si X e Y son TVS, entonces un mapa lineal u : X → Y es débilmente continuo si y sólo si u # ( Y ' ) ⊆ X ' , en cuyo caso dejamos que t u : Y ' → X ' denote la restricción de u # juguete ' . La función tu se llama transpuesta [11] de u .
Si la matriz A describe una aplicación lineal con respecto a las bases de V y W , entonces la matriz A T describe la transpuesta de esa aplicación lineal con respecto a las bases duales .
Cada aplicación lineal al espacio dual u : X → X # define una forma bilineal B : X × X → F , con la relación B ( x , y ) = u ( x )( y ) . Al definir la transpuesta de esta forma bilineal como la forma bilineal t B definida por la transpuesta t u : X ## → X # es decir, t B ( y , x ) = t u (Ψ( y ))( x ) , encontramos que B ( x , y ) = tB ( y , x ) . Aquí, Ψ es el homomorfismo natural X → X ## en el doble dual .
Si los espacios vectoriales X e Y tienen respectivamente formas bilineales no degeneradas B X y B Y , se puede definir un concepto conocido como adjunto , que está estrechamente relacionado con la transpuesta:
Si u : X → Y es una aplicación lineal entre espacios vectoriales X e Y , definimos g como el adjunto de u si g : Y → X satisface
Estas formas bilineales definen un isomorfismo entre X y X # , y entre Y e Y # , lo que resulta en un isomorfismo entre la transpuesta y el adjunto de u . La matriz del adjunto de un mapa es la matriz transpuesta sólo si las bases son ortonormales con respecto a sus formas bilineales. Sin embargo, en este contexto, muchos autores utilizan el término transponer para referirse al adjunto tal como se define aquí.
El adjunto nos permite considerar si g : Y → X es igual a u −1 : Y → X . En particular, esto permite definir el grupo ortogonal sobre un espacio vectorial X con forma cuadrática sin referencia a matrices (ni a sus componentes) como el conjunto de todos los mapas lineales X → X para los cuales el adjunto es igual al inverso.
En un espacio vectorial complejo, a menudo se trabaja con formas sesquilineales (lineales conjugadas en un argumento) en lugar de formas bilineales. El adjunto hermitiano de una aplicación entre dichos espacios se define de manera similar, y la matriz del adjunto hermitiano viene dada por la matriz transpuesta conjugada si las bases son ortonormales.