stringtranslate.com

Matriz invertible

En álgebra lineal , una matriz invertible es una matriz cuadrada que tiene una inversa . En otras palabras, si se multiplica otra matriz por la matriz invertible, el resultado se puede multiplicar por una inversa para deshacer la operación. Las matrices invertibles tienen el mismo tamaño que su inversa.

Definición

Una matriz cuadrada A de n por n se denomina invertible (también no singular , no degenerada o raramente regular ) si existe una matriz cuadrada B de n por n tal que donde I n denota la matriz identidad de n por n y la multiplicación utilizada es la multiplicación de matrices ordinaria . [1] Si este es el caso, entonces la matriz B está determinada de forma única por A , y se denomina inversa (multiplicativa) de A , denotada por A −1 . La inversión de matrices es el proceso de encontrar la matriz que, cuando se multiplica por la matriz original, da la matriz identidad. [2]

Sobre un cuerpo , una matriz cuadrada que no es invertible se llama singular o degenerada . Una matriz cuadrada con entradas en un cuerpo es singular si y solo si su determinante es cero. Las matrices singulares son raras en el sentido de que si las entradas de una matriz cuadrada se seleccionan aleatoriamente de cualquier región acotada en la línea numérica o el plano complejo , la probabilidad de que la matriz sea singular es 0, es decir, "casi nunca" será singular. Las matrices no cuadradas, es decir, matrices m por n para las que mn , no tienen inversa. Sin embargo, en algunos casos, una matriz de este tipo puede tener una inversa izquierda o una inversa derecha . Si A es m por n y el rango de A es igual a n , ( nm ), entonces A tiene una inversa izquierda, una matriz n por m B tal que BA = I n . Si A tiene rango m ( mn ), entonces tiene una inversa derecha, una matriz B de n por m tal que AB = Im .

Si bien el caso más común es el de matrices sobre números reales o complejos , todas estas definiciones se pueden dar para matrices sobre cualquier estructura algebraica equipada con adición y multiplicación (es decir, anillos ). Sin embargo, en el caso de que un anillo sea conmutativo , la condición para que una matriz cuadrada sea invertible es que su determinante sea invertible en el anillo, lo que en general es un requisito más estricto que el de que sea distinto de cero. Para un anillo no conmutativo , el determinante habitual no está definido. Las condiciones para la existencia de inversa izquierda o inversa derecha son más complicadas, ya que no existe una noción de rango sobre anillos.

El conjunto de matrices invertibles n × n junto con la operación de multiplicación de matrices y las entradas del anillo R forman un grupo , el grupo lineal general de grado n , denotado GL n ( R ) .

Propiedades

El teorema de la matriz invertible

Sea A una matriz cuadrada de n por n sobre un cuerpo K (por ejemplo, el cuerpo de los números reales). Las siguientes afirmaciones son equivalentes, es decir, son todas verdaderas o todas falsas para cualquier matriz dada: [3]

Otras propiedades

Además, las siguientes propiedades se cumplen para una matriz invertible A :

Las filas de la matriz inversa V de una matriz U son ortonormales a las columnas de U (y viceversa intercambiando filas por columnas). Para ver esto, supongamos que UV = VU = I donde las filas de V se denotan como y las columnas de U como para Entonces claramente, el producto interno euclidiano de cualesquiera dos Esta propiedad también puede ser útil para construir la inversa de una matriz cuadrada en algunos casos, donde se conoce un conjunto de vectores ortogonales (pero no necesariamente vectores ortonormales) a las columnas de U. En cuyo caso, se puede aplicar el proceso iterativo de Gram-Schmidt a este conjunto inicial para determinar las filas de la inversa V .

Una matriz que es su propia inversa (es decir, una matriz A tal que A = A −1 , y en consecuencia A 2 = I ), se denomina matriz involutiva .

En relación con su adjunto

El adjunto de una matriz A se puede utilizar para encontrar la inversa de A de la siguiente manera:

Si A es una matriz invertible, entonces

En relación a la matriz de identidad

De la asociatividad de la multiplicación de matrices se deduce que si

para matrices cuadradas finitas A y B , entonces también

[4]

Densidad

En el campo de los números reales, el conjunto de matrices singulares n por n , consideradas como un subconjunto de ⁠ ⁠ es un conjunto nulo , es decir, tiene medida de Lebesgue cero. Esto es cierto porque las matrices singulares son las raíces de la función determinante . Esta es una función continua porque es un polinomio en las entradas de la matriz. Así, en el lenguaje de la teoría de la medida , casi todas las matrices n por n son invertibles.

Además, el conjunto de matrices invertibles n por n es abierto y denso en el espacio topológico de todas las matrices n por n. De manera equivalente, el conjunto de matrices singulares es cerrado y no es denso en ningún lugar del espacio de matrices n por n .

Sin embargo, en la práctica, se pueden encontrar matrices no invertibles. Y en los cálculos numéricos , las matrices que son invertibles, pero cercanas a una matriz no invertible, pueden seguir siendo problemáticas; se dice que dichas matrices están mal condicionadas .

Ejemplos

Un ejemplo con rango de n − 1 es una matriz no invertible

Podemos ver que el rango de esta matriz de 2 por 2 es 1, que es n − 1 ≠ n , por lo que no es invertible.

Considere la siguiente matriz de 2 por 2:

La matriz es invertible. Para comprobarlo, se puede calcular que , que no es cero.

Como ejemplo de una matriz no invertible o singular, considere la matriz

El determinante de es 0, lo cual es una condición necesaria y suficiente para que una matriz sea no invertible.

Métodos de inversión de matrices

Eliminación gaussiana

La eliminación gaussiana es una forma útil y sencilla de calcular la inversa de una matriz. Para calcular la inversa de una matriz con este método, primero se crea una matriz aumentada cuyo lado izquierdo es la matriz que se va a invertir y el lado derecho es la matriz identidad . Luego, se utiliza la eliminación gaussiana para convertir el lado izquierdo en la matriz identidad, lo que hace que el lado derecho se convierta en la inversa de la matriz de entrada.

Por ejemplo, tomemos la siguiente matriz:

El primer paso para calcular su inversa es crear la matriz aumentada

Llamamos a la primera fila de esta matriz y a la segunda fila . Luego, sumamos la fila 1 a la fila 2. Esto da como resultado

A continuación, resta la fila 2, multiplicada por 3, de la fila 1, lo que da como resultado

Por último, multiplica la fila 1 por −1 y la fila 2 por 2. Esto produce la matriz identidad en el lado izquierdo y la matriz inversa en el derecho:

De este modo,

La razón por la que funciona es que el proceso de eliminación gaussiana se puede ver como una secuencia de aplicación de la multiplicación de matrices izquierdas utilizando operaciones de fila elementales utilizando matrices elementales ( ), como

Aplicando la multiplicación por la derecha obtenemos Y el lado derecho que es el inverso que queremos.

Para obtener, creamos la matriz aumentada combinando A con I y aplicando la eliminación gaussiana . Las dos partes se transformarán utilizando la misma secuencia de operaciones elementales por filas. Cuando la parte izquierda se convierte en I , la parte derecha, a la que se le haya aplicado la misma secuencia de operaciones elementales por filas, se convertirá en A −1 .

El método de Newton

Puede resultar conveniente generalizar el método de Newton utilizado para un algoritmo inverso multiplicativo , si es conveniente encontrar una semilla inicial adecuada:

Victor Pan y John Reif han realizado trabajos que incluyen formas de generar una semilla inicial. [5] [6]

El método de Newton es particularmente útil cuando se trabaja con familias de matrices relacionadas que se comportan de manera bastante similar a la secuencia fabricada para la homotopía anterior: a veces un buen punto de partida para refinar una aproximación para la nueva inversa puede ser la inversa ya obtenida de una matriz anterior que casi coincide con la matriz actual, por ejemplo, el par de secuencias de matrices inversas utilizadas para obtener raíces cuadradas de matrices mediante la iteración de Denman-Beavers ; esto puede requerir más de una pasada de la iteración en cada nueva matriz, si no están lo suficientemente próximas entre sí para que una sola sea suficiente. El método de Newton también es útil para realizar correcciones de "retoque" al algoritmo de Gauss-Jordan que ha sido contaminado por pequeños errores debido a una aritmética informática imperfecta .

Método Cayley-Hamilton

El teorema de Cayley-Hamilton permite expresar la inversa de A en términos de det( A ) , trazas y potencias de A : [7]

donde n es el tamaño de A y tr( A ) es la traza de la matriz A dada por la suma de la diagonal principal . La suma se toma sobre s y los conjuntos de todos los que satisfacen la ecuación diofántica lineal

La fórmula se puede reescribir en términos de polinomios de Bell completos de argumentos como

Esto se describe con más detalle en el método Cayley-Hamilton .

Descomposición propia

Si la matriz A se puede descomponer automáticamente, y si ninguno de sus valores propios es cero, entonces A es invertible y su inversa está dada por

donde Q es la matriz cuadrada ( N × N ) cuya i ésima columna es el vector propio de A , y Λ es la matriz diagonal cuyas entradas diagonales son los valores propios correspondientes, es decir, si A es simétrica, se garantiza que Q es una matriz ortogonal , por lo tanto Además, debido a que Λ es una matriz diagonal, su inversa es fácil de calcular:

Descomposición de Cholesky

Si la matriz A es definida positiva , entonces su inversa se puede obtener como

donde L es la descomposición triangular inferior de Cholesky de A , y L * denota la transpuesta conjugada de L .

Solución analítica

Escribir la transpuesta de la matriz de cofactores , conocida como matriz adjunta , también puede ser una forma eficiente de calcular la inversa de matrices pequeñas , pero este método recursivo es ineficiente para matrices grandes. Para determinar la inversa, calculamos una matriz de cofactores:

de modo que

donde | A | es el determinante de A , C es la matriz de cofactores y C T representa la matriz transpuesta .

Inversión de matrices 2 × 2

La ecuación de cofactores mencionada anteriormente arroja el siguiente resultado para matrices de 2 × 2. La inversión de estas matrices se puede realizar de la siguiente manera: [8]

Esto es posible porque 1/( adbc ) es el recíproco del determinante de la matriz en cuestión, y la misma estrategia podría usarse para otros tamaños de matriz.

El método Cayley-Hamilton proporciona

Inversión de matrices 3 × 3

Una inversión de matriz 3 × 3 computacionalmente eficiente está dada por

(donde el escalar A no debe confundirse con la matriz A ).

Si el determinante no es cero, la matriz es invertible, y las entradas de la matriz intermedia del lado derecho de arriba están dadas por

El determinante de A se puede calcular aplicando la regla de Sarrus de la siguiente manera:

La descomposición de Cayley-Hamilton da

La inversa general de 3 × 3 se puede expresar de manera concisa en términos del producto vectorial y el producto triple . Si una matriz (que consta de tres vectores columna, , , y ) es invertible, su inversa está dada por

El determinante de A , det( A ) , es igual al triple producto de x 0 , x 1 y x 2 —el volumen del paralelepípedo formado por las filas o columnas:

La exactitud de la fórmula se puede comprobar utilizando las propiedades de producto cruzado y triple y observando que, para los grupos, las inversas izquierda y derecha siempre coinciden. Intuitivamente, debido a los productos cruzados, cada fila de A –1 es ortogonal a las dos columnas no correspondientes de A (lo que hace que los términos fuera de la diagonal de sean cero). Dividiendo por

hace que las entradas diagonales de I = A −1 A sean la unidad. Por ejemplo, la primera diagonal es:

Inversión de matrices 4 × 4

A medida que aumenta la dimensión, las expresiones para la inversa de A se complican. Para n = 4 , el método de Cayley-Hamilton conduce a una expresión que todavía es manejable:

Inversión por bloques

Las matrices también se pueden invertir en bloques utilizando la siguiente fórmula de inversión analítica: [9]

donde A , B , C y D son subbloques matriciales de tamaño arbitrario. ( A debe ser cuadrado, para que pueda invertirse. Además, A y DCA −1 B deben ser no singulares. [10] ) Esta estrategia es particularmente ventajosa si A es diagonal y DCA −1 B (el complemento de Schur de A ) es una matriz pequeña, ya que son las únicas matrices que requieren inversión.

Esta técnica fue reinventada varias veces y se debe a Hans Boltz (1923), [ cita requerida ] quien la utilizó para la inversión de matrices geodésicas , y a Tadeusz Banachiewicz (1937), quien la generalizó y demostró su corrección.

El teorema de nulidad dice que la nulidad de A es igual a la nulidad del subbloque en la parte inferior derecha de la matriz inversa, y que la nulidad de B es igual a la nulidad del subbloque en la parte superior derecha de la matriz inversa.

El procedimiento de inversión que condujo a la ecuación ( 1 ) realizó operaciones de bloques de matriz que operaron primero sobre C y D. En cambio, si se opera primero sobre A y B , y siempre que D y ABD −1 C no sean singulares, [11] el resultado es

Igualando las ecuaciones ( 1 ) y ( 2 ) se llega a

donde la ecuación ( 3 ) es la matriz identidad de Woodbury , que es equivalente al teorema del inverso binomial .

Si A y D son ambas invertibles, entonces las dos matrices de bloques inversas anteriores se pueden combinar para proporcionar la factorización simple

Por la identidad de Weinstein-Aronszajn , una de las dos matrices en la matriz diagonal de bloques es invertible exactamente cuando la otra lo es.

Esta fórmula se simplifica significativamente cuando la matriz de bloques superior derecha B es la matriz cero . Esta formulación es útil cuando las matrices A y D tienen fórmulas inversas relativamente simples (o pseudoinversas en el caso en que los bloques no sean todos cuadrados). En este caso especial, la fórmula de inversión de la matriz de bloques establecida con total generalidad anteriormente se convierte en

Si la matriz invertible dada es una matriz simétrica con bloque invertible A, se cumple la siguiente fórmula de bloque inverso [12]

donde . Esto requiere 2 inversiones de las matrices de tamaño medio A y S y solo 4 multiplicaciones de matrices de tamaño medio, si se organizan adecuadamente junto con algunas adiciones, sustracciones, negaciones y transposiciones de complejidad despreciable. Cualquier matriz tiene asociada una matriz semidefinida positiva, simétrica , que es exactamente invertible (y definida positiva), si y solo si es invertible. Al escribir la inversión de matrices se puede reducir a invertir matrices simétricas y 2 multiplicaciones de matrices adicionales, porque la matriz definida positiva satisface la condición de invertibilidad para su bloque superior izquierdo A .

Estas fórmulas juntas permiten construir un algoritmo de divide y vencerás que utiliza la inversión por bloques de matrices simétricas asociadas para invertir una matriz con la misma complejidad temporal que el algoritmo de multiplicación de matrices que se utiliza internamente. [12] La investigación sobre la complejidad de la multiplicación de matrices muestra que existen algoritmos de multiplicación de matrices con una complejidad de O ( n 2.371552 ) operaciones, mientras que el límite inferior mejor probado es Ω ( n 2 log n ) . [13]

Por la serie Neumann

Si una matriz A tiene la propiedad de que

Entonces A no es singular y su inversa puede expresarse mediante una serie de Neumann : [14]

Al truncar la suma se obtiene una inversa "aproximada" que puede ser útil como precondicionador . Nótese que una serie truncada se puede acelerar exponencialmente si se observa que la serie de Neumann es una suma geométrica . Como tal, satisface

.

Por lo tanto, solo se necesitan 2 L − 2 multiplicaciones de matrices para calcular 2 L términos de la suma.

De manera más general, si A está "cerca" de la matriz invertible X en el sentido de que

entonces A no es singular y su inversa es

Si también es el caso que AX tiene rango 1 entonces esto se simplifica a

pag-aproximación ádica

Si A es una matriz con entradas enteras o racionales y buscamos una solución en racionales de precisión arbitraria , entonces un método de aproximación p -ádica converge a una solución exacta en O( n 4 log 2 n ) , suponiendo que se utiliza la multiplicación de matrices estándar O( n 3 ) . [15] El método se basa en la resolución de n sistemas lineales a través del método de aproximación p -ádica de Dixon (cada uno en O( n 3 log 2 n ) ) y está disponible como tal en software especializado en operaciones matriciales de precisión arbitraria, por ejemplo, en IML. [16]

Método de vectores de base recíprocos

Dada una matriz cuadrada de n × n , , con n filas interpretadas como n vectores ( se supone la suma de Einstein ) donde son una base ortonormal estándar del espacio euclidiano ( ), entonces, utilizando el álgebra de Clifford (o álgebra geométrica ) calculamos los vectores columna recíprocos (a veces llamados duales ):

como las columnas de la matriz inversa Nótese que, el lugar " " indica que " " se elimina de ese lugar en la expresión anterior para . Entonces tenemos , donde es el delta de Kronecker . También tenemos , como se requiere. Si los vectores no son linealmente independientes, entonces y la matriz no es invertible (no tiene inversa).

Derivada de la matriz inversa

Supongamos que la matriz invertible A depende de un parámetro t . Entonces la derivada de la inversa de A con respecto a t está dada por [17]

Para derivar la expresión anterior para la derivada de la inversa de A , se puede diferenciar la definición de la matriz inversa y luego resolver para la inversa de A :

Restando ambos lados de lo anterior y multiplicando a la derecha por se obtiene la expresión correcta para la derivada de la inversa:

De manera similar, si es un número pequeño entonces

De manera más general, si

entonces,

Dado un entero positivo ,

Por lo tanto,

Inversa generalizada

Algunas de las propiedades de las matrices inversas son compartidas por las inversas generalizadas (por ejemplo, la inversa de Moore-Penrose ), que se pueden definir para cualquier matriz m por n . [18]

Aplicaciones

Para la mayoría de aplicaciones prácticas, no es necesario invertir una matriz para resolver un sistema de ecuaciones lineales ; sin embargo, para obtener una solución única, es necesario que la matriz involucrada sea invertible.

Las técnicas de descomposición como la descomposición LU son mucho más rápidas que la inversión, y también se han desarrollado varios algoritmos rápidos para clases especiales de sistemas lineales.

Regresión/mínimos cuadrados

Aunque no es necesario un inverso explícito para estimar el vector de incógnitas, la forma más sencilla de estimar su precisión es mediante la diagonal de una matriz inversa (la matriz de covarianza posterior del vector de incógnitas). Sin embargo, en muchos casos se conocen algoritmos más rápidos para calcular solo las entradas diagonales de una matriz inversa. [19]

Inversas de matrices en simulaciones en tiempo real

La inversión de matrices desempeña un papel importante en los gráficos por ordenador , en particular en la representación de gráficos 3D y las simulaciones 3D. Entre los ejemplos se incluyen la proyección de rayos de pantalla a mundo , las transformaciones de objetos de mundo a subespacio a mundo y las simulaciones físicas.

Inversiones de matrices en comunicaciones inalámbricas MIMO

La inversión de matriz también desempeña un papel importante en la tecnología MIMO (Multiple-Input, Multiple-Output) en las comunicaciones inalámbricas . El sistema MIMO consta de N antenas de transmisión y M antenas de recepción. Las señales únicas, que ocupan la misma banda de frecuencia , se envían a través de N antenas de transmisión y se reciben a través de M antenas de recepción. La señal que llega a cada antena de recepción será una combinación lineal de las N señales transmitidas que forman una matriz de transmisión H de N  ×  M. Es crucial que la matriz H sea invertible para que el receptor pueda descifrar la información transmitida.

Véase también

Referencias

  1. ^ Axler, Sheldon (18 de diciembre de 2014). Álgebra lineal bien hecha . Textos de pregrado en matemáticas (3.ª ed.). Springer Publishing (publicado en 2015). pág. 296. ISBN 978-3-319-11079-0.
  2. ^ J.-S. Roger Jang (marzo de 2001). "Matriz inversa en forma de bloque".
  3. ^ Weisstein, Eric W. "Teorema de la matriz invertible". mathworld.wolfram.com . Consultado el 8 de septiembre de 2020 .
  4. ^ Horn, Roger A.; Johnson, Charles R. (1985). Análisis de matrices . Cambridge University Press . pág. 14. ISBN. 978-0-521-38632-6..
  5. ^ Pan, Victor; Reif, John (1985), Solución paralela eficiente de sistemas lineales , Actas del 17.º Simposio anual de la ACM sobre teoría de la computación, Providence: ACM
  6. ^ Pan, Victor; Reif, John (1985), Centro de Investigación en Tecnología Informática de la Universidad de Harvard, Informe TR-02-85 , Cambridge, MA: Laboratorio de Computación de Aiken
  7. ^ Se puede encontrar una prueba en el Apéndice B de Kondratyuk, LA; Krivoruchenko, MI (1992). "Materia de quarks superconductores en el grupo de colores SU (2)". Zeitschrift für Physik A. 344 (1): 99-115. Código Bib : 1992ZPhyA.344...99K. doi :10.1007/BF01291027. S2CID  120467300.
  8. ^ Strang, Gilbert (2003). Introducción al álgebra lineal (3.ª ed.). SIAM. pág. 71. ISBN 978-0-9614088-9-3., Capítulo 2, página 71
  9. ^ Tzon-Tzer, Lu; Sheng-Hua, Shiou (2002). "Inversas de matrices de bloques 2 × 2". Computadoras y matemáticas con aplicaciones . 43 (1–2): 119–129. doi :10.1016/S0898-1221(01)00278-4.
  10. ^ Bernstein, Dennis (2005). Matemáticas matriciales . Princeton University Press. pág. 44. ISBN 978-0-691-11802-4.
  11. ^ Bernstein, Dennis (2005). Matemáticas matriciales . Princeton University Press. pág. 45. ISBN 978-0-691-11802-4.
  12. ^ ab TH Cormen, CE Leiserson, RL Rivest, C. Stein, Introducción a los algoritmos , 3.ª ed., MIT Press, Cambridge, MA, 2009, §28.2.
  13. ^ Ran Raz . Sobre la complejidad del producto matricial. En Actas del trigésimo cuarto simposio anual de la ACM sobre teoría de la computación. ACM Press, 2002. doi :10.1145/509907.509932.
  14. ^ Stewart, Gilbert (1998). Algoritmos matriciales: descomposiciones básicas . SIAM. p. 55. ISBN 978-0-89871-414-2.
  15. ^ Haramoto, H.; Matsumoto, M. (2009). "Un algoritmo p-ádico para calcular la inversa de matrices enteras". Revista de Matemática Computacional y Aplicada . 225 (1): 320–322. Bibcode :2009JCoAM.225..320H. doi : 10.1016/j.cam.2008.07.044 .
  16. ^ "IML - Biblioteca de matrices enteras". cs.uwaterloo.ca . Consultado el 14 de abril de 2018 .
  17. ^ Magnus, Jan R.; Neudecker, Heinz (1999). Cálculo diferencial de matrices: con aplicaciones en estadística y econometría (edición revisada). Nueva York: John Wiley & Sons. págs. 151-152. ISBN 0-471-98633-X.
  18. ^ Roman, Stephen (2008), Álgebra lineal avanzada , Textos de posgrado en matemáticas (tercera edición), Springer, pág. 446, ISBN 978-0-387-72828-5.
  19. ^ Lin, Lin; Lu, Jianfeng; Ying, Lexing; Car, Roberto; E, Weinan (2009). "Algoritmo rápido para extraer la diagonal de la matriz inversa con aplicación al análisis de la estructura electrónica de sistemas metálicos". Communications in Mathematical Sciences . 7 (3): 755–777. doi : 10.4310/CMS.2009.v7.n3.a12 .

Lectura adicional

Enlaces externos