stringtranslate.com

matriz reversible

En álgebra lineal , una matriz A cuadrada de n por n se llama invertible (también no singular , no degenerada o rara vez regular ) si existe una matriz B cuadrada de n por n tal que

In denotamatriz identidad nnla multiplicación de matrices[1]BAinversa (multiplicativa)AA −1La inversión de matrices[ cita necesaria ]

Sobre un campo , una matriz cuadrada que no es invertible se llama singular o degenerada . Una matriz cuadrada con entradas en un campo es singular si y sólo si su determinante es cero. Las matrices singulares son raras en el sentido de que si las entradas de una matriz cuadrada se seleccionan aleatoriamente de cualquier región acotada en la recta numérica o en el plano complejo , la probabilidad de que la matriz sea singular es 0, es decir, "casi nunca" será singular. Las matrices no cuadradas, es decir, matrices m por n para las cuales mn , no tienen inversa. Sin embargo, en algunos casos dicha matriz puede tener una inversa izquierda o una inversa derecha . Si A es m -por- n y el rango de A es igual a n , ( nm ), entonces A tiene una inversa izquierda, una matriz B de n -por- m tal que BA = I n . Si A tiene rango m ( mn ), entonces tiene una inversa derecha, una matriz B de n por m tal que AB = I m .

Si bien el caso más común es el de matrices sobre números reales o complejos , todas estas definiciones pueden darse para matrices sobre cualquier estructura algebraica equipada con suma y multiplicación (es decir, anillos ). Sin embargo, en el caso de que un anillo sea conmutativo , la condición para que una matriz cuadrada sea invertible es que su determinante sea invertible en el anillo, lo que en general es un requisito más estricto que el de que sea distinto de cero. Para un anillo no conmutativo , el determinante habitual no está definido. Las condiciones para la existencia de inversa a la izquierda o inversa a la derecha son más complicadas, ya que no existe una noción de rango sobre los anillos.

El conjunto de matrices invertibles n × n junto con la operación de multiplicación de matrices y las entradas del anillo R forman un grupo , el grupo lineal general de grado n , denotado GL n ( R ) .

Propiedades

El teorema de la matriz invertible

Sea A una matriz cuadrada de n por n sobre un campo K (por ejemplo, el campo de los números reales). Las siguientes afirmaciones son equivalentes, es decir, son todas verdaderas o todas falsas para cualquier matriz dada: [2]

Otras propiedades

Además, las siguientes propiedades son válidas para una matriz invertible A :

Las filas de la matriz inversa V de una matriz U son ortonormales a las columnas de U (y viceversa intercambiando filas por columnas). Para ver esto, supongamos que UV = VU = I donde las filas de V se denotan como y las columnas de U como Entonces , claramente, el producto interno euclidiano de dos cualesquiera. Esta propiedad también puede ser útil para construir la inversa de una matriz cuadrada. en algunos casos, donde se conoce un conjunto de vectores ortogonales (pero no necesariamente vectores ortonormales) a las columnas de U. En cuyo caso, se puede aplicar el proceso iterativo de Gram-Schmidt a este conjunto inicial para determinar las filas de la V inversa .

Una matriz que es su propia inversa (es decir, una matriz A tal que A = A −1 y, en consecuencia, A 2 = I ), se llama matriz involutiva .

En relación con su adjunto

El conjugado de una matriz A se puede utilizar para encontrar la inversa de A de la siguiente manera:

Si A es una matriz invertible, entonces

En relación a la matriz identidad

De la asociatividad de la multiplicación de matrices se deduce que si

para matrices cuadradas finitas A y B , entonces también

[3]

Densidad

Sobre el cuerpo de los números reales, el conjunto de matrices singulares n -por- n , consideradas como un subconjunto de es un conjunto nulo , es decir, tiene medida de Lebesgue cero . Esto es cierto porque las matrices singulares son las raíces de la función determinante . Esta es una función continua porque es un polinomio en las entradas de la matriz. Así, en el lenguaje de la teoría de la medida , casi todas las matrices de n por n son invertibles.

Además, las matrices invertibles de n por n son un conjunto denso y abierto en el espacio topológico de todas las matrices de n por n . De manera equivalente, el conjunto de matrices singulares es cerrado y en ninguna parte denso en el espacio de n -por- n matrices.

Sin embargo, en la práctica, es posible encontrar matrices no invertibles. Y en los cálculos numéricos , las matrices que son invertibles, pero cercanas a una matriz no invertible, aún pueden resultar problemáticas; Se dice que tales matrices están mal condicionadas .

Ejemplos

Un ejemplo con rango de n − 1 es una matriz no invertible

Podemos ver que el rango de esta matriz de 2 por 2 es 1, que es n − 1 ≠ n , por lo que no es invertible.

Considere la siguiente matriz de 2 por 2:

La matriz es invertible. Para comprobar esto, se puede calcular eso , que es distinto de cero.

Como ejemplo de una matriz no invertible o singular, considere la matriz

El determinante de es 0, que es una condición necesaria y suficiente para que una matriz no sea invertible.

Métodos de inversión de matrices.

eliminación gaussiana

La eliminación gaussiana es una forma útil y sencilla de calcular la inversa de una matriz. Para calcular una matriz inversa usando este método, primero se crea una matriz aumentada donde el lado izquierdo es la matriz a invertir y el lado derecho es la matriz identidad . Luego, se utiliza la eliminación gaussiana para convertir el lado izquierdo en la matriz identidad, lo que hace que el lado derecho se convierta en el inverso de la matriz de entrada.

Por ejemplo, tome la siguiente matriz:

El primer paso para calcular su inversa es crear la matriz aumentada.

Llame a la primera fila de esta matriz y a la segunda fila . Luego, agregue la fila 1 a la fila 2. Esto produce

Luego, reste la fila 2, multiplicada por 3, de la fila 1, lo que da como resultado

Finalmente, multiplica la fila 1 por −1 y la fila 2 por 2. Esto produce la matriz identidad en el lado izquierdo y la matriz inversa en el derecho:

De este modo,

La razón por la que funciona es que el proceso de eliminación gaussiana se puede ver como una secuencia de aplicar la multiplicación de matrices por la izquierda usando operaciones de fila elemental usando matrices elementales ( ), como

Aplicando la multiplicación por la derecha obtenemos Y el lado derecho , que es el inverso que queremos.

Para obtenerlo creamos la matriz aumentada combinando A con I y aplicando eliminación gaussiana . Las dos porciones se transformarán utilizando la misma secuencia de operaciones elementales de fila. Cuando la parte izquierda se convierte en I , la parte derecha a la que se le aplica la misma secuencia de operación de fila elemental se convertirá en A −1 .

El método de Newton

Una generalización del método de Newton tal como se utiliza para un algoritmo inverso multiplicativo puede ser conveniente, si es conveniente encontrar una semilla inicial adecuada:

Victor Pan y John Reif han realizado trabajos que incluyen formas de generar una semilla inicial. [4] [5]

El método de Newton es particularmente útil cuando se trata de familias de matrices relacionadas que se comportan bastante como la secuencia fabricada para la homotopía anterior: a veces un buen punto de partida para refinar una aproximación para la nueva inversa puede ser la inversa ya obtenida de una matriz anterior que casi coincide. la matriz actual, por ejemplo, el par de secuencias de matrices inversas utilizadas para obtener raíces cuadradas matriciales mediante la iteración de Denman-Beavers ; esto puede necesitar más de una pasada de iteración en cada nueva matriz, si no están lo suficientemente juntas como para que una sola sea suficiente. El método de Newton también es útil para "retocar" correcciones del algoritmo de Gauss-Jordan que ha sido contaminado por pequeños errores debido a una aritmética informática imperfecta .

Método Cayley-Hamilton

El teorema de Cayley-Hamilton permite expresar la inversa de A en términos de det( A ) , trazas y potencias de A : [6]

donde n es el tamaño de A y tr( A ) es la traza de la matriz A dada por la suma de la diagonal principal . La suma se toma sobre s y los conjuntos de todos los que satisfacen la ecuación lineal diofántica.

La fórmula se puede reescribir en términos de polinomios de argumentos de Bell completos como

Esto se describe con más detalle en el método Cayley-Hamilton .

Descomposición propia

Si la matriz A se puede descomponer automáticamente y ninguno de sus valores propios es cero, entonces A es invertible y su inversa viene dada por

donde Q es la matriz cuadrada ( N × N ) cuya i- ésima columna es el vector propio de A , y Λ es la matriz diagonal cuyas entradas diagonales son los valores propios correspondientes, es decir, si A es simétrico, se garantiza que Q será ortogonal matriz , por lo tanto Además, debido a que Λ es una matriz diagonal, su inversa es fácil de calcular:

Descomposición de Cholesky

Si la matriz A es definida positiva , entonces su inversa se puede obtener como

donde L es la descomposición triangular inferior de Cholesky de A , y L * denota la transpuesta conjugada de L.

Solución analítica

Escribir la transpuesta de la matriz de cofactores , conocida como matriz adjunta , también puede ser una forma eficiente de calcular la inversa de matrices pequeñas , pero este método recursivo es ineficiente para matrices grandes. Para determinar la inversa, calculamos una matriz de cofactores:

de modo que

donde | Un | es el determinante de A , C es la matriz de cofactores y C T representa la transpuesta de la matriz .

Inversión de matrices 2 × 2

La ecuación de cofactor enumerada anteriormente produce el siguiente resultado para matrices de 2 × 2 . La inversión de estas matrices se puede realizar de la siguiente manera: [7]

Esto es posible porque 1/( adbc ) es el recíproco del determinante de la matriz en cuestión, y la misma estrategia podría usarse para otros tamaños de matriz.

El método Cayley-Hamilton da

Inversión de matrices 3 × 3

Una inversión de matriz 3 × 3 computacionalmente eficiente viene dada por

(donde el escalar A no debe confundirse con la matriz A ).

Si el determinante es distinto de cero, la matriz es invertible, con las entradas de la matriz intermedia en el lado derecho arriba dadas por

El determinante de A se puede calcular aplicando la regla de Sarrus de la siguiente manera:

La descomposición de Cayley-Hamilton da

El inverso general de 3 × 3 se puede expresar de manera concisa en términos del producto cruzado y del producto triple . Si una matriz (que consta de tres vectores columna, , y ) es invertible, su inversa viene dada por

El determinante de A , det( A ) , es igual al triple producto de x 0 , x 1 y x 2 —el volumen del paralelepípedo formado por las filas o columnas:

La exactitud de la fórmula se puede comprobar utilizando las propiedades de los productos cruzados y triples y observando que, para los grupos, las inversas izquierda y derecha siempre coinciden. Intuitivamente, debido a los productos cruzados, cada fila de A –1 es ortogonal a las dos columnas no correspondientes de A (lo que hace que los términos fuera de la diagonal de sean cero). Dividiendo por

hace que las entradas diagonales de I = A −1 A sean la unidad. Por ejemplo, la primera diagonal es:

Inversión de matrices 4 × 4

A medida que aumenta la dimensión, las expresiones para la inversa de A se complican. Para n = 4 , el método Cayley-Hamilton conduce a una expresión que aún es manejable:

Inversión en bloque

Las matrices también se pueden invertir en bloques utilizando la siguiente fórmula de inversión analítica: [8]

donde A , B , C y D son subbloques matriciales de tamaño arbitrario. ( A debe ser cuadrado para que pueda invertirse. Además, A y DCA −1 B deben ser no singulares. [9] ) Esta estrategia es particularmente ventajosa si A es diagonal y DCA −1 B (el modelo de Schur complemento de A ) es una matriz pequeña, ya que son las únicas matrices que requieren inversión.

Esta técnica fue reinventada varias veces y se debe a Hans Boltz (1923), [ cita necesaria ] quien la utilizó para la inversión de matrices geodésicas , y Tadeusz Banachiewicz (1937), quien la generalizó y demostró su corrección.

El teorema de nulidad dice que la nulidad de A es igual a la nulidad del subbloque en la parte inferior derecha de la matriz inversa, y que la nulidad de B es igual a la nulidad del subbloque en la parte superior derecha de la matriz inversa.

El procedimiento de inversión que condujo a la ecuación ( 1 ) realizó operaciones de bloques matriciales que operaron primero en C y D. En cambio, si A y B se operan primero, y siempre que D y ABD −1 C sean no singulares, [10] el resultado es

La equiparación de las ecuaciones ( 1 ) y ( 2 ) conduce a

donde la ecuación ( 3 ) es la identidad de la matriz de Woodbury , que es equivalente al teorema inverso del binomio .

Si A y D son invertibles, entonces las dos matrices inversas de bloques anteriores se pueden combinar para proporcionar la factorización simple

Según la identidad de Weinstein-Aronszajn , una de las dos matrices en la matriz diagonal de bloques es invertible exactamente cuando la otra lo es.

Esta fórmula se simplifica significativamente cuando la matriz B del bloque superior derecho es la matriz cero . Esta formulación es útil cuando las matrices A y D tienen fórmulas inversas relativamente simples (o pseudoinversas en el caso en que los bloques no son todos cuadrados). En este caso especial, la fórmula de inversión de la matriz de bloques establecida con total generalidad anteriormente se convierte en

Si la matriz invertible dada es una matriz simétrica con el bloque invertible A, se cumple la siguiente fórmula inversa del bloque [11]

dónde . Esto requiere 2 inversiones de las matrices de tamaño medio A y S y sólo 4 multiplicaciones de matrices de tamaño medio, si se organizan adecuadamente junto con algunas sumas, restas, negaciones y transposiciones de complejidad insignificante. Cualquier matriz tiene asociada una matriz simétrica semidefinida positiva , que es exactamente invertible (y definida positiva), si y sólo si es invertible. Al escribir, la inversión de matrices se puede reducir a invertir matrices simétricas y 2 multiplicaciones de matrices adicionales, porque la matriz definida positiva satisface la condición de invertibilidad para su bloque superior izquierdo A.

Estas fórmulas juntas permiten construir un algoritmo de divide y vencerás que utiliza la inversión en bloques de matrices simétricas asociadas para invertir una matriz con la misma complejidad temporal que el algoritmo de multiplicación de matrices que se utiliza internamente. [11] La investigación sobre la complejidad de la multiplicación de matrices muestra que existen algoritmos de multiplicación de matrices con una complejidad de operaciones O ( n 2,371552 ) , mientras que el límite inferior mejor probado es Ω ( n 2 log n ) . [12]

Por la serie Neumann

Si una matriz A tiene la propiedad de que

entonces A es no singular y su inversa puede expresarse mediante una serie de Neumann : [13]

Truncar la suma da como resultado un inverso "aproximado" que puede ser útil como precondicionador . Tenga en cuenta que una serie truncada se puede acelerar exponencialmente si observa que la serie de Neumann es una suma geométrica . Como tal, satisface

.

Por lo tanto, sólo se necesitan 2 L − 2 multiplicaciones de matrices para calcular 2 L términos de la suma.

De manera más general, si A está "cerca" de la matriz invertible X en el sentido de que

entonces A es no singular y su inversa es

Si también se da el caso de que AX tiene rango 1, entonces esto se simplifica a

aproximación p -ádica

Si A es una matriz con entradas enteras o racionales y buscamos una solución en racionales de precisión arbitraria , entonces un método de aproximación p -ádica converge a una solución exacta en O( n 4 log 2 n ) , suponiendo que el estándar O( n 3 ) Se utiliza la multiplicación de matrices. [14] El método se basa en resolver n sistemas lineales mediante el método de aproximación p -ádica de Dixon (cada uno en O( n 3 log 2 n ) ) y está disponible como tal en software especializado en operaciones matriciales de precisión arbitraria, por ejemplo, en IML. [15]

Método de vectores de base recíproca

Dada una matriz cuadrada de n × n , con n filas interpretadas como n vectores ( se supone la suma de Einstein ) donde son una base ortonormal estándar del espacio euclidiano ( ), luego, usando el álgebra de Clifford (o álgebra geométrica ), calculamos el recíproco (a veces llamado vectores de columna duales :

como las columnas de la matriz inversa. Tenga en cuenta que el lugar " " indica que " " se elimina de ese lugar en la expresión anterior para . Entonces tenemos dónde está el delta del Kronecker . También tenemos , según sea necesario. Si los vectores no son linealmente independientes, entonces la matriz no es invertible (no tiene inversa).

Derivada de la matriz inversa

Supongamos que la matriz invertible A depende de un parámetro t . Entonces la derivada de la inversa de A con respecto a t viene dada por [16]

Para derivar la expresión anterior para la derivada de la inversa de A , se puede diferenciar la definición de la matriz inversa y luego resolver para la inversa de A :

Restar de ambos lados de lo anterior y multiplicar a la derecha por da la expresión correcta para la derivada de la inversa:

De manera similar, si es un número pequeño entonces

De manera más general, si

entonces,

Dado un número entero positivo ,

Por lo tanto,

Inversa generalizada

Algunas de las propiedades de las matrices inversas son compartidas por inversas generalizadas (por ejemplo, la inversa de Moore-Penrose ), que se pueden definir para cualquier m -por- n matriz. [17]

Aplicaciones

Para la mayoría de las aplicaciones prácticas, no es necesario invertir una matriz para resolver un sistema de ecuaciones lineales ; sin embargo, para una solución única, es necesario que la matriz involucrada sea invertible.

Las técnicas de descomposición, como la descomposición LU , son mucho más rápidas que la inversión y también se han desarrollado varios algoritmos rápidos para clases especiales de sistemas lineales.

Regresión/mínimos cuadrados

Aunque no es necesario un inverso explícito para estimar el vector de incógnitas, es la forma más sencilla de estimar su precisión, que se encuentra en la diagonal de una matriz inversa (la matriz de covarianza posterior del vector de incógnitas). Sin embargo, en muchos casos se conocen algoritmos más rápidos para calcular solo las entradas diagonales de una matriz inversa. [18]

Inversos de matrices en simulaciones en tiempo real

La inversión de matrices juega un papel importante en los gráficos por computadora , particularmente en la representación de gráficos 3D y simulaciones 3D. Los ejemplos incluyen la transmisión de rayos de pantalla a mundo , transformaciones de objetos de mundo a subespacio a mundo y simulaciones físicas.

Matrix inversa en comunicación inalámbrica MIMO

La inversión de matriz también juega un papel importante en la tecnología MIMO (entrada múltiple, salida múltiple) en las comunicaciones inalámbricas . El sistema MIMO consta de N antenas de transmisión y M de recepción. Las señales únicas, que ocupan la misma banda de frecuencia , se envían a través de N antenas de transmisión y se reciben a través de M antenas de recepción. La señal que llega a cada antena receptora será una combinación lineal de las N señales transmitidas formando una matriz de transmisión H N  ×  M. Es crucial que la matriz H sea invertible para que el receptor pueda descifrar la información transmitida.

Ver también

Referencias

  1. ^ Axler, Sheldon (18 de diciembre de 2014). Álgebra lineal bien hecha . Textos de Pregrado en Matemáticas (3ª ed.). Publicación Springer (publicado en 2015). pag. 296.ISBN​ 978-3-319-11079-0.
  2. ^ Weisstein, Eric W. "Teorema de la matriz invertible". mathworld.wolfram.com . Consultado el 8 de septiembre de 2020 .
  3. ^ Cuerno, Roger A.; Johnson, Charles R. (1985). Análisis matricial . Prensa de la Universidad de Cambridge . pag. 14.ISBN 978-0-521-38632-6..
  4. ^ Pan, Víctor; Reif, John (1985), Solución paralela eficiente de sistemas lineales , Actas del 17º Simposio anual ACM sobre teoría de la computación, Providence: ACM
  5. ^ Pan, Víctor; Reif, John (1985), Informe TR-02-85 del Centro de Investigación en Tecnología Informática de la Universidad de Harvard , Cambridge, MA: Aiken Computation Laboratory
  6. ^ Se puede encontrar una prueba en el Apéndice B de Kondratyuk, LA; Krivoruchenko, MI (1992). "Materia de quarks superconductores en el grupo de colores SU (2)". Zeitschrift für Physik A. 344 (1): 99-115. Código Bib : 1992ZPhyA.344...99K. doi :10.1007/BF01291027. S2CID  120467300.
  7. ^ Strang, Gilbert (2003). Introducción al álgebra lineal (3ª ed.). SIAM. pag. 71.ISBN 978-0-9614088-9-3., Capítulo 2, página 71
  8. ^ Tzon-Tzer, Lu; Sheng-Hua, Shiou (2002). "Inversas de matrices de bloques de 2 × 2". Computadoras y Matemáticas con Aplicaciones . 43 (1–2): 119–129. doi :10.1016/S0898-1221(01)00278-4.
  9. ^ Bernstein, Dennis (2005). Matemáticas matriciales . Prensa de la Universidad de Princeton. pag. 44.ISBN 978-0-691-11802-4.
  10. ^ Bernstein, Dennis (2005). Matemáticas matriciales . Prensa de la Universidad de Princeton. pag. 45.ISBN 978-0-691-11802-4.
  11. ^ ab TH Cormen, CE Leiserson, RL Rivest, C. Stein, Introducción a los algoritmos , 3.ª ed., MIT Press, Cambridge, MA, 2009, §28.2.
  12. ^ Ran Raz . Sobre la complejidad del producto matricial. En Actas del trigésimo cuarto simposio anual de ACM sobre Teoría de la informática. Prensa ACM, 2002. doi :10.1145/509907.509932.
  13. ^ Stewart, Gilbert (1998). Algoritmos matriciales: descomposiciones básicas . SIAM. pag. 55.ISBN 978-0-89871-414-2.
  14. ^ Haramoto, H.; Matsumoto, M. (2009). "Un algoritmo p-ádico para calcular la inversa de matrices enteras". Revista de Matemática Computacional y Aplicada . 225 (1): 320–322. Código Bib : 2009JCoAM.225..320H. doi : 10.1016/j.cam.2008.07.044 .
  15. ^ "IML - Biblioteca de matrices de enteros". cs.uwaterloo.ca . Consultado el 14 de abril de 2018 .
  16. ^ Magnus, enero R.; Neudecker, Heinz (1999). Cálculo diferencial matricial: con aplicaciones en estadística y econometría (edición revisada). Nueva York: John Wiley & Sons. págs. 151-152. ISBN 0-471-98633-X.
  17. ^ Roman, Stephen (2008), Álgebra lineal avanzada , Textos de posgrado en matemáticas (tercera ed.), Springer, p. 446, ISBN 978-0-387-72828-5.
  18. ^ Lin, Lin; Lu, Jianfeng; Ying, Lexing; Coche, Roberto; E, Weinan (2009). "Algoritmo rápido para la extracción de la diagonal de la matriz inversa con aplicación al análisis de estructuras electrónicas de sistemas metálicos". Comunicaciones en Ciencias Matemáticas . 7 (3): 755–777. doi : 10.4310/CMS.2009.v7.n3.a12 .

Otras lecturas

enlaces externos