Matriz que tiene una inversa multiplicativa
En álgebra lineal , una matriz invertible es una matriz cuadrada que tiene una inversa . En otras palabras, si se multiplica otra matriz por la matriz invertible, el resultado se puede multiplicar por una inversa para deshacer la operación. Las matrices invertibles tienen el mismo tamaño que su inversa.
Definición
Una matriz cuadrada A de n por n se denomina invertible (también no singular , no degenerada o raramente regular ) si existe una matriz cuadrada B de n por n tal que donde I n denota la matriz identidad de n por n y la multiplicación utilizada es la multiplicación de matrices ordinaria . [1] Si este es el caso, entonces la matriz B está determinada de forma única por A , y se denomina inversa (multiplicativa) de A , denotada por A −1 . La inversión de matrices es el proceso de encontrar la matriz que, cuando se multiplica por la matriz original, da la matriz identidad. [2]
Sobre un cuerpo , una matriz cuadrada que no es invertible se llama singular o degenerada . Una matriz cuadrada con entradas en un cuerpo es singular si y solo si su determinante es cero. Las matrices singulares son raras en el sentido de que si las entradas de una matriz cuadrada se seleccionan aleatoriamente de cualquier región acotada en la línea numérica o el plano complejo , la probabilidad de que la matriz sea singular es 0, es decir, "casi nunca" será singular. Las matrices no cuadradas, es decir, matrices m por n para las que m ≠ n , no tienen inversa. Sin embargo, en algunos casos, una matriz de este tipo puede tener una inversa izquierda o una inversa derecha . Si A es m por n y el rango de A es igual a n , ( n ≤ m ), entonces A tiene una inversa izquierda, una matriz n por m B tal que BA = I n . Si A tiene rango m ( m ≤ n ), entonces tiene una inversa derecha, una matriz B de n por m tal que AB = Im .
Si bien el caso más común es el de matrices sobre números reales o complejos , todas estas definiciones se pueden dar para matrices sobre cualquier estructura algebraica equipada con adición y multiplicación (es decir, anillos ). Sin embargo, en el caso de que un anillo sea conmutativo , la condición para que una matriz cuadrada sea invertible es que su determinante sea invertible en el anillo, lo que en general es un requisito más estricto que el de que sea distinto de cero. Para un anillo no conmutativo , el determinante habitual no está definido. Las condiciones para la existencia de inversa izquierda o inversa derecha son más complicadas, ya que no existe una noción de rango sobre anillos.
El conjunto de matrices invertibles n × n junto con la operación de multiplicación de matrices y las entradas del anillo R forman un grupo , el grupo lineal general de grado n , denotado GL n ( R ) .
Propiedades
El teorema de la matriz invertible
Sea A una matriz cuadrada de n por n sobre un cuerpo K (por ejemplo, el cuerpo de los números reales). Las siguientes afirmaciones son equivalentes, es decir, son todas verdaderas o todas falsas para cualquier matriz dada: [3]
- A es invertible, es decir, tiene una inversa en la multiplicación de matrices, es decir, existe una B tal que AB = I n = BA . (En este enunciado, "invertible" se puede reemplazar de manera equivalente por "invertible por la izquierda" o "invertible por la derecha", en los que se consideran inversas unilaterales).
- La transformación lineal que asigna x a Ax es invertible, es decir, tiene una función inversa bajo la composición de funciones. (Aquí, nuevamente, "invertible" puede reemplazarse de manera equivalente por "invertible por la izquierda" o "invertible por la derecha")
- La transpuesta AT es una matriz invertible.
- A es equivalente en filas a la matriz identidad n por n I n .
- A es equivalente en columna a lamatriz identidad n por n I n .
- A tiene n posiciones de pivote .
- A tiene rango completo: rango A = n .
- A tiene un núcleo trivial : ker( A ) = { 0 }.
- La transformación lineal que asigna x a Ax es biyectiva; es decir, la ecuación Ax = b tiene exactamente una solución para cada b en K n . (Aquí, "biyectiva" se puede reemplazar de manera equivalente por " inyectiva " o " sobreyectiva ")
- Las columnas de A forman una base de K n . (En esta afirmación, "base" se puede reemplazar de manera equivalente por "conjunto linealmente independiente" o "conjunto generador")
- Las filas de A forman una base de K n . (De manera similar, aquí, "base" se puede reemplazar de manera equivalente por "conjunto linealmente independiente" o "conjunto generador")
- El determinante de A es distinto de cero: det A ≠ 0. (En general, una matriz cuadrada sobre un anillo conmutativo es invertible si y solo si su determinante es una unidad (es decir, un elemento multiplicativamente invertible) de ese anillo.
- El número 0 no es un valor propio de A. (De manera más general, un número es un valor propio de A si la matriz es singular, donde I es la matriz identidad).
- La matriz A puede expresarse como un producto finito de matrices elementales .
Otras propiedades
Además, las siguientes propiedades se cumplen para una matriz invertible A :
- para un escalar k distinto de cero
- Si A tiene columnas ortonormales, donde + denota la inversa de Moore-Penrose y x es un vector
- Para cualquier matriz invertible n por n, A y B , de manera más general, si son matrices invertibles n por n , entonces
Las filas de la matriz inversa V de una matriz U son ortonormales a las columnas de U (y viceversa intercambiando filas por columnas). Para ver esto, supongamos que UV = VU = I donde las filas de V se denotan como y las columnas de U como para Entonces claramente, el producto interno euclidiano de cualesquiera dos Esta propiedad también puede ser útil para construir la inversa de una matriz cuadrada en algunos casos, donde se conoce un conjunto de vectores ortogonales (pero no necesariamente vectores ortonormales) a las columnas de U. En cuyo caso, se puede aplicar el proceso iterativo de Gram-Schmidt a este conjunto inicial para determinar las filas de la inversa V .
Una matriz que es su propia inversa (es decir, una matriz A tal que A = A −1 , y en consecuencia A 2 = I ), se denomina matriz involutiva .
En relación con su adjunto
El adjunto de una matriz A se puede utilizar para encontrar la inversa de A de la siguiente manera:
Si A es una matriz invertible, entonces
En relación a la matriz de identidad
De la asociatividad de la multiplicación de matrices se deduce que si
para matrices cuadradas finitas A y B , entonces también
- [4]
Densidad
En el campo de los números reales, el conjunto de matrices singulares n por n , consideradas como un subconjunto de es un conjunto nulo , es decir, tiene medida de Lebesgue cero. Esto es cierto porque las matrices singulares son las raíces de la función determinante . Esta es una función continua porque es un polinomio en las entradas de la matriz. Así, en el lenguaje de la teoría de la medida , casi todas las matrices n por n son invertibles.
Además, el conjunto de matrices invertibles n por n es abierto y denso en el espacio topológico de todas las matrices n por n. De manera equivalente, el conjunto de matrices singulares es cerrado y no es denso en ningún lugar del espacio de matrices n por n .
Sin embargo, en la práctica, se pueden encontrar matrices no invertibles. Y en los cálculos numéricos , las matrices que son invertibles, pero cercanas a una matriz no invertible, pueden seguir siendo problemáticas; se dice que dichas matrices están mal condicionadas .
Ejemplos
Un ejemplo con rango de n − 1 es una matriz no invertible
Podemos ver que el rango de esta matriz de 2 por 2 es 1, que es n − 1 ≠ n , por lo que no es invertible.
Considere la siguiente matriz de 2 por 2:
La matriz es invertible. Para comprobarlo, se puede calcular que , que no es cero.
Como ejemplo de una matriz no invertible o singular, considere la matriz
El determinante de es 0, lo cual es una condición necesaria y suficiente para que una matriz sea no invertible.
Métodos de inversión de matrices
Eliminación gaussiana
La eliminación gaussiana es una forma útil y sencilla de calcular la inversa de una matriz. Para calcular la inversa de una matriz con este método, primero se crea una matriz aumentada cuyo lado izquierdo es la matriz que se va a invertir y el lado derecho es la matriz identidad . Luego, se utiliza la eliminación gaussiana para convertir el lado izquierdo en la matriz identidad, lo que hace que el lado derecho se convierta en la inversa de la matriz de entrada.
Por ejemplo, tomemos la siguiente matriz:
El primer paso para calcular su inversa es crear la matriz aumentada
Llamamos a la primera fila de esta matriz y a la segunda fila . Luego, sumamos la fila 1 a la fila 2. Esto da como resultado
A continuación, resta la fila 2, multiplicada por 3, de la fila 1, lo que da como resultado
Por último, multiplica la fila 1 por −1 y la fila 2 por 2. Esto produce la matriz identidad en el lado izquierdo y la matriz inversa en el derecho:
De este modo,
La razón por la que funciona es que el proceso de eliminación gaussiana se puede ver como una secuencia de aplicación de la multiplicación de matrices izquierdas utilizando operaciones de fila elementales utilizando matrices elementales ( ), como
Aplicando la multiplicación por la derecha obtenemos Y el lado derecho que es el inverso que queremos.
Para obtener, creamos la matriz aumentada combinando A con I y aplicando la eliminación gaussiana . Las dos partes se transformarán utilizando la misma secuencia de operaciones elementales por filas. Cuando la parte izquierda se convierte en I , la parte derecha, a la que se le haya aplicado la misma secuencia de operaciones elementales por filas, se convertirá en A −1 .
El método de Newton
Puede resultar conveniente generalizar el método de Newton utilizado para un algoritmo inverso multiplicativo , si es conveniente encontrar una semilla inicial adecuada:
Victor Pan y John Reif han realizado trabajos que incluyen formas de generar una semilla inicial. [5] [6]
El método de Newton es particularmente útil cuando se trabaja con familias de matrices relacionadas que se comportan de manera bastante similar a la secuencia fabricada para la homotopía anterior: a veces un buen punto de partida para refinar una aproximación para la nueva inversa puede ser la inversa ya obtenida de una matriz anterior que casi coincide con la matriz actual, por ejemplo, el par de secuencias de matrices inversas utilizadas para obtener raíces cuadradas de matrices mediante la iteración de Denman-Beavers ; esto puede requerir más de una pasada de la iteración en cada nueva matriz, si no están lo suficientemente próximas entre sí para que una sola sea suficiente. El método de Newton también es útil para realizar correcciones de "retoque" al algoritmo de Gauss-Jordan que ha sido contaminado por pequeños errores debido a una aritmética informática imperfecta .
Método Cayley-Hamilton
El teorema de Cayley-Hamilton permite expresar la inversa de A en términos de det( A ) , trazas y potencias de A : [7]
donde n es el tamaño de A y tr( A ) es la traza de la matriz A dada por la suma de la diagonal principal . La suma se toma sobre s y los conjuntos de todos los que satisfacen la ecuación diofántica lineal
La fórmula se puede reescribir en términos de polinomios de Bell completos de argumentos como
Esto se describe con más detalle en el método Cayley-Hamilton .
Descomposición propia
Si la matriz A se puede descomponer automáticamente, y si ninguno de sus valores propios es cero, entonces A es invertible y su inversa está dada por
donde Q es la matriz cuadrada ( N × N ) cuya i ésima columna es el vector propio de A , y Λ es la matriz diagonal cuyas entradas diagonales son los valores propios correspondientes, es decir, si A es simétrica, se garantiza que Q es una matriz ortogonal , por lo tanto Además, debido a que Λ es una matriz diagonal, su inversa es fácil de calcular:
Descomposición de Cholesky
Si la matriz A es definida positiva , entonces su inversa se puede obtener como
donde L es la descomposición triangular inferior de Cholesky de A , y L * denota la transpuesta conjugada de L .
Solución analítica
Escribir la transpuesta de la matriz de cofactores , conocida como matriz adjunta , también puede ser una forma eficiente de calcular la inversa de matrices pequeñas , pero este método recursivo es ineficiente para matrices grandes. Para determinar la inversa, calculamos una matriz de cofactores:
de modo que
donde | A | es el determinante de A , C es la matriz de cofactores y C T representa la matriz transpuesta .
Inversión de matrices 2 × 2
La ecuación de cofactores mencionada anteriormente arroja el siguiente resultado para matrices de 2 × 2. La inversión de estas matrices se puede realizar de la siguiente manera: [8]
Esto es posible porque 1/( ad − bc ) es el recíproco del determinante de la matriz en cuestión, y la misma estrategia podría usarse para otros tamaños de matriz.
El método Cayley-Hamilton proporciona
Inversión de matrices 3 × 3
Una inversión de matriz 3 × 3 computacionalmente eficiente viene dada por
(donde el escalar A no debe confundirse con la matriz A ).
Si el determinante no es cero, la matriz es invertible, y las entradas de la matriz intermedia del lado derecho de arriba están dadas por
El determinante de A se puede calcular aplicando la regla de Sarrus de la siguiente manera:
La descomposición de Cayley-Hamilton da
La inversa general de 3 × 3 se puede expresar de manera concisa en términos del producto vectorial y el producto triple . Si una matriz (que consta de tres vectores columna, , , y ) es invertible, su inversa está dada por
El determinante de A , det( A ) , es igual al triple producto de x 0 , x 1 y x 2 —el volumen del paralelepípedo formado por las filas o columnas:
La exactitud de la fórmula se puede comprobar utilizando las propiedades de producto cruzado y triple y observando que, para los grupos, las inversas izquierda y derecha siempre coinciden. Intuitivamente, debido a los productos cruzados, cada fila de A –1 es ortogonal a las dos columnas no correspondientes de A (lo que hace que los términos fuera de la diagonal de sean cero). Dividiendo por
hace que las entradas diagonales de I = A −1 A sean la unidad. Por ejemplo, la primera diagonal es:
Inversión de matrices 4 × 4
A medida que aumenta la dimensión, las expresiones para la inversa de A se complican. Para n = 4 , el método de Cayley-Hamilton conduce a una expresión que todavía es manejable:
Inversión por bloques
Las matrices también se pueden invertir en bloques utilizando la siguiente fórmula de inversión analítica: [9]
donde A , B , C y D son subbloques matriciales de tamaño arbitrario. ( A debe ser cuadrado, para que pueda invertirse. Además, A y D − CA −1 B deben ser no singulares. [10] ) Esta estrategia es particularmente ventajosa si A es diagonal y D − CA −1 B (el complemento de Schur de A ) es una matriz pequeña, ya que son las únicas matrices que requieren inversión.
Esta técnica fue reinventada varias veces y se debe a Hans Boltz (1923), [ cita requerida ] quien la utilizó para la inversión de matrices geodésicas , y a Tadeusz Banachiewicz (1937), quien la generalizó y demostró su corrección.
El teorema de nulidad dice que la nulidad de A es igual a la nulidad del subbloque en la parte inferior derecha de la matriz inversa, y que la nulidad de B es igual a la nulidad del subbloque en la parte superior derecha de la matriz inversa.
El procedimiento de inversión que condujo a la ecuación ( 1 ) realizó operaciones de bloques de matriz que operaron primero sobre C y D. En cambio, si se opera primero sobre A y B , y siempre que D y A − BD −1 C no sean singulares, [11] el resultado es
Igualando las ecuaciones ( 1 ) y ( 2 ) se llega a
donde la ecuación ( 3 ) es la matriz identidad de Woodbury , que es equivalente al teorema del inverso binomial .
Si A y D son ambas invertibles, entonces las dos matrices de bloques inversas anteriores se pueden combinar para proporcionar la factorización simple
Por la identidad de Weinstein-Aronszajn , una de las dos matrices en la matriz diagonal de bloques es invertible exactamente cuando la otra lo es.
Esta fórmula se simplifica significativamente cuando la matriz de bloques superior derecha B es la matriz cero . Esta formulación es útil cuando las matrices A y D tienen fórmulas inversas relativamente simples (o pseudoinversas en el caso en que los bloques no sean todos cuadrados). En este caso especial, la fórmula de inversión de la matriz de bloques establecida con total generalidad anteriormente se convierte en
Si la matriz invertible dada es una matriz simétrica con bloque invertible A, se cumple la siguiente fórmula de bloque inverso [12]
donde . Esto requiere 2 inversiones de las matrices de tamaño medio A y S y solo 4 multiplicaciones de matrices de tamaño medio, si se organizan adecuadamente junto con algunas adiciones, sustracciones, negaciones y transposiciones de complejidad despreciable. Cualquier matriz tiene asociada una matriz semidefinida positiva, simétrica , que es exactamente invertible (y definida positiva), si y solo si es invertible. Al escribir la inversión de matrices se puede reducir a invertir matrices simétricas y 2 multiplicaciones de matrices adicionales, porque la matriz definida positiva satisface la condición de invertibilidad para su bloque superior izquierdo A .
Estas fórmulas juntas permiten construir un algoritmo de divide y vencerás que utiliza la inversión por bloques de matrices simétricas asociadas para invertir una matriz con la misma complejidad temporal que el algoritmo de multiplicación de matrices que se utiliza internamente. [12] La investigación sobre la complejidad de la multiplicación de matrices muestra que existen algoritmos de multiplicación de matrices con una complejidad de O ( n 2.371552 ) operaciones, mientras que el límite inferior mejor probado es Ω ( n 2 log n ) . [13]
Por la serie Neumann
Si una matriz A tiene la propiedad de que
Entonces A no es singular y su inversa puede expresarse mediante una serie de Neumann : [14]
Al truncar la suma se obtiene una inversa "aproximada" que puede ser útil como precondicionador . Nótese que una serie truncada se puede acelerar exponencialmente si se observa que la serie de Neumann es una suma geométrica . Como tal, satisface
- .
Por lo tanto, solo se necesitan 2 L − 2 multiplicaciones de matrices para calcular 2 L términos de la suma.
De manera más general, si A está "cerca" de la matriz invertible X en el sentido de que
entonces A no es singular y su inversa es
Si también es el caso que A − X tiene rango 1 entonces esto se simplifica a
pag-aproximación ádica
Si A es una matriz con entradas enteras o racionales y buscamos una solución en racionales de precisión arbitraria , entonces un método de aproximación p -ádica converge a una solución exacta en O( n 4 log 2 n ) , suponiendo que se utiliza la multiplicación de matrices estándar O( n 3 ) . [15] El método se basa en la resolución de n sistemas lineales a través del método de aproximación p -ádica de Dixon (cada uno en O( n 3 log 2 n ) ) y está disponible como tal en software especializado en operaciones matriciales de precisión arbitraria, por ejemplo, en IML. [16]
Método de vectores de base recíprocos
Dada una matriz cuadrada de n × n , , con n filas interpretadas como n vectores ( se supone la suma de Einstein ) donde son una base ortonormal estándar del espacio euclidiano ( ), entonces, utilizando el álgebra de Clifford (o álgebra geométrica ) calculamos los vectores columna recíprocos (a veces llamados duales ):
como las columnas de la matriz inversa Nótese que, el lugar " " indica que " " se elimina de ese lugar en la expresión anterior para . Entonces tenemos , donde es el delta de Kronecker . También tenemos , como se requiere. Si los vectores no son linealmente independientes, entonces y la matriz no es invertible (no tiene inversa).
Derivada de la matriz inversa
Supongamos que la matriz invertible A depende de un parámetro t . Entonces la derivada de la inversa de A con respecto a t está dada por [17]
Para derivar la expresión anterior para la derivada de la inversa de A , se puede diferenciar la definición de la matriz inversa y luego resolver para la inversa de A :
Restando ambos lados de lo anterior y multiplicando a la derecha por se obtiene la expresión correcta para la derivada de la inversa:
De manera similar, si es un número pequeño entonces
De manera más general, si
entonces,
Dado un entero positivo ,
Por lo tanto,
Inversa generalizada
Algunas de las propiedades de las matrices inversas son compartidas por las inversas generalizadas (por ejemplo, la inversa de Moore-Penrose ), que se pueden definir para cualquier matriz m por n . [18]
Aplicaciones
Para la mayoría de aplicaciones prácticas, no es necesario invertir una matriz para resolver un sistema de ecuaciones lineales ; sin embargo, para obtener una solución única, es necesario que la matriz involucrada sea invertible.
Las técnicas de descomposición como la descomposición LU son mucho más rápidas que la inversión, y también se han desarrollado varios algoritmos rápidos para clases especiales de sistemas lineales.
Regresión/mínimos cuadrados
Aunque no es necesario un inverso explícito para estimar el vector de incógnitas, la forma más sencilla de estimar su precisión es mediante la diagonal de una matriz inversa (la matriz de covarianza posterior del vector de incógnitas). Sin embargo, en muchos casos se conocen algoritmos más rápidos para calcular solo las entradas diagonales de una matriz inversa. [19]
Inversas de matrices en simulaciones en tiempo real
La inversión de matrices desempeña un papel importante en los gráficos por ordenador , en particular en la representación de gráficos 3D y las simulaciones 3D. Entre los ejemplos se incluyen la proyección de rayos de pantalla a mundo , las transformaciones de objetos de mundo a subespacio a mundo y las simulaciones físicas.
Inversiones de matrices en comunicaciones inalámbricas MIMO
La inversión de matriz también desempeña un papel importante en la tecnología MIMO (Multiple-Input, Multiple-Output) en las comunicaciones inalámbricas . El sistema MIMO consta de N antenas de transmisión y M antenas de recepción. Las señales únicas, que ocupan la misma banda de frecuencia , se envían a través de N antenas de transmisión y se reciben a través de M antenas de recepción. La señal que llega a cada antena de recepción será una combinación lineal de las N señales transmitidas que forman una matriz de transmisión H de N × M. Es crucial que la matriz H sea invertible para que el receptor pueda descifrar la información transmitida.
Véase también
Referencias
- ^ Axler, Sheldon (18 de diciembre de 2014). Álgebra lineal bien hecha . Textos de pregrado en matemáticas (3.ª ed.). Springer Publishing (publicado en 2015). pág. 296. ISBN 978-3-319-11079-0.
- ^ J.-S. Roger Jang (marzo de 2001). "Matriz inversa en forma de bloque".
- ^ Weisstein, Eric W. "Teorema de la matriz invertible". mathworld.wolfram.com . Consultado el 8 de septiembre de 2020 .
- ^ Horn, Roger A.; Johnson, Charles R. (1985). Análisis de matrices . Cambridge University Press . pág. 14. ISBN. 978-0-521-38632-6..
- ^ Pan, Victor; Reif, John (1985), Solución paralela eficiente de sistemas lineales , Actas del 17.º Simposio anual de la ACM sobre teoría de la computación, Providence: ACM
- ^ Pan, Victor; Reif, John (1985), Centro de Investigación en Tecnología Informática de la Universidad de Harvard, Informe TR-02-85 , Cambridge, MA: Laboratorio de Computación de Aiken
- ^ Se puede encontrar una prueba en el Apéndice B de Kondratyuk, LA; Krivoruchenko, MI (1992). "Materia de quarks superconductores en el grupo de colores SU (2)". Zeitschrift für Physik A. 344 (1): 99-115. Código Bib : 1992ZPhyA.344...99K. doi :10.1007/BF01291027. S2CID 120467300.
- ^ Strang, Gilbert (2003). Introducción al álgebra lineal (3.ª ed.). SIAM. pág. 71. ISBN 978-0-9614088-9-3., Capítulo 2, página 71
- ^ Tzon-Tzer, Lu; Sheng-Hua, Shiou (2002). "Inversas de matrices de bloques 2 × 2". Computadoras y matemáticas con aplicaciones . 43 (1–2): 119–129. doi :10.1016/S0898-1221(01)00278-4.
- ^ Bernstein, Dennis (2005). Matemáticas matriciales . Princeton University Press. pág. 44. ISBN 978-0-691-11802-4.
- ^ Bernstein, Dennis (2005). Matemáticas matriciales . Princeton University Press. pág. 45. ISBN 978-0-691-11802-4.
- ^ ab TH Cormen, CE Leiserson, RL Rivest, C. Stein, Introducción a los algoritmos , 3.ª ed., MIT Press, Cambridge, MA, 2009, §28.2.
- ^ Ran Raz . Sobre la complejidad del producto matricial. En Actas del trigésimo cuarto simposio anual de la ACM sobre teoría de la computación. ACM Press, 2002. doi :10.1145/509907.509932.
- ^ Stewart, Gilbert (1998). Algoritmos matriciales: descomposiciones básicas . SIAM. p. 55. ISBN 978-0-89871-414-2.
- ^ Haramoto, H.; Matsumoto, M. (2009). "Un algoritmo p-ádico para calcular la inversa de matrices enteras". Revista de Matemática Computacional y Aplicada . 225 (1): 320–322. Bibcode :2009JCoAM.225..320H. doi : 10.1016/j.cam.2008.07.044 .
- ^ "IML - Biblioteca de matrices enteras". cs.uwaterloo.ca . Consultado el 14 de abril de 2018 .
- ^ Magnus, Jan R.; Neudecker, Heinz (1999). Cálculo diferencial de matrices: con aplicaciones en estadística y econometría (edición revisada). Nueva York: John Wiley & Sons. págs. 151-152. ISBN 0-471-98633-X.
- ^ Roman, Stephen (2008), Álgebra lineal avanzada , Textos de posgrado en matemáticas (tercera edición), Springer, pág. 446, ISBN 978-0-387-72828-5.
- ^ Lin, Lin; Lu, Jianfeng; Ying, Lexing; Car, Roberto; E, Weinan (2009). "Algoritmo rápido para extraer la diagonal de la matriz inversa con aplicación al análisis de la estructura electrónica de sistemas metálicos". Communications in Mathematical Sciences . 7 (3): 755–777. doi : 10.4310/CMS.2009.v7.n3.a12 .
Lectura adicional
- "Inversión de una matriz", Enciclopedia de Matemáticas , EMS Press , 2001 [1994]
- Cormen, Thomas H. ; Leiserson, Charles E. ; Rivest, Ronald L. ; Stein, Clifford (2001) [1990]. "28.4: Inversión de matrices". Introducción a los algoritmos (2.ª ed.). MIT Press y McGraw-Hill. págs. 755–760. ISBN 0-262-03293-7.
- Bernstein, Dennis S. (2009). Matemáticas matriciales: teoría, hechos y fórmulas (2.ª ed.). Princeton University Press. ISBN 978-0691140391– a través de Google Books .
- Petersen, Kaare Brandt; Pedersen, Michael Syskind (15 de noviembre de 2012). "El libro de cocina de Matrix" (PDF) . págs. 17-23.
Enlaces externos
- Sanderson, Grant (15 de agosto de 2016). «Matrices inversas, espacio columna y espacio nulo». Esencia del álgebra lineal . Archivado desde el original el 3 de noviembre de 2021 – vía YouTube .
- Strang, Gilbert. "Conferencia de álgebra lineal sobre matrices inversas". MIT OpenCourseWare .
- Matriz inversa de Moore-Penrose