La inversa generalizada de una matriz más conocida
En matemáticas , y en particular en álgebra lineal , la inversa de Moore-Penrose de una matriz , a menudo llamada pseudoinversa , es la generalización más conocida de la matriz inversa . [1] Fue descrita independientemente por EH Moore en 1920, [2] Arne Bjerhammar en 1951, [3] y Roger Penrose en 1955. [4] Anteriormente, Erik Ivar Fredholm había introducido el concepto de pseudoinversa de operadores integrales en 1903. Los términos pseudoinversa e inversa generalizada a veces se usan como sinónimos de la inversa de Moore-Penrose de una matriz, pero a veces se aplican a otros elementos de estructuras algebraicas que comparten algunas pero no todas las propiedades esperadas para un elemento inverso .
Un uso común de la pseudoinversa es calcular una solución aproximada de "mejor ajuste" ( mínimos cuadrados ) para un sistema de ecuaciones lineales que carece de una solución exacta (ver más abajo en § Aplicaciones). Otro uso es encontrar la solución de norma mínima ( euclidiana ) para un sistema de ecuaciones lineales con múltiples soluciones. La pseudoinversa facilita el enunciado y la demostración de resultados en álgebra lineal.
La pseudoinversa se define para todas las matrices rectangulares cuyas entradas son números reales o complejos . Dada una matriz rectangular con entradas reales o complejas, su pseudoinversa es única. Se puede calcular utilizando la descomposición en valores singulares . En el caso especial donde es una matriz normal (por ejemplo, una matriz hermítica), la pseudoinversa aniquila el núcleo de y actúa como una inversa tradicional de en el subespacio ortogonal al núcleo.
Notación
En la siguiente discusión se adoptan las siguientes convenciones.
- denotará uno de los campos de números reales o complejos, denotados , , respectivamente. El espacio vectorial de matrices sobre se denota por .
- Para , la transpuesta se denota y la transpuesta hermítica (también llamada transpuesta conjugada ) se denota . Si , entonces .
- Para , (que significa " rango ") denota el espacio de columna ( imagen ) de (el espacio abarcado por los vectores de columna de ) y denota el núcleo (espacio nulo) de .
- Para cualquier número entero positivo , la matriz identidad se denota .
Definición
Para , una pseudoinversa de A se define como una matriz que satisface los cuatro criterios siguientes, conocidos como condiciones de Moore-Penrose: [4] [5]
- no necesita ser la matriz identidad general, pero asigna todos los vectores columna de A a sí mismos:
- actúa como una inversa débil :
- es hermitiano :
- también es hermitiano:
Nótese que y son operadores idempotentes, como se deduce de y . Más específicamente, proyecta sobre la imagen de (equivalentemente, la extensión de las filas de ), y proyecta sobre la imagen de (equivalentemente, la extensión de las columnas de ). De hecho, las cuatro condiciones anteriores son completamente equivalentes a y siendo tales proyecciones ortogonales: proyectar sobre la imagen de implica , y proyectar sobre la imagen de implica .
La pseudoinversa existe para cualquier matriz . Si además es de rango completo , es decir, su rango es , entonces puede tener una expresión algebraica particularmente simple. En particular:
- Cuando tiene columnas linealmente independientes (equivalentemente, es inyectiva y, por lo tanto , es invertible), se puede calcular como Esta pseudoinversa particular es una inversa izquierda , es decir, .
- Si, por otro lado, tiene filas linealmente independientes (equivalentemente, es sobreyectiva, y por lo tanto es invertible), se puede calcular como Esta es una inversa derecha , ya que .
En el caso más general, la pseudoinversa se puede expresar aprovechando la descomposición en valores singulares . Cualquier matriz se puede descomponer como para algunas isometrías y matriz real diagonal no negativa . La pseudoinversa se puede escribir entonces como , donde es la pseudoinversa de y se puede obtener transponiendo la matriz y reemplazando los valores distintos de cero con sus inversos multiplicativos. Que esta matriz satisface el requisito anterior se verifica directamente observando que y , que son las proyecciones sobre imagen y soporte de , respectivamente.
Propiedades
Existencia y singularidad
Como se discutió anteriormente, para cualquier matriz hay una y sólo una pseudoinversa . [5]
Una matriz que satisface únicamente la primera de las condiciones dadas anteriormente, es decir , se denomina inversa generalizada. Si la matriz también satisface la segunda condición, es decir , se denomina inversa reflexiva generalizada . Las inversas generalizadas siempre existen, pero no son, en general, únicas. La unicidad es una consecuencia de las dos últimas condiciones.
Propiedades básicas
Las pruebas de las propiedades siguientes se pueden encontrar en b: Temas de Álgebra abstracta/Álgebra lineal.
- Si tiene entradas reales, entonces también las tiene .
- Si es invertible , su pseudoinversa es su inversa. Es decir, . [7] : 243
- La pseudoinversa de la pseudoinversa es la matriz original: . [7] : 245
- La pseudoinversión conmuta con la transposición, la conjugación compleja y la toma de la transposición conjugada: [7] : 245
- El pseudoinverso de un múltiplo escalar de es el múltiplo recíproco de : para .
- El núcleo y la imagen de la pseudoinversa coinciden con los de la transpuesta conjugada: y .
Identidades
La siguiente fórmula de identidad se puede utilizar para cancelar o expandir ciertas subexpresiones que involucran pseudoinversas:
De manera equivalente, al sustituir por da
mientras que al sustituir por da
Reducción al caso hermítico
El cálculo de la pseudoinversa se reduce a su construcción en el caso hermítico. Esto es posible mediante las equivalencias:
como y son hermíticos.
Pseudoinversa de productos
La igualdad no se cumple en general. Supongamos más bien . Entonces las siguientes son equivalentes: [8]
Son condiciones suficientes para :
- tiene columnas ortonormales (entonces ), o
- tiene filas ortonormales (entonces ), o
- tiene columnas linealmente independientes (entonces ) y tiene filas linealmente independientes (entonces ), o
- , o
- .
Lo siguiente es una condición necesaria para :
La cuarta condición suficiente produce las igualdades
He aquí un contraejemplo donde :
Proyectores
y son operadores de proyección ortogonales , es decir, son hermíticos ( , ) e idempotentes ( y ). Se cumple lo siguiente:
- y
- es el proyector ortogonal sobre el rango de (que es igual al complemento ortogonal del núcleo de ).
- es el proyector ortogonal sobre el rango de (que es igual al complemento ortogonal del núcleo de ).
- es el proyector ortogonal sobre el núcleo de .
- es el proyector ortogonal sobre el núcleo de . [5]
Las dos últimas propiedades implican las siguientes identidades:
Otra propiedad es la siguiente: si es hermítica e idempotente (verdadera si y sólo si representa una proyección ortogonal), entonces, para cualquier matriz se cumple la siguiente ecuación: [9]
Esto se puede demostrar definiendo las matrices , , y verificando que es de hecho una pseudoinversa para verificando que las propiedades definitorias de la pseudoinversa se cumplen, cuando es hermítica e idempotente.
De la última propiedad se sigue que, si es hermítica e idempotente, para cualquier matriz
Finalmente, si es una matriz de proyección ortogonal, entonces su pseudoinversa coincide trivialmente con la matriz misma, es decir, .
Construcción geométrica
Si consideramos la matriz como una función lineal sobre el cuerpo entonces se puede descomponer de la siguiente manera. Escribimos para la suma directa , para el complemento ortogonal , para el núcleo de una función y para la imagen de una función. Nótese que y . La restricción es entonces un isomorfismo. Esto implica que en es el inverso de este isomorfismo, y es cero en
En otras palabras: para encontrar para dado en , primero proyecta ortogonalmente sobre el rango de , encontrando un punto en el rango. Luego forma , es decir, encuentra aquellos vectores en que envía a . Este será un subespacio afín de paralelo al núcleo de . El elemento de este subespacio que tiene la longitud más pequeña (es decir, está más cerca del origen) es la respuesta que estamos buscando. Se puede encontrar tomando un miembro arbitrario de y proyectándolo ortogonalmente sobre el complemento ortogonal del núcleo de .
Esta descripción está estrechamente relacionada con la solución de norma mínima para un sistema lineal.
Relaciones límite
Los pseudoinversos son límites:
(ver regularización de Tikhonov ). Estos límites existen incluso si o no existen. [5] : 263
Continuidad
A diferencia de la inversión de matrices ordinaria, el proceso de tomar pseudoinversas no es continuo : si la secuencia converge a la matriz (en la norma máxima o norma de Frobenius , por ejemplo), entonces no necesita converger a . Sin embargo, si todas las matrices tienen el mismo rango que , convergerá a . [10]
Derivado
Sea una función matricial diferenciable de valor real con rango constante en un punto . La derivada de at puede calcularse en términos de la derivada de at : [11]
donde las funciones , y las derivadas en el lado derecho se evalúan en (es decir, , , etc.). Para una matriz compleja, la transpuesta se reemplaza con la transpuesta conjugada. [12] Para una matriz simétrica de valor real, se establece la derivada de Magnus-Neudecker. [13]
Ejemplos
Dado que para las matrices invertibles la pseudoinversa es igual a la inversa habitual, a continuación solo se consideran ejemplos de matrices no invertibles.
- Para la pseudoinversa es La unicidad de esta pseudoinversa se puede ver a partir del requisito , ya que la multiplicación por una matriz cero siempre produciría una matriz cero.
- Para la pseudoinversa es .
- En efecto, , y por lo tanto . De manera similar, , y por lo tanto .
- Nótese que no es ni inyectiva ni sobreyectiva, y por lo tanto la pseudoinversa no se puede calcular mediante ni , ya que y son ambos singulares, y además no es ni una inversa izquierda ni una inversa derecha.
- Sin embargo, la pseudoinversa se puede calcular a través de SVD observando que , y por lo tanto .
- Para
- Para . Los denominadores están aquí .
- Para
- Para la pseudoinversa es .
- Para esta matriz, la inversa izquierda existe y por lo tanto es igual , de hecho,
Casos especiales
Escalares
También es posible definir una pseudoinversa para escalares y vectores. Esto equivale a tratarlos como matrices. La pseudoinversa de un escalar es cero si es cero y el recíproco de en caso contrario:
Vectores
El pseudoinverso del vector nulo (todos ceros) es el vector nulo transpuesto. El pseudoinverso de un vector no nulo es el vector transpuesto conjugado dividido por su magnitud al cuadrado:
Matrices diagonales
La pseudoinversa de una matriz diagonal cuadrada se obtiene tomando el recíproco de los elementos diagonales distintos de cero. Formalmente, si es una matriz diagonal cuadrada con y , entonces . De manera más general, si es cualquier matriz rectangular cuyos únicos elementos distintos de cero están en la diagonal, es decir , , entonces es una matriz rectangular cuyos elementos diagonales son el recíproco de los originales, es decir, .
Columnas linealmente independientes
Si el rango de es idéntico al número de columnas, , (para ,) hay columnas linealmente independientes , y es invertible. En este caso, una fórmula explícita es:
De ello se deduce que es entonces una inversa izquierda de : .
Filas linealmente independientes
Si el rango de es idéntico al número de filas, , (para ,) hay filas linealmente independientes , y es invertible. En este caso, una fórmula explícita es:
De ello se deduce que es un inverso recto de : .
Columnas o filas ortonormales
Este es un caso especial de rango completo de columna o rango completo de fila (tratado anteriormente). Si tiene columnas ortonormales ( ) o filas ortonormales ( ), entonces:
Matrices normales
Si es normal , es decir, conmuta con su transpuesta conjugada, entonces su pseudoinversa se puede calcular diagonalizándola, asignando todos los valores propios distintos de cero a sus inversas y asignando los valores propios cero a cero. Un corolario es que conmutar con su transpuesta implica que conmuta con su pseudoinversa.
Matrices EP
Se dice que una matriz (cuadrada) es una matriz EP si conmuta con su pseudoinversa. En tales casos (y solo en tales casos), es posible obtener la pseudoinversa como un polinomio en . Un polinomio tal que puede obtenerse fácilmente a partir del polinomio característico de o, más generalmente, a partir de cualquier polinomio anulador de . [15]
Matrices de proyección ortogonal
Este es un caso especial de una matriz normal con valores propios 0 y 1. Si es una matriz de proyección ortogonal, es decir, y , entonces la pseudoinversa coincide trivialmente con la matriz misma:
Matrices circulantes
Para una matriz circulante , la descomposición en valores singulares está dada por la transformada de Fourier , es decir, los valores singulares son los coeficientes de Fourier. Sea la matriz de la transformada de Fourier discreta (DFT) ; entonces [16]
Construcción
Descomposición de rangos
Sea el rango de . Entonces se puede (rango) descomponer como donde y son de rango . Entonces .
El método QR
Calcular el producto o y sus inversos de forma explícita suele ser una fuente de errores de redondeo numérico y de costes computacionales en la práctica. En su lugar, se puede utilizar un enfoque alternativo que utilice la descomposición QR de .
Consideremos el caso en el que tiene rango de columna completo, de modo que . Entonces se puede utilizar la descomposición de Cholesky , donde es una matriz triangular superior . La multiplicación por la inversa se realiza entonces fácilmente resolviendo un sistema con múltiples lados derechos,
que puede resolverse mediante sustitución hacia adelante seguida de sustitución hacia atrás .
La descomposición de Cholesky se puede calcular sin formar explícitamente, utilizando alternativamente la descomposición QR de , donde tiene columnas ortonormales, , y es triangular superior. Entonces
Entonces , el factor de Cholesky es de .
El caso del rango de fila completo se trata de manera similar utilizando la fórmula y usando un argumento similar, intercambiando los roles de y .
Uso de polinomios en matrices
Para un arbitrario , se tiene que es normal y, en consecuencia, una matriz EP. Se puede entonces encontrar un polinomio tal que . En este caso se tiene que la pseudoinversa de está dada por [15]
Descomposición en valores singulares (SVD)
Una forma computacionalmente simple y precisa de calcular la pseudoinversa es usando la descomposición en valores singulares . [5] [17] Si es la descomposición en valores singulares de , entonces . Para una matriz diagonal rectangular como , obtenemos la pseudoinversa tomando el recíproco de cada elemento distinto de cero en la diagonal, dejando los ceros en su lugar. En el cálculo numérico, solo los elementos mayores que una pequeña tolerancia se toman como distintos de cero, y los demás se reemplazan por ceros. Por ejemplo, en la función pinv de MATLAB o GNU Octave , la tolerancia se toma como t = ε⋅max( m , n )⋅max(Σ) , donde ε es la épsilon de la máquina .
El costo computacional de este método está dominado por el costo de calcular la SVD, que es varias veces mayor que la multiplicación matriz-matriz, incluso si se utiliza una implementación de última generación (como la de LAPACK ).
El procedimiento anterior muestra por qué tomar la pseudoinversa no es una operación continua: si la matriz original tiene un valor singular 0 (una entrada diagonal de la matriz anterior ) , entonces modificarla ligeramente puede convertir este cero en un pequeño número positivo, afectando así dramáticamente a la pseudoinversa ya que ahora tenemos que tomar el recíproco de un número pequeño.
Matrices de bloques
Existen enfoques optimizados para calcular la pseudoinversa de matrices estructuradas en bloques.
El método iterativo de Ben-Israel y Cohen
Otro método para calcular la pseudoinversa (cf. Drazin inversa ) utiliza la recursión
que a veces se denomina secuencia de hiperpotencia. Esta recursión produce una secuencia que converge cuadráticamente a la pseudoinversa de si se inicia con un apropiado que satisfaga . Se ha argumentado que la elección (donde , con denotando el valor singular más grande de ) [18] no es competitiva con el método que utiliza la SVD mencionada anteriormente, porque incluso para matrices moderadamente mal condicionadas, lleva mucho tiempo antes de que entre en la región de convergencia cuadrática. [19] Sin embargo, si se inicia con ya cerca de la inversa de Moore-Penrose y , por ejemplo , la convergencia es rápida (cuadrática).
Actualizando la pseudoinversa
Para los casos en los que tiene rango completo de fila o columna, y ya se conoce la inversa de la matriz de correlación ( para con rango completo de fila o para rango completo de columna), la pseudoinversa para matrices relacionadas con se puede calcular aplicando la fórmula de Sherman–Morrison–Woodbury para actualizar la inversa de la matriz de correlación, lo que puede requerir menos trabajo. En particular, si la matriz relacionada difiere de la original solo por una fila o columna modificada, agregada o eliminada, existen algoritmos incrementales que explotan la relación. [20] [21]
De manera similar, es posible actualizar el factor de Cholesky cuando se agrega una fila o columna, sin crear la inversa de la matriz de correlación explícitamente. Sin embargo, actualizar la pseudoinversa en el caso general de deficiencia de rango es mucho más complicado. [22] [23]
Bibliotecas de software
Existen implementaciones de alta calidad de SVD, QR y sustitución hacia atrás disponibles en bibliotecas estándar, como LAPACK . Escribir una implementación propia de SVD es un proyecto de programación importante que requiere una importante experiencia numérica . Sin embargo, en circunstancias especiales, como la computación paralela o la computación integrada , pueden ser preferibles implementaciones alternativas mediante QR o incluso el uso de una inversa explícita, y las implementaciones personalizadas pueden ser inevitables.
El paquete Python NumPy proporciona un cálculo pseudoinverso a través de sus funciones matrix.I
y linalg.pinv
; pinv
utiliza el algoritmo basado en SVD. SciPy agrega una función scipy.linalg.pinv
que utiliza un solucionador de mínimos cuadrados.
El paquete MASS para R proporciona un cálculo de la inversa de Moore-Penrose a través de la ginv
función. [24] La ginv
función calcula una pseudoinversa utilizando la descomposición en valores singulares proporcionada por la svd
función en el paquete base de R. Una alternativa es emplear la pinv
función disponible en el paquete pracma.
El lenguaje de programación Octave proporciona una pseudoinversa a través de la función del paquete estándar pinv
y el pseudo_inverse()
método.
En Julia (lenguaje de programación) , el paquete LinearAlgebra de la biblioteca estándar proporciona una implementación de la inversa de Moore-Penrose pinv()
implementada a través de la descomposición en valores singulares. [25]
Aplicaciones
Mínimos cuadrados lineales
La pseudoinversa proporciona una solución de mínimos cuadrados a un sistema de ecuaciones lineales . [26]
Para , dado un sistema de ecuaciones lineales
En general, un vector que resuelva el sistema puede no existir, o si existe, puede que no sea único. Más específicamente, existe una solución si y solo si es la imagen de , y es única si y solo si es inyectiva. La pseudoinversa resuelve el problema de los "mínimos cuadrados" de la siguiente manera:
- , tenemos donde y denota la norma euclidiana . Esta desigualdad débil se cumple con igualdad si y solo si para cualquier vector ; esto proporciona una infinidad de soluciones minimizadoras a menos que tenga rango de columna completo, en cuyo caso es una matriz cero. [27] La solución con norma euclidiana mínima es [27]
Este resultado se extiende fácilmente a sistemas con múltiples lados derechos, cuando la norma euclidiana se reemplaza por la norma de Frobenius. Sea .
- , tenemos donde y denota la norma de Frobenius .
Obtención de todas las soluciones de un sistema lineal
Si el sistema lineal
tiene soluciones, todas están dadas por [28]
para un vector arbitrario . Existe(n) solución(es) si y solo si . [28] Si esto último se cumple, entonces la solución es única si y solo si tiene rango de columna completo, en cuyo caso es una matriz cero. Si existen soluciones pero no tiene rango de columna completo, entonces tenemos un sistema indeterminado , cuya infinitud de soluciones está dada por esta última ecuación.
Solución de norma mínima para un sistema lineal
Para sistemas lineales con soluciones no únicas (como sistemas subdeterminados), se puede utilizar la pseudoinversa para construir la solución de norma euclidiana mínima entre todas las soluciones.
- Si es satisfacible, el vector es una solución y satisface para todas las soluciones.
Este resultado se extiende fácilmente a sistemas con múltiples lados derechos, cuando la norma euclidiana se reemplaza por la norma de Frobenius. Sea .
- Si es satisfacible, la matriz es una solución y satisface para todas las soluciones.
Número de condición
Utilizando la pseudoinversa y una norma matricial , se puede definir un número de condición para cualquier matriz:
Un número de condición grande implica que el problema de encontrar soluciones de mínimos cuadrados para el sistema correspondiente de ecuaciones lineales está mal condicionado en el sentido de que pequeños errores en las entradas de pueden conducir a enormes errores en las entradas de la solución. [29]
Generalizaciones
Para resolver problemas de mínimos cuadrados más generales, se pueden definir inversas de Moore-Penrose para todos los operadores lineales continuos entre dos espacios de Hilbert y , utilizando las mismas cuatro condiciones que en nuestra definición anterior. Resulta que no todos los operadores lineales continuos tienen una pseudoinversa lineal continua en este sentido. [29] Aquellos que sí la tienen son precisamente aquellos cuyo rango está cerrado en .
Existe una noción de pseudoinversa para matrices sobre un cuerpo arbitrario equipado con un automorfismo involutivo arbitrario . En este contexto más general, una matriz dada no siempre tiene una pseudoinversa. La condición necesaria y suficiente para que exista una pseudoinversa es que , donde denota el resultado de aplicar la operación de involución a la transpuesta de . Cuando existe, es única. [30] Ejemplo : Considere el cuerpo de números complejos equipado con la involución identidad (a diferencia de la involución considerada en otra parte del artículo); ¿existen matrices que no tienen pseudoinversas en este sentido? Considere la matriz . Observe que mientras . Entonces, esta matriz no tiene una pseudoinversa en este sentido.
En álgebra abstracta , se puede definir una inversa de Moore-Penrose en un semigrupo *-regular . Esta definición abstracta coincide con la del álgebra lineal.
Véase también
Notas
- ^
- Ben-Israel y Greville 2003, pág. 7
- Campbell y Meyer 1991, pág. 10
- Nakamura 1991, pág. 42
- Rao y Mitra 1971, pág. 50-51
- ^ Moore, EH (1920). "Sobre el recíproco de la matriz algebraica general". Boletín de la Sociedad Matemática Americana . 26 (9): 394–95. doi : 10.1090/S0002-9904-1920-03322-7 .
- ^ Bjerhammar, Arne (1951). "Aplicación del cálculo de matrices al método de mínimos cuadrados; con especial referencia a los cálculos geodésicos". Trans. Roy. Inst. Tech. Estocolmo . 49 .
- ^ ab Penrose, Roger (1955). "Una inversa generalizada para matrices". Actas de la Cambridge Philosophical Society . 51 (3): 406–13. Bibcode :1955PCPS...51..406P. doi : 10.1017/S0305004100030401 .
- ^ abcde Golub, Gene H. ; Charles F. Van Loan (1996). Cálculos matriciales (3.ª ed.). Baltimore: Johns Hopkins. págs. 257–258. ISBN 978-0-8018-5414-9.
- ^ abc Stoer, Josef; Bulirsch, Roland (2002). Introducción al análisis numérico (3.ª ed.). Berlín, Nueva York: Springer-Verlag . ISBN 978-0-387-95452-3..
- ^ Greville, TNE (1966-10-01). "Nota sobre la inversa generalizada de un producto matricial". SIAM Review . 8 (4): 518–521. Bibcode :1966SIAMR...8..518G. doi :10.1137/1008107. ISSN 0036-1445.
- ^ Maciejewski, Anthony A.; Klein, Charles A. (1985). "Evitación de obstáculos para manipuladores cinemáticamente redundantes en entornos que varían dinámicamente". Revista internacional de investigación en robótica . 4 (3): 109–117. doi :10.1177/027836498500400308. hdl : 10217/536 . S2CID 17660144.
- ^ Rakočević, Vladimir (1997). "Sobre la continuidad de las inversas de Moore-Penrose y Drazin" (PDF) . Matematički Vesnik . 49 : 163–72.
- ^ Golub, GH; Pereyra, V. (abril de 1973). "La diferenciación de pseudoinversos y problemas de mínimos cuadrados no lineales cuyas variables están separadas". Revista SIAM de análisis numérico . 10 (2): 413–32. Bibcode :1973SJNA...10..413G. doi :10.1137/0710036. JSTOR 2156365.
- ^ Hjørungnes, Are (2011). Derivadas de matrices de valor complejo: con aplicaciones en el procesamiento de señales y las comunicaciones . Nueva York: Cambridge University Press. p. 52. ISBN 9780521192644.
- ^ Liu, Shuangzhe; Trenkler, Götz; Kollo, Tõnu; von Rosen, Dietrich; Baksalary, Oskar María (2023). "El profesor Heinz Neudecker y el cálculo diferencial matricial". Artículos estadísticos . doi :10.1007/s00362-023-01499-w.
- ^ ab Bajo, I. (2021). "Cálculo de inversas de Moore-Penrose con polinomios en matrices". American Mathematical Monthly . 128 (5): 446–456. doi :10.1080/00029890.2021.1886840. hdl : 11093/6146 .
- ^ Stallings, WT; Boullion, TL (1972). "La pseudoinversa de una matriz r -circulante". Actas de la American Mathematical Society . 34 (2): 385–88. doi :10.2307/2038377. JSTOR 2038377.
- ^ Sistemas lineales y pseudoinversos
- ^ Ben-Israel, Adi; Cohen, Dan (1966). "Sobre el cálculo iterativo de inversas generalizadas y proyecciones asociadas". Revista SIAM sobre análisis numérico . 3 (3): 410–19. Bibcode :1966SJNA....3..410B. doi :10.1137/0703035. JSTOR 2949637.pdf
- ^ Söderström, Torsten; Stewart, GW (1974). "Sobre las propiedades numéricas de un método iterativo para calcular la inversa generalizada de Moore-Penrose". Revista SIAM sobre análisis numérico . 11 (1): 61–74. Bibcode :1974SJNA...11...61S. doi :10.1137/0711008. JSTOR 2156431.
- ^ Gramß, Tino (1992). Worterkennung mit einem künstlichen neuronalen Netzwerk (tesis doctoral). Georg-August-Universität zu Göttingen. OCLC 841706164.
- ^ Emtiyaz, Mohammad (27 de febrero de 2008). "Actualización de la inversa de una matriz cuando se agrega o elimina una columna" (PDF) .
- ^ Meyer, Carl D. Jr. (1973). "Inversas generalizadas y rangos de matrices de bloques". SIAM J. Appl. Math . 25 (4): 597–602. doi :10.1137/0125057.
- ^ Meyer, Carl D. Jr. (1973). "Inversión generalizada de matrices modificadas". SIAM J. Appl. Math . 24 (3): 315–23. doi :10.1137/0124033.
- ^ "R: Inversa generalizada de una matriz".
- ^ "Álgebra lineal.pinv".
- ^ Penrose, Roger (1956). "Sobre la mejor solución aproximada de ecuaciones matriciales lineales". Actas de la Sociedad Filosófica de Cambridge . 52 (1): 17–19. Bibcode :1956PCPS...52...17P. doi :10.1017/S0305004100030929. S2CID 122260851.
- ^ ab Planitz, M. (octubre de 1979). "Sistemas inconsistentes de ecuaciones lineales". Mathematical Gazette . 63 (425): 181–85. doi :10.2307/3617890. JSTOR 3617890. S2CID 125601192.
- ^ ab James, M. (junio de 1978). "La inversa generalizada". Mathematical Gazette . 62 (420): 109–14. doi :10.1017/S0025557200086460. S2CID 126385532.
- ^ ab Hagen, Roland; Roch, Steffen; Silbermann, Bernd (2001). "Sección 2.1.2". C*-álgebras y análisis numérico . CRC Press.
- ^ Pearl, Martin H. (1968-10-01). "Inversas generalizadas de matrices con entradas tomadas de un cuerpo arbitrario". Álgebra lineal y sus aplicaciones . 1 (4): 571–587. doi : 10.1016/0024-3795(68)90028-1 . ISSN 0024-3795.
Referencias
- Ben-Israel, Adi ; Greville, Thomas NE (2003). Inversas generalizadas: teoría y aplicaciones (2.ª ed.). Nueva York, NY: Springer. doi :10.1007/b97366. ISBN 978-0-387-00293-4.
- Campbell, SL; Meyer, CD Jr. (1991). Inversas generalizadas de transformaciones lineales . Dover. ISBN 978-0-486-66693-8.
- Nakamura, Yoshihiko (1991). Robótica avanzada: redundancia y optimización . Addison-Wesley. ISBN 978-0201151985.
- Rao, C. Radhakrishna; Mitra, Sujit Kumar (1971). Inversa generalizada de matrices y sus aplicaciones . Nueva York: John Wiley & Sons. pág. 240. ISBN 978-0-471-70821-6.
Enlaces externos