stringtranslate.com

Inversión de Moore-Penrose

En matemáticas , y en particular en álgebra lineal , la inversa de Moore-Penrose de una matriz , a menudo llamada pseudoinversa , es la generalización más conocida de la matriz inversa . [1] Fue descrita independientemente por EH Moore en 1920, [2] Arne Bjerhammar en 1951, [3] y Roger Penrose en 1955. [4] Anteriormente, Erik Ivar Fredholm había introducido el concepto de pseudoinversa de operadores integrales en 1903. Los términos pseudoinversa e inversa generalizada a veces se usan como sinónimos de la inversa de Moore-Penrose de una matriz, pero a veces se aplican a otros elementos de estructuras algebraicas que comparten algunas pero no todas las propiedades esperadas para un elemento inverso .

Un uso común de la pseudoinversa es calcular una solución aproximada de "mejor ajuste" ( mínimos cuadrados ) para un sistema de ecuaciones lineales que carece de una solución exacta (ver más abajo en § Aplicaciones). Otro uso es encontrar la solución de norma mínima ( euclidiana ) para un sistema de ecuaciones lineales con múltiples soluciones. La pseudoinversa facilita el enunciado y la demostración de resultados en álgebra lineal.

La pseudoinversa se define para todas las matrices rectangulares cuyas entradas son números reales o complejos . Dada una matriz rectangular con entradas reales o complejas, su pseudoinversa es única. Se puede calcular utilizando la descomposición en valores singulares . En el caso especial donde ⁠ ⁠ es una matriz normal (por ejemplo, una matriz hermítica), la pseudoinversa ⁠ ⁠ aniquila el núcleo de ⁠ ⁠ y actúa como una inversa tradicional de ⁠ ⁠ en el subespacio ortogonal al núcleo.

Notación

En la siguiente discusión se adoptan las siguientes convenciones.

Definición

Para , una pseudoinversa de A se define como una matriz que satisface los cuatro criterios siguientes, conocidos como condiciones de Moore-Penrose: [4] [5]

  1. ⁠ ⁠ no necesita ser la matriz identidad general, pero asigna todos los vectores columna de A a sí mismos:
  2. ⁠ ⁠ actúa como una inversa débil :
  3. ⁠ ⁠ es hermitiano :
  4. ⁠ ⁠ también es hermitiano:

Nótese que y son operadores idempotentes, como se deduce de y . Más específicamente, proyecta sobre la imagen de (equivalentemente, la extensión de las filas de ), y proyecta sobre la imagen de (equivalentemente, la extensión de las columnas de ). De hecho, las cuatro condiciones anteriores son completamente equivalentes a y siendo tales proyecciones ortogonales: proyectar sobre la imagen de implica , y proyectar sobre la imagen de implica .

La pseudoinversa existe para cualquier matriz . Si además es de rango completo , es decir, su rango es , entonces puede tener una expresión algebraica particularmente simple. En particular:

En el caso más general, la pseudoinversa se puede expresar aprovechando la descomposición en valores singulares . Cualquier matriz se puede descomponer como para algunas isometrías y matriz real diagonal no negativa . La pseudoinversa se puede escribir entonces como , donde es la pseudoinversa de y se puede obtener transponiendo la matriz y reemplazando los valores distintos de cero con sus inversos multiplicativos. [6] Que esta matriz satisface el requisito anterior se verifica directamente observando que y , que son las proyecciones sobre imagen y soporte de , respectivamente.

Propiedades

Existencia y singularidad

Como se discutió anteriormente, para cualquier matriz ⁠ ⁠ hay una y sólo una pseudoinversa ⁠ ⁠ . [5]

Una matriz que satisface únicamente la primera de las condiciones dadas anteriormente, es decir , se denomina inversa generalizada. Si la matriz también satisface la segunda condición, es decir , se denomina inversa reflexiva generalizada . Las inversas generalizadas siempre existen, pero no son, en general, únicas. La unicidad es una consecuencia de las dos últimas condiciones.

Propiedades básicas

Las pruebas de las propiedades siguientes se pueden encontrar en b: Temas de Álgebra abstracta/Álgebra lineal.

Identidades

La siguiente fórmula de identidad se puede utilizar para cancelar o expandir ciertas subexpresiones que involucran pseudoinversas: De manera equivalente, al sustituir por da mientras que al sustituir por da

Reducción al caso hermítico

El cálculo de la pseudoinversa se reduce a su construcción en el caso hermítico. Esto es posible mediante las equivalencias:

como ⁠ ⁠ y ⁠ ⁠ son hermíticos.

Pseudoinversa de productos

La igualdad ⁠ ⁠ no se cumple en general. Supongamos más bien ⁠ ⁠ . Entonces las siguientes son equivalentes: [8]

Son condiciones suficientes para ⁠ ⁠ :

  1. ⁠ ⁠ tiene columnas ortonormales (entonces ), o
  2. ⁠ ⁠ tiene filas ortonormales (entonces ), o
  3. ⁠ ⁠ tiene columnas linealmente independientes (entonces ) y tiene filas linealmente independientes (entonces ), o
  4. , o
  5. .

Lo siguiente es una condición necesaria para ⁠ ⁠ :

La cuarta condición suficiente produce las igualdades

He aquí un contraejemplo donde :

Proyectores

y son operadores de proyección ortogonales , es decir, son hermíticos ( , ) e idempotentes ( y ). Se cumple lo siguiente:

Las dos últimas propiedades implican las siguientes identidades:

Otra propiedad es la siguiente: si ⁠ ⁠ es hermítica e idempotente (verdadera si y sólo si representa una proyección ortogonal), entonces, para cualquier matriz ⁠ ⁠ se cumple la siguiente ecuación: [9]

Esto se puede demostrar definiendo las matrices , , y verificando que es de hecho una pseudoinversa para verificando que las propiedades definitorias de la pseudoinversa se cumplen, cuando es hermítica e idempotente.

De la última propiedad se sigue que, si ⁠ ⁠ es hermítica e idempotente, para cualquier matriz ⁠ ⁠

Finalmente, si ⁠ ⁠ es una matriz de proyección ortogonal, entonces su pseudoinversa coincide trivialmente con la matriz misma, es decir, .

Construcción geométrica

Si consideramos la matriz como una función lineal ⁠ ⁠ sobre el cuerpo ⁠ ⁠ entonces ⁠ ⁠ se puede descomponer de la siguiente manera. Escribimos ⁠ ⁠ para la suma directa , ⁠ ⁠ para el complemento ortogonal , ⁠ ⁠ para el núcleo de una función y ⁠ ⁠ para la imagen de una función. Nótese que y . La restricción es entonces un isomorfismo. Esto implica que en es el inverso de este isomorfismo, y es cero en

En otras palabras: para encontrar ⁠ ⁠ para dado ⁠ ⁠ en ⁠ ⁠ , primero proyecta ⁠ ⁠ ortogonalmente sobre el rango de ⁠ ⁠ , encontrando un punto ⁠ ⁠ en el rango. Luego forma ⁠ ⁠ , es decir, encuentra aquellos vectores en ⁠ ⁠ que ⁠ ⁠ envía a ⁠ ⁠ . Este será un subespacio afín de ⁠ ⁠ paralelo al núcleo de ⁠ ⁠ . El elemento de este subespacio que tiene la longitud más pequeña (es decir, está más cerca del origen) es la respuesta ⁠ ⁠ que estamos buscando. Se puede encontrar tomando un miembro arbitrario de ⁠ ⁠ y proyectándolo ortogonalmente sobre el complemento ortogonal del núcleo de ⁠ ⁠ .

Esta descripción está estrechamente relacionada con la solución de norma mínima para un sistema lineal.

Relaciones límite

Los pseudoinversos son límites: (ver regularización de Tikhonov ). Estos límites existen incluso si o no existen. [5] : 263 

Continuidad

A diferencia de la inversión de matrices ordinaria, el proceso de tomar pseudoinversas no es continuo : si la secuencia ⁠ ⁠ converge a la matriz ⁠ ⁠ (en la norma máxima o norma de Frobenius , por ejemplo), entonces ⁠ ⁠ no necesita converger a ⁠ ⁠ . Sin embargo, si todas las matrices ⁠ ⁠ tienen el mismo rango que ⁠ ⁠ , ⁠ ⁠ convergerá a ⁠ ⁠ . [10]

Derivado

Sea una función matricial diferenciable de valor real con rango constante en un punto . La derivada de at puede calcularse en términos de la derivada de at : [11] donde las funciones , y las derivadas en el lado derecho se evalúan en (es decir, , , etc.). Para una matriz compleja, la transpuesta se reemplaza con la transpuesta conjugada. [12] Para una matriz simétrica de valor real, se establece la derivada de Magnus-Neudecker. [13]

Ejemplos

Dado que para las matrices invertibles la pseudoinversa es igual a la inversa habitual, a continuación solo se consideran ejemplos de matrices no invertibles.

En efecto, , y por lo tanto . De manera similar, , y por lo tanto .
Nótese que ⁠ ⁠ no es ni inyectiva ni sobreyectiva, y por lo tanto la pseudoinversa no se puede calcular mediante ni , ya que y son ambos singulares, y además no es ni una inversa izquierda ni una inversa derecha.
Sin embargo, la pseudoinversa se puede calcular a través de SVD observando que , y por lo tanto .
Para esta matriz, la inversa izquierda existe y por lo tanto es igual , de hecho,


Casos especiales

Escalares

También es posible definir una pseudoinversa para escalares y vectores. Esto equivale a tratarlos como matrices. La pseudoinversa de un escalar ⁠ ⁠ es cero si ⁠ ⁠ es cero y el recíproco de ⁠ ⁠ en caso contrario:

Vectores

El pseudoinverso del vector nulo (todos ceros) es el vector nulo transpuesto. El pseudoinverso de un vector no nulo es el vector transpuesto conjugado dividido por su magnitud al cuadrado:

Matrices diagonales

La pseudoinversa de una matriz diagonal cuadrada se obtiene tomando el recíproco de los elementos diagonales distintos de cero. Formalmente, si es una matriz diagonal cuadrada con y , entonces . De manera más general, si es cualquier matriz rectangular cuyos únicos elementos distintos de cero están en la diagonal, es decir , , entonces es una matriz rectangular cuyos elementos diagonales son el recíproco de los originales, es decir, .

Columnas linealmente independientes

Si el rango de ⁠ ⁠ es idéntico al número de columnas, ⁠ ⁠ , (para ⁠ ⁠ ,) hay ⁠ ⁠ columnas linealmente independientes , y ⁠ ⁠ es invertible. En este caso, una fórmula explícita es: [14]

De ello se deduce que ⁠ ⁠ es entonces una inversa izquierda de ⁠ ⁠ :   .

Filas linealmente independientes

Si el rango de ⁠ ⁠ es idéntico al número de filas, ⁠ ⁠ , (para ⁠ ⁠ ,) hay ⁠ ⁠ filas linealmente independientes , y ⁠ ⁠ es invertible. En este caso, una fórmula explícita es:

De ello se deduce que ⁠ ⁠ es un inverso recto de ⁠ ⁠ :   .

Columnas o filas ortonormales

Este es un caso especial de rango completo de columna o rango completo de fila (tratado anteriormente). Si ⁠ ⁠ tiene columnas ortonormales ( ) o filas ortonormales ( ), entonces:

Matrices normales

Si ⁠ ⁠ es normal , es decir, conmuta con su transpuesta conjugada, entonces su pseudoinversa se puede calcular diagonalizándola, asignando todos los valores propios distintos de cero a sus inversas y asignando los valores propios cero a cero. Un corolario es que ⁠ ⁠ conmutar con su transpuesta implica que conmuta con su pseudoinversa.

Matrices EP

Se dice que una matriz (cuadrada) ⁠ ⁠ es una matriz EP si conmuta con su pseudoinversa. En tales casos (y solo en tales casos), es posible obtener la pseudoinversa como un polinomio en ⁠ ⁠ . Un polinomio tal que puede obtenerse fácilmente a partir del polinomio característico de o, más generalmente, a partir de cualquier polinomio anulador de . [15]

Matrices de proyección ortogonal

Este es un caso especial de una matriz normal con valores propios 0 y 1. Si ⁠ ⁠ es una matriz de proyección ortogonal, es decir, y , entonces la pseudoinversa coincide trivialmente con la matriz misma:

Matrices circulantes

Para una matriz circulante ⁠ ⁠ , la descomposición en valores singulares está dada por la transformada de Fourier , es decir, los valores singulares son los coeficientes de Fourier. Sea ⁠ ⁠ la matriz de la transformada de Fourier discreta (DFT) ; entonces [16]

Construcción

Descomposición de rangos

Sea ⁠ ⁠ el rango de ⁠ ⁠ . Entonces ⁠ ⁠ se puede (rango) descomponer como donde y son de rango . Entonces .

El método QR

Calcular el producto o y sus inversos de forma explícita suele ser una fuente de errores de redondeo numérico y de costes computacionales en la práctica. En su lugar, se puede utilizar un enfoque alternativo que utilice la descomposición QR de ⁠ .

Consideremos el caso en el que ⁠ ⁠ tiene rango de columna completo, de modo que . Entonces se puede utilizar la descomposición de Cholesky , donde es una matriz triangular superior . La multiplicación por la inversa se realiza entonces fácilmente resolviendo un sistema con múltiples lados derechos,

que puede resolverse mediante sustitución hacia adelante seguida de sustitución hacia atrás .

La descomposición de Cholesky se puede calcular sin formar ⁠ ⁠ explícitamente, utilizando alternativamente la descomposición QR de , donde tiene columnas ortonormales, , y es triangular superior. Entonces

Entonces , el factor de Cholesky es de .

El caso del rango de fila completo se trata de manera similar utilizando la fórmula y usando un argumento similar, intercambiando los roles de y .

Uso de polinomios en matrices

Para un ⁠ ⁠ arbitrario , se tiene que es normal y, en consecuencia, una matriz EP. Se puede entonces encontrar un polinomio tal que . En este caso se tiene que la pseudoinversa de está dada por [15]

Descomposición en valores singulares (SVD)

Una forma computacionalmente simple y precisa de calcular la pseudoinversa es usando la descomposición en valores singulares . [14] [5] [17] Si es la descomposición en valores singulares de , entonces . Para una matriz diagonal rectangular como , obtenemos la pseudoinversa tomando el recíproco de cada elemento distinto de cero en la diagonal, dejando los ceros en su lugar. En el cálculo numérico, solo los elementos mayores que una pequeña tolerancia se toman como distintos de cero, y los demás se reemplazan por ceros. Por ejemplo, en la función pinv de MATLAB o GNU Octave , la tolerancia se toma como t = ε⋅max( m , n )⋅max(Σ) , donde ε es la épsilon de la máquina .

El costo computacional de este método está dominado por el costo de calcular la SVD, que es varias veces mayor que la multiplicación matriz-matriz, incluso si se utiliza una implementación de última generación (como la de LAPACK ).

El procedimiento anterior muestra por qué tomar la pseudoinversa no es una operación continua: si la matriz original tiene un valor singular 0 (una entrada diagonal de la matriz anterior ) , entonces modificarla ligeramente puede convertir este cero en un pequeño número positivo, afectando así dramáticamente a la pseudoinversa ya que ahora tenemos que tomar el recíproco de un número pequeño.

Matrices de bloques

Existen enfoques optimizados para calcular la pseudoinversa de matrices estructuradas en bloques.

El método iterativo de Ben-Israel y Cohen

Otro método para calcular la pseudoinversa (cf. Drazin inversa ) utiliza la recursión

que a veces se denomina secuencia de hiperpotencia. Esta recursión produce una secuencia que converge cuadráticamente a la pseudoinversa de ⁠ ⁠ si se inicia con un ⁠ ⁠ apropiado que satisfaga . Se ha argumentado que la elección (donde , con denotando el valor singular más grande de ) [18] no es competitiva con el método que utiliza la SVD mencionada anteriormente, porque incluso para matrices moderadamente mal condicionadas, lleva mucho tiempo antes de que entre en la región de convergencia cuadrática. [19] Sin embargo, si se inicia con ya cerca de la inversa de Moore-Penrose y , por ejemplo , la convergencia es rápida (cuadrática).

Actualizando la pseudoinversa

Para los casos en los que ⁠ ⁠ tiene rango completo de fila o columna, y ya se conoce la inversa de la matriz de correlación ( ⁠ ⁠ para ⁠ ⁠ con rango completo de fila o ⁠ ⁠ para rango completo de columna), la pseudoinversa para matrices relacionadas con ⁠ ⁠ se puede calcular aplicando la fórmula de Sherman–Morrison–Woodbury para actualizar la inversa de la matriz de correlación, lo que puede requerir menos trabajo. En particular, si la matriz relacionada difiere de la original solo por una fila o columna modificada, agregada o eliminada, existen algoritmos incrementales que explotan la relación. [20] [21]

De manera similar, es posible actualizar el factor de Cholesky cuando se agrega una fila o columna, sin crear la inversa de la matriz de correlación explícitamente. Sin embargo, actualizar la pseudoinversa en el caso general de deficiencia de rango es mucho más complicado. [22] [23]

Bibliotecas de software

Existen implementaciones de alta calidad de SVD, QR y sustitución hacia atrás disponibles en bibliotecas estándar, como LAPACK . Escribir una implementación propia de SVD es un proyecto de programación importante que requiere una importante experiencia numérica . Sin embargo, en circunstancias especiales, como la computación paralela o la computación integrada , pueden ser preferibles implementaciones alternativas mediante QR o incluso el uso de una inversa explícita, y las implementaciones personalizadas pueden ser inevitables.

El paquete Python NumPy proporciona un cálculo pseudoinverso a través de sus funciones matrix.Iy linalg.pinv; pinvutiliza el algoritmo basado en SVD. SciPy agrega una función scipy.linalg.pinvque utiliza un solucionador de mínimos cuadrados.

El paquete MASS para R proporciona un cálculo de la inversa de Moore-Penrose a través de la ginvfunción. [24] La ginvfunción calcula una pseudoinversa utilizando la descomposición en valores singulares proporcionada por la svdfunción en el paquete base de R. Una alternativa es emplear la pinvfunción disponible en el paquete pracma.

El lenguaje de programación Octave proporciona una pseudoinversa a través de la función del paquete estándar pinvy el pseudo_inverse()método.

En Julia (lenguaje de programación) , el paquete LinearAlgebra de la biblioteca estándar proporciona una implementación de la inversa de Moore-Penrose pinv()implementada a través de la descomposición en valores singulares. [25]

Aplicaciones

Mínimos cuadrados lineales

La pseudoinversa proporciona una solución de mínimos cuadrados a un sistema de ecuaciones lineales . [26] Para ⁠ ⁠ , dado un sistema de ecuaciones lineales

En general, un vector ⁠ ⁠ que resuelva el sistema puede no existir, o si existe, puede que no sea único. Más específicamente, existe una solución si y solo si es la imagen de , y es única si y solo si es inyectiva. La pseudoinversa resuelve el problema de los "mínimos cuadrados" de la siguiente manera:

Este resultado se extiende fácilmente a sistemas con múltiples lados derechos, cuando la norma euclidiana se reemplaza por la norma de Frobenius. Sea ⁠ ⁠ .

Obtención de todas las soluciones de un sistema lineal

Si el sistema lineal

tiene soluciones, todas están dadas por [28]

para un vector arbitrario ⁠ ⁠ . Existe(n) solución(es) si y solo si . [28] Si esto último se cumple, entonces la solución es única si y solo si tiene rango de columna completo, en cuyo caso es una matriz cero. Si existen soluciones pero no tiene rango de columna completo, entonces tenemos un sistema indeterminado , cuya infinitud de soluciones está dada por esta última ecuación.

Solución de norma mínima para un sistema lineal

Para sistemas lineales con soluciones no únicas (como sistemas subdeterminados), se puede utilizar la pseudoinversa para construir la solución de norma euclidiana mínima entre todas las soluciones.

Este resultado se extiende fácilmente a sistemas con múltiples lados derechos, cuando la norma euclidiana se reemplaza por la norma de Frobenius. Sea ⁠ ⁠ .

Número de condición

Utilizando la pseudoinversa y una norma matricial , se puede definir un número de condición para cualquier matriz:

Un número de condición grande implica que el problema de encontrar soluciones de mínimos cuadrados para el sistema correspondiente de ecuaciones lineales está mal condicionado en el sentido de que pequeños errores en las entradas de ⁠ ⁠ pueden conducir a enormes errores en las entradas de la solución. [29]

Generalizaciones

Para resolver problemas de mínimos cuadrados más generales, se pueden definir inversas de Moore-Penrose para todos los operadores lineales continuos ⁠ ⁠ entre dos espacios de Hilbert ⁠ ⁠ y ⁠ ⁠ , utilizando las mismas cuatro condiciones que en nuestra definición anterior. Resulta que no todos los operadores lineales continuos tienen una pseudoinversa lineal continua en este sentido. [29] Aquellos que sí la tienen son precisamente aquellos cuyo rango está cerrado en ⁠ ⁠ .

Existe una noción de pseudoinversa para matrices sobre un cuerpo arbitrario equipado con un automorfismo involutivo arbitrario . En este contexto más general, una matriz dada no siempre tiene una pseudoinversa. La condición necesaria y suficiente para que exista una pseudoinversa es que , donde denota el resultado de aplicar la operación de involución a la transpuesta de . Cuando existe, es única. [30] Ejemplo : Considere el cuerpo de números complejos equipado con la involución identidad (a diferencia de la involución considerada en otra parte del artículo); ¿existen matrices que no tienen pseudoinversas en este sentido? Considere la matriz . Observe que mientras . Entonces, esta matriz no tiene una pseudoinversa en este sentido.

En álgebra abstracta , se puede definir una inversa de Moore-Penrose en un semigrupo *-regular . Esta definición abstracta coincide con la del álgebra lineal.

Véase también

Notas

  1. ^
    • Ben-Israel y Greville 2003, pág. 7
    • Campbell y Meyer 1991, pág. 10
    • Nakamura 1991, pág. 42
    • Rao y Mitra 1971, pág. 50-51
  2. ^ Moore, EH (1920). "Sobre el recíproco de la matriz algebraica general". Boletín de la Sociedad Matemática Americana . 26 (9): 394–95. doi : 10.1090/S0002-9904-1920-03322-7 .
  3. ^ Bjerhammar, Arne (1951). "Aplicación del cálculo de matrices al método de mínimos cuadrados; con especial referencia a los cálculos geodésicos". Trans. Roy. Inst. Tech. Estocolmo . 49 .
  4. ^ ab Penrose, Roger (1955). "Una inversa generalizada para matrices". Actas de la Cambridge Philosophical Society . 51 (3): 406–13. Bibcode :1955PCPS...51..406P. doi : 10.1017/S0305004100030401 .
  5. ^ abcde Golub, Gene H. ; Charles F. Van Loan (1996). Cálculos matriciales (3.ª ed.). Baltimore: Johns Hopkins. págs. 257–258. ISBN 978-0-8018-5414-9.
  6. ^ Campbell y Meyer 1991.
  7. ^ abc Stoer, Josef; Bulirsch, Roland (2002). Introducción al análisis numérico (3.ª ed.). Berlín, Nueva York: Springer-Verlag . ISBN 978-0-387-95452-3..
  8. ^ Greville, TNE (1966-10-01). "Nota sobre la inversa generalizada de un producto matricial". SIAM Review . 8 (4): 518–521. Bibcode :1966SIAMR...8..518G. doi :10.1137/1008107. ISSN  0036-1445.
  9. ^ Maciejewski, Anthony A.; Klein, Charles A. (1985). "Evitación de obstáculos para manipuladores cinemáticamente redundantes en entornos que varían dinámicamente". Revista internacional de investigación en robótica . 4 (3): 109–117. doi :10.1177/027836498500400308. hdl : 10217/536 . S2CID  17660144.
  10. ^ Rakočević, Vladimir (1997). "Sobre la continuidad de las inversas de Moore-Penrose y Drazin" (PDF) . Matematički Vesnik . 49 : 163–72.
  11. ^ Golub, GH; Pereyra, V. (abril de 1973). "La diferenciación de pseudoinversos y problemas de mínimos cuadrados no lineales cuyas variables están separadas". Revista SIAM de análisis numérico . 10 (2): 413–32. Bibcode :1973SJNA...10..413G. doi :10.1137/0710036. JSTOR  2156365.
  12. ^ Hjørungnes, Are (2011). Derivadas de matrices de valor complejo: con aplicaciones en el procesamiento de señales y las comunicaciones . Nueva York: Cambridge University Press. p. 52. ISBN 9780521192644.
  13. ^ Liu, Shuangzhe; Trenkler, Götz; Kollo, Tõnu; von Rosen, Dietrich; Baksalary, Oskar María (2023). "El profesor Heinz Neudecker y el cálculo diferencial matricial". Artículos estadísticos . doi :10.1007/s00362-023-01499-w.
  14. ^Por Ben-Israel y Greville 2003.
  15. ^ ab Bajo, I. (2021). "Cálculo de inversas de Moore-Penrose con polinomios en matrices". American Mathematical Monthly . 128 (5): 446–456. doi :10.1080/00029890.2021.1886840. hdl : 11093/6146 .
  16. ^ Stallings, WT; Boullion, TL (1972). "La pseudoinversa de una matriz r -circulante". Actas de la American Mathematical Society . 34 (2): 385–88. doi :10.2307/2038377. JSTOR  2038377.
  17. ^ Sistemas lineales y pseudoinversos
  18. ^ Ben-Israel, Adi; Cohen, Dan (1966). "Sobre el cálculo iterativo de inversas generalizadas y proyecciones asociadas". Revista SIAM sobre análisis numérico . 3 (3): 410–19. Bibcode :1966SJNA....3..410B. doi :10.1137/0703035. JSTOR  2949637.pdf
  19. ^ Söderström, Torsten; Stewart, GW (1974). "Sobre las propiedades numéricas de un método iterativo para calcular la inversa generalizada de Moore-Penrose". Revista SIAM sobre análisis numérico . 11 (1): 61–74. Bibcode :1974SJNA...11...61S. doi :10.1137/0711008. JSTOR  2156431.
  20. ^ Gramß, Tino (1992). Worterkennung mit einem künstlichen neuronalen Netzwerk (tesis doctoral). Georg-August-Universität zu Göttingen. OCLC  841706164.
  21. ^ Emtiyaz, Mohammad (27 de febrero de 2008). "Actualización de la inversa de una matriz cuando se agrega o elimina una columna" (PDF) .
  22. ^ Meyer, Carl D. Jr. (1973). "Inversas generalizadas y rangos de matrices de bloques". SIAM J. Appl. Math . 25 (4): 597–602. doi :10.1137/0125057.
  23. ^ Meyer, Carl D. Jr. (1973). "Inversión generalizada de matrices modificadas". SIAM J. Appl. Math . 24 (3): 315–23. doi :10.1137/0124033.
  24. ^ "R: Inversa generalizada de una matriz".
  25. ^ "Álgebra lineal.pinv".
  26. ^ Penrose, Roger (1956). "Sobre la mejor solución aproximada de ecuaciones matriciales lineales". Actas de la Sociedad Filosófica de Cambridge . 52 (1): 17–19. Bibcode :1956PCPS...52...17P. doi :10.1017/S0305004100030929. S2CID  122260851.
  27. ^ ab Planitz, M. (octubre de 1979). "Sistemas inconsistentes de ecuaciones lineales". Mathematical Gazette . 63 (425): 181–85. doi :10.2307/3617890. JSTOR  3617890. S2CID  125601192.
  28. ^ ab James, M. (junio de 1978). "La inversa generalizada". Mathematical Gazette . 62 (420): 109–14. doi :10.1017/S0025557200086460. S2CID  126385532.
  29. ^ ab Hagen, Roland; Roch, Steffen; Silbermann, Bernd (2001). "Sección 2.1.2". C*-álgebras y análisis numérico . CRC Press.
  30. ^ Pearl, Martin H. (1968-10-01). "Inversas generalizadas de matrices con entradas tomadas de un cuerpo arbitrario". Álgebra lineal y sus aplicaciones . 1 (4): 571–587. doi : 10.1016/0024-3795(68)90028-1 . ISSN  0024-3795.

Referencias

Enlaces externos