stringtranslate.com

Inversa de Moore-Penrose

En matemáticas , y en particular en álgebra lineal , la inversa de Moore-Penrose de una matriz es la generalización más conocida de la matriz inversa . [1] [2] [3] [4] Fue descrito de forma independiente por EH Moore [5] en 1920, Arne Bjerhammar [6] en 1951 y Roger Penrose [7] en 1955. Anteriormente, Erik Ivar Fredholm había introducido el concepto de pseudoinverso de operadores integrales en 1903. Cuando se hace referencia a una matriz, el término pseudoinverso , sin mayor especificación, se utiliza a menudo para indicar el inverso de Moore-Penrose. El término inversa generalizada se utiliza a veces como sinónimo de pseudoinversa.

Un uso común de la pseudoinversa es calcular una solución de "mejor ajuste" ( mínimos cuadrados ) para un sistema de ecuaciones lineales que carece de solución (ver más abajo en § Aplicaciones). Otro uso es encontrar la solución de norma mínima ( euclidiana ) para un sistema de ecuaciones lineales con múltiples soluciones. La pseudoinversa facilita el enunciado y la prueba de resultados en álgebra lineal.

La pseudoinversa está definida y es única para todas las matrices cuyas entradas sean números reales o complejos . Se puede calcular mediante la descomposición en valores singulares . En el caso especial donde hay una matriz normal (por ejemplo, una matriz hermitiana), la pseudoinversa aniquila el núcleo y actúa como una inversa tradicional de en el subespacio ortogonal al núcleo.

Notación

En la siguiente discusión, se adoptan las siguientes convenciones.

Definición

Para , una pseudoinversa de A se define como una matriz que satisface los cuatro criterios siguientes, conocidos como condiciones de Moore-Penrose: [7] [8]

  1. No es necesario que sea la matriz identidad general, pero asigna todos los vectores columna de A a sí mismos:
  2. actúa como un inverso débil :
  3. es hermitiano :
  4. también es hermitiano:

Tenga en cuenta que y son operadores de proyección ortogonales, como se desprende de y . Más específicamente, se proyecta sobre la imagen de (equivalentemente, el intervalo de las filas de ) y se proyecta sobre la imagen de (equivalentemente, el intervalo de las columnas de ). De hecho, las cuatro condiciones anteriores son totalmente equivalentes y son proyecciones ortogonales: proyectar sobre la imagen de implica y proyectar sobre la imagen de implica .

La pseudoinversa existe para cualquier matriz . Si además tiene rango completo , es decir, su rango es , entonces se puede dar una expresión algebraica particularmente simple. En particular:

En el caso más general, la pseudoinversa se puede expresar aprovechando la descomposición en valores singulares . Cualquier matriz se puede descomponer como para algunas isometrías y una matriz real positiva diagonal . La pseudoinversa se puede escribir entonces como . Que esta matriz satisface el requisito anterior se verifica directamente observando que y , que son las proyecciones sobre imagen y soporte de , respectivamente.

Propiedades

Existencia y unicidad

Como se analizó anteriormente, para cualquier matriz existe una y solo una pseudoinversa . [8]

Una matriz que satisface sólo la primera de las condiciones dadas anteriormente, es decir , se conoce como inversa generalizada. Si la matriz también satisface la segunda condición, es decir , se denomina inversa reflexiva generalizada . Los inversos generalizados siempre existen pero, en general, no son únicos. La unicidad es una consecuencia de las dos últimas condiciones.

Propiedades básicas

Las pruebas de las siguientes propiedades se pueden encontrar en b: Temas de álgebra abstracta/álgebra lineal.

Identidades

La siguiente fórmula de identidad se puede utilizar para cancelar o expandir ciertas subexpresiones que involucran pseudoinversos:

Reducción al caso hermitiano

El cálculo del pseudoinverso se reduce a su construcción en el caso hermitiano. Esto es posible a través de las equivalencias:

como y son hermitianos.

Pseudoinverso de productos

La igualdad no se cumple en general. Más bien, supongamos . Entonces los siguientes son equivalentes: [10]

Las siguientes son condiciones suficientes para :

  1. tiene columnas ortonormales (entonces ), o
  2. tiene filas ortonormales (entonces ), o
  3. tiene columnas linealmente independientes (entonces ) y filas linealmente independientes (entonces ), o
  4. , o
  5. .

La siguiente es una condición necesaria para :

La cuarta condición suficiente produce las igualdades

Aquí hay un contraejemplo donde :

Proyectores

y son operadores de proyección ortogonales , es decir, son hermitianos ( , ) e idempotentes ( y ). Se mantiene lo siguiente:

Las dos últimas propiedades implican las siguientes identidades:

Otra propiedad es la siguiente: si es hermitiana e idempotente (verdadera si y sólo si representa una proyección ortogonal), entonces, para cualquier matriz se cumple la siguiente ecuación: [11]

Esto se puede probar definiendo matrices , y verificando que efectivamente sea una pseudoinversa verificando que las propiedades definitorias de la pseudoinversa se cumplan, cuando es hermitiana e idempotente.

De la última propiedad se deduce que, si es hermitiana e idempotente, para cualquier matriz

Finalmente, si es una matriz de proyección ortogonal, entonces su pseudoinversa coincide trivialmente con la propia matriz, es decir, .

construcción geométrica

Si vemos la matriz como un mapa lineal sobre el campo entonces se puede descomponer de la siguiente manera. Escribimos para la suma directa , para el complemento ortogonal , para el núcleo de un mapa y para la imagen de un mapa. Note eso y . La restricción es entonces un isomorfismo. Esto implica que on es el inverso de este isomorfismo y es cero en

En otras palabras: para encontrar dado en , primero proyecte ortogonalmente sobre el rango de , encontrando un punto en el rango. Luego forme , es decir, encuentre esos vectores que envía a . Este será un subespacio afín de paralelo al núcleo de . El elemento de este subespacio que tiene menor longitud (es decir, está más cerca del origen) es la respuesta que buscamos. Se puede encontrar tomando un miembro arbitrario de y proyectándolo ortogonalmente sobre el complemento ortogonal del núcleo de .

Esta descripción está estrechamente relacionada con la solución de norma mínima para un sistema lineal.

Limitar las relaciones

Los pseudoinversos son límites:

Regularización de Tikhonov[8] : 263 

Continuidad

A diferencia de la inversión matricial ordinaria, el proceso de tomar pseudoinversas no es continuo : si la secuencia converge a la matriz (en la norma máxima o norma de Frobenius , por ejemplo), entonces no es necesario que converja a . Sin embargo, si todas las matrices tienen el mismo rango que , convergerá a . [12]

Derivado

La derivada de una matriz pseudoinversa de valor real que tiene rango constante en un punto se puede calcular en términos de la derivada de la matriz original: [13]

[14][15]

Ejemplos

Dado que para las matrices invertibles la pseudoinversa es igual a la inversa habitual, a continuación solo se consideran ejemplos de matrices no invertibles.

De hecho, y por tanto . De manera similar, y por lo tanto .
Tenga en cuenta que no es ni inyectivo ni sobreyectivo y, por lo tanto, el pseudoinverso no se puede calcular mediante ni , ya que y son ambos singulares y, además, no es un inverso izquierdo ni derecho.
No obstante, la pseudoinversa se puede calcular mediante SVD observando que y por lo tanto .
Para esta matriz, la inversa izquierda existe y, por tanto, es igual a , de hecho,


Casos especiales

Escalares

También es posible definir una pseudoinversa para escalares y vectores. Esto equivale a tratarlos como matrices. El pseudoinverso de un escalar es cero si es cero y el recíproco de lo contrario:

Vectores

El pseudoinverso del vector nulo (todo cero) es el vector nulo transpuesto. El pseudoinverso de un vector no nulo es el vector transpuesto conjugado dividido por su magnitud al cuadrado:

Matrices diagonales

La pseudoinversa de una matriz diagonal cuadrada se obtiene tomando el recíproco de los elementos diagonales distintos de cero. Formalmente, si es una matriz diagonal cuadrada con y , entonces . De manera más general, si es una matriz rectangular cuyos únicos elementos distintos de cero están en la diagonal, es decir , entonces es una matriz rectangular cuyos elementos diagonales son recíprocos de los originales, es decir ,.

Columnas linealmente independientes

Si el rango de es idéntico al rango de su columna , , (para ,) hay columnas linealmente independientes y es invertible. En este caso, una fórmula explícita es: [16]

Se deduce que es entonces un inverso izquierdo de :   .

Filas linealmente independientes

Si el rango de es idéntico al rango de fila , , (para ,) hay filas linealmente independientes y es invertible. En este caso, una fórmula explícita es:

Se deduce que es un inverso derecho de :   .

Columnas o filas ortonormales

Este es un caso especial de clasificación de columna completa o clasificación de fila completa (tratado anteriormente). Si tiene columnas ortonormales ( ) o filas ortonormales ( ), entonces:

Matrices normales

Si es normal , es decir, conmuta con su transpuesta conjugada, entonces su pseudoinverso se puede calcular diagonalizándolo, mapeando todos los valores propios distintos de cero a sus inversos y mapeando los valores propios cero a cero. Un corolario es que conmutar con su transpuesta implica que conmuta con su pseudoinversa.

Matrices EP

Se dice que una matriz (cuadrada) es una matriz EP si conmuta con su pseudoinversa. En tales casos (y sólo en tales casos), es posible obtener el pseudoinverso como un polinomio en . Un polinomio que se puede obtener fácilmente a partir del polinomio característico de o, más generalmente, de cualquier polinomio aniquilador de . [17]

Matrices de proyección ortogonales

Este es un caso especial de una matriz normal con valores propios 0 y 1. Si es una matriz de proyección ortogonal, es decir, y , entonces la pseudoinversa coincide trivialmente con la propia matriz:

Matrices circulantes

Para una matriz circulante , la descomposición de valores singulares viene dada por la transformada de Fourier , es decir, los valores singulares son los coeficientes de Fourier. Sea la matriz de Transformada Discreta de Fourier (DFT) ; entonces [18]

Construcción

Descomposición de rangos

Denotemos el rango de . Luego se puede descomponer (rango) como donde y son de rango . Entonces .

El método QR

Calcular el producto o y sus inversas explícitamente es a menudo una fuente de errores de redondeo numérico y costo computacional en la práctica. En su lugar, se puede utilizar un enfoque alternativo que utiliza la descomposición QR de .

Considere el caso en el que tiene rango de columna completo, de modo que . Entonces se puede utilizar la descomposición de Cholesky , donde hay una matriz triangular superior . La multiplicación por el inverso se realiza fácilmente resolviendo un sistema con múltiples lados derechos,

que puede resolverse mediante sustitución hacia adelante seguida de sustitución hacia atrás .

La descomposición de Cholesky se puede calcular sin formarse explícitamente, utilizando alternativamente la descomposición QR de , donde tiene columnas ortonormales, y es triangular superior. Entonces

también lo es el factor de Cholesky de .

El caso de rango de fila completo se trata de manera similar usando la fórmula y un argumento similar, intercambiando los roles de y .

Usar polinomios en matrices

Para un arbitrario , se tiene que es normal y, como consecuencia, una matriz EP. Luego, Ona puede encontrar un polinomio tal que . En este caso se tiene que la pseudoinversa de viene dada por [17]

Descomposición de valores singulares (SVD)

Una forma computacionalmente simple y precisa de calcular la pseudoinversa es mediante la descomposición en valores singulares . [16] [8] [19] Si es la descomposición en valores singulares de , entonces . Para una matriz diagonal rectangular como , obtenemos la pseudoinversa tomando el recíproco de cada elemento distinto de cero en la diagonal, dejando los ceros en su lugar y luego transponiendo la matriz. En el cálculo numérico, sólo los elementos mayores que una pequeña tolerancia se consideran distintos de cero y los demás se reemplazan por ceros. Por ejemplo, en la función pinv de MATLAB o GNU Octave , la tolerancia se toma como t = ε⋅max( m , n )⋅max(Σ) , donde ε es el épsilon de la máquina .

El costo computacional de este método está dominado por el costo de calcular el SVD, que es varias veces mayor que la multiplicación matriz-matriz, incluso si se utiliza una implementación de última generación (como la de LAPACK ).

El procedimiento anterior muestra por qué tomar la pseudoinversa no es una operación continua: si la matriz original tiene un valor singular 0 (una entrada diagonal de la matriz anterior), entonces modificar ligeramente puede convertir este cero en un pequeño número positivo, afectando así a la pseudoinversa. dramáticamente ya que ahora tenemos que tomar el recíproco de un número diminuto.

matrices de bloques

Existen enfoques optimizados para calcular la pseudoinversa de matrices estructuradas en bloques.

El método iterativo de Ben-Israel y Cohen

Otro método para calcular la pseudoinversa (cf. Drazin inversa ) utiliza la recursividad

que a veces se conoce como secuencia de hiperpoderes. Esta recursividad produce una secuencia que converge cuadráticamente a la pseudoinversa de si se comienza con un satisfactorio apropiado . Se ha argumentado que la elección (donde , que denota el valor singular más grande de ) [20] no es competitiva con el método que utiliza el SVD mencionado anteriormente, porque incluso para matrices moderadamente mal condicionadas toma mucho tiempo antes de ingresar a la región de convergencia cuadrática. [21] Sin embargo, si se comienza con una relación ya cercana a la inversa de Moore-Penrose y , por ejemplo , la convergencia es rápida (cuadrática).

Actualizando el pseudoinverso

Para los casos en los que tiene rango completo de fila o columna, y ya se conoce la inversa de la matriz de correlación ( para rango completo de fila o rango completo de columna), la pseudoinversa para matrices relacionadas se puede calcular aplicando el método de Sherman-Morrison- Fórmula de Woodbury para actualizar la inversa de la matriz de correlación, que puede requerir menos trabajo. En particular, si la matriz relacionada difiere de la original sólo en una fila o columna modificada, agregada o eliminada, existen algoritmos incrementales que explotan la relación. [22] [23]

De manera similar, es posible actualizar el factor de Cholesky cuando se agrega una fila o columna, sin crear explícitamente la inversa de la matriz de correlación. Sin embargo, actualizar la pseudoinversa en el caso general de rango deficiente es mucho más complicado. [24] [25]

Bibliotecas de software

Implementaciones de alta calidad de SVD, QR y sustitución inversa están disponibles en bibliotecas estándar, como LAPACK . Escribir la propia implementación de SVD es un proyecto de programación importante que requiere una experiencia numérica significativa . Sin embargo, en circunstancias especiales, como la computación paralela o la computación integrada , pueden ser preferibles implementaciones alternativas mediante QR o incluso el uso de un inverso explícito, y las implementaciones personalizadas pueden ser inevitables.

El paquete Python NumPy proporciona un cálculo pseudoinverso a través de sus funciones matrix.Iy linalg.pinv; Utiliza pinvel algoritmo basado en SVD. SciPy agrega una función scipy.linalg.pinvque utiliza un solucionador de mínimos cuadrados.

El paquete MASS para R proporciona un cálculo de la inversa de Moore-Penrose a través de la ginvfunción. [26] La ginvfunción calcula una pseudoinversa utilizando la descomposición de valores singulares proporcionada por la svdfunción en el paquete base R. Una alternativa es emplear la pinvfunción disponible en el paquete pracma.

El lenguaje de programación Octave proporciona una pseudoinversa a través de la función pinvy el pseudo_inverse()método del paquete estándar.

En Julia (lenguaje de programación) , el paquete LinearAlgebra de la biblioteca estándar proporciona una implementación de la inversa de Moore-Penrose pinv()implementada mediante descomposición de valores singulares. [27]

Aplicaciones

Mínimos cuadrados lineales

La pseudoinversa proporciona una solución de mínimos cuadrados a un sistema de ecuaciones lineales . [28] Para , dado un sistema de ecuaciones lineales

en general, es posible que no exista un vector que resuelva el sistema o, si existe, que no sea único. Más específicamente, existe una solución si y solo si es a imagen de y es única si y solo si es inyectiva. La pseudoinversa resuelve el problema de los "mínimos cuadrados" de la siguiente manera:

Este resultado se extiende fácilmente a sistemas con múltiples lados derechos, cuando la norma euclidiana se reemplaza por la norma de Frobenius. Dejar .

Obtención de todas las soluciones de un sistema lineal.

Si el sistema lineal

tiene alguna solución, todas están dadas por [30]

para vector arbitrario . Las soluciones existen si y sólo si . [30] Si esto último se cumple, entonces la solución es única si y sólo si tiene rango de columna completo, en cuyo caso es una matriz cero. Si existen soluciones pero no tienen rango de columna completo, entonces tenemos un sistema indeterminado , cuya infinidad de soluciones están dadas por esta última ecuación.

Solución de norma mínima para un sistema lineal.

Para sistemas lineales con soluciones no únicas (como sistemas indeterminados), se puede utilizar la pseudoinversa para construir la solución de la norma euclidiana mínima entre todas las soluciones.

Este resultado se extiende fácilmente a sistemas con múltiples lados derechos, cuando la norma euclidiana se reemplaza por la norma de Frobenius. Dejar .

Número de condición

Usando la pseudoinversa y una norma matricial , se puede definir un número de condición para cualquier matriz:

Un número de condición grande implica que el problema de encontrar soluciones de mínimos cuadrados al correspondiente sistema de ecuaciones lineales está mal condicionado en el sentido de que pequeños errores en las entradas de pueden conducir a grandes errores en las entradas de la solución. [31]

Generalizaciones

Para resolver problemas de mínimos cuadrados más generales, se pueden definir inversas de Moore-Penrose para todos los operadores lineales continuos entre dos espacios de Hilbert y , utilizando las mismas cuatro condiciones que en nuestra definición anterior. Resulta que no todo operador lineal continuo tiene un pseudoinverso lineal continuo en este sentido. [31] Los que sí lo hacen son precisamente aquellos cuyo rango se cierra en .

Existe una noción de pseudoinversa para matrices sobre un campo arbitrario equipado con un automorfismo involutivo arbitrario . En este contexto más general, una matriz determinada no siempre tiene una pseudoinversa. La condición necesaria y suficiente para que exista una pseudoinversa es que , donde denota el resultado de aplicar la operación de involución a la transpuesta de . Cuando existe, es único. [32] Ejemplo : Considere el campo de números complejos equipado con la involución de identidad (a diferencia de la involución considerada en otra parte del artículo); ¿Existen matrices que no tengan pseudoinversas en este sentido? Considere la matriz . Observa eso mientras . Entonces esta matriz no tiene una pseudoinversa en este sentido.

En álgebra abstracta , se puede definir una inversa de Moore-Penrose en un semigrupo *-regular . Esta definición abstracta coincide con la del álgebra lineal.

Ver también

Notas

  1. ^ Ben-Israel y Greville 2003, pág. 7.
  2. ^ Campbell y Meyer 1991, pág. 10.
  3. ^ Nakamura 1991, pág. 42.
  4. ^ Rao y Mitra 1971, pág. 50–51.
  5. ^ Moore, EH (1920). "Sobre el recíproco de la matriz algebraica general". Boletín de la Sociedad Matemática Estadounidense . 26 (9): 394–95. doi : 10.1090/S0002-9904-1920-03322-7 .
  6. ^ Bjerhammar, Arne (1951). "Aplicación del cálculo de matrices al método de mínimos cuadrados; con especial referencia a los cálculos geodésicos". Trans. Roy. Inst. Tecnología. Estocolmo . 49 .
  7. ^ ab Penrose, Roger (1955). "Una inversa generalizada para matrices". Actas de la Sociedad Filosófica de Cambridge . 51 (3): 406–13. Código Bib : 1955PCPS...51..406P. doi : 10.1017/S0305004100030401 .
  8. ^ abcde Golub, Gene H .; Préstamo Charles F. Van (1996). Cálculos matriciales (3ª ed.). Baltimore: John Hopkins. págs. 257-258. ISBN 978-0-8018-5414-9.
  9. ^ abc Stoer, Josef; Bulirsch, Roland (2002). Introducción al análisis numérico (3ª ed.). Berlín, Nueva York: Springer-Verlag . ISBN 978-0-387-95452-3..
  10. ^ Greville, TNE (1 de octubre de 1966). "Nota sobre la inversa generalizada de un producto matricial". Revisión SIAM . 8 (4): 518–521. Código Bib : 1966SIAMR...8..518G. doi :10.1137/1008107. ISSN  0036-1445.
  11. ^ Maciejewski, Anthony A.; Klein, Charles A. (1985). "Evitación de obstáculos para manipuladores cinemáticamente redundantes en entornos que varían dinámicamente". Revista Internacional de Investigación en Robótica . 4 (3): 109–117. doi :10.1177/027836498500400308. hdl : 10217/536 . S2CID  17660144.
  12. ^ Rakočević, Vladimir (1997). "Sobre la continuidad de las inversas de Moore-Penrose y Drazin" (PDF) . Matematički Vesnik . 49 : 163–72.
  13. ^ Golub, GH; Pereyra, V. (abril de 1973). "La diferenciación de problemas de mínimos cuadrados no lineales y pseudoinversos cuyas variables se separan". Revista SIAM de Análisis Numérico . 10 (2): 413–32. Código bibliográfico : 1973SJNA...10..413G. doi :10.1137/0710036. JSTOR  2156365.
  14. ^ Hjørungnes, Son (2011). Derivados matriciales de valores complejos: con aplicaciones en procesamiento de señales y comunicaciones . Nueva York: prensa de la Universidad de Cambridge. pag. 52.ISBN 9780521192644.
  15. ^ Liu, Shuangzhe; Trenkler, Götz; Kollo, Tõnu; von Rosen, Dietrich; Baksalary, Oskar María (2023). "El profesor Heinz Neudecker y el cálculo diferencial matricial". Artículos estadísticos . doi :10.1007/s00362-023-01499-w.
  16. ^ ab Ben-Israel y Greville 2003.
  17. ^ ab Bajo, I. (2021). "Cálculo de inversas de Moore-Penrose con polinomios en matrices". Mensual Matemático Estadounidense . 128 (5): 446–456. doi : 10.1080/00029890.2021.1886840.
  18. ^ Puestos, peso; Boullión, TL (1972). "La pseudoinversa de una matriz circulante r ". Actas de la Sociedad Matemática Estadounidense . 34 (2): 385–88. doi :10.2307/2038377. JSTOR  2038377.
  19. ^ Sistemas lineales y pseudoinversos
  20. ^ Ben-Israel, Adi; Cohen, Dan (1966). "Sobre el cálculo iterativo de inversas generalizadas y proyecciones asociadas". Revista SIAM de Análisis Numérico . 3 (3): 410–19. Código Bib : 1966SJNA....3..410B. doi :10.1137/0703035. JSTOR  2949637.pdf
  21. ^ Söderström, Torsten; Stewart, GW (1974). "Sobre las propiedades numéricas de un método iterativo para calcular la inversa generalizada de Moore-Penrose". Revista SIAM de Análisis Numérico . 11 (1): 61–74. Código Bib : 1974SJNA...11...61S. doi :10.1137/0711008. JSTOR  2156431.
  22. ^ Gramß, Tino (1992). Worterkennung mit einem künstlichen neuronalen Netzwerk (tesis doctoral). Georg-August-Universität zu Göttingen. OCLC  841706164.
  23. ^ Emtiyaz, Mohammad (27 de febrero de 2008). "Actualización de la inversa de una matriz cuando se agrega o elimina una columna" (PDF) .
  24. ^ Meyer, Carl D. Jr. (1973). "Inversas generalizadas y rangos de matrices de bloques". SIAM J. Aplicación. Matemáticas . 25 (4): 597–602. doi :10.1137/0125057.
  25. ^ Meyer, Carl D. Jr. (1973). "Inversión generalizada de matrices modificadas". SIAM J. Aplicación. Matemáticas . 24 (3): 315–23. doi :10.1137/0124033.
  26. ^ "R: inversa generalizada de una matriz".
  27. ^ "LinearAlgebra.pinv".
  28. ^ Penrose, Roger (1956). "Sobre la mejor solución aproximada de ecuaciones matriciales lineales". Actas de la Sociedad Filosófica de Cambridge . 52 (1): 17-19. Código Bib : 1956PCPS...52...17P. doi :10.1017/S0305004100030929. S2CID  122260851.
  29. ^ ab Planitz, M. (octubre de 1979). "Sistemas inconsistentes de ecuaciones lineales". Gaceta Matemática . 63 (425): 181–85. doi :10.2307/3617890. JSTOR  3617890. S2CID  125601192.
  30. ^ ab James, M. (junio de 1978). "La inversa generalizada". Gaceta Matemática . 62 (420): 109–14. doi :10.1017/S0025557200086460. S2CID  126385532.
  31. ^ ab Hagen, Roland; Roch, Steffen; Silbermann, Bernd (2001). "Sección 2.1.2". C*-álgebras y análisis numérico . Prensa CRC.
  32. ^ Perla, Martín H. (1 de octubre de 1968). "Inversas generalizadas de matrices con entradas tomadas de un campo arbitrario". Álgebra lineal y sus aplicaciones . 1 (4): 571–587. doi : 10.1016/0024-3795(68)90028-1 . ISSN  0024-3795.

Referencias

enlaces externos