stringtranslate.com

Identidad de la matriz de Woodbury

En matemáticas (específicamente álgebra lineal ), la identidad de la matriz de Woodbury , que lleva el nombre de Max A. Woodbury , [1] [2] dice que la inversa de una corrección de rango k de alguna matriz se puede calcular haciendo una corrección de rango k para la inversa de la matriz original. Los nombres alternativos para esta fórmula son lema de inversión matricial , fórmula de Sherman-Morrison-Woodbury o simplemente fórmula de Woodbury . Sin embargo, la identidad apareció en varios periódicos antes del informe Woodbury. [3] [4]

La identidad de la matriz de Woodbury es [5]

donde A , U , C y V son matrices conformables : A es n × n , C es k × k , U es n × k y V es k × n . Esto se puede derivar utilizando la inversión de matrices en bloques .

Si bien la identidad se usa principalmente en matrices, se mantiene en un anillo general o en una categoría Ab .

La identidad de la matriz de Woodbury permite el cálculo económico de inversas y soluciones de ecuaciones lineales. Sin embargo, se sabe poco sobre la estabilidad numérica de la fórmula. No hay resultados publicados sobre sus límites de error. La evidencia anecdótica [6] sugiere que puede divergir incluso en ejemplos aparentemente benignos (cuando tanto la matriz original como la modificada están bien condicionadas).

Discusión

Para probar este resultado, comenzaremos demostrando uno más simple. Reemplazando A y C con la matriz identidad I , obtenemos otra identidad un poco más simple: Para recuperar la ecuación original a partir de esta identidad reducida , reemplaza por y por .

Esta identidad en sí misma puede verse como la combinación de dos identidades más simples. Obtenemos la primera identidad de esta manera, y de manera similar. La segunda identidad es la llamada identidad de paso [7] que obtenemos después de multiplicar por a la derecha y por a la izquierda.

Sumando todo, donde la primera y segunda igualdad provienen de la primera y segunda identidad, respectivamente.

Casos especiales

Cuando son vectores, la identidad se reduce a la fórmula de Sherman-Morrison .

En el caso escalar, la versión reducida es simplemente

Inversa de una suma

Si n = k y U = V = I n es la matriz identidad, entonces

Continuando con la fusión de los términos del extremo derecho de la ecuación anterior se obtiene la identidad de Hua.

Otra forma útil de la misma identidad es

que, a diferencia de los anteriores, es válido incluso si es singular y tiene una estructura recursiva que cede si el radio espectral de es menor que uno. Es decir, si la suma anterior converge entonces es igual a .

Esta forma se puede utilizar en expansiones perturbativas donde B es una perturbación de A.

Variaciones

Teorema del inverso del binomio

Si A , B , U , V son matrices de tamaños n × n , k × k , n × k , k × n , respectivamente, entonces

siempre que A y B + BVA −1 UB sean no singulares. La no singularidad de este último requiere que B −1 exista ya que es igual a B ( I + VA −1 UB ) y el rango de este último no puede exceder el rango de B. [7]

Dado que B es invertible, los dos términos B que flanquean la cantidad entre paréntesis inversa en el lado derecho se pueden reemplazar con ( B −1 ) −1 , lo que da como resultado la identidad de Woodbury original.

Una variación para cuando B es singular y posiblemente incluso no cuadrado: [7]

También existen fórmulas para ciertos casos en los que A es singular. [8]

Pseudoinversa con matrices semidefinidas positivas

En general, la identidad de Woodbury no es válida si una o más inversas se reemplazan por pseudoinversas (Moore-Penrose) . Sin embargo, si y son semidefinidos positivos , y (lo que implica que en sí mismos son semidefinidos positivos), entonces la siguiente fórmula proporciona una generalización: [9] [10]

donde se puede escribir como porque cualquier matriz semidefinida positiva es igual a para algunos .

Derivaciones

prueba directa

La fórmula se puede probar comprobando que multiplicado por su supuesto inverso en el lado derecho de la identidad de Woodbury da la matriz de identidad:

Pruebas alternativas

Aplicaciones

Esta identidad es útil en ciertos cálculos numéricos donde ya se ha calculado A −1 y se desea calcular ( A  +  UCV ) −1 . Con la inversa de A disponible, sólo es necesario encontrar la inversa de C −1  +  VA −1 U para obtener el resultado utilizando el lado derecho de la identidad. Si C tiene una dimensión mucho más pequeña que A , esto es más eficiente que invertir A  +  UCV directamente. Un caso común es encontrar la inversa de una actualización de bajo rango A  +  UCV de A (donde U solo tiene unas pocas columnas y V solo unas pocas filas), o encontrar una aproximación de la inversa de la matriz A  +  B donde la matriz B puede aproximarse mediante una matriz de bajo rango UCV , por ejemplo utilizando la descomposición en valores singulares .

Esto se aplica, por ejemplo, en el filtro de Kalman y en los métodos recursivos de mínimos cuadrados , para reemplazar la solución paramétrica , que requiere la inversión de una matriz del tamaño de un vector de estado, con una solución basada en ecuaciones de condición. En el caso del filtro de Kalman, esta matriz tiene las dimensiones del vector de observaciones, es decir, tan pequeñas como 1 en caso de que sólo se procese una nueva observación a la vez. Esto acelera significativamente los cálculos del filtro, a menudo en tiempo real.

En el caso de que C sea la matriz identidad I , la matriz se conoce en álgebra lineal numérica y en ecuaciones diferenciales parciales numéricas como matriz de capacitancia . [4]

Ver también

Notas

  1. ^ Max A. Woodbury, Inversión de matrices modificadas , Memorándum Rept. 42, Grupo de Investigación Estadística, Universidad de Princeton, Princeton, Nueva Jersey, 1950, 4pp MR 38136
  2. ^ Max A. Woodbury, La estabilidad de las matrices de entrada y salida . Chicago, Illinois, 1949. 5 págs. MR 32564
  3. ^ Guttmann, Luis (1946). "Métodos de ampliación para calcular la matriz inversa". Ana. Matemáticas. Estatista . 17 (3): 336–343. doi : 10.1214/aoms/1177730946 .
  4. ^ ab Hager, William W. (1989). "Actualización de la inversa de una matriz". Revisión SIAM . 31 (2): 221–239. doi :10.1137/1031049. JSTOR  2030425. SEÑOR  0997457.
  5. ^ Higham, Nicolás (2002). Precisión y estabilidad de algoritmos numéricos (2ª ed.). SIAM . pag. 258.ISBN 978-0-89871-521-7. SEÑOR  1927606.
  6. ^ "Discusión sobre MathOverflow". Desbordamiento matemático .
  7. ^ abc Henderson, HV; Searle, SR (1981). "Sobre derivar la inversa de una suma de matrices" (PDF) . Revisión SIAM . 23 (1): 53–60. doi :10.1137/1023004. hdl : 1813/32749 . JSTOR  2029838.
  8. ^ Kurt S. Riedel, "Una identidad de Sherman-Morrison-Woodbury para matrices de aumento de rangos con aplicación al centrado", Revista SIAM sobre análisis y aplicaciones de matrices , 13 (1992) 659-662, doi :10.1137/0613040 preimpresión MR 1152773
  9. ^ Bernstein, Dennis S. (2018). Matemáticas escalares, vectoriales y matriciales: teoría, hechos y fórmulas (edición revisada y ampliada). Princeton: Prensa de la Universidad de Princeton. pag. 638.ISBN 9780691151205.
  10. ^ Schott, James R. (2017). Análisis matricial para estadística (Tercera ed.). Hoboken, Nueva Jersey: John Wiley & Sons, Inc. p. 219.ISBN 9781119092483.

enlaces externos