stringtranslate.com

Raíz cuadrada de una matriz

En matemáticas , la raíz cuadrada de una matriz extiende la noción de raíz cuadrada de los números a las matrices . Se dice que una matriz B es una raíz cuadrada de A si el producto de matrices BB es igual a A. [1 ]

Algunos autores utilizan el nombre raíz cuadrada o la notación A 1/2 sólo para el caso específico cuando A es semidefinida positiva , para denotar la única matriz B que es semidefinida positiva y tal que BB = B T B = A (para matrices de valores reales, donde B T es la transpuesta de B ).

Con menor frecuencia, el nombre raíz cuadrada puede usarse para cualquier factorización de una matriz semidefinida positiva A como B T B = A , como en la factorización de Cholesky , incluso si BB ≠ A . Este significado distinto se analiza en Matriz definida positiva § Descomposición .

Ejemplos

En general, una matriz puede tener varias raíces cuadradas. En particular, si entonces también.

La matriz identidad 2×2 tiene infinitas raíces cuadradas. Se dan por

y

donde son números cualesquiera (reales o complejos) tales que . En particular, si es cualquier terna pitagórica , es decir, cualquier conjunto de enteros positivos tales que , entonces es una matriz de raíz cuadrada de la cual es simétrica y tiene entradas racionales. [2] Por lo tanto

La identidad negativa tiene raíz cuadrada, por ejemplo:

que se puede utilizar para representar la unidad imaginaria i y, por lo tanto, todos los números complejos utilizando matrices reales de 2×2, véase Representación matricial de números complejos .

Al igual que con los números reales , una matriz real puede no tener una raíz cuadrada real, pero tener una raíz cuadrada con entradas de valor complejo . Algunas matrices no tienen raíz cuadrada. Un ejemplo es la matriz

Mientras que la raíz cuadrada de un entero no negativo es nuevamente un entero o un número irracional , por el contrario, una matriz entera puede tener una raíz cuadrada cuyas entradas son racionales, pero no integrales, como en los ejemplos anteriores.

Matrices semidefinidas positivas

Una matriz real simétrica n × n se llama semidefinida positiva si para todo (aquí denota la transpuesta , cambiando un vector columna x en un vector fila). Una matriz real cuadrada es semidefinida positiva si y solo si para alguna matriz B . Puede haber muchas matrices B diferentes de este tipo . Una matriz semidefinida positiva A también puede tener muchas matrices B tales que . Sin embargo, A siempre tiene precisamente una raíz cuadrada B que es semidefinida positiva y simétrica. En particular, dado que se requiere que B sea simétrica, , por lo que las dos condiciones o son equivalentes.

Para matrices de valores complejos, se utiliza la transpuesta conjugada y las matrices semidefinidas positivas son hermíticas , es decir , .

Teorema [3]  —  Sea A una matriz semidefinida positiva y simétrica (nótese que A puede ser semidefinida positiva pero no simétrica). Entonces hay exactamente una matriz semidefinida positiva y simétrica B tal que . Nótese que puede haber más de una matriz semidefinida positiva y no simétrica tal que

Esta matriz única se llama raíz cuadrada principal , no negativa o positiva (esta última en el caso de matrices definidas positivas ).

La raíz cuadrada principal de una matriz semidefinida positiva real es real. [3] La raíz cuadrada principal de una matriz definida positiva es definida positiva; de manera más general, el rango de la raíz cuadrada principal de A es el mismo que el rango de A . [3]

La operación de tomar la raíz cuadrada principal es continua en este conjunto de matrices. [4] Estas propiedades son consecuencias del cálculo funcional holomórfico aplicado a matrices. [5] [6] La existencia y unicidad de la raíz cuadrada principal se puede deducir directamente de la forma normal de Jordan (ver más abajo).

Matrices con valores propios distintos

Una matriz n × n con n valores propios distintos de cero tiene 2 n raíces cuadradas. Una matriz de este tipo, A , tiene una descomposición propia VDV −1 donde V es la matriz cuyas columnas son vectores propios de A y D es la matriz diagonal cuyos elementos diagonales son los n valores propios correspondientes λ i . Por lo tanto, las raíces cuadradas de A están dadas por VD 1/2 V −1 , donde D 1/2 es cualquier matriz raíz cuadrada de D , que, para valores propios distintos, debe ser diagonal con elementos diagonales iguales a las raíces cuadradas de los elementos diagonales de D ; dado que hay dos opciones posibles para una raíz cuadrada de cada elemento diagonal de D , hay 2 n opciones para la matriz D 1/2 .

Esto también conduce a una prueba de la observación anterior, de que una matriz definida positiva tiene precisamente una raíz cuadrada definida positiva: una matriz definida positiva solo tiene valores propios positivos, y cada uno de estos valores propios tiene solo una raíz cuadrada positiva; y dado que los valores propios de la matriz de raíz cuadrada son los elementos diagonales de D 1/2 , para que la matriz de raíz cuadrada sea en sí misma definida positiva se necesita el uso solo de las raíces cuadradas positivas únicas de los valores propios originales.

Soluciones en forma cerrada

Si una matriz es idempotente , es decir , entonces, por definición, una de sus raíces cuadradas es la matriz misma.

Matrices diagonales y triangulares

Si D es una matriz diagonal n × n , entonces algunas de sus raíces cuadradas son matrices diagonales , donde . Si los elementos diagonales de D son reales y no negativos, entonces es semidefinida positiva, y si las raíces cuadradas se toman con signo no negativo, la matriz resultante es la raíz principal de D . Una matriz diagonal puede tener raíces no diagonales adicionales si algunas entradas en la diagonal son iguales, como se ejemplifica con la matriz identidad anterior.

Si U es una matriz triangular superior (lo que significa que sus entradas son para ) y como máximo una de sus entradas diagonales es cero, entonces se puede encontrar una solución triangular superior de la ecuación de la siguiente manera. Como la ecuación debe cumplirse, sea la raíz cuadrada principal del número complejo . Por el supuesto , esto garantiza que para todo i,j (porque las raíces cuadradas principales de los números complejos se encuentran todas en una mitad del plano complejo). De la ecuación

deducimos que se puede calcular recursivamente para aumentar de 1 a n -1 como:

Si U es triangular superior pero tiene múltiples ceros en la diagonal, entonces podría no existir una raíz cuadrada, como lo ejemplifica . Tenga en cuenta que las entradas diagonales de una matriz triangular son precisamente sus valores propios (consulte Matriz triangular#Propiedades ).

Por diagonalización

Una matriz A de n × n es diagonalizable si existe una matriz V y una matriz diagonal D tales que A = VDV −1 . Esto sucede si y solo si A tiene n vectores propios que constituyen una base para C n . En este caso, V puede elegirse como la matriz con los n vectores propios como columnas y, por lo tanto, una raíz cuadrada de A es

donde S es cualquier raíz cuadrada de D. De hecho,

Por ejemplo, la matriz se puede diagonalizar como VDV −1 , donde

y .

D tiene raíz cuadrada principal

,

dando la raíz cuadrada

.

Cuando A es simétrica, la matriz diagonalizante V puede convertirse en una matriz ortogonal eligiendo adecuadamente los vectores propios (véase el teorema espectral ). Entonces, la inversa de V es simplemente la transpuesta, de modo que

Por descomposición de Schur

Toda matriz cuadrada de valores complejos , independientemente de su diagonalización, tiene una descomposición de Schur dada por donde es triangular superior y es unitaria (es decir ). Los valores propios de son exactamente las entradas diagonales de ; si como máximo uno de ellos es cero, entonces lo siguiente es una raíz cuadrada [7]

donde se puede encontrar una raíz cuadrada de la matriz triangular superior como se describe arriba.

Si es definida positiva, entonces los valores propios son todos reales positivos, por lo que la diagonal elegida de también consta de reales positivos. Por lo tanto, los valores propios de son reales positivos, lo que significa que la matriz resultante es la raíz principal de .

Por descomposición de Jordania

De manera similar a la descomposición de Schur, cada matriz cuadrada se puede descomponer como donde P es invertible y J está en forma normal de Jordan .

Para ver que cualquier matriz compleja con valores propios positivos tiene una raíz cuadrada de la misma forma, basta con comprobarlo para un bloque de Jordan. Cualquier bloque de este tipo tiene la forma λ( I + N ) con λ > 0 y N nilpotente . Si (1 + z ) 1/2 = 1 + a 1 z + a 2 z 2 + ⋯ es la expansión binomial para la raíz cuadrada (válida en | z | < 1), entonces como una serie de potencias formales su cuadrado es igual a 1 + z . Sustituyendo N por z , solo un número finito de términos serán distintos de cero y S = √λ ( I + a 1 N + a 2 N 2 + ⋯) da una raíz cuadrada del bloque de Jordan con valor propio √λ .

Basta con comprobar la unicidad para un bloque de Jordan con λ = 1. El cuadrado construido anteriormente tiene la forma S = I + L donde L es polinomio en N sin término constante. Cualquier otra raíz cuadrada T con valores propios positivos tiene la forma T = I + M con M nilpotente, conmutando con N y por tanto L . Pero entonces 0 = S 2T 2 = 2( LM )( I + ( L + M )/2) . Como L y M conmutan, la matriz L + M es nilpotente e I + ( L + M )/2 es invertible con inversa dada por una serie de Neumann . Por tanto L = M .

Si A es una matriz con valores propios positivos y polinomio mínimo p ( t ) , entonces la descomposición de Jordan en espacios propios generalizados de A se puede deducir de la expansión en fracciones parciales de p ( t ) −1 . Las proyecciones correspondientes sobre los espacios propios generalizados están dadas por polinomios reales en A . En cada espacio propio, A tiene la forma λ ( I + N ) como se indicó anteriormente. La expresión de la serie de potencias para la raíz cuadrada en el espacio propio muestra que la raíz cuadrada principal de A tiene la forma q ( A ) donde q ( t ) es un polinomio con coeficientes reales.

Serie de potencias

Recordemos la serie de potencias formal , que converge siempre que (ya que los coeficientes de la serie de potencias son sumables). Al introducir en esta expresión obtenemos

siempre que . En virtud de la fórmula de Gelfand , esa condición es equivalente al requisito de que el espectro de esté contenido dentro del disco . Este método de definición o cálculo es especialmente útil en el caso en que es semidefinido positivo. En ese caso, tenemos y por lo tanto , de modo que la expresión define una raíz cuadrada de que además resulta ser la única raíz semidefinida positiva. Este método sigue siendo válido para definir raíces cuadradas de operadores en espacios de Banach o de Hilbert de dimensión infinita o ciertos elementos de álgebras de Banach (C*).

Soluciones iterativas

Por la iteración de Denman-Beavers

Otra forma de encontrar la raíz cuadrada de una matriz n × n A es la iteración de raíz cuadrada de Denman-Beavers. [8]

Sea Y 0 = A y Z 0 = I , donde I es la matriz identidad n × n . La iteración se define por

Como esto utiliza un par de secuencias de inversas de matrices cuyos elementos posteriores cambian comparativamente poco, solo los primeros elementos tienen un alto costo computacional ya que el resto se puede calcular a partir de elementos anteriores con solo unas pocas pasadas de una variante del método de Newton para calcular inversas .

Con esto, para valores posteriores de k se establecería y y luego se usaría para algunos pequeños (quizás solo 1), y de manera similar para

La convergencia no está garantizada, incluso para matrices que tienen raíces cuadradas, pero si el proceso converge, la matriz converge cuadráticamente a una raíz cuadrada A 1/2 , mientras que converge a su inversa, A −1/2 .

Por el método babilónico

Otro método iterativo se obtiene tomando la conocida fórmula del método babilónico para calcular la raíz cuadrada de un número real y aplicándola a matrices. Sea X 0 = I , donde I es la matriz identidad . La iteración se define por

Nuevamente, la convergencia no está garantizada, pero si el proceso converge, la matriz converge cuadráticamente a una raíz cuadrada A 1/2 . Comparado con la iteración de Denman-Beavers, una ventaja del método babilónico es que solo se necesita calcular una matriz inversa por paso de iteración. Por otro lado, como la iteración de Denman-Beavers usa un par de secuencias de matrices inversas cuyos elementos posteriores cambian comparativamente poco, solo los primeros elementos tienen un alto costo computacional ya que el resto se puede calcular a partir de elementos anteriores con solo unas pocas pasadas de una variante del método de Newton para calcular inversas (ver la iteración de Denman-Beavers arriba); por supuesto, se puede usar el mismo enfoque para obtener la secuencia única de inversas necesarias para el método babilónico. Sin embargo, a diferencia de la iteración de Denman-Beavers, el método babilónico es numéricamente inestable y es más probable que no converja. [1]

El método babilónico se deriva del método de Newton para la ecuación y se utiliza para todos los [9]

Raíces cuadradas de operadores positivos

En álgebra lineal y teoría de operadores , dado un operador semidefinido positivo acotado (un operador no negativo) T en un espacio de Hilbert complejo, B es una raíz cuadrada de T si T = B* B , donde B* denota el adjunto hermítico de B . [ cita requerida ] Según el teorema espectral , el cálculo funcional continuo se puede aplicar para obtener un operador T 1/2 tal que T 1/2 sea en sí mismo positivo y ( T 1/2 ) 2 = T . El operador T 1/2 es la única raíz cuadrada no negativa de T . [ cita requerida ]

Un operador no negativo acotado en un espacio de Hilbert complejo es autoadjunto por definición. Por lo tanto , T = ( T 1/2 )* T 1/2 . A la inversa, es trivialmente cierto que todo operador de la forma B* B es no negativo. Por lo tanto, un operador T es no negativo si y solo si T = B* B para algún B (equivalentemente, T = CC* para algún C ).

La factorización de Cholesky proporciona otro ejemplo particular de raíz cuadrada, que no debe confundirse con la única raíz cuadrada no negativa.

Libertad unitaria de raíces cuadradas

Si T es un operador no negativo en un espacio de Hilbert de dimensión finita, entonces todas las raíces cuadradas de T están relacionadas mediante transformaciones unitarias. Más precisamente, si T = A*A = B*B , entonces existe una U unitaria tal que A = UB .

De hecho, tomemos B = T 1/2 ser la única raíz cuadrada no negativa de T . Si T es estrictamente positivo, entonces B es invertible, y por lo tanto U = AB −1 es unitario:

Si T es no negativo sin ser estrictamente positivo, entonces no se puede definir la inversa de B , pero sí la pseudoinversa de Moore–Penrose B + . En ese caso, el operador B + A es una isometría parcial , es decir, un operador unitario desde el rango de T hasta sí mismo. Esto se puede extender a un operador unitario U en todo el espacio fijándolo igual a la identidad en el núcleo de T. De manera más general, esto es cierto en un espacio de Hilbert de dimensión infinita si, además, T tiene rango cerrado . En general, si A , B son operadores cerrados y densamente definidos en un espacio de Hilbert H , y A* A = B* B , entonces A = UB donde U es una isometría parcial.

Algunas aplicaciones

Las raíces cuadradas y la libertad unitaria de las raíces cuadradas tienen aplicaciones en todo el análisis funcional y el álgebra lineal.

Descomposición polar

Si A es un operador invertible en un espacio de Hilbert de dimensión finita, entonces existe un operador unitario único U y un operador positivo P tales que

Esta es la descomposición polar de A . El operador positivo P es la única raíz cuadrada positiva del operador positivo A A , y U se define por U = AP −1 .

Si A no es invertible, entonces todavía tiene una composición polar en la que P se define de la misma manera (y es único). El operador unitario U no es único. Más bien es posible determinar un operador unitario "natural" de la siguiente manera: AP + es un operador unitario del rango de A a sí mismo, que puede extenderse por la identidad en el núcleo de A . El operador unitario resultante U produce entonces la descomposición polar de A .

Operadores de Kraus

Según el resultado de Choi, un mapa lineal

es completamente positivo si y sólo si es de la forma

donde knm . Sea { E pq } ⊂ C n × n las n 2 unidades matriciales elementales. La matriz positiva

se llama matriz Choi de Φ. Los operadores de Kraus corresponden a las raíces cuadradas, no necesariamente cuadradas, de M Φ : Para cualquier raíz cuadrada B de M Φ , se puede obtener una familia de operadores de Kraus V i deshaciendo la operación Vec en cada columna b i de B . Por lo tanto, todos los conjuntos de operadores de Kraus están relacionados por isometrías parciales.

Conjuntos mixtos

En física cuántica, una matriz de densidad para un sistema cuántico de nivel n es una matriz compleja n × n ρ que es semidefinida positiva con traza 1. Si ρ se puede expresar como

donde y Σ p i = 1, el conjunto

se dice que es un conjunto que describe el estado mixto ρ . Observe que no se requiere que { v i } sea ortogonal. Diferentes conjuntos que describen el estado ρ están relacionados por operadores unitarios, a través de las raíces cuadradas de ρ . Por ejemplo, supongamos

La condición de traza 1 significa

Dejar

y v i sea la a i normalizada . Vemos que

da el estado mixto ρ .

Véase también

Notas

  1. ^ ab Higham, Nicholas J. (abril de 1986), "El método de Newton para la raíz cuadrada de la matriz" (PDF) , Mathematics of Computation , 46 (174): 537–549, doi :10.2307/2007992, JSTOR  2007992
  2. ^ Mitchell, Douglas W. (noviembre de 2003). "Uso de ternas pitagóricas para generar raíces cuadradas de I 2 {\displaystyle I_{2}}". The Mathematical Gazette . 87 (510): 499–500. doi : 10.1017/s0025557200173723 .
  3. ^ abc Horn & Johnson (2013), pág. 439, Teorema 7.2.6 con
  4. ^ Horn, Roger A.; Johnson, Charles R. (1990). Análisis de matrices . Cambridge: Cambridge Univ. Press. pág. 411. ISBN. 9780521386326.
  5. ^ Para funciones analíticas de matrices, véase
    • Higham 2008
    • Horn & Johnson 1994
  6. ^ Para el cálculo funcional holomórfico, véase:
    • Rudin 1991
    • Bourbaki 2007
    • Conway 1990
  7. ^ Deadman, Edvin; Higham, Nicholas J.; Ralha, Rui (2013), "Algoritmos de Schur bloqueados para calcular la raíz cuadrada de la matriz" (PDF) , Applied Parallel and Scientific Computing , Springer Berlin Heidelberg, págs. 171–182, doi :10.1007/978-3-642-36803-5_12, ISBN 978-3-642-36802-8
  8. ^ Denman y Beavers 1976; Cheng y otros 2001
  9. ^ Higham, Nicholas J. (1997). "Iteraciones estables para la raíz cuadrada de la matriz". Algoritmos numéricos . 15 (2): 227–242. Código Bibliográfico :1997NuAlg..15..227H. doi :10.1023/A:1019150005407.

Referencias