stringtranslate.com

Raíz cuadrada de una matriz

En matemáticas , la raíz cuadrada de una matriz extiende la noción de raíz cuadrada de números a matrices . Se dice que una matriz B es raíz cuadrada de A si el producto matricial BB es igual a A. [1]

Algunos autores utilizan el nombre de raíz cuadrada o la notación A 1/2 sólo para el caso específico cuando A es semidefinida positiva , para denotar la única matriz B que es semidefinida positiva y tal que BB = B T B = A (para valores reales matrices, donde B T es la transpuesta de B ).

Con menos frecuencia, el nombre raíz cuadrada puede usarse para cualquier factorización de una matriz semidefinida positiva A como B T B = A , como en la factorización de Cholesky , incluso si BB A. Este significado distinto se analiza en Matriz definida positiva § Descomposición .

Ejemplos

En general, una matriz puede tener varias raíces cuadradas. En particular, si entonces también.

La matriz identidad 2×2 tiene infinitas raíces cuadradas. son dados por

y

¿ Dónde están los números (reales o complejos) tales que ? En particular, si es cualquier tripleta pitagórica , es decir, cualquier conjunto de números enteros positivos tal que , entonces es una matriz de raíz cuadrada que es simétrica y tiene entradas racionales. [2] Así

Menos identidad tiene raíz cuadrada, por ejemplo:

que se puede utilizar para representar la unidad imaginaria i y, por tanto, todos los números complejos utilizando matrices reales de 2 × 2, consulte Representación matricial de números complejos .

Al igual que con los números reales , una matriz real puede no tener una raíz cuadrada real, pero sí tener una raíz cuadrada con entradas de valores complejos . Algunas matrices no tienen raíz cuadrada. Un ejemplo es la matriz.

Mientras que la raíz cuadrada de un número entero no negativo es nuevamente un número entero o un número irracional , por el contrario, una matriz entera puede tener una raíz cuadrada cuyas entradas son racionales, pero no integrales, como en los ejemplos anteriores.

Matrices semidefinidas positivas

Una matriz simétrica real n × n se llama semidefinida positiva si es para todos (aquí denota la transpuesta , cambiando un vector columna x en un vector fila). Una matriz real cuadrada es semidefinida positiva si y sólo si para alguna matriz B . Puede haber muchas matrices B diferentes . Una matriz semidefinida positiva A también puede tener muchas matrices B tales que . Sin embargo, A siempre tiene precisamente una raíz cuadrada B que es semidefinida positiva y simétrica. En particular, dado que se requiere que B sea simétrico, las dos condiciones o son equivalentes.

Para matrices de valores complejos, se utiliza la transpuesta conjugada y las matrices semidefinidas positivas son hermitianas , es decir .

Teorema [3]  —  Sea A una matriz simétrica y semidefinida positiva (tenga en cuenta que A puede ser semidefinida positiva pero no simétrica). Entonces existe exactamente una matriz B positiva semidefinida y simétrica tal que . Tenga en cuenta que puede haber más de una matriz semidefinida positiva y no simétrica tal que

Esta matriz única se llama raíz cuadrada principal , no negativa o positiva (esta última en el caso de matrices definidas positivas ).

La raíz cuadrada principal de una matriz semidefinida positiva real es real. [3] La raíz cuadrada principal de una matriz definida positiva es definida positiva; De manera más general, el rango de la raíz cuadrada principal de A es el mismo que el rango de A. [3]

La operación de sacar la raíz cuadrada principal es continua en este conjunto de matrices. [4] Estas propiedades son consecuencias del cálculo funcional holomórfico aplicado a matrices. [5] [6] La existencia y unicidad de la raíz cuadrada principal se puede deducir directamente de la forma normal de Jordan (ver más abajo).

Matrices con valores propios distintos

Una matriz n × n con n valores propios distintos de cero tiene 2 n raíces cuadradas. Tal matriz, A , tiene una descomposición propia VDV −1 donde V es la matriz cuyas columnas son vectores propios de A y D es la matriz diagonal cuyos elementos diagonales son los n valores propios correspondientes λ i . Así, las raíces cuadradas de A están dadas por VD 1/2 V −1 , donde D 1/2 es cualquier matriz de raíz cuadrada de D , que, para valores propios distintos, debe ser diagonal con elementos diagonales iguales a las raíces cuadradas de los elementos diagonales. de D ; dado que hay dos opciones posibles para una raíz cuadrada de cada elemento diagonal de D , hay 2 n opciones para la matriz D 1/2 .

Esto también conduce a una prueba de la observación anterior, que una matriz definida positiva tiene precisamente una raíz cuadrada definida positiva: una matriz definida positiva sólo tiene valores propios positivos, y cada uno de estos valores propios tiene sólo una raíz cuadrada positiva; y dado que los valores propios de la matriz de raíz cuadrada son los elementos diagonales de D 1/2 , para que la matriz de raíz cuadrada sea positiva definida necesita el uso de sólo las raíces cuadradas positivas únicas de los valores propios originales.

Soluciones en forma cerrada.

Si una matriz es idempotente , es decir , entonces, por definición, una de sus raíces cuadradas es la propia matriz.

Matrices diagonales y triangulares

Si D es una matriz diagonal n × n , entonces algunas de sus raíces cuadradas son matrices diagonales , donde . Si los elementos de la diagonal de D son reales y no negativos entonces es semidefinida positiva, y si las raíces cuadradas se toman con signo no negativo, la matriz resultante es la raíz principal de D. Una matriz diagonal puede tener raíces no diagonales adicionales si algunas entradas en la diagonal son iguales, como lo ejemplifica la matriz identidad anterior.

Si U es una matriz triangular superior (lo que significa que sus entradas son para ) y como máximo una de sus entradas diagonales es cero, entonces se puede encontrar una solución triangular superior de la ecuación de la siguiente manera. Dado que la ecuación debe satisfacerse, sea la raíz cuadrada principal del número complejo . Según el supuesto , esto garantiza que para todo i,j (porque todas las raíces cuadradas principales de los números complejos se encuentran en la mitad del plano complejo). De la ecuación

deducimos que se puede calcular recursivamente para aumentar de 1 a n -1 como:

Si U es triangular superior pero tiene varios ceros en la diagonal, entonces es posible que no exista una raíz cuadrada, como lo ejemplifica . Tenga en cuenta que las entradas diagonales de una matriz triangular son precisamente sus valores propios (consulte Matriz triangular#Propiedades ).

Por diagonalización

Una matriz A de n × n es diagonalizable si hay una matriz V y una matriz diagonal D tal que A = VDV −1 . Esto sucede si y sólo si A tiene n vectores propios que constituyen una base para C n . En este caso, se puede elegir que V sea la matriz con los n vectores propios como columnas y, por lo tanto, una raíz cuadrada de A es

donde S es cualquier raíz cuadrada de D. En efecto,

Por ejemplo, la matriz se puede diagonalizar como VDV −1 , donde

y .

D tiene raíz cuadrada principal

,

dando la raíz cuadrada

.

Cuando A es simétrica, la matriz diagonalizante V se puede convertir en una matriz ortogonal eligiendo adecuadamente los vectores propios (ver teorema espectral ). Entonces la inversa de V es simplemente la transpuesta, de modo que

Por descomposición de Schur

Cada matriz cuadrada de valores complejos , independientemente de su diagonalización, tiene una descomposición de Schur dada por donde es triangular superior y es unitaria (es decir ). Los valores propios de son exactamente las entradas diagonales de ; si como máximo uno de ellos es cero, entonces el siguiente es raíz cuadrada [7]

donde se puede encontrar una raíz cuadrada de la matriz triangular superior como se describe arriba.

Si es positivo definido, entonces los valores propios son todos reales positivos, por lo que la diagonal elegida también consta de reales positivos. Por lo tanto, los valores propios de son reales positivos, lo que significa que la matriz resultante es la raíz principal de .

Por descomposición de Jordania

De manera similar a la descomposición de Schur, cada matriz cuadrada se puede descomponer donde P es invertible y J está en forma normal de Jordan .

Para ver que cualquier matriz compleja con valores propios positivos tiene una raíz cuadrada de la misma forma, basta con verificar esto para un bloque de Jordan. Cualquiera de estos bloques tiene la forma λ( I + N ) con λ > 0 y N nilpotente . Si (1 + z ) 1/2 = 1 + a 1 z + a 2 z 2 + ⋯ es la expansión binomial para la raíz cuadrada (válida en | z | < 1), entonces como serie de potencias formal su cuadrado es igual a 1 + z . Sustituyendo z por N , solo un número finito de términos serán distintos de cero y S = √λ ( I + a 1 N + a 2 N 2 + ⋯) da una raíz cuadrada del bloque de Jordan con valor propio √λ .

Basta comprobar la unicidad de un bloque de Jordan con λ = 1. El cuadrado construido arriba tiene la forma S = I + L donde L es un polinomio en N sin término constante. Cualquier otra raíz cuadrada T con valores propios positivos tiene la forma T = I + M con M nilpotente, conmutando con N y por tanto L. Pero entonces 0 = S 2T 2 = 2( LM )( I + ( L + M )/2) . Dado que L y M conmutan, la matriz L + M es nilpotente y I + ( L + M )/2 es invertible con inversa dada por una serie de Neumann . Por tanto L = M .

Si A es una matriz con valores propios positivos y polinomio mínimo p ( t ) , entonces la descomposición de Jordan en espacios propios generalizados de A se puede deducir de la expansión en fracción parcial de p ( t ) −1 . Las proyecciones correspondientes sobre los espacios propios generalizados están dadas por polinomios reales en A. En cada espacio propio, A tiene la forma λ ( I + N ) como se indicó anteriormente. La expresión en serie de potencias para la raíz cuadrada en el espacio propio muestra que la raíz cuadrada principal de A tiene la forma q ( A ) donde q ( t ) es un polinomio con coeficientes reales.

Serie de potencia

Recuerde la serie de potencias formal , que converge siempre (ya que los coeficientes de la serie de potencias son sumables). Al conectar esta expresión se obtiene

siempre que eso . En virtud de la fórmula de Gelfand , esa condición equivale al requisito de que el espectro de esté contenido dentro del disco . Este método de definición o cálculo es especialmente útil en el caso de que sea semidefinido positivo. En ese caso tenemos y por lo tanto , de modo que la expresión define una raíz cuadrada de la cual además resulta ser la única raíz positiva semidefinida. Este método sigue siendo válido para definir raíces cuadradas de operadores en espacios de Banach o Hilbert de dimensión infinita o ciertos elementos de las álgebras de Banach (C*).

Soluciones iterativas

Por iteración de Denman-Beavers

Otra forma de encontrar la raíz cuadrada de una matriz A de n × n es la iteración de raíz cuadrada de Denman-Beavers. [8]

Sean Y 0 = A y Z 0 = I , donde I es la matriz identidad n × n . La iteración está definida por

Como esto utiliza un par de secuencias de inversas matriciales cuyos elementos posteriores cambian comparativamente poco, solo los primeros elementos tienen un alto costo computacional ya que el resto se puede calcular a partir de elementos anteriores con solo unas pocas pasadas de una variante del método de Newton para calcular inversas .

Con esto, para valores posteriores de k uno establecería y luego usaría para algunos pequeños (quizás solo 1), y de manera similar para

La convergencia no está garantizada, incluso para matrices que tienen raíces cuadradas, pero si el proceso converge, la matriz converge cuadráticamente a una raíz cuadrada A 1/2 , mientras que converge a su inversa, A −1/2 .

Por el método babilónico

Otro método iterativo se obtiene tomando la conocida fórmula del método babilónico para calcular la raíz cuadrada de un número real y aplicándola a matrices. Sea X 0 = I , donde I es la matriz identidad . La iteración está definida por

Nuevamente, la convergencia no está garantizada, pero si el proceso converge, la matriz converge cuadráticamente a una raíz cuadrada A 1/2 . En comparación con la iteración de Denman-Beavers, una ventaja del método babilónico es que solo es necesario calcular una matriz inversa por paso de iteración. Por otro lado, como la iteración de Denman-Beavers utiliza un par de secuencias de matrices inversas cuyos elementos posteriores cambian comparativamente poco, sólo los primeros elementos tienen un alto costo computacional ya que el resto se puede calcular a partir de elementos anteriores con solo unas pocas pasadas de un variante del método de Newton para calcular inversas (ver la iteración de Denman-Beavers arriba); Por supuesto, se puede utilizar el mismo enfoque para obtener la única secuencia de inversas necesarias para el método babilónico. Sin embargo, a diferencia de la iteración de Denman-Beavers, el método babilónico es numéricamente inestable y es más probable que no converja. [1]

El método babilónico se deriva del método de Newton para la ecuación y el uso para todos [9]

Raíces cuadradas de operadores positivos

En álgebra lineal y teoría de operadores , dado un operador semidefinido positivo acotado (un operador no negativo) T en un espacio de Hilbert complejo, B es una raíz cuadrada de T si T = B* B , donde B* denota el adjunto hermitiano de B . [ cita necesaria ] Según el teorema espectral , el cálculo funcional continuo se puede aplicar para obtener un operador T 1/2 tal que T 1/2 sea positivo y ( T 1/2 ) 2 = T . El operador T 1/2 es la raíz cuadrada única no negativa de T . [ cita necesaria ]

Un operador acotado no negativo en un espacio de Hilbert complejo es autoadjunto por definición. Entonces T = ( T 1/2 )* T 1/2 . Por el contrario, es trivialmente cierto que todo operador de la forma B* B no es negativo. Por lo tanto, un operador T es no negativo si y sólo si T = B* B para algún B (de manera equivalente, T = CC* para algún C ).

La factorización de Cholesky proporciona otro ejemplo particular de raíz cuadrada, que no debe confundirse con la raíz cuadrada única no negativa.

Libertad unitaria de raíces cuadradas

Si T es un operador no negativo en un espacio de Hilbert de dimensión finita, entonces todas las raíces cuadradas de T están relacionadas mediante transformaciones unitarias. Más precisamente, si T = A*A = B*B , entonces existe una U unitaria tal que A = UB .

De hecho, tome B = T1/2ser la raíz cuadrada única no negativa de T . Si T es estrictamente positivo, entonces B es invertible, por lo que U = AB −1 es unitario:

Si T no es negativo sin ser estrictamente positivo, entonces la inversa de B no se puede definir, pero sí la pseudoinversa B + de Moore-Penrose . En ese caso, el operador B + A es una isometría parcial , es decir, un operador unitario del rango de T a sí mismo. Luego, esto se puede extender a un operador unitario U en todo el espacio igualándolo a la identidad en el núcleo de T. De manera más general, esto es cierto en un espacio de Hilbert de dimensión infinita si, además, T tiene un rango cerrado . En general, si A , B son operadores cerrados y densamente definidos en un espacio de Hilbert H , y A* A = B* B , entonces A = UB donde U es una isometría parcial.

Algunas aplicaciones

Las raíces cuadradas y la libertad unitaria de las raíces cuadradas tienen aplicaciones en todo el análisis funcional y el álgebra lineal.

Descomposición polar

Si A es un operador invertible en un espacio de Hilbert de dimensión finita, entonces existe un operador unitario único U y un operador positivo P tales que

esta es la descomposición polar de A . El operador positivo P es la única raíz cuadrada positiva del operador positivo A A , y U se define por U = AP −1 .

Si A no es invertible, entonces todavía tiene una composición polar en la que P se define de la misma manera (y es única). El operador unitario U no es único. Más bien es posible determinar un operador unitario "natural" de la siguiente manera: AP + es un operador unitario desde el rango de A hasta sí mismo, que puede extenderse por la identidad en el núcleo de A . El operador unitario resultante U produce la descomposición polar de A.

Operadores Kraus

Según el resultado de Choi, un mapa lineal

es completamente positivo si y sólo si es de la forma

donde knm . Sean { E pq } ⊂ C n × n las n 2 unidades matriciales elementales. La matriz positiva

se llama matriz Choi de Φ. Los operadores de Kraus corresponden a las raíces cuadradas, no necesariamente cuadradas, de M Φ : Para cualquier raíz cuadrada B de M Φ , se puede obtener una familia de operadores de Kraus Vi deshaciendo la operación Vec en cada columna b i de B. Por tanto, todos los conjuntos de operadores de Kraus están relacionados por isometrías parciales.

Conjuntos mixtos

En física cuántica, una matriz de densidad para un sistema cuántico de nivel n es una matriz compleja n × n ρ que es semidefinida positiva con traza 1. Si ρ se puede expresar como

donde y Σ p i = 1, el conjunto

se dice que es un conjunto que describe el estado mixto ρ . Observe que no es necesario que { v i } sea ortogonal. Diferentes conjuntos que describen el estado ρ están relacionados mediante operadores unitarios, a través de las raíces cuadradas de ρ . Por ejemplo, supongamos

La condición de rastreo 1 significa

Dejar

y v i sea el a i normalizado . Vemos eso

da el estado mixto ρ .

Ver también

Notas

  1. ^ ab Higham, Nicholas J. (abril de 1986), "Método de Newton para la raíz cuadrada de la matriz" (PDF) , Matemáticas de la Computación , 46 (174): 537–549, doi :10.2307/2007992, JSTOR  2007992
  2. ^ Mitchell, Douglas W. (noviembre de 2003). "Usando ternas pitagóricas para generar raíces cuadradas de I 2 {\displaystyle I_{2}}". La Gaceta Matemática . 87 (510): 499–500. doi : 10.1017/s0025557200173723 .
  3. ^ a b C Horn & Johnson (2013), pág. 439, Teorema 7.2.6 con
  4. ^ Cuerno, Roger A.; Johnson, Charles R. (1990). Análisis matricial . Cambridge: Universidad de Cambridge. Prensa. pag. 411.ISBN _ 9780521386326.
  5. ^ Para funciones analíticas de matrices, consulte
    • Higham 2008
    • Cuerno y Johnson 1994
  6. ^ Para el cálculo funcional holomorfo, consulte:
    • Rudin 1991
    • Bourbaki 2007
    • Conway 1990
  7. ^ Hombre muerto, Edvin; Higham, Nicolás J.; Ralha, Rui (2013), "Algoritmos de Schur bloqueados para calcular la raíz cuadrada de la matriz" (PDF) , Computación científica y paralela aplicada , Springer Berlin Heidelberg, págs. 171–182, doi :10.1007/978-3-642-36803- 5_12, ISBN 978-3-642-36802-8
  8. ^ Denman y castores 1976; Cheng et al. 2001
  9. ^ Higham, Nicolás J. (1997). "Iteraciones estables para la raíz cuadrada de la matriz". Algoritmos Numéricos . 15 (2): 227–242. Código Bib : 1997NuAlg..15..227H. doi :10.1023/A:1019150005407.

Referencias