Criterio de certeza positiva de una matriz.
En matemáticas, el criterio de Sylvester es un criterio necesario y suficiente para determinar si una matriz hermitiana es positiva-definida . Lleva el nombre de James Joseph Sylvester .
El criterio de Sylvester establece que una matriz hermitiana M n × n es definida positiva si y solo si todas las siguientes matrices tienen un determinante positivo :
- la esquina superior izquierda 1 por 1 de M ,
- la esquina superior izquierda de 2 por 2 de M ,
- la esquina superior izquierda de 3 por 3 de M ,
![{\displaystyle {}\quad \vdots }](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
- M mismo.
En otras palabras, todos los principales menores deben ser positivos. Al utilizar permutaciones apropiadas de filas y columnas de M , también se puede demostrar que la positividad de cualquier secuencia anidada de n menores principales de M es equivalente a que M sea positivo-definido. [1]
Un teorema análogo es válido para caracterizar matrices hermitianas positivas-semidefinidas , excepto que ya no es suficiente considerar solo los menores principales principales : una matriz hermitiana M es positiva-semidefinida si y solo si todos los menores principales de M son no negativos. [2] [3]
Prueba para el caso de matrices definidas positivas.
Supongamos que es una matriz hermitiana . Sean las matrices menores principales, es decir, las matrices de la esquina superior izquierda. Se demostrará que si es positivo definido, entonces los menores principales son positivos; es decir, para todos .![{\ Displaystyle M_ {n}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle n\times n}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\ Displaystyle M_ {n} ^ {\ daga} = M_ {n}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle M_{k},k=1,\ldots n}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle k\times k}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\ Displaystyle M_ {n}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \det M_{k}>0}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle k}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
es positivo definido. De hecho, elegir
![{\displaystyle x=\left({\begin{array}{c}x_{1}\\\vdots \\x_{k}\\0\\\vdots \\0\end{array}}\right) =\left({\begin{array}{c}{\vec {x}}\\0\\\vdots \\0\end{array}}\right)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
podemos notar que de manera equivalente, los valores propios de son positivos, y esto implica que dado que el determinante es el producto de los valores propios.![{\displaystyle 0<x^{\dagger }M_{n}x={\vec {x}}^{\dagger }M_{k}{\vec {x}}.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle M_{k}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \det M_{k}>0}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Para demostrar la implicación inversa, utilizamos la inducción . La forma general de una matriz hermitiana es![{\displaystyle (n+1)\times (n+1)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle M_{n+1}=\left({\begin{array}{cc}M_{n}&{\vec {v}}\\{\vec {v}}^{\dagger }&d\ fin{array}}\right)\qquad (*)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
,
donde es una matriz hermitiana, es un vector y es una constante real.![{\ Displaystyle M_ {n}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle n\times n}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle {\vec {v}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle d}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Supongamos que el criterio se cumple para . Suponer que todos los menores principales de son positivos implica que , y eso es positivo definido por la hipótesis inductiva. Denotar![{\ Displaystyle M_ {n}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle M_{n+1}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \det M_{n+1}>0}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \det M_{n}>0}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\ Displaystyle M_ {n}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle x=\left({\begin{array}{c}{\vec {x}}\\x_{n+1}\end{array}}\right)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
entonces
![{\displaystyle x^{\dagger }M_{n+1}x={\vec {x}}^{\dagger }M_{n}{\vec {x}}+x_{n+1}{\vec {x}}^{\daga }{\vec {v}}+{\bar {x}}_{n+1}{\vec {v}}^{\daga }{\vec {x}}+ d|x_{n+1}|^{2}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Completando los cuadrados, esta última expresión es igual a
![{\displaystyle ({\vec {x}}^{\dagger }+{\vec {v}}^{\dagger }M_{n}^{-1}{\bar {x}}_{n+1 })M_{n}({\vec {x}}+x_{n+1}M_{n}^{-1}{\vec {v}})-|x_{n+1}|^{2 }{\vec {v}}^{\dagger }M_{n}^{-1}{\vec {v}}+d|x_{n+1}|^{2}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle =({\vec {x}}+{\vec {c}})^{\dagger }M_{n}({\vec {x}}+{\vec {c}})+|x_ {n+1}|^{2}(d-{\vec {v}}^{\dagger }M_{n}^{-1}{\vec {v}})}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
donde (tenga en cuenta que existe porque los valores propios de son todos positivos). El primer término es positivo según la hipótesis inductiva. Examinamos ahora el signo del segundo término. Usando la fórmula determinante de matriz de bloques![{\displaystyle {\vec {c}}=x_{n+1}M_{n}^{-1}{\vec {v}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle M_{n}^{-1}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\ Displaystyle M_ {n}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \det \left({\begin{array}{cc}A&B\\C&D\end{array}}\right)=\det A\det(D-CA^{-1}B)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
en obtenemos![{\displaystyle (*)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
, lo que implica .![{\displaystyle d-{\vec {v}}^{\dagger }M_ {n}^{-1}{\vec {v}}>0}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Como consecuencia,![{\displaystyle x^{\daga }M_{n+1}x>0.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Prueba para el caso de matrices semidefinidas positivas.
Sea una matriz hermitiana de n x n . Supongamos que es semidefinido. Esencialmente, la misma prueba que para el caso estrictamente positivo definido muestra que todos los menores principales (no necesariamente los menores principales principales) son no negativos.![{\ Displaystyle M_ {n}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\ Displaystyle M_ {n}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\ Displaystyle M_ {n}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Para la implicación inversa, basta con demostrar que si tiene todos los menores principales no negativos, entonces para todo t>0 , todos los menores principales principales de la matriz hermitiana son estrictamente positivos, donde está la matriz identidad n x n . De hecho, a partir del caso definido positivo, sabríamos que las matrices son estrictamente definidas positivas. Dado que el límite de las matrices definidas positivas es siempre semidefinido positivo, podemos concluir.![{\ Displaystyle M_ {n}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle M_{n}+tI_{n}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\ Displaystyle I_ {n}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle M_{n}+tI_{n}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle t\a 0}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Para mostrar esto, sea la k- ésima submatriz principal principal de Sabemos que es un polinomio en t , relacionado con el polinomio característico mediante![{\displaystyle M_{k}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle M_{n}.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle q_{k}(t)=\det(M_{k}+tI_{k})}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\ Displaystyle p_ {M_ {k}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle q_{k}(t)=(-1)^{k}p_{M_{k}}(-t).}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Polinomio característico#Propiedades![{\displaystyle q_{k}(t)=\sum _{j=0}^{k}t^{kj}\operatorname {tr} \left(\textstyle \bigwedge ^{j}M_{k}\right ),}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
jésimo![{\textstyle \operatorname {tr} \left(\bigwedge ^{j}M_{k}\right)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle M_{k}.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
De Minor_(linear_algebra)#Multilinear_algebra_approach , sabemos que las entradas en la expansión matricial de (para j > 0 ) son solo las menores de En particular, las entradas diagonales son las menores principales de , que por supuesto también son menores principales de , y por tanto no son negativos. Dado que la traza de una matriz es la suma de las entradas diagonales, se deduce que![{\displaystyle \bigwedge ^{j}M_{k}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle M_{k}.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle M_{k}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\ Displaystyle M_ {n}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \operatorname {tr} \left(\textstyle \bigwedge ^{j}M_{k}\right)\geq 0.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
j > 0.j = 0t > 0![{\displaystyle t^{kj}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle q_{k}(t)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle q_{k}(t)>0}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Notas
- ^ Cuerno, Roger A.; Johnson, Charles R. (1985), Análisis matricial , Cambridge University Press , ISBN 978-0-521-38632-6. Véase el teorema 7.2.5.
- ^ Carl D. Meyer, Análisis matricial y álgebra lineal aplicada. Consulte la sección 7.6 Matrices definidas positivas , página 566.
- ^ Prussing, John E. (1986), "La prueba menor principal para matrices semidefinidas" (PDF) , Journal of Guidance, Control, and Dynamics , 9 (1): 121–122, Bibcode : 1986JGCD....9. .121P, doi :10.2514/3.20077, archivado desde el original (PDF) el 7 de enero de 2017 , consultado el 28 de septiembre de 2017
Referencias
- Gilbert, George T. (1991), "Matrices definidas positivas y criterio de Sylvester", The American Mathematical Monthly , Mathematical Association of America, 98 (1): 44–46, doi :10.2307/2324036, ISSN 0002-9890, JSTOR 2324036.
- Cuerno, Roger A.; Johnson, Charles R. (1985), Análisis matricial , Cambridge University Press , ISBN 978-0-521-38632-6. Teorema 7.2.5.
- Carl D. Meyer (junio de 2000), Análisis matricial y álgebra lineal aplicada , SIAM , ISBN 0-89871-454-0.