stringtranslate.com

matriz definida

En matemáticas , una matriz simétrica con entradas reales es definida positiva si el número real es positivo para cada vector columna real distinto de cero donde está la transpuesta de . [1] De manera más general, una matriz hermitiana (es decir, una matriz compleja igual a su transpuesta conjugada ) es definida positiva si el número real es positivo para cada vector columna complejo distinto de cero donde denota la transpuesta conjugada de

Las matrices semidefinidas positivas se definen de manera similar, excepto que se requiere que los escalares y sean positivos o cero (es decir, no negativos). Las matrices definidas negativas y semidefinidas negativas se definen de manera análoga. Una matriz que no es semidefinida positiva ni semidefinida negativa a veces se llama indefinida .

Por lo tanto, una matriz es definida positiva si y solo si es la matriz de una forma cuadrática definida positiva o forma hermitiana . En otras palabras, una matriz es definida positiva si y sólo si define un producto interno .

Las matrices positivas-definidas y positivas-semidefinidas se pueden caracterizar de muchas maneras, lo que puede explicar la importancia del concepto en varias partes de las matemáticas. Una matriz M es definida positiva si y sólo si satisface cualquiera de las siguientes condiciones equivalentes.

Una matriz es semidefinida positiva si satisface condiciones equivalentes similares donde "positiva" se reemplaza por "no negativa", "matriz invertible" se reemplaza por "matriz" y se elimina la palabra "principal".

Las matrices reales definidas positivas y semidefinidas positivas están en la base de la optimización convexa , ya que, dada una función de varias variables reales que es dos veces diferenciable , entonces si su matriz de Hesse (matriz de sus segundas derivadas parciales) es definida positiva en un punto p , entonces la función es convexa cerca de p y, a la inversa, si la función es convexa cerca de p , entonces la matriz de Hesse es semidefinida positiva en p .

El conjunto de matrices definidas positivas es un cono convexo abierto , mientras que el conjunto de matrices semidefinidas positivas es un cono convexo cerrado . [2]

Algunos autores utilizan definiciones más generales de precisión, incluidas algunas matrices reales no simétricas o complejas no hermitianas.

Definiciones

En las siguientes definiciones, es la transpuesta de , es la transpuesta conjugada de y denota el vector cero n -dimensional.

Definiciones para matrices reales

Se dice que una matriz real simétrica es definida positiva si para todos los valores distintos de cero en . Formalmente,

Se dice que una matriz real simétrica es positiva-semidefinida o no negativa-definida si es para todo en . Formalmente,

Se dice que una matriz real simétrica es definida negativa si para todos los valores distintos de cero en . Formalmente,

Se dice que una matriz real simétrica es negativa-semidefinida o no positiva-definida si es para todo en . Formalmente,

Una matriz real simétrica que no es ni semidefinida positiva ni semidefinida negativa se llama indefinida .

Definiciones para matrices complejas

Todas las siguientes definiciones involucran el término . Observe que este es siempre un número real para cualquier matriz cuadrada hermitiana .

Se dice que una matriz compleja hermitiana es definida positiva si para todos los valores distintos de cero en . Formalmente,

Se dice que una matriz compleja hermitiana es semidefinida positiva o definida no negativa si es para todo en . Formalmente,

Se dice que una matriz compleja hermitiana es definida negativa si para todos los valores distintos de cero en . Formalmente,

Se dice que una matriz compleja hermitiana es semidefinida negativa o definida no positiva si es para todo en . Formalmente,

Una matriz compleja hermitiana que no es ni semidefinida positiva ni semidefinida negativa se llama indefinida .

Coherencia entre definiciones reales y complejas

Dado que toda matriz real es también una matriz compleja, las definiciones de "definición" para las dos clases deben coincidir.

Para matrices complejas, la definición más común dice que es positiva-definida si y solo si es real y positiva para todos los vectores de columna complejos distintos de cero . Esta condición implica que es hermitiano (es decir, su transpuesta es igual a su conjugada), ya que al ser real, es igual a su transpuesta conjugada para todo lo que implica .

Según esta definición, una matriz real definida positiva es hermitiana y, por tanto, simétrica; y es positivo para todos los vectores de columna reales distintos de cero . Sin embargo, la última condición por sí sola no es suficiente para ser positivo-definido. Por ejemplo, si

luego, para cualquier vector real con entradas y tenemos , que siempre es positivo si no es cero. Sin embargo, si es el vector complejo con entradas y , se obtiene

lo cual no es real. Por tanto, no es positivo-definido.

Por otro lado, para una matriz real simétrica , la condición " para todos los vectores reales distintos de cero " implica que es positiva-definida en el sentido complejo.

Notación

Si una matriz hermitiana es semidefinida positiva, a veces se escribe y si es definida positiva se escribe . Para denotar que es semidefinido negativo se escribe y para denotar que es definido negativo se escribe .

La noción proviene del análisis funcional donde matrices semidefinidas positivas definen operadores positivos . Si dos matrices y se satisfacen , podemos definir un orden parcial no estricto que sea reflexivo , antisimétrico y transitivo ; No es un orden total , sin embargo, ya que en general puede ser indefinido.

Una notación alternativa común es , y para matrices positivas semidefinidas y positivas definidas, negativas semidefinidas y negativas definidas, respectivamente. Esto puede resultar confuso, ya que a veces las matrices no negativas (respectivamente, las matrices no positivas) también se denotan de esta manera.

Ejemplos

Valores propios

Sea una matriz hermitiana (esto incluye matrices simétricas reales ). Todos los valores propios de son reales y su signo caracteriza su precisión:

Sea una descomposición propia de , donde es una matriz compleja unitaria cuyas columnas comprenden una base ortonormal de vectores propios de , y es una matriz diagonal real cuya diagonal principal contiene los valores propios correspondientes . La matriz puede considerarse como una matriz diagonal que ha sido reexpresada en coordenadas de la base (vectores propios) . Dicho de otra manera, aplicar a algún vector z , dando M z , es lo mismo que cambiar la base al sistema de coordenadas del vector propio usando P −1 , dando P −1 z , aplicando la transformación de estiramiento D al resultado, dando DP −1 z , y luego cambiando la base nuevamente usando P , dando PDP −1 z .

Teniendo esto en cuenta, el cambio de variable uno a uno muestra que es real y positivo para cualquier vector complejo si y sólo si es real y positivo para cualquiera ; en otras palabras, si es positivo definido. Para una matriz diagonal, esto es cierto sólo si cada elemento de la diagonal principal (es decir, cada valor propio de ) es positivo. Dado que el teorema espectral garantiza que todos los valores propios de una matriz hermitiana sean reales, la positividad de los valores propios se puede comprobar utilizando la regla de alternancia de signos de Descartes cuando el polinomio característico de una matriz simétrica real está disponible.

Descomposición

Sea una matriz hermitiana . es semidefinido positivo si y sólo si se puede descomponer como producto

transpuesta conjugada

Cuando es real, también puede ser real y la descomposición se puede escribir como

es positivo definido si y sólo si tal descomposición existe con invertible . De manera más general, es semidefinida positiva con rango si y sólo si existe una descomposición con una matriz de rango de fila completo (es decir, de rango ). Además, para cualquier descomposición , . [3]

Prueba

Si , entonces , también es semidefinida positiva. Si además es invertible, entonces la desigualdad es estricta para , por lo que es definida positiva. Si es de rango , entonces .

En la otra dirección, supongamos que es semidefinida positiva. Como es hermitiana, tiene una descomposición propia donde es unitaria y es una matriz diagonal cuyas entradas son los valores propios de. Dado que es semidefinida positiva, los valores propios son números reales no negativos, por lo que se puede definir como la matriz diagonal cuyas entradas son no negativas. raíces cuadradas de valores propios. Entonces para . Si además es positivo definido, entonces los valores propios son (estrictamente) positivos, por lo que son invertibles y, por tanto, también son invertibles. Si tiene rango , entonces tiene valores propios exactamente positivos y los demás son cero, por lo tanto, en todos, excepto en las filas, todos están puestos a cero. Al cortar las filas cero se obtiene una matriz tal que .

Las columnas de pueden verse como vectores en el espacio vectorial complejo o real , respectivamente. Entonces las entradas de son productos internos (es decir, productos escalares , en el caso real) de estos vectores

matriz de Gramlinealmente independientesabarcado[4]

Unicidad hasta transformaciones unitarias.

La descomposición no es única: si para alguna matriz y si es cualquier matriz unitaria (es decir , ), entonces para .

Sin embargo, ésta es la única forma en que dos descomposiciones pueden diferir: la descomposición es única hasta transformaciones unitarias . Más formalmente, si es una matriz y es una matriz tal que , entonces hay una matriz con columnas ortonormales (es decir ,) tal que . [5] Cuando este medio es unitario .

Esta afirmación tiene una interpretación geométrica intuitiva en el caso real: sean las columnas de y los vectores y en . Una matriz unitaria real es una matriz ortogonal , que describe una transformación rígida (una isometría del espacio euclidiano ) preservando el punto 0 (es decir, rotaciones y reflexiones , sin traslaciones). Por lo tanto, los productos escalares y son iguales si y sólo si alguna transformación rígida de transforma los vectores en (y 0 en 0).

Raíz cuadrada

Una matriz hermitiana es semidefinida positiva si y solo si hay una matriz semidefinida positiva (en particular es hermitiana, por lo tanto ) que satisface . Esta matriz es única, [6] se llama raíz cuadrada no negativa de y se denota con . Cuando es positivo definido, también lo es , por lo que también se le llama raíz cuadrada positiva de .

La raíz cuadrada no negativa no debe confundirse con otras descomposiciones . Algunos autores utilizan el nombre de raíz cuadrada y para cualquier descomposición de este tipo, o específicamente para la descomposición de Cholesky , o cualquier descomposición de la forma ; otros sólo lo usan para la raíz cuadrada no negativa.

Si entonces .

Descomposición de Cholesky

Una matriz semidefinida positiva hermitiana se puede escribir como , donde es triangular inferior con diagonal no negativa (de manera equivalente, donde es triangular superior); esta es la descomposición de Cholesky . Si es positiva definida, entonces la diagonal de es positiva y la descomposición de Cholesky es única. Por el contrario, si es triangular inferior con diagonal no negativa, entonces es semidefinida positiva. La descomposición de Cholesky es especialmente útil para cálculos numéricos eficientes. Una descomposición estrechamente relacionada es la descomposición de LDL , donde es diagonal y es unitriangular inferior .

Otras caracterizaciones

Sea una matriz simétrica real y sea la "bola unitaria" definida por . Luego tenemos lo siguiente

Sea una matriz hermitiana . Las siguientes propiedades equivalen a ser definida positiva:

La forma sesquilineal asociada es un producto interno.
La forma sesquilineal definida por es la función de a tal que para todos y en , donde es la transpuesta conjugada de . Para cualquier matriz compleja , esta forma es lineal y semilineal . Por lo tanto, la forma es un producto interno si y sólo si es real y positivo para todo distinto de cero ; eso es si y sólo si es positivo definido. (De hecho, todo producto interno surge de esta manera a partir de una matriz definida positiva hermitiana).
Sus principales menores principales son todos positivos.
El k -ésimo principal menor principal de una matriz es el determinante de su submatriz superior izquierda . Resulta que una matriz es definida positiva si y sólo si todos estos determinantes son positivos. Esta condición se conoce como criterio de Sylvester y proporciona una prueba eficaz de la precisión positiva de una matriz real simétrica. Es decir, la matriz se reduce a una matriz triangular superior mediante el uso de operaciones de fila elementales , como en la primera parte del método de eliminación gaussiano , teniendo cuidado de preservar el signo de su determinante durante el proceso de pivote . Dado que el k -ésimo principal menor principal de una matriz triangular es el producto de sus elementos diagonales hasta la fila , el criterio de Sylvester equivale a comprobar si todos sus elementos diagonales son positivos. Esta condición se puede comprobar cada vez que se obtiene una nueva fila de la matriz triangular.

Una matriz semidefinida positiva es definida positiva si y sólo si es invertible . [7] Una matriz es negativa (semi)definida si y sólo si es positiva (semi)definida.

formas cuadráticas

La forma (puramente) cuadrática asociada con una matriz real es la función tal que para todos . se puede asumir simétrico reemplazándolo con .

Una matriz simétrica es definida positiva si y sólo si su forma cuadrática es una función estrictamente convexa .

De manera más general, cualquier función cuadrática desde hasta se puede escribir como donde es una matriz simétrica , es un vector real y una constante real. En el caso, esto es una parábola, y al igual que en el caso, tenemos

Teorema: Esta función cuadrática es estrictamente convexa y, por lo tanto, tiene un mínimo global finito único, si y solo si es definida positiva.

Prueba: Si es definida positiva, entonces la función es estrictamente convexa. Su gradiente es cero en el único punto de , que debe ser el mínimo global ya que la función es estrictamente convexa. Si no es definida positiva, entonces existe algún vector tal que , por lo que la función es una recta o una parábola descendente, por lo que no es estrictamente convexa y no tiene un mínimo global.

Por esta razón, las matrices definidas positivas juegan un papel importante en los problemas de optimización .

Diagonalización simultánea

Una matriz simétrica y otra matriz que sea simétrica y definida positiva se pueden diagonalizar simultáneamente . Esto es así aunque la diagonalización simultánea no se realiza necesariamente con una transformación de similitud . Este resultado no se extiende al caso de tres o más matrices. En esta sección escribimos para el caso real. La extensión al caso complejo es inmediata.

Sea una matriz definida simétrica y simétrica y positiva. Escriba la ecuación de valores propios generalizada como donde imponemos que se normalice, es decir . Ahora usamos la descomposición de Cholesky para escribir la inversa de as . Multiplicando por y dejando , obtenemos , que se puede reescribir como donde . La manipulación ahora produce donde hay una matriz que tiene como columnas los vectores propios generalizados y es una matriz diagonal de los valores propios generalizados. Ahora la premultiplicación con da el resultado final: y , pero tenga en cuenta que esto ya no es una diagonalización ortogonal con respecto al producto interno donde . De hecho, diagonalizamos con respecto al producto interno inducido por . [8]

Nótese que este resultado no contradice lo dicho sobre la diagonalización simultánea en el artículo Matriz diagonalizable , que se refiere a la diagonalización simultánea mediante una transformación de similitud. Nuestro resultado aquí es más parecido a una diagonalización simultánea de dos formas cuadráticas y es útil para la optimización de una forma bajo condiciones de la otra.

Propiedades

Orden parcial inducido

Para matrices cuadradas arbitrarias , escribimos si es decir, es semidefinida positiva. Esto define un ordenamiento parcial en el conjunto de todas las matrices cuadradas. De manera similar, se puede definir un ordenamiento parcial estricto . El ordenamiento se denomina orden de Loewner .

Inversa de matriz definida positiva

Toda matriz definida positiva es invertible y su inversa también es definida positiva. [9] Si entonces . [10] Además, según el teorema mínimo-máximo , el k -ésimo valor propio más grande de es mayor o igual al k -ésimo valor propio más grande de .

Escalada

Si es definido positivo y es un número real, entonces es definido positivo. [11]

Suma

Multiplicación

Rastro

Las entradas diagonales de una matriz semidefinida positiva son reales y no negativas. Como consecuencia el rastro , . Además, [13] dado que cada submatriz principal (en particular, 2 por 2) es semidefinida positiva,

y así, cuando ,

Una matriz hermitiana es definida positiva si satisface las siguientes desigualdades de trazas: [14]

Otro resultado importante es que para matrices cualquiera y semidefinidas positivas, . Esto sigue escribiendo . La matriz es positiva-semidefinida y, por tanto, tiene valores propios no negativos, cuya suma, la traza, tampoco es negativa.

Producto Hadamard

Si , aunque no es necesariamente semidefinido positivo, el producto de Hadamard lo es (este resultado a menudo se denomina teorema del producto de Schur ). [15]

Respecto al producto de Hadamard de dos matrices semidefinidas positivas , existen dos desigualdades notables:

Producto Kronecker

Si , aunque no es necesario semidefinido positivo, el producto de Kronecker .

producto frobenius

Si , aunque no es necesariamente semidefinido positivo, el producto interno de Frobenius (Lancaster-Tismenetsky, The Theory of Matrices , p. 218).

Convexidad

El conjunto de matrices simétricas semidefinidas positivas es convexo . Es decir, si y son semidefinidos positivos, entonces para cualquier valor entre 0 y 1, también es semidefinido positivo. Para cualquier vector :

Esta propiedad garantiza que los problemas de programación semidefinida converjan hacia una solución globalmente óptima.

Relación con el coseno

La definición positiva de una matriz expresa que el ángulo entre cualquier vector y su imagen es siempre :

Otras propiedades

  1. Si es una matriz de Toeplitz simétrica , es decir, las entradas se dan en función de sus diferencias absolutas de índice: y se cumple la desigualdad estricta , entonces es definida estrictamente positiva.
  2. Let y Hermitian. Si (resp., ) entonces (resp., ). [18]
  3. Si es real, entonces existe tal que , donde está la matriz identidad .
  4. Si denota el menor principal, es el késimo pivote durante la descomposición LU .
  5. Una matriz es definida negativa si su orden menor principal principal de k- ésimo es negativa cuando es impar y positiva cuando es par.
  6. Si es una matriz definida positiva real, entonces existe un número real positivo tal que para cada vector , .
  7. Una matriz hermitiana es semidefinida positiva si y sólo si todos sus menores principales son no negativos. Sin embargo, no basta con considerar únicamente los principales menores principales, como se comprueba en la matriz diagonal con las entradas 0 y −1.

Matrices y submatrices de bloques

Una matriz positiva también puede estar definida por bloques :

donde está cada bloque . Aplicando la condición de positividad se deduce inmediatamente que y son hermitianos, y .

Tenemos eso para todos los complejos , y en particular para . Entonces

Se puede aplicar un argumento similar a , por lo que concluimos que ambos y deben ser definidos positivos. El argumento puede ampliarse para mostrar que cualquier submatriz principal de es en sí misma definida positiva.

Los resultados opuestos se pueden demostrar con condiciones más fuertes en los bloques, por ejemplo, utilizando el complemento de Schur .

Extremos locales

Una forma cuadrática general de variables reales siempre se puede escribir como dónde está el vector columna con esas variables y es una matriz real simétrica. Por tanto, que la matriz sea positiva definida significa que tiene un mínimo único (cero) cuando es cero, y es estrictamente positiva para cualquier otro .

De manera más general, una función real dos veces diferenciable sobre variables reales tiene un mínimo local en los argumentos si su gradiente es cero y su hessiana (la matriz de todas las segundas derivadas) es semidefinida positiva en ese punto. Se pueden hacer afirmaciones similares para matrices definidas y semidefinidas negativas.

Covarianza

En estadística , la matriz de covarianza de una distribución de probabilidad multivariada es siempre semidefinida positiva; y es definida positiva a menos que una variable sea una función lineal exacta de las demás. Por el contrario, toda matriz semidefinida positiva es la matriz de covarianza de alguna distribución multivariada.

Extensión para matrices cuadradas no hermitianas

La definición de definida positiva se puede generalizar designando cualquier matriz compleja (por ejemplo, real no simétrica) como definida positiva si para todos los vectores complejos distintos de cero , donde denota la parte real de un número complejo . [19] Sólo la parte hermitiana determina si la matriz es positiva definida y se evalúa en el sentido más estricto mencionado anteriormente. De manera similar, si y son reales, tenemos para todos los vectores reales distintos de cero si y sólo si la parte simétrica es definida positiva en el sentido más estricto. Inmediatamente queda claro que es insensible a la transposición de M .

En consecuencia, una matriz real no simétrica con solo valores propios positivos no necesita ser definida positiva. Por ejemplo, la matriz tiene valores propios positivos pero no es definida positiva; en particular , se obtiene un valor negativo de con la elección (que es el vector propio asociado con el valor propio negativo de la parte simétrica de ).

En resumen, la característica distintiva entre el caso real y el complejo es que un operador positivo acotado en un espacio de Hilbert complejo es necesariamente hermitiano o autoadjunto. La afirmación general se puede argumentar utilizando la identidad de polarización . Esto ya no es cierto en el caso real.

Aplicaciones

Matriz de conductividad térmica

La ley de conducción del calor de Fourier, que da el flujo de calor en términos del gradiente de temperatura, se escribe para medios anisotrópicos como , en la que es la matriz simétrica de conductividad térmica . El negativo se inserta en la ley de Fourier para reflejar la expectativa de que el calor siempre fluirá de lo caliente a lo frío. En otras palabras, dado que el gradiente de temperatura siempre apunta de frío a calor, se espera que el flujo de calor tenga un producto interno negativo con lo que . Al sustituir la ley de Fourier se obtiene esta expectativa como , lo que implica que la matriz de conductividad debe ser positiva definida.

Ver también

Notas

  1. ^ "Apéndice C: Matrices positivas semidefinidas y positivas definidas". Estimación de parámetros para científicos e ingenieros : 259–263. doi : 10.1002/9780470173862.app3.
  2. ^ Boyd, Esteban; Vandenberghe, Lieven (8 de marzo de 2004). Optimizacion convexa. Prensa de la Universidad de Cambridge. ISBN 978-0-521-83378-3.
  3. ^ Cuerno y Johnson (2013), pág. 440, Teorema 7.2.7
  4. ^ Cuerno y Johnson (2013), pág. 441, Teorema 7.2.10
  5. ^ Cuerno y Johnson (2013), pág. 452, Teorema 7.3.11
  6. ^ Cuerno y Johnson (2013), pág. 439, Teorema 7.2.6 con
  7. ^ Cuerno y Johnson (2013), pág. 431, Corolario 7.1.7
  8. ^ Cuerno y Johnson (2013), pág. 485, Teorema 7.6.1
  9. ^ Cuerno y Johnson (2013), pág. 438, Teorema 7.2.1
  10. ^ Cuerno y Johnson (2013), pág. 495, Corolario 7.7.4(a)
  11. ^ ab Horn y Johnson (2013), pág. 430, Observación 7.1.3
  12. ^ Cuerno y Johnson (2013), pág. 431, Observación 7.1.8
  13. ^ Cuerno y Johnson (2013), pág. 430
  14. ^ Wolkowicz, Henry; Styan, George PH (1980). "Límites de valores propios mediante trazas". Álgebra lineal y sus aplicaciones (29). Elsevier: 471–506.
  15. ^ Cuerno y Johnson (2013), pág. 479, Teorema 7.5.3
  16. ^ Cuerno y Johnson (2013), pág. 509, Teorema 7.8.16
  17. ^ Styan, médico de cabecera (1973). "Productos Hadamard y análisis estadístico multivariado". Álgebra lineal y sus aplicaciones . 6 : 217–240., Corolario 3.6, pág. 227
  18. ^ Bhatia, Rajendra (2007). Matrices definidas positivas . Princeton, Nueva Jersey: Princeton University Press. pag. 8.ISBN  978-0-691-12918-1.
  19. ^ Weisstein, Eric W. Matriz definida positiva. De MathWorld: un recurso web de Wolfram . Consultado el 26 de julio de 2012.

Referencias

enlaces externos