stringtranslate.com

Norma matricial

En matemáticas , podemos definir normas para los elementos de un espacio vectorial . Cuando el espacio vectorial en cuestión está formado por matrices , éstas se denominan normas matriciales .

Lo que distingue a las normas matriciales de otras normas vectoriales es cómo interactúan con la multiplicación, ya sea entre sí o con vectores, que a su vez pueden tener otras normas definidas.

Preliminares

Dado un campo de números reales o complejos , sea el espacio vectorial K de matrices con filas y columnas y entradas en el campo . Una norma matricial es una norma sobre .

Este artículo siempre escribirá dichas normas con barras verticales dobles (así: ). Así, la norma matricial es una función que debe satisfacer las siguientes propiedades: [1] [2]

Para todos los escalares y matrices ,

La única característica que distingue las matrices de los vectores reordenados es la multiplicación . Las normas matriciales son particularmente útiles si también son submultiplicativas : [1] [2] [3]

Cada norma en K n × n se puede reescalar para que sea submultiplicativa; En algunos libros, la norma matricial terminológica está reservada para normas submultiplicativas. [4]

Normas matriciales inducidas por normas vectoriales.

Supongamos que se dan una norma vectorial on y una norma vectorial on . Cualquier matriz A induce un operador lineal desde a con respecto a la base estándar, y se define la correspondiente norma inducida o norma operadora o norma subordinada en el espacio de todas las matrices de la siguiente manera:

supremo

Normas matriciales inducidas por normas p vectoriales

Si la norma p para vectores ( ) se usa para ambos espacios y entonces la norma del operador correspondiente es: [2]

Estas normas inducidas son diferentes de las normas p "de entrada" y de las normas p de Schatten para matrices que se tratan a continuación, que también suelen denotarse por

En los casos especiales de la matriz inducida, las normas pueden calcularse o estimarse mediante

Por ejemplo, para

En el caso especial de (la norma euclidiana o norma -para vectores), la norma de la matriz inducida es la norma espectral . (Los dos valores no coinciden en dimensiones infinitas; consulte Radio espectral para obtener más información). La norma espectral de una matriz es el valor singular más grande de (es decir, la raíz cuadrada del valor propio más grande de la matriz donde denota la transpuesta conjugada de ): [5]

descomposición en valores singulares

Cuando tenemos una definición equivalente para como

desigualdad de Cauchy-Schwarz

Normas matriciales inducidas por normas vectoriales α y β

Supongamos que las normas vectoriales y se utilizan para espacios y respectivamente, la norma del operador correspondiente es: [6]

En los casos especiales de y , las normas matriciales inducidas se pueden calcular mediante

Por lo tanto, y son la norma máxima de fila y columna 2 de la matriz, respectivamente.

Propiedades

Cualquier norma de operador es consistente con las normas vectoriales que la inducen, dando

Suponer ; ; y son normas de operador inducidas por los respectivos pares de normas de vector ; ; y . Entonces,

esto se sigue de

Matrices cuadradas

Supongamos que es una norma operadora en el espacio de matrices cuadradas inducida por normas vectoriales y . Entonces, la norma del operador es una norma matricial submultiplicativa:

Además, cualquier norma de este tipo satisface la desigualdad

para todos los números enteros positivos r , donde ρ ( A ) es el radio espectral de A. Para A simétrica o hermitiana , tenemos igualdad en ( 1 ) para la norma 2, ya que en este caso la norma 2 es precisamente el radio espectral de A. Para una matriz arbitraria, es posible que no tengamos igualdad para ninguna norma; un contraejemplo sería

fórmula del radio espectral

Normas consistentes y compatibles

Una norma matricial on se considera consistente con una norma vectorial on y una norma vectorial on , si:

m = ncompatible

Todas las normas inducidas son consistentes por definición. Además, cualquier norma matricial submultiplicativa induce una norma vectorial compatible al definir .

Normas matriciales "por entrada"

Estas normas tratan una matriz como un vector de tamaño y utilizan una de las normas vectoriales familiares. Por ejemplo, usando la norma p para vectores, p ≥ 1 , obtenemos:

Esta es una norma diferente de la norma p inducida (ver arriba) y la norma p de Schatten (ver más abajo), pero la notación es la misma.

El caso especial p = 2 es la norma de Frobenius, y p = ∞ produce la norma máxima.

Normas L 2,1 y L p,q

Sean las columnas de la matriz . Según la definición original, la matriz presenta n puntos de datos en un espacio m-dimensional. La norma [7] es la suma de las normas euclidianas de las columnas de la matriz:

La norma como función de error es más robusta, ya que el error de cada punto de datos (una columna) no está al cuadrado. Se utiliza en análisis de datos robustos y codificación escasa .

Para p , q ≥ 1 , la norma se puede generalizar a la norma de la siguiente manera:

norma de frobenius

Cuando p = q = 2 para la norma, se denomina norma de Frobenius o norma de Hilbert-Schmidt , aunque este último término se utiliza con más frecuencia en el contexto de operadores en el espacio de Hilbert (posiblemente de dimensión infinita) . Esta norma se puede definir de varias maneras:

¿ Dónde están los valores singulares de ? Recuerde que la función de seguimiento devuelve la suma de las entradas diagonales de una matriz cuadrada.

La norma de Frobenius es una extensión de la norma euclidiana y proviene del producto interno de Frobenius en el espacio de todas las matrices.

La norma de Frobenius es submultiplicativa y es muy útil para el álgebra lineal numérica . La submultiplicatividad de la norma de Frobenius se puede demostrar utilizando la desigualdad de Cauchy-Schwarz .

La norma de Frobenius suele ser más fácil de calcular que las normas inducidas y tiene la útil propiedad de ser invariante bajo rotaciones (y operaciones unitarias en general). Es decir, para cualquier matriz unitaria . Esta propiedad se deriva de la naturaleza cíclica de la traza ( ):

y análogamente:

donde hemos utilizado la naturaleza unitaria de (es decir, ).

También satisface

y

donde es el producto interno de Frobenius y Re es la parte real de un número complejo (irrelevante para matrices reales)

norma máxima

La norma máxima es la norma por elementos en el límite cuando p = q llega al infinito:

Esta norma no es submultiplicativa.

Tenga en cuenta que en cierta literatura (como Complejidad de la comunicación ), una definición alternativa de norma máxima, también llamada norma, se refiere a la norma de factorización:

normas schatten

Las normas p de Schatten surgen al aplicar la norma p al vector de valores singulares de una matriz. [2] Si los valores singulares de la matriz se denotan por σ i , entonces la norma p de Schatten se define por

Estas normas nuevamente comparten la notación con las normas p inducidas y de entrada , pero son diferentes.

Todas las normas de Schatten son submultiplicativas. También son unitariamente invariantes, lo que significa que para todas las matrices y todas las matrices unitarias y .

Los casos más familiares son p = 1, 2, ∞. El caso p = 2 produce la norma de Frobenius, presentada anteriormente. El caso p = ∞ produce la norma espectral, que es la norma del operador inducida por el vector 2-norma (ver arriba). Finalmente, p = 1 produce la norma nuclear (también conocida como norma de traza , o norma Ky Fan 'n' [8] ), definida como:

donde denota una matriz semidefinida positiva tal que . Más precisamente, al ser una matriz semidefinida positiva , su raíz cuadrada está bien definida. La norma nuclear es una envoltura convexa de la función de rango , por lo que se utiliza a menudo en optimización matemática para buscar matrices de bajo rango.

La combinación de la desigualdad de trazas de von Neumann con la desigualdad de Hölder para el espacio euclidiano produce una versión de la desigualdad de Hölder para las normas de Schatten para :

En particular, esto implica la desigualdad de la norma de Schatten.

Normas monótonas

Una norma matricial se llama monótona si es monótona con respecto al orden de Loewner . Por lo tanto, una norma matricial es creciente si

La norma de Frobenius y la norma espectral son ejemplos de normas monótonas. [9]

Cortar normas

Otra fuente de inspiración para las normas matriciales surge de considerar una matriz como la matriz de adyacencia de un gráfico dirigido y ponderado . [10] La llamada "norma de corte" mide qué tan cerca está el gráfico asociado de ser bipartito :

AK metro × norte[10] [11] [12]2| S | > norte y 2| T | > metroS = TST = ∅[11]

La norma de corte es equivalente a la norma del operador inducido ‖·‖ ∞→1 , que a su vez es equivalente a otra norma, llamada norma de Grothendieck . [12]

Para definir la norma de Grothendieck, primero tenga en cuenta que un operador lineal K 1K 1 es solo un escalar y, por lo tanto, se extiende a un operador lineal en cualquier K kK k . Además, dada cualquier elección de base para K n y K m , cualquier operador lineal K nK m se extiende a un operador lineal ( K k ) n → ( K k ) m , dejando que cada elemento de la matriz en elementos de K k pase por multiplicación escalar. La norma de Grothendieck es la norma de ese operador ampliado; en símbolos: [12]

La norma de Grothendieck depende de la elección de la base (generalmente considerada la base estándar ) y k .

Equivalencia de normas

Para dos normas matriciales cualesquiera y , tenemos que:

para algunos números positivos r y s , para todas las matrices . En otras palabras, todas las normas son equivalentes ; inducen la misma topología en . Esto es cierto porque el espacio vectorial tiene dimensión finita .

Además, para cada norma vectorial en , existe un número real positivo único tal que es una norma matricial submultiplicativa para cada .

Una norma matricial submultiplicativa se dice que es mínima si no existe otra norma matricial submultiplicativa que la satisfaga .

Ejemplos de equivalencia de normas

Hagamos referencia una vez más a la norma inducida por el vector p -norma (como arriba en la sección Norma inducida).

Para la matriz de rango , se cumplen las siguientes desigualdades: [13] [14]

Ver también

Notas

  1. ^ La condición solo se aplica cuando el producto está definido, como es el caso de las matrices cuadradas ( m = n ).

Referencias

  1. ^ ab Weisstein, Eric W. "Norma Matrix". mathworld.wolfram.com . Consultado el 24 de agosto de 2020 .
  2. ^ abcd "Normas de la matriz". fourier.eng.hmc.edu . Consultado el 24 de agosto de 2020 .
  3. ^ Malek-Shahmirzadi, Massoud (1983). "Una caracterización de ciertas clases de normas matriciales". Álgebra lineal y multilineal . 13 (2): 97–99. doi :10.1080/03081088308817508. ISSN  0308-1087.
  4. ^ Cuerno, Roger A. (2012). Análisis matricial . Johnson, Charles R. (2ª ed.). Cambridge: Prensa de la Universidad de Cambridge. págs. 340–341. ISBN 978-1-139-77600-4. OCLC  817236655.
  5. ^ Carl D. Meyer, Análisis matricial y álgebra lineal aplicada, §5.2, p.281, Sociedad de Matemáticas Industriales y Aplicadas, junio de 2000.
  6. ^ https://www.cs.utexas.edu/users/flame/Notes/NotesOnNorms.pdf
  7. ^ Ding, Chris; Zhou, Ding; Él, Xiaofeng; Zha, Hongyuan (junio de 2006). "R1-PCA: análisis de componentes principales de norma L1 invariante rotacional para una factorización subespacial robusta". Actas de la 23ª Conferencia Internacional sobre Aprendizaje Automático . ICML '06. Pittsburgh, Pensilvania, Estados Unidos: ACM. págs. 281–288. doi :10.1145/1143844.1143880. ISBN 1-59593-383-2.
  8. ^ Fan, Kentucky (1951). "Propiedades máximas y desigualdades para los valores propios de operadores completamente continuos". Actas de la Academia Nacional de Ciencias de los Estados Unidos de América . 37 (11): 760–766. Código bibliográfico : 1951PNAS...37..760F. doi : 10.1073/pnas.37.11.760 . PMC 1063464 . PMID  16578416. 
  9. ^ Ciarlet, Philippe G. (1989). Introducción al álgebra lineal numérica y optimización . Cambridge, Inglaterra: Cambridge University Press. pag. 57.ISBN _ 0521327881.
  10. ^ ab Friso, Alan; Kannan, Ravi (1 de febrero de 1999). "Aproximación rápida a matrices y aplicaciones". Combinatoria . 19 (2): 175–220. doi :10.1007/s004930050052. ISSN  1439-6912. S2CID  15231198.
  11. ^ ab Lovász László (2012). "La distancia de corte". Grandes redes y límites de gráficos . Publicaciones del Coloquio AMS. vol. 60. Providence, RI: Sociedad Matemática Estadounidense. págs. 127-131. ISBN 978-0-8218-9085-1. Tenga en cuenta que Lovász cambia la escala de A para que esté en [0, 1] .
  12. ^ abc Alon, Noga ; Naor, Assaf (13 de junio de 2004). "Aproximación a la norma de corte a través de la desigualdad de Grothendieck". Actas del trigésimo sexto simposio anual de ACM sobre teoría de la informática . ESTOC '04. Chicago, IL, EE.UU.: Asociación de Maquinaria de Computación. págs. 72–80. doi :10.1145/1007352.1007371. ISBN 978-1-58113-852-8. S2CID  1667427.
  13. ^ Golub, gen ; Préstamo Charles F. Van (1996). Computación matricial - Tercera edición. Baltimore: Prensa de la Universidad Johns Hopkins, 56–57. ISBN 0-8018-5413-X . 
  14. ^ Roger Horn y Charles Johnson. Análisis matricial, Capítulo 5, Cambridge University Press, 1985. ISBN 0-521-38632-2

Bibliografía