stringtranslate.com

Norma matricial

En el campo de las matemáticas , las normas se definen para los elementos dentro de un espacio vectorial . En concreto, cuando el espacio vectorial comprende matrices, dichas normas se denominan normas matriciales . Las normas matriciales se diferencian de las normas vectoriales en que también deben interactuar con la multiplicación de matrices.

Preliminares

Dado un campo de números reales o complejos , sea el espacio vectorial K de matrices con filas y columnas y entradas en el campo . Una norma matricial es una norma en .

Las normas se expresan a menudo con barras verticales dobles (de la siguiente manera: ). Por lo tanto, la norma matricial es una función que debe satisfacer las siguientes propiedades: [1] [2]

Para todos los escalares y matrices ,

La única característica que distingue a las matrices de los vectores reordenados es la multiplicación . Las normas matriciales son particularmente útiles si también son submultiplicativas : [1] [2] [3]

Toda norma en K n × n puede reescalarse para ser submultiplicativa; en algunos libros, la terminología norma matricial se reserva para normas submultiplicativas. [4]

Normas matriciales inducidas por normas vectoriales

Supóngase que se dan una norma vectorial en y una norma vectorial en . Cualquier matriz A induce un operador lineal de a con respecto a la base estándar, y se define la norma inducida correspondiente o la norma del operador o la norma subordinada en el espacio de todas las matrices de la siguiente manera: donde denota el supremo . Esta norma mide cuánto puede estirar los vectores la aplicación inducida por . Dependiendo de las normas vectoriales , utilizadas, se puede utilizar una notación distinta de para la norma del operador.

Normas matriciales inducidas por vectorespag-normas

Si se utiliza la p -norma para vectores ( ) para ambos espacios y entonces la norma del operador correspondiente es: [2] Estas normas inducidas son diferentes de las p -normas "de entrada" y las p -normas de Schatten para matrices tratadas a continuación, que también se denotan habitualmente por

Geométricamente hablando, uno puede imaginar una bola unitaria de norma p en , luego aplicar la función lineal a la bola. Terminaría convirtiéndose en una forma convexa distorsionada , y mide el "radio" más largo de la forma convexa distorsionada. En otras palabras, debemos tomar una bola unitaria de norma p en , luego multiplicarla por al menos , para que sea lo suficientemente grande como para contener .

pag= 1, ∞

Cuando , tenemos fórmulas simples. que es simplemente la suma absoluta máxima de las columnas de la matriz. que es simplemente la suma absoluta máxima de las filas de la matriz. Por ejemplo, para tenemos que

Norma espectral (pag= 2)

Cuando (la norma euclidiana o -norma para vectores), la norma matricial inducida es la norma espectral . (Los dos valores no coinciden en dimensiones infinitas —ver Radio espectral para más información. El radio espectral no debe confundirse con la norma espectral.) La norma espectral de una matriz es el mayor valor singular de (es decir, la raíz cuadrada del mayor valor propio de la matriz donde denota la transpuesta conjugada de ): [5] donde representa el mayor valor singular de la matriz

Hay más propiedades:

Normas matriciales inducidas por vectoresalfa- yβ-normas

Podemos generalizar la definición anterior. Supongamos que tenemos normas vectoriales y para espacios y respectivamente; la norma del operador correspondiente es En particular, el definido anteriormente es el caso especial de .

En los casos especiales de y , las normas matriciales inducidas se pueden calcular mediante donde es la i-ésima fila de la matriz .

En los casos especiales de y , las normas matriciales inducidas se pueden calcular mediante donde es la j-ésima columna de la matriz .

Por lo tanto, y son la norma máxima de fila y columna 2 de la matriz, respectivamente.

Propiedades

Cualquier norma de operador es consistente con las normas vectoriales que la inducen, dando

Supóngase que ; ; y son normas de operador inducidas por los respectivos pares de normas vectoriales ; ; y . Entonces,

Esto se desprende de y

Matrices cuadradas

Supongamos que es una norma de operador en el espacio de matrices cuadradas inducida por normas vectoriales y . Entonces, la norma de operador es una norma matricial submultiplicativa:

Además, cualquier norma de este tipo satisface la desigualdad

para todos los enteros positivos r , donde ρ ( A ) es el radio espectral de A . Para A simétrica o hermítica , tenemos igualdad en ( 1 ) para la 2-norma, ya que en este caso la 2-norma es precisamente el radio espectral de A . Para una matriz arbitraria, es posible que no tengamos igualdad para ninguna norma; un contraejemplo sería que tiene un radio espectral que se desvanece. En cualquier caso, para cualquier norma matricial, tenemos la fórmula del radio espectral :

Normas consistentes y compatibles

Una norma matricial en se dice que es consistente con una norma vectorial en y una norma vectorial en , si: para todos y para todos . En el caso especial de m = n y , también se dice que es compatible con .

Todas las normas inducidas son consistentes por definición. Además, cualquier norma matricial submultiplicativa en induce una norma vectorial compatible en al definir .

Normas matriciales "por entrada"

Estas normas tratan una matriz como un vector de tamaño , y utilizan una de las normas vectoriales conocidas. Por ejemplo, utilizando la norma p para vectores, p ≥ 1 , obtenemos:

Esta es una norma diferente de la p -norma inducida (ver arriba) y de la p -norma de Schatten (ver abajo), pero la notación es la misma.

El caso especial p = 2 es la norma de Frobenius, y p = ∞ produce la norma máxima.

2,1 kilosyL p,qnormas

Sean las columnas de la matriz . Según la definición original, la matriz presenta n puntos de datos en un espacio de dimensión m. La norma [6] es la suma de las normas euclidianas de las columnas de la matriz:

La norma como función de error es más robusta, ya que el error de cada punto de datos (una columna) no se eleva al cuadrado. Se utiliza en análisis de datos robustos y codificación dispersa .

Para p , q ≥ 1 , la norma se puede generalizar a la norma de la siguiente manera:

Norma de Frobenius

Cuando p = q = 2 para la norma, se denomina norma de Frobenius o norma de Hilbert–Schmidt , aunque este último término se utiliza con más frecuencia en el contexto de operadores en el espacio de Hilbert (posiblemente de dimensión infinita) . Esta norma se puede definir de varias maneras:

donde la traza es la suma de las entradas diagonales y son los valores singulares de . La segunda igualdad se demuestra mediante el cálculo explícito de . La tercera igualdad se demuestra mediante la descomposición en valores singulares de , y el hecho de que la traza es invariante bajo desplazamientos circulares.

La norma de Frobenius es una extensión de la norma euclidiana y proviene del producto interno de Frobenius en el espacio de todas las matrices.

La norma de Frobenius es submultiplicativa y resulta muy útil para el álgebra lineal numérica . La submultiplicatividad de la norma de Frobenius se puede demostrar mediante la desigualdad de Cauchy-Schwarz .

La norma de Frobenius suele ser más fácil de calcular que las normas inducidas y tiene la propiedad útil de ser invariante ante rotaciones (y operaciones unitarias en general). Es decir, para cualquier matriz unitaria . Esta propiedad se desprende de la naturaleza cíclica de la traza ( ):

y análogamente:

donde hemos utilizado la naturaleza unitaria de (es decir, ).

También satisface

y

donde es el producto interno de Frobenius , y Re es la parte real de un número complejo (irrelevante para matrices reales)

Norma máxima

La norma máxima es la norma elemento por elemento en el límite cuando p = q tiende a infinito:

Esta norma no es submultiplicativa, pero modificando el lado derecho sí lo es.

Tenga en cuenta que en alguna literatura (como Communication Complexity ), una definición alternativa de norma máxima, también llamada -norma, se refiere a la norma de factorización:

Normas de Schatten

Las p -normas de Schatten surgen al aplicar la p -norma al vector de valores singulares de una matriz. [2] Si los valores singulares de la matriz se denotan por σ i , entonces la p -norma de Schatten se define por

Estas normas nuevamente comparten la notación con las normas p inducidas y de entrada , pero son diferentes.

Todas las normas de Schatten son submultiplicativas. También son unitariamente invariantes, lo que significa que para todas las matrices y todas las matrices unitarias y .

Los casos más conocidos son p = 1, 2, ∞. El caso p = 2 produce la norma de Frobenius, introducida anteriormente. El caso p = ∞ produce la norma espectral, que es la norma del operador inducida por la norma 2-vectorial (véase más arriba). Por último, p = 1 produce la norma nuclear (también conocida como norma de traza o norma 'n'- Ky Fan [7] ), definida como:

donde denota una matriz semidefinida positiva tal que . Más precisamente, dado que es una matriz semidefinida positiva , su raíz cuadrada está bien definida. La norma nuclear es una envolvente convexa de la función de rango , por lo que se utiliza a menudo en la optimización matemática para buscar matrices de bajo rango.

La combinación de la desigualdad de trazas de von Neumann con la desigualdad de Hölder para el espacio euclidiano produce una versión de la desigualdad de Hölder para las normas de Schatten para :

En particular, esto implica la desigualdad de la norma Schatten

Normas monótonas

Una norma matricial se denomina monótona si es monótona con respecto al orden de Loewner . Por lo tanto, una norma matricial es creciente si

La norma de Frobenius y la norma espectral son ejemplos de normas monótonas. [8]

Recortar normas

Otra fuente de inspiración para las normas matriciales surge de considerar una matriz como la matriz de adyacencia de un grafo dirigido ponderado . [ 9] La llamada "norma de corte" mide qué tan cerca está el grafo asociado de ser bipartito : donde AK m × n . [9] [10] [11] Las definiciones equivalentes (hasta un factor constante) imponen las condiciones 2| S | > n & 2| T | > ​​m ; S = T ; o ST = ∅ . [10]

La norma de corte es equivalente a la norma del operador inducido ‖·‖ ∞→1 , que a su vez es equivalente a otra norma, llamada norma de Grothendieck . [11]

Para definir la norma de Grothendieck, primero observe que un operador lineal K 1K 1 es simplemente un escalar, y por lo tanto se extiende a un operador lineal en cualquier K kK k . Además, dada cualquier elección de base para K n y K m , cualquier operador lineal K nK m se extiende a un operador lineal ( K k ) n → ( K k ) m , al dejar cada elemento de la matriz en elementos de K k a través de la multiplicación escalar. La norma de Grothendieck es la norma de ese operador extendido; en símbolos: [11]

La norma de Grothendieck depende de la elección de la base (generalmente tomada como la base estándar ) y de k .

Equivalencia de normas

Para cualesquiera dos normas matriciales y , tenemos que:

para algunos números positivos r y s , para todas las matrices . En otras palabras, todas las normas en son equivalentes ; inducen la misma topología en . Esto es cierto porque el espacio vectorial tiene la dimensión finita .

Además, para cada norma matricial en existe un único número real positivo tal que es una norma matricial submultiplicativa para cada ; a saber,

Se dice que una norma matricial submultiplicativa es mínima si no existe otra norma matricial submultiplicativa que satisfaga .

Ejemplos de equivalencia de normas

Volvamos a referirnos a la norma inducida por el vector p -norma (como arriba en la sección Norma inducida).

Para una matriz de rango , se cumplen las siguientes desigualdades: [12] [13]

Véase también

Notas

  1. ^ La condición sólo se aplica cuando el producto está definido, como en el caso de matrices cuadradas ( m = n ).

Referencias

  1. ^ ab Weisstein, Eric W. "Norma Matrix". mathworld.wolfram.com . Consultado el 24 de agosto de 2020 .
  2. ^ abcd "Normas matriciales". fourier.eng.hmc.edu . Consultado el 24 de agosto de 2020 .
  3. ^ Malek-Shahmirzadi, Massoud (1983). "Una caracterización de ciertas clases de normas matriciales". Álgebra lineal y multilineal . 13 (2): 97–99. doi :10.1080/03081088308817508. ISSN  0308-1087.
  4. ^ Horn, Roger A. (2012). Análisis de matrices . Johnson, Charles R. (2.ª ed.). Cambridge: Cambridge University Press. pp. 340–341. ISBN 978-1-139-77600-4.OCLC 817236655  .
  5. ^ Carl D. Meyer, Análisis matricial y álgebra lineal aplicada, §5.2, p.281, Sociedad de Matemáticas Industriales y Aplicadas, junio de 2000.
  6. ^ Ding, Chris; Zhou, Ding; He, Xiaofeng; Zha, Hongyuan (junio de 2006). "R1-PCA: análisis de componentes principales de norma L1 invariante rotacional para factorización de subespacios robusta". Actas de la 23.ª Conferencia internacional sobre aprendizaje automático . ICML '06. Pittsburgh, Pensilvania, EE. UU.: ACM. págs. 281–288. doi :10.1145/1143844.1143880. ISBN . 1-59593-383-2.
  7. ^ Fan, Ky. (1951). "Propiedades máximas y desigualdades para los valores propios de operadores completamente continuos". Actas de la Academia Nacional de Ciencias de los Estados Unidos de América . 37 (11): 760–766. Bibcode :1951PNAS...37..760F. doi : 10.1073/pnas.37.11.760 . PMC 1063464 . PMID  16578416. 
  8. ^ Ciarlet, Philippe G. (1989). Introducción al álgebra lineal numérica y optimización . Cambridge, Inglaterra: Cambridge University Press. p. 57. ISBN 0521327881.
  9. ^ ab Frieze, Alan; Kannan, Ravi (1999-02-01). "Aproximación rápida a matrices y aplicaciones". Combinatorica . 19 (2): 175–220. doi :10.1007/s004930050052. ISSN  1439-6912. S2CID  15231198.
  10. ^ de Lovász László (2012). "La distancia de corte". Grandes redes y límites de grafos . Publicaciones del coloquio de la AMS. Vol. 60. Providence, RI: American Mathematical Society. págs. 127–131. ISBN 978-0-8218-9085-1. Nótese que Lovász reescala A para que quede en [0, 1] .
  11. ^ abc Alon, Noga ; Naor, Assaf (13 de junio de 2004). "Aproximación de la norma de corte mediante la desigualdad de Grothendieck". Actas del trigésimo sexto simposio anual de la ACM sobre teoría de la computación . STOC '04. Chicago, IL, EE. UU.: Association for Computing Machinery. págs. 72–80. doi :10.1145/1007352.1007371. ISBN 978-1-58113-852-8.S2CID1667427  .​
  12. ^ Golub, Gene ; Charles F. Van Loan (1996). Cálculos matriciales – Tercera edición. Baltimore: The Johns Hopkins University Press, 56–57. ISBN 0-8018-5413-X . 
  13. ^ Roger Horn y Charles Johnson. Análisis de matrices, Capítulo 5, Cambridge University Press, 1985. ISBN 0-521-38632-2

Bibliografía