En matemáticas, una norma matricial es una extensión de la noción natural de norma vectorial a las matrices.
denotará el cuerpo de los números reales o complejos y
denotará el espacio vectorial que contienen todas las matrices con
denota la norma de la matriz
, entonces, Adicionalmente, en el caso de matrices cuadradas (o sea, m = n), algunas (pero no todas) normas matriciales satisfacen la siguiente condición, la cual se relacióna con el hecho de que las matrices son más que simples vectores: Una norma matricial que satisface esta propiedad adicional es llamada norma sub-multiplicativa (en algunos libros, la terminología norma matricial se usa solo para normas que son sub-multiplicativas).
El conjunto de todas las matrices n-por-n, siendo normas sub-multiplicativas, es un ejemplo de un álgebra de Banach.
Si se tienen norma vectoriales en Km y Kn se pueden definir la norma inducida correspondiente o el operador norma en el espacio de matrices
de la siguiente manera: Donde sup denota el elemento supremo e ínfimo.
Hay diferentes normas que se denotan p-normas y usualmente se denotan por
Si m = n y uno usa la misma norma en el dominio y el rango, entonces el operador norma inducido es una norma matricial sub-multiplicativa.
El operador norma correspondiente a la norma p para vectores es: En el caso de
, las normas se pueden calcular como: Demostración:Sea
{\displaystyle Az={\begin{pmatrix}\sum _{j=1}^{n}{\operatorname {sgn}(a_{kj})a_{1j}}\\\vdots \\\sum _{j=1}^{n}{\operatorname {sgn}(a_{kj})a_{nj}}\end{pmatrix}}}
{\displaystyle (Az)_{i}=\sum _{j=1}^{m}{\operatorname {sgn}(a_{kj})a_{ij}}\leq \sum _{j=1}^{m}{\operatorname {sgn}(a_{kj})a_{ij}}=\sum _{j=1}^{m}{|a_{ij}|}{\overset {{\text{def }}\beta }{\leq }}\beta =\max \limits _{1\leq i\leq m}\sum _{j=1}^{n}|a_{ij}|{\overset {{\text{def }}k}{=}}\sum _{j=1}^{m}{|a_{kj}|}=\sum _{j=1}^{m}{\operatorname {sgn}(a_{kj})a_{kj}}=(Az)_{k}}
{\displaystyle (Az)_{i}=\sum _{j=1}^{m}{\operatorname {sgn}(a_{kj})a_{ij}}\geq \sum _{j=1}^{m}{-\operatorname {sgn}(a_{ij})a_{ij}}=-\sum _{j=1}^{m}{|a_{ij}|}\geq -\sum _{j=1}^{m}{|a_{kj}|}=-(Az)_{k}}
Por ejemplo, si la matriz A se define como se tiene ||A||1 = Max (5, 13, 19) = 19. y ||A||∞ = Max (15, 12, 10) = 15 En el caso especial de p = 2 (la norma euclídea) y m = n (matrices cuadradas), la norma inducida es la norma espectral.
La norma espectral de una matriz A es el valor singular más grande de A o la raíz cuadrada del valor propio más grande de la matriz semidefinida-positiva A*A: donde A* denota la traspuesta conjugada de A.
En el caso más general, uno puede definir una norma matricial subordinada en
como: Las normas subordinadas son consistentes con las normas que las inducen, dando Demostración: Si
, por lo que la desigualdad es trivialmente cierta.
Cualquier norma inducida satisface la desigualdad donde ρ(A) es el radio espectral de A.
De hecho, se ρ(A) es el ínfimo de todas las normas inducidas de A.
Además, para matrices cuadradas se tiene la fórmula del radio espectral: Estas normas tratan una matriz de
veces como un vector de tamaño
Por ejemplo, utilizando la p-norma de vectores, obtenemos Para p = 2, esto se llama la norma de Frobenius o norma de Hilbert-Schmidt, aunque este último término es a menudo reservado para los operadores de Espacio de Hilbert.
Esta norma se puede definir de varias maneras: donde
son los valores singulares de
y viene de un producto interno en el espacio de todas las matrices.
La norma de Frobenius es submultiplicativa y es muy útil para álgebra lineal numérica.
Esta norma es a menudo más fácil de calcular que las normas inducidas.