stringtranslate.com

Análisis matricial

En matemáticas , particularmente en álgebra lineal y aplicaciones, el análisis matricial es el estudio de las matrices y sus propiedades algebraicas. [1] Algunos temas particulares de muchos incluyen; operaciones definidas en matrices (como la suma de matrices , la multiplicación de matrices y operaciones derivadas de estas), funciones de matrices (como la exponenciación matricial y el logaritmo matricial , e incluso senos y cosenos, etc. de matrices), y los valores propios de matrices ( descomposición propia de una matriz , teoría de perturbación de valores propios ). [2]

Espacios matriciales

El conjunto de todas las matrices m  ×  n sobre un cuerpo F denotado en este artículo M mn ( F ) forma un espacio vectorial . Ejemplos de F incluyen el conjunto de números racionales , los números reales y el conjunto de números complejos . Los espacios M mn ( F ) y M pq ( F ) son espacios diferentes si m y p son desiguales, y si n y q son desiguales; por ejemplo M 32 ( F ) ≠ M 23 ( F ). Dos matrices m  ×  n A y B en M mn ( F ) se pueden sumar para formar otra matriz en el espacio M mn ( F ):

y multiplicado por un α en F , para obtener otra matriz en M mn ( F ):

Combinando estas dos propiedades, una combinación lineal de las matrices A y B en M mn ( F ) es otra matriz en M mn ( F ):

donde α y β son números en F .

Cualquier matriz puede expresarse como una combinación lineal de matrices base, que desempeñan el papel de vectores base para el espacio matricial. Por ejemplo, para el conjunto de matrices 2 × 2 sobre el cuerpo de números reales, , un conjunto de matrices base legítimo es:

porque cualquier matriz 2 × 2 se puede expresar como:

donde a , b , c , d son todos números reales. Esta idea se aplica a otros cuerpos y matrices de dimensiones superiores.

Determinantes

El determinante de una matriz cuadrada es una propiedad importante. El determinante indica si una matriz es invertible (es decir, si existe la inversa de una matriz cuando el determinante es distinto de cero). Los determinantes se utilizan para hallar valores propios de matrices (véase más abajo) y para resolver un sistema de ecuaciones lineales (véase la regla de Cramer ).

Valores propios y vectores propios de matrices

Definiciones

Una matriz A de n  ×  n tiene vectores propios x y valores propios λ definidos por la relación:

En otras palabras, la multiplicación matricial de A seguida de un vector propio x (aquí una matriz columna n -dimensional ) es lo mismo que multiplicar el vector propio por el valor propio. Para una matriz n  ×  n , hay n valores propios. Los valores propios son las raíces del polinomio característico :

donde I es la matriz identidad n  ×  n .

Las raíces de los polinomios, en este contexto los valores propios, pueden ser todas diferentes, o algunas pueden ser iguales (en cuyo caso el valor propio tiene multiplicidad , la cantidad de veces que aparece un valor propio). Después de resolver los valores propios, los vectores propios correspondientes a los valores propios se pueden encontrar mediante la ecuación definitoria.

Perturbaciones de valores propios

Similitud de matrices

Dos matrices n  ×  n A y B son similares si están relacionadas mediante una transformación de similitud :

La matriz P se llama matriz de similitud y es necesariamente invertible .

Similitud unitaria

Formas canónicas

Forma escalonada por filas

Forma normal de Jordania

Forma canónica del Weyr

Forma normal de Frobenius

Factorización triangular

Descomposición LU

La descomposición LU divide una matriz en un producto matricial de una matriz triangular superior y una matriz triangular inferior.

Normas matriciales

Como las matrices forman espacios vectoriales, se pueden formular axiomas (análogos a los de los vectores) para definir un "tamaño" de una matriz particular. La norma de una matriz es un número real positivo.

Definición y axiomas

Para todas las matrices A y B en M mn ( F ), y todos los números α en F , una norma matricial, delimitada por barras verticales dobles || ... ||, cumple: [nota 1]

con igualdad solo para A = 0 , la matriz cero .

Norma de Frobenius

La norma de Frobenius es análoga al producto escalar de los vectores euclidianos: multiplique los elementos de la matriz entrada por entrada, sume los resultados y luego tome la raíz cuadrada positiva :

Se define para matrices de cualquier dimensión (es decir, no hay restricción a matrices cuadradas).

Matrices definidas y semidefinidas positivas

Funciones

Los elementos de una matriz no están restringidos a números constantes, pueden ser variables matemáticas .

Funciones de matrices

Una función de una matriz toma una matriz y devuelve algo más (un número, un vector, una matriz, etc.).

Funciones con valores matriciales

Una función con valor matricial toma algo (un número, un vector, una matriz, etc.) y devuelve una matriz.

Véase también

Otras ramas del análisis

Otros conceptos del álgebra lineal

Tipos de matriz

Funciones matriciales

Notas al pie

  1. ^ Algunos autores, por ejemplo, Horn y Johnson, utilizan barras verticales triples en lugar de dobles: ||| A |||.

Referencias

Notas

  1. ^ RA Horn, CR Johnson (2012). Análisis de matrices (2.ª ed.). Cambridge University Press. ISBN 978-052-183-940-2.
  2. ^ NJ Higham (2000). Funciones de matrices: teoría y computación. SIAM. ISBN 089-871-777-9.

Lectura adicional