stringtranslate.com

Matriz (matemáticas)

Dos corchetes altos con m-muchas filas, cada una de las cuales contiene n-muchas variables con letras 'a' subíndices. A cada letra 'a' se le asigna un número de fila y un número de columna como subíndice.
Una matriz m × n : las m filas son horizontales y las n columnas son verticales. Cada elemento de una matriz suele denotarse mediante una variable con dos subíndices . Por ejemplo, un 2,1 representa el elemento en la segunda fila y la primera columna de la matriz.

En matemáticas , una matriz ( pl.: matrices ) es una matriz o tabla rectangular de números , símbolos o expresiones , dispuestos en filas y columnas, que se utiliza para representar un objeto matemático o una propiedad de dicho objeto.

Por ejemplo,

Las matrices se utilizan para representar mapas lineales y permitir cálculos explícitos en álgebra lineal . Por lo tanto, el estudio de matrices es una gran parte del álgebra lineal y la mayoría de las propiedades y operaciones del álgebra lineal abstracta se pueden expresar en términos de matrices. Por ejemplo, la multiplicación de matrices representa la composición de mapas lineales.

No todas las matrices están relacionadas con el álgebra lineal. Este es, en particular, el caso de la teoría de grafos , de las matrices de incidencia y de las matrices de adyacencia . [1] Este artículo se centra en matrices relacionadas con el álgebra lineal y, a menos que se especifique lo contrario, todas las matrices representan mapas lineales o pueden verse como tales.

Las matrices cuadradas , matrices con el mismo número de filas y columnas, juegan un papel importante en la teoría de matrices. Las matrices cuadradas de una dimensión dada forman un anillo no conmutativo , que es uno de los ejemplos más comunes de anillo no conmutativo. El determinante de una matriz cuadrada es un número asociado a la matriz, el cual es fundamental para el estudio de una matriz cuadrada; por ejemplo, una matriz cuadrada es invertible si y sólo si tiene un determinante distinto de cero, y los valores propios de una matriz cuadrada son las raíces de un determinante polinómico .

En geometría , las matrices se utilizan ampliamente para especificar y representar transformaciones geométricas (por ejemplo, rotaciones ) y cambios de coordenadas . En el análisis numérico , muchos problemas computacionales se resuelven reduciéndolos a un cálculo matricial, y esto a menudo implica calcular con matrices de gran dimensión. Las matrices se utilizan en la mayoría de las áreas de las matemáticas y en la mayoría de los campos científicos, ya sea directamente o mediante su uso en geometría y análisis numérico.

La teoría de matrices es la rama de las matemáticas que se centra en el estudio de matrices. Inicialmente fue una subrama del álgebra lineal , pero pronto creció hasta incluir materias relacionadas con la teoría de grafos , el álgebra , la combinatoria y la estadística .

Definición

Una matriz es una matriz rectangular de números (u otros objetos matemáticos), denominadas entradas de la matriz. Las matrices están sujetas a operaciones estándar como la suma y la multiplicación. [ 2] Más comúnmente, una matriz sobre un campo F es una matriz rectangular de elementos de F. [3] [4] Una matriz real y una matriz compleja son matrices cuyas entradas son respectivamente números reales o números complejos . A continuación se analizan tipos más generales de entradas. Por ejemplo, esta es una matriz real:

Los números, símbolos o expresiones de la matriz se denominan entradas o elementos . Las líneas horizontales y verticales de entradas de una matriz se denominan filas y columnas , respectivamente.

Tamaño

El tamaño de una matriz se define por el número de filas y columnas que contiene. No hay límite para el número de filas y columnas que puede tener una matriz (en el sentido habitual) siempre que sean números enteros positivos. Una matriz con filas y columnas se llama matriz, o por matriz, donde y se denominan dimensiones . Por ejemplo, la matriz anterior es una matriz.

Las matrices con una sola fila se llaman vectores fila , y las que tienen una sola columna se llaman vectores columna . Una matriz con el mismo número de filas y columnas se llama matriz cuadrada . [5] Una matriz con un número infinito de filas o columnas (o ambas) se llama matriz infinita. En algunos contextos, como en los programas informáticos de álgebra , es útil considerar una matriz sin filas ni columnas, llamada matriz vacía.

Notación

Los detalles de la notación matricial simbólica varían ampliamente, prevaleciendo algunas tendencias. Las matrices se escriben comúnmente entre corchetes o paréntesis , de modo que una matriz se representa como

Las matrices generalmente se simbolizan usando letras mayúsculas (como en los ejemplos anteriores), mientras que las letras minúsculas correspondientes , con dos índices de subíndice (por ejemplo, o ), representan las entradas. Además de utilizar letras mayúsculas para simbolizar matrices, muchos autores utilizan un estilo tipográfico especial , comúnmente en negrita romana (sin cursiva), para distinguir aún más las matrices de otros objetos matemáticos. Una notación alternativa implica el uso de un doble subrayado con el nombre de la variable, con o sin negrita, como en .

La entrada en la i -ésima fila y j -ésima columna de una matriz A a veces se denomina entrada o de la matriz y comúnmente se denota por o . Las notaciones alternativas para esa entrada son y . Por ejemplo, la entrada de la siguiente matriz es 5 (también denominada , o ) :

A veces, las entradas de una matriz se pueden definir mediante una fórmula como . Por ejemplo, cada una de las entradas de la siguiente matriz está determinada por la fórmula .

En este caso, la propia matriz a veces se define mediante esa fórmula, entre corchetes o doble paréntesis. Por ejemplo, la matriz anterior se define como o . Si el tamaño de la matriz es , la fórmula mencionada anteriormente es válida para cualquiera y cualquiera . Esto puede especificarse por separado o indicarse utilizando como subíndice. Por ejemplo, la matriz anterior es y se puede definir como o .

Algunos lenguajes de programación utilizan matrices con doble subíndice (o matrices de matrices) para representar una matriz de m por n . Algunos lenguajes de programación comienzan la numeración de índices de matrices en cero, en cuyo caso las entradas de una matriz m -por- n están indexadas por y . [6] Este artículo sigue la convención más común en escritura matemática donde la enumeración comienza desde 1 .

Ocasionalmente se utiliza un asterisco para referirse a filas o columnas completas en una matriz. Por ejemplo, se refiere a la i -ésima fila de A , mientras que se refiere a la j -ésima columna.

El conjunto de todas las matrices reales m por n a menudo se denota o El conjunto de todas las matrices m por n sobre otro campo , o sobre un anillo R , se denota de manera similar o Si m = n , como en el caso de matrices cuadradas , no se repite la dimensión: o [7] A menudo, se usa en lugar de   

Operaciones básicas

Hay una serie de operaciones básicas que se pueden aplicar sobre matrices. Algunos, como la transposición y la submatriz, no dependen de la naturaleza de las entradas. Otras, como la suma de matrices , la multiplicación escalar , la multiplicación de matrices y las operaciones por filas implican operaciones sobre entradas de matrices y, por tanto, requieren que las entradas de matrices sean números o pertenezcan a un campo o a un anillo . [8]

En esta sección, se supone que las entradas de la matriz pertenecen a un anillo fijo, que suele ser un campo de números.

Suma, multiplicación escalar, resta y transposición.

Suma

La suma A + B de dos m -por- n matrices A y B se calcula de entrada:

( A + B ) i , j = A i , j + B i , j , donde 1 ≤ imy 1 ≤ jn .

Por ejemplo,

Multiplicación escalar

El producto c A de un número c (también llamado escalar en este contexto) y una matriz A se calcula multiplicando cada entrada de A por c :

( c A ) yo , j = c · A yo , j .

Esta operación se llama multiplicación escalar , pero su resultado no se denomina "producto escalar" para evitar confusiones, ya que "producto escalar" suele utilizarse como sinónimo de " producto interno ". Por ejemplo:

Sustracción

La resta de dos matrices m × n se define componiendo la suma de matrices con multiplicación escalar por –1 :

Transposición

La transpuesta de una matriz A de m por n es la matriz A T de n por m (también denominada A tr o t A ) formada al convertir filas en columnas y viceversa:

( A T ) yo , j = A j , yo .

Por ejemplo:

Las propiedades familiares de los números se extienden a estas operaciones con matrices: por ejemplo, la suma es conmutativa , es decir, la suma de la matriz no depende del orden de los sumandos: A  + B = B + A. [9] La transpuesta es compatible con la suma y la multiplicación escalar, como se expresa por ( c A ) T = c ( A T ) y ( A + B ) T = A T + B T . Finalmente, ( A T ) T = A .             

Multiplicación de matrices

Representación esquemática del producto matricial AB de dos matrices A y B

La multiplicación de dos matrices se define si y sólo si el número de columnas de la matriz izquierda es el mismo que el número de filas de la matriz derecha. Si A es una matriz de m por n y B es una matriz de n por p , entonces su producto matricial AB es la matriz de m por p cuyas entradas están dadas por el producto escalar de la fila correspondiente de A y la correspondiente columna de B : [10]

donde 1 ≤ imy 1 ≤ jp . [11] Por ejemplo, la entrada subrayada 2340 en el producto se calcula como (2 × 1000) + (3 × 100) + (4 × 10) = 2340:

La multiplicación de matrices satisface las reglas ( AB ) C = A ( BC ) ( asociatividad ), y ( A + B ) C = AC + BC así como C ( A + B ) = CA + CB ( distributividad izquierda y derecha ), siempre que el tamaño de las matrices es tal que los distintos productos están definidos. [12] El producto AB puede definirse sin definir BA , es decir, si A y B son matrices m -by- n y n -by- k , respectivamente, y mk . Incluso si ambos productos están definidos, generalmente no es necesario que sean iguales, es decir:

ABBA ,

En otras palabras, la multiplicación de matrices no es conmutativa , en marcado contraste con los números (racionales, reales o complejos), cuyo producto es independiente del orden de los factores. [10] Un ejemplo de dos matrices que no conmutan entre sí es:

mientras

Además de la multiplicación de matrices ordinaria que acabamos de describir, también existen otras operaciones sobre matrices utilizadas con menos frecuencia que pueden considerarse formas de multiplicación, como el producto de Hadamard y el producto de Kronecker . [13] Surgen al resolver ecuaciones matriciales como la ecuación de Sylvester .

Operaciones de fila

Hay tres tipos de operaciones de fila:

  1. adición de filas, es decir, agregar una fila a otra.
  2. multiplicación de filas, es decir, multiplicar todas las entradas de una fila por una constante distinta de cero;
  3. cambio de fila, es decir, intercambiar dos filas de una matriz;

Estas operaciones se utilizan de varias maneras, incluida la resolución de ecuaciones lineales y la búsqueda de inversas matriciales .

Submatriz

Una submatriz de una matriz es una matriz que se obtiene eliminando cualquier colección de filas y/o columnas. [14] [15] [16] Por ejemplo, a partir de la siguiente matriz de 3 por 4, podemos construir una submatriz de 2 por 3 eliminando la fila 3 y la columna 2:

Los menores y cofactores de una matriz se encuentran calculando el determinante de ciertas submatrices. [16] [17]

Una submatriz principal es una submatriz cuadrada que se obtiene eliminando ciertas filas y columnas. La definición varía de un autor a otro. Según algunos autores, una submatriz principal es una submatriz en la que el conjunto de índices de filas que quedan es el mismo que el conjunto de índices de columnas que quedan. [18] [19] Otros autores definen una submatriz principal como aquella en la que las primeras k filas y columnas, para algún número k , son las que quedan; [20] este tipo de submatriz también se ha denominado submatriz principal principal . [21]

Ecuaciones lineales

Las matrices se pueden utilizar para escribir y trabajar de forma compacta con múltiples ecuaciones lineales, es decir, sistemas de ecuaciones lineales. Por ejemplo, si A es una matriz m por n , x designa un vector columna (es decir, matriz n ×1) de n variables x 1 , x 2 , ..., x n , y b es una matriz m. × vector de 1 columna, luego la ecuación matricial

es equivalente al sistema de ecuaciones lineales [22]

Usando matrices, esto se puede resolver de manera más compacta de lo que sería posible escribiendo todas las ecuaciones por separado. Si n = m y las ecuaciones son independientes , entonces esto se puede hacer escribiendo

donde A −1 es la matriz inversa de A . Si A no tiene inversa, las soluciones (si las hay) se pueden encontrar utilizando su inversa generalizada .

Transformaciones lineales

Los vectores representados por una matriz de 2 por 2 corresponden a los lados de un cuadrado unitario transformado en paralelogramo.

Las matrices y la multiplicación de matrices revelan sus características esenciales cuando se relacionan con transformaciones lineales , también conocidas como aplicaciones lineales . Una matriz A real de m por n da lugar a una transformación lineal R nR m que asigna cada vector x en R n al producto (matriz) Ax , que es un vector en R m . Por el contrario, cada transformación lineal f : R nR m surge de una única matriz m -por- n A : explícitamente, la entrada ( i , j ) de A es la iésima coordenada de f ( e j ), donde e j = (0,...,0,1,0,...,0) es el vector unitario con 1 en la jésima posición y 0 en el resto. Se dice que la matriz A representa el mapa lineal f y A se llama matriz de transformación de f .

Por ejemplo, la matriz 2×2

puede verse como la transformación del cuadrado unitario en un paralelogramo con vértices en (0, 0) , ( a , b ) , ( a + c , b + d ) y ( c , d ) . El paralelogramo que se muestra a la derecha se obtiene multiplicando A con cada uno de los vectores columna , y a su vez. Estos vectores definen los vértices del cuadrado unitario.

La siguiente tabla muestra varias matrices reales de 2×2 con los mapas lineales asociados de R 2 . El original azul se asigna a la cuadrícula y las formas verdes . El origen (0,0) está marcado con un punto negro.

Bajo la correspondencia 1 a 1 entre matrices y aplicaciones lineales, la multiplicación de matrices corresponde a la composición de aplicaciones: [23] si una matriz B k -por- m representa otra aplicación lineal g : R mR k , entonces la composición gf está representado por BA ya que

( gramof )( x ) = gramo ( f ( x )) = g ( Hacha ) = B ( Hacha ) = ( BA ) x .

La última igualdad se deriva de la asociatividad de la multiplicación de matrices antes mencionada.

El rango de una matriz A es el número máximo de vectores fila linealmente independientes de la matriz, que es el mismo que el número máximo de vectores columna linealmente independientes. [24] De manera equivalente es la dimensión de la imagen del mapa lineal representado por A. [25] El teorema de rango-nulidad establece que la dimensión del núcleo de una matriz más el rango es igual al número de columnas de la matriz. [26]

Matriz cuadrada

Una matriz cuadrada es una matriz con el mismo número de filas y columnas. [5] Una matriz de n por n se conoce como matriz cuadrada de orden n. Se pueden sumar y multiplicar dos matrices cuadradas cualesquiera del mismo orden. Las entradas a ii forman la diagonal principal de una matriz cuadrada. Se encuentran en la línea imaginaria que va desde la esquina superior izquierda hasta la esquina inferior derecha de la matriz.

Tipos principales

Matriz diagonal y triangular

Si todas las entradas de A debajo de la diagonal principal son cero, A se llama matriz triangular superior . De manera similar, si todas las entradas de A por encima de la diagonal principal son cero, A se llama matriz triangular inferior . Si todas las entradas fuera de la diagonal principal son cero, A se llama matriz diagonal .

Matriz de identidad

La matriz identidad In de tamaño n es la matriz n por n en la que todos los elementos de la diagonal principal son iguales a 1 y todos los demás elementos son iguales a 0, por ejemplo,

Es una matriz cuadrada de orden n , y también un tipo especial de matriz diagonal . Se llama matriz identidad porque su multiplicación deja una matriz sin cambios:

AI n = I m A = A para cualquier m -por- n matriz A .

Un múltiplo escalar distinto de cero de una matriz identidad se llama matriz escalar . Si las entradas de la matriz provienen de un campo, las matrices escalares forman un grupo, bajo multiplicación de matrices, que es isomorfo al grupo multiplicativo de elementos distintos de cero del campo.

Matriz simétrica o sesgada

Una matriz cuadrada A que es igual a su transpuesta, es decir, A = A T , es una matriz simétrica . Si, en cambio, A es igual al negativo de su transpuesta, es decir, A = − A T , entonces A es una matriz asimétrica . En matrices complejas, la simetría suele ser reemplazada por el concepto de matrices hermitianas , que satisfacen A = A , donde la estrella o asterisco denota la transpuesta conjugada de la matriz, es decir , la transpuesta del conjugado complejo de A.

Según el teorema espectral , las matrices simétricas reales y las matrices hermitianas complejas tienen una base propia ; es decir, todo vector se puede expresar como una combinación lineal de vectores propios. En ambos casos, todos los valores propios son reales. [27] Este teorema se puede generalizar a situaciones de dimensión infinita relacionadas con matrices con infinitas filas y columnas, ver más abajo.

Matriz reversible y su inversa.

Una matriz cuadrada A se llama invertible o no singular si existe una matriz B tal que

AB = BA = En , [28] [ 29]

donde I n es la matriz identidad n × n con 1 en la diagonal principal y 0 en el resto. Si B existe, es única y se llama matriz inversa de A , denotada como A −1 .

matriz definida

Una matriz real simétrica A se llama definida positiva si la forma cuadrática asociada

f ( x ) = x TA x 

tiene un valor positivo para cada vector x distinto de cero en R n . Si f ( x ) solo produce valores negativos, entonces A es definida negativa ; si f produce valores tanto negativos como positivos, entonces A es indefinido . [30] Si la forma cuadrática f produce sólo valores no negativos (positivos o cero), la matriz simétrica se llama semidefinida positiva (o si sólo valores no positivos, entonces semidefinida negativa); por tanto, la matriz es indefinida precisamente cuando no es ni semidefinida positiva ni semidefinida negativa.

Una matriz simétrica es positiva-definida si y sólo si todos sus valores propios son positivos, es decir, la matriz es positiva-semidefinida y es invertible. [31] La tabla de la derecha muestra dos posibilidades para matrices de 2 por 2.

Al permitir como entrada dos vectores diferentes se obtiene la forma bilineal asociada a A : [32]

B A ( x , y ) = x T Ay .

En el caso de matrices complejas, se aplica la misma terminología y resultado, con matriz simétrica , forma cuadrática , forma bilineal y transpuesta x T reemplazadas respectivamente por matriz hermitiana , forma hermitiana , forma sesquilineal y transpuesta conjugada x H.

matriz ortogonal

Una matriz ortogonal es una matriz cuadrada con entradas reales cuyas columnas y filas son vectores unitarios ortogonales (es decir, vectores ortonormales ). De manera equivalente, una matriz A es ortogonal si su transpuesta es igual a su inversa :

lo que implica

donde In es la matriz identidad de tamaño n .

Una matriz ortogonal A es necesariamente invertible (con inversa A −1 = A T ), unitaria ( A −1 = A * ) y normal ( A * A = AA * ). El determinante de cualquier matriz ortogonal es +1 o −1 . Una matriz ortogonal especial es una matriz ortogonal con determinante +1. Como transformación lineal , toda matriz ortogonal con determinante +1 es una rotación pura sin reflexión, es decir, la transformación preserva la orientación de la estructura transformada, mientras que toda matriz ortogonal con determinante -1 invierte la orientación, es decir, es una composición de una reflexión pura y una rotación (posiblemente nula). Las matrices identidad tienen determinante 1 y son rotaciones puras de ángulo cero.

El análogo complejo de una matriz ortogonal es una matriz unitaria .

Operaciones principales

Rastro

La traza , tr( A ) de una matriz cuadrada A es la suma de sus entradas diagonales. Si bien la multiplicación de matrices no es conmutativa como se mencionó anteriormente, la traza del producto de dos matrices es independiente del orden de los factores:

.

Esto es inmediato de la definición de multiplicación de matrices:

De ello se deduce que la traza del producto de más de dos matrices es independiente de las permutaciones cíclicas de las matrices; sin embargo, esto en general no se aplica a permutaciones arbitrarias (por ejemplo, tr( ABC ) ≠ tr( BAC ), en general). Además, la traza de una matriz es igual a la de su transpuesta, es decir,

tr( A ) = tr( A T ) .

Determinante

Una transformación lineal en R 2 dada por la matriz indicada. El determinante de esta matriz es −1, ya que el área del paralelogramo verde de la derecha es 1, pero el mapa invierte la orientación , ya que convierte la orientación de los vectores en sentido antihorario en sentido horario.

El determinante de una matriz cuadrada A (denotado det( A ) o | A |) es un número que codifica ciertas propiedades de la matriz. Una matriz es invertible si y sólo si su determinante es distinto de cero. Su valor absoluto es igual al área (en R 2 ) o volumen (en R 3 ) de la imagen del cuadrado unitario (o cubo), mientras que su signo corresponde a la orientación del mapa lineal correspondiente: el determinante es positivo si y sólo si se conserva la orientación.

El determinante de las matrices de 2 por 2 viene dado por

[33]

El determinante de las matrices de 3 por 3 implica 6 términos ( regla de Sarrus ). La fórmula más extensa de Leibniz generaliza estas dos fórmulas a todas las dimensiones. [34]

El determinante de un producto de matrices cuadradas es igual al producto de sus determinantes:

det( AB ) = det( A ) · det( B ), o usando notación alternativa:
| AB | = | Un | · | B |. [35]

Sumar un múltiplo de cualquier fila a otra fila, o un múltiplo de cualquier columna a otra columna, no cambia el determinante. Intercambiar dos filas o dos columnas afecta el determinante multiplicándolo por −1. [36] Usando estas operaciones, cualquier matriz se puede transformar en una matriz triangular inferior (o superior), y para tales matrices, el determinante es igual al producto de las entradas en la diagonal principal; esto proporciona un método para calcular el determinante de cualquier matriz. Finalmente, la expansión de Laplace expresa el determinante en términos de menores , es decir, determinantes de matrices más pequeñas. [37] Esta expansión se puede utilizar para una definición recursiva de determinantes (tomando como caso inicial el determinante de una matriz de 1 por 1, que es su entrada única, o incluso el determinante de una matriz de 0 por 0, que es 1), que puede considerarse equivalente a la fórmula de Leibniz. Los determinantes se pueden utilizar para resolver sistemas lineales utilizando la regla de Cramer , donde la división de los determinantes de dos matrices cuadradas relacionadas equivale al valor de cada una de las variables del sistema. [38]

Valores propios y vectores propios

Un número y un vector v distinto de cero que satisfacen

se denominan valor propio y vector propio de A , respectivamente. [39] [40] El número λ es un valor propio de una matriz A n × n si y sólo si A −λ I n no es invertible, lo que equivale a

[41]

El polinomio p A en un X indeterminado dado por la evaluación del determinante det ( X I nA ) se llama polinomio característico de A. Es un polinomio mónico de grado n . Por tanto la ecuación polinómica p A (λ) = 0 tiene como máximo n soluciones diferentes, es decir, valores propios de la matriz. [42] Pueden ser complejos incluso si las entradas de A son reales. Según el teorema de Cayley-Hamilton , p A ( A ) = 0 , es decir, el resultado de sustituir la propia matriz en su propio polinomio característico da como resultado la matriz cero .   

Aspectos computacionales

Los cálculos matriciales a menudo se pueden realizar con diferentes técnicas. Muchos problemas pueden resolverse mediante algoritmos directos o enfoques iterativos. Por ejemplo, los vectores propios de una matriz cuadrada se pueden obtener encontrando una secuencia de vectores x n que convergen en un vector propio cuando n tiende a infinito . [43]

Para elegir el algoritmo más apropiado para cada problema específico, es importante determinar tanto la efectividad como la precisión de todos los algoritmos disponibles. El dominio que estudia estas materias se llama álgebra lineal numérica . [44] Al igual que con otras situaciones numéricas, dos aspectos principales son la complejidad de los algoritmos y su estabilidad numérica .

Determinar la complejidad de un algoritmo significa encontrar límites superiores o estimaciones de cuántas operaciones elementales, como sumas y multiplicaciones de escalares, son necesarias para realizar algún algoritmo, por ejemplo, la multiplicación de matrices . Calcular el producto matricial de dos matrices n por n usando la definición dada anteriormente necesita n 3 multiplicaciones, ya que para cualquiera de las n 2 entradas del producto, son necesarias n multiplicaciones. El algoritmo de Strassen supera a este algoritmo "ingenuo"; sólo necesita n 2,807 multiplicaciones. [45] Un enfoque refinado también incorpora características específicas de los dispositivos informáticos.

En muchas situaciones prácticas se conoce información adicional sobre las matrices involucradas. Un caso importante son las matrices dispersas , es decir, matrices cuyas entradas en su mayoría son cero. Existen algoritmos específicamente adaptados para, por ejemplo, resolver sistemas lineales Ax = b para matrices dispersas A , como el método del gradiente conjugado . [46]

Un algoritmo es, en términos generales, numéricamente estable si pequeñas desviaciones en los valores de entrada no conducen a grandes desviaciones en el resultado. Por ejemplo, calcular la inversa de una matriz mediante la expansión de Laplace (adj( A ) denota la matriz adjunta de A )

A −1 = adj( A ) / det( A )

puede dar lugar a errores de redondeo importantes si el determinante de la matriz es muy pequeño. La norma de una matriz se puede utilizar para capturar el condicionamiento de problemas algebraicos lineales, como calcular la inversa de una matriz. [47]

La mayoría de los lenguajes de programación de computadoras admiten matrices, pero no están diseñados con comandos integrados para matrices. En cambio, las bibliotecas externas disponibles proporcionan operaciones matriciales en matrices, en casi todos los lenguajes de programación utilizados actualmente. La manipulación de matrices fue una de las primeras aplicaciones numéricas de las computadoras. [48] ​​El Dartmouth BASIC original tenía comandos integrados para aritmética matricial en matrices desde su implementación de la segunda edición en 1964. Ya en la década de 1970, algunas computadoras de escritorio de ingeniería, como la HP 9830, tenían cartuchos ROM para agregar comandos BASIC para matrices . Algunos lenguajes informáticos, como APL , se diseñaron para manipular matrices y se pueden utilizar varios programas matemáticos para ayudar en la computación con matrices. [49] A partir de 2023, la mayoría de las computadoras tienen algún tipo de operaciones matriciales incorporadas en un nivel bajo que implementa la especificación BLAS estándar , en la que se basan la mayoría de las bibliotecas de álgebra lineal y matricial de nivel superior (por ejemplo, EISPACK , LINPACK , LAPACK ). . Si bien la mayoría de estas bibliotecas requieren un nivel profesional de codificación, se puede acceder a LAPACK mediante enlaces de nivel superior (y fáciles de usar) como NumPy / SciPy , R , GNU Octave , MATLAB .

Descomposición

Existen varios métodos para representar matrices en una forma más accesible. Generalmente se les conoce como técnicas de descomposición matricial o factorización matricial . El interés de todas estas técnicas es que conserven determinadas propiedades de las matrices en cuestión, como determinante, rango o inversa, de modo que dichas cantidades puedan calcularse tras aplicar la transformación, o que determinadas operaciones matriciales sean algorítmicamente más fáciles de realizar. para algunos tipos de matrices.

La descomposición LU factoriza las matrices como producto de las matrices triangulares inferior ( L ) y superior ( U ). [50] Una vez que se calcula esta descomposición, los sistemas lineales se pueden resolver de manera más eficiente, mediante una técnica simple llamada sustitución hacia adelante y hacia atrás . Asimismo, las inversas de las matrices triangulares son algorítmicamente más fáciles de calcular. La eliminación gaussiana es un algoritmo similar; transforma cualquier matriz a forma escalonada por filas . [51] Ambos métodos proceden multiplicando la matriz por matrices elementales adecuadas , que corresponden a permutar filas o columnas y sumar múltiplos de una fila a otra fila. La descomposición en valores singulares expresa cualquier matriz A como un producto UDV , donde U y V son matrices unitarias y D es una matriz diagonal.

Un ejemplo de matriz en forma normal de Jordan. Los bloques grises se llaman bloques Jordan.

La descomposición propia o diagonalización expresa A como un producto VDV −1 , donde D es una matriz diagonal y V es una matriz invertible adecuada. [52] Si A se puede escribir de esta forma, se llama diagonalizable . De manera más general, y aplicable a todas las matrices, la descomposición de Jordan transforma una matriz en la forma normal de Jordan , es decir, matrices cuyas únicas entradas distintas de cero son los valores propios λ 1 a λ n de A , colocados en la diagonal principal y posiblemente entradas iguales a uno directamente encima de la diagonal principal, como se muestra a la derecha. [53] Dada la descomposición propia, la enésima potencia de A (es decir, multiplicación de matrices iterada n veces) se puede calcular mediante

Un norte = ( VDV −1 ) n = VDV −1 VDV −1 ... VDV −1 = VD n V −1

y la potencia de una matriz diagonal se puede calcular tomando las potencias correspondientes de las entradas diagonales, lo cual es mucho más fácil que hacer la exponenciación para A. Esto se puede utilizar para calcular la matriz exponencial e A , una necesidad que surge con frecuencia al resolver ecuaciones diferenciales lineales , logaritmos matriciales y raíces cuadradas de matrices . [54] Para evitar situaciones numéricamente mal condicionadas , se pueden emplear algoritmos adicionales como la descomposición de Schur . [55]

Aspectos algebraicos abstractos y generalizaciones.

Las matrices se pueden generalizar de diferentes maneras. El álgebra abstracta utiliza matrices con entradas en campos más generales o incluso anillos , mientras que el álgebra lineal codifica las propiedades de las matrices en la noción de aplicaciones lineales. Es posible considerar matrices con infinitas columnas y filas. Otra extensión son los tensores , que pueden verse como conjuntos de números de dimensiones superiores, a diferencia de los vectores, que a menudo pueden realizarse como secuencias de números, mientras que las matrices son conjuntos de números rectangulares o bidimensionales. [56] Las matrices, sujetas a ciertos requisitos, tienden a formar grupos conocidos como grupos de matrices. De manera similar, bajo ciertas condiciones, las matrices forman anillos conocidos como anillos de matriz . Aunque el producto de matrices no es en general conmutativo, ciertas matrices forman campos conocidos como campos matriciales .

Matrices con entradas más generales

Este artículo se centra en matrices cuyas entradas son números reales o complejos. Sin embargo, las matrices se pueden considerar con tipos de entradas mucho más generales que los números reales o complejos. Como primer paso de generalización, se puede utilizar cualquier campo , es decir, un conjunto donde las operaciones de suma , resta , multiplicación y división estén definidas y se comporten bien, en lugar de R o C , por ejemplo números racionales o campos finitos . Por ejemplo, la teoría de la codificación utiliza matrices sobre campos finitos. Siempre que se consideren valores propios , como son raíces de un polinomio, pueden existir sólo en un campo más grande que el de las entradas de la matriz; por ejemplo, pueden ser complejos en el caso de una matriz con entradas reales. La posibilidad de reinterpretar las entradas de una matriz como elementos de un campo más grande (por ejemplo, ver una matriz real como una matriz compleja cuyas entradas resultan ser todas reales) permite considerar que cada matriz cuadrada posee un conjunto completo de valores propios. Alternativamente , desde el principio se pueden considerar sólo matrices con entradas en un campo algebraicamente cerrado , como C.

De manera más general, las matrices con entradas en un anillo R se utilizan ampliamente en matemáticas. [57] Los anillos son una noción más general que los campos en el sentido de que no es necesario que exista una operación de división. Las mismas operaciones de suma y multiplicación de matrices también se extienden a este entorno. El conjunto M( n , R ) (también denominado M n (R) [7] ) de todas las matrices cuadradas n por n sobre R es un anillo llamado anillo matricial , isomorfo al anillo de endomorfismo del módulo R izquierdo R n . [ 58] Si el anillo R es conmutativo , es decir, su multiplicación es conmutativa, entonces el anillo M( n , R ) también es un álgebra asociativa sobre R. El determinante de matrices cuadradas sobre un anillo conmutativo R todavía se puede definir utilizando la fórmula de Leibniz ; dicha matriz es invertible si y sólo si su determinante es invertible en R , generalizando la situación sobre un campo F , donde todo elemento distinto de cero es invertible. [59] Las matrices sobre superanillos se denominan supermatrices . [60]

Las matrices no siempre tienen todas sus entradas en el mismo anillo  , ni siquiera en ningún anillo. Un caso especial pero común son las matrices de bloques , que pueden considerarse matrices cuyas entradas son matrices en sí mismas. No es necesario que las entradas sean matrices cuadradas y, por tanto, no es necesario que sean miembros de ningún anillo ; pero sus tamaños deben cumplir ciertas condiciones de compatibilidad.

Relación con mapas lineales

Los mapas lineales R nR m son equivalentes a m -por- n matrices, como se describió anteriormente. De manera más general, cualquier aplicación lineal f : VW entre espacios vectoriales de dimensión finita puede describirse mediante una matriz A = ( a ij ), después de elegir las bases v 1 , ..., v n de V y w 1 , . .., w m de W (entonces n es la dimensión de V y m es la dimensión de W ), que es tal que

En otras palabras, la columna j de A expresa la imagen de v j en términos de los vectores base w i de W ; por tanto , esta relación determina de forma única las entradas de la matriz A. La matriz depende de la elección de las bases: diferentes elecciones de bases dan lugar a matrices diferentes, pero equivalentes . [61] Muchas de las nociones concretas anteriores pueden reinterpretarse desde esta perspectiva, por ejemplo, la matriz transpuesta AT describe la transpuesta del mapa lineal dado por A , con respecto a las bases duales . [62]

Estas propiedades se pueden reformular de forma más natural: la categoría de todas las matrices con entradas en un campo con multiplicación como composición es equivalente a la categoría de espacios vectoriales de dimensión finita y aplicaciones lineales sobre este campo.

De manera más general, el conjunto de matrices m × n se puede utilizar para representar los R -maps lineales entre los módulos libres R m y R n para un anillo arbitrario R con unidad. Cuando n  = m , la composición de estos mapas es posible, y esto da lugar al anillo matricial de n × n matrices que representan el anillo de endomorfismo de R n . 

Grupos de matrices

Un grupo es una estructura matemática que consta de un conjunto de objetos junto con una operación binaria , es decir, una operación que combina dos objetos cualesquiera con un tercero, sujeto a ciertos requisitos. [63] Un grupo en el que los objetos son matrices y la operación del grupo es la multiplicación de matrices se llama grupo de matrices . [64] [65] Dado que en un grupo cada elemento debe ser invertible, los grupos de matrices más generales son los grupos de todas las matrices invertibles de un tamaño determinado, llamados grupos lineales generales .

Cualquier propiedad de las matrices que se conserve en productos matriciales e inversas se puede utilizar para definir más grupos de matrices. Por ejemplo, las matrices con un tamaño determinado y con un determinante de 1 forman un subgrupo de (es decir, un grupo más pequeño contenido en) su grupo lineal general, llamado grupo lineal especial . [66] Matrices ortogonales , determinadas por la condición

MTMM = Yo , _ _

forman el grupo ortogonal . [67] Cada matriz ortogonal tiene determinante 1 o −1. Las matrices ortogonales con determinante 1 forman un subgrupo llamado grupo ortogonal especial .

Todo grupo finito es isomorfo a un grupo matricial, como se puede ver al considerar la representación regular del grupo simétrico . [68] Los grupos generales se pueden estudiar utilizando grupos matriciales, que se entienden comparativamente bien, mediante la teoría de la representación . [69]

matrices infinitas

También es posible considerar matrices con infinitas filas y/o columnas [70] aunque, al ser objetos infinitos, no se pueden escribir dichas matrices explícitamente. Lo único que importa es que para cada elemento de las filas de indexación del conjunto y para cada elemento de las columnas de indexación del conjunto, haya una entrada bien definida (estos conjuntos de índices ni siquiera necesitan ser subconjuntos de los números naturales). Las operaciones básicas de suma, resta, multiplicación escalar y transposición aún se pueden definir sin problema; sin embargo, la multiplicación de matrices puede implicar sumas infinitas para definir las entradas resultantes, y éstas no están definidas en general.

Si R es cualquier anillo con unidad, entonces el anillo de endomorfismos de un módulo R derecho es isomorfo al anillo de matrices finitas de columnas cuyas entradas están indexadas por y cuyas columnas contienen cada una sólo un número finito de entradas distintas de cero. Los endomorfismos de M considerados como un módulo R izquierdo dan como resultado un objeto análogo, las matrices finitas de filas cuyas filas solo tienen un número finito de entradas distintas de cero.

Si se usan matrices infinitas para describir mapas lineales, entonces solo se pueden usar aquellas matrices cuyas columnas tengan un número finito de entradas distintas de cero, por la siguiente razón. Para que una matriz A describa un mapa lineal f : VW , se deben haber elegido las bases para ambos espacios; Recuerde que, por definición, esto significa que cada vector en el espacio se puede escribir de forma única como una combinación lineal (finita) de vectores base, de modo que escrito como un vector (de columna) v de coeficientes , sólo un número finito de entradas vi son distintas de cero. Ahora las columnas de A describen las imágenes por f de vectores de base individuales de V en la base de W , lo cual sólo tiene sentido si estas columnas tienen sólo un número finito de entradas distintas de cero. Sin embargo , no hay restricción en las filas de A : en el producto A · v sólo hay un número finito de coeficientes de v distintos de cero involucrados, por lo que cada una de sus entradas, incluso si se da como una suma infinita de productos, involucra solo un número finito de muchos términos distintos de cero y, por lo tanto, está bien definido. Además, esto equivale a formar una combinación lineal de las columnas de A que efectivamente involucra solo un número finito de ellas, de donde el resultado tiene solo un número finito de entradas distintas de cero porque cada una de esas columnas las tiene. Los productos de dos matrices del tipo dado están bien definidos (siempre que los conjuntos de índice de columna y de índice de fila coincidan), son del mismo tipo y corresponden a la composición de aplicaciones lineales. 

Si R es un anillo normado , entonces se puede relajar la condición de finitud de fila o columna. Con la norma vigente, se pueden utilizar series absolutamente convergentes en lugar de sumas finitas. Por ejemplo, las matrices cuyas sumas de columnas son secuencias absolutamente convergentes forman un anillo. De manera análoga, las matrices cuyas sumas de filas son series absolutamente convergentes también forman un anillo.

Las matrices infinitas también se pueden utilizar para describir operadores en espacios de Hilbert , donde surgen cuestiones de convergencia y continuidad , lo que nuevamente resulta en ciertas restricciones que deben imponerse. Sin embargo, el punto de vista explícito de las matrices tiende a ofuscar el asunto, [71] y en su lugar se pueden utilizar las herramientas abstractas y más poderosas del análisis funcional .

matriz vacía

Una matriz vacía es una matriz en la que el número de filas o columnas (o ambas) es cero. [72] [73] Las matrices vacías ayudan a tratar con mapas que involucran el espacio vectorial cero . Por ejemplo, si A es una matriz de 3 por 0 y B es una matriz de 0 por 3, entonces AB es la matriz cero de 3 por 3 correspondiente al mapa nulo de un espacio tridimensional V hacia sí mismo, mientras que BA es una matriz de 0 por 0. No existe una notación común para las matrices vacías, pero la mayoría de los sistemas de álgebra informática permiten crearlas y calcular con ellas. El determinante de la matriz 0 por 0 es 1 como sigue con respecto al producto vacío que aparece en la fórmula de Leibniz para el determinante como 1. Este valor también es consistente con el hecho de que el mapa de identidad de cualquier espacio de dimensión finita hacia sí mismo tiene determinante  1, un hecho que a menudo se utiliza como parte de la caracterización de los determinantes.

Aplicaciones

Existen numerosas aplicaciones de las matrices, tanto en matemáticas como en otras ciencias. Algunos de ellos simplemente aprovechan la representación compacta de un conjunto de números en una matriz. Por ejemplo, en teoría de juegos y economía , la matriz de pagos codifica el pago para dos jugadores, dependiendo de cuál de un conjunto dado (finito) de estrategias elijan los jugadores. [74] La minería de textos y la compilación automatizada de tesauros utilizan matrices de términos de documentos como tf-idf para rastrear las frecuencias de ciertas palabras en varios documentos. [75]

Los números complejos se pueden representar mediante matrices reales particulares de 2 por 2 mediante

bajo el cual la suma y multiplicación de números complejos y matrices se corresponden entre sí. Por ejemplo, las matrices de rotación de 2 por 2 representan la multiplicación con algún número complejo de valor absoluto 1, como se muestra arriba. Es posible una interpretación similar para los cuaterniones [76] y las álgebras de Clifford en general.

Las primeras técnicas de cifrado , como el cifrado Hill, también utilizaban matrices. Sin embargo, debido a la naturaleza lineal de las matrices, estos códigos son comparativamente fáciles de descifrar. [77] Los gráficos por computadora utilizan matrices para representar objetos; calcular transformaciones de objetos utilizando matrices de rotación afines para realizar tareas tales como proyectar un objeto tridimensional en una pantalla bidimensional, correspondiente a una observación teórica con cámara; y para aplicar convoluciones de imágenes como nitidez, desenfoque, detección de bordes y más. [78] Las matrices sobre un anillo polinómico son importantes en el estudio de la teoría del control .

La química hace uso de matrices de diversas maneras, particularmente desde el uso de la teoría cuántica para discutir los enlaces moleculares y la espectroscopia . Algunos ejemplos son la matriz de superposición y la matriz de Fock utilizadas para resolver las ecuaciones de Roothaan para obtener los orbitales moleculares del método Hartree-Fock .

Teoría de grafos

Un gráfico no dirigido con matriz de adyacencia:

La matriz de adyacencia de un grafo finito es una noción básica de la teoría de grafos . [79] Registra qué vértices del gráfico están conectados por un borde. Las matrices que contienen sólo dos valores diferentes (1 y 0 significan, por ejemplo, "sí" y "no", respectivamente) se denominan matrices lógicas . La matriz de distancia (o costo) contiene información sobre las distancias de los bordes. [80] Estos conceptos se pueden aplicar a sitios web conectados por hipervínculos o ciudades conectadas por carreteras, etc., en cuyo caso (a menos que la red de conexión sea extremadamente densa) las matrices tienden a ser dispersas , es decir, a contener pocas entradas distintas de cero. Por lo tanto, en la teoría de redes se pueden utilizar algoritmos matriciales específicamente diseñados .

Análisis y geometría.

La matriz de Hesse de una función diferenciable ƒ : R nR consta de las segundas derivadas de ƒ con respecto a las varias direcciones de coordenadas, es decir, [81]

En el punto de silla ( x  =  0, y  =  0) (rojo) de la función f ( x , − y ) = x 2y 2 , la matriz de Hesse es indefinida .   

Codifica información sobre el comportamiento de crecimiento local de la función: dado un punto crítico x  =  ( x 1 ,  ..., x n ), es decir, un punto donde las primeras derivadas parciales de ƒ desaparecen, la función tiene un mínimo local si la matriz de Hesse es definida positiva . La programación cuadrática se puede utilizar para encontrar mínimos o máximos globales de funciones cuadráticas estrechamente relacionadas con las adjuntas a matrices (ver arriba). [82] 

Otra matriz utilizada frecuentemente en situaciones geométricas es la matriz de Jacobi de un mapa diferenciable f : R nR m . Si f 1 , ..., f m denotan los componentes de f , entonces la matriz de Jacobi se define como [83]

Si n > m , y si el rango de la matriz de Jacobi alcanza su valor máximo m , f es localmente invertible en ese punto, según el teorema de la función implícita . [84]

Las ecuaciones diferenciales parciales se pueden clasificar considerando la matriz de coeficientes de los operadores diferenciales de orden superior de la ecuación. Para ecuaciones diferenciales parciales elípticas esta matriz es definida positiva, lo que influye decisivamente en el conjunto de posibles soluciones de la ecuación en cuestión. [85]

El método de los elementos finitos es un método numérico importante para resolver ecuaciones diferenciales parciales, ampliamente aplicado en la simulación de sistemas físicos complejos. Intenta aproximar la solución a alguna ecuación mediante funciones lineales por partes, donde las piezas se eligen en torno a una cuadrícula suficientemente fina, que a su vez puede reformularse como una ecuación matricial. [86]

Teoría de probabilidad y estadística.

Dos cadenas de Markov diferentes. El gráfico muestra el número de partículas (de un total de 1000) en el estado "2". Ambos valores límite pueden determinarse a partir de las matrices de transición, que vienen dadas por (rojo) y (negro).

Las matrices estocásticas son matrices cuadradas cuyas filas son vectores de probabilidad , es decir, cuyas entradas no son negativas y suman uno. Las matrices estocásticas se utilizan para definir cadenas de Markov con un número finito de estados. [87] Una fila de la matriz estocástica proporciona la distribución de probabilidad para la siguiente posición de alguna partícula actualmente en el estado que corresponde a la fila. Las propiedades de los estados absorbentes en forma de cadena de Markov , es decir, estados que eventualmente alcanza cualquier partícula, se pueden leer en los vectores propios de las matrices de transición. [88]

La estadística también utiliza matrices en muchas formas diferentes. [89] La estadística descriptiva se ocupa de describir conjuntos de datos, que a menudo pueden representarse como matrices de datos , que luego pueden someterse a técnicas de reducción de dimensionalidad . La matriz de covarianza codifica la varianza mutua de varias variables aleatorias . [90] Otra técnica que utiliza matrices son los mínimos cuadrados lineales , un método que aproxima un conjunto finito de pares ( x 1 , y 1 ), ( x 2 , y 2 ), ..., ( x N , y N ), mediante una función lineal

y yoeje yo + b , yo = 1, ..., norte

que puede formularse en términos de matrices, relacionado con la descomposición en valores singulares de matrices. [91]

Las matrices aleatorias son matrices cuyas entradas son números aleatorios, sujetas a distribuciones de probabilidad adecuadas , como la distribución normal de matrices . Más allá de la teoría de la probabilidad, se aplican en ámbitos que van desde la teoría de números hasta la física . [92] [93]

Simetrías y transformaciones en física.

Las transformaciones lineales y las simetrías asociadas desempeñan un papel clave en la física moderna. Por ejemplo, las partículas elementales en la teoría cuántica de campos se clasifican como representaciones del grupo de Lorentz de la relatividad especial y, más concretamente, por su comportamiento bajo el grupo de espín . Las representaciones concretas que involucran las matrices de Pauli y las matrices gamma más generales son una parte integral de la descripción física de los fermiones , que se comportan como espinores . [94] Para los tres quarks más ligeros , existe una representación teórica de grupo que involucra al grupo unitario especial SU(3); Para sus cálculos, los físicos utilizan una representación matricial conveniente conocida como matrices de Gell-Mann , que también se utilizan para el grupo de calibre SU(3) que forma la base de la descripción moderna de las interacciones nucleares fuertes, la cromodinámica cuántica . La matriz Cabibbo-Kobayashi-Maskawa , a su vez, expresa el hecho de que los estados básicos de los quarks que son importantes para las interacciones débiles no son los mismos, sino que están linealmente relacionados con los estados básicos de los quarks que definen partículas con masas específicas y distintas . [95]

Combinaciones lineales de estados cuánticos.

El primer modelo de mecánica cuántica ( Heisenberg , 1925) representaba a los operadores de la teoría mediante matrices de dimensiones infinitas que actuaban sobre estados cuánticos. [96] Esto también se conoce como mecánica matricial . Un ejemplo particular es la matriz de densidad que caracteriza el estado "mixto" de un sistema cuántico como una combinación lineal de estados propios elementales "puros" . [97]

Otra matriz sirve como herramienta clave para describir los experimentos de dispersión que forman la piedra angular de la física experimental de partículas: reacciones de colisión como las que ocurren en los aceleradores de partículas , donde las partículas que no interactúan se dirigen entre sí y chocan en una pequeña zona de interacción, con una nueva El conjunto de partículas que no interactúan como resultado puede describirse como el producto escalar de los estados de partículas salientes y una combinación lineal de los estados de partículas entrantes. La combinación lineal viene dada por una matriz conocida como matriz S , que codifica toda la información sobre las posibles interacciones entre partículas. [98]

Modos normales

Una aplicación general de las matrices en física es la descripción de sistemas armónicos linealmente acoplados. Las ecuaciones de movimiento de tales sistemas se pueden describir en forma matricial, con una matriz de masa multiplicando una velocidad generalizada para dar el término cinético, y una matriz de fuerza multiplicando un vector de desplazamiento para caracterizar las interacciones. La mejor forma de obtener soluciones es determinar los vectores propios del sistema , sus modos normales , diagonalizando la ecuación matricial. Técnicas como esta son cruciales cuando se trata de la dinámica interna de las moléculas : las vibraciones internas de sistemas que consisten en átomos componentes unidos entre sí. [99] También son necesarios para describir vibraciones mecánicas y oscilaciones en circuitos eléctricos. [100]

Óptica geométrica

La óptica geométrica ofrece otras aplicaciones matriciales. En esta teoría aproximada, se ignora la naturaleza ondulatoria de la luz. El resultado es un modelo en el que los rayos de luz son en realidad rayos geométricos . Si la deflexión de los rayos de luz por los elementos ópticos es pequeña, la acción de una lente o elemento reflectante sobre un rayo de luz dado se puede expresar como la multiplicación de un vector de dos componentes por una matriz de dos por dos llamada análisis de matriz de transferencia de rayos : las componentes del vector son la pendiente del rayo de luz y su distancia al eje óptico, mientras que la matriz codifica las propiedades del elemento óptico. En realidad, existen dos tipos de matrices, a saber. una matriz de refracción que describe la refracción en la superficie de una lente, y una matriz de traslación , que describe la traslación del plano de referencia a la siguiente superficie refractante, donde se aplica otra matriz de refracción. El sistema óptico, formado por una combinación de lentes y/o elementos reflectantes, se describe simplemente mediante la matriz resultante del producto de las matrices de los componentes. [101]

Electrónica

El análisis de malla tradicional y el análisis nodal en electrónica conducen a un sistema de ecuaciones lineales que se pueden describir con una matriz.

El comportamiento de muchos componentes electrónicos se puede describir mediante matrices. Sea A un vector bidimensional con el voltaje de entrada del componente v 1 y la corriente de entrada i 1 como sus elementos, y sea B un vector bidimensional con el voltaje de salida del componente v 2 y la corriente de salida i 2 como sus elementos. Entonces, el comportamiento del componente electrónico se puede describir mediante B = H · A , donde H es una matriz de 2 x 2 que contiene un elemento de impedancia ( h 12 ), un elemento de admitancia ( h 21 ) y dos elementos adimensionales ( h 11 y h22 ) . Calcular un circuito ahora se reduce a multiplicar matrices.

Historia

Las matrices tienen una larga historia de aplicación en la resolución de ecuaciones lineales , pero se las conocía como matrices hasta el siglo XIX. El texto chino Los nueve capítulos sobre el arte matemático escrito entre los siglos X y II a. C. es el primer ejemplo del uso de métodos de matriz para resolver ecuaciones simultáneas , [102] incluido el concepto de determinantes . En 1545, el matemático italiano Gerolamo Cardano introdujo el método en Europa cuando publicó Ars Magna . [103] El matemático japonés Seki utilizó los mismos métodos de matriz para resolver ecuaciones simultáneas en 1683. [104] El matemático holandés Jan de Witt representó transformaciones utilizando matrices en su libro de 1659 Elementos de curvas (1659). [105] Entre 1700 y 1710 Gottfried Wilhelm Leibniz publicó el uso de matrices para registrar información o soluciones y experimentó con más de 50 sistemas diferentes de matrices. [103] Cramer presentó su gobierno en 1750.

El término "matriz" (en latín significa "útero", "presa" (animal hembra no humana mantenida para reproducción), "fuente", "origen", "lista", "registro", derivado de mater —madre [106] ) fue acuñada por James Joseph Sylvester en 1850, [107] quien entendía una matriz como un objeto que daba lugar a varios determinantes hoy llamados menores , es decir, determinantes de matrices más pequeñas que se derivan de la original eliminando columnas y filas. En un artículo de 1851, Sylvester explica: [108]

En artículos anteriores he definido una "matriz" como un conjunto rectangular de términos, a partir de los cuales pueden engendrarse diferentes sistemas de determinantes como si surgieran del útero de un padre común.

Arthur Cayley publicó un tratado sobre transformaciones geométricas utilizando matrices que no eran versiones rotadas de los coeficientes investigados como se había hecho anteriormente. En cambio, definió operaciones como la suma, la resta, la multiplicación y la división como transformaciones de esas matrices y demostró que las propiedades asociativas y distributivas eran ciertas. Cayley investigó y demostró la propiedad no conmutativa de la multiplicación de matrices, así como la propiedad conmutativa de la suma de matrices. [103] Las primeras teorías matriciales habían limitado el uso de matrices casi exclusivamente a los determinantes y las operaciones matriciales abstractas de Arthur Cayley fueron revolucionarias. Jugó un papel decisivo al proponer un concepto de matriz independiente de los sistemas de ecuaciones. En 1858 Cayley publicó sus memorias sobre la teoría de matrices [109] [110] en las que propuso y demostró el teorema de Cayley-Hamilton . [103]

El matemático inglés Cuthbert Edmund Cullis fue el primero en utilizar la notación moderna entre corchetes para matrices en 1913 y simultáneamente demostró el primer uso significativo de la notación A = [ ai , j ] para representar una matriz donde a i , j se refiere a i . aésima fila y la j aésima columna. [103]

El estudio moderno de los determinantes surgió de varias fuentes. [111] Los problemas de teoría de números llevaron a Gauss a relacionar coeficientes de formas cuadráticas , es decir, expresiones como x 2 + xy − 2 y 2 , y aplicaciones lineales en tres dimensiones con matrices. Eisenstein desarrolló aún más estas nociones, incluida la observación de que, en el lenguaje moderno, los productos matriciales no son conmutativos . Cauchy fue el primero en demostrar enunciados generales sobre determinantes, utilizando como definición del determinante de una matriz A = [ a i , j ] lo siguiente: sustituir las potencias a j k por a jk en el polinomio

,

donde denota el producto de los términos indicados. También demostró, en 1829, que los valores propios de matrices simétricas son reales. [112] Jacobi estudió los "determinantes funcionales", más tarde llamados determinantes de Jacobi por Sylvester, que pueden usarse para describir transformaciones geométricas a un nivel local (o infinitesimal ), ver arriba. Vorlesungen über die Theorie der Determinanten de Kronecker [113] y Zur Determinantentheorie de Weierstrass , [114] ambos publicados en 1903, trataron por primera vez los determinantes axiomáticamente , a diferencia de enfoques anteriores más concretos como la fórmula mencionada de Cauchy. En ese momento, los determinantes estaban firmemente establecidos.

Muchos teoremas se establecieron por primera vez solo para matrices pequeñas; por ejemplo, Cayley demostró el teorema de Cayley-Hamilton para matrices de 2 × 2 en las memorias antes mencionadas, y Hamilton para matrices de 4 × 4. Frobenius , trabajando sobre formas bilineales , generalizó el teorema a todas las dimensiones (1898). También a finales del siglo XIX, Wilhelm Jordan estableció la eliminación de Gauss-Jordan (generalizando un caso especial ahora conocido como eliminación de Gauss ) . A principios del siglo XX, las matrices alcanzaron un papel central en el álgebra lineal, [115] en parte debido a su uso en la clasificación de los sistemas numéricos hipercomplejos del siglo anterior.

Los inicios de la mecánica matricial por parte de Heisenberg , Born y Jordan llevaron al estudio de matrices con infinitas filas y columnas. [116] Más tarde, von Neumann llevó a cabo la formulación matemática de la mecánica cuántica , desarrollando aún más nociones analíticas funcionales como los operadores lineales en los espacios de Hilbert , que, en términos muy generales, corresponden al espacio euclidiano , pero con una infinidad de direcciones independientes .

Otros usos históricos de la palabra "matriz" en matemáticas

La palabra ha sido utilizada de manera inusual por al menos dos autores de importancia histórica.

Bertrand Russell y Alfred North Whitehead en sus Principia Mathematica (1910-1913) utilizan la palabra "matriz" en el contexto de su axioma de reducibilidad . Propusieron este axioma como un medio para reducir cualquier función a una de tipo inferior, sucesivamente, de modo que en la "parte inferior" (orden 0) la función sea idéntica a su extensión : [117]

Démosle el nombre de matriz a cualquier función, por muchas variables que sean, que no involucre ninguna variable aparente . Entonces, cualquier función posible distinta de una matriz deriva de una matriz mediante generalización, es decir, considerando la proposición de que la función en cuestión es verdadera con todos los valores posibles o con algún valor de uno de los argumentos, el otro argumento o Los argumentos permanecen indeterminados.

Por ejemplo, una función Φ( x, y ) de dos variables x e y se puede reducir a una colección de funciones de una sola variable, por ejemplo, y , "considerando" la función para todos los valores posibles de "individuos" a Lo sustituí en lugar de la variable x . Y luego la colección resultante de funciones de la única variable y , es decir, a i : Φ( a i , y ) , se puede reducir a una "matriz" de valores "considerando" la función para todos los valores posibles de " individuos" b i sustituido en lugar de la variable y :

segundo ja yo : Φ( a yo , b j ).

Alfred Tarski en su Introducción a la lógica de 1946 utilizó la palabra "matriz" como sinónimo de la noción de tabla de verdad tal como se usa en lógica matemática. [118]

Ver también

Notas

  1. ^ Sin embargo, en el caso de matrices de adyacencia, la multiplicación de matrices o una variante de la misma permite el cálculo simultáneo del número de caminos entre dos vértices cualesquiera y de la longitud más corta de un camino entre dos vértices.
  2. ^ Lang 2002
  3. ^ Fraleigh (1976, pág.209)
  4. ^ Nering (1970, pág.37)
  5. ^ ab Weisstein, Eric W. "Matrix". mathworld.wolfram.com . Consultado el 19 de agosto de 2020 .
  6. ^ Oualline 2003, cap. 5
  7. ^ ab Pop; Furdui (2017). Matrices cuadradas de orden 2 . Publicaciones internacionales Springer. ISBN 978-3-319-54938-5.
  8. ^ Brown 1991, Definición I.2.1 (suma), Definición I.2.4 (multiplicación escalar) y Definición I.2.33 (transposición)
  9. ^ Brown 1991, Teorema I.2.6
  10. ^ ab "Cómo multiplicar matrices". www.mathsisfun.com . Consultado el 19 de agosto de 2020 .
  11. ^ Brown 1991, Definición I.2.20
  12. ^ Brown 1991, Teorema I.2.24
  13. ^ Horn y Johnson 1985, cap. 4 y 5
  14. ^ Bronson (1970, pág.16)
  15. ^ Kreyszig (1972, pág.220)
  16. ^ ab Protter y Morrey (1970, pág. 869)
  17. ^ Kreyszig (1972, págs.241, 244)
  18. ^ Schneider, Hans; Barker, George Phillip (2012), Matrices y álgebra lineal, Dover Books on Mathematics, Courier Dover Corporation, pág. 251, ISBN 978-0-486-13930-2.
  19. ^ Perlis, Sam (1991), Teoría de matrices, libros de Dover sobre matemáticas avanzadas, Courier Dover Corporation, p. 103, ISBN 978-0-486-66810-9.
  20. ^ Anton, Howard (2010), Álgebra lineal elemental (10.ª ed.), John Wiley & Sons, p. 414, ISBN 978-0-470-45821-1.
  21. ^ Cuerno, Roger A.; Johnson, Charles R. (2012), Matrix Analysis (2ª ed.), Cambridge University Press, pág. 17, ISBN 978-0-521-83940-2.
  22. ^ Marrón 1991, I.2.21 y 22
  23. ^ Greub 1975, sección III.2
  24. ^ Brown 1991, Definición II.3.3
  25. ^ Greub 1975, Sección III.1
  26. ^ Brown 1991, Teorema II.3.22
  27. ^ Horn & Johnson 1985, Teorema 2.5.6
  28. ^ Brown 1991, Definición I.2.28
  29. ^ Brown 1991, Definición I.5.13
  30. ^ Horn & Johnson 1985, Capítulo 7
  31. ^ Horn & Johnson 1985, Teorema 7.2.1
  32. ^ Horn & Johnson 1985, ejemplo 4.0.6, p. 169
  33. ^ "Matriz | matemáticas". Enciclopedia Británica . Consultado el 19 de agosto de 2020 .
  34. ^ Brown 1991, Definición III.2.1
  35. ^ Brown 1991, Teorema III.2.12
  36. ^ Brown 1991, Corolario III.2.16
  37. ^ Mirsky 1990, Teorema 1.4.1
  38. ^ Brown 1991, Teorema III.3.18
  39. ^ Eigen significa "propio" en alemán y holandés .
  40. ^ Brown 1991, Definición III.4.1
  41. ^ Brown 1991, Definición III.4.9
  42. ^ Brown 1991, Corolario III.4.10
  43. ^ Jefe de familia 1975, cap. 7
  44. ^ Bau III y Trefethen 1997
  45. ^ Golub & Van Loan 1996, Algoritmo 1.3.1
  46. ^ Golub & Van Loan 1996, capítulos 9 y 10, esp. sección 10.2
  47. ^ Golub & Van Loan 1996, Capítulo 2.3
  48. ^ Grcar, Joseph F. (1 de enero de 2011). "Análisis de la eliminación gaussiana de John von Neumann y los orígenes del análisis numérico moderno". Revisión SIAM . 53 (4): 607–682. doi : 10.1137/080734716. ISSN  0036-1445.
  49. ^ Por ejemplo, Mathematica , véase Wolfram 2003, cap. 3.7
  50. ^ Prensa, Flannery y Teukolsky et al. 1992
  51. ^ Stoer y Bulirsch 2002, sección 4.1
  52. ^ Horn & Johnson 1985, Teorema 2.5.4
  53. ^ Horn y Johnson 1985, cap. 3.1, 3.2
  54. ^ Arnold y Cooke 1992, secciones 14.5, 7, 8
  55. ^ Bronson 1989, cap. 15
  56. ^ Coburn 1955, cap. V
  57. ^ Lang 2002, Capítulo XIII
  58. ^ Lang 2002, XVII.1, pág. 643
  59. ^ Lang 2002, Proposición XIII.4.16
  60. ^ Reichl 2004, sección L.2
  61. ^ Greub 1975, sección III.3
  62. ^ Greub 1975, Sección III.3.13
  63. ^ Ver cualquier referencia estándar en un grupo.
  64. ^ Además, el grupo debe estar cerrado en el grupo lineal general.
  65. ^ Panadero 2003, Def. 1.30
  66. ^ Panadero 2003, Teorema 1.2
  67. ^ Artin 1991, Capítulo 4.5
  68. ^ Rowen 2008, Ejemplo 19.2, p. 198
  69. ^ Ver cualquier referencia en teoría de la representación o representación grupal .
  70. ^ Véase el artículo "Matrix" en Itõ, ed. 1987
  71. ^ "No gran parte de la teoría de matrices se traslada a espacios de dimensión infinita, y lo que lo hace no es tan útil, pero a veces ayuda". Halmos 1982, pág. 23, Capítulo 5
  72. ^ "Matriz vacía: una matriz está vacía si su dimensión de fila o columna es cero", Glosario Archivado el 29 de abril de 2009 en Wayback Machine , Guía del usuario de O-Matrix v6
  73. ^ "Una matriz que tiene al menos una dimensión igual a cero se llama matriz vacía", MATLAB Data Structures Archivado el 28 de diciembre de 2009 en Wayback Machine.
  74. ^ Fudenberg y Tirole 1983, sección 1.1.1
  75. ^ Manning 1999, sección 15.3.4
  76. ^ Ward 1997, cap. 2.8
  77. ^ Stinson 2005, cap. 1.1.5 y 1.2.4
  78. ^ Asociación de Maquinaria de Computación 1979, cap. 7
  79. ^ Godsil y Royle 2004, cap. 8.1
  80. ^ Punnen 2002
  81. ^ Lang 1987a, cap. XVI.6
  82. ^ Nocedal 2006, cap. dieciséis
  83. ^ Lang 1987a, cap. XVI.1
  84. ^ Lang 1987a, cap. XVI.5. Para una declaración más avanzada y más general, véase Lang 1969, cap. VI.2
  85. ^ Gilbarg y Trudinger 2001
  86. ^ Šolin 2005, cap. 2.5. Véase también método de rigidez .
  87. ^ Latouche y Ramaswami 1999
  88. ^ Mehata y Srinivasan 1978, cap. 2.8
  89. ^ Healy, Michael (1986), Matrices de estadística , Oxford University Press , ISBN 978-0-19-850702-4
  90. ^ Krzanowski 1988, cap. 2.2., pág. 60
  91. ^ Krzanowski 1988, cap. 4.1
  92. ^ Conrey  2007
  93. ^ Zabrodin, Brezin y Kazakov et al. 2006
  94. ^ Itzykson y Zuber 1980, cap. 2
  95. ^ ver Burgess & Moore 2007, sección 1.6.3. (SU(3)), sección 2.4.3.2. (Matriz Kobayashi-Maskawa)
  96. ^ Schiff 1968, cap. 6
  97. ^ Bohm 2001, secciones II.4 y II.8
  98. ^ Weinberg 1995, cap. 3
  99. ^ Wherrett 1987, parte II
  100. ^ Riley, Hobson y Bence 1997, 7.17
  101. ^ Guenther 1990, cap. 5
  102. ^ Shen, Crossley y Lun 1999 citado por Bretscher 2005, p. 1
  103. ^ abcde Matemáticas Discretas 4ª Ed. Dossey, Otto, Spense, Vanden Eynden, publicado por Addison Wesley, 10 de octubre de 2001 ISBN 978-0-321-07912-1 , p. 564-565 
  104. ^ Needham, José ; Wang Ling (1959). Ciencia y civilización en China. vol. III. Cambridge: Prensa de la Universidad de Cambridge. pag. 117.ISBN _ 978-0-521-05801-8.
  105. ^ Matemáticas Discretas 4ª Ed. Dossey, Otto, Spense, Vanden Eynden, publicado por Addison Wesley, 10 de octubre de 2001 ISBN 978-0-321-07912-1 , p. 564 
  106. ^ Diccionario Merriam-Webster, Merriam-Webster , consultado el 20 de abril de 2009
  107. Aunque muchas fuentes afirman que JJ Sylvester acuñó el término matemático "matriz" en 1848, Sylvester no publicó nada en 1848. (Para comprobar que Sylvester no publicó nada en 1848, consulte: JJ Sylvester con HF Baker, ed., The Collected Mathematical Papers of James Joseph Sylvester (Cambridge, Inglaterra: Cambridge University Press, 1904), vol. 1.) Su primer uso del término "matriz" ocurre en 1850 en JJ Sylvester (1850) "Adiciones a los artículos en el número de septiembre de esta revista". , "Sobre una nueva clase de teoremas" y sobre el teorema de Pascal, " The London, Edinburgh, and Dublin Philosophical Magazine and Journal of Science , 37 : 363-370. De la página 369: "Para este propósito, debemos comenzar, no con un cuadrado, sino con una disposición oblonga de términos que consta, supongamos, de m líneas y n columnas. Esto no representa en sí mismo un determinante, pero lo es, como eran, una Matriz a partir de la cual podemos formar varios sistemas de determinantes..."
  108. ^ Los artículos matemáticos recopilados de James Joseph Sylvester: 1837–1853, documento 37, p. 247
  109. ^ Phil.Trans. 1858, vol.148, págs.17-37 Matemáticas. Documentos II 475-496
  110. ^ Dieudonné, ed. 1978, vol. 1, cap. III, pág. 96
  111. ^ Knobloch 1994
  112. ^ Hawkins 1975
  113. ^ Kronecker 1897
  114. ^ Weierstrass 1915, págs. 271–286
  115. ^ Bocher 2004
  116. ^ Mehra y Rechenberg 1987
  117. ^ Whitehead, Alfred Norte; y Russell, Bertrand (1913) Principia Mathematica a *56 , Cambridge en University Press, Cambridge, Reino Unido (reeditado en 1962) cf. página 162 y siguientes.
  118. ^ Tarski, Alfred; (1946) Introducción a la lógica y la metodología de las ciencias deductivas , Dover Publications, Inc, Nueva York NY, ISBN 0-486-28462-X

Referencias

Referencias de física

Referencias históricas

Otras lecturas

enlaces externos