Por ejemplo, el álgebra lineal es fundamental en las presentaciones modernas de la geometría, incluso para definir objetos básicos como líneas, planos y rotaciones.
La historia del álgebra lineal moderna se remonta a 1843, cuando William Rowan Hamilton (de quien proviene el uso del término vector) creó los cuaterniones inspirado en los números complejos;[4] y a 1844, cuando Hermann Grassmann publicó su libro Die lineare Ausdehnungslehre (La teoría lineal de extensión).
De hecho, en esta nueva geometría, ahora llamada geometría cartesiana, las líneas y los planos están representados por ecuaciones lineales, y calcular sus intersecciones equivale a resolver sistemas de ecuaciones lineales.
En 1848, James Joseph Sylvester introdujo el término matriz, que en latín significa vientre.
El término vector fue introducido como v = x i + y j + z k representando un punto en el espacio.
La diferencia de cuaterniones p - q también produce un segmento equipolente a la
Arthur Cayley introdujo la multiplicación matricial y la matriz inversa en 1856, haciendo posible el grupo lineal general.
El álgebra lineal es geometría diferencial plana y sirve en los espacios tangentes a los colectores.
Dado que un isomorfismo preserva la estructura lineal, dos espacios vectoriales isomorfos son "esencialmente iguales" desde el punto de vista del álgebra lineal, en el sentido de que no pueden distinguirse utilizando las propiedades del espacio vectorial.
El estudio de aquellos subconjuntos de espacios vectoriales que son en sí mismos espacios vectoriales bajo las operaciones inducidas es fundamental, al igual que para muchas estructuras matemáticas.
o mediante la matriz vertical Si W es otro espacio vectorial de dimensión finita (posiblemente el mismo), con una base
La eliminación gaussiana es el algoritmo básico para encontrar estas operaciones elementales y demostrar estos resultados.
Históricamente, el álgebra lineal y la teoría de matrices se han desarrollado para resolver dichos sistemas.
En el ejemplo, la forma escalonada reducida es mostrando De esta interpretación matricial de los sistemas lineales se deduce que los mismos métodos pueden aplicarse para resolver sistemas lineales y para muchas operaciones sobre matrices y transformaciones lineales, que incluyen el cálculo del rangos, núcleos, y matriz inversa que el sistema (S) tiene la solución única De esta interpretación matricial de los sistemas lineales se deduce que los mismos métodos pueden aplicarse para resolver sistemas lineales y para muchas operaciones sobre matrices y transformaciones lineales, que incluyen el cálculo del rangos, núcleos y matriz inversa.
Si V tiene una base de n elementos, tal endomorfismo se representa mediante una matriz cuadrada de tamaño n. Con respecto a los mapas lineales generales, los endomorfismos lineales y las matrices cuadradas tienen algunas propiedades específicas que hacen que su estudio sea una parte importante del álgebra lineal, que se usa en muchas partes de las matemáticas, incluidas las transformaciones geométricas , los cambios de coordenadas, las formas cuadráticas y muchas otras.
Si f es un endomorfismo lineal de un espacio vectorial V sobre un campo F, un vector propio de f es un vector v de V no nulo tal que f(v) = av para algún escalar a en F. Este escalar a es un valor propio de f. Si la dimensión de V es finita, y se ha elegido una base, f y v pueden representarse, respectivamente, por una matriz cuadrada M y una matriz de columnas z; la ecuación que define los vectores y valores propios se convierte en Utilizando la matriz identidad I, cuyas entradas son todas cero, excepto las de la diagonal principal, que son iguales a uno, esto puede reescribirse Como se supone que z es distinto de cero, esto significa que M - aI es una matriz singular, y por tanto que su determinante
Si existe una base que consiste solo en vectores propios, la matriz de f en esta base tiene una estructura muy simple: es una matriz diagonal tal que las entradas en la diagonal principal son valores propios, y las otras entradas son cero.
En este caso, se dice que el endomorfismo y la matriz son diagonalizable.
(esto implica que V es de dimensión finita), entonces se puede definir, para i = 1, .
Existe, pues, una simetría completa entre un espacio vectorial de dimensión finita y su dual.
Esto motiva el uso frecuente, en este contexto, de la notación bra-ket Dejemos que sea un mapa lineal.
Podemos encontrar un ejemplo de ellos en los vectores R2, que son famosos por representar las coordenadas cartesianas: (2,3), (3,4),... Un ejemplo de espacio vectorial está dado por todos los polinomios cuyo grado es menor o igual a 2 con coeficientes reales sobre una variable x.
Existe una fuerte relación entre el álgebra lineal y la geometría, que comenzó con la introducción por René Descartes, en 1637, de las coordenadas cartesianas.
En esta nueva (en ese momento) geometría, ahora llamada geometría cartesiana, los puntos se representan mediante coordenadas cartesianas, que son secuencias de tres números reales (en el caso del espacio tridimensional habitual).
Los objetos básicos de la geometría, que son las líneas y los planos se representan mediante ecuaciones lineales.
Actualmente, la mayoría de los libros de texto introducen los espacios geométricos desde el álgebra lineal, y la geometría se presenta a menudo, a nivel elemental, como un subcampo del álgebra lineal.
Las ciencias que se ocupan de este espacio utilizan ampliamente la geometría.
El álgebra lineal es, por tanto, una parte fundamental del análisis funcional y sus aplicaciones, que incluyen, en particular, la mecánica cuántica (función de onda).
La mayoría de los fenómenos físicos se modelan mediante ecuaciones diferenciales parciales.
En consecuencia, los algoritmos de álgebra lineal han sido altamente optimizados.