En matemáticas , y más específicamente en álgebra lineal , un subespacio lineal o subespacio vectorial [1] [nota 1] es un espacio vectorial que es un subconjunto de algún espacio vectorial más grande. Un subespacio lineal suele denominarse simplemente subespacio cuando el contexto sirve para distinguirlo de otros tipos de subespacios .
Definición
Si V es un espacio vectorial sobre un cuerpo K y si W es un subconjunto de V , entonces W es un subespacio lineal de V si bajo las operaciones de V , W es un espacio vectorial sobre K . De manera equivalente, un subconjunto no vacío W es un subespacio lineal de V si, siempre que w 1 , w 2 son elementos de W y α , β son elementos de K , se sigue que αw 1 + βw 2 está en W . [2] [3] [4] [5] [6]
Como corolario, todos los espacios vectoriales están equipados con al menos dos subespacios lineales (posiblemente diferentes): el espacio vectorial cero, que consiste únicamente en el vector cero , y el espacio vectorial completo. Estos se denominan subespacios triviales del espacio vectorial. [7]
Ejemplos
Ejemplo I
En el espacio vectorial V = R 3 (el espacio de coordenadas reales sobre el cuerpo R de números reales ), tomemos W como el conjunto de todos los vectores en V cuyo último componente es 0. Entonces W es un subespacio de V .
Prueba:
Dados u y v en W , entonces pueden expresarse como u = ( u 1 , u 2 , 0) y v = ( v 1 , v 2 , 0) . Entonces u + v = ( u 1 + v 1 , u 2 + v 2 , 0+0) = ( u 1 + v 1 , u 2 + v 2 , 0) . Por lo tanto, u + v también es un elemento de W .
Dado u en W y un escalar c en R , si u = ( u 1 , u 2 , 0) nuevamente, entonces c u = ( cu 1 , cu 2 , c 0) = ( cu 1 , cu 2 ,0) . Por lo tanto, c u también es un elemento de W.
Ejemplo II
Sea nuevamente el campo R , pero ahora sea el espacio vectorial V el plano cartesiano R 2 . Tome W como el conjunto de puntos ( x , y ) de R 2 tales que x = y . Entonces W es un subespacio de R 2 .
Prueba:
Sean p = ( p 1 , p 2 ) y q = ( q 1 , q 2 ) elementos de W , es decir, puntos en el plano tales que p 1 = p 2 y q 1 = q 2 . Entonces p + q = ( p 1 + q 1 , p 2 + q 2 ) ; como p 1 = p 2 y q 1 = q 2 , entonces p 1 + q 1 = p 2 + q 2 , por lo que p + q es un elemento de W .
Sea p = ( p 1 , p 2 ) un elemento de W , es decir, un punto en el plano tal que p 1 = p 2 , y sea c un escalar en R . Entonces c p = ( cp 1 , cp 2 ) ; como p 1 = p 2 , entonces cp 1 = cp 2 , por lo que c p es un elemento de W .
En general, cualquier subconjunto del espacio de coordenadas reales R n que esté definido por un sistema homogéneo de ecuaciones lineales producirá un subespacio. (La ecuación en el ejemplo I era z = 0, y la ecuación en el ejemplo II era x = y .)
Ejemplo III
Nuevamente tomemos el campo como R , pero ahora sea el espacio vectorial V el conjunto R R de todas las funciones desde R hasta R . Sea C( R ) el subconjunto que consiste en funciones continuas . Entonces C( R ) es un subespacio de R R .
Prueba:
Sabemos por el cálculo que 0 ∈ C( R ) ⊂ R R .
Sabemos por el cálculo que la suma de funciones continuas es continua.
Nuevamente, sabemos por el cálculo que el producto de una función continua y un número es continuo.
Ejemplo IV
Mantenemos el mismo campo y el mismo espacio vectorial que antes, pero ahora consideramos el conjunto Diff( R ) de todas las funciones diferenciables . El mismo tipo de argumento que antes muestra que este también es un subespacio.
De la definición de espacios vectoriales se desprende que los subespacios no están vacíos y son cerrados bajo sumas y bajo múltiplos escalares. [8] De manera equivalente, los subespacios pueden caracterizarse por la propiedad de estar cerrados bajo combinaciones lineales. Es decir, un conjunto no vacío W es un subespacio si y solo si cada combinación lineal de un número finito de elementos de W también pertenece a W . La definición equivalente establece que también es equivalente considerar combinaciones lineales de dos elementos a la vez.
Una descripción natural de un 1-subespacio es la multiplicación escalar de un vector v distinto de cero por todos los valores escalares posibles. Los 1-subespacios especificados por dos vectores son iguales si y solo si un vector puede obtenerse de otro con multiplicación escalar:
Esta idea se generaliza para dimensiones superiores con amplitud lineal , pero los criterios para la igualdad de k -espacios especificados por conjuntos de k vectores no son tan simples.
Se proporciona una descripción dual con funcionales lineales (generalmente implementados como ecuaciones lineales). Un funcional lineal distinto de cero F especifica su subespacio de núcleo F = 0 de codimensión 1. Los subespacios de codimensión 1 especificados por dos funcionales lineales son iguales, si y solo si un funcional puede obtenerse de otro con multiplicación escalar (en el espacio dual ):
Se generaliza para codimensiones superiores con un sistema de ecuaciones . Las dos subsecciones siguientes presentarán esta última descripción en detalle, y las cuatro subsecciones restantes describirán con más detalle la idea de amplitud lineal.
Por ejemplo, el conjunto de todos los vectores ( x , y , z ) (sobre números reales o racionales ) que satisfacen las ecuaciones
es un subespacio unidimensional. De manera más general, es decir, dado un conjunto de n funciones independientes, la dimensión del subespacio en K k será la dimensión del conjunto nulo de A , la matriz compuesta de las n funciones.
Espacio nulo de una matriz
En un espacio de dimensión finita, un sistema homogéneo de ecuaciones lineales puede escribirse como una única ecuación matricial:
El conjunto de soluciones de esta ecuación se conoce como el espacio nulo de la matriz. Por ejemplo, el subespacio descrito anteriormente es el espacio nulo de la matriz.
Cada subespacio de K n puede describirse como el espacio nulo de alguna matriz (ver § Algoritmos a continuación para más información).
Ecuaciones paramétricas lineales
El subconjunto de K n descrito por un sistema de ecuaciones paramétricas lineales homogéneas es un subespacio:
Por ejemplo, el conjunto de todos los vectores ( x , y , z ) parametrizados por las ecuaciones
es un subespacio bidimensional de K 3 , si K es un cuerpo numérico (como números reales o racionales). [nota 2]
Intervalo de vectores
En álgebra lineal, el sistema de ecuaciones paramétricas se puede escribir como una única ecuación vectorial:
La expresión de la derecha se denomina combinación lineal de los vectores (2, 5, −1) y (3, −4, 2). Se dice que estos dos vectores abarcan el subespacio resultante.
En general, una combinación lineal de vectores v 1 , v 2 , ... , v k es cualquier vector de la forma
El conjunto de todas las combinaciones lineales posibles se llama amplitud :
Si los vectores v 1 , ... , v k tienen n componentes, entonces su amplitud es un subespacio de K n . Geométricamente, la amplitud es el plano que pasa por el origen en el espacio n -dimensional determinado por los puntos v 1 , ... , v k .
Ejemplo
El plano xz en R 3 se puede parametrizar mediante las ecuaciones
Como subespacio, el plano xz está abarcado por los vectores (1, 0, 0) y (0, 0, 1). Cada vector en el plano xz puede escribirse como una combinación lineal de estos dos:
Geométricamente, esto corresponde al hecho de que cada punto en el plano xz se puede alcanzar desde el origen moviéndose primero cierta distancia en la dirección de (1, 0, 0) y luego moviéndose cierta distancia en la dirección de (0, 0, 1).
Espacio de columnas y espacio de filas
Un sistema de ecuaciones paramétricas lineales en un espacio de dimensión finita también puede escribirse como una ecuación matricial única:
En este caso, el subespacio está formado por todos los valores posibles del vector x . En álgebra lineal, este subespacio se conoce como espacio columna (o imagen ) de la matriz A . Es precisamente el subespacio de K n generado por los vectores columna de A .
El espacio fila de una matriz es el subespacio generado por sus vectores fila. El espacio fila es interesante porque es el complemento ortogonal del espacio nulo (ver más abajo).
Independencia, base y dimensión
En general, un subespacio de K n determinado por k parámetros (o abarcado por k vectores) tiene dimensión k . Sin embargo, hay excepciones a esta regla. Por ejemplo, el subespacio de K 3 abarcado por los tres vectores (1, 0, 0), (0, 0, 1) y (2, 0, 3) es simplemente el plano xz , con cada punto en el plano descrito por infinitos valores diferentes de t 1 , t 2 , t 3 .
En general, los vectores v 1 , ... , v k se denominan linealmente independientes si
para ( t 1 , t 2 , ... , t k ) ≠ ( u 1 , u 2 , ... , u k ). [nota 3]
Si v 1 , ..., v k son linealmente independientes, entonces las coordenadas t 1 , ..., t k para un vector en el lapso están determinadas de forma única.
Una base para un subespacio S es un conjunto de vectores linealmente independientes cuyo espacio de expansión es S. El número de elementos en una base siempre es igual a la dimensión geométrica del subespacio. Cualquier conjunto de expansión para un subespacio se puede transformar en una base eliminando los vectores redundantes (consulte el § Algoritmos a continuación para obtener más información).
Ejemplo
Sea S el subespacio de R 4 definido por las ecuaciones
Entonces los vectores (2, 1, 0, 0) y (0, 0, 5, 1) son una base para S. En particular, cada vector que satisface las ecuaciones anteriores se puede escribir de forma única como una combinación lineal de los dos vectores base:
El subespacio S es bidimensional. Geométricamente, es el plano en R 4 que pasa por los puntos (0, 0, 0, 0), (2, 1, 0, 0) y (0, 0, 5, 1).
Un subespacio no puede estar en ningún subespacio de menor dimensión. Si dim U = k , un número finito, y U ⊂ W , entonces dim W = k si y solo si U = W .
Intersección
Dados los subespacios U y W de un espacio vectorial V , entonces su intersección U ∩ W := { v ∈ V : v es un elemento tanto de U como de W } es también un subespacio de V . [10]
Prueba:
Sean v y w elementos de U ∩ W . Entonces v y w pertenecen tanto a U como a W . Como U es un subespacio, entonces v + w pertenece a U . De manera similar, como W es un subespacio, entonces v + w pertenece a W . Por lo tanto, v + w pertenece a U ∩ W .
Sea v perteneciente a U ∩ W y sea c un escalar. Entonces v pertenece tanto a U como a W. Como U y W son subespacios, c v pertenece tanto a U como a W.
Como U y W son espacios vectoriales, entonces 0 pertenece a ambos conjuntos. Por lo tanto, 0 pertenece a U ∩ W .
Para cada espacio vectorial V , el conjunto { 0 } y V mismo son subespacios de V. [11] [12]
Suma
Si U y W son subespacios, su suma es el subespacio [13] [14]
Por ejemplo, la suma de dos rectas es el plano que las contiene a ambas. La dimensión de la suma satisface la desigualdad
Aquí, el mínimo sólo se da si un subespacio está contenido en el otro, mientras que el máximo es el caso más general. La dimensión de la intersección y la suma están relacionadas por la siguiente ecuación: [15]
Un conjunto de subespacios es independiente cuando la única intersección entre cualquier par de subespacios es el subespacio trivial. La suma directa es la suma de subespacios independientes, escrita como . Una reformulación equivalente es que una suma directa es una suma de subespacios bajo la condición de que cada subespacio contribuya al alcance de la suma. [16] [17] [18] [19]
La dimensión de una suma directa es la misma que la suma de subespacios, pero puede acortarse porque la dimensión del subespacio trivial es cero. [20]
Red de subespacios
Las operaciones intersección y suma hacen del conjunto de todos los subespacios una red modular acotada , donde el subespacio {0} , el elemento menor , es un elemento identidad de la operación suma, y el subespacio idéntico V , el elemento mayor, es un elemento identidad de la operación intersección.
Complementos ortogonales
Si es un espacio de producto interno y es un subconjunto de , entonces el complemento ortogonal de , denotado , es nuevamente un subespacio. [21] Si es de dimensión finita y es un subespacio, entonces las dimensiones de y satisfacen la relación complementaria . [22] Además, ningún vector es ortogonal a sí mismo, por lo que y es la suma directa de y . [23] La aplicación de complementos ortogonales dos veces devuelve el subespacio original: para cada subespacio . [24]
Esta operación, entendida como negación ( ), convierte la red de subespacios en una red ortocomplementada (posiblemente infinita ) (aunque no una red distributiva). [ cita requerida ]
En espacios con otras formas bilineales , algunos de estos resultados, aunque no todos, se mantienen. En espacios pseudoeuclidianos y espacios vectoriales simplécticos , por ejemplo, existen complementos ortogonales. Sin embargo, estos espacios pueden tener vectores nulos que sean ortogonales a sí mismos y, en consecuencia, existen subespacios tales que . Como resultado, esta operación no convierte la red de subespacios en un álgebra de Boole (ni en un álgebra de Heyting ). [ cita requerida ]
Si, en cambio, ponemos la matriz A en forma escalonada reducida, entonces la base resultante para el espacio de filas se determina de manera única. Esto proporciona un algoritmo para verificar si dos espacios de filas son iguales y, por extensión, si dos subespacios de K n son iguales.
Membresía del subespacio
Entrada Una base { b 1 , b 2 , ..., b k } para un subespacio S de K n , y un vector v con n componentes.
Salida Determina si v es un elemento de S
Crea una matriz A ( k + 1) × n cuyas filas sean los vectores b 1 , ... , b k y v .
Utilice operaciones de fila elementales para poner A en forma escalonada.
Si la forma escalonada tiene una fila de ceros, entonces los vectores { b 1 , ..., b k , v } son linealmente dependientes y, por lo tanto, v ∈ S .
Base para un espacio de columna
Entrada Una matriz m × n A
Salida Una base para el espacio de columnas de A
Utilice operaciones de fila elementales para poner A en forma escalonada.
Determinar qué columnas de la forma escalonada tienen pivotes . Las columnas correspondientes de la matriz original son una base para el espacio de columnas.
Consulte el artículo sobre el espacio de columnas para ver un ejemplo .
Esto produce una base para el espacio de columnas que es un subconjunto de los vectores de columnas originales. Funciona porque las columnas con pivotes son una base para el espacio de columnas de la forma escalonada y la reducción de filas no cambia las relaciones de dependencia lineal entre las columnas.
Coordenadas de un vector
Entrada Una base { b 1 , b 2 , ..., b k } para un subespacio S de K n , y un vector v ∈ S
Números de salida t 1 , t 2 , ..., t k tales que v = t 1 b 1 + ··· + t k b k
Crea una matriz aumentada A cuyas columnas sean b 1 ,..., b k , siendo la última columna v .
Utilice operaciones de fila elementales para poner A en forma escalonada reducida.
Expresar la columna final de la forma escalonada reducida como una combinación lineal de las primeras k columnas. Los coeficientes utilizados son los números deseados t 1 , t 2 , ..., t k . (Estos deben ser precisamente las primeras k entradas en la columna final de la forma escalonada reducida).
Si la columna final de la forma escalonada reducida contiene un pivote, entonces el vector de entrada v no se encuentra en S.
Base para un espacio nulo
Entrada Una matriz m × n A .
Salida Una base para el espacio nulo de A
Utilice operaciones de fila elementales para poner A en forma escalonada reducida.
Utilizando la forma escalonada reducida, determine cuáles de las variables x 1 , x 2 , ..., x n son libres. Escriba ecuaciones para las variables dependientes en términos de las variables libres.
Para cada variable libre x i , elija un vector en el espacio nulo para el cual x i = 1 y las variables libres restantes sean cero. La colección de vectores resultante es una base para el espacio nulo de A .
Consulte el artículo sobre espacio nulo para ver un ejemplo .
Base para la suma e intersección de dos subespacios
Dados dos subespacios U y W de V , se puede calcular una base de la suma y la intersección utilizando el algoritmo de Zassenhaus .
Ecuaciones para un subespacio
Entrada A base { b 1 , b 2 , ..., b k } para un subespacio S de K n
Salida Una matriz ( n − k ) × n cuyo espacio nulo es S .
Crea una matriz A cuyas filas sean b 1 , b 2 , ..., b k .
Utilice operaciones de fila elementales para poner A en forma escalonada reducida.
Sean c 1 , c 2 , ..., c n las columnas de la forma escalonada reducida. Para cada columna sin pivote, escribe una ecuación que exprese la columna como una combinación lineal de las columnas con pivotes.
Esto da como resultado un sistema homogéneo de n − k ecuaciones lineales que involucran las variables c 1 ,..., c n . La matriz ( n − k ) × n correspondiente a este sistema es la matriz deseada con espacio nulo S .
Ejemplo
Si la forma escalonada reducida de A es
entonces los vectores columna c 1 , ..., c 6 satisfacen las ecuaciones
De ello se deduce que los vectores fila de A satisfacen las ecuaciones
En particular, los vectores fila de A son una base para el espacio nulo de la matriz correspondiente.
^ El término subespacio lineal se utiliza a veces para referirse a planos y subespacios afines . En el caso de los espacios vectoriales sobre los números reales, los subespacios lineales, planos y subespacios afines también se denominan variedades lineales para enfatizar que también hay variedades .
^ En general, K puede ser cualquier campo con características tales que la matriz entera dada tenga el rango apropiado en él. Todos los campos incluyen números enteros , pero algunos números enteros pueden ser iguales a cero en algunos campos.
^ Esta definición a menudo se enuncia de forma diferente: los vectores v 1 , ..., v k son linealmente independientes si t 1 v 1 + ··· + t k v k ≠ 0 para ( t 1 , t 2 , ..., t k ) ≠ (0, 0, ..., 0) . Las dos definiciones son equivalentes.
^ DuChateau (2002) Datos básicos sobre el espacio de Hilbert: notas de clase de la Universidad Estatal de Colorado sobre ecuaciones diferenciales parciales (M645).
Beauregard, Raymond A.; Fraleigh, John B. (1973), Un primer curso de álgebra lineal: con introducción opcional a grupos, anillos y campos , Boston: Houghton Mifflin Company , ISBN 0-395-14017-X
Lay, David C. (22 de agosto de 2005), Álgebra lineal y sus aplicaciones (3.ª ed.), Addison Wesley, ISBN 978-0-321-28713-7
Leon, Steven J. (2006), Álgebra lineal con aplicaciones (7.ª ed.), Pearson Prentice Hall
Meyer, Carl D. (15 de febrero de 2001), Análisis de matrices y álgebra lineal aplicada, Sociedad de Matemáticas Industriales y Aplicadas (SIAM), ISBN 978-0-89871-454-8, archivado desde el original el 1 de marzo de 2001
Nering, Evar D. (1970), Álgebra lineal y teoría de matrices (2.ª ed.), Nueva York: Wiley , LCCN 76091646
Poole, David (2006), Álgebra lineal: una introducción moderna (2.ª ed.), Brooks/Cole, ISBN 0-534-99845-3
DuChateau, Paul (5 de septiembre de 2002). "Datos básicos sobre el espacio de Hilbert" (PDF) . Universidad Estatal de Colorado . Consultado el 17 de febrero de 2021 .
Enlaces externos
Strang, Gilbert (7 de mayo de 2009). «Los cuatro subespacios fundamentales». Archivado desde el original el 11 de diciembre de 2021. Consultado el 17 de febrero de 2021 en YouTube .
Strang, Gilbert (5 de mayo de 2020). «El panorama general del álgebra lineal». Archivado desde el original el 11 de diciembre de 2021. Consultado el 17 de febrero de 2021 en YouTube .