stringtranslate.com

Subespacio lineal

En matemáticas , y más específicamente en álgebra lineal , un subespacio lineal o subespacio vectorial [1] [nota 1] es un espacio vectorial que es un subconjunto de algún espacio vectorial más grande. Un subespacio lineal suele denominarse simplemente subespacio cuando el contexto sirve para distinguirlo de otros tipos de subespacios .

Definición

Si V es un espacio vectorial sobre un cuerpo K y si W es un subconjunto de V , entonces W es un subespacio lineal de V si bajo las operaciones de V , W es un espacio vectorial sobre K . De manera equivalente, un subconjunto no vacío W es un subespacio lineal de V si, siempre que w 1 , w 2 son elementos de W y α , β son elementos de K , se sigue que αw 1 + βw 2 está en W . [2] [3] [4] [5] [6]

Como corolario, todos los espacios vectoriales están equipados con al menos dos subespacios lineales (posiblemente diferentes): el espacio vectorial cero, que consiste únicamente en el vector cero , y el espacio vectorial completo. Estos se denominan subespacios triviales del espacio vectorial. [7]

Ejemplos

Ejemplo I

En el espacio vectorial V = R 3 (el espacio de coordenadas reales sobre el cuerpo R de números reales ), tomemos W como el conjunto de todos los vectores en V cuyo último componente es 0. Entonces W es un subespacio de V .

Prueba:

  1. Dados u y v en W , entonces pueden expresarse como u = ( u 1 , u 2 , 0) y v = ( v 1 , v 2 , 0) . Entonces u + v = ( u 1 + v 1 , u 2 + v 2 , 0+0) = ( u 1 + v 1 , u 2 + v 2 , 0) . Por lo tanto, u + v también es un elemento de W .
  2. Dado u en W y un escalar c en R , si u = ( u 1 , u 2 , 0) nuevamente, entonces c u = ( cu 1 , cu 2 , c 0) = ( cu 1 , cu 2 ,0) . Por lo tanto, c u también es un elemento de W.

Ejemplo II

Sea nuevamente el campo R , pero ahora sea el espacio vectorial V el plano cartesiano R 2 . Tome W como el conjunto de puntos ( x , y ) de R 2 tales que x = y . Entonces W es un subespacio de R 2 .

Ejemplo II Ilustrado

Prueba:

  1. Sean p = ( p 1 , p 2 ) y q = ( q 1 , q 2 ) elementos de W , es decir, puntos en el plano tales que p 1 = p 2 y q 1 = q 2 . Entonces p + q = ( p 1 + q 1 , p 2 + q 2 ) ; como p 1 = p 2 y q 1 = q 2 , entonces p 1 + q 1 = p 2 + q 2 , por lo que p + q es un elemento de W .
  2. Sea p = ( p 1 , p 2 ) un elemento de W , es decir, un punto en el plano tal que p 1 = p 2 , y sea c un escalar en R . Entonces c p = ( cp 1 , cp 2 ) ; como p 1 = p 2 , entonces cp 1 = cp 2 , por lo que c p es un elemento de W .

En general, cualquier subconjunto del espacio de coordenadas reales R n que esté definido por un sistema homogéneo de ecuaciones lineales producirá un subespacio. (La ecuación en el ejemplo I era z  = 0, y la ecuación en el ejemplo II era x  =  y .)

Ejemplo III

Nuevamente tomemos el campo como R , pero ahora sea el espacio vectorial V el conjunto R R de todas las funciones desde R hasta R . Sea C( R ) el subconjunto que consiste en funciones continuas . Entonces C( R ) es un subespacio de R R .

Prueba:

  1. Sabemos por el cálculo que 0 ∈ C( R ) ⊂ R R .
  2. Sabemos por el cálculo que la suma de funciones continuas es continua.
  3. Nuevamente, sabemos por el cálculo que el producto de una función continua y un número es continuo.

Ejemplo IV

Mantenemos el mismo campo y el mismo espacio vectorial que antes, pero ahora consideramos el conjunto Diff( R ) de todas las funciones diferenciables . El mismo tipo de argumento que antes muestra que este también es un subespacio.

Los ejemplos que amplían estos temas son comunes en el análisis funcional .

Propiedades de los subespacios

De la definición de espacios vectoriales se desprende que los subespacios no son vacíos y están cerrados bajo sumas y bajo múltiplos escalares. [8] De manera equivalente, los subespacios pueden caracterizarse por la propiedad de estar cerrados bajo combinaciones lineales. Es decir, un conjunto no vacío W es un subespacio si y solo si cada combinación lineal de un número finito de elementos de W también pertenece a W . La definición equivalente establece que también es equivalente considerar combinaciones lineales de dos elementos a la vez.

En un espacio vectorial topológico X , un subespacio W no necesita ser topológicamente cerrado , pero un subespacio de dimensión finita siempre está cerrado. [9] Lo mismo es cierto para los subespacios de codimensión finita (es decir, subespacios determinados por un número finito de funcionales lineales continuos ).

Descripciones

Las descripciones de los subespacios incluyen el conjunto solución de un sistema homogéneo de ecuaciones lineales , el subconjunto del espacio euclidiano descrito por un sistema de ecuaciones paramétricas lineales homogéneas , el espacio de una colección de vectores y el espacio nulo , el espacio columna y el espacio fila de una matriz . Geométricamente (especialmente sobre el campo de los números reales y sus subcampos), un subespacio es un plano en un n -espacio que pasa por el origen.

Una descripción natural de un 1-subespacio es la multiplicación escalar de un vector v distinto de cero por todos los valores escalares posibles. Los 1-subespacios especificados por dos vectores son iguales si y solo si un vector puede obtenerse de otro con multiplicación escalar:

Esta idea se generaliza para dimensiones superiores con amplitud lineal , pero los criterios para la igualdad de k -espacios especificados por conjuntos de k vectores no son tan simples.

Se proporciona una descripción dual con funcionales lineales (generalmente implementados como ecuaciones lineales). Un funcional lineal distinto de cero F especifica su subespacio de núcleo F  = 0 de codimensión 1. Los subespacios de codimensión 1 especificados por dos funcionales lineales son iguales, si y solo si un funcional puede obtenerse de otro con multiplicación escalar (en el espacio dual ):

Se generaliza para codimensiones superiores con un sistema de ecuaciones . Las dos subsecciones siguientes presentarán esta última descripción en detalle, y las cuatro subsecciones restantes describirán con más detalle la idea de amplitud lineal.

Sistemas de ecuaciones lineales

El conjunto solución de cualquier sistema homogéneo de ecuaciones lineales con n variables es un subespacio en el espacio de coordenadas K n :

Por ejemplo, el conjunto de todos los vectores ( x , y , z ) (sobre números reales o racionales ) que satisfacen las ecuaciones es un subespacio unidimensional. De manera más general, es decir, dado un conjunto de n funciones independientes, la dimensión del subespacio en K k será la dimensión del conjunto nulo de A , la matriz compuesta de las n funciones.

Espacio nulo de una matriz

En un espacio de dimensión finita, un sistema homogéneo de ecuaciones lineales puede escribirse como una única ecuación matricial:

El conjunto de soluciones de esta ecuación se conoce como el espacio nulo de la matriz. Por ejemplo, el subespacio descrito anteriormente es el espacio nulo de la matriz.

Cada subespacio de K n puede describirse como el espacio nulo de alguna matriz (ver § Algoritmos a continuación para más información).

Ecuaciones paramétricas lineales

El subconjunto de K n descrito por un sistema de ecuaciones paramétricas lineales homogéneas es un subespacio:

Por ejemplo, el conjunto de todos los vectores ( xyz ) parametrizados por las ecuaciones

es un subespacio bidimensional de K 3 , si K es un cuerpo numérico (como números reales o racionales). [nota 2]

Intervalo de vectores

En álgebra lineal, el sistema de ecuaciones paramétricas se puede escribir como una única ecuación vectorial:

La expresión de la derecha se denomina combinación lineal de los vectores (2, 5, −1) y (3, −4, 2). Se dice que estos dos vectores abarcan el subespacio resultante.

En general, una combinación lineal de vectores v 1v 2 , ... ,  v k es cualquier vector de la forma

El conjunto de todas las combinaciones lineales posibles se llama amplitud :

Si los vectores v 1 , ... ,  v k tienen n componentes, entonces su amplitud es un subespacio de K n . Geométricamente, la amplitud es el plano que pasa por el origen en el espacio n -dimensional determinado por los puntos v 1 , ... ,  v k .

Ejemplo
El plano xz en R 3 se puede parametrizar mediante las ecuaciones
Como subespacio, el plano xz está abarcado por los vectores (1, 0, 0) y (0, 0, 1). Cada vector en el plano xz puede escribirse como una combinación lineal de estos dos:
Geométricamente, esto corresponde al hecho de que cada punto en el plano xz se puede alcanzar desde el origen moviéndose primero cierta distancia en la dirección de (1, 0, 0) y luego moviéndose cierta distancia en la dirección de (0, 0, 1).

Espacio de columnas y espacio de filas

Un sistema de ecuaciones paramétricas lineales en un espacio de dimensión finita también puede escribirse como una ecuación matricial única:

En este caso, el subespacio está formado por todos los valores posibles del vector x . En álgebra lineal, este subespacio se conoce como espacio columna (o imagen ) de la matriz A . Es precisamente el subespacio de K n generado por los vectores columna de A .

El espacio fila de una matriz es el subespacio generado por sus vectores fila. El espacio fila es interesante porque es el complemento ortogonal del espacio nulo (ver más abajo).

Independencia, base y dimensión

Los vectores u y v son una base para este subespacio bidimensional de R 3 .

En general, un subespacio de K n determinado por k parámetros (o abarcado por k vectores) tiene dimensión k . Sin embargo, hay excepciones a esta regla. Por ejemplo, el subespacio de K 3 abarcado por los tres vectores (1, 0, 0), (0, 0, 1) y (2, 0, 3) es simplemente el plano xz , con cada punto en el plano descrito por infinitos valores diferentes de t 1 , t 2 , t 3 .

En general, los vectores v 1 , ... ,  v k se denominan linealmente independientes si

para ( t 1t 2 , ... ,  t k ) ≠ ( u 1u 2 , ... ,  u k ). [nota 3] Si v 1 , ..., v k son linealmente independientes, entonces las coordenadas t 1 , ..., t k para un vector en el lapso están determinadas de forma única.

Una base para un subespacio S es un conjunto de vectores linealmente independientes cuyo espacio de expansión es S. El número de elementos en una base es siempre igual a la dimensión geométrica del subespacio. Cualquier conjunto de expansión para un subespacio se puede transformar en una base eliminando los vectores redundantes (consulte el § Algoritmos a continuación para obtener más información).

Ejemplo
Sea S el subespacio de R 4 definido por las ecuaciones
Entonces los vectores (2, 1, 0, 0) y (0, 0, 5, 1) son una base para S. En particular, cada vector que satisface las ecuaciones anteriores se puede escribir de forma única como una combinación lineal de los dos vectores base:
El subespacio S es bidimensional. Geométricamente, es el plano en R 4 que pasa por los puntos (0, 0, 0, 0), (2, 1, 0, 0) y (0, 0, 5, 1).

Operaciones y relaciones en subespacios

Inclusión

La relación binaria de inclusión teórica de conjuntos especifica un orden parcial en el conjunto de todos los subespacios (de cualquier dimensión).

Un subespacio no puede estar en ningún subespacio de menor dimensión. Si dim  U  =  k , un número finito, y U  ⊂  W , entonces dim  W  =  k si y solo si U  =  W .

Intersección

En R 3 , la intersección de dos subespacios bidimensionales distintos es unidimensional

Dados los subespacios U y W de un espacio vectorial V , entonces su intersección U  ∩  W  := { v  ∈  V  : v  es un elemento tanto de U como  de W } es también un subespacio de V . [10]

Prueba:

  1. Sean v y w elementos de U  ∩  W . Entonces v y w pertenecen tanto a U como a W . Como U es un subespacio, entonces v  +  w pertenece a U . De manera similar, como W es un subespacio, entonces v  +  w pertenece a W . Por lo tanto, v  +  w pertenece a U  ∩  W .
  2. Sea v perteneciente a U  ∩  W y sea c un escalar. Entonces v pertenece tanto a U como a W. Como U y W son subespacios, c v pertenece tanto a U como  a W.
  3. Como U y W son espacios vectoriales, entonces 0 pertenece a ambos conjuntos. Por lo tanto, 0 pertenece a U  ∩  W .

Para cada espacio vectorial V , el conjunto { 0 } y V mismo son subespacios de V. [11] [12]

Suma

Si U y W son subespacios, su suma es el subespacio [13] [14]

Por ejemplo, la suma de dos rectas es el plano que las contiene a ambas. La dimensión de la suma satisface la desigualdad

Aquí, el mínimo sólo se da si un subespacio está contenido en el otro, mientras que el máximo es el caso más general. La dimensión de la intersección y la suma están relacionadas por la siguiente ecuación: [15]

Un conjunto de subespacios es independiente cuando la única intersección entre cualquier par de subespacios es el subespacio trivial. La suma directa es la suma de subespacios independientes, escrita como . Una reformulación equivalente es que una suma directa es una suma de subespacios bajo la condición de que cada subespacio contribuya al alcance de la suma. [16] [17] [18] [19]

La dimensión de una suma directa es la misma que la suma de subespacios, pero puede acortarse porque la dimensión del subespacio trivial es cero. [20]

Red de subespacios

Las operaciones intersección y suma hacen del conjunto de todos los subespacios una red modular acotada , donde el subespacio {0} , el elemento menor , es un elemento identidad de la operación suma, y ​​el subespacio idéntico V , el elemento mayor, es un elemento identidad de la operación intersección.

Complementos ortogonales

Si es un espacio de producto interno y es un subconjunto de , entonces el complemento ortogonal de , denotado , es nuevamente un subespacio. [21] Si es de dimensión finita y es un subespacio, entonces las dimensiones de y satisfacen la relación complementaria . [22] Además, ningún vector es ortogonal a sí mismo, por lo que y es la suma directa de y . [23] La aplicación de complementos ortogonales dos veces devuelve el subespacio original: para cada subespacio . [24]

Esta operación, entendida como negación ( ), convierte la red de subespacios en una red ortocomplementada (posiblemente infinita ) (aunque no una red distributiva). [ cita requerida ]

En espacios con otras formas bilineales , algunos de estos resultados, aunque no todos, se mantienen. En espacios pseudoeuclidianos y espacios vectoriales simplécticos , por ejemplo, existen complementos ortogonales. Sin embargo, estos espacios pueden tener vectores nulos que sean ortogonales a sí mismos y, en consecuencia, existen subespacios tales que . Como resultado, esta operación no convierte la red de subespacios en un álgebra de Boole (ni en un álgebra de Heyting ). [ cita requerida ]

Algoritmos

La mayoría de los algoritmos para trabajar con subespacios implican la reducción de filas . Este es el proceso de aplicar operaciones elementales de filas a una matriz, hasta que alcanza la forma escalonada por filas o la forma escalonada por filas reducida . La reducción de filas tiene las siguientes propiedades importantes:

  1. La matriz reducida tiene el mismo espacio nulo que la original.
  2. La reducción de filas no cambia el espacio de los vectores de fila, es decir, la matriz reducida tiene el mismo espacio de filas que la original.
  3. La reducción de filas no afecta la dependencia lineal de los vectores de columna.

Base para un espacio de fila

Entrada Una matriz m  ×  n A .
Salida Una base para el espacio de filas de A.
  1. Utilice operaciones de fila elementales para poner A en forma escalonada.
  2. Las filas distintas de cero de la forma escalonada son una base para el espacio de filas de A.

Consulte el artículo sobre el espacio entre filas para ver un ejemplo .

Si, en cambio, ponemos la matriz A en forma escalonada reducida, entonces la base resultante para el espacio de filas se determina de manera única. Esto proporciona un algoritmo para verificar si dos espacios de filas son iguales y, por extensión, si dos subespacios de K n son iguales.

Membresía del subespacio

Entrada Una base { b 1 , b 2 , ..., b k } para un subespacio S de K n , y un vector v con n componentes.
Salida Determina si v es un elemento de S
  1. Crea una matriz A ( k  + 1) ×  n cuyas filas sean los vectores b 1 , ... ,  b k y v .
  2. Utilice operaciones de fila elementales para poner A en forma escalonada.
  3. Si la forma escalonada tiene una fila de ceros, entonces los vectores { b 1 , ..., b k , v } son linealmente dependientes y, por lo tanto, vS .

Base para un espacio de columna

Entrada Una matriz m  ×  n A
Salida Una base para el espacio de columnas de A
  1. Utilice operaciones de fila elementales para poner A en forma escalonada.
  2. Determinar qué columnas de la forma escalonada tienen pivotes . Las columnas correspondientes de la matriz original son una base para el espacio de columnas.

Consulte el artículo sobre el espacio de columnas para ver un ejemplo .

Esto produce una base para el espacio de columnas que es un subconjunto de los vectores de columnas originales. Funciona porque las columnas con pivotes son una base para el espacio de columnas de la forma escalonada y la reducción de filas no cambia las relaciones de dependencia lineal entre las columnas.

Coordenadas de un vector

Entrada Una base { b 1 , b 2 , ..., b k } para un subespacio S de K n , y un vector vS
Números de salida t 1 , t 2 , ..., t k tales que v = t 1 b 1 + ··· + t k b k
  1. Crea una matriz aumentada A cuyas columnas sean b 1 ,..., b k , siendo la última columna v .
  2. Utilice operaciones de fila elementales para poner A en forma escalonada reducida.
  3. Expresar la columna final de la forma escalonada reducida como una combinación lineal de las primeras k columnas. Los coeficientes utilizados son los números deseados t 1 , t 2 , ..., t k . (Estos deben ser precisamente las primeras k entradas en la columna final de la forma escalonada reducida).

Si la columna final de la forma escalonada reducida contiene un pivote, entonces el vector de entrada v no se encuentra en S.

Base para un espacio nulo

Entrada Una matriz m  ×  n A .
Salida Una base para el espacio nulo de A
  1. Utilice operaciones de fila elementales para poner A en forma escalonada reducida.
  2. Utilizando la forma escalonada reducida, determine cuáles de las variables x 1 , x 2 , ..., x n son libres. Escriba ecuaciones para las variables dependientes en términos de las variables libres.
  3. Para cada variable libre x i , elija un vector en el espacio nulo para el cual x i = 1 y las variables libres restantes sean cero. La colección de vectores resultante es una base para el espacio nulo de A .

Consulte el artículo sobre espacio nulo para ver un ejemplo .

Base para la suma e intersección de dos subespacios

Dados dos subespacios U y W de V , se puede calcular una base de la suma y la intersección utilizando el algoritmo de Zassenhaus .

Ecuaciones para un subespacio

Entrada A base { b 1 , b 2 , ..., b k } para un subespacio S de K n
Salida Una matriz ( n  −  k ) ×  n cuyo espacio nulo es S .
  1. Crea una matriz A cuyas filas sean b 1 , b 2 , ..., b k .
  2. Utilice operaciones de fila elementales para poner A en forma escalonada reducida.
  3. Sean c 1 , c 2 , ..., c n las columnas de la forma escalonada reducida. Para cada columna sin pivote, escribe una ecuación que exprese la columna como una combinación lineal de las columnas con pivotes.
  4. Esto da como resultado un sistema homogéneo de nk ecuaciones lineales que involucran las variables c 1 ,..., c n . La matriz ( nk ) × n correspondiente a este sistema es la matriz deseada con espacio nulo S .
Ejemplo
Si la forma escalonada reducida de A es
entonces los vectores columna c 1 , ..., c 6 satisfacen las ecuaciones
De ello se deduce que los vectores fila de A satisfacen las ecuaciones
En particular, los vectores fila de A son una base para el espacio nulo de la matriz correspondiente.

Véase también

Notas

  1. ^ El término subespacio lineal se utiliza a veces para referirse a planos y subespacios afines . En el caso de los espacios vectoriales sobre los números reales, los subespacios lineales, planos y subespacios afines también se denominan variedades lineales para enfatizar que también hay variedades .
  2. ^ En general, K puede ser cualquier campo con características tales que la matriz entera dada tenga el rango apropiado en él. Todos los campos incluyen números enteros , pero algunos números enteros pueden ser iguales a cero en algunos campos.
  3. ^ Esta definición a menudo se enuncia de forma diferente: los vectores v 1 , ..., v k son linealmente independientes si t 1 v 1 + ··· + t k v k0 para ( t 1 , t 2 , ..., t k ) ≠ (0, 0, ..., 0) . Las dos definiciones son equivalentes.

Citas

  1. ^ Halmos (1974) págs. 16-17, § 10
  2. ^ Antón (2005, pág. 155)
  3. ^ Beauregard y Fraleigh (1973, pág.176)
  4. ^ Herstein (1964, pág. 132)
  5. ^ Kreyszig (1972, pág. 200)
  6. ^ Nering (1970, pág. 20)
  7. ^ Hefferon (2020) pág. 100, cap. 2, Definición 2.13
  8. ^ MathWorld (2021) Subespacio.
  9. ^ DuChateau (2002) Datos básicos sobre el espacio de Hilbert: notas de clase de la Universidad Estatal de Colorado sobre ecuaciones diferenciales parciales (M645).
  10. ^ Nering (1970, pág. 21)
  11. ^ Hefferon (2020) pág. 100, cap. 2, Definición 2.13
  12. ^ Nering (1970, pág. 20)
  13. ^ Nering (1970, pág. 21)
  14. ^ Operadores relacionados con el espacio vectorial.
  15. ^ Nering (1970, pág. 22)
  16. ^ Hefferon (2020) pág. 148, cap. 2, §4.10
  17. ^ Axler (2015) pág. 21 § 1.40
  18. ^ Katznelson y Katznelson (2008) págs. 10-11, § 1.2.5
  19. ^ Halmos (1974) págs. 28-29, § 18
  20. ^ Halmos (1974) págs. 30-31, § 19
  21. ^ Axler (2015) pág. 193, § 6.46
  22. ^ Axler (2015) pág. 195, § 6.50
  23. ^ Axler (2015) pág. 194, § 6.47
  24. ^ Axler (2015) pág. 195, § 6.51

Fuentes

Libro de texto

Web

Enlaces externos