stringtranslate.com

Subespacio lineal

En matemáticas , y más específicamente en álgebra lineal , un subespacio lineal o subespacio vectorial [1] [nota 1] es un espacio vectorial que es un subconjunto de algún espacio vectorial mayor. Un subespacio lineal suele denominarse simplemente subespacio cuando el contexto sirve para distinguirlo de otros tipos de subespacios.

Definición

Si V es un espacio vectorial sobre un campo K y si W es un subconjunto de V , entonces W es un subespacio lineal de V si bajo las operaciones de V , W es un espacio vectorial sobre K. De manera equivalente, un subconjunto no vacío W es un subespacio lineal de V si, siempre que w 1 , w 2 sean elementos de W y α , β sean elementos de K , se deduce que αw 1 + βw 2 está en W . [2] [3] [4] [5] [6]

Como corolario, todos los espacios vectoriales están equipados con al menos dos subespacios lineales (posiblemente diferentes): el espacio vectorial cero que consiste únicamente en el vector cero y todo el espacio vectorial mismo. Estos se denominan subespacios triviales del espacio vectorial. [7]

Ejemplos

Ejemplo I

En el espacio vectorial V = R 3 (el espacio de coordenadas real sobre el campo R de números reales ), tome W como el conjunto de todos los vectores en V cuyo último componente es 0. Entonces W es un subespacio de V.

Prueba:

  1. Dados u y v en W , entonces se pueden expresar como u = ( u 1 , u 2 , 0) y v = ( v 1 , v 2 , 0) . Entonces u + v = ( u 1 + v 1 , u 2 + v 2 , 0+0) = ( u 1 + v 1 , u 2 + v 2 , 0) . Por tanto, u + v también es un elemento de W.
  2. Dado u en W y un escalar c en R , si u = ( u 1 , u 2 , 0) nuevamente, entonces cu = ( cu 1 , cu 2 , c 0) = ( cu 1 , cu 2,0 ) . Por tanto, cu también es un elemento de W.

Ejemplo II

Sea el campo R nuevamente, pero ahora sea el espacio vectorial V el plano cartesiano R 2 . Tome W como el conjunto de puntos ( x , y ) de R 2 tales que x = y . Entonces W es un subespacio de R 2 .

Ejemplo II ilustrado

Prueba:

  1. Sean p = ( p 1 , p 2 ) y q = ( q 1 , q 2 ) elementos de W , es decir, puntos en el plano tales que p 1 = p 2 y q 1 = q 2 . Entonces p + q = ( p 1 + q 1 , p 2 + q 2 ) ; dado que p 1 = p 2 y q 1 = q 2 , entonces p 1 + q 1 = p 2 + q 2 , entonces p + q es un elemento de W .
  2. Sea p = ( p 1 , p 2 ) un elemento de W , es decir, un punto en el plano tal que p 1 = p 2 , y sea c un escalar en R . Entonces c p = ( cp 1 , cp 2 ) ; ya que p 1 = p 2 , entonces cp 1 = cp 2 , entonces c p es un elemento de W .

En general, cualquier subconjunto del espacio de coordenadas real R n que esté definido por un sistema de ecuaciones lineales homogéneas producirá un subespacio. (La ecuación del ejemplo I era z  = 0 y la ecuación del ejemplo II era x  =  y ).

Ejemplo III

Nuevamente tome el campo como R , pero ahora deje que el espacio vectorial V sea el conjunto R R de todas las funciones de R a R. Sea C( R ) el subconjunto formado por funciones continuas . Entonces C( R ) es un subespacio de R R .

Prueba:

  1. Sabemos por cálculo que 0 ∈ C( R ) ⊂ R R .
  2. Sabemos por el cálculo que la suma de funciones continuas es continua.
  3. Nuevamente, sabemos por cálculo que el producto de una función continua y un número es continuo.

Ejemplo IV

Mantenga el mismo campo y espacio vectorial que antes, pero ahora considere el conjunto Diff( R ) de todas las funciones diferenciables . El mismo tipo de argumento que antes muestra que éste también es un subespacio.

Los ejemplos que amplían estos temas son comunes en el análisis funcional .

Propiedades de los subespacios

De la definición de espacios vectoriales se deduce que los subespacios no están vacíos y están cerrados bajo sumas y múltiplos escalares. [8] De manera equivalente, los subespacios se pueden caracterizar por la propiedad de estar cerrados bajo combinaciones lineales. Es decir, un conjunto no vacío W es un subespacio si y sólo si toda combinación lineal de un número finito de elementos de W también pertenece a W. La definición equivalente establece que también es equivalente considerar combinaciones lineales de dos elementos a la vez.

En un espacio vectorial topológico X , un subespacio W no necesita estar topológicamente cerrado , pero un subespacio de dimensión finita siempre está cerrado. [9] Lo mismo ocurre con los subespacios de codimensión finita (es decir, subespacios determinados por un número finito de funcionales lineales continuos ).

Descripciones

Las descripciones de subespacios incluyen el conjunto de soluciones de un sistema homogéneo de ecuaciones lineales , el subconjunto del espacio euclidiano descrito por un sistema de ecuaciones paramétricas lineales homogéneos , el intervalo de una colección de vectores y el espacio nulo , el espacio de columnas y el espacio de filas de una matriz . Geométricamente (especialmente sobre el campo de los números reales y sus subcampos), un subespacio es un plano en un n -espacio que pasa por el origen.

Una descripción natural de un subespacio 1 es la multiplicación escalar de un vector v distinto de cero por todos los valores escalares posibles. Los 1-subespacios especificados por dos vectores son iguales si y solo si un vector se puede obtener a partir de otro con multiplicación escalar:

Esta idea se generaliza para dimensiones superiores con tramo lineal , pero los criterios para la igualdad de k espacios especificados por conjuntos de k vectores no son tan simples.

Se proporciona una descripción dual con funcionales lineales (generalmente implementadas como ecuaciones lineales). Un funcional lineal distinto de cero F especifica su subespacio central F  = 0 de codimensión 1. Los subespacios de codimensión 1 especificados por dos funcionales lineales son iguales, si y solo si un funcional se puede obtener de otro con multiplicación escalar (en el espacio dual ) :

Se generaliza para codimensiones superiores con un sistema de ecuaciones . Las siguientes dos subsecciones presentarán esta última descripción en detalle, y las cuatro subsecciones restantes describen con más detalle la idea de tramo lineal.

Sistemas de ecuaciones lineales.

El conjunto de soluciones para cualquier sistema homogéneo de ecuaciones lineales con n variables es un subespacio en el espacio de coordenadas K n :

Por ejemplo, el conjunto de todos los vectores ( x , y , z ) (sobre números reales o racionales ) que satisfacen las ecuaciones

nK kconjunto nuloAn

Espacio nulo de una matriz

En un espacio de dimensión finita, un sistema homogéneo de ecuaciones lineales se puede escribir como una única ecuación matricial:

El conjunto de soluciones de esta ecuación se conoce como espacio nulo de la matriz. Por ejemplo, el subespacio descrito anteriormente es el espacio nulo de la matriz.

Cada subespacio de K n puede describirse como el espacio nulo de alguna matriz (consulte § Algoritmos a continuación para obtener más información).

Ecuaciones paramétricas lineales

El subconjunto de K n descrito por un sistema de ecuaciones paramétricas lineales homogéneas es un subespacio:

Por ejemplo, el conjunto de todos los vectores ( xyz ) parametrizados por las ecuaciones

es un subespacio bidimensional de K 3 , si K es un campo numérico (como números reales o racionales). [nota 2]

Lapso de vectores

En álgebra lineal, el sistema de ecuaciones paramétricas se puede escribir como una única ecuación vectorial:

La expresión de la derecha se llama combinación lineal de los vectores (2, 5, −1) y (3, −4, 2). Se dice que estos dos vectores abarcan el subespacio resultante.

En general, una combinación lineal de vectores v 1v 2 , ... ,  v k es cualquier vector de la forma

El conjunto de todas las combinaciones lineales posibles se llama tramo :

Si los vectores v 1 , ... ,  v k tienen n componentes, entonces su tramo es un subespacio de K n . Geométricamente, el tramo es el plano que pasa por el origen en un espacio de n dimensiones determinado por los puntos v 1 , ... ,  v k .

Ejemplo
El plano xz en R 3 puede parametrizarse mediante las ecuaciones
Como subespacio, el plano xz está atravesado por los vectores (1, 0, 0) y (0, 0, 1). Cada vector en el plano xz se puede escribir como una combinación lineal de estos dos:
Geométricamente, esto corresponde al hecho de que se puede llegar a cada punto en el plano xz desde el origen moviéndose primero una cierta distancia en la dirección de (1, 0, 0) y luego moviéndose cierta distancia en la dirección de (0, 0). , 1).

Espacio de columnas y espacio de filas

Un sistema de ecuaciones paramétricas lineales en un espacio de dimensión finita también se puede escribir como una ecuación matricial única:

En este caso, el subespacio consta de todos los valores posibles del vector x . En álgebra lineal, este subespacio se conoce como espacio columna (o imagen ) de la matriz A. Es precisamente el subespacio de K n abarcado por los vectores columna de A .

El espacio de filas de una matriz es el subespacio abarcado por sus vectores de filas. El espacio de filas es interesante porque es el complemento ortogonal del espacio nulo (ver más abajo).

Independencia, base y dimensión.

Los vectores u y v son la base de este subespacio bidimensional de R 3 .

En general, un subespacio de K n determinado por k parámetros (o abarcado por k vectores) tiene dimensión k . Sin embargo, hay excepciones para esta regla. Por ejemplo, el subespacio de K 3 abarcado por los tres vectores (1, 0, 0), (0, 0, 1) y (2, 0, 3) es simplemente el plano xz , con cada punto en el plano descrito por infinitos valores diferentes de t 1 , t 2 , t 3 .

En general, los vectores v 1 , ... ,  v k se llaman linealmente independientes si

para ( t 1t 2 , ... ,  t k ) ≠ ( u 1u 2 , ... ,  u k ). [nota 3] Si v 1 , ..., v k son linealmente independientes, entonces las coordenadas t 1 , ..., t k para un vector en el intervalo están determinadas de forma única.

Una base para un subespacio S es un conjunto de vectores linealmente independientes cuyo intervalo es S. El número de elementos de una base siempre es igual a la dimensión geométrica del subespacio. Cualquier conjunto de expansión para un subespacio se puede convertir en una base eliminando vectores redundantes (consulte § Algoritmos a continuación para obtener más información).

Ejemplo
Sea S el subespacio de R 4 definido por las ecuaciones
Entonces los vectores (2, 1, 0, 0) y (0, 0, 5, 1) son una base para S. En particular, cada vector que satisface las ecuaciones anteriores se puede escribir de forma única como una combinación lineal de los dos vectores base:
El subespacio S es bidimensional. Geométricamente, es el plano en R 4 que pasa por los puntos (0, 0, 0, 0), (2, 1, 0, 0) y (0, 0, 5, 1).

Operaciones y relaciones en subespacios.

Inclusión

La relación binaria de inclusión teórica de conjuntos especifica un orden parcial en el conjunto de todos los subespacios (de cualquier dimensión).

Un subespacio no puede estar en ningún subespacio de menor dimensión. Si dim  U  =  k , un número finito, y U  ⊂  W , entonces dim  W  =  k si y solo si U  =  W .

Intersección

En R 3 , la intersección de dos subespacios bidimensionales distintos es unidimensional

Dados los subespacios U y W de un espacio vectorial V , entonces su intersección U  ∩  W  := { v  ∈  V  : v  es un elemento tanto de U como  de W } también es un subespacio de V. [10]

Prueba:

  1. Sean v y w elementos de U  ∩  W . Entonces v y w pertenecen tanto a U como a W. Como U es un subespacio, entonces v +  w  pertenece a U. De manera similar, dado que W es un subespacio, entonces v +  w  pertenece a W. Por tanto, v  +  w pertenece a U  ∩  W .
  2. Sea v perteneciente a U  ∩  W y sea c un escalar. Entonces v pertenece tanto a U como a W. Dado que U y W son subespacios, c v pertenece tanto a U como  a W.
  3. Como U y W son espacios vectoriales, entonces 0 pertenece a ambos conjuntos. Por tanto, 0 pertenece a U  ∩  W .

Para cada espacio vectorial V , el conjunto {0} y el propio V son subespacios de V. [11] [12]

Suma

Si U y W son subespacios, su suma es el subespacio [13] [14]

Por ejemplo, la suma de dos rectas es el plano que las contiene a ambas. La dimensión de la suma satisface la desigualdad.

Aquí, el mínimo sólo ocurre si un subespacio está contenido en el otro, mientras que el máximo es el caso más general. La dimensión de la intersección y la suma están relacionadas por la siguiente ecuación: [15]

Un conjunto de subespacios es independiente cuando la única intersección entre cualquier par de subespacios es el subespacio trivial. La suma directa es la suma de subespacios independientes, escrita como . Una reformulación equivalente es que una suma directa es una suma subespacial bajo la condición de que cada subespacio contribuya al alcance de la suma. [16] [17] [18] [19]

La dimensión de una suma directa es la misma que la suma de subespacios, pero puede acortarse porque la dimensión del subespacio trivial es cero. [20]

Celosía de subespacios

Las operaciones intersección y suma hacen del conjunto de todos los subespacios una red modular acotada , donde el subespacio {0} , el elemento menor , es un elemento identidad de la operación suma, y ​​el subespacio idéntico V , el elemento mayor, es un elemento identidad de la operación de intersección.

Complementos ortogonales

Si es un espacio producto interno y es un subconjunto de , entonces el complemento ortogonal de , denotado , es nuevamente un subespacio. [21] Si es de dimensión finita y es un subespacio, entonces las dimensiones de y satisfacen la relación de complementariedad . [22] Además, ningún vector es ortogonal a sí mismo, por lo que y es la suma directa de y . [23] La aplicación de complementos ortogonales dos veces devuelve el subespacio original: para cada subespacio . [24]

Esta operación, entendida como negación ( ), convierte la red de subespacios en una red ortocomplementada (posiblemente infinita ) (aunque no distributiva). [ cita necesaria ]

En espacios con otras formas bilineales , algunos de estos resultados, pero no todos, siguen siendo válidos. En los espacios pseudoeuclidianos y en los espacios vectoriales simplécticos , por ejemplo, existen complementos ortogonales. Sin embargo, estos espacios pueden tener vectores nulos que sean ortogonales a ellos mismos y, en consecuencia, existen subespacios tales que . Como resultado, esta operación no convierte la red de subespacios en un álgebra booleana (ni en un álgebra de Heyting ). [ cita necesaria ]

Algoritmos

La mayoría de los algoritmos para tratar con subespacios implican la reducción de filas . Este es el proceso de aplicar operaciones elementales por filas a una matriz, hasta que alcanza la forma escalonada por filas o la forma escalonada reducida por filas . La reducción de filas tiene las siguientes propiedades importantes:

  1. La matriz reducida tiene el mismo espacio nulo que la original.
  2. La reducción de filas no cambia la extensión de los vectores de filas, es decir, la matriz reducida tiene el mismo espacio de filas que la original.
  3. La reducción de filas no afecta la dependencia lineal de los vectores de columna.

Base para un espacio de fila

Introduzca una matriz A de m  ×  n .
Salida A base para el espacio de filas de A .
  1. Utilice operaciones elementales con renglones para poner A en forma escalonada por renglones.
  2. Las filas distintas de cero de la forma escalonada son una base para el espacio de filas de A.

Consulte el artículo sobre espacio de filas para ver un ejemplo .

Si, en cambio, colocamos la matriz A en forma escalonada reducida, entonces la base resultante para el espacio de filas está determinada de forma única. Esto proporciona un algoritmo para comprobar si dos espacios de filas son iguales y, por extensión, si dos subespacios de K n son iguales.

Membresía subespacial

Ingrese la base A { b 1 , b 2 , ..., b k } para un subespacio S de K n y un vector v con n componentes.
Salida Determina si v es un elemento de S
  1. Cree una matriz A ( k  + 1) ×  n cuyas filas sean los vectores b 1 , ... ,  b k y v .
  2. Utilice operaciones elementales con renglones para poner A en forma escalonada por renglones.
  3. Si la forma escalonada tiene una fila de ceros, entonces los vectores { b 1 , ..., b k , v } son linealmente dependientes y, por lo tanto, vS .

Base para un espacio de columnas

Entrada Una matriz A m  ×  n
Salida A base para el espacio de columnas de A
  1. Utilice operaciones elementales con renglones para poner A en forma escalonada por renglones.
  2. Determina qué columnas de la forma escalonada tienen pivotes . Las columnas correspondientes de la matriz original son la base del espacio de columnas.

Consulte el artículo sobre espacio de columnas para ver un ejemplo .

Esto produce una base para el espacio de columnas que es un subconjunto de los vectores de columnas originales. Funciona porque las columnas con pivotes son una base para el espacio de columnas de la forma escalonada, y la reducción de filas no cambia las relaciones de dependencia lineal entre las columnas.

Coordenadas para un vector

Ingrese la base A { b 1 , b 2 , ..., b k } para un subespacio S de K n y un vector vS
Números de salida t 1 , t 2 , ..., t k tales que v = t 1 b 1 + ··· + t k b k
  1. Cree una matriz A aumentada cuyas columnas sean b 1 ,..., b k , siendo la última columna v .
  2. Utilice operaciones elementales de renglones para poner A en forma escalonada reducida de renglones.
  3. Exprese la columna final de la forma escalonada reducida como una combinación lineal de las primeras k columnas. Los coeficientes utilizados son los números deseados t 1 , t 2 , ..., t k . (Estas deberían ser precisamente las primeras k entradas en la última columna de la forma escalonada reducida).

Si la columna final de la forma escalonada de filas reducida contiene un pivote, entonces el vector de entrada v no se encuentra en S.

Base para un espacio nulo

Introduzca una matriz A de m  ×  n .
Salida A base para el espacio nulo de A
  1. Utilice operaciones elementales con renglones para poner A en forma escalonada reducida.
  2. Usando la forma escalonada reducida, determine cuáles de las variables x 1 , x 2 , ..., x n son libres. Escribe ecuaciones para las variables dependientes en términos de las variables libres.
  3. Para cada variable libre x i , elija un vector en el espacio nulo para el cual x i = 1 y las variables libres restantes sean cero. La colección resultante de vectores es una base para el espacio nulo de A.

Consulte el artículo sobre espacio nulo para ver un ejemplo .

Base para la suma e intersección de dos subespacios.

Dados dos subespacios U y W de V , se puede calcular una base de la suma y la intersección utilizando el algoritmo de Zassenhaus .

Ecuaciones para un subespacio

Ingrese la base A { b 1 , b 2 , ..., b k } para un subespacio S de K n
Salida Una matriz ( n  −  k ) ×  n cuyo espacio nulo es S.
  1. Cree una matriz A cuyas filas sean b 1 , b 2 , ..., b k .
  2. Utilice operaciones elementales de renglones para poner A en forma escalonada reducida de renglones.
  3. Sean c 1 , c 2 , ..., c n las columnas de la forma escalonada reducida por filas. Para cada columna sin pivote, escribe una ecuación que exprese la columna como una combinación lineal de las columnas con pivotes.
  4. Esto da como resultado un sistema homogéneo de nk ecuaciones lineales que involucran las variables c 1 ,..., c n . La matriz ( nk ) × n correspondiente a este sistema es la matriz deseada con espacio nulo S.
Ejemplo
Si la forma escalonada reducida por renglones de A es
entonces los vectores columna c 1 , ..., c 6 satisfacen las ecuaciones
Se deduce que los vectores fila de A satisfacen las ecuaciones
En particular, los vectores fila de A son una base para el espacio nulo de la matriz correspondiente.

Ver también

Notas

  1. ^ El término subespacio lineal se utiliza a veces para referirse a subespacios planos y afines . En el caso de los espacios vectoriales sobre los reales, los subespacios lineales, los planos y los subespacios afines también se denominan variedades lineales para enfatizar que también existen variedades .
  2. ^ Generalmente, K puede ser cualquier campo de tal característica que la matriz entera dada tenga el rango apropiado . Todos los campos incluyen números enteros , pero algunos números enteros pueden ser iguales a cero en algunos campos.
  3. ^ Esta definición a menudo se expresa de manera diferente: los vectores v 1 , ..., v k son linealmente independientes si t 1 v 1 + ··· + t k v k0 para ( t 1 , t 2 , ..., t k ) ≠ (0, 0, ..., 0) . Las dos definiciones son equivalentes.

Citas

  1. ^ Halmos (1974) págs. 16-17, § 10
  2. ^ Antón (2005, pág.155)
  3. ^ Beauregard y Fraleigh (1973, pág.176)
  4. ^ Herstein (1964, pág.132)
  5. ^ Kreyszig (1972, pág.200)
  6. ^ Nering (1970, pág.20)
  7. ^ Hefferon (2020) pág. 100, cap. 2, Definición 2.13
  8. ^ MathWorld (2021) Subespacio.
  9. ^ DuChateau (2002) Datos básicos sobre el espacio de Hilbert: notas de clase de la Universidad Estatal de Colorado sobre ecuaciones diferenciales parciales (M645).
  10. ^ Nering (1970, pág.21)
  11. ^ Hefferon (2020) pág. 100, cap. 2, Definición 2.13
  12. ^ Nering (1970, pág.20)
  13. ^ Nering (1970, pág.21)
  14. ^ Operadores relacionados con el espacio vectorial.
  15. ^ Nering (1970, pág.22)
  16. ^ Hefferon (2020) pág. 148, cap. 2, §4.10
  17. ^ Axler (2015) pág. 21 párr. 1.40
  18. ^ Katznelson y Katznelson (2008) págs. 10-11, § 1.2.5
  19. ^ Halmos (1974) págs. 28-29, § 18
  20. ^ Halmos (1974) págs. 30-31, § 19
  21. ^ Axler (2015) pág. 193, § 6.46
  22. ^ Axler (2015) pág. 195, § 6.50
  23. ^ Axler (2015) pág. 194, § 6.47
  24. ^ Axler (2015) pág. 195, § 6.51

Fuentes

Libro de texto

Web

enlaces externos