stringtranslate.com

Kernel (álgebra lineal)

En matemáticas , el núcleo de una función lineal , también conocido como espacio nulo o espacio nulo , es la parte del dominio que se asigna al vector cero del co-dominio; el núcleo es siempre un subespacio lineal del dominio. [1] Es decir, dada una función lineal L  : VW entre dos espacios vectoriales V y W , el núcleo de L es el espacio vectorial de todos los elementos v de V tales que L ( v ) = 0 , donde 0 denota el vector cero en W , [2] o más simbólicamente:

Propiedades

Núcleo e imagen de una función lineal L de V a W

El núcleo de L es un subespacio lineal del dominio V . [3] [2] En la función lineal dos elementos de V tienen la misma imagen en W si y sólo si su diferencia se encuentra en el núcleo de L , es decir,

De esto se deduce por el primer teorema de isomorfismo que la imagen de L es isomorfa al cociente de V por el núcleo:En el caso en que V es de dimensión finita , esto implica el teorema de rango-nulidad : donde el términoEl rango se refiere a la dimensión de la imagen deL,mientras queLa nulidad se refiere a la dimensión del núcleo deL,[4] Es decir, de modo que el teorema de rango-nulidad puede reformularse como

Cuando V es un espacio de producto interno , el cociente se puede identificar con el complemento ortogonal en V de . Esta es la generalización a operadores lineales del espacio de filas , o coimagen, de una matriz.

Generalización a módulos

La noción de núcleo también tiene sentido para homomorfismos de módulos , que son generalizaciones de espacios vectoriales donde los escalares son elementos de un anillo , en lugar de un cuerpo . El dominio de la aplicación es un módulo, y el núcleo constituye un submódulo . En este caso, los conceptos de rango y nulidad no se aplican necesariamente.

En el análisis funcional

Si V y W son espacios vectoriales topológicos tales que W es de dimensión finita, entonces un operador lineal L : VW es continuo si y solo si el núcleo de L es un subespacio cerrado de V .

Representación como multiplicación de matrices

Considérese una función lineal representada como una matriz A de m × n con coeficientes en un cuerpo K (normalmente o ), que opera sobre vectores columna x con n componentes sobre K . El núcleo de esta función lineal es el conjunto de soluciones de la ecuación A x = 0 , donde 0 se entiende como el vector cero . La dimensión del núcleo de A se denomina nulidad de A . En la notación de constructor de conjuntos , la ecuación matricial es equivalente a un sistema homogéneo de ecuaciones lineales : Por tanto, el núcleo de A es el mismo que el conjunto de soluciones de las ecuaciones homogéneas anteriores.

Propiedades del subespacio

El núcleo de una matriz A de m × n sobre un cuerpo K es un subespacio lineal de K n . Es decir, el núcleo de A , el conjunto Null( A ) , tiene las tres propiedades siguientes:

  1. Null( A ) siempre contiene el vector cero , ya que A 0 = 0 .
  2. Si x ∈ Null( A ) e y ∈ Null( A ) , entonces x + y ∈ Null( A ) . Esto se deduce de la distributividad de la multiplicación de matrices con respecto a la suma.
  3. Si x ∈ Null( A ) y c es un escalar cK , entonces c x ∈ Null( A ) , ya que A ( c x ) = c ( A x ) = c 0 = 0 .

El espacio de filas de una matriz

El producto A x se puede escribir en términos del producto escalar de vectores de la siguiente manera:

Aquí, a 1 , ... , a m denotan las filas de la matriz A . De ello se deduce que x está en el núcleo de A , si y solo si x es ortogonal (o perpendicular) a cada uno de los vectores fila de A (ya que la ortogonalidad se define como tener un producto escalar de 0).

El espacio fila , o coimagen, de una matriz A es el espacio de los vectores fila de A. Por el razonamiento anterior, el núcleo de A es el complemento ortogonal del espacio fila. Es decir, un vector x se encuentra en el núcleo de A si y solo si es perpendicular a cada vector en el espacio fila de A.

La dimensión del espacio de filas de A se denomina rango de A y la dimensión del núcleo de A se denomina nulidad de A. Estas cantidades están relacionadas por el teorema de rango-nulidad [4]

Espacio nulo izquierdo

El espacio nulo izquierdo , o cokernel , de una matriz A consiste en todos los vectores columna x tales que x T A = 0 T , donde T denota la transpuesta de una matriz. El espacio nulo izquierdo de A es el mismo que el kernel de A T . El espacio nulo izquierdo de A es el complemento ortogonal al espacio columna de A , y es dual al cokernel de la transformación lineal asociada. El kernel, el espacio fila, el espacio columna y el espacio nulo izquierdo de A son los cuatro subespacios fundamentales asociados con la matriz A .

Sistemas no homogéneos de ecuaciones lineales

El núcleo también juega un papel en la solución de un sistema no homogéneo de ecuaciones lineales: Si u y v son dos posibles soluciones a la ecuación anterior, entonces Por lo tanto, la diferencia de dos soluciones cualesquiera a la ecuación A x = b se encuentra en el núcleo de A .

De ello se deduce que cualquier solución de la ecuación A x = b puede expresarse como la suma de una solución fija v y un elemento arbitrario del núcleo. Es decir, el conjunto de soluciones de la ecuación A x = b es Geométricamente, esto dice que el conjunto de soluciones de A x = b es la traslación del núcleo de A por el vector v . Véase también Alternativa de Fredholm y plano (geometría) .

Ilustración

A continuación se muestra una ilustración sencilla del cálculo del núcleo de una matriz (consulte el apartado Cálculo por eliminación gaussiana, más adelante, para conocer métodos más adecuados para cálculos más complejos). La ilustración también aborda el espacio de filas y su relación con el núcleo.

Considere la matriz El núcleo de esta matriz consta de todos los vectores ( x , y , z ) ∈ R 3 para los cuales que pueden expresarse como un sistema homogéneo de ecuaciones lineales que involucran x , y y z :

Las mismas ecuaciones lineales también se pueden escribir en forma matricial como:

Mediante la eliminación de Gauss-Jordan , la matriz se puede reducir a:

Reescribiendo la matriz en forma de ecuación obtenemos:

Los elementos del núcleo se pueden expresar además en forma de vector paramétrico , de la siguiente manera:

Como c es una variable libre que abarca todos los números reales, esto se puede expresar igualmente bien como: El núcleo de A es precisamente el conjunto solución de estas ecuaciones (en este caso, una línea que pasa por el origen en R 3 ). Aquí, como el vector (−1,−26,16) T constituye una base del núcleo de A . La nulidad de A es 1.

Los siguientes productos puntuales son cero: lo que ilustra que los vectores en el núcleo de A son ortogonales a cada uno de los vectores de fila de A.

Estos dos vectores fila (linealmente independientes) abarcan el espacio fila de A , un plano ortogonal al vector (−1,−26,16) T.

Con el rango 2 de A , la nulidad 1 de A y la dimensión 3 de A , tenemos una ilustración del teorema de rango-nulidad.

Ejemplos

Cálculo por eliminación gaussiana

La base del núcleo de una matriz se puede calcular mediante eliminación gaussiana .

Para este propósito, dada una matriz m × n A , construimos primero la matriz aumentada por filas donde I es la matriz identidad n × n .

Calculando su forma escalonada de columna por eliminación gaussiana (o cualquier otro método adecuado), obtenemos una matriz A cuya base del núcleo de A consiste en las columnas distintas de cero de C tales que la columna correspondiente de B es una columna cero .

De hecho, el cálculo puede detenerse tan pronto como la matriz superior esté en forma escalonada de columnas: el resto del cálculo consiste en cambiar la base del espacio vectorial generado por las columnas cuya parte superior es cero.

Por ejemplo, supongamos que Entonces

Poniendo la parte superior en forma escalonada de columna mediante operaciones de columna en toda la matriz se obtiene

Las tres últimas columnas de B son columnas cero. Por lo tanto, los tres últimos vectores de C son una base del núcleo de A.

Prueba de que el método calcula el núcleo: Puesto que las operaciones de columna corresponden a la post-multiplicación por matrices invertibles, el hecho de que se reduce a significa que existe una matriz invertible tal que con en forma escalonada de columnas. Por lo tanto , , y . Un vector columna pertenece al núcleo de (es decir ) si y solo si donde . Como está en forma escalonada de columnas, , si y solo si las entradas distintas de cero de corresponden a las columnas cero de . Al multiplicar por , se puede deducir que este es el caso si y solo si es una combinación lineal de las columnas correspondientes de .

Cálculo numérico

El problema de calcular el núcleo de una computadora depende de la naturaleza de los coeficientes.

Coeficientes exactos

Si los coeficientes de la matriz son números exactos, la forma escalonada de la matriz se puede calcular con el algoritmo de Bareiss de manera más eficiente que con la eliminación gaussiana. Es aún más eficiente utilizar la aritmética modular y el teorema chino del resto , que reduce el problema a varios similares sobre cuerpos finitos (esto evita la sobrecarga inducida por la no linealidad de la complejidad computacional de la multiplicación de números enteros). [ cita requerida ]

Para los coeficientes en un campo finito, la eliminación gaussiana funciona bien, pero para las matrices grandes que se producen en la criptografía y el cálculo de la base de Gröbner , se conocen mejores algoritmos, que tienen aproximadamente la misma complejidad computacional , pero son más rápidos y se comportan mejor con el hardware informático moderno . [ cita requerida ]

Cálculo de punto flotante

Para matrices cuyas entradas son números de punto flotante , el problema de calcular el núcleo tiene sentido solo para matrices tales que el número de filas es igual a su rango: debido a los errores de redondeo , una matriz de punto flotante casi siempre tiene un rango completo , incluso cuando es una aproximación de una matriz de un rango mucho más pequeño. Incluso para una matriz de rango completo, es posible calcular su núcleo solo si está bien condicionada , es decir, tiene un número de condición bajo . [5] [ cita requerida ]

Incluso en el caso de una matriz de rango completo bien condicionada, la eliminación gaussiana no se comporta correctamente: introduce errores de redondeo demasiado grandes para obtener un resultado significativo. Como el cálculo del núcleo de una matriz es un caso especial de resolución de un sistema homogéneo de ecuaciones lineales, el núcleo se puede calcular con cualquiera de los diversos algoritmos diseñados para resolver sistemas homogéneos. Un software de última generación para este propósito es la biblioteca Lapack . [ cita requerida ]

Véase también

Notas y referencias

  1. ^ Weisstein, Eric W. "Kernel". mathworld.wolfram.com . Consultado el 9 de diciembre de 2019 .
  2. ^ ab "Kernel (espacio nulo) | Brilliant Math & Science Wiki". brilliant.org . Consultado el 9 de diciembre de 2019 .
  3. ^ El álgebra lineal, como se analiza en este artículo, es una disciplina matemática muy bien establecida para la que existen muchas fuentes. Casi todo el material de este artículo se puede encontrar en Lay 2005, Meyer 2001 y en las conferencias de Strang.
  4. ^ de Weisstein, Eric W. "Teorema de nulidad de rango". mathworld.wolfram.com . Consultado el 9 de diciembre de 2019 .
  5. ^ "Copia archivada" (PDF) . Archivado desde el original (PDF) el 29 de agosto de 2017. Consultado el 14 de abril de 2015 .{{cite web}}: CS1 maint: archived copy as title (link)

Bibliografía

Enlaces externos