stringtranslate.com

Sistema de ecuaciones lineales.

Un sistema lineal en tres variables determina un conjunto de planos. El punto de intersección es la solución.

En matemáticas , un sistema de ecuaciones lineales (o sistema lineal ) es una colección de una o más ecuaciones lineales que involucran las mismas variables . [1] Por ejemplo,

es un sistema de tres ecuaciones en las tres variables x , y , z . Una solución a un sistema lineal es una asignación de valores a las variables de modo que todas las ecuaciones se satisfagan simultáneamente. En el ejemplo anterior, una solución viene dada por el triple ordenado ya que hace que las tres ecuaciones sean válidas. La palabra "sistema" indica que las ecuaciones deben considerarse colectivamente y no individualmente.

Los sistemas lineales son la base y parte fundamental del álgebra lineal , materia utilizada en la mayoría de las matemáticas modernas. Los algoritmos computacionales para encontrar soluciones son una parte importante del álgebra lineal numérica y desempeñan un papel destacado en ingeniería , física , química , informática y economía . Un sistema de ecuaciones no lineales a menudo puede aproximarse mediante un sistema lineal (ver linealización ), una técnica útil al realizar un modelo matemático o una simulación por computadora de un sistema relativamente complejo .

Muy a menudo, y en este artículo, los coeficientes de las ecuaciones son números reales o complejos y las soluciones se buscan en el mismo conjunto de números, pero la teoría y los algoritmos aplican para coeficientes y soluciones en cualquier campo . Para soluciones en un dominio integral como el anillo de los números enteros , o en otras estructuras algebraicas , se han desarrollado otras teorías, véase Ecuación lineal sobre un anillo . La programación lineal entera es una colección de métodos para encontrar la "mejor" solución entera (cuando hay muchas). La teoría de bases de Gröbner proporciona algoritmos cuando los coeficientes y las incógnitas son polinomios . La geometría tropical es otro ejemplo de álgebra lineal en una estructura más exótica.

Ejemplos elementales

ejemplo trivial

El sistema de una ecuación en una incógnita.

tiene la solución

Sin embargo, comúnmente se considera que un sistema lineal tiene al menos dos ecuaciones. [ ¿ por quién? ]

Ejemplo simple y no trivial

El tipo más simple de sistema lineal no trivial implica dos ecuaciones y dos variables:

Un método para resolver dicho sistema es el siguiente. Primero, resuelve la ecuación superior en términos de :

Ahora sustituye esta expresión por x en la ecuación inferior:

Esto da como resultado una única ecuación que involucra sólo la variable . Resolver da y sustituirlo nuevamente en la ecuación para obtener rendimientos . Este método se generaliza a sistemas con variables adicionales (consulte "eliminación de variables" a continuación o el artículo sobre álgebra elemental ).

forma general

Un sistema general de m ecuaciones lineales con n incógnitas y coeficientes se puede escribir como

donde están las incógnitas, los coeficientes del sistema y los términos constantes. [2]

A menudo los coeficientes e incógnitas son números reales o complejos , pero también se ven números enteros y racionales , como también polinomios y elementos de una estructura algebraica abstracta .

ecuación vectorial

Una visión extremadamente útil es que cada incógnita es un peso para un vector columna en una combinación lineal .

Esto permite aplicar todo el lenguaje y la teoría de los espacios vectoriales (o más generalmente, los módulos ). Por ejemplo, la colección de todas las combinaciones lineales posibles de los vectores del lado izquierdo se llama intervalo , y las ecuaciones tienen solución justo cuando el vector de la derecha está dentro de ese intervalo. Si cada vector dentro de ese intervalo tiene exactamente una expresión como combinación lineal de los vectores de la izquierda dados, entonces cualquier solución es única. En cualquier caso, el intervalo tiene una base de vectores linealmente independientes que garantizan exactamente una expresión; y el número de vectores en esa base (su dimensión ) no puede ser mayor que m o n , pero puede ser menor. Esto es importante porque si tenemos m vectores independientes, se garantiza una solución independientemente del lado derecho y, de lo contrario, no se garantiza.

Ecuación matricial

La ecuación vectorial es equivalente a una ecuación matricial de la forma

Ade mnxvector de columnanbm[3]

rango

Conjunto de soluciones

El conjunto solución para las ecuaciones xy = −1 y 3 x + y = 9 es el punto único (2, 3).

Una solución de un sistema lineal es una asignación de valores a las variables x 1 , x 2 , ..., x n tales que se satisfaga cada una de las ecuaciones. Al conjunto de todas las soluciones posibles se le llama conjunto solución . [4]

Un sistema lineal puede comportarse de tres maneras posibles:

  1. El sistema tiene infinitas soluciones .
  2. El sistema tiene una solución única .
  3. El sistema no tiene solución .

Interpretación geométrica

Para un sistema que involucra dos variables ( xey ) , cada ecuación lineal determina una línea en el plano xy . Debido a que una solución a un sistema lineal debe satisfacer todas las ecuaciones, el conjunto solución es la intersección de estas líneas y, por lo tanto, es una línea, un solo punto o el conjunto vacío .

Para tres variables, cada ecuación lineal determina un plano en el espacio tridimensional , y el conjunto solución es la intersección de estos planos. Por tanto, el conjunto solución puede ser un plano, una recta, un solo punto o el conjunto vacío. Por ejemplo, como tres planos paralelos no tienen un punto común, el conjunto solución de sus ecuaciones está vacío; el conjunto solución de las ecuaciones de tres planos que se cruzan en un punto es un solo punto; si tres aviones pasan por dos puntos, sus ecuaciones tienen al menos dos soluciones comunes; de hecho el conjunto solución es infinito y consiste en toda la recta que pasa por estos puntos. [5]

Para n variables, cada ecuación lineal determina un hiperplano en un espacio de n dimensiones . El conjunto solución es la intersección de estos hiperplanos y es un plano , que puede tener cualquier dimensión inferior a n .

Comportamiento general

El conjunto solución de dos ecuaciones con tres variables es, en general, una recta.

En general, el comportamiento de un sistema lineal está determinado por la relación entre el número de ecuaciones y el número de incógnitas. Aquí, "en general" significa que puede ocurrir un comportamiento diferente para valores específicos de los coeficientes de las ecuaciones.

En el primer caso, la dimensión del conjunto solución es, en general, igual a nm , donde n es el número de variables ym es el número de ecuaciones.

Las siguientes imágenes ilustran esta tricotomía en el caso de dos variables:

El primer sistema tiene infinitas soluciones, es decir, todos los puntos de la línea azul. El segundo sistema tiene una solución única, es decir, la intersección de las dos líneas. El tercer sistema no tiene soluciones, ya que las tres líneas no comparten ningún punto en común.

Hay que tener en cuenta que las imágenes de arriba muestran sólo el caso más común (el caso general). Es posible que un sistema de dos ecuaciones y dos incógnitas no tenga solución (si las dos rectas son paralelas), o que un sistema de tres ecuaciones y dos incógnitas tenga solución (si las tres rectas se cruzan en un solo punto).

Un sistema de ecuaciones lineales se comporta de manera diferente al caso general si las ecuaciones son linealmente dependientes , o si es inconsistente y no tiene más ecuaciones que incógnitas.

Propiedades

Independencia

Las ecuaciones de un sistema lineal son independientes si ninguna de ellas puede derivarse algebraicamente de las demás. Cuando las ecuaciones son independientes, cada ecuación contiene nueva información sobre las variables y eliminar cualquiera de las ecuaciones aumenta el tamaño del conjunto de soluciones. Para ecuaciones lineales, la independencia lógica es lo mismo que la independencia lineal .

Las ecuaciones x − 2 y = −1 , 3 x + 5 y = 8 y 4 x + 3 y = 7 son linealmente dependientes.

Por ejemplo, las ecuaciones

no son independientes: son la misma ecuación cuando se escalan por un factor de dos y producirían gráficos idénticos. Este es un ejemplo de equivalencia en un sistema de ecuaciones lineales.

Para un ejemplo más complicado, las ecuaciones

no son independientes, porque la tercera ecuación es la suma de las otras dos. De hecho, cualquiera de estas ecuaciones se puede derivar de las otras dos, y cualquiera de las ecuaciones se puede eliminar sin afectar el conjunto de soluciones. Las gráficas de estas ecuaciones son tres rectas que se cruzan en un solo punto.

Consistencia

Las ecuaciones 3 x + 2 y = 6 y 3 x + 2 y = 12 son inconsistentes.

Un sistema lineal es inconsistente si no tiene solución, en caso contrario se dice que es consistente . [6] Cuando el sistema es inconsistente, es posible derivar una contradicción de las ecuaciones, que siempre puede reescribirse como el enunciado 0 = 1 .

Por ejemplo, las ecuaciones

son inconsistentes. De hecho, restando la primera ecuación de la segunda y multiplicando ambos lados del resultado por 1/6, obtenemos 0 = 1 . Las gráficas de estas ecuaciones en el plano xy son un par de rectas paralelas .

Es posible que tres ecuaciones lineales sean inconsistentes, aunque dos de ellas sean consistentes juntas. Por ejemplo, las ecuaciones

son inconsistentes. Sumar las dos primeras ecuaciones da 3 x + 2 y = 2 , que se puede restar de la tercera ecuación para obtener 0 = 1 . Dos de estas ecuaciones tienen una solución común. El mismo fenómeno puede ocurrir para cualquier número de ecuaciones.

En general, se producen inconsistencias si los lados izquierdos de las ecuaciones de un sistema son linealmente dependientes y los términos constantes no satisfacen la relación de dependencia. Un sistema de ecuaciones cuyos lados izquierdos son linealmente independientes es siempre consistente.

Dicho de otra manera, según el teorema de Rouché-Capelli , cualquier sistema de ecuaciones (sobredeterminado o no) es inconsistente si el rango de la matriz aumentada es mayor que el rango de la matriz de coeficientes . Si, por el contrario, los rangos de estas dos matrices son iguales, el sistema debe tener al menos una solución. La solución es única si y sólo si el rango es igual al número de variables. De lo contrario, la solución general tiene k parámetros libres donde k es la diferencia entre el número de variables y el rango; por tanto, en tal caso hay una infinidad de soluciones. El rango de un sistema de ecuaciones (es decir, el rango de la matriz aumentada) nunca puede ser mayor que [el número de variables] + 1, lo que significa que un sistema con cualquier número de ecuaciones siempre se puede reducir a un sistema que tiene un número de ecuaciones independientes que es como máximo igual a [el número de variables] + 1.

Equivalencia

Dos sistemas lineales que utilizan el mismo conjunto de variables son equivalentes si cada una de las ecuaciones del segundo sistema se puede derivar algebraicamente a partir de las ecuaciones del primer sistema, y ​​viceversa. Dos sistemas son equivalentes si ambos son inconsistentes o cada ecuación de cada uno de ellos es una combinación lineal de las ecuaciones del otro. De ello se deduce que dos sistemas lineales son equivalentes si y sólo si tienen el mismo conjunto solución.

Resolver un sistema lineal

Existen varios algoritmos para resolver un sistema de ecuaciones lineales.

Describiendo la solución

Cuando el conjunto solución es finito, se reduce a un solo elemento. En este caso, la solución única se describe mediante una secuencia de ecuaciones cuyos lados izquierdos son los nombres de las incógnitas y los lados derechos son los valores correspondientes, por ejemplo . Cuando se ha fijado un orden de las incógnitas, por ejemplo el orden alfabético, la solución puede describirse como un vector de valores, como en el ejemplo anterior.

Para describir un conjunto con un número infinito de soluciones, normalmente algunas de las variables se designan como libres (o independientes , o como parámetros ), lo que significa que pueden tomar cualquier valor, mientras que las variables restantes dependen de los valores de la solución. variables libres.

Por ejemplo, considere el siguiente sistema:

El conjunto de soluciones de este sistema se puede describir mediante las siguientes ecuaciones:

Aquí z es la variable libre, mientras que xey dependen de z . Cualquier punto del conjunto de soluciones se puede obtener eligiendo primero un valor para z y luego calculando los valores correspondientes para x e y .

Cada variable libre le da al espacio de soluciones un grado de libertad , cuyo número es igual a la dimensión del conjunto de soluciones. Por ejemplo, el conjunto solución para la ecuación anterior es una línea, ya que se puede elegir un punto en el conjunto solución especificando el valor del parámetro z . Una solución infinita de orden superior puede describir un plano o un conjunto de dimensiones superiores.

Diferentes elecciones para las variables libres pueden llevar a diferentes descripciones del mismo conjunto de soluciones. Por ejemplo, la solución a las ecuaciones anteriores se puede describir alternativamente de la siguiente manera:

Aquí x es la variable libre e y y z son dependientes.

Eliminación de variables

El método más sencillo para resolver un sistema de ecuaciones lineales es eliminar variables repetidamente. Este método se puede describir de la siguiente manera:

  1. En la primera ecuación, resuelve una de las variables en términos de las demás.
  2. Sustituye esta expresión en las ecuaciones restantes. Esto produce un sistema de ecuaciones con una ecuación menos y una incógnita.
  3. Repita los pasos 1 y 2 hasta que el sistema se reduzca a una sola ecuación lineal.
  4. Resuelva esta ecuación y luego sustituya hacia atrás hasta encontrar la solución completa.

Por ejemplo, considere el siguiente sistema:

Resolver la primera ecuación para x da x = 5 + 2 z - 3 y , y al conectar esto a la segunda y tercera ecuación se obtiene

Dado que el LHS de ambas ecuaciones es igual a y , igualando el RHS de las ecuaciones. Ahora tenemos:

Sustituir z = 2 en la segunda o tercera ecuación da y = 8, y los valores de y y z en la primera ecuación dan x = −15. Por tanto, el conjunto solución es el triple ordenado .

Reducción de filas

En la reducción de filas (también conocida como eliminación gaussiana ), el sistema lineal se representa como una matriz aumentada [7]

Luego, esta matriz se modifica utilizando operaciones elementales por filas hasta que alcanza la forma escalonada reducida por filas . Hay tres tipos de operaciones elementales con filas: [7]

Tipo 1 : intercambia las posiciones de dos filas.
Tipo 2 : multiplicar una fila por un escalar distinto de cero .
Tipo 3 : Sumar a una fila un múltiplo escalar de otra.

Debido a que estas operaciones son reversibles, la matriz aumentada producida siempre representa un sistema lineal equivalente al original.

Existen varios algoritmos específicos para reducir por filas una matriz aumentada, los más simples de los cuales son la eliminación gaussiana y la eliminación Gauss-Jordan . El siguiente cálculo muestra la eliminación de Gauss-Jordan aplicada a la matriz anterior:

La última matriz está en forma escalonada por filas reducida y representa el sistema x = −15 , y = 8 , z = 2 . Una comparación con el ejemplo de la sección anterior sobre eliminación algebraica de variables muestra que estos dos métodos son, de hecho, iguales; la diferencia radica en cómo se escriben los cálculos.

regla de cramer

La regla de Cramer es una fórmula explícita para la solución de un sistema de ecuaciones lineales, en el que cada variable está dada por un cociente de dos determinantes . [8] Por ejemplo, la solución al sistema.

es dado por

Para cada variable, el denominador es el determinante de la matriz de coeficientes , mientras que el numerador es el determinante de una matriz en la que una columna ha sido reemplazada por el vector de términos constantes.

Aunque la regla de Cramer es importante desde el punto de vista teórico, tiene poco valor práctico para matrices grandes, ya que el cálculo de determinantes grandes es algo engorroso. (De hecho, los determinantes grandes se calculan más fácilmente mediante la reducción de filas). Además, la regla de Cramer tiene propiedades numéricas muy pobres, lo que la hace inadecuada para resolver sistemas incluso pequeños de manera confiable, a menos que las operaciones se realicen en aritmética racional con precisión ilimitada. [ cita necesaria ]

Solución matricial

Si el sistema de ecuaciones se expresa en forma matricial , todo el conjunto de soluciones también se puede expresar en forma matricial. Si la matriz A es cuadrada (tiene m filas y n = m columnas) y tiene rango completo (todas las m filas son independientes), entonces el sistema tiene una solución única dada por

¿ Dónde está la inversa de A ? De manera más general, independientemente de si m = n o no y del rango de A , todas las soluciones (si existe alguna) se dan utilizando la inversa de Moore-Penrose de A , denotada de la siguiente manera:

donde es un vector de parámetros libres que abarca todos los posibles n ×1 vectores. Una condición necesaria y suficiente para que exista cualquier solución es que la solución potencial obtenida usando satisfaga , es decir, que si esta condición no se cumple, el sistema de ecuaciones es inconsistente y no tiene solución. Si la condición se cumple, el sistema es consistente y existe al menos una solución. Por ejemplo, en el caso mencionado anteriormente en el que A es cuadrado y de rango completo, simplemente es igual y la ecuación de solución general se simplifica a

como se indicó anteriormente, donde se ha salido completamente de la solución, dejando solo una solución. Sin embargo, en otros casos, los restos y, por tanto, una infinidad de valores potenciales del vector de parámetros libre dan una infinidad de soluciones de la ecuación.

Otros metodos

Si bien los sistemas de tres o cuatro ecuaciones se pueden resolver fácilmente a mano (ver cracoviano ), a menudo se utilizan computadoras para sistemas más grandes. El algoritmo estándar para resolver un sistema de ecuaciones lineales se basa en la eliminación gaussiana con algunas modificaciones. En primer lugar, es fundamental evitar la división en números pequeños, lo que puede dar lugar a resultados inexactos. Esto se puede hacer reordenando las ecuaciones si es necesario, un proceso conocido como pivote . En segundo lugar, el algoritmo no realiza exactamente la eliminación gaussiana, pero calcula la descomposición LU de la matriz A. Esto es principalmente una herramienta organizacional, pero es mucho más rápido si uno tiene que resolver varios sistemas con la misma matriz A pero diferentes vectores b .

Si la matriz A tiene alguna estructura especial, esto se puede aprovechar para obtener algoritmos más rápidos o precisos. Por ejemplo, los sistemas con una matriz definida positiva simétrica se pueden resolver dos veces más rápido con la descomposición de Cholesky . La recursividad de Levinson es un método rápido para matrices de Toeplitz . También existen métodos especiales para matrices con muchos elementos cero (las llamadas matrices dispersas ), que aparecen con frecuencia en las aplicaciones.

A menudo se adopta un enfoque completamente diferente para sistemas muy grandes, que de otro modo consumirían demasiado tiempo o memoria. La idea es comenzar con una aproximación inicial a la solución (que no tiene por qué ser exacta en absoluto) y cambiar esta aproximación en varios pasos para acercarla a la solución verdadera. Una vez que la aproximación es suficientemente precisa, se considera que es la solución del sistema. Esto lleva a la clase de métodos iterativos . Para algunas matrices dispersas, la introducción de la aleatoriedad mejora la velocidad de los métodos iterativos. [9] Un ejemplo de método iterativo es el método de Jacobi , donde la matriz se divide en su componente diagonal y su componente no diagonal . Se utiliza una suposición inicial al inicio del algoritmo. Cada suposición posterior se calcula utilizando la ecuación iterativa:

Cuando la diferencia entre las conjeturas y es suficientemente pequeña, se dice que el algoritmo ha convergido en la solución. [10]

También existe un algoritmo cuántico para sistemas lineales de ecuaciones . [11]

Sistemas homogéneos

Un sistema de ecuaciones lineales es homogéneo si todos los términos constantes son cero:

Un sistema homogéneo es equivalente a una ecuación matricial de la forma

donde A es una matriz m × n , x es un vector columna con n entradas y 0 es el vector cero con m entradas.

Conjunto de solución homogénea

Todo sistema homogéneo tiene al menos una solución, conocida como solución cero (o trivial ), que se obtiene asignando el valor de cero a cada una de las variables. Si el sistema tiene una matriz no singular ( det( A ) ≠ 0 ), entonces también es la única solución. Si el sistema tiene una matriz singular entonces hay un conjunto solución con un número infinito de soluciones. Este conjunto de soluciones tiene las siguientes propiedades adicionales:

  1. Si u y v son dos vectores que representan soluciones de un sistema homogéneo, entonces la suma vectorial u + v también es una solución del sistema.
  2. Si u es un vector que representa una solución de un sistema homogéneo y r es cualquier escalar , entonces r u también es una solución del sistema.

Estas son exactamente las propiedades requeridas para que el conjunto solución sea un subespacio lineal de R n . En particular, la solución establecida para un sistema homogéneo es la misma que el espacio nulo de la matriz A correspondiente .

Relación con sistemas no homogéneos

Existe una estrecha relación entre las soluciones de un sistema lineal y las soluciones del sistema homogéneo correspondiente:

Específicamente, si p es cualquier solución específica del sistema lineal A x = b , entonces el conjunto completo de soluciones se puede describir como

Geométricamente, esto dice que el conjunto solución para A x = b es una traducción del conjunto solución para A x = 0 . Específicamente, el plano para el primer sistema se puede obtener traduciendo el subespacio lineal del sistema homogéneo por el vector p .

Este razonamiento sólo se aplica si el sistema A x = b tiene al menos una solución. Esto ocurre si y sólo si el vector b se encuentra en la imagen de la transformación lineal A.

Ver también

Referencias

  1. ^ Antón (1987), pág. 2; Carga y ferias (1993), pág. 324; Préstamo Golub y Van (1996), pág. 87; Harper (1976), pág. 57.
  2. ^ Beauregard y Fraleigh (1973), pág. sesenta y cinco.
  3. ^ Beauregard y Fraleigh (1973), págs. 65–66.
  4. ^ "Sistemas de ecuaciones lineales" (PDF) . math.berkeley.edu .
  5. ^ Cullen (1990), pág. 3.
  6. ^ Whitelaw (1991), pág. 70.
  7. ^ ab Beauregard y Fraleigh (1973), pág. 68.
  8. ^ Libra esterlina (2009), pág. 235.
  9. ^ Hartnett, Kevin (8 de marzo de 2021). "Nuevo algoritmo rompe el límite de velocidad para resolver ecuaciones lineales". Revista Quanta . Consultado el 9 de marzo de 2021 .
  10. ^ "Método Jacobi".
  11. ^ Harrow, Hassidim y Lloyd (2009).

Bibliografía

Otras lecturas

enlaces externos