stringtranslate.com

Determinante

En matemáticas , el determinante es un valor escalar que es una función determinada de las entradas de una matriz cuadrada . El determinante de una matriz A comúnmente se denota como det( A ) , det A o | Un | . Su valor caracteriza algunas propiedades de la matriz y de la aplicación lineal representada, sobre una base dada , por la matriz. En particular, el determinante es distinto de cero si y sólo si la matriz es invertible y el mapa lineal correspondiente es un isomorfismo . El determinante de un producto de matrices es el producto de sus determinantes.

El determinante de una matriz de 2 × 2 es

y el determinante de una matriz de 3 × 3 es

El determinante de una matriz n × n se puede definir de varias formas equivalentes, siendo la más común la fórmula de Leibniz , que expresa el determinante como una suma de (el factorial de n ) productos con signo de entradas matriciales. Puede calcularse mediante la expansión de Laplace , que expresa el determinante como una combinación lineal de determinantes de submatrices, o con eliminación gaussiana , que expresa el determinante como el producto de las entradas diagonales de una matriz diagonal que se obtiene mediante una sucesión de elementos elementales. operaciones de fila .

Los determinantes también pueden definirse por algunas de sus propiedades. Es decir, el determinante es la función única definida en las matrices n × n que tiene las cuatro propiedades siguientes:

  1. El determinante de la matriz identidad es 1 .
  2. El intercambio de dos filas multiplica el determinante por −1 .
  3. Multiplicar una fila por un número multiplica el determinante por este número.
  4. Sumar a una fila un múltiplo de otra fila no cambia el determinante.

Las propiedades anteriores relacionadas con las filas (propiedades 2 a 4) pueden reemplazarse por las declaraciones correspondientes con respecto a las columnas.

El determinante de una matriz cuadrada también se puede definir directamente en términos del endomorfismo lineal asociado representado por la matriz. Debido a que el determinante es invariante bajo una transformación de similitud de matrices, en realidad sólo depende de la transformación lineal y, en principio, puede definirse de una manera completamente "libre de coordenadas", es decir, sin utilizar ninguna elección de representación matricial.

Los determinantes ocurren en todas las matemáticas. Por ejemplo, a menudo se utiliza una matriz para representar los coeficientes en un sistema de ecuaciones lineales , y se pueden utilizar determinantes para resolver estas ecuaciones ( regla de Cramer ), aunque otros métodos de solución son computacionalmente mucho más eficientes. Los determinantes se utilizan para definir el polinomio característico de una matriz cuadrada, cuyas raíces son los valores propios . En geometría , el volumen de n dimensiones con signo de un paralelepípedo de n dimensiones se expresa mediante un determinante, y el determinante de un endomorfismo lineal determina cómo la orientación y el volumen de n dimensiones se transforman bajo el endomorfismo. Esto se utiliza en cálculo con formas diferenciales exteriores y el determinante jacobiano , en particular para cambios de variables en integrales múltiples .

Matrices de dos por dos

El determinante de una matriz de 2 × 2 se denota por " det " o por barras verticales alrededor de la matriz y se define como

Por ejemplo,

Primeras propiedades

El determinante tiene varias propiedades clave que pueden demostrarse mediante una evaluación directa de las matrices de definición y que continúan siendo válidas para determinantes de matrices más grandes. Son los siguientes: [1] primero, el determinante de la matriz identidad es 1. Segundo, el determinante es cero si dos filas son iguales:

Esto se aplica de manera similar si las dos columnas son iguales. Además,

Finalmente, si cualquier columna se multiplica por algún número (es decir, todas las entradas de esa columna se multiplican por ese número), el determinante también se multiplica por ese número:

Significado geométrico

El área del paralelogramo es el valor absoluto del determinante de la matriz formada por los vectores que representan los lados del paralelogramo.

Si las entradas de la matriz son números reales, la matriz A se puede utilizar para representar dos aplicaciones lineales : una que asigna los vectores de base estándar a las filas de A y otra que los asigna a las columnas de A. En cualquier caso, las imágenes de los vectores base forman un paralelogramo que representa la imagen del cuadrado unitario bajo el mapeo. El paralelogramo definido por las filas de la matriz anterior es el que tiene vértices en (0, 0) , ( a , b ) , ( a + c , b + d ) y ( c , d ) , como se muestra en el gráfico adjunto. diagrama.

El valor absoluto de adbc es el área del paralelogramo y, por tanto, representa el factor de escala mediante el cual A transforma las áreas . (El paralelogramo formado por las columnas de A es en general un paralelogramo diferente, pero como el determinante es simétrico respecto de filas y columnas, el área será la misma.)

El valor absoluto del determinante junto con el signo se convierte en el área orientada del paralelogramo. El área orientada es la misma que el área habitual , excepto que es negativa cuando el ángulo entre el primer y el segundo vector que define el paralelogramo gira en el sentido de las agujas del reloj (que es opuesto a la dirección que se obtendría para la matriz identidad ).

Para demostrar que adbc es el área con signo, se puede considerar una matriz que contiene dos vectores u ≡ ( a , b ) y v ≡ ( c , d ) que representan los lados del paralelogramo. El área firmada se puede expresar como | tu | | v | sen θ para el ángulo θ entre los vectores, que es simplemente base por altura, la longitud de un vector por la componente perpendicular del otro. Debido al seno, esta ya es el área con signo, pero se puede expresar más convenientemente usando el coseno del ángulo complementario a un vector perpendicular, por ejemplo, u = (− b , a ) , de modo que | tu | | v | cos θ′ se convierte en el área con signo en cuestión, que puede determinarse mediante el patrón del producto escalar para que sea igual a adbc de acuerdo con las siguientes ecuaciones:

El volumen de este paralelepípedo es el valor absoluto del determinante de la matriz formada por las columnas construidas a partir de los vectores r1, r2 y r3.

Así , el determinante da el factor de escala y la orientación inducida por el mapeo representado por A. Cuando el determinante es igual a uno, la aplicación lineal definida por la matriz es equi-área y conserva la orientación.

El objeto conocido como bivector está relacionado con estas ideas. En 2D, se puede interpretar como un segmento plano orientado formado imaginando dos vectores cada uno con origen (0, 0) y coordenadas ( a , b ) y ( c , d ) . La magnitud bivectorial (denotada por ( a , b ) ∧ ( c , d ) ) es el área con signo , que también es el determinante adbc . [2]

Si una matriz real A de n × n se escribe en términos de sus vectores columna , entonces

Esto significa que asigna la unidad n -cubo al paralelotopo n -dimensional definido por los vectores de la región

El determinante da el volumen n -dimensional con signo de este paralelótopo y, por lo tanto , describe de manera más general el factor de escala de volumen n -dimensional de la transformación lineal producida por A. [3] (El signo muestra si la transformación conserva o invierte la orientación .) En particular, si el determinante es cero, entonces este paralelotopo tiene volumen cero y no es completamente n -dimensional, lo que indica que la dimensión de la imagen de A es menos que n . Esto significa que A produce una transformación lineal que no es ni sobreni ni uno a uno , por lo que no es invertible.

Definición

Sea A una matriz cuadrada con n filas y n columnas, de modo que pueda escribirse como

Las entradas , etc. son, para muchos propósitos, números reales o complejos. Como se analiza a continuación, el determinante también se define para matrices cuyas entradas están en un anillo conmutativo .

El determinante de A se denota por det( A ), o se puede denotar directamente en términos de las entradas de la matriz escribiendo barras adjuntas en lugar de corchetes:

Hay varias formas equivalentes de definir el determinante de una matriz cuadrada A , es decir, una que tiene el mismo número de filas y columnas: el determinante se puede definir mediante la fórmula de Leibniz , una fórmula explícita que implica sumas de productos de determinadas entradas de la matriz. El determinante también se puede caracterizar como la función única dependiendo de las entradas de la matriz que satisfacen ciertas propiedades. Este enfoque también se puede utilizar para calcular determinantes simplificando las matrices en cuestión.

Fórmula de Leibniz

matrices 3 × 3

La fórmula de Leibniz para el determinante de una matriz de 3 × 3 es la siguiente:

En esta expresión, cada término tiene un factor de cada fila, todos en columnas diferentes, organizados en orden creciente de filas. Por ejemplo, bdi tiene b de la primera columna de la primera fila, d de la primera columna de la segunda fila e i de la tercera columna de la tercera fila. Los signos están determinados por cuántas transposiciones de factores son necesarias para ordenar los factores en orden creciente de sus columnas (dado que los términos están ordenados de izquierda a derecha en orden creciente de filas): positivo para un número par de transposiciones y negativo para un número impar. Para el ejemplo de bdi , la transposición única de bd a db da dbi, cuyos tres factores son de la primera, segunda y tercera columnas respectivamente; este es un número impar de transposiciones, por lo que el término aparece con signo negativo.

Regla de Sarrus

La regla de Sarrus es una mnemónica para la forma ampliada de este determinante: la suma de los productos de tres líneas diagonales de noroeste a sureste de elementos matriciales, menos la suma de los productos de tres líneas diagonales de suroeste a noroeste. líneas orientales de elementos, cuando las copias de las dos primeras columnas de la matriz están escritas al lado como en la ilustración. Este esquema para calcular el determinante de una matriz de 3 × 3 no se aplica a dimensiones superiores.

matrices n × n

Generalizando lo anterior a dimensiones superiores, el determinante de una matriz es una expresión que involucra permutaciones y sus firmas . Una permutación del conjunto es una función biyectiva de este conjunto a sí mismo, con valores que agotan todo el conjunto. El conjunto de todas estas permutaciones, denominado grupo simétrico , se denomina comúnmente . La firma de una permutación es si la permutación puede obtenerse con un número par de transposiciones (intercambios de dos entradas); de lo contrario, es

Dada una matriz

la fórmula de Leibniz para su determinante es, usando notación sigma para la suma,

Usando la notación pi para el producto, esto se puede acortar a

.

El símbolo de Levi-Civita se define en las n - tuplas de números enteros como 0 si dos de los números enteros son iguales, y en caso contrario como la firma de la permutación definida por la n - tupla de números enteros. Con el símbolo de Levi-Civita, la fórmula de Leibniz se convierte en

donde la suma se toma de todas las n -tuplas de números enteros en [4] [5]

Propiedades del determinante

Caracterización del determinante.

El determinante se puede caracterizar por las siguientes tres propiedades clave. Para expresar esto, es conveniente considerar una matriz A como compuesta de sus columnas, denotadas así como

donde el vector de columna (para cada i ) se compone de las entradas de la matriz en la i -ésima columna.

  1. , donde es una matriz identidad .
  2. El determinante es multilineal : si la j -ésima columna de una matriz se escribe como una combinación lineal de dos vectores columna v y w y un número r , entonces el determinante de A se puede expresar como una combinación lineal similar:
  3. El determinante es alterno : siempre que dos columnas de una matriz son idénticas, su determinante es 0:

Si el determinante se define utilizando la fórmula de Leibniz como se indicó anteriormente, estas tres propiedades se pueden probar mediante una inspección directa de esa fórmula. Algunos autores también abordan el determinante directamente utilizando estas tres propiedades: se puede demostrar que hay exactamente una función que asigna a cualquier matriz A un número que satisface estas tres propiedades. [6] Esto también muestra que este enfoque más abstracto del determinante produce la misma definición que el que utiliza la fórmula de Leibniz.

Para ver esto, basta con expandir el determinante por multilinealidad en las columnas en una (enorme) combinación lineal de determinantes de matrices en la que cada columna es un vector de base estándar . Estos determinantes son 0 (por la propiedad 9) o ±1 (por las propiedades 1 y 12 siguientes), por lo que la combinación lineal da la expresión anterior en términos del símbolo de Levi-Civita. Aunque menos técnica en apariencia, esta caracterización no puede reemplazar completamente la fórmula de Leibniz al definir el determinante, ya que sin ella no está clara la existencia de una función apropiada. [ cita necesaria ]

Consecuencias inmediatas

Estas reglas tienen varias consecuencias adicionales:

Ejemplo

Estas propiedades caracterizantes y sus consecuencias enumeradas anteriormente son teóricamente significativas, pero también pueden usarse para calcular determinantes para matrices concretas. De hecho, la eliminación gaussiana se puede aplicar para llevar cualquier matriz a la forma triangular superior, y los pasos de este algoritmo afectan al determinante de forma controlada. El siguiente ejemplo concreto ilustra el cálculo del determinante de la matriz utilizando ese método:

Combinando estas igualdades se obtiene

Transponer

El determinante de la transpuesta de es igual al determinante de A :

.

Esto se puede comprobar examinando la fórmula de Leibniz. [7] Esto implica que en todas las propiedades mencionadas anteriormente, la palabra "columna" puede ser reemplazada por "fila" en todas partes. Por ejemplo, al considerar una matriz n × n compuesta de n filas, el determinante es una función n -lineal.

Multiplicatividad y grupos matriciales.

El determinante es una aplicación multiplicativa , es decir, para matrices cuadradas y de igual tamaño, el determinante de un producto matricial es igual al producto de sus determinantes:

Este hecho clave se puede probar observando que, para una matriz fija , ambos lados de la ecuación son alternos y multilineales como función dependiendo de las columnas de . Además, ambos toman el valor cuando es la matriz identidad. Por lo tanto, la caracterización única mencionada anteriormente de mapas multilineales alternos demuestra esta afirmación. [8]

Una matriz con entradas en un campo es invertible precisamente si su determinante es distinto de cero. Esto se desprende de la multiplicatividad del determinante y la fórmula de la inversa que involucra la matriz adjunta que se menciona a continuación. En este caso, el determinante de la matriz inversa viene dado por

.

En particular, los productos y las inversas de matrices con determinante distinto de cero (respectivamente, determinante uno) todavía tienen esta propiedad. Así, el conjunto de tales matrices (de tamaño fijo sobre un campo ) forma un grupo conocido como grupo lineal general (respectivamente, un subgrupo llamado grupo lineal especial . De manera más general, la palabra "especial" indica el subgrupo de otro grupo de matrices de matrices del determinante uno. Los ejemplos incluyen el grupo ortogonal especial (que si n es 2 o 3 consta de todas las matrices de rotación ) y el grupo unitario especial .

Debido a que el determinante respeta la multiplicación y las inversas, de hecho es un homomorfismo de grupo desde el grupo multiplicativo de elementos distintos de cero de . Este homomorfismo es sobreyectivo y su núcleo es (las matrices con determinante uno). Por lo tanto, según el primer teorema del isomorfismo , esto muestra que es un subgrupo normal de y que el grupo cociente es isomorfo a .

La fórmula de Cauchy-Binet es una generalización de la fórmula del producto para matrices rectangulares . Esta fórmula también se puede reformular como una fórmula multiplicativa para matrices compuestas cuyas entradas son los determinantes de todas las submatrices cuadráticas de una matriz determinada. [9] [10]

Expansión de Laplace

La expansión de Laplace expresa el determinante de una matriz de forma recursiva en términos de determinantes de matrices más pequeñas, conocidas como sus menores . El menor se define como el determinante de la matriz que resulta de eliminar la -ésima fila y la -ésima columna. La expresión se conoce como cofactor . Para cada uno se tiene la igualdad

que se llama expansión de Laplace a lo largo de la i- ésima fila . Por ejemplo, la expansión de Laplace a lo largo de la primera fila ( ) da la siguiente fórmula:

Al desenredar los determinantes de estas matrices se devuelve la fórmula de Leibniz mencionada anteriormente. De manera similar, la expansión de Laplace a lo largo de la -ésima columna es la igualdad

La expansión de Laplace se puede utilizar de forma iterativa para calcular determinantes, pero este enfoque es ineficiente para matrices grandes. Sin embargo, es útil para calcular los determinantes de matrices altamente simétricas como la matriz de Vandermonde.

ngeneralizarnntérminossubmatriz kkn−kn − k

Matriz adjunta

La matriz adjunta es la transpuesta de la matriz de los cofactores, es decir,

Para cada matriz, se tiene [11]

Por tanto, la matriz conjugada se puede utilizar para expresar la inversa de una matriz no singular :

matrices de bloques

La fórmula anterior para el determinante de una matriz sigue siendo válida, bajo supuestos adicionales apropiados, para una matriz de bloques , es decir , una matriz compuesta por cuatro submatrices de dimensión , y , respectivamente. La fórmula más sencilla, que puede demostrarse utilizando la fórmula de Leibniz o una factorización que incluya el complemento de Schur , es

Si es invertible , entonces se deduce con los resultados de la sección sobre multiplicatividad que

que se simplifica cuando es una matriz.

Un resultado similar se cumple cuando es invertible, es decir

Ambos resultados se pueden combinar para derivar el teorema del determinante de Sylvester , que también se establece a continuación.

Si los bloques son matrices cuadradas del mismo tamaño, se cumplen más fórmulas. Por ejemplo, si y conmutan (es decir, ), entonces [12]

Esta fórmula se ha generalizado a matrices compuestas por más de bloques, nuevamente bajo condiciones de conmutatividad apropiadas entre los bloques individuales. [13]

Para y , la siguiente fórmula es válida (incluso si y no conmutan) [ cita necesaria ]

Teorema determinante de Sylvester

El teorema del determinante de Sylvester establece que para A , una matriz m × n , y B , una matriz n × m (de modo que A y B tienen dimensiones que les permiten multiplicarse en cualquier orden formando una matriz cuadrada):

donde I m e I n son las matrices identidad m × m y n × n , respectivamente.

De este resultado general se derivan varias consecuencias.

  1. Para el caso del vector columna c y el vector fila r , cada uno con m componentes, la fórmula permite calcular rápidamente el determinante de una matriz que difiere de la matriz identidad por una matriz de rango 1:
  2. De manera más general, [14] para cualquier matriz X m × m invertible ,
  3. Para un vector de columna y fila como el anterior:
  4. Para matrices cuadradas y del mismo tamaño, las matrices y tienen los mismos polinomios característicos (por lo tanto, los mismos valores propios).

Suma

El determinante de la suma de dos matrices cuadradas del mismo tamaño no es en general expresable en términos de los determinantes de A y de B. Sin embargo, para matrices semidefinidas positivas y de igual tamaño,

[15] [16]
hermitianosth cóncava; [17]

Identidad de suma para matrices 2 × 2

Para el caso especial de matrices con entradas complejas, el determinante de la suma se puede escribir en términos de determinantes y trazas en la siguiente identidad:

Prueba de identidad

Esto se puede demostrar escribiendo cada término en componentes . El lado izquierdo es

Ampliar da

Los términos que son cuadráticos en se ven como , y de manera similar para , por lo que la expresión se puede escribir

Luego podemos escribir los términos cruzados como

que se puede reconocer como

lo que completa la prueba.

Esto tiene una aplicación a las álgebras matriciales. Por ejemplo, considere los números complejos como un álgebra matricial. Los números complejos tienen una representación como matrices de la forma

Este resultado se produjo justo entre y .

Propiedades del determinante en relación con otras nociones

Valores propios y polinomio característico.

El determinante está estrechamente relacionado con otros dos conceptos centrales del álgebra lineal, los valores propios y el polinomio característico de una matriz. Sea una matriz con entradas complejas . Entonces, según el Teorema Fundamental del Álgebra, debe tener exactamente n valores propios . (Aquí se entiende que un valor propio con multiplicidad algebraica μ aparece μ veces en esta lista). Entonces, resulta que el determinante de A es igual al producto de estos valores propios,

El producto de todos los valores propios distintos de cero se denomina pseudodeterminante .

A partir de esto, se ve inmediatamente que el determinante de una matriz es cero si y sólo si es un valor propio de . En otras palabras, es invertible si y sólo si no es un valor propio de .

El polinomio característico se define como [18]

Aquí, es el indeterminado del polinomio y es la matriz identidad del mismo tamaño que . Mediante este polinomio, se pueden utilizar determinantes para encontrar los valores propios de la matriz : son precisamente las raíces de este polinomio, es decir, aquellos números complejos tales que

Una matriz hermitiana es definida positiva si todos sus valores propios son positivos. El criterio de Sylvester afirma que esto es equivalente a los determinantes de las submatrices

siendo positivo, para todos entre y . [19]

Rastro

La traza tr( A ) es por definición la suma de las entradas diagonales de A y también es igual a la suma de los valores propios. Por lo tanto, para matrices complejas A ,

o, para matrices reales A ,

Aquí exp( A ) denota la matriz exponencial de A , porque cada valor propio λ de A corresponde al valor propio exp( λ ) de exp( A ). En particular, dado cualquier logaritmo de A , es decir, cualquier matriz L que satisfaga

el determinante de A viene dado por

Por ejemplo, para n = 2 , n = 3 y n = 4 , respectivamente,

cf. Teorema de Cayley-Hamilton . Tales expresiones son deducibles de argumentos combinatorios, las identidades de Newton o el algoritmo de Faddeev-LeVerrier . Es decir, para n genérico , det A = (−1) n c 0 el término constante con signo del polinomio característico , determinado recursivamente a partir de

En el caso general, esto también se puede obtener de [20]

donde la suma se toma sobre el conjunto de todos los números enteros k l ≥ 0 que satisfacen la ecuación

¡La fórmula se puede expresar en términos del polinomio exponencial completo de Bell de n argumentos s l = −( l – 1)! tr ( Al ) como

Esta fórmula también se puede utilizar para encontrar el determinante de una matriz A I J con índices multidimensionales I = ( i 1 , i 2 , ..., i r ) y J = ( j 1 , j 2 , ..., j r ) . El producto y la traza de tales matrices se definen de forma natural como

Se puede obtener una importante dimensión arbitraria n identidad a partir de la expansión en serie de Mercator del logaritmo cuando la expansión converge. Si cada valor propio de A es menor que 1 en valor absoluto,

donde I es la matriz identidad. De manera más general, si

se expande como una serie de potencias formal en s, entonces todos los coeficientes de s m para m > n son cero y el polinomio restante es det ( I + sA ) .

Límites superior e inferior

Para una matriz definida positiva A , el operador de traza proporciona los siguientes límites inferiores y superiores ajustados en el determinante logarítmico

con igualdad si y sólo si A = I . Esta relación se puede derivar mediante la fórmula para la divergencia de Kullback-Leibler entre dos distribuciones normales multivariadas .

También,

Estas desigualdades se pueden demostrar expresando las trazas y el determinante en términos de valores propios. Como tales, representan el hecho bien conocido de que la media armónica es menor que la media geométrica , que es menor que la media aritmética , que es, a su vez, menor que la media cuadrática .

Derivado

La fórmula de Leibniz muestra que el determinante de matrices cuadradas reales (o análogas a las complejas) es una función polinómica de a . En particular, es diferenciable en todas partes . Su derivada se puede expresar utilizando la fórmula de Jacobi : [21]

donde denota el conjugado de . En particular, si es invertible, tenemos

Expresados ​​en términos de las entradas de , estos son

Otra formulación equivalente es

,

usando notación O grande . El caso especial donde , la matriz identidad, produce

Esta identidad se utiliza para describir álgebras de Lie asociadas a ciertos grupos matriciales de Lie . Por ejemplo, el grupo lineal especial está definido por la ecuación . La fórmula anterior muestra que su álgebra de Lie es el álgebra de Lie lineal especial que consta de aquellas matrices que tienen traza cero.

Escribiendo una matriz como donde están los vectores columna de longitud 3, entonces el gradiente sobre uno de los tres vectores puede escribirse como el producto cruzado de los otros dos:

Historia

Históricamente, los determinantes se utilizaron mucho antes que las matrices: un determinante se definió originalmente como una propiedad de un sistema de ecuaciones lineales . El determinante "determina" si el sistema tiene una solución única (lo que ocurre precisamente si el determinante es distinto de cero). En este sentido, los determinantes se utilizaron por primera vez en el libro de texto de matemáticas chino Los nueve capítulos sobre el arte matemático (九章算術, eruditos chinos, alrededor del siglo III a. C.). En Europa, Cardano expresó las soluciones de sistemas lineales de dos ecuaciones en 1545 mediante una entidad similar a un determinante. [22]

Los determinantes propiamente dichos se originaron por separado del trabajo de Seki Takakazu en 1683 en Japón y paralelamente de Leibniz en 1693. [23] [24] [25] [26] Cramer (1750) estableció, sin pruebas, la regla de Cramer. [27] Tanto Cramer como Bezout (1779) llegaron a los determinantes por la cuestión de las curvas planas que pasan por un conjunto dado de puntos. [28]

Vandermonde (1771) fue el primero en reconocer los determinantes como funciones independientes. [24] Laplace (1772) dio el método general de expandir un determinante en términos de sus menores complementarios : Vandermonde ya había dado un caso especial. [29] Inmediatamente después, Lagrange (1773) trató los determinantes de segundo y tercer orden y los aplicó a cuestiones de teoría de la eliminación ; demostró muchos casos especiales de identidades generales.

Gauss (1801) hizo el siguiente avance. Al igual que Lagrange, hizo mucho uso de los determinantes en la teoría de números . Introdujo la palabra "determinante" (Laplace había usado "resultante"), aunque no en el significado actual, sino aplicada al discriminante de un cuántico . [30] Gauss también llegó a la noción de determinantes recíprocos (inversos) y se acercó mucho al teorema de la multiplicación. [ se necesita aclaración ]

El siguiente contribuyente importante es Binet (1811, 1812), quien planteó formalmente el teorema relativo al producto de dos matrices de m columnas yn filas, que para el caso especial de m = n se reduce al teorema de la multiplicación. El mismo día (30 de noviembre de 1812) en que Binet presentó su artículo a la Academia, Cauchy también presentó uno sobre el tema. (Ver fórmula de Cauchy-Binet .) En esto usó la palabra "determinante" en su sentido actual, [31] [32] resumió y simplificó lo que entonces se sabía sobre el tema, mejoró la notación y dio el teorema de la multiplicación con una prueba más satisfactoria que la de Binet. [24] [33] Con él comienza la teoría en su generalidad.

Jacobi (1841) utilizó el determinante funcional que Sylvester más tarde llamó jacobiano . [34] En sus memorias en Crelle's Journal de 1841 trata especialmente este tema, así como la clase de funciones alternas que Sylvester ha llamado alternantes . Aproximadamente en la época de las últimas memorias de Jacobi, Sylvester (1839) y Cayley comenzaron su trabajo. Cayley 1841 introdujo la notación moderna para el determinante mediante barras verticales. [35] [36]

El estudio de formas especiales de determinantes ha sido el resultado natural de la finalización de la teoría general. Lebesgue , Hesse y Sylvester han estudiado los determinantes axisimétricos ; determinantes persimétricos de Sylvester y Hankel ; circulantes de Catalan , Spottiswoode , Glaisher y Scott; Determinantes sesgados y Pfaffianos , en relación con la teoría de la transformación ortogonal , de Cayley; continuantes de Sylvester; Wronskianos (así llamados por Muir ) por Christoffel y Frobenius ; determinantes compuestos de Sylvester, Reiss y Picquet; Jacobianos y hessianos de Sylvester; y determinantes gauche simétricos de Trudi . De los libros de texto sobre el tema, el de Spottiswoode fue el primero. En Estados Unidos, Hanus (1886), Weld (1893) y Muir/Metzler (1933) publicaron tratados.

Aplicaciones

regla de cramer

Los determinantes se pueden utilizar para describir las soluciones de un sistema lineal de ecuaciones , escrito en forma matricial como . Esta ecuación tiene solución única si y sólo si es distinta de cero. En este caso la solución viene dada por la regla de Cramer :

¿Dónde está la matriz formada al reemplazar la -ésima columna de por el vector columna ? A esto le sigue inmediatamente la expansión de columnas del determinante, es decir

donde los vectores son las columnas de A . La regla también está implícita en la identidad.

La regla de Cramer se puede implementar en el tiempo, lo que es comparable a métodos más comunes para resolver sistemas de ecuaciones lineales, como LU , QR o descomposición en valores singulares . [37]

Independencia lineal

Se pueden utilizar determinantes para caracterizar vectores linealmente dependientes : es cero si y sólo si los vectores columna (o, equivalentemente, los vectores fila) de la matriz son linealmente dependientes. [38] Por ejemplo, dados dos vectores linealmente independientes , un tercer vector se encuentra en el plano abarcado por los dos vectores anteriores exactamente si el determinante de la matriz que consta de los tres vectores es cero. La misma idea también se utiliza en la teoría de ecuaciones diferenciales : funciones dadas (que se supone que son multiplicadas por diferenciables ), el Wronskiano se define como

Es distinto de cero (para algunos ) en un intervalo específico si y solo si las funciones dadas y todas sus derivadas hasta el orden son linealmente independientes. Si se puede demostrar que el Wronskiano es cero en todas partes de un intervalo, entonces, en el caso de funciones analíticas , esto implica que las funciones dadas son linealmente dependientes. Véase la independencia wronskiana y lineal . Otro uso del determinante es la resultante , que da un criterio cuando dos polinomios tienen una raíz común . [39]

Orientación de una base

Se puede considerar que el determinante asigna un número a cada secuencia de n vectores en R n , utilizando la matriz cuadrada cuyas columnas son los vectores dados. El determinante será distinto de cero si y sólo si la secuencia de vectores es una base para R n . En ese caso, el signo del determinante determina si la orientación de la base es consistente o opuesta a la orientación de la base estándar . En el caso de una base ortogonal, la magnitud del determinante es igual al producto de las longitudes de los vectores de base. Por ejemplo, una matriz ortogonal con entradas en R n representa una base ortonormal en el espacio euclidiano y, por tanto, tiene un determinante de ±1 (ya que todos los vectores tienen longitud 1). El determinante es +1 si y sólo si la base tiene la misma orientación. Es −1 si y sólo si la base tiene la orientación opuesta.

De manera más general, si el determinante de A es positivo, A representa una transformación lineal que conserva la orientación (si A es una matriz ortogonal de 2 × 2 o 3 × 3 , esto es una rotación ), mientras que si es negativo, A cambia la orientación. de la base.

Volumen y determinante jacobiano

Como se señaló anteriormente, el valor absoluto del determinante de los vectores reales es igual al volumen del paralelepípedo abarcado por esos vectores. Como consecuencia, si el mapa lineal está dado por la multiplicación con una matriz y es cualquier subconjunto medible , entonces el volumen de está dado por multiplicado por el volumen de . [40] De manera más general , si el mapa lineal está representado por la matriz , entonces el volumen dimensional de está dado por:

Al calcular el volumen del tetraedro delimitado por cuatro puntos, se pueden utilizar para identificar líneas oblicuas . El volumen de cualquier tetraedro, dados sus vértices , o cualquier otra combinación de pares de vértices que formen un árbol generador sobre los vértices.

Un mapa no lineal envía un pequeño cuadrado (izquierda, en rojo) a un paralelogramo distorsionado (derecha, en rojo). El jacobiano en un punto da la mejor aproximación lineal del paralelogramo distorsionado cerca de ese punto (derecha, en blanco translúcido), y el determinante jacobiano da la relación entre el área del paralelogramo aproximado y la del cuadrado original.

Para una función derivable general , gran parte de lo anterior se aplica al considerar la matriz jacobiana de f . Para

la matriz jacobiana es la matriz n × n cuyas entradas están dadas por las derivadas parciales

Su determinante, el determinante jacobiano , aparece en la versión de dimensión superior de la integración por sustitución : para funciones adecuadas f y un subconjunto abierto U de R n (el dominio de f ), la integral sobre f ( U ) de alguna otra función φ  : R nR m viene dado por

El jacobiano también ocurre en el teorema de la función inversa .

Cuando se aplica al campo de la Cartografía , el determinante puede usarse para medir la tasa de expansión de un mapa cerca de los polos. [41]

Aspectos algebraicos abstractos

Determinante de un endomorfismo

Las identidades anteriores relativas al determinante de productos e inversas de matrices implican que matrices similares tienen el mismo determinante: dos matrices A y B son similares, si existe una matriz invertible X tal que A = X −1 BX . De hecho, la aplicación repetida de las identidades anteriores produce

Por lo tanto, el determinante también se denomina invariante de similitud . El determinante de una transformación lineal.

para algún espacio vectorial de dimensión finita, V se define como el determinante de la matriz que lo describe, con respecto a una elección arbitraria de base en V. Por la invariancia de similitud, este determinante es independiente de la elección de la base para V y por lo tanto sólo depende del endomorfismo T.

Matrices cuadradas sobre anillos conmutativos

La definición anterior del determinante usando la regla de Leibniz funciona de manera más general cuando las entradas de la matriz son elementos de un anillo conmutativo , como los números enteros , a diferencia del cuerpo de números reales o complejos. Además, la caracterización del determinante como la única aplicación multilineal alterna que satisface sigue siendo válida, al igual que todas las propiedades que resultan de esa caracterización. [42]

Una matriz es invertible (en el sentido de que existe una matriz inversa cuyas entradas están en ) si y sólo si su determinante es un elemento invertible en . [43] Para , esto significa que el determinante es +1 o −1. Esta matriz se llama unimodular .

Al ser el determinante multiplicativo, define un homomorfismo de grupo.

entre el grupo lineal general (el grupo de matrices invertibles con entradas en ) y el grupo multiplicativo de unidades en . Dado que respeta la multiplicación en ambos grupos, este mapa es un homomorfismo de grupo .

El determinante es una transformación natural.

Dado un homomorfismo de anillo , se obtiene un mapa reemplazando todas las entradas por sus imágenes debajo . El determinante respeta estos mapas, es decir, la identidad

sostiene. En otras palabras, el diagrama conmutativo mostrado conmuta.

Por ejemplo, el determinante del conjugado complejo de una matriz compleja (que también es el determinante de su transpuesta conjugada) es el conjugado complejo de su determinante, y para matrices enteras: el módulo de reducción del determinante de dicha matriz es igual a el determinante de la matriz en módulo reducido (este último determinante se calcula mediante aritmética modular ). En el lenguaje de la teoría de categorías , el determinante es una transformación natural entre los dos functores y . [44] Agregando otra capa más de abstracción, esto se captura diciendo que el determinante es un morfismo de grupos algebraicos , desde el grupo lineal general hasta el grupo multiplicativo ,

Álgebra exterior

El determinante de una transformación lineal de un espacio vectorial -dimensional o, más generalmente, un módulo libre de rango (finito) sobre un anillo conmutativo se puede formular sin coordenadas considerando la -ésima potencia exterior de . [45] El mapa induce un mapa lineal.

Como es unidimensional, el mapa se obtiene multiplicando por algún escalar, es decir, un elemento en . Algunos autores como (Bourbaki 1998) utilizan este hecho para definir el determinante como el elemento que satisface la siguiente identidad (para todos ):

Esta definición concuerda con la definición más concreta dependiente de coordenadas. Esto se puede demostrar utilizando la unicidad de una forma alterna multilineal en tuplas de vectores en . Por esta razón, la potencia exterior distinta de cero (a diferencia del determinante asociado a un endomorfismo) a veces también se denomina determinante de y de manera similar para objetos más involucrados, como haces de vectores o complejos de cadenas de espacios vectoriales. Los menores de una matriz también se pueden convertir en este entorno, considerando formas alternas inferiores con . [46]

Generalizaciones y nociones relacionadas.

Los determinantes tratados anteriormente admiten varias variantes: el permanente de una matriz se define como determinante, excepto que se omiten los factores que ocurren en la regla de Leibniz. El inmanante generaliza ambos al introducir un carácter de grupo simétrico en la regla de Leibniz.

Determinantes de álgebras de dimensión finita

Para cualquier álgebra asociativa que sea de dimensión finita como un espacio vectorial sobre un campo , existe un mapa determinante [47]

Esta definición procede estableciendo el polinomio característico independientemente del determinante y definiendo el determinante como el término de orden más bajo de este polinomio. Esta definición general recupera el determinante del álgebra matricial , pero también incluye varios casos más, incluido el determinante de un cuaternión ,

,

la norma de una extensión de campo , así como la pfaffiana de una matriz asimétrica y la norma reducida de un álgebra simple central , también surgen como casos especiales de esta construcción.

matrices infinitas

Para matrices con un número infinito de filas y columnas, las definiciones anteriores del determinante no se aplican directamente. Por ejemplo, en la fórmula de Leibniz, habría que calcular una suma infinita (cuyos términos son productos infinitos). El análisis funcional proporciona diferentes extensiones del determinante para situaciones de dimensiones infinitas, que sin embargo sólo funcionan para tipos particulares de operadores.

El determinante de Fredholm define el determinante de los operadores conocidos como operadores de clase de traza mediante una generalización apropiada de la fórmula.

Otra noción de determinante de dimensión infinita es la de determinante funcional .

Operadores en álgebras de von Neumann

Para los operadores en un factor finito , se puede definir un determinante positivo de valor real llamado determinante de Fuglede-Kadison utilizando la traza canónica. De hecho, correspondiente a cada estado tracial en un álgebra de von Neumann existe una noción de determinante de Fuglede-Kadison.

Nociones relacionadas para anillos no conmutativos

Para matrices sobre anillos no conmutativos, la multilinealidad y las propiedades alternantes son incompatibles para n ≥ 2 , [48] por lo que no existe una buena definición del determinante en este contexto.

Para matrices cuadradas con entradas en un anillo no conmutativo, existen varias dificultades para definir determinantes de manera análoga a la de los anillos conmutativos. Se puede dar un significado a la fórmula de Leibniz siempre que se especifique el orden del producto, y de manera similar a otras definiciones del determinante, pero la no conmutatividad conduce a la pérdida de muchas propiedades fundamentales del determinante, como la propiedad multiplicativa. o que el determinante no cambia bajo la transposición de la matriz. En anillos no conmutativos, no existe una noción razonable de una forma multilineal (la existencia de una forma bilineal distinta de cero [ aclarar ] con un elemento regular de R como valor en algún par de argumentos implica que R es conmutativo). Sin embargo, se han formulado varias nociones de determinante no conmutativo que preservan algunas de las propiedades de los determinantes, en particular los cuasideterminantes y el determinante Dieudonné . Para algunas clases de matrices con elementos no conmutativos, se puede definir el determinante y demostrar teoremas de álgebra lineal que son muy similares a sus análogos conmutativos. Los ejemplos incluyen el determinante q en grupos cuánticos, el determinante de Capelli en matrices de Capelli y el bereziniano en supermatrices (es decir, matrices cuyas entradas son elementos de anillos graduados ). [49] Las matrices de Manin forman la clase más cercana a las matrices con elementos conmutativos.

Cálculo

Los determinantes se utilizan principalmente como herramienta teórica. Rara vez se calculan explícitamente en álgebra lineal numérica , donde para aplicaciones como verificar la invertibilidad y encontrar valores propios el determinante ha sido reemplazado en gran medida por otras técnicas. [50] La geometría computacional , sin embargo, utiliza con frecuencia cálculos relacionados con determinantes. [51]

Si bien el determinante se puede calcular directamente utilizando la regla de Leibniz, este enfoque es extremadamente ineficiente para matrices grandes, ya que esa fórmula requiere calcular productos ( factoriales ) para una matriz. Así, el número de operaciones necesarias crece muy rápidamente: es de orden . La expansión de Laplace es igualmente ineficiente. Por lo tanto, se han desarrollado técnicas más complicadas para calcular los determinantes.

Métodos de descomposición

Algunos métodos calculan escribiendo la matriz como producto de matrices cuyos determinantes se pueden calcular más fácilmente. Estas técnicas se denominan métodos de descomposición. Los ejemplos incluyen la descomposición LU , la descomposición QR o la descomposición de Cholesky (para matrices definidas positivas ). Estos métodos son de orden , lo que supone una mejora significativa con respecto a . [52]

Por ejemplo, la descomposición LU se expresa como un producto.

de una matriz de permutación (que tiene exactamente un único en cada columna, y en caso contrario ceros), una matriz triangular inferior y una matriz triangular superior . Los determinantes de las dos matrices triangulares se pueden calcular rápidamente, ya que son los productos de las respectivas entradas diagonales. El determinante de es simplemente el signo de la permutación correspondiente (que es para un número par de permutaciones y para un número impar de permutaciones). Una vez que se conoce dicha descomposición LU , su determinante se calcula fácilmente como

Otros métodos

El orden alcanzado por los métodos de descomposición se ha mejorado mediante diferentes métodos. Si dos matrices de orden se pueden multiplicar en el tiempo , donde para algunas , entonces existe un algoritmo que calcula el determinante en el tiempo . [53] Esto significa, por ejemplo, que existe un algoritmo para calcular el determinante basado en el algoritmo Coppersmith-Winograd . Este exponente se ha reducido aún más, a partir de 2016, a 2,373. [54]

Además de la complejidad del algoritmo, se pueden utilizar otros criterios para comparar algoritmos. Especialmente para aplicaciones relacionadas con matrices sobre anillos, existen algoritmos que calculan el determinante sin divisiones. (Por el contrario, la eliminación de Gauss requiere divisiones). Uno de esos algoritmos, que tiene complejidad, se basa en la siguiente idea: se reemplazan las permutaciones (como en la regla de Leibniz) por los llamados recorridos ordenados cerrados, en los que se pueden repetir varios elementos. La suma resultante tiene más términos que en la regla de Leibniz, pero en el proceso se pueden reutilizar varios de estos productos, lo que la hace más eficiente que calcular ingenuamente con la regla de Leibniz. [55] Los algoritmos también se pueden evaluar según su complejidad de bits , es decir, cuántos bits de precisión se necesitan para almacenar los valores intermedios que ocurren en el cálculo. Por ejemplo, el método de eliminación gaussiana (o descomposición LU) es de orden , pero la longitud de bits de los valores intermedios puede volverse exponencialmente larga. [56] En comparación, el algoritmo de Bareiss , es un método de división exacta (por lo que usa división, pero solo en los casos en que estas divisiones se pueden realizar sin resto) es del mismo orden, pero la complejidad de bits es aproximadamente el bit. tamaño de las entradas originales en la matriz times . [57]

Si ya se han calculado el determinante de A y la inversa de A , el lema del determinante matricial permite el cálculo rápido del determinante de A + uv T , donde u y v son vectores columna.

Charles Dodgson (es decir, Lewis Carroll de las aventuras de Alicia en el país de las maravillas ) inventó un método para calcular determinantes llamado condensación de Dodgson . Lamentablemente, este interesante método no siempre funciona en su forma original. [58]

Ver también

Notas

  1. ^ Lang 1985, §VII.1
  2. ^ Wildberger, Norman J. (2010). Episodio 4 (video conferencia). WildLinAlg. Sydney, Australia: Universidad de Nueva Gales del Sur . Archivado desde el original el 11 de diciembre de 2021, a través de YouTube.
  3. ^ "Determinantes y volúmenes". libros de texto.math.gatech.edu . Consultado el 16 de marzo de 2018 .
  4. ^ McConnell (1957). Aplicaciones del análisis tensorial . Publicaciones de Dover. págs. 10-17.
  5. ^ Harris 2014, §4.7
  6. ^ Serge Lang , Álgebra lineal , segunda edición, Addison-Wesley, 1971, págs. 173, 191.
  7. ^ Lang 1987, §VI.7, Teorema 7.5
  8. ^ Alternativamente, Bourbaki 1998, §III.8, Proposición 1 prueba este resultado utilizando la funcionalidad del poder exterior.
  9. ^ Cuerno y Johnson 2018, §0.8.7
  10. ^ Kung, Rota y Yan 2009, pág. 306
  11. ^ Horn & Johnson 2018, §0.8.2.
  12. ^ Silvester, JR (2000). "Determinantes de matrices de bloques". Matemáticas. Gaz . 84 (501): 460–467. doi :10.2307/3620776. JSTOR  3620776. S2CID  41879675.
  13. ^ Sothanaphan, Nat (enero de 2017). "Determinantes de matrices de bloques con bloques no conmutantes". Álgebra lineal y sus aplicaciones . 512 : 202–218. arXiv : 1805.06027 . doi :10.1016/j.laa.2016.10.004. S2CID  119272194.
  14. ^ Las pruebas se pueden encontrar en http://www.ee.ic.ac.uk/hp/staff/dmb/matrix/proof003.html
  15. ^ Lin, Minghua; Sra, Suvrit (2014). "Superaditividad completamente fuerte de funciones matriciales generalizadas". arXiv : 1410.1958 [matemáticas.FA].
  16. ^ Paksoy; turcomanos; Zhang (2014). "Desigualdades de funciones matriciales generalizadas mediante productos tensoriales". Revista Electrónica de Álgebra Lineal . 27 : 332–341. doi : 10.13001/1081-3810.1622 .
  17. ^ Serre, Denis (18 de octubre de 2010). "Concavidad de det1/n sobre HPDn". Desbordamiento matemático .
  18. ^ Lang 1985, §VIII.2, Horn & Johnson 2018, Def. 1.2.3
  19. ^ Horn & Johnson 2018, Observación 7.1.2, Teorema 7.2.5
  20. ^ Se puede encontrar una prueba en el Apéndice B de Kondratyuk, LA; Krivoruchenko, MI (1992). "Materia de quarks superconductores en el grupo de colores SU (2)". Zeitschrift für Physik A. 344 (1): 99-115. Código Bib : 1992ZPhyA.344...99K. doi :10.1007/BF01291027. S2CID  120467300.
  21. ^ Cuerno y Johnson 2018, § 0.8.10
  22. ^ Grattan-Guinness 2003, §6.6
  23. ^ Cajori, F. Una historia de las matemáticas p. 80
  24. ^ abc Campbell, H: "Álgebra lineal con aplicaciones", páginas 111-112. Appleton Century Crofts, 1971
  25. ^ Evas 1990, pag. 405
  26. ^ Una breve historia del álgebra lineal y la teoría de matrices en: "Una breve historia del álgebra lineal y la teoría de matrices". Archivado desde el original el 10 de septiembre de 2012 . Consultado el 24 de enero de 2012 .
  27. ^ Kleiner 2007, pag. 80
  28. ^ Bourbaki (1994, pág.59)
  29. ^ Muir, Sir Thomas, La teoría de los determinantes en el orden histórico del desarrollo [Londres, Inglaterra: Macmillan and Co., Ltd., 1906]. JFM  37.0181.02
  30. ^ Kleiner 2007, §5.2
  31. ^ El primer uso de la palabra "determinante" en el sentido moderno apareció en: Cauchy, Augustin-Louis "Memoire sur les fonctions qui ne peuvent obtenir que deux valeurs égales et des signes contraires par suite des transpositions operées entre les variables qu'elles renferment", que fue leído por primera vez en el Instituto de Francia en París el 30 de noviembre de 1812, y que fue publicado posteriormente en el Journal de l'Ecole Polytechnique , Cahier 17, Tomo 10, páginas 29-112 (1815).
  32. ^ Orígenes de los términos matemáticos: http://jeff560.tripod.com/d.html
  33. ^ Historia de matrices y determinantes: http://www-history.mcs.st-and.ac.uk/history/HistTopics/Matrices_and_determinants.html
  34. ^ Evas 1990, pag. 494
  35. ^ Cajori 1993, vol. II, pág. 92, núm. 462
  36. ^ Historia de la notación matricial: http://jeff560.tripod.com/matrices.html
  37. ^ Habgood y Arel 2012
  38. ^ Lang 1985, §VII.3
  39. ^ Lang 2002, §IV.8
  40. ^ Lang 1985, §VII.6, Teorema 6.10
  41. ^ Laico, David (2021). Álgebra lineal y sus aplicaciones, sexta edición . Pearson. pag. 172.
  42. ^ Dummit y Foote 2004, §11.4
  43. ^ Dummit & Foote 2004, §11.4, Teorema 30
  44. ^ Mac Lane 1998, §I.4. Véase también Transformación natural § Determinante .
  45. ^ Bourbaki 1998, §III.8
  46. ^ Lombardi y Quitté 2015, §5.2, Bourbaki 1998, §III.5
  47. ^ Garibaldi 2004
  48. ^ En un entorno no conmutativo, la linealidad por la izquierda (compatibilidad con la multiplicación por la izquierda por escalares) debe distinguirse de la linealidad por la derecha. Suponiendo que la linealidad en las columnas se considera linealidad hacia la izquierda, se tendría, para escalares a , b no conmutantes :
    una contradicción. No existe una noción útil de funciones multilineales sobre un anillo no conmutativo.
  49. ^ Varadarajan, V. S (2004), Supersimetría para matemáticos: una introducción, American Mathematical Soc., ISBN 978-0-8218-3574-6.
  50. ^ "... mencionamos que el determinante, aunque teóricamente es una noción conveniente, rara vez encuentra un papel útil en los algoritmos numéricos", ver Trefethen & Bau III 1997, Conferencia 1.
  51. ^ Fisikopoulos y Peñaranda 2016, §1.1, §4.3
  52. ^ Camarero, Cristóbal (5 de diciembre de 2018). "Algoritmos simples, rápidos y practicables para la descomposición de Cholesky, LU y QR mediante la multiplicación rápida de matrices rectangulares". arXiv : 1812.02056 [cs.NA].
  53. ^ Manojo y Hopcroft 1974
  54. ^ Fisikopoulos y Peñaranda 2016, §1.1
  55. ^ De memoria 2001
  56. ^ Colmillo, Xin Gui; Havas, George (1997). "Sobre el peor de los casos de complejidad de la eliminación gaussiana de enteros" (PDF) . Actas del simposio internacional de 1997 sobre computación simbólica y algebraica . ISSAC '97. Kihei, Maui, Hawái, Estados Unidos: ACM. págs. 28-31. doi :10.1145/258726.258740. ISBN 0-89791-875-4. Archivado desde el original (PDF) el 7 de agosto de 2011 . Consultado el 22 de enero de 2011 .
  57. ^ Fisikopoulos y Peñaranda 2016, §1.1, Bareiss 1968
  58. ^ Abeles, Francine F. (2008). "Condensación de Dodgson: el desarrollo histórico y matemático de un método experimental". Álgebra lineal y sus aplicaciones . 429 (2–3): 429–438. doi : 10.1016/j.laa.2007.11.022 .

Referencias

Referencias históricas

enlaces externos