stringtranslate.com

Mínimos cuadrados lineales

Los mínimos cuadrados lineales ( LLS ) son la aproximación de mínimos cuadrados de funciones lineales a los datos. Es un conjunto de formulaciones para resolver problemas estadísticos involucrados en la regresión lineal , incluidas variantes para residuos ordinarios (no ponderados), ponderados y generalizados (correlacionados) . Los métodos numéricos para mínimos cuadrados lineales incluyen la inversión de la matriz de las ecuaciones normales y los métodos de descomposición ortogonal .

Formulación básica

Considere la ecuación lineal

donde y están dados y es variable a calcular. Cuando generalmente se da el caso de que ( 1 ) no tiene solución. Por ejemplo, no existe ningún valor de que satisfaga

1problema de mínimos cuadrados.

La solución al problema de mínimos cuadrados ( 1 ) se calcula resolviendo la ecuación normal [1]

donde denota la transpuesta de .

Continuando con el ejemplo anterior, con

Formulaciones para regresión lineal

Las tres formulaciones principales de mínimos cuadrados lineales son:

Formulaciones alternativas

Otras formulaciones incluyen:

Función objetiva

En MCO (es decir, asumiendo observaciones no ponderadas), el valor óptimo de la función objetivo se encuentra sustituyendo el vector de coeficientes por la expresión óptima:

[9]valor esperadoSS

Si se supone que los residuos pertenecen a una distribución normal, la función objetivo, al ser una suma de residuos al cuadrado ponderados, pertenecerá a una distribución chi-cuadrado ( ) con m  −  n grados de libertad . En la siguiente tabla se dan algunos valores percentiles ilustrativos de . [10]

Estos valores pueden utilizarse como criterio estadístico de bondad de ajuste . Cuando se utilizan pesos unitarios, los números deben dividirse por la varianza de una observación.

Para WLS, la función objetivo ordinaria anterior se reemplaza por un promedio ponderado de residuos.

Discusión

En estadística y matemáticas , los mínimos cuadrados lineales son un enfoque para ajustar un modelo matemático o estadístico a los datos en los casos en que el valor idealizado proporcionado por el modelo para cualquier punto de datos se expresa linealmente en términos de los parámetros desconocidos del modelo. El modelo ajustado resultante se puede utilizar para resumir los datos, predecir valores no observados del mismo sistema y comprender los mecanismos que pueden subyacer al sistema.

Matemáticamente, los mínimos cuadrados lineales son el problema de resolver aproximadamente un sistema sobredeterminado de ecuaciones lineales A x = b , donde b no es un elemento del espacio columna de la matriz A . La solución aproximada se realiza como una solución exacta de A x = b' , donde b' es la proyección de b sobre el espacio columna de A . La mejor aproximación es entonces aquella que minimiza la suma de las diferencias al cuadrado entre los valores de los datos y sus correspondientes valores modelados. El enfoque se llama mínimos cuadrados lineales ya que la función asumida es lineal en los parámetros a estimar. Los problemas de mínimos cuadrados lineales son convexos y tienen una solución de forma cerrada que es única, siempre que el número de puntos de datos utilizados para el ajuste sea igual o superior al número de parámetros desconocidos, excepto en situaciones especiales degeneradas. Por el contrario, los problemas de mínimos cuadrados no lineales generalmente deben resolverse mediante un procedimiento iterativo , y los problemas pueden ser no convexos con múltiples óptimos para la función objetivo. Si se dispone de distribuciones previas, incluso un sistema indeterminado puede resolverse utilizando el estimador bayesiano MMSE .

En estadística, los problemas de mínimos cuadrados lineales corresponden a un tipo de modelo estadístico particularmente importante llamado regresión lineal que surge como una forma particular de análisis de regresión . Una forma básica de dicho modelo es el modelo de mínimos cuadrados ordinario . El presente artículo se concentra en los aspectos matemáticos de los problemas de mínimos cuadrados lineales, y en los artículos que acabamos de mencionar se analizan la formulación e interpretación de modelos de regresión estadística y las inferencias estadísticas relacionadas con estos. Consulte el esquema del análisis de regresión para obtener un resumen del tema.

Propiedades

Si los errores experimentales, no están correlacionados, tienen una media de cero y una varianza constante, el teorema de Gauss-Markov establece que el estimador de mínimos cuadrados, tiene la varianza mínima de todos los estimadores que son combinaciones lineales de las observaciones. En este sentido es el mejor estimador u óptimo de los parámetros. Tenga en cuenta en particular que esta propiedad es independiente de la función de distribución estadística de los errores. En otras palabras, la función de distribución de los errores no tiene por qué ser una distribución normal . Sin embargo, para algunas distribuciones de probabilidad, no hay garantía de que la solución de mínimos cuadrados sea posible dadas las observaciones; aun así, en tales casos el mejor estimador es el que es a la vez lineal e insesgado.

Por ejemplo, es fácil demostrar que la media aritmética de un conjunto de medidas de una cantidad es el estimador de mínimos cuadrados del valor de esa cantidad. Si se aplican las condiciones del teorema de Gauss-Markov, la media aritmética es óptima, cualquiera que sea la distribución de los errores de las mediciones.

Sin embargo, en el caso de que los errores experimentales pertenezcan a una distribución normal, el estimador de mínimos cuadrados también es un estimador de máxima verosimilitud . [11]

Estas propiedades sustentan el uso del método de mínimos cuadrados para todo tipo de ajuste de datos, incluso cuando los supuestos no son estrictamente válidos.

Limitaciones

Una suposición subyacente al tratamiento dado anteriormente es que la variable independiente, x , está libre de error. En la práctica, los errores en las mediciones de la variable independiente suelen ser mucho más pequeños que los errores en la variable dependiente y, por tanto, pueden ignorarse. Cuando este no es el caso, se deben utilizar mínimos cuadrados totales o, más generalmente, modelos de errores en variables , o mínimos cuadrados rigurosos . Esto se puede hacer ajustando el esquema de ponderación para tener en cuenta los errores tanto en las variables dependientes como en las independientes y luego siguiendo el procedimiento estándar. [12] [13]

En algunos casos, la matriz de ecuaciones normales (ponderadas) X T X está mal condicionada . Al ajustar polinomios, la matriz de ecuaciones normales es una matriz de Vandermonde . Las matrices de Vandermonde se vuelven cada vez más mal condicionadas a medida que aumenta el orden de la matriz. [ cita necesaria ] En estos casos, la estimación de mínimos cuadrados amplifica el ruido de la medición y puede ser muy inexacta. [ cita necesaria ] En tales casos se pueden aplicar varias técnicas de regularización , la más común de las cuales se llama regresión de crestas . Si se conoce más información sobre los parámetros, por ejemplo, un rango de valores posibles de , entonces se pueden usar varias técnicas para aumentar la estabilidad de la solución. Por ejemplo, consulte mínimos cuadrados restringidos.

Otro inconveniente del estimador de mínimos cuadrados es el hecho de que la norma de los residuos se minimiza, mientras que en algunos casos uno está realmente interesado en obtener un error pequeño en el parámetro , por ejemplo, un valor pequeño de . [ cita necesaria ] Sin embargo, dado que el parámetro verdadero es necesariamente desconocido, esta cantidad no se puede minimizar directamente. Si se conoce una probabilidad previa , entonces se puede utilizar un estimador de Bayes para minimizar el error cuadrático medio . El método de mínimos cuadrados se aplica a menudo cuando no se conoce el a priori. Cuando se estiman varios parámetros de forma conjunta se pueden construir mejores estimadores, efecto conocido como fenómeno de Stein . Por ejemplo, si el error de medición es gaussiano , se conocen varios estimadores que dominan o superan la técnica de mínimos cuadrados; el más conocido de ellos es el estimador de James-Stein . Este es un ejemplo de estimadores de contracción más generales que se han aplicado a problemas de regresión.

Aplicaciones

Aproximación de mínimos cuadrados con polinomios lineales, cuadráticos y cúbicos.

Usos en el ajuste de datos

La aplicación principal de los mínimos cuadrados lineales es el ajuste de datos . Dado un conjunto de m puntos de datos que consta de valores medidos experimentalmente tomados en m valores de una variable independiente ( pueden ser cantidades escalares o vectoriales), y dada una función modelo con la que se desea encontrar los parámetros tales que la función modelo sea "mejor" se ajusta a los datos. En mínimos cuadrados lineales, la linealidad debe ser con respecto a los parámetros , por lo que

Aquí, las funciones pueden ser no lineales con respecto a la variable x .

Idealmente, la función del modelo se ajusta exactamente a los datos, por lo que

residuos.

Después de sustituir por y luego por , este problema de minimización se convierte en el problema de minimización cuadrática anterior con

Ejemplo

Una gráfica de los puntos de datos (en rojo), la línea de mínimos cuadrados de mejor ajuste (en azul) y los residuos (en verde)

Un investigador hipotético realiza un experimento y obtiene cuatro puntos de datos: y (que se muestran en rojo en el diagrama de la derecha). Debido al análisis exploratorio de datos o al conocimiento previo del tema, el investigador sospecha que los valores dependen de los valores sistemáticamente. Los valores se suponen exactos, pero contienen cierta incertidumbre o "ruido", debido al fenómeno que se estudia, imperfecciones en las mediciones, etc.

Colocando una línea

Una de las relaciones más simples posibles entre y es una línea . Inicialmente se desconocen la intersección y la pendiente . Al investigador le gustaría encontrar valores de y que hagan que la línea pase por los cuatro puntos de datos. En otras palabras, al investigador le gustaría resolver el sistema de ecuaciones lineales.

residuos

En mínimos cuadrados , uno se centra en la suma de los residuos al cuadrado:

minimizaderivadas parciales
ecuaciones normales

Este cálculo se puede expresar en notación matricial de la siguiente manera. El sistema de ecuaciones original es , donde

Montar una parábola

El resultado de ajustar una función cuadrática (en azul) a través de un conjunto de puntos de datos (en rojo). En mínimos cuadrados lineales, la función no necesita ser lineal en el argumento, sino sólo en los parámetros que se determinan para dar el mejor ajuste.

Supongamos que el investigador hipotético desea ajustar una parábola de la forma . Es importante destacar que este modelo sigue siendo lineal en los parámetros desconocidos (ahora solo ), por lo que todavía se aplican los mínimos cuadrados lineales. El sistema de ecuaciones que incorpora residuos es

La suma de los residuos al cuadrado es

En notación matricial, las ecuaciones sin residuos son nuevamente , donde ahora

La figura muestra una extensión para ajustar la parábola de tres parámetros usando una matriz de diseño con tres columnas (una para , y ) y una fila para cada uno de los puntos de datos rojos.

Adaptación de otras curvas y superficies

De manera más general, se pueden tener regresores y un modelo lineal.

Ver también

Referencias

  1. ^ Weisstein, Eric W. "Ecuación normal". MundoMatemático . Wolframio . Consultado el 18 de diciembre de 2023 .
  2. ^ Lai, TL; Robbins, H.; Wei, CZ (1978). "Fuerte consistencia de las estimaciones de mínimos cuadrados en regresión múltiple". PNAS . 75 (7): 3034–3036. Código bibliográfico : 1978PNAS...75.3034L. doi : 10.1073/pnas.75.7.3034 . JSTOR  68164. PMC 392707 . PMID  16592540. 
  3. ^ del Pino, Guido (1989). "El papel unificador de los mínimos cuadrados iterativos generalizados en algoritmos estadísticos". Ciencia estadística . 4 (4): 394–403. doi : 10.1214/ss/1177012408 . JSTOR  2245853.
  4. ^ Carroll, Raymond J. (1982). "Adaptación a la heterocedasticidad en modelos lineales". Los anales de la estadística . 10 (4): 1224-1233. doi : 10.1214/aos/1176345987 . JSTOR  2240725.
  5. ^ Cohen, Michael; Dalal, Siddhartha R.; Tukey, John W. (1993). "Regresión de varianza robusta y suavemente heterogénea". Revista de la Royal Statistical Society, Serie C. 42 (2): 339–353. JSTOR  2986237.
  6. ^ Nievergelt, Yves (1994). "Mínimos cuadrados totales: regresión de última generación en análisis numérico". Revisión SIAM . 36 (2): 258–264. doi :10.1137/1036055. JSTOR  2132463.
  7. ^ Britzger, Daniel (2022). "El ajuste de plantilla lineal". EUR. Física. J.C.82 (8): 731. arXiv : 2112.01548 . Código Bib : 2022EPJC...82..731B. doi :10.1140/epjc/s10052-022-10581-w. S2CID  244896511.
  8. ^ Tofallis, C (2009). "Regresión porcentual de mínimos cuadrados". Revista de métodos estadísticos aplicados modernos . 7 : 526–534. doi :10.2139/ssrn.1406472. hdl : 2299/965 . SSRN  1406472.
  9. ^ Hamilton, WC (1964). Estadística en Ciencias Físicas . Nueva York: Ronald Press.
  10. ^ Spiegel, Murray R. (1975). Esquema de teoría y problemas de probabilidad y estadística de Schaum . Nueva York: McGraw-Hill. ISBN 978-0-585-26739-5.
  11. ^ Margenau, Enrique; Murphy, George Moseley (1956). Las Matemáticas de la Física y la Química . Princeton: Van Nostrand.
  12. ^ ab Gans, Peter (1992). Ajuste de datos en las Ciencias Químicas . Nueva York: Wiley. ISBN 978-0-471-93412-7.
  13. ^ Deming, NOSOTROS (1943). Ajuste estadístico de Datos . Nueva York: Wiley.
  14. ^ Acton, FS (1959). Análisis de datos en línea recta . Nueva York: Wiley.
  15. ^ Invitado, PG (1961). Métodos numéricos de ajuste de curvas . Cambridge: Prensa de la Universidad de Cambridge.[ página necesaria ]

Otras lecturas

enlaces externos