En matemáticas , una matriz de momento es una matriz cuadrada simétrica especial cuyas filas y columnas están indexadas por monomios . Los valores de la matriz dependen únicamente del producto de los monomios indexadores (cf. Matrices de Hankel ).
Las matrices de momento juegan un papel importante en el ajuste polinomial , la optimización polinomial (ya que las matrices de momento semidefinidas positivas corresponden a polinomios que son sumas de cuadrados ) [1] y la econometría . [2]
Aplicación en regresión
Un modelo de regresión lineal múltiple se puede escribir como
donde es la variable dependiente, son las variables independientes, es el error y son los coeficientes desconocidos que se deben estimar. Dadas las observaciones , tenemos un sistema de ecuaciones lineales que se pueden expresar en notación matricial. [3]
o
donde y son cada uno un vector de dimensión , es la matriz de diseño de orden , y es un vector de dimensión . Bajo los supuestos de Gauss-Markov , el mejor estimador lineal insesgado de es el estimador lineal de mínimos cuadrados , que involucra las dos matrices de momento y se define como
y
donde es una matriz normal cuadrada de dimensión , y es un vector de dimensión .
Véase también
Referencias
- ^ Lasserre, Jean-Bernard, 1953- (2010). Momentos, polinomios positivos y sus aplicaciones. World Scientific (Firm). Londres: Imperial College Press. ISBN 978-1-84816-446-8.OCLC 624365972 .
{{cite book}}
: CS1 maint: multiple names: authors list (link) CS1 maint: numeric names: authors list (link) - ^ Goldberger, Arthur S. (1964). "Regresión lineal clásica". Teoría econométrica . Nueva York: John Wiley & Sons. pp. 156–212. ISBN 0-471-31101-4.
- ^ Huang, David S. (1970). Regresión y métodos econométricos. Nueva York: John Wiley & Sons. pp. 52–65. ISBN 0-471-41754-8.
Enlaces externos