stringtranslate.com

Regresión del núcleo

En estadística , la regresión kernel es una técnica no paramétrica para estimar la esperanza condicional de una variable aleatoria . El objetivo es encontrar una relación no lineal entre un par de variables aleatorias X e Y.

En cualquier regresión no paramétrica , la esperanza condicional de una variable relativa a una variable puede escribirse:

donde es una función desconocida.

Regresión del kernel de Nadaraya-Watson

Nadaraya y Watson , ambos en 1964, propusieron estimar como un promedio ponderado localmente, utilizando un kernel como función de ponderación. [1] [2] [3] El estimador de Nadaraya-Watson es:

donde es un núcleo con un ancho de banda tal que es de orden al menos 1, es decir .

Derivación

Comenzando con la definición de expectativa condicional ,

Estimamos las distribuciones conjuntas f ( x , y ) y f ( x ) utilizando la estimación de densidad de kernel con un kernel K :

Obtenemos:

que es el estimador de Nadaraya-Watson.

Estimador de kernel de Priestley-Chao

¿Dónde está el ancho de banda (o parámetro de suavizado)?

Estimador del kernel de Gasser-Müller

donde [4]

Ejemplo

Función de regresión estimada.

Este ejemplo se basa en datos de salarios de Canadá de corte transversal que consisten en una muestra aleatoria tomada de las cintas de uso público del censo canadiense de 1971 para individuos varones con educación común (grado 13). Hay 205 observaciones en total. [ cita requerida ]

La figura de la derecha muestra la función de regresión estimada utilizando un kernel gaussiano de segundo orden junto con límites de variabilidad asintótica.

Guión de ejemplo

Los siguientes comandos del lenguaje de programación R utilizan la npreg()función para lograr un suavizado óptimo y crear la figura que se muestra arriba. Estos comandos se pueden ingresar en el símbolo del sistema mediante cortar y pegar.

install.packages ( "np" ) biblioteca ( np ) # biblioteca no paramétrica datos ( cps71 ) adjuntar ( cps71 ) m <- npreg ( logaritmo ~ edad )  gráfico ( m , gráfico.errores.método = "asintótico" , gráfico.errores.estilo = "banda" , ylim = c ( 11 , 15.2 ))    puntos ( edad , salario logarítmico , cex = . 25 ) desvincular ( cps71 )  

Relacionado

Según David Salsburg , los algoritmos utilizados en la regresión del núcleo se desarrollaron de forma independiente y se utilizaron en sistemas difusos : "Al llegar a tener casi exactamente el mismo algoritmo informático, los sistemas difusos y las regresiones basadas en la densidad del núcleo parecen haber sido desarrollados de forma completamente independiente unos de otros". [5]

Implementación estadística

Véase también

Referencias

  1. ^ Nadaraya, EA (1964). "Sobre la estimación de la regresión". Teoría de la probabilidad y sus aplicaciones . 9 (1): 141–2. doi :10.1137/1109020.
  2. ^ Watson, GS (1964). "Análisis de regresión suave". Sankhyā: The Indian Journal of Statistics, Serie A . 26 (4): 359–372. JSTOR  25049340.
  3. ^ Bierens, Herman J. (1994). "El estimador de la función de regresión del núcleo de Nadaraya-Watson". Temas de econometría avanzada . Nueva York: Cambridge University Press. pp. 212–247. ISBN 0-521-41900-X.
  4. ^ Gasser, Theo; Müller, Hans-Georg (1979). "Estimación de funciones de regresión por kernel". Técnicas de suavizado para la estimación de curvas (Proc. Workshop, Heidelberg, 1979) . Lecture Notes in Math. Vol. 757. Springer, Berlín. pp. 23–68. ISBN 3-540-09706-6.Sr. 0564251  .
  5. ^ Salsburg, D. (2002). La dama que degusta el té: cómo las estadísticas revolucionaron la ciencia en el siglo XX . WH Freeman. págs. 290–91. ISBN 0-8050-7134-2.
  6. ^ Horová, I.; Koláček, J.; Zelinka, J. (2012). Suavizado de kernel en MATLAB: teoría y práctica del suavizado de kernel . Singapur: World Scientific Publishing. ISBN 978-981-4405-48-5.
  7. ^ np: Métodos de suavizado de kernel no paramétricos para tipos de datos mixtos
  8. ^ Kloke, John; McKean, Joseph W. (2014). Métodos estadísticos no paramétricos utilizando R. CRC Press. págs. 98-106. ISBN 978-1-4398-7343-4.

Lectura adicional

Enlaces externos