stringtranslate.com

regresión del núcleo

En estadística , la regresión kernel es una técnica no paramétrica para estimar la expectativa condicional de una variable aleatoria . El objetivo es encontrar una relación no lineal entre un par de variables aleatorias X e Y.

En cualquier regresión no paramétrica , la expectativa condicional de una variable relativa a una variable se puede escribir:

donde hay una función desconocida.

Regresión del kernel de Nadaraya-Watson

Nadaraya y Watson , ambos en 1964, propusieron estimar como un promedio ponderado localmente, utilizando un kernel como función de ponderación. [1] [2] [3] El estimador de Nadaraya-Watson es:

donde es un núcleo con un ancho de banda tal que es de orden al menos 1, es decir .

Derivación

Comenzando con la definición de expectativa condicional ,

Estimamos las distribuciones conjuntas f ( x , y ) y f ( x ) usando la estimación de densidad del kernel con un kernel K :

Obtenemos:

que es el estimador de Nadaraya-Watson.

Estimador del kernel Priestley-Chao

¿Dónde está el ancho de banda (o parámetro de suavizado)?

Estimador del kernel de Gasser-Müller

donde [4]

Ejemplo

Función de regresión estimada.

Este ejemplo se basa en datos salariales transversales canadienses que consisten en una muestra aleatoria tomada de las cintas de uso público del censo canadiense de 1971 para hombres con educación común (grado 13). Hay 205 observaciones en total. [ cita necesaria ]

La figura de la derecha muestra la función de regresión estimada utilizando un núcleo gaussiano de segundo orden junto con límites de variabilidad asintótica.

Guión por ejemplo

Los siguientes comandos del lenguaje de programación R utilizan la npreg()función para ofrecer un suavizado óptimo y crear la figura indicada anteriormente. Estos comandos se pueden ingresar en el símbolo del sistema mediante cortar y pegar.

install.packages ( "np" ) biblioteca ( np ) # datos de biblioteca no paramétricos ( cps71 ) adjuntar ( cps71 ) m <- npreg ( logwage ~ edad )  plot ( m , plot.errors.method = "asintótico" , plot.errors.style = "banda" , ylim = c ( 11 , 15.2 ))    puntos ( edad , logwage , cex = . 25 ) separar ( cps71 )  

Relacionado

Según David Salsburg , los algoritmos utilizados en la regresión del núcleo se desarrollaron de forma independiente y se utilizaron en sistemas difusos : "Al crear casi exactamente el mismo algoritmo informático, los sistemas difusos y las regresiones basadas en la densidad del núcleo parecen haberse desarrollado de forma completamente independiente entre sí. " [5]

Implementación estadística

Ver también

Referencias

  1. ^ Nadaraya, EA (1964). "Sobre la estimación de la regresión". Teoría de la probabilidad y sus aplicaciones . 9 (1): 141-2. doi :10.1137/1109020.
  2. ^ Watson, GS (1964). "Análisis de regresión suave". Sankhyā: Revista india de estadística, Serie A. 26 (4): 359–372. JSTOR  25049340.
  3. ^ Bierens, Herman J. (1994). "El estimador de la función de regresión del kernel de Nadaraya-Watson". Temas de Econometría Avanzada . Nueva York: Cambridge University Press. págs. 212-247. ISBN 0-521-41900-X.
  4. ^ Gasser, Theo; Müller, Hans-Georg (1979). "Estimación kernel de funciones de regresión". Técnicas de suavizado para la estimación de curvas (Proc. Workshop, Heidelberg, 1979) . Apuntes de clases de matemáticas. vol. 757. Springer, Berlín. págs. 23–68. ISBN 3-540-09706-6. SEÑOR  0564251.
  5. ^ Salsburg, D. (2002). La dama que prueba el té: cómo las estadísticas revolucionaron la ciencia en el siglo XX . WH Freeman. págs. 290–91. ISBN 0-8050-7134-2.
  6. ^ Horová, I.; Koláček, J.; Zelinka, J. (2012). Suavizado de kernel en MATLAB: teoría y práctica del suavizado de kernel . Singapur: World Scientific Publishing. ISBN 978-981-4405-48-5.
  7. ^ np: métodos de suavizado del kernel no paramétricos para tipos de datos mixtos
  8. ^ Kloke, John; McKean, Joseph W. (2014). Métodos estadísticos no paramétricos utilizando R. CRC Press. págs. 98-106. ISBN 978-1-4398-7343-4.

Otras lecturas

enlaces externos