stringtranslate.com

Suavizado de núcleos

Un suavizador de kernel es una técnica estadística para estimar una función de valor real como el promedio ponderado de datos observados vecinos. El peso está definido por el kernel , de modo que los puntos más cercanos reciben pesos más altos. La función estimada es suave y el nivel de suavidad se establece mediante un único parámetro. El suavizado de kernel es un tipo de promedio móvil ponderado .

Definiciones

Sea un núcleo definido por

dónde:

Los núcleos populares utilizados para suavizar incluyen los núcleos parabólicos (Epanechnikov), Tricube y Gaussianos .

Sea una función continua de X . Para cada , el promedio ponderado por kernel de Nadaraya-Watson (estimación suave de Y ( X )) se define por

dónde:

En las siguientes secciones describimos algunos casos particulares de suavizadores de kernel.

Suavizado de núcleo gaussiano

El kernel gaussiano es uno de los kernels más utilizados y se expresa con la siguiente ecuación.

Aquí, b es la escala de longitud para el espacio de entrada.

El vecino más cercano es más suave

La idea del suavizador de vecinos más próximos es la siguiente: para cada punto X 0 , tome m vecinos más próximos y estime el valor de Y ( X 0 ) promediando los valores de estos vecinos.

Formalmente, , donde es el m ésimo vecino más cercano a X 0 , y

Ejemplo:

En este ejemplo, X es unidimensional. Para cada X 0 , hay un valor promedio de 16 puntos más cercanos a X 0 (indicados en rojo).

Promedio de kernel más suave

La idea del suavizador de promedios de kernel es la siguiente: para cada punto de datos X 0 , elija un tamaño de distancia constante λ (radio de kernel o ancho de ventana para p  = 1 dimensión) y calcule un promedio ponderado para todos los puntos de datos que estén más cerca que X 0 ( los puntos más cercanos a X 0 obtienen pesos más altos).

Formalmente, D ( t ) es uno de los núcleos más populares.

Ejemplo:

Para cada X 0 el ancho de la ventana es constante, y el peso de cada punto en la ventana se denota esquemáticamente por la figura amarilla en el gráfico. Se puede ver que la estimación es suave, pero los puntos límite están sesgados. La razón de esto es la cantidad desigual de puntos (desde la derecha y desde la izquierda hasta X 0 ) en la ventana, cuando X 0 está lo suficientemente cerca del límite.

Regresión lineal local

En las dos secciones anteriores asumimos que la función subyacente Y(X) es localmente constante, por lo tanto pudimos usar el promedio ponderado para la estimación. La idea de la regresión lineal local es ajustar localmente una línea recta (o un hiperplano para dimensiones superiores), y no la constante (línea horizontal). Después de ajustar la línea, la estimación la proporciona el valor de esta línea en el punto X 0 . Al repetir este procedimiento para cada X 0 , se puede obtener la función de estimación . Como en la sección anterior, el ancho de la ventana es constante Formalmente, la regresión lineal local se calcula resolviendo un problema de mínimos cuadrados ponderados.

Para una dimensión ( p = 1):

La solución en forma cerrada viene dada por:

dónde:

Ejemplo:

La función resultante es suave y se reduce el problema con los puntos límite sesgados.

La regresión lineal local se puede aplicar a cualquier espacio dimensional, aunque la cuestión de qué es una vecindad local se vuelve más complicada. Es común utilizar k puntos de entrenamiento más cercanos a un punto de prueba para ajustar la regresión lineal local. Esto puede generar una alta varianza de la función ajustada. Para limitar la varianza, el conjunto de puntos de entrenamiento debe contener el punto de prueba en su envoltura convexa (consulte la referencia de Gupta et al.).

Regresión polinómica local

En lugar de ajustar funciones localmente lineales, se pueden ajustar funciones polinómicas.

Para p=1, se debe minimizar:

con

En el caso general (p>1), se debe minimizar:

Véase también

Referencias