stringtranslate.com

Estimación de densidad de kernel variable

En estadística , la estimación de densidad de kernel adaptativa o de "ancho de banda variable" es una forma de estimación de densidad de kernel en la que el tamaño de los kernels utilizados en la estimación varía según la ubicación de las muestras o la ubicación del punto de prueba. Es una técnica particularmente eficaz cuando el espacio muestral es multidimensional. [1]

Razón fundamental

Dado un conjunto de muestras, , deseamos estimar la densidad, , en un punto de prueba, :

donde n es el número de muestras, K es el "núcleo" , h es su ancho y D es el número de dimensiones en . El núcleo puede considerarse como un filtro lineal simple .

El uso de un ancho de filtro fijo puede significar que en regiones de baja densidad, todas las muestras caerán en las colas del filtro con una ponderación muy baja, mientras que las regiones de alta densidad encontrarán una cantidad excesiva de muestras en la región central con una ponderación cercana a la unidad. Para solucionar este problema, variamos el ancho del kernel en diferentes regiones del espacio muestral. Hay dos métodos para hacer esto: estimación de globo y estimación puntual. En un estimador de globo, el ancho del kernel varía según la ubicación del punto de prueba. En un estimador puntual, el ancho del kernel varía según la ubicación de la muestra. [1]

En el caso de los estimadores multivariados, el parámetro h se puede generalizar para que varíe no solo el tamaño, sino también la forma del núcleo. Este enfoque más complicado no se tratará aquí.

Estimadores de globos

Un método común para variar el ancho del núcleo es hacerlo inversamente proporcional a la densidad en el punto de prueba:

donde k es una constante. Si sustituimos hacia atrás la función de densidad de probabilidad estimada y asumiendo una función de núcleo gaussiana , podemos demostrar que W es una constante: [2]

Una derivación similar se aplica a cualquier núcleo cuya función normalizadora sea del orden h D , aunque con un factor constante diferente en lugar del término (2 π) D/2 . Esto produce una generalización del algoritmo de k vecinos más cercanos . Es decir, una función de núcleo uniforme devolverá la técnica KNN. [2]

El error tiene dos componentes: un término de varianza y un término de sesgo. El término de varianza se expresa como: [1]

.

El término de sesgo se obtiene evaluando la función aproximada en el límite a medida que el ancho del núcleo se vuelve mucho mayor que el espaciado de la muestra. Al utilizar una expansión de Taylor para la función real, el término de sesgo desaparece:

De esta forma se puede derivar un ancho de kernel óptimo que minimice el error de cada estimación.

Uso para clasificación estadística

El método es particularmente eficaz cuando se aplica a la clasificación estadística . Hay dos formas de proceder: la primera es calcular las PDF de cada clase por separado, utilizando diferentes parámetros de ancho de banda, y luego compararlas como en Taylor. [3] Alternativamente, podemos dividir la suma en función de la clase de cada muestra:

donde c i es la clase de la i- ésima muestra. La clase del punto de prueba puede estimarse mediante máxima verosimilitud .


Enlaces externos

Referencias

  1. ^ abc DG Terrell; DW Scott (1992). "Estimación de densidad de kernel variable". Anales de Estadística . 20 (3): 1236–1265. doi : 10.1214/aos/1176348768 .
  2. ^ ab Mills, Peter (2011). "Clasificación estadística eficiente de mediciones satelitales". Revista Internacional de Teledetección . 32 (21): 6109–6132. arXiv : 1202.2194 . Código Bibliográfico :2011IJRS...32.6109M. doi :10.1080/01431161.2010.507795. S2CID  88518570.
  3. ^ Taylor, Charles (1997). "Clasificación y estimación de densidad de núcleo". Vistas en Astronomía . 41 (3): 411–417. Bibcode :1997VA.....41..411T. doi :10.1016/s0083-6656(97)00046-9.