stringtranslate.com

Índice de sensibilidad

Figura 1: Probabilidad de error de clasificación óptima de Bayes e índice de discriminabilidad de Bayes entre dos histogramas univariados calculados a partir de su área de superposición. Figura 2: Mismo cálculo a partir del volumen de superposición de dos histogramas bivariados. Figura 3: Índices de discriminabilidad de dos distribuciones normales univariadas con varianzas desiguales. El límite de clasificación está en negro. Figura 4: Índices de discriminabilidad de dos distribuciones normales bivariadas con matrices de covarianza desiguales (las elipses son elipses de error de 1 DE). La barra de colores muestra la contribución relativa a la discriminabilidad por cada dimensión. Estos se calculan mediante métodos numéricos [1] .

El índice de sensibilidad , el índice de discriminabilidad o el índice de detectabilidad es una estadística adimensional que se utiliza en la teoría de detección de señales . Un índice más alto indica que la señal se puede detectar más fácilmente.

Definición

El índice de discriminabilidad es la separación entre las medias de dos distribuciones (normalmente la distribuciones de señal y la de ruido), en unidades de desviación estándar.

Varianzas/covarianzas iguales

Para dos distribuciones univariadas y con la misma desviación estándar, se denota por ('dee-prime'):

.

En dimensiones superiores, es decir, con dos distribuciones multivariadas con la misma matriz de varianza-covarianza , (cuya raíz cuadrada simétrica, la matriz de desviación estándar, es ), esto se generaliza a la distancia de Mahalanobis entre las dos distribuciones:

,

donde es la porción 1d de la sd a lo largo del vector unitario a través de la media, es decir, es igual a lo largo de la porción 1d a través de la media. [1]

Para dos distribuciones bivariadas con igual varianza-covarianza, esto viene dado por:

,

donde es el coeficiente de correlación, y aquí y , es decir, incluye los signos de las diferencias medias en lugar de las absolutas. [1]

También se estima como . [2] : 8 

Varianzas/covarianzas desiguales

Cuando las dos distribuciones tienen diferentes desviaciones estándar (o en dimensiones generales, diferentes matrices de covarianza), existen varios índices en pugna, todos los cuales se reducen a una varianza/covarianza igual.

Índice de discriminabilidad de Bayes

Este es el índice de discriminabilidad máximo (óptimo de Bayes) para dos distribuciones, basado en la cantidad de su superposición, es decir, el error óptimo (de Bayes) de clasificación por un observador ideal, o su complemento, la precisión óptima :

, [1]

donde es la función de distribución acumulativa inversa de la normal estándar. La discriminabilidad de Bayes entre distribuciones normales univariadas o multivariadas se puede calcular numéricamente [1] (código Matlab), y también se puede utilizar como aproximación cuando las distribuciones están cerca de la normal.

es una medida de distancia estadística definida positiva que está libre de suposiciones sobre las distribuciones, como la divergencia de Kullback-Leibler . es asimétrica, mientras que es simétrica para las dos distribuciones. Sin embargo, no satisface la desigualdad triangular, por lo que no es una métrica completa. [1]

En particular, para una tarea de sí/no entre dos distribuciones normales univariadas con medias y varianzas , las precisiones de clasificación óptimas de Bayes son: [1]

,

donde denota la distribución chi-cuadrado no central , , y . La discriminabilidad de Bayes

También se puede calcular a partir de la curva ROC de una tarea de sí/no entre dos distribuciones normales univariadas con un único criterio de cambio. También se puede calcular a partir de la curva ROC de dos distribuciones cualesquiera (en cualquier número de variables) con una razón de verosimilitud cambiante, ubicando el punto en la curva ROC que está más alejado de la diagonal. [1]

Para una tarea de dos intervalos entre estas distribuciones, la precisión óptima es ( denota la distribución de chi-cuadrado generalizada ), donde . [1] La discriminabilidad de Bayes .

Índice de discriminabilidad RMS sd

Un índice de discriminabilidad aproximado (es decir, subóptimo) común que tiene una forma cerrada es tomar el promedio de las varianzas, es decir, el rms de las dos desviaciones estándar: [3] (también denotado por ). Es multiplicado por el puntaje del área bajo la curva característica operativa del receptor (AUC) de un observador de criterio único. Este índice se extiende a dimensiones generales como la distancia de Mahalanobis utilizando la covarianza agrupada, es decir, con como la matriz de desviación estándar común. [1]

Índice de discriminabilidad sd promedio

Otro índice es , extendido a dimensiones generales utilizando como matriz sd común. [1]

Comparación de los índices

Se ha demostrado que para dos distribuciones normales univariadas, , y para distribuciones normales multivariadas, todavía. [1]

Por lo tanto, y subestiman la discriminabilidad máxima de las distribuciones normales univariadas. pueden subestimar en un máximo de aproximadamente el 30%. En el límite de alta discriminabilidad para distribuciones normales univariadas, converge a . Estos resultados a menudo son ciertos en dimensiones superiores, pero no siempre. [1] Simpson y Fitter [3] promovido como el mejor índice, particularmente para tareas de dos intervalos, pero Das y Geisler [1] han demostrado que es la discriminabilidad óptima en todos los casos, y a menudo es una mejor aproximación de forma cerrada que , incluso para tareas de dos intervalos.

El índice aproximado , que utiliza la media geométrica de las desviaciones estándar, es menor que en el caso de una discriminabilidad pequeña, pero mayor en el caso de una discriminabilidad grande. [1]

Contribución a la discriminabilidad por cada dimensión

En general, la contribución a la discriminabilidad total por cada dimensión o característica puede medirse utilizando la cantidad en la que la discriminabilidad disminuye cuando se elimina esa dimensión. Si la discriminabilidad Bayes total es y la discriminabilidad Bayes con la dimensión eliminada es , podemos definir la contribución de la dimensión como . Esto es lo mismo que la discriminabilidad individual de la dimensión cuando las matrices de covarianza son iguales y diagonales, pero en los otros casos, esta medida refleja con mayor precisión la contribución de una dimensión que su discriminabilidad individual. [1]

Escalar la discriminabilidad de dos distribuciones

Escala de la discriminabilidad de dos distribuciones, mediante interpolación lineal del vector de media y la matriz de desviación estándar (raíz cuadrada de la matriz de covarianza) de una hacia la otra. Las elipses son las elipses de error de las dos distribuciones. La curva negra es un límite cuadrático que separa las dos distribuciones. [1]

En ocasiones, podemos querer escalar la capacidad de discriminación de dos distribuciones de datos acercándolas o separándolas. Un caso así es cuando estamos modelando una tarea de detección o clasificación y el rendimiento del modelo supera al del sujeto o los datos observados. En ese caso, podemos acercar las distribuciones de las variables del modelo para que coincidan con el rendimiento observado, al mismo tiempo que predecimos qué puntos de datos específicos deberían comenzar a superponerse y clasificarse incorrectamente.

Hay varias formas de hacer esto. Una es calcular el vector de media y la matriz de covarianza de las dos distribuciones y luego efectuar una transformación lineal para interpolar la matriz de media y desviación estándar (raíz cuadrada de la matriz de covarianza) de una de las distribuciones hacia la otra. [1]

Otra forma de hacerlo es calculando las variables de decisión de los puntos de datos (cociente de verosimilitud de que un punto pertenezca a una distribución frente a otra) bajo un modelo multinormal, y luego acercando o alejando estas variables de decisión. [1]

Véase también

Referencias

  1. ^ abcdefghijklmnopqrs Das, Abhranil; Wilson S Geisler (2020). "Métodos para integrar multinormales y calcular medidas de clasificación". arXiv : 2012.14331 [stat.ML].
  2. ^ MacMillan, N.; Creelman, C. (2005). Teoría de la detección: guía del usuario. Lawrence Erlbaum Associates. ISBN 9781410611147.
  3. ^ ab Simpson, AJ; Fitter, MJ (1973). "¿Cuál es el mejor índice de detectabilidad?". Psychological Bulletin . 80 (6): 481–488. doi :10.1037/h0035203.

Enlaces externos