El índice de sensibilidad , el índice de discriminabilidad o el índice de detectabilidad es una estadística adimensional que se utiliza en la teoría de detección de señales . Un índice más alto indica que la señal se puede detectar más fácilmente.
Definición
El índice de discriminabilidad es la separación entre las medias de dos distribuciones (normalmente la distribuciones de señal y la de ruido), en unidades de desviación estándar.
Varianzas/covarianzas iguales
Para dos distribuciones univariadas y con la misma desviación estándar, se denota por ('dee-prime'):
.
En dimensiones superiores, es decir, con dos distribuciones multivariadas con la misma matriz de varianza-covarianza , (cuya raíz cuadrada simétrica, la matriz de desviación estándar, es ), esto se generaliza a la distancia de Mahalanobis entre las dos distribuciones:
,
donde es la porción 1d de la sd a lo largo del vector unitario a través de la media, es decir, es igual a lo largo de la porción 1d a través de la media. [1]
Para dos distribuciones bivariadas con igual varianza-covarianza, esto viene dado por:
,
donde es el coeficiente de correlación, y aquí y , es decir, incluye los signos de las diferencias medias en lugar de las absolutas. [1]
También se estima como . [2] : 8
Varianzas/covarianzas desiguales
Cuando las dos distribuciones tienen diferentes desviaciones estándar (o en dimensiones generales, diferentes matrices de covarianza), existen varios índices en pugna, todos los cuales se reducen a una varianza/covarianza igual.
Índice de discriminabilidad de Bayes
Este es el índice de discriminabilidad máximo (óptimo de Bayes) para dos distribuciones, basado en la cantidad de su superposición, es decir, el error óptimo (de Bayes) de clasificación por un observador ideal, o su complemento, la precisión óptima :
, [1]
donde es la función de distribución acumulativa inversa de la normal estándar. La discriminabilidad de Bayes entre distribuciones normales univariadas o multivariadas se puede calcular numéricamente [1] (código Matlab), y también se puede utilizar como aproximación cuando las distribuciones están cerca de la normal.
es una medida de distancia estadística definida positiva que está libre de suposiciones sobre las distribuciones, como la divergencia de Kullback-Leibler . es asimétrica, mientras que es simétrica para las dos distribuciones. Sin embargo, no satisface la desigualdad triangular, por lo que no es una métrica completa. [1]
En particular, para una tarea de sí/no entre dos distribuciones normales univariadas con medias y varianzas , las precisiones de clasificación óptimas de Bayes son: [1]
También se puede calcular a partir de la curva ROC de una tarea de sí/no entre dos distribuciones normales univariadas con un único criterio de cambio. También se puede calcular a partir de la curva ROC de dos distribuciones cualesquiera (en cualquier número de variables) con una razón de verosimilitud cambiante, ubicando el punto en la curva ROC que está más alejado de la diagonal. [1]
Para una tarea de dos intervalos entre estas distribuciones, la precisión óptima es ( denota la distribución de chi-cuadrado generalizada ), donde . [1] La discriminabilidad de Bayes .
Índice de discriminabilidad RMS sd
Un índice de discriminabilidad aproximado (es decir, subóptimo) común que tiene una forma cerrada es tomar el promedio de las varianzas, es decir, el rms de las dos desviaciones estándar: [3] (también denotado por ). Es multiplicado por el puntaje del área bajo la curva característica operativa del receptor (AUC) de un observador de criterio único. Este índice se extiende a dimensiones generales como la distancia de Mahalanobis utilizando la covarianza agrupada, es decir, con como la matriz de desviación estándar común. [1]
Índice de discriminabilidad sd promedio
Otro índice es , extendido a dimensiones generales utilizando como matriz sd común. [1]
Comparación de los índices
Se ha demostrado que para dos distribuciones normales univariadas, , y para distribuciones normales multivariadas, todavía. [1]
Por lo tanto, y subestiman la discriminabilidad máxima de las distribuciones normales univariadas. pueden subestimar en un máximo de aproximadamente el 30%. En el límite de alta discriminabilidad para distribuciones normales univariadas, converge a . Estos resultados a menudo son ciertos en dimensiones superiores, pero no siempre. [1] Simpson y Fitter [3] promovido como el mejor índice, particularmente para tareas de dos intervalos, pero Das y Geisler [1] han demostrado que es la discriminabilidad óptima en todos los casos, y a menudo es una mejor aproximación de forma cerrada que , incluso para tareas de dos intervalos.
El índice aproximado , que utiliza la media geométrica de las desviaciones estándar, es menor que en el caso de una discriminabilidad pequeña, pero mayor en el caso de una discriminabilidad grande. [1]
Contribución a la discriminabilidad por cada dimensión
En general, la contribución a la discriminabilidad total por cada dimensión o característica puede medirse utilizando la cantidad en la que la discriminabilidad disminuye cuando se elimina esa dimensión. Si la discriminabilidad Bayes total es y la discriminabilidad Bayes con la dimensión eliminada es , podemos definir la contribución de la dimensión como . Esto es lo mismo que la discriminabilidad individual de la dimensión cuando las matrices de covarianza son iguales y diagonales, pero en los otros casos, esta medida refleja con mayor precisión la contribución de una dimensión que su discriminabilidad individual. [1]
Escalar la discriminabilidad de dos distribuciones
En ocasiones, podemos querer escalar la capacidad de discriminación de dos distribuciones de datos acercándolas o separándolas. Un caso así es cuando estamos modelando una tarea de detección o clasificación y el rendimiento del modelo supera al del sujeto o los datos observados. En ese caso, podemos acercar las distribuciones de las variables del modelo para que coincidan con el rendimiento observado, al mismo tiempo que predecimos qué puntos de datos específicos deberían comenzar a superponerse y clasificarse incorrectamente.
Hay varias formas de hacer esto. Una es calcular el vector de media y la matriz de covarianza de las dos distribuciones y luego efectuar una transformación lineal para interpolar la matriz de media y desviación estándar (raíz cuadrada de la matriz de covarianza) de una de las distribuciones hacia la otra. [1]
Otra forma de hacerlo es calculando las variables de decisión de los puntos de datos (cociente de verosimilitud de que un punto pertenezca a una distribución frente a otra) bajo un modelo multinormal, y luego acercando o alejando estas variables de decisión. [1]
^ abcdefghijklmnopqrs Das, Abhranil; Wilson S Geisler (2020). "Métodos para integrar multinormales y calcular medidas de clasificación". arXiv : 2012.14331 [stat.ML].
^ MacMillan, N.; Creelman, C. (2005). Teoría de la detección: una guía del usuario. Lawrence Erlbaum Associates. ISBN9781410611147.
^ ab Simpson, AJ; Fitter, MJ (1973). "¿Cuál es el mejor índice de detectabilidad?". Psychological Bulletin . 80 (6): 481–488. doi :10.1037/h0035203.
Wickens, Thomas D. (2001). Teoría elemental de detección de señales. OUP USA. cap. 2, p. 20. ISBN 0-19-509250-3.
Enlaces externos
Tutorial interactivo de teoría de detección de señales que incluye el cálculo de d ′.