La teoría de detección o teoría de detección de señales es un medio para medir la capacidad de diferenciar entre patrones portadores de información (llamados estímulo en los organismos vivos, señal en las máquinas) y patrones aleatorios que distraen de la información (llamados ruido , que consiste en estímulos de fondo y actividad aleatoria de la máquina de detección y del sistema nervioso del operador).
En el campo de la electrónica , la recuperación de señales es la separación de dichos patrones de un fondo que los oculta. [1]
Según la teoría, hay una serie de factores que determinan cómo un sistema de detección detectará una señal y dónde se ubicarán sus niveles de umbral. La teoría puede explicar cómo el cambio del umbral afectará la capacidad de discernimiento, a menudo exponiendo cuán adaptado está el sistema a la tarea, propósito u objetivo al que está dirigido. Cuando el sistema de detección es un ser humano, características como la experiencia, las expectativas, el estado fisiológico (por ejemplo, la fatiga) y otros factores pueden afectar el umbral aplicado. Por ejemplo, un centinela en tiempos de guerra podría tener más probabilidades de detectar estímulos más débiles que el mismo centinela en tiempos de paz debido a un criterio más bajo, sin embargo, también podría tener más probabilidades de tratar los estímulos inocuos como una amenaza.
Gran parte del trabajo inicial en la teoría de detección fue realizado por investigadores del radar . [2] Para 1954, la teoría estaba completamente desarrollada en el lado teórico como lo describieron Peterson , Birdsall y Fox [3] y la base para la teoría psicológica fue hecha por Wilson P. Tanner, David M. Green y John A. Swets , también en 1954. [4] La teoría de detección fue utilizada en 1966 por John A. Swets y David M. Green para la psicofísica . [5] Green y Swets criticaron los métodos tradicionales de la psicofísica por su incapacidad para discriminar entre la sensibilidad real de los sujetos y sus sesgos de respuesta (potenciales) . [6]
La teoría de detección tiene aplicaciones en muchos campos, como el diagnóstico de cualquier tipo, el control de calidad , las telecomunicaciones y la psicología . El concepto es similar a la relación señal-ruido que se utiliza en las ciencias y a las matrices de confusión que se utilizan en la inteligencia artificial . También se puede utilizar en la gestión de alarmas , donde es importante separar los eventos importantes del ruido de fondo .
La teoría de detección de señales (SDT) se utiliza cuando los psicólogos quieren medir la forma en que tomamos decisiones en condiciones de incertidumbre, como cómo percibiríamos las distancias en condiciones de niebla o durante la identificación de testigos oculares . [7] [8] La SDT supone que el tomador de decisiones no es un receptor pasivo de información, sino un tomador de decisiones activo que hace juicios perceptivos difíciles en condiciones de incertidumbre. En circunstancias de niebla, nos vemos obligados a decidir a qué distancia de nosotros está un objeto, basándonos únicamente en el estímulo visual que se ve afectado por la niebla. Dado que el cerebro utiliza el brillo del objeto, como un semáforo, para discriminar la distancia de un objeto, y la niebla reduce el brillo de los objetos, percibimos que el objeto está mucho más lejos de lo que realmente está (ver también teoría de la decisión ). Según la SDT, durante las identificaciones de testigos oculares, los testigos basan su decisión sobre si un sospechoso es el culpable o no en su nivel percibido de familiaridad con el sospechoso.
Para aplicar la teoría de detección de señales a un conjunto de datos donde los estímulos estaban presentes o ausentes, y el observador categorizó cada ensayo como con el estímulo presente o ausente, los ensayos se clasifican en una de cuatro categorías:
Con base en las proporciones de este tipo de ensayos, se pueden obtener estimaciones numéricas de la sensibilidad con estadísticas como el índice de sensibilidad d' y A', [9] y el sesgo de respuesta se puede estimar con estadísticas como c y β. [9] β es la medida del sesgo de respuesta. [10]
La teoría de detección de señales también se puede aplicar a los experimentos de memoria, en los que se presentan elementos en una lista de estudio para su posterior prueba. Se crea una lista de prueba combinando estos elementos "antiguos" con elementos "nuevos" que no aparecían en la lista de estudio. En cada ensayo de prueba, el sujeto responderá "sí, esto estaba en la lista de estudio" o "no, esto no estaba en la lista de estudio". Los elementos presentados en la lista de estudio se denominan objetivos y los elementos nuevos se denominan distractores. Decir "Sí" a un objetivo constituye un acierto, mientras que decir "Sí" a un distractor constituye una falsa alarma.
La teoría de detección de señales tiene una amplia aplicación, tanto en humanos como en animales . Los temas incluyen la memoria , las características de los estímulos de los programas de refuerzo, etc.
En términos conceptuales, la sensibilidad se refiere a la dificultad o facilidad con la que se detecta la presencia de un estímulo objetivo a partir de eventos de fondo. Por ejemplo, en un paradigma de memoria de reconocimiento, tener más tiempo para estudiar las palabras que se van a recordar hace que sea más fácil reconocer palabras vistas o escuchadas previamente. Por el contrario, tener que recordar 30 palabras en lugar de 5 hace que la discriminación sea más difícil. Una de las estadísticas más utilizadas para calcular la sensibilidad es el denominado índice de sensibilidad o d' . También existen medidas no paramétricas , como el área bajo la curva ROC . [6]
El sesgo es el grado en el que una respuesta es más probable que otra, promediando entre los casos con estímulo presente y sin estímulo. Es decir, un receptor puede tener más probabilidades en general de responder que un estímulo está presente o más probabilidades en general de responder que un estímulo no está presente. El sesgo es independiente de la sensibilidad. El sesgo puede ser deseable si las falsas alarmas y los errores conducen a diferentes costos. Por ejemplo, si el estímulo es un bombardero, entonces un error (no detectar al bombardero) puede ser más costoso que una falsa alarma (informar sobre un bombardero cuando no lo hay), lo que hace que un sesgo de respuesta liberal sea deseable. Por el contrario, dar falsas alarmas con demasiada frecuencia ( gritar al lobo ) puede hacer que las personas sean menos propensas a responder, un problema que se puede reducir con un sesgo de respuesta conservador.
Otro campo que está estrechamente relacionado con la teoría de detección de señales se llama detección comprimida (o detección compresiva). El objetivo de la detección comprimida es recuperar entidades de alta dimensión pero con baja complejidad a partir de solo unas pocas mediciones. Por lo tanto, una de las aplicaciones más importantes de la detección comprimida es la recuperación de señales de alta dimensión que se sabe que son dispersas (o casi dispersas) con solo unas pocas mediciones lineales. El número de mediciones necesarias en la recuperación de señales es mucho menor que lo que requiere el teorema de muestreo de Nyquist siempre que la señal sea dispersa, lo que significa que solo contiene unos pocos elementos distintos de cero. Existen diferentes métodos de recuperación de señales en la detección comprimida, incluyendo la búsqueda de base , el algoritmo de recuperación de expansor [11] , CoSaMP [12] y también el algoritmo rápido no iterativo [13] . En todos los métodos de recuperación mencionados anteriormente, la elección de una matriz de medición adecuada utilizando construcciones probabilísticas o construcciones deterministas es de gran importancia. En otras palabras, las matrices de medición deben satisfacer ciertas condiciones específicas como RIP (propiedad de isometría restringida) o propiedad de espacio nulo para lograr una recuperación dispersa robusta.
En el caso de tomar una decisión entre dos hipótesis , H1 , ausente, y H2 , presente, en el caso de una observación particular , y , un enfoque clásico es elegir H1 cuando p(H1|y) > p(H2|y) y H2 en el caso inverso. [14] En el caso de que las dos probabilidades a posteriori sean iguales, uno podría elegir por defecto una única opción (ya sea elegir siempre H1 o elegir siempre H2 ), o podría seleccionar aleatoriamente H1 o H2 . Las probabilidades a priori de H1 y H2 pueden guiar esta elección, por ejemplo, eligiendo siempre la hipótesis con la mayor probabilidad a priori .
Al adoptar este enfoque, normalmente lo que se conoce son las probabilidades condicionales, p(y|H1) y p(y|H2) , y las probabilidades a priori y . En este caso,
,
donde p(y) es la probabilidad total del evento y ,
.
Se elige H2 en caso
y H1 en caso contrario.
A menudo, la razón se denomina y se denomina razón de verosimilitud .
Usando esta terminología, H2 se elige en el caso . Esto se llama prueba MAP, donde MAP significa "máximo a posteriori ").
Adoptar este enfoque minimiza el número esperado de errores que uno puede cometer.
En algunos casos, es mucho más importante responder adecuadamente a H1 que a H2 . Por ejemplo, si suena una alarma que indica H1 (un bombardero que se aproxima lleva un arma nuclear ), es mucho más importante derribar el bombardero si H1 = VERDADERO, que evitar enviar un escuadrón de cazas a inspeccionar una falsa alarma (es decir, H1 = FALSO, H2 = VERDADERO) (suponiendo que hay un gran suministro de escuadrones de cazas). El criterio de Bayes es un enfoque adecuado para tales casos. [14]
Aquí se asocia una utilidad a cada una de cuatro situaciones:
Como se muestra a continuación, lo importante son las diferencias y .
De manera similar, hay cuatro probabilidades, , , etc., para cada uno de los casos (que dependen de la estrategia de decisión de cada uno).
El enfoque del criterio de Bayes consiste en maximizar la utilidad esperada:
En efecto, se puede maximizar la suma,
,
y hacer las siguientes sustituciones:
donde y son las probabilidades a priori , y , y es la región de eventos de observación, y , a los que se responde como si H1 fuera verdadero.
y por lo tanto se maximizan al extenderse sobre la región donde
Esto se logra decidiendo H2 en caso
y H1 en caso contrario, donde L(y) es la razón de verosimilitud así definida .
Das y Geisler [15] ampliaron los resultados de la teoría de detección de señales para estímulos distribuidos normalmente y derivaron métodos para calcular la tasa de error y la matriz de confusión para observadores ideales y observadores no ideales para detectar y categorizar señales normales univariadas y multivariadas de dos o más categorías.