La regresión logística y la regresión probit son más parecidas a ADL que ANOVA, pues también explican una variable categórica por los valores de variables independientes continuas.
Estos otros métodos son preferibles en aplicaciones donde no es razonable asumir que las variables independientes están normalmente distribuidas, lo cual es una suposición fundamental del método ADL.
ADL está también estrechamente relacionado con el análisis de componente principal (ACP) y el análisis factorial en que ambos buscan combinaciones lineales de variables que explican mejor los datos.
ACP por otro lado no toma en cuenta cualquier diferencia entre las clases, y el análisis factorial construye las combinaciones de características basadas en las diferencias en vez de las semejanzas.
ADL funciona cuando las medidas hechas sobre las variables independientes para cada observación son valores continuos.
siguen una distribución normal con parámetros de media y covarianza
Esto es frecuentemente útil para ver esta conclusión en términos geométricos: el criterio de una entrada
En otras palabras, la observación forma parte de y, si la correspondiente
La localización del plano está definida por el umbral c. El análisis discriminante canónico (ADC) busca los ejes (k – 1 coordenadas canónicas, donde k es el número de clases) que mejor separan las categorías.
Estas funciones lineales no están correlacionadas y definen, en efecto, un espacio óptimo k – 1 a través del conjunto n-dimensional de datos que mejor separa (las proyecciones en ese espacio) los k grupos.
Como ejemplo, en problemas bidimensionales, la línea que mejor divide los dos grupos es perpendicular a
Generalmente, los puntos de datos que serán discriminados son proyectados sobre
, entonces el umbral que mejor separa los datos es escogido del análisis de la distribución en una dimensión.
Estos vectores propios son primordialmente usados en la reducción de características, como en ACP.
Un ejemplo común de esto es "uno contra el resto" donde los puntos de una clase son agrupados, y todos lo demás puestos en otro grupo, y luego se aplica el ADL.
La implementación típica de la técnica ADL requiere que todos los ejemplos estén disponibles por adelantado.
Por ejemplo, en muchas aplicaciones en tiempo real como la robótica móvil o el reconocimiento de caras en línea, es importante actualizar las características extraídas por ADL tan pronto como las observaciones nuevas estén disponibles.
Este es un algoritmo ADL incremental, y su idea ha sido extensamente estudiada en las dos últimas décadas.
[10] Posteriormente Aliyari derivó algoritmos incrementales rápidos para actualizar las características ADL observando los nuevos ejemplos.
[8] En la práctica, las medias de las clases y las covarianzas no son conocidas.
Estas, sin embargo, pueden ser estimadas por medio del conjunto de formación.
Ya sea la estimación de la máxima verosimilitud, o la estimación máxima a posteriori, pueden ser usadas en lugar del valor exacto en las anteriormente citadas ecuaciones.
Sin embargo, la mejor estabilidad numérica puede ser lograda primeramente proyectando el problema en el subespacio abarcado por
[12][13] También, en muchos casos prácticos los discriminantes lineales no resultan adecuados.
Aquí, las observaciones originales son mapeadas efectivamente dentro de un espacio dimensional no lineal mayor.
El ejemplo más comúnmente utilizado para esto es el kernel del discriminante de Fisher.
ADL puede ser generalizado para el análisis discriminante múltiple, dónde c se convierte en una variable categórica con N estados posibles, en lugar de solo dos.
En la predicción de bancarrota, basada en considerar proporciones y otras variables financieras, el análisis discriminante lineal fue el primer método estadístico aplicado sistemáticamente para explicar cuáles empresas entraron en bancarrota vs.
La regresión logística u otros métodos son ahora más comúnmente usados.
Usando estas variables las funciones discriminantes se construyen, lo cual ayuda a clasificar objetivamente la magnitud de la enfermedad en un futuro paciente en ligera, moderada o severa.