Regresión de mínimos cuadrados parciales

Debido a que tanto los datos de X e Y se proyectan a nuevos espacios, la familia de los modelos PLS se conoce como factor de modelos bilineales.

Los cuadrados mínimos parciales Análisis discriminante (PLS-DA) es una variante que se utiliza cuando la Y es binaria.

La regresión de mínimos cuadrados parciales se utiliza para encontrar las relaciones fundamentales entre las dos matrices (X e Y), es decir, un enfoque de variable latente para modelar la estructura de covarianza en estos dos espacios.

El algoritmo de la regresión PLS se emplea en el modelado de ruta PLS,[1]​[2]​ un método para modelar una red "causal" de variables latentes, la palabra 'causal' se pone entre comillas, porque las causas, obviamente, no se pueden determinar sin experimentos o cuasi -métodos experimentales.

[3]​ El método de mínimos cuadrados parciales se introdujo por el estadístico sueco Herman Wold, quien lo desarrolló con su hijo, Svante Wold.

Un término alternativo para el PLS (y más correctamente según Svante Wold[4]​) es la proyección sobre estructuras latentes, pero la expresión de mínimos cuadrados parciales sigue siendo dominante en muchas áreas.

Aunque las aplicaciones originales estaban en las ciencias sociales, la regresión PLS es hoy en día más utilizado en Quimiometría y áreas relacionadas.

También se utiliza en la bioinformática, Sensometrics, la neurociencia y la antropología.

Por el contrario, PLS ruta modelado es la más utilizada en las ciencias sociales, la econometría, la comercialización y la gestión estratégica.

son los términos de error, supone que los independientes e idénticamente distribuidas las variables aleatorias normales.

Algunos algoritmos PLS sólo son apropiados para el caso en el que Y es un vector columna, mientras que otros tratan el caso general de una matriz

Algoritmos también difieren en si se estima la matriz de factores

Esta forma del algoritmo no requiere el centrado de la entrada X e Y , Ya que esto se realiza implícitamente por el algoritmo.

Este algoritmo cuenta con "deflación" de la matriz X (Sustracción de The Kid t ^ {(k)} {p ^ {(k)}} ^ T ), Pero la deflación del vector y no se lleva a cabo, ya que no es necesario (se puede demostrar que desinflar y produce los mismos resultados que no se desinfla.).

La variable proporcionada por el usuario l es el límite en el número de factores latentes en la regresión, y si es igual al rango de la matriz X , El algoritmo va a producir las estimaciones de regresión de mínimos cuadrados para los B y B_0 En 2002 se publicó un nuevo método llamado proyecciones ortogonales a las estructuras latentes (OPLS).

En OPLS, datos variables continuas se separan en información predictiva y no correlacionadas.

[11]​ L-PLS regresión PLS se extiende a 3 bloques de datos conectados.