Una transformación de blanqueamiento o transformación de esferización es una transformación lineal que transforma un vector de variables aleatorias con una matriz de covarianza conocida en un conjunto de nuevas variables cuya covarianza es la matriz identidad , lo que significa que no están correlacionadas y cada una tiene una varianza de 1. [1] La transformación se llama "blanqueamiento" porque cambia el vector de entrada en un vector de ruido blanco .
Hay otras transformaciones estrechamente relacionadas con el blanqueamiento:
Supongamos que es un vector aleatorio (columna) con una matriz de covarianza no singular y una media . Entonces, la transformación con una matriz de blanqueamiento que satisface la condición produce el vector aleatorio blanqueado con covarianza diagonal unitaria.
Existen infinitas matrices de blanqueamiento posibles que satisfacen todas la condición anterior. Las opciones más utilizadas son (blanqueamiento Mahalanobis o ZCA), donde es la descomposición de Cholesky de (blanqueamiento Cholesky), [3] o el sistema propio de (blanqueamiento PCA). [4]
Las transformaciones de blanqueamiento óptimas se pueden identificar investigando la covarianza cruzada y la correlación cruzada de y . [3] Por ejemplo, la única transformación de blanqueamiento óptima que logra la correlación máxima entre componentes entre el original y el blanqueado se produce mediante la matriz de blanqueamiento donde es la matriz de correlación y la matriz de varianza diagonal.
El blanqueamiento de una matriz de datos sigue la misma transformación que para las variables aleatorias. Una transformación de blanqueamiento empírica se obtiene estimando la covarianza (por ejemplo, mediante máxima verosimilitud ) y construyendo posteriormente una matriz de blanqueamiento estimada correspondiente (por ejemplo, mediante descomposición de Cholesky ).
Esta modalidad es una generalización del procedimiento de preblanqueo extendido a espacios más generales donde se supone usualmente que es una función aleatoria u otros objetos aleatorios en un espacio de Hilbert . Uno de los principales problemas de extender el blanqueamiento a dimensiones infinitas es que el operador de covarianza tiene una inversa ilimitada en . Sin embargo, si uno supone que la condición de Picard se cumple para en el espacio de rango del operador de covarianza, el blanqueamiento se vuelve posible. [5] Un operador de blanqueamiento puede entonces definirse a partir de la factorización de la inversa de Moore–Penrose del operador de covarianza, que tiene un mapeo efectivo en expansiones de tipo Karhunen–Loève de . La ventaja de estas transformaciones de blanqueamiento es que pueden optimizarse de acuerdo con las propiedades topológicas subyacentes de los datos, produciendo así representaciones de blanqueamiento más robustas. Las características de alta dimensión de los datos pueden explotarse a través de regresores de kernel o sistemas de funciones base. [6]
Una implementación de varios procedimientos de blanqueamiento en R , incluyendo blanqueamiento ZCA y blanqueamiento PCA pero también blanqueamiento CCA , está disponible en el paquete R "whitening" [7] publicado en CRAN . El paquete R "pfica" [8] permite el cálculo de representaciones de blanqueamiento de alta dimensión utilizando sistemas de funciones base ( B-splines , base de Fourier , etc.).