Teoría de procesos estocásticos
En la teoría de procesos estocásticos , el teorema de Karhunen-Loève (llamado así por Kari Karhunen y Michel Loève ), también conocido como teorema de Kosambi-Karhunen-Loève [1] [2] establece que un proceso estocástico puede representarse como una combinación lineal infinita de funciones ortogonales , análoga a una representación en serie de Fourier de una función en un intervalo acotado. La transformación también se conoce como transformada de Hotelling y transformada de vectores propios , y está estrechamente relacionada con la técnica de análisis de componentes principales (PCA) ampliamente utilizada en el procesamiento de imágenes y en el análisis de datos en muchos campos. [3]
Existen muchas expansiones de un proceso estocástico: si el proceso está indexado sobre [ a , b ] , cualquier base ortonormal de L 2 ([ a , b ]) produce una expansión del mismo en esa forma. La importancia del teorema de Karhunen–Loève es que produce la mejor base de este tipo en el sentido de que minimiza el error cuadrático medio total .
A diferencia de una serie de Fourier, en la que los coeficientes son números fijos y la base de expansión está formada por funciones sinusoidales (es decir, funciones seno y coseno ), los coeficientes del teorema de Karhunen-Loève son variables aleatorias y la base de expansión depende del proceso. De hecho, las funciones de base ortogonales utilizadas en esta representación están determinadas por la función de covarianza del proceso. Se puede pensar que la transformada de Karhunen-Loève se adapta al proceso para producir la mejor base posible para su expansión.
En el caso de un proceso estocástico centrado { X t } t ∈ [ a , b ] ( centrado significa E [ X t ] = 0 para todo t ∈ [ a , b ] ) que satisface una condición de continuidad técnica, X admite una descomposición
donde Z k son variables aleatorias no correlacionadas por pares y las funciones e k son funciones continuas de valor real en [ a , b ] que son ortogonales por pares en L 2 ([ a , b ]) . Por lo tanto, a veces se dice que la expansión es bi-ortogonal ya que los coeficientes aleatorios Z k son ortogonales en el espacio de probabilidad mientras que las funciones deterministas e k son ortogonales en el dominio del tiempo. El caso general de un proceso X t que no está centrado puede volver al caso de un proceso centrado considerando X t − E [ X t ] que es un proceso centrado.
Además, si el proceso es gaussiano , entonces las variables aleatorias Z k son gaussianas y estocásticamente independientes . Este resultado generaliza la transformada de Karhunen–Loève . Un ejemplo importante de un proceso estocástico real centrado en [0, 1] es el proceso de Wiener ; el teorema de Karhunen–Loève se puede utilizar para proporcionar una representación ortogonal canónica para él. En este caso, la expansión consiste en funciones sinusoidales.
La expansión anterior en variables aleatorias no correlacionadas también se conoce como expansión de Karhunen–Loève o descomposición de Karhunen–Loève . La versión empírica (es decir, con los coeficientes calculados a partir de una muestra) se conoce como transformada de Karhunen–Loève (KLT), análisis de componentes principales , descomposición ortogonal adecuada (POD) , funciones ortogonales empíricas (un término utilizado en meteorología y geofísica ) o transformada de Hotelling .
Formulación
- En este artículo, consideraremos un proceso aleatorio X t definido sobre un espacio de probabilidad (Ω, F , P ) e indexado sobre un intervalo cerrado [ a , b ] , que es integrable al cuadrado , tiene media cero y con función de covarianza K X ( s , t ) . En otras palabras, tenemos:
La condición de integrabilidad al cuadrado es lógicamente equivalente a ser finito para todo . [4]
- Como T K X es un operador lineal, tiene sentido hablar de sus valores propios λ k y funciones propias e k , que se encuentran resolviendo la ecuación integral homogénea de Fredholm de segundo tipo.
Enunciado del teorema
Teorema . Sea X t un proceso estocástico integrable por medio cuadrático cero definido sobre un espacio de probabilidad (Ω, F , P ) e indexado sobre un intervalo cerrado y acotado [ a , b ], con función de covarianza continua K X ( s , t ) .
Entonces K X ( s,t ) es un núcleo de Mercer y siendo e k una base ortonormal en L 2 ([ a , b ]) formada por las funciones propias de T K X con respectivos valores propios λ k , X t admite la siguiente representación
donde la convergencia es en L 2 , uniforme en t y
Además, las variables aleatorias Z k tienen media cero, no están correlacionadas y tienen varianza λ k
Nótese que por generalizaciones del teorema de Mercer podemos reemplazar el intervalo [ a , b ] con otros espacios compactos C y la medida de Lebesgue en [ a , b ] con una medida de Borel cuyo soporte es C .
Prueba
- La función de covarianza K X satisface la definición de un núcleo de Mercer. Por el teorema de Mercer , existe en consecuencia un conjunto λ k , e k ( t ) de valores propios y funciones propias de T K X que forman una base ortonormal de L 2 ([ a , b ]) , y K X puede expresarse como
- El proceso X t se puede expandir en términos de las funciones propias e k como:
- donde los coeficientes (variables aleatorias) Z k están dados por la proyección de X t sobre las respectivas funciones propias
- donde hemos utilizado el hecho de que las e k son funciones propias de T K X y son ortonormales.
- Demostremos ahora que la convergencia está en L 2 . Sea
- Entonces:
- que tiende a 0 por el teorema de Mercer.
Propiedades de la transformada de Karhunen-Loève
Caso especial: distribución gaussiana
Dado que el límite en la media de las variables aleatorias conjuntamente gaussianas es conjuntamente gaussiana, y las variables aleatorias conjuntamente gaussianas (centradas) son independientes si y solo si son ortogonales, también podemos concluir:
Teorema . Las variables Z i tienen una distribución gaussiana conjunta y son estocásticamente independientes si el proceso original { X t } t es gaussiano.
En el caso gaussiano, como las variables Z i son independientes, podemos decir más:
Casi seguro.
La transformada de Karhunen-Loève decorrelaciona el proceso
Esto es una consecuencia de la independencia de Z k .
La expansión de Karhunen-Loève minimiza el error cuadrático medio total
En la introducción mencionamos que la expansión truncada de Karhunen-Loeve era la mejor aproximación del proceso original en el sentido de que reduce el error cuadrático medio total resultante de su truncamiento. Debido a esta propiedad, se suele decir que la transformada KL compacta de manera óptima la energía.
Más específicamente, dada cualquier base ortonormal { f k } de L 2 ([ a , b ]) , podemos descomponer el proceso X t como:
dónde
y podemos aproximar X t por la suma finita
para algún entero N .
Afirmación . De todas estas aproximaciones, la aproximación KL es la que minimiza el error cuadrático medio total (siempre que hayamos ordenado los valores propios en orden decreciente).
PruebaConsideremos el error resultante del truncamiento en el término N en la siguiente expansión ortonormal:
El error cuadrático medio ε N 2 ( t ) se puede escribir como:
Luego integramos esta última igualdad sobre [ a , b ]. La ortonormalidad de f k da:
El problema de minimizar el error cuadrático medio total se reduce entonces a minimizar el lado derecho de esta igualdad sujeto a la restricción de que f k esté normalizada. Por lo tanto, introducimos β k , los multiplicadores lagrangianos asociados con estas restricciones, y apuntamos a minimizar la siguiente función:
Derivando con respecto a f i ( t ) (esta es una derivada funcional ) y fijando la derivada en 0 se obtiene:
lo cual se satisface en particular cuando
En otras palabras, cuando se eligen las f k como funciones propias de T K X , se obtiene como resultado la expansión KL.
Varianza explicada
Una observación importante es que, dado que los coeficientes aleatorios Z k de la expansión KL no están correlacionados, la fórmula de Bienaymé afirma que la varianza de X t es simplemente la suma de las varianzas de los componentes individuales de la suma:
Integrando sobre [ a , b ] y utilizando la ortonormalidad de e k , obtenemos que la varianza total del proceso es:
En particular, la varianza total de la aproximación N -truncada es
Como resultado, la expansión N -truncada explica
de la varianza; y si nos conformamos con una aproximación que explica, digamos, el 95% de la varianza, entonces sólo tenemos que determinar una tal que
La expansión de Karhunen-Loève tiene la propiedad de entropía de representación mínima
Dada una representación de , para alguna base ortonormal y aleatoria , hacemos que , de modo que . Podemos entonces definir la entropía de representación como . Entonces tenemos , para todas las opciones de . Es decir, la expansión KL tiene una entropía de representación mínima.
Prueba:
Denotemos los coeficientes obtenidos para la base como , y para como .
Elija . Tenga en cuenta que, dado que minimiza el error cuadrático medio, tenemos que
Ampliando el tamaño de la mano derecha, obtenemos:
Usando la ortonormalidad de , y expandiendo en la base, obtenemos que el tamaño de la mano derecha es igual a:
Podemos realizar un análisis idéntico para , y así reescribir la desigualdad anterior como:
Restando el primer término común, y dividiendo por , obtenemos que:
Esto implica que:
Aproximaciones lineales de Karhunen-Loève
Consideremos una clase completa de señales que queremos aproximar sobre los primeros M vectores de una base. Estas señales se modelan como realizaciones de un vector aleatorio Y [ n ] de tamaño N . Para optimizar la aproximación, diseñamos una base que minimiza el error de aproximación promedio. Esta sección demuestra que las bases óptimas son bases de Karhunen–Loeve que diagonalizan la matriz de covarianza de Y . El vector aleatorio Y se puede descomponer en una base ortogonal
como sigue:
donde cada uno
es una variable aleatoria. La aproximación a partir de los primeros M ≤ N vectores de la base es
La conservación de la energía en una base ortogonal implica
Este error está relacionado con la covarianza de Y definida por
Para cualquier vector x [ n ] denotamos por K el operador de covarianza representado por esta matriz,
El error ε [ M ] es por tanto una suma de los últimos N − M coeficientes del operador de covarianza.
El operador de covarianza K es hermítico y positivo y, por lo tanto, está diagonalizado en una base ortogonal denominada base de Karhunen-Loève. El siguiente teorema establece que una base de Karhunen-Loève es óptima para aproximaciones lineales.
Teorema (optimalidad de la base de Karhunen–Loève). Sea K un operador de covarianza. Para todo M ≥ 1 , el error de aproximación
es mínimo si y sólo si
es una base de Karhunen-Loeve ordenada por valores propios decrecientes.
Aproximación no lineal en bases
Las aproximaciones lineales proyectan la señal sobre M vectores a priori. La aproximación puede hacerse más precisa eligiendo los M vectores ortogonales en función de las propiedades de la señal. En esta sección se analiza el rendimiento general de estas aproximaciones no lineales. Una señal se aproxima con M vectores seleccionados de forma adaptativa en una base ortonormal para [ definición necesaria ]
Sea la proyección de f sobre M vectores cuyos índices están en I M :
El error de aproximación es la suma de los coeficientes restantes.
Para minimizar este error, los índices en I M deben corresponder a los vectores M que tienen la mayor amplitud del producto interno.
Estos son los vectores que mejor correlacionan f. Por lo tanto, pueden interpretarse como las características principales de f. El error resultante es necesariamente menor que el error de una aproximación lineal que selecciona los M vectores de aproximación independientemente de f. Ordenemos
En orden decreciente
La mejor aproximación no lineal es
También se puede escribir como umbral de producto interno:
con
El error no lineal es
Este error se reduce rápidamente a cero a medida que M aumenta, si los valores ordenados de tienen una rápida disminución a medida que k aumenta. Esta disminución se cuantifica calculando la norma de los productos internos de la señal en B:
El siguiente teorema relaciona la desintegración de ε [ M ] con
Teorema ( decaimiento del error). Si p < 2 entonces
y
Por el contrario, si entonces
para cualquier q > p .
Falta de optimización de las bases Karhunen-Loève
Para ilustrar mejor las diferencias entre aproximaciones lineales y no lineales, estudiamos la descomposición de un vector aleatorio simple no gaussiano en una base Karhunen-Loève. Los procesos cuyas realizaciones tienen una traslación aleatoria son estacionarios. La base Karhunen-Loève es entonces una base de Fourier y estudiamos su desempeño. Para simplificar el análisis, considere un vector aleatorio Y [ n ] de tamaño N que es un desplazamiento aleatorio módulo N de una señal determinista f [ n ] de media cero.
El desplazamiento aleatorio P se distribuye uniformemente en [0, N − 1]:
Claramente
y
Por eso
Como R Y es periódico N, Y es un vector aleatorio estacionario circular. El operador de covarianza es una convolución circular con R Y y, por lo tanto, está diagonalizado en la base discreta de Fourier Karhunen-Loève
El espectro de potencia es la transformada de Fourier de R Y :
Ejemplo: Consideremos un caso extremo donde . Un teorema enunciado anteriormente garantiza que la base de Fourier Karhunen–Loève produce un error de aproximación esperado menor que una base canónica de Diracs . De hecho, no conocemos a priori la abscisa de los coeficientes no nulos de Y , por lo que no hay ningún Dirac particular que esté mejor adaptado para realizar la aproximación. Pero los vectores de Fourier cubren todo el soporte de Y y, por lo tanto, absorben una parte de la energía de la señal.
La selección de coeficientes de Fourier de frecuencias más altas produce una mejor aproximación cuadrática media que la elección a priori de unos pocos vectores de Dirac para realizar la aproximación. La situación es totalmente diferente para las aproximaciones no lineales. Si, entonces, la base de Fourier discreta es extremadamente ineficiente porque f y, por lo tanto, Y tienen una energía que se distribuye casi uniformemente entre todos los vectores de Fourier. En cambio, dado que f tiene solo dos coeficientes distintos de cero en la base de Dirac, una aproximación no lineal de Y con M ≥ 2 da un error cero. [5]
Análisis de componentes principales
Hemos establecido el teorema de Karhunen-Loève y hemos derivado algunas propiedades del mismo. También hemos observado que un obstáculo en su aplicación era el coste numérico de determinar los valores propios y las funciones propias de su operador de covarianza a través de la ecuación integral de Fredholm de segunda especie.
Sin embargo, cuando se aplica a un proceso discreto y finito , el problema toma una forma mucho más simple y se puede utilizar el álgebra estándar para realizar los cálculos.
Téngase en cuenta que un proceso continuo también se puede muestrear en N puntos en el tiempo para reducir el problema a una versión finita.
De ahora en adelante, consideraremos un vector aleatorio de dimensión N. Como se mencionó anteriormente, X podría contener N muestras de una señal, pero puede albergar muchas más representaciones según el campo de aplicación. Por ejemplo, podrían ser las respuestas a una encuesta o datos económicos en un análisis econométrico.
Al igual que en la versión continua, asumimos que X está centrado, de lo contrario podemos ser (donde es el vector medio de X ) que está centrado.
Adaptemos el procedimiento al caso discreto.
Matriz de covarianza
Recordemos que la principal implicación y dificultad de la transformación KL es calcular los vectores propios del operador lineal asociado a la función de covarianza, que están dados por las soluciones de la ecuación integral escrita anteriormente.
Defina Σ, la matriz de covarianza de X , como una matriz N × N cuyos elementos están dados por:
Reescribiendo la ecuación integral anterior para adaptarla al caso discreto, observamos que se convierte en:
donde es un vector N -dimensional.
La ecuación integral se reduce así a un simple problema de valor propio de la matriz, lo que explica por qué el PCA tiene un dominio tan amplio de aplicaciones.
Como Σ es una matriz simétrica definida positiva, posee un conjunto de vectores propios ortonormales que forman una base de , y escribimos este conjunto de valores propios y vectores propios correspondientes, enumerados en valores decrecientes de λ i . Sea también Φ la matriz ortonormal que consta de estos vectores propios:
Transformación de componentes principales
Queda por realizar la transformación KL propiamente dicha, denominada en este caso transformación de componentes principales . Recordemos que la transformación se obtuvo expandiendo el proceso con respecto a la base abarcada por los vectores propios de la función de covarianza. En este caso, tenemos:
En una forma más compacta, la transformada de componentes principales de X se define por:
El componente i -ésimo de Y es , la proyección de X sobre y la transformada inversa X = Φ Y produce la expansión de X en el espacio abarcado por :
Al igual que en el caso continuo, podemos reducir la dimensionalidad del problema truncando la suma en algún punto tal que
donde α es el umbral de varianza explicada que deseamos establecer.
También podemos reducir la dimensionalidad mediante el uso de la estimación de vectores propios dominantes multinivel (MDEE). [6]
Ejemplos
El proceso de Wiener
Existen numerosas caracterizaciones equivalentes del proceso de Wiener , que es una formalización matemática del movimiento browniano . Aquí lo consideramos como el proceso gaussiano estándar centrado W t con función de covarianza
Restringimos el dominio del tiempo a [ a , b ]=[0,1] sin pérdida de generalidad.
Los vectores propios del núcleo de covarianza se determinan fácilmente. Son
y los valores propios correspondientes son
PruebaPara encontrar los valores propios y los vectores propios, necesitamos resolver la ecuación integral:
diferenciando una vez con respecto a t obtenemos:
Una segunda diferenciación produce la siguiente ecuación diferencial:
La solución general de la cual tiene la forma:
donde A y B son dos constantes que se deben determinar con las condiciones de contorno. Si se fija t = 0 en la ecuación integral inicial, se obtiene e (0) = 0, lo que implica que B = 0 y, de manera similar, si se fija t = 1 en la primera diferenciación, se obtiene e' (1) = 0, de donde:
lo que a su vez implica que los valores propios de T K X son:
Las funciones propias correspondientes son entonces de la forma:
Luego se elige A para normalizar e k :
Esto da la siguiente representación del proceso de Wiener:
Teorema . Existe una secuencia { Z i } i de variables aleatorias gaussianas independientes con media cero y varianza 1 tales que
Nótese que esta representación solo es válida para En intervalos mayores, los incrementos no son independientes. Como se indica en el teorema, la convergencia está en la norma L 2 y es uniforme en t .
El puente browniano
De manera similar, el puente browniano , que es un proceso estocástico con función de covarianza.
se puede representar como la serie
Aplicaciones
Los sistemas de óptica adaptativa a veces utilizan funciones K–L para reconstruir la información de fase del frente de onda (Dai 1996, JOSA A). La expansión de Karhunen–Loève está estrechamente relacionada con la descomposición en valores singulares . Esta última tiene innumerables aplicaciones en el procesamiento de imágenes, el radar, la sismología y similares. Si uno tiene observaciones vectoriales independientes de un proceso estocástico con valores vectoriales, entonces los vectores singulares de la izquierda son estimaciones de máxima verosimilitud de la expansión KL del conjunto.
Aplicaciones en estimación y detección de señales
Detección de una señal continua conocidaS(a)
En comunicación, normalmente tenemos que decidir si una señal de un canal ruidoso contiene información valiosa. La siguiente prueba de hipótesis se utiliza para detectar la señal continua s ( t ) de la salida del canal X ( t ), N ( t ) es el ruido del canal, que normalmente se supone que es de media cero Proceso gaussiano con función de correlación
Detección de señales en ruido blanco
Cuando el ruido del canal es blanco, su función de correlación es
y tiene una densidad de espectro de potencia constante. En un canal físicamente práctico, la potencia de ruido es finita, por lo que:
Entonces la función de correlación de ruido es una función sinc con ceros en Dado que no están correlacionados y son gaussianos, son independientes. Por lo tanto, podemos tomar muestras de X ( t ) con espaciamiento temporal
Sea . Tenemos un total de observaciones iid para desarrollar la prueba de razón de verosimilitud. Definamos la señal , el problema se convierte en,
La razón de verosimilitud logarítmica
Cuando t → 0 , sea:
Entonces G son las estadísticas de prueba y el detector óptimo de Neyman-Pearson es
Como G es gaussiana, podemos caracterizarla hallando su media y varianzas. Entonces obtenemos
dónde
Es la energía de la señal.
El error de falsa alarma
Y la probabilidad de detección:
donde Φ es la cdf de la variable normal estándar o gaussiana.
Detección de señales en ruido coloreado
Cuando N(t) es ruido gaussiano coloreado (correlacionada en el tiempo) con media cero y función de covarianza, no podemos muestrear observaciones discretas independientes espaciando el tiempo de manera uniforme. En cambio, podemos usar la expansión K–L para descorrelacionar el proceso de ruido y obtener "muestras" de observaciones gaussianas independientes. La expansión K–L de N ( t ):
donde y las bases ortonormales se generan por kernel , es decir, solución a
Hacer la expansión:
donde , entonces
bajo H y bajo K. Sea , tenemos
- son variables aleatorias gaussianas independientes con varianza
- bajo H: son variables aleatorias gaussianas independientes.
- bajo K: son variables aleatorias gaussianas independientes.
Por lo tanto, el log-LR viene dado por
y el detector óptimo es
Definir
entonces
Cómo encontrara(a)
Desde
k(t) es la solución de
Si N ( t ) es estacionario en sentido amplio,
que se conoce como ecuación de Wiener-Hopf . La ecuación se puede resolver tomando la transformada de Fourier, pero no es factible en la práctica ya que el espectro infinito necesita factorización espacial. Un caso especial que es fácil de calcular k ( t ) es el ruido gaussiano blanco.
La respuesta al impulso correspondiente es h ( t ) = k ( T − t ) = CS ( T − t ). Sea C = 1, este es simplemente el resultado al que llegamos en la sección anterior para la detección de señal en ruido blanco.
Umbral de prueba para el detector Neyman-Pearson
Dado que X(t) es un proceso gaussiano,
es una variable aleatoria gaussiana que se puede caracterizar por su media y varianza.
Por tanto, obtenemos las distribuciones de H y K :
El error de falsa alarma es
Por lo tanto, el umbral de prueba para el detector óptimo de Neyman-Pearson es
Su poder de detección es
Cuando el ruido es un proceso gaussiano blanco, la potencia de la señal es
Preblanqueamiento
Para algunos tipos de ruido coloreado, una práctica típica es agregar un filtro de preblanqueamiento antes del filtro adaptado para transformar el ruido coloreado en ruido blanco. Por ejemplo, N(t) es un ruido coloreado estacionario de sentido amplio con función de correlación
La función de transferencia del filtro de preblanqueamiento es
Cuando la señal que queremos detectar del canal ruidoso también es aleatoria, por ejemplo, un proceso gaussiano blanco X ( t ), aún podemos implementar la expansión K–L para obtener una secuencia de observación independiente. En este caso, el problema de detección se describe de la siguiente manera:
X ( t ) es un proceso aleatorio con función de correlación
La expansión K–L de X ( t ) es
dónde
y son soluciones a
Por lo tanto , son secuencias independientes de variables aleatorias con media y varianza cero . Al expandir Y ( t ) y N ( t ) por , obtenemos
dónde
Como N ( t ) es ruido blanco gaussiano, y son secuencias iid de rv con media y varianza cero , entonces el problema se simplifica de la siguiente manera:
La prueba óptima de Neyman-Pearson:
Por lo tanto, la razón de verosimilitud logarítmica es
Desde
es simplemente la estimación del mínimo cuadrático medio de un valor dado ,
La expansión K–L tiene la siguiente propiedad: Si
dónde
entonces
Así que dejemoslo
Se puede utilizar el filtro no causal Q ( t , s ) para obtener la estimación
Por el principio de ortogonalidad , Q ( t , s ) satisface
Sin embargo, por razones prácticas, es necesario derivar además el filtro causal h ( t , s ), donde h ( t , s ) = 0 para s > t , para obtener la estimación . Específicamente,
Véase también
Notas
- ^ Sapatnekar, Sachin (2011), "Superar las variaciones en las tecnologías a escala nanométrica", IEEE Journal on Emerging and Selected Topics in Circuits and Systems , 1 (1): 5–18, Bibcode :2011IJEST...1....5S, CiteSeerX 10.1.1.300.5659 , doi :10.1109/jetcas.2011.2138250, S2CID 15566585
- ^ Ghoman, Satyajit; Wang, Zhicun; Chen, PC; Kapania, Rakesh (2012). "Un esquema de diseño de orden reducido basado en POD para la optimización de la forma de vehículos aéreos". Actas de la 53.ª Conferencia de estructuras, dinámica estructural y materiales de la AIAA/ASME/ASCE/AHS/ASC, AIAA-2012-1808, Honolulu, Hawái .
- ^ Transformada de Karhunen-Loeve (KLT) Archivado el 28 de noviembre de 2016 en Wayback Machine , conferencias sobre procesamiento y análisis de imágenes por computadora (E161), Harvey Mudd College
- ^ Giambartolomei, Giordano (2016). "4 El teorema de Karhunen-Loève". El teorema de Karhunen-Loève (Licenciaturas). Universidad de Bolonia.
- ^ Un recorrido wavelet por el procesamiento de señales - Stéphane Mallat
- ^ X. Tang, “Información de textura en matrices de longitud de ejecución”, IEEE Transactions on Image Processing, vol. 7, n.º 11, págs. 1602–1609, noviembre de 1998
Referencias
- Stark, Henry; Woods, John W. (1986). Probabilidad, procesos aleatorios y teoría de estimación para ingenieros . Prentice-Hall, Inc. ISBN 978-0-13-711706-2.OL 21138080M .
- Ghanem, Roger; Spanos, Pol (1991). Elementos finitos estocásticos: un enfoque espectral . Springer-Verlag. ISBN 978-0-387-97456-9.OL 1865197M .
- Guikhman, I.; Skorokhod, A. (1977). Introducción a la Théorie des Processus Aléatoires . Ediciones MIR.
- Simon, B. (1979). Integración funcional y física cuántica . Academic Press.
- Karhunen, Kari (1947). "Über lineare Methoden in der Wahrscheinlichkeitsrechnung". Ana. Acad. Ciencia. Fennicae. Ser. A I. Matemáticas.-Física . 37 : 1–79.
- Loève, M. (1978). Teoría de la probabilidad, vol. II . Textos de posgrado en matemáticas, vol. 46 (4.ª ed.). Springer-Verlag. ISBN 978-0-387-90262-3.
- Dai, G. (1996). "Reconstrucción modal del frente de onda con polinomios de Zernike y funciones de Karhunen-Loeve". JOSA A. 13 (6): 1218. Código bibliográfico : 1996JOSAA..13.1218D. doi :10.1364/JOSAA.13.001218.
- Wu B., Zhu J., Najm F. (2005) "Un enfoque no paramétrico para la estimación del rango dinámico de sistemas no lineales". En Actas de la Conferencia de Automatización del Diseño (841-844) 2005
- Wu B., Zhu J., Najm F. (2006) "Estimación de rango dinámico". IEEE Transactions on Computer-Aided Design of Integrated Circuits and Systems, vol. 25, número 9 (1618-1636) 2006
- Jorgensen, Palle ET; Song, Myung-Sin (2007). "Codificación de entropía, espacio de Hilbert y transformadas de Karhunen–Loeve". Journal of Mathematical Physics . 48 (10): 103503. arXiv : math-ph/0701056 . Código Bibliográfico :2007JMP....48j3503J. doi :10.1063/1.2793569. S2CID 17039075.
Enlaces externos
- Mathematica KarhunenLoeveFunción de descomposición.
- E161: Notas sobre análisis y procesamiento de imágenes por computadora del profesor Ruye Wang en Harvey Mudd College [1]