stringtranslate.com

Análisis de componentes independientes

En el procesamiento de señales , el análisis de componentes independientes ( ICA ) es un método computacional para separar una señal multivariada en subcomponentes aditivos. Esto se hace asumiendo que como máximo un subcomponente es gaussiano y que los subcomponentes son estadísticamente independientes entre sí. [1] ICA es un caso especial de separación ciega de fuentes . Un ejemplo de aplicación común es el " problema del cóctel " de escuchar el discurso de una persona en una habitación ruidosa. [2]

Introducción

ICA en cuatro vídeos mezclados aleatoriamente. [3] Fila superior: Los videos fuente originales. Fila del medio: cuatro mezclas aleatorias utilizadas como entrada para el algoritmo. Fila inferior: los videos reconstruidos.

El análisis de componentes independientes intenta descomponer una señal multivariada en señales independientes no gaussianas. Por ejemplo, el sonido suele ser una señal que se compone de la suma numérica, en cada instante t, de señales de varias fuentes. La pregunta entonces es si es posible separar estas fuentes contribuyentes de la señal total observada. Cuando el supuesto de independencia estadística es correcto, la separación ICA ciega de una señal mixta da muy buenos resultados. [ cita necesaria ] También se utiliza para señales que no se supone que se generen mediante mezcla con fines de análisis.

Una aplicación sencilla de ICA es el " problema del cóctel ", en el que las señales de voz subyacentes se separan de una muestra de datos formada por personas hablando simultáneamente en una sala. Generalmente el problema se simplifica suponiendo que no hay retrasos ni ecos. Tenga en cuenta que una señal filtrada y retardada es una copia de un componente dependiente y, por lo tanto, no se viola el supuesto de independencia estadística.

Se pueden colocar pesos mixtos para construir las señales observadas a partir de los componentes en una matriz. Una cosa importante a considerar es que si hay fuentes presentes, al menos se necesitan observaciones (por ejemplo, micrófonos si la señal observada es audio) para recuperar las señales originales. Cuando hay igual número de observaciones y señales fuente, la matriz de mezcla es cuadrada ( ). Se han investigado otros casos de subdeterminación ( ) y sobredeterminación ( ).

El éxito de la separación ICA de señales mixtas se basa en dos suposiciones y tres efectos de la mezcla de señales fuente. Dos supuestos:

  1. Las señales fuente son independientes entre sí.
  2. Los valores de cada señal fuente tienen distribuciones no gaussianas.

Tres efectos de mezclar señales fuente:

  1. Independencia: Según el supuesto 1, las señales fuente son independientes; sin embargo, sus mezclas de señales no lo son. Esto se debe a que las mezclas de señales comparten las mismas señales fuente.
  2. Normalidad: Según el Teorema del Límite Central , la distribución de una suma de variables aleatorias independientes con varianza finita tiende a una distribución gaussiana.
    En términos generales, una suma de dos variables aleatorias independientes suele tener una distribución más cercana a Gauss que cualquiera de las dos variables originales. Aquí consideramos el valor de cada señal como variable aleatoria.
  3. Complejidad: La complejidad temporal de cualquier mezcla de señales es mayor que la de su señal fuente constituyente más simple.

Esos principios contribuyen al establecimiento básico de la ICA. Si las señales extraídas de un conjunto de mezclas son independientes y tienen distribuciones no gaussianas o tienen baja complejidad, entonces deben ser señales fuente. [4] [5]

Definición de independencia de componentes

ICA encuentra los componentes independientes (también llamados factores, variables latentes o fuentes) maximizando la independencia estadística de los componentes estimados. Podemos elegir una de las muchas formas de definir un proxy de independencia, y esta elección rige la forma del algoritmo ICA. Las dos definiciones más amplias de independencia para la ICA son

  1. Minimización de la información mutua.
  2. Maximización de la no gaussianidad

La familia de algoritmos ICA de Minimización de información mutua (MMI) utiliza medidas como la divergencia de Kullback-Leibler y la entropía máxima . La familia de algoritmos ICA no gaussianos, motivados por el teorema del límite central , utiliza curtosis y negentropía .

Los algoritmos típicos para ICA utilizan centrado (resta la media para crear una señal de media cero), blanqueamiento (generalmente con la descomposición de valores propios ) y reducción de dimensionalidad como pasos de preprocesamiento para simplificar y reducir la complejidad del problema para el algoritmo iterativo real. El blanqueamiento y la reducción de dimensiones se pueden lograr con el análisis de componentes principales o la descomposición de valores singulares . El blanqueamiento garantiza que todas las dimensiones se traten por igual a priori antes de ejecutar el algoritmo. Los algoritmos conocidos para ICA incluyen infomax , FastICA , JADE y análisis de componentes independientes del kernel , entre otros. En general, ICA no puede identificar el número real de señales fuente, un orden único y correcto de las señales fuente, ni la escala adecuada (incluido el signo) de las señales fuente.

ICA es importante para la separación ciega de señales y tiene muchas aplicaciones prácticas. Está estrechamente relacionado con (o incluso es un caso especial de) la búsqueda de un código factorial de los datos, es decir, una nueva representación con valor vectorial de cada vector de datos de modo que quede codificado de forma única por el vector de código resultante (sin pérdidas). codificación), pero los componentes del código son estadísticamente independientes.

Definiciones matemáticas

El análisis de componentes lineales independientes se puede dividir en casos silenciosos y ruidosos, donde el ICA silencioso es un caso especial de ICA ruidoso. El ICA no lineal debe considerarse como un caso aparte.

Definición general

Los datos están representados por el vector aleatorio observado y los componentes ocultos como el vector aleatorio. La tarea consiste en transformar los datos observados utilizando una transformación estática lineal como en un vector de componentes máximamente independientes medidos por alguna función de independencia.

modelo generativo

ICA lineal silenciosa

Los componentes del vector aleatorio observado se generan como suma de los componentes independientes ,:

ponderado por los pesos de mezcla .

El mismo modelo generativo se puede escribir en forma vectorial como , donde el vector aleatorio observado está representado por los vectores base . Los vectores base forman las columnas de la matriz de mezcla y la fórmula generativa se puede escribir como , donde .

Dado el modelo y las realizaciones (muestras) del vector aleatorio , la tarea es estimar tanto la matriz de mezcla como las fuentes . Esto se hace calculando de forma adaptativa los vectores y estableciendo una función de costo que maximiza la no gaussianidad de lo calculado o minimiza la información mutua. En algunos casos, el conocimiento a priori de las distribuciones de probabilidad de las fuentes puede utilizarse en la función de costos.

Las fuentes originales se pueden recuperar multiplicando las señales observadas con la inversa de la matriz de mezcla , también conocida como matriz de desmezcla. Aquí se supone que la matriz de mezcla es cuadrada ( ). Si el número de vectores base es mayor que la dimensionalidad de los vectores observados, la tarea está sobrecompleta pero aún se puede resolver con la pseudoinversa .

ICA lineal ruidosa

Con el supuesto adicional de ruido gaussiano de media cero y no correlacionado , el modelo ICA toma la forma .

ICA no lineal

No es necesario que la mezcla de las fuentes sea lineal. Usando una función de mezcla no lineal con parámetros, el modelo ICA no lineal es .

Identificabilidad

Los componentes independientes son identificables hasta una permutación y escalamiento de las fuentes. [6] Esta identificabilidad requiere que:

ICA binario

Una variante especial de ICA es la ICA binaria en la que tanto las fuentes de señales como los monitores están en forma binaria y las observaciones de los monitores son mezclas disyuntivas de fuentes binarias independientes. Se demostró que el problema tiene aplicaciones en muchos dominios, incluido el diagnóstico médico , la asignación de múltiples clústeres, la tomografía en red y la gestión de recursos de Internet.

Sea el conjunto de variables binarias de los monitores y el conjunto de variables binarias de las fuentes. Las conexiones fuente-monitor están representadas por la matriz de mezcla (desconocida) , donde indica que la señal de la i -ésima fuente puede ser observada por el j -ésimo monitor. El sistema funciona de la siguiente manera: en cualquier momento, si una fuente está activa ( ) y está conectada al monitor ( ) entonces el monitor observará alguna actividad ( ). Formalmente tenemos:

donde es booleano AND y es booleano OR. El ruido no se modela explícitamente; más bien, puede tratarse como fuentes independientes.

El problema anterior se puede resolver heurísticamente [7] asumiendo que las variables son continuas y ejecutando FastICA en datos de observación binarios para obtener la matriz de mezcla (valores reales), luego aplicando técnicas de números redondos para obtener los valores binarios. Se ha demostrado que este enfoque produce un resultado muy inexacto. [ cita necesaria ]

Otro método consiste en utilizar programación dinámica : dividir recursivamente la matriz de observación en sus submatrices y ejecutar el algoritmo de inferencia en estas submatrices. La observación clave que conduce a este algoritmo es la submatriz de donde corresponde a la matriz de observación imparcial de componentes ocultos que no tienen conexión con el -ésimo monitor. Los resultados experimentales de [8] muestran que este enfoque es preciso en niveles de ruido moderados.

El marco Generalized Binary ICA [9] introduce una formulación del problema más amplia que no requiere ningún conocimiento sobre el modelo generativo. En otras palabras, este método intenta descomponer una fuente en sus componentes independientes (en la medida de lo posible y sin perder información) sin ninguna suposición previa sobre la forma en que se generó. Aunque este problema parece bastante complejo, se puede resolver con precisión con un algoritmo de árbol de búsqueda de rama y límite o con un límite superior estricto con una única multiplicación de una matriz con un vector.

Métodos para la separación ciega de fuentes.

Seguimiento de proyección

Las mezclas de señales tienden a tener funciones de densidad de probabilidad gaussianas y las señales fuente tienden a tener funciones de densidad de probabilidad no gaussianas. Cada señal fuente se puede extraer de un conjunto de mezclas de señales tomando el producto interno de un vector de peso y aquellas mezclas de señales donde este producto interno proporciona una proyección ortogonal de las mezclas de señales. El desafío restante es encontrar ese vector de peso. Un tipo de método para hacerlo es la búsqueda de proyecciones . [10] [11]

La búsqueda de proyección busca una proyección a la vez de manera que la señal extraída sea lo menos gaussiana posible. Esto contrasta con ICA, que normalmente extrae M señales simultáneamente de M mezclas de señales, lo que requiere estimar una matriz de desmezcla M × M. Una ventaja práctica de la búsqueda de proyección sobre ICA es que se pueden extraer menos de M señales si es necesario, donde cada señal fuente se extrae de M mezclas de señales utilizando un vector de peso de elemento M.

Podemos utilizar la curtosis para recuperar la señal de múltiples fuentes encontrando los vectores de peso correctos mediante el uso de la búsqueda de proyección.

La curtosis de la función de densidad de probabilidad de una señal, para una muestra finita, se calcula como

¿Dónde está la media muestral de las señales extraídas? La constante 3 garantiza que las señales gaussianas tengan curtosis cero, las señales supergaussianas tengan curtosis positiva y las señales subgaussianas tengan curtosis negativa. El denominador es la varianza de y garantiza que la curtosis medida tenga en cuenta la varianza de la señal. El objetivo de la búsqueda de proyección es maximizar la curtosis y hacer que la señal extraída sea lo más anormal posible.

Usando la curtosis como una medida de no normalidad, ahora podemos examinar cómo varía la curtosis de una señal extraída de un conjunto de M mezclas a medida que el vector de peso gira alrededor del origen. Dada nuestra suposición de que cada señal fuente es supergaussiana, esperaríamos:

  1. la curtosis de la señal extraída sea máxima precisamente cuando .
  2. la curtosis de la señal extraída es máxima cuando es ortogonal a los ejes proyectados o , porque sabemos que el vector de peso óptimo debe ser ortogonal a un eje transformado o .

Para señales de mezcla de múltiples fuentes, podemos usar curtosis y ortogonalización de Gram-Schmidt (GSO) para recuperar las señales. Dadas M mezclas de señales en un espacio de M dimensiones, GSO proyecta estos puntos de datos en un espacio de dimensiones ( M-1 ) utilizando el vector de peso. Podemos garantizar la independencia de las señales extraídas con el uso de GSO.

Para encontrar el valor correcto de , podemos utilizar el método de descenso de gradiente . En primer lugar, blanqueamos los datos y los transformamos en una nueva mezcla , que tiene varianza unitaria y . Este proceso se puede lograr aplicando la descomposición de valores singulares a ,

Reescalando cada vector , y dejemos . La señal extraída por un vector ponderado es . Si el vector de peso w tiene una longitud unitaria, entonces la varianza de y también es 1, es decir . Por tanto, la curtosis se puede escribir como:

El proceso de actualización es:

donde es una pequeña constante para garantizar que converja a la solución óptima. Después de cada actualización, normalizamos , configuramos y repetimos el proceso de actualización hasta la convergencia. También podemos usar otro algoritmo para actualizar el vector de peso .

Otro enfoque es utilizar la negentropía [12] [13] en lugar de curtosis. El uso de la negentropía es un método más sólido que la curtosis, ya que la curtosis es muy sensible a los valores atípicos. Los métodos de negentropía se basan en una propiedad importante de la distribución gaussiana: una variable gaussiana tiene la entropía más grande entre todas las variables aleatorias continuas de igual varianza. Esta es también la razón por la que queremos encontrar la mayor cantidad de variables no gaussianas. Se puede encontrar una prueba sencilla en Entropía diferencial .

y es una variable aleatoria gaussiana de la misma matriz de covarianza que x

Una aproximación a la negentropía es

Se puede encontrar una prueba en los artículos originales de Comon; [14] [12] ha sido reproducido en el libro Análisis de componentes independientes de Aapo Hyvärinen, Juha Karhunen y Erkki Oja [15] Esta aproximación también sufre el mismo problema que la curtosis (sensibilidad a los valores atípicos). Se han desarrollado otros enfoques. [dieciséis]

Una elección de y son

y

Basado en infomax

Infomax ICA [17] es esencialmente una versión paralela y multivariada de la búsqueda de proyecciones. Mientras que la búsqueda de proyección extrae una serie de señales una a la vez de un conjunto de M mezclas de señales, ICA extrae M señales en paralelo. Esto tiende a hacer que la ICA sea más sólida que la búsqueda de proyecciones. [18]

El método de búsqueda de proyección utiliza la ortogonalización de Gram-Schmidt para garantizar la independencia de la señal extraída, mientras que ICA utiliza infomax y estimación de máxima verosimilitud para garantizar la independencia de la señal extraída. La No Normalidad de la señal extraída se logra asignando un modelo apropiado, o anterior, para la señal.

En resumen , el proceso de ICA basado en infomax es: dado un conjunto de mezclas de señales y un conjunto de funciones de distribución acumulativa (cdfs) de modelos independientes idénticas , buscamos la matriz de separación que maximiza la entropía conjunta de las señales , de donde se extraen las señales. por . Dado el óptimo , las señales tienen máxima entropía y, por tanto, son independientes, lo que garantiza que las señales extraídas también sean independientes. es una función invertible y es el modelo de señal. Tenga en cuenta que si la función de densidad de probabilidad del modelo de señal fuente coincide con la función de densidad de probabilidad de la señal extraída , entonces maximizar la entropía conjunta de también maximiza la cantidad de información mutua entre y . Por este motivo, utilizar la entropía para extraer señales independientes se conoce como infomax .

Considere la entropía de la variable vectorial , donde está el conjunto de señales extraídas por la matriz de desmezcla . Para un conjunto finito de valores muestreados de una distribución con pdf , la entropía de se puede estimar como:

Se puede demostrar que la pdf conjunta está relacionada con la pdf conjunta de las señales extraídas mediante la forma multivariada:

¿Dónde está la matriz jacobiana ? Tenemos y es la fdp asumida para las señales fuente , por lo tanto,

por lo tanto,

Sabemos que cuando , tiene distribución uniforme y está maximizado. Desde

donde es el valor absoluto del determinante de la matriz de desmezcla . Por lo tanto,

entonces,

ya que y maximizar no afecta , entonces podemos maximizar la función

para lograr la independencia de la señal extraída.

Si hay M pdf marginales de la pdf conjunta del modelo que son independientes y usan la pdf del modelo comúnmente supergaussiano para las señales fuente , entonces tenemos

En suma, dada una mezcla de señales observada , el conjunto correspondiente de señales extraídas y el modelo de señal fuente , podemos encontrar la matriz de separación óptima y hacer que las señales extraídas sean independientes y no gaussianas. Al igual que en la situación de búsqueda de proyección, podemos utilizar el método de descenso de gradiente para encontrar la solución óptima de la matriz de separación.

Basado en la estimación de máxima verosimilitud

La estimación de máxima verosimilitud (MLE) es una herramienta estadística estándar para encontrar valores de parámetros (por ejemplo, la matriz de separación) que proporcionan el mejor ajuste de algunos datos (por ejemplo, las señales extraídas) a un modelo determinado (por ejemplo, la función de densidad de probabilidad conjunta supuesta). (pdf)de señales fuente). [18]

El "modelo" ML incluye una especificación de un pdf, que en este caso es el pdf de las señales de origen desconocido . Usando ML ICA , el objetivo es encontrar una matriz de desmezcla que produzca señales extraídas con una pdf conjunta lo más similar posible a la pdf conjunta de las señales fuente desconocidas .

Por lo tanto, MLE se basa en el supuesto de que si la pdf del modelo y los parámetros del modelo son correctos, entonces se debe obtener una alta probabilidad para los datos que realmente se observaron. Por el contrario, si está lejos de los valores correctos de los parámetros, entonces se esperaría una baja probabilidad de los datos observados.

Usando MLE , llamamos a la probabilidad de los datos observados para un conjunto dado de valores de parámetros del modelo (por ejemplo, una pdf y una matriz ) la probabilidad de los valores de los parámetros del modelo dados los datos observados.

Definimos una función de verosimilitud de :

Esto es igual a la densidad de probabilidad en , ya que .

Por lo tanto, si deseamos encontrar una señal que tenga más probabilidades de haber generado las mezclas observadas a partir de señales de origen desconocidas con pdf , entonces solo necesitamos encontrar aquello que maximice la probabilidad . La matriz de separación que maximiza la ecuación se conoce como MLE de la matriz de separación óptima.

Es una práctica común utilizar el registro de probabilidad , porque es más fácil de evaluar. Como el logaritmo es una función monótona, lo que maximiza la función también maximiza su logaritmo . Esto nos permite tomar el logaritmo de la ecuación anterior, lo que produce la función logarítmica de verosimilitud .

Si sustituimos las señales fuente por un modelo pdf de alta curtosis comúnmente utilizado , entonces tenemos

Esta matriz que maximiza esta función es la estimación de máxima verosimilitud .

Historia y antecedentes

El marco general inicial para el análisis de componentes independientes fue introducido por Jeanny Hérault y Bernard Ans en 1984, [19] desarrollado por Christian Jutten en 1985 y 1986, [20] [21] [22] y refinado por Pierre Comon en 1991, [ 14] y popularizado en su artículo de 1994. [12] En 1995, Tony Bell y Terry Sejnowski introdujeron un algoritmo ICA rápido y eficiente basado en infomax , un principio introducido por Ralph Linsker en 1987.

Hay muchos algoritmos disponibles en la literatura que realizan ICA. Uno de los más utilizados, incluso en aplicaciones industriales, es el algoritmo FastICA, desarrollado por Hyvärinen y Oja, que utiliza la negentropía como función de costes. [23] Otros ejemplos están más bien relacionados con la separación ciega de fuentes , donde se utiliza un enfoque más general. Por ejemplo, se puede abandonar el supuesto de independencia y separar las señales mutuamente correlacionadas, es decir, señales estadísticamente "dependientes". Sepp Hochreiter y Jürgen Schmidhuber mostraron cómo obtener ICA no lineal o separación de fuentes como subproducto de la regularización (1999). [24] Su método no requiere conocimiento a priori sobre el número de fuentes independientes.

Aplicaciones

ICA se puede ampliar para analizar señales no físicas. Por ejemplo, se ha aplicado ICA para descubrir temas de discusión en una bolsa de archivos de listas de noticias.

Algunas aplicaciones de ICA se enumeran a continuación: [4]

Análisis de componentes independientes en EEGLAB.

Disponibilidad

ICA se puede aplicar a través del siguiente software:

Ver también

Notas

  1. ^ "Análisis de componentes independientes: una demostración".
  2. ^ Hyvärinen, Aapo (2013). "Análisis de componentes independientes: avances recientes". Transacciones Filosóficas: Ciencias Matemáticas, Físicas y de Ingeniería . 371 (1984): 20110534. Código bibliográfico : 2012RSPTA.37110534H. doi :10.1098/rsta.2011.0534. ISSN  1364-503X. JSTOR  41739975. PMC 3538438 . PMID  23277597. 
  3. ^ Isomura, Takuya; Toyoizumi, Taro (2016). "Una regla de aprendizaje local para el análisis de componentes independientes". Informes científicos . 6 : 28073. Código Bib : 2016NatSR...628073I. doi :10.1038/srep28073. PMC 4914970 . PMID  27323661. 
  4. ^ ab Stone, James V. (2004). Análisis de componentes independientes: una introducción al tutorial . Cambridge, Massachusetts: MIT Press. ISBN 978-0-262-69315-8.
  5. ^ Hyvärinen, Aapo; Karhunen, Juha; Oja, Erkki (2001). Análisis de componentes independientes (1ª ed.). Nueva York: John Wiley & Sons. ISBN 978-0-471-22131-9.
  6. ^ Teorema 11, Comon, Pierre. "Análisis de componentes independientes, ¿un nuevo concepto?" Procesamiento de señales 36.3 (1994): 287-314.
  7. ^ Johan Himbergand Aapo Hyvärinen, Análisis de componentes independientes para datos binarios: un estudio experimental , Proc. En t. Taller sobre análisis de componentes independientes y separación de señales ciegas (ICA2001), San Diego, California, 2001.
  8. ^ Huy Nguyen y Rong Zheng, Análisis de componentes independientes binarios con mezclas o , Transacciones IEEE sobre procesamiento de señales, vol. 59, número 7 (julio de 2011), págs. 3168–3181.
  9. ^ Doloroso, Amichai; Rosset, Saharon; Feder, Meir (2014). "Análisis generalizado de componentes independientes binarios". Simposio internacional IEEE 2014 sobre teoría de la información . págs. 1326-1330. doi :10.1109/ISIT.2014.6875048. ISBN 978-1-4799-5186-4. S2CID  18579555.
  10. ^ James V. Piedra (2004); "Análisis de componentes independientes: introducción al tutorial", The MIT Press Cambridge, Massachusetts, Londres, Inglaterra; ISBN 0-262-69315-1 
  11. ^ Kruskal, JB. 1969; "Hacia un método práctico que ayude a descubrir la estructura de un conjunto de observaciones al encontrar la transformación lineal que optimiza un nuevo" índice de condensación ", páginas 427–440 de: Milton, RC y Nelder, JA (eds), Computación estadística ; Nueva York, Academic Press
  12. ^ abc Pierre Comon (1994) Análisis de componentes independientes, ¿un nuevo concepto? http://www.ece.ucsb.edu/wcsl/courses/ECE594/594C_F10Madhow/comon94.pdf
  13. ^ Hyvärinen, Aapo; Erkki Oja (2000). "Análisis de componentes independientes: algoritmos y aplicaciones". Redes neuronales . 4-5. 13 (4–5): 411–430. CiteSeerX 10.1.1.79.7003 . doi :10.1016/s0893-6080(00)00026-5. PMID  10946390. S2CID  11959218. 
  14. ^ ab P.Comon, Análisis de componentes independientes, Taller sobre estadísticas de orden superior, julio de 1991, republicado en JL. Lacoume, editor, Estadísticas de orden superior, págs. 29-38. Elsevier, Amsterdam, Londres, 1992. Enlace HAL
  15. ^ Hyvärinen, Aapo; Karhunen, Juha; Oja, Erkki (2001). Análisis de componentes independientes (Reimpresión ed.). Nueva York, Nueva York: Wiley. ISBN 978-0-471-40540-5.
  16. ^ Hyvärinen, Aapo (1998). "Nuevas aproximaciones de entropía diferencial para el análisis de componentes independientes y la búsqueda de proyecciones". Avances en los sistemas de procesamiento de información neuronal . 10 : 273–279.
  17. ^ Campana, AJ; Sejnowski, TJ (1995). "Un enfoque de maximización de la información para la separación ciega y la deconvolución ciega", Neural Computation, 7, 1129-1159
  18. ^ ab James V. Stone (2004). "Análisis de componentes independientes: introducción al tutorial", The MIT Press Cambridge, Massachusetts, Londres, Inglaterra; ISBN 0-262-69315-1 
  19. ^ Hérault, J.; Respuesta, B. (1984). "Réseau de neurones à synapses modificables: Décodage de mensajes sensoriales compuestos por aprendizaje no supervisado y permanente". Cuentas Rendus de la Academia de Ciencias, Serie III . 299 : 525–528.
  20. ^ Respuestas, B., Hérault, J. y Jutten, C. (1985). Arquitecturas neuromimétiques adaptativas: Detección de primitivas. Cognitiva 85 (Vol. 2, págs. 593-597). París: CESTA.
  21. ^ Hérault, J., Jutten, C. y Ans, B. (1985). Detección de grandezas primitivas en un mensaje compuesto por una arquitectura de cálculo neuromimétique en aprendizaje no supervisado. Actas del décimo taller Traitement du signal et ses apps (Vol. 2, págs. 1017-1022). Niza (Francia): GRETSI.
  22. ^ Hérault, J. y Jutten, C. (1986). Procesamiento adaptativo de señales en el espacio o el tiempo mediante modelos de redes neuronales. Interno. Conf. sobre redes neuronales para la informática (págs. 206-211). Snowbird (Utah, EE.UU.).
  23. ^ Hyvärinen, A.; Oja, E. (1 de junio de 2000). «Análisis de componentes independientes: algoritmos y aplicaciones» (PDF) . Redes neuronales . 13 (4): 411–430. doi :10.1016/S0893-6080(00)00026-5. ISSN  0893-6080. PMID  10946390. S2CID  11959218.
  24. ^ Hochreiter, Sepp; Schmidhuber, Jürgen (1999). "Extracción de funciones mediante LOCOCODE" (PDF) . Computación neuronal . 11 (3): 679–714. doi :10.1162/089976699300016629. ISSN  0899-7667. PMID  10085426. S2CID  1642107 . Consultado el 24 de febrero de 2018 .
  25. ^ Marrón, GD; Yamada, S; Sejnowski, TJ (2001). "Análisis de componentes independientes en el cóctel neuronal". Tendencias en Neurociencias . 24 (1): 54–63. doi :10.1016/s0166-2236(00)01683-0. PMID  11163888. S2CID  511254.
  26. ^ Lewicki, MS (1998). "Revisión de métodos para la clasificación de picos: detección y clasificación de potenciales de acción neuronales". Red: Computación en sistemas neuronales . 9 (4): 53–78. doi :10.1088/0954-898X_9_4_001. S2CID  10290908.
  27. ^ Barlett, MS (2001). Análisis de imágenes faciales mediante aprendizaje no supervisado . Boston: Serie Internacional Kluwer sobre Ingeniería e Informática.
  28. ^ Campana, AJ; Sejnowski, TJ (1997). "Los componentes independientes de las escenas naturales son los filtros de borde". Investigación de la visión . 37 (23): 3327–3338. doi :10.1016/s0042-6989(97)00121-1. PMC 2882863 . PMID  9425547. 
  29. ^ Atrás, ANUNCIO; Weigend, AS (1997). "Una primera aplicación del análisis de componentes independientes para extraer estructura de los rendimientos de las acciones". Revista internacional de sistemas neuronales . 8 (4): 473–484. doi :10.1142/s0129065797000458. PMID  9730022. S2CID  872703.
  30. ^ Hyvarinen, A, Karhunen, J y Oja, E (2001a). Análisis de componentes independientes . Nueva York: John Wiley and Sons.{{cite book}}: CS1 maint: multiple names: authors list (link)
  31. ^ Pólder, G; van der Heijen, FWAM (2003). "Estimación de la distribución compuesta en imágenes espectrales de tomates mediante análisis de componentes independientes". Sociedad Austríaca de Informática : 57–64.
  32. ^ Delorme, A; Sejnowski, T; Makeig, S (2007). "Detección mejorada de artefactos en datos de EEG mediante estadísticas de orden superior y análisis de componentes independientes". NeuroImagen . 34 (4): 1443-1449. doi : 10.1016/j.neuroimage.2006.11.004. PMC 2895624 . PMID  17188898. 
  33. ^ Douglas, P (2013). "Decodificación de ensayo único de la toma de decisiones sobre creencias a partir de datos de EEG y resonancia magnética funcional utilizando características de componentes independientes". Fronteras de la neurociencia humana . 7 : 392. doi : 10.3389/fnhum.2013.00392 . PMC 3728485 . PMID  23914164. 
  34. ^ Trapnell, C; Cacchiarelli, D; Grimsby, J (2014). "La dinámica y los reguladores de las decisiones sobre el destino celular se revelan mediante el ordenamiento pseudotemporal de células individuales". Biotecnología de la Naturaleza . 32 (4): 381–386. doi :10.1038/nbt.2859. PMC 4122333 . PMID  24658644. 
  35. ^ Kiviniemi, Vesa J.; Kantola, Juha-Heikki; Jauhiainen, Jukka; Hyvärinen, Aapo; Tervonen, Osmo (2003). "Análisis de componentes independientes de fuentes de señales de resonancia magnética funcional no deterministas". NeuroImagen . 19 (2): 253–260. doi :10.1016/S1053-8119(03)00097-1. PMID  12814576. S2CID  17110486.
  36. ^ Wang, Jingying; Xu, Haiguang; Gu, Junhua; An, Tao; Cui, Haijuan; Li, Jianxun; Zhang, Zhongli; Zheng, Qian; Wu, Xiang-Ping (1 de noviembre de 2010). "¿Cómo identificar y separar cúmulos de galaxias brillantes del cielo de radio de baja frecuencia?". La revista astrofísica . 723 (1): 620–633. arXiv : 1008.3391 . Código Bib : 2010ApJ...723..620W. doi : 10.1088/0004-637X/723/1/620 . ISSN  0004-637X.
  37. ^ Moraux, Franck; Villa, Christophe (2003). "La dinámica de la estructura temporal de las tasas de interés: un análisis de componentes independientes". Enfoques conexionistas en economía y ciencias de la gestión . Avances en la ciencia de la gestión computacional. vol. 6. págs. 215–232. doi :10.1007/978-1-4757-3722-6_11. ISBN 978-1-4757-3722-6.

Referencias

enlaces externos