stringtranslate.com

Factorización de matrices no negativas

Ilustración de la factorización matricial no negativa aproximada: la matriz V está representada por las dos matrices más pequeñas W y H , que, al multiplicarse, reconstruyen aproximadamente V .

La factorización matricial no negativa ( NMF o NNMF ), también aproximación matricial no negativa [1] [2] es un grupo de algoritmos en análisis multivariante y álgebra lineal donde una matriz V se factoriza en (generalmente) dos matrices W y H , con la propiedad de que las tres matrices no tienen elementos negativos. Esta no negatividad hace que las matrices resultantes sean más fáciles de inspeccionar. Además, en aplicaciones como el procesamiento de espectrogramas de audio o actividad muscular, la no negatividad es inherente a los datos que se consideran. Dado que el problema no es exactamente solucionable en general, comúnmente se aproxima numéricamente.

El NMF encuentra aplicaciones en campos como la astronomía , [3] [4] visión por computadora , agrupamiento de documentos , [1] imputación de datos faltantes , [5] quimiometría , procesamiento de señales de audio , sistemas de recomendación , [6] [7] y bioinformática . [8]

Historia

En quimiometría, la factorización de matrices no negativas tiene una larga historia bajo el nombre de "resolución de curvas de automodelado". [9] En este marco, los vectores en la matriz derecha son curvas continuas en lugar de vectores discretos. También un trabajo temprano sobre factorizaciones de matrices no negativas fue realizado por un grupo finlandés de investigadores en la década de 1990 bajo el nombre de factorización de matrices positivas . [10] [11] [12] Se hizo más conocido como factorización de matrices no negativas después de que Lee y Seung investigaran las propiedades del algoritmo y publicaran algunos algoritmos simples y útiles para dos tipos de factorizaciones. [13] [14]

Fondo

Sea la matriz V el producto de las matrices W y H ,

La multiplicación de matrices se puede implementar calculando los vectores columna de V como combinaciones lineales de los vectores columna de W utilizando coeficientes suministrados por las columnas de H. Es decir, cada columna de V se puede calcular de la siguiente manera:

donde v i es el i -ésimo vector columna de la matriz producto V y h i es el i -ésimo vector columna de la matriz H .

Al multiplicar matrices, las dimensiones de las matrices factoriales pueden ser significativamente menores que las de la matriz producto y es esta propiedad la que forma la base de la NMF. La NMF genera factores con dimensiones significativamente reducidas en comparación con la matriz original. Por ejemplo, si V es una matriz m × n , W es una matriz m × p y H es una matriz p × n, entonces p puede ser significativamente menor que m y n .

A continuación se muestra un ejemplo basado en una aplicación de minería de texto:

Este último punto es la base de NMF porque podemos considerar que cada documento original de nuestro ejemplo se ha construido a partir de un pequeño conjunto de características ocultas. NMF genera estas características.

Es útil pensar en cada característica (vector de columna) en la matriz de características W como un arquetipo de documento que comprende un conjunto de palabras donde el valor de celda de cada palabra define el rango de la palabra en la característica: cuanto mayor sea el valor de celda de una palabra, mayor será el rango de la palabra en la característica. Una columna en la matriz de coeficientes H representa un documento original con un valor de celda que define el rango del documento para una característica. Ahora podemos reconstruir un documento (vector de columna) a partir de nuestra matriz de entrada mediante una combinación lineal de nuestras características (vectores de columna en W ) donde cada característica se pondera por el valor de celda de la característica de la columna del documento en H.

Propiedad de agrupamiento

NMF tiene una propiedad de agrupamiento inherente, [15] es decir, agrupa automáticamente las columnas de datos de entrada .

Más específicamente, la aproximación de por se logra encontrando y que minimizan la función de error (usando la norma de Frobenius )

sujeto a ,

Si además imponemos una restricción de ortogonalidad en , es decir , entonces la minimización anterior es matemáticamente equivalente a la minimización de la agrupación de K-medias . [15]

Además, el calculado proporciona la pertenencia al grupo, es decir, si para todos los ik , esto sugiere que los datos de entrada pertenecen al -ésimo grupo. El calculado proporciona los centroides del grupo, es decir, la -ésima columna proporciona el centroide del -ésimo grupo. La representación de este centroide se puede mejorar significativamente mediante NMF convexo.

Cuando la restricción de ortogonalidad no se impone explícitamente, la ortogonalidad se cumple en gran medida y la propiedad de agrupamiento también.

Cuando la función de error a utilizar es la divergencia de Kullback-Leibler , el NMF es idéntico al análisis semántico latente probabilístico (PLSA), un método popular de agrupamiento de documentos. [16]

Tipos

Factorización aproximada de matrices no negativas

Por lo general, se selecciona el número de columnas de W y el número de filas de H en NMF de modo que el producto WH se convierta en una aproximación a V. La descomposición completa de V entonces da como resultado las dos matrices no negativas W y H , así como un residuo U , de modo que: V = WH + U. Los elementos de la matriz residual pueden ser negativos o positivos.

Cuando W y H son más pequeños que V, se vuelven más fáciles de almacenar y manipular. Otra razón para factorizar V en matrices más pequeñas, W y H , es que si el objetivo es representar aproximadamente los elementos de V con una cantidad significativamente menor de datos, entonces hay que inferir alguna estructura latente en los datos.

Factorización de matrices convexas no negativas

En NMF estándar, el factor de matriz WR + m × k , es decir, W puede ser cualquier cosa en ese espacio. El NMF convexo [17] restringe las columnas de W a combinaciones convexas de los vectores de datos de entrada . Esto mejora enormemente la calidad de la representación de datos de W. Además, el factor de matriz resultante H se vuelve más disperso y ortogonal.

Factorización de rango no negativo

En caso de que el rango no negativo de V sea igual a su rango real, V = WH se denomina factorización de rango no negativo (NRF). [18] [19] [20] Se sabe que el problema de encontrar la NRF de V , si existe, es NP-difícil. [21]

Diferentes funciones de costes y regularizaciones

Existen distintos tipos de factorizaciones matriciales no negativas. Los distintos tipos surgen del uso de distintas funciones de costo para medir la divergencia entre V y WH y posiblemente de la regularización de las matrices W y/o H. [1]

Dos funciones de divergencia simples estudiadas por Lee y Seung son el error al cuadrado (o norma de Frobenius ) y una extensión de la divergencia de Kullback-Leibler a matrices positivas (la divergencia original de Kullback-Leibler se define en distribuciones de probabilidad). Cada divergencia conduce a un algoritmo NMF diferente, que generalmente minimiza la divergencia utilizando reglas de actualización iterativas.

El problema de factorización en la versión de error al cuadrado de NMF puede enunciarse como: Dada una matriz, encuentre las matrices no negativas W y H que minimicen la función.

Otro tipo de NMF para imágenes se basa en la norma de variación total . [22]

Cuando se agrega la regularización L1 (similar a Lasso ) a NMF con la función de costo de error cuadrático medio, el problema resultante puede llamarse codificación dispersa no negativa debido a la similitud con el problema de codificación dispersa , [23] [24] aunque también puede seguir llamándose NMF. [25]

NMF en línea

Muchos algoritmos NMF estándar analizan todos los datos juntos; es decir, toda la matriz está disponible desde el principio. Esto puede resultar insatisfactorio en aplicaciones donde hay demasiados datos para caber en la memoria o donde los datos se proporcionan en modo de transmisión . Uno de estos usos es el filtrado colaborativo en sistemas de recomendación , donde puede haber muchos usuarios y muchos elementos para recomendar, y sería ineficiente recalcular todo cuando se agrega un usuario o un elemento al sistema. La función de costo para la optimización en estos casos puede o no ser la misma que para NMF estándar, pero los algoritmos deben ser bastante diferentes. [26] [27]

NMF convolucional

Si las columnas de V representan datos muestreados en dimensiones espaciales o temporales, por ejemplo, señales de tiempo, imágenes o video, las características que son equivariantes con respecto a los cambios a lo largo de estas dimensiones se pueden aprender mediante NMF convolucional. En este caso, W es escaso con columnas que tienen ventanas de peso locales distintas de cero que se comparten entre los cambios a lo largo de las dimensiones espacio-temporales de V , que representan núcleos de convolución . Mediante la agrupación espacio-temporal de H y el uso repetido de la representación resultante como entrada para NMF convolucional, se pueden aprender jerarquías de características profundas. [28]

Algoritmos

Existen varias formas de hallar W y H : la regla de actualización multiplicativa de Lee y Seung [14] ha sido un método popular debido a la simplicidad de implementación. Este algoritmo es:

inicializar: W y H no negativos.
Luego actualice los valores en W y H calculando lo siguiente, con como índice de la iteración.
y
Hasta que W y H sean estables.

Tenga en cuenta que las actualizaciones se realizan elemento por elemento, no mediante la multiplicación de matrices.

Observamos que los factores multiplicativos para W y H , es decir, los términos y , son matrices de unos cuando .

Más recientemente se han desarrollado otros algoritmos. Algunos enfoques se basan en mínimos cuadrados no negativos alternados : en cada paso de un algoritmo de este tipo, primero se fija H y se encuentra W mediante un solucionador de mínimos cuadrados no negativos, luego se fija W y se encuentra H de manera análoga. Los procedimientos utilizados para resolver W y H pueden ser los mismos [29] o diferentes, ya que algunas variantes de NMF regularizan uno de W y H. [23] Los enfoques específicos incluyen los métodos de descenso de gradiente proyectado , [29] [30] el método del conjunto activo , [6] [31] el método del gradiente óptimo, [32] y el método de pivoteo principal de bloque [ 33] entre varios otros. [34]

Los algoritmos actuales son subóptimos, ya que solo garantizan la búsqueda de un mínimo local, en lugar de un mínimo global de la función de costo. Es poco probable que en el futuro cercano exista un algoritmo demostrablemente óptimo, ya que se ha demostrado que el problema generaliza el problema de agrupamiento de k-medias, que se sabe que es NP-completo . [35] Sin embargo, como en muchas otras aplicaciones de minería de datos, un mínimo local aún puede resultar útil.

Además del paso de optimización, la inicialización tiene un efecto significativo en la NMF. Los valores iniciales elegidos para W y H pueden afectar no solo la tasa de convergencia, sino también el error general en la convergencia. Algunas opciones para la inicialización incluyen la aleatorización completa, SVD , agrupamiento de k-medias y estrategias más avanzadas basadas en estos y otros paradigmas. [36]

Gráficos de varianza residual fraccional (FRV) para PCA y NMF secuencial; [4] para PCA, los valores teóricos son la contribución de los valores propios residuales. En comparación, las curvas FRV para PCA alcanzan una meseta plana donde no se captura ninguna señal de manera efectiva; mientras que las curvas FRV de NMF están disminuyendo continuamente, lo que indica una mejor capacidad para capturar la señal. Las curvas FRV para NMF también convergen a niveles más altos que PCA, lo que indica la propiedad de menor sobreajuste de NMF.

NMF secuencial

La construcción secuencial de los componentes NMF ( W y H ) se utilizó por primera vez para relacionar NMF con el análisis de componentes principales (PCA) en astronomía. [37] La ​​contribución de los componentes PCA se clasifica por la magnitud de sus valores propios correspondientes; para NMF, sus componentes se pueden clasificar empíricamente cuando se construyen uno por uno (secuencialmente), es decir, aprender el componente -ésimo con los primeros componentes construidos.

La contribución de los componentes secuenciales del NMF se puede comparar con el teorema de Karhunen–Loève , una aplicación del PCA, utilizando el gráfico de valores propios. Una elección típica del número de componentes con PCA se basa en el punto de "codo", luego la existencia de la meseta plana indica que el PCA no está capturando los datos de manera eficiente y, por último, existe una caída repentina que refleja la captura de ruido aleatorio y cae en el régimen de sobreajuste. [38] [39] Para el NMF secuencial, el gráfico de valores propios se aproxima mediante el gráfico de las curvas de varianza residual fraccional, donde las curvas disminuyen continuamente y convergen a un nivel más alto que el PCA, [4] lo que indica un menor sobreajuste del NMF secuencial.

NMF exacto

Se pueden esperar soluciones exactas para las variantes de NMF (en tiempo polinomial) cuando se cumplen restricciones adicionales para la matriz V. En 1981, Campbell y Poole dieron un algoritmo de tiempo polinomial para resolver la factorización de rango no negativo si V contiene una submatriz monomial de rango igual a su rango. [40] Kalofolias y Gallopoulos (2012) [41] resolvieron la contraparte simétrica de este problema, donde V es simétrica y contiene una submatriz principal diagonal de rango r. Su algoritmo se ejecuta en tiempo O(rm 2 ) en el caso denso. Arora, Ge, Halpern, Mimno, Moitra, Sontag, Wu y Zhu (2013) dan un algoritmo de tiempo polinomial para NMF exacta que funciona para el caso en el que uno de los factores W satisface una condición de separabilidad. [42]

Relación con otras técnicas

En su artículo Learning the parts of objects by non-negative matrix factorization, Lee y Seung [43] propusieron NMF principalmente para la descomposición de imágenes basada en partes. Comparan NMF con la cuantificación vectorial y el análisis de componentes principales , y muestran que, si bien las tres técnicas pueden escribirse como factorizaciones, implementan diferentes restricciones y, por lo tanto, producen resultados diferentes.

NMF como modelo gráfico probabilístico: las unidades visibles ( V ) están conectadas a las unidades ocultas ( H ) a través de pesos W , de modo que V se genera a partir de una distribución de probabilidad con media . [13] : 5 

Más tarde se demostró que algunos tipos de NMF son una instancia de un modelo probabilístico más general llamado "PCA multinomial". [44] Cuando el NMF se obtiene minimizando la divergencia de Kullback-Leibler , de hecho es equivalente a otra instancia de PCA multinomial, el análisis semántico latente probabilístico , [45] entrenado por estimación de máxima verosimilitud . Ese método se usa comúnmente para analizar y agrupar datos textuales y también está relacionado con el modelo de clase latente .

El NMF con el objetivo de mínimos cuadrados es equivalente a una forma relajada de agrupamiento de K-medias : el factor de matriz W contiene los centroides del grupo y H contiene los indicadores de pertenencia al grupo. [15] [46] Esto proporciona una base teórica para usar el NMF para el agrupamiento de datos. Sin embargo, k-medias no impone la no negatividad en sus centroides, por lo que la analogía más cercana es de hecho con "semi-NMF". [17]

El NMF puede verse como un modelo gráfico dirigido de dos capas con una capa de variables aleatorias observadas y una capa de variables aleatorias ocultas. [47]

La NMF se extiende más allá de las matrices a tensores de orden arbitrario. [48] [49] [50] Esta extensión puede verse como una contraparte no negativa, por ejemplo, del modelo PARAFAC .

Otras extensiones de NMF incluyen la factorización conjunta de varias matrices de datos y tensores donde algunos factores son compartidos. Estos modelos son útiles para la fusión de sensores y el aprendizaje relacional. [51]

La NMF es una instancia de programación cuadrática no negativa , al igual que la máquina de vectores de soporte (SVM). Sin embargo, la SVM y la NMF están relacionadas a un nivel más íntimo que el de la NQP, lo que permite la aplicación directa de los algoritmos de solución desarrollados para cualquiera de los dos métodos a problemas en ambos dominios. [52]

Unicidad

La factorización no es única: una matriz y su inversa se pueden utilizar para transformar las dos matrices de factorización, por ejemplo, [53]

Si las dos nuevas matrices y son no negativas forman otra parametrización de la factorización.

La no negatividad de y se aplica al menos si B es una matriz monomial no negativa . En este caso simple, corresponderá simplemente a una escala y una permutación .

Se obtiene un mayor control sobre la no unicidad de NMF con restricciones de escasez. [54]

Aplicaciones

Astronomía

En astronomía, NMF es un método prometedor para la reducción de dimensión en el sentido de que las señales astrofísicas no son negativas. NMF se ha aplicado a las observaciones espectroscópicas [55] [3] y las observaciones de imágenes directas [4] como un método para estudiar las propiedades comunes de los objetos astronómicos y posprocesar las observaciones astronómicas. Los avances en las observaciones espectroscópicas de Blanton y Roweis (2007) [3] tienen en cuenta las incertidumbres de las observaciones astronómicas, que luego son mejoradas por Zhu (2016) [37] donde también se consideran los datos faltantes y se habilita la computación paralela . Luego, su método es adoptado por Ren et al. (2018) [4] en el campo de imágenes directas como uno de los métodos de detección de exoplanetas , especialmente para la imagen directa de discos circunestelares .

Ren et al. (2018) [4] pueden demostrar la estabilidad de los componentes NMF cuando se construyen secuencialmente (es decir, uno por uno), lo que permite la linealidad del proceso de modelado NMF; la propiedad de linealidad se utiliza para separar la luz estelar y la luz dispersada por los exoplanetas y los discos circunestelares .

En la obtención de imágenes directas, para revelar los tenues exoplanetas y discos circunestelares de las brillantes luces estelares circundantes, que tienen un contraste típico de 10⁵ a 10¹⁰, se han adoptado varios métodos estadísticos, [56] [57] [38] sin embargo, la luz de los exoplanetas o discos circunestelares suele estar sobreajustada, por lo que se debe adoptar un modelado directo para recuperar el flujo verdadero. [58] [39] El modelado directo está actualmente optimizado para fuentes puntuales, [39] sin embargo, no para fuentes extendidas, especialmente para estructuras de forma irregular como los discos circunestelares. En esta situación, NMF ha sido un método excelente, al ser menos sobreajustado en el sentido de la no negatividad y escasez de los coeficientes de modelado NMF, por lo tanto, el modelado directo se puede realizar con unos pocos factores de escala, [4] en lugar de una nueva reducción de datos computacionalmente intensiva en los modelos generados.

Imputación de datos

Para imputar datos faltantes en las estadísticas, NMF puede tomar los datos faltantes mientras minimiza su función de costo, en lugar de tratar estos datos faltantes como ceros. [5] Esto lo convierte en un método matemáticamente probado para la imputación de datos en las estadísticas. [5] Al demostrar primero que los datos faltantes se ignoran en la función de costo, y luego demostrar que el impacto de los datos faltantes puede ser tan pequeño como un efecto de segundo orden, Ren et al. (2020) [5] estudiaron y aplicaron dicho enfoque para el campo de la astronomía. Su trabajo se centra en matrices bidimensionales, específicamente, incluye derivación matemática, imputación de datos simulados y aplicación a datos en el cielo.

El procedimiento de imputación de datos con NMF puede estar compuesto de dos pasos. En primer lugar, cuando se conocen los componentes de NMF, Ren et al. (2020) demostraron que el impacto de los datos faltantes durante la imputación de datos ("modelado de objetivos" en su estudio) es un efecto de segundo orden. En segundo lugar, cuando se desconocen los componentes de NMF, los autores demostraron que el impacto de los datos faltantes durante la construcción de componentes es un efecto de primer a segundo orden.

Dependiendo de la forma en que se obtengan los componentes del NMF, el primer paso mencionado anteriormente puede ser independiente o dependiente del segundo. Además, la calidad de la imputación se puede aumentar cuando se utilizan más componentes del NMF; consulte la Figura 4 de Ren et al. (2020) para su ilustración. [5]

Minería de texto

La NMF se puede utilizar para aplicaciones de minería de texto . En este proceso, se construye una matriz de términos y documentos con los pesos de varios términos (normalmente, información ponderada de frecuencia de palabras) de un conjunto de documentos. Esta matriz se factoriza en una matriz de términos y características y una matriz de características y documentos . Las características se derivan del contenido de los documentos, y la matriz de características y documentos describe grupos de datos de documentos relacionados.

Una aplicación específica utilizó NMF jerárquico en un pequeño subconjunto de resúmenes científicos de PubMed . [59] Otro grupo de investigación agrupó partes del conjunto de datos de correo electrónico de Enron [60] con 65.033 mensajes y 91.133 términos en 50 grupos. [61] NMF también se ha aplicado a datos de citas, con un ejemplo que agrupó artículos de Wikipedia en inglés y revistas científicas en función de las citas científicas salientes en Wikipedia en inglés. [62]

Arora, Ge, Halpern, Mimno, Moitra, Sontag, Wu y Zhu (2013) han desarrollado algoritmos de tiempo polinomial para aprender modelos de temas utilizando NMF. El algoritmo supone que la matriz de temas satisface una condición de separabilidad que suele cumplirse en estos entornos. [42]

Hassani, Iranmanesh y Mansouri (2019) propusieron un método de aglomeración de características para matrices de términos y documentos que funciona utilizando NMF. El algoritmo reduce la matriz de términos y documentos a una matriz más pequeña, más adecuada para la agrupación de textos. [63]

Análisis de datos espectrales

El NMF también se utiliza para analizar datos espectrales; uno de esos usos es la clasificación de objetos y desechos espaciales. [64]

Predicción escalable de distancias en Internet

El método NMF se aplica en la predicción escalable de distancias de Internet (tiempo de ida y vuelta). Para una red con hosts, con la ayuda de NMF, las distancias de todos los enlaces de extremo a extremo se pueden predecir después de realizar solo mediciones. Este tipo de método se introdujo por primera vez en el Servicio de estimación de distancias de Internet (IDES). [65] Posteriormente, como un enfoque completamente descentralizado, se propuso el sistema de coordenadas de red Phoenix [66] . Logra una mejor precisión de predicción general al introducir el concepto de peso.

Eliminación de ruido del habla no estacionaria

La eliminación de ruido del habla ha sido un problema de larga data en el procesamiento de señales de audio . Hay muchos algoritmos para eliminar el ruido si el ruido es estacionario. Por ejemplo, el filtro de Wiener es adecuado para el ruido gaussiano aditivo . Sin embargo, si el ruido no es estacionario, los algoritmos de eliminación de ruido clásicos suelen tener un rendimiento deficiente porque la información estadística del ruido no estacionario es difícil de estimar. Schmidt et al. [67] utilizan NMF para realizar la eliminación de ruido del habla bajo ruido no estacionario, lo que es completamente diferente de los enfoques estadísticos clásicos. La idea clave es que la señal de habla limpia puede representarse escasamente mediante un diccionario de habla, pero el ruido no estacionario no puede. De manera similar, el ruido no estacionario también puede representarse escasamente mediante un diccionario de ruido, pero el habla no.

El algoritmo para la eliminación de ruido mediante NMF es el siguiente. Es necesario entrenar sin conexión dos diccionarios, uno para el habla y otro para el ruido. Una vez que se proporciona un discurso ruidoso, primero calculamos la magnitud de la transformada de Fourier de tiempo corto. En segundo lugar, lo separamos en dos partes mediante NMF: una puede estar escasamente representada por el diccionario de habla y la otra parte puede estar escasamente representada por el diccionario de ruido. En tercer lugar, la parte representada por el diccionario de habla será el habla limpia estimada.

Genética de poblaciones

El algoritmo NMF disperso se utiliza en genética de poblaciones para estimar coeficientes de mezcla individuales, detectar grupos genéticos de individuos en una muestra de población o evaluar la mezcla genética en genomas muestreados. En la agrupación genética humana, los algoritmos NMF proporcionan estimaciones similares a las del programa informático STRUCTURE, pero los algoritmos son más eficientes computacionalmente y permiten el análisis de grandes conjuntos de datos genómicos de poblaciones. [68]

Bioinformática

La NMF se ha aplicado con éxito en bioinformática para agrupar datos de expresión genética y metilación del ADN y encontrar los genes más representativos de los grupos. [24] [69] [70] [71] En el análisis de mutaciones del cáncer se ha utilizado para identificar patrones comunes de mutaciones que ocurren en muchos cánceres y que probablemente tienen causas distintas. [72] Las técnicas de NMF pueden identificar fuentes de variación como tipos de células, subtipos de enfermedades, estratificación de la población, composición tisular y clonalidad tumoral. [73]

Una variante particular de NMF, denominada Tri-Factorización de Matriz No Negativa (NMTF), [74] se ha utilizado para tareas de reutilización de fármacos con el fin de predecir nuevos objetivos proteicos e indicaciones terapéuticas para fármacos aprobados [75] y para inferir pares de fármacos anticancerígenos sinérgicos. [76]

Imágenes nucleares

El análisis factorial de la NMF, también conocido en este campo como análisis factorial, se ha utilizado desde la década de 1980 [77] para analizar secuencias de imágenes en imágenes médicas dinámicas SPECT y PET . La falta de unicidad de la NMF se abordó mediante restricciones de escasez. [78] [79] [80]

Investigación actual

La investigación actual (desde 2010) en factorización de matrices no negativas incluye, entre otras,

  1. Algorítmico: búsqueda de mínimos globales de los factores e inicialización de factores. [81]
  2. Escalabilidad: cómo factorizar matrices de millones por mil millones, que son comunes en la minería de datos a escala web, por ejemplo, consulte Factorización de matriz no negativa distribuida (DNMF), [82] Factorización de matriz no negativa escalable (ScalableNMF), [83] Descomposición en valores singulares estocásticos distribuidos. [84]
  3. En línea: cómo actualizar la factorización cuando llegan nuevos datos sin tener que volver a calcular desde cero, por ejemplo, consulte CNSC en línea [85]
  4. Factorización colectiva (conjunta): factorización de múltiples matrices interrelacionadas para el aprendizaje de múltiples vistas, por ejemplo, agrupamiento de múltiples vistas, consulte CoNMF [86] y MultiNMF [87]
  5. Problema de Cohen y Rothblum de 1993: si una matriz racional siempre tiene un FNM de dimensión interna mínima cuyos factores también son racionales. Recientemente, este problema ha sido respondido negativamente. [88]

Véase también

Fuentes y enlaces externos

Notas

  1. ^ abc Dhillon, Inderjit S.; Sra, Suvrit (2005). "Aproximaciones de matrices no negativas generalizadas con divergencias de Bregman". Advances in Neural Information Processing Systems 18 [Neural Information Processing Systems, NIPS 2005, 5-8 de diciembre de 2005, Vancouver, Columbia Británica, Canadá] . págs. 283–290.
  2. ^ Tandon, Rashish; Sra, Suvrit (13 de septiembre de 2010). Aproximación de matrices dispersas no negativas: nuevas formulaciones y algoritmos (PDF) (Informe). Instituto Max Planck de Cibernética Biológica. Informe técnico n.º 193.
  3. ^ abc Blanton, Michael R.; Roweis, Sam (2007). "Correcciones K y transformaciones de filtros en el ultravioleta, óptico e infrarrojo cercano". The Astronomical Journal . 133 (2): 734–754. arXiv : astro-ph/0606170 . Código Bibliográfico :2007AJ....133..734B. doi :10.1086/510127. S2CID  18561804.
  4. ^ abcdefg Ren, Bin; Pueyo, Laurent; Zhu, Guangtun B.; Duchêne, Gaspard (2018). "Factorización de matrices no negativas: extracción robusta de estructuras extendidas". La revista astrofísica . 852 (2): 104. arXiv : 1712.10317 . Código Bib : 2018ApJ...852..104R. doi : 10.3847/1538-4357/aaa1f2 . S2CID  3966513.
  5. ^ abcde Ren, Bin; Pueyo, Laurent; Chen, Christine; Choquet, Elodie; Debes, John H; Duechene, Gaspard; Menard, Francois; Perrin, Marshall D. (2020). "Uso de imputación de datos para la separación de señales en imágenes de alto contraste". The Astrophysical Journal . 892 (2): 74. arXiv : 2001.00563 . Código Bibliográfico :2020ApJ...892...74R. doi : 10.3847/1538-4357/ab7024 . S2CID  209531731.
  6. ^ por Rainer Gemulla; Erik Nijkamp; Peter J. Haas ; Yannis Sismanis (2011). Factorización matricial a gran escala con descenso de gradiente estocástico distribuido . Proc. Conferencia internacional ACM SIGKDD sobre descubrimiento de conocimiento y minería de datos. págs. 69–77.
  7. ^ Yang Bao; et al. (2014). TopicMF: Explotación simultánea de calificaciones y reseñas para recomendaciones. AAAI.
  8. ^ Ben Murrell; et al. (2011). "Factorización de matriz no negativa para el aprendizaje de modelos de evolución de proteínas específicos de la alineación". PLOS ONE . ​​6 (12): e28898. Bibcode :2011PLoSO...628898M. doi : 10.1371/journal.pone.0028898 . PMC 3245233 . PMID  22216138. 
  9. ^ William H. Lawton; Edward A. Sylvestre (1971). "Resolución de curvas de automodelado". Technometrics . 13 (3): 617–633. doi :10.2307/1267173. JSTOR  1267173.
  10. ^ Pentti Paatero; Al Tapper; Pasi Aalto; Markku Kulmala (1991). "Métodos de factorización matricial para analizar datos de baterías de difusión". Revista de ciencia de aerosoles . 22 : S273–S276. doi :10.1016/S0021-8502(05)80089-8. ISSN  0021-8502. Wikidata  Q58065673.
  11. ^ Pentti Paatero; Unto Tapper (junio de 1994). "Factorización de matriz positiva: Un modelo de factor no negativo con utilización óptima de estimaciones de error de valores de datos". Environmetrics . 5 (2): 111–126. doi :10.1002/ENV.3170050203. ISSN  1180-4009. Wikidata  Q29308406.
  12. ^ Pía Anttila; Pentti Paatero; Al Tapper; Olli Järvinen (1995). "Identificación de la fuente de deposición húmeda masiva en Finlandia mediante factorización de matriz positiva". Ambiente Atmosférico . 29 (14): 1705-1718. Código Bib : 1995AtmEn..29.1705A. doi :10.1016/1352-2310(94)00367-T.
  13. ^ ab Daniel D. Lee y H. Sebastian Seung (1999). "Aprendizaje de las partes de los objetos mediante factorización de matrices no negativas". Nature . 401 (6755): 788–791. Bibcode :1999Natur.401..788L. doi :10.1038/44565. PMID  10548103. S2CID  4428232.
  14. ^ ab Daniel D. Lee y H. Sebastian Seung (2001). Algoritmos para factorización de matrices no negativas (PDF) . Avances en sistemas de procesamiento de información neuronal 13: Actas de la conferencia de 2000. MIT Press . págs. 556–562.
  15. ^ abc C. Ding, X. He, HD Simon (2005). "Sobre la equivalencia de la factorización de matrices no negativas y el agrupamiento espectral". Proc. SIAM Int'l Conf. Data Mining, págs. 606-610. Mayo de 2005
  16. ^ Ding C, Li Y, Peng W (2008). "Sobre la equivalencia entre la factorización matricial no negativa y la indexación semántica latente probabilística" (PDF) . Computational Statistics & Data Analysis . 52 (8): 3913–3927. doi :10.1016/j.csda.2008.01.011. Archivado desde el original (PDF) el 4 de marzo de 2016.
  17. ^ ab C Ding, T Li, MI Jordan, Factorizaciones matriciales convexas y semi-no negativas, IEEE Transactions on Pattern Analysis and Machine Intelligence, 32, 45-55, 2010
  18. ^ Berman, A.; RJ Plemmons (1974). "Inversas de matrices no negativas". Álgebra lineal y multilineal . 2 (2): 161–172. doi :10.1080/03081087408817055.
  19. ^ A. Berman; RJ Plemmons (1994). Matrices no negativas en las ciencias matemáticas . Filadelfia: SIAM.
  20. ^ Thomas, LB (1974). "Problema 73-14, Factorización por rango de matrices no negativas". SIAM Rev . 16 (3): 393–394. doi :10.1137/1016064.
  21. ^ Vavasis, SA (2009). "Sobre la complejidad de la factorización de matrices no negativas". SIAM J. Optim . 20 (3): 1364–1377. arXiv : 0708.4149 . doi :10.1137/070709967. S2CID  7150400.
  22. ^ Zhang, T.; Fang, B.; Liu, W.; Tang, YY; He, G.; Wen, J. (2008). "Factorización matricial no negativa basada en normas de variación total para identificar la representación discriminante de patrones de imagen". Neurocomputing . 71 (10–12): 1824–1831. doi :10.1016/j.neucom.2008.01.022.
  23. ^ ab Hoyer, Patrik O. (2002). Codificación dispersa no negativa . Proc. Taller IEEE sobre redes neuronales para procesamiento de señales. arXiv : cs/0202009 .
  24. ^ ab Leo Taslaman y Björn Nilsson (2012). "Un marco para la factorización matricial no negativa regularizada, con aplicación al análisis de datos de expresión génica". PLOS One . 7 (11): e46331. Bibcode :2012PLoSO...746331T. doi : 10.1371/journal.pone.0046331 . PMC 3487913 . PMID  23133590. 
  25. ^ Hsieh, CJ; Dhillon, IS (2011). Métodos de descenso rápido de coordenadas con selección de variables para factorización de matrices no negativas (PDF) . Actas de la 17.ª conferencia internacional ACM SIGKDD sobre descubrimiento de conocimiento y minería de datos - KDD '11. pág. 1064. doi :10.1145/2020408.2020577. ISBN 9781450308137.
  26. ^ Fung, Yik-Hing; Li, Chun-Hung; Cheung, William K. (2 de noviembre de 2007). Predicción de participación en debates en línea mediante factorización de matrices no negativas. Wi-Iatw '07. IEEE Computer Society. págs. 284–287. ISBN 9780769530284– vía dl.acm.org.
  27. ^ Naiyang Guan; Dacheng Tao; Zhigang Luo y Bo Yuan (julio de 2012). "Factorización de matrices no negativas en línea con aproximación estocástica robusta". IEEE Transactions on Neural Networks and Learning Systems . 23 (7): 1087–1099. doi :10.1109/TNNLS.2012.2197827. PMID  24807135. S2CID  8755408.
  28. ^ Behnke, S. (2003). "Descubrimiento de características jerárquicas del habla mediante factorización matricial no negativa convolucional". Actas de la Conferencia conjunta internacional sobre redes neuronales, 2003. Vol. 4. Portland, Oregón, EE. UU.: IEEE. págs. 2758–2763. doi :10.1109/IJCNN.2003.1224004. ISBN . 978-0-7803-7898-8. Número de identificación del sujeto  3109867.
  29. ^ ab Lin, Chih-Jen (2007). "Métodos de gradiente proyectado para factorización de matrices no negativas" (PDF) . Neural Computation . 19 (10): 2756–2779. CiteSeerX 10.1.1.308.9135 . doi :10.1162/neco.2007.19.10.2756. PMID  17716011. S2CID  2295736. 
  30. ^ Lin, Chih-Jen (2007). "Sobre la convergencia de algoritmos de actualización multiplicativa para factorización de matrices no negativas". IEEE Transactions on Neural Networks . 18 (6): 1589–1596. CiteSeerX 10.1.1.407.318 . doi :10.1109/TNN.2007.895831. S2CID  2183630. 
  31. ^ Hyunsoo Kim y Haesun Park (2008). "Factorización de matrices no negativas basada en mínimos cuadrados con restricciones de no negatividad alternada y método de conjuntos activos" (PDF) . Revista SIAM sobre análisis de matrices y aplicaciones . 30 (2): 713–730. CiteSeerX 10.1.1.70.3485 . doi :10.1137/07069239x. 
  32. ^ Naiyang Guan; Dacheng Tao; Zhigang Luo; Bo Yuan (junio de 2012). "NeNMF: Un método de gradiente óptimo para la factorización de matrices no negativas". IEEE Transactions on Signal Processing . 60 (6): 2882–2898. Bibcode :2012ITSP...60.2882G. doi :10.1109/TSP.2012.2190406. S2CID  8143231.
  33. ^ Jingu Kim y Haesun Park (2011). "Factorización rápida de matrices no negativas: un método similar a un conjunto activo y comparaciones". Revista SIAM de informática científica . 58 (6): 3261–3281. Bibcode :2011SJSC...33.3261K. CiteSeerX 10.1.1.419.798 . doi :10.1137/110821172. 
  34. ^ Jingu Kim; Yunlong He y Haesun Park (2013). "Algoritmos para factorizaciones de matrices y tensores no negativos: una visión unificada basada en el marco de descenso de coordenadas de bloques" (PDF) . Journal of Global Optimization . 33 (2): 285–319. doi : 10.1007/s10898-013-0035-4 . S2CID  11197117.
  35. ^ Ding, C.; He, X. y Simon, HD (2005). "Sobre la equivalencia de la factorización matricial no negativa y el agrupamiento espectral". Proc. SIAM Data Mining Conf . Vol. 4. págs. 606–610. doi :10.1137/1.9781611972757.70. ISBN 978-0-89871-593-4.
  36. ^ Hafshejani, Sajad Fathi; Moaberfard, Zahra (noviembre de 2022). "Inicialización para factorización de matrices no negativas: una revisión exhaustiva". Revista internacional de ciencia y análisis de datos . 16 (1): 119–134. arXiv : 2109.03874 . doi :10.1007/s41060-022-00370-9. ISSN  2364-415X.
  37. ^ ab Zhu, Guangtun B. (19 de diciembre de 2016). "Factorización de matrices no negativas (NMF) con incertidumbres heterocedásticas y datos faltantes". arXiv : 1612.06037 [astro-ph.IM].
  38. ^ ab Soummer, Rémi; Pueyo, Laurent; Larkin, James (2012). "Detección y caracterización de exoplanetas y discos utilizando proyecciones en imágenes propias de Karhunen-Loève". The Astrophysical Journal Letters . 755 (2): L28. arXiv : 1207.4197 . Código Bibliográfico :2012ApJ...755L..28S. doi :10.1088/2041-8205/755/2/L28. S2CID  51088743.
  39. ^ abc Pueyo, Laurent (2016). "Detección y caracterización de exoplanetas usando proyecciones sobre imágenes propias de Karhunen Loeve: modelado hacia adelante". The Astrophysical Journal . 824 (2): 117. arXiv : 1604.06097 . Bibcode :2016ApJ...824..117P. doi : 10.3847/0004-637X/824/2/117 . S2CID  118349503.
  40. ^ Campbell, SL; GD Poole (1981). "Cálculo de factorizaciones de rango no negativo". Linear Algebra Appl . 35 : 175–182. doi : 10.1016/0024-3795(81)90272-x .
  41. ^ Kalofolias, V.; Gallopoulos, E. (2012). "Cálculo de factorizaciones simétricas de rango no negativo" (PDF) . Linear Algebra Appl . 436 (2): 421–435. doi :10.1016/j.laa.2011.03.016.
  42. ^ ab Arora, Sanjeev; Ge, Rong; Halpern, Yoni; Mimno, David; Moitra, Ankur; Sontag, David; Wu, Yichen; Zhu, Michael (2013). Un algoritmo práctico para modelado de temas con garantías demostrables. Actas de la 30.ª Conferencia Internacional sobre Aprendizaje Automático. arXiv : 1212.4777 . Código Bibliográfico :2012arXiv1212.4777A.
  43. ^ Lee, Daniel D.; Sebastian, Seung, H. (1999). "Aprendizaje de las partes de los objetos mediante factorización de matrices no negativas" (PDF) . Nature . 401 (6755): 788–791. Bibcode :1999Natur.401..788L. doi :10.1038/44565. PMID  10548103. S2CID  4428232.{{cite journal}}: CS1 maint: multiple names: authors list (link)
  44. ^ Wray Buntine (2002). Extensiones variacionales a EM y PCA multinomial (PDF) . Proc. Conferencia Europea sobre Aprendizaje Automático (ECML-02). LNAI. Vol. 2430. págs. 23–34.
  45. ^ Eric Gaussier y Cyril Goutte (2005). Relación entre PLSA y NMF e implicaciones (PDF) . Actas de la 28.ª conferencia internacional ACM SIGIR sobre investigación y desarrollo en recuperación de información (SIGIR-05). pp. 601–602. Archivado desde el original (PDF) el 28 de septiembre de 2007. Consultado el 29 de enero de 2007 .
  46. ^ Ron Zass y Amnon Shashua (2005). "Un enfoque unificador para la agrupación en clústeres probabilística y estricta". Conferencia internacional sobre visión artificial (ICCV), Pekín (China), octubre de 2005.
  47. ^ Max Welling y col. (2004). Familias armónicas exponenciales con aplicación a la recuperación de información. NIPS.
  48. ^ Pentti Paatero (1999). "El motor multilineal: un programa de mínimos cuadrados basado en tablas para resolver problemas multilineales, incluido el modelo de análisis factorial paralelo de n vías". Journal of Computational and Graphical Statistics . 8 (4): 854–888. doi :10.2307/1390831. JSTOR  1390831.
  49. ^ Max Welling y Markus Weber (2001). "Factorización tensorial positiva". Pattern Recognition Letters . 22 (12): 1255–1261. Código Bibliográfico :2001PaReL..22.1255W. CiteSeerX 10.1.1.21.24 . doi :10.1016/S0167-8655(01)00070-8. 
  50. ^ Jingu Kim y Haesun Park (2012). Factorización tensorial no negativa rápida con un método similar a un conjunto activo (PDF) . Computación científica de alto rendimiento: algoritmos y aplicaciones. Springer. pp. 311–326.
  51. ^ Kenán Yilmaz; A. Taylan Cemgil y Umut Simsekli (2011). Factorización de tensor acoplado generalizado (PDF) . NIPS.
  52. ^ Vamsi K. Potluru; Sergey M. Plis; Morten Morup; Vince D. Calhoun y Terran Lane (2009). Actualizaciones multiplicativas eficientes para máquinas de vectores de soporte . Actas de la Conferencia SIAM de 2009 sobre minería de datos (SDM). págs. 1218–1229.
  53. ^ Wei Xu; Xin Liu y Yihong Gong (2003). Agrupamiento de documentos basado en factorización de matrices no negativas. Actas de la 26.ª conferencia anual internacional ACM SIGIR sobre investigación y desarrollo en recuperación de información. Nueva York: Association for Computing Machinery . págs. 267–273.
  54. ^ Eggert, J.; Korner, E. (2004). "Codificación dispersa y NMF". Conferencia conjunta internacional IEEE de 2004 sobre redes neuronales (IEEE Cat. No.04CH37541) . Vol. 4. págs. 2529–2533. doi :10.1109/IJCNN.2004.1381036. ISBN . 978-0-7803-8359-3. Número de identificación del sujeto  17923083.
  55. ^ Berné, O.; Joblin, C. ; Deville, Y.; Smith, JD; Rapacioli, M.; Bernard, JP; Thomas, J.; Reach, W.; Abergel, A. (1 de julio de 2007). "Análisis de la emisión de partículas de polvo muy pequeñas a partir de datos de espectrofotometría de Spitzer utilizando métodos de separación de señales ciegas". Astronomía y astrofísica . 469 (2): 575–586. arXiv : astro-ph/0703072 . Bibcode :2007A&A...469..575B. doi : 10.1051/0004-6361:20066282 . ISSN  0004-6361.
  56. ^ Lafrenière, David; Maroid, Christian; Doyon, René; Barman, Travis (2009). "Detección de HR 8799 b por el telescopio HST/NICMOS en 1998". The Astrophysical Journal Letters . 694 (2): L148. arXiv : 0902.3247 . Código Bibliográfico :2009ApJ...694L.148L. doi :10.1088/0004-637X/694/2/L148. S2CID  7332750.
  57. ^ Amara, Adam; Quanz, Sascha P. (2012). "PYNPOINT: un paquete de procesamiento de imágenes para encontrar exoplanetas". Monthly Notices of the Royal Astronomical Society . 427 (2): 948. arXiv : 1207.6637 . Bibcode :2012MNRAS.427..948A. doi : 10.1111/j.1365-2966.2012.21918.x . S2CID  119200505.
  58. ^ Wahhaj, Zahed; Cieza, Lucas A.; Mawet, Dimitri; Yang, Bin; Cánovas, Héctor; de Boer, Jozua; Casaso, Simón; Ménard, François; Schreiber, Matías R.; Liu, Michael C.; Biller, Beth A.; Nielsen, Eric L.; Hayward, Thomas L. (2015). "Mejora de la relación señal-ruido en la obtención de imágenes directas de exoplanetas y discos circunestelares con MLOCI". Astronomía y Astrofísica . 581 (24): A24. arXiv : 1502.03092 . Código Bib : 2015A&A...581A..24W. doi :10.1051/0004-6361/201525837. S2CID  20174209.
  59. ^ Nielsen, Finn Arup; Balslev, Daniela; Hansen, Lars Kai (2005). "Minería del cingulado posterior: segregación entre los componentes de la memoria y el dolor" (PDF) . NeuroImagen . 27 (3): 520–522. doi : 10.1016/j.neuroimage.2005.04.034. PMID  15946864. S2CID  18509039.
  60. ^ Cohen, William (4 de abril de 2005). "Conjunto de datos de correo electrónico de Enron" . Consultado el 26 de agosto de 2008 .
  61. ^ Berry, Michael W.; Browne, Murray (2005). "Vigilancia del correo electrónico mediante factorización de matriz no negativa". Teoría de la organización matemática y computacional . 11 (3): 249–264. doi :10.1007/s10588-005-5380-5. S2CID  16249147.
  62. ^ Nielsen, Finn Arup (2008). Agrupación de citas científicas en Wikipedia. Wikimanía . arXiv : 0805.1154 .
  63. ^ Hassani, Ali; Iranmanesh, Amir; Mansouri, Najme (12 de noviembre de 2019). "Minería de textos mediante factorización matricial no negativa y análisis semántico latente". arXiv : 1911.04705 [cs.LG].
  64. ^ Berry, Michael W.; Browne, Murray; Langville, Amy N.; Paucac, V. Paul; Plemmonsc, Robert J. (15 de septiembre de 2007). "Algoritmos y aplicaciones para la factorización aproximada de matrices no negativas". Computational Statistics & Data Analysis . 52 (1): 155–173. doi :10.1016/j.csda.2006.11.006.
  65. ^ Yun Mao; Lawrence Saul y Jonathan M. Smith (2006). "IDES: Un servicio de estimación de distancias de Internet para redes grandes". Revista IEEE sobre áreas seleccionadas en comunicaciones . 24 (12): 2273–2284. CiteSeerX 10.1.1.136.3837 . doi :10.1109/JSAC.2006.884026. S2CID  12931155. 
  66. ^ Yang Chen; Xiao Wang; Cong Shi; et al. (2011). "Phoenix: un sistema de coordenadas de red basado en pesos que utiliza factorización matricial" (PDF) . IEEE Transactions on Network and Service Management . 8 (4): 334–347. CiteSeerX 10.1.1.300.2851 . doi :10.1109/tnsm.2011.110911.100079. S2CID  8079061. Archivado desde el original (PDF) el 2011-11-14. 
  67. ^ Schmidt, MN, J. Larsen y FT Hsiao. (2007). "Reducción del ruido del viento mediante codificación dispersa no negativa", Aprendizaje automático para procesamiento de señales, Taller IEEE sobre , 431–436
  68. ^ Frichot E, Mathieu F, Trouillon T, Bouchard G, Francois O (2014). "Estimación rápida y eficiente de coeficientes de ascendencia individual". Genética . 196 (4): 973–983. doi :10.1534/genetics.113.160572. PMC 3982712 . PMID  24496008. 
  69. ^ Devarajan, K. (2008). "Factorización de matrices no negativas: una herramienta analítica e interpretativa en biología computacional". PLOS Computational Biology . 4 (7): e1000029. Bibcode :2008PLSCB...4E0029D. doi : 10.1371/journal.pcbi.1000029 . PMC 2447881 . PMID  18654623. 
  70. ^ Hyunsoo Kim y Haesun Park (2007). "Factorizaciones de matrices dispersas no negativas mediante mínimos cuadrados alternativos con restricciones no negativas para el análisis de datos de microarrays". Bioinformática . 23 (12): 1495–1502. doi : 10.1093/bioinformatics/btm134 . PMID  17483501.
  71. ^ Schwalbe, E. (2013). "El perfil de metilación del ADN del meduloblastoma permite una subclasificación sólida y una mejor predicción de los resultados utilizando biopsias fijadas con formalina". Acta Neuropathologica . 125 (3): 359–371. doi :10.1007/s00401-012-1077-2. PMC 4313078 . PMID  23291781. 
  72. ^ Alexandrov, Ludmil B.; Nik-Zainal, Serena; Wedge, David C.; Campbell, Peter J.; Stratton, Michael R. (31 de enero de 2013). "Descifrando las firmas de los procesos mutacionales operativos en el cáncer humano". Cell Reports . 3 (1): 246–259. doi :10.1016/j.celrep.2012.12.008. ISSN  2211-1247. PMC 3588146 . PMID  23318258. 
  73. ^ Stein-O'Brien, Genevieve L.; Arora, Raman; Culhane, Aedin C.; Favorov, Alexander V.; Garmire, Lana X.; Greene, Casey S.; Goff, Loyal A.; Li, Yifeng; Ngom, Aloune; Ochs, Michael F.; Xu, Yanxun (1 de octubre de 2018). "Entrar en Matrix: la factorización descubre el conocimiento de la ómica". Tendencias en genética . 34 (10): 790–805. doi :10.1016/j.tig.2018.07.003. ISSN  0168-9525. PMC 6309559 . PMID  30143323. 
  74. ^ Ding; Li; Peng; Park (2006). "Factorizaciones t de matrices no negativas ortogonales para agrupamiento". Actas de la 12.ª conferencia internacional ACM SIGKDD sobre descubrimiento de conocimiento y minería de datos . págs. 126–135. doi :10.1145/1150402.1150420. ISBN . 1595933395.S2CID165018  .​
  75. ^ Ceddia; Pinoli; Ceri; Masseroli (2020). "Técnica basada en factorización matricial para predicciones de reutilización de fármacos". Revista IEEE de informática biomédica y sanitaria . 24 (11): 3162–3172. doi :10.1109/JBHI.2020.2991763. PMID  32365039. S2CID  218504587.
  76. ^ Pinoli; Ceddia; Ceri; Masseroli (2021). "Predicción de la sinergia de fármacos mediante trifactorización de matriz no negativa". Transacciones IEEE/ACM sobre biología computacional y bioinformática . PP (4): 1956–1967. doi :10.1109/TCBB.2021.3091814. PMID  34166199. S2CID  235634059.
  77. ^ DiPaola; Bazin; Aubry; Aurengo; Cavailloles; Herry; Kahn (1982). "Manejo de secuencias dinámicas en medicina nuclear". IEEE Trans Nucl Sci . 29 (4): 1310–21. Bibcode :1982ITNS...29.1310D. doi :10.1109/tns.1982.4332188. S2CID  37186516.
  78. ^ Sitek; Gullberg; Huesman (2002). "Corrección para soluciones ambiguas en el análisis factorial utilizando un objetivo de mínimos cuadrados penalizado". IEEE Trans Med Imaging . 21 (3): 216–25. doi :10.1109/42.996340. PMID  11989846. S2CID  6553527.
  79. ^ Boutchko; Mitra; Baker; Jagust; Gullberg (2015). "Aplicación del análisis factorial iniciado por agrupamiento (CIFA) para la clasificación de tejidos en PET cerebral dinámico". Revista de flujo sanguíneo cerebral y metabolismo . 35 (7): 1104–11. doi :10.1038/jcbfm.2015.69. PMC 4640278 . PMID  25899294. 
  80. ^ Abdalah; Boutchko; Mitra; Gullberg (2015). "Reconstrucción de imágenes SPECT dinámicas 4-D a partir de proyecciones inconsistentes utilizando un algoritmo FADS inicializado por spline (SIFADS)". IEEE Trans Med Imaging . 34 (1): 216–18. doi :10.1109/TMI.2014.2352033. PMID  25167546. S2CID  11060831.
  81. ^ C. Boutsidis y E. Gallopoulos (2008). "Inicialización basada en SVD: una ventaja para la factorización de matrices no negativas". Reconocimiento de patrones . 41 (4): 1350–1362. Bibcode :2008PatRe..41.1350B. CiteSeerX 10.1.1.137.8281 . doi :10.1016/j.patcog.2007.09.010. 
  82. ^ Chao Liu; Hung-chih Yang; Jinliang Fan; Li-Wei He y Yi-Min Wang (2010). "Factorización de matriz no negativa distribuida para análisis de datos diádicos a escala web en MapReduce" (PDF) . Actas de la 19.ª Conferencia Internacional sobre la World Wide Web .
  83. ^ Jiangtao Yin; Lixin Gao y Zhongfei (Mark) Zhang (2014). "Factorización de matrices no negativas escalables con actualizaciones por bloques" (PDF) . Actas de la Conferencia Europea sobre Aprendizaje Automático y Principios y Prácticas del Descubrimiento de Conocimiento en Bases de Datos .
  84. ^ "Apache Mahout". mahout.apache.org . Consultado el 14 de diciembre de 2019 .
  85. ^ Dong Wang; Ravichander Vipperla; Nick Evans; Thomas Fang Zheng (2013). "Aprendizaje de patrones convolutivos no negativos en línea para señales de voz" (PDF) . IEEE Transactions on Signal Processing . 61 (1): 44–56. Bibcode :2013ITSP...61...44W. CiteSeerX 10.1.1.707.7348 . doi :10.1109/tsp.2012.2222381. S2CID  12530378. Archivado desde el original (PDF) el 2015-04-19 . Consultado el 2015-04-19 . 
  86. ^ Xiangnan He; Min-Yen Kan; Peichu Xie y Xiao Chen (2014). "Comment-based Multi-View Clustering of Web 2.0 Items" (PDF) . Actas de la 23.ª Conferencia Internacional sobre la World Wide Web . Archivado desde el original (PDF) el 2015-04-02 . Consultado el 2015-03-22 .
  87. ^ Jialu Liu; Chi Wang; Jing Gao y Jiawei Han (2013). "Multi-View Clustering via Joint Nonnegative Matrix Factorization". Actas de la Conferencia Internacional SIAM de 2013 sobre Minería de Datos (PDF) . pp. 252–260. CiteSeerX 10.1.1.301.1771 . doi :10.1137/1.9781611972832.28. ISBN .  978-1-61197-262-7. Número de identificación del sujeto  4968.
  88. ^ Chistikov, Dmitry; Kiefer, Stefan; Marušić, Ines; Shirmohammadi, Mahsa; Worrell, James (22 de mayo de 2016). "La factorización de matrices no negativas requiere irracionalidad". arXiv : 1605.06848 [cs.CC].

Otros