Jubatus es un marco de trabajo de computación distribuida y aprendizaje automático en línea de código abierto desarrollado en Nippon Telegraph and Telephone y Preferred Infrastructure. Sus características incluyen clasificación , recomendación , regresión , detección de anomalías y minería de gráficos. Admite muchos lenguajes de cliente, incluidos C++ , Java , Ruby y Python . Utiliza mezcla de parámetros iterativos [1] [2] para el aprendizaje automático distribuido.
Características notables
Jubatus admite:
- Algoritmos de multiclasificación:
- Perceptrón
- Pasivo-agresivo [3] [4] [5]
- Ponderación de confianza [6] [7] [8]
- Regularización adaptativa de vectores de peso [9]
- Manada normal [10]
- Algoritmos de recomendación que utilizan:
- Algoritmos de regresión:
- Método de extracción de características para lenguaje natural:
Referencias
- ^ Ryan McDonald, K. Hall y G. Mann, Estrategias de entrenamiento distribuido para el perceptrón estructurado, Asociación Norteamericana de Lingüística Computacional (NAACL), 2010.
- ^ Gideon Mann, R. McDonald, M. Mohri, N. Silberman y D. Walker, Entrenamiento distribuido eficiente a gran escala de modelos de entropía máxima condicional, Neural Information Processing Systems (NIPS), 2009.
- ^ Crammer, Koby; Dekel, Ofer ; Shalev-Shwartz, Shai; Singer, Yoram (2003). Algoritmos pasivo-agresivos en línea . Actas de la decimosexta conferencia anual sobre sistemas de procesamiento de información neuronal (NIPS).
- ^ Koby Crammer y Yoram Singer. Algoritmos en línea ultraconservadores para problemas multiclase. Journal of Machine Learning Research, 2003.
- ^ Koby Crammer, Ofer Dekel, Joseph Keshet, Shai Shalev-Shwartz, Yoram Singer, Algoritmos pasivo-agresivos en línea. Revista de investigación en aprendizaje automático, 2006.
- ^ Mark Dredze, Koby Crammer y Fernando Pereira, Clasificación lineal ponderada por confianza, Actas de la 25.ª Conferencia internacional sobre aprendizaje automático (ICML), 2008
- ^ Koby Crammer, Mark Dredze y Fernando Pereira, Aprendizaje ponderado por confianza convexa exacta, Actas de la vigésimo segunda conferencia anual sobre sistemas de procesamiento de información neuronal (NIPS), 2008
- ^ Koby Crammer, Mark Dredze y Alex Kulesza, Algoritmos multiclase ponderados por confianza, Métodos empíricos en el procesamiento del lenguaje natural (EMNLP), 2009
- ^ Koby Crammer, Alex Kulesza y Mark Dredze, Regularización adaptativa de vectores de peso, Avances en sistemas de procesamiento de información neuronal, 2009
- ^ Koby Crammer y Daniel D. Lee, Aprendizaje mediante pastoreo gaussiano, Sistemas de procesamiento de información neuronal (NIPS), 2010.