stringtranslate.com

Regularización de red elástica

En estadística y, en particular, en el ajuste de modelos de regresión lineal o logística , la red elástica es un método de regresión regularizado que combina linealmente las penalizaciones L 1 y L 2 de los métodos lasso y ridge .

Especificación

El método de red elástica supera las limitaciones del método LASSO (operador de selección y contracción mínima absoluta) que utiliza una función de penalización basada en

El uso de esta función de penalización tiene varias limitaciones. [1] Por ejemplo, en el caso de " p grande , n pequeña " (datos de alta dimensión con pocos ejemplos), el LASSO selecciona como máximo n variables antes de saturarse. Además, si hay un grupo de variables altamente correlacionadas, entonces el LASSO tiende a seleccionar una variable de un grupo e ignorar las demás. Para superar estas limitaciones, la red elástica agrega una parte cuadrática ( ) a la penalización, que cuando se usa sola es una regresión de cresta (también conocida como regularización de Tikhonov ). Las estimaciones del método de red elástica se definen por

El término de penalización cuadrático hace que la función de pérdida sea fuertemente convexa y, por lo tanto, tiene un mínimo único. El método de red elástica incluye LASSO y la regresión de cresta: en otras palabras, cada uno de ellos es un caso especial donde o . Mientras tanto, la versión ingenua del método de red elástica encuentra un estimador en un procedimiento de dos etapas: primero, para cada fijo, encuentra los coeficientes de regresión de cresta y luego realiza una contracción de tipo LASSO. Este tipo de estimación incurre en una cantidad doble de contracción, lo que conduce a un mayor sesgo y predicciones deficientes. Para mejorar el rendimiento de la predicción, a veces los coeficientes de la versión ingenua de la red elástica se reescalan multiplicando los coeficientes estimados por . [1]

Algunos ejemplos de aplicación del método de red elástica son:

Reducción a máquina de vectores de soporte

En 2014 se demostró que la red elástica se puede reducir a la máquina de vectores de soporte lineal . [6] Una reducción similar se demostró previamente para LASSO en 2014. [7] Los autores demostraron que para cada instancia de la red elástica, se puede construir un problema de clasificación binaria artificial de modo que la solución de hiperplano de una máquina de vectores de soporte lineal (SVM) sea idéntica a la solución (después del reescalado). La reducción permite inmediatamente el uso de solucionadores SVM altamente optimizados para problemas de redes elásticas. También permite el uso de aceleración de GPU , que a menudo ya se utiliza para solucionadores SVM a gran escala. [8] La reducción es una transformación simple de los datos originales y las constantes de regularización.

en nuevas instancias de datos artificiales y una constante de regularización que especifican un problema de clasificación binaria y la constante de regularización SVM

Aquí, consta de etiquetas binarias . Normalmente, es más rápido resolver la SVM lineal en el modelo primario, mientras que, de lo contrario, la formulación dual es más rápida. Algunos autores se han referido a la transformación como red elástica de vectores de soporte (SVEN) y han proporcionado el siguiente pseudocódigo de MATLAB:

función  β = SVEN ( X, y, t, λ2 ); [ n , p ] = tamaño ( X ); X2 = [ bsxfun (@ minus , X , y ./ t ); bsxfun (@ plus , X , y ./ t )] ' ; Y2 = [ unos ( p , 1 ); - unos ( p , 1 )]; si 2 p > n entonces w = SVMPrimal ( X2 , Y2 , C = 1 / ( 2 * λ2 )); α = C * max ( 1 - Y2 .* ( X2 * w ), 0 ); de lo contrario α = SVMDual ( X2 , Y2 , C = 1 / ( 2 * λ2 )); terminar si β = t * ( α ( 1 : p ) - α ( p + 1 : 2 p )) / suma ( α );                                                       

Software

Referencias

  1. ^ ab Zou, Hui; Hastie, Trevor (2005). "Regularización y selección de variables a través de la red elástica". Revista de la Royal Statistical Society, Serie B . 67 (2): 301–320. CiteSeerX  10.1.1.124.4696 . doi :10.1111/j.1467-9868.2005.00503.x. S2CID  122419596.
  2. ^ Wang, Li; Zhu, Ji; Zou, Hui (2006). "La máquina de vectores de soporte doblemente regularizada" (PDF) . Statistica Sinica . 16 : 589–615.
  3. ^ Liu, Meizhu; Vemuri, Baba (2012). "Un enfoque de aprendizaje métrico doblemente regularizado, robusto y eficiente". Actas de la 12.ª Conferencia Europea sobre Visión por Computador . Apuntes de clase en Ciencias de la Computación. Parte IV: 646–659. doi :10.1007/978-3-642-33765-9_46. ISBN 978-3-642-33764-2. PMC  3761969 . PMID  24013160.
  4. ^ Shen, Weiwei; Wang, Jun; Ma, Shiqian (2014). "Cartera doblemente regularizada con minimización de riesgos". Actas de la vigésimo octava conferencia de la AAAI sobre inteligencia artificial . 28 : 1286–1292. doi : 10.1609/aaai.v28i1.8906 . S2CID  11017740.
  5. ^ Milanez-Almeida, Pedro; Martins, Andrew J.; Germain, Ronald N.; Tsang, John S. (10 de febrero de 2020). "Pronóstico del cáncer con secuenciación superficial del ARN tumoral". Nature Medicine . 26 (2): 188–192. doi :10.1038/s41591-019-0729-3. ISSN  1546-170X. PMID  32042193. S2CID  211074147.
  6. ^ Zhou, Quan; Chen, Wenlin; Song, Shiji; Gardner, Jacob; Weinberger, Kilian; Chen, Yixin. Una reducción de la red elástica para máquinas de vectores de soporte con una aplicación a la computación GPU. Asociación para el Avance de la Inteligencia Artificial .
  7. ^ Jaggi, Martin (2014). Suykens, Johan; Signoretto, Marco; Argyriou, Andreas (eds.). Una equivalencia entre las máquinas Lasso y de vectores de soporte . Chapman y Hall/CRC. arXiv : 1303.1152 .
  8. ^ "GTSVM". uchicago.edu .
  9. ^ Friedman, Jerome; Trevor Hastie; Rob Tibshirani (2010). "Rutas de regularización para modelos lineales generalizados mediante descenso de coordenadas". Revista de software estadístico . 33 (1): 1–22. doi :10.18637/jss.v033.i01. PMC 2929880 . PMID  20808728. 
  10. ^ "CRAN - Paquete glmnet". r-project.org .
  11. ^ Waldron, L.; Pintilie, M.; Tsao, M. -S.; Shepherd, FA; Huttenhower, C.; Jurisica, I. (2011). "Aplicación optimizada de métodos de regresión penalizada a diversos datos genómicos". Bioinformática . 27 (24): 3399–3406. doi :10.1093/bioinformatics/btr591. PMC 3232376 . PMID  22156367. 
  12. ^ "CRAN - Paquete pensim". r-project.org .
  13. ^ "mlcircus / SVEN — Bitbucket". bitbucket.org .
  14. ^ Sjostrand, Karl; Clemmensen, Línea; Einarsson, Gudmundur; Larsen, Rasmus; Ersbøll, Bjarne (2 de febrero de 2016). "SpaSM: una caja de herramientas de Matlab para modelado estadístico disperso" (PDF) . Revista de software estadístico .
  15. ^ "paquete pyspark.ml — documentación de PySpark 1.6.1". spark.apache.org . Consultado el 17 de abril de 2019 .
  16. ^ "Proc Glmselect" . Consultado el 9 de mayo de 2019 .
  17. ^ "Un estudio de métodos de selección de variables y regresión penalizada" (PDF) .

Lectura adicional

Enlaces externos