stringtranslate.com

Cronología del aprendizaje automático

Esta página es una línea de tiempo del aprendizaje automático . Se incluyen los principales descubrimientos, logros, hitos y otros eventos importantes en el aprendizaje automático .

Descripción general

Línea de tiempo

Ver también

Referencias

Citas

  1. ^ Solomonoff, RJ (junio de 1964). "Una teoría formal de la inferencia inductiva. Parte II". Información y Control . 7 (2): 224–254. doi :10.1016/S0019-9958(64)90131-7.
  2. ^ abcdef marzo de 2016.
  3. ^ Siegelmann, HT; Sontag, ED (febrero de 1995). "Sobre el poder computacional de las redes neuronales". Revista de Ciencias de la Computación y de Sistemas . 50 (1): 132-150. doi : 10.1006/jcss.1995.1013 .
  4. ^ Siegelmann, La Habana (1995). "Computación más allá del límite de Turing". Revista de Ciencias de la Computación y de Sistemas . 238 (28): 632–637. Código Bib : 1995 Ciencia... 268.. 545S. doi : 10.1126/ciencia.268.5210.545. PMID  17756722. S2CID  17495161.
  5. ^ Ben-Hur, Asa; Cuerno, David; Siegelmann, Hava; Vápnik, Vladimir (2001). "Soporte de agrupación de vectores". Revista de investigación sobre aprendizaje automático . 2 : 51–86.
  6. ^ Hofmann, Thomas; Schölkopf, Bernhard; Smola, Alexander J. (2008). "Métodos del kernel en aprendizaje automático". Los anales de la estadística . 36 (3): 1171-1220. arXiv : matemáticas/0701907 . doi : 10.1214/009053607000000677 . JSTOR  25464664.
  7. ^ Bennet, James; Lanning, Stan (2007). «El premio netflix» (PDF) . Actas de la Copa y Taller KDD 2007 .
  8. ^ Bayes, Thomas (1 de enero de 1763). "Un ensayo para resolver un problema en la doctrina del azar". Transacciones filosóficas . 53 : 370–418. doi : 10.1098/rstl.1763.0053 . JSTOR  105741.
  9. ^ Legendre, Adrien-Marie (1805). Nouvelles méthodes pour la détermination des orbites des comètes (en francés). París: Firmin Didot. pag. viii . Consultado el 13 de junio de 2016 .
  10. ^ O'Connor, JJ; Robertson, E F. "Pierre-Simon Laplace". Escuela de Matemáticas y Estadística, Universidad de St Andrews, Escocia . Consultado el 15 de junio de 2016 .
  11. ^ Langston, Nancy (2013). "Minería del Norte Boreal". Científico americano . 101 (2): 1. doi :10.1511/2013.101.1. Profundizando en el texto de la novela de Alexander Pushkin en verso Eugenio Onegin, Markov pasó horas examinando patrones de vocales y consonantes. El 23 de enero de 1913 resumió sus hallazgos en un discurso ante la Academia Imperial de Ciencias de San Petersburgo. Su análisis no alteró la comprensión o apreciación del poema de Pushkin, pero la técnica que desarrolló (ahora conocida como cadena de Markov) amplió la teoría de la probabilidad en una nueva dirección.
  12. ^ McCulloch, Warren S.; Pitts, Walter (diciembre de 1943). "Un cálculo lógico de las ideas inmanentes a la actividad nerviosa". El Boletín de Biofísica Matemática . 5 (4): 115-133. doi :10.1007/BF02478259.
  13. ^ Turing, AM (1 de octubre de 1950). "I.—MAQUINARIA INFORMÁTICA E INTELIGENCIA". Mente . LIX (236): 433–460. doi : 10.1093/mente/LIX.236.433.
  14. ^ Crevier 1993, págs. 34-35 y Russell y Norvig 2003, pág. 17.
  15. ^ McCarthy, J.; Feigenbaum, E. (1 de septiembre de 1990). "In memoriam: Arthur Samuel (1901-1990)". Revista AI . 11 (3): 10–11.
  16. ^ Rosenblatt, F. (1958). "El perceptrón: un modelo probabilístico para el almacenamiento y organización de información en el cerebro". Revisión psicológica . 65 (6): 386–408. CiteSeerX 10.1.1.588.3775 . doi :10.1037/h0042519. PMID  13602029. S2CID  12781225. 
  17. ^ Masón, Harding; Stewart, D; Gill, Brendan (6 de diciembre de 1958). "Rival". El neoyorquino . Consultado el 5 de junio de 2016 .
  18. ^ Niño, Oliver (13 de marzo de 2016). "Amenaza: la máquina de lectura del motor de tres en raya educable". Revista Chalkdust . Consultado el 16 de enero de 2018 .
  19. ^ Cohen, Harvey. "El perceptrón" . Consultado el 5 de junio de 2016 .
  20. ^ Linnainmaa, Seppo (1970). Algoritmin kumulatiivinen pyoristysvirhe yksittaisten pyoristysvirheiden taylor-kehitelmana [ La representación del error de redondeo acumulativo de un algoritmo como una expansión de Taylor de los errores de redondeo locales ] (PDF) (Tesis) (en finlandés). págs. 6–7.
  21. ^ Linnainmaa, Seppo (1976). "Expansión de Taylor del error de redondeo acumulado". BIT Matemáticas Numéricas . 16 (2): 146–160. doi :10.1007/BF01931367. S2CID  122357351.
  22. ^ Griewank, Andreas (2012). "¿Quién inventó el modo inverso de diferenciación?". Documenta Matematica, volumen adicional ISMP : 389–400.
  23. ^ Griewank, Andreas; Walther, A. (2008). Principios y técnicas de diferenciación algorítmica (Segunda ed.). SIAM. ISBN 978-0898716597.
  24. ^ Schmidhuber, Jürgen (2015). "Aprendizaje profundo en redes neuronales: una descripción general". Redes neuronales . 61 : 85-117. arXiv : 1404.7828 . Código Bib : 2014arXiv1404.7828S. doi :10.1016/j.neunet.2014.09.003. PMID  25462637. S2CID  11715509.
  25. ^ Schmidhuber, Jürgen (2015). "Aprendizaje profundo (sección sobre retropropagación)". Scholarpedia . 10 (11): 32832. Código bibliográfico : 2015SchpJ..1032832S. doi : 10.4249/scholarpedia.32832 .
  26. ^ Fukushima, Kunihiko (octubre de 1979). "位置ずれに影響されないパターン認識機構の神経回路のモデル --- ネオコグニトロン ---" [Modelo de red neuronal para un mecanismo de reconocimiento de patrones que no se ve afectado por el cambio de posición - Neocognitron -]. Trans. IECE (en japonés). J62-A (10): 658–665.
  27. ^ Fukushima, Kunihiko (abril de 1980). "Neocognitron: un modelo de red neuronal autoorganizada para un mecanismo de reconocimiento de patrones que no se ve afectado por el cambio de posición". Cibernética biológica . 36 (4): 193–202. doi :10.1007/BF00344251. PMID  7370364. S2CID  206775608.
  28. ^ Le Cun, Yann. "Aprendizaje profundo". CiteSeerX 10.1.1.297.6176 .  {{cite journal}}: Citar diario requiere |journal=( ayuda )
  29. ^ Hopfield, JJ (abril de 1982). "Redes neuronales y sistemas físicos con habilidades computacionales colectivas emergentes". Procedimientos de la Academia Nacional de Ciencias . 79 (8): 2554–2558. Código bibliográfico : 1982PNAS...79.2554H. doi : 10.1073/pnas.79.8.2554 . PMC 346238 . PMID  6953413. 
  30. ^ Rumelhart, David E.; Hinton, Geoffrey E.; Williams, Ronald J. (octubre de 1986). "Aprendizaje de representaciones mediante errores de retropropagación". Naturaleza . 323 (6088): 533–536. Código Bib :1986Natur.323..533R. doi :10.1038/323533a0. S2CID  205001834.
  31. ^ Watksin, Christopher (1 de mayo de 1989). "Aprender de las recompensas retrasadas" (PDF) . {{cite journal}}: Citar diario requiere |journal=( ayuda )
  32. ^ Markoff, John (29 de agosto de 1990). "TECNOLOGÍA EMPRESARIAL; ¿Cuál es la mejor respuesta? Es la supervivencia del más fuerte". New York Times . Consultado el 8 de junio de 2016 .
  33. ^ Tesauro, Gerald (marzo de 1995). "Aprendizaje de diferencias temporales y TD-Gammon". Comunicaciones de la ACM . 38 (3): 58–68. doi :10.1145/203330.203343. S2CID  8763243.
  34. ^ Tin Kam Ho (1995). "Bosques de decisión aleatoria". Actas de la Tercera Conferencia Internacional sobre Análisis y Reconocimiento de Documentos . vol. 1. págs. 278–282. doi :10.1109/ICDAR.1995.598994. ISBN 0-8186-7128-9.
  35. ^ Cortés, Corinna; Vapnik, Vladimir (septiembre de 1995). "Redes de vectores de soporte". Aprendizaje automático . 20 (3): 273–297. doi : 10.1007/BF00994018 .
  36. ^ Hochreiter, Sepp; Schmidhuber, Jürgen (1 de noviembre de 1997). "Memoria a largo plazo". Computación neuronal . 9 (8): 1735–1780. doi :10.1162/neco.1997.9.8.1735. PMID  9377276. S2CID  1915014.
  37. ^ LeCun, Yann; Cortés, Corinna; Burges, Cristóbal. «LA BASE DE DATOS MNIST de dígitos escritos a mano» . Consultado el 16 de junio de 2016 .
  38. ^ Collobert, Ronan; Benigo, Samy; Mariethoz, Johnny (30 de octubre de 2002). "Torch: una biblioteca modular de software de aprendizaje automático" (PDF) . Archivado desde el original (PDF) el 6 de agosto de 2016 . Consultado el 5 de junio de 2016 . {{cite journal}}: Citar diario requiere |journal=( ayuda )
  39. ^ "Las reglas del premio Netflix". Premio Netflix . Netflix. Archivado desde el original el 3 de marzo de 2012 . Consultado el 16 de junio de 2016 .
  40. ^ Gershgorn, Dave (26 de julio de 2017). "ImageNet: los datos que generaron el actual auge de la IA: Quartz". qz.com . Consultado el 30 de marzo de 2018 .
  41. ^ Hardy, Quentin (18 de julio de 2016). "Razones para creer que el auge de la IA es real". Los New York Times .
  42. ^ "Acerca de". Kaggle . Kaggle Inc. Archivado desde el original el 18 de marzo de 2016 . Consultado el 16 de junio de 2016 .
  43. ^ Markoff, John (16 de febrero de 2011). "La computadora gana en 'Jeopardy!': Trivial, no lo es". Los New York Times . pag. A1.
  44. ^ Le, Quoc V. (2013). "Creación de funciones de alto nivel mediante aprendizaje no supervisado a gran escala". Conferencia internacional IEEE 2013 sobre acústica, habla y procesamiento de señales . págs. 8595–8598. doi :10.1109/ICASSP.2013.6639343. ISBN 978-1-4799-0356-6. S2CID  206741597.
  45. ^ Markoff, John (26 de junio de 2012). "¿Cuántas computadoras para identificar un gato? 16.000". New York Times . pag. B1 . Consultado el 5 de junio de 2016 .
  46. ^ "Los datos que transformaron la investigación de la IA, y posiblemente el mundo". Cuarzo . 2017-07-26 . Consultado el 12 de septiembre de 2023 .
  47. ^ Taigman, Yaniv; Yang, Ming; Ranzato, Marc'Aurelio; Wolf, Lior (24 de junio de 2014). "DeepFace: cerrando la brecha con el rendimiento a nivel humano en la verificación facial". Jornada sobre Visión por Computador y Reconocimiento de Patrones . Consultado el 8 de junio de 2016 .
  48. ^ Canini, Kevin; Chandra, Tushar; Es decir, Eugenio; McFadden, Jim; Goldman, Ken; Gunter, Mike; Harmsen, Jeremías; LeFevre, Kristen; Lepikhin, Dmitry; Llinares, Tomás Lloret; Mukherjee, Indraneel; Pereira, Fernando; Piedra roja, Josh; Sacudido, Tal; Cantante, Yoram. "Sibyl: un sistema de aprendizaje automático supervisado a gran escala" (PDF) . Escuela de Ingeniería Jack Baskin . UC Santa Cruz. Archivado desde el original (PDF) el 15 de agosto de 2017 . Consultado el 8 de junio de 2016 .
  49. ^ Woodie, Alex (17 de julio de 2014). "Dentro de Sibyl, la plataforma de aprendizaje automático masivamente paralelo de Google". Datanami . Comunicaciones Tabor . Consultado el 8 de junio de 2016 .
  50. ^ "Google logra un 'gran avance' en la IA al vencer al campeón de Go". Noticias de la BBC . BBC. 27 de enero de 2016 . Consultado el 5 de junio de 2016 .
  51. ^ "AlfaGo". Google Deep Mind . Google Inc. Archivado desde el original el 30 de enero de 2016 . Consultado el 5 de junio de 2016 .
  52. ^ Vaswani, Ashish; Shazeer, Noam; Parmar, Niki; Uszkoreit, Jakob; Jones, León; Gómez, Aidán N.; Káiser, Lukasz; Polosukhin, Illia (2017). "Todo lo que necesita es atención". arXiv : 1706.03762 . {{cite journal}}: Citar diario requiere |journal=( ayuda )
  53. ^ Muestra, Ian (2 de diciembre de 2018). "DeepMind de Google predice formas 3D de proteínas". El guardián .
  54. ^ Eisenstein, Michael (23 de noviembre de 2021). "La inteligencia artificial potencia las predicciones sobre el plegamiento de proteínas". Naturaleza . 599 (7886): 706–708. doi :10.1038/d41586-021-03499-y. S2CID  244528561.

Trabajos citados