stringtranslate.com

Cronología del aprendizaje automático

Esta página es una cronología del aprendizaje automático . Se incluyen los principales descubrimientos, logros, hitos y otros eventos importantes en el ámbito del aprendizaje automático .

Descripción general

Cronología

Véase también

Referencias

Citas

  1. ^ Solomonoff, RJ (junio de 1964). "Una teoría formal de la inferencia inductiva. Parte II". Información y control . 7 (2): 224–254. doi :10.1016/S0019-9958(64)90131-7.
  2. ^abcdef Marr 2016.
  3. ^ Siegelmann, HT; Sontag, ED (febrero de 1995). "Sobre el poder computacional de las redes neuronales". Revista de Ciencias de la Computación y de Sistemas . 50 (1): 132–150. doi : 10.1006/jcss.1995.1013 .
  4. ^ Siegelmann, Hava (1995). "Computación más allá del límite de Turing". Revista de Ciencias de la Computación y de Sistemas . 238 (28): 632–637. Bibcode :1995Sci...268..545S. doi :10.1126/science.268.5210.545. PMID  17756722. S2CID  17495161.
  5. ^ Ben-Hur, Asa; Horn, David; Siegelmann, Hava; Vapnik, Vladimir (2001). "Agrupamiento de vectores de soporte". Revista de investigación en aprendizaje automático . 2 : 51–86.
  6. ^ Hofmann, Thomas; Schölkopf, Bernhard; Smola, Alexander J. (2008). "Métodos de kernel en el aprendizaje automático". Anales de estadística . 36 (3): 1171–1220. arXiv : math/0701907 . doi : 10.1214/009053607000000677 . JSTOR  25464664.
  7. ^ Bennett, James; Lanning, Stan (2007). "El premio Netflix" (PDF) . Actas de la Copa y taller KDD 2007 .
  8. ^ Bayes, Thomas (1 de enero de 1763). "Un ensayo para resolver un problema en la doctrina del azar". Philosophical Transactions . 53 : 370–418. doi : 10.1098/rstl.1763.0053 . JSTOR  105741.
  9. ^ Legendre, Adrien-Marie (1805). Nouvelles méthodes pour la détermination des orbites des comètes (en francés). París: Firmin Didot. pag. viii . Consultado el 13 de junio de 2016 .
  10. ^ O'Connor, JJ; Robertson, E F. "Pierre-Simon Laplace". Facultad de Matemáticas y Estadística, Universidad de St Andrews, Escocia . Consultado el 15 de junio de 2016 .
  11. ^ Langston, Nancy (2013). "Mining the Boreal North". American Scientist . 101 (2): 1. doi :10.1511/2013.101.1. Al ahondar en el texto de la novela en verso de Alexander Pushkin Eugenio Onegin, Markov pasó horas examinando patrones de vocales y consonantes. El 23 de enero de 1913, resumió sus hallazgos en un discurso ante la Academia Imperial de Ciencias en San Petersburgo. Su análisis no alteró la comprensión o apreciación del poema de Pushkin, pero la técnica que desarrolló, ahora conocida como cadena de Markov, extendió la teoría de la probabilidad en una nueva dirección.
  12. ^ McCulloch, Warren S.; Pitts, Walter (diciembre de 1943). "Un cálculo lógico de las ideas inmanentes en la actividad nerviosa". Boletín de biofísica matemática . 5 (4): 115–133. doi :10.1007/BF02478259.
  13. ^ Turing, AM (1 de octubre de 1950). "I.—MÁQUINAS INFORMÁTICAS E INTELIGENCIA". Mind . LIX (236): 433–460. doi :10.1093/mind/LIX.236.433.
  14. ^ Crevier 1993, págs. 34-35 y Russell y Norvig 2003, pág. 17.
  15. ^ McCarthy, J.; Feigenbaum, E. (1 de septiembre de 1990). "In memoriam: Arthur Samuel (1901-1990)". Revista AI . 11 (3): 10–11.
  16. ^ Rosenblatt, F. (1958). "El perceptrón: un modelo probabilístico para el almacenamiento y la organización de la información en el cerebro". Psychological Review . 65 (6): 386–408. CiteSeerX 10.1.1.588.3775 . doi :10.1037/h0042519. PMID  13602029. S2CID  12781225. 
  17. ^ Mason, Harding; Stewart, D; Gill, Brendan (6 de diciembre de 1958). "Rival". The New Yorker . Consultado el 5 de junio de 2016 .
  18. ^ Child, Oliver (13 de marzo de 2016). "Amenaza: la máquina de lectura de ceros y cruces educable". Revista Chalkdust . Consultado el 16 de enero de 2018 .
  19. ^ Cohen, Harvey. "El perceptrón" . Consultado el 5 de junio de 2016 .
  20. ^ Linnainmaa, Seppo (1970). Algoritmin kumulatiivinen pyoristysvirhe yksittaisten pyoristysvirheiden taylor-kehitelmana [ La representación del error de redondeo acumulativo de un algoritmo como una expansión de Taylor de los errores de redondeo locales ] (PDF) (Tesis) (en finlandés). págs. 6–7.
  21. ^ Linnainmaa, Seppo (1976). "Expansión de Taylor del error de redondeo acumulado". BIT Numerical Mathematics . 16 (2): 146–160. doi :10.1007/BF01931367. S2CID  122357351.
  22. ^ Griewank, Andreas (2012). "¿Quién inventó el modo inverso de diferenciación?". Documenta Matematica, volumen extra ISMP : 389–400.
  23. ^ Griewank, Andreas; Walther, A. (2008). Principios y técnicas de diferenciación algorítmica (segunda edición). SIAM. ISBN 978-0898716597.
  24. ^ Schmidhuber, Jürgen (2015). "Aprendizaje profundo en redes neuronales: una descripción general". Redes neuronales . 61 : 85–117. arXiv : 1404.7828 . Código Bibliográfico :2014arXiv1404.7828S. doi :10.1016/j.neunet.2014.09.003. PMID  25462637. S2CID  11715509.
  25. ^ Schmidhuber, Jürgen (2015). "Aprendizaje profundo (sección sobre retropropagación)". Scholarpedia . 10 (11): 32832. Bibcode :2015SchpJ..1032832S. doi : 10.4249/scholarpedia.32832 .
  26. ^ Fukushima, Kunihiko (octubre de 1979). "位置ずれに影響されないパターン認識機構の神経回路のモデル --- ネオコグニトロン ---" [Modelo de red neuronal para un mecanismo de reconocimiento de patrones que no se ve afectado por el cambio de posición - Neocognitron -]. Trans. IECE (en japonés). J62-A (10): 658–665.
  27. ^ Fukushima, Kunihiko (abril de 1980). "Neocognitrón: un modelo de red neuronal autoorganizada para un mecanismo de reconocimiento de patrones no afectado por el cambio de posición". Cibernética biológica . 36 (4): 193–202. doi :10.1007/BF00344251. PMID  7370364. S2CID  206775608.
  28. ^ Le Cun, Yann. "Aprendizaje profundo". CiteSeerX 10.1.1.297.6176 .  {{cite journal}}: Requiere citar revista |journal=( ayuda )
  29. ^ Hopfield, JJ (abril de 1982). "Redes neuronales y sistemas físicos con capacidades computacionales colectivas emergentes". Actas de la Academia Nacional de Ciencias . 79 (8): 2554–2558. Bibcode :1982PNAS...79.2554H. doi : 10.1073/pnas.79.8.2554 . PMC 346238 . PMID  6953413. 
  30. ^ Rumelhart, David E.; Hinton, Geoffrey E.; Williams, Ronald J. (octubre de 1986). "Aprendizaje de representaciones mediante retropropagación de errores". Nature . 323 (6088): 533–536. Bibcode :1986Natur.323..533R. doi :10.1038/323533a0. S2CID  205001834.
  31. ^ Watksin, Christopher (1 de mayo de 1989). "Aprendiendo de las recompensas retrasadas" (PDF) . {{cite journal}}: Requiere citar revista |journal=( ayuda )
  32. ^ Markoff, John (29 de agosto de 1990). "TECNOLOGÍA EMPRESARIAL; ¿Cuál es la mejor respuesta? Es la supervivencia del más apto". New York Times . Consultado el 8 de junio de 2016 .
  33. ^ Tesauro, Gerald (marzo de 1995). "Aprendizaje de diferencias temporales y TD-Gammon". Comunicaciones de la ACM . 38 (3): 58–68. doi :10.1145/203330.203343. S2CID  8763243.
  34. ^ Tin Kam Ho (1995). "Bosques de decisión aleatorios". Actas de la 3.ª Conferencia internacional sobre análisis y reconocimiento de documentos . Vol. 1. págs. 278-282. doi :10.1109/ICDAR.1995.598994. ISBN 0-8186-7128-9.
  35. ^ Cortes, Corinna; Vapnik, Vladimir (septiembre de 1995). "Redes de vectores de soporte". Aprendizaje automático . 20 (3): 273–297. doi : 10.1007/BF00994018 .
  36. ^ Hochreiter, Sepp; Schmidhuber, Jürgen (1 de noviembre de 1997). "Memoria a largo plazo". Computación neuronal . 9 (8): 1735–1780. doi :10.1162/neco.1997.9.8.1735. PMID  9377276. S2CID  1915014.
  37. ^ LeCun, Yann; Cortes, Corinna; Burges, Christopher. "LA BASE DE DATOS MNIST de dígitos escritos a mano" . Consultado el 16 de junio de 2016 .
  38. ^ Collobert, Ronan; Benigo, Samy; Mariethoz, Johnny (30 de octubre de 2002). "Torch: a modular machine learning software library" (PDF) . Archivado desde el original (PDF) el 6 de agosto de 2016 . Consultado el 5 de junio de 2016 . {{cite journal}}: Requiere citar revista |journal=( ayuda )
  39. ^ "Las reglas del Premio Netflix". Premio Netflix . Netflix. Archivado desde el original el 3 de marzo de 2012. Consultado el 16 de junio de 2016 .
  40. ^ Gershgorn, Dave (26 de julio de 2017). «ImageNet: los datos que generaron el auge actual de la IA — Quartz». qz.com . Consultado el 30 de marzo de 2018 .
  41. ^ Hardy, Quentin (18 de julio de 2016). "Razones para creer que el auge de la IA es real". The New York Times .
  42. ^ "Acerca de". Kaggle . Kaggle Inc. Archivado desde el original el 18 de marzo de 2016 . Consultado el 16 de junio de 2016 .
  43. ^ Markoff, John (16 de febrero de 2011). "La computadora gana en 'Jeopardy!': trivial, no lo es". The New York Times . p. A1.
  44. ^ Le, Quoc V. (2013). "Construcción de características de alto nivel mediante aprendizaje no supervisado a gran escala". Conferencia internacional IEEE de 2013 sobre acústica, habla y procesamiento de señales . págs. 8595–8598. doi :10.1109/ICASSP.2013.6639343. ISBN 978-1-4799-0356-6.S2CID206741597  .​
  45. ^ Markoff, John (26 de junio de 2012). «¿Cuántos ordenadores se necesitan para identificar un gato? 16.000». New York Times . p. B1 . Consultado el 5 de junio de 2016 .
  46. ^ "Los datos que transformaron la investigación en IA y posiblemente el mundo". Quartz . 2017-07-26 . Consultado el 2023-09-12 .
  47. ^ Taigman, Yaniv; Yang, Ming; Ranzato, Marc'Aurelio; Wolf, Lior (24 de junio de 2014). "DeepFace: cerrando la brecha con el desempeño a nivel humano en la verificación facial". Conferencia sobre visión artificial y reconocimiento de patrones . Consultado el 8 de junio de 2016 .
  48. ^ Canini, Kevin; Chandra, Tushar; Ie, Eugene; McFadden, Jim; Goldman, Ken; Gunter, Mike; Harmsen, Jeremiah; LeFevre, Kristen; Lepikhin, Dmitry; Llinares, Tomas Lloret; Mukherjee, Indraneel; Pereira, Fernando; Redstone, Josh; Shaked, Tal; Singer, Yoram. "Sibyl: Un sistema para el aprendizaje automático supervisado a gran escala" (PDF) . Escuela de Ingeniería Jack Baskin . UC Santa Cruz. Archivado desde el original (PDF) el 15 de agosto de 2017 . Consultado el 8 de junio de 2016 .
  49. ^ Woodie, Alex (17 de julio de 2014). "Dentro de Sibyl, la plataforma de aprendizaje automático masivo en paralelo de Google". Datanami . Tabor Communications . Consultado el 8 de junio de 2016 .
  50. ^ "Google logra un 'gran avance' en inteligencia artificial al vencer al campeón de Go". BBC News . BBC. 27 de enero de 2016 . Consultado el 5 de junio de 2016 .
  51. ^ "AlphaGo". Google DeepMind . Google Inc. Archivado desde el original el 30 de enero de 2016 . Consultado el 5 de junio de 2016 .
  52. ^ Vaswani, Ashish; Shazeer, Noam; Parmar, Niki; Uszkoreit, Jakob; Jones, León; Gómez, Aidán N.; Káiser, Lukasz; Polosukhin, Illia (2017). "Todo lo que necesita es atención". arXiv : 1706.03762 . {{cite journal}}: Requiere citar revista |journal=( ayuda )
  53. ^ Sample, Ian (2 de diciembre de 2018). «DeepMind de Google predice formas 3D de proteínas». The Guardian .
  54. ^ Eisenstein, Michael (23 de noviembre de 2021). "La inteligencia artificial potencia las predicciones del plegamiento de proteínas". Nature . 599 (7886): 706–708. doi :10.1038/d41586-021-03499-y. S2CID  244528561.

Obras citadas