Científico informático alemán
Jürgen Schmidhuber (nacido el 17 de enero de 1963) [1] es un científico informático alemán conocido por su trabajo en el campo de la inteligencia artificial , específicamente las redes neuronales artificiales . Es director científico del Instituto Dalle Molle para la Investigación de la Inteligencia Artificial en Suiza . [2] También es director de la Iniciativa de Inteligencia Artificial y profesor del programa de Ciencias de la Computación en la división de Ciencias e Ingeniería Informática, Eléctrica y Matemática (CEMSE) en la Universidad de Ciencia y Tecnología Rey Abdalá (KAUST) en Arabia Saudita . [3] [4]
Es más conocido por su trabajo fundamental y muy citado [5] sobre la memoria a corto plazo larga (LSTM), un tipo de arquitectura de red neuronal que fue la técnica dominante para varias tareas de procesamiento del lenguaje natural en la investigación y aplicaciones comerciales en la década de 2010. También introdujo principios de redes neuronales dinámicas , metaaprendizaje , redes generativas adversarias [6] [7] [8] y transformadores lineales , [9] [10] [8] todos los cuales están muy extendidos en la IA moderna.
Carrera
Schmidhuber completó sus estudios de pregrado (1987) y doctorado (1991) en la Universidad Técnica de Múnich en Múnich , Alemania. [1] Sus asesores de doctorado fueron Wilfried Brauer y Klaus Schulten . [11] Enseñó allí desde 2004 hasta 2009. Desde 2009, [12] hasta 2021, fue profesor de inteligencia artificial en la Università della Svizzera Italiana en Lugano , Suiza. [1]
Se ha desempeñado como director del Instituto Dalle Molle para la Investigación de Inteligencia Artificial (IDSIA), un laboratorio suizo de IA, desde 1995. [1]
En 2014, Schmidhuber formó una empresa, Nnaisense, para trabajar en aplicaciones comerciales de inteligencia artificial en campos como las finanzas, la industria pesada y los automóviles autónomos . Sepp Hochreiter , Jaan Tallinn y Marcus Hutter son asesores de la empresa. [2] Las ventas fueron inferiores a los 11 millones de dólares en 2016; sin embargo, Schmidhuber afirma que el énfasis actual está en la investigación y no en los ingresos. Nnaisense recaudó su primera ronda de financiación de capital en enero de 2017. El objetivo general de Schmidhuber es crear una IA para todo uso entrenando una única IA en secuencia en una variedad de tareas específicas. [13]
Investigación
En la década de 1980, la retropropagación no funcionó bien para el aprendizaje profundo con largas rutas de asignación de créditos en redes neuronales artificiales . Para superar este problema, Schmidhuber (1991) propuso una jerarquía de redes neuronales recurrentes (RNN) preentrenadas un nivel a la vez mediante aprendizaje autosupervisado . [14] Utiliza codificación predictiva para aprender representaciones internas en múltiples escalas de tiempo autoorganizadas. Esto puede facilitar sustancialmente el aprendizaje profundo posterior. La jerarquía de RNN se puede colapsar en una sola RNN, destilando una red de chunker de nivel superior en una red de automatizador de nivel inferior . [14] [15] En 1993, un chunker resolvió una tarea de aprendizaje profundo cuya profundidad excedía 1000. [16]
En 1991, Schmidhuber publicó redes neuronales adversarias que compiten entre sí en forma de un juego de suma cero , donde la ganancia de una red es la pérdida de la otra red. [6] [17] [7] [8] La primera red es un modelo generativo que modela una distribución de probabilidad sobre patrones de salida. La segunda red aprende por descenso de gradiente para predecir las reacciones del entorno a estos patrones. Esto se llamó "curiosidad artificial". En 2014, este principio se utilizó en una red generativa adversaria donde la reacción del entorno es 1 o 0 dependiendo de si la salida de la primera red está en un conjunto dado. Las GAN fueron el estado del arte en modelado generativo durante el período 2015-2020.
Schmidhuber supervisó la tesis de diploma de 1991 de su estudiante Sepp Hochreiter [18] que consideró "uno de los documentos más importantes en la historia del aprendizaje automático". [15] Estudió el compresor de historia neuronal , [14] y, lo que es más importante, analizó y superó el problema del gradiente de desaparición . Esto condujo a la memoria a corto plazo a largo plazo (LSTM), un tipo de red neuronal recurrente . El nombre LSTM se introdujo en un informe técnico (1995) que condujo a la publicación LSTM más citada (1997), coescrita por Hochreiter y Schmidhuber. [19]
Todavía no era la arquitectura LSTM estándar que se utiliza en casi todas las aplicaciones actuales. La arquitectura LSTM estándar fue introducida en 2000 por Felix Gers , Schmidhuber y Fred Cummins. [20] El "LSTM vainilla" de hoy que utiliza retropropagación a través del tiempo fue publicado con su estudiante Alex Graves en 2005, [21] [22] y su algoritmo de entrenamiento de clasificación temporal conexionista (CTC) [23] en 2006. CTC se aplicó al reconocimiento de voz de extremo a extremo con LSTM. En la década de 2010, el LSTM se convirtió en la técnica dominante para una variedad de tareas de procesamiento del lenguaje natural, incluido el reconocimiento de voz y la traducción automática , y se implementó ampliamente en tecnologías comerciales como Google Neural Machine Translation , [24] también se han utilizado en Google Voice para transcripción [25] y búsqueda, [26] y Siri . [27]
En 2014, el estado del arte era entrenar una “red neuronal muy profunda” con 20 a 30 capas. [28] Apilar demasiadas capas condujo a una reducción pronunciada en la precisión del entrenamiento , [29] conocido como el problema de “degradación”. [30] En mayo de 2015, Rupesh Kumar Srivastava, Klaus Greff y Schmidhuber utilizaron los principios LSTM para crear la red de autopistas , una red neuronal de propagación hacia adelante con cientos de capas, mucho más profunda que las redes anteriores. [8] [31] [32] En diciembre de 2015, se publicó la red neuronal residual (ResNet), que es una variante de la red de autopistas. [30] [33]
En 1992, Schmidhuber publicó Fast Weights Programmer , una alternativa a las redes neuronales recurrentes . [9] Tiene una red neuronal de avance lento que aprende por descenso de gradiente para controlar los pesos rápidos de otra red neuronal a través de productos externos de patrones de activación autogenerados, y la red de pesos rápidos en sí misma opera sobre entradas. [10] Más tarde se demostró que esto era equivalente al Transformador lineal no normalizado . [34] [10] [35] Schmidhuber utilizó la terminología "aprendizaje de focos de atención internos" en 1993. [36]
En 2011, el equipo de Schmidhuber en IDSIA con su investigador postdoctoral Dan Ciresan también logró aceleraciones dramáticas de redes neuronales convolucionales (CNN) en computadoras paralelas rápidas llamadas GPU . Una CNN anterior en GPU por Chellapilla et al. (2006) fue 4 veces más rápida que una implementación equivalente en CPU. [37] La CNN profunda de Dan Ciresan et al. (2011) en IDSIA ya era 60 veces más rápida [38] y logró el primer desempeño sobrehumano en un concurso de visión por computadora en agosto de 2011. [39] Entre el 15 de mayo de 2011 y el 10 de septiembre de 2012, estas CNN ganaron cuatro concursos de imágenes más [40] [41] y mejoraron el estado del arte en múltiples puntos de referencia de imágenes. [42] El enfoque se ha vuelto central en el campo de la visión por computadora . [41] Se basa en diseños de CNN introducidos mucho antes por Kunihiko Fukushima . [43] [41]
Disputas de crédito
Schmidhuber ha argumentado polémicamente que a él y a otros investigadores se les ha negado el reconocimiento adecuado por su contribución al campo del aprendizaje profundo , a favor de Geoffrey Hinton , Yoshua Bengio y Yann LeCun , quienes compartieron el Premio Turing 2018 por su trabajo en aprendizaje profundo. [2] [44] [45] Escribió un artículo "mordaz" en 2015 argumentando que Hinton, Bengio y Lecun "se citan intensamente entre sí" pero "no dan crédito a los pioneros del campo". [45] En una declaración al New York Times , Yann LeCun escribió que "Jürgen está obsesionado maníacamente con el reconocimiento y sigue reclamando crédito que no merece por muchas, muchas cosas... Esto hace que sistemáticamente se levante al final de cada charla y reclame crédito por lo que acaba de presentarse, generalmente no de manera justificada". [2] Schmidhuber respondió que LeCun hizo esto "sin ninguna justificación, sin proporcionar un solo ejemplo", [46] y publicó detalles de numerosas disputas de prioridad con Hinton, Bengio y LeCun. [47] [48]
El término "schmidhubered" se ha utilizado en broma en la comunidad de IA para describir el hábito de Schmidhuber de desafiar públicamente la originalidad del trabajo de otros investigadores, una práctica que algunos en la comunidad de IA consideran un "rito de iniciación" para los investigadores jóvenes. Algunos sugieren que los logros significativos de Schmidhuber han sido subestimados debido a su personalidad confrontativa. [49] [44]
Reconocimiento
Schmidhuber recibió el Premio Helmholtz de la International Neural Network Society en 2013, [50] y el Premio Pionero de Redes Neuronales de la IEEE Computational Intelligence Society en 2016 [51] por "contribuciones pioneras al aprendizaje profundo y las redes neuronales". [1] Es miembro de la Academia Europea de Ciencias y Artes . [52] [12]
Se le ha llamado el "padre de la IA moderna" o algo similar, [62] el "padre de la IA generativa" [63] y también el "padre del aprendizaje profundo". [64] [55] Sin embargo, el propio Schmidhuber ha llamado a Alexey Grigorevich Ivakhnenko el "padre del aprendizaje profundo" [65] [66] y da crédito a muchos pioneros de la IA incluso anteriores. [15]
Vistas
Schmidhuber es un defensor de la IA de código abierto y cree que se volverá competitiva frente a la IA comercial de código cerrado. [8] No cree que la IA represente una nueva amenaza existencial y que sea menos amenazante que las armas nucleares. [58] [59]
Desde los años 70, Schmidhuber quería crear "máquinas inteligentes que pudieran aprender y mejorar por sí mismas y volverse más inteligentes que él en el transcurso de su vida". [8] Schmidhuber distingue entre dos tipos de IA: la IA de herramientas, como las que se utilizan para mejorar la atención médica, y las IA autónomas que establecen sus propios objetivos, realizan sus propias investigaciones y exploran el universo. Ha trabajado en ambos tipos durante décadas, [8] y espera que la siguiente etapa de la evolución sean las IA que se automejoren y que sucedan a la civilización humana como la siguiente etapa en el aumento universal hacia una complejidad cada vez mayor, y espera que la IA colonice el universo visible. [8]
Referencias
- ^ abcdefg Schmidhuber, Jürgen. "Currículum vitae".
- ^ abcde John Markoff (27 de noviembre de 2016). Cuando la IA madure, podría llamar "papá" a Jürgen Schmidhuber. The New York Times . Consultado en abril de 2017.
- ^ Jürgen Schmidhuber. cemse.kaust.edu.sa . Archivado desde el original el 13 de marzo de 2023. Consultado el 9 de mayo de 2023.
- ^ "Liderazgo".
- ^ "Juergen Schmidhuber". scholar.google.com . Consultado el 20 de octubre de 2021 .
- ^ ab Schmidhuber, Jürgen (1991). "Una posibilidad para implementar la curiosidad y el aburrimiento en controladores neuronales de construcción de modelos". Proc. SAB'1991 . MIT Press/Bradford Books. págs. 222–227.
- ^ por Schmidhuber, Jürgen (2020). "Las redes generativas adversarias son casos especiales de curiosidad artificial (1990) y también están estrechamente relacionadas con la minimización de la previsibilidad (1991)". Redes neuronales . 127 : 58–66. arXiv : 1906.04493 . doi :10.1016/j.neunet.2020.04.008. PMID 32334341. S2CID 216056336.
- ^ abcdefghi Jones, Hessie (23 de mayo de 2023). "Juergen Schmidhuber, reconocido 'padre de la inteligencia artificial moderna', afirma que el trabajo de su vida no conducirá a una distopía". Forbes . Consultado el 26 de mayo de 2023 .
- ^ ab Schmidhuber, Jürgen (1 de noviembre de 1992). "Aprender a controlar las memorias de peso rápido: una alternativa a las redes recurrentes". Neural Computation . 4 (1): 131–139. doi :10.1162/neco.1992.4.1.131. S2CID 16683347.
- ^ abc Schlag, Imanol; Irie, Kazuki; Schmidhuber, Jürgen (2021). "Los transformadores lineales son programadores de peso secretamente rápidos". ICML 2021 . Springer. págs. 9355–9366.
- ^ "Jürgen H. Schmidhuber". Proyecto de genealogía matemática . Consultado el 5 de julio de 2022 .
- ^ por Dave O'Leary (3 de octubre de 2016). El presente y el futuro de la IA y el aprendizaje profundo con el profesor Jürgen Schmidhuber. IT World Canada . Consultado en abril de 2017.
- ^ "Un pionero de la inteligencia artificial quiere construir la máquina renacentista del futuro". Bloomberg.com . 16 de enero de 2017 . Consultado el 23 de febrero de 2018 .
- ^ abc Schmidhuber, Jürgen (1992). "Aprendizaje de secuencias complejas y extendidas utilizando el principio de compresión histórica (basado en TR FKI-148, 1991)" (PDF) . Neural Computation . 4 (2): 234–242. doi :10.1162/neco.1992.4.2.234. S2CID 18271205.
- ^ abc Schmidhuber, Juergen (2022). "Historia comentada de la IA moderna y el aprendizaje profundo". arXiv : 2212.11279 [cs.NE].
- ^ Schmidhuber, Jürgen (1993). Tesis de habilitación (PDF) .
- ^ Schmidhuber, Jürgen (2010). "Teoría formal de la creatividad, la diversión y la motivación intrínseca (1990-2010)". IEEE Transactions on Autonomous Mental Development . 2 (3): 230–247. doi :10.1109/TAMD.2010.2056368. S2CID 234198.
- ^ S. Hochreiter., "Untersuchungen zu dynamischen neuronalen Netzen Archivado el 6 de marzo de 2015 en Wayback Machine ", Tesis de diploma. Instituto f. Informática, Universidad Técnica. Munich. Asesor: J. Schmidhuber , 1991.
- ^ Sepp Hochreiter; Jürgen Schmidhuber (1997). "Memoria larga a corto plazo". Computación neuronal . 9 (8): 1735–1780. doi :10.1162/neco.1997.9.8.1735. PMID 9377276. S2CID 1915014.
- ^ Felix A. Gers; Jürgen Schmidhuber; Fred Cummins (2000). "Aprendiendo a olvidar: predicción continua con LSTM". Computación neuronal . 12 (10): 2451–2471. CiteSeerX 10.1.1.55.5709 . doi :10.1162/089976600300015015. PMID 11032042. S2CID 11598600.
- ^ Graves, A.; Schmidhuber, J. (2005). "Clasificación de fonemas por marco con LSTM bidireccional y otras arquitecturas de redes neuronales". Redes neuronales . 18 (5–6): 602–610. CiteSeerX 10.1.1.331.5800 . doi :10.1016/j.neunet.2005.06.042. PMID 16112549. S2CID 1856462.
- ^ Klaus Greff; Rupesh Kumar Srivastava; Jan Koutník; Bas R. Steunebrink; Jürgen Schmidhuber (2015). "LSTM: una odisea del espacio de búsqueda". IEEE Transactions on Neural Networks and Learning Systems . 28 (10): 2222–2232. arXiv : 1503.04069 . Código Bibliográfico :2015arXiv150304069G. doi :10.1109/TNNLS.2016.2582924. PMID 27411231. S2CID 3356463.
- ^ Graves, Alex; Fernández, Santiago; Gomez, Faustino; Schmidhuber, Juergen (2006). "Clasificación temporal conexionista: etiquetado de datos de secuencias no segmentadas con redes neuronales recurrentes". En Actas de la Conferencia Internacional sobre Aprendizaje Automático, ICML 2006 : 369–376. CiteSeerX 10.1.1.75.6306 .
- ^ Wu, Yonghui; Schuster, Mike; Chen, Zhifeng; Le, Quoc V.; Norouzi, Mohammad; Macherey, Wolfgang; Krikun, Maxim; Cao, Yuan; Gao, Qin; Macherey, Klaus; Klingner, Jeff; Shah, Apurva; Johnson, Melvin; Liu, Xiaobing; Kaiser, Łukasz; Gouws, Stephan; Kato, Yoshikiyo; Kudo, Taku; Kazawa, Hideto; Stevens, Keith; Kurian, George; Patil, Nishant; Wang, Wei; Young, Cliff; Smith, Jason; Riesa, Jason; Rudnick, Alex; Vinyals, Oriol; Corrado, Greg; Hughes, Macduff; Dean, Jeff (8 de octubre de 2016). "El sistema de traducción automática neuronal de Google: cerrando la brecha entre la traducción humana y la traducción automática". arXiv : 1609.08144 [cs.CL].Recuperado el 14 de mayo de 2017
- ^ "Las redes neuronales detrás de la transcripción de Google Voice". 11 de agosto de 2015.
- ^ "Búsqueda por voz de Google: más rápida y precisa". 24 de septiembre de 2015.
- ^ Levy, Steven (24 de agosto de 2016). «El iBrain está aquí y ya está dentro de tu teléfono». Wired . Archivado desde el original el 23 de junio de 2017. Consultado el 23 de junio de 2017 .
- ^ Simonyan, Karen; Zisserman, Andrew (10 de abril de 2015), Redes convolucionales muy profundas para el reconocimiento de imágenes a gran escala , arXiv : 1409.1556
- ^ He, Kaiming; Zhang, Xiangyu; Ren, Shaoqing; Sun, Jian (2016). "Profundizando en los rectificadores: superando el rendimiento a nivel humano en la clasificación de ImageNet". arXiv : 1502.01852 [cs.CV].
- ^ ab Él, Kaiming; Zhang, Xiangyu; Ren, Shaoqing; Sun, Jian (10 de diciembre de 2015). Aprendizaje residual profundo para el reconocimiento de imágenes . arXiv : 1512.03385 .
- ^ Srivastava, Rupesh Kumar; Greff, Klaus; Schmidhuber, Jürgen (2 de mayo de 2015). "Redes de Carreteras". arXiv : 1505.00387 [cs.LG].
- ^ Srivastava, Rupesh K; Greff, Klaus; Schmidhuber, Juergen (2015). "Entrenamiento de redes muy profundas". Avances en sistemas de procesamiento de información neuronal . 28 . Curran Associates, Inc.: 2377–2385.
- ^ He, Kaiming; Zhang, Xiangyu; Ren, Shaoqing; Sun, Jian (2016). Aprendizaje residual profundo para reconocimiento de imágenes. Conferencia IEEE 2016 sobre visión artificial y reconocimiento de patrones (CVPR) . Las Vegas, NV, EE. UU.: IEEE. págs. 770–778. arXiv : 1512.03385 . doi :10.1109/CVPR.2016.90. ISBN . 978-1-4673-8851-1.
- ^ Katharopoulos, Angelos; Vyas, Apoorv; Pappas, Nikolaos; Fleuret, François (2020). "Los transformadores son RNN: transformadores autorregresivos rápidos con atención lineal". ICML 2020 . PMLR. págs. 5156–5165.
- ^ Schmidhuber, Jürgen (2022). "Aprendizaje profundo: nuestro año milagroso 1990-1991". idsia.ch . Consultado el 23 de julio de 2024 .
- ^ Schmidhuber, Jürgen (1993). "Reducción de la relación entre la complejidad del aprendizaje y el número de variables que varían con el tiempo en redes completamente recurrentes". ICANN 1993 . Springer. págs. 460–463.
- ^ Kumar Chellapilla; Sid Puri; Patrice Simard (2006). "Redes neuronales convolucionales de alto rendimiento para el procesamiento de documentos". En Lorette, Guy (ed.). Décimo taller internacional sobre fronteras en el reconocimiento de escritura a mano . Suvisoft.
- ^ Ciresan, Dan; Ueli Meier; Jonathan Masci; Luca M. Gambardella; Jurgen Schmidhuber (2011). "Redes neuronales convolucionales flexibles y de alto rendimiento para la clasificación de imágenes" (PDF) . Actas de la vigésimo segunda conferencia conjunta internacional sobre inteligencia artificial, volumen dos . 2 : 1237–1242 . Consultado el 17 de noviembre de 2013 .
- ^ "Tabla de resultados de la competición IJCNN 2011". COMPETICIÓN OFICIAL IJCNN2011 . 2010. Consultado el 14 de enero de 2019 .
- ^ Schmidhuber, Jürgen (17 de marzo de 2017). «Historia de los concursos de visión artificial ganados por las CNN profundas en la GPU» . Consultado el 14 de enero de 2019 .
- ^ abc Schmidhuber, Jürgen (2015). "Aprendizaje profundo". Scholarpedia . 10 (11): 1527–54. CiteSeerX 10.1.1.76.1541 . doi :10.1162/neco.2006.18.7.1527. PMID 16764513. S2CID 2309950.
- ^ Ciresan, Dan; Meier, Ueli; Schmidhuber, Jürgen (junio de 2012). "Redes neuronales profundas de múltiples columnas para la clasificación de imágenes". Conferencia IEEE de 2012 sobre visión artificial y reconocimiento de patrones . Nueva York, NY: Instituto de Ingenieros Eléctricos y Electrónicos (IEEE). págs. 3642–3649. arXiv : 1202.2745 . CiteSeerX 10.1.1.300.3283 . doi :10.1109/CVPR.2012.6248110. ISBN . 978-1-4673-1226-4. OCLC 812295155. S2CID 2161592.
- ^ Fukushima, Neocognitron (1980). "Un modelo de red neuronal autoorganizada para un mecanismo de reconocimiento de patrones no afectado por el cambio de posición". Cibernética biológica . 36 (4): 193–202. doi :10.1007/bf00344251. PMID 7370364. S2CID 206775608.
- ^ abc Vance, Ashlee (15 de mayo de 2018). "Este hombre es el padrino que la comunidad de inteligencia artificial quiere olvidar". Bloomberg Business Week . Consultado el 16 de enero de 2019 .
- ^ ab Oltermann, Philip (18 de abril de 2017). «Jürgen Schmidhuber sobre el futuro de los robots: 'Nos prestarán tanta atención como nosotros a las hormigas'». The Guardian . Consultado el 23 de febrero de 2018 .
- ^ Schmidhuber, Juergen (7 de julio de 2022). «El artículo de LeCun de 2022 sobre inteligencia artificial autónoma repite, pero no cita, trabajos esenciales de 1990-2015». IDSIA, Suiza. Archivado desde el original el 9 de febrero de 2023. Consultado el 3 de mayo de 2023 .
- ^ Schmidhuber, Juergen (14 de diciembre de 2023). «Cómo tres ganadores del premio Turing republicaron métodos e ideas clave a cuyos creadores no reconocieron su mérito. Informe técnico IDSIA-23-23». IDSIA, Suiza. Archivado desde el original el 16 de diciembre de 2023. Consultado el 19 de diciembre de 2023 .
- ^ Schmidhuber, Juergen (30 de diciembre de 2022). «Integridad científica e historia del aprendizaje profundo: la conferencia Turing de 2021 y el premio Turing de 2018. Informe técnico IDSIA-77-21». IDSIA, Suiza. Archivado desde el original el 7 de abril de 2023. Consultado el 3 de mayo de 2023 .
- ^ Fulterer, Ruth (20 de febrero de 2021). "Jürgen Schmidhuber: Tessiner Vater der künstlichen Intelligenz". Neue Zürcher Zeitung (en alto alemán suizo). ISSN 0376-6829 . Consultado el 19 de diciembre de 2023 .
- ^ Destinatarios de los premios INNS. Sociedad Internacional de Redes Neuronales. Consultado en diciembre de 2016.
- ^ Destinatarios: Premio pionero en redes neuronales Archivado el 29 de agosto de 2021 en Wayback Machine . Piscataway, NJ: IEEE Computational Intelligence Society. Consultado en enero de 2019.]
- ^ Miembros. Academia Europea de Ciencias y Artes. Consultado en diciembre de 2016.
- ^ Heaven, Will Douglas (15 de octubre de 2020). "Inteligencia artificial general: ¿estamos cerca de lograrla? ¿Tiene sentido siquiera intentarlo?" Cita: Jürgen Schmidhuber, a veces llamado "el padre de la IA moderna..." MIT Technology Review . Consultado el 20 de agosto de 2021 .
- ^ Choul-woong, Yeon (22 de febrero de 2023). "La IA centrada en el usuario crea un nuevo orden para los usuarios". Korea IT Times . Consultado el 26 de mayo de 2023 .
- ^ de Dunker, Anders (2020). "Dejando ir al demonio de la IA. Cita: Pero este hombre no es ningún chiflado: es el padre de la IA moderna y del aprendizaje profundo, el más destacado en su campo". Modern Times Review . Consultado el 20 de agosto de 2021 .
- ↑ Enrique Alpines (25 de abril de 2021). Jürgen Schmidhuber, el hombre al que Alexa y Siri llamarían 'papá' si él quisiera hablar con ellas. El País . Consultado en agosto de 2021.
- ^ Razavi, Hooman (5 de mayo de 2020). "iHuman- AI & Ethics of Cinema (2020 Hot Docs Film Festival). Cita: El documental entrevista a los principales investigadores y pensadores de la IA, como Jürgen Schmidhuber, el padre de la IA moderna..." Universal Cinema . Consultado el 20 de agosto de 2021 .
- ^ ab Colton, Emma (7 de mayo de 2023). "El 'padre de la IA' dice que los temores tecnológicos son infundados: 'No se puede detener'". Fox News . Consultado el 26 de mayo de 2023 .
- ^ ab Taylor, Josh (7 de mayo de 2023). "El auge de la inteligencia artificial es inevitable, pero no hay que temerle, dice el 'padre de la IA'". The Guardian . Consultado el 26 de mayo de 2023 .
- ^ Wong, Andrew (16 de mayo de 2018). "El 'padre de la IA' insta a los humanos a no temer a la tecnología". CNBC . Consultado el 27 de febrero de 2019 .
- ^ Ruth Fulterer (21 de febrero de 2021). Der unbequeme Vater der künstlichen Intelligenz lebt in der Schweiz (El padre inconveniente de la IA vive en Suiza). NZZ . Consultado en agosto de 2021.
- ^ [8] [2] [53 ] [54 ] [55 ] [ 56 ] [57] [58] [59] [ 60] [61] [44]
- ^ "Jürgen Schmidhuber: el padre de la IA generativa sin premio Turing", jazzyear.com , 18 de agosto de 2024
- ^ Wang, Brian (14 de junio de 2017). "Padre de la IA de aprendizaje profundo sobre IA de propósito general e IA para conquistar el espacio en la década de 2050". Next Big Future . Consultado el 27 de febrero de 2019 .
- ^ Schmidhuber, Jurgen. "Crítica del artículo de "Deep Learning Conspiracy". (Nature 521 p 436)" . Consultado el 26 de diciembre de 2019 .
- ^ Ivakhnenko, AG (marzo de 1970). "Autoorganización heurística en problemas de ingeniería cibernética". Automatica . 6 (2): 207–219. doi :10.1016/0005-1098(70)90092-0.