stringtranslate.com

Jürgen Schmidhuber

Jürgen Schmidhuber (nacido el 17 de enero de 1963) [1] es un informático alemán conocido por su trabajo en el campo de la inteligencia artificial , específicamente las redes neuronales artificiales . Es director científico del Instituto Dalle Molle para la Investigación de Inteligencia Artificial en Suiza . [2] También es director de la Iniciativa de Inteligencia Artificial y profesor del programa de Ciencias de la Computación en la división de Ciencias e Ingeniería Informática, Eléctrica y Matemática (CEMSE) de la Universidad de Ciencia y Tecnología Rey Abdullah (KAUST) en Arabia Saudita . [3]

Es mejor conocido por su trabajo fundamental y muy citado [4] sobre la memoria a corto plazo (LSTM), un tipo de arquitectura de red neuronal que se convirtió en la técnica dominante para diversas tareas de procesamiento del lenguaje natural en aplicaciones comerciales y de investigación. en la década de 2010. También introdujo principios de metaaprendizaje , redes generativas adversarias [5] [6] [7] y transformadores lineales , [8] [9] [7], todos los cuales están muy extendidos en la IA moderna.

Carrera

Schmidhuber completó sus estudios de pregrado (1987) y doctorado (1991) en la Universidad Técnica de Munich en Munich , Alemania. [1] Sus asesores de doctorado fueron Wilfried Brauer y Klaus Schulten . [10] Enseñó allí desde 2004 hasta 2009. Desde 2009, [11] hasta 2021, fue profesor de inteligencia artificial en la Università della Svizzera Italiana en Lugano , Suiza. [1]

Se ha desempeñado como director del Instituto Dalle Molle para la Investigación de Inteligencia Artificial (IDSIA), un laboratorio suizo de IA, desde 1995. [1]

En 2014, Schmidhuber formó una empresa, Nnaisense, para trabajar en aplicaciones comerciales de inteligencia artificial en campos como las finanzas, la industria pesada y los vehículos autónomos . Sepp Hochreiter , Jaan Tallinn y Marcus Hutter son asesores de la empresa. [2] Las ventas fueron inferiores a 11 millones de dólares estadounidenses en 2016; Sin embargo, Schmidhuber afirma que actualmente el énfasis está en la investigación y no en los ingresos. Nnaisense recaudó su primera ronda de financiación de capital en enero de 2017. El objetivo general de Schmidhuber es crear una IA multipropósito entrenando una sola IA en secuencia en una variedad de tareas específicas. [12]

Investigación

En la década de 1980, la retropropagación no funcionó bien para el aprendizaje profundo con rutas largas de asignación de créditos en redes neuronales artificiales . Para superar este problema, Schmidhuber (1991) propuso una jerarquía de redes neuronales recurrentes (RNN) preentrenadas de un nivel a la vez mediante aprendizaje autosupervisado . [13] Utiliza codificación predictiva para aprender representaciones internas en múltiples escalas de tiempo autoorganizadas. Esto puede facilitar sustancialmente el aprendizaje profundo posterior. La jerarquía RNN se puede colapsar en un solo RNN, destilando una red fragmentadora de nivel superior en una red automatizadora de nivel inferior . [13] [14] En 1993, un fragmentador resolvió una tarea de aprendizaje profundo cuya profundidad excedía los 1000. [15]

En 1991, Schmidhuber publicó redes neuronales adversarias que compiten entre sí en forma de un juego de suma cero , donde la ganancia de una red es la pérdida de la otra. [5] [16] [6] [7] La ​​primera red es un modelo generativo que modela una distribución de probabilidad sobre patrones de salida. La segunda red aprende mediante descenso de gradiente a predecir las reacciones del entorno a estos patrones. A esto se le llamó "curiosidad artificial". En 2014, este principio se utilizó en una red generativa adversaria donde la reacción ambiental es 1 o 0 dependiendo de si la salida de la primera red está en un conjunto determinado. Esto se puede utilizar para crear deepfakes realistas . [7]

Schmidhuber supervisó la tesis de diploma de 1991 de su alumno Sepp Hochreiter [17] y la llamó "uno de los documentos más importantes en la historia del aprendizaje automático". [14] No solo probó el compresor de historia neuronal, [13] sino que también analizó y superó el problema del gradiente de fuga . Esto llevó al método de aprendizaje profundo llamado memoria a corto plazo (LSTM), un tipo de red neuronal recurrente . El nombre LSTM se introdujo en un informe técnico (1995) que condujo a la publicación LSTM más citada (1997), en coautoría de Hochreiter y Schmidhuber. [18] La arquitectura LSTM estándar que se utiliza en casi todas las aplicaciones actuales fue introducida en 2000 por Felix Gers , Schmidhuber y Fred Cummins. [19] El "LSTM vainilla" actual que utiliza retropropagación a través del tiempo se publicó con su alumno Alex Graves en 2005, [20] [21] y su algoritmo de entrenamiento de clasificación temporal conexionista (CTC) [22] en 2006. CTC permitió el finalizar el reconocimiento de voz con LSTM. En la década de 2010, LSTM se convirtió en la técnica dominante para una variedad de tareas de procesamiento del lenguaje natural, incluido el reconocimiento de voz y la traducción automática , y se implementó ampliamente en tecnologías comerciales como Google Translate y Siri . [23] LSTM se ha convertido en la red neuronal más citada del siglo XX. [14] LSTM fue llamado "posiblemente el logro de IA más comercial". [23]

En 2015, Rupesh Kumar Srivastava, Klaus Greff y Schmidhuber utilizaron los principios de LSTM para crear la red Highway , una red neuronal feedforward con cientos de capas, mucho más profunda que las redes anteriores. [7] [24] [25] 7 meses después, el concurso ImageNet 2015 se ganó con una variante de red de autopistas con puertas abiertas o sin puertas llamada Red neuronal residual . [26] Esta se ha convertido en la red neuronal más citada del siglo XXI. [14]

Desde 2018, los transformadores han superado a LSTM como la arquitectura de red neuronal dominante en el procesamiento del lenguaje natural [27] a través de grandes modelos de lenguaje como ChatGPT . Ya en 1992, Schmidhuber publicó una alternativa a las redes neuronales recurrentes [8] que ahora se llama Transformador con autoatención linealizada [7] [9] [28] [14] (salvo un operador de normalización). Aprende focos de atención internos : [29] una red neuronal de avance lento aprende mediante descenso de gradiente a controlar los pesos rápidos de otra red neuronal a través de productos externos de patrones de activación autogenerados DESDE y HACIA (que ahora se denominan clave y valor para uno mismo) . -atención ). [9] Este rápido mapeo de atención de peso se aplica a un patrón de consulta.

En 2011, el equipo de Schmidhuber en IDSIA con su postdoctorado Dan Ciresan también logró aceleraciones espectaculares de las redes neuronales convolucionales (CNN) en rápidas computadoras paralelas llamadas GPU . Una CNN anterior sobre GPU de Chellapilla et al. (2006) fue 4 veces más rápido que una implementación equivalente en CPU. [30] La profunda CNN de Dan Ciresan et al. (2011) en IDSIA ya era 60 veces más rápido [31] y logró la primera actuación sobrehumana en un concurso de visión por computadora en agosto de 2011. [32] Entre el 15 de mayo de 2011 y el 10 de septiembre de 2012, sus rápidas y profundas CNN ganaron no menos de cuatro concursos de imagen. [33] [34] También mejoraron significativamente el mejor rendimiento en la literatura para múltiples bases de datos de imágenes. [35] El enfoque se ha vuelto central en el campo de la visión por computadora . [34] Se basa en diseños de CNN presentados mucho antes por Yann LeCun et al. (1989) [36] quienes aplicaron el algoritmo de retropropagación a una variante de la arquitectura CNN original de Kunihiko Fukushima llamada neocognitron , [37] modificado posteriormente por el método de J. Weng llamado max-pooling . [38] [34]

Disputas de crédito

Schmidhuber ha argumentado polémicamente que a él y a otros investigadores se les ha negado el reconocimiento adecuado por su contribución al campo del aprendizaje profundo , a favor de Geoffrey Hinton , Yoshua Bengio y Yann LeCun , quienes compartieron el Premio Turing 2018 por su trabajo en aprendizaje profundo. [2] [23] [39] Escribió un artículo "mordaz" en 2015 argumentando que Hinton, Bengio y Lecun "se citan mucho entre sí" pero "no dan crédito a los pioneros en el campo". [39] En una declaración al New York Times , Yann LeCun escribió que "Jürgen está obsesionado maníacamente con el reconocimiento y sigue reclamando crédito que no merece por muchas, muchas cosas... Esto le hace levantarse sistemáticamente al final. de cada charla y reclamar el crédito por lo que se acaba de presentar, generalmente no de manera justificada". [2] Schmidhuber respondió que LeCun hizo esto "sin ninguna justificación, sin dar un solo ejemplo", [40] y publicó detalles de numerosas disputas de prioridad con Hinton, Bengio y LeCun. [41] [42]

El término "schmidhubered" se ha utilizado en broma en la comunidad de IA para describir el hábito de Schmidhuber de desafiar públicamente la originalidad del trabajo de otros investigadores, una práctica vista por algunos miembros de la comunidad de IA como un "rito de iniciación" para los investigadores jóvenes. Algunos sugieren que los importantes logros de Schmidhuber han sido subestimados debido a su personalidad conflictiva. [43] [23]

Reconocimiento

Schmidhuber recibió el Premio Helmholtz de la Sociedad Internacional de Redes Neurales en 2013, [44] y el Premio Pionero en Redes Neurales de la Sociedad de Inteligencia Computacional IEEE en 2016 [45] por "contribuciones pioneras al aprendizaje profundo y las redes neuronales". [1] Es miembro de la Academia Europea de Ciencias y Artes . [46] [11]

Se le ha referido como el "padre de la IA moderna" o similar, [7] [2] [47] [48] [49] [50] [51] [52] [53] [54] [ 55] [ 23] y también el "padre del aprendizaje profundo". [56] [49] El propio Schmidhuber, sin embargo, ha llamado a Alexey Grigorevich Ivakhnenko el "padre del aprendizaje profundo" [57] y da crédito a muchos pioneros de la IA incluso anteriores. [14]

Puntos de vista

Schmidhuber afirma que "en el 95% de los casos, la investigación en IA se centra realmente en nuestro antiguo lema: hacer que la vida humana sea más larga, más saludable y más fácil". [53] Admite que "las mismas herramientas que ahora se utilizan para mejorar vidas pueden ser utilizadas por los malos actores", pero enfatiza que "también pueden usarse contra los malos actores". [52]

No cree que la IA represente una "nueva calidad de amenaza existencial" y está más preocupado por las viejas ojivas nucleares que pueden "acabar con la civilización humana en dos horas, sin ninguna IA". [7] "Una gran cabeza nuclear no necesita un sofisticado reconocimiento facial para matar a un individuo. No, simplemente arrasa con una ciudad entera con 10 millones de habitantes." [7]

Desde los años 70, Schmidhuber quería crear "máquinas inteligentes que pudieran aprender y mejorar por sí mismas y llegar a ser más inteligentes que él durante su vida". [7] Diferencia entre dos tipos de IA: herramientas de IA dirigidas por humanos, en particular para mejorar la atención sanitaria, y IA más interesantes que "están estableciendo sus propios objetivos", inventando sus propios experimentos y aprendiendo de ellos, como científicos curiosos. Ha trabajado en ambos tipos durante décadas [7] y ha predicho que las versiones ampliadas de los científicos de IA eventualmente "irán donde están la mayoría de los recursos físicos, para construir más IA y más grandes". Dentro de "unas pocas decenas de miles de millones de años, curiosas IA automejoradas colonizarán el cosmos visible de una manera que es inviable para los humanos. Aquellos que no lo hagan no tendrán ningún impacto". [7] Dijo: "no piensen en los humanos como la corona de la creación. En cambio, vean la civilización humana como parte de un plan mucho más amplio, un paso importante (pero no el último) en el camino del universo desde muy lejos. condiciones iniciales simples hacia una complejidad cada vez más insondable. Ahora parece estar listo para dar el siguiente paso, un paso comparable a la invención de la vida misma hace más de 3.500 millones de años". [7]

Apoya firmemente el movimiento de código abierto y cree que va a "desafiar cualquier dominio de las grandes tecnologías que pueda haber en este momento", también porque la IA sigue siendo 100 veces más barata por década. [7]

Referencias

  1. ^ abcdefg Schmidhuber, Jürgen. "Currículum vitae".
  2. ^ abcde John Markoff (27 de noviembre de 2016). Cuando la IA madure, podrá llamar "papá" a Jürgen Schmidhuber. Los New York Times . Consultado en abril de 2017.
  3. ^ Jürgen Schmidhuber. cemse.kaust.edu.sa . Archivado desde el original el 13 de marzo de 2023. Consultado el 9 de mayo de 2023.
  4. ^ "Jürgen Schmidhuber". académico.google.com . Consultado el 20 de octubre de 2021 .
  5. ^ ab Schmidhuber, Jürgen (1991). "Una posibilidad para implementar la curiosidad y el aburrimiento en los controladores neuronales de construcción de modelos". Proc. SAB'1991 . Prensa del MIT/Libros Bradford. págs. 222-227.
  6. ^ ab Schmidhuber, Jürgen (2020). "Las redes generativas adversas son casos especiales de curiosidad artificial (1990) y también están estrechamente relacionadas con la minimización de la previsibilidad (1991)". Redes neuronales . 127 : 58–66. arXiv : 1906.04493 . doi :10.1016/j.neunet.2020.04.008. PMID  32334341. S2CID  216056336.
  7. ^ abcdefghijklmn Jones, Hessie (23 de mayo de 2023). "Juergen Schmidhuber, el renombrado 'padre de la IA moderna', dice que el trabajo de su vida no conducirá a la distopía". Forbes . Consultado el 26 de mayo de 2023 .
  8. ^ ab Schmidhuber, Jürgen (1 de noviembre de 1992). "Aprender a controlar los recuerdos de peso rápido: una alternativa a las redes recurrentes". Computación neuronal . 4 (1): 131-139. doi :10.1162/neco.1992.4.1.131. S2CID  16683347.
  9. ^ abc Schlag, Imanol; Irie, Kazuki; Schmidhuber, Jürgen (2021). "Los transformadores lineales son programadores de peso secretamente rápidos". ICML 2021 . Saltador. págs. 9355–9366.
  10. ^ "Jürgen H. Schmidhuber". El Proyecto de Genealogía de las Matemáticas . Consultado el 5 de julio de 2022 .
  11. ^ ab Dave O'Leary (3 de octubre de 2016). El presente y el futuro de la IA y el aprendizaje profundo Con la participación del profesor Jürgen Schmidhuber. Mundo de TI Canadá . Consultado en abril de 2017.
  12. ^ "El pionero de la IA quiere construir la máquina renacentista del futuro". Bloomberg.com . 16 de enero de 2017 . Consultado el 23 de febrero de 2018 .
  13. ^ abc Schmidhuber, Jürgen (1992). "Aprendizaje de secuencias extendidas y complejas utilizando el principio de compresión histórica (basado en TR FKI-148, 1991)" (PDF) . Computación neuronal . 4 (2): 234–242. doi :10.1162/neco.1992.4.2.234. S2CID  18271205.
  14. ^ abcdef Schmidhuber, Jürgen (2022). "Historia comentada de la IA moderna y el aprendizaje profundo". arXiv : 2212.11279 [cs.NE].
  15. ^ Schmidhuber, Jürgen (1993). Tesis de Habilitación (PDF) .
  16. ^ Schmidhuber, Jürgen (2010). "Teoría formal de la creatividad, la diversión y la motivación intrínseca (1990-2010)". Transacciones IEEE sobre desarrollo mental autónomo . 2 (3): 230–247. doi :10.1109/TAMD.2010.2056368. S2CID  234198.
  17. ^ S. Hochreiter., "Untersuchungen zu dynamischen neuronalen Netzen Archivado el 6 de marzo de 2015 en Wayback Machine ", Tesis de diploma. Instituto f. Informática, Universidad Técnica. Munich. Asesor: J. Schmidhuber , 1991.
  18. ^ Sepp Hochreiter; Jürgen Schmidhuber (1997). "Memoria larga a corto plazo". Computación neuronal . 9 (8): 1735–1780. doi :10.1162/neco.1997.9.8.1735. PMID  9377276. S2CID  1915014.
  19. ^ Félix A. Gers; Jürgen Schmidhuber; Fred Cummins (2000). "Aprender a olvidar: predicción continua con LSTM". Computación neuronal . 12 (10): 2451–2471. CiteSeerX 10.1.1.55.5709 . doi :10.1162/089976600300015015. PMID  11032042. S2CID  11598600. 
  20. ^ Tumbas, A.; Schmidhuber, J. (2005). "Clasificación de fonemas marco con LSTM bidireccional y otras arquitecturas de redes neuronales". Redes neuronales . 18 (5–6): 602–610. CiteSeerX 10.1.1.331.5800 . doi :10.1016/j.neunet.2005.06.042. PMID  16112549. S2CID  1856462. 
  21. ^ Klaus Greff; Rupesh Kumar Srivastava; Jan Koutnik; Bas R. Steunebrink; Jürgen Schmidhuber (2015). "LSTM: una odisea de búsqueda en el espacio". Transacciones IEEE sobre redes neuronales y sistemas de aprendizaje . 28 (10): 2222–2232. arXiv : 1503.04069 . Código Bib : 2015arXiv150304069G. doi :10.1109/TNNLS.2016.2582924. PMID  27411231. S2CID  3356463.
  22. ^ Tumbas, Alex; Fernández, Santiago; Gómez, Faustino; Schmidhuber, Jürgen (2006). "Clasificación temporal conexionista: etiquetado de datos de secuencia no segmentados con redes neuronales recurrentes". En Actas de la Conferencia Internacional sobre Aprendizaje Automático, ICML 2006 : 369–376. CiteSeerX 10.1.1.75.6306 . 
  23. ^ abcde Vance, Ashlee (15 de mayo de 2018). "Este hombre es el padrino que la comunidad de IA quiere olvidar". Semana empresarial de Bloomberg . Consultado el 16 de enero de 2019 .
  24. ^ Srivastava, Rupesh Kumar; Greff, Klaus; Schmidhuber, Jürgen (2 de mayo de 2015). "Redes de Carreteras". arXiv : 1505.00387 [cs.LG].
  25. ^ Srivastava, Rupesh K; Greff, Klaus; Schmidhuber, Jürgen (2015). "Entrenamiento de redes muy profundas". Avances en los sistemas de procesamiento de información neuronal . Curran Associates, Inc. 28 : 2377–2385.
  26. ^ Él, Kaiming; Zhang, Xiangyu; Ren, Shaoqing; Sol, Jian (2016). Aprendizaje residual profundo para el reconocimiento de imágenes. Conferencia IEEE 2016 sobre visión por computadora y reconocimiento de patrones (CVPR) . Las Vegas, NV, EE.UU.: IEEE. págs. 770–778. arXiv : 1512.03385 . doi :10.1109/CVPR.2016.90. ISBN 978-1-4673-8851-1.
  27. ^ Manning, Christopher D. (2022). "Comprensión y razonamiento del lenguaje humano". Dédalo . 151 (2): 127-138. doi : 10.1162/daed_a_01905 . S2CID  248377870.
  28. ^ Choromanski, Krzysztof; Likhosherstov, Valerii; Dohan, David; Canción, Xingyou; Gane, Andreea; Sarlos, Tamas; Hawkins, Peter; Davis, Jared; Mohiuddin, Afroz; Káiser, Lukasz; Belanger, David; Colwell, Lucy; Weller, Adrián (2020). "Repensar la atención con los artistas intérpretes o ejecutantes". arXiv : 2009.14794 [cs.CL].
  29. ^ Schmidhuber, Jürgen (1993). "Reducir la relación entre la complejidad del aprendizaje y el número de variables que varían en el tiempo en redes totalmente recurrentes". ICANN 1993 . Saltador. págs. 460–463.
  30. ^ Kumar Chellapilla; Sid Puri; Patrice Simard (2006). "Redes neuronales convolucionales de alto rendimiento para el procesamiento de documentos". En Lorette, Guy (ed.). Décimo Taller Internacional sobre Fronteras en el Reconocimiento de Escritura . Suvisoft.
  31. ^ Ciresano, Dan; Ueli Meier; Jonathan Masci; Luca M. Gambardella; Jürgen Schmidhuber (2011). "Redes neuronales convolucionales flexibles y de alto rendimiento para clasificación de imágenes" (PDF) . Actas de la vigésima segunda conferencia internacional conjunta sobre inteligencia artificial, volumen dos . 2 : 1237–1242 . Consultado el 17 de noviembre de 2013 .
  32. ^ "Tabla de resultados de la competencia IJCNN 2011". CONCURSO OFICIAL IJCNN2011 . 2010 . Consultado el 14 de enero de 2019 .
  33. ^ Schmidhuber, Jürgen (17 de marzo de 2017). "Historia de los concursos de visión por computadora ganados por CNN profundas en GPU" . Consultado el 14 de enero de 2019 .
  34. ^ abc Schmidhuber, Jürgen (2015). "Aprendizaje profundo". Scholarpedia . 10 (11): 1527–54. CiteSeerX 10.1.1.76.1541 . doi :10.1162/neco.2006.18.7.1527. PMID  16764513. S2CID  2309950. 
  35. ^ Ciresano, Dan; Meier, Ueli; Schmidhuber, Jürgen (junio de 2012). "Redes neuronales profundas de varias columnas para clasificación de imágenes". Conferencia IEEE 2012 sobre visión por computadora y reconocimiento de patrones . Nueva York, NY: Instituto de Ingenieros Eléctricos y Electrónicos (IEEE). págs. 3642–3649. arXiv : 1202.2745 . CiteSeerX 10.1.1.300.3283 . doi :10.1109/CVPR.2012.6248110. ISBN  978-1-4673-1226-4. OCLC  812295155. S2CID  2161592.
  36. ^ Y. LeCun, B. Boser, JS Denker, D. Henderson, RE Howard, W. Hubbard, LD Jackel, Retropropagación aplicada al reconocimiento de códigos postales escritos a mano; Laboratorios Bell de AT&T
  37. ^ Fukushima, Neocognitron (1980). "Un modelo de red neuronal autoorganizada para un mecanismo de reconocimiento de patrones que no se ve afectado por el cambio de posición". Cibernética biológica . 36 (4): 193–202. doi :10.1007/bf00344251. PMID  7370364. S2CID  206775608.
  38. ^ Weng, J; Ahuja, N; Huang, TS (1993). "Aprendizaje de reconocimiento y segmentación de objetos 3D a partir de imágenes 2D". Proc. IV Congreso Internacional. Visión por computadora : 121–128.
  39. ^ ab Oltermann, Philip (18 de abril de 2017). "Jürgen Schmidhuber sobre el futuro de los robots: 'Nos prestarán tanta atención como nosotros a las hormigas'". El guardián . Consultado el 23 de febrero de 2018 .
  40. ^ Schmidhuber, Juergen (7 de julio de 2022). "El artículo de LeCun de 2022 sobre la inteligencia de las máquinas autónomas es un refrito, pero no cita el trabajo esencial de 1990-2015". IDSIA, Suiza. Archivado desde el original el 9 de febrero de 2023 . Consultado el 3 de mayo de 2023 .
  41. ^ Schmidhuber, Juergen (14 de diciembre de 2023). "Cómo tres ganadores de Turing volvieron a publicar métodos e ideas clave cuyos creadores no dieron crédito. Informe técnico IDSIA-23-23". IDSIA, Suiza. Archivado desde el original el 16 de diciembre de 2023 . Consultado el 19 de diciembre de 2023 .
  42. ^ Schmidhuber, Juergen (30 de diciembre de 2022). "La integridad científica y la historia del aprendizaje profundo: la Conferencia Turing 2021 y el Premio Turing 2018. Informe técnico IDSIA-77-21". IDSIA, Suiza. Archivado desde el original el 7 de abril de 2023 . Consultado el 3 de mayo de 2023 .
  43. ^ Fulterer, Ruth (20 de febrero de 2021). "Jürgen Schmidhuber: Tessiner Vater der künstlichen Intelligenz". Neue Zürcher Zeitung (en alto alemán suizo). ISSN  0376-6829 . Consultado el 19 de diciembre de 2023 .
  44. ^ Destinatarios de los premios INNS. Sociedad Internacional de Redes Neuronales. Consultado en diciembre de 2016.
  45. ^ Destinatarios: Premio Pionero en Redes Neuronales. Piscataway, Nueva Jersey: Sociedad de Inteligencia Computacional IEEE. Consultado en enero de 2019.
  46. ^ Miembros. Academia Europea de Ciencias y Artes. Consultado en diciembre de 2016.
  47. ^ Cielo, Will Douglas (15 de octubre de 2020). "Inteligencia general artificial: ¿estamos cerca? ¿Tiene siquiera sentido intentarlo? Cita: Jürgen Schmidhuber, a veces llamado "el padre de la IA moderna..." MIT Technology Review . Consultado el 20 de agosto de 2021 .
  48. ^ Choul-woong, Yeon (22 de febrero de 2023). "La IA centrada en el usuario crea un nuevo orden para los usuarios". Tiempos de TI de Corea . Consultado el 26 de mayo de 2023 .
  49. ^ ab Dunker, Anders (2020). "Dejando suelto al demonio de la IA. Cita: Pero este hombre no es un chiflado: es el padre de la IA moderna y el aprendizaje profundo, lo más destacado en su campo". Revisión de tiempos modernos . Consultado el 20 de agosto de 2021 .
  50. Enrique Alpines (25 de abril de 2021). Jürgen Schmidhuber, el hombre al que Alexa y Siri llamarían 'papá' si él quisiera hablar con ellas. El País . Consultado en agosto de 2021.
  51. ^ Razavi, Hooman (5 de mayo de 2020). "iHuman: IA y ética del cine (Festival de cine Hot Docs 2020). Cita: Las entrevistas documentales presentan a los principales investigadores y pensadores de la IA, como Jürgen Schmidhuber, padre de la IA moderna..." Universal Cinema . Consultado el 20 de agosto de 2021 .
  52. ^ ab Colton, Emma (7 de mayo de 2023). "'El padre de la IA dice que los temores tecnológicos están fuera de lugar: 'No puedes detenerlos'". Fox News . Consultado el 26 de mayo de 2023 .
  53. ^ ab Taylor, Josh (7 de mayo de 2023). "El auge de la inteligencia artificial es inevitable, pero no debe temerse, dice el 'padre de la IA'". El guardián . Consultado el 26 de mayo de 2023 .
  54. ^ Wong, Andrew (16 de mayo de 2018). "El 'padre de la IA' insta a los humanos a no temer a la tecnología". CNBC . Consultado el 27 de febrero de 2019 .
  55. ^ Ruth Fulterer (21 de febrero de 2021). Der unbequeme Vater der künstlichen Intelligenz lebt in der Schweiz (El padre inconveniente de la IA vive en Suiza). NZZ . Consultado en agosto de 2021.
  56. ^ Wang, Brian (14 de junio de 2017). "Padre de la IA de aprendizaje profundo sobre IA de uso general e IA para conquistar el espacio en la década de 2050". El próximo gran futuro . Consultado el 27 de febrero de 2019 .
  57. ^ Schmidhuber, Jürgen. "Crítica del artículo de" Deep Learning Conspiracy ". (Naturaleza 521 p. 436)" . Consultado el 26 de diciembre de 2019 .