stringtranslate.com

John K. Kruschke

John Kendall Kruschke es un psicólogo y estadístico estadounidense conocido por su trabajo en modelos conexionistas del aprendizaje humano [1] y en análisis estadístico bayesiano. [2] Es profesor emérito rector [3] [4] en el Departamento de Psicología y Ciencias del Cerebro de la Universidad de Indiana en Bloomington . Ganó el Premio de Investigación Troland de la Academia Nacional de Ciencias en 2002. [5]

Investigación

Análisis estadístico bayesiano

Diseminación

El popular libro de texto de Kruschke, Doing Bayesian Data Analysis , [2] se destacó por su accesibilidad y su estructura única de conceptos. La primera mitad del libro utilizó el tipo de datos más simple (es decir, valores dicotómicos) para presentar todos los conceptos fundamentales del análisis bayesiano, incluido el análisis de potencia bayesiano generalizado y la planificación del tamaño de la muestra. La segunda mitad del libro utilizó el modelo lineal generalizado como marco para explicar las aplicaciones a un espectro de otros tipos de datos.

Kruschke ha escrito muchos artículos tutoriales sobre el análisis de datos bayesianos, incluido un artículo de acceso abierto que explica los conceptos bayesianos y frecuentistas uno al lado del otro. [6] Hay una aplicación en línea adjunta que realiza interactivamente análisis frecuentistas y bayesianos simultáneamente. Kruschke pronunció una charla plenaria grabada en vídeo sobre este tema en la Conferencia de los Estados Unidos sobre Enseñanza de Estadística (USCOTS).

Directrices para la generación de informes de análisis bayesiano

Los análisis de datos bayesianos están ganando popularidad, pero aún son relativamente novedosos en muchos campos, y las pautas para informar sobre análisis bayesianos son útiles para investigadores, revisores y estudiantes. Las pautas de informes de análisis bayesianos (BARG) de acceso abierto de Kruschke [7] proporcionan una lista paso a paso con explicaciones. Por ejemplo, BARG recomienda que si el analista utiliza pruebas de hipótesis bayesianas, entonces el informe debe incluir no solo el factor Bayes sino también la probabilidad mínima del modelo anterior para que la probabilidad del modelo posterior exceda un criterio de decisión.

Evaluación de valores nulos de parámetros

Kruschke propuso un procedimiento de decisión para evaluar valores nulos de parámetros, basado en la incertidumbre de la estimación posterior del parámetro. [8] Este enfoque contrasta con la prueba de hipótesis bayesiana como comparación de modelos. [9]

Datos ordinales

Liddell y Kruschke [10] demostraron que la práctica común de tratar datos ordinales (como calificaciones subjetivas) como si fueran valores métricos puede conducir sistemáticamente a errores de interpretación, incluso inversiones de medias. Los problemas se abordaron tratando datos ordinales con modelos ordinales, en particular un modelo probit ordenado. Las técnicas frecuentistas también pueden utilizar modelos probit ordenados, pero los autores prefirieron las técnicas bayesianas por su solidez.

Modelos de aprendizaje

Como referencia se proporciona una descripción general de los modelos de aprendizaje atencional de Kruschke hasta 2010. [11] Esa referencia resume numerosos hallazgos del aprendizaje humano que sugieren un aprendizaje atencional. Esa referencia también resume una serie de modelos de aprendizaje de Kruschke bajo un marco general.

Dimensionalidad en redes de retropropagación.

Las redes de retropropagación son un tipo de modelo conexionista, en el centro de las redes neuronales de aprendizaje profundo. Los primeros trabajos de Kruschke con redes de retropropagación crearon algoritmos para expandir o contraer la dimensionalidad de las capas ocultas en la red, afectando así la forma en que la red se generalizaba desde casos de entrenamiento hasta casos de prueba. [12] Los algoritmos también mejoraron la velocidad de aprendizaje. [13]

Modelos basados ​​en ejemplos y atención aprendida

El modelo ALCOVE de aprendizaje asociativo [1] utilizó el descenso de gradiente en caso de error, como en las redes de retropropagación, para aprender a qué dimensiones de estímulo prestar atención o ignorar. El modelo ALCOVE se derivó del modelo de contexto generalizado [14] de RM Nosofsky. Estos modelos representan matemáticamente estímulos en un espacio multidimensional basado en dimensiones percibidas por los humanos (como color, tamaño, etc.) y suponen que los ejemplos de entrenamiento se almacenan en la memoria como ejemplos completos (es decir, como combinaciones de valores en las dimensiones). ). El modelo ALCOVE se entrena con pares de entrada-salida y asocia gradualmente ejemplos con salidas entrenadas al mismo tiempo que desvía la atención hacia dimensiones relevantes y se aleja de dimensiones irrelevantes.

Una mejora del modelo ALCOVE, denominada RASHNL, proporcionó un mecanismo matemáticamente coherente para el descenso de gradiente con atención de capacidad limitada. [15] El modelo RASHNL asumió que la atención cambia rápidamente cuando se presenta un estímulo, mientras que el aprendizaje de la atención a lo largo de las pruebas es más gradual.

Estos modelos se ajustaron a datos empíricos de numerosos experimentos de aprendizaje en humanos y proporcionaron buenas explicaciones de las dificultades relativas de aprender diferentes tipos de asociaciones y de la exactitud de los estímulos individuales durante el entrenamiento y la generalización. Esos modelos no pueden explicar todos los aspectos del aprendizaje; por ejemplo, se necesitaba un mecanismo adicional para dar cuenta de la rapidez del aprendizaje humano del cambio inverso (es decir, lo que era "A" ahora es "B" y viceversa). [dieciséis]

El efecto resaltador

Cuando las personas aprenden a categorizar combinaciones de características discretas sucesivamente a lo largo de una sesión de capacitación, tenderán a aprender sobre las características distintivas de los elementos aprendidos posteriormente en lugar de aprender sobre su combinación completa de características. Esta atención a las características distintivas de los elementos aprendidos posteriormente se denomina "efecto de resaltado" y se deriva de un hallazgo anterior conocido como "el efecto de tasa base inversa". [17]

Kruschke llevó a cabo una extensa serie de experimentos de aprendizaje novedosos con participantes humanos y desarrolló dos modelos conexionistas para dar cuenta de los hallazgos. El modelo ADIT [18] aprendió a prestar atención a características distintivas, y el modelo EXIT [19] utilizó cambios rápidos de atención en cada prueba. Como referencia se presentó un experimento de resaltado canónico y una revisión de los hallazgos. [20]

Modelos de representación híbrida para reglas o funciones con excepciones.

Las personas pueden aprender a clasificar estímulos según reglas como "un recipiente para líquidos que es más ancho que alto se llama cuenco", junto con excepciones a la regla como "a menos que sea este caso concreto el que se llama taza". . Una serie de experimentos demostraron que las personas tienden a clasificar elementos novedosos, que están relativamente cerca de un caso excepcional, según la regla más de lo que predecirían los modelos basados ​​en ejemplos. Para dar cuenta de los datos, Erickson y Kruschke desarrollaron modelos híbridos que desviaron la atención entre la representación basada en reglas y la representación basada en ejemplos. [21] [22] [23]

Las personas también pueden aprender relaciones continuas entre variables, llamadas funciones, como "la altura de una página es aproximadamente 1,5 veces su ancho". Cuando se capacita a las personas con ejemplos de funciones que tienen casos excepcionales, los datos se contabilizan mediante modelos híbridos que combinan reglas funcionales aplicables localmente. [24]

Modelos bayesianos de aprendizaje.

Kruschke también exploró modelos bayesianos de resultados del aprendizaje humano que fueron abordados por sus modelos conexionistas. Los efectos del aprendizaje secuencial o sucesivo (como el resaltado, mencionado anteriormente) pueden resultar especialmente desafiantes para los modelos bayesianos, que normalmente suponen independencia de orden. En lugar de suponer que todo el sistema de aprendizaje es globalmente bayesiano, Kruschke desarrolló modelos en los que las capas del sistema son localmente bayesianas. [25] Este "aprendizaje bayesiano local" tuvo en cuenta combinaciones de fenómenos que son difíciles para los modelos de aprendizaje no bayesianos o para los modelos de aprendizaje bayesianos global.

Otra ventaja de las representaciones bayesianas es que representan inherentemente la incertidumbre de los valores de los parámetros, a diferencia de los modelos conexionistas típicos que guardan solo un valor para cada parámetro. La representación de la incertidumbre se puede utilizar para guiar el aprendizaje activo en el que el alumno decide qué casos sería más útil aprender a continuación. [26]

Carrera

Kruschke se unió a la facultad del Departamento de Psicología y Ciencias del Cerebro de la Universidad de Indiana en Bloomington como profesor en 1989. Permaneció en IU hasta que se jubiló como profesor emérito rector en 2022.

Educación

Kruschke obtuvo una licenciatura en matemáticas, con Alta Distinción en Becas Generales, de la Universidad de California en Berkeley en 1983. En 1990, recibió un doctorado. en Psicología también de UC Berkeley.

Kruschke asistió al Programa de Ciencias de Verano de 1978 en la Escuela Thacher en Ojai CA, que se centró en astrofísica y mecánica celeste. Asistió a la Escuela de Verano de Modelos Conexionistas de 1988 [27] en la Universidad Carnegie Mellon.

Premios

Referencias

  1. ^ ab Kruschke, John K. (1992). "ALCOVE: un modelo conexionista de aprendizaje de categorías basado en ejemplos". Revisión psicológica . 99 (1): 22–44. doi :10.1037/0033-295X.99.1.22. PMID  1546117.
  2. ^ ab Kruschke, John K. (2015). Realización de análisis de datos bayesianos: un tutorial con R, JAGS y Stan (2ª ed.). Prensa académica. ISBN 9780124058880.
  3. ^ ab "Premio Profesor Rector". Oficina del Vicerrector de Asuntos Académicos y Docentes . Consultado el 27 de mayo de 2022 .
  4. ^ ab Hinnefeld, Steve (19 de marzo de 2018). "IU Bloomington anuncia el ganador del premio Sonneborn, profesores rectores". Novedades en IU . Consultado el 1 de octubre de 2021 .
  5. ^ ab "Premios de investigación de Trolandia". Academia Nacional de Ciencias . Consultado el 22 de enero de 2022 .
  6. ^ Kruschke, John K.; Liddell, Torrin M. (2018). "La nueva estadística bayesiana: prueba de hipótesis, estimación, metanálisis y análisis de poder desde una perspectiva bayesiana". Boletín y revisión psiconómica . 25 (1): 178–206. doi : 10.3758/s13423-016-1221-4 . PMID  28176294. S2CID  4523799.
  7. ^ Kruschke, John K. (2021). "Pautas de presentación de informes de análisis bayesiano". Naturaleza Comportamiento Humano . 5 (10): 1282-1291. doi :10.1038/s41562-021-01177-7. PMC 8526359 . PMID  34400814. 
  8. ^ Kruschke, John K. (2018). "Rechazar o aceptar valores de parámetros en la estimación bayesiana" (PDF) . Avances en métodos y prácticas en ciencia psicológica . 1 (2): 270–280. doi :10.1177/2515245918771304. S2CID  125788648.
  9. ^ Kruschke, John K.; Liddell, Torrin M. (2018). "Análisis de datos bayesianos para recién llegados". Boletín y revisión psiconómica . 25 (1): 155-177. doi : 10.3758/s13423-017-1272-1 . PMID  28405907. S2CID  4117798.
  10. ^ Liddell, Torrin M; Kruschke, John K. (2018). "Análisis de datos ordinales con modelos métricos: ¿qué podría salir mal?" (PDF) . Revista de Psicología Social Experimental . 79 : 328–348. doi :10.1016/j.jesp.2018.08.009. S2CID  149652068.
  11. ^ Kruschke, John K. (2011). "Modelos de aprendizaje atencional". En Potos, EM; Testamentos, AJ (eds.). Enfoques formales de categorización (PDF) . Prensa de la Universidad de Cambridge. págs. 120-152. ISBN 9781139493970.
  12. ^ Kruschke, John K. (1989). "Cuellos de botella distribuidos para mejorar la generalización en redes de retropropagación" (PDF) . Revista internacional de investigación y aplicaciones de redes neuronales . 1 : 187–193.
  13. ^ Kruschke, John K.; J.R. Movellan, J.R. Movellan (1991). "Beneficios de la ganancia: aprendizaje rápido y capas ocultas mínimas en redes de retropropagación" (PDF) . Transacciones IEEE sobre sistemas, hombre y cibernética . 21 : 273–280. doi :10.1109/21.101159.
  14. ^ Nosofsky, RM (1986). "Atención, semejanza y la identificación-categorización". Revista de Psicología Experimental . 115 (1): 39–57. doi :10.1037/0096-3445.115.1.39. PMID  2937873.
  15. ^ Kruschke, John K.; Johansen, MK (1999). "Un modelo de aprendizaje de categorías probabilísticas". Revista de psicología experimental: aprendizaje, memoria y cognición . 25 (5): 1083-1119. doi :10.1037/0278-7393.25.5.1083. PMID  10505339.
  16. ^ Kruschke, John K. (1996). "Cambios de relevancia dimensional en el aprendizaje de categorías". Ciencia de la conexión . 8 (2): 201–223. doi :10.1080/095400996116893.
  17. ^ Medin, DL; Edelson, SM (1988). "Estructura del problema y uso de información de tasa base basada en la experiencia". Revista de Psicología Experimental: General . 117 (1): 68–85. doi :10.1037/0096-3445.117.1.68. PMID  2966231.
  18. ^ Kruschke, John K. (1996). "Tarifas base en aprendizaje de categorías". Revista de psicología experimental: aprendizaje, memoria y cognición . 22 (1): 3–26. doi :10.1037/0278-7393.22.1.3. PMID  8648289.
  19. ^ Kruschke, John K. (2001). "El efecto inverso de la tasa base no se explica mediante inferencia eliminativa". Revista de psicología experimental: aprendizaje, memoria y cognición . 27 (6): 1385-1400. doi :10.1037/0278-7393.27.6.1385. PMID  11713874.
  20. ^ Kruschke, John K. (2009). "Destacado: un experimento canónico". En Ross, Brian (ed.). La psicología del aprendizaje y la motivación, volumen 51 (PDF) . vol. 51. Prensa académica. págs. 153–185. doi :10.1016/S0079-7421(09)51005-5.
  21. ^ Erickson, MA; Kruschke, John K. (1998). "Reglas y ejemplos en el aprendizaje de categorías". Revista de Psicología Experimental: General . 127 (2): 107–140. doi :10.1037/0096-3445.127.2.107. PMID  9622910.
  22. ^ Erickson, MA; Kruschke, John K. (2002). "Extrapolación basada en reglas en la categorización perceptual". Boletín y revisión psiconómica . 9 (1): 160–168. doi : 10.3758/BF03196273 . PMID  12026949. S2CID  2388327.
  23. ^ Denton, SE; Kruschke, John K.; Erickson, MA (2008). "Extrapolación basada en reglas: un desafío continuo para modelos ejemplares". Boletín y revisión psiconómica . 15 (4): 780–786. doi : 10.3758/PBR.15.4.780 . PMID  18792504. S2CID  559864.
  24. ^ Kalish, ML; Lewandowsky, S. (2004). "Población de expertos lineales: partición del conocimiento y aprendizaje de funciones". Revisión psicológica . 111 (4): 1072–1099. doi :10.1037/0033-295X.111.4.1072. PMID  15482074.
  25. ^ Kruschke, John K. (2006). "Aprendizaje localmente bayesiano con aplicaciones a la revaluación y resaltado retrospectivo". Revisión psicológica . 113 (4): 677–699. doi :10.1037/0033-295X.113.4.677. PMID  17014300.
  26. ^ Kruschke, John K. (2008). "Enfoques bayesianos del aprendizaje asociativo: del aprendizaje pasivo al activo". Aprendizaje y comportamiento . 36 (3): 210–226. doi : 10.3758/LB.36.3.210 . PMID  18683466. S2CID  16668044.
  27. ^ Touretzky, D; Hinton, GE; Sejnowski, T, eds. (1989). Actas de la escuela de verano de modelos conexionistas de 1988 (PDF) . Morgan Kaufman. ISBN 978-9999081214.
  28. ^ "Oficina del Vicerrector de Asuntos Académicos y Docentes: Premio a la Docencia del Patronato".

enlaces externos