Eric Ghysels (nacido en 1956 en Bruselas ) es un economista belga interesado en las finanzas y la econometría de series temporales , y en particular en los campos de la econometría financiera y la tecnología financiera . [1] Es Profesor Distinguido Edward M. Bernstein de Economía en la Universidad de Carolina del Norte [2] y Profesor de Finanzas en la Escuela de Negocios Kenan-Flagler . [3] También es el director de investigación de la facultad de Rethinc.Labs en el Instituto de Empresa Privada Frank Hawkins Kenan. [4]
Ghysels nació en Bruselas , Bélgica, como hijo de Pierre Ghysels (un funcionario) y Anna Janssens (ama de casa). Completó sus estudios universitarios en economía (Supra Cum Laude) en la Vrije Universiteit Brussel en 1979. Obtuvo una beca Fulbright de la Fundación Educativa Belga Americana en 1980 y comenzó estudios de posgrado en la Universidad Northwestern ese año, terminando su doctorado en la Kellogg Graduate. School of Management de la Universidad Northwestern en 1984. En 2019 recibió un doctorado honoris causa (Doctor Honoris Causa) por la Universidad HEC de Lieja . [5]
Después de graduarse de la Kellogg School of Management de la Universidad Northwestern, ocupó un puesto docente en el Departamento de Economía de la Universidad de Montreal . [6] En 1996 se convirtió en profesor de economía en la Universidad Penn State [7] y se unió a la Universidad de Carolina del Norte en Chapel Hill en 2000. Actualmente es profesor distinguido de economía Edward M. Bernstein en la UNC Chapel Hill y profesor de Finanzas y la Escuela de Negocios Kenan-Flagler . Desde 2018 es director de investigación de la facultad, Rethinc.Labs, en el Instituto Kenan para la Empresa Privada en la UNC Chapel Hill. Desde 2020 también está afiliado al Departamento de Ingeniería Eléctrica e Informática de la Universidad Estatal de Carolina del Norte . [8]
Ghysels es miembro de la Asociación Estadounidense de Estadística y cofundó con Robert Engle la Sociedad de Econometría Financiera (SoFiE). [9] [10] Fue editor del Journal of Business and Economic Statistics (con Alastair R. Hall, 2001-2004) y editor del Journal of Financial Econometrics (2012-2015). [11] Actualmente es coeditor del Journal of Applied Econometrics. [12]
En 2008-2009, Ghysels fue académico residente en el Banco de la Reserva Federal de Nueva York , en 2011 fue becario Duisenberg en el Banco Central Europeo , ambos en el apogeo de la Gran Recesión, y desde entonces ha sido un visitante habitual de varios otros bancos centrales del mundo. mundo.
También ha sido profesor invitado en la Universidad Bocconi ( Tommaso Padoa-Schioppa Visiting Professor, 2017), el Centro Stevanovich de la Universidad de Chicago (2015), la Universidad de Cambridge (INET Visiting Professor, 2014), la Stern School of Business de la Universidad de Nueva York ( 2007), entre otros, y tiene un nombramiento de cortesía en Louvain Finance, Université catholique de Louvain . [13]
En 2001, publicó una monografía sobre El análisis econométrico de series temporales estacionales junto con Denise R. Osborn. [14] En 2018, publicó un libro de texto titulado Previsión económica aplicada utilizando métodos de series de tiempo junto con Massimiliano Marcellino. [15]
Sus honores y premios incluyen:
La investigación más reciente de Ghysels se centra en modelos de regresión de muestreo de datos mixtos (MIDAS) y métodos de filtrado con aplicaciones en finanzas y otros campos. También ha trabajado en diversos temas como la estacionalidad en series temporales económicas, aprendizaje automático y aplicaciones de IA en finanzas, aplicaciones de computación cuántica en finanzas, entre muchos otros temas.
El muestreo de datos mixtos o regresiones MIDAS son modelos de regresión econométrica que pueden verse en algunos casos como sustitutos del filtro de Kalman cuando se aplican en el contexto de datos de frecuencia mixta. Actualmente existe una literatura sustancial sobre las regresiones MIDAS y sus aplicaciones, incluyendo Ghysels, Santa-Clara y Valkanov (2006), [25] Ghysels, Sinko y Valkanov, [26] Andreou, Ghysels y Kourtellos (2010) [27] y Andreou , Ghysels y Kourtellos (2013). [28]
Una regresión MIDAS es una herramienta de pronóstico directo que puede relacionar datos futuros de baja frecuencia con indicadores de alta frecuencia actuales y rezagados, y generar diferentes modelos de pronóstico para cada horizonte de pronóstico. Puede manejar de manera flexible datos muestreados en diferentes frecuencias y proporcionar un pronóstico directo de la variable de baja frecuencia. Incorpora cada dato individual de alta frecuencia en la regresión, lo que resuelve los problemas de perder información potencialmente útil e incluir especificaciones erróneas.
En un ejemplo de regresión simple, la variable independiente aparece con una frecuencia mayor que la variable dependiente :
donde y es la variable dependiente, x es el regresor, m denota la frecuencia (por ejemplo, si y es anual es trimestral), es la perturbación y es una distribución de retraso, por ejemplo, la función Beta o Almon Lag .
Los modelos de regresión pueden verse en algunos casos como sustitutos del filtro de Kalman cuando se aplican en el contexto de datos de frecuencia mixta. Bai, Ghysels y Wright (2013) [29] examinan la relación entre las regresiones MIDAS y los modelos de espacio de estados de filtro de Kalman aplicados a datos de frecuencia mixta. En general, estas últimas implican un sistema de ecuaciones, mientras que, por el contrario, las regresiones MIDAS implican una única ecuación (en forma reducida). Como consecuencia, las regresiones MIDAS podrían ser menos eficientes, pero también menos propensas a errores de especificación. En los casos en que la regresión MIDAS es sólo una aproximación, los errores de aproximación tienden a ser pequeños.
MIDAS también se puede utilizar para series temporales de aprendizaje automático y pronóstico inmediato de datos de panel . [30] [31] Las regresiones MIDAS de aprendizaje automático implican polinomios de Legendre . Las regresiones de series temporales de frecuencia mixta de alta dimensión implican ciertas estructuras de datos que, una vez tomadas en cuenta, deberían mejorar el rendimiento de los estimadores no restringidos en muestras pequeñas. Estas estructuras están representadas por grupos que cubren variables dependientes rezagadas y grupos de rezagos para una única covariable (de alta frecuencia). Con ese fin, el enfoque MIDAS de aprendizaje automático explota la regularización LASSO de grupos dispersos (sg-LASSO) que se adapta convenientemente a dichas estructuras. [32] La característica atractiva del estimador sg-LASSO es que nos permite combinar eficazmente las señales aproximadamente escasas y densas.
Varios paquetes de software incluyen regresiones MIDAS y métodos econométricos relacionados. Éstas incluyen:
{{cite web}}
: Mantenimiento CS1: nombres numéricos: lista de autores ( enlace )