stringtranslate.com

Distribución t de Student

En probabilidad y estadística ,  la distribución t de Student (o simplemente la  distribución t ) es una distribución de probabilidad continua que generaliza la distribución normal estándar . Al igual que este último, es simétrico con respecto al cero y tiene forma de campana.

Sin embargo, tiene colas más pesadas y la cantidad de masa de probabilidad en las colas está controlada por el parámetro. La distribución t de Student se convierte en la distribución estándar de Cauchy , que tiene colas muy "gordas" ; mientras que para se convierte en la distribución normal estándar que tiene colas muy "delgadas".

La distribución t de Student  desempeña un papel en varios análisis estadísticos ampliamente utilizados, incluida  la prueba t de Student para evaluar la significación estadística de la diferencia entre dos medias muestrales, la construcción de intervalos de confianza para la diferencia entre dos medias poblacionales y en la regresión lineal. análisis .

En forma de  distribución t de escala de ubicación, generaliza la distribución normal y también surge en el análisis bayesiano de datos de una familia normal como una distribución compuesta cuando se margina sobre el parámetro de varianza.

Historia y etimología

El estadístico William Sealy Gosset, conocido como "Estudiante"

En estadística, la distribución t  fue derivada por primera vez como una distribución posterior en 1876 por Helmert [3] [4] [5] y Lüroth . [6] [7] [8] Como tal, la distribución t de Student es un ejemplo de la Ley de Eponimia de Stigler . La distribución t  también apareció en una forma más general como distribución de Pearson tipo IV en el artículo de Karl Pearson de 1895. [9]

En la literatura en lengua inglesa, la distribución toma su nombre del artículo de 1908 de William Sealy Gosset en Biometrika bajo el seudónimo de "Student". [10] Una versión del origen del seudónimo es que el empleador de Gosset prefería que el personal usara seudónimos al publicar artículos científicos en lugar de su nombre real, por lo que usó el nombre "Estudiante" para ocultar su identidad. Otra versión es que Guinness no quería que sus competidores supieran que estaban utilizando la prueba t  para determinar la calidad de la materia prima. [11] [12]

Gosset trabajó en la cervecería Guinness en Dublín, Irlanda , y estaba interesado en los problemas de muestras pequeñas; por ejemplo, las propiedades químicas de la cebada, donde los tamaños de muestra podrían ser tan solo 3. El artículo de Gosset se refiere a la distribución como "distribución de frecuencia". desviaciones estándar de muestras extraídas de una población normal". Se hizo muy conocida gracias al trabajo de Ronald Fisher , quien llamó a la distribución "distribución de Student" y representó el valor de la prueba con la letra t . [13] [14]

Definición

Función de densidad de probabilidad

 La distribución t de Student tiene la función de densidad de probabilidad (PDF) dada por

donde es el número de grados de libertad y es la función gamma . Esto también se puede escribir como

¿Dónde está la función Beta ? En particular, para grados de libertad con valores enteros tenemos:

Por e incluso,

Para y extraño,

La función de densidad de probabilidad es simétrica y su forma general se asemeja a la forma de campana de una variable distribuida normalmente con media 0 y varianza 1, excepto que es un poco más baja y más ancha. A medida que aumenta el número de grados de libertad, la distribución t  se acerca a la distribución normal con media 0 y varianza 1. Por esta razón, también se conoce como parámetro de normalidad. [15]

Las siguientes imágenes muestran la densidad de la distribución t  para valores crecientes de. La distribución normal se muestra como una línea azul para comparar. Tenga en cuenta que la distribución t  (línea roja) se acerca más a la distribución normal a medida que aumenta.

Densidad de la distribución t  (rojo) para 1, 2, 3, 5, 10 y 30 grados de libertad en comparación con la distribución normal estándar (azul).
Parcelas anteriores mostradas en verde.

Función de distribución acumulativa

La función de distribución acumulativa (CDF) se puede escribir en términos de I , la función beta incompleta regularizada . Para t > 0 ,

dónde

Otros valores se obtendrían por simetría. Una fórmula alternativa, válida para es

donde es una instancia particular de la función hipergeométrica .

Para obtener información sobre su función de distribución acumulativa inversa, consulte función cuantil § Distribución t de Student .

Casos especiales

Ciertos valores de dan una forma simple para la distribución t de Student.

Momentos

Para los momentos brutos de la distribución t  son

No existen momentos de orden o superiores. [dieciséis]

El término para k par puede simplificarse utilizando las propiedades de la función gamma para

Para una  distribución t con grados de libertad, el valor esperado es si y su varianza es si La asimetría es 0 si y el exceso de curtosis es si

 Distribución t a escala de ubicación

Transformación a escala de ubicación

La distribución t de Student  se generaliza a la  distribución t de escala de ubicación de tres parámetros mediante la introducción de un parámetro de ubicación y un parámetro de escala .

y transformación familiar a escala local

obtenemos

La distribución resultante también se denomina  distribución t de Student no estandarizada .

Densidad y dos primeros momentos.

La distribución t a escala de ubicación tiene una densidad definida por: [17]

De manera equivalente, la densidad se puede escribir en términos de :

Otras propiedades de esta versión de la distribución son: [17]

Casos especiales

Cómo surge la distribución t  (caracterización)

Como la distribución de un estadístico de prueba.

La distribución t de Student con grados de libertad se puede definir como la distribución de la variable aleatoria T con [18] [19]

dónde

Una distribución diferente se define como la de la variable aleatoria definida, para una constante  μ dada , por

Esta variable aleatoria tiene una distribución t no central con parámetro de no centralidad μ . Esta distribución es importante en los estudios del poder de la prueba t de Student .

Derivación

Supongamos que X 1 , ..., X n son realizaciones independientes de la variable aleatoria X normalmente distribuida , que tiene un valor esperado μ y una varianza σ 2 . Dejar

ser la media muestral, y

ser una estimación insesgada de la varianza de la muestra. Se puede demostrar que la variable aleatoria

tiene una distribución chi-cuadrado con grados de libertad (según el teorema de Cochran ). [20] Se demuestra fácilmente que la cantidad

se distribuye normalmente con media 0 y varianza 1, ya que la media muestral se distribuye normalmente con media μ y varianza σ 2 / n . Además, es posible demostrar que estas dos variables aleatorias (la distribuida normalmente Z y la distribuida chi-cuadrado V ) son independientes. En consecuencia [ se necesita aclaración ] la cantidad fundamental

que difiere de Z en que la desviación estándar exacta σ se reemplaza por la variable aleatoria S n , tiene una distribución t de Student como se definió anteriormente. Observe que la varianza poblacional desconocida σ 2 no aparece en T , ya que estaba tanto en el numerador como en el denominador, por lo que se canceló. Gosset obtuvo intuitivamente la función de densidad de probabilidad mencionada anteriormente, igual a n  − 1, y Fisher la demostró en 1925. [13]

La distribución del estadístico de prueba T depende de μ o σ , pero no de μ ; la falta de dependencia de μ y σ es lo que hace que la distribución t sea importante tanto en la teoría como en la práctica.

Distribución muestral del estadístico t

La distribución t  surge como la distribución muestral del  estadístico t . A continuación se analiza el estadístico t de una muestra ; para el  estadístico t  de dos muestras correspondiente, consulte la prueba t de Student .

Estimación de varianza insesgada

Sean muestras independientes e idénticamente distribuidas de una distribución normal con media y varianza. La media muestral y la varianza muestral insesgada vienen dadas por:

El estadístico t resultante (una muestra)  viene dado por

y se distribuye según una distribución t de Student  con grados de libertad.

Así, para propósitos de inferencia, el  estadístico t es una " cantidad fundamental " útil en el caso en que la media y la varianza son parámetros poblacionales desconocidos, en el sentido de que el estadístico t  tiene entonces una distribución de probabilidad que no depende ni de ni de

Estimación de la varianza de ML

En lugar de la estimación insesgada también podemos utilizar la estimación de máxima verosimilitud.

dando la estadística

Esto se distribuye según la distribución t de escala de ubicación  :

Distribución compuesta de normal con distribución gamma inversa.

La distribución t a escala de ubicación  resulta de combinar una distribución gaussiana (distribución normal) con media y varianza desconocida , con una distribución gamma inversa colocada sobre la varianza con parámetros y. En otras palabras, se supone que la variable aleatoria X tiene una distribución gaussiana con una varianza desconocida distribuida como gamma inversa, y luego la varianza se margina (se integra).

De manera equivalente, esta distribución resulta de combinar una distribución gaussiana con una distribución de chi-cuadrado inversa escalada con parámetros y La distribución de chi-cuadrado inversa escalada es exactamente la misma distribución que la distribución gamma inversa, pero con una parametrización diferente, es decir

La razón de la utilidad de esta caracterización es que en la estadística bayesiana la distribución gamma inversa es la distribución previa conjugada de la varianza de una distribución gaussiana. Como resultado, la distribución t de escala de ubicación  surge naturalmente en muchos problemas de inferencia bayesianos. [21]

Distribución máxima de entropía

La distribución t de Student  es la distribución de probabilidad de entropía máxima para una variable aleatoria X para la cual es fija. [22] [ se necesita aclaración ] [ se necesita una mejor fuente ]

Otras propiedades

Muestreo de Montecarlo

Existen varios enfoques para construir muestras aleatorias a partir de la distribución t de Student  . La cuestión depende de si las muestras se requieren de forma independiente o si se van a construir mediante la aplicación de una función cuantil a muestras uniformes ; por ejemplo, en las aplicaciones multidimensionales basadas en la dependencia de cópula . [ cita necesaria ] En el caso del muestreo independiente, se implementa fácilmente una extensión del método Box-Muller y su forma polar . [23] Tiene el mérito de que se aplica igualmente bien a todos los grados de libertad positivos reales , ν , mientras que muchos otros métodos candidatos fallan si ν es cercano a cero. [23]

Integral de la función de densidad de probabilidad de Student y el valor p

La función A ( t | ν ) es la integral de la función de densidad de probabilidad de Student, f ( t ) entre   -t y t , para t ≥ 0 . Por lo tanto, da la probabilidad de que ocurra por casualidad un valor de t menor que el calculado a partir de los datos observados. Por lo tanto, la función A ( t | ν ) se puede utilizar al probar si la diferencia entre las medias de dos conjuntos de datos es estadísticamente significativa, calculando el valor correspondiente de t y la probabilidad de que ocurra si los dos conjuntos de datos fueran extraídos de la misma población. Esto se utiliza en una variedad de situaciones, particularmente en  pruebas t . Para el estadístico t , con ν grados de libertad, A ( t | ν ) es la probabilidad de que t sea menor que el valor observado si las dos medias fueran iguales (siempre que la media menor se reste de la mayor, de modo que t ≥ 0 ). Se puede calcular fácilmente a partir de la función de distribución acumulativa F ν ( t ) de la  distribución t :

donde I x ( a , b ) es la función beta incompleta regularizada .

Para probar hipótesis estadísticas, esta función se utiliza para construir el valor p .

Distribuciones relacionadas

Usos

En la inferencia estadística frecuentista

La distribución t de Student  surge en una variedad de problemas de estimación estadística donde el objetivo es estimar un parámetro desconocido, como un valor medio, en un entorno donde los datos se observan con errores aditivos . Si (como en casi todos los trabajos estadísticos prácticos) se desconoce la desviación estándar poblacional de estos errores y debe estimarse a partir de los datos, a menudo se utiliza la distribución t  para tener en cuenta la incertidumbre adicional que resulta de esta estimación. En la mayoría de estos problemas, si se conociera la desviación estándar de los errores, se utilizaría una distribución normal en lugar de la distribución t  .

Los intervalos de confianza y las pruebas de hipótesis son dos procedimientos estadísticos en los que se requieren los cuantiles de la distribución muestral de una estadística particular (por ejemplo, la puntuación estándar ). En cualquier situación en la que esta estadística sea una función lineal de los datos , dividida por la estimación habitual de la desviación estándar, la cantidad resultante se puede reescalar y centrar para seguir la distribución t de Student  . Los análisis estadísticos que involucran medias, medias ponderadas y coeficientes de regresión conducen a estadísticas que tienen esta forma.

Muy a menudo, los problemas de los libros de texto tratarán la desviación estándar de la población como si fuera conocida y, por lo tanto, evitarán la necesidad de utilizar la  distribución t de Student. Estos problemas son generalmente de dos tipos: (1) aquellos en los que el tamaño de la muestra es tan grande que se puede tratar una estimación de la varianza basada en datos como si fuera cierta, y (2) aquellos que ilustran el razonamiento matemático, en los que el problema de estimar la desviación estándar se ignora temporalmente porque ese no es el punto que el autor o el instructor explica en ese momento.

Evaluación de la hipótesis

Se puede demostrar que varias estadísticas tienen distribuciones t  para muestras de tamaño moderado bajo hipótesis nulas que son de interés, de modo que la distribución t  forma la base para las pruebas de significancia. Por ejemplo, la distribución del coeficiente de correlación de rangos de Spearman ρ , en el caso nulo (correlación cero) se aproxima bien mediante la distribución t para tamaños de muestra superiores a aproximadamente 20. [ cita necesaria ]

Intervalos de confianza

Supongamos que el número A se elige de tal manera que

cuando T tiene una distribución t  con n − 1 grados de libertad. Por simetría, esto es lo mismo que decir que A satisface

entonces A es el "percentil 95" de esta distribución de probabilidad, o Entonces

y esto es equivalente a

Por lo tanto, el intervalo cuyos puntos finales son

es un intervalo de confianza del 90% para μ. Por lo tanto, si encontramos la media de un conjunto de observaciones que razonablemente podemos esperar que tengan una distribución normal, podemos usar la distribución t  para examinar si los límites de confianza de esa media incluyen algún valor predicho teóricamente, como el valor predicho en una hipótesis nula .

Es este resultado el que se utiliza en las  pruebas t de Student : dado que la diferencia entre las medias de las muestras de dos distribuciones normales se distribuye normalmente, la distribución t  se puede utilizar para examinar si se puede suponer razonablemente que esa diferencia es cero.

Si los datos se distribuyen normalmente, el límite de confianza superior (UCL ) unilateral (1 − α ) de la media se puede calcular utilizando la siguiente ecuación:

El UCL resultante será el valor promedio más grande que ocurrirá para un intervalo de confianza y un tamaño de población determinados. En otras palabras, al ser la media del conjunto de observaciones, la probabilidad de que la media de la distribución sea inferior a UCL 1 − α es igual al nivel de confianza 1 − α .

Intervalos de predicción

La distribución t  se puede utilizar para construir un intervalo de predicción para una muestra no observada a partir de una distribución normal con media y varianza desconocidas.

En estadística bayesiana

La distribución t de Student  , especialmente en su versión de tres parámetros (escala de ubicación), surge con frecuencia en la estadística bayesiana debido a su conexión con la distribución normal. Siempre que se desconoce la varianza de una variable aleatoria distribuida normalmente y se le coloca un conjugado previo que sigue una distribución gamma inversa , la distribución marginal resultante de la variable seguirá una  distribución t de Student. Las construcciones equivalentes con los mismos resultados implican una distribución de chi-cuadrado inversa escalada conjugada sobre la varianza o una distribución gamma conjugada sobre la precisión . Si un adelanto impropio proporcional a1/σ²​ se coloca sobre la varianza,  también surge la distribución t . Este es el caso independientemente de si la media de la variable normalmente distribuida es conocida, se desconoce distribuida según una anterior conjugada normalmente distribuida o se desconoce distribuida según una constante previa impropia.

Situaciones relacionadas que también producen una distribución t  son:

Modelado paramétrico robusto

La distribución t  se utiliza a menudo como alternativa a la distribución normal como modelo para datos, que a menudo tiene colas más pesadas de lo que permite la distribución normal; véase, por ejemplo, Lange et al. [26] El enfoque clásico era identificar valores atípicos (por ejemplo, utilizando la prueba de Grubbs ) y excluirlos o reducir su ponderación de alguna manera. Sin embargo, no siempre es fácil identificar valores atípicos (especialmente en dimensiones altas ), y la distribución t  es una elección natural de modelo para dichos datos y proporciona un enfoque paramétrico para estadísticas sólidas .

Se puede encontrar una explicación bayesiana en Gelman et al. [27] El parámetro de grados de libertad controla la curtosis de la distribución y está correlacionado con el parámetro de escala. La probabilidad puede tener múltiples máximos locales y, como tal, a menudo es necesario fijar los grados de libertad en un valor bastante bajo y estimar los demás parámetros tomándolo como dado. Algunos autores [ cita necesaria ] informan que los valores entre 3 y 9 suelen ser buenas opciones. Venables y Ripley [ cita necesaria ] sugieren que un valor de 5 suele ser una buena opción.

 proceso t de Student

Para necesidades prácticas de regresión y predicción ,  se introdujeron los procesos t de Student , que son generalizaciones de las distribuciones t de Student  para funciones. Un proceso t de Student  se construye a partir de las distribuciones t de Student  como se construye un proceso gaussiano a partir de las distribuciones gaussianas . Para un proceso gaussiano , todos los conjuntos de valores tienen una distribución gaussiana multidimensional. De manera análoga, un proceso t de Student es  en un intervalo si los valores correspondientes del proceso ( ) tienen una  distribución t de Student multivariada conjunta . [28] Estos procesos se utilizan para regresión, predicción, optimización bayesiana y problemas relacionados. Para la regresión multivariada y la predicción de múltiples salidas,  se introducen y utilizan los procesos multivariados t de Student. [29]

Tabla de valores seleccionados

La siguiente tabla enumera valores para  distribuciones t con ν grados de libertad para un rango de regiones críticas unilaterales o bilaterales. La primera columna es ν , los porcentajes en la parte superior son niveles de confianza y los números en el cuerpo de la tabla son los factores descritos en la sección sobre intervalos de confianza.

La última fila con ν infinito proporciona puntos críticos para una distribución normal, ya que una distribución t  con infinitos grados de libertad es una distribución normal. (Ver distribuciones relacionadas arriba).


Calcular el intervalo de confianza

Digamos que tenemos una muestra con tamaño 11, media muestral 10 y varianza muestral 2. Para un 90% de confianza con 10 grados de libertad, el valor t unilateral  de la tabla es 1,372. Luego con el intervalo de confianza calculado a partir de

determinamos que con un 90% de confianza tenemos una media verdadera debajo

En otras palabras, el 90% de las veces que se calcula un umbral superior mediante este método a partir de muestras particulares, este umbral superior excede la media real.

Y con un 90% de confianza tenemos una media verdadera arriba

En otras palabras, el 90% de las veces que se calcula un umbral inferior mediante este método a partir de muestras particulares, este umbral inferior se encuentra por debajo de la media real.

De modo que con un 80% de confianza (calculado a partir de 100% − 2 × (1 − 90%) = 80%), tenemos una media verdadera que se encuentra dentro del intervalo

Decir que el 80% de las veces que los umbrales superior e inferior se calculan mediante este método a partir de una muestra determinada, la media verdadera está tanto por debajo del umbral superior como por encima del umbral inferior, no es lo mismo que decir que hay un 80% de probabilidad de que la verdadera media se encuentra entre un par particular de umbrales superior e inferior que se han calculado mediante este método; ver intervalo de confianza y falacia del fiscal .

Hoy en día, el software estadístico, como el lenguaje de programación R , y las funciones disponibles en muchos programas de hojas de cálculo calculan los valores de la distribución t  y su inversa sin tablas.

Ver también

Notas

  1. ^ Hurst, Simón. "La función característica de la distribución t de Student". Informe de investigación de matemáticas financieras. Informe de Investigación Estadística No. SRR044-95. Archivado desde el original el 18 de febrero de 2010.
  2. ^ Norton, Mateo; Khokhlov, Valentyn; Uryasev, Stan (2019). "Cálculo de CVaR y bPOE para distribuciones de probabilidad comunes con aplicación a la optimización de cartera y estimación de densidad" (PDF) . Anales de investigación de operaciones . 299 (1–2). Saltador: 1281-1315. arXiv : 1811.11301 . doi :10.1007/s10479-019-03373-1. S2CID  254231768 . Consultado el 27 de febrero de 2023 .
  3. ^ Helmert FR (1875). "Über die Berechnung des wahrscheinlichen Fehlers aus einer endlichen Anzahl wahrer Beobachtungsfehler". Zeitschrift für Angewandte Mathematik und Physik (en alemán). 20 : 300–303.
  4. ^ Helmert FR (1876). "Über die Wahrscheinlichkeit der Potenzsummen der Beobachtungsfehler und úber einige damit in Zusammenhang stehende Fragen". Zeitschrift für Angewandte Mathematik und Physik (en alemán). 21 : 192–218.
  5. ^ Helmert FR (1876). "Die Genauigkeit der Formel von Peters zur Berechnung des wahrscheinlichen Beobachtungsfehlers director Beobachtungen gleicher Genauigkeit" [La precisión de la fórmula de Peters para calcular el error de observación probable de observaciones directas con la misma precisión]. Astronomische Nachrichten (en alemán). 88 (8–9): 113–132. Código bibliográfico : 1876AN.....88..113H. doi :10.1002/asna.18760880802.
  6. ^ Lüroth J (1876). "Vergleichung von zwei Werten des wahrscheinlichen Fehlers". Astronomische Nachrichten (en alemán). 87 (14): 209–220. Código bibliográfico : 1876AN.....87..209L. doi :10.1002/asna.18760871402.
  7. ^ Pfanzagl J, Sheynin O (1996). "Estudios de historia de la probabilidad y la estadística. XLIV. Un precursor de la distribución t  ". Biometrika . 83 (4): 891–898. doi :10.1093/biomet/83.4.891. SEÑOR  1766040.
  8. ^ Sheynin O (1995). "El trabajo de Helmert en la teoría de los errores". Archivo de Historia de las Ciencias Exactas . 49 (1): 73-104. doi :10.1007/BF00374700. S2CID  121241599.
  9. ^ Pearson, K. (1895). "Contribuciones a la teoría matemática de la evolución. II. Variación sesgada en material homogéneo" (PDF) . Transacciones filosóficas de la Royal Society A : Ciencias matemáticas, físicas y de ingeniería . 186 (374): 343–414. Código bibliográfico : 1895RSPTA.186..343P. doi : 10.1098/rsta.1895.0010 . ISSN  1364-503X.
  10. ^ "Estudiante" [ pseu. William Sealy Gosset ] (1908). «El probable error de una media» (PDF) . Biometrika . 6 (1): 1–25. doi :10.1093/biomet/6.1.1. hdl :10338.dmlcz/143545. JSTOR  2331554. {{cite journal}}: CS1 maint: numeric names: authors list (link)
  11. ^ Wendl MC (2016). "Fama seudónima". Ciencia . 351 (6280): 1406. Bibcode : 2016Sci...351.1406W. doi : 10.1126/ciencia.351.6280.1406. PMID  27013722.
  12. ^ Mortimer RG (2005). Matemáticas para la química física (3ª ed.). Burlington, MA: Elsevier. págs.326. ISBN 9780080492889. OCLC  156200058.
  13. ^ ab Fisher RA (1925). «Aplicaciones de la distribución 'Estudiantes'» (PDF) . Metron . 5 : 90-104. Archivado desde el original (PDF) el 5 de marzo de 2016.
  14. ^ Walpole RE, Myers R, Myers S, Ye K (2006). Probabilidad y estadística para ingenieros y científicos (7ª ed.). Nueva Delhi, IN: Pearson. pag. 237.ISBN 9788177584042. OCLC  818811849.
  15. ^ Kruschke JK (2015). Realizar análisis de datos bayesianos (2ª ed.). Prensa académica. ISBN 9780124058880. OCLC  959632184.
  16. ^ Casella G, Berger RL (1990). Inferencia estadística . Centro de recursos de Duxbury. pag. 56.ISBN 9780534119584.
  17. ^ ab Jackman, S. (2009). Análisis bayesiano para las ciencias sociales . Serie Wiley en probabilidad y estadística. Wiley. pag. 507. doi : 10.1002/9780470686621. ISBN 9780470011546.
  18. ^ Johnson NL, Kotz S, Balakrishnan N (1995). "Capítulo 28". Distribuciones univariadas continuas . vol. 2 (2ª ed.). Wiley. ISBN 9780471584940.
  19. ^ Hogg RV , Craig AT (1978). Introducción a la estadística matemática (4ª ed.). Nueva York: Macmillan. COMO EN  B010WFO0SA. Secciones 4.4 y 4.8{{cite book}}: CS1 maint: postscript (link)
  20. ^ Cochran GT (1934). "La distribución de formas cuadráticas en un sistema normal, con aplicaciones al análisis de covarianza". Matemáticas. Proc. Camb. Filos. Soc. 30 (2): 178-191. Código Bib : 1934PCPS...30..178C. doi :10.1017/S0305004100016595. S2CID  122547084.
  21. ^ Gelman AB, Carlin JS, Rubin DB, Stern HS (1997). Análisis de datos bayesianos (2ª ed.). Boca Ratón, FL: Chapman & Hal lp 68. ISBN 9780412039911.
  22. ^ Parque SY, Bera AK (2009). "Modelo de heterocedasticidad condicional autorregresiva de máxima entropía". J. Economía. 150 (2): 219–230. doi :10.1016/j.jeconom.2008.12.014.
  23. ^ ab Bailey RW (1994). "La generación polar de aleatoria varía con la distribución t  ". Matemáticas de la Computación . 62 (206): 779–781. Código Bib : 1994MaCom..62..779B. doi :10.2307/2153537. JSTOR  2153537. S2CID  120459654.
  24. ^ Orden JK (1972). Familias de distribuciones de frecuencia . Londres, Reino Unido: Griffin. Tabla 5.1. ISBN 9780852641378.
  25. ^ Orden JK (1972). Familias de distribuciones de frecuencia . Londres, Reino Unido: Griffin. Capítulo 5. ISBN 9780852641378.
  26. ^ Lange KL, pequeño RJ, Taylor JM (1989). "Modelado estadístico robusto utilizando la distribución t" (PDF) . Mermelada. Estadística. Asociación. 84 (408): 881–896. doi :10.1080/01621459.1989.10478852. JSTOR  2290063.
  27. ^ Gelman AB, Carlin JB, Stern HS y col. (2014). "Simulación de cadena de Markov computacionalmente eficiente". Análisis de datos bayesianos . Boca Ratón, Florida: CRC Press. pag. 293.ISBN 9781439898208.
  28. ^ Shah, Amar; Wilson, Andrew Gordon; Ghahramani, Zoubin (2014). "Procesos t de Student como alternativas a los procesos gaussianos" (PDF) . JMLR . 33 (Actas de la 17ª Conferencia Internacional sobre Inteligencia Artificial y Estadísticas (AISTATS) 2014, Reykjavik, Islandia): 877–885. arXiv : 1402.4306 .
  29. ^ Chen, Zexun; Wang, Bo; Gorban, Alexander N. (2019). "Regresión de procesos multivariados gaussianos y t de Student para predicción de múltiples salidas". Computación neuronal y aplicaciones . 32 (8): 3005–3028. arXiv : 1703.04455 . doi : 10.1007/s00521-019-04687-8 .
  30. ^ Sol, Jingchao; Kong, Maiying; Pal, Subhadip (22 de junio de 2021). "La distribución seminormal modificada: propiedades y un esquema de muestreo eficiente". Comunicaciones en Estadística - Teoría y Métodos . 52 (5): 1591-1613. doi :10.1080/03610926.2021.1934700. ISSN  0361-0926. S2CID  237919587.

Referencias

enlaces externos