Conjunto de cantidades en teoría de probabilidad.
En teoría de la probabilidad y estadística , los cumulantes κ n de una distribución de probabilidad son un conjunto de cantidades que proporcionan una alternativa a los momentos de la distribución. Dos distribuciones de probabilidad cualesquiera cuyos momentos sean idénticos tendrán también acumuladores idénticos, y viceversa.
El primer cumulante es la media , el segundo cumulante es la varianza y el tercer cumulante es el mismo que el tercer momento central . Pero los cumulantes de cuarto orden y de orden superior no son iguales a los momentos centrales. En algunos casos, los tratamientos teóricos de problemas en términos de cumulantes son más simples que aquellos que utilizan momentos. En particular, cuando dos o más variables aleatorias son estadísticamente independientes , el cumulante de enésimo orden de su suma es igual a la suma de sus cumulantes de enésimo orden. Además, los cumulantes de tercer orden y superiores de una distribución normal son cero y es la única distribución con esta propiedad.
Al igual que con los momentos, donde los momentos conjuntos se utilizan para conjuntos de variables aleatorias, es posible definir acumuladores conjuntos .
Definición
Los cumulantes de una variable aleatoria X se definen utilizando la función generadora de cumulantes K ( t ) , que es el logaritmo natural de la función generadora de momentos :
Los cumulantes κ n se obtienen a partir de una expansión en serie de potencias de la función generadora de acumuladores:
Esta expansión es una serie de Maclaurin , por lo que el enésimo cumulante se puede obtener diferenciando la expansión anterior n veces y evaluando el resultado en cero: [1]
Si la función generadora de momentos no existe, los cumulantes se pueden definir en términos de la relación entre los cumulantes y los momentos que se analizan más adelante.
Definición alternativa de la función generadora acumulativa
Algunos escritores [2] [3] prefieren definir la función generadora de acumuladores como el logaritmo natural de la función característica , que a veces también se denomina segunda función característica , [4] [5]
Una ventaja de H ( t ) —en cierto sentido la función K ( t ) evaluada para argumentos puramente imaginarios— es que E[ e itX ] está bien definida para todos los valores reales de t incluso cuando E[ e tX ] no está bien definida. para todos los valores reales de t , como puede ocurrir cuando hay "demasiada" probabilidad de que X tenga una magnitud grande. Aunque la función H ( t ) estará bien definida, imitará a K ( t ) en términos de la longitud de su serie de Maclaurin , que puede no extenderse más allá (o, raramente, incluso hasta) el orden lineal en el argumento t . y en particular el número de acumuladores que estén bien definidos no cambiará. Sin embargo, incluso cuando H ( t ) no tiene una serie de Maclaurin larga, puede usarse directamente para analizar y, particularmente, agregar variables aleatorias. Tanto la distribución de Cauchy (también llamada Lorentziana) como, de manera más general, las distribuciones estables (relacionadas con la distribución de Lévy) son ejemplos de distribuciones para las cuales las expansiones en series de potencias de las funciones generadoras tienen solo un número finito de términos bien definidos.
Algunas propiedades básicas
El enésimo cumulante de (la distribución de) una variable aleatoria goza de las siguientes propiedades:
- Si y es constante (es decir, no aleatorio), entonces , es decir, el acumulante es invariante de traducción . (Si entonces tenemos
- Si es constante (es decir, no aleatorio), entonces , es decir, el enésimo cumulante es homogéneo de grado .
- Si las variables aleatorias son independientes , entonces el acumulativo es acumulativo, de ahí el nombre.
La propiedad acumulativa se sigue rápidamente al considerar la función generadora de cumulantes:
de modo que cada cumulante de una suma de variables aleatorias independientes es la suma de los correspondientes cumulantes de los sumandos . Es decir, cuando los sumandos son estadísticamente independientes, la media de la suma es la suma de las medias, la varianza de la suma es la suma de las varianzas, el tercer acumulante (que resulta ser el tercer momento central) de la suma es la suma de los terceros cumulantes, y así sucesivamente para cada orden de cumulantes.
Una distribución con cumulantes dados κ n se puede aproximar mediante una serie de Edgeworth .
Primeros varios cumulantes en función de los momentos.
Todos los cumulantes superiores son funciones polinómicas de los momentos centrales, con coeficientes enteros, pero sólo en los grados 2 y 3 los cumulantes son realmente momentos centrales.
- significar
- la varianza, o segundo momento central.
- El tercer momento central.
- el cuarto momento central menos tres veces el cuadrado del segundo momento central. Éste es, pues, el primer caso en el que los acumulativos no son simplemente momentos o momentos centrales. Los momentos centrales de grado superior a 3 carecen de la propiedad acumulativa.
Acumulantes de algunas distribuciones de probabilidad discretas.
- Las variables aleatorias constantes X = μ . La función generadora acumulativa es K ( t ) = μt . El primer acumulante es κ 1 = K ′(0) = μ y los demás acumulantes son cero, κ 2 = κ 3 = κ 4 = ⋅⋅⋅ = 0 .
- Las distribuciones de Bernoulli (número de éxitos en un ensayo con probabilidad p de éxito). La función generadora acumulativa es K ( t ) = log(1 − p + p e t ) . Los primeros cumulantes son κ 1 = K '(0) = p y κ 2 = K′′ (0) = p ·(1 − p ) . Los cumulantes satisfacen una fórmula de recursividad.
- Las distribuciones geométricas (número de fracasos antes de un éxito con probabilidad p de éxito en cada prueba). La función generadora acumulativa es K ( t ) = log( p / (1 + ( p − 1)et ) ) . Los primeros cumulantes son κ 1 = K′ (0) = p −1 − 1 , y κ 2 = K′′ (0) = κ 1 p −1 . Sustituyendo p = ( μ + 1) −1 se obtiene K ( t ) = −log(1 + μ (1−e t )) y κ 1 = μ .
- Las distribuciones de Poisson . La función generadora acumulativa es K ( t ) = μ (e t − 1) . Todos los acumulantes son iguales al parámetro: κ 1 = κ 2 = κ 3 = ... = μ .
- Las distribuciones binomiales (número de éxitos en n ensayos independientes con probabilidad p de éxito en cada ensayo). El caso especial n = 1 es una distribución de Bernoulli. Cada cumulante es simplemente n veces el cumulante correspondiente de la distribución de Bernoulli correspondiente. La función generadora acumulativa es K ( t ) = n log(1 − p + p e t ) . Los primeros cumulantes son κ 1 = K′ (0) = np y κ 2 = K′′ (0) = κ 1 (1 − p ) . Sustituyendo p = μ· n −1 se obtiene K '( t ) = ((μ −1 − n −1 )·e − t + n −1 ) −1 y κ 1 = μ . El caso límite n −1 = 0 es una distribución de Poisson.
- Las distribuciones binomiales negativas (número de fracasos antes de r éxitos con probabilidad p de éxito en cada prueba). El caso especial r = 1 es una distribución geométrica. Cada cumulante es simplemente r veces el cumulante correspondiente de la distribución geométrica correspondiente. La derivada de la función generadora acumulativa es K ′( t ) = r ·((1 − p ) −1 ·e − t −1) −1 . Los primeros cumulantes son κ 1 = K ′(0) = r ·( p −1 −1 ) , y κ 2 = K “(0) = κ 1 · p −1 . Sustituyendo p = (μ· r −1 +1) −1 se obtiene K ′( t ) = (( μ −1 + r −1 ) e − t − r −1 ) −1 y κ 1 = μ . La comparación de estas fórmulas con las de las distribuciones binomiales explica el nombre de "distribución binomial negativa". El caso límite r −1 = 0 es una distribución de Poisson.
Al presentar la relación varianza-media,
las distribuciones de probabilidad anteriores obtienen una fórmula unificada para la derivada de la función generadora acumulativa: [ cita necesaria ]
La segunda derivada confirma
que el primer cumulante es κ 1 = K′ (0) = μ y el segundo cumulante es κ 2 = K′′ (0) = με .
Las variables aleatorias constantes X = μ tienen ε = 0 .
Las distribuciones binomiales tienen ε = 1 − p de modo que 0 < ε < 1 .
Las distribuciones de Poisson tienen ε = 1 .
Las distribuciones binomiales negativas tienen ε = p −1 de modo que ε > 1 .
Nótese la analogía con la clasificación de secciones cónicas por excentricidad : círculos ε = 0 , elipses 0 < ε < 1 , parábolas ε = 1 , hipérbolas ε > 1 .
Acumulantes de algunas distribuciones de probabilidad continuas.
- Para la distribución normal con valor esperado μ y varianza σ 2 , la función generadora acumulativa es K ( t ) = μt + σ 2 t 2 /2 . Las derivadas primera y segunda de la función generadora acumulativa son K ′( t ) = μ + σ 2 · t y K “( t ) = σ 2 . Los cumulantes son κ 1 = μ , κ 2 = σ 2 y κ 3 = κ 4 = ⋅⋅⋅ = 0 . El caso especial σ 2 = 0 es una variable aleatoria constante X = μ .
- Los cumulantes de la distribución uniforme en el intervalo [−1, 0] son κ n = B n / n , donde B n es el enésimo número de Bernoulli .
- ¡Los cumulantes de la distribución exponencial con parámetro de tasa λ son κ n = λ − n ( n − 1)! .
Algunas propiedades de la función generadora acumulativa.
La función generadora acumulativa K ( t ) , si existe, es infinitamente diferenciable y convexa , y pasa por el origen. Su primera derivada varía monótonamente en el intervalo abierto desde el mínimo hasta el supremo del soporte de la distribución de probabilidad, y su segunda derivada es estrictamente positiva en todos los lugares donde está definida, excepto en la distribución degenerada de una masa puntual única. La función generadora de acumulativos existe si y solo si las colas de la distribución están mayorizadas por una caída exponencial , es decir, ( ver notación O grande )
donde está la función de distribución acumulativa . La función generadora de acumuladores tendrá asíntota(s) vertical (es) en el supremo negativo de tal c , si tal supremo existe, y en el supremo de tal d , si tal supremo existe; de lo contrario, se definirá para todos los números reales.
Si el soporte de una variable aleatoria X tiene límites superiores o inferiores finitos, entonces su función generadora de acumuladores y = K ( t ) , si existe, se aproxima a la asíntota (s) cuya pendiente es igual al supremo o mínimo del soporte,
respectivamente, que se encuentran encima de ambas líneas en todas partes. (Las integrales
producen las intersecciones y de estas asíntotas, ya que K (0) = 0. )
Para un desplazamiento de la distribución por c , para una masa puntual degenerada en c , la función generadora acumulativa es la línea recta y, de manera más general, si y solo si X e Y son independientes y sus funciones generadoras acumulativas existen; ( subindependencia y existencia de segundos momentos suficientes para implicar independencia. [6] )
La familia exponencial natural de una distribución se puede realizar desplazando o trasladando K ( t ) y ajustándola verticalmente para que siempre pase por el origen: si f es la función de densidad de probabilidad con función generadora acumulativa y es su familia exponencial natural, entonces y
Si K ( t ) es finito para un rango t 1 < Re( t ) < t 2 entonces si t 1 < 0 < t 2 entonces K ( t ) es analítico e infinitamente diferenciable para t 1 < Re( t ) < t 2 . Además, para t real y t 1 < t < t 2 K ( t ) es estrictamente convexo y K ′( t ) es estrictamente creciente. [ cita necesaria ]
Otras propiedades de los acumulantes
Un resultado negativo
Dados los resultados para los cumulantes de la distribución normal , se podría esperar encontrar familias de distribuciones para las cuales κ m = κ m +1 = ⋯ = 0 para algunos m > 3 , con los cumulantes de orden inferior (órdenes 3 a m − 1 ) siendo distinto de cero. No existen tales distribuciones. [7] El resultado subyacente aquí es que la función generadora acumulativa no puede ser un polinomio de orden finito de grado mayor que 2.
Acumulantes y momentos
La función generadora de momentos viene dada por:
Entonces, la función generadora acumulativa es el logaritmo de la función generadora de momentos.
El primer acumulante es el valor esperado ; el segundo y tercer momento central son respectivamente el segundo y tercer momento central (el segundo momento central es la varianza ); pero los cumulantes superiores no son momentos ni momentos centrales, sino funciones polinomiales de los momentos más complicadas.
Los momentos se pueden recuperar en términos de cumulantes evaluando la enésima derivada de at ,
Asimismo, los cumulantes se pueden recuperar en términos de momentos evaluando la enésima derivada de at ,
La expresión explícita para el n- ésimo momento en términos de los primeros n cumulantes, y viceversa, se puede obtener utilizando la fórmula de Faà di Bruno para derivadas superiores de funciones compuestas. En general, tenemos
dónde están los polinomios de Bell incompletos (o parciales) .
De la misma manera, si la media está dada por , la función generadora del momento central está dada por
y el n- ésimo momento central se obtiene en términos de cumulantes como
Además, para n > 1 , el n- ésimo cumulante en términos de los momentos centrales es
El n -ésimo momento μ ′ n es un polinomio de n -ésimo grado en los primeros n cumulantes. Las primeras expresiones son:
El "primo" distingue los momentos μ ′ n de los momentos centrales μ n . Para expresar los momentos centrales como funciones de los cumulantes, basta eliminar de estos polinomios todos los términos en los que κ 1 aparece como factor:
De manera similar, el n- ésimo acumulante κ n es un polinomio de n -ésimo grado en los primeros n momentos no centrales. Las primeras expresiones son:
En general, [8] el acumulante es el determinante de una matriz:
Para expresar los cumulantes κ n para n > 1 como funciones de los momentos centrales, elimine de estos polinomios todos los términos en los que μ' 1 aparece como factor:
Para expresar los cumulantes κ n para n > 2 como funciones de los momentos centrales estandarizados μ″ n , establezca también μ' 2 =1 en los polinomios:
Los cumulantes se pueden relacionar con los momentos diferenciando la relación log M ( t ) = K ( t ) con respecto a t , dando M′ ( t ) = K′ ( t ) M ( t ) , que convenientemente no contiene exponenciales o logaritmos. ¡ Igualando el coeficiente de t n −1 / ( n −1)! en los lados izquierdo y derecho y usando μ′ 0 = 1 se obtienen las siguientes fórmulas para n ≥ 1 : [9]
Estas permiten calcular uno o el otro utilizando el conocimiento de los momentos y cumulantes de orden inferior. Las fórmulas correspondientes para los momentos centrales for se forman a partir de estas fórmulas estableciendo y reemplazando cada una con for :
Acumulantes y particiones de conjuntos
Estos polinomios tienen una interpretación combinatoria notable : los coeficientes cuentan determinadas particiones de conjuntos . Una forma general de estos polinomios es
donde
- π recorre la lista de todas las particiones de un conjunto de tamaño n ;
- " B ∈ π " significa que B es uno de los "bloques" en los que se divide el conjunto; y
- | B | es el tamaño del conjunto B .
Así, cada monomio es una constante multiplicada por un producto de acumuladores en los que la suma de los índices es n (por ejemplo, en el término κ 3 κ 2 2 κ 1 , la suma de los índices es 3 + 2 + 2 + 1 = 8; esto aparece en el polinomio que expresa el octavo momento en función de los primeros ocho acumulantes). A cada término le corresponde una partición del número entero n . El coeficiente en cada término es el número de particiones de un conjunto de n miembros que colapsan en esa partición del número entero n cuando los miembros del conjunto se vuelven indistinguibles.
Acumulantes y combinatoria
Se puede encontrar una conexión adicional entre los cumulantes y la combinatoria en el trabajo de Gian-Carlo Rota , donde se estudian vínculos con la teoría invariante , funciones simétricas y secuencias binomiales mediante el cálculo umbral . [10]
Acumulantes conjuntos
El acumulante conjunto κ de varias variables aleatorias X 1 , ..., X n se define como el coeficiente κ 1,...,1 ( X 1 , ..., X n ) en la serie de Maclaurin del acumulador multivariado que genera función, consulte la Sección 3.1 en, [11]
Tenga en cuenta que
y, en particular
Al igual que con una sola variable, la función generadora y el acumulante se pueden definir mediante
en cuyo caso
y
Variables aleatorias repetidas y relación entre los coeficientes.kk 1 , ..., k norte
Observe que también se puede escribir a
partir de lo cual concluimos que
Por ejemplo
y
En particular, la última igualdad muestra que los cumulantes de una sola variable aleatoria son los cumulantes conjuntos de múltiples copias de esa variable aleatoria.
Relación con momentos mixtos
Las variables acumulativas o aleatorias conjuntas se pueden expresar como una suma alternativa de productos de sus momentos mixtos , consulte la ecuación (3.2.7) en [11]
donde π recorre la lista de todas las particiones de {1, ..., n } ; donde B recorre la lista de todos los bloques de la partición π ; y donde | π | es el número de partes en la partición.
Por ejemplo,
es el valor esperado de ,
es la covarianza de y , y
Para variables aleatorias de media cero , cualquier momento mixto de la forma desaparece si es una partición que contiene un singleton . Por tanto, se simplifica la expresión de su cumulante conjunto en términos de momentos mixtos. Por ejemplo, si X,Y,Z,W son variables aleatorias de media cero, tenemos
De manera más general, cualquier coeficiente de la serie de Maclaurin también se puede expresar en términos de momentos mixtos, aunque no existen fórmulas concisas. De hecho, como se señaló anteriormente, se puede escribir como un acumulante conjunto repitiendo variables aleatorias de manera apropiada y luego aplicar la fórmula anterior para expresarlo en términos de momentos mixtos. Por ejemplo
Si algunas de las variables aleatorias son independientes de todas las demás, entonces cualquier acumulativo que involucre dos (o más) variables aleatorias independientes es cero. [ cita necesaria ]
El significado combinatorio de la expresión de momentos mixtos en términos de cumulantes es más fácil de entender que el de cumulantes en términos de momentos mixtos, ver Ecuación (3.2.6) en: [11]
Por ejemplo:
Otras propiedades
Otra propiedad importante de los acumuladores conjuntos es la multilinealidad:
Así como el segundo acumulante es la varianza, el acumulante conjunto de solo dos variables aleatorias es la covarianza . La identidad familiar
se generaliza a los cumulantes:
Acumulantes condicionales y la ley de la cumulancia total
La ley de la expectativa total y la ley de la varianza total se generalizan naturalmente a los cumulantes condicionales. El caso n = 3 , expresado en el lenguaje de los momentos (centrales) más que en el de los cumulantes, dice
En general, [12]
donde
- la suma es sobre todas las particiones π del conjunto {1, ..., n } de índices, y
- π 1 , ..., π b son todos los "bloques" de la partición π ; la expresión κ ( X π m ) indica que el acumulador conjunto de las variables aleatorias cuyos índices están en ese bloque de la partición.
Acumulantes condicionales y expectativa condicional
Para ciertos entornos, se puede establecer una identidad derivada entre el acumulante condicional y la expectativa condicional. Por ejemplo, supongamos que Y = X + Z donde Z es normal estándar independiente de X , entonces para cualquier X se cumple que [13]
Los resultados también se pueden enviar por mensaje de texto a la familia exponencial. [14]
Relación con la física estadística
En física estadística, muchas cantidades extensivas (es decir, cantidades que son proporcionales al volumen o tamaño de un sistema dado) están relacionadas con acumulativos de variables aleatorias. La conexión profunda es que en un sistema grande una cantidad extensa como la energía o el número de partículas puede considerarse como la suma de (digamos) la energía asociada con un número de regiones casi independientes. El hecho de que los cumulantes de estas variables aleatorias casi independientes se sumen (casi) hace razonable que se espere que grandes cantidades estén relacionadas con los cumulantes.
Un sistema en equilibrio con un baño termal a temperatura T tiene una energía interna fluctuante E , que puede considerarse una variable aleatoria extraída de una distribución . La función de partición del sistema es
donde β = 1/( kT ) y k es la constante de Boltzmann y se ha utilizado la notación en lugar del valor esperado para evitar confusión con la energía , E. Por lo tanto, el primer y segundo acumulante de la energía E dan la energía y la capacidad calorífica promedio.
La energía libre de Helmholtz expresada en términos de
conecta además cantidades termodinámicas con la función generadora acumulativa de la energía. Las propiedades termodinámicas que se derivan de la energía libre, como su energía interna , entropía y capacidad calorífica específica , se pueden expresar fácilmente en términos de estos acumulantes. Otra energía libre puede ser función de otras variables como el campo magnético o el potencial químico , por ejemplo,
donde N es el número de partículas y es el gran potencial. Nuevamente , la estrecha relación entre la definición de energía libre y la función generadora acumulativa implica que varias derivadas de esta energía libre pueden escribirse en términos de acumuladores conjuntos de E y N.
Historia
Anders Hald analiza la historia de los acumulantes . [15] [16]
Los cumulantes fueron introducidos por primera vez por Thorvald N. Thiele , en 1889, quien los llamó semiinvariantes . [17] Fueron llamados cumulantes por primera vez en un artículo de 1932 de Ronald Fisher y John Wishart . [18] Neyman le recordó públicamente a Fisher el trabajo de Thiele, quien también señala citas publicadas anteriormente de Thiele que llamaron la atención de Fisher. [19] Stephen Stigler ha dicho [ cita necesaria ] que el nombre cumulante le fue sugerido a Fisher en una carta de Harold Hotelling . En un artículo publicado en 1929, Fisher las llamó funciones de momentos acumulativos . [20]
La función de partición en física estadística fue introducida por Josiah Willard Gibbs en 1901. [ cita necesaria ] La energía libre a menudo se llama energía libre de Gibbs. En mecánica estadística , los cumulantes también se conocen como funciones de Ursell en relación con una publicación de 1927. [ cita necesaria ]
Acumulantes en entornos generalizados
Acumulantes formales
De manera más general, los cumulantes de una secuencia { m n : n = 1, 2, 3, ... } , no necesariamente los momentos de cualquier distribución de probabilidad, son, por definición,
donde los valores de κ n para n = 1, 2, 3, ... se encuentran formalmente, es decir, sólo mediante álgebra, sin tener en cuenta las cuestiones de si alguna serie converge. Todas las dificultades del "problema de los acumuladores" están ausentes cuando se trabaja formalmente. El ejemplo más simple es que el segundo acumulante de una distribución de probabilidad siempre debe ser no negativo y es cero sólo si todos los acumulantes superiores son cero. Los acumulativos formales no están sujetos a tales restricciones.
números de campana
En combinatoria , el enésimo número de Bell es el número de particiones de un conjunto de tamaño n . Todos los acumulantes de la secuencia de números de Bell son iguales a 1 . Los números de Bell son los momentos de la distribución de Poisson con valor esperado 1 .
Acumulantes de una secuencia polinómica de tipo binomial
Para cualquier secuencia { κ n : n = 1, 2, 3, ... } de escalares en un campo de característica cero, consideradas cumulantes formales, existe una secuencia correspondiente { μ ′ : n = 1, 2, 3, ... } de momentos formales, dados por los polinomios anteriores. [ aclaración necesaria ] [ cita necesaria ] Para esos polinomios, construya una secuencia polinomial de la siguiente manera. A partir del polinomio,
haga un nuevo polinomio en estos más una variable adicional x :
y luego generalice el patrón. El patrón es que el número de bloques en las particiones antes mencionadas son los exponentes de x . Cada coeficiente es un polinomio en los cumulantes; estos son los polinomios de Bell , llamados así en honor a Eric Temple Bell . [ cita necesaria ]
Esta secuencia de polinomios es de tipo binomial . De hecho, no existen otras secuencias de tipo binomial; toda secuencia polinomial de tipo binomial está completamente determinada por su secuencia de cumulantes formales. [ cita necesaria ]
Acumulantes libres
En la fórmula anterior de momento-acumulante
para acumuladores conjuntos, se suman todas las particiones del conjunto {1, ..., n } . Si, en cambio, se suman sólo las particiones que no se cruzan , entonces, al resolver estas fórmulas para en términos de los momentos, se obtienen cumulantes libres en lugar de cumulantes convencionales tratados anteriormente. Estos acumulantes libres fueron introducidos por Roland Speicher y desempeñan un papel central en la teoría de la probabilidad libre . [21] [22] En esa teoría, en lugar de considerar la independencia de variables aleatorias , definida en términos de productos tensoriales de álgebras de variables aleatorias, se considera en cambio la independencia libre de variables aleatorias, definida en términos de productos libres de álgebras. [22]
Los acumulantes ordinarios de grado superior a 2 de la distribución normal son cero. Los acumulantes libres de grado superior a 2 de la distribución del semicírculo de Wigner son cero. [22] Este es un aspecto en el que el papel de la distribución de Wigner en la teoría de la probabilidad libre es análogo al de la distribución normal en la teoría de la probabilidad convencional.
Ver también
Referencias
- ^ Weisstein, Eric W. "Acumulante". De MathWorld: un recurso web de Wolfram. http://mathworld.wolfram.com/Cumulant.html
- ^ Kendall, MG, Stuart, A. (1969) La teoría avanzada de la estadística , volumen 1 (tercera edición). Griffin, Londres. (Sección 3.12)
- ^ Lukacs, E. (1970) Funciones características (segunda edición). Griffin, Londres. (Página 27)
- ^ Lukacs, E. (1970) Funciones características (segunda edición). Griffin, Londres. (Sección 2.4)
- ^ Aapo Hyvarinen, Juha Karhunen y Erkki Oja (2001) Análisis de componentes independientes , John Wiley & Sons . (Sección 2.7.2)
- ^ Hamedani, GG; Volkmer, Hans; Behboodian, J. (1 de marzo de 2012). "Una nota sobre variables aleatorias subindependientes y una clase de mezclas bivariadas". Studia Scientiarum Mathematicarum Hungarica . 49 (1): 19–25. doi :10.1556/SScMath.2011.1183.
- ^ Lukacs, E. (1970) Funciones características (segunda edición), Griffin, Londres. (Teorema 7.3.5)
- ^ Bazant, Martín (4 de febrero de 2005). "MIT 18.366 | Otoño de 2006 | Graduado | Difusión y paseos aleatorios, Conferencia 2: Momentos, acumulativos y escalamiento". MIT OpenCourseWare . Archivado desde el original el 7 de octubre de 2022 . Consultado el 3 de septiembre de 2023 .
- ^ Smith, Peter J. (mayo de 1995). "Una formulación recursiva del antiguo problema de obtener momentos a partir de cumulantes y viceversa". El estadístico estadounidense . 49 (2): 217–218. doi :10.2307/2684642. JSTOR 2684642.
- ^ Rota, G.-C.; Shen, J. (2000). "Sobre la combinatoria de cumulantes". Revista de teoría combinatoria, serie A. 91 (1–2): 283–304. doi : 10.1006/jcta.1999.3017 .
- ^ abc Peccati, Giovanni; Taqqu, Murad S. (2011). "Wiener Caos: Momentos, Acumulantes y Diagramas". Serie Bocconi y Springer . 1 . doi :10.1007/978-88-470-1679-8. ISBN 978-88-470-1678-1. ISSN 2039-1471.
- ^ Brillinger, DR (1969). "El cálculo de cumulantes mediante condicionamiento". Anales del Instituto de Matemática Estadística . 21 : 215–218. doi :10.1007/bf02532246. S2CID 122673823.
- ^ Dytso, Alex; Pobre, H. Vicente; Shamai Shitz, Shlomo (2023). "Estimación de la media condicional en ruido gaussiano: una identidad metaderivada con aplicaciones". Transacciones IEEE sobre teoría de la información . 69 (3): 1883–1898. doi :10.1109/TIT.2022.3216012. S2CID 253308274.
- ^ Dytso, Alex; Cardón, Martina; Zieder, Ian (2023). "Identidad metaderivada para la expectativa condicional". Transacciones IEEE sobre teoría de la información . 69 (7): 4284–4302. doi :10.1109/TIT.2023.3249163. S2CID 257247930.
- ^ Hald, A. (2000) "La historia temprana de los cumulantes y la serie Gram-Charlier " International Statistical Review , 68 (2): 137-153. (Reimpreso en Lauritzen, Steffen L. , ed. (2002). Thiele: Pioneer in Statistics . Oxford UP ISBN 978-0-19-850972-1.)
- ^ Hald, Anders (1998). Una historia de la estadística matemática de 1750 a 1930 . Nueva York: Wiley. ISBN 978-0-471-17912-2.
- ^ H. Cramér (1946) Métodos matemáticos de estadística, Princeton University Press, sección 15.10, p. 186.
- ^ Fisher, RA , John Wishart, J. (1932) La derivación de las fórmulas de patrones de particiones bidireccionales a partir de aquellas de patrones más simples, Actas de la Sociedad Matemática de Londres , Serie 2, v. 33, págs. 195-208 doi :10.1112/plms/s2-33.1.195
- ^ Neyman, J. (1956): 'Nota sobre un artículo de Sir Ronald Fisher', Revista de la Royal Statistical Society , Serie B (Metodológica), 18, págs.
- ^ Pescador, RA (1929). "Momentos y momentos del producto de las distribuciones de muestreo" (PDF) . Actas de la Sociedad Matemática de Londres . 30 : 199–238. doi :10.1112/plms/s2-30.1.199. hdl : 2440/15200 .
- ^ Speicher, Roland (1994). "Funciones multiplicativas sobre la red de particiones que no se cruzan y convolución libre". Annalen Matemáticas . 298 (4): 611–628. doi :10.1007/BF01459754. S2CID 123022311.
- ^ abc Novak, Jonathan; Śniady, Piotr (2011). "¿Qué es un acumulante libre?". Avisos de la Sociedad Matemática Estadounidense . 58 (2): 300–301. ISSN 0002-9920.
enlaces externos