En estadística , una tendencia central (o medida de tendencia central ) es un valor central o típico de una distribución de probabilidad . [1]
En el lenguaje coloquial, las medidas de tendencia central suelen denominarse promedios . El término tendencia central data de finales de la década de 1920. [2]
Las medidas de tendencia central más comunes son la media aritmética , la mediana y la moda . Se puede calcular una tendencia media para un conjunto finito de valores o para una distribución teórica, como la distribución normal . En ocasiones, los autores utilizan la tendencia central para denotar "la tendencia de los datos cuantitativos a agruparse en torno a un valor central". [2] [3]
La tendencia central de una distribución se contrasta típicamente con su dispersión o variabilidad ; la dispersión y la tendencia central son las propiedades que se suelen caracterizar en las distribuciones. El análisis puede determinar si los datos tienen una tendencia central fuerte o débil en función de su dispersión.
Lo siguiente se puede aplicar a datos unidimensionales. Según las circunstancias, puede ser adecuado transformar los datos antes de calcular una tendencia central. Algunos ejemplos son elevar al cuadrado los valores o tomar logaritmos. La idoneidad de una transformación y su aplicación dependen en gran medida de los datos que se estén analizando.
Cualquiera de los métodos anteriores se puede aplicar a cada dimensión de datos multidimensionales, pero los resultados pueden no ser invariables a las rotaciones del espacio multidimensional.
Varias medidas de tendencia central pueden caracterizarse como la solución de un problema variacional, en el sentido del cálculo de variaciones , es decir, la minimización de la variación desde el centro. Es decir, dada una medida de dispersión estadística , se pide una medida de tendencia central que minimice la variación: de modo que la variación desde el centro sea mínima entre todas las opciones de centro. En un chiste, "la dispersión precede a la ubicación". Estas medidas se definen inicialmente en una dimensión, pero se pueden generalizar a múltiples dimensiones. Este centro puede ser único o no. En el sentido de los espacios L p , la correspondencia es:
Las funciones asociadas se denominan p -normas : respectivamente 0-"norma", 1-norma, 2-norma y ∞-norma. La función correspondiente al espacio L 0 no es una norma, y por ello se la suele mencionar entre comillas: 0-"norma".
En ecuaciones, para un conjunto de datos dado (finito) X , considerado como un vector x = ( x 1 ,…, x n ) , la dispersión alrededor de un punto c es la "distancia" desde x al vector constante c = ( c ,…, c ) en la p -norma (normalizada por el número de puntos n ):
Para p = 0 y p = ∞ estas funciones se definen tomando límites, respectivamente, como p → 0 y p → ∞ . Para p = 0 los valores límite son 0 0 = 0 y a 0 = 0 o a ≠ 0 , por lo que la diferencia se convierte simplemente en igualdad, por lo que la norma 0 cuenta el número de puntos desiguales . Para p = ∞ domina el número más grande y, por lo tanto, la norma ∞ es la diferencia máxima.
La media ( centro L 2 ) y el rango medio ( centro L ∞ ) son únicos (cuando existen), mientras que la mediana ( centro L 1 ) y la moda ( centro L 0 ) no son en general únicos. Esto se puede entender en términos de convexidad de las funciones asociadas ( funciones coercitivas ).
La norma 2 y la norma ∞ son estrictamente convexas y, por lo tanto (mediante la optimización convexa), el minimizador es único (si existe) y existe para distribuciones acotadas. Por lo tanto, la desviación estándar sobre la media es menor que la desviación estándar sobre cualquier otro punto, y la desviación máxima sobre el rango medio es menor que la desviación máxima sobre cualquier otro punto.
La norma 1 no es estrictamente convexa, mientras que la convexidad estricta es necesaria para garantizar la unicidad del minimizador. En consecuencia, la mediana (en este sentido de minimización) no es en general única y, de hecho, cualquier punto entre los dos puntos centrales de una distribución discreta minimiza la desviación absoluta promedio.
La "norma" 0 no es convexa (por lo tanto, no es una norma). En consecuencia, la moda no es única: por ejemplo, en una distribución uniforme cualquier punto es la moda.
En lugar de un único punto central, se pueden pedir múltiples puntos de modo que se minimice la variación a partir de estos puntos. Esto conduce al análisis de conglomerados , en el que cada punto del conjunto de datos se agrupa con el "centro" más cercano. Lo más común es que el uso de la norma 2 generalice la media a la agrupación de k -medias , mientras que el uso de la norma 1 generalice la mediana (geométrica) a la agrupación de k -medianas . El uso de la norma 0 simplemente generaliza la moda (valor más común) para usar los k valores más comunes como centros.
A diferencia de las estadísticas de un solo centro, esta agrupación multicéntrica en general no se puede calcular en una expresión de forma cerrada , y en su lugar se debe calcular o aproximar mediante un método iterativo ; un enfoque general son los algoritmos de expectativa-maximización .
La noción de un "centro" como minimización de la variación se puede generalizar en la geometría de la información como una distribución que minimiza la divergencia (una distancia generalizada) de un conjunto de datos. El caso más común es la estimación de máxima verosimilitud , donde la estimación de máxima verosimilitud (MLE) maximiza la verosimilitud (minimiza la sorpresa esperada ), lo que se puede interpretar geométricamente utilizando la entropía para medir la variación: la MLE minimiza la entropía cruzada (equivalentemente, entropía relativa , divergencia de Kullback-Leibler).
Un ejemplo sencillo de esto es el centro de los datos nominales: en lugar de utilizar la moda (el único "centro" de un solo valor), a menudo se utiliza la medida empírica (la distribución de frecuencia dividida por el tamaño de la muestra ) como "centro". Por ejemplo, dados datos binarios , digamos cara o cruz, si un conjunto de datos consta de 2 caras y 1 cruz, entonces la moda es "cara", pero la medida empírica es 2/3 caras, 1/3 cruz, lo que minimiza la entropía cruzada (sorpresa total) del conjunto de datos. Esta perspectiva también se utiliza en el análisis de regresión , donde los mínimos cuadrados encuentran la solución que minimiza las distancias desde ella, y análogamente en la regresión logística , una estimación de máxima verosimilitud minimiza la sorpresa (distancia de información).
Para distribuciones unimodales se conocen los siguientes límites y son precisos: [4]
donde μ es la media, ν es la mediana, θ es la moda y σ es la desviación estándar.
Para cada distribución, [5] [6]