stringtranslate.com

Mediana

Encontrar la mediana en conjuntos de datos con un número de valores pares e impares.

En estadística y teoría de la probabilidad , la mediana es el valor que separa la mitad superior de la mitad inferior de una muestra de datos , una población o una distribución de probabilidad . Para un conjunto de datos , se puede considerar como el valor "medio". La característica básica de la mediana al describir datos comparados con la media (a menudo descrita simplemente como "promedio") es que no está sesgada por una pequeña proporción de valores extremadamente grandes o pequeños y, por lo tanto, proporciona una mejor representación del centro. El ingreso mediano , por ejemplo, puede ser una mejor manera de describir el centro de la distribución del ingreso porque los aumentos en los ingresos más altos por sí solos no tienen efecto sobre la mediana. Por esta razón, la mediana es de importancia central en las estadísticas sólidas .

Conjunto de datos finitos de números.

La mediana de una lista finita de números es el número "medio", cuando esos números se enumeran en orden de menor a mayor.

Si el conjunto de datos tiene un número impar de observaciones, se selecciona la del medio. Por ejemplo, la siguiente lista de siete números,

1, 3, 3, 6 , 7, 8, 9

tiene la mediana de 6 , que es el cuarto valor.

Si el conjunto de datos tiene un número par de observaciones, no existe un valor medio distinto y la mediana generalmente se define como la media aritmética de los dos valores medios. [1] [2] Por ejemplo, este conjunto de datos de 8 números

1, 2, 3, 4, 5 , 6, 8, 9

tiene un valor mediano de 4,5 , es decir . (En términos más técnicos, esto interpreta la mediana como el rango medio completamente recortado ).

En general, con esta convención, la mediana se puede definir de la siguiente manera: Para un conjunto de datos de elementos, ordenados de menor a mayor,

si es extraño,
si es par,

Definición formal y notación.

Formalmente, una mediana de una población es cualquier valor tal que al menos la mitad de la población sea menor o igual a la mediana propuesta y al menos la mitad sea mayor o igual a la mediana propuesta. Como se vio anteriormente, las medianas pueden no ser únicas. Si cada conjunto contiene más de la mitad de la población, entonces parte de la población es exactamente igual a la mediana única.

La mediana está bien definida para cualquier dato ordenado (unidimensional) y es independiente de cualquier métrica de distancia . Por lo tanto, la mediana se puede aplicar a las clases escolares que están clasificadas pero no numéricamente (por ejemplo, calcular una calificación mediana cuando los puntajes de los exámenes de los estudiantes se califican de F a A), aunque el resultado podría estar a medio camino entre clases si hay un número par de clases. . (Para clases de números impares, se determina una clase específica como mediana).

Una mediana geométrica , por otra parte, se define en cualquier número de dimensiones. Un concepto relacionado, en el que se fuerza que el resultado corresponda a un miembro de la muestra, es el medoide .

No existe una notación estándar ampliamente aceptada para la mediana, pero algunos autores representan la mediana de una variable x como med( x ), , [3] como μ 1/2 , [1] o como M . [3] [4] En cualquiera de estos casos, el uso de estos u otros símbolos para la mediana debe definirse explícitamente cuando se introducen.

La mediana es un caso especial de otras formas de resumir los valores típicos asociados con una distribución estadística : es el segundo cuartil , el quinto decil y el percentil 50 .

Usos

La mediana se puede utilizar como medida de ubicación cuando se otorga poca importancia a los valores extremos, normalmente porque una distribución está sesgada , no se conocen los valores extremos o los valores atípicos no son dignos de confianza, es decir, pueden ser errores de medición/transcripción.

Por ejemplo, considere el conjunto múltiple

1, 2, 2, 2, 3, 14.

La mediana es 2 en este caso, al igual que la moda , y podría verse como una mejor indicación del centro que la media aritmética de 4, que es mayor que todos los valores menos uno. Sin embargo, la relación empírica ampliamente citada de que la media se desplaza "más hacia la cola" de una distribución que la mediana no es generalmente cierta. A lo sumo se puede decir que las dos estadísticas no pueden estar "demasiado alejadas"; ver § Desigualdad relativa a medias y medianas a continuación. [5]

Como la mediana se basa en los datos intermedios de un conjunto, no es necesario conocer el valor de los resultados extremos para calcularla. Por ejemplo, en una prueba de psicología que investiga el tiempo necesario para resolver un problema, si un pequeño número de personas no logró resolver el problema en el tiempo dado, aún se puede calcular una mediana. [6]

Debido a que la mediana es fácil de entender y calcular, además de ser una aproximación sólida a la media , la mediana es una estadística de resumen popular en la estadística descriptiva . En este contexto, existen varias opciones para una medida de variabilidad : el rango , el rango intercuartil , la desviación absoluta media y la desviación absoluta mediana .

Para fines prácticos, a menudo se comparan diferentes medidas de ubicación y dispersión en función de qué tan bien se pueden estimar los valores poblacionales correspondientes a partir de una muestra de datos. La mediana, estimada utilizando la mediana muestral, tiene buenas propiedades a este respecto. Si bien no suele ser óptimo si se supone una distribución poblacional determinada, sus propiedades siempre son razonablemente buenas. Por ejemplo, una comparación de la eficiencia de los estimadores candidatos muestra que la media muestral es más eficiente estadísticamente cuando (y sólo cuando) los datos no están contaminados por datos de distribuciones de colas pesadas o de mezclas de distribuciones. [ cita necesaria ] Incluso entonces, la mediana tiene una eficiencia del 64% en comparación con la media de varianza mínima (para muestras normales grandes), es decir, la varianza de la mediana será ~ 50% mayor que la varianza de la media. [7] [8]

Distribuciones de probabilidad

Visualización geométrica de la moda, mediana y media de una función de densidad de probabilidad arbitraria. [9]

Para cualquier distribución de probabilidad de valor real con función de distribución acumulativa F , una mediana se define como cualquier número real  m que satisfaga las desigualdades  

Una redacción equivalente utiliza una variable aleatoria X distribuida según F :

Tenga en cuenta que esta definición no requiere que X tenga una distribución absolutamente continua (que tiene una función de densidad de probabilidad f ), ni requiere una discreta . En el primer caso, las desigualdades pueden elevarse a igualdad: una mediana satisface

Cualquier distribución de probabilidad en el conjunto de números reales tiene al menos una mediana, pero en casos patológicos puede haber más de una mediana: si F es constante 1/2 en un intervalo (de modo que f = 0 allí), entonces cualquier valor de esa el intervalo es una mediana.

Medianas de distribuciones particulares

Las medianas de ciertos tipos de distribuciones se pueden calcular fácilmente a partir de sus parámetros; además, existen incluso para algunas distribuciones que carecen de una media bien definida, como la distribución de Cauchy :

Propiedades

Propiedad de optimización

El error absoluto medio de una variable real c con respecto a la variable aleatoria  X es

Siempre que la distribución de probabilidad de X sea tal que exista la expectativa anterior, entonces m es una mediana de X si y solo si m es un minimizador del error absoluto medio con respecto a X. [11] En particular, si m es una mediana muestral, entonces minimiza la media aritmética de las desviaciones absolutas. [12] Tenga en cuenta, sin embargo, que en los casos en que la muestra contiene un número par de elementos, este minimizador no es único.

De manera más general, una mediana se define como un mínimo de

como se analiza más adelante en la sección sobre medianas multivariadas (específicamente, la mediana espacial ).

Esta definición de la mediana basada en optimización es útil en el análisis de datos estadísticos, por ejemplo, en la agrupación de k -medianas .

Desigualdad que relaciona medias y medianas

Comparación de la media , la mediana y la moda de dos distribuciones log-normales con diferente asimetría

Si la distribución tiene varianza finita, entonces la distancia entre la mediana y la media está limitada por una desviación estándar .

Esta limitación fue demostrada por Book y Sher en 1979 para muestras discretas, [13] y más generalmente por Page y Murty en 1982. [14] En un comentario sobre una prueba posterior de O'Cinneide, [15] Mallows en 1991 presentó una prueba compacta que utiliza la desigualdad de Jensen dos veces, [16] de la siguiente manera. Usando |·| para el valor absoluto tenemos

La primera y la tercera desigualdad provienen de la desigualdad de Jensen aplicada a la función de valor absoluto y a la función cuadrada, ambas convexas. La segunda desigualdad proviene del hecho de que una mediana minimiza la función de desviación absoluta .

La prueba de Mallows se puede generalizar para obtener una versión multivariada de la desigualdad [17] simplemente reemplazando el valor absoluto con una norma :

donde m es una mediana espacial , es decir, un minimizador de la función. La mediana espacial es única cuando la dimensión del conjunto de datos es dos o más. [18] [19]

Una prueba alternativa utiliza la desigualdad unilateral de Chebyshev; aparece en una desigualdad sobre los parámetros de ubicación y escala . Esta fórmula también se deriva directamente de la desigualdad de Cantelli . [20]

Distribuciones unimodales

Para el caso de distribuciones unimodales , se puede lograr un límite más definido en la distancia entre la mediana y la media:

. [21]

Una relación similar se cumple entre la mediana y la moda:

Desigualdad de Jensen para medianas

La desigualdad de Jensen establece que para cualquier variable aleatoria X con una expectativa finita E [ X ] y para cualquier función convexa f

Esta desigualdad también se generaliza a la mediana. Decimos que una función f : RR es una función C si, para cualquier t ,

es un intervalo cerrado (que permite los casos degenerados de un solo punto o un conjunto vacío ). Toda función convexa es una función C, pero lo contrario no se cumple. Si f es una función C, entonces

Si las medianas no son únicas, la afirmación es válida para la suprema correspondiente. [22]

Medianas para muestras

Cálculo eficiente de la mediana muestral.

Aunque la clasificación por comparación de n elementos requiere Ω ( n log n ) operaciones, los algoritmos de selección pueden calcular el k -ésimo más pequeño de n elementos con solo Θ( n ) operaciones. Esto incluye la mediana, que es lanorte/2estadístico de orden medio (o para un número par de muestras, la media aritmética de los dos estadísticos de orden medio). [23]

Los algoritmos de selección todavía tienen la desventaja de requerir memoria Ω( n ) , es decir, necesitan tener la muestra completa (o una porción de ella de tamaño lineal) en la memoria. Debido a que esto, así como el requisito de tiempo lineal, puede resultar prohibitivo, se han desarrollado varios procedimientos de estimación para la mediana. Una simple es la regla de la mediana de tres, que estima la mediana como la mediana de una submuestra de tres elementos; esto se usa comúnmente como una subrutina en el algoritmo de clasificación rápida , que utiliza una estimación de la mediana de su entrada. Un estimador más robusto es el noveno de Tukey , que es la mediana de tres reglas aplicadas con recursividad limitada: [24] si A es la muestra dispuesta como una matriz , y

med3( A ) = med( A [1], A [norte/2] , Un ] ) ,

entonces

noveno( A ) = med3(med3( A [1 ...1/3n ]), med3( A [1/3n ...2/3n ]), med3( A [2/3n ... n ]))

La mediana es un estimador de la mediana que requiere tiempo lineal pero memoria sublineal, operando en un solo paso sobre la muestra. [25]

Distribución muestral

Laplace determinó las distribuciones tanto de la media muestral como de la mediana muestral . [26] La distribución de la mediana muestral de una población con una función de densidad es asintóticamente normal con media y varianza [27]

donde es la mediana y es el tamaño de la muestra:


A continuación se presenta una prueba moderna. El resultado de Laplace se entiende ahora como un caso especial de distribución asintótica de cuantiles arbitrarios .

Para muestras normales, la densidad es , por lo tanto, para muestras grandes, la varianza de la mediana es igual a [7] (consulte también la sección #Eficiencia a continuación).

Derivación de la distribución asintótica.

Tomamos el tamaño de la muestra como un número impar y asumimos que nuestra variable es continua; La fórmula para el caso de variables discretas se proporciona a continuación en § Densidad local empírica. La muestra se puede resumir como "por debajo de la mediana", "en la mediana" y "por encima de la mediana", lo que corresponde a una distribución trinomial con probabilidades y . Para una variable continua, la probabilidad de que múltiples valores de muestra sean exactamente iguales a la mediana es 0, por lo que se puede calcular la densidad en el punto directamente a partir de la distribución trinomial:

.

Ahora presentamos la función beta. Para argumentos enteros y , esto se puede expresar como . Además, recuerda que . El uso de estas relaciones y el establecimiento de ambos y iguales a permite que la última expresión se escriba como

Por tanto, la función de densidad de la mediana es una distribución beta simétrica impulsada por . Su media, como era de esperar, es 0,5 y su varianza es . Según la regla de la cadena , la varianza correspondiente de la mediana muestral es

.

Los 2 adicionales son insignificantes en el límite .

Densidad local empírica

En la práctica, las funciones y funciones anteriores a menudo no se conocen ni se asumen. Sin embargo, pueden estimarse a partir de una distribución de frecuencias observada. En esta sección damos un ejemplo. Considere la siguiente tabla, que representa una muestra de 3800 observaciones (de valores discretos):

Debido a que las observaciones tienen valores discretos, construir la distribución exacta de la mediana no es una traducción inmediata de la expresión anterior para ; uno puede (y normalmente tiene) tener múltiples instancias de la mediana en su muestra. Entonces debemos resumir todas estas posibilidades:

Aquí, i es el número de puntos estrictamente menor que la mediana y k el número estrictamente mayor.

Utilizando estos preliminares, es posible investigar el efecto del tamaño de la muestra sobre los errores estándar de la media y la mediana. La media observada es 3,16, la mediana bruta observada es 3 y la mediana interpolada observada es 3,174. La siguiente tabla ofrece algunas estadísticas comparativas.

El valor esperado de la mediana cae ligeramente a medida que aumenta el tamaño de la muestra mientras que, como era de esperar, los errores estándar tanto de la mediana como de la media son proporcionales a la raíz cuadrada inversa del tamaño de la muestra. La aproximación asintótica peca de cautelosa al sobreestimar el error estándar.

Estimación de la varianza a partir de datos de muestra.

El valor de —el valor asintótico de dónde está la mediana poblacional— ha sido estudiado por varios autores. El método jackknife estándar de "eliminar uno" produce resultados inconsistentes . [28] Se ha demostrado que una alternativa, el método "eliminar k", donde crece con el tamaño de la muestra es asintóticamente consistente. [29] Este método puede resultar costoso desde el punto de vista computacional para grandes conjuntos de datos. Se sabe que una estimación bootstrap es consistente, [30] pero converge muy lentamente ( orden de ). [31] Se han propuesto otros métodos, pero su comportamiento puede diferir entre muestras grandes y pequeñas. [32]

Eficiencia

La eficiencia de la mediana muestral, medida como la relación entre la varianza de la media y la varianza de la mediana, depende del tamaño de la muestra y de la distribución poblacional subyacente. Para una muestra de tamaño de la distribución normal , la eficiencia para N grande es

La eficiencia tiende a infinito.

En otras palabras, la varianza relativa de la mediana será o 57% mayor que la varianza de la media; el error estándar relativo de la mediana será o 25% mayor que el error estándar de la media ( ver también la sección #Distribución muestral arriba.). [33]

Otros estimadores

Para distribuciones univariadas que son simétricas con respecto a una mediana, el estimador de Hodges-Lehmann es un estimador robusto y muy eficiente de la mediana poblacional. [34]

Si los datos están representados por un modelo estadístico que especifica una familia particular de distribuciones de probabilidad , entonces se pueden obtener estimaciones de la mediana ajustando esa familia de distribuciones de probabilidad a los datos y calculando la mediana teórica de la distribución ajustada. [ cita necesaria ] La interpolación de Pareto es una aplicación de esto cuando se supone que la población tiene una distribución de Pareto .

Mediana multivariada

Anteriormente, este artículo discutió la mediana univariada, cuando la muestra o población era unidimensional. Cuando la dimensión es dos o más, existen múltiples conceptos que amplían la definición de mediana univariante; cada una de estas medianas multivariadas concuerda con la mediana univariada cuando la dimensión es exactamente uno. [34] [35] [36] [37]

mediana marginal

La mediana marginal se define para vectores definidos con respecto a un conjunto fijo de coordenadas. Una mediana marginal se define como el vector cuyos componentes son medianas univariadas. La mediana marginal es fácil de calcular y sus propiedades fueron estudiadas por Puri y Sen. [34] [38]

mediana geométrica

La mediana geométrica de un conjunto discreto de puntos muestrales en un espacio euclidiano es el punto [a] que minimiza la suma de distancias a los puntos muestrales.

A diferencia de la mediana marginal, la mediana geométrica es equivariante con respecto a transformaciones de similitud euclidianas como traslaciones y rotaciones .

Mediana en todas las direcciones

Si las medianas marginales de todos los sistemas de coordenadas coinciden, entonces su ubicación común puede denominarse "mediana en todas las direcciones". [40] Este concepto es relevante para la teoría de la votación debido al teorema del votante mediano . Cuando existe, la mediana en todas las direcciones coincide con la mediana geométrica (al menos para distribuciones discretas).

Punto central

En estadística y geometría computacional , la noción de punto central es una generalización de la mediana a datos en el espacio euclidiano de dimensiones superiores . Dado un conjunto de puntos en un espacio d -dimensional, un punto central del conjunto es un punto tal que cualquier hiperplano que pase por ese punto divide el conjunto de puntos en dos subconjuntos aproximadamente iguales: la parte más pequeña debe tener al menos un 1/( d  + 1) fracción de los puntos. Al igual que la mediana, un punto central no tiene por qué ser uno de los puntos de datos. Todo conjunto de puntos no vacío (sin duplicados) tiene al menos un punto central.

Otros conceptos relacionados con la mediana

Mediana interpolada

Cuando se trata de una variable discreta, a veces resulta útil considerar los valores observados como puntos medios de intervalos continuos subyacentes. Un ejemplo de ello es la escala Likert , en la que se expresan opiniones o preferencias en una escala con un número determinado de respuestas posibles. Si la escala consta de números enteros positivos, se podría considerar que una observación de 3 representa el intervalo de 2,50 a 3,50. Es posible estimar la mediana de la variable subyacente. Si, digamos, el 22% de las observaciones tienen un valor de 2 o menos y el 55,0% son de 3 o menos (por lo que el 33% tiene el valor 3), entonces la mediana es 3 ya que la mediana es el valor más pequeño de para el cual es mayor. que la mitad. Pero la mediana interpolada está entre 2,50 y 3,50. Primero sumamos la mitad del ancho del intervalo a la mediana para obtener el límite superior del intervalo mediano. Luego restamos esa proporción del ancho del intervalo que es igual a la proporción del 33% que se encuentra por encima de la marca del 50%. En otras palabras, dividimos el ancho del intervalo proporcionalmente al número de observaciones. En este caso, el 33% se divide en 28% por debajo de la mediana y 5% por encima de ella, por lo que restamos 5/33 del ancho del intervalo del límite superior de 3,50 para obtener una mediana interpolada de 3,35. Más formalmente, si se conocen los valores, la mediana interpolada se puede calcular a partir de

Alternativamente, si en una muestra observada hay puntuaciones por encima de la categoría mediana, puntuaciones en ella y puntuaciones por debajo de ella, entonces la mediana interpolada viene dada por

Pseudo-mediana

Para distribuciones univariadas que son simétricas con respecto a una mediana, el estimador de Hodges-Lehmann es un estimador robusto y muy eficiente de la mediana poblacional; para distribuciones no simétricas, el estimador de Hodges-Lehmann es un estimador robusto y altamente eficiente de la pseudomediana poblacional , que es la mediana de una distribución simetrizada y que está cerca de la mediana poblacional. [41] El estimador de Hodges-Lehmann se ha generalizado a distribuciones multivariadas. [42]

Variantes de regresión

El estimador de Theil-Sen es un método de regresión lineal robusta basado en la búsqueda de medianas de pendientes . [43]

Filtro mediano

El filtro mediano es una herramienta importante de procesamiento de imágenes , que puede eliminar eficazmente cualquier ruido de sal y pimienta de las imágenes en escala de grises .

Análisis de conglomerados

En el análisis de conglomerados , el algoritmo de agrupación de k-medianas proporciona una forma de definir conglomerados, en el que el criterio de maximizar la distancia entre las medias de los conglomerados que se utiliza en la agrupación de k-medias se reemplaza por maximizar la distancia entre las medianas de los conglomerados.

Línea mediana-mediana

Este es un método de regresión robusta. La idea se remonta a Wald en 1940, quien sugirió dividir un conjunto de datos bivariados en dos mitades dependiendo del valor del parámetro independiente : una mitad izquierda con valores menores que la mediana y una mitad derecha con valores mayores que la mediana. [44] Sugirió tomar las medias de las variables dependientes e independientes de las mitades izquierda y derecha y estimar la pendiente de la línea que une estos dos puntos. Luego, la línea podría ajustarse para que se ajuste a la mayoría de los puntos del conjunto de datos.

Nair y Shrivastava en 1942 sugirieron una idea similar, pero en cambio abogaron por dividir la muestra en tres partes iguales antes de calcular las medias de las submuestras. [45] Brown y Mood en 1951 propusieron la idea de utilizar las medianas de dos submuestras en lugar de las medias. [46] Tukey combinó estas ideas y recomendó dividir la muestra en tres submuestras de igual tamaño y estimar la línea en función de las medianas de las submuestras. [47]

Estimadores insesgados de mediana

Cualquier estimador insesgado de media minimiza el riesgo ( pérdida esperada ) con respecto a la función de pérdida de error al cuadrado , como lo observa Gauss . Un estimador insesgado de mediana minimiza el riesgo con respecto a la función de pérdida de desviación absoluta , como observó Laplace . Otras funciones de pérdida se utilizan en la teoría estadística , particularmente en estadísticas sólidas .

La teoría de los estimadores insesgados de la mediana fue revivida por George W. Brown en 1947: [48]

Se dirá que una estimación de un parámetro unidimensional θ es medianamente insesgada si, para θ fijo, la mediana de la distribución de la estimación está en el valor θ; es decir, la estimación subestima con tanta frecuencia como sobreestima. Para la mayoría de los propósitos, este requisito parece cumplir tanto como el requisito insesgado de media y tiene la propiedad adicional de que es invariante bajo transformación uno a uno.

—  página 584

Se han informado otras propiedades de los estimadores insesgados de la mediana. [49] [50] [51] [52] Los estimadores insesgados de mediana son invariantes bajo transformaciones uno a uno .

Existen métodos para construir estimadores insesgados de mediana que son óptimos (en un sentido análogo a la propiedad de varianza mínima para estimadores insesgados de media). Tales construcciones existen para distribuciones de probabilidad que tienen funciones de probabilidad monótonas . [53] [54] Uno de esos procedimientos es un análogo del procedimiento de Rao-Blackwell para estimadores insesgados de media: el procedimiento es válido para una clase más pequeña de distribuciones de probabilidad que el procedimiento de Rao-Blackwell, pero para una clase más grande de funciones de pérdida . [55]

Historia

Los investigadores científicos del antiguo Cercano Oriente parecen no haber utilizado estadísticas resumidas en absoluto, sino que eligieron valores que ofrecían la máxima coherencia con una teoría más amplia que integraba una amplia variedad de fenómenos. [56] Dentro de la comunidad académica mediterránea (y, más tarde, europea), las estadísticas como la media son fundamentalmente un desarrollo medieval y moderno temprano. (La historia de la mediana fuera de Europa y sus predecesoras sigue estando relativamente poco estudiada).

La idea de mediana apareció en el siglo VI en el Talmud , con el fin de analizar con justicia valoraciones divergentes . [57] [58] Sin embargo, el concepto no se extendió a la comunidad científica en general.

En cambio, el ancestro más cercano de la mediana moderna es la de rango medio , inventada por Al-Biruni [59] : 31  [60] La transmisión de su trabajo a estudiosos posteriores no está clara. Aplicó su técnica al análisis de metales monetarios, pero, después de publicar su trabajo, la mayoría de los ensayadores todavía adoptaron el valor más desfavorable de sus resultados, para que no pareciera que estaban haciendo trampa . [59] : 35–8  [61] Sin embargo, el aumento de la navegación en el mar durante la Era de los Descubrimientos significó que los navegantes de los barcos tuvieran cada vez más que intentar determinar la latitud en condiciones climáticas desfavorables contra costas hostiles, lo que llevó a un renovado interés en las estadísticas resumidas. Ya sea redescubierto o inventado de forma independiente, el rango medio se recomienda a los navegantes náuticos en las "Instrucciones para el viaje de Raleigh a Guayana, 1595" de Harriot. [59] : 45-8 

La idea de la mediana puede haber aparecido por primera vez en el libro de Edward Wright de 1599, Ciertos errores en la navegación, en una sección sobre navegación con brújula . [62] Wright se mostró reacio a descartar los valores medidos y pudo haber sentido que la mediana (que incorpora una mayor proporción del conjunto de datos que el rango medio ) tenía más probabilidades de ser correcta. Sin embargo, Wright no dio ejemplos del uso de su técnica, lo que dificulta verificar que describiera la noción moderna de mediana. [56] [60] [b] La mediana (en el contexto de la probabilidad) ciertamente apareció en la correspondencia de Christiaan Huygens , pero como un ejemplo de estadística que era inapropiada para la práctica actuarial . [56]

La primera recomendación de la mediana data de 1757, cuando Roger Joseph Boscovich desarrolló un método de regresión basado en la norma L 1 y, por tanto, implícitamente en la mediana. [56] [63] En 1774, Laplace hizo explícito este deseo: sugirió que se utilizara la mediana como estimador estándar del valor de una FDP posterior . El criterio específico fue minimizar la magnitud esperada del error; donde está la estimación y es el valor real. Con este fin, Laplace determinó las distribuciones tanto de la media muestral como de la mediana muestral a principios del siglo XIX. [26] [64] Sin embargo, una década después, Gauss y Legendre desarrollaron el método de mínimos cuadrados , que minimiza para obtener la media. En el contexto de la regresión, la innovación de Gauss y Legendre ofrece un cálculo mucho más sencillo. En consecuencia, la propuesta de Laplaces fue generalmente rechazada hasta el surgimiento de los dispositivos informáticos 150 años después (y sigue siendo un algoritmo relativamente poco común). [sesenta y cinco]

Antoine Augustin Cournot en 1843 fue el primero [66] en utilizar el término mediana ( valeur médiane ) para el valor que divide una distribución de probabilidad en dos mitades iguales. Gustav Theodor Fechner utilizó la mediana ( Centralwerth ) en fenómenos sociológicos y psicológicos. [67] Anteriormente se había utilizado sólo en astronomía y campos relacionados. Gustav Fechner popularizó la mediana en el análisis formal de datos, aunque ya había sido utilizada anteriormente por Laplace, [67] y la mediana apareció en un libro de texto de FY Edgeworth . [68] Francis Galton utilizó el término inglés mediana en 1881, [69] [70] habiendo utilizado anteriormente los términos valor medio en 1869 y medio en 1880. [71] [72]

Los estadísticos alentaron intensamente el uso de medianas durante todo el siglo XIX por su claridad intuitiva. Sin embargo, la noción de mediana no se presta a la teoría de momentos superiores tan bien como lo hace la media aritmética , y es mucho más difícil de calcular. Como resultado, la mediana fue suplantada constantemente como noción de promedio genérico por la media aritmética durante el siglo XX. [56] [60]

Ver también

Notes

  1. ^ The geometric median is unique unless the sample is collinear.[39]
  2. ^ Subsequent scholars appear to concur with Eisenhart that Boroughs' 1580 figures, while suggestive of the median, in fact describe an arithmetic mean.;[59]: 62–3  Boroughs is mentioned in no other work.

References

  1. ^ a b Weisstein, Eric W. "Statistical Median". MathWorld.
  2. ^ Simon, Laura J.; "Descriptive statistics" Archived 2010-07-30 at the Wayback Machine, Statistical Education Resource Kit, Pennsylvania State Department of Statistics
  3. ^ a b Derek Bissell (1994). Statistical Methods for Spc and Tqm. CRC Press. pp. 26–. ISBN 978-0-412-39440-9. Retrieved 25 February 2013.
  4. ^ David J. Sheskin (27 August 2003). Handbook of Parametric and Nonparametric Statistical Procedures (Third ed.). CRC Press. p. 7. ISBN 978-1-4200-3626-8. Retrieved 25 February 2013.
  5. ^ Paul T. von Hippel (2005). "Mean, Median, and Skew: Correcting a Textbook Rule". Journal of Statistics Education. 13 (2). Archived from the original on 2008-10-14. Retrieved 2015-06-18.
  6. ^ Robson, Colin (1994). Experiment, Design and Statistics in Psychology. Penguin. pp. 42–45. ISBN 0-14-017648-9.
  7. ^ a b Williams, D. (2001). Weighing the Odds. Cambridge University Press. p. 165. ISBN 052100618X.
  8. ^ Maindonald, John; Braun, W. John (2010-05-06). Data Analysis and Graphics Using R: An Example-Based Approach. Cambridge University Press. p. 104. ISBN 978-1-139-48667-5.
  9. ^ "Revisión de estadísticas AP: curvas de densidad y distribuciones normales". Archivado desde el original el 8 de abril de 2015 . Consultado el 16 de marzo de 2015 .
  10. ^ Newman, MEJ (2005). "Leyes de potencia, distribuciones de Pareto y ley de Zipf". Física Contemporánea . 46 (5): 323–351. arXiv : cond-mat/0412004 . Código Bib : 2005ConPh..46..323N. doi :10.1080/00107510500052444. S2CID  2871747.
  11. ^ Stroock, Daniel (2011). Teoría de probabilidad . Prensa de la Universidad de Cambridge. págs.43. ISBN 978-0-521-13250-3.
  12. ^ DeGroot, Morris H. (1970). Decisiones estadísticas óptimas. McGraw-Hill Book Co., Nueva York-Londres-Sídney. pag. 232.ISBN _ 9780471680291. SEÑOR  0356303.
  13. ^ Stephen A. Libro; Lawrence Sher (1979). "¿Qué tan cerca están la media y la mediana?". Revista universitaria de matemáticas de dos años . 10 (3): 202–204. doi :10.2307/3026748. JSTOR  3026748 . Consultado el 12 de marzo de 2022 .
  14. ^ Página de Warren; Védula N. Murty (1982). "Relaciones de cercanía entre medidas de tendencia central y dispersión: parte 1". Revista universitaria de matemáticas de dos años . 13 (5): 315–327. doi :10.1080/00494925.1982.11972639 (inactivo el 31 de enero de 2024) . Consultado el 12 de marzo de 2022 .{{cite journal}}: CS1 maint: DOI inactive as of January 2024 (link)
  15. ^ O'Cinneide, Colm Art (1990). "La media está dentro de una desviación estándar de cualquier mediana". El estadístico estadounidense . 44 (4): 292–293. doi : 10.1080/00031305.1990.10475743 . Consultado el 12 de marzo de 2022 .
  16. ^ Malvas, Colin (agosto de 1991). "Otro comentario sobre O'Cinneide". El estadístico estadounidense . 45 (3): 257. doi : 10.1080/00031305.1991.10475815.
  17. ^ Piché, Robert (2012). Vectores aleatorios y secuencias aleatorias . Publicación académica Lambert. ISBN 978-3659211966.
  18. ^ Kemperman, Johannes HB (1987). Esquivar, Yadolah (ed.). "La mediana de una medida finita en un espacio de Banach: análisis de datos estadísticos basado en la norma L1 y métodos relacionados". Artículos de la Primera Conferencia Internacional celebrada en Neuchâtel del 31 de agosto al 4 de septiembre de 1987 . Ámsterdam: North-Holland Publishing Co.: 217–230. SEÑOR  0949228.
  19. ^ Milasevic, Felipe; Ducharme, Gilles R. (1987). "Singularidad de la mediana espacial". Anales de Estadística . 15 (3): 1332-1333. doi : 10.1214/aos/1176350511 . SEÑOR  0902264.
  20. ^ K.Van Steen Notas sobre probabilidad y estadística
  21. ^ Basu, S.; Dasgupta, A. (1997). "La media, la mediana y la moda de las distribuciones unimodales: una caracterización". Teoría de la probabilidad y sus aplicaciones . 41 (2): 210–223. doi :10.1137/S0040585X97975447. S2CID  54593178.
  22. ^ Merkle, M. (2005). "La desigualdad de Jensen para las medianas". Cartas de estadística y probabilidad . 71 (3): 277–281. doi :10.1016/j.spl.2004.11.010.
  23. ^ Alfred V. Aho, John E. Hopcroft y Jeffrey D. Ullman (1974). El diseño y análisis de algoritmos informáticos . Lectura/MA: Addison-Wesley. ISBN 0-201-00029-6.Aquí: Sección 3.6 "Estadísticas de pedidos", páginas 97-99, en particular el Algoritmo 3.6 y el Teorema 3.9.
  24. ^ Bentley, Jon L.; McIlroy, M. Douglas (1993). "Ingeniería de una función de clasificación". Software: práctica y experiencia . 23 (11): 1249-1265. doi : 10.1002/spe.4380231105. S2CID  8822797.
  25. ^ Rousseeuw, Peter J.; Bassett, Gilbert W. Jr. (1990). "The remedian: un método de promedio sólido para grandes conjuntos de datos" (PDF) . J.Amer. Estadístico. Asociación . 85 (409): 97-104. doi :10.1080/01621459.1990.10475311.
  26. ^ ab Stigler, Stephen (diciembre de 1973). "Estudios de Historia de la Probabilidad y Estadística. XXXII: Laplace, Fisher y el descubrimiento del concepto de suficiencia". Biometrika . 60 (3): 439–445. doi :10.1093/biomet/60.3.439. JSTOR  2334992. SEÑOR  0326872.
  27. ^ Jinete, Paul R. (1960). "Varianza de la mediana de muestras pequeñas de varias poblaciones especiales". J.Amer. Estadístico. Asociación. 55 (289): 148-150. doi :10.1080/01621459.1960.10482056.
  28. ^ Efrón, B. (1982). "El Jackknife, el Bootstrap y otros planes de remuestreo ". Filadelfia: SIAM. ISBN 0898711797.
  29. ^ Shao, J.; Wu, CF (1989). "Una teoría general para la estimación de la varianza Jackknife". Ana. Estadística. 17 (3): 1176-1197. doi : 10.1214/aos/1176347263 . JSTOR  2241717.
  30. ^ Efron, B. (1979). "Métodos Bootstrap: otra mirada al Jackknife". Ana. Estadística. 7 (1): 1–26. doi : 10.1214/aos/1176344552 . JSTOR  2958830.
  31. ^ Salón, P.; Martín, MA (1988). "Tasa de convergencia exacta del estimador de varianza cuantil Bootstrap". Campos relacionados con la teoría de probabilidades . 80 (2): 261–268. doi : 10.1007/BF00356105 . S2CID  119701556.
  32. ^ Jiménez-Gamero, MD; Muñoz-García, J.; Pino-Mejías, R. (2004). "Bootstrap reducido para la mediana". Estadística Sínica . 14 (4): 1179-1198.
  33. ^ Maindonald, John; John Braun, W. (6 de mayo de 2010). Análisis de datos y gráficos utilizando R: un enfoque basado en ejemplos. Prensa de la Universidad de Cambridge. ISBN 9781139486675.
  34. ^ a b C Hettmansperger, Thomas P.; McKean, Joseph W. (1998). Métodos estadísticos no paramétricos robustos . Biblioteca de estadística de Kendall. vol. 5. Londres: Edward Arnold. ISBN 0-340-54937-8. SEÑOR  1604954.
  35. ^ Small, Christopher G. "Un estudio de medianas multidimensionales". Revista estadística internacional/Revue Internationale de Statistique (1990): 263–277. doi : 10.2307/1403809 JSTOR  1403809
  36. ^ Niinimaa, A. y H. Oja. "Mediana multivariada". Enciclopedia de ciencias estadísticas (1999).
  37. ^ Mosler, Karl. Dispersión multivariada, regiones centrales y profundidad: el enfoque de elevación zonoidal. vol. 165. Springer Science & Business Media, 2012.
  38. ^ Puri, Madan L.; Sen, Pranab K.; Métodos no paramétricos en análisis multivariado , John Wiley & Sons, Nueva York, NY, 1971. (Reimpreso por Krieger Publishing)
  39. ^ Vardi, Yehuda; Zhang, Cun-Hui (2000). "La mediana L1 multivariante y la profundidad de datos asociada". Actas de la Academia Nacional de Ciencias de los Estados Unidos de América . 97 (4): 1423-1426 (electrónico). Código Bib : 2000PNAS...97.1423V. doi : 10.1073/pnas.97.4.1423 . SEÑOR  1740461. PMC 26449 . PMID  10677477. 
  40. ^ Davis, Otto A.; DeGroot, Morris H.; Hinich, Melvin J. (enero de 1972). "Ordenes de preferencia social y gobierno de la mayoría" (PDF) . Econométrica . 40 (1): 147-157. doi :10.2307/1909727. JSTOR  1909727.Los autores, trabajando en un tema en el que se supone la unicidad, en realidad utilizan la expresión " mediana única en todas las direcciones".
  41. ^ Pratt, William K.; Cooper, Ted J.; Kabir, Ihtisham (11 de julio de 1985). Corbett, Francis J (ed.). "Filtro pseudomediano". Arquitecturas y Algoritmos para el Procesamiento de Imágenes Digitales II . 0534 : 34. Código bibliográfico : 1985SPIE..534...34P. doi : 10.1117/12.946562. S2CID  173183609.
  42. ^ Oja, Hannu (2010). Métodos multivariados no paramétricos con  R : Un enfoque basado en signos y rangos espaciales . Apuntes de conferencias sobre estadística. vol. 199. Nueva York, Nueva York: Springer. págs. xiv+232. doi :10.1007/978-1-4419-0468-3. ISBN 978-1-4419-0467-6. SEÑOR  2598854.
  43. ^ Wilcox, Rand R. (2001), "Estimador de Theil-Sen", Fundamentos de los métodos estadísticos modernos: mejora sustancial del poder y la precisión, Springer-Verlag, págs. 207-210, ISBN 978-0-387-95157-7.
  44. ^ Wald, A. (1940). "El ajuste de líneas rectas si ambas variables están sujetas a error" (PDF) . Anales de estadística matemática . 11 (3): 282–300. doi : 10.1214/aoms/1177731868 . JSTOR  2235677.
  45. ^ Nair, KR; Shrivastava, diputado (1942). "Sobre un método simple de ajuste de curvas". Sankhyā: La revista india de estadística . 6 (2): 121-132. JSTOR  25047749.
  46. ^ Marrón, GW; Estado de ánimo, AM (1951). "Sobre pruebas de mediana para hipótesis lineales". Proc Segundo Simposio de Berkeley sobre estadística matemática y probabilidad . Berkeley, CA: Prensa de la Universidad de California. págs. 159-166. Zbl  0045.08606.
  47. ^ Tukey, JW (1977). Análisis exploratorio de datos. Lectura, MA: Addison-Wesley. ISBN 0201076160.
  48. ^ Marrón, George W. (1947). "Sobre la estimación de muestras pequeñas". Anales de estadística matemática . 18 (4): 582–585. doi : 10.1214/aoms/1177730349 . JSTOR  2236236.
  49. ^ Lehmann, Erich L. (1951). "Un concepto general de imparcialidad". Anales de estadística matemática . 22 (4): 587–592. doi : 10.1214/aoms/1177729549 . JSTOR  2236928.
  50. ^ Birnbaum, Allan (1961). "Una teoría unificada de la estimación, I". Anales de estadística matemática . 32 (1): 112-135. doi : 10.1214/aoms/1177705145 . JSTOR  2237612.
  51. ^ van der Vaart, H. Robert (1961). "Algunas extensiones de la idea de sesgo". Anales de estadística matemática . 32 (2): 436–447. doi : 10.1214/aoms/1177705051 . JSTOR  2237754. SEÑOR  0125674.
  52. ^ Pfanzagl, Johann; con la ayuda de R. Hamböker (1994). Teoría estadística paramétrica . Walter de Gruyter. ISBN 3-11-013863-8. SEÑOR  1291393.
  53. ^ Pfanzagl, Johann. "Sobre estimadores insesgados de mediana óptima en presencia de parámetros molestos". Los Anales de Estadística (1979): 187–193.
  54. ^ Marrón, LD; Cohen, Arturo; Strawderman, NOSOTROS (1976). "Un teorema de clase completo para una relación de verosimilitud estricta y monótona con aplicaciones". Ana. Estatista . 4 (4): 712–722. doi : 10.1214/aos/1176343543 .
  55. ^ Página; Marrón, LD; Cohen, Arturo; Strawderman, NOSOTROS (1976). "Un teorema de clase completo para una relación de verosimilitud estricta y monótona con aplicaciones". Ana. Estatista . 4 (4): 712–722. doi : 10.1214/aos/1176343543 .
  56. ^ abcde Bakker, Arthur; Gravemeijer, Koeno PE (1 de junio de 2006). "Una fenomenología histórica de la media y la mediana". Estudios Educativos en Matemáticas . 62 (2): 149-168. doi :10.1007/s10649-006-7099-8. ISSN  1573-0816. S2CID  143708116.
  57. ^ Adler, Dan (31 de diciembre de 2014). "Talmud y economía moderna". Cuestiones judías estadounidenses e israelíes . Archivado desde el original el 6 de diciembre de 2015 . Consultado el 22 de febrero de 2020 .
  58. ^ Teoría económica moderna en el Talmud de Yisrael Aumann
  59. ^ abcd Eisenhart, Churchill (24 de agosto de 1971). El desarrollo del concepto de mejor media de un conjunto de medidas desde la antigüedad hasta la actualidad (PDF) (Discurso). 131ª Reunión Anual de la Asociación Estadounidense de Estadística. Universidad Estatal de Colorado.
  60. ^ abc "Cómo el promedio triunfó sobre la mediana". Priceonomía . 5 de abril de 2016 . Consultado el 23 de febrero de 2020 .
  61. ^ Sangster, Alan (marzo de 2021). "La vida y obra de Luca Pacioli (1446/7-1517), educador humanista". Ábaco . 57 (1): 126-152. doi :10.1111/abac.12218. hdl : 2164/16100 . ISSN  0001-3072. S2CID  233917744.
  62. ^ Wright, Eduardo; Parsons, EJS; Morris, WF (1939). "Edward Wright y su obra". Imago Mundi . 3 : 61–71. doi :10.1080/03085693908591862. ISSN  0308-5694. JSTOR  1149920.
  63. ^ Stigler, SM (1986). La historia de la estadística: la medición de la incertidumbre antes de 1900. Prensa de la Universidad de Harvard. ISBN 0674403401.
  64. ^ Laplace PS de (1818) Deuxième supplément à la Théorie Analytique des Probabilités , París, Courcier
  65. ^ Jaynes, et (2007). Teoría de la probabilidad: la lógica de la ciencia (5. ed. impresa). Cambridge [ua]: Universidad de Cambridge. Prensa. pag. 172.ISBN _ 978-0-521-59271-0.
  66. ^ Howarth, Richard (2017). Diccionario de geociencias matemáticas: con notas históricas . Saltador. pag. 374.
  67. ^ ab Keynes, JM (1921) Tratado sobre probabilidad . Pt II Ch XVII §5 (p. 201) (reimpresión de 2006, Cosimo Classics, ISBN 9781596055308  : varias otras reimpresiones) 
  68. ^ Stigler, Stephen M. (2002). Estadísticas sobre la mesa: la historia de los conceptos y métodos estadísticos. Prensa de la Universidad de Harvard. págs. 105–7. ISBN 978-0-674-00979-0.
  69. ^ Galton F (1881) "Informe del Comité Antropométrico", págs. 245-260. Informe de la 51ª Reunión de la Asociación Británica para el Avance de la Ciencia
  70. ^ David, HA (1995). "Primera (?) aparición de términos comunes en estadística matemática". El estadístico estadounidense . 49 (2): 121-133. doi :10.2307/2684625. ISSN  0003-1305. JSTOR  2684625.
  71. ^ encyclopediaofmath.org
  72. ^ personal.psu.edu

enlaces externos

Este artículo incorpora material de Median de una distribución en PlanetMath , que tiene la licencia Creative Commons Attribution/Share-Alike License .