stringtranslate.com

Estadísticas de verosimilitud

La estadística verosimilista o verosimilismo es un enfoque de la estadística que utiliza exclusivamente o principalmente la función de verosimilitud . La estadística verosimilista es una escuela más menor que los enfoques principales de la estadística bayesiana y la estadística frecuentista , pero tiene algunos adeptos y aplicaciones. La idea central del verosimilismo es el principio de verosimilitud : los datos se interpretan como evidencia , y la fuerza de la evidencia se mide por la función de verosimilitud. Más allá de esto, existen diferencias significativas dentro de los enfoques de verosimilitud: los verosimilistas "ortodoxos" consideran los datos solo como evidencia, y no los usan como base de la inferencia estadística , mientras que otros hacen inferencias basadas en la verosimilitud, pero sin usar la inferencia bayesiana o la inferencia frecuentista . Por lo tanto, el verosimilismo es criticado por no proporcionar una base para la creencia o la acción (si no logra hacer inferencias) o por no satisfacer los requisitos de estas otras escuelas.

La función de verosimilitud también se utiliza en las estadísticas bayesianas y frecuentistas, pero difieren en su uso. Algunos verosimilistas consideran que su uso de la verosimilitud es una alternativa a otros enfoques, mientras que otros la consideran complementaria y compatible con otros enfoques; véase § Relación con otras teorías.

Relación con otras teorías

Si bien el verosimilitud es un enfoque distinto de la inferencia estadística, se puede relacionar con otras teorías y metodologías de la estadística o contrastar con ellas. A continuación se presentan algunas conexiones notables:

  1. Estadística bayesiana: la estadística bayesiana es un enfoque alternativo a la inferencia estadística que incorpora información previa y la actualiza utilizando datos observados para obtener probabilidades posteriores. El verosimilitud y la estadística bayesiana son compatibles en el sentido de que ambos métodos utilizan la función de probabilidad. Sin embargo, difieren en su tratamiento de la información previa. La estadística bayesiana incorpora creencias previas en el análisis de forma explícita, mientras que el verosimilitud se centra únicamente en la función de probabilidad sin especificar una distribución previa.
  2. Estadísticas frecuentistas: las estadísticas frecuentistas, también conocidas como inferencia clásica o frecuentista, son otro marco importante para el análisis estadístico. Los métodos frecuentistas enfatizan las propiedades del muestreo repetido y se centran en conceptos como imparcialidad, consistencia y prueba de hipótesis. El verosimilitud puede considerarse una desviación de los métodos frecuentistas tradicionales, ya que coloca la función de probabilidad en el centro de la inferencia estadística. Los métodos basados ​​en la verosimilitud proporcionan un puente entre la perspectiva verosimilista y los enfoques frecuentistas al utilizar razones de verosimilitud para probar hipótesis y construir intervalos de confianza.
  3. Estadística fisheriana: el verosimilismo tiene profundas conexiones con la filosofía estadística de Ronald Fisher . [1] Fisher introdujo el concepto de verosimilitud y su maximización como criterio para estimar parámetros. El enfoque de Fisher enfatizó el concepto de suficiencia y la estimación de máxima verosimilitud (MLE). El verosimilismo puede verse como una extensión de la estadística fisheriana, que refina y expande el uso de la verosimilitud en la inferencia estadística.
  4. Teoría de la información : La teoría de la información, desarrollada por Claude Shannon, proporciona un marco matemático para cuantificar el contenido y la comunicación de la información. El concepto de entropía en la teoría de la información tiene conexiones con la función de verosimilitud y el criterio AIC. El AIC, que incorpora un término de penalización por complejidad del modelo, puede considerarse un enfoque teórico de la información para la selección de modelos y equilibra el ajuste del modelo con la complejidad del mismo.
  5. Teoría de la decisión : La teoría de la decisión combina la inferencia estadística con la toma de decisiones en condiciones de incertidumbre. Considera el equilibrio entre los riesgos y las pérdidas potenciales en los procesos de toma de decisiones. El verosimilitud se puede integrar con la teoría de la decisión para tomar decisiones basadas en la función de probabilidad, como elegir el modelo con la mayor probabilidad o evaluar diferentes opciones de decisión en función de sus probabilidades asociadas.

Crítica

Si bien las estadísticas basadas en la probabilidad se han utilizado ampliamente y tienen muchas ventajas, no están exentas de críticas. A continuación, se presentan algunas críticas comunes a las estadísticas verosímiles:

  1. Dependencia del modelo: la inferencia basada en la probabilidad depende en gran medida de la elección de un modelo estadístico específico. [2] Si el modelo elegido no representa con precisión el verdadero proceso subyacente de generación de datos, las estimaciones e inferencias resultantes pueden estar sesgadas o ser engañosas. La especificación incorrecta del modelo puede llevar a conclusiones incorrectas, especialmente en escenarios complejos del mundo real donde el modelo verdadero puede ser desconocido o difícil de capturar.
  2. Dificultad de interpretación: las estadísticas basadas en la verosimilitud se centran en optimizar la función de verosimilitud para estimar parámetros, pero es posible que no proporcionen estimaciones intuitivas o fácilmente interpretables. Los parámetros estimados pueden no tener una interpretación directa y significativa en el contexto del problema que se estudia. Esto puede dificultar que los profesionales comuniquen los resultados a audiencias no técnicas o tomen decisiones prácticas basadas en las estimaciones.
  3. Sensibilidad al tamaño de la muestra : los métodos basados ​​en la verosimilitud pueden ser sensibles al tamaño de la muestra de los datos. En situaciones con tamaños de muestra pequeños, la función de verosimilitud puede ser muy variable, lo que genera estimaciones inestables. Esta inestabilidad también puede afectar el proceso de selección del modelo, ya que la prueba de razón de verosimilitud o los criterios de información pueden no funcionar bien cuando los tamaños de muestra son pequeños.
  4. Supuesto de independencia: la inferencia basada en la probabilidad suele suponer que los datos observados son independientes y se distribuyen de manera idéntica (IID). Sin embargo, en muchos escenarios del mundo real, los puntos de datos pueden presentar dependencia o correlación. Ignorar esta dependencia puede dar lugar a estimaciones sesgadas o pruebas de hipótesis inexactas.
  5. Falta de robustez: los métodos basados ​​en la probabilidad no siempre son robustos ante violaciones de los supuestos del modelo o ante valores atípicos en los datos. Si los datos se desvían de la distribución asumida o si hay observaciones extremas, las estimaciones pueden verse muy influenciadas por estos valores atípicos, lo que genera resultados poco confiables.
  6. Complejidad computacional: la estimación de parámetros basados ​​en funciones de verosimilitud puede requerir un uso intensivo de recursos computacionales, especialmente para modelos complejos, conjuntos de datos grandes o sistemas altamente no lineales. [3] Los algoritmos de optimización utilizados para maximizar la función de verosimilitud pueden requerir recursos computacionales sustanciales o pueden no converger al máximo global, lo que genera estimaciones subóptimas.
  7. Falta de cuantificación de la incertidumbre: la inferencia basada en la probabilidad a menudo proporciona estimaciones puntuales de parámetros sin cuantificación explícita de la incertidumbre. Si bien se pueden utilizar técnicas como los intervalos de confianza o los errores estándar para aproximar la incertidumbre, se basan en suposiciones que no siempre se cumplen. Los métodos bayesianos, por otro lado, proporcionan un marco más formal y coherente para la cuantificación de la incertidumbre.

Historia

El verosimilismo como escuela diferenciada se remonta a Edwards (1972), que ofrece un tratamiento sistemático de las estadísticas basado en la probabilidad. Esto se basó en trabajos anteriores importantes; véase Dempster (1972) para una revisión contemporánea.

Si bien la comparación de proporciones de probabilidades se remonta a las primeras estadísticas y probabilidades, en particular a la inferencia bayesiana desarrollada por Pierre-Simon Laplace a fines del siglo XVIII, la verosimilitud como concepto diferenciado se debe a Ronald Fisher en Fisher (1921). La verosimilitud desempeñó un papel importante en las estadísticas de Fisher, pero también desarrolló y utilizó muchas técnicas frecuentistas de no verosimilitud. Sus escritos posteriores, en particular Fisher (1955), enfatizan más la verosimilitud y pueden considerarse precursores de una teoría sistemática del verosimilitudismo.

El principio de verosimilitud fue propuesto en 1962 por varios autores, en particular Barnard, Jenkins y Winsten (1962), Birnbaum (1962) y Savage (1962), y seguido por la ley de verosimilitud en Hacking (1965); estos autores sentaron las bases del verosimilismo. Véase Principio de verosimilitud § Historia para conocer los antecedentes.

Mientras que la versión de Edwards del verosimilitud consideraba la verosimilitud como única evidencia, lo que fue seguido por Royall (1997), otros propusieron la inferencia basada únicamente en la verosimilitud, en particular como extensiones de la estimación de máxima verosimilitud. Cabe destacar a John Nelder , quien declaró en Nelder (1999, p. 264):

Al menos una vez al año oigo a alguien decir en una reunión que hay dos modos de inferencia: frecuentista y bayesiano. El hecho de que este tipo de tonterías se propaguen con tanta regularidad muestra lo mucho que nos queda por hacer. Para empezar, existe una floreciente escuela de inferencia de probabilidad, a la que pertenezco.

Entre los libros de texto que adoptan un enfoque verosímil se incluyen los siguientes: Kalbfleisch (1985), Azzalini (1996), Pawitan (2001), Rohde (2014) y Held & Sabanés Bové (2014). Taper & Lele (2004) ofrecen una colección de artículos relevantes.

Véase también

Referencias

  1. ^ Efron, B. (febrero de 1986). "¿Por qué no todo el mundo es bayesiano?". The American Statistician . 40 (1): 1. doi :10.2307/2683105. ISSN  0003-1305.
  2. ^ Fitelson, Branden (24 de marzo de 2007). "Verosimilitud, bayesianismo y confirmación relacional". Síntesis . 156 (3): 473–489. doi :10.1007/s11229-006-9134-9. ISSN  0039-7857.
  3. ^ Drignei, Dorin; Forest, Chris E.; Nychka, Doug (1 de diciembre de 2008). "Estimación de parámetros para regresión no lineal de alto rendimiento computacional con una aplicación al modelado climático". Anales de estadística aplicada . 2 (4). arXiv : 0901.3665 . doi :10.1214/08-aoas210. ISSN  1932-6157.

Lectura adicional

Enlaces externos