La estadística verosimilista o verosimilismo es un enfoque de la estadística que utiliza exclusivamente o principalmente la función de verosimilitud . La estadística verosimilista es una escuela más menor que los enfoques principales de la estadística bayesiana y la estadística frecuentista , pero tiene algunos adeptos y aplicaciones. La idea central del verosimilismo es el principio de verosimilitud : los datos se interpretan como evidencia , y la fuerza de la evidencia se mide por la función de verosimilitud. Más allá de esto, existen diferencias significativas dentro de los enfoques de verosimilitud: los verosimilistas "ortodoxos" consideran los datos solo como evidencia, y no los usan como base de la inferencia estadística , mientras que otros hacen inferencias basadas en la verosimilitud, pero sin usar la inferencia bayesiana o la inferencia frecuentista . Por lo tanto, el verosimilismo es criticado por no proporcionar una base para la creencia o la acción (si no logra hacer inferencias) o por no satisfacer los requisitos de estas otras escuelas.
La función de verosimilitud también se utiliza en las estadísticas bayesianas y frecuentistas, pero difieren en su uso. Algunos verosimilistas consideran que su uso de la verosimilitud es una alternativa a otros enfoques, mientras que otros la consideran complementaria y compatible con otros enfoques; véase § Relación con otras teorías.
Relación con otras teorías
Si bien el verosimilitud es un enfoque distinto de la inferencia estadística, se puede relacionar con otras teorías y metodologías de la estadística o contrastar con ellas. A continuación se presentan algunas conexiones notables:
- Estadística bayesiana: la estadística bayesiana es un enfoque alternativo a la inferencia estadística que incorpora información previa y la actualiza utilizando datos observados para obtener probabilidades posteriores. El verosimilitud y la estadística bayesiana son compatibles en el sentido de que ambos métodos utilizan la función de probabilidad. Sin embargo, difieren en su tratamiento de la información previa. La estadística bayesiana incorpora creencias previas en el análisis de forma explícita, mientras que el verosimilitud se centra únicamente en la función de probabilidad sin especificar una distribución previa.
- Estadísticas frecuentistas: las estadísticas frecuentistas, también conocidas como inferencia clásica o frecuentista, son otro marco importante para el análisis estadístico. Los métodos frecuentistas enfatizan las propiedades del muestreo repetido y se centran en conceptos como imparcialidad, consistencia y prueba de hipótesis. El verosimilitud puede considerarse una desviación de los métodos frecuentistas tradicionales, ya que coloca la función de probabilidad en el centro de la inferencia estadística. Los métodos basados en la verosimilitud proporcionan un puente entre la perspectiva verosimilista y los enfoques frecuentistas al utilizar razones de verosimilitud para probar hipótesis y construir intervalos de confianza.
- Estadística fisheriana: el verosimilismo tiene profundas conexiones con la filosofía estadística de Ronald Fisher . [1] Fisher introdujo el concepto de verosimilitud y su maximización como criterio para estimar parámetros. El enfoque de Fisher enfatizó el concepto de suficiencia y la estimación de máxima verosimilitud (MLE). El verosimilismo puede verse como una extensión de la estadística fisheriana, que refina y expande el uso de la verosimilitud en la inferencia estadística.
- Teoría de la información : La teoría de la información, desarrollada por Claude Shannon, proporciona un marco matemático para cuantificar el contenido y la comunicación de la información. El concepto de entropía en la teoría de la información tiene conexiones con la función de verosimilitud y el criterio AIC. El AIC, que incorpora un término de penalización por complejidad del modelo, puede considerarse un enfoque teórico de la información para la selección de modelos y equilibra el ajuste del modelo con la complejidad del mismo.
- Teoría de la decisión : La teoría de la decisión combina la inferencia estadística con la toma de decisiones en condiciones de incertidumbre. Considera el equilibrio entre los riesgos y las pérdidas potenciales en los procesos de toma de decisiones. El verosimilitud se puede integrar con la teoría de la decisión para tomar decisiones basadas en la función de probabilidad, como elegir el modelo con la mayor probabilidad o evaluar diferentes opciones de decisión en función de sus probabilidades asociadas.
Crítica
Si bien las estadísticas basadas en la probabilidad se han utilizado ampliamente y tienen muchas ventajas, no están exentas de críticas. A continuación, se presentan algunas críticas comunes a las estadísticas verosímiles:
- Dependencia del modelo: la inferencia basada en la probabilidad depende en gran medida de la elección de un modelo estadístico específico. [2] Si el modelo elegido no representa con precisión el verdadero proceso subyacente de generación de datos, las estimaciones e inferencias resultantes pueden estar sesgadas o ser engañosas. La especificación incorrecta del modelo puede llevar a conclusiones incorrectas, especialmente en escenarios complejos del mundo real donde el modelo verdadero puede ser desconocido o difícil de capturar.
- Dificultad de interpretación: las estadísticas basadas en la verosimilitud se centran en optimizar la función de verosimilitud para estimar parámetros, pero es posible que no proporcionen estimaciones intuitivas o fácilmente interpretables. Los parámetros estimados pueden no tener una interpretación directa y significativa en el contexto del problema que se estudia. Esto puede dificultar que los profesionales comuniquen los resultados a audiencias no técnicas o tomen decisiones prácticas basadas en las estimaciones.
- Sensibilidad al tamaño de la muestra : los métodos basados en la verosimilitud pueden ser sensibles al tamaño de la muestra de los datos. En situaciones con tamaños de muestra pequeños, la función de verosimilitud puede ser muy variable, lo que genera estimaciones inestables. Esta inestabilidad también puede afectar el proceso de selección del modelo, ya que la prueba de razón de verosimilitud o los criterios de información pueden no funcionar bien cuando los tamaños de muestra son pequeños.
- Supuesto de independencia: la inferencia basada en la probabilidad suele suponer que los datos observados son independientes y se distribuyen de manera idéntica (IID). Sin embargo, en muchos escenarios del mundo real, los puntos de datos pueden presentar dependencia o correlación. Ignorar esta dependencia puede dar lugar a estimaciones sesgadas o pruebas de hipótesis inexactas.
- Falta de robustez: los métodos basados en la probabilidad no siempre son robustos ante violaciones de los supuestos del modelo o ante valores atípicos en los datos. Si los datos se desvían de la distribución asumida o si hay observaciones extremas, las estimaciones pueden verse muy influenciadas por estos valores atípicos, lo que genera resultados poco confiables.
- Complejidad computacional: la estimación de parámetros basados en funciones de verosimilitud puede requerir un uso intensivo de recursos computacionales, especialmente para modelos complejos, conjuntos de datos grandes o sistemas altamente no lineales. [3] Los algoritmos de optimización utilizados para maximizar la función de verosimilitud pueden requerir recursos computacionales sustanciales o pueden no converger al máximo global, lo que genera estimaciones subóptimas.
- Falta de cuantificación de la incertidumbre: la inferencia basada en la probabilidad a menudo proporciona estimaciones puntuales de parámetros sin cuantificación explícita de la incertidumbre. Si bien se pueden utilizar técnicas como los intervalos de confianza o los errores estándar para aproximar la incertidumbre, se basan en suposiciones que no siempre se cumplen. Los métodos bayesianos, por otro lado, proporcionan un marco más formal y coherente para la cuantificación de la incertidumbre.
Historia
El verosimilismo como escuela diferenciada se remonta a Edwards (1972), que ofrece un tratamiento sistemático de las estadísticas basado en la probabilidad. Esto se basó en trabajos anteriores importantes; véase Dempster (1972) para una revisión contemporánea.
Si bien la comparación de proporciones de probabilidades se remonta a las primeras estadísticas y probabilidades, en particular a la inferencia bayesiana desarrollada por Pierre-Simon Laplace a fines del siglo XVIII, la verosimilitud como concepto diferenciado se debe a Ronald Fisher en Fisher (1921). La verosimilitud desempeñó un papel importante en las estadísticas de Fisher, pero también desarrolló y utilizó muchas técnicas frecuentistas de no verosimilitud. Sus escritos posteriores, en particular Fisher (1955), enfatizan más la verosimilitud y pueden considerarse precursores de una teoría sistemática del verosimilitudismo.
El principio de verosimilitud fue propuesto en 1962 por varios autores, en particular Barnard, Jenkins y Winsten (1962), Birnbaum (1962) y Savage (1962), y seguido por la ley de verosimilitud en Hacking (1965); estos autores sentaron las bases del verosimilismo. Véase Principio de verosimilitud § Historia para conocer los antecedentes.
Mientras que la versión de Edwards del verosimilitud consideraba la verosimilitud como única evidencia, lo que fue seguido por Royall (1997), otros propusieron la inferencia basada únicamente en la verosimilitud, en particular como extensiones de la estimación de máxima verosimilitud. Cabe destacar a John Nelder , quien declaró en Nelder (1999, p. 264):
Al menos una vez al año oigo a alguien decir en una reunión que hay dos modos de inferencia: frecuentista y bayesiano. El hecho de que este tipo de tonterías se propaguen con tanta regularidad muestra lo mucho que nos queda por hacer. Para empezar, existe una floreciente escuela de inferencia de probabilidad, a la que pertenezco.
Entre los libros de texto que adoptan un enfoque verosímil se incluyen los siguientes: Kalbfleisch (1985), Azzalini (1996), Pawitan (2001), Rohde (2014) y Held & Sabanés Bové (2014). Taper & Lele (2004) ofrecen una colección de artículos relevantes.
Véase también
Referencias
- ^ Efron, B. (febrero de 1986). "¿Por qué no todo el mundo es bayesiano?". The American Statistician . 40 (1): 1. doi :10.2307/2683105. ISSN 0003-1305.
- ^ Fitelson, Branden (24 de marzo de 2007). "Verosimilitud, bayesianismo y confirmación relacional". Síntesis . 156 (3): 473–489. doi :10.1007/s11229-006-9134-9. ISSN 0039-7857.
- ^ Drignei, Dorin; Forest, Chris E.; Nychka, Doug (1 de diciembre de 2008). "Estimación de parámetros para regresión no lineal de alto rendimiento computacional con una aplicación al modelado climático". Anales de estadística aplicada . 2 (4). arXiv : 0901.3665 . doi :10.1214/08-aoas210. ISSN 1932-6157.
- Azzalini, Adelchi (1996), Inferencia estadística basada en la probabilidad , Chapman & Hall
- Barnard, GA ; Jenkins, GM ; Winsten, CB (1962), "Inferencia de verosimilitud y series temporales", Journal of the Royal Statistical Society, Serie A , 125 (3): 321–372, doi :10.2307/2982406, JSTOR 2982406
- Birnbaum, Allan (1962), "Sobre los fundamentos de la inferencia estadística", Journal of the American Statistical Association , 57 (298): 269–326, doi :10.2307/2281640, JSTOR 2281640, MR 0138176 (Con discusión.)
- Dempster, AP (1972), "[Reseña de libro] Probabilidad. Una explicación del concepto estadístico de probabilidad y su aplicación a la inferencia científica. AWF Edwards. Cambridge University Press, Nueva York, 1972. xvi, 236 pp., illus. $13.50", Science , 177 (4052): 878–879, doi :10.1126/science.177.4052.878
- Edwards, Anthony WF (1972), Probabilidad (1.ª ed.), Cambridge University Press
- Edwards, Anthony WF (1992), Probabilidad (2.ª ed.), Johns Hopkins University Press , ISBN 0-8018-4445-2
- Fisher, RA (1921), "Sobre el "error probable" de un coeficiente de correlación deducido de una muestra pequeña", Metron , 1 : 3–32
- Fisher, Ronald (1955), "Métodos estadísticos e inducción científica", Journal of the Royal Statistical Society, Serie B , 17 : 69–78
- Hacking, Ian (1965), Lógica de la inferencia estadística , Cambridge University Press , ISBN 0-521-05165-7
- Held, Leonhard; Sabanés Bové, Daniel (2014), Inferencia estadística aplicada: verosimilitud y Bayes , Springer
- Kalbfleisch, JG (1985), Probabilidad e inferencia estadística , vol. 2, editorial Springer
- Nelder, John A. (1999), "De la estadística a la ciencia estadística", Journal of the Royal Statistical Society. Serie D (The Statistician) , 48 (2): 257–269, JSTOR 2681191
- Pawitan, Yudi (2001), Con toda probabilidad: modelado estadístico e inferencia usando la probabilidad , Oxford University Press , ISBN 978-0-19967122-9
- Rohde, Charles A. (2014), Inferencia estadística introductoria con la función de verosimilitud , Springer , ISBN 978-3-319-10460-7
- Royall, Richard M. (1997), Evidencia estadística: un paradigma de probabilidad , Chapman & Hall , ISBN 0-412-04411-0
- Savage, Leonard J. y col. (1962), Los fundamentos de la inferencia estadística , Methuen Publishing
- Taper, ML; Lele, SR, eds. (2004), La naturaleza de la evidencia científica , University of Chicago Press
Lectura adicional
- Gandenberger, Greg (2016), "Por qué no soy un verosímil", Philosophers' Imprint , 16 (7): 1–22, hdl :2027/spo.3521354.0016.007
Enlaces externos
- "Razones de verosimilitud, verosimilitud y ley de verosimilitud". Stanford Encyclopedia of Philosophy . Consultado el 14 de marzo de 2019 .