Las estadísticas , cuando se utilizan de forma engañosa, pueden hacer creer al observador casual algo distinto de lo que muestran los datos . Es decir, se produce un uso indebido de las estadísticas cuando un argumento estadístico afirma una falsedad . En algunos casos, el uso indebido puede ser accidental. En otros, es intencionado y en beneficio del perpetrador. Cuando la razón estadística en cuestión es falsa o se aplica incorrectamente, esto constituye una falacia estadística .
Las consecuencias de tales interpretaciones erróneas pueden ser muy graves. Por ejemplo, en la ciencia médica, corregir una falsedad puede llevar décadas y costar vidas.
Es fácil caer en errores. Los científicos profesionales, los matemáticos e incluso los estadísticos profesionales pueden ser engañados incluso con algunos métodos simples, incluso si tienen cuidado de comprobar todo. Se sabe que los científicos se engañan a sí mismos con las estadísticas debido a la falta de conocimiento de la teoría de la probabilidad y la falta de estandarización de sus pruebas .
Una definición útil es: “Uso indebido de las estadísticas: utilizar números de tal manera que –ya sea intencionalmente o por ignorancia o descuido– las conclusiones sean injustificadas o incorrectas”. [1] Los “números” incluyen gráficos engañosos que se analizan en otras fuentes. El término no se encuentra comúnmente en los textos de estadística y no existe una única definición autorizada. Es una generalización de la mentira con las estadísticas que fue descrita profusamente con ejemplos de los estadísticos hace 60 años.
La definición enfrenta algunos problemas (algunos de ellos abordados por la fuente): [2]
How to Lie with Statistics reconoce que las estadísticas pueden adoptar muchas formas legítimas . Se puede debatir si las estadísticas muestran que un producto es "liviano y económico" o "endeble y barato", independientemente de las cifras. Algunos se oponen a la sustitución de la corrección estadística por el liderazgo moral (por ejemplo) como objetivo. Asignar culpas por los usos incorrectos suele ser difícil porque los científicos, encuestadores, estadísticos y periodistas suelen ser empleados o consultores.
El oyente, el observador, el público o el jurado cometen un uso insidioso de las estadísticas. El proveedor proporciona las "estadísticas" en forma de números o gráficos (o fotografías de antes y después), lo que permite al consumidor sacar conclusiones que pueden ser injustificadas o incorrectas. El escaso nivel de alfabetización estadística del público y la naturaleza no estadística de la intuición humana permiten engañar sin llegar a conclusiones erróneas de forma explícita. La definición es débil en lo que respecta a la responsabilidad del consumidor de las estadísticas.
Un historiador enumeró más de 100 falacias en una docena de categorías, incluidas las de generalización y las de causalidad. [3] Algunas de las falacias son explícitamente o potencialmente estadísticas, como el muestreo, el sinsentido estadístico, la probabilidad estadística, la extrapolación falsa, la interpolación falsa y la generalización insidiosa. Todos los problemas técnicos y matemáticos de la probabilidad aplicada encajarían en la única falacia enumerada de la probabilidad estadística. Muchas de las falacias podrían acoplarse al análisis estadístico, lo que permitiría la posibilidad de una conclusión falsa que se derive de un análisis estadísticamente sólido.
Un ejemplo de uso de las estadísticas es el análisis de la investigación médica. El proceso incluye [4] [5] la planificación experimental, la realización del experimento, el análisis de los datos, la extracción de conclusiones lógicas y la presentación/informe. El informe es resumido por la prensa popular y por los anunciantes. Los usos incorrectos de las estadísticas pueden ser resultado de problemas en cualquier paso del proceso. Los estándares estadísticos que idealmente se imponen en el informe científico son muy diferentes de los que se imponen a la prensa popular y a los anunciantes; sin embargo, existen casos de publicidad disfrazada de ciencia, como el Australasian Journal of Bone & Joint Medicine . La definición del uso incorrecto de las estadísticas es débil en cuanto a la integridad requerida de los informes estadísticos. Se expresa la opinión de que los periódicos deben proporcionar al menos la fuente de las estadísticas informadas.
Muchos usos incorrectos de las estadísticas ocurren porque
Para promocionar un producto neutro (inútil), una empresa debe encontrar o realizar, por ejemplo, 40 estudios con un nivel de confianza del 95 %. Si el producto es inútil, esto produciría un estudio que demostrara que el producto era beneficioso, un estudio que demostrara que era perjudicial y treinta y ocho estudios no concluyentes (38 es el 95 % de 40). Esta táctica se vuelve más eficaz cuando hay más estudios disponibles. Las organizaciones que no publican todos los estudios que realizan, como las tabacaleras que niegan la relación entre el tabaquismo y el cáncer, los grupos de defensa contra el tabaquismo y los medios de comunicación que intentan demostrar la relación entre el tabaquismo y diversas enfermedades, o los vendedores de píldoras milagrosas, es probable que utilicen esta táctica.
Ronald Fisher consideró esta cuestión en su famoso experimento de la dama que cataba té (de su libro de 1935, El diseño de experimentos ). Con respecto a los experimentos repetidos, dijo: "Sería ilegítimo y privaría a nuestro cálculo de su base si no se tuvieran en cuenta todos los resultados fallidos".
Otro término relacionado con este concepto es “cherry picking” .
Los conjuntos de datos multivariables tienen dos o más características/dimensiones . Si se eligen muy pocas de estas características para el análisis (por ejemplo, si se elige solo una característica y se realiza una regresión lineal simple en lugar de una regresión lineal múltiple ), los resultados pueden ser engañosos. Esto deja al analista vulnerable a varias paradojas estadísticas o, en algunos casos (no en todos), a una causalidad falsa, como la que se muestra a continuación.
Las respuestas a las encuestas pueden manipularse a menudo formulando la pregunta de tal manera que se induzca una preferencia por una determinada respuesta por parte del encuestado. Por ejemplo, en las encuestas de apoyo a una guerra, las preguntas:
Probablemente, los datos se verán sesgados en direcciones diferentes, aunque ambos sondeos sobre el apoyo a la guerra. Una mejor manera de formular la pregunta podría ser: "¿Apoya usted la actual acción militar estadounidense en el extranjero?". Una forma aún más neutral de plantear la pregunta sería: "¿Cuál es su opinión sobre la actual acción militar estadounidense en el extranjero?". El punto debería ser que la persona a la que se le pregunta no tenga forma de adivinar a partir de la redacción lo que el que pregunta podría querer oír.
Otra forma de hacerlo es anteponer a la pregunta información que respalde la respuesta "deseada". Por ejemplo, es más probable que la gente responda "sí" a la pregunta "Dada la creciente carga impositiva sobre las familias de clase media, ¿apoya usted recortes en el impuesto sobre la renta?" que a la pregunta "Considerando el creciente déficit presupuestario federal y la necesidad desesperada de más ingresos, ¿apoya usted recortes en el impuesto sobre la renta?".
La formulación adecuada de las preguntas puede ser muy sutil. Las respuestas a dos preguntas pueden variar drásticamente según el orden en que se formulen. [15] "Una encuesta que preguntaba sobre la 'propiedad de acciones' reveló que la mayoría de los ganaderos de Texas poseían acciones, aunque probablemente no del tipo que se negociaba en la Bolsa de Valores de Nueva York". [16]
La sobregeneralización es una falacia que ocurre cuando se afirma que una estadística sobre una población particular es válida entre los miembros de un grupo para el cual la población original no es una muestra representativa.
Por ejemplo, supongamos que se observa que el 100% de las manzanas son rojas en verano. La afirmación "Todas las manzanas son rojas" sería un caso de generalización excesiva porque la estadística original era verdadera solo para un subconjunto específico de manzanas (las del verano), que no se espera que sea representativo de la población de manzanas en su conjunto.
Un ejemplo real de la falacia de la generalización excesiva se puede observar como un artefacto de las técnicas de sondeo modernas, que prohíben llamar a teléfonos móviles para realizar sondeos políticos por teléfono. Como los jóvenes tienen más probabilidades que otros grupos demográficos de carecer de un teléfono fijo convencional, una encuesta telefónica que sólo encuestó a los que responden a llamadas desde teléfonos fijos puede hacer que los resultados de la encuesta no reflejen las opiniones de los jóvenes, si no se toman otras medidas para tener en cuenta esta distorsión del muestreo. Por lo tanto, una encuesta que examine las preferencias de voto de los jóvenes utilizando esta técnica puede no ser una representación perfectamente precisa de las verdaderas preferencias de voto de los jóvenes en su conjunto sin sobregeneralizar, porque la muestra utilizada excluye a los jóvenes que sólo llevan teléfonos móviles, que pueden o no tener preferencias de voto diferentes a las del resto de la población.
La generalización excesiva ocurre a menudo cuando la información pasa a través de fuentes no técnicas, en particular los medios de comunicación masivos.
Los científicos han aprendido a un alto precio que es difícil reunir buenos datos experimentales para el análisis estadístico. Ejemplo: el efecto placebo (mente sobre cuerpo) es muy poderoso. El 100% de los sujetos desarrolló una erupción cutánea cuando se expuso a una sustancia inerte que se denominó falsamente hiedra venenosa, mientras que pocos desarrollaron una erupción cutánea ante un objeto "inofensivo" que en realidad era hiedra venenosa. [17] Los investigadores combaten este efecto mediante experimentos comparativos aleatorios de doble ciego . Los estadísticos suelen preocuparse más por la validez de los datos que por el análisis. Esto se refleja en un campo de estudio dentro de la estadística conocido como el diseño de experimentos .
Los encuestadores han aprendido a costa de mucho que es difícil reunir datos de encuestas de calidad para el análisis estadístico. El efecto selectivo de los teléfonos celulares en la recolección de datos (discutido en la sección de Generalización excesiva) es un posible ejemplo: si los jóvenes con teléfonos tradicionales no son representativos, la muestra puede estar sesgada. Las encuestas por muestreo tienen muchos inconvenientes y requieren un gran cuidado en su ejecución. [18] En un esfuerzo se necesitaron casi 3000 llamadas telefónicas para obtener 1000 respuestas. La muestra aleatoria simple de la población "no es simple y puede no ser aleatoria". [19]
Si un equipo de investigación quiere saber qué piensan 300 millones de personas sobre un tema determinado, sería poco práctico preguntarles a todos. Sin embargo, si el equipo elige una muestra aleatoria de unas 1000 personas, puede estar bastante seguro de que los resultados que dé este grupo son representativos de lo que habría dicho el grupo más grande si se les hubiera preguntado a todos.
Esta confianza puede cuantificarse mediante el teorema del límite central y otros resultados matemáticos. La confianza se expresa como la probabilidad de que el resultado verdadero (para el grupo más grande) se encuentre dentro de un cierto rango de la estimación (la cifra para el grupo más pequeño). Esta es la cifra de "más o menos" que se cita a menudo para las encuestas estadísticas. La parte de probabilidad del nivel de confianza no suele mencionarse; si lo hace, se supone que es un número estándar como el 95%.
Los dos números están relacionados. Si una encuesta tiene un error estimado de ±5 % con un nivel de confianza del 95 %, también tiene un error estimado de ±6,6 % con un nivel de confianza del 99 %. ± % con un nivel de confianza del 95 % siempre es ± % con un nivel de confianza del 99 % para una población con distribución normal.
Cuanto menor sea el error estimado, mayor será la muestra requerida, a un nivel de confianza determinado; por ejemplo, a un 95,4% de confianza:
La gente puede suponer que, debido a que se omite la cifra de confianza, existe una certeza del 100% de que el resultado verdadero se encuentra dentro del error estimado. Esto no es matemáticamente correcto.
Muchas personas no se dan cuenta de que la aleatoriedad de la muestra es muy importante. En la práctica, muchas encuestas de opinión se realizan por teléfono, lo que distorsiona la muestra de varias maneras, incluida la exclusión de personas que no tienen teléfonos, la inclusión de personas que tienen más de un teléfono, la inclusión de personas que están dispuestas a participar en una encuesta telefónica en lugar de las que se niegan, etc. El muestreo no aleatorio hace que el error estimado sea poco fiable.
Por otra parte, la gente puede pensar que las estadísticas son inherentemente poco fiables porque no se llama a todo el mundo, o porque nunca se les pregunta a ellos mismos. La gente puede pensar que es imposible obtener datos sobre la opinión de decenas de millones de personas encuestando a unos pocos miles. Esto también es inexacto. [a] Una encuesta con un muestreo perfectamente imparcial y respuestas veraces tiene un margen de error determinado matemáticamente , que solo depende del número de personas encuestadas.
Sin embargo, a menudo se informa de un único margen de error para una encuesta. Cuando se informan los resultados para subgrupos de población, se aplicará un margen de error mayor, pero esto puede no quedar claro. Por ejemplo, una encuesta de 1000 personas puede contener 100 personas de un determinado grupo étnico o económico. Los resultados centrados en ese grupo serán mucho menos fiables que los resultados para la población completa. Si el margen de error para la muestra completa fue del 4%, por ejemplo, entonces el margen de error para ese subgrupo podría ser de alrededor del 13%.
Existen también muchos otros problemas de medición en las encuestas de población.
Los problemas mencionados anteriormente se aplican a todos los experimentos estadísticos, no sólo a las encuestas de población.
Cuando una prueba estadística muestra una correlación entre A y B, generalmente hay seis posibilidades:
La sexta posibilidad se puede cuantificar mediante pruebas estadísticas que permiten calcular la probabilidad de que la correlación observada sea tan grande como lo es por pura casualidad si, de hecho, no existe relación entre las variables. Sin embargo, incluso si esa posibilidad tiene una probabilidad pequeña, aún quedan las otras cinco.
Si el número de personas que compran helado en la playa está estadísticamente relacionado con el número de personas que se ahogan en la playa, entonces nadie afirmaría que el helado causa ahogamientos porque es obvio que no es así. (En este caso, tanto los ahogamientos como la compra de helado están claramente relacionados por un tercer factor: el número de personas en la playa).
Esta falacia puede utilizarse, por ejemplo, para demostrar que la exposición a una sustancia química causa cáncer. Sustituya "número de personas que compran helado" por "número de personas expuestas a la sustancia química X", y "número de personas que se ahogan" por "número de personas que contraen cáncer", y mucha gente le creerá. En una situación así, puede haber una correlación estadística incluso si no hay un efecto real. Por ejemplo, si existe la percepción de que un sitio químico es "peligroso" (aunque en realidad no lo sea), los valores de las propiedades en la zona disminuirán, lo que incitará a más familias de bajos ingresos a mudarse a esa zona. Si las familias de bajos ingresos tienen más probabilidades de contraer cáncer que las familias de altos ingresos (debido a una dieta más pobre, por ejemplo, o un menor acceso a la atención médica), entonces las tasas de cáncer aumentarán, aunque la sustancia química en sí no sea peligrosa. Se cree [22] que esto es exactamente lo que sucedió con algunos de los primeros estudios que mostraban un vínculo entre los campos electromagnéticos (CEM ) de las líneas eléctricas y el cáncer . [23]
En estudios bien diseñados, el efecto de la falsa causalidad puede eliminarse asignando a algunas personas a un "grupo de tratamiento" y a otras a un "grupo de control" al azar, y dando el tratamiento al grupo de tratamiento y no al grupo de control. En el ejemplo anterior, un investigador podría exponer a un grupo de personas a la sustancia química X y dejar a un segundo grupo sin exposición. Si el primer grupo tuviera tasas de cáncer más altas, el investigador sabe que no hay un tercer factor que afecte a la exposición de una persona porque controla quién está expuesto o no, y asigna a las personas a los grupos expuestos y no expuestos al azar. Sin embargo, en muchas aplicaciones, hacer un experimento de esta manera es prohibitivamente caro, inviable, poco ético, ilegal o directamente imposible. Por ejemplo, es muy improbable que un comité de revisión institucional acepte un experimento que implique exponer intencionalmente a personas a una sustancia peligrosa para probar su toxicidad. Las obvias implicaciones éticas de este tipo de experimentos limitan la capacidad de los investigadores para probar empíricamente la causalidad.
En una prueba estadística, la hipótesis nula ( ) se considera válida hasta que haya suficientes datos que demuestren que es errónea. Luego se rechaza y la hipótesis alternativa ( ) se considera probada como correcta. Por casualidad, esto puede suceder, aunque sea cierto, con una probabilidad denotada (el nivel de significación). Esto se puede comparar con el proceso judicial, donde el acusado se considera inocente ( ) hasta que se demuestre su culpabilidad ( ) más allá de toda duda razonable ( ).
Pero si los datos no nos dan pruebas suficientes para rechazar que , esto no prueba automáticamente que sea correcto. Si, por ejemplo, un productor de tabaco desea demostrar que sus productos son seguros, puede realizar fácilmente una prueba con una pequeña muestra de fumadores frente a una pequeña muestra de no fumadores. Es poco probable que alguno de ellos desarrolle cáncer de pulmón (e incluso si lo hiciera, la diferencia entre los grupos tiene que ser muy grande para rechazar ). Por lo tanto, es probable, incluso cuando fumar es peligroso, que nuestra prueba no rechace . Si se acepta , no se sigue automáticamente que se demuestre que fumar es inofensivo. La prueba no tiene suficiente poder para rechazar , por lo que la prueba es inútil y el valor de la "prueba" de también es nulo.
Esto puede compararse, utilizando el análogo judicial antes mencionado, con el acusado verdaderamente culpable que es puesto en libertad simplemente porque las pruebas no son suficientes para un veredicto de culpabilidad. Esto no prueba la inocencia del acusado, sino solo que no hay pruebas suficientes para un veredicto de culpabilidad.
"...la hipótesis nula nunca se prueba ni se establece, pero es posible que se refute en el curso de la experimentación. Se puede decir que cada experimento existe sólo para dar a los hechos una oportunidad de refutar la hipótesis nula". (Fisher en El diseño de experimentos ) Existen muchas razones para la confusión, incluido el uso de la lógica de la doble negación y la terminología resultante de la fusión de la "prueba de significación" de Fisher (donde la hipótesis nula nunca se acepta) con la "prueba de hipótesis" (donde siempre se acepta alguna hipótesis).
La significación estadística es una medida de probabilidad; la significación práctica es una medida de efecto. [24] Una cura para la calvicie es estadísticamente significativa si una pelusilla rala cubre habitualmente el cuero cabelludo que antes estaba desnudo. La cura es prácticamente significativa cuando ya no se necesita un sombrero cuando hace frío y el barbero pregunta cuánto hay que quitarse de la parte superior. Los calvos quieren una cura que sea estadística y prácticamente significativa; probablemente funcionará y, si lo hace, tendrá un gran efecto sobre el cabello. Las publicaciones científicas a menudo requieren sólo significación estadística. Esto ha dado lugar a quejas (durante los últimos 50 años) de que las pruebas de significación estadística son un mal uso de las estadísticas. [25]
El dragado de datos es un abuso de la minería de datos . En el dragado de datos, se examinan grandes compilaciones de datos para encontrar una correlación, sin ninguna elección predefinida de una hipótesis para probar. Dado que el intervalo de confianza requerido para establecer una relación entre dos parámetros generalmente se elige en un 95% (lo que significa que hay una probabilidad del 95% de que la relación observada no se deba al azar), existe entonces una probabilidad del 5% de encontrar una correlación entre dos conjuntos de variables completamente aleatorias. Dado que los esfuerzos de dragado de datos generalmente examinan grandes conjuntos de datos con muchas variables y, por lo tanto, un número aún mayor de pares de variables, es casi seguro que se encontrarán resultados espurios pero aparentemente estadísticamente significativos en cualquier estudio de este tipo.
Cabe señalar que la extracción de datos es una forma válida de encontrar una hipótesis posible, pero esa hipótesis debe probarse con datos que no se utilizaron en la extracción original. El uso indebido se produce cuando esa hipótesis se enuncia como un hecho sin una validación adicional.
"No se puede probar legítimamente una hipótesis con los mismos datos que la sugirieron en un principio. El remedio es claro: una vez que se tiene una hipótesis, se diseña un estudio para buscar específicamente el efecto que ahora se cree que existe. Si el resultado de esta prueba es estadísticamente significativo, por fin se tiene evidencia real". [26]
Esta práctica, denominada informalmente "falsificar los datos", incluye la presentación de informes selectivos (véase también sesgo de publicación ) e incluso la simple invención de datos falsos.
Abundan los ejemplos de informes selectivos. Los ejemplos más sencillos y comunes implican la elección de un grupo de resultados que siguen un patrón coherente con la hipótesis preferida , mientras que se ignoran otros resultados o "secuencias de datos" que contradicen la hipótesis.
Los científicos, en general, cuestionan la validez de los resultados de estudios que no pueden ser reproducidos por otros investigadores. Sin embargo, algunos científicos se niegan a publicar sus datos y métodos. [27]
La manipulación de datos es un problema/consideración grave en los análisis estadísticos más honestos. Los valores atípicos, los datos faltantes y la no normalidad pueden afectar negativamente la validez del análisis estadístico. Es adecuado estudiar los datos y reparar los problemas reales antes de comenzar el análisis. "En cualquier diagrama de dispersión habrá algunos puntos más o menos separados de la parte principal de la nube: estos puntos deben rechazarse solo por una causa justificada". [28]
La pseudorreplicación es un error técnico asociado con el análisis de varianza . La complejidad oculta el hecho de que se está intentando realizar un análisis estadístico sobre una sola muestra (N=1). Para este caso degenerado, no se puede calcular la varianza (división por cero). Una (N=1) siempre le dará al investigador la correlación estadística más alta entre el sesgo de intención y los hallazgos reales.
La falacia del jugador supone que un acontecimiento cuya probabilidad futura puede medirse tiene la misma probabilidad de ocurrir una vez que ya ha ocurrido. Por tanto, si alguien ya ha lanzado 9 monedas y en todas ellas ha salido cara, la gente tiende a suponer que la probabilidad de que en el décimo lanzamiento también salga cara es de 1023 a 1 (que era antes de que se lanzara la primera moneda), cuando en realidad la probabilidad de que salga cara en el décimo lanzamiento es del 50% (suponiendo que la moneda no esté sesgada).
La falacia del fiscal [29] supone que la probabilidad de que un hecho aparentemente criminal sea fruto del azar es igual a la probabilidad de que el sospechoso sea inocente. Un ejemplo destacado en el Reino Unido es la condena injusta de Sally Clark por matar a sus dos hijos que aparentemente habían muerto de síndrome de muerte súbita del lactante (SMSL). En su testimonio pericial, el ahora desacreditado profesor Sir Roy Meadow afirmó que, debido a la rareza del SMSL, la probabilidad de que Clark fuera inocente era de 1 en 73 millones. Esto fue cuestionado posteriormente por la Royal Statistical Society [30] ; suponiendo que la cifra de Meadows fuera exacta, hay que sopesar todas las explicaciones posibles entre sí para llegar a una conclusión sobre cuál de ellas causó con mayor probabilidad la muerte inexplicable de los dos niños. Los datos disponibles sugieren que las probabilidades estarían a favor del doble SMSL en comparación con el doble homicidio por un factor de nueve. [31] La cifra de 1 en 73 millones también era engañosa, ya que se obtuvo al encontrar la probabilidad de que un bebé de una familia adinerada y no fumadora muriera de SMSL y elevarla al cuadrado : esto trata erróneamente cada muerte como estadísticamente independiente , asumiendo que no hay ningún factor, como la genética, que haría más probable que dos hermanos murieran de SMSL. [32] [33] Este es también un ejemplo de la falacia ecológica , ya que supone que la probabilidad de SMSL en la familia de Clark era la misma que el promedio de todas las familias adineradas y no fumadoras; la clase social es un concepto altamente complejo y multifacético, con numerosas otras variables como la educación, la línea de trabajo y muchas más. Suponer que un individuo tendrá los mismos atributos que el resto de un grupo dado no tiene en cuenta los efectos de otras variables, lo que a su vez puede ser engañoso. [33] La condena de Sally Clark fue finalmente revocada y Meadow fue eliminada del registro médico. [34]
La falacia lúdica . Las probabilidades se basan en modelos simples que ignoran las posibilidades reales (aunque remotas). Los jugadores de póquer no tienen en cuenta que un oponente puede sacar una pistola en lugar de una carta. Los asegurados (y los gobiernos) suponen que las aseguradoras seguirán siendo solventes, pero véase AIG y el riesgo sistémico .
Otros usos incorrectos incluyen comparar manzanas y naranjas , usar el promedio incorrecto, [35] la regresión hacia la media , [36] y la frase general basura que entra, basura que sale . [37] Algunas estadísticas son simplemente irrelevantes para un tema. [38]
Ciertas expresiones publicitarias como “[m]ás de 99 en 100” pueden ser malinterpretadas como 100%. [39]
El cuarteto de Anscombe es un conjunto de datos inventado que ejemplifica las deficiencias de las estadísticas descriptivas simples (y el valor de representar gráficamente los datos antes del análisis numérico).
{{cite journal}}
: CS1 maint: DOI inactivo a partir de noviembre de 2024 ( enlace )Contiene una rica lista de usos médicos indebidos de estadísticas de todo tipo.{{citation}}
: CS1 maint: URL no apta ( enlace )Este informe australiano sobre estadísticas de delincuencia ofrece numerosos ejemplos de interpretación y mala interpretación de los datos. "El aumento del acceso de los medios de comunicación a la información sobre delincuencia no ha ido acompañado de un aumento de la calidad de la información que los medios de comunicación ofrecen sobre el delito. El uso indebido de las estadísticas de delincuencia por parte de los medios de comunicación ha impedido un debate racional sobre la ley y el orden". Entre los supuestos abusos de los medios de comunicación: uso selectivo de los datos, información selectiva de los hechos, comentarios engañosos, tergiversación de los hechos y titulares engañosos. La policía y los políticos también abusaron de las estadísticas.{{cite news}}
: CS1 maint: URL no apta ( enlace )Citas: Draper, G. (2005). "El cáncer infantil en relación con la distancia a las líneas eléctricas de alta tensión en Inglaterra y Gales: un estudio de casos y controles". BMJ . 330 (7503): 1290. doi :10.1136/bmj.330.7503.1290. PMC 558197 . PMID 15933351. {{cite journal}}
: CS1 maint: URL no apta ( enlace ){{cite journal}}
: CS1 maint: URL no apta ( enlace ){{cite journal}}
: CS1 maint: URL no apta ( enlace )