stringtranslate.com

Diseño de experimentos

Diseño de experimentos con diseño factorial completo (izquierda), superficie de respuesta con polinomio de segundo grado (derecha)

El diseño de experimentos ( DOE o DOX ), también conocido como diseño de experimentos o diseño experimental , es el diseño de cualquier tarea que tiene como objetivo describir y explicar la variación de información bajo condiciones que se supone reflejan la variación. El término generalmente se asocia con experimentos en los que el diseño introduce condiciones que afectan directamente la variación, pero también puede referirse al diseño de cuasiexperimentos , en los que las condiciones naturales que influyen en la variación se seleccionan para su observación.

En su forma más simple, un experimento tiene como objetivo predecir el resultado introduciendo un cambio en las condiciones previas, que está representado por una o más variables independientes , también denominadas "variables de entrada" o "variables predictivas". Generalmente se plantea la hipótesis de que el cambio en una o más variables independientes da como resultado un cambio en una o más variables dependientes , también denominadas "variables de salida" o "variables de respuesta". El diseño experimental también puede identificar variables de control que deben mantenerse constantes para evitar que factores externos afecten los resultados. El diseño experimental implica no sólo la selección de variables independientes, dependientes y de control adecuadas, sino también la planificación de la ejecución del experimento en condiciones estadísticamente óptimas dadas las limitaciones de los recursos disponibles. Existen múltiples enfoques para determinar el conjunto de puntos de diseño (combinaciones únicas de las configuraciones de las variables independientes) que se utilizarán en el experimento.

Las principales preocupaciones en el diseño experimental incluyen el establecimiento de la validez , la confiabilidad y la replicabilidad . Por ejemplo, estas preocupaciones pueden abordarse parcialmente eligiendo cuidadosamente la variable independiente, reduciendo el riesgo de error de medición y asegurando que la documentación del método sea suficientemente detallada. Las preocupaciones relacionadas incluyen lograr niveles apropiados de poder estadístico y sensibilidad .

Los experimentos correctamente diseñados promueven el conocimiento en las ciencias naturales y sociales y la ingeniería, y la metodología del diseño de experimentos se reconoce como una herramienta clave en la implementación exitosa de un marco de Calidad por Diseño (QbD). [1] Otras aplicaciones incluyen marketing y formulación de políticas. El estudio del diseño de experimentos es un tema importante en la metaciencia .

Historia

Experimentos estadísticos, siguiendo a Charles S. Peirce

Charles S. Peirce desarrolló una teoría de la inferencia estadística en " Ilustraciones de la lógica de la ciencia " (1877-1878) [2] y " Una teoría de la inferencia probable " (1883), [3] dos publicaciones que enfatizaban la importancia de la inferencia basada en la aleatorización en estadística. [4]

Experimentos aleatorios

Charles S. Peirce asignó voluntarios al azar a un diseño ciego de medidas repetidas para evaluar su capacidad para discriminar pesos. [5] [6] [7] [8] El experimento de Peirce inspiró a otros investigadores en psicología y educación, que desarrollaron una tradición de investigación de experimentos aleatorios en laboratorios y libros de texto especializados en el siglo XIX. [5] [6] [7] [8]

Diseños óptimos para modelos de regresión.

Charles S. Peirce también contribuyó con la primera publicación en inglés sobre un diseño óptimo para modelos de regresión en 1876. [9] Gergonne sugirió un diseño óptimo pionero para regresión polinomial en 1815. En 1918, Kirstine Smith publicó diseños óptimos para polinomios de grado seis (y menos). [10] [11]

Secuencias de experimentos.

El uso de una secuencia de experimentos, donde el diseño de cada uno puede depender de los resultados de experimentos anteriores, incluida la posible decisión de dejar de experimentar, está dentro del alcance del análisis secuencial , un campo en el que fue pionero [ 12] Abraham Wald en el contexto de pruebas secuenciales de hipótesis estadísticas. [13] Herman Chernoff escribió una descripción general de los diseños secuenciales óptimos, [14] mientras que S. Zacks ha examinado los diseños adaptativos . [15] Un tipo específico de diseño secuencial es el "bandido de dos brazos", generalizado al bandido de múltiples brazos , en el que Herbert Robbins realizó los primeros trabajos en 1952. [16]

principios de Fisher

Una metodología para diseñar experimentos fue propuesta por Ronald Fisher , en sus innovadores libros: The Arrangement of Field Experiments (1926) y The Design of Experiments (1935). Gran parte de su trabajo pionero versó sobre aplicaciones agrícolas de métodos estadísticos. Como ejemplo mundano, describió cómo probar la hipótesis de la dama que prueba el té , de que cierta dama podía distinguir sólo por el sabor si la leche o el té se pusieron primero en la taza. Estos métodos se han adaptado ampliamente en la investigación biológica, psicológica y agrícola. [17]

Comparación
En algunos campos de estudio no es posible realizar mediciones independientes según un estándar de metrología trazable . Las comparaciones entre tratamientos son mucho más valiosas y, por lo general, son preferibles y, a menudo, se comparan con un control científico o un tratamiento tradicional que actúa como referencia.
Aleatorización
La asignación aleatoria es el proceso de asignar individuos al azar a grupos o a diferentes grupos en un experimento, de modo que cada individuo de la población tenga las mismas posibilidades de convertirse en participante del estudio. La asignación aleatoria de individuos a grupos (o condiciones dentro de un grupo) distingue un experimento riguroso y "verdadero" de un estudio observacional o "cuasi-experimento". [18] Existe un extenso cuerpo de teoría matemática que explora las consecuencias de realizar la asignación de unidades a los tratamientos mediante algún mecanismo aleatorio (como tablas de números aleatorios, o el uso de dispositivos de aleatorización como naipes o dados). . La asignación aleatoria de unidades a los tratamientos tiende a mitigar la confusión , lo que hace que los efectos debidos a factores distintos al tratamiento parezcan ser el resultado del tratamiento.
Los riesgos asociados con la asignación aleatoria (como tener un desequilibrio grave en una característica clave entre un grupo de tratamiento y un grupo de control) son calculables y, por lo tanto, pueden gestionarse hasta un nivel aceptable utilizando suficientes unidades experimentales. Sin embargo, si la población se divide en varias subpoblaciones que de alguna manera difieren y la investigación requiere que cada subpoblación tenga el mismo tamaño, se puede utilizar el muestreo estratificado. De esa manera, las unidades de cada subpoblación son aleatorias, pero no toda la muestra. Los resultados de un experimento pueden generalizarse de manera confiable desde las unidades experimentales a una población estadística más grande de unidades sólo si las unidades experimentales son una muestra aleatoria de la población más grande; el error probable de tal extrapolación depende, entre otras cosas, del tamaño de la muestra.
Replicación estadística
Las mediciones suelen estar sujetas a variaciones e incertidumbres de medición ; por lo tanto, se repiten y se replican experimentos completos para ayudar a identificar las fuentes de variación, estimar mejor los verdaderos efectos de los tratamientos, fortalecer aún más la confiabilidad y validez del experimento y aumentar el conocimiento existente sobre el tema. [19] Sin embargo, se deben cumplir ciertas condiciones antes de comenzar la replicación del experimento: la pregunta de investigación original ha sido publicada en una revista revisada por pares o ampliamente citada, el investigador es independiente del experimento original, el investigador primero debe intentarlo. replicar los hallazgos originales utilizando los datos originales, y el artículo debe indicar que el estudio realizado es un estudio de replicación que intentó seguir el estudio original lo más estrictamente posible. [20]
Bloqueo
Bloqueo (derecha)
El bloqueo es la disposición no aleatoria de unidades experimentales en grupos (bloques) formados por unidades similares entre sí. El bloqueo reduce las fuentes de variación conocidas pero irrelevantes entre unidades y, por lo tanto, permite una mayor precisión en la estimación de la fuente de variación bajo estudio.
Ortogonalidad
Ejemplo de diseño factorial ortogonal
La ortogonalidad se refiere a las formas de comparación (contrastes) que pueden llevarse a cabo de manera legítima y eficiente. Los contrastes se pueden representar mediante vectores y los conjuntos de contrastes ortogonales no están correlacionados y se distribuyen independientemente si los datos son normales. Debido a esta independencia, cada tratamiento ortogonal proporciona información diferente a los demás. Si hay T tratamientos y T – 1 contrastes ortogonales, toda la información que se puede capturar del experimento se puede obtener del conjunto de contrastes.
Experimentos multifactoriales
Uso de experimentos multifactoriales en lugar del método de un factor a la vez. Estos son eficientes para evaluar los efectos y posibles interacciones de varios factores (variables independientes). El análisis del diseño de experimentos se basa en el análisis de varianza , una colección de modelos que dividen la varianza observada en componentes, según los factores que el experimento debe estimar o probar.

Ejemplo

Este ejemplo de experimentos de diseño se atribuye a Harold Hotelling , basándose en ejemplos de Frank Yates . [21] [22] [14] Los experimentos diseñados en este ejemplo involucran diseños combinatorios . [23]

Los pesos de ocho objetos se miden utilizando una balanza de plato y un juego de pesas estándar. Cada pesaje mide la diferencia de peso entre los objetos en el plato izquierdo y cualquier objeto en el plato derecho agregando pesos calibrados al plato más ligero hasta que la balanza esté en equilibrio. Cada medición tiene un error aleatorio . El error promedio es cero; las desviaciones estándar de la distribución de probabilidad de los errores son el mismo número σ en diferentes ponderaciones; Los errores en diferentes pesajes son independientes . Denota los pesos verdaderos por

Consideramos dos experimentos diferentes:

  1. Pese cada objeto en un recipiente, con el otro recipiente vacío. Sea X i el peso medido del objeto, para i  = 1, ..., 8.
  2. Realice los ocho pesajes de acuerdo con el siguiente programa: una matriz de pesaje :
Sea Y i la diferencia medida para i = 1, ..., 8. Entonces el valor estimado del peso θ 1 es
Se pueden encontrar estimaciones similares para los pesos de los otros artículos:

La cuestión del diseño de experimentos es: ¿qué experimento es mejor?

La varianza de la estimación X 1 de θ 1 es σ 2 si utilizamos el primer experimento. Pero si utilizamos el segundo experimento, la varianza de la estimación dada anteriormente es σ 2/8 . Así, el segundo experimento nos da 8 veces más precisión para la estimación de un solo elemento y estima todos los elementos simultáneamente, con la misma precisión. Lo que logra el segundo experimento con ocho requeriría 64 pesajes si los artículos se pesan por separado. Sin embargo, tenga en cuenta que las estimaciones de los ítems obtenidos en el segundo experimento tienen errores que se correlacionan entre sí.

Muchos problemas del diseño de experimentos involucran diseños combinatorios , como en este ejemplo y otros. [23]

Evitar falsos positivos

Las conclusiones falsas positivas , que a menudo resultan de la presión para publicar o del sesgo de confirmación del propio autor , son un peligro inherente en muchos campos. [24]

El uso de diseños doble ciego puede evitar sesgos que puedan conducir a falsos positivos en la fase de recopilación de datos . Cuando se utiliza un diseño doble ciego, los participantes son asignados aleatoriamente a grupos experimentales, pero el investigador desconoce qué participantes pertenecen a qué grupo. Por tanto, el investigador no puede afectar la respuesta de los participantes a la intervención. [25]

Los diseños experimentales con grados de libertad [ jerga ] no revelados son un problema, [26] porque pueden llevar a un " p-hacking " consciente o inconsciente: probar varias cosas hasta obtener el resultado deseado. Por lo general, implica la manipulación (quizás inconscientemente) del proceso de análisis estadístico y los grados de libertad hasta que arrojan una cifra por debajo del nivel de significancia estadística p<0,05 . [27] [28]

El P-hacking se puede prevenir mediante el registro previo de investigaciones, en las que los investigadores deben enviar su plan de análisis de datos a la revista en la que desean publicar su artículo incluso antes de comenzar la recopilación de datos, de modo que no sea posible la manipulación de datos. [29] [30]

Otra forma de evitar esto es llevar un diseño doble ciego a la fase de análisis de datos, haciendo que el estudio sea triple ciego, donde los datos se envían a un analista de datos no relacionado con la investigación, quien los mezcla para que no haya manera. saber a qué pertenecen los participantes antes de que sean potencialmente considerados valores atípicos. [25]

También es importante una documentación clara y completa de la metodología experimental para respaldar la replicación de los resultados . [31]

Temas de discusión al configurar un diseño experimental.

Un diseño experimental o ensayo clínico aleatorio requiere una cuidadosa consideración de varios factores antes de realizar el experimento. [32] Un diseño experimental es el diseño de un plan experimental detallado antes de realizar el experimento. Algunos de los siguientes temas ya se han discutido en la sección de principios de diseño experimental:

  1. ¿Cuántos factores tiene el diseño? ¿Los niveles de estos factores son fijos o aleatorios?
  2. ¿Se necesitan condiciones de control y cuáles deberían ser?
  3. Controles de manipulación: ¿realmente funcionó la manipulación?
  4. ¿Cuáles son las variables de fondo?
  5. ¿Cuál es el tamaño de la muestra? ¿Cuántas unidades se deben recolectar para que el experimento sea generalizable y tenga suficiente potencia ?
  6. ¿Cuál es la relevancia de las interacciones entre factores?
  7. ¿Cuál es la influencia de los efectos retardados de factores sustantivos en los resultados?
  8. ¿Cómo afectan los cambios de respuesta a las medidas de autoinforme?
  9. ¿Qué tan factible es la administración repetida de los mismos instrumentos de medición a las mismas unidades en diferentes momentos, con una prueba posterior y pruebas de seguimiento?
  10. ¿Qué tal si utilizamos una prueba previa por proxy?
  11. ¿ Hay variables al acecho ?
  12. ¿Debería el cliente/paciente, el investigador o incluso el analista de los datos estar ciego a las condiciones?
  13. ¿Cuál es la viabilidad de la aplicación posterior de diferentes condiciones a las mismas unidades?
  14. ¿Cuántos de cada factor de control y ruido deben tenerse en cuenta?

La variable independiente de un estudio suele tener muchos niveles o grupos diferentes. En un experimento real, los investigadores pueden tener un grupo experimental, que es donde se implementa su intervención para probar la hipótesis, y un grupo de control, que tiene todos los mismos elementos que el grupo experimental, sin el elemento intervencionista. Por lo tanto, cuando todo lo demás excepto una intervención se mantiene constante, los investigadores pueden certificar con cierta certeza que este elemento es el que causó el cambio observado. En algunos casos, tener un grupo de control no es ético. En ocasiones, esto se resuelve utilizando dos grupos experimentales diferentes. En algunos casos, las variables independientes no se pueden manipular, por ejemplo cuando se prueba la diferencia entre dos grupos que tienen una enfermedad diferente, o cuando se prueba la diferencia entre géneros (obviamente variables a las que sería difícil o poco ético asignar a los participantes). En estos casos, se puede utilizar un diseño cuasiexperimental.

Atribuciones causales

En el diseño experimental puro, la variable independiente (predictora) es manipulada por el investigador, es decir, cada participante de la investigación se elige aleatoriamente de la población, y cada participante elegido se asigna aleatoriamente a las condiciones de la variable independiente. Sólo cuando se hace esto es posible certificar con alta probabilidad que la razón de las diferencias en las variables de resultado es causada por las diferentes condiciones. Por lo tanto, los investigadores deben elegir el diseño experimental sobre otros tipos de diseño siempre que sea posible. Sin embargo, la naturaleza de la variable independiente no siempre permite su manipulación. En esos casos, los investigadores deben ser conscientes de no certificar sobre la atribución causal cuando su diseño no lo permite. Por ejemplo, en los diseños observacionales, los participantes no son asignados aleatoriamente a las condiciones, por lo que si se encuentran diferencias en las variables de resultado entre condiciones, es probable que haya algo más que las diferencias entre las condiciones que causa las diferencias en los resultados, es decir, es – una tercera variable. Lo mismo ocurre con los estudios con diseño correlacional (Adér & Mellenbergh, 2008).

Control estadístico

Lo mejor es que un proceso tenga un control estadístico razonable antes de realizar los experimentos diseñados. Cuando esto no es posible, el bloqueo, la replicación y la aleatorización adecuados permiten la realización cuidadosa de los experimentos diseñados. [33] Para controlar las variables molestas, los investigadores instituyen controles de control como medidas adicionales. Los investigadores deben asegurarse de que las influencias incontroladas (por ejemplo, la percepción de credibilidad de la fuente) no distorsionen los hallazgos del estudio. Una verificación de manipulación es un ejemplo de verificación de control. Los controles de manipulación permiten a los investigadores aislar las variables principales para fortalecer el respaldo de que estas variables funcionan según lo planeado.

Uno de los requisitos más importantes de los diseños de investigación experimental es la necesidad de eliminar los efectos de las variables espurias , intermedias y antecedentes . En el modelo más básico, la causa (X) conduce al efecto (Y). Pero podría haber una tercera variable (Z) que influya en (Y), y X podría no ser la verdadera causa en absoluto. Se dice que Z es una variable espuria y debe controlarse. Lo mismo es cierto para las variables intermedias (una variable entre la supuesta causa (X) y el efecto (Y)), y las variables anteriores (una variable anterior a la supuesta causa (X) que es la verdadera causa). Cuando interviene una tercera variable y no se ha controlado, se dice que la relación es de orden cero. En la mayoría de las aplicaciones prácticas de los diseños de investigación experimental existen varias causas (X1, X2, X3). En la mayoría de los diseños, sólo se manipula una de estas causas a la vez.

Diseños experimentales después de Fisher.

Raj Chandra Bose y K. Kishen encontraron de forma independiente y casi sucesiva algunos diseños eficientes para estimar varios efectos principales en 1940 en el Instituto de Estadística de la India , pero siguieron siendo poco conocidos hasta que los diseños de Plackett-Burman se publicaron en Biometrika en 1946. Al mismo tiempo, CR Rao introdujo los conceptos de matrices ortogonales como diseños experimentales. Este concepto jugó un papel central en el desarrollo de los métodos Taguchi por Genichi Taguchi , que tuvo lugar durante su visita al Instituto de Estadística de la India a principios de la década de 1950. Sus métodos fueron aplicados y adoptados con éxito por las industrias japonesa e india y posteriormente también fueron adoptados por la industria estadounidense, aunque con algunas reservas.

En 1950, Gertrude Mary Cox y William Gemmell Cochran publicaron el libro Experimental Designs, que se convirtió en la principal obra de referencia sobre el diseño de experimentos para estadísticos durante años.

Los desarrollos de la teoría de los modelos lineales han abarcado y superado los casos que preocuparon a los primeros escritores. Hoy en día, la teoría se basa en temas avanzados de álgebra lineal , álgebra y combinatoria .

Al igual que con otras ramas de la estadística, el diseño experimental se lleva a cabo utilizando enfoques frecuentistas y bayesianos : al evaluar procedimientos estadísticos como diseños experimentales, la estadística frecuentista estudia la distribución muestral mientras que la estadística bayesiana actualiza una distribución de probabilidad en el espacio de parámetros.

Algunos contribuyentes importantes al campo de los diseños experimentales son CS Peirce , RA Fisher , F. Yates , RC Bose , AC Atkinson, RA Bailey , DR Cox , GEP Box , WG Cochran , WT Federer, VV Fedorov, AS Hedayat, J. Kiefer. , O. Kempthorne , JA Nelder , Andrej Pázman, Friedrich Pukelsheim, D. Raghavarao , CR Rao , Shrikhande SS , JN Srivastava , William J. Studden, G. Taguchi y HP Wynn. [34]

Los libros de texto de D. Montgomery, R. Myers y G. Box/W. Hunter/JS Hunter ha llegado a generaciones de estudiantes y profesionales. [35] [36] [37] [38] [39]

En [40] y se ofrece una discusión sobre el diseño experimental en el contexto de la identificación de sistemas (construcción de modelos para modelos estáticos o dinámicos) . [41]

Restricciones de los participantes humanos

Las leyes y consideraciones éticas impiden algunos experimentos cuidadosamente diseñados con sujetos humanos. Las restricciones legales dependen de la jurisdicción . Las limitaciones pueden incluir juntas de revisión institucional , consentimiento informado y confidencialidad que afecten tanto a los ensayos clínicos (médicos) como a los experimentos de ciencias sociales y del comportamiento. [42] En el campo de la toxicología, por ejemplo, se realizan experimentos en animales de laboratorio con el objetivo de definir límites de exposición seguros para los seres humanos . [43] Equilibrar las limitaciones son puntos de vista desde el campo médico. [44] Respecto a la aleatorización de los pacientes, "... si nadie sabe qué terapia es mejor, no existe ningún imperativo ético para utilizar una terapia u otra". (p. 380) En cuanto al diseño experimental, "... claramente no es ético poner a los sujetos en riesgo para recopilar datos en un estudio mal diseñado cuando esta situación puede evitarse fácilmente...". (pág. 393)

Ver también

Referencias

  1. ^ "La naturaleza secuencial del diseño clásico de experimentos | Prisma". prismtc.co.uk . Consultado el 10 de marzo de 2023 .
  2. ^ Peirce, Charles Sanders (1887). "Ilustraciones de la lógica de la ciencia". Open Court (10 de junio de 2014). ISBN 0812698495
  3. ^ Peirce, Charles Sanders (1883). "Una teoría de la inferencia probable". En CS Peirce (Ed.), Estudios de lógica realizados por miembros de la Universidad Johns Hopkins (p. 126-181). Pequeño, Brown y compañía (1883)
  4. ^ Stigler, Stephen M. (1978). "Estadística matemática en los primeros estados". Anales de Estadística . 6 (2): 239–65 [248]. doi : 10.1214/aos/1176344123 . JSTOR  2958876. MR  0483118. De hecho, el trabajo de Pierce contiene uno de los primeros respaldos explícitos de la aleatorización matemática como base para la inferencia que yo sepa (Peirce, 1957, páginas 216-219).
  5. ^ ab Peirce, Charles Sanders ; Jastrow, José (1885). "Sobre las pequeñas diferencias en las sensaciones". Memorias de la Academia Nacional de Ciencias . 3 : 73–83.
  6. ^ ab de Hacking, Ian (septiembre de 1988). "Telepatía: orígenes de la aleatorización en el diseño experimental". Isis . 79 (3): 427–451. doi :10.1086/354775. JSTOR  234674. SEÑOR  1013489. S2CID  52201011.
  7. ^ ab Stephen M. Stigler (noviembre de 1992). "Una visión histórica de los conceptos estadísticos en psicología y investigación educativa". Revista Estadounidense de Educación . 101 (1): 60–70. doi :10.1086/444032. JSTOR  1085417. S2CID  143685203.
  8. ^ ab Trudy Dehue (diciembre de 1997). "Engaño, eficiencia y grupos aleatorios: psicología y el origen gradual del diseño de grupos aleatorios". Isis . 88 (4): 653–673. doi :10.1086/383850. PMID  9519574. S2CID  23526321.
  9. ^ Peirce, CS (1876). "Nota sobre la Teoría de la Economía de la Investigación". Informe del estudio costero : 197–201., publicado en 1879, NOAA PDF Eprint Archivado el 2 de marzo de 2017 en Wayback Machine .
    Reimpreso en Collected Papers 7 , párrafos 139 a 157, también en Writings 4 , págs. 72 a 78, y en Peirce, CS (julio-agosto de 1967). "Nota sobre la Teoría de la Economía de la Investigación". La investigación de operaciones . 15 (4): 643–648. doi :10.1287/opre.15.4.643. JSTOR  168276.
  10. ^ Guttorp, P.; Lindgren, G. (2009). "Karl Pearson y la escuela escandinava de estadística". Revista estadística internacional . 77 : 64. CiteSeerX 10.1.1.368.8328 . doi :10.1111/j.1751-5823.2009.00069.x. S2CID  121294724. 
  11. ^ Smith, Kirstine (1918). "Sobre las desviaciones estándar de los valores ajustados e interpolados de una función polinómica observada y sus constantes y la orientación que dan para una elección adecuada de la distribución de las observaciones". Biometrika . 12 (1–2): 1–85. doi :10.1093/biomet/12.1-2.1.
  12. ^ Johnson, Países Bajos (1961). "Análisis secuencial: una encuesta". Revista de la Royal Statistical Society , Serie A. Vol. 1, núm. 124 (3), 372–411. (páginas 375 y 376)
  13. ^ Wald, A. (1945) "Pruebas secuenciales de hipótesis estadísticas", Annals of Mathematical Statistics , 16 (2), 117–186.
  14. ^ ab Herman Chernoff , Análisis secuencial y diseño óptimo , Monografía SIAM , 1972.
  15. ^ Zacks, S. (1996) "Diseños adaptativos para modelos paramétricos". En: Ghosh, S. y Rao, CR, (Eds) (1996). "Diseño y análisis de experimentos", Manual de estadística , volumen 13. Holanda Septentrional. ISBN 0-444-82061-2 . (páginas 151 a 180) 
  16. ^ Robbins, H. (1952). "Algunos aspectos del diseño secuencial de experimentos". Boletín de la Sociedad Matemática Estadounidense . 58 (5): 527–535. doi : 10.1090/S0002-9904-1952-09620-8 .
  17. ^ Molinero, Geoffrey (2000). The Mating Mind: cómo la elección sexual dio forma a la evolución de la naturaleza humana , Londres: Heineman, ISBN 0-434-00741-2 (también Doubleday, ISBN 0-385-49516-1 ) "Para los biólogos, fue un arquitecto del ' "Síntesis moderna" que utilizó modelos matemáticos para integrar la genética mendeliana con las teorías de selección de Darwin. Para los psicólogos, Fisher fue el inventor de varias pruebas estadísticas que todavía se supone que se utilizan siempre que sea posible en las revistas de psicología. Para los agricultores, Fisher fue el fundador de la agricultura experimental. investigación, salvando a millones de la hambruna a través de programas racionales de mejoramiento de cultivos". pág.54.  
  18. ^ Creswell, JW (2008), Investigación educativa: planificación, realización y evaluación de investigaciones cuantitativas y cualitativas (tercera edición) , Upper Saddle River, Nueva Jersey: Prentice Hall. 2008, pág. 300. ISBN 0-13-613550-1 
  19. ^ Dr. Hani (2009). "Estudio de replicación". Archivado desde el original el 2 de junio de 2012 . Consultado el 27 de octubre de 2011 .
  20. ^ Birmano, Leonard E.; Robert W. Reed; James Alm (2010), "Un llamado a estudios de replicación", Public Finance Review , 38 (6): 787–793, doi :10.1177/1091142110385210, S2CID  27838472 , consultado el 27 de octubre de 2011
  21. ^ Hotelling, Harold (1944). "Algunas mejoras en el pesaje y otras técnicas experimentales". Anales de estadística matemática . 15 (3): 297–306. doi : 10.1214/aoms/1177731236 .
  22. ^ Giri, Narayan C.; Das, MN (1979). Diseño y análisis de experimentos. Nueva York, Nueva York: Wiley. págs. 350–359. ISBN 9780852269145.
  23. ^ ab Jack Sifri (8 de diciembre de 2014). "Cómo utilizar el diseño de experimentos para crear diseños robustos con alto rendimiento". youtube.com . Consultado el 11 de febrero de 2015 .
  24. ^ Forstmeier, Wolfgang; Wagenmakers, Eric-Jan; Parker, Timothy H. (23 de noviembre de 2016). "Detectar y evitar posibles resultados falsos positivos: una guía práctica". Reseñas biológicas . 92 (4): 1941-1968. doi : 10.1111/brv.12315 . ISSN  1464-7931. PMID  27879038. S2CID  26793416.
  25. ^ ab David, Sharoon; Khandhar1, Paras B. (17 de julio de 2023). "Estudio doble ciego". Publicación de StatPearls . PMID  31536248.{{cite journal}}: CS1 maint: numeric names: authors list (link)
  26. ^ Simmons, José; Leif Nelson; Uri Simonsohn (noviembre de 2011). "Psicología falsa positiva: la flexibilidad no revelada en la recopilación y el análisis de datos permite presentar cualquier cosa como significativa". Ciencia psicológica . 22 (11): 1359-1366. doi :10.1177/0956797611417632. ISSN  0956-7976. PMID  22006061.
  27. ^ "Ciencia, confianza y psicología en crisis". KPLU . 2 de junio de 2014. Archivado desde el original el 14 de julio de 2014 . Consultado el 12 de junio de 2014 .
  28. ^ "Por qué los estudios estadísticamente significativos pueden ser insignificantes". Estándar del Pacífico . 4 de junio de 2014 . Consultado el 12 de junio de 2014 .
  29. ^ Nosek, Brian A.; Ebersole, Charles R.; DeHaven, Alexander C.; Mellor, David T. (13 de marzo de 2018). "La revolución de la preinscripción". Procedimientos de la Academia Nacional de Ciencias . 115 (11): 2600–2606. Código Bib : 2018PNAS..115.2600N. doi : 10.1073/pnas.1708274114 . ISSN  0027-8424. PMC 5856500 . PMID  29531091. 
  30. ^ "Estudios de preinscripción: ¿qué son, cómo se hacen y por qué?". www.acf.hhs.gov . Consultado el 29 de agosto de 2023 .
  31. ^ Chris Chambers (10 de junio de 2014). "Envidia de la física: ¿Las ciencias 'duras' contienen la solución a la crisis de replicación en psicología?". theguardian.com . Consultado el 12 de junio de 2014 .
  32. ^ Ader, Mellenberg & Hand (2008) "Asesoramiento sobre métodos de investigación: el compañero de un consultor"
  33. ^ Bisgaard, S (2008) "¿Debe un proceso estar bajo control estadístico antes de realizar experimentos diseñados?", Ingeniería de calidad , ASQ, 20 (2), págs.
  34. ^ Giri, Narayan C.; Das, MN (1979). Diseño y análisis de experimentos. Nueva York, Nueva York: Wiley. págs.53, 159, 264. ISBN 9780852269145.
  35. ^ Montgomery, Douglas (2013). Diseño y análisis de experimentos (8ª ed.). Hoboken, Nueva Jersey: John Wiley & Sons, Inc. ISBN 9781118146927.
  36. ^ Walpole, Ronald E.; Myers, Raymond H.; Myers, Sharon L.; Sí, Keying (2007). Probabilidad y estadística para ingenieros y científicos (8 ed.). Upper Saddle River, Nueva Jersey: Pearson Prentice Hall. ISBN 978-0131877115.
  37. ^ Myers, Raymond H.; Montgomery, Douglas C.; Vining, G. Geoffrey; Robinson, Timothy J. (2010). Modelos lineales generalizados: con aplicaciones en ingeniería y ciencias (2 ed.). Hoboken, Nueva Jersey: Wiley. ISBN 978-0470454633.
  38. ^ Caja, George EP; Cazador, William G.; Cazador, J. Stuart (1978). Estadísticas para experimentadores: introducción al diseño, análisis de datos y construcción de modelos. Nueva York: Wiley. ISBN 978-0-471-09315-2.
  39. ^ Caja, George EP; Cazador, William G.; Cazador, J. Stuart (2005). Estadísticas para experimentadores: diseño, innovación y descubrimiento (2 ed.). Hoboken, Nueva Jersey: Wiley. ISBN 978-0471718130.
  40. ^ Spall, JC (2010). "Diseño factorial para la experimentación eficiente: generación de datos informativos para la identificación del sistema". Revista de sistemas de control IEEE . 30 (5): 38–53. doi :10.1109/MCS.2010.937677. S2CID  45813198.
  41. ^ Pronzato, L (2008). "Diseño experimental óptimo y algunos problemas de control relacionados". Automática . 44 (2): 303–325. arXiv : 0802.4381 . doi :10.1016/j.automatica.2007.05.016. S2CID  1268930.
  42. ^ Moore, David S.; Notz, Guillermo I. (2006). Estadística: conceptos y controversias (6ª ed.). Nueva York: WH Freeman. págs. Capítulo 7: Ética de los datos. ISBN 9780716786368.
  43. ^ Ottoboni, M. Alice (1991). La dosis produce el veneno: una guía de toxicología en lenguaje sencillo (2ª ed.). Nueva York, Nueva York: Van Nostrand Reinhold. ISBN 978-0442006600.
  44. ^ Glantz, Stanton A. (1992). Manual de bioestadística (3ª ed.). ISBN 978-0-07-023511-3.

Fuentes

enlaces externos