La optimalidad de un diseño depende del modelo estadístico y se evalúa con respecto a un criterio estadístico, que está relacionado con la matriz de varianza del estimador. Para especificar un modelo apropiado y una función de criterio adecuada es necesario comprender la teoría estadística y tener conocimientos prácticos sobre el diseño de experimentos .
Los diseños óptimos pueden tener en cuenta múltiples tipos de factores, como factores de proceso, de mezcla y discretos.
Los diseños se pueden optimizar cuando el espacio de diseño está restringido, por ejemplo, cuando el espacio del proceso matemático contiene configuraciones de factores que son prácticamente inviables (por ejemplo, debido a preocupaciones de seguridad).
Minimizar la varianza de los estimadores
Los diseños experimentales se evalúan utilizando criterios estadísticos. [6]
Un criterio es la A-optimalidad , que busca minimizar la traza de la inversa de la matriz de información. Este criterio da como resultado minimizar la varianza promedio de las estimaciones de los coeficientes de regresión.
C -optimalidad
Este criterio minimiza la varianza de un mejor estimador lineal insesgado de una combinación lineal predeterminada de parámetros del modelo.
D -optimalidad ( determinante )
Un criterio popular es la D-optimalidad , que busca minimizar |(X'X) −1 |, o equivalentemente maximizar el determinante de la matriz de información X'X del diseño. Este criterio da como resultado la maximización del contenido de información diferencial de Shannon de las estimaciones de los parámetros.
E -optimalidad ( valor propio )
Otro diseño es la E-optimalidad , que maximiza el valor propio mínimo de la matriz de información.
S -optimalidad [9]
Este criterio maximiza una cantidad que mide la ortogonalidad mutua de las columnas X y el determinante de la matriz de información.
T -optimalidad
Este criterio maximiza la discrepancia entre dos modelos propuestos en las ubicaciones de diseño. [10]
Otros criterios de optimalidad se refieren a la varianza de las predicciones :
G -optimalidad
Un criterio popular es la G-optimalidad , que busca minimizar la entrada máxima en la diagonal de la matriz de sombrero X(X'X) −1 X'. Esto tiene el efecto de minimizar la varianza máxima de los valores predichos.
I -optimalidad ( integrada )
Un segundo criterio sobre la varianza de predicción es la I-optimalidad , que busca minimizar la varianza de predicción promedio en el espacio de diseño .
V -optimalidad ( varianza )
Un tercer criterio sobre la varianza de predicción es la V-optimalidad , que busca minimizar la varianza de predicción promedio sobre un conjunto de m puntos específicos. [11]
Existen catálogos de diseños óptimos en libros y bibliotecas de software.
Además, los principales sistemas estadísticos como SAS y R tienen procedimientos para optimizar un diseño según las especificaciones del usuario. El experimentador debe especificar un modelo para el diseño y un criterio de optimalidad antes de que el método pueda calcular un diseño óptimo. [13]
Consideraciones prácticas
Algunos temas avanzados en diseño óptimo requieren más teoría estadística y conocimientos prácticos en el diseño de experimentos.
Dependencia y robustez del modelo
Dado que el criterio de optimalidad de la mayoría de los diseños óptimos se basa en alguna función de la matriz de información, la "optimalidad" de un diseño determinado depende del modelo : si bien un diseño óptimo es el mejor para ese modelo , su rendimiento puede deteriorarse en otros modelos . En otros modelos , un diseño óptimo puede ser mejor o peor que un diseño no óptimo. [14] Por lo tanto, es importante comparar el rendimiento de los diseños con modelos alternativos . [15]
Elección de un criterio de optimalidad y robustez
La elección de un criterio de optimalidad adecuado requiere cierta reflexión, y es útil comparar el rendimiento de los diseños con respecto a varios criterios de optimalidad. Cornell escribe que
dado que los criterios [de optimalidad tradicional] . . . son criterios de minimización de la varianza, . . . un diseño que es óptimo para un modelo dado utilizando uno de los . . . criterios suele ser casi óptimo para el mismo modelo con respecto a los otros criterios.
— [16]
De hecho, hay varias clases de diseños para los cuales todos los criterios de optimalidad tradicionales coinciden, según la teoría de "optimalidad universal" de Kiefer . [17] La experiencia de profesionales como Cornell y la teoría de "optimalidad universal" de Kiefer sugieren que la robustez con respecto a los cambios en el criterio de optimalidad es mucho mayor que la robustez con respecto a los cambios en el modelo .
Criterios de optimalidad flexibles y análisis convexo
Los programas estadísticos de alta calidad ofrecen una combinación de bibliotecas de diseños óptimos o métodos iterativos para construir diseños aproximadamente óptimos, según el modelo especificado y el criterio de optimalidad. Los usuarios pueden utilizar un criterio de optimalidad estándar o pueden programar un criterio personalizado.
Todos los criterios de optimalidad tradicionales son funciones convexas (o cóncavas) y, por lo tanto, los diseños óptimos son susceptibles de la teoría matemática del análisis convexo y su cálculo puede utilizar métodos especializados de minimización convexa . [18] El profesional no necesita seleccionar exactamente un criterio de optimalidad tradicional, sino que puede especificar un criterio personalizado. En particular, el profesional puede especificar un criterio convexo utilizando los máximos de los criterios de optimalidad convexos y combinaciones no negativas de criterios de optimalidad (ya que estas operaciones preservan las funciones convexas ). Para los criterios de optimalidad convexos , el teorema de equivalencia de Kiefer - Wolfowitz permite al profesional verificar que un diseño dado es globalmente óptimo. [19] El teorema de equivalencia de Kiefer - Wolfowitz está relacionado con la conjugación de Legendre - Fenchel para funciones convexas . [20]
Si un criterio de optimalidad carece de convexidad , entonces encontrar un óptimo global y verificar su optimalidad suele ser difícil.
Incertidumbre del modelo y enfoques bayesianos
Selección de modelo
Cuando los científicos desean probar varias teorías, un estadístico puede diseñar un experimento que permita realizar pruebas óptimas entre modelos específicos. Estos "experimentos de discriminación" son especialmente importantes en la bioestadística que sustenta la farmacocinética y la farmacodinámica , siguiendo el trabajo de Cox y Atkinson. [21]
Sin embargo, el uso de un diseño bayesiano no obliga a los estadísticos a utilizar métodos bayesianos para analizar los datos. De hecho, a algunos investigadores no les gusta la etiqueta "bayesiana" para los diseños experimentales basados en la probabilidad. [23] La terminología alternativa para la optimalidad "bayesiana" incluye la optimalidad "en promedio" o la optimalidad "poblacional".
Experimentación iterativa
La experimentación científica es un proceso iterativo y los estadísticos han desarrollado varios enfoques para el diseño óptimo de experimentos secuenciales.
Los diseños óptimos para los modelos de superficie de respuesta se analizan en el libro de texto de Atkinson, Donev y Tobias, en la encuesta de Gaffke y Heiligers y en el texto matemático de Pukelsheim. El bloqueo de los diseños óptimos se analiza en el libro de texto de Atkinson, Donev y Tobias y también en la monografía de Goos.
Los primeros diseños óptimos fueron desarrollados para estimar los parámetros de los modelos de regresión con variables continuas, por ejemplo, por J. D. Gergonne en 1815 (Stigler). En inglés, dos contribuciones tempranas fueron realizadas por Charles S. Peirce y Kirstine Smith.
George EP Box propuso diseños pioneros para superficies de respuesta multivariadas . Sin embargo, los diseños de Box tienen pocas propiedades de optimalidad. De hecho, el diseño de Box-Behnken requiere ejecuciones experimentales excesivas cuando el número de variables excede tres. [28] Los diseños "central-compuestos"
de Box requieren más ejecuciones experimentales que los diseños óptimos de Kôno. [29]
Identificación de sistemas y aproximación estocástica
Especificación del número de ejecuciones experimentales
Usando una computadora para encontrar un buen diseño
Existen varios métodos para encontrar un diseño óptimo, dada una restricción a priori en el número de ejecuciones experimentales o réplicas. Algunos de estos métodos son analizados por Atkinson, Donev y Tobias y en el artículo de Hardin y Sloane . Por supuesto, fijar el número de ejecuciones experimentales a priori sería poco práctico. Los estadísticos prudentes examinan los otros diseños óptimos, cuyo número de ejecuciones experimentales difiere.
Discretización de diseños de medidas de probabilidad
En la teoría matemática de los experimentos óptimos, un diseño óptimo puede ser una medida de probabilidad que se apoya en un conjunto infinito de ubicaciones de observación. Estos diseños de medida de probabilidad óptima resuelven un problema matemático que no especifica el costo de las observaciones y las ejecuciones experimentales. No obstante, estos diseños de medida de probabilidad óptima pueden discretizarse para proporcionar diseños aproximadamente óptimos. [32]
En algunos casos, un conjunto finito de ubicaciones de observación es suficiente para sustentar un diseño óptimo. Este resultado fue demostrado por Kôno y Kiefer en sus trabajos sobre diseños de superficies de respuesta para modelos cuadráticos. El análisis de Kôno-Kiefer explica por qué los diseños óptimos para superficies de respuesta pueden tener soportes discretos, que son muy similares a los diseños menos eficientes que han sido tradicionales en la metodología de superficies de respuesta . [33]
En 1876, Charles S. Peirce propuso una teoría económica de la experimentación científica que buscaba maximizar la precisión de las estimaciones. La asignación óptima de Peirce mejoró inmediatamente la precisión de los experimentos gravitacionales y fue utilizada durante décadas por Peirce y sus colegas. En su conferencia publicada en 1882 en la Universidad Johns Hopkins , Peirce introdujo el diseño experimental con estas palabras:
La lógica no se encargará de informarle qué tipo de experimentos debe hacer para determinar mejor la aceleración de la gravedad o el valor de Ohm; pero le dirá cómo proceder para formar un plan de experimentación.
[....] Desafortunadamente, la práctica generalmente precede a la teoría, y es el destino habitual de la humanidad hacer las cosas de alguna manera desconcertante primero, y descubrir después cómo se podrían haber hecho mucho más fácil y perfectamente. [34]
Kirstine Smith propuso diseños óptimos para modelos polinomiales en 1918. (Kirstine Smith había sido estudiante del estadístico danés Thorvald N. Thiele y estaba trabajando con Karl Pearson en Londres).
^ El adjetivo "óptimo" (y no "óptimo") "es la forma ligeramente más antigua en inglés y evita la construcción 'optim(um) + al'; no existe 'optimalis' en latín" (página x en Optimum Experimental Designs, con SAS , por Atkinson, Donev y Tobias).
^ Guttorp, P.; Lindgren, G. (2009). "Karl Pearson y la escuela escandinava de estadística". Revista estadística internacional . 77 : 64. CiteSeerX 10.1.1.368.8328 . doi :10.1111/j.1751-5823.2009.00069.x. S2CID 121294724.
^ Smith, Kirstine (1918). "Sobre las desviaciones estándar de los valores ajustados e interpolados de una función polinómica observada y sus constantes y la orientación que proporcionan hacia una elección adecuada de la distribución de las observaciones". Biometrika . 12 (1/2): 1–85. doi :10.2307/2331929. JSTOR 2331929.
^ Estas tres ventajas (de los diseños óptimos) están documentadas en el libro de texto de Atkinson, Donev y Tobias.
^ Tradicionalmente, los estadísticos han evaluado estimadores y diseños considerando alguna estadística resumen de la matriz de covarianza (de un estimador insesgado de media ), usualmente con valores reales positivos (como el determinante o la traza de la matriz ). Trabajar con números reales positivos trae varias ventajas: Si el estimador de un solo parámetro tiene una varianza positiva, entonces la varianza y la información de Fisher son ambas números reales positivos; por lo tanto, son miembros del cono convexo de números reales no negativos (cuyos miembros distintos de cero tienen recíprocos en este mismo cono).
Para varios parámetros, las matrices de covarianza y las matrices de información son elementos del cono convexo de matrices simétricas definidas no negativas en un espacio vectorial parcialmente ordenado , bajo el orden de Loewner (Löwner). Este cono es cerrado bajo la adición de matriz-matriz, bajo la inversión de matriz y bajo la multiplicación de números reales positivos y matrices. Una exposición de la teoría de matrices y el orden de Loewner aparece en Pukelsheim.
^ Shin, Yeonjong; Xiu, Dongbin (2016). "Selección de puntos cuasi-óptimos no adaptativos para regresión lineal de mínimos cuadrados". Revista SIAM de Computación Científica . 38 (1): A385–A411. Código Bibliográfico :2016SJSC...38A.385S. doi :10.1137/15M1015868.
^ Atkinson, AC; Fedorov, VV (1975). "El diseño de experimentos para discriminar entre dos modelos rivales". Biometrika . 62 (1): 57–70. doi :10.1093/biomet/62.1.57. ISSN 0006-3444.
^ Los criterios de optimalidad anteriores son funciones convexas en dominios de matrices semidefinidas positivas simétricas : consulte un libro de texto en línea para profesionales, que tiene muchas ilustraciones y aplicaciones estadísticas:
Boyd, Stephen P.; Vandenberghe, Lieven (2004). Optimización convexa (PDF) . Cambridge University Press. ISBN 978-0-521-83378-3. Recuperado el 15 de octubre de 2011 . (libro en pdf)
Boyd y Vandenberghe analizan diseños experimentales óptimos en las páginas 384–396.
^ Los métodos iterativos y los algoritmos de aproximación se analizan en el libro de texto de Atkinson, Donev y Tobias y en las monografías de Fedorov (histórico) y Pukelsheim, y en el artículo de revisión de Gaffke y Heiligers.
^ Véase Kiefer ("Diseños óptimos para el ajuste de superficies multirespuesta sesgadas", páginas 289-299).
^ Cornell, John (2002). Experimentos con mezclas: diseños, modelos y análisis de datos de mezclas (tercera edición). Wiley. ISBN978-0-471-07916-3.(Páginas 400-401)
^ En el libro de texto de Atkinson, Donev y Tobias aparece una introducción a la "optimalidad universal". En el libro de texto avanzado de Pukelsheim y en los artículos de Kiefer se ofrecen exposiciones más detalladas.
^ Los métodos computacionales son analizados por Pukelsheim y por Gaffke y Heiligers.
^ El teorema de equivalencia de Kiefer - Wolfowitz se analiza en el Capítulo 9 de Atkinson, Donev y Tobias.
Optimización convexa. Cambridge University Press. 2004. (libro en pdf)
Boyd y Vandenberghe analizan diseños experimentales óptimos en las páginas 384–396.
^ Véase el Capítulo 20 en Atkinison, Donev y Tobias.
^ Atkinson, Donev y Tobias analizan los diseños bayesianos en el capítulo 18 del libro de texto. En la monografía de Fedorov y Hackl y en los artículos de Chaloner y Verdinelli y de DasGupta se ofrecen análisis más avanzados. Chang y Notz analizan los diseños bayesianos y otros aspectos de los diseños "robustos a los modelos".
^ Como alternativa a la " optimalidad bayesiana ", Fedorov y Hackl defienden la "optimalidad promedio ".
^ Wald, Abraham (junio de 1945). "Pruebas secuenciales de hipótesis estadísticas". Anales de estadística matemática . 16 (2): 117–186. doi : 10.1214/aoms/1177731118 . JSTOR 2235829.
^ Chernoff, H. (1972) Análisis secuencial y diseño óptimo, Monografía SIAM.
^ Zacks, S. (1996) "Diseños adaptativos para modelos paramétricos". En: Ghosh, S. y Rao, CR, (Eds) (1996). Diseño y análisis de experimentos, Manual de estadística, volumen 13. Holanda del Norte. ISBN 0-444-82061-2 . (páginas 151–180)
^
Henry P. Wynn escribió: "La teoría moderna del diseño óptimo tiene sus raíces en la escuela de teoría de la decisión de las estadísticas estadounidenses fundada por Abraham Wald " en su introducción "Contribuciones de Jack Kiefer al diseño experimental", que se encuentra en las páginas xvii-xxiv del siguiente volumen:
Kiefer reconoce la influencia y los resultados de Wald en muchas páginas: 273 (página 55 en el volumen reimpreso), 280 (62), 289-291 (71-73), 294 (76), 297 (79), 315 (97) 319 (101) – en este artículo:
Kiefer, J. (1959). "Diseños experimentales óptimos". Revista de la Royal Statistical Society, Serie B. 21 : 272–319.
^ Algunas reglas de tamaño de paso para Judin y Nemirovskii y para Polyak Archivado el 31 de octubre de 2007 en Wayback Machine se explican en el libro de texto de Kushner y Yin:
^ Atkinson, Donev y Tobias, así como Pukelsheim (especialmente en el Capítulo 12), analizan la discretización de diseños de medidas de probabilidad óptimas para proporcionar diseños aproximadamente óptimos.
^ En cuanto a los diseños de superficies de respuesta cuadráticas , los resultados de Kôno y Kiefer se analizan en Atkinson, Donev y Tobias. Matemáticamente, dichos resultados se asocian con polinomios de Chebyshev , "sistemas de Markov" y "espacios de momentos": Véase
^ Peirce, CS (1882), "Introductory Lecture on the Study of Logic" dictada en septiembre de 1882, publicada en Johns Hopkins University Circulars , v. 2, n. 19, págs. 11-12, noviembre de 1882, véase pág. 11, Google Books Eprint. Reimpreso en Collected Papers v. 7, párrafos 59-76, véase 59, 63, Writings of Charles S. Peirce v. 4, págs. 378-82, véanse 378, 379, y The Essential Peirce v. 1, págs. 210-14, véase 210-1, también más abajo en 211.
Chernoff, Herman (1972). Análisis secuencial y diseño óptimo . Sociedad de Matemáticas Industriales y Aplicadas. ISBN 978-0-89871-006-9.
Fedorov, VV (1972). Teoría de experimentos óptimos . Academic Press.
Fedorov, Valerii V.; Hackl, Peter (1997). Diseño de experimentos orientado a modelos . Apuntes de clase sobre estadística. Vol. 125. Springer-Verlag.
Goos, Peter (2002). El diseño óptimo de experimentos de bloques y parcelas divididas. Apuntes de clase sobre estadística. Vol. 164. Springer.
Kiefer, Jack Carl (1985). Brown ; Olkin, Ingram ; Sacks, Jerome; et al. (eds.). Jack Carl Kiefer: Documentos recopilados III: Diseño de experimentos . Springer-Verlag y el Instituto de Estadística Matemática. págs. 718+xxv. ISBN 978-0-387-96004-3.
Logothetis, N.; Wynn, H. P. (1989). Calidad a través del diseño: diseño experimental, control de calidad fuera de línea y contribuciones de Taguchi . Oxford U. P. pp. 464+xi. ISBN 978-0-19-851993-5.
Nordström, Kenneth (mayo de 1999). "La vida y obra de Gustav Elfving". Ciencia estadística . 14 (2): 174–196. doi : 10.1214/ss/1009212244 . JSTOR 2676737. MR 1722074.
Pukelsheim, Friedrich (2006). Diseño óptimo de experimentos. Classics in Applied Mathematics. Vol. 50 (republicación con lista de erratas y nuevo prefacio de Wiley (0-471-61971-X) ed. 1993). Society for Industrial and Applied Mathematics . pp. 454+xxxii. ISBN 978-0-89871-604-7.
Shah, Kirti R. y Sinha, Bikas K. (1989). Teoría de diseños óptimos . Apuntes de clase sobre estadística. Vol. 54. Springer-Verlag. Págs. 171+viii. ISBN.978-0-387-96991-6.
Lectura adicional
Libros de texto para profesionales y estudiantes
Libros de texto que enfatizan la metodología de regresión y superficie de respuesta
El libro de texto de Atkinson, Donev y Tobias se ha utilizado en cursos cortos para profesionales industriales, así como en cursos universitarios.
Atkinson, AC; Donev, AN; Tobias, RD (2007). Diseños experimentales óptimos, con SAS. Oxford University Press. pp. 511+xvi. ISBN 978-0-19-929660-6.
Logothetis, N.; Wynn, HP (1989). Calidad a través del diseño: diseño experimental, control de calidad fuera de línea y contribuciones de Taguchi . Oxford UP pp. 464+xi. ISBN 978-0-19-851993-5.
Libros de texto que enfatizan los diseños de bloques
Bailey y Bapat analizan los diseños de bloques óptimos . El primer capítulo del libro de Bapat analiza el álgebra lineal que utiliza Bailey (o los libros avanzados que se mencionan a continuación). Los ejercicios de Bailey y el análisis de la aleatorización hacen hincapié en los conceptos estadísticos (en lugar de los cálculos algebraicos).
Bailey, RA (2008). Diseño de experimentos comparativos. Cambridge UP ISBN 978-0-521-68357-9.Borrador disponible en línea. (Especialmente el Capítulo 11.8 "Optimalidad")
Bapat, RB (2000). Álgebra lineal y modelos lineales (segunda edición). Springer. ISBN 978-0-387-98871-9.(Capítulo 5 "Diseños de bloques y optimalidad", páginas 99-111)
Los diseños de bloques óptimos se analizan en la monografía avanzada de Shah y Sinha y en los artículos de investigación de Cheng y Majumdar.
Libros para estadísticos e investigadores profesionales
Ghosh, S.; Rao, CR , eds. (1996). Diseño y análisis de experimentos . Manual de estadística. Vol. 13. Holanda Septentrional. ISBN 978-0-444-82061-7.
" Diseños robustos de modelos ". Diseño y análisis de experimentos . Manual de estadística. pp. 1055–1099.
Cheng, C.-S. "Diseño óptimo: teoría exacta". Diseño y análisis de experimentos . Manual de estadística. pp. 977–1006.
DasGupta, A. "Revisión de diseños bayesianos óptimos ". Diseño y análisis de experimentos . Manual de estadística. págs. 1099–1148.
Gaffke, N. y Heiligers, B. "Diseños aproximados para regresión polinomial : invariancia , admisibilidad y optimalidad". Diseño y análisis de experimentos . Manual de estadística. págs. 1149–1199.
Majumdar, D. "Diseños de tratamiento y control óptimos y eficientes". Diseño y análisis de experimentos . Manual de estadística. págs. 1007–1054.
Stufken, J. "Optimal Crossover Designs ". Diseño y análisis de experimentos . Manual de estadística. págs. 63–90.
Zacks, S. "Diseños adaptativos para modelos paramétricos". Diseño y análisis de experimentos . Manual de estadística. pp. 151–180.
Kôno, Kazumasa (1962). "Diseños óptimos para la regresión cuadrática en el cubo k" (PDF) . Memorias de la Facultad de Ciencias. Universidad de Kyushu. Serie A. Matemáticas . 16 (2): 114–122. doi : 10.2206/kyushumfs.16.114 .
Histórico
Gergonne, JD (noviembre de 1974) [1815]. "La aplicación del método de mínimos cuadrados a la interpolación de sucesiones". Historia Mathematica . 1 (4) (Traducido por Ralph St. John y SM Stigler de la edición francesa de 1815): 439–447. doi : 10.1016/0315-0860(74)90034-2 .
Stigler, Stephen M. (noviembre de 1974). «Artículo de Gergonne de 1815 sobre el diseño y análisis de experimentos de regresión polinómica». Historia Mathematica . 1 (4): 431–439. doi : 10.1016/0315-0860(74)90033-0 .
Peirce, C. S (1876). "Nota sobre la teoría de la economía de la investigación". Coast Survey Report : 197–201.(Apéndice n.º 14). NOAA PDF Eprint. Reimpreso en Collected Papers of Charles Sanders Peirce . Vol. 7. 1958.párrafos 139-157, y en Peirce, CS (julio-agosto de 1967). "Nota sobre la teoría de la economía de la investigación". Investigación de operaciones . 15 (4): 643-648. doi :10.1287/opre.15.4.643. JSTOR 168276.
Smith, Kirstine (1918). "Sobre las desviaciones estándar de los valores ajustados e interpolados de una función polinómica observada y sus constantes y la orientación que proporcionan hacia una elección adecuada de la distribución de las observaciones". Biometrika . 12 (1/2): 1–85. doi :10.2307/2331929. JSTOR 2331929.