La transformación de Blackman-Tukey (o método de Blackman-Tukey ) es un método de procesamiento de señales digitales para transformar datos del dominio del tiempo al dominio de la frecuencia . Fue programado originalmente alrededor de 1953 por James Cooley para John Tukey en el Instituto de Estudios Avanzados de John von Neumann como una forma de obtener "buenas estimaciones estadísticas suavizadas de los espectros de potencia sin requerir grandes transformadas de Fourier ". [1] Fue publicado por Ralph Beebe Blackman y John Tukey en 1958.
En el procesamiento de señales , la transformación del dominio del tiempo a otro dominio , como el dominio de la frecuencia , se utiliza para centrarse en los detalles de una forma de onda . Muchos de los detalles de la forma de onda se pueden analizar mucho más fácilmente en un dominio distinto al original. Existen diferentes métodos para realizar la transformación del dominio del tiempo al dominio de la frecuencia; la más destacada es la transformada de Fourier , que utiliza el método de Blackman-Tukey. Antes de la llegada de las computadoras rápidas y el redescubrimiento de la transformada rápida de Fourier en 1965 , la gran cantidad de cálculos necesarios para la transformada discreta de Fourier motivó a los investigadores a reducir la cantidad de cálculos requeridos, lo que dio como resultado el (ahora obsoleto) método de Blackman-Tukey basado en sobre el teorema de Wiener-Khinchin . [2]
La estimación estadística se utiliza para determinar los valores esperados de los valores estadísticos esperados de cantidades estadísticas. La estimación estadística también intenta encontrar los valores esperados. Los valores esperados son aquellos valores que esperamos entre los valores aleatorios, derivados de muestras de la población en probabilidad (grupo de subconjunto). En el análisis de series de tiempo, los datos discretos obtenidos en función del tiempo suelen ser el único tipo de datos disponibles, en lugar de muestras de población o grupo de subconjuntos tomadas simultáneamente.
La dificultad generalmente se evita mediante un proceso ergódico , que cambia con el tiempo y la probabilidad interviene, y no siempre es periódico en todas las partes del tiempo. [ se necesita aclaración ]
El método se describe completamente en las publicaciones de Blackman y Tukey de 1958, republicadas en su libro de 1959 "La medición de los espectros de potencia, desde el punto de vista de la ingeniería de comunicaciones" [3] y se describe mediante los siguientes procedimientos:
La autocorrelación suaviza la onda en lugar de promediar varias formas de onda. [ se necesita aclaración ] Esta función se establece en ventana, la forma de onda correspondiente hacia sus extremos. [ aclaración necesaria ] La computación se vuelve más rápida si se correlacionan más datos y si la capacidad de memoria del sistema aumenta, entonces se aplicaría la técnica de sección de ahorro de superposición. [ aclaración necesaria ] Si la función de autocorrelación en Blackman-Tukey se calcula utilizando FFT, entonces nombrará un método de correlación rápida para la estimación espectral . [ se necesita aclaración ]
Sin embargo, tuvimos una colaboración anterior en 1953, cuando Tukey era consultor en el proyecto informático de John Von Neuman en el Instituto de Estudios Avanzados de Princeton, Nueva Jersey, donde yo era programador. Programé para él lo que más tarde se convirtió en el muy popular método de análisis espectral Blackman-Tukey [5]. La característica importante de este método fue que proporcionó buenas estimaciones estadísticas suavizadas de los espectros de potencia sin requerir grandes transformaciones de Fourier. Por lo tanto, nuestras dos colaboraciones se centraron primero en un método para evitar grandes transformadas de Fourier, ya que eran muy costosas, y luego en un método para reducir el costo de las transformadas de Fourier.
Antes de la llegada de la
FFT
y las computadoras rápidas, la estimación espectral de la densidad de potencia casi nunca se hacía como se describe en la última sección. Más bien, la onerosa carga computacional llevó a los científicos a reducir, en la medida de lo posible, el número de cálculos necesarios. El llamado método Blackman-Tukey... ... La estimación de Blackman-Tukey se basa en... y en la elección de los pesos de ventana adecuados... Creció una gran literatura dedicada a la elección de la ventana. Nuevamente, se intercambia sesgo contra varianza a través del valor M, que se prefiere minimizar. El método ahora está obsoleto porque la capacidad de generar los coeficientes de Fourier directamente permite un control mucho mayor sobre el resultado. La discusión sobre el sesgo del método Blackman-Tukey es particularmente complicada, al igual que la determinación de ν. Se debe evitar el uso del método excepto en circunstancias excepcionales en las que, por alguna razón, sólo se conoce R~(τ).