Una Transformada Rápida de Fourier ( FFT ) es un algoritmo que calcula la Transformada Discreta de Fourier (DFT) de una secuencia, o su inversa (IDFT). El análisis de Fourier convierte una señal de su dominio original (a menudo tiempo o espacio) a una representación en el dominio de la frecuencia y viceversa. La DFT se obtiene descomponiendo una secuencia de valores en componentes de diferentes frecuencias. [1] Esta operación es útil en muchos campos, pero calcularla directamente a partir de la definición suele ser demasiado lenta para ser práctica. Una FFT calcula rápidamente tales transformaciones factorizando la matriz DFT en un producto de factores dispersos (en su mayoría cero). [2] Como resultado, logra reducir la complejidad de calcular la DFT desde , que surge si uno simplemente aplica la definición de DFT, hasta , donde n es el tamaño de los datos. La diferencia de velocidad puede ser enorme, especialmente para conjuntos de datos largos donde n puede ser de miles o millones. En presencia de error de redondeo , muchos algoritmos FFT son mucho más precisos que evaluar la definición DFT directa o indirectamente. Existen muchos algoritmos FFT diferentes basados en una amplia gama de teorías publicadas, desde la simple aritmética de números complejos hasta la teoría de grupos y la teoría de números .
Las transformadas rápidas de Fourier se utilizan ampliamente para aplicaciones en ingeniería, música, ciencias y matemáticas. Las ideas básicas se popularizaron en 1965, pero algunos algoritmos se derivaron ya en 1805. [1] En 1994, Gilbert Strang describió la FFT como "el algoritmo numérico más importante de nuestra vida", [3] [4] y Fue incluido en el Top 10 de algoritmos del siglo XX por la revista IEEE Computing in Science & Engineering . [5]
Los algoritmos FFT más conocidos dependen de la factorización de n , pero hay FFT con complejidad para todos, incluso los primos , n . Muchos algoritmos FFT dependen sólo del hecho de que es una raíz primitiva enésima de la unidad y , por lo tanto, pueden aplicarse a transformaciones análogas sobre cualquier campo finito , como las transformaciones de teoría de números . Dado que la DFT inversa es igual que la DFT, pero con el signo opuesto en el exponente y un factor 1/ n , cualquier algoritmo FFT se puede adaptar fácilmente.
El desarrollo de algoritmos rápidos para DFT se remonta al trabajo inédito de Carl Friedrich Gauss de 1805 sobre las órbitas de los asteroides Pallas y Juno . Gauss quería interpolar las órbitas a partir de observaciones de muestras; [6] [7] su método era muy similar al que sería publicado en 1965 por James Cooley y John Tukey , a quienes generalmente se les atribuye la invención del algoritmo FFT genérico moderno. Si bien el trabajo de Gauss fue anterior incluso a los resultados de Joseph Fourier de 1822, no analizó la complejidad del método y finalmente utilizó otros métodos para lograr el mismo fin.
Entre 1805 y 1965, otros autores publicaron algunas versiones de FFT. Frank Yates publicó en 1932 su versión llamada algoritmo de interacción , que proporcionaba un cálculo eficiente de las transformadas de Hadamard y Walsh . [8] El algoritmo de Yates todavía se utiliza en el campo del diseño estadístico y análisis de experimentos. En 1942, GC Danielson y Cornelius Lanczos publicaron su versión para calcular DFT para cristalografía de rayos X , un campo donde el cálculo de las transformadas de Fourier presentaba un cuello de botella formidable. [9] [10] Si bien muchos métodos en el pasado se habían centrado en reducir el factor constante para el cálculo aprovechando las "simetrías", Danielson y Lanczos se dieron cuenta de que se podía usar la "periodicidad" y aplicar un "truco de duplicación" a " duplicar [ n ] con sólo un poco más del doble de trabajo", aunque, al igual que Gauss, no hicieron el análisis para descubrir que esto conducía al escalamiento. [11]
James Cooley y John Tukey redescubrieron de forma independiente estos algoritmos anteriores [7] y publicaron una FFT más general en 1965 que es aplicable cuando n es compuesto y no necesariamente una potencia de 2, además de analizar la escala. [12] A Tukey se le ocurrió la idea durante una reunión del Comité Asesor Científico del presidente Kennedy donde un tema de discusión involucraba la detección de pruebas nucleares realizadas por la Unión Soviética mediante la instalación de sensores para rodear el país desde el exterior. Para analizar la salida de estos sensores, se necesitaría un algoritmo FFT. En una conversación con Tukey, Richard Garwin reconoció la aplicabilidad general del algoritmo no sólo a los problemas de seguridad nacional, sino también a una amplia gama de problemas, incluido uno de interés inmediato para él, la determinación de las periodicidades de las orientaciones de espín en un cristal tridimensional. de Helio-3. [13] Garwin le dio la idea de Tukey a Cooley (ambos trabajaron en los laboratorios Watson de IBM ) para su implementación. [14] Cooley y Tukey publicaron el artículo en un tiempo relativamente corto de seis meses. [15] Como Tukey no trabajó en IBM, se dudó de la patentabilidad de la idea y el algoritmo pasó a ser de dominio público, lo que, a través de la revolución informática de la siguiente década, convirtió a FFT en uno de los algoritmos indispensables en el procesamiento de señales digitales .
Sean números complejos . La DFT se define mediante la fórmula
donde es una raíz n 'ésima primitiva de 1.
La evaluación de esta definición requiere operaciones directamente : hay n salidas X k y cada salida requiere una suma de n términos. Una FFT es cualquier método para calcular los mismos resultados en operaciones. Todos los algoritmos FFT conocidos requieren operaciones, aunque no hay pruebas conocidas de que una menor complejidad sea imposible. [dieciséis]
Para ilustrar los ahorros de una FFT, considere el recuento de multiplicaciones y sumas complejas para puntos de datos. La evaluación de las sumas de la DFT implica directamente multiplicaciones y sumas complejas, de las cuales las operaciones se pueden salvar eliminando operaciones triviales como las multiplicaciones por 1, dejando alrededor de 30 millones de operaciones. Por el contrario, el algoritmo Radix-2 Cooley-Tukey, para n una potencia de 2, puede calcular el mismo resultado solo con multiplicaciones complejas (nuevamente, ignorando las simplificaciones de multiplicaciones por 1 y similares) y sumas complejas, en total alrededor de 30.000 operaciones. mil veces menos que con evaluación directa. En la práctica, el rendimiento real de las computadoras modernas suele estar dominado por factores distintos de la velocidad de las operaciones aritméticas y el análisis es un tema complicado (por ejemplo, ver Frigo & Johnson , 2005), [17] pero la mejora general de a permanece.
Con diferencia, la FFT más utilizada es el algoritmo Cooley-Tukey. Este es un algoritmo de divide y vencerás que descompone recursivamente una DFT de cualquier tamaño compuesto en muchas DFT más pequeñas de tamaños y , junto con multiplicaciones por raíces complejas de unidad tradicionalmente llamadas factores de giro (según Gentleman y Sande, 1966). [18]
Este método (y la idea general de una FFT) fue popularizado por una publicación de Cooley y Tukey en 1965, [12] pero más tarde se descubrió [1] que esos dos autores habían reinventado de forma independiente un algoritmo conocido por Carl Friedrich Gauss. alrededor de 1805 [19] (y posteriormente redescubierto varias veces en formas limitadas).
El uso más conocido del algoritmo Cooley-Tukey es dividir la transformación en dos partes de tamaño n/2 en cada paso y, por lo tanto, está limitado a potencias de dos tamaños, pero en general se puede utilizar cualquier factorización (como se hizo conocido tanto por Gauss como por Cooley/Tukey [1] ). Estos se denominan casos de base 2 y de base mixta , respectivamente (y otras variantes, como la FFT de base dividida, también tienen sus propios nombres). Aunque la idea básica es recursiva, la mayoría de las implementaciones tradicionales reorganizan el algoritmo para evitar la recursividad explícita. Además, debido a que el algoritmo Cooley-Tukey divide la DFT en DFT más pequeñas, se puede combinar arbitrariamente con cualquier otro algoritmo para la DFT, como los que se describen a continuación.
Existen algoritmos FFT distintos de Cooley-Tukey.
Porque con coprimo y , se puede utilizar el algoritmo de factor primo (Good-Thomas) (PFA), basado en el teorema del resto chino , para factorizar la DFT de manera similar a Cooley-Tukey pero sin los factores de giro. El algoritmo de Rader-Brenner (1976) [20] es una factorización tipo Cooley-Tukey pero con factores de giro puramente imaginarios, que reducen las multiplicaciones a costa de mayores sumas y una estabilidad numérica reducida ; Más tarde fue reemplazada por la variante de base dividida de Cooley-Tukey (que logra el mismo recuento de multiplicaciones pero con menos sumas y sin sacrificar la precisión). Los algoritmos que factorizan recursivamente la DFT en operaciones más pequeñas distintas a las DFT incluyen los algoritmos Bruun y QFT. (Los algoritmos Rader-Brenner [20] y QFT se propusieron para tamaños de potencia de dos, pero es posible que puedan adaptarse al compuesto general n . El algoritmo de Bruun se aplica a tamaños compuestos pares arbitrarios). El algoritmo de Bruun , en particular , se basa en interpretar la FFT como una factorización recursiva del polinomio , aquí en polinomios de coeficiente real de la forma y .
Otro punto de vista polinomial es explotado por el algoritmo FFT de Winograd, [21] [22] que factoriza en polinomios ciclotómicos ; estos a menudo tienen coeficientes de 1, 0 o −1 y, por lo tanto, requieren pocas (si es que hay alguna) multiplicaciones, por lo que Winograd puede ser se utiliza para obtener FFT de multiplicación mínima y, a menudo, se utiliza para encontrar algoritmos eficientes para factores pequeños. De hecho, Winograd demostró que la DFT se puede calcular sólo con multiplicaciones irracionales, lo que lleva a un límite inferior alcanzable en el número de multiplicaciones para potencias de dos tamaños; esto tiene el costo de muchas más adiciones, una compensación que ya no es favorable en los procesadores modernos con multiplicadores de hardware . En particular, Winograd también utiliza PFA, así como un algoritmo de Rader para FFT de tamaños primos .
El algoritmo de Rader , que explota la existencia de un generador para el grupo multiplicativo módulo primo n , expresa una DFT de tamaño primo n como una convolución cíclica de tamaño (compuesto) n – 1 , que luego puede calcularse mediante un par de FFT ordinarias a través de la teorema de convolución (aunque Winograd utiliza otros métodos de convolución). Otra FFT de tamaño principal se debe a LI Bluestein y, a veces, se denomina algoritmo chirp-z ; también reexpresa una DFT como una convolución, pero esta vez del mismo tamaño (que puede rellenarse con ceros a una potencia de dos y evaluarse mediante FFT Cooley-Tukey radix-2, por ejemplo), a través de la identidad
La transformada hexagonal rápida de Fourier (HFFT) tiene como objetivo calcular una FFT eficiente para los datos muestreados hexagonalmente mediante el uso de un nuevo esquema de direccionamiento para cuadrículas hexagonales, llamado Array Set Addressing (ASA).
En muchas aplicaciones, los datos de entrada para la DFT son puramente reales, en cuyo caso las salidas satisfacen la simetría.
y se han diseñado algoritmos FFT eficientes para esta situación (ver, por ejemplo, Sorensen, 1987). [23] [24] Un enfoque consiste en tomar un algoritmo ordinario (por ejemplo, Cooley-Tukey) y eliminar las partes redundantes del cálculo, ahorrando aproximadamente un factor de dos en tiempo y memoria. Alternativamente, es posible expresar una DFT de entrada real de longitud par como una DFT compleja de la mitad de la longitud (cuyas partes real e imaginaria son los elementos pares/impares de los datos reales originales), seguida de operaciones de posprocesamiento.
Alguna vez se creyó que las DFT de entrada real podrían calcularse de manera más eficiente mediante la transformada discreta de Hartley (DHT), pero posteriormente se argumentó que normalmente se puede encontrar un algoritmo DFT de entrada real (FFT) especializado que requiera menos operaciones que el algoritmo DHT correspondiente (FHT) para el mismo número de entradas. [23] El algoritmo de Bruun (arriba) es otro método que se propuso inicialmente para aprovechar entradas reales, pero no ha resultado popular.
Existen más especializaciones de FFT para los casos de datos reales que tienen simetría par/impar , en cuyo caso se puede obtener otro factor de aproximadamente dos en tiempo y memoria y la DFT se convierte en la transformada(s) discreta(s) de coseno / seno ( DCT / DST ). ). En lugar de modificar directamente un algoritmo FFT para estos casos, las DCT/DST también se pueden calcular mediante FFT de datos reales combinados con procesamiento previo y posterior.
¿Cuál es el límite inferior de la complejidad de los algoritmos de transformada rápida de Fourier? ¿ Pueden ser más rápidos que ?
Una cuestión fundamental de interés teórico de larga data es demostrar los límites inferiores de la complejidad y el recuento exacto de operaciones de las transformadas rápidas de Fourier, y quedan muchos problemas abiertos. No está rigurosamente demostrado si las DFT realmente requieren (es decir, orden o mayores) operaciones, incluso para el caso simple de potencia de dos tamaños, aunque no se conocen algoritmos con menor complejidad. En particular, el recuento de operaciones aritméticas suele ser el foco de estas preguntas, aunque el rendimiento real en las computadoras modernas está determinado por muchos otros factores, como la caché o la optimización de la canalización de la CPU .
Siguiendo el trabajo de Shmuel Winograd (1978), [21] se conoce un límite inferior estricto para el número de multiplicaciones reales requeridas por una FFT. Se puede demostrar que sólo se requieren multiplicaciones reales irracionales para calcular una DFT de longitud de potencia de dos . Además, se conocen algoritmos explícitos que logran este recuento (Heideman y Burrus , 1986; [25] Duhamel, 1990 [26] ). Sin embargo, estos algoritmos requieren demasiadas adiciones para ser prácticos, al menos en computadoras modernas con multiplicadores de hardware (Duhamel, 1990; [26] Frigo & Johnson , 2005). [17]
No se conoce un límite inferior estricto para el número de adiciones requeridas, aunque se han demostrado límites inferiores bajo algunos supuestos restrictivos sobre los algoritmos. En 1973, Morgenstern [27] demostró un límite inferior en el recuento de sumas para algoritmos donde las constantes multiplicativas tienen magnitudes acotadas (lo cual es cierto para la mayoría de los algoritmos FFT, pero no para todos). Pan (1986) [28] demostró un límite inferior suponiendo un límite en una medida de la "asincronicidad" del algoritmo FFT, pero la generalidad de esta suposición no está clara. Para el caso de potencia de dos n , Papadimitriou (1979) [29] argumentó que el número de sumas de números complejos logrados por los algoritmos de Cooley-Tukey es óptimo bajo ciertos supuestos en la gráfica del algoritmo (sus supuestos implican, entre otras cosas, que no se explotan identidades aditivas en las raíces de la unidad). (Este argumento implicaría que se requieren al menos sumas reales, aunque esto no es un límite estricto porque se requieren sumas adicionales como parte de las multiplicaciones de números complejos). Hasta ahora, ningún algoritmo FFT publicado ha logrado menos sumas que las de números complejos ( o su equivalente) para potencia de dos n .
Un tercer problema es minimizar el número total de multiplicaciones y sumas reales, a veces llamado "complejidad aritmética" (aunque en este contexto lo que se considera es el recuento exacto y no la complejidad asintótica). Una vez más, no se ha demostrado ningún límite inferior estricto. Sin embargo, desde 1968, el recuento más bajo publicado para potencia de dos n se logró durante mucho tiempo mediante el algoritmo FFT de base dividida , que requiere multiplicaciones y sumas reales para n > 1 . Esto se redujo recientemente a (Johnson y Frigo, 2007; [16] Lundy y Van Buskirk, 2007 [30] ). Se demostró que un recuento ligeramente mayor (pero aún mejor que la base dividida para n ≥ 256 ) es óptima para n ≤ 512 bajo restricciones adicionales en los posibles algoritmos (gráficos de flujo tipo base dividida con factores multiplicativos de módulo unitario), mediante reducción a un problema de teorías de módulo de satisfacibilidad que se puede resolver mediante fuerza bruta (Haynal & Haynal, 2011). [31]
La mayoría de los intentos de reducir o demostrar la complejidad de los algoritmos FFT se han centrado en el caso ordinario de datos complejos, porque es el más simple. Sin embargo, las FFT de datos complejos están tan estrechamente relacionadas con algoritmos para problemas relacionados, como las FFT de datos reales, las transformadas discretas de coseno , las transformadas discretas de Hartley , etc., que cualquier mejora en una de ellas conduciría inmediatamente a mejoras en las demás ( Duhamel y Vetterli, 1990). [32]
Todos los algoritmos FFT discutidos anteriormente calculan la DFT exactamente (es decir, ignorando los errores de punto flotante ). Sin embargo, se han propuesto algunos algoritmos "FFT" que calculan la DFT aproximadamente , con un error que puede hacerse arbitrariamente pequeño a expensas de mayores cálculos. Dichos algoritmos intercambian el error de aproximación por una mayor velocidad u otras propiedades. Por ejemplo, un algoritmo FFT aproximado de Edelman et al. (1999) [33] logra menores requisitos de comunicación para la computación paralela con la ayuda de un método multipolar rápido . Una FFT aproximada basada en wavelets realizada por Guo y Burrus (1996) [34] tiene en cuenta entradas/salidas escasas (localización de tiempo/frecuencia) de manera más eficiente de lo que es posible con una FFT exacta. Otro algoritmo para el cálculo aproximado de un subconjunto de resultados de DFT se debe a Shentov et al. (1995). [35] El algoritmo de Edelman funciona igualmente bien para datos dispersos y no dispersos, ya que se basa en la compresibilidad (deficiencia de rango) de la propia matriz de Fourier en lugar de la compresibilidad (escasez) de los datos. Por el contrario, si los datos son escasos, es decir, si sólo k de n coeficientes de Fourier son distintos de cero, entonces la complejidad se puede reducir a , y se ha demostrado que esto conduce a aceleraciones prácticas en comparación con una FFT ordinaria para n / k > 32 en un ejemplo de n grande ( n = 2 22 ) usando un algoritmo probabilístico aproximado (que estima los coeficientes k más grandes con varios decimales). [36]
Los algoritmos FFT tienen errores cuando se utiliza la aritmética de punto flotante de precisión finita, pero estos errores suelen ser bastante pequeños; la mayoría de los algoritmos FFT, por ejemplo Cooley-Tukey, tienen excelentes propiedades numéricas como consecuencia de la estructura de suma por pares de los algoritmos. El límite superior del error relativo del algoritmo Cooley-Tukey es , en comparación con la fórmula ingenua DFT, [18] donde 𝜀 es la precisión relativa de punto flotante de la máquina. De hecho, los errores cuadráticos medios (rms) son mucho mejores que estos límites superiores, siendo solo para Cooley-Tukey y para la DFT ingenua (Schatzman, 1996). [37] Estos resultados, sin embargo, son muy sensibles a la precisión de los factores de giro utilizados en la FFT (es decir, los valores de la función trigonométrica ), y no es inusual que implementaciones imprudentes de FFT tengan una precisión mucho peor, por ejemplo, si utilizan datos inexactos. Fórmulas de recurrencia trigonométrica . Algunas FFT distintas de Cooley-Tukey, como el algoritmo de Rader-Brenner, son intrínsecamente menos estables.
En aritmética de punto fijo , los errores de precisión finita acumulados por los algoritmos FFT son peores, y los errores rms crecen como en el algoritmo Cooley-Tukey (Welch, 1969). [38] Lograr esta precisión requiere una cuidadosa atención al escalado para minimizar la pérdida de precisión, y los algoritmos FFT de punto fijo implican un reescalado en cada etapa intermedia de descomposiciones como Cooley-Tukey.
Para verificar la corrección de una implementación FFT, se pueden obtener garantías rigurosas en el tiempo mediante un procedimiento simple que verifica las propiedades de linealidad, impulso-respuesta y cambio de tiempo de la transformada en entradas aleatorias (Ergün, 1995). [39]
Como se define en el artículo DFT multidimensional , el DFT multidimensional
transforma una matriz x n con un vector de índices d -dimensional mediante un conjunto de d sumaciones anidadas ( para cada j ), donde la división se realiza por elementos. De manera equivalente, es la composición de una secuencia de d conjuntos de DFT unidimensionales, realizadas en una dimensión a la vez (en cualquier orden).
Este punto de vista compositivo proporciona inmediatamente el algoritmo DFT multidimensional más simple y común, conocido como algoritmo fila-columna (después del caso bidimensional, a continuación). Es decir, uno simplemente realiza una secuencia de d FFT unidimensionales (mediante cualquiera de los algoritmos anteriores): primero se transforma a lo largo de la dimensión n 1 , luego a lo largo de la dimensión n 2 , y así sucesivamente (en realidad, cualquier orden funciona). Se demuestra fácilmente que este método tiene la complejidad habitual, donde se transforma el número total de puntos de datos. En particular, hay n / n 1 transformadas de tamaño n 1 , etc., por lo que la complejidad de la secuencia de FFT es:
En dos dimensiones, x k puede verse como una matriz , y este algoritmo corresponde a realizar primero la FFT de todas las filas (respectivamente columnas), agrupando las filas transformadas resultantes (respectivamente columnas) como otra matriz, y luego realizar la FFT en cada una de las columnas (respectivamente filas) de esta segunda matriz, y agrupar de manera similar los resultados en la matriz de resultados final.
En más de dos dimensiones, suele ser ventajoso para la localidad de caché agrupar las dimensiones de forma recursiva. Por ejemplo, una FFT tridimensional podría realizar primero FFT bidimensionales de cada "corte" plano para cada n 1 fijo y luego realizar las FFT unidimensionales a lo largo de la dirección n 1 . De manera más general, un algoritmo asintóticamente óptimo sin conciencia de caché consiste en dividir recursivamente las dimensiones en dos grupos y que se transforman recursivamente (redondeando si d no es par) (ver Frigo y Johnson, 2005). [17] Aún así, esto sigue siendo una variación sencilla del algoritmo fila-columna que en última instancia requiere solo un algoritmo FFT unidimensional como caso base, y aún tiene complejidad. Otra variación más es realizar transposiciones de matrices entre transformaciones de dimensiones posteriores, de modo que las transformaciones operen en datos contiguos; Esto es especialmente importante para situaciones de memoria distribuida y fuera del núcleo donde el acceso a datos no contiguos requiere mucho tiempo.
Existen otros algoritmos FFT multidimensionales que son distintos del algoritmo fila-columna, aunque todos tienen complejidad. Quizás la FFT sin filas y columnas más simple es el algoritmo FFT de base vectorial , que es una generalización del algoritmo ordinario de Cooley-Tukey donde se dividen las dimensiones de la transformación por un vector de raíces en cada paso. (Esto también puede tener beneficios de caché). El caso más simple de vector-radix es cuando todas las raíces son iguales (por ejemplo, vector-radix-2 divide todas las dimensiones por dos), pero esto no es necesario. La base vectorial con una sola base no unitaria a la vez, es decir , es esencialmente un algoritmo de fila-columna. Otros métodos más complicados incluyen algoritmos de transformación polinómica debidos a Nussbaumer (1977), [40] que ven la transformación en términos de convoluciones y productos polinomiales. Véase Duhamel y Vetterli (1990) [32] para obtener más información y referencias.
Mohlenkamp [41] describió una generalización a armónicos esféricos en la esfera s 2 con n 2 nodos, junto con un algoritmo que se conjetura (pero no se ha demostrado) que tiene complejidad; Mohlenkamp también proporciona una implementación en la biblioteca libftsh. [42] Rokhlin y Tygert describen un algoritmo armónico esférico con complejidad. [43]
El algoritmo de plegado rápido es análogo a la FFT, excepto que opera en una serie de formas de onda agrupadas en lugar de una serie de valores escalares reales o complejos. La rotación (que en la FFT es la multiplicación por un fasor complejo) es un desplazamiento circular de la forma de onda componente.
Varios grupos también han publicado algoritmos "FFT" para datos no equiespaciados, como se revisa en Potts et al. (2001). [44] Dichos algoritmos no calculan estrictamente la DFT (que solo se define para datos equiespaciados), sino más bien alguna aproximación a la misma (una transformada de Fourier discreta no uniforme , o NDFT, que a menudo se calcula solo aproximadamente). De manera más general, existen otros métodos de estimación espectral .
La FFT se utiliza en software de grabación digital, muestreo, síntesis aditiva y corrección de tono . [45]
La importancia de la FFT deriva del hecho de que ha hecho que trabajar en el dominio de la frecuencia sea igualmente factible desde el punto de vista computacional que trabajar en el dominio temporal o espacial. Algunas de las aplicaciones importantes de la FFT incluyen: [15] [46]
Marcello Minenna desarrolló una aplicación original de la FFT en las finanzas , particularmente en la valoración de opciones . [48]
Algoritmos relacionados con FFT:
Implementaciones de FFT:
Otros enlaces:
{{cite book}}
: CS1 maint: location missing publisher (link){{cite book}}
: CS1 maint: location missing publisher (link)