Los filtros analógicos son un componente básico del procesamiento de señales , muy utilizado en electrónica . Entre sus muchas aplicaciones se encuentran la separación de una señal de audio antes de su aplicación a altavoces de graves , medios y agudos ; la combinación y posterior separación de múltiples conversaciones telefónicas en un único canal; la selección de una emisora de radio elegida en un receptor de radio y el rechazo de otras.
Los filtros analógicos electrónicos lineales pasivos son aquellos filtros que se pueden describir con ecuaciones diferenciales lineales (lineales); están compuestos de condensadores , inductores y, a veces, resistencias ( pasivos ) y están diseñados para funcionar con señales analógicas que varían continuamente . Hay muchos filtros lineales que no son analógicos en su implementación ( filtro digital ), y hay muchos filtros electrónicos que pueden no tener una topología pasiva, los cuales pueden tener la misma función de transferencia de los filtros descritos en este artículo. Los filtros analógicos se utilizan con mayor frecuencia en aplicaciones de filtrado de ondas, es decir, donde se requiere pasar componentes de frecuencia particulares y rechazar otros de señales analógicas ( de tiempo continuo ).
Los filtros analógicos han desempeñado un papel importante en el desarrollo de la electrónica. Especialmente en el campo de las telecomunicaciones , los filtros han tenido una importancia crucial en una serie de avances tecnológicos y han sido la fuente de enormes beneficios para las empresas de telecomunicaciones. No debería sorprender, por tanto, que el desarrollo temprano de los filtros estuviera íntimamente relacionado con las líneas de transmisión . La teoría de las líneas de transmisión dio lugar a la teoría de filtros, que inicialmente adoptó una forma muy similar, y la principal aplicación de los filtros era su uso en líneas de transmisión de telecomunicaciones. Sin embargo, la llegada de las técnicas de síntesis de redes mejoró enormemente el grado de control del diseñador.
En la actualidad, se prefiere realizar el filtrado en el ámbito digital, donde es mucho más fácil implementar algoritmos complejos, pero los filtros analógicos aún encuentran aplicaciones, especialmente para tareas de filtrado simples de orden bajo, y a menudo siguen siendo la norma en frecuencias más altas, donde la tecnología digital aún es poco práctica o, al menos, menos rentable. Siempre que sea posible, y especialmente en frecuencias bajas, los filtros analógicos se implementan ahora en una topología de filtro que es activa para evitar los componentes bobinados (es decir, inductores, transformadores, etc.) requeridos por la topología pasiva .
Es posible diseñar filtros mecánicos analógicos lineales utilizando componentes mecánicos que filtran vibraciones mecánicas u ondas acústicas . Si bien existen pocas aplicaciones para tales dispositivos en la mecánica per se, se pueden utilizar en electrónica con la adición de transductores para convertir hacia y desde el dominio eléctrico. De hecho, algunas de las primeras ideas para filtros fueron resonadores acústicos porque la tecnología electrónica era poco entendida en ese momento. En principio, el diseño de tales filtros se puede lograr completamente en términos de las contrapartes electrónicas de cantidades mecánicas, con energía cinética , energía potencial y energía térmica correspondientes a la energía en inductores, capacitores y resistencias respectivamente.
Hay tres etapas principales en la historia del desarrollo del filtro analógico pasivo :
En este artículo, las letras R, L y C se utilizan con sus significados habituales para representar resistencia , inductancia y capacitancia , respectivamente. En particular, se utilizan en combinaciones, como LC, para significar, por ejemplo, una red que consta solo de inductores y capacitores. Z se utiliza para impedancia eléctrica , cualquier combinación de 2 terminales [nota 1] de elementos RLC y en algunas secciones D se utiliza para la rara cantidad vista elastancia , que es la inversa de la capacitancia.
Los primeros filtros utilizaban el fenómeno de la resonancia para filtrar señales. Aunque la resonancia eléctrica había sido investigada por los investigadores desde una etapa muy temprana, al principio no era ampliamente comprendida por los ingenieros eléctricos. En consecuencia, el concepto mucho más familiar de resonancia acústica (que a su vez, puede explicarse en términos de la resonancia mecánica aún más familiar ) se abrió camino en el diseño de filtros antes que la resonancia eléctrica. [1] La resonancia se puede utilizar para lograr un efecto de filtrado porque el dispositivo resonante responderá a frecuencias iguales o cercanas a la frecuencia resonante, pero no responderá a frecuencias alejadas de la resonancia. Por lo tanto, las frecuencias alejadas de la resonancia se filtran de la salida del dispositivo. [2]
La resonancia se observó desde el principio en experimentos con la botella de Leyden , inventada en 1746. La botella de Leyden almacena electricidad debido a su capacidad y, de hecho, es una forma temprana de condensador. Cuando se descarga una botella de Leyden al permitir que salte una chispa entre los electrodos, la descarga es oscilatoria. Esto no se sospechó hasta 1826, cuando Felix Savary en Francia y más tarde (1842) Joseph Henry [3] en los EE. UU. observaron que una aguja de acero colocada cerca de la descarga no siempre se magnetiza en la misma dirección. Ambos llegaron independientemente a la conclusión de que había una oscilación transitoria que se extinguía con el tiempo. [4]
En 1847, Hermann von Helmholtz publicó su importante obra sobre la conservación de la energía [5], en la que utilizó parte de esos principios para explicar por qué la oscilación se desvanece, es decir, que es la resistencia del circuito la que disipa la energía de la oscilación en cada ciclo sucesivo. Helmholtz también señaló que había evidencia de oscilación en los experimentos de electrólisis de William Hyde Wollaston . Wollaston estaba intentando descomponer el agua mediante una descarga eléctrica, pero descubrió que tanto el hidrógeno como el oxígeno estaban presentes en ambos electrodos. En la electrólisis normal, se separarían, uno en cada electrodo. [6]
Helmholtz explicó por qué la oscilación decaía, pero no había explicado por qué se producía en primer lugar. Esto se lo dejó a Sir William Thomson (Lord Kelvin), quien, en 1853, postuló que había inductancia presente en el circuito, así como la capacitancia de la jarra y la resistencia de la carga. [7] Esto estableció la base física del fenómeno: la energía suministrada por la jarra se disipaba en parte en la carga, pero también se almacenaba en parte en el campo magnético del inductor. [8]
Hasta ahora, la investigación se había centrado en la frecuencia natural de oscilación transitoria de un circuito resonante resultante de un estímulo repentino. Más importante desde el punto de vista de la teoría de filtros es el comportamiento de un circuito resonante cuando es impulsado por una señal de CA externa : hay un pico repentino en la respuesta del circuito cuando la frecuencia de la señal de accionamiento está en la frecuencia resonante del circuito. [nota 2] James Clerk Maxwell escuchó hablar del fenómeno de Sir William Grove en 1868 en relación con experimentos con dinamos , [9] y también estaba al tanto del trabajo anterior de Henry Wilde en 1866. Maxwell explicó la resonancia [nota 3] matemáticamente, con un conjunto de ecuaciones diferenciales, en términos muy similares a los que se describe un circuito RLC en la actualidad. [1] [10] [11]
Heinrich Hertz (1887) demostró experimentalmente el fenómeno de resonancia [12] mediante la construcción de dos circuitos resonantes, uno de los cuales era accionado por un generador y el otro era sintonizable y solo estaba acoplado al primero de forma electromagnética (es decir, sin conexión de circuito). Hertz demostró que la respuesta del segundo circuito era máxima cuando estaba en sintonía con el primero. Los diagramas producidos por Hertz en este artículo fueron los primeros gráficos publicados de una respuesta resonante eléctrica. [1] [13]
Como se mencionó anteriormente, fue la resonancia acústica la que inspiró las aplicaciones de filtrado, la primera de las cuales fue un sistema telegráfico conocido como " telégrafo armónico ". Las versiones se deben a Elisha Gray , Alexander Graham Bell (1870), [1] Ernest Mercadier y otros. Su propósito era transmitir simultáneamente una serie de mensajes telegráficos a través de la misma línea y representa una forma temprana de multiplexación por división de frecuencia (FDM). La FDM requiere que el extremo emisor esté transmitiendo a diferentes frecuencias para cada canal de comunicación individual. Esto exige resonadores sintonizados individuales, así como filtros para separar las señales en el extremo receptor. El telégrafo armónico logró esto con lengüetas sintonizadas accionadas electromagnéticamente en el extremo transmisor que harían vibrar lengüetas similares en el extremo receptor. Solo la lengüeta con la misma frecuencia de resonancia que el transmisor vibraría en un grado apreciable en el extremo receptor. [14]
Por cierto, el telégrafo armónico le sugirió directamente a Bell la idea del teléfono. Las lengüetas pueden considerarse transductores que convierten el sonido en una señal eléctrica y viceversa. No hay que hacer un gran salto desde esta visión del telégrafo armónico a la idea de que el habla puede convertirse en una señal eléctrica y viceversa. [1] [14]
En la década de 1890, la resonancia eléctrica se comprendía mucho más ampliamente y se había convertido en una parte normal del conjunto de herramientas de los ingenieros. En 1891, Hutin y Leblanc patentaron un esquema FDM para circuitos telefónicos que utilizaban filtros de circuitos resonantes. [16] En 1892, Michael Pupin y John Stone Stone presentaron patentes rivales con ideas similares, y finalmente Pupin obtuvo la prioridad. Sin embargo, ningún esquema que utilice simplemente filtros de circuitos resonantes simples puede multiplexar (es decir, combinar) con éxito el ancho de banda más amplio de los canales telefónicos (a diferencia del telégrafo) sin una restricción inaceptable del ancho de banda de voz o un espaciado entre canales tan amplio que haga que los beneficios de la multiplexación sean poco rentables. [1] [17]
La razón técnica básica de esta dificultad es que la respuesta de frecuencia de un filtro simple se acerca a una caída de 6 dB/octava lejos del punto de resonancia. Esto significa que si los canales telefónicos se aprietan uno al lado del otro en el espectro de frecuencia, habrá diafonía de los canales adyacentes en cualquier canal dado. Lo que se requiere es un filtro mucho más sofisticado que tenga una respuesta de frecuencia plana en la banda de paso requerida como un circuito resonante de Q bajo , pero que caiga rápidamente en respuesta (mucho más rápido que 6 dB/octava) en la transición de la banda de paso a la banda de supresión como un circuito resonante de Q alto. [nota 5] Obviamente, estos son requisitos contradictorios que deben cumplirse con un solo circuito resonante. La solución a estas necesidades se basó en la teoría de las líneas de transmisión y, en consecuencia, los filtros necesarios no estuvieron disponibles hasta que esta teoría estuvo completamente desarrollada. En esta etapa temprana, la idea del ancho de banda de la señal, y por lo tanto la necesidad de filtros que se adapten a él, no se comprendía por completo; de hecho, fue hasta 1920 cuando el concepto de ancho de banda se estableció por completo. [18] En las primeras radios, los conceptos de factor Q, selectividad y sintonización eran suficientes. Todo esto cambiaría con el desarrollo de la teoría de las líneas de transmisión en la que se basan los filtros de imagen , como se explica en la siguiente sección. [1]
A principios de siglo, cuando las líneas telefónicas se hicieron disponibles, se hizo popular agregar el telégrafo a las líneas telefónicas con un circuito fantasma de retorno a tierra . [nota 6] Se requirió un filtro LC para evitar que se escucharan clics telegráficos en la línea telefónica. A partir de la década de 1920, se utilizaron líneas telefónicas, o líneas balanceadas dedicadas a este propósito, para el telégrafo FDM en frecuencias de audio. El primero de estos sistemas en el Reino Unido fue una instalación de Siemens y Halske entre Londres y Manchester. GEC y AT&T también tenían sistemas FDM. Se usaban pares separados para las señales de envío y recepción. Los sistemas Siemens y GEC tenían seis canales de telégrafo en cada dirección, el sistema de AT&T tenía doce. Todos estos sistemas usaban osciladores electrónicos para generar una portadora diferente para cada señal telegráfica y requerían un banco de filtros de paso de banda para separar la señal multiplexada en el extremo receptor. [19]
El primer modelo de línea de transmisión fue probablemente descrito por Georg Ohm (1827), quien estableció que la resistencia en un cable es proporcional a su longitud. [20] [nota 7] Por lo tanto, el modelo de Ohm incluía solo la resistencia. Latimer Clark notó que las señales se retrasaban y alargaban a lo largo de un cable, una forma indeseable de distorsión que ahora se denomina dispersión , pero que en ese entonces se denominaba retardo, y Michael Faraday (1853) estableció que esto se debía a la capacitancia presente en la línea de transmisión. [21] [nota 8] Lord Kelvin (1854) encontró la descripción matemática correcta que necesitaba en su trabajo sobre los primeros cables transatlánticos; llegó a una ecuación idéntica a la conducción de un pulso de calor a lo largo de una barra de metal. [22] Este modelo incorpora solo resistencia y capacitancia, pero eso es todo lo que se necesitaba en cables submarinos dominados por efectos de capacitancia. El modelo de Kelvin predice un límite en la velocidad de señalización telegráfica de un cable, pero Kelvin todavía no utilizaba el concepto de ancho de banda; el límite se explicaba completamente en términos de la dispersión de los símbolos telegráficos . [1] El modelo matemático de la línea de transmisión alcanzó su máximo desarrollo con Oliver Heaviside . Heaviside (1881) introdujo la inductancia en serie y la conductancia en derivación en el modelo, lo que hizo que en total hubiera cuatro elementos distribuidos . Este modelo ahora se conoce como la ecuación del telégrafo y los parámetros de los elementos distribuidos se denominan constantes de línea primaria . [23]
A partir del trabajo de Heaviside (1887) había quedado claro que el rendimiento de las líneas telegráficas, y más especialmente de las líneas telefónicas, podía mejorarse añadiendo inductancia a la línea. [24] George Campbell de AT&T implementó esta idea (1899) insertando bobinas de carga a intervalos a lo largo de la línea. [25] Campbell descubrió que, además de las mejoras deseadas en las características de la línea en la banda de paso, también había una frecuencia definida más allá de la cual las señales no podían pasar sin una gran atenuación . Esto era el resultado de que las bobinas de carga y la capacitancia de la línea formaban un filtro de paso bajo , un efecto que solo es evidente en líneas que incorporan componentes agrupados como las bobinas de carga. Esto llevó naturalmente a Campbell (1910) a producir un filtro con topología de escalera ; un vistazo al diagrama del circuito de este filtro es suficiente para ver su relación con una línea de transmisión cargada. [26] El fenómeno de corte es un efecto secundario indeseable en lo que respecta a las líneas cargadas, pero para los filtros FDM telefónicos es precisamente lo que se requiere. Para esta aplicación, Campbell produjo filtros de paso de banda con la misma topología de escalera reemplazando los inductores y capacitores con resonadores y antirresonadores respectivamente. [nota 9] Tanto la línea cargada como el FDM resultaron de gran beneficio económico para AT&T y esto condujo a un rápido desarrollo del filtrado a partir de este punto. [27]
Los filtros diseñados por Campbell [nota 10] se denominaron filtros de ondas debido a su propiedad de dejar pasar algunas ondas y rechazar fuertemente otras. El método por el cual fueron diseñados se denominó método de parámetros de imagen [nota 11] [29] [30] y los filtros diseñados según este método se denominan filtros de imagen. [nota 12] El método de imagen consiste esencialmente en desarrollar las constantes de transmisión de una cadena infinita de secciones de filtro idénticas y luego terminar el número finito deseado de secciones de filtro en la impedancia de imagen . Esto corresponde exactamente a la forma en que las propiedades de una longitud finita de línea de transmisión se derivan de las propiedades teóricas de una línea infinita, correspondiendo la impedancia de imagen a la impedancia característica de la línea. [31]
A partir de 1920, John Carson , que también trabajaba para AT&T, comenzó a desarrollar una nueva forma de ver las señales utilizando el cálculo operacional de Heaviside, que en esencia funciona en el dominio de la frecuencia . Esto dio a los ingenieros de AT&T una nueva perspectiva sobre la forma en que funcionaban sus filtros y llevó a Otto Zobel a inventar muchas formas mejoradas. Carson y Zobel demolieron constantemente muchas de las viejas ideas. Por ejemplo, los viejos ingenieros de telégrafos pensaban que la señal era una sola frecuencia y esta idea persistió en la era de la radio con algunos todavía creyendo que la transmisión de modulación de frecuencia (FM) podía lograrse con un ancho de banda menor que la señal de banda base hasta la publicación del artículo de Carson de 1922. [32] Otro avance se refería a la naturaleza del ruido, Carson y Zobel (1923) [33] trataron el ruido como un proceso aleatorio con un ancho de banda continuo, una idea que estaba muy adelantada a su tiempo y, por lo tanto, limitaron la cantidad de ruido que era posible eliminar mediante el filtrado a esa parte del espectro de ruido que quedaba fuera de la banda de paso. Esto tampoco fue generalmente aceptado al principio, notablemente con la oposición de Edwin Armstrong (quien irónicamente, realmente tuvo éxito en reducir el ruido con FM de banda ancha ) y finalmente solo se resolvió con el trabajo de Harry Nyquist cuya fórmula de potencia de ruido térmico es bien conocida hoy en día. [34]
Otto Zobel realizó varias mejoras en los filtros de imagen y su teoría de funcionamiento . Zobel acuñó el término filtro k constante (o filtro de tipo k) para distinguir el filtro de Campbell de los tipos posteriores, en particular el filtro derivado de m de Zobel (o filtro de tipo m). Los problemas particulares que Zobel intentaba resolver con estas nuevas formas eran la adaptación de impedancia en las terminaciones finales y la mejora de la inclinación de la caída. Esto se logró a costa de un aumento en la complejidad del circuito de filtro. [35] [36]
Hendrik Bode (1930) introdujo un método más sistemático para producir filtros de imagen , que fue desarrollado por otros investigadores, entre ellos Piloty (1937-1939) y Wilhelm Cauer (1934-1937). En lugar de enumerar el comportamiento (función de transferencia, función de atenuación, función de retardo, etc.) de un circuito específico, se desarrolló un requisito para la impedancia de imagen en sí. La impedancia de imagen se puede expresar en términos de las impedancias de circuito abierto y cortocircuito [nota 13] del filtro como . Dado que la impedancia de imagen debe ser real en las bandas de paso e imaginaria en las bandas de rechazo según la teoría de imágenes, existe el requisito de que los polos y ceros de Z o y Z s se cancelen en la banda de paso y se correspondan en la banda de rechazo. El comportamiento del filtro se puede definir completamente en términos de las posiciones en el plano complejo de estos pares de polos y ceros. Cualquier circuito que tenga los polos y ceros necesarios también tendrá la respuesta necesaria. Cauer se planteó dos cuestiones relacionadas que surgieron de esta técnica: qué especificaciones de polos y ceros se pueden realizar como filtros pasivos y qué realizaciones son equivalentes entre sí. Los resultados de este trabajo llevaron a Cauer a desarrollar un nuevo enfoque, ahora llamado síntesis de redes. [36] [37] [38]
Esta visión de "polos y ceros" del diseño de filtros fue particularmente útil cuando un banco de filtros, cada uno operando a diferentes frecuencias, están todos conectados a través de la misma línea de transmisión. El enfoque anterior no podía abordar adecuadamente esta situación, pero el enfoque de polos y ceros podía abordarla especificando una impedancia constante para el filtro combinado. Este problema estaba originalmente relacionado con la telefonía FDM, pero ahora surge con frecuencia en los filtros de cruce de altavoces . [37]
La esencia de la síntesis de redes es comenzar con una respuesta de filtro requerida y producir una red que proporcione esa respuesta, o se aproxime a ella dentro de un límite especificado. Esto es lo inverso del análisis de redes que comienza con una red dada y al aplicar los diversos teoremas de circuitos eléctricos predice la respuesta de la red. [39] El término se utilizó por primera vez con este significado en la tesis doctoral de Yuk-Wing Lee (1930) y aparentemente surgió de una conversación con Vannevar Bush . [40] La ventaja de la síntesis de redes sobre los métodos anteriores es que proporciona una solución que cumple con precisión la especificación de diseño. Este no es el caso de los filtros de imagen, se requiere un cierto grado de experiencia en su diseño ya que el filtro de imagen solo cumple con la especificación de diseño en el caso poco realista de terminar en su propia impedancia de imagen, para producir lo cual requeriría el circuito exacto que se busca. La síntesis de redes, por otro lado, se ocupa de las impedancias de terminación simplemente incorporándolas a la red que se está diseñando. [41]
El desarrollo del análisis de redes debía tener lugar antes de que la síntesis de redes fuera posible. Los teoremas de Gustav Kirchhoff y otros y las ideas de Charles Steinmetz ( fasores ) y Arthur Kennelly ( impedancia compleja ) [42] sentaron las bases. [43] El concepto de puerto también jugó un papel en el desarrollo de la teoría y demostró ser una idea más útil que los terminales de red. [nota 1] [36] El primer hito en el camino hacia la síntesis de redes fue un artículo importante de Ronald M. Foster (1924), [44] A Reactance Theorem , en el que Foster introduce la idea de una impedancia de punto de conducción , es decir, la impedancia que está conectada al generador. La expresión para esta impedancia determina la respuesta del filtro y viceversa, y se puede obtener una realización del filtro mediante la expansión de esta expresión. No es posible realizar ninguna expresión de impedancia arbitraria como una red. El teorema de reactancia de Foster estipula condiciones necesarias y suficientes para la realizabilidad: que la reactancia debe aumentar algebraicamente con la frecuencia y que los polos y ceros deben alternarse. [45] [46]
Wilhelm Cauer amplió el trabajo de Foster (1926) [47] y fue el primero en hablar de la realización de una impedancia de un puerto con una función de frecuencia prescrita. El trabajo de Foster consideró solo reactancias (es decir, solo circuitos de tipo LC). Cauer generalizó esto a cualquier red de un puerto de tipo 2 elementos, encontrando que había un isomorfismo entre ellos. También encontró realizaciones en escalera [nota 14] de la red utilizando la expansión de fracción continua de Thomas Stieltjes . Este trabajo fue la base sobre la que se construyó la síntesis de redes, aunque el trabajo de Cauer al principio no fue muy utilizado por los ingenieros, en parte debido a la intervención de la Segunda Guerra Mundial, en parte por razones explicadas en la siguiente sección y en parte porque Cauer presentó sus resultados utilizando topologías que requerían inductores mutuamente acoplados y transformadores ideales. Los diseñadores tienden a evitar la complicación de las inductancias mutuas y los transformadores cuando es posible, aunque los amplificadores doblemente sintonizados acoplados a transformadores son una forma común de ampliar el ancho de banda sin sacrificar la selectividad. [48] [49] [50]
Los diseñadores siguieron utilizando filtros de imagen mucho después de que estuvieran disponibles las técnicas superiores de síntesis de redes. Parte de la razón de esto puede haber sido simplemente la inercia, pero se debió en gran medida al mayor cálculo requerido para los filtros de síntesis de redes, que a menudo necesitan un proceso matemático iterativo. Los filtros de imagen, en su forma más simple, consisten en una cadena de secciones idénticas repetidas. El diseño se puede mejorar simplemente añadiendo más secciones y el cálculo necesario para producir la sección inicial está al nivel de un diseño "de sobre". En el caso de los filtros de síntesis de redes, por otro lado, el filtro se diseña como una entidad única y completa y para añadir más secciones (es decir, aumentar el orden) [nota 15] el diseñador no tendría otra opción que volver al principio y empezar de nuevo. Las ventajas de los diseños sintetizados son reales, pero no son abrumadoras en comparación con lo que podría lograr un diseñador de imágenes experto, y en muchos casos era más rentable prescindir de cálculos que consumen mucho tiempo. [51] Esto no es simplemente un problema de la disponibilidad moderna de potencia informática, sino que en la década de 1950 no existía, en las décadas de 1960 y 1970 solo estaba disponible a precio de coste y finalmente no se volvió ampliamente disponible para todos los diseñadores hasta la década de 1980 con la llegada de la computadora personal de escritorio. Los filtros de imagen siguieron diseñándose hasta ese momento y muchos permanecieron en servicio hasta el siglo XXI. [52]
La dificultad computacional del método de síntesis de redes se abordó tabulando los valores de los componentes de un filtro prototipo y luego escalando la frecuencia y la impedancia y transformando la forma de banda a las realmente requeridas. Este tipo de enfoque, o similar, ya se utilizaba con filtros de imagen, por ejemplo por Zobel, [35] pero el concepto de un "filtro de referencia" se debe a Sidney Darlington . [53] Darlington (1939), [30] también fue el primero en tabular valores para filtros prototipo de síntesis de redes, [54] sin embargo tuvo que esperar hasta la década de 1950 antes de que el filtro elíptico Cauer-Darlington comenzara a utilizarse. [55]
Una vez que la capacidad computacional estuvo fácilmente disponible, se hizo posible diseñar fácilmente filtros para minimizar cualquier parámetro arbitrario, por ejemplo, el retardo de tiempo o la tolerancia a la variación de los componentes. Las dificultades del método de imágenes quedaron definitivamente en el pasado, e incluso la necesidad de prototipos se volvió en gran medida superflua. [56] [57] Además, la llegada de los filtros activos alivió la dificultad de cálculo porque las secciones se podían aislar y los procesos iterativos no eran generalmente necesarios. [51]
La realizabilidad (es decir, qué funciones son realizables como redes de impedancia real) y la equivalencia (qué redes tienen equivalentemente la misma función) son dos cuestiones importantes en la síntesis de redes. Siguiendo una analogía con la mecánica de Lagrange , Cauer formuló la ecuación matricial,
donde [ Z ],[ R ],[ L ] y [ D ] son las matrices n x n de, respectivamente, impedancia , resistencia , inductancia y elastancia de una red de n mallas y s es el operador de frecuencia complejo . Aquí [ R ],[ L ] y [ D ] tienen energías asociadas correspondientes a las energías térmicas cinética, potencial y disipativa, respectivamente, en un sistema mecánico y los resultados ya conocidos de la mecánica podrían aplicarse aquí. Cauer determinó la impedancia del punto de excitación mediante el método de multiplicadores de Lagrange ;
donde a 11 es el complemento del elemento A 11 al que se va a conectar el puerto único. A partir de la teoría de la estabilidad, Cauer encontró que [ R ], [ L ] y [ D ] deben ser todas matrices definidas positivas para que Z p ( s ) sea realizable si no se excluyen los transformadores ideales. La realizabilidad solo está restringida de otro modo por limitaciones prácticas en topología. [39] Este trabajo también se debe en parte a Otto Brune (1931), quien trabajó con Cauer en los EE. UU. antes de que Cauer regresara a Alemania. [49] Una condición bien conocida para la realizabilidad de una impedancia racional de un puerto [nota 16] debido a Cauer (1929) es que debe ser una función de s que sea analítica en el semiplano derecho (σ>0), tenga una parte real positiva en el semiplano derecho y tome valores reales en el eje real. Esto se desprende de la representación integral de Poisson de estas funciones. Brune acuñó el término "real positivo" para esta clase de función y demostró que era una condición necesaria y suficiente (Cauer sólo había demostrado que era necesaria) y extendió el trabajo a los multipuertos LC. Un teorema debido a Sidney Darlington establece que cualquier función real positiva Z ( s ) puede realizarse como un puerto doble sin pérdidas terminado en una resistencia positiva R. No se necesitan resistencias dentro de la red para realizar la respuesta especificada. [49] [58] [59]
En cuanto a la equivalencia, Cauer encontró que el grupo de transformaciones afines reales ,
es invariante en Z p ( s ), es decir, todas las redes transformadas son equivalentes de la original. [39]
El problema de aproximación en la síntesis de redes es encontrar funciones que produzcan redes realizables que se aproximen a una función prescrita de frecuencia dentro de límites fijados arbitrariamente. El problema de aproximación es un asunto importante ya que la función ideal de frecuencia requerida será comúnmente inalcanzable con redes racionales. Por ejemplo, la función ideal prescrita se toma a menudo como la transmisión sin pérdidas inalcanzable en la banda de paso, la atenuación infinita en la banda de supresión y una transición vertical entre las dos. Sin embargo, la función ideal se puede aproximar con una función racional , volviéndose cada vez más cercana al ideal cuanto mayor sea el orden del polinomio. El primero en abordar este problema fue Stephen Butterworth (1930) utilizando sus polinomios de Butterworth . Independientemente, Cauer (1931) utilizó polinomios de Chebyshev , inicialmente aplicados a filtros de imagen, y no a la ahora bien conocida realización en escalera de este filtro. [49] [60]
Los filtros Butterworth son una clase importante [nota 15] de filtros debido a Stephen Butterworth (1930) [61] que ahora se reconocen como un caso especial de los filtros elípticos de Cauer . Butterworth descubrió este filtro independientemente del trabajo de Cauer y lo implementó en su versión con cada sección aislada de la siguiente con un amplificador de válvula que facilitó el cálculo de los valores de los componentes ya que las secciones del filtro no podían interactuar entre sí y cada sección representaba un término en los polinomios de Butterworth . Esto le da a Butterworth el crédito de ser el primero en desviarse de la teoría de parámetros de imagen y el primero en diseñar filtros activos. Más tarde se demostró que los filtros Butterworth podían implementarse en topología de escalera sin la necesidad de amplificadores. Posiblemente el primero en hacerlo fue William Bennett (1932) [62] en una patente que presenta fórmulas para valores de componentes idénticos a los modernos. Sin embargo, Bennett, en esta etapa, todavía está discutiendo el diseño como una línea de transmisión artificial y, por lo tanto, está adoptando un enfoque de parámetros de imagen a pesar de haber producido lo que ahora se consideraría un diseño de síntesis de red. Tampoco parece tener conocimiento del trabajo de Butterworth ni de la conexión entre ellos. [29] [63]
El método de pérdida de inserción para diseñar filtros consiste, en esencia, en prescribir una función deseada de frecuencia para el filtro como atenuación de la señal cuando el filtro se inserta entre las terminaciones en relación con el nivel que se habría recibido si las terminaciones estuvieran conectadas entre sí a través de un transformador ideal que las igualara perfectamente. Las versiones de esta teoría se deben a Sidney Darlington , Wilhelm Cauer y otros, todos trabajando de manera más o menos independiente y, a menudo, se la considera sinónimo de síntesis de red. La implementación del filtro de Butterworth es, en esos términos, un filtro de pérdida de inserción, pero es relativamente trivial matemáticamente, ya que los amplificadores activos utilizados por Butterworth aseguraban que cada etapa funcionara individualmente en una carga resistiva. El filtro de Butterworth se convierte en un ejemplo no trivial cuando se implementa completamente con componentes pasivos. Un filtro incluso anterior que influyó en el método de pérdida de inserción fue el filtro de doble banda de Norton, donde la entrada de dos filtros se conecta en paralelo y se diseña de modo que la entrada combinada presente una resistencia constante. El método de diseño de Norton, junto con las redes LC canónicas de Cauer y el teorema de Darlington de que solo se requerían componentes LC en el cuerpo del filtro dieron como resultado el método de pérdida de inserción. Sin embargo, la topología en escalera resultó ser más práctica que las formas canónicas de Cauer. [64]
El método de pérdida de inserción de Darlington es una generalización del procedimiento utilizado por Norton. En el filtro de Norton se puede demostrar que cada filtro es equivalente a un filtro independiente sin terminación en el extremo común. El método de Darlington se aplica al caso más sencillo y general de una red LC de 2 puertos con terminación en ambos extremos. El procedimiento consta de los siguientes pasos:
Darlington utilizó además una transformación descubierta por Hendrik Bode que predijo la respuesta de un filtro utilizando componentes no ideales pero todos con el mismo Q. Darlington utilizó esta transformación a la inversa para producir filtros con una pérdida de inserción prescrita con componentes no ideales. Dichos filtros tienen la respuesta de pérdida de inserción ideal más una atenuación plana en todas las frecuencias. [51] [65]
Los filtros elípticos son filtros producidos por el método de pérdida de inserción que utilizan funciones racionales elípticas en su función de transferencia como una aproximación a la respuesta ideal del filtro y el resultado se llama aproximación de Chebyshev. Esta es la misma técnica de aproximación de Chebyshev utilizada por Cauer en filtros de imagen, pero sigue el método de diseño de pérdida de inserción de Darlington y utiliza funciones elípticas ligeramente diferentes. Cauer tuvo algún contacto con Darlington y Bell Labs antes de la Segunda Guerra Mundial (durante un tiempo trabajó en los EE. UU.), pero durante la guerra trabajaron de forma independiente, en algunos casos haciendo los mismos descubrimientos. Cauer había revelado la aproximación de Chebyshev a Bell Labs, pero no les había dejado la prueba. Sergei Schelkunoff proporcionó esto y una generalización a todos los problemas de ondulación igual. Los filtros elípticos son una clase general de filtro que incorpora varias otras clases importantes como casos especiales: filtro Cauer ( ondulación igual en banda de paso y banda de supresión ), filtro Chebyshev (ondulación solo en banda de paso), filtro Chebyshev inverso (ondulación solo en banda de supresión) y filtro Butterworth (sin ondulación en ninguna de las bandas). [64] [66]
En general, para los filtros de pérdida de inserción donde los ceros de transmisión y las pérdidas infinitas están todos en el eje real del plano de frecuencia complejo (que generalmente es el caso para el recuento mínimo de componentes), la función de pérdida de inserción se puede escribir como:
donde F es una función de frecuencia par (que da como resultado un filtro antimétrico ) o impar (que da como resultado un filtro simétrico). Los ceros de F corresponden a la pérdida cero y los polos de F corresponden a los ceros de transmisión. J establece la altura de rizado de la banda de paso y la pérdida de la banda de rechazo y estos dos requisitos de diseño se pueden intercambiar. Los ceros y polos de F y J se pueden establecer de forma arbitraria. La naturaleza de F determina la clase del filtro;
Es posible una respuesta de Chebyshev simultáneamente en la banda de paso y en la banda de supresión, como el filtro elíptico de ondulación igual de Cauer. [64]
Darlington relata que encontró en la biblioteca de la ciudad de Nueva York el artículo original de Carl Jacobi sobre funciones elípticas, publicado en latín en 1829. En este artículo, Darlington se sorprendió al encontrar tablas desplegables de las transformaciones exactas de funciones elípticas necesarias para las aproximaciones de Chebyshev tanto del parámetro de imagen de Cauer como de los filtros de pérdida de inserción de Darlington. [51]
Darlington considera que la topología de los circuitos acoplados sintonizados implica una técnica de aproximación independiente del método de pérdida de inserción, pero que también produce bandas de paso nominalmente planas y bandas de rechazo de alta atenuación. La topología más común para estos circuitos son los antirresonadores en derivación acoplados mediante condensadores en serie, con menos frecuencia, mediante inductores o, en el caso de un filtro de dos secciones, mediante inductancia mutua. Estos son más útiles cuando el requisito de diseño no es demasiado estricto, es decir, ancho de banda moderado, caída y ondulación de la banda de paso. [57]
Edward Norton , alrededor de 1930, diseñó un filtro mecánico para su uso en grabadoras y reproductores de fonógrafos . Norton diseñó el filtro en el dominio eléctrico y luego utilizó la correspondencia de magnitudes mecánicas con magnitudes eléctricas para realizar el filtro utilizando componentes mecánicos. La masa corresponde a la inductancia , la rigidez a la elastancia y la amortiguación a la resistencia . El filtro fue diseñado para tener una respuesta de frecuencia máximamente plana . [59]
En los diseños modernos es común utilizar filtros de cristal de cuarzo , especialmente para aplicaciones de filtrado de banda estrecha. La señal existe como una onda acústica mecánica mientras está en el cristal y es convertida por transductores entre los dominios eléctrico y mecánico en los terminales del cristal. [68]
Los filtros de elementos distribuidos están compuestos por tramos de línea de transmisión que tienen al menos una fracción significativa de una longitud de onda. Los primeros filtros no eléctricos fueron todos de este tipo. William Herschel (1738-1822), por ejemplo, construyó un aparato con dos tubos de diferentes longitudes que atenuaban algunas frecuencias pero no otras. Joseph-Louis Lagrange (1736-1813) estudió las ondas en una cuerda cargada periódicamente con pesos. El dispositivo nunca fue estudiado ni utilizado como filtro por Lagrange ni por investigadores posteriores como Charles Godfrey. Sin embargo, Campbell utilizó los resultados de Godfrey por analogía para calcular el número de bobinas de carga necesarias en sus líneas cargadas, el dispositivo que condujo al desarrollo de su filtro eléctrico. Lagrange, Godfrey y Campbell hicieron todos suposiciones simplificadoras en sus cálculos que ignoraban la naturaleza distribuida de sus aparatos. En consecuencia, sus modelos no mostraron las múltiples bandas de paso que son una característica de todos los filtros de elementos distribuidos. [69] Los primeros filtros eléctricos que fueron verdaderamente diseñados según principios de elementos distribuidos se deben a Warren P. Mason a partir de 1927. [70]
Los filtros transversales no suelen asociarse con implementaciones pasivas, pero el concepto se puede encontrar en una patente de Wiener y Lee de 1935 que describe un filtro que consiste en una cascada de secciones de paso total . [71] Las salidas de las distintas secciones se suman en las proporciones necesarias para obtener la función de frecuencia requerida. Esto funciona según el principio de que ciertas frecuencias estarán en o cerca de la fase opuesta en diferentes secciones y tenderán a cancelarse cuando se sumen. Estas son las frecuencias rechazadas por el filtro y pueden producir filtros con cortes muy bruscos. Este enfoque no encontró ninguna aplicación inmediata y no es común en los filtros pasivos. Sin embargo, el principio encuentra muchas aplicaciones como una implementación de línea de retardo activa para aplicaciones de filtro de tiempo discreto de banda ancha , como televisión, radar y transmisión de datos de alta velocidad. [72] [73]
El propósito de los filtros adaptados es maximizar la relación señal-ruido (S/N) a expensas de la forma del pulso. La forma del pulso, a diferencia de muchas otras aplicaciones, no es importante en el radar, mientras que la relación señal-ruido es la principal limitación en el rendimiento. Los filtros fueron introducidos durante la Segunda Guerra Mundial (descritos en 1943) [74] por Dwight North y a menudo se los conoce como " filtros North ". [72] [75]
Los sistemas de control necesitan filtros de suavizado en sus bucles de retroalimentación con criterios para maximizar la velocidad de movimiento de un sistema mecánico hasta la marca prescrita y, al mismo tiempo, minimizar el sobreimpulso y los movimientos inducidos por ruido. Un problema clave aquí es la extracción de señales gaussianas de un fondo ruidoso. Un artículo temprano sobre esto fue publicado durante la Segunda Guerra Mundial por Norbert Wiener con la aplicación específica a las computadoras analógicas de control de fuego antiaéreo. Rudy Kalman ( filtro de Kalman ) más tarde reformuló esto en términos de suavizado y predicción del espacio de estados donde se conoce como el problema de control lineal-cuadrático-gaussiano . Kalman inició un interés en las soluciones del espacio de estados, pero según Darlington, este enfoque también se puede encontrar en el trabajo de Heaviside y anteriores. [72]
Los filtros LC a bajas frecuencias se vuelven complicados; los componentes, especialmente los inductores, se vuelven caros, voluminosos, pesados y no ideales. Los inductores 1 H prácticos requieren muchas vueltas en un núcleo de alta permeabilidad; ese material tendrá altas pérdidas y problemas de estabilidad (por ejemplo, un gran coeficiente de temperatura). Para aplicaciones como filtros de red, se debe tolerar la incomodidad. Para aplicaciones de bajo nivel y baja frecuencia, los filtros RC son posibles, pero no pueden implementar filtros con polos o ceros complejos. Si la aplicación puede usar energía, entonces se pueden usar amplificadores para hacer filtros RC activos que puedan tener polos y ceros complejos. En la década de 1950, los filtros RC activos Sallen-Key se fabricaron con amplificadores de tubo de vacío ; estos filtros reemplazaron los inductores voluminosos con tubos de vacío voluminosos y calientes. Los transistores ofrecieron diseños de filtros activos más eficientes en términos de energía. Más tarde, los amplificadores operacionales económicos permitieron otras topologías de diseño de filtros RC activos. Aunque los diseños de filtros activos eran comunes a bajas frecuencias, eran poco prácticos a altas frecuencias donde los amplificadores no eran ideales; Todavía se utilizaban filtros LC (y de línea de transmisión) en frecuencias de radio.
Poco a poco, el filtro RC activo de baja frecuencia fue reemplazado por el filtro de condensador conmutado que operaba en el dominio del tiempo discreto en lugar del dominio del tiempo continuo. Todas estas tecnologías de filtrado requieren componentes de precisión para un filtrado de alto rendimiento, y eso a menudo requiere que los filtros estén ajustados. Los componentes ajustables son caros y la mano de obra para realizar el ajuste puede ser significativa. Ajustar los polos y ceros de un filtro elíptico de séptimo orden no es un ejercicio sencillo. Los circuitos integrados han hecho que la computación digital sea económica, por lo que ahora el filtrado de baja frecuencia se realiza con procesadores de señales digitales. Estos filtros digitales no tienen problemas para implementar valores ultraprecisos (y estables), por lo que no se requiere ajuste ni ajuste. Los filtros digitales tampoco tienen que preocuparse por las rutas de acoplamiento dispersas ni por proteger las secciones individuales del filtro entre sí. Una desventaja es que el procesamiento de la señal digital puede consumir mucha más energía que un filtro LC equivalente. La tecnología digital económica ha reemplazado en gran medida las implementaciones analógicas de filtros. Sin embargo, todavía hay un lugar ocasional para ellos en aplicaciones más simples, como el acoplamiento, donde no se necesitan funciones de frecuencia sofisticadas. [76] [77] Los filtros pasivos siguen siendo la tecnología de elección en frecuencias de microondas. [78]