stringtranslate.com

Teorema espectral

En matemáticas , particularmente en álgebra lineal y análisis funcional , un teorema espectral es un resultado sobre cuándo un operador o matriz lineal puede diagonalizarse (es decir, representarse como una matriz diagonal en alguna base). Esto es extremadamente útil porque los cálculos que involucran una matriz diagonalizable a menudo se pueden reducir a cálculos mucho más simples que involucran la matriz diagonal correspondiente. El concepto de diagonalización es relativamente sencillo para operadores en espacios vectoriales de dimensión finita, pero requiere algunas modificaciones para operadores en espacios de dimensión infinita. En general, el teorema espectral identifica una clase de operadores lineales que pueden modelarse mediante operadores de multiplicación , que son tan simples como se puede esperar encontrar. En un lenguaje más abstracto, el teorema espectral es una afirmación sobre álgebras C* conmutativas . Véase también teoría espectral para una perspectiva histórica.

Ejemplos de operadores a los que se aplica el teorema espectral son los operadores autoadjuntos o, más generalmente, los operadores normales en espacios de Hilbert .

El teorema espectral también proporciona una descomposición canónica , llamada descomposición espectral , del espacio vectorial subyacente sobre el que actúa el operador.

Augustin-Louis Cauchy demostró el teorema espectral para matrices simétricas , es decir, que toda matriz simétrica real es diagonalizable. Además, Cauchy fue el primero en ser sistemático acerca de los determinantes . [1] [2] El teorema espectral generalizado por John von Neumann es hoy quizás el resultado más importante de la teoría del operador .

Este artículo se centra principalmente en el tipo más simple de teorema espectral, el de un operador autoadjunto en un espacio de Hilbert. Sin embargo, como se señaló anteriormente, el teorema espectral también es válido para operadores normales en un espacio de Hilbert.

Caso de dimensión finita

Mapas hermitianos y matrices hermitianas.

Comenzamos considerando una matriz hermitiana en (pero la siguiente discusión será adaptable al caso más restrictivo de matrices simétricas en ). Consideramos un mapa hermitiano A en un espacio de producto interno complejo de dimensión finita V dotado de un producto interno sesquilineal definido positivo. La condición hermitiana de significa que para todo x , yV ,

Una condición equivalente es que A * = A , donde A * es el conjugado hermitiano de A. En el caso de que A se identifique con una matriz hermitiana, la matriz de A * es igual a su transpuesta conjugada . (Si A es una matriz real , entonces esto es equivalente a AT = A , es decir, A es una matriz simétrica ).

Esta condición implica que todos los valores propios de una aplicación hermitiana son reales: para ver esto, basta aplicarlo al caso en que x = y es un vector propio. (Recuerde que un vector propio de una aplicación lineal A es un vector v distinto de cero tal que A v = λv para algún escalar λ . El valor λ es el valor propio correspondiente . Además, los valores propios son raíces del polinomio característico ).

Teorema  :  si A es hermitiano en V , entonces existe una base ortonormal de V que consta de vectores propios de A. Cada valor propio de A es real.

Proporcionamos un esbozo de una prueba para el caso en el que el campo subyacente de los escalares son los números complejos .

Según el teorema fundamental del álgebra , aplicado al polinomio característico de A , existe al menos un valor propio complejo λ 1 y su correspondiente vector propio v 1 , que por definición debe ser distinto de cero. Entonces ya encontramos que λ 1 es real. Consideremos ahora el espacio como complemento ortogonal de v 1 . Por Hermiticidad, es un subespacio invariante de A. Para ver eso, considere cualquiera de modo que, por definición de Para satisfacer la invariancia, debemos verificar si Esto es cierto porque Aplicar el mismo argumento a muestra que A tiene al menos un valor propio real y su correspondiente vector propio. Esto se puede usar para construir otro subespacio invariante. La inducción finita finaliza la prueba.

La representación matricial de A en una base de vectores propios es diagonal y, mediante la construcción, la prueba da una base de vectores propios mutuamente ortogonales; al elegirlos como vectores unitarios se obtiene una base ortonormal de vectores propios. A se puede escribir como una combinación lineal de proyecciones ortogonales por pares, lo que se denomina descomposición espectral . Sea el espacio propio correspondiente a un valor propio. Tenga en cuenta que la definición no depende de ninguna elección de vectores propios específicos. En general, V es la suma directa ortogonal de los espacios donde los rangos sobre el espectro de

Cuando la matriz que se descompone es hermitiana, la descomposición espectral es un caso especial de la descomposición de Schur (consulte la prueba en el caso de matrices normales a continuación).

Descomposición espectral y descomposición en valores singulares.

La descomposición espectral es un caso especial de la descomposición en valores singulares , que establece que cualquier matriz se puede expresar como donde y son matrices unitarias y es una matriz diagonal. Las entradas diagonales de están determinadas únicamente por y se conocen como valores singulares de Si es hermitiano, entonces y lo que implica

Matrices normales

El teorema espectral se extiende a una clase más general de matrices. Sea A un operador en un espacio producto interno de dimensión finita. Se dice que A es normal si A * A = AA * .

Se puede demostrar que A es normal si y sólo si es unitariamente diagonalizable mediante la descomposición de Schur . Es decir, cualquier matriz se puede escribir como A = UTU * , donde U es unitaria y T es triangular superior . Si A es normal, entonces se ve que TT * = T * T . Por lo tanto, T debe ser diagonal ya que una matriz triangular superior normal es diagonal (ver matriz normal ). Lo contrario es obvio.

En otras palabras, A es normal si y sólo si existe una matriz unitaria U tal que donde D es una matriz diagonal . Entonces, las entradas de la diagonal de D son los valores propios de A. Los vectores columna de U son los vectores propios de A y son ortonormales. A diferencia del caso hermitiano, las entradas de D no necesitan ser reales.

Operadores compactos autoadjuntos

En el escenario más general de los espacios de Hilbert, que pueden tener una dimensión infinita, el enunciado del teorema espectral para operadores compactos autoadjuntos es prácticamente el mismo que en el caso de dimensión finita.

Teorema  :  supongamos que A es un operador autoadjunto compacto en un espacio de Hilbert V (real o complejo) . Entonces existe una base ortonormal de V que consta de vectores propios de A. Cada valor propio es real.

En cuanto a las matrices hermitianas, el punto clave es demostrar la existencia de al menos un vector propio distinto de cero. No se puede confiar en los determinantes para mostrar la existencia de valores propios, pero se puede utilizar un argumento de maximización análogo a la caracterización variacional de los valores propios.

Si se elimina el supuesto de compacidad, entonces no es cierto que todo operador autoadjunto tenga vectores propios. Por ejemplo, el operador de multiplicación que lleva a cada uno a está acotado y es autoadjunto, pero no tiene vectores propios. Sin embargo, su espectro, adecuadamente definido, sigue siendo igual a (ver espectro del operador acotado) .

Operadores autoadjuntos acotados

Posible ausencia de vectores propios

La siguiente generalización que consideramos es la de operadores autoadjuntos acotados en un espacio de Hilbert. Dichos operadores pueden no tener vectores propios: por ejemplo, sea A el operador de multiplicación por t en , es decir, [3]

Este operador no tiene vectores propios en , aunque sí tiene vectores propios en un espacio más grande. Es decir, la distribución , donde es la función delta de Dirac , es un vector propio cuando se interpreta en el sentido apropiado. Sin embargo, la función delta de Dirac no es una función en el sentido clásico y no se encuentra en el espacio de Hilbert L 2 [0, 1] ni en ningún otro espacio de Banach . Por lo tanto, las funciones delta son "vectores propios generalizados" pero no vectores propios en el sentido habitual.

Subespacios espectrales y medidas valoradas en proyección.

En ausencia de vectores propios (verdaderos), se puede buscar un "subespacio espectral" que consista en un vector casi propio , es decir, un subespacio cerrado de asociado con un conjunto de Borel en el espectro de . Este subespacio puede considerarse como el lapso cerrado de vectores propios generalizados para con valores propios en . [4] En el ejemplo anterior, donde podríamos considerar el subespacio de funciones admitidas en un pequeño intervalo dentro . Este espacio es invariante bajo y para cualquiera en este subespacio, está muy cerca de . Cada subespacio, a su vez, está codificado por el operador de proyección asociado, y la colección de todos los subespacios se representa mediante una medida con valor de proyección .

Una formulación del teorema espectral expresa el operador A como una integral de la función de coordenadas sobre el espectro del operador con respecto a una medida valorada en proyección. [5]

Cuando el operador autoadjunto en cuestión es compacto , esta versión del teorema espectral se reduce a algo similar al teorema espectral de dimensión finita anterior, excepto que el operador se expresa como una combinación lineal finita o contablemente infinita de proyecciones, es decir, la medida se compone únicamente de átomos.

Versión del operador de multiplicación

Una formulación alternativa del teorema espectral dice que todo operador autoadjunto acotado es unitariamente equivalente a un operador de multiplicación. La importancia de este resultado es que los operadores de multiplicación son fáciles de entender en muchos sentidos.

Teorema [6]  —  Sea A un operador autoadjunto acotado en un espacio deHilbert H. Entonces hay un espacio de medida ( X , Σ, μ ) y una función mensurable f de valor real esencialmente acotada en X y un operador unitario U : HL 2 ( X , μ ) tal que donde T es el operador de multiplicación : y.

El teorema espectral es el comienzo de la vasta área de investigación del análisis funcional llamada teoría del operador ; ver también la medida espectral .

También existe un teorema espectral análogo para operadores normales acotados en espacios de Hilbert. La única diferencia en la conclusión es que ahora f puede tener valores complejos.

Integrales directas

También existe una formulación del teorema espectral en términos de integrales directas . Es similar a la formulación del operador de multiplicación, pero más canónica.

Sea un operador autoadjunto acotado y sea el espectro de . La formulación integral directa del teorema espectral asocia dos cantidades a . Primero, una medida en , y segundo, una familia de espacios de Hilbert. Luego formamos el espacio de Hilbert integral directa. Los elementos de este espacio son funciones (o "secciones") tales que para todos . La versión integral directa del teorema espectral se puede expresar de la siguiente manera: [7]

Teorema  :  si es un operador autoadjunto acotado, entonces es unitariamente equivalente al operador "multiplicación por" para alguna medida y alguna familia de espacios de Hilbert. La medida está determinada únicamente por la equivalencia teórica de la medida; es decir, dos medidas cualesquiera asociadas a la misma tienen los mismos conjuntos de medida cero. Las dimensiones de los espacios de Hilbert están determinadas de forma única por hasta un conjunto de medidas cero.

Los espacios pueden considerarse como algo así como "espacios propios" para . Sin embargo, tenga en cuenta que, a menos que el conjunto de un elemento tenga medida positiva, el espacio no es en realidad un subespacio de la integral directa. Por lo tanto, los 's deben considerarse como un "espacio propio generalizado", es decir, los elementos de son "vectores propios" que en realidad no pertenecen al espacio de Hilbert.

Aunque tanto la formulación del operador de multiplicación como la integral directa del teorema espectral expresan un operador autoadjunto como unitariamente equivalente a un operador de multiplicación, el enfoque integral directo es más canónico. Primero, el conjunto sobre el cual tiene lugar la integral directa (el espectro del operador) es canónico. En segundo lugar, la función por la que estamos multiplicando es canónica en el enfoque integral directo: simplemente la función .

Vectores cíclicos y espectro simple.

Un vector se llama vector cíclico si los vectores abarcan un subespacio denso del espacio de Hilbert. Supongamos que es un operador autoadjunto acotado para el cual existe un vector cíclico. En ese caso, no hay distinción entre las formulaciones de integral directa y operador de multiplicación del teorema espectral. De hecho, en ese caso, hay una medida en el espectro de tales que es unitariamente equivalente al operador "multiplicación por" en . [8] Este resultado se representa simultáneamente como un operador de multiplicación y como una integral directa, ya que es solo una integral directa en la que cada espacio de Hilbert es solo .

No todos los operadores autoadjuntos acotados admiten un vector cíclico; de hecho, por la unicidad en la descomposición integral directa, esto sólo puede ocurrir cuando todos los 's tienen dimensión uno. Cuando esto sucede, decimos que tiene "espectro simple" en el sentido de la teoría de la multiplicidad espectral . Es decir, un operador autoadjunto acotado que admite un vector cíclico debe considerarse como la generalización de dimensión infinita de una matriz autoadjunta con valores propios distintos (es decir, cada valor propio tiene multiplicidad uno).

Aunque no todos admiten un vector cíclico, es fácil ver que podemos descomponer el espacio de Hilbert como una suma directa de subespacios invariantes en los que tiene un vector cíclico. Esta observación es la clave para las demostraciones del operador de multiplicación y las formas integral directa del teorema espectral.

calculo funcional

Una aplicación importante del teorema espectral (en cualquier forma) es la idea de definir un cálculo funcional . Es decir, dada una función definida en el espectro de , deseamos definir un operador . Si es simplemente una potencia positiva, entonces es solo la -ésima potencia de ,. Los casos interesantes son aquellos donde hay una función no polinómica como una raíz cuadrada o una exponencial. Cualquiera de las versiones del teorema espectral proporciona dicho cálculo funcional. [9] En la versión integral directa, por ejemplo, actúa como operador de "multiplicación por " en la integral directa: es decir, cada espacio en la integral directa es un espacio propio (generalizado) para con valor propio .

Operadores autoadjuntos ilimitados

Muchos operadores lineales importantes que aparecen en el análisis , como los operadores diferenciales , no están acotados . También existe un teorema espectral para operadores autoadjuntos que se aplica en estos casos. Para dar un ejemplo, todo operador diferencial de coeficiente constante es unitariamente equivalente a un operador de multiplicación. En efecto, el operador unitario que implementa esta equivalencia es la transformada de Fourier ; El operador de multiplicación es un tipo de multiplicador de Fourier .

En general, el teorema espectral para operadores autoadjuntos puede adoptar varias formas equivalentes. [10] En particular, todas las formulaciones dadas en la sección anterior para operadores autoadjuntos acotados (la versión de medida con valor de proyección, la versión del operador de multiplicación y la versión integral directa) continúan siendo válidas para operadores autoadjuntos ilimitados. , con pequeñas modificaciones técnicas para solucionar problemas de dominio. Específicamente, la única razón por la que el operador de multiplicación on está acotado se debe a la elección del dominio . El mismo operador, por ejemplo, sería ilimitado.

La noción de "vectores propios generalizados" se extiende naturalmente a los operadores autoadjuntos ilimitados, ya que se caracterizan como vectores propios no normalizables . Sin embargo, a diferencia de casi los vectores propios, los valores propios pueden ser reales o complejos y, aunque sean reales, no necesariamente pertenecen al espectro. Sin embargo, para los operadores autoadjuntos siempre existe un subconjunto real de "valores propios generalizados" tal que el conjunto correspondiente de vectores propios esté completo . [11]

Ver también

Notas

  1. ^ Hawkins, Thomas (1975). "Cauchy y la teoría espectral de matrices". Historia Matemática . 2 : 1–29. doi : 10.1016/0315-0860(75)90032-4 .
  2. ^ Una breve historia de la teoría del operador por Evans M. Harrell II
  3. ^ Salón 2013 Sección 6.1
  4. ^ Teorema 7.2.1 de Hall 2013
  5. ^ Teorema 7.12 de Hall 2013
  6. ^ Teorema 7.20 de Hall 2013
  7. ^ Teorema 7.19 de Hall 2013
  8. ^ Salón 2013 Lema 8.11
  9. ^ Por ejemplo, Hall 2013 Definición 7.13
  10. ^ Ver Sección 10.1 del Salón 2013
  11. ^ de la Madrid Modino 2001, págs.

Referencias