stringtranslate.com

Spectral theorem

In mathematics, particularly linear algebra and functional analysis, a spectral theorem is a result about when a linear operator or matrix can be diagonalized (that is, represented as a diagonal matrix in some basis). This is extremely useful because computations involving a diagonalizable matrix can often be reduced to much simpler computations involving the corresponding diagonal matrix. The concept of diagonalization is relatively straightforward for operators on finite-dimensional vector spaces but requires some modification for operators on infinite-dimensional spaces. In general, the spectral theorem identifies a class of linear operators that can be modeled by multiplication operators, which are as simple as one can hope to find. In more abstract language, the spectral theorem is a statement about commutative C*-algebras. See also spectral theory for a historical perspective.

Examples of operators to which the spectral theorem applies are self-adjoint operators or more generally normal operators on Hilbert spaces.

The spectral theorem also provides a canonical decomposition, called the spectral decomposition, of the underlying vector space on which the operator acts.

Augustin-Louis Cauchy proved the spectral theorem for symmetric matrices, i.e., that every real, symmetric matrix is diagonalizable. In addition, Cauchy was the first to be systematic about determinants.[1][2] The spectral theorem as generalized by John von Neumann is today perhaps the most important result of operator theory.

This article mainly focuses on the simplest kind of spectral theorem, that for a self-adjoint operator on a Hilbert space. However, as noted above, the spectral theorem also holds for normal operators on a Hilbert space.

Finite-dimensional case

Hermitian maps and Hermitian matrices

Comenzamos considerando una matriz hermitiana en (pero la siguiente discusión será adaptable al caso más restrictivo de matrices simétricas en ). Consideramos un mapa hermitiano A en un espacio de producto interno complejo V de dimensión finita dotado de un producto interno sesquilineal definido positivo . La condición hermitiana significa que para todo x , yV ,

Una condición equivalente es que A * = A , donde A * es el conjugado hermitiano de A. En el caso de que A se identifique con una matriz hermitiana, la matriz de A * es igual a su transpuesta conjugada . (Si A es una matriz real , entonces esto es equivalente a AT = A , es decir, A es una matriz simétrica ).

Esta condición implica que todos los valores propios de una aplicación hermitiana son reales: para ver esto, basta aplicarlo al caso en que x = y es un vector propio. (Recuerde que un vector propio de una aplicación lineal A es un vector v distinto de cero tal que Av = λv para algún escalar λ . El valor λ es el valor propio correspondiente . Además, los valores propios son raíces del polinomio característico ).

Teorema  :  si A es hermitiano en V , entonces existe una base ortonormal de V que consta de vectores propios de A. Cada valor propio de A es real.

Proporcionamos un esbozo de una prueba para el caso en el que el campo subyacente de los escalares son los números complejos .

Según el teorema fundamental del álgebra , aplicado al polinomio característico de A , existe al menos un valor propio complejo λ 1 y su correspondiente vector propio v 1 , que por definición debe ser distinto de cero. Entonces desde

λ 1complemento ortogonalv 1subespacio invarianteA. A

La representación matricial de A en una base de vectores propios es diagonal y, mediante la construcción, la prueba da una base de vectores propios mutuamente ortogonales; al elegirlos como vectores unitarios se obtiene una base ortonormal de vectores propios. A se puede escribir como una combinación lineal de proyecciones ortogonales por pares, lo que se denomina descomposición espectral . Dejar

V

En otras palabras, si denotamos la proyección ortogonal sobre (de modo que ) y λ 1 , ..., λ m son los valores propios de A , entonces la descomposición espectral se puede escribir como

Si la descomposición espectral de A es , entonces y para cualquier escalar Se deduce que para cualquier polinomio f se tiene


La descomposición espectral es un caso especial de la descomposición de Schur , cuando la matriz que se descompone es hermitiana. Vea la prueba en el caso de matrices normales a continuación.

Descomposición espectral y descomposición de valores singulares.

La descomposición espectral es un caso especial de la descomposición en valores singulares , que establece que cualquier matriz puede expresarse como , donde y son unitarias ( ) y es una matriz diagonal real. La descomposición de valores singulares es única cuando los valores singulares se organizan en orden descendente. Si es hermitiano, entonces o

Matrices normales

El teorema espectral se extiende a una clase más general de matrices. Sea A un operador en un espacio producto interno de dimensión finita. Se dice que A es normal si A * A = AA * . Se puede demostrar que A es normal si y sólo si es unitariamente diagonalizable.

Prueba: mediante la descomposición de Schur , podemos escribir cualquier matriz como A = UTU * , donde U es unitaria y T es triangular superior. Si A es normal, entonces se ve que TT * = T * T . Por lo tanto, T debe ser diagonal ya que una matriz triangular superior normal es diagonal (ver matriz normal ). Lo contrario es obvio.

En otras palabras, A es normal si y sólo si existe una matriz unitaria U tal que

Dmatriz diagonalsonvalores propiosA. UAD

Operadores compactos autoadjuntos

En el escenario más general de los espacios de Hilbert, que pueden tener una dimensión infinita, el enunciado del teorema espectral para operadores compactos autoadjuntos es prácticamente el mismo que en el caso de dimensión finita.

Teorema . Supongamos que A es un operador autoadjunto compacto en un espacio de Hilbert V (real o complejo) . Entonces existe una base ortonormal de V que consta de vectores propios de A. Cada valor propio es real.

En cuanto a las matrices hermitianas, el punto clave es demostrar la existencia de al menos un vector propio distinto de cero. No se puede confiar en los determinantes para mostrar la existencia de valores propios, pero se puede utilizar un argumento de maximización análogo a la caracterización variacional de los valores propios.

Si se elimina el supuesto de compacidad, entonces no es cierto que todo operador autoadjunto tenga vectores propios. Por ejemplo, el operador de multiplicación que lleva a cada uno a está acotado y es autoadjunto, pero no tiene vectores propios. Sin embargo, su espectro, adecuadamente definido, sigue siendo igual a (ver espectro del operador acotado) .

Operadores autoadjuntos acotados

Posible ausencia de vectores propios

La siguiente generalización que consideramos es la de operadores autoadjuntos acotados en un espacio de Hilbert. Dichos operadores pueden no tener vectores propios: por ejemplo, sea A el operador de multiplicación por t en , es decir, [3]

Este operador no tiene vectores propios en , aunque sí tiene vectores propios en un espacio más grande. Es decir, la distribución , donde es la función delta de Dirac , es un vector propio cuando se interpreta en el sentido apropiado. Sin embargo, la función delta de Dirac no es una función en el sentido clásico y no se encuentra en el espacio de Hilbert L 2 [0, 1] ni en ningún otro espacio de Banach . Por lo tanto, las funciones delta son "vectores propios generalizados" pero no vectores propios en el sentido habitual.

Subespacios espectrales y medidas valoradas en proyección.

En ausencia de vectores propios (verdaderos), se puede buscar un "subespacio espectral" que consista en un vector casi propio , es decir, un subespacio cerrado de asociado con un conjunto de Borel en el espectro de . Este subespacio puede considerarse como el lapso cerrado de vectores propios generalizados para con valores propios en . [4] En el ejemplo anterior, donde podríamos considerar el subespacio de funciones admitidas en un pequeño intervalo dentro . Este espacio es invariante bajo y para cualquiera en este subespacio, está muy cerca de . Cada subespacio, a su vez, está codificado por el operador de proyección asociado, y la colección de todos los subespacios se representa mediante una medida con valor de proyección .

Una formulación del teorema espectral expresa el operador A como una integral de la función de coordenadas sobre el espectro del operador con respecto a una medida valorada en proyección. [5]

Cuando el operador autoadjunto en cuestión es compacto , esta versión del teorema espectral se reduce a algo similar al teorema espectral de dimensión finita anterior, excepto que el operador se expresa como una combinación lineal finita o contablemente infinita de proyecciones, es decir, la medida se compone únicamente de átomos.

Versión del operador de multiplicación

Una formulación alternativa del teorema espectral dice que todo operador autoadjunto acotado es unitariamente equivalente a un operador de multiplicación. La importancia de este resultado es que los operadores de multiplicación son fáciles de entender en muchos sentidos.

Teorema . [6]  —  Sea A un operador autoadjunto acotado en un espacio deHilbert H. Entonces hay un espacio de medida ( X , Σ, μ ) y unafunción mensurable f de valor real esencialmente acotada en X y un operador unitario U : HL 2 ( X , μ ) tal que

donde T es el operador de multiplicación :
y .

El teorema espectral es el comienzo de la vasta área de investigación del análisis funcional llamada teoría del operador ; ver también la medida espectral .

También existe un teorema espectral análogo para operadores normales acotados en espacios de Hilbert. La única diferencia en la conclusión es que ahora f puede tener valores complejos.

Integrales directas

También existe una formulación del teorema espectral en términos de integrales directas . Es similar a la formulación del operador de multiplicación, pero más canónica.

Sea un operador autoadjunto acotado y sea el espectro de . La formulación integral directa del teorema espectral asocia dos cantidades a . Primero, una medida en , y segundo, una familia de espacios de Hilbert. Luego formamos el espacio de Hilbert integral directo.

[7]

Teorema  :  si es un operador autoadjunto acotado, entonces es unitariamente equivalente al operador "multiplicación por" en

en cierta medida y alguna familia de espacios de Hilbert. La medida está determinada únicamente por la equivalencia teórica de la medida; es decir, dos medidas cualesquiera asociadas a la misma tienen los mismos conjuntos de medida cero. Las dimensiones de los espacios de Hilbert están determinadas de forma única por hasta un conjunto de medidas cero.

Los espacios pueden considerarse como algo así como "espacios propios" para . Sin embargo, tenga en cuenta que, a menos que el conjunto de un elemento tenga medida positiva, el espacio no es en realidad un subespacio de la integral directa. Por lo tanto, los 's deben considerarse como un "espacio propio generalizado", es decir, los elementos de son "vectores propios" que en realidad no pertenecen al espacio de Hilbert.

Aunque tanto la formulación del operador de multiplicación como la integral directa del teorema espectral expresan un operador autoadjunto como unitariamente equivalente a un operador de multiplicación, el enfoque integral directo es más canónico. Primero, el conjunto sobre el cual tiene lugar la integral directa (el espectro del operador) es canónico. En segundo lugar, la función por la que estamos multiplicando es canónica en el enfoque integral directo: simplemente la función .

Vectores cíclicos y espectro simple.

Un vector se llama vector cíclico si los vectores abarcan un subespacio denso del espacio de Hilbert. Supongamos que es un operador autoadjunto acotado para el cual existe un vector cíclico. En ese caso, no hay distinción entre las formulaciones de integral directa y operador de multiplicación del teorema espectral. De hecho, en ese caso, hay una medida en el espectro de tales que es unitariamente equivalente al operador "multiplicación por" en . [8] Este resultado se representa simultáneamente como un operador de multiplicación y como una integral directa, ya que es solo una integral directa en la que cada espacio de Hilbert es solo .

No todos los operadores autoadjuntos acotados admiten un vector cíclico; de hecho, por la unicidad en la descomposición integral directa, esto sólo puede ocurrir cuando todos los 's tienen dimensión uno. Cuando esto sucede, decimos que tiene "espectro simple" en el sentido de la teoría de la multiplicidad espectral . Es decir, un operador autoadjunto acotado que admite un vector cíclico debe considerarse como la generalización de dimensión infinita de una matriz autoadjunta con valores propios distintos (es decir, cada valor propio tiene multiplicidad uno).

Aunque no todos admiten un vector cíclico, es fácil ver que podemos descomponer el espacio de Hilbert como una suma directa de subespacios invariantes en los que tiene un vector cíclico. Esta observación es la clave para las demostraciones del operador de multiplicación y las formas integral directa del teorema espectral.

calculo funcional

Una aplicación importante del teorema espectral (en cualquier forma) es la idea de definir un cálculo funcional . Es decir, dada una función definida en el espectro de , deseamos definir un operador . Si es simplemente una potencia positiva, entonces es solo la -ésima potencia de ,. Los casos interesantes son aquellos donde hay una función no polinómica como una raíz cuadrada o una exponencial. Cualquiera de las versiones del teorema espectral proporciona dicho cálculo funcional. [9] En la versión integral directa, por ejemplo, actúa como operador de "multiplicación por" en la integral directa:

Operadores autoadjuntos ilimitados

Muchos operadores lineales importantes que aparecen en el análisis , como los operadores diferenciales , no están acotados . También existe un teorema espectral para operadores autoadjuntos que se aplica en estos casos. Para dar un ejemplo, todo operador diferencial de coeficiente constante es unitariamente equivalente a un operador de multiplicación. En efecto, el operador unitario que implementa esta equivalencia es la transformada de Fourier ; El operador de multiplicación es un tipo de multiplicador de Fourier .

En general, el teorema espectral para operadores autoadjuntos puede adoptar varias formas equivalentes. [10] En particular, todas las formulaciones dadas en la sección anterior para operadores autoadjuntos acotados (la versión de medida con valor de proyección, la versión del operador de multiplicación y la versión integral directa) continúan siendo válidas para operadores autoadjuntos ilimitados. , con pequeñas modificaciones técnicas para solucionar problemas de dominio. Específicamente, la única razón por la que el operador de multiplicación on está acotado se debe a la elección del dominio . El mismo operador, por ejemplo, sería ilimitado.

La noción de "vectores propios generalizados" se extiende naturalmente a los operadores autoadjuntos ilimitados, ya que se caracterizan como vectores propios no normalizables . Sin embargo, a diferencia de casi los vectores propios, los valores propios pueden ser reales o complejos y, aunque sean reales, no necesariamente pertenecen al espectro. Sin embargo, para los operadores autoadjuntos siempre existe un subconjunto real de "valores propios generalizados" tal que el conjunto correspondiente de vectores propios esté completo . [11]

Ver también

Notas

  1. ^ Hawkins, Thomas (1975). "Cauchy y la teoría espectral de matrices". Historia Matemática . 2 : 1–29. doi : 10.1016/0315-0860(75)90032-4 .
  2. ^ Una breve historia de la teoría del operador por Evans M. Harrell II
  3. ^ Salón 2013 Sección 6.1
  4. ^ Teorema 7.2.1 de Hall 2013
  5. ^ Teorema 7.12 de Hall 2013
  6. ^ Teorema 7.20 de Hall 2013
  7. ^ Teorema 7.19 de Hall 2013
  8. ^ Salón 2013 Lema 8.11
  9. ^ Por ejemplo, Hall 2013 Definición 7.13
  10. ^ Ver Sección 10.1 del Salón 2013
  11. ^ de la Madrid Modino 2001, págs.

Referencias