stringtranslate.com

Matriz aleatoria

En teoría de la probabilidad y física matemática , una matriz aleatoria es una variable aleatoria con valores matriciales , es decir, una matriz en la que algunas o todas sus entradas se muestrean aleatoriamente de una distribución de probabilidad . La teoría de matrices aleatorias (RMT) es el estudio de las propiedades de las matrices aleatorias, a menudo a medida que se vuelven grandes. La RMT proporciona técnicas como la teoría del campo medio , los métodos diagramáticos, el método de la cavidad o el método de la réplica para calcular cantidades como trazas , densidades espectrales o productos escalares entre vectores propios. Muchos fenómenos físicos, como el espectro de núcleos de átomos pesados, [1] [2] la conductividad térmica de una red o la aparición del caos cuántico , [3] se pueden modelar matemáticamente como problemas relacionados con matrices aleatorias grandes.

Aplicaciones

Física

En física nuclear , Eugene Wigner introdujo matrices aleatorias para modelar los núcleos de átomos pesados. [1] [2] Wigner postuló que los espacios entre las líneas en el espectro del núcleo de un átomo pesado deberían parecerse a los espacios entre los valores propios de una matriz aleatoria, y deberían depender únicamente de la clase de simetría de la evolución subyacente. [4] En física del estado sólido , las matrices aleatorias modelan el comportamiento de grandes hamiltonianos desordenados en la aproximación de campo medio .

En el caos cuántico , la conjetura de Bohigas–Giannoni–Schmit (BGS) afirma que las estadísticas espectrales de los sistemas cuánticos cuyas contrapartes clásicas exhiben un comportamiento caótico se describen mediante la teoría de matrices aleatorias. [3]

En óptica cuántica , las transformaciones descritas por matrices unitarias aleatorias son cruciales para demostrar la ventaja de la computación cuántica sobre la clásica (véase, por ejemplo, el modelo de muestreo de bosones ). [5] Además, dichas transformaciones unitarias aleatorias se pueden implementar directamente en un circuito óptico, al mapear sus parámetros a los componentes del circuito óptico (es decir, divisores de haz y desfasadores). [6]

La teoría de matrices aleatorias también ha encontrado aplicaciones para el operador quiral de Dirac en cromodinámica cuántica , [7] gravedad cuántica en dos dimensiones, [8] física mesoscópica , [9] torque de transferencia de espín , [10] el efecto Hall cuántico fraccionario , [11] localización de Anderson , [12] puntos cuánticos , [13] y superconductores [14]

Estadística matemática y análisis numérico

En las estadísticas multivariadas , las matrices aleatorias fueron introducidas por John Wishart , quien buscó estimar matrices de covarianza de muestras grandes. [15] Las desigualdades de tipo Chernoff , Bernstein y Hoeffding generalmente se pueden fortalecer cuando se aplican al valor propio máximo (es decir, el valor propio de mayor magnitud) de una suma finita de matrices hermíticas aleatorias . [16] La teoría de matrices aleatorias se utiliza para estudiar las propiedades espectrales de matrices aleatorias, como las matrices de covarianza de muestras, lo que es de particular interés en las estadísticas de alta dimensión . La teoría de matrices aleatorias también tuvo aplicaciones en redes neuronales [17] y aprendizaje profundo , con trabajos recientes que utilizan matrices aleatorias para demostrar que los ajustes de hiperparámetros se pueden transferir de forma económica entre redes neuronales grandes sin la necesidad de volver a entrenar. [18]

En el análisis numérico , las matrices aleatorias se han utilizado desde el trabajo de John von Neumann y Herman Goldstine [19] para describir errores de cálculo en operaciones como la multiplicación de matrices . Aunque las entradas aleatorias son entradas "genéricas" tradicionales para un algoritmo, la concentración de medida asociada con las distribuciones de matrices aleatorias implica que las matrices aleatorias no probarán grandes porciones del espacio de entrada de un algoritmo. [20]

Teoría de números

En teoría de números , la distribución de ceros de la función zeta de Riemann (y otras funciones L ) se modela mediante la distribución de valores propios de ciertas matrices aleatorias. [21] La conexión fue descubierta por primera vez por Hugh Montgomery y Freeman Dyson . Está conectada con la conjetura de Hilbert-Pólya .

Probabilidad libre

La relación de la probabilidad libre con las matrices aleatorias [22] es una razón clave para el amplio uso de la probabilidad libre en otras materias. Voiculescu introdujo el concepto de libertad alrededor de 1983 en un contexto de álgebra de operadores; al principio no existía ninguna relación con las matrices aleatorias. Esta conexión fue revelada recién en 1991 por Voiculescu; [23] estaba motivado por el hecho de que la distribución límite que encontró en su teorema del límite central libre había aparecido antes en la ley del semicírculo de Wigner en el contexto de las matrices aleatorias.

Neurociencia computacional

En el campo de la neurociencia computacional, las matrices aleatorias se utilizan cada vez más para modelar la red de conexiones sinápticas entre neuronas en el cerebro. Se ha demostrado que los modelos dinámicos de redes neuronales con matrices de conectividad aleatorias presentan una transición de fase al caos [24] cuando la varianza de los pesos sinápticos cruza un valor crítico, en el límite del tamaño infinito del sistema. Los resultados sobre matrices aleatorias también han demostrado que la dinámica de los modelos de matrices aleatorias es insensible a la fuerza de conexión media. En cambio, la estabilidad de las fluctuaciones depende de la variación de la fuerza de conexión [25] [26] y el tiempo hasta la sincronía depende de la topología de la red. [27] [28]

En el análisis de datos masivos como fMRI , se ha aplicado la teoría de matrices aleatorias con el fin de realizar reducción de dimensión. Al aplicar un algoritmo como PCA , es importante poder seleccionar el número de componentes significativos. Los criterios para seleccionar componentes pueden ser múltiples (basados ​​en varianza explicada, método de Kaiser, autovalor, etc.). La teoría de matrices aleatorias en este contenido tiene como representante la distribución de Marchenko-Pastur , que garantiza los límites superior e inferior teóricos de los autovalores asociados a una matriz de covarianza de variables aleatorias. Esta matriz calculada de esta manera se convierte en la hipótesis nula que permite encontrar los autovalores (y sus autovectores) que se desvían del rango aleatorio teórico. Los componentes así excluidos se convierten en el espacio dimensional reducido (ver ejemplos en fMRI [29] [30] ).

Control óptimo

En la teoría de control óptimo , la evolución de n variables de estado a través del tiempo depende en cada momento de sus propios valores y de los valores de k variables de control. Con la evolución lineal, aparecen matrices de coeficientes en la ecuación de estado (ecuación de evolución). En algunos problemas los valores de los parámetros en estas matrices no se conocen con certeza, en cuyo caso hay matrices aleatorias en la ecuación de estado y el problema se conoce como uno de control estocástico . [31] : cap. 13  [32] Un resultado clave en el caso del control lineal-cuadrático con matrices estocásticas es que el principio de equivalencia de certeza no se aplica: mientras que en ausencia de incertidumbre del multiplicador (es decir, con solo incertidumbre aditiva) la política óptima con una función de pérdida cuadrática coincide con lo que se decidiría si se ignorara la incertidumbre, la política óptima puede diferir si la ecuación de estado contiene coeficientes aleatorios.

Mecánica computacional

En mecánica computacional , las incertidumbres epistémicas subyacentes a la falta de conocimiento sobre la física del sistema modelado dan lugar a operadores matemáticos asociados al modelo computacional, que son deficientes en cierto sentido. Dichos operadores carecen de ciertas propiedades vinculadas a la física no modelada. Cuando dichos operadores se discretizan para realizar simulaciones computacionales, su precisión está limitada por la física faltante. Para compensar esta deficiencia del operador matemático, no basta con hacer aleatorios los parámetros del modelo, es necesario considerar un operador matemático que sea aleatorio y pueda así generar familias de modelos computacionales con la esperanza de que uno de estos capture la física faltante. Las matrices aleatorias se han utilizado en este sentido, [33] con aplicaciones en vibroacústica, propagación de ondas, ciencia de materiales, mecánica de fluidos, transferencia de calor, etc.

Ingeniería

La teoría de matrices aleatorias se puede aplicar a los esfuerzos de investigación en ingeniería eléctrica y de comunicaciones para estudiar, modelar y desarrollar sistemas de radio masivos de entrada múltiple y salida múltiple ( MIMO ). [ cita requerida ]

Historia

La teoría de matrices aleatorias ganó atención por primera vez más allá de la literatura matemática en el contexto de la física nuclear. Los experimentos de Enrico Fermi y otros demostraron evidencia de que no se puede aproximar el movimiento independiente de los nucleones individuales, lo que llevó a Niels Bohr a formular la idea de un núcleo compuesto . Debido a que no se conocían las interacciones directas entre nucleones, Eugene Wigner y Leonard Eisenbud propusieron que el hamiltoniano nuclear se podía modelar como una matriz aleatoria. Para átomos más grandes, se podía calcular la distribución de los valores propios de energía del hamiltoniano para aproximar las secciones eficaces de dispersión invocando la distribución de Wishart . [34]

Conjuntos gaussianos

Las distribuciones de matrices aleatorias que se estudian con más frecuencia son los conjuntos gaussianos: GOE, GUE y GSE. Suelen denotarse por su índice de Dyson , β  = 1 para GOE, β  = 2 para GUE y β  = 4 para GSE. Este índice cuenta el número de componentes reales por elemento de la matriz.

Definiciones

El conjunto unitario gaussiano se describe mediante la medida gaussiana con densidad en el espacio de matrices hermíticas . Aquí hay una constante de normalización, elegida de modo que la integral de la densidad sea igual a uno. El término unitario se refiere al hecho de que la distribución es invariante bajo conjugación unitaria. El conjunto unitario gaussiano modela hamiltonianos que carecen de simetría de inversión temporal.

El conjunto ortogonal gaussiano se describe mediante la medida gaussiana con densidad en el espacio de n  ×  n matrices simétricas reales H  = ( H ij )n
i , j = 1
Su distribución es invariante bajo conjugación ortogonal y modela hamiltonianos con simetría de inversión temporal. De manera equivalente, se genera mediante , donde es una matriz con muestras IID de la distribución normal estándar.

El conjunto simpléctico gaussiano se describe mediante la medida gaussiana con densidad en el espacio de matrices cuaterniónicas hermíticas n  ×  n , por ejemplo matrices cuadradas simétricas compuestas de cuaterniones , H = ( H ij )n
i , j = 1
Su distribución es invariante bajo la conjugación por el grupo simpléctico , y modela hamiltonianos con simetría de inversión temporal pero sin simetría rotacional.

Funciones de correlación de puntos

Los conjuntos tal como se definen aquí tienen elementos de matriz distribuidos gaussianamente con media ⟨ H ij ⟩ = 0 y correlaciones de dos puntos dadas por de las cuales se siguen todas las correlaciones superiores según el teorema de Isserlis .

Funciones generadoras de momentos

La función generadora de momentos para el GOE es donde es la norma de Frobenius .

Densidad espectral

Densidad espectral de GOE/GUE/GSE, como . Están normalizadas de modo que las distribuciones convergen a la distribución de semicírculo . El número de "jorobas" es igual a N.

La densidad de probabilidad conjunta para los valores propios λ 1 , λ 2 , ..., λ n de GUE/GOE/GSE viene dada por

donde Z β , n es una constante de normalización que se puede calcular explícitamente, véase la integral de Selberg . En el caso de GUE ( β  = 2), la fórmula (1) describe un proceso puntual determinante . Los valores propios se repelen ya que la densidad de probabilidad conjunta tiene un cero (de orden th) para valores propios coincidentes .

La distribución del valor propio más grande para GOE y GUE se puede resolver explícitamente. [35] Convergen a la distribución de Tracy-Widom después de desplazarse y escalarse adecuadamente.

Convergencia a la distribución semicircular de Wigner

El espectro, dividido por , converge en distribución a la distribución semicircular en el intervalo : . Aquí está la varianza de las entradas fuera de la diagonal. La varianza de las entradas en la diagonal no importa.

Distribución de espaciamientos de niveles

A partir de la secuencia ordenada de valores propios , se definen los espaciamientos normalizados , donde es el espaciamiento medio. La distribución de probabilidad de los espaciamientos viene dada aproximadamente por, para el conjunto ortogonal GOE , para el conjunto unitario GUE y para el conjunto simpléctico GSE .

Las constantes numéricas son tales que se normaliza: y el espaciamiento medio es, para .

Generalizaciones

Las matrices de Wigner son matrices hermíticas aleatorias tales que las entradas por encima de la diagonal principal son variables aleatorias independientes con media cero y tienen segundos momentos idénticos.

Los conjuntos de matrices invariantes son matrices hermíticas aleatorias con densidad en el espacio de matrices hermíticas simétricas/hermíticas/cuaterniónicas reales, que es de la forma donde la función V se denomina potencial.

Los conjuntos gaussianos son los únicos casos especiales comunes de estas dos clases de matrices aleatorias. Esto es una consecuencia de un teorema de Porter y Rosenzweig. [36] [37]

Teoría espectral de matrices aleatorias

La teoría espectral de matrices aleatorias estudia la distribución de los valores propios a medida que el tamaño de la matriz tiende al infinito. [38]

Medida espectral empírica

La medida espectral empírica μ H de H se define por

Por lo general, el límite de es una medida determinista; este es un caso particular de autopromedio . La función de distribución acumulativa de la medida límite se denomina densidad integrada de estados y se denota N ( λ ). Si la densidad integrada de estados es diferenciable, su derivada se denomina densidad de estados y se denota  ρ ( λ ).

Expresiones alternativas

Tipos de convergencia

Dado un conjunto de matrices, decimos que sus medidas espectrales convergen débilmente a sy-s para cualquier conjunto medible , el promedio del conjunto converge: Convergencia débilmente casi con seguridad : Si tomamos muestras independientemente del conjunto, entonces con probabilidad 1, para cualquier conjunto medible .

En otro sentido , la convergencia casi segura débil significa que muestreamos , no de forma independiente, sino por "crecimiento" (un proceso estocástico ), luego con probabilidad 1, para cualquier conjunto medible .

Por ejemplo, podemos "hacer crecer" una secuencia de matrices a partir del conjunto gaussiano de la siguiente manera:

Tenga en cuenta que los conjuntos de matrices genéricos no nos permiten crecer, pero la mayoría de los comunes, como los tres conjuntos gaussianos, sí nos permiten crecer.

Régimen global

En el régimen global , uno está interesado en la distribución de estadísticas lineales de la forma .

El límite de la medida espectral empírica para las matrices de Wigner fue descrito por Eugene Wigner ; véase distribución de semicírculo de Wigner y suposición de Wigner . En lo que respecta a las matrices de covarianza de muestras, Marčenko y Pastur desarrollaron una teoría . [39] [40]

El límite de la medida espectral empírica de conjuntos de matrices invariantes se describe mediante una cierta ecuación integral que surge de la teoría potencial . [41]

Fluctuaciones

Para las estadísticas lineales N f , H = n −1 Σ f ( λ j ) , también nos interesan las fluctuaciones alrededor de ∫  f ( λdN ( λ ). Para muchas clases de matrices aleatorias, se conoce un teorema de límite central de la forma . [42] [43]

El problema variacional de los conjuntos unitarios

Considere la medida

donde es el potencial del conjunto y sea la medida espectral empírica.

Podemos reescribir con como

La medida de probabilidad ahora tiene la forma

¿Dónde está la función anterior dentro de los corchetes?

Vamos ahora

sea ​​el espacio de medidas de probabilidad unidimensionales y considere el minimizador

Porque existe una medida de equilibrio única a través de las condiciones variacionales de Euler-Lagrange para alguna constante real.

¿Dónde está el sustento de la medida y definir?

.

La medida de equilibrio tiene la siguiente densidad de Radon-Nikodym

[44]

Régimen mesoscópico

[45] [46] El enunciado típico de la ley semicircular de Wigner es equivalente al siguiente enunciado: Para cada intervalo fijo centrado en un punto , a medida que , el número de dimensiones del conjunto gaussiano aumenta, la proporción de los valores propios que caen dentro del intervalo converge a , donde es la densidad de la distribución semicircular.

Si se permite que disminuya a medida que aumenta, entonces obtenemos teoremas estrictamente más fuertes, llamados "leyes locales" o "régimen mesoscópico".

El régimen mesoscópico es intermedio entre el local y el global. En el régimen mesoscópico , uno está interesado en la distribución límite de valores propios en un conjunto que se contrae a cero, pero lo suficientemente lento, de modo que el número de valores propios dentro de .

Por ejemplo, el conjunto de Ginibre tiene una ley mesoscópica: para cualquier secuencia de discos que se encogen con áreas dentro del disco unitario, si los discos tienen un área , la distribución condicional del espectro dentro de los discos también converge a una distribución uniforme. Es decir, si cortamos los discos que se encogen junto con el espectro que cae dentro de los discos, luego escalamos los discos hasta el área unitaria, veríamos que los espectros convergen a una distribución plana en los discos. [46]

Régimen local

En el régimen local , uno está interesado en la distribución límite de valores propios en un conjunto que se contrae tan rápido que el número de valores propios permanece .

Por lo general, esto significa el estudio de los espaciamientos entre valores propios y, de manera más general, en la distribución conjunta de valores propios en un intervalo de longitud de orden 1/ n . Se distingue entre estadísticas de volumen , pertenecientes a intervalos dentro del soporte de la medida espectral límite, y estadísticas de borde , pertenecientes a intervalos cerca del límite del soporte.

Estadísticas masivas

Formalmente, fije en el interior del soporte de . Luego considere el proceso puntual donde son los valores propios de la matriz aleatoria.

El proceso puntual captura las propiedades estadísticas de los valores propios en la vecindad de . Para los conjuntos gaussianos, el límite de es conocido; [4] por lo tanto, para GUE es un proceso puntual determinante con el núcleo (el núcleo seno ).

El principio de universalidad postula que el límite de as debe depender únicamente de la clase de simetría de la matriz aleatoria (y no del modelo específico de matrices aleatorias ni de ). Se conocen pruebas rigurosas de universalidad para conjuntos de matrices invariantes [47] [48] y matrices de Wigner. [49] [50]

Estadísticas de Edge

Un ejemplo de estadísticas de borde es la distribución de Tracy-Widom .

Como otro ejemplo, considere el conjunto de Ginibre. Puede ser real o complejo. El conjunto de Ginibre real tiene entradas gaussianas estándar iid y el conjunto de Ginibre complejo tiene entradas gaussianas complejas estándar iid .

Ahora, sea una muestra del conjunto real o complejo, y sea el valor absoluto de su valor propio máximo: Tenemos el siguiente teorema para las estadísticas de borde: [51]

Estadísticas de aristas del conjunto de Ginibre  —  Para y como arriba, con probabilidad uno,

Además, si y entonces converge en distribución a la ley de Gumbel , es decir, la medida de probabilidad en con función de distribución acumulativa .

Este teorema perfecciona la ley circular del conjunto de Ginibre . En otras palabras, la ley circular dice que el espectro de casi seguramente cae de manera uniforme sobre el disco unitario. y el teorema de estadística de aristas establece que el radio del disco casi unitario es de aproximadamente , y fluctúa en una escala de , según la ley de Gumbel.

Funciones de correlación

La densidad de probabilidad conjunta de los valores propios de matrices hermíticas aleatorias , con funciones de partición de la forma donde y es la medida de Lebesgue estándar en el espacio de matrices hermíticas, está dada por Las funciones de correlación de un punto (o distribuciones marginales ) se definen como que son funciones antisimétricas de sus variables. En particular, la función de correlación de un punto, o densidad de estados , es Su integral sobre un conjunto de Borel da el número esperado de valores propios contenidos en :

El siguiente resultado expresa estas funciones de correlación como determinantes de las matrices formadas a partir de la evaluación del núcleo integral apropiado en los pares de puntos que aparecen dentro del correlador.

Teorema [Dyson-Mehta] Para cualquier , la función de correlación de punto se puede escribir como determinante donde es el núcleo de Christoffel-Darboux asociado a , escrito en términos de los cuasipolinomios donde es una secuencia completa de polinomios mónicos, de los grados indicados, que satisfacen las condiciones de ortogonilidad.

Otras clases de matrices aleatorias

Matrices de Wishart

Las matrices de Wishart son matrices aleatorias n  ×  n de la forma H = X X * , donde X es una matriz aleatoria n  ×  m ( m  ≥  n ) con entradas independientes, y X * es su transpuesta conjugada . En el importante caso especial considerado por Wishart, las entradas de X son variables aleatorias gaussianas idénticamente distribuidas (ya sean reales o complejas).

El límite de la medida espectral empírica de las matrices de Wishart fue encontrado [39] por Vladimir Marchenko y Leonid Pastur .

Matrices unitarias aleatorias

Non-Hermitian random matrices

Selected bibliography

Books

Survey articles

Historic works

References

  1. ^ a b Wigner, Eugene P. (1955). "Characteristic Vectors of Bordered Matrices With Infinite Dimensions". Annals of Mathematics. 62 (3): 548–564. doi:10.2307/1970079. ISSN 0003-486X. JSTOR 1970079.
  2. ^ a b Block, R. C.; Good, W. M.; Harvey, J. A.; Schmitt, H. W.; Trammell, G. T., eds. (1957-07-01). Conference on Neutron Physics by Time-Of-Flight Held at Gatlinburg, Tennessee, November 1 and 2, 1956 (Report ORNL-2309). Oak Ridge, Tennessee: Oak Ridge National Lab. doi:10.2172/4319287. OSTI 4319287.
  3. ^ a b Bohigas, O.; Giannoni, M.J.; Schmit, Schmit (1984). "Characterization of Chaotic Quantum Spectra and Universality of Level Fluctuation Laws". Phys. Rev. Lett. 52 (1): 1–4. Bibcode:1984PhRvL..52....1B. doi:10.1103/PhysRevLett.52.1.
  4. ^ a b Mehta 2004
  5. ^ Aaronson, Scott; Arkhipov, Alex (2013). "The computational complexity of linear optics". Theory of Computing. 9: 143–252. doi:10.4086/toc.2013.v009a004.
  6. ^ Russell, Nicholas; Chakhmakhchyan, Levon; O'Brien, Jeremy; Laing, Anthony (2017). "Direct dialling of Haar random unitary matrices". New J. Phys. 19 (3): 033007. arXiv:1506.06220. Bibcode:2017NJPh...19c3007R. doi:10.1088/1367-2630/aa60ed. S2CID 46915633.
  7. ^ Verbaarschot JJ, Wettig T (2000). "Random Matrix Theory and Chiral Symmetry in QCD". Annu. Rev. Nucl. Part. Sci. 50: 343–410. arXiv:hep-ph/0003017. Bibcode:2000ARNPS..50..343V. doi:10.1146/annurev.nucl.50.1.343. S2CID 119470008.
  8. ^ Franchini F, Kravtsov VE (October 2009). "Horizon in random matrix theory, the Hawking radiation, and flow of cold atoms". Phys. Rev. Lett. 103 (16): 166401. arXiv:0905.3533. Bibcode:2009PhRvL.103p6401F. doi:10.1103/PhysRevLett.103.166401. PMID 19905710. S2CID 11122957.
  9. ^ Sánchez D, Büttiker M (September 2004). "Magnetic-field asymmetry of nonlinear mesoscopic transport". Phys. Rev. Lett. 93 (10): 106802. arXiv:cond-mat/0404387. Bibcode:2004PhRvL..93j6802S. doi:10.1103/PhysRevLett.93.106802. PMID 15447435. S2CID 11686506.
  10. ^ Rychkov VS, Borlenghi S, Jaffres H, Fert A, Waintal X (August 2009). "Spin torque and waviness in magnetic multilayers: a bridge between Valet-Fert theory and quantum approaches". Phys. Rev. Lett. 103 (6): 066602. arXiv:0902.4360. Bibcode:2009PhRvL.103f6602R. doi:10.1103/PhysRevLett.103.066602. PMID 19792592. S2CID 209013.
  11. ^ Callaway DJE (April 1991). "Random matrices, fractional statistics, and the quantum Hall effect". Phys. Rev. B. 43 (10): 8641–8643. Bibcode:1991PhRvB..43.8641C. doi:10.1103/PhysRevB.43.8641. PMID 9996505.
  12. ^ Janssen M, Pracz K (June 2000). "Correlated random band matrices: localization-delocalization transitions". Phys. Rev. E. 61 (6 Pt A): 6278–86. arXiv:cond-mat/9911467. Bibcode:2000PhRvE..61.6278J. doi:10.1103/PhysRevE.61.6278. PMID 11088301. S2CID 34140447.
  13. ^ Zumbühl DM, Miller JB, Marcus CM, Campman K, Gossard AC (December 2002). "Spin-orbit coupling, antilocalization, and parallel magnetic fields in quantum dots". Phys. Rev. Lett. 89 (27): 276803. arXiv:cond-mat/0208436. Bibcode:2002PhRvL..89A6803Z. doi:10.1103/PhysRevLett.89.276803. PMID 12513231. S2CID 9344722.
  14. ^ Bahcall SR (December 1996). "Random Matrix Model for Superconductors in a Magnetic Field". Phys. Rev. Lett. 77 (26): 5276–5279. arXiv:cond-mat/9611136. Bibcode:1996PhRvL..77.5276B. doi:10.1103/PhysRevLett.77.5276. PMID 10062760. S2CID 206326136.
  15. ^ Wishart 1928
  16. ^ Tropp, J. (2011). "User-Friendly Tail Bounds for Sums of Random Matrices". Foundations of Computational Mathematics. 12 (4): 389–434. arXiv:1004.4389. doi:10.1007/s10208-011-9099-z. S2CID 17735965.
  17. ^ Pennington, Jeffrey; Bahri, Yasaman (2017). "Geometry of Neural Network Loss Surfaces via Random Matrix Theory". ICML'17: Proceedings of the 34th International Conference on Machine Learning. 70. S2CID 39515197.
  18. ^ Yang, Greg (2022). "Tensor Programs V: Tuning Large Neural Networks via Zero-Shot Hyperparameter Transfer". arXiv:2203.03466v2 [cs.LG].
  19. ^ von Neumann & Goldstine 1947
  20. ^ Edelman & Rao 2005
  21. ^ Keating, Jon (1993). "The Riemann zeta-function and quantum chaology". Proc. Internat. School of Phys. Enrico Fermi. CXIX: 145–185. doi:10.1016/b978-0-444-81588-0.50008-0. ISBN 9780444815880.
  22. ^ Mingo, James A.; Speicher, Roland (2017): Free Probability and Random Matrices. Fields Institute Monographs, Vol. 35, Springer, New York
  23. ^ Voiculescu, Dan (1991): "Limit laws for random matrices and free products". Inventiones mathematicae 104.1: 201-220
  24. ^ Sompolinsky, H.; Crisanti, A.; Sommers, H. (July 1988). "Chaos in Random Neural Networks". Physical Review Letters. 61 (3): 259–262. Bibcode:1988PhRvL..61..259S. doi:10.1103/PhysRevLett.61.259. PMID 10039285. S2CID 16967637.
  25. ^ Rajan, Kanaka; Abbott, L. (November 2006). "Eigenvalue Spectra of Random Matrices for Neural Networks". Physical Review Letters. 97 (18): 188104. Bibcode:2006PhRvL..97r8104R. doi:10.1103/PhysRevLett.97.188104. PMID 17155583.
  26. ^ Wainrib, Gilles; Touboul, Jonathan (March 2013). "Topological and Dynamical Complexity of Random Neural Networks". Physical Review Letters. 110 (11): 118101. arXiv:1210.5082. Bibcode:2013PhRvL.110k8101W. doi:10.1103/PhysRevLett.110.118101. PMID 25166580. S2CID 1188555.
  27. ^ Timme, Marc; Wolf, Fred; Geisel, Theo (February 2004). "Topological Speed Limits to Network Synchronization". Physical Review Letters. 92 (7): 074101. arXiv:cond-mat/0306512. Bibcode:2004PhRvL..92g4101T. doi:10.1103/PhysRevLett.92.074101. PMID 14995853. S2CID 5765956.
  28. ^ Muir, Dylan; Mrsic-Flogel, Thomas (2015). "Eigenspectrum bounds for semirandom matrices with modular and spatial structure for neural networks" (PDF). Phys. Rev. E. 91 (4): 042808. Bibcode:2015PhRvE..91d2808M. doi:10.1103/PhysRevE.91.042808. PMID 25974548.
  29. ^ Vergani, Alberto A.; Martinelli, Samuele; Binaghi, Elisabetta (July 2019). "Resting state fMRI analysis using unsupervised learning algorithms". Computer Methods in Biomechanics and Biomedical Engineering: Imaging & Visualization. 8 (3). Taylor&Francis: 2168–1171. doi:10.1080/21681163.2019.1636413.
  30. ^ Burda, Z; Kornelsen, J; Nowak, MA; Porebski, B; Sboto-Frankenstein, U; Tomanek, B; Tyburczyk, J (2013). "Collective Correlations of Brodmann Areas fMRI Study with RMT-Denoising". Acta Physica Polonica B. 44 (6): 1243. arXiv:1306.3825. Bibcode:2013AcPPB..44.1243B. doi:10.5506/APhysPolB.44.1243.
  31. ^ Chow, Gregory P. (1976). Analysis and Control of Dynamic Economic Systems. New York: Wiley. ISBN 0-471-15616-7.
  32. ^ Turnovsky, Stephen (1974). "The stability properties of optimal economic policies". American Economic Review. 64 (1): 136–148. JSTOR 1814888.
  33. ^ Soize, C. (2005-04-08). "Random matrix theory for modeling uncertainties in computational mechanics" (PDF). Computer Methods in Applied Mechanics and Engineering. 194 (12–16): 1333–1366. Bibcode:2005CMAME.194.1333S. doi:10.1016/j.cma.2004.06.038. ISSN 1879-2138. S2CID 58929758.
  34. ^ Bohigas, Oriol; Weidenmuller, Hans (2015). Akemann, Gernot; Baik, Jinho; Di Francesco, Philippe (eds.). "History – an overview". academic.oup.com. pp. 15–40. doi:10.1093/oxfordhb/9780198744191.013.2. ISBN 978-0-19-874419-1. Retrieved 2024-04-22.
  35. ^ Chiani M (2014). "Distribution of the largest eigenvalue for real Wishart and Gaussian random matrices and a simple approximation for the Tracy-Widom distribution". Journal of Multivariate Analysis. 129: 69–81. arXiv:1209.3394. doi:10.1016/j.jmva.2014.04.002. S2CID 15889291.
  36. ^ Porter, C. E.; Rosenzweig, N. (1960-01-01). "STATISTICAL PROPERTIES OF ATOMIC AND NUCLEAR SPECTRA". Ann. Acad. Sci. Fennicae. Ser. A VI. 44. OSTI 4147616.
  37. ^ Livan, Giacomo; Novaes, Marcel; Vivo, Pierpaolo (2018), Livan, Giacomo; Novaes, Marcel; Vivo, Pierpaolo (eds.), "Classified Material", Introduction to Random Matrices: Theory and Practice, SpringerBriefs in Mathematical Physics, vol. 26, Cham: Springer International Publishing, pp. 15–21, doi:10.1007/978-3-319-70885-0_3, ISBN 978-3-319-70885-0, retrieved 2023-05-17
  38. ^ Meckes, Elizabeth (2021-01-08). "The Eigenvalues of Random Matrices". arXiv:2101.02928 [math.PR].
  39. ^ a b .Marčenko, V A; Pastur, L A (1967). "Distribution of eigenvalues for some sets of random matrices". Mathematics of the USSR-Sbornik. 1 (4): 457–483. Bibcode:1967SbMat...1..457M. doi:10.1070/SM1967v001n04ABEH001994.
  40. ^ Pastur 1973
  41. ^ Pastur, L.; Shcherbina, M. (1995). "On the Statistical Mechanics Approach in the Random Matrix Theory: Integrated Density of States". J. Stat. Phys. 79 (3–4): 585–611. Bibcode:1995JSP....79..585D. doi:10.1007/BF02184872. S2CID 120731790.
  42. ^ Johansson, K. (1998). "On fluctuations of eigenvalues of random Hermitian matrices". Duke Math. J. 91 (1): 151–204. doi:10.1215/S0012-7094-98-09108-6.
  43. ^ Pastur, L.A. (2005). "A simple approach to the global regime of Gaussian ensembles of random matrices". Ukrainian Math. J. 57 (6): 936–966. doi:10.1007/s11253-005-0241-4. S2CID 121531907.
  44. ^ Harnad, John (15 July 2013). Random Matrices, Random Processes and Integrable Systems. Springer. pp. 263–266. ISBN 978-1461428770.
  45. ^ Erdős, László; Schlein, Benjamin; Yau, Horng-Tzer (April 2009). "Local Semicircle Law and Complete Delocalization for Wigner Random Matrices". Communications in Mathematical Physics. 287 (2): 641–655. arXiv:0803.0542. Bibcode:2009CMaPh.287..641E. doi:10.1007/s00220-008-0636-9. ISSN 0010-3616.
  46. ^ a b Bourgade, Paul; Yau, Horng-Tzer; Yin, Jun (2014-08-01). "Local circular law for random matrices". Probability Theory and Related Fields. 159 (3): 545–595. arXiv:1206.1449. doi:10.1007/s00440-013-0514-z. ISSN 1432-2064.
  47. ^ Pastur, L.; Shcherbina, M. (1997). "Universality of the local eigenvalue statistics for a class of unitary invariant random matrix ensembles". Journal of Statistical Physics. 86 (1–2): 109–147. Bibcode:1997JSP....86..109P. doi:10.1007/BF02180200. S2CID 15117770.
  48. ^ Deift, P.; Kriecherbauer, T.; McLaughlin, K.T.-R.; Venakides, S.; Zhou, X. (1997). "Asymptotics for polynomials orthogonal with respect to varying exponential weights". International Mathematics Research Notices. 1997 (16): 759–782. doi:10.1155/S1073792897000500.
  49. ^ Erdős, L.; Péché, S.; Ramírez, J.A.; Schlein, B.; Yau, H.T. (2010). "Bulk universality for Wigner matrices". Communications on Pure and Applied Mathematics. 63 (7): 895–925. arXiv:0905.4176. doi:10.1002/cpa.20317.
  50. ^ Tao, Terence; Vu, Van H. (2010). "Random matrices: universality of local eigenvalue statistics up to the edge". Communications in Mathematical Physics. 298 (2): 549–572. arXiv:0908.1982. Bibcode:2010CMaPh.298..549T. doi:10.1007/s00220-010-1044-5. S2CID 16594369.
  51. ^ Rider, B (2003-03-28). "A limit theorem at the edge of a non-Hermitian random matrix ensemble". Journal of Physics A: Mathematical and General. 36 (12): 3401–3409. Bibcode:2003JPhA...36.3401R. doi:10.1088/0305-4470/36/12/331. ISSN 0305-4470.

External links