stringtranslate.com

Matriz aleatoria

En teoría de la probabilidad y física matemática , una matriz aleatoria es una variable aleatoria con valor matricial , es decir, una matriz en la que algunos o todos los elementos son variables aleatorias. Muchas propiedades importantes de los sistemas físicos se pueden representar matemáticamente como problemas matriciales. Por ejemplo, la conductividad térmica de una red se puede calcular a partir de la matriz dinámica de las interacciones partícula-partícula dentro de la red.

Aplicaciones

Ingeniería

La teoría de matrices aleatorias se puede aplicar a los esfuerzos de investigación en ingeniería eléctrica y de comunicaciones para estudiar, modelar y desarrollar sistemas de radio masivos de múltiples entradas y múltiples salidas ( MIMO ).

Física

En física nuclear , Eugene Wigner introdujo las matrices aleatorias para modelar los núcleos de átomos pesados. [1] Wigner postuló que los espacios entre las líneas en el espectro de un núcleo de átomo pesado deberían parecerse a los espacios entre los valores propios de una matriz aleatoria, y deberían depender sólo de la clase de simetría de la evolución subyacente. [2] En física del estado sólido , las matrices aleatorias modelan el comportamiento de grandes hamiltonianos desordenados en la aproximación del campo medio .

En el caos cuántico , la conjetura de Bohigas-Giannoni-Schmit (BGS) afirma que las estadísticas espectrales de los sistemas cuánticos cuyas contrapartes clásicas exhiben un comportamiento caótico se describen mediante la teoría de matrices aleatorias. [3]

En óptica cuántica , las transformaciones descritas por matrices unitarias aleatorias son cruciales para demostrar la ventaja de la computación cuántica sobre la clásica (ver, por ejemplo, el modelo de muestreo de bosones ). [4] Además, tales transformaciones unitarias aleatorias se pueden implementar directamente en un circuito óptico, asignando sus parámetros a los componentes del circuito óptico (es decir, divisores de haz y desfasadores). [5]

La teoría de matrices aleatorias también ha encontrado aplicaciones para el operador quiral de Dirac en cromodinámica cuántica , [6] gravedad cuántica en dos dimensiones, [7] física mesoscópica , [8] par de transferencia de espín , [9] el efecto Hall cuántico fraccionario , [10 ] Localización de Anderson , [11] puntos cuánticos , [12] y superconductores [13]

Estadística matemática y análisis numérico.

En estadística multivariada , las matrices aleatorias fueron introducidas por John Wishart , quien buscaba estimar matrices de covarianza de muestras grandes. [14] Las desigualdades de tipo Chernoff , Bernstein y Hoeffding normalmente pueden reforzarse cuando se aplican al valor propio máximo (es decir, el valor propio de mayor magnitud) de una suma finita de matrices hermitianas aleatorias . [15] La teoría de matrices aleatorias se utiliza para estudiar las propiedades espectrales de matrices aleatorias, como las matrices de covarianza de muestra, lo cual es de particular interés en estadísticas de alta dimensión . La teoría de matrices aleatorias también tuvo aplicaciones en redes neuronales [16] y aprendizaje profundo , y trabajos recientes utilizan matrices aleatorias para demostrar que los ajustes de hiperparámetros se pueden transferir de forma económica entre grandes redes neuronales sin necesidad de volver a entrenar. [17]

En el análisis numérico , las matrices aleatorias se han utilizado desde el trabajo de John von Neumann y Herman Goldstine [18] para describir errores de cálculo en operaciones como la multiplicación de matrices . Aunque las entradas aleatorias son entradas "genéricas" tradicionales para un algoritmo, la concentración de medidas asociadas con las distribuciones de matrices aleatorias implica que las matrices aleatorias no probarán grandes porciones del espacio de entrada de un algoritmo. [19]

Teoría de los números

En teoría de números , la distribución de ceros de la función zeta de Riemann (y otras funciones L ) se modela mediante la distribución de valores propios de ciertas matrices aleatorias. [20] La conexión fue descubierta por primera vez por Hugh Montgomery y Freeman Dyson . Está relacionado con la conjetura de Hilbert-Pólya .

probabilidad libre

La relación de la probabilidad libre con matrices aleatorias [21] es una razón clave para el amplio uso de la probabilidad libre en otros temas. Voiculescu introdujo el concepto de libertad alrededor de 1983 en un contexto algebraico de operadores; Al principio no había ninguna relación con las matrices aleatorias. Esta conexión sólo fue revelada más tarde en 1991 por Voiculescu; [22] estaba motivado por el hecho de que la distribución límite que encontró en su teorema del límite central libre había aparecido antes en la ley del semicírculo de Wigner en el contexto de una matriz aleatoria.

Neurociencia Computacional

En el campo de la neurociencia computacional, las matrices aleatorias se utilizan cada vez más para modelar la red de conexiones sinápticas entre neuronas del cerebro. Se demostró que los modelos dinámicos de redes neuronales con matriz de conectividad aleatoria exhiben una transición de fase al caos [23] cuando la varianza de los pesos sinápticos cruza un valor crítico, en el límite del tamaño infinito del sistema. Los resultados sobre matrices aleatorias también han demostrado que la dinámica de los modelos de matrices aleatorias es insensible a la fuerza de conexión media. En cambio, la estabilidad de las fluctuaciones depende de la variación de la intensidad de la conexión [24] [25] y el tiempo de sincronía depende de la topología de la red. [26] [27]

En el análisis de datos masivos como la resonancia magnética funcional , se ha aplicado la teoría de matrices aleatorias para realizar la reducción de dimensiones. Al aplicar un algoritmo como PCA , es importante poder seleccionar el número de componentes significativos. Los criterios para seleccionar componentes pueden ser múltiples (basados ​​en la varianza explicada, el método de Kaiser, el valor propio, etc.). La teoría de matrices aleatorias en este contenido tiene su representante la distribución de Marchenko-Pastur , la cual garantiza los límites teóricos alto y bajo de los valores propios asociados a una matriz de covarianza de variable aleatoria. Esta matriz calculada de esta manera se convierte en la hipótesis nula que permite encontrar los valores propios (y sus vectores propios) que se desvían del rango aleatorio teórico. Los componentes así excluidos se convierten en el espacio dimensional reducido (ver ejemplos en fMRI [28] [29] ).

Control óptimo

En la teoría del control óptimo , la evolución de n variables de estado a lo largo del tiempo depende en cualquier momento de sus propios valores y de los valores de k variables de control. Con la evolución lineal, las matrices de coeficientes aparecen en la ecuación de estado (ecuación de evolución). En algunos problemas los valores de los parámetros en estas matrices no se conocen con certeza, en cuyo caso hay matrices aleatorias en la ecuación de estado y el problema se conoce como de control estocástico . [30] : cap. 13  [31] [32] Un resultado clave en el caso del control lineal-cuadrático con matrices estocásticas es que el principio de equivalencia de certeza no se aplica: mientras que en ausencia de incertidumbre multiplicadora (es decir, con solo incertidumbre aditiva) la política óptima con una función de pérdida cuadrática coincide con lo que se decidiría si se ignorara la incertidumbre, la política óptima puede diferir si la ecuación de estado contiene coeficientes aleatorios.

Mecánica computacional

En mecánica computacional , las incertidumbres epistémicas subyacentes a la falta de conocimiento sobre la física del sistema modelado dan lugar a operadores matemáticos asociados al modelo computacional, que son deficientes en cierto sentido. Estos operadores carecen de ciertas propiedades vinculadas a la física no modelada. Cuando dichos operadores se discretizan para realizar simulaciones computacionales, su precisión está limitada por la física faltante. Para compensar esta deficiencia del operador matemático, no basta con hacer que los parámetros del modelo sean aleatorios, es necesario considerar un operador matemático que sea aleatorio y pueda así generar familias de modelos computacionales con la esperanza de que uno de ellos capture los datos faltantes. física. En este sentido se han utilizado matrices aleatorias, [33] [34] con aplicaciones en vibroacústica, propagación de ondas, ciencia de materiales, mecánica de fluidos, transferencia de calor, etc.

conjuntos gaussianos

Las distribuciones matriciales aleatorias más comúnmente estudiadas son los conjuntos gaussianos: GOE, GUE y GSE. A menudo se denotan por su índice de Dyson , β  = 1 para GOE, β  = 2 para GUE y β  = 4 para GSE. Este índice cuenta el número de componentes reales por elemento de la matriz.

Definiciones

El conjunto unitario gaussiano se describe mediante la medida gaussiana con densidad

matrices hermitianas
unitariolos hamiltonianos

El conjunto ortogonal gaussiano se describe mediante la medida gaussiana con densidad

nnHH ijnorte
yo , j = 1

El conjunto simpléctico gaussiano se describe mediante la medida gaussiana con densidad

nn matrices cuaterniónicascuaternionesH = ( H ij )norte
yo , j = 1
grupo simpléctico

Funciones de correlación de puntos

Los conjuntos definidos aquí tienen elementos matriciales distribuidos gaussianos con media ⟨ H ij ⟩ = 0 y correlaciones de dos puntos dadas por

teorema de Isserlis

Funciones generadoras de momentos

La función generadora de momento para el GOE es

norma de Frobenius

Densidad espectral

Densidad espectral de GOE/GUE/GSE, como . Están normalizados para que las distribuciones converjan a la distribución de semicírculo . El número de "jorobas" es igual a N.

La densidad de probabilidad conjunta para los valores propios λ 1 , λ 2 , ..., λ n de GUE/GOE/GSE viene dada por

donde Z β , n es una constante de normalización que se puede calcular explícitamente, ver Integral de Selberg . En el caso de GUE ( β  = 2), la fórmula (1) describe un proceso puntual determinante . Los valores propios se repelen ya que la densidad de probabilidad conjunta tiene un cero (de orden ésimo) para los valores propios coincidentes .

La distribución del valor propio más grande para GOE y GUE se puede resolver explícitamente. [35] Convergen a la distribución de Tracy-Widom después de cambiar y escalar adecuadamente.

Convergencia a la distribución semicircular de Wigner

El espectro, dividido por , converge en distribución a la distribución semicircular en el intervalo : . Aquí está la variación de las entradas fuera de la diagonal.

Distribución de espacios entre niveles.

A partir de la secuencia ordenada de valores propios , se definen los espaciados normalizados , donde es el espaciado medio. La distribución de probabilidad de los espaciamientos está dada aproximadamente por,

Las constantes numéricas son tales que están normalizadas:

Generalizaciones

Las matrices de Wigner son matrices hermitianas aleatorias tales que las entradas

Los conjuntos de matrices invariantes son matrices hermitianas aleatorias con densidad en el espacio de matrices hermitianas simétricas/hermitianas/cuaterniónicas reales, que tienen la forma en que la función V se llama potencial.

Los conjuntos gaussianos son los únicos casos especiales comunes de estas dos clases de matrices aleatorias. Ésta es una consecuencia de un teorema de Porter y Rosenzweig. [36] [37]

Teoría espectral de matrices aleatorias.

La teoría espectral de matrices aleatorias estudia la distribución de los valores propios cuando el tamaño de la matriz llega al infinito.

Régimen global

En el régimen global , uno está interesado en la distribución de estadísticas lineales de la forma .

Medida espectral empírica

La medida espectral empírica μ H de H está definida por

Generalmente, el límite de es una medida determinista; Este es un caso particular de autopromediado . La función de distribución acumulativa de la medida límite se llama densidad integrada de estados y se denota N ( λ ). Si la densidad integrada de estados es diferenciable, su derivada se llama densidad de estados y se denota  ρ ( λ ).

El límite de la medida espectral empírica para matrices de Wigner fue descrito por Eugene Wigner ; ver Distribución del semicírculo de Wigner y Conjetura de Wigner . En lo que respecta a las matrices de covarianza muestrales, Marčenko y Pastur desarrollaron una teoría . [38] [39]

El límite de la medida espectral empírica de conjuntos de matrices invariantes se describe mediante una determinada ecuación integral que surge de la teoría del potencial . [40]

Fluctuaciones

Para las estadísticas lineales N f , H = n −1 Σ f ( λ j ) , también estamos interesados ​​en las fluctuaciones alrededor de ∫  f ( λdN ( λ ). Para muchas clases de matrices aleatorias, un teorema del límite central de la forma

[41] [42]

El problema variacional de los conjuntos unitarios.

Considere la medida

donde es el potencial del conjunto y sea la medida espectral empírica.

Podemos reescribir con como

la medida de probabilidad ahora tiene la forma

¿Dónde está lo anterior funcional dentro de los corchetes?

deja ahora

Sea el espacio de medidas de probabilidad unidimensionales y considere el minimizador.

Porque existe una medida de equilibrio única a través de las condiciones variacionales de Euler-Lagrange para alguna constante real

¿Dónde está el soporte de la medida y

.

La medida de equilibrio tiene la siguiente densidad de radón-Nikodym

[43]

Régimen local

En el régimen local , uno está interesado en los espaciamientos entre valores propios y, más generalmente, en la distribución conjunta de valores propios en un intervalo de longitud de orden 1/ n . Se distingue entre estadísticas masivas , pertenecientes a intervalos dentro del soporte de la medida espectral limitante, y estadísticas de borde , pertenecientes a intervalos cerca del límite del soporte.

Estadísticas masivas

Formalmente, fijar en el interior del soporte de . Luego considere el proceso de puntos.

El proceso de puntos captura las propiedades estadísticas de los valores propios en las proximidades de . Para los conjuntos gaussianos, se conoce el límite de; [2] por lo tanto, para GUE es un proceso puntual determinante con el núcleo

núcleo sinusoidal

El principio de universalidad postula que el límite de as debería depender únicamente de la clase de simetría de la matriz aleatoria (y ni del modelo específico de matrices aleatorias ni de ). Se conocen pruebas rigurosas de universalidad para conjuntos de matrices invariantes [44] [45] y matrices de Wigner. [46] [47]

Estadísticas de borde

Leyes locales

[48] ​​El enunciado típico de la ley semicircular de Wigner es equivalente al siguiente enunciado: Para cada intervalo fijo centrado en un punto , a medida que aumenta el número de dimensiones del conjunto gaussiano, la proporción de los valores propios que caen dentro del intervalo converge a , donde es la densidad de la distribución semicircular.

Si se puede permitir que disminuya a medida que aumenta, entonces obtenemos teoremas estrictamente más fuertes, denominados "leyes locales".

Funciones de correlación

La densidad de probabilidad conjunta de los valores propios de matrices hermitianas aleatorias , con funciones de partición de la forma

distribuciones marginales
densidad de estados

El siguiente resultado expresa estas funciones de correlación como determinantes de las matrices formadas al evaluar el núcleo integral apropiado en los pares de puntos que aparecen dentro del correlacionador.

Teorema [Dyson-Mehta] Para cualquier , la función de correlación de puntos se puede escribir como un determinante

Otras clases de matrices aleatorias

Matrices Wishart

Las matrices Wishart son matrices aleatorias de n  ×  n de la forma H = X X * , donde X es una matriz aleatoria de n  ×  m ( m  ≥  n ) con entradas independientes, y X * es su transpuesta conjugada . En el importante caso especial considerado por Wishart, las entradas de X son variables aleatorias gaussianas distribuidas idénticamente (ya sean reales o complejas).

Vladimir Marchenko y Leonid Pastur encontraron el límite de la medida espectral empírica de las matrices Wishart [38] .

Matrices unitarias aleatorias

Matrices aleatorias no hermitianas

Bibliografía seleccionada

Libros

Artículos de encuesta

Obras históricas

Referencias

  1. ^ Wigner 1955
  2. ^ ab Mehta 2004
  3. ^ Bohigas, O.; Giannoni, MJ; Schmit, Schmit (1984). "Caracterización de espectros cuánticos caóticos y universalidad de las leyes de fluctuación de niveles". Física. Rev. Lett . 52 (1): 1–4. Código bibliográfico : 1984PhRvL..52....1B. doi :10.1103/PhysRevLett.52.1.
  4. ^ Aaronson, Scott; Arkhipov, Alex (2013). "La complejidad computacional de la óptica lineal". Teoría de la Computación . 9 : 143–252. doi : 10.4086/toc.2013.v009a004 .
  5. ^ Russell, Nicolás; Chakhmakhchyan, Levon; O'Brien, Jeremy; Laing, Antonio (2017). "Marcación directa de matrices unitarias aleatorias de Haar". Nuevo J. Phys . 19 (3): 033007. arXiv : 1506.06220 . Código Bib : 2017NJPh...19c3007R. doi :10.1088/1367-2630/aa60ed. S2CID  46915633.
  6. ^ Verbaarschot JJ, Wettig T (2000). "Teoría de matrices aleatorias y simetría quiral en QCD". Año. Rev. Nucl. Parte. Ciencia . 50 : 343–410. arXiv : hep-ph/0003017 . Código Bib : 2000ARNPS..50..343V. doi :10.1146/annurev.nucl.50.1.343. S2CID  119470008.
  7. ^ Franchini F, Kravtsov VE (octubre de 2009). "Horizonte en la teoría de matrices aleatorias, la radiación de Hawking y el flujo de átomos fríos". Física. Rev. Lett . 103 (16): 166401. arXiv : 0905.3533 . Código bibliográfico : 2009PhRvL.103p6401F. doi :10.1103/PhysRevLett.103.166401. PMID  19905710. S2CID  11122957.
  8. ^ Sánchez D, Büttiker M (septiembre de 2004). "Asimetría del campo magnético del transporte mesoscópico no lineal". Física. Rev. Lett . 93 (10): 106802. arXiv : cond-mat/0404387 . Código bibliográfico : 2004PhRvL..93j6802S. doi : 10.1103/PhysRevLett.93.106802. PMID  15447435. S2CID  11686506.
  9. ^ Rychkov VS, Borlenghi S, Jaffres H, Fert A, Waintal X (agosto de 2009). "Par de giro y ondulación en multicapas magnéticas: un puente entre la teoría de Valet-Fert y los enfoques cuánticos". Física. Rev. Lett . 103 (6): 066602. arXiv : 0902.4360 . Código bibliográfico : 2009PhRvL.103f6602R. doi : 10.1103/PhysRevLett.103.066602. PMID  19792592. S2CID  209013.
  10. ^ Callaway DJE (abril de 1991). "Matrices aleatorias, estadística fraccionaria y efecto Hall cuántico". Física. Rev. B. 43 (10): 8641–8643. Código bibliográfico : 1991PhRvB..43.8641C. doi : 10.1103/PhysRevB.43.8641. PMID  9996505.
  11. ^ Janssen M, Pracz K (junio de 2000). "Matrices de bandas aleatorias correlacionadas: transiciones de localización-deslocalización". Física. Rev. E. 61 (6 partes A): 6278–86. arXiv : cond-mat/9911467 . Código bibliográfico : 2000PhRvE..61.6278J. doi : 10.1103/PhysRevE.61.6278. PMID  11088301. S2CID  34140447.
  12. ^ Zumbühl DM, Miller JB, Marcus CM, Campman K, Gossard AC (diciembre de 2002). "Acoplamiento de órbita de giro, antilocalización y campos magnéticos paralelos en puntos cuánticos". Física. Rev. Lett . 89 (27): 276803. arXiv : cond-mat/0208436 . Código Bib : 2002PhRvL..89A6803Z. doi : 10.1103/PhysRevLett.89.276803. PMID  12513231. S2CID  9344722.
  13. ^ Bahcall SR (diciembre de 1996). "Modelo de matriz aleatoria para superconductores en un campo magnético". Física. Rev. Lett . 77 (26): 5276–5279. arXiv : cond-mat/9611136 . Código bibliográfico : 1996PhRvL..77.5276B. doi : 10.1103/PhysRevLett.77.5276. PMID  10062760. S2CID  206326136.
  14. ^ Deseo 1928
  15. ^ Tropp, J. (2011). "Límites de cola fáciles de usar para sumas de matrices aleatorias". Fundamentos de la Matemática Computacional . 12 (4): 389–434. arXiv : 1004.4389 . doi :10.1007/s10208-011-9099-z. S2CID  17735965.
  16. ^ Pennington, Jeffrey; Bahri, Yasaman (2017). "Geometría de superficies de pérdida de redes neuronales mediante la teoría de matrices aleatorias". ICML'17: Actas de la 34ª Conferencia Internacional sobre Aprendizaje Automático . 70 . S2CID  39515197.
  17. ^ Yang, Greg (2022). "Programas tensoriales V: ajuste de grandes redes neuronales mediante transferencia de hiperparámetros Zero-Shot". arXiv : 2203.03466v2 [cs.LG].
  18. ^ von Neumann y Goldstine 1947
  19. ^ Edelman y Rao 2005
  20. ^ Keating, Jon (1993). "La función zeta de Riemann y la caología cuántica". Proc. Internacional. Escuela de Física. Enrico Fermi . CXIX : 145–185. doi :10.1016/b978-0-444-81588-0.50008-0. ISBN 9780444815880.
  21. ^ Mingo, James A.; Speicher, Roland (2017): Probabilidad libre y matrices aleatorias. Monografías del Fields Institute, vol. 35, Springer, Nueva York
  22. ^ Voiculescu, Dan (1991): "Leyes límite para matrices aleatorias y productos libres". Invenciones matemáticas 104.1: 201-220
  23. ^ Sompolinsky, H.; Crisanti, A.; Sommers, H. (julio de 1988). "Caos en redes neuronales aleatorias". Cartas de revisión física . 61 (3): 259–262. Código bibliográfico : 1988PhRvL..61..259S. doi :10.1103/PhysRevLett.61.259. PMID  10039285. S2CID  16967637.
  24. ^ Rajan, canaca; Abbott, L. (noviembre de 2006). "Espectros de valores propios de matrices aleatorias para redes neuronales". Cartas de revisión física . 97 (18): 188104. Código bibliográfico : 2006PhRvL..97r8104R. doi : 10.1103/PhysRevLett.97.188104. PMID  17155583.
  25. ^ Costilla, Gilles; Touboul, Jonathan (marzo de 2013). "Complejidad topológica y dinámica de redes neuronales aleatorias". Cartas de revisión física . 110 (11): 118101. arXiv : 1210.5082 . Código Bib : 2013PhRvL.110k8101W. doi :10.1103/PhysRevLett.110.118101. PMID  25166580. S2CID  1188555.
  26. ^ Timme, Marc; Lobo, Fred; Geisel, Theo (febrero de 2004). "Límites de velocidad topológica para la sincronización de redes". Cartas de revisión física . 92 (7): 074101. arXiv : cond-mat/0306512 . Código Bib : 2004PhRvL..92g4101T. doi :10.1103/PhysRevLett.92.074101. PMID  14995853. S2CID  5765956.
  27. ^ Muir, Dylan; Mrsic-Flogel, Thomas (2015). "Límites del espectro propio para matrices semialeatorias con estructura modular y espacial para redes neuronales" (PDF) . Física. Rev. E. 91 (4): 042808. Código bibliográfico : 2015PhRvE..91d2808M. doi : 10.1103/PhysRevE.91.042808. PMID  25974548.
  28. ^ Vergani, Alberto A.; Martinelli, Samuele; Binaghi, Elisabetta (julio de 2019). "Análisis de resonancia magnética funcional en estado de reposo mediante algoritmos de aprendizaje no supervisados". Métodos informáticos en biomecánica e ingeniería biomédica: imágenes y visualización . Taylor y Francis: 2168-1171. doi :10.1080/21681163.2019.1636413.
  29. ^ Burda, Z; Kornelsen, J; Nowak, MA; Porebski, B; Sboto-Frankenstein, U; Tomanek, B; Tyburczyk, J (2013). "Correlaciones colectivas de áreas de Brodmann: un estudio de resonancia magnética funcional con eliminación de ruido RMT". arXiv : 1306.3825 .
  30. ^ Chow, Gregory P. (1976). Análisis y Control de Sistemas Económicos Dinámicos . Nueva York: Wiley. ISBN 0-471-15616-7.
  31. ^ Turnovsky, Stephen (1976). "Políticas de estabilización óptimas para sistemas lineales estocásticos: el caso de perturbaciones aditivas y multiplicativas correlacionadas". Revista de Estudios Económicos . 43 (1): 191-194. doi :10.2307/2296614. JSTOR  2296741.
  32. ^ Turnovsky, Stephen (1974). "Las propiedades de estabilidad de las políticas económicas óptimas". Revista económica estadounidense . 64 (1): 136-148. JSTOR  1814888.
  33. ^ Soize, C. (1 de julio de 2000). "Un modelo no paramétrico de incertidumbres aleatorias para modelos matriciales reducidos en dinámica estructural". Mecánica de Ingeniería Probabilística . 15 (3): 277–294. doi :10.1016/S0266-8920(99)00028-4. ISSN  0266-8920.
  34. ^ Soize, C. (8 de abril de 2005). "Teoría de matrices aleatorias para modelar incertidumbres en mecánica computacional" (PDF) . Métodos Informáticos en Mecánica e Ingeniería Aplicadas . 194 (12-16): 1333-1366. Código Bib : 2005CMAME.194.1333S. doi :10.1016/j.cma.2004.06.038. ISSN  1879-2138. S2CID  58929758.
  35. ^ Chiani M (2014). "Distribución del valor propio más grande para matrices aleatorias reales de Wishart y Gauss y una aproximación simple para la distribución de Tracy-Widom". Revista de análisis multivariado . 129 : 69–81. arXiv : 1209.3394 . doi :10.1016/j.jmva.2014.04.002. S2CID  15889291.
  36. ^ Portero, CE; Rosenzweig, N. (1 de enero de 1960). "PROPIEDADES ESTADÍSTICAS DE LOS ESPECTROS ATÓMICOS Y NUCLEARES". Ana. Acad. Ciencia. Fennicae. Ser. Un VI . 44 . OSTI  4147616.
  37. ^ Liván, Giacomo; Novaes, Marcel; Vivo, Pierpaolo (2018), Livan, Giacomo; Novaes, Marcel; Vivo, Pierpaolo (eds.), "Material clasificado", Introducción a las matrices aleatorias: teoría y práctica , SpringerBriefs in Mathematical Physics, vol. 26, Cham: Springer International Publishing, págs. 15-21, doi :10.1007/978-3-319-70885-0_3, ISBN 978-3-319-70885-0, recuperado el 17 de mayo de 2023
  38. ^ ab . Marčenko, VA; Pastur, Luisiana (1967). "Distribución de valores propios para algunos conjuntos de matrices aleatorias". Matemáticas de la URSS-Sbornik . 1 (4): 457–483. Código bibliográfico : 1967SbMat...1..457M. doi :10.1070/SM1967v001n04ABEH001994.
  39. ^ Pastur 1973
  40. ^ Pastur, L.; Shcherbina, M. (1995). "Sobre el enfoque de la mecánica estadística en la teoría de matrices aleatorias: densidad integrada de estados". J. estadística. Física . 79 (3–4): 585–611. Código Bib : 1995JSP....79..585D. doi :10.1007/BF02184872. S2CID  120731790.
  41. ^ Johansson, K. (1998). "Sobre las fluctuaciones de valores propios de matrices hermitianas aleatorias". Duque Matemáticas. J.91 (1): 151–204. doi :10.1215/S0012-7094-98-09108-6.
  42. ^ Pastur, Luisiana (2005). "Una aproximación sencilla al régimen global de conjuntos gaussianos de matrices aleatorias". Matemáticas ucranianas. J.57 (6): 936–966. doi :10.1007/s11253-005-0241-4. S2CID  121531907.
  43. ^ Harnad, John (15 de julio de 2013). Matrices aleatorias, procesos aleatorios y sistemas integrables . Saltador. págs. 263–266. ISBN 978-1461428770.
  44. ^ Pastur, L.; Shcherbina, M. (1997). "Universalidad de las estadísticas de valores propios locales para una clase de conjuntos de matrices aleatorias unitarias invariantes". Revista de Física Estadística . 86 (1–2): 109–147. Código Bib : 1997JSP....86..109P. doi :10.1007/BF02180200. S2CID  15117770.
  45. ^ Deift, P.; Kriecherbauer, T.; McLaughlin, KT-R.; Venákides, S.; Zhou, X. (1997). "Asintóticas para polinomios ortogonales con respecto a pesos exponenciales variables". Avisos internacionales de investigación en matemáticas . 1997 (16): 759–782. doi : 10.1155/S1073792897000500 .
  46. ^ Erdős, L.; Péché, S .; Ramírez, JA; Schlein, B.; Yau, HT (2010). "Universalidad masiva para matrices de Wigner". Comunicaciones sobre Matemática Pura y Aplicada . 63 (7): 895–925.
  47. ^ Tao, Terencia ; Vu, Van H. (2010). "Matrices aleatorias: universalidad de las estadísticas de valores propios locales hasta el borde". Comunicaciones en Física Matemática . 298 (2): 549–572. arXiv : 0908.1982 . Código Bib : 2010CMaPh.298..549T. doi :10.1007/s00220-010-1044-5. S2CID  16594369.
  48. ^ Erdős, László; Schlein, Benjamín; Yau, Horng-Tzer (abril de 2009). "Ley del semicírculo local y deslocalización completa de matrices aleatorias de Wigner". Comunicaciones en Física Matemática . 287 (2): 641–655. arXiv : 0803.0542 . doi :10.1007/s00220-008-0636-9. ISSN  0010-3616.

enlaces externos