stringtranslate.com

Secuencia de baja discrepancia

En matemáticas , una secuencia de baja discrepancia es una secuencia con la propiedad de que para todos los valores de N , su subsecuencia x 1 ,..., x N tiene una discrepancia baja .

En términos generales, la discrepancia de una secuencia es baja si la proporción de puntos de la secuencia que caen en un conjunto arbitrario B es casi proporcional a la medida de B , como sucedería en promedio (pero no para muestras particulares) en el caso de una secuencia equidistribuida . Las definiciones específicas de discrepancia difieren con respecto a la elección de B ( hiperesferas , hipercubos , etc.) y cómo se calcula (normalmente normalizada) y se combina (normalmente tomando el peor valor) la discrepancia para cada B.

Las secuencias de baja discrepancia también se denominan secuencias cuasi aleatorias , debido a su uso común como reemplazo de números aleatorios uniformemente distribuidos . El modificador "cuasi" se utiliza para indicar más claramente que los valores de una secuencia de baja discrepancia no son aleatorios ni pseudoaleatorios , pero dichas secuencias comparten algunas propiedades de las variables aleatorias y en ciertas aplicaciones, como el método cuasi-Monte Carlo, su menor discrepancia. es una ventaja importante.

Aplicaciones

Error en la curtosis estimada en función del número de puntos de datos. 'Cuasi aleatorio aditivo' da el error máximo cuando c  = ( 5  − 1)/2. 'Aleatorio' proporciona el error promedio de seis ejecuciones de números aleatorios, donde el promedio se toma para reducir la magnitud de las fluctuaciones salvajes.

Los números cuasi aleatorios tienen la ventaja sobre los números aleatorios puros de que cubren el dominio de interés de forma rápida y uniforme.

Dos aplicaciones útiles son encontrar la función característica de una función de densidad de probabilidad y encontrar la función derivada de una función determinista con una pequeña cantidad de ruido. Los números cuasi aleatorios permiten calcular muy rápidamente momentos de orden superior con gran precisión.

Las aplicaciones que no implican clasificación serían encontrar la media , la desviación estándar , la asimetría y la curtosis de una distribución estadística, y encontrar los máximos y mínimos integrales y globales de funciones deterministas difíciles. Los números cuasi aleatorios también se pueden utilizar para proporcionar puntos de partida para algoritmos deterministas que solo funcionan localmente, como la iteración de Newton-Raphson .

Los números cuasi aleatorios también se pueden combinar con algoritmos de búsqueda. Con un algoritmo de búsqueda, se pueden utilizar números cuasi aleatorios para encontrar la moda , la mediana , los intervalos de confianza y la distribución acumulativa de una distribución estadística, y todos los mínimos locales y todas las soluciones de funciones deterministas.

Secuencias de baja discrepancia en integración numérica.

Se pueden formular varios métodos de integración numérica para aproximar la integral de una función f en algún intervalo, por ejemplo, [0,1], como el promedio de la función evaluada en un conjunto { x 1 , ..., x N } en ese intervalo:

Si los puntos se eligen como x i = i / N , esta es la regla del rectángulo . Si los puntos se eligen para que se distribuyan aleatoriamente (o pseudoaleatoriamente ), este es el método de Monte Carlo . Si los puntos se eligen como elementos de una secuencia de baja discrepancia, este es el método cuasi-Montecarlo . Un resultado notable, la desigualdad de Koksma-Hlawka (que se indica a continuación), muestra que el error de dicho método puede estar acotado por el producto de dos términos, uno de los cuales depende sólo de f y el otro es la discrepancia del conjunto. { x 1 , ..., x norte }.

Es conveniente construir el conjunto { x 1 , ..., x N } de tal manera que si se construye un conjunto con N +1 elementos, no sea necesario volver a calcular los N elementos anteriores. La regla del rectángulo utiliza conjuntos de puntos que tienen poca discrepancia, pero en general los elementos deben recalcularse si N aumenta. No es necesario volver a calcular los elementos en el método aleatorio de Monte Carlo si se aumenta N , pero los conjuntos de puntos no tienen una discrepancia mínima. Al utilizar secuencias de baja discrepancia, nuestro objetivo es lograr una baja discrepancia y que no sea necesario volver a calcular, pero en realidad las secuencias de baja discrepancia solo pueden ser incrementalmente buenas en cuanto a discrepancia si no permitimos ningún nuevo cálculo.

Definición de discrepancia

La discrepancia de un conjunto P = { x 1 , ..., x N } se define, utilizando la notación de Niederreiter , como

donde λ s es la medida de Lebesgue s -dimensional , A ( B ; P ) es el número de puntos en P que caen en B , y J es el conjunto de intervalos o cajas s -dimensionales de la forma

dónde .

La discrepancia de estrellas D * N ( P ) se define de manera similar, excepto que el supremo se toma sobre el conjunto J * de cajas rectangulares de la forma

donde u i está en el intervalo semiabierto [0, 1).

Los dos están relacionados por

Nota: Con estas definiciones, la discrepancia representa el peor de los casos o la desviación máxima de densidad de puntos de un conjunto uniforme. Sin embargo, también son significativas otras medidas de error, lo que lleva a otras definiciones y medidas de variación. Por ejemplo, la discrepancia L2 o la discrepancia L2 centrada modificada también se utilizan intensivamente para comparar la calidad de conjuntos de puntos uniformes. Ambos son mucho más fáciles de calcular para N y s grandes.

La desigualdad Koksma-Hlawka

Sea Ī s el cubo unitario de s dimensiones, Ī s = [0, 1] × ... × [0, 1]. Sea f una variación acotada V ( f ) sobre Ī s en el sentido de Hardy y Krause. Entonces para cualquier x 1 , ..., x N en I s = [0, 1) × ... × [0, 1),

La desigualdad de Koksma - Hlawka es aguda en el siguiente sentido: para cualquier conjunto de puntos { x 1 ,..., x N } en I s y any , existe una función f con variación acotada y V ( f ) = 1 tal que

Por tanto, la calidad de una regla de integración numérica depende únicamente de la discrepancia D * N ( x 1 ,..., x N ).

La fórmula de Hlawka-Zaremba

Dejar . porque escribimos

y denota por el punto obtenido de x reemplazando las coordenadas que no están en u por . Entonces

¿Dónde está la función de discrepancia?

La versión L 2 de la desigualdad de Koksma-Hlawka

Aplicando la desigualdad de Cauchy-Schwarz para integrales y sumas a la identidad de Hlawka-Zaremba, obtenemos una versión de la desigualdad de Koksma-Hlawka:

dónde

y

La discrepancia tiene una gran importancia práctica porque son posibles cálculos explícitos rápidos para un conjunto de puntos determinado. De esta manera es fácil crear optimizadores de conjuntos de puntos utilizando la discrepancia como criterio.

La desigualdad Erdős-Turán-Koksma

Es computacionalmente difícil encontrar el valor exacto de la discrepancia de conjuntos de puntos grandes. La desigualdad ErdősTuránKoksma proporciona un límite superior.

Sean x 1 ,..., x N puntos en I s y H un entero positivo arbitrario. Entonces

dónde

Las principales conjeturas

Conjetura 1. Existe una constante c s que depende únicamente de la dimensión s , tal que

para cualquier conjunto de puntos finitos { x 1 ,..., x N }.

Conjetura 2. Existe una constante c ' s que depende sólo de s , tal que

para un número infinito de N para cualquier secuencia infinita x 1 , x 2 , x 3 ,....

Estas conjeturas son equivalentes. WM Schmidt los demostró para s ≤ 2. En dimensiones superiores, el problema correspondiente todavía está abierto. Los límites inferiores más conocidos se deben a Michael Lacey y sus colaboradores.

límites inferiores

Sea s  = 1. Entonces

para cualquier conjunto de puntos finitos { x 1 , ...,  x N }.

Sea s  = 2. WM Schmidt demostró que para cualquier conjunto de puntos finitos { x 1 , ...,  x N },

dónde

Para dimensiones arbitrarias s  > 1, KF Roth demostró que

para cualquier conjunto de puntos finitos { x 1 , ...,  x N }. Jozef Beck [1] estableció una mejora logarítmica doble de este resultado en tres dimensiones. Esto fue mejorado por D. Bilyk y MT Lacey a una potencia de un solo logaritmo. La cota más conocida para s  > 2 se debe a D. Bilyk, MT Lacey y A. Vagharshakyan. [2] Para s  > 2 existe un t  > 0 tal que

para cualquier conjunto de puntos finitos { x 1 , ...,  x N }.

Construcción de secuencias de baja discrepancia.

Debido a que cualquier distribución de números aleatorios se puede asignar a una distribución uniforme, y los números cuasialeatorios se asignan de la misma manera, este artículo solo se ocupa de la generación de números cuasialeatorios en una distribución uniforme multidimensional.

Hay construcciones de secuencias conocidas tales que

donde C es una determinada constante, dependiendo de la secuencia. Después de la Conjetura 2, se cree que estas secuencias tienen el mejor orden de convergencia posible. Los ejemplos siguientes son la secuencia de van der Corput , las secuencias de Halton y las secuencias de Sobol . Una limitación general es que los métodos de construcción normalmente sólo pueden garantizar el orden de convergencia. En la práctica, sólo se puede lograr una discrepancia baja si N es lo suficientemente grande, y para s dados grandes, este N mínimo puede ser muy grande. Esto significa que ejecutar un análisis Monte-Carlo con, por ejemplo, s=20 variables y N=1000 puntos desde un generador de secuencia de baja discrepancia puede ofrecer sólo una mejora mínima en la precisión [ cita necesaria ] .

Números al azar

Se pueden generar secuencias de números cuasi aleatorios a partir de números aleatorios imponiendo una correlación negativa a esos números aleatorios. Una forma de hacer esto es comenzar con un conjunto de números aleatorios y construir números cuasi aleatorios que sean uniformes usando :

para pares e impares .

Una segunda forma de hacerlo con los números aleatorios iniciales es construir un paseo aleatorio con un desplazamiento de 0,5 como en:

Es decir, tome el número cuasi aleatorio anterior, sume 0,5 y el número aleatorio, y tome el resultado módulo  1.

Para más de una dimensión, se pueden utilizar cuadrados latinos de la dimensión adecuada para proporcionar compensaciones y garantizar que todo el dominio quede cubierto de manera uniforme.

Cobertura del cuadrado unitario. A la izquierda para números cuasi aleatorios aditivos con c  = 0,5545497..., 0,308517... A la derecha para números aleatorios. De arriba a abajo. 10, 100, 1000, 10000 puntos.

recurrencia aditiva

Para cualquier irracional , la secuencia

tiene discrepancia que tiende a . Tenga en cuenta que la secuencia se puede definir de forma recursiva mediante

Un buen valor de da una discrepancia menor que una secuencia de números aleatorios uniformes independientes.

La discrepancia puede estar limitada por el exponente de aproximación de . Si el exponente de aproximación es , entonces para cualquiera , se cumple el siguiente límite: [3]

Según el teorema de Thue-Siegel-Roth , el exponente de aproximación de cualquier número algebraico irracional es 2, dando un límite de lo anterior.

La relación de recurrencia anterior es similar a la relación de recurrencia utilizada por un generador congruente lineal , un generador de números pseudoaleatorios de mala calidad: [4]

Para la recurrencia aditiva de baja discrepancia anterior, se elige que a y m sean 1. Sin embargo, tenga en cuenta que esto no generará números aleatorios independientes, por lo que no debe usarse para propósitos que requieran independencia.

El valor de con menor discrepancia es la parte fraccionaria de la proporción áurea : [5]

Otro valor casi tan bueno es la parte fraccionaria de la proporción de plata , que es la parte fraccionaria de la raíz cuadrada de 2:

En más de una dimensión, se necesitan números cuasi aleatorios separados para cada dimensión. Un conjunto conveniente de valores que se utilizan son las raíces cuadradas de números primos desde dos en adelante, todos tomados en módulo 1:

Sin embargo, se ha demostrado que un conjunto de valores basados ​​en la proporción áurea generalizada produce puntos distribuidos de manera más uniforme. [6]

La lista de generadores de números pseudoaleatorios enumera métodos para generar números pseudoaleatorios independientes. Nota: En algunas dimensiones, la recurrencia recursiva conduce a conjuntos uniformes de buena calidad, pero para s más grandes (como s>8) otros generadores de conjuntos de puntos pueden ofrecer discrepancias mucho menores.

secuencia de van der Corput

Dejar

sea ​​la representación b -aria del entero positivo n ≥ 1, es decir, 0 ≤ d k ( n ) < b . Colocar

Entonces existe una constante C que depende sólo de b tal que ( g b ( n )) n ≥ 1 satisface

donde D * N es la discrepancia de estrellas .

secuencia de halton

Primeros 256 puntos de la secuencia de Halton (2,3)

La secuencia de Halton es una generalización natural de la secuencia de van der Corput a dimensiones superiores. Sea s una dimensión arbitraria y b 1 , ..., b s sean enteros coprimos arbitrarios mayores que 1. Defina

Entonces hay una constante C que depende sólo de b 1 , ..., b s , tal que la secuencia { x ( n )} n ≥1 es una secuencia s -dimensional con

Conjunto Hammersley

Juego Hammersley 2D de talla 256.

Sean b 1 ,..., b s −1 enteros positivos coprimos mayores que 1. Para s y N dados , el conjunto Hammersley s -dimensional de tamaño N está definido por [7]

para norte = 1, ..., norte . Entonces

donde C es una constante que depende sólo de b 1 , ..., b s −1 . Nota: Las fórmulas muestran que el conjunto de Hammersley es en realidad la secuencia de Halton, pero obtenemos una dimensión más gratis agregando un barrido lineal. Esto sólo es posible si N se conoce de antemano. Un conjunto lineal es también el conjunto con la menor discrepancia unidimensional posible en general. Desafortunadamente, para dimensiones superiores no se conocen tales "conjuntos de registros de discrepancia". Para s  = 2, la mayoría de los generadores de conjuntos de puntos de baja discrepancia ofrecen al menos discrepancias casi óptimas.

secuencia de sobol

La variante Antonov-Saleev de la secuencia de Sobol genera números entre cero y uno directamente como fracciones binarias de longitud , a partir de un conjunto de fracciones binarias especiales, llamadas números de dirección. Los bits del código Gray de , , se utilizan para seleccionar números de dirección. Para obtener el valor de la secuencia de Sobol, tome el valor exclusivo o binario del código Gray con el número de dirección apropiado. El número de dimensiones requeridas afecta la elección de .

Muestreo de disco de Poisson

El muestreo de disco de Poisson es popular en los videojuegos para colocar rápidamente objetos de una manera que parezca aleatoria pero garantiza que cada dos puntos estén separados por al menos la distancia mínima especificada. [8] Esto no garantiza una discrepancia baja (como, por ejemplo, Sobol'), pero al menos una discrepancia significativamente menor que el muestreo aleatorio puro. El objetivo de estos patrones de muestreo se basa en el análisis de frecuencia y no en la discrepancia, un tipo de patrones llamados "ruido azul".

Ejemplos gráficos

Los puntos que se representan a continuación son los primeros 100, 1000 y 10000 elementos de una secuencia del tipo Sobol'. A modo de comparación, también se muestran 10.000 elementos de una secuencia de puntos pseudoaleatorios. La secuencia de baja discrepancia fue generada por el algoritmo TOMS 659. [9] Una implementación del algoritmo en Fortran está disponible en Netlib .

Los primeros 100 puntos de una secuencia de baja discrepancia del tipo Sobol' .
Los primeros 1000 puntos en la misma secuencia. Estos 1000 comprenden los 100 primeros, con 900 puntos más.
Los primeros 10000 puntos en la misma secuencia. Estos 10.000 comprenden los primeros 1.000, con 9.000 puntos más.
A modo de comparación, aquí están los primeros 10000 puntos de una secuencia de números pseudoaleatorios distribuidos uniformemente. Son evidentes regiones de mayor y menor densidad.

Ver también

Notas

  1. ^ Beck, József (1989). "Un teorema bidimensional de van Aardenne-Ehrenfest en irregularidades de distribución". Composición Matemática . 72 (3): 269–339. SEÑOR  1032337. S2CID  125940424. Zbl  0691.10041.
  2. ^ Bilyk, Dmitriy; Lacey, Michael T.; Vagharshakyan, Armen (2008). "Sobre la desigualdad de la pequeña bola en todas las dimensiones". Revista de análisis funcional . 254 (9): 2470–2502. arXiv : 0705.4619 . doi : 10.1016/j.jfa.2007.09.010 . S2CID  14234006.
  3. ^ Kuipers y Niederreiter 2005, pág. 123
  4. ^ Knuth, Donald E. "Capítulo 3: Números aleatorios". El arte de la programación informática . vol. 2.
  5. ^ Skarupke, Malta (16 de junio de 2018). "Fibonacci Hashing: la optimización que el mundo olvidó". Una propiedad de la Proporción Áurea es que puedes usarla para subdividir cualquier rango de manera aproximadamente uniforme... si no sabes de antemano cuántos pasos vas a dar
  6. ^ Roberts, Martín (2018). "La eficacia irrazonable de las secuencias cuasi aleatorias".
  7. ^ Hammersley, JM; Handscomb, CC (1964). Métodos de Montecarlo . doi :10.1007/978-94-009-5819-7. ISBN 978-94-009-5821-0.
  8. ^ Herman Tulleken.Tulleken, Herman (marzo de 2008). "Muestreo de disco de Poisson". Dev.Mag . Núm. 21, págs. 21-25.
  9. ^ Bratley, Pablo; Zorro, Bennett L. (1988). "Algoritmo 659". Transacciones ACM sobre software matemático . 14 : 88-100. doi : 10.1145/42288.214372 . S2CID  17325779.

Referencias

enlaces externos