En matemáticas , una secuencia de baja discrepancia es una secuencia con la propiedad de que para todos los valores de N , su subsecuencia x 1 ,..., x N tiene una discrepancia baja .
En términos generales, la discrepancia de una secuencia es baja si la proporción de puntos de la secuencia que caen en un conjunto arbitrario B es casi proporcional a la medida de B , como sucedería en promedio (pero no para muestras particulares) en el caso de una secuencia equidistribuida . Las definiciones específicas de discrepancia difieren con respecto a la elección de B ( hiperesferas , hipercubos , etc.) y cómo se calcula (normalmente normalizada) y se combina (normalmente tomando el peor valor) la discrepancia para cada B.
Las secuencias de baja discrepancia también se denominan secuencias cuasi aleatorias , debido a su uso común como reemplazo de números aleatorios uniformemente distribuidos . El modificador "cuasi" se utiliza para indicar más claramente que los valores de una secuencia de baja discrepancia no son aleatorios ni pseudoaleatorios , pero dichas secuencias comparten algunas propiedades de las variables aleatorias y en ciertas aplicaciones, como el método cuasi-Monte Carlo, su menor discrepancia. es una ventaja importante.
Los números cuasi aleatorios tienen la ventaja sobre los números aleatorios puros de que cubren el dominio de interés de forma rápida y uniforme.
Dos aplicaciones útiles son encontrar la función característica de una función de densidad de probabilidad y encontrar la función derivada de una función determinista con una pequeña cantidad de ruido. Los números cuasi aleatorios permiten calcular muy rápidamente momentos de orden superior con gran precisión.
Las aplicaciones que no implican clasificación serían encontrar la media , la desviación estándar , la asimetría y la curtosis de una distribución estadística, y encontrar los máximos y mínimos integrales y globales de funciones deterministas difíciles. Los números cuasi aleatorios también se pueden utilizar para proporcionar puntos de partida para algoritmos deterministas que solo funcionan localmente, como la iteración de Newton-Raphson .
Los números cuasi aleatorios también se pueden combinar con algoritmos de búsqueda. Con un algoritmo de búsqueda, se pueden utilizar números cuasi aleatorios para encontrar la moda , la mediana , los intervalos de confianza y la distribución acumulativa de una distribución estadística, y todos los mínimos locales y todas las soluciones de funciones deterministas.
Se pueden formular varios métodos de integración numérica para aproximar la integral de una función f en algún intervalo, por ejemplo, [0,1], como el promedio de la función evaluada en un conjunto { x 1 , ..., x N } en ese intervalo:
Si los puntos se eligen como x i = i / N , esta es la regla del rectángulo . Si los puntos se eligen para que se distribuyan aleatoriamente (o pseudoaleatoriamente ), este es el método de Monte Carlo . Si los puntos se eligen como elementos de una secuencia de baja discrepancia, este es el método cuasi-Montecarlo . Un resultado notable, la desigualdad de Koksma-Hlawka (que se indica a continuación), muestra que el error de dicho método puede estar acotado por el producto de dos términos, uno de los cuales depende sólo de f y el otro es la discrepancia del conjunto. { x 1 , ..., x norte }.
Es conveniente construir el conjunto { x 1 , ..., x N } de tal manera que si se construye un conjunto con N +1 elementos, no sea necesario volver a calcular los N elementos anteriores. La regla del rectángulo utiliza conjuntos de puntos que tienen poca discrepancia, pero en general los elementos deben recalcularse si N aumenta. No es necesario volver a calcular los elementos en el método aleatorio de Monte Carlo si se aumenta N , pero los conjuntos de puntos no tienen una discrepancia mínima. Al utilizar secuencias de baja discrepancia, nuestro objetivo es lograr una baja discrepancia y que no sea necesario volver a calcular, pero en realidad las secuencias de baja discrepancia solo pueden ser incrementalmente buenas en cuanto a discrepancia si no permitimos ningún nuevo cálculo.
La discrepancia de un conjunto P = { x 1 , ..., x N } se define, utilizando la notación de Niederreiter , como
donde λ s es la medida de Lebesgue s -dimensional , A ( B ; P ) es el número de puntos en P que caen en B , y J es el conjunto de intervalos o cajas s -dimensionales de la forma
dónde .
La discrepancia de estrellas D * N ( P ) se define de manera similar, excepto que el supremo se toma sobre el conjunto J * de cajas rectangulares de la forma
donde u i está en el intervalo semiabierto [0, 1).
Los dos están relacionados por
Nota: Con estas definiciones, la discrepancia representa el peor de los casos o la desviación máxima de densidad de puntos de un conjunto uniforme. Sin embargo, también son significativas otras medidas de error, lo que lleva a otras definiciones y medidas de variación. Por ejemplo, la discrepancia L2 o la discrepancia L2 centrada modificada también se utilizan intensivamente para comparar la calidad de conjuntos de puntos uniformes. Ambos son mucho más fáciles de calcular para N y s grandes.
Sea Ī s el cubo unitario de s dimensiones, Ī s = [0, 1] × ... × [0, 1]. Sea f una variación acotada V ( f ) sobre Ī s en el sentido de Hardy y Krause. Entonces para cualquier x 1 , ..., x N en I s = [0, 1) × ... × [0, 1),
La desigualdad de Koksma - Hlawka es aguda en el siguiente sentido: para cualquier conjunto de puntos { x 1 ,..., x N } en I s y any , existe una función f con variación acotada y V ( f ) = 1 tal que
Por tanto, la calidad de una regla de integración numérica depende únicamente de la discrepancia D * N ( x 1 ,..., x N ).
Dejar . porque escribimos
y denota por el punto obtenido de x reemplazando las coordenadas que no están en u por . Entonces
¿Dónde está la función de discrepancia?
Aplicando la desigualdad de Cauchy-Schwarz para integrales y sumas a la identidad de Hlawka-Zaremba, obtenemos una versión de la desigualdad de Koksma-Hlawka:
dónde
y
La discrepancia tiene una gran importancia práctica porque son posibles cálculos explícitos rápidos para un conjunto de puntos determinado. De esta manera es fácil crear optimizadores de conjuntos de puntos utilizando la discrepancia como criterio.
Es computacionalmente difícil encontrar el valor exacto de la discrepancia de conjuntos de puntos grandes. La desigualdad Erdős – Turán – Koksma proporciona un límite superior.
Sean x 1 ,..., x N puntos en I s y H un entero positivo arbitrario. Entonces
dónde
Conjetura 1. Existe una constante c s que depende únicamente de la dimensión s , tal que
para cualquier conjunto de puntos finitos { x 1 ,..., x N }.
Conjetura 2. Existe una constante c ' s que depende sólo de s , tal que
para un número infinito de N para cualquier secuencia infinita x 1 , x 2 , x 3 ,....
Estas conjeturas son equivalentes. WM Schmidt los demostró para s ≤ 2. En dimensiones superiores, el problema correspondiente todavía está abierto. Los límites inferiores más conocidos se deben a Michael Lacey y sus colaboradores.
Sea s = 1. Entonces
para cualquier conjunto de puntos finitos { x 1 , ..., x N }.
Sea s = 2. WM Schmidt demostró que para cualquier conjunto de puntos finitos { x 1 , ..., x N },
dónde
Para dimensiones arbitrarias s > 1, KF Roth demostró que
para cualquier conjunto de puntos finitos { x 1 , ..., x N }. Jozef Beck [1] estableció una mejora logarítmica doble de este resultado en tres dimensiones. Esto fue mejorado por D. Bilyk y MT Lacey a una potencia de un solo logaritmo. La cota más conocida para s > 2 se debe a D. Bilyk, MT Lacey y A. Vagharshakyan. [2] Para s > 2 existe un t > 0 tal que
para cualquier conjunto de puntos finitos { x 1 , ..., x N }.
Debido a que cualquier distribución de números aleatorios se puede asignar a una distribución uniforme, y los números cuasialeatorios se asignan de la misma manera, este artículo solo se ocupa de la generación de números cuasialeatorios en una distribución uniforme multidimensional.
Hay construcciones de secuencias conocidas tales que
donde C es una determinada constante, dependiendo de la secuencia. Después de la Conjetura 2, se cree que estas secuencias tienen el mejor orden de convergencia posible. Los ejemplos siguientes son la secuencia de van der Corput , las secuencias de Halton y las secuencias de Sobol . Una limitación general es que los métodos de construcción normalmente sólo pueden garantizar el orden de convergencia. En la práctica, sólo se puede lograr una discrepancia baja si N es lo suficientemente grande, y para s dados grandes, este N mínimo puede ser muy grande. Esto significa que ejecutar un análisis Monte-Carlo con, por ejemplo, s=20 variables y N=1000 puntos desde un generador de secuencia de baja discrepancia puede ofrecer sólo una mejora mínima en la precisión [ cita necesaria ] .
Se pueden generar secuencias de números cuasi aleatorios a partir de números aleatorios imponiendo una correlación negativa a esos números aleatorios. Una forma de hacer esto es comenzar con un conjunto de números aleatorios y construir números cuasi aleatorios que sean uniformes usando :
para pares e impares .
Una segunda forma de hacerlo con los números aleatorios iniciales es construir un paseo aleatorio con un desplazamiento de 0,5 como en:
Es decir, tome el número cuasi aleatorio anterior, sume 0,5 y el número aleatorio, y tome el resultado módulo 1.
Para más de una dimensión, se pueden utilizar cuadrados latinos de la dimensión adecuada para proporcionar compensaciones y garantizar que todo el dominio quede cubierto de manera uniforme.
Para cualquier irracional , la secuencia
tiene discrepancia que tiende a . Tenga en cuenta que la secuencia se puede definir de forma recursiva mediante
Un buen valor de da una discrepancia menor que una secuencia de números aleatorios uniformes independientes.
La discrepancia puede estar limitada por el exponente de aproximación de . Si el exponente de aproximación es , entonces para cualquiera , se cumple el siguiente límite: [3]
Según el teorema de Thue-Siegel-Roth , el exponente de aproximación de cualquier número algebraico irracional es 2, dando un límite de lo anterior.
La relación de recurrencia anterior es similar a la relación de recurrencia utilizada por un generador congruente lineal , un generador de números pseudoaleatorios de mala calidad: [4]
Para la recurrencia aditiva de baja discrepancia anterior, se elige que a y m sean 1. Sin embargo, tenga en cuenta que esto no generará números aleatorios independientes, por lo que no debe usarse para propósitos que requieran independencia.
El valor de con menor discrepancia es la parte fraccionaria de la proporción áurea : [5]
Otro valor casi tan bueno es la parte fraccionaria de la proporción de plata , que es la parte fraccionaria de la raíz cuadrada de 2:
En más de una dimensión, se necesitan números cuasi aleatorios separados para cada dimensión. Un conjunto conveniente de valores que se utilizan son las raíces cuadradas de números primos desde dos en adelante, todos tomados en módulo 1:
Sin embargo, se ha demostrado que un conjunto de valores basados en la proporción áurea generalizada produce puntos distribuidos de manera más uniforme. [6]
La lista de generadores de números pseudoaleatorios enumera métodos para generar números pseudoaleatorios independientes. Nota: En algunas dimensiones, la recurrencia recursiva conduce a conjuntos uniformes de buena calidad, pero para s más grandes (como s>8) otros generadores de conjuntos de puntos pueden ofrecer discrepancias mucho menores.
Dejar
sea la representación b -aria del entero positivo n ≥ 1, es decir, 0 ≤ d k ( n ) < b . Colocar
Entonces existe una constante C que depende sólo de b tal que ( g b ( n )) n ≥ 1 satisface
donde D * N es la discrepancia de estrellas .
La secuencia de Halton es una generalización natural de la secuencia de van der Corput a dimensiones superiores. Sea s una dimensión arbitraria y b 1 , ..., b s sean enteros coprimos arbitrarios mayores que 1. Defina
Entonces hay una constante C que depende sólo de b 1 , ..., b s , tal que la secuencia { x ( n )} n ≥1 es una secuencia s -dimensional con
Sean b 1 ,..., b s −1 enteros positivos coprimos mayores que 1. Para s y N dados , el conjunto Hammersley s -dimensional de tamaño N está definido por [7]
para norte = 1, ..., norte . Entonces
donde C es una constante que depende sólo de b 1 , ..., b s −1 . Nota: Las fórmulas muestran que el conjunto de Hammersley es en realidad la secuencia de Halton, pero obtenemos una dimensión más gratis agregando un barrido lineal. Esto sólo es posible si N se conoce de antemano. Un conjunto lineal es también el conjunto con la menor discrepancia unidimensional posible en general. Desafortunadamente, para dimensiones superiores no se conocen tales "conjuntos de registros de discrepancia". Para s = 2, la mayoría de los generadores de conjuntos de puntos de baja discrepancia ofrecen al menos discrepancias casi óptimas.
La variante Antonov-Saleev de la secuencia de Sobol genera números entre cero y uno directamente como fracciones binarias de longitud , a partir de un conjunto de fracciones binarias especiales, llamadas números de dirección. Los bits del código Gray de , , se utilizan para seleccionar números de dirección. Para obtener el valor de la secuencia de Sobol, tome el valor exclusivo o binario del código Gray con el número de dirección apropiado. El número de dimensiones requeridas afecta la elección de .
El muestreo de disco de Poisson es popular en los videojuegos para colocar rápidamente objetos de una manera que parezca aleatoria pero garantiza que cada dos puntos estén separados por al menos la distancia mínima especificada. [8] Esto no garantiza una discrepancia baja (como, por ejemplo, Sobol'), pero al menos una discrepancia significativamente menor que el muestreo aleatorio puro. El objetivo de estos patrones de muestreo se basa en el análisis de frecuencia y no en la discrepancia, un tipo de patrones llamados "ruido azul".
Los puntos que se representan a continuación son los primeros 100, 1000 y 10000 elementos de una secuencia del tipo Sobol'. A modo de comparación, también se muestran 10.000 elementos de una secuencia de puntos pseudoaleatorios. La secuencia de baja discrepancia fue generada por el algoritmo TOMS 659. [9] Una implementación del algoritmo en Fortran está disponible en Netlib .
Una propiedad de la Proporción Áurea es que puedes usarla para subdividir cualquier rango de manera aproximadamente uniforme... si no sabes de antemano cuántos pasos vas a dar