En teoría de grafos y estadística , un grafón (también conocido como límite de grafo ) es una función medible simétrica , que es importante en el estudio de grafos densos . Los grafones surgen tanto como una noción natural para el límite de una secuencia de grafos densos, como los objetos definitorios fundamentales de los modelos de grafos aleatorios intercambiables . Los grafones están vinculados a los grafos densos por el siguiente par de observaciones: los modelos de grafos aleatorios definidos por grafones dan lugar a grafos densos casi con seguridad y, por el lema de regularidad , los grafones capturan la estructura de grafos densos arbitrarios grandes.
Un grafón es una función medible simétrica . Por lo general, se entiende que un grafón define un modelo de gráfico aleatorio intercambiable según el siguiente esquema:
Un modelo de grafo aleatorio es un modelo de grafo aleatorio intercambiable si y solo si puede definirse en términos de un grafo (posiblemente aleatorio) de esta manera. El modelo basado en un grafo fijo a veces se denota , por analogía con el modelo de Erdős–Rényi de grafos aleatorios. Un grafo generado a partir de un grafo de esta manera se llama grafo -aleatorio.
De esta definición y de la ley de los grandes números se desprende que, si , los modelos de gráficos aleatorios intercambiables son densos casi con toda seguridad. [1]
El ejemplo más simple de un grafón es el de una constante . En este caso, el modelo de grafo aleatorio intercambiable asociado es el modelo de Erdős–Rényi , que incluye cada arista de forma independiente con probabilidad .
Si en cambio comenzamos con un grafón que es constante por partes mediante:
El modelo de gráfico aleatorio intercambiable resultante es el modelo de bloque estocástico comunitario , una generalización del modelo de Erdős–Rényi. Podemos interpretarlo como un modelo de gráfico aleatorio que consta de distintos gráficos de Erdős–Rényi con parámetros respectivamente, con bigrafos entre ellos donde cada posible borde entre bloques y se incluye de forma independiente con probabilidad .
Muchos otros modelos de gráficos aleatorios populares pueden entenderse como modelos de gráficos aleatorios intercambiables definidos por algún grafón; se incluye un estudio detallado en Orbanz y Roy. [1]
Un gráfico aleatorio de tamaño puede representarse como una matriz de adyacencia aleatoria . Para imponer consistencia (en el sentido de proyectividad) entre gráficos aleatorios de diferentes tamaños, es natural estudiar la secuencia de matrices de adyacencia que surgen como submatrices superiores izquierdas de algún arreglo infinito de variables aleatorias; esto nos permite generar agregando un nodo a y muestreando los bordes para . Con esta perspectiva, los gráficos aleatorios se definen como arreglos simétricos infinitos aleatorios .
Siguiendo la importancia fundamental de las secuencias intercambiables en la probabilidad clásica, es natural buscar una noción análoga en el contexto de los gráficos aleatorios. Una de esas nociones está dada por las matrices intercambiables conjuntamente; es decir, matrices aleatorias que satisfacen
para todas las permutaciones de los números naturales, donde las medias son iguales en distribución . Intuitivamente, esta condición significa que la distribución del grafo aleatorio no cambia con un reetiquetado de sus vértices: es decir, las etiquetas de los vértices no contienen información.
Existe un teorema de representación para matrices de adyacencia aleatorias intercambiables de forma conjunta, análogo al teorema de representación de De Finetti para secuencias intercambiables. Este es un caso especial del teorema de Aldous-Hoover para matrices intercambiables de forma conjunta y, en este contexto, afirma que la matriz aleatoria se genera mediante:
donde es un grafón (posiblemente aleatorio). Es decir, un modelo de grafo aleatorio tiene una matriz de adyacencia intercambiable conjuntamente si y solo si es un modelo de grafo aleatorio intercambiable conjuntamente definido en términos de algún grafón.
Debido a problemas de identificabilidad, es imposible estimar ni la función de grafo ni las posiciones latentes de los nodos y hay dos direcciones principales de estimación de grafones. Una dirección apunta a estimar hasta una clase de equivalencia, [2] [3] o estimar la matriz de probabilidad inducida por . [4] [5]
Cualquier grafo sobre vértices puede identificarse con su matriz de adyacencia . Esta matriz corresponde a una función escalonada , definida por la partición en intervalos tales que tiene interior y para cada , fijando igual a la entrada de . Esta función es el grafón asociado del grafo .
En general, si tenemos una secuencia de grafos donde el número de vértices de tiende a infinito, podemos analizar el comportamiento límite de la secuencia considerando el comportamiento límite de las funciones . Si estos grafos convergen (según alguna definición adecuada de convergencia ), entonces esperamos que el límite de estos grafos corresponda al límite de estas funciones asociadas.
Esto motiva la definición de un grafón (abreviatura de "función gráfica") como una función medible simétrica que captura la noción de un límite de una secuencia de grafos. Resulta que para secuencias de grafos densos, varias nociones aparentemente distintas de convergencia son equivalentes y bajo todas ellas el objeto límite natural es un grafón. [6]
Tomemos una secuencia de grafos aleatorios de Erdős–Rényi con algún parámetro fijo . Intuitivamente, como tiende al infinito, el límite de esta secuencia de grafos está determinado únicamente por la densidad de aristas de estos grafos. En el espacio de grafones, resulta que dicha secuencia converge casi con seguridad a la constante , lo que captura la intuición anterior.
Tomemos la secuencia de semigrafos , definida al tomar como el grafo bipartito en vértices y tal que es adyacente a precisamente cuando . Si los vértices se enumeran en el orden presentado, entonces la matriz de adyacencia tiene dos esquinas de matrices de bloques de "medio cuadrado" llenas de unos, con el resto de las entradas iguales a cero. Por ejemplo, la matriz de adyacencia de está dada por
A medida que se hace más grande, estos vértices se "suavizan". Siguiendo esta intuición, la secuencia converge al semigrafo definido por cuándo y de otra manera.
Tomemos la secuencia de grafos bipartitos completos con partes de igual tamaño. Si ordenamos los vértices colocando todos los vértices de una parte al principio y colocando los vértices de la otra parte al final, la matriz de adyacencia de parece una matriz de bloques fuera de la diagonal, con dos bloques de unos y dos bloques de ceros. Por ejemplo, la matriz de adyacencia de está dada por
A medida que se hace más grande, esta estructura de bloques de la matriz de adyacencia permanece constante, de modo que esta secuencia de gráficos converge a un grafón "bipartito completo" definido por siempre que y , y estableciendo en caso contrario.
Si, en cambio, ordenamos los vértices de alternando entre las partes, la matriz de adyacencia tiene una estructura de tablero de ajedrez de ceros y unos. Por ejemplo, bajo este ordenamiento, la matriz de adyacencia de está dada por
A medida que se hace más grande, las matrices de adyacencia se convierten en un tablero de ajedrez cada vez más fino. A pesar de este comportamiento, todavía queremos que el límite de sea único y dé como resultado el grafón del ejemplo 3. Esto significa que cuando definimos formalmente la convergencia para una secuencia de grafos, la definición de un límite debe ser independiente de los reetiquetados de los vértices.
Tome una secuencia aleatoria de W {\displaystyle W} -grafos aleatorios dibujando para algún grafo fijo . Entonces, tal como en el primer ejemplo de esta sección, resulta que converge a casi con seguridad.
Dado un grafo con grafona asociada , podemos recuperar las propiedades y parámetros de la teoría de grafos mediante la integración de transformaciones de . Por ejemplo, la densidad de aristas (es decir, el grado promedio dividido por el número de vértices) de está dada por la integral Esto se debe a que tiene un valor de , y cada arista en corresponde a una región de área donde es igual a .
Un razonamiento similar muestra que la densidad de triángulos en es igual a
Existen muchas formas diferentes de medir la distancia entre dos grafos. Si nos interesan las métricas que "conservan" las propiedades extremales de los grafos, entonces deberíamos restringir nuestra atención a las métricas que identifican grafos aleatorios como similares. Por ejemplo, si extraemos aleatoriamente dos grafos de forma independiente a partir de un modelo de Erdős–Rényi para algún , la distancia entre estos dos grafos bajo una métrica "razonable" debería ser cercana a cero con alta probabilidad para .
De manera ingenua, dados dos gráficos en el mismo conjunto de vértices, se podría definir su distancia como la cantidad de aristas que se deben agregar o quitar para llegar de un gráfico al otro, es decir, su distancia de edición . Sin embargo, la distancia de edición no identifica gráficos aleatorios como similares; de hecho, dos gráficos dibujados independientemente de tienen una distancia de edición esperada (normalizada) de .
Hay dos métricas naturales que se comportan bien en gráficos aleatorios densos en el sentido que queremos. La primera es una métrica de muestreo, que dice que dos gráficos están cerca si sus distribuciones de subgráficos son cercanas. La segunda es una métrica de discrepancia de aristas , que dice que dos gráficos están cerca cuando sus densidades de aristas son cercanas en todos sus subconjuntos correspondientes de vértices.
Milagrosamente, una secuencia de grafos converge con respecto a una métrica precisamente cuando converge con respecto a la otra. Además, los objetos límite bajo ambas métricas resultan ser grafones. La equivalencia de estas dos nociones de convergencia refleja cómo son equivalentes varias nociones de grafos cuasialeatorios . [7]
Una forma de medir la distancia entre dos grafos y es comparar sus recuentos relativos de subgrafos. Es decir, para cada grafo podemos comparar el número de copias de en y en . Si estos números son cercanos para cada grafo , entonces intuitivamente y son grafos de apariencia similar. Sin embargo, en lugar de tratar directamente con subgrafos, resulta más fácil trabajar con homomorfismos de grafos. Esto está bien cuando se trata con grafos grandes y densos, ya que en este escenario el número de subgrafos y el número de homomorfismos de grafos de un grafo fijo son asintóticamente iguales.
Dados dos grafos y , la densidad de homomorfismos de en se define como el número de homomorfismos de grafos de a . En otras palabras, es la probabilidad de que una función elegida aleatoriamente de los vértices de a los vértices de envíe vértices adyacentes en a vértices adyacentes en .
Los grafones ofrecen una forma sencilla de calcular densidades de homomorfismo. De hecho, dado un grafo con un grafón asociado y otro , tenemos
donde la integral es multidimensional, tomada sobre el hipercubo unitario . Esto se desprende de la definición de un grafón asociado, considerando cuando el integrando anterior es igual a . Luego podemos extender la definición de densidad de homomorfismo a grafones arbitrarios , utilizando la misma integral y definiendo
para cualquier gráfico .
Dada esta configuración, decimos que una secuencia de grafos es convergente por la izquierda si para cada grafo fijo , la secuencia de densidades de homomorfismo converge. Aunque no es evidente a partir de la definición sola, si converge en este sentido, entonces siempre existe un grafón tal que para cada grafo , tenemos simultáneamente.
Tomemos dos grafos y en el mismo conjunto de vértices. Debido a que estos grafos comparten los mismos vértices, una forma de medir su distancia es restringirlos a subconjuntos del conjunto de vértices y, para cada par de subconjuntos, comparar la cantidad de aristas de a en con la cantidad de aristas entre y en . Si estos números son similares para cada par de subconjuntos (en relación con la cantidad total de vértices), entonces eso sugiere que y son grafos similares.
Como formalización preliminar de esta noción de distancia, para cualquier par de grafos y en el mismo conjunto de vértices de tamaño , definamos la distancia de corte etiquetada entre y como
En otras palabras, la distancia de corte etiquetada codifica la discrepancia máxima de las densidades de aristas entre y . Podemos generalizar este concepto a los grafones expresando la densidad de aristas en términos del grafón asociado , dando la igualdad
donde son uniones de intervalos correspondientes a los vértices en y . Nótese que esta definición puede seguir utilizándose incluso cuando los gráficos que se comparan no comparten un conjunto de vértices. Esto motiva la siguiente definición más general.
Definición 1. Para cualquier función simétrica y medible , defina la norma de corte de como la cantidad
se hace cargo de todos los subconjuntos mensurables del intervalo unitario. [6]
Esto captura nuestra noción anterior de distancia de corte etiquetada, ya que tenemos la igualdad .
Esta medida de distancia aún tiene una limitación importante: puede asignar una distancia distinta de cero a dos grafos isomorfos. Para asegurarnos de que los grafos isomorfos tengan una distancia cero, debemos calcular la norma de corte mínima sobre todos los posibles "reetiquetados" de los vértices. Esto motiva la siguiente definición de la distancia de corte.
Definición 2. Para cualquier par de grafones y , defina su distancia de corte como
donde es la composición de con el mapa , y el ínfimo se toma sobre todas las biyecciones que preservan la medida desde el intervalo unitario hasta sí mismo. [8]
La distancia de corte entre dos gráficos se define como la distancia de corte entre sus grafones asociados.
Decimos ahora que una secuencia de grafos es convergente bajo la distancia de corte si es una secuencia de Cauchy bajo la distancia de corte . Aunque no es una consecuencia directa de la definición, si dicha secuencia de grafos es de Cauchy, entonces siempre converge a algún grafon .
Resulta que, para cualquier secuencia de grafos , la convergencia a la izquierda es equivalente a la convergencia bajo la distancia de corte y, además, el grafón límite es el mismo. También podemos considerar la convergencia de los grafones mismos utilizando las mismas definiciones, y la misma equivalencia es verdadera. De hecho, ambas nociones de convergencia están relacionadas más fuertemente a través de lo que se denominan lemas de conteo . [6]
Lema de conteo. Para cualquier par de grafones y , tenemos
para todos los gráficos .
El nombre "lema de conteo" proviene de los límites que este lema da a las densidades de homomorfismo , que son análogas a los conteos de subgrafos de grafos. Este lema es una generalización del lema de conteo de grafos que aparece en el campo de las particiones de regularidad , y muestra inmediatamente que la convergencia bajo la distancia de corte implica convergencia a la izquierda.
Lema de conteo inverso. Para cada número real , existe un número real y un entero positivo tales que para cualquier par de grafones y con
Para todos los gráficos que satisfacen , debemos tener .
Este lema muestra que la convergencia a la izquierda implica convergencia bajo la distancia de corte.
Podemos convertir la distancia de corte en una métrica tomando el conjunto de todos los grafones e identificando dos grafones siempre que . El espacio de grafones resultante se denota y junto con forma un espacio métrico .
Este espacio resulta ser compacto . Además, contiene el conjunto de todos los grafos finitos, representados por sus grafones asociados, como un subconjunto denso . Estas observaciones muestran que el espacio de grafones es una completitud del espacio de grafos con respecto a la distancia de corte. Una consecuencia inmediata de esto es la siguiente.
Corolario 1. Para cada número real , existe un entero tal que para cada grafo , existe un grafo con como máximo vértices tal que .
Para ver por qué, sea el conjunto de grafos. Considere para cada grafo la bola abierta que contiene todos los grafones tales que . El conjunto de bolas abiertas para todos los grafos cubre , por lo que la compacidad implica que hay una subcobertura finita para algún subconjunto finito . Ahora podemos tomar como el mayor número de vértices entre los grafos en .
La compacidad del espacio de grafones puede considerarse como una formulación analítica del lema de regularidad de Szemerédi ; de hecho, un resultado más fuerte que el lema original. [9] El lema de regularidad de Szemeredi se puede traducir al lenguaje de los grafones de la siguiente manera. Defina una función escalonada como un grafo que es constante por partes, es decir, para alguna partición de , es constante en para todo . La afirmación de que un grafo tiene una partición de regularidad es equivalente a decir que su grafono asociado está cerca de una función escalonada.
La prueba de compacidad requiere únicamente el lema de regularidad débil :
Lema de regularidad débil para grafones. Para cada grafón y , existe una función escalonada con, como máximo, pasos tales que .
pero puede usarse para demostrar resultados de regularidad más fuertes, como el lema de regularidad fuerte :
Lema de regularidad fuerte para grafones. Para cada secuencia de números reales positivos, existe un entero positivo tal que para cada grafón , existe un grafón y una función escalonada con pasos tales que y
La prueba del lema de regularidad fuerte es similar en concepto al Corolario 1 anterior. Resulta que cada grafono puede aproximarse con una función escalonada en la norma , mostrando que el conjunto de bolas cubre . Estos conjuntos no son abiertos en la métrica, pero pueden ampliarse ligeramente para que sean abiertos. Ahora, podemos tomar una subcubierta finita y podemos demostrar que se cumple la condición deseada.
La naturaleza analítica de los grafones permite una mayor flexibilidad para atacar desigualdades relacionadas con homomorfismos.
Por ejemplo, la conjetura de Sidorenko es un importante problema abierto en la teoría de grafos extremales , que afirma que para cualquier grafo sobre vértices con grado medio (para algún ) y grafo bipartito sobre vértices y aristas, el número de homomorfismos de a es al menos . [10] Dado que esta cantidad es el número esperado de subgrafos etiquetados de en un grafo aleatorio , la conjetura puede interpretarse como la afirmación de que para cualquier grafo bipartito , el grafo aleatorio logra (en expectativa) el número mínimo de copias de sobre todos los grafos con alguna densidad de aristas fija.
Muchos enfoques de la conjetura de Sidorenko formulan el problema como una desigualdad integral en grafones, lo que luego permite atacar el problema utilizando otros enfoques analíticos. [11]
Los grafones se asocian naturalmente con grafos simples densos. Existen extensiones de este modelo a grafos ponderados dirigidos densos, a menudo denominados grafones decorados. [12] También existen extensiones recientes al régimen de grafos dispersos, tanto desde la perspectiva de los modelos de grafos aleatorios [13] como de la teoría de límites de grafos. [14] [15]