El aprendizaje de reglas de asociación es un método de aprendizaje automático basado en reglas para descubrir relaciones interesantes entre variables en bases de datos grandes. Su objetivo es identificar reglas sólidas descubiertas en bases de datos utilizando algunas medidas de interés. [1] En cualquier transacción dada con una variedad de elementos, las reglas de asociación tienen como objetivo descubrir las reglas que determinan cómo o por qué se conectan ciertos elementos.
Basándose en el concepto de reglas fuertes, Rakesh Agrawal , Tomasz Imieliński y Arun Swami [2] introdujeron reglas de asociación para descubrir regularidades entre productos en datos de transacciones a gran escala registrados por sistemas de punto de venta (POS) en supermercados. Por ejemplo, la regla encontrada en los datos de ventas de un supermercado indicaría que si un cliente compra cebollas y patatas juntas, es probable que también compre carne de hamburguesa. Dicha información se puede utilizar como base para tomar decisiones sobre actividades de marketing como, por ejemplo, precios promocionales o ubicaciones de productos .
Además del ejemplo anterior del análisis de la cesta de la compra , las reglas de asociación se emplean hoy en día en muchas áreas de aplicación, entre ellas la minería de datos de uso web , la detección de intrusiones , la producción continua y la bioinformática . A diferencia de la minería de datos de secuencias , el aprendizaje de reglas de asociación normalmente no tiene en cuenta el orden de los elementos, ni dentro de una transacción ni entre transacciones.
El algoritmo de reglas de asociación en sí consta de varios parámetros que pueden dificultar su ejecución para aquellos sin cierta experiencia en minería de datos, con muchas reglas que son difíciles de entender. [3]
Siguiendo la definición original de Agrawal, Imieliński, Swami [2] el problema de la minería de reglas de asociación se define como:
Sea un conjunto de n atributos binarios llamados elementos .
Sea un conjunto de transacciones llamado base de datos .
Cada transacción en D tiene un ID de transacción único y contiene un subconjunto de los elementos en I.
Una regla se define como una implicación de la forma:
En Agrawal, Imieliński, Swami [2] una regla se define solo entre un conjunto y un solo elemento, por ejemplo .
Cada regla está compuesta por dos conjuntos diferentes de elementos, también conocidos como conjuntos de elementos , X e Y , donde X se llama antecedente o lado izquierdo (LHS) e Y consecuente o lado derecho (RHS). El antecedente es el elemento que se puede encontrar en los datos, mientras que el consecuente es el elemento que se encuentra cuando se combina con el antecedente. La declaración a menudo se lee como si X entonces Y , donde el antecedente ( X ) es el si y el consecuente ( Y ) es el entonces . Esto simplemente implica que, en teoría, siempre que X ocurre en un conjunto de datos, entonces Y también lo hará.
Las reglas de asociación se crean buscando datos de patrones frecuentes de si-entonces y utilizando un criterio determinado en Soporte y Confianza para definir cuáles son las relaciones más importantes. El soporte es la evidencia de la frecuencia con la que aparece un elemento en los datos proporcionados, ya que la confianza se define por la cantidad de veces que se encuentran verdaderas las declaraciones si-entonces. Sin embargo, hay un tercer criterio que se puede utilizar, se llama Elevación y se puede utilizar para comparar la Confianza esperada y la Confianza real. La Elevación mostrará cuántas veces se espera que se encuentre verdadera la declaración si-entonces.
Las reglas de asociación se crean para calcular conjuntos de elementos, que se crean a partir de dos o más elementos. Si las reglas se crearan a partir del análisis de todos los conjuntos de elementos posibles de los datos, habría tantas reglas que no tendrían ningún significado. Por eso, las reglas de asociación suelen crearse a partir de reglas que están bien representadas por los datos.
Existen muchas técnicas de minería de datos diferentes que se pueden utilizar para encontrar determinados análisis y resultados; por ejemplo, existe el análisis de clasificación, el análisis de agrupamiento y el análisis de regresión. [4] La técnica que se debe utilizar depende de lo que se esté buscando con los datos. Las reglas de asociación se utilizan principalmente para encontrar análisis y una predicción del comportamiento del cliente. En el caso del análisis de clasificación, lo más probable es que se utilice para cuestionar, tomar decisiones y predecir el comportamiento. [5] El análisis de agrupamiento se utiliza principalmente cuando no se hacen suposiciones sobre las posibles relaciones dentro de los datos. [5] El análisis de regresión se utiliza cuando se desea predecir el valor de una variable dependiente continua a partir de una serie de variables independientes. [5]
Beneficios
Existen muchos beneficios en el uso de reglas de asociación, como la búsqueda de patrones que ayuden a comprender las correlaciones y coocurrencias entre conjuntos de datos. Un buen ejemplo del mundo real que utiliza reglas de asociación sería la medicina. La medicina utiliza reglas de asociación para ayudar a diagnosticar a los pacientes. Al diagnosticar a los pacientes, hay muchas variables a considerar, ya que muchas enfermedades comparten síntomas similares. Con el uso de las reglas de asociación, los médicos pueden determinar la probabilidad condicional de una enfermedad comparando las relaciones de síntomas de casos anteriores. [6]
Desventajas
Sin embargo, las reglas de asociación también conllevan muchas desventajas diferentes, como encontrar los parámetros y los umbrales adecuados para el algoritmo de minería. Pero también existe la desventaja de tener una gran cantidad de reglas descubiertas. La razón es que esto no garantiza que las reglas se consideren relevantes, pero también podría hacer que el algoritmo tenga un bajo rendimiento. A veces, los algoritmos implementados contendrán demasiadas variables y parámetros. Para alguien que no tenga un buen concepto de minería de datos, esto podría hacer que tenga problemas para comprenderlo. [7]
Umbrales
Al utilizar reglas de asociación, lo más probable es que solo utilice soporte y confianza. Sin embargo, esto significa que debe satisfacer un soporte mínimo especificado por el usuario y una confianza mínima especificada por el usuario al mismo tiempo. Por lo general, la generación de reglas de asociación se divide en dos pasos diferentes que deben aplicarse:
El umbral de soporte es del 30%, el umbral de confianza es del 50%.
La tabla de la izquierda contiene los datos originales sin organizar y la tabla de la derecha está organizada por umbrales. En este caso, el elemento C es mejor que los umbrales de apoyo y confianza, por lo que ocupa el primer lugar. El elemento A ocupa el segundo lugar porque sus valores de umbral son exactos. El elemento D ha alcanzado el umbral de apoyo, pero no el de confianza. El elemento B no ha alcanzado el umbral de apoyo ni el de confianza, por lo que ocupa el último lugar.
Encontrar todos los conjuntos de elementos frecuentes en una base de datos no es una tarea fácil, ya que implica recorrer todos los datos para encontrar todas las posibles combinaciones de elementos de todos los conjuntos de elementos posibles. El conjunto de conjuntos de elementos posibles es el conjunto potencia sobre I y tiene tamaño , por supuesto, esto significa excluir el conjunto vacío que no se considera un conjunto de elementos válido. Sin embargo, el tamaño del conjunto potencia crecerá exponencialmente en el número de elementos n que estén dentro del conjunto potencia I . Es posible una búsqueda eficiente utilizando la propiedad de cierre hacia abajo del soporte [2] [8] (también llamada antimonotonía [9] ). Esto garantizaría que un conjunto de elementos frecuente y todos sus subconjuntos también sean frecuentes y, por lo tanto, no tendrán conjuntos de elementos infrecuentes como subconjunto de un conjunto de elementos frecuente. Al explotar esta propiedad, los algoritmos eficientes (por ejemplo, Apriori [10] y Eclat [11] ) pueden encontrar todos los conjuntos de elementos frecuentes.
Para ilustrar los conceptos, utilizamos un pequeño ejemplo del ámbito de los supermercados. La Tabla 2 muestra una pequeña base de datos que contiene los artículos donde, en cada entrada, el valor 1 significa la presencia del artículo en la transacción correspondiente y el valor 0 representa la ausencia de un artículo en esa transacción. El conjunto de artículos es .
Un ejemplo de regla para el supermercado podría ser que si se compra mantequilla y pan, los clientes también compren leche.
Para seleccionar reglas interesantes del conjunto de todas las reglas posibles, se utilizan restricciones sobre diversas medidas de significación e interés. Las restricciones más conocidas son los umbrales mínimos de apoyo y confianza.
Sean conjuntos de elementos, una regla de asociación y T un conjunto de transacciones de una base de datos dada.
Nota: este ejemplo es extremadamente pequeño. En aplicaciones prácticas, una regla necesita el respaldo de varios cientos de transacciones antes de que pueda considerarse estadísticamente significativa, [ cita requerida ] y los conjuntos de datos a menudo contienen miles o millones de transacciones.
El soporte es una indicación de la frecuencia con la que el conjunto de elementos aparece en el conjunto de datos.
En nuestro ejemplo, puede ser más fácil explicar el soporte escribiendo [12] donde A y B son conjuntos de elementos separados que ocurren al mismo tiempo en una transacción.
Si tomamos como ejemplo la Tabla 2, el conjunto de elementos tiene un apoyo de 1/5=0,2, ya que se da en el 20% de todas las transacciones (1 de cada 5 transacciones). El argumento de apoyo de X es un conjunto de precondiciones y, por lo tanto, se vuelve más restrictivo a medida que crece (en lugar de más inclusivo). [13]
Además, el conjunto de elementos tiene un soporte de 1/5=0,2, ya que aparece también en el 20% de todas las transacciones.
Al utilizar antecedentes y consecuentes, un minero de datos puede determinar el respaldo de la compra de varios artículos juntos en comparación con el conjunto de datos completo. Por ejemplo, la Tabla 2 muestra que si se compra leche, entonces se compra pan y tiene un respaldo de 0,4 o 40 %. Esto se debe a que en 2 de cada 5 transacciones, se compra leche y pan. En conjuntos de datos más pequeños como este ejemplo, es más difícil ver una correlación fuerte cuando hay pocas muestras, pero cuando el conjunto de datos se hace más grande, el respaldo se puede utilizar para encontrar la correlación entre dos o más productos en el ejemplo del supermercado.
Los umbrales de soporte mínimos son útiles para determinar qué conjuntos de elementos son preferidos o interesantes.
Si fijamos el umbral de apoyo en ≥0,4 en la Tabla 3, se eliminaría porque no alcanza el umbral mínimo de 0,4. El umbral mínimo se utiliza para eliminar muestras en las que no hay un apoyo o una confianza lo suficientemente fuertes como para considerar que la muestra es importante o interesante en el conjunto de datos.
Otra forma de encontrar muestras interesantes es encontrar el valor de (soporte)×(confianza); esto permite a un minero de datos ver las muestras en las que el soporte y la confianza son lo suficientemente altos como para ser resaltados en el conjunto de datos y provocar una mirada más cercana a la muestra para encontrar más información sobre la conexión entre los elementos.
El soporte puede ser útil para encontrar la conexión entre productos en comparación con todo el conjunto de datos, mientras que la confianza analiza la conexión entre uno o más elementos y otro elemento. A continuación, se muestra una tabla que muestra la comparación y el contraste entre el soporte y el soporte × confianza, utilizando la información de la Tabla 4 para derivar los valores de confianza.
El soporte de X con respecto a T se define como la proporción de transacciones en el conjunto de datos que contiene el conjunto de elementos X. Denotando una transacción por donde i es el identificador único de la transacción y t es su conjunto de elementos, el soporte puede escribirse como:
Esta notación se puede utilizar para definir conjuntos de datos más complejos en los que los artículos y los conjuntos de artículos pueden no ser tan fáciles como en nuestro ejemplo del supermercado anterior. Otros ejemplos en los que se puede utilizar el soporte son para encontrar grupos de mutaciones genéticas que trabajan en conjunto para causar una enfermedad, investigar la cantidad de suscriptores que responden a ofertas de actualización y descubrir qué productos de una farmacia nunca se compran juntos. [12]
La confianza es el porcentaje de todas las transacciones que satisfacen X y que también satisfacen Y. [14 ]
Con respecto a T , el valor de confianza de una regla de asociación, a menudo denotado como , es la relación entre las transacciones que contienen tanto X como Y y la cantidad total de valores X presentes, donde X es el antecedente e Y es el consecuente.
La confianza también puede interpretarse como una estimación de la probabilidad condicional , la probabilidad de encontrar el RHS de la regla en transacciones bajo la condición de que estas transacciones también contengan el LHS. [13] [15]
Comúnmente se representa así:
La ecuación ilustra que la confianza se puede calcular calculando la coocurrencia de las transacciones X e Y dentro del conjunto de datos en relación con las transacciones que contienen solo X. Esto significa que la cantidad de transacciones en X e Y se divide por las que solo contienen X.
Por ejemplo, la Tabla 2 muestra la regla que tiene una confianza de en el conjunto de datos, que denota que cada vez que un cliente compra mantequilla y pan, también compra leche. Este ejemplo en particular demuestra que la regla es correcta el 100% del tiempo para transacciones que contienen tanto mantequilla como pan. La regla , sin embargo, tiene una confianza de . Esto sugiere que se compran huevos el 67% de las veces que se compra fruta. Dentro de este conjunto de datos en particular, la fruta se compra un total de 3 veces, y dos de esas veces consisten en compras de huevos.
En el caso de conjuntos de datos más grandes, puede resultar útil establecer un umbral mínimo o un porcentaje de corte para la confianza a fin de determinar las relaciones entre los elementos. Al aplicar este método a algunos de los datos de la Tabla 2, se elimina la información que no cumple con los requisitos. La Tabla 4 muestra ejemplos de reglas de asociación en los que el umbral mínimo de confianza es 0,5 (50 %). Se omiten todos los datos que no tienen una confianza de al menos 0,5. La generación de umbrales permite que la asociación entre los elementos se fortalezca a medida que se investigan más los datos, haciendo hincapié en aquellos que ocurren de manera simultánea con mayor frecuencia. La tabla utiliza la información de confianza de la Tabla 3 para implementar la columna Apoyo × Confianza, en la que se destaca la relación entre los elementos a través de su confianza y apoyo, en lugar de solo un concepto. La clasificación de las reglas por Apoyo × Confianza multiplica la confianza de una regla en particular con respecto a su apoyo y, a menudo, se implementa para obtener una comprensión más profunda de la relación entre los elementos.
En general, el uso de la confianza en la minería de reglas de asociación es una excelente manera de generar conciencia sobre las relaciones entre los datos. Su mayor beneficio es destacar la relación entre elementos particulares entre sí dentro del conjunto, ya que compara las coocurrencias de elementos con la ocurrencia total del antecedente en la regla específica. Sin embargo, la confianza no es el método óptimo para cada concepto en la minería de reglas de asociación. La desventaja de su uso es que no ofrece múltiples perspectivas de diferencia sobre las asociaciones. A diferencia del soporte, por ejemplo, la confianza no proporciona la perspectiva de las relaciones entre ciertos elementos en comparación con todo el conjunto de datos, por lo que, si bien la leche y el pan, por ejemplo, pueden aparecer el 100% del tiempo para la confianza, solo tiene un soporte de 0,4 (40%). Por eso es importante observar otros puntos de vista, como Soporte × Confianza, en lugar de confiar únicamente en un concepto incesantemente para definir las relaciones.
El levantamiento de una norma se define como:
o la relación entre el apoyo observado y el esperado si X e Y fueran independientes .
Por ejemplo, la regla tiene una elevación de .
Si la regla tuviera un valor de 1, implicaría que la probabilidad de ocurrencia del antecedente y la del consecuente son independientes entre sí. Cuando dos eventos son independientes entre sí, no se puede establecer ninguna regla que involucre a esos dos eventos.
Si la elevación es > 1, eso nos permite saber el grado en el que esas dos ocurrencias dependen una de la otra, y hace que esas reglas sean potencialmente útiles para predecir el consecuente en futuros conjuntos de datos.
Si el valor de elevación es < 1, esto nos permite saber que los elementos son sustitutos entre sí. Esto significa que la presencia de un elemento tiene un efecto negativo sobre la presencia de otro elemento y viceversa.
El valor de la elevación es que considera tanto el soporte de la regla como el conjunto de datos general. [13]
[consejo]
La convicción de una regla se define como . [16]
Por ejemplo, la regla tiene una convicción de , y puede interpretarse como la razón de la frecuencia esperada de que X ocurra sin Y (es decir, la frecuencia con la que la regla hace una predicción incorrecta) si X e Y fueran independientes dividida por la frecuencia observada de predicciones incorrectas. En este ejemplo, el valor de convicción de 1,2 muestra que la regla sería incorrecta un 20% más a menudo (1,2 veces más a menudo) si la asociación entre X e Y fuera puramente aleatoria.
Además de la confianza, se han propuesto otras medidas de interés para las reglas. Algunas medidas populares son:
Tan et al. [20] y Hahsler [21] presentan y comparan varias medidas más. Buscar técnicas que puedan modelar lo que el usuario ha sabido (y usar estos modelos como medidas de interés) es actualmente una tendencia de investigación activa bajo el nombre de "interés subjetivo".
El concepto de reglas de asociación se popularizó en particular gracias al artículo de 1993 de Agrawal et al. [2] , que ha obtenido más de 23.790 citas según Google Scholar, a abril de 2021, y es, por tanto, uno de los artículos más citados en el campo de la minería de datos. Sin embargo, lo que ahora se denomina "reglas de asociación" ya se introdujo en el artículo de 1966 [22] sobre GUHA, un método general de minería de datos desarrollado por Petr Hájek et al. [23].
Un uso temprano (alrededor de 1989) del soporte mínimo y la confianza para encontrar todas las reglas de asociación es el marco de modelado basado en características, que encontró todas las reglas con restricciones definidas por el usuario o mayores que ellas. [24]
Una limitación del enfoque estándar para descubrir asociaciones es que al buscar cantidades masivas de asociaciones posibles para buscar conjuntos de elementos que parecen estar asociados, existe un gran riesgo de encontrar muchas asociaciones espurias. Se trata de conjuntos de elementos que aparecen juntos con una frecuencia inesperada en los datos, pero solo lo hacen por casualidad. Por ejemplo, supongamos que estamos considerando un conjunto de 10 000 elementos y buscamos reglas que contengan dos elementos en el lado izquierdo y un elemento en el lado derecho. Hay aproximadamente 1 000 000 000 000 de reglas de ese tipo. Si aplicamos una prueba estadística de independencia con un nivel de significancia de 0,05, significa que solo hay un 5 % de posibilidades de aceptar una regla si no hay asociación. Si suponemos que no hay asociaciones, deberíamos esperar encontrar 50 000 000 000 de reglas. El descubrimiento de asociaciones estadísticamente sólidas [25] [26] controla este riesgo, reduciendo en la mayoría de los casos el riesgo de encontrar asociaciones espurias a un nivel de significancia especificado por el usuario.
Se han propuesto muchos algoritmos para generar reglas de asociación.
Algunos algoritmos conocidos son Apriori , Eclat y FP-Growth, pero solo hacen la mitad del trabajo, ya que son algoritmos para extraer conjuntos de elementos frecuentes. Es necesario realizar otro paso después para generar reglas a partir de los conjuntos de elementos frecuentes que se encuentran en una base de datos.
Apriori fue desarrollado por R. Agrawal y R. Srikant en 1994 para la minería de conjuntos de elementos frecuentes y el aprendizaje de reglas de asociación. Procede mediante la identificación de los elementos individuales frecuentes en la base de datos y su extensión a conjuntos de elementos cada vez más grandes, siempre que dichos conjuntos de elementos aparezcan con la suficiente frecuencia. El nombre del algoritmo es Apriori porque utiliza el conocimiento previo de las propiedades de los conjuntos de elementos frecuentes.
Descripción general: Apriori utiliza un enfoque "de abajo hacia arriba", donde los subconjuntos frecuentes se extienden un elemento a la vez (un paso conocido como generación de candidatos ) y los grupos de candidatos se prueban contra los datos. El algoritmo finaliza cuando no se encuentran más extensiones exitosas. Apriori utiliza una búsqueda en amplitud y una estructura de árbol hash para contar conjuntos de elementos candidatos de manera eficiente. Genera conjuntos de elementos candidatos de longitud a partir de conjuntos de elementos de longitud . Luego, elimina los candidatos que tienen un subpatrón poco frecuente. De acuerdo con el lema de cierre descendente, el conjunto de candidatos contiene todos los conjuntos de elementos frecuentes de longitud . Después de eso, escanea la base de datos de transacciones para determinar conjuntos de elementos frecuentes entre los candidatos.
Ejemplo: supongamos que cada fila es una muestra de cáncer con una determinada combinación de mutaciones etiquetadas con un carácter del alfabeto. Por ejemplo, una fila podría tener {a, c}, lo que significa que está afectada por la mutación "a" y la mutación "c".
Ahora generaremos el conjunto de elementos frecuentes contando la cantidad de ocurrencias de cada carácter. Esto también se conoce como encontrar los valores de soporte. Luego, podaremos el conjunto de elementos eligiendo un umbral de soporte mínimo. Para esta pasada del algoritmo, elegiremos 3.
Dado que todos los valores de soporte son tres o más, no hay poda. El conjunto de elementos frecuentes es {a}, {b}, {c} y {d}. Después de esto, repetiremos el proceso contando pares de mutaciones en el conjunto de entrada.
Ahora estableceremos nuestro valor de soporte mínimo en 4, de modo que solo {a, d} quede después de la poda. Ahora utilizaremos el conjunto de elementos frecuentes para crear combinaciones de tripletes. Luego repetiremos el proceso contando las ocurrencias de tripletes de mutaciones en el conjunto de entrada.
Como solo tenemos un elemento, el siguiente conjunto de combinaciones de cuatrillizos está vacío, por lo que el algoritmo se detendrá.
Ventajas y limitaciones:
Apriori tiene algunas limitaciones. La generación de candidatos puede dar como resultado conjuntos de candidatos grandes. Por ejemplo, un conjunto de 1 elemento frecuente de 10^4 generará un conjunto de 2 elementos candidatos de 10^7. El algoritmo también necesita escanear la base de datos con frecuencia, para ser específico, n+1 escaneos donde n es la longitud del patrón más largo. Apriori es más lento que el algoritmo Eclat. Sin embargo, Apriori funciona bien en comparación con Eclat cuando el conjunto de datos es grande. Esto se debe a que en el algoritmo Eclat, si el conjunto de datos es demasiado grande, las listas de tid se vuelven demasiado grandes para la memoria. El crecimiento de FP supera a Apriori y Eclat. Esto se debe a que el algoritmo de crecimiento de FP no tiene generación de candidatos ni prueba, usa una estructura de datos compacta y solo tiene un escaneo de la base de datos. [27]
Eclat [11] (alt. ECLAT, significa Equivalence Class Transformation) es un algoritmo de retroceso que recorre el gráfico reticular de conjuntos de elementos frecuentes en un estilo de búsqueda en profundidad (DFS). Mientras que el recorrido de búsqueda en amplitud (BFS) utilizado en el algoritmo Apriori terminará verificando cada subconjunto de un conjunto de elementos antes de verificarlo, el recorrido DFS verifica conjuntos de elementos más grandes y puede ahorrar en la verificación del soporte de algunos de sus subconjuntos en virtud de la propiedad de cierre hacia abajo. Además, casi con certeza utilizará menos memoria ya que DFS tiene una complejidad de espacio menor que BFS.
Para ilustrar esto, supongamos que hay un conjunto de elementos frecuentes {a, b, c}. Un DFS puede comprobar los nodos en la red de conjuntos de elementos frecuentes en el siguiente orden: {a} → {a, b} → {a, b, c}, en cuyo punto se sabe que {b}, {c}, {a, c}, {b, c} satisfacen la restricción de soporte por la propiedad de cierre hacia abajo. BFS exploraría cada subconjunto de {a, b, c} antes de comprobarlo finalmente. A medida que aumenta el tamaño de un conjunto de elementos, el número de sus subconjuntos sufre una explosión combinatoria .
Es adecuado tanto para ejecución secuencial como paralela con propiedades de mejora de localidad. [28] [29]
FP significa patrón frecuente. [30]
En la primera pasada, el algoritmo cuenta las ocurrencias de elementos (pares atributo-valor) en el conjunto de datos de transacciones y almacena estos recuentos en una "tabla de encabezado". En la segunda pasada, construye la estructura del árbol FP insertando transacciones en un trie .
Los elementos de cada transacción deben ordenarse en orden descendente de frecuencia en el conjunto de datos antes de insertarse para que el árbol pueda procesarse rápidamente. Los elementos de cada transacción que no cumplan con el requisito de compatibilidad mínima se descartan. Si muchas transacciones comparten los elementos más frecuentes, el árbol FP proporciona una alta compresión cerca de la raíz del árbol.
El procesamiento recursivo de esta versión comprimida del conjunto de datos principal genera conjuntos de elementos frecuentes directamente, en lugar de generar elementos candidatos y probarlos en toda la base de datos (como en el algoritmo a priori).
El crecimiento comienza desde la parte inferior de la tabla de encabezado, es decir, el elemento con el menor soporte, buscando todas las transacciones ordenadas que terminan en ese elemento. Llame a este elemento .
Se crea un nuevo árbol condicional que es el árbol FP original proyectado sobre . Se vuelven a contar los soportes de todos los nodos en el árbol proyectado y cada nodo obtiene la suma de los recuentos de sus hijos. Los nodos (y, por lo tanto, los subárboles) que no cumplen con el soporte mínimo se podan. El crecimiento recursivo finaliza cuando ningún elemento individual condicional a cumple con el umbral de soporte mínimo. Las rutas resultantes desde la raíz hasta serán conjuntos de elementos frecuentes. Después de este paso, el procesamiento continúa con el siguiente elemento de encabezado menos compatible del árbol FP original.
Una vez completado el proceso recursivo, se habrán encontrado todos los conjuntos de elementos frecuentes y comenzará la creación de reglas de asociación. [31]
El procedimiento ASSOC [32] es un método GUHA que extrae reglas de asociación generalizadas mediante operaciones rápidas con cadenas de bits . Las reglas de asociación extraídas por este método son más generales que las obtenidas por apriori; por ejemplo, los "ítems" se pueden conectar tanto con conjunciones como con disyunciones y la relación entre el antecedente y el consecuente de la regla no se limita a establecer un soporte mínimo y una confianza como en apriori: se puede utilizar una combinación arbitraria de medidas de interés soportadas.
OPUS es un algoritmo eficiente para el descubrimiento de reglas que, a diferencia de la mayoría de las alternativas, no requiere restricciones monótonas o antimonótonas como el soporte mínimo. [33] Inicialmente utilizado para encontrar reglas para un consecuente fijo [33] [34], posteriormente se ha ampliado para encontrar reglas con cualquier elemento como consecuente. [35] La búsqueda OPUS es la tecnología central en el popular sistema de descubrimiento de asociaciones Magnum Opus.
Una historia famosa sobre la extracción de reglas de asociación es la historia de la "cerveza y el pañal". Una supuesta encuesta sobre el comportamiento de los compradores de supermercados descubrió que los clientes (presumiblemente hombres jóvenes) que compran pañales también tienden a comprar cerveza. Esta anécdota se hizo popular como un ejemplo de cómo se pueden encontrar reglas de asociación inesperadas a partir de datos cotidianos. Hay diversas opiniones sobre qué parte de la historia es cierta. [36] Daniel Powers dice: [36]
En 1992, Thomas Blischok, gerente de un grupo de consultoría minorista en Teradata , y su personal prepararon un análisis de 1,2 millones de cestas de la compra de unas 25 farmacias Osco. Se desarrollaron consultas a bases de datos para identificar afinidades. El análisis "descubrió que entre las 5:00 y las 7:00 p. m. los consumidores compraban cerveza y pañales". Los gerentes de Osco NO explotaron la relación entre la cerveza y los pañales moviendo los productos más cerca en los estantes.
Reglas de asociación de relaciones múltiples (MRAR) : son reglas de asociación en las que cada elemento puede tener varias relaciones. Estas relaciones indican relaciones indirectas entre las entidades. Considere la siguiente MRAR donde el primer elemento consta de tres relaciones vive en , cerca y húmedo : “Aquellos que viven en un lugar que está cerca de una ciudad con un tipo de clima húmedo y también son menores de 20 años , su estado de salud es bueno”. Estas reglas de asociación se pueden extraer de datos RDBMS o datos de la web semántica. [37]
El aprendizaje de conjuntos de contraste es una forma de aprendizaje asociativo. Los estudiantes de conjuntos de contraste utilizan reglas que difieren significativamente en su distribución entre subconjuntos. [38] [39]
El aprendizaje de clases ponderadas es otra forma de aprendizaje asociativo en el que se pueden asignar pesos a las clases para centrarse en un tema particular de preocupación para el consumidor de los resultados de minería de datos.
El descubrimiento de patrones de orden superior facilita la captura de patrones de orden superior (politéticos) o asociaciones de eventos que son intrínsecos a datos complejos del mundo real. [40]
El descubrimiento de patrones k-óptimos proporciona una alternativa al enfoque estándar para el aprendizaje de reglas de asociación que requiere que cada patrón aparezca con frecuencia en los datos.
La minería de conjuntos de elementos frecuentes aproximados es una versión relajada de la minería de conjuntos de elementos frecuentes que permite que algunos de los elementos en algunas de las filas sean 0. [41]
Taxonomía jerárquica de reglas de asociación generalizadas (jerarquía de conceptos)
Reglas de asociación cuantitativa de datos categóricos y cuantitativos
Reglas de asociación de datos de intervalo , por ejemplo, dividir la edad en intervalos de incrementos de 5 años
La minería de patrones secuencial descubre subsecuencias que son comunes a más de minsup (umbral de soporte mínimo) secuencias en una base de datos de secuencias, donde minsup es establecido por el usuario. Una secuencia es una lista ordenada de transacciones. [42]
La agrupación de subespacios , un tipo específico de agrupación de datos de alta dimensión , se basa también en muchas variantes en la propiedad de cierre hacia abajo para modelos de agrupación específicos. [43]
Warmr , incluido como parte de la suite de minería de datos ACE, permite el aprendizaje de reglas de asociación para reglas relacionales de primer orden. [44]
{{cite journal}}
: Requiere citar revista |journal=
( ayuda )