stringtranslate.com

red bayesiana

Una red bayesiana (también conocida como red Bayes , red Bayes , red de creencias o red de decisión ) es un modelo gráfico probabilístico que representa un conjunto de variables y sus dependencias condicionales mediante un gráfico acíclico dirigido (DAG). [1] Si bien es una de varias formas de notación causal , las redes causales son casos especiales de redes bayesianas. Las redes bayesianas son ideales para tomar un evento que ocurrió y predecir la probabilidad de que cualquiera de las varias posibles causas conocidas fuera el factor contribuyente. Por ejemplo, una red bayesiana podría representar las relaciones probabilísticas entre enfermedades y síntomas. Dados los síntomas, la red se puede utilizar para calcular las probabilidades de presencia de diversas enfermedades.

Los algoritmos eficientes pueden realizar inferencias y aprendizaje en redes bayesianas. Las redes bayesianas que modelan secuencias de variables ( por ejemplo, señales de voz o secuencias de proteínas ) se denominan redes bayesianas dinámicas . Las generalizaciones de redes bayesianas que pueden representar y resolver problemas de decisión en condiciones de incertidumbre se denominan diagramas de influencia .

modelo grafico

Formalmente, las redes bayesianas son gráficos acíclicos dirigidos (DAG) cuyos nodos representan variables en el sentido bayesiano : pueden ser cantidades observables, variables latentes , parámetros desconocidos o hipótesis. Cada borde representa una dependencia condicional directa. Cualquier par de nodos que no estén conectados (es decir, ninguna ruta conecta un nodo con el otro) representa variables que son condicionalmente independientes entre sí. Cada nodo está asociado con una función de probabilidad que toma, como entrada, un conjunto particular de valores para las variables principales del nodo y proporciona (como salida) la probabilidad (o distribución de probabilidad, si corresponde) de la variable representada por el nodo. Por ejemplo, si los nodos principales representan variables booleanas , entonces la función de probabilidad podría representarse mediante una tabla de entradas, una entrada para cada una de las posibles combinaciones principales. Se pueden aplicar ideas similares a gráficos no dirigidos y posiblemente cíclicos, como las redes de Markov .

Ejemplo

Una red bayesiana simple con tablas de probabilidad condicional

Usemos una ilustración para hacer cumplir los conceptos de una red bayesiana. Supongamos que queremos modelar las dependencias entre tres variables: el aspersor (o más apropiadamente, su estado, si está encendido o no), la presencia o ausencia de lluvia y si el césped está mojado o no. Observe que dos eventos pueden hacer que el césped se moje: un aspersor activo o la lluvia. La lluvia tiene un efecto directo sobre el uso del aspersor (es decir, cuando llueve, el aspersor normalmente no está activo). Esta situación se puede modelar con una red bayesiana (que se muestra a la derecha). Cada variable tiene dos valores posibles, T (para verdadero) y F (para falso).

La función de probabilidad conjunta es, según la regla de la cadena de probabilidad ,

donde G = "Pasto mojado (verdadero/falso)", S = "Aspersor encendido (verdadero/falso)" y R = "Lloviendo (verdadero/falso)".

El modelo puede responder preguntas sobre la presencia de una causa dada la presencia de un efecto (la llamada probabilidad inversa) como "¿Cuál es la probabilidad de que esté lloviendo, dado que el pasto está mojado?" utilizando la fórmula de probabilidad condicional y sumando todas las variables molestas :

Utilizando la expansión de la función de probabilidad conjunta y las probabilidades condicionales de las tablas de probabilidad condicional (CPT) indicadas en el diagrama, se puede evaluar cada término en las sumas del numerador y denominador. Por ejemplo,

Luego, los resultados numéricos (subíndices de los valores de las variables asociadas) son

Para responder a una pregunta de intervención, como "¿Cuál es la probabilidad de que llueva, dado que mojamos el césped?" la respuesta se rige por la función de distribución conjunta post-intervención

se obtiene eliminando el factor de la distribución previa a la intervención. El operador do fuerza que el valor de G sea verdadero. La probabilidad de lluvia no se ve afectada por la acción:

Para predecir el impacto de encender el aspersor:

con el término eliminado, mostrando que la acción afecta al césped pero no a la lluvia.

Estas predicciones pueden no ser factibles dadas variables no observadas, como ocurre en la mayoría de los problemas de evaluación de políticas. Sin embargo, el efecto de la acción aún se puede predecir siempre que se cumpla el criterio de la puerta trasera. [2] [3] Afirma que, si se puede observar un conjunto Z de nodos que d-separa [4] (o bloquea) todas las rutas de puerta trasera de X a Y , entonces

Un camino de puerta trasera es aquel que termina con una flecha hacia X . Los conjuntos que satisfacen el criterio de la puerta trasera se denominan "suficientes" o "admisibles". Por ejemplo, el conjunto Z  =  R es admisible para predecir el efecto de S  =  T en G , porque R d -separa el (único) camino de puerta trasera S  ←  R  →  G . Sin embargo, si no se observa S , ningún otro conjunto d separa este camino y el efecto de encender el aspersor ( S  =  T ) sobre el césped ( G ) no se puede predecir a partir de observaciones pasivas. En ese caso P ( G  | do ( S  =  T )) no está "identificado". Esto refleja el hecho de que, a falta de datos de intervención, la dependencia observada entre S y G se debe a una conexión causal o es espuria (dependencia aparente que surge de una causa común, R ). (ver la paradoja de Simpson )

Para determinar si una relación causal se identifica a partir de una red bayesiana arbitraria con variables no observadas, se pueden usar las tres reglas del " cálculo do " [2] [5] y probar si todos los términos do se pueden eliminar de la expresión de esa relación. , confirmando así que la cantidad deseada es estimable a partir de datos de frecuencia. [6]

El uso de una red bayesiana puede ahorrar cantidades considerables de memoria en tablas de probabilidad exhaustivas, si las dependencias en la distribución conjunta son escasas. Por ejemplo, una forma ingenua de almacenar las probabilidades condicionales de 10 variables de dos valores como una tabla requiere espacio de almacenamiento para los valores. Si la distribución local de ninguna variable depende de más de tres variables principales, la representación de la red bayesiana almacena como máximo los valores.

Una ventaja de las redes bayesianas es que es intuitivamente más fácil para un humano comprender (un conjunto disperso de) dependencias directas y distribuciones locales que distribuciones conjuntas completas.

Inferencia y aprendizaje

Las redes bayesianas realizan tres tareas principales de inferencia:

Inferir variables no observadas

Debido a que una red bayesiana es un modelo completo para sus variables y sus relaciones, puede usarse para responder consultas probabilísticas sobre ellas. Por ejemplo, la red se puede utilizar para actualizar el conocimiento del estado de un subconjunto de variables cuando se observan otras variables (las variables de evidencia ). Este proceso de calcular la distribución posterior de variables dada la evidencia se llama inferencia probabilística. La posterior proporciona una estadística universal suficiente para aplicaciones de detección, al elegir valores para el subconjunto de variables que minimicen alguna función de pérdida esperada, por ejemplo, la probabilidad de error de decisión. Por tanto, una red bayesiana puede considerarse un mecanismo para aplicar automáticamente el teorema de Bayes a problemas complejos.

Los métodos de inferencia exacta más comunes son: eliminación de variables , que elimina (por integración o sumatoria) una a una las variables no observadas y no consultadas distribuyendo la suma sobre el producto; propagación de árbol de camarilla , que almacena en caché el cálculo para que se puedan consultar muchas variables al mismo tiempo y se puedan propagar nuevas pruebas rápidamente; y el condicionamiento recursivo y la búsqueda AND/OR, que permiten un equilibrio espacio-temporal y igualan la eficiencia de la eliminación de variables cuando se utiliza suficiente espacio. Todos estos métodos tienen una complejidad exponencial en el ancho del árbol de la red . Los algoritmos de inferencia aproximada más comunes son el muestreo de importancia , la simulación estocástica de MCMC , la eliminación de minicubos, la propagación de creencias descabelladas , la propagación de creencias generalizada y los métodos variacionales .

Aprendizaje de parámetros

Para especificar completamente la red bayesiana y así representar completamente la distribución de probabilidad conjunta , es necesario especificar para cada nodo X la distribución de probabilidad para X condicionada a los padres de X. La distribución de X condicionada a sus padres puede tener cualquier forma. Es común trabajar con distribuciones discretas o gaussianas ya que eso simplifica los cálculos. A veces sólo se conocen restricciones a la distribución; Luego se puede utilizar el principio de máxima entropía para determinar una distribución única, la que tiene la mayor entropía dadas las restricciones. (De manera análoga, en el contexto específico de una red bayesiana dinámica , la distribución condicional para la evolución temporal del estado oculto se especifica comúnmente para maximizar la tasa de entropía del proceso estocástico implícito).

A menudo, estas distribuciones condicionales incluyen parámetros que se desconocen y deben estimarse a partir de datos, por ejemplo, mediante el enfoque de máxima verosimilitud . La maximización directa de la probabilidad (o de la probabilidad posterior ) suele ser compleja dadas las variables no observadas. Un enfoque clásico para este problema es el algoritmo de maximización de expectativas , que alterna el cálculo de los valores esperados de las variables no observadas condicionadas a los datos observados, con la maximización de la probabilidad completa (o posterior) asumiendo que los valores esperados calculados previamente son correctos. En condiciones de regularidad leve, este proceso converge en valores de máxima verosimilitud (o máximo posterior) para los parámetros.

Un enfoque más completamente bayesiano de los parámetros es tratarlos como variables adicionales no observadas y calcular una distribución posterior completa sobre todos los nodos condicionada a los datos observados, para luego integrar los parámetros. Este enfoque puede resultar costoso y dar lugar a modelos de grandes dimensiones, lo que hace que los enfoques clásicos de establecimiento de parámetros sean más manejables.

Aprendizaje estructurado

En el caso más simple, un experto especifica una red bayesiana y luego la utiliza para realizar inferencias. En otras aplicaciones, la tarea de definir la red es demasiado compleja para los humanos. En este caso, la estructura de la red y los parámetros de las distribuciones locales deben aprenderse de los datos.

Aprender automáticamente la estructura gráfica de una red bayesiana (BN) es un desafío que se persigue dentro del aprendizaje automático . La idea básica se remonta a un algoritmo de recuperación desarrollado por Rebane y Pearl [7] y se basa en la distinción entre los tres posibles patrones permitidos en un DAG de 3 nodos:

Los primeros 2 representan las mismas dependencias ( y son independientes ) y, por lo tanto, son indistinguibles. El colisionador, sin embargo, puede identificarse de forma única, ya que y son marginalmente independientes y todos los demás pares son dependientes. Así, si bien los esqueletos (los gráficos despojados de flechas) de estos tres tripletes son idénticos, la direccionalidad de las flechas es parcialmente identificable. La misma distinción se aplica cuando y tienen padres comunes, excepto que primero se debe condicionar a esos padres. Se han desarrollado algoritmos para determinar sistemáticamente el esqueleto del gráfico subyacente y, luego, orientar todas las flechas cuya direccionalidad está dictada por las independencias condicionales observadas. [2] [8] [9] [10]

Un método alternativo de aprendizaje estructural utiliza la búsqueda basada en optimización. Requiere una función de puntuación y una estrategia de búsqueda. Una función de puntuación común es la probabilidad posterior de la estructura dados los datos de entrenamiento, como el BIC o el BDeu. El requerimiento de tiempo de una búsqueda exhaustiva que devuelva una estructura que maximice la puntuación es superexponencial en el número de variables. Una estrategia de búsqueda local realiza cambios incrementales destinados a mejorar la puntuación de la estructura. Un algoritmo de búsqueda global como la cadena de Markov Monte Carlo puede evitar quedar atrapado en mínimos locales . Friedman et al. [11] [12] analizan el uso de información mutua entre variables y la búsqueda de una estructura que maximice esto. Lo hacen restringiendo el conjunto de candidatos principales a k nodos y buscando exhaustivamente en ellos.

Un método particularmente rápido para el aprendizaje exacto de BN es plantear el problema como un problema de optimización y resolverlo mediante programación entera . Las restricciones de aciclicidad se agregan al programa de números enteros (IP) durante la resolución en forma de planos de corte . [13] Este método puede manejar problemas con hasta 100 variables.

Para abordar problemas con miles de variables, es necesario un enfoque diferente. Una es muestrear primero un orden y luego encontrar la estructura BN óptima con respecto a ese orden. Esto implica trabajar en el espacio de búsqueda de los posibles ordenamientos, lo cual es conveniente ya que es más pequeño que el espacio de las estructuras de red. Luego se muestrean y evalúan varios pedidos. Se ha demostrado que este método es el mejor disponible en la literatura cuando el número de variables es enorme. [14]

Otro método consiste en centrarse en la subclase de modelos descomponibles, para los cuales los MLE tienen una forma cerrada. Entonces es posible descubrir una estructura consistente para cientos de variables. [15]

Es necesario aprender redes bayesianas con un ancho de árbol acotado para permitir una inferencia exacta y manejable, ya que la complejidad de la inferencia en el peor de los casos es exponencial en el ancho del árbol k (según la hipótesis del tiempo exponencial). Sin embargo, como propiedad global del gráfico, aumenta considerablemente la dificultad del proceso de aprendizaje. En este contexto, es posible utilizar K-tree para un aprendizaje eficaz. [dieciséis]

Introducción estadística

Dados los datos y los parámetros , un análisis bayesiano simple comienza con una probabilidad previa ( prior ) y una probabilidad para calcular una probabilidad posterior .

Muchas veces el a priori depende a su vez de otros parámetros que no se mencionan en la verosimilitud. Por lo tanto, el prior debe ser reemplazado por una probabilidad , y se requiere un prior en los parámetros recién introducidos , lo que resulta en una probabilidad posterior.

Este es el ejemplo más simple de un modelo Bayes jerárquico .

El proceso puede repetirse; por ejemplo, los parámetros pueden depender a su vez de parámetros adicionales , que requieren su propio previo. Eventualmente el proceso debe terminar, con antecedentes que no dependen de parámetros no mencionados.

Ejemplos introductorios

Dadas las cantidades medidas , cada una con errores distribuidos normalmente de desviación estándar conocida ,

Supongamos que estamos interesados ​​en estimar el . Un enfoque sería estimar el uso de un enfoque de máxima verosimilitud ; dado que las observaciones son independientes, la probabilidad se factoriza y la estimación de máxima verosimilitud es simplemente

Sin embargo, si las cantidades están relacionadas, de modo que, por ejemplo, los propios individuos han sido extraídos de una distribución subyacente, entonces esta relación destruye la independencia y sugiere un modelo más complejo, por ejemplo,

con antecedentes indebidos , . Cuando , se trata de un modelo identificado (es decir, existe una solución única para los parámetros del modelo), y las distribuciones posteriores del individuo tenderán a moverse o alejarse de las estimaciones de máxima verosimilitud hacia su media común. Esta contracción es un comportamiento típico en los modelos jerárquicos de Bayes.

Restricciones a los antecedentes

Se necesita cierto cuidado al elegir prioridades en un modelo jerárquico, particularmente en variables de escala en niveles superiores de la jerarquía, como la variable del ejemplo. Las prioridades habituales, como la de Jeffreys, a menudo no funcionan, porque la distribución posterior no será normalizable y las estimaciones realizadas minimizando la pérdida esperada serán inadmisibles .

Definiciones y conceptos

Se han ofrecido varias definiciones equivalentes de una red bayesiana. Para lo siguiente, sea G = ( V , E ) un gráfico acíclico dirigido (DAG) y sea X = ( X v ), vV un conjunto de variables aleatorias indexadas por V .

Definición de factorización

X es una red bayesiana con respecto a G si su función de densidad de probabilidad conjunta (con respecto a una medida del producto ) se puede escribir como un producto de las funciones de densidad individuales, condicionada a sus variables principales: [17]

donde pa( v ) es el conjunto de padres de v (es decir, aquellos vértices que apuntan directamente a v a través de un solo borde).

Para cualquier conjunto de variables aleatorias, la probabilidad de cualquier miembro de una distribución conjunta se puede calcular a partir de probabilidades condicionales utilizando la regla de la cadena (dado un orden topológico de X ) de la siguiente manera: [17]

Usando la definición anterior, esto se puede escribir como:

La diferencia entre las dos expresiones es la independencia condicional de las variables de cualquiera de sus no descendientes, dados los valores de sus variables principales.

Propiedad local de Markov

X es una red bayesiana con respecto a G si satisface la propiedad local de Markov : cada variable es condicionalmente independiente de sus no descendientes dadas sus variables principales: [18]

donde de( v ) es el conjunto de descendientes y V  \ de( v ) es el conjunto de no descendientes de v .

Esto se puede expresar en términos similares a la primera definición, como

El conjunto de padres es un subconjunto del conjunto de no descendientes porque la gráfica es acíclica .

Desarrollo de redes bayesianas

El desarrollo de una red bayesiana a menudo comienza con la creación de un DAG G tal que X satisfaga la propiedad local de Markov con respecto a G. A veces este es un DAG causal . Se evalúan las distribuciones de probabilidad condicional de cada variable dados sus padres en G. En muchos casos, en particular cuando las variables son discretas, si la distribución conjunta de X es el producto de estas distribuciones condicionales, entonces X es una red bayesiana con respecto a G. [19]

manta de markov

La manta de Markov de un nodo es el conjunto de nodos que consta de sus padres, sus hijos y cualquier otro padre de sus hijos. La manta de Markov hace que el nodo sea independiente del resto de la red; La distribución conjunta de las variables en el manto de Markov de un nodo es conocimiento suficiente para calcular la distribución del nodo. X es una red bayesiana con respecto a G si cada nodo es condicionalmente independiente de todos los demás nodos de la red, dada su manta de Markov . [18]

d -separación

Esta definición se puede hacer más general definiendo la separación "d" de dos nodos, donde d significa direccional. [2] Primero definimos la separación "d" de un sendero y luego definiremos la separación "d" de dos nodos en términos de eso.

Sea P un camino desde el nodo u hasta v . Un camino es un camino sin bucles y no dirigido (es decir, se ignoran todas las direcciones de los bordes) entre dos nodos. Entonces se dice que P está d -separado por un conjunto de nodos Z si se cumple alguna de las siguientes condiciones:

Los nodos u y v están separados por d por Z si todos los caminos entre ellos están separados por d . Si u y v no están separados por d, están conectados por d.

X es una red bayesiana con respecto a G si, para dos nodos cualesquiera u , v :

donde Z es un conjunto que d -separa u y v . (La manta de Markov es el conjunto mínimo de nodos que separa el nodo v de todos los demás nodos).

Redes causales

Aunque las redes bayesianas se utilizan a menudo para representar relaciones causales , este no tiene por qué ser el caso: un borde dirigido de u a v no requiere que X v sea causalmente dependiente de X u . Esto se demuestra por el hecho de que las redes bayesianas en los gráficos:

son equivalentes: es decir, imponen exactamente los mismos requisitos de independencia condicional.

Una red causal es una red bayesiana con el requisito de que las relaciones sean causales. La semántica adicional de las redes causales especifica que si se hace que un nodo X esté activamente en un estado dado x (una acción escrita como hacer ( X  =  x )), entonces la función de densidad de probabilidad cambia a la de la red obtenida al cortar el enlaces de los padres de X a X y estableciendo X en el valor causado x . [2] Utilizando esta semántica, se puede predecir el impacto de las intervenciones externas a partir de datos obtenidos antes de la intervención.

Complejidad de inferencia y algoritmos de aproximación.

En 1990, mientras trabajaba en la Universidad de Stanford en grandes aplicaciones bioinformáticas, Cooper demostró que la inferencia exacta en redes bayesianas es NP-dura . [20] Este resultado impulsó la investigación sobre algoritmos de aproximación con el objetivo de desarrollar una aproximación manejable a la inferencia probabilística. En 1993, Paul Dagum y Michael Luby demostraron dos resultados sorprendentes sobre la complejidad de la aproximación de la inferencia probabilística en redes bayesianas. [21] Primero, demostraron que ningún algoritmo determinista manejable puede aproximarse a la inferencia probabilística dentro de un error absoluto ɛ  < 1/2. En segundo lugar, demostraron que ningún algoritmo aleatorio manejable puede aproximarse a la inferencia probabilística dentro de un error absoluto ɛ  < 1/2 con una probabilidad de confianza mayor que 1/2.

Casi al mismo tiempo, Roth demostró que la inferencia exacta en redes bayesianas es de hecho #P-completa (y por lo tanto tan difícil como contar el número de asignaciones satisfactorias de una fórmula de forma normal conjuntiva (CNF)) y que la inferencia aproximada dentro de un factor 2 n 1− ɛ para cada ɛ > 0, incluso para redes bayesianas con arquitectura restringida, es NP-duro. [22] [23]

En términos prácticos, estos resultados de complejidad sugirieron que, si bien las redes bayesianas eran representaciones ricas para aplicaciones de inteligencia artificial y aprendizaje automático, su uso en grandes aplicaciones del mundo real debería verse atenuado por restricciones estructurales topológicas, como redes Bayes ingenuas, o por restricciones. sobre las probabilidades condicionales. El algoritmo de varianza acotada [24] desarrollado por Dagum y Luby fue el primer algoritmo de aproximación rápida demostrable para aproximar eficientemente la inferencia probabilística en redes bayesianas con garantías sobre la aproximación del error. Este poderoso algoritmo requería que la restricción menor de las probabilidades condicionales de la red bayesiana estuviera acotada desde cero y uno por dónde estaba cualquier polinomio del número de nodos en la red .

Software

El software notable para redes bayesianas incluye:

Historia

El término red bayesiana fue acuñado por Judea Pearl en 1985 para enfatizar: [26]

A finales de la década de 1980, el Razonamiento probabilístico en sistemas inteligentes de Pearl [28] y el Razonamiento probabilístico en sistemas expertos de Napolitan [29] resumieron sus propiedades y las establecieron como un campo de estudio.

Ver también

Notas

  1. ^ Ruggeri, Fabrizio; Kenett, Ron S.; Faltin, Frederick W., eds. (14 de diciembre de 2007). Enciclopedia de estadísticas en calidad y confiabilidad (1 ed.). Wiley. pag. 1. doi : 10.1002/9780470061572.eqr089. ISBN 978-0-470-01861-3.
  2. ^ abcde Perla, Judea (2000). Causalidad: modelos, razonamiento e inferencia. Prensa de la Universidad de Cambridge . ISBN 978-0-521-77362-1. OCLC  42291253.
  3. ^ "El criterio de la puerta trasera" (PDF) . Consultado el 18 de septiembre de 2014 .
  4. ^ "d-Separación sin lágrimas" (PDF) . Consultado el 18 de septiembre de 2014 .
  5. ^ Perla J (1994). "Un cálculo probabilístico de acciones". En López de Mantaras R, Poole D (eds.). UAI'94 Actas de la Décima Conferencia Internacional sobre Incertidumbre en Inteligencia Artificial . San Mateo CA: Morgan Kaufmann . págs. 454–462. arXiv : 1302.6835 . Código Bib : 2013arXiv1302.6835P. ISBN 1-55860-332-8.
  6. ^ Shpitser I, Pearl J (2006). "Identificación de Distribuciones Intervencionistas Condicionales". En Dechter R, Richardson TS (eds.). Actas de la XXII Conferencia sobre la incertidumbre en la inteligencia artificial . Corvallis, Oregón: AUAI Press. págs. 437–444. arXiv : 1206.6876 .
  7. ^ Rebane G, Perla J (1987). "La recuperación de poliárboles causales a partir de datos estadísticos". Actas, 3er taller sobre incertidumbre en IA . Seattle, WA. págs. 222-228. arXiv : 1304.2736 .{{cite book}}: CS1 maint: location missing publisher (link)
  8. ^ Espíritus P, Glymour C (1991). "Un algoritmo para la recuperación rápida de gráficos causales dispersos" (PDF) . Revisión de informática de ciencias sociales . 9 (1): 62–72. CiteSeerX 10.1.1.650.2922 . doi :10.1177/089443939100900106. S2CID  38398322. 
  9. ^ Spirtes P, Glymour CN, Scheines R (1993). Causación, predicción y búsqueda (1ª ed.). Springer-Verlag. ISBN 978-0-387-97979-3.
  10. ^ Verma T, Perla J (1991). "Equivalencia y síntesis de modelos causales". En Bonissone P, Henrion M, Kanal LN, Lemmer JF (eds.). Actas de la UAI '90 de la Sexta Conferencia Anual sobre Incertidumbre en Inteligencia Artificial . Elsevier. págs. 255–270. ISBN 0-444-89264-8.
  11. ^ Friedman N, Geiger D, Goldszmidt M (noviembre de 1997). "Clasificadores de redes bayesianas". Aprendizaje automático . 29 (2–3): 131–163. doi : 10.1023/A:1007465528199 .
  12. ^ Friedman N, Linial M, Nachman I, Pe'er D (agosto de 2000). "Uso de redes bayesianas para analizar datos de expresión". Revista de biología computacional . 7 (3–4): 601–20. CiteSeerX 10.1.1.191.139 . doi :10.1089/106652700750050961. PMID  11108481. 
  13. ^ Cussens J (2011). "Aprendizaje de redes bayesianas con planos de corte" (PDF) . Actas de la 27ª Conferencia Anual sobre la incertidumbre en la inteligencia artificial : 153–160. arXiv : 1202.3713 . Código Bib : 2012arXiv1202.3713C.
  14. ^ Scanagatta M, de Campos CP, Corani G, Zaffalon M (2015). "Aprendizaje de redes bayesianas con miles de variables". NIPS-15: Avances en sistemas de procesamiento de información neuronal . vol. 28. Asociados Curran. págs. 1855–1863.
  15. ^ Petitjean F, Webb GI, Nicholson AE (2013). Escalado del análisis log-lineal a datos de alta dimensión (PDF) . Congreso Internacional sobre Minería de Datos. Dallas, TX, Estados Unidos: IEEE.
  16. ^ M. Scanagatta, G. Corani, CP de Campos y M. Zaffalon. Aprendizaje de redes bayesianas delimitadas por ancho de árbol con miles de variables. En NIPS-16: Avances en los sistemas de procesamiento de información neuronal 29, 2016.
  17. ^ ab Russell y Norvig 2003, pág. 496.
  18. ^ ab Russell y Norvig 2003, pág. 499.
  19. ^ RE napolitano (2004). Aprendizaje de redes bayesianas. Prentice Hall. ISBN 978-0-13-012534-7.
  20. ^ Cooper GF (1990). "La complejidad computacional de la inferencia probabilística utilizando redes de creencias bayesianas" (PDF) . Inteligencia artificial . 42 (2–3): 393–405. doi :10.1016/0004-3702(90)90060-d. S2CID  43363498.
  21. ^ Dagum P, Luby M (1993). "La aproximación a la inferencia probabilística en redes de creencias bayesianas es NP-difícil". Inteligencia artificial . 60 (1): 141-153. CiteSeerX 10.1.1.333.1586 . doi :10.1016/0004-3702(93)90036-b. 
  22. ^ D. Roth, Sobre la dureza del razonamiento aproximado, IJCAI (1993)
  23. ^ D. Roth, Sobre la dureza del razonamiento aproximado, Inteligencia artificial (1996)
  24. ^ Dagum P, Luby M (1997). "Un algoritmo de aproximación óptimo para la inferencia bayesiana". Inteligencia artificial . 93 (1–2): 1–27. CiteSeerX 10.1.1.36.7946 . doi :10.1016/s0004-3702(97)00013-1. Archivado desde el original el 6 de julio de 2017 . Consultado el 19 de diciembre de 2015 . 
  25. ^ Hoffman, Mateo D.; Gelman, Andrés (2011). "El muestreador sin giro en U: establecimiento adaptativo de longitudes de camino en el Monte Carlo hamiltoniano". arXiv : 1111.4246 [estad.CO].
  26. ^ Perla J (1985). Redes bayesianas: un modelo de memoria autoactivada para el razonamiento probatorio (Informe técnico de UCLA CSD-850017) . Actas de la Séptima Conferencia de la Sociedad de Ciencias Cognitivas, Universidad de California, Irvine, CA. págs. 329–334 . Consultado el 1 de mayo de 2009 .
  27. ^ Bayes T , Precio (1763). "Un ensayo para la solución de un problema en la doctrina de las posibilidades" . Transacciones filosóficas de la Royal Society . 53 : 370–418. doi : 10.1098/rstl.1763.0053 .
  28. ^ Perla J (15 de septiembre de 1988). Razonamiento probabilístico en sistemas inteligentes. San Francisco CA: Morgan Kaufmann . pag. 1988.ISBN 978-1-55860-479-7.
  29. ^ RE napolitano (1989). Razonamiento probabilístico en sistemas expertos: teoría y algoritmos. Wiley. ISBN 978-0-471-61840-9.

Referencias

Una versión anterior aparece como Microsoft Research , 1 de marzo de 1995. El artículo trata sobre el aprendizaje de parámetros y estructuras en redes bayesianas.

Otras lecturas

enlaces externos