Clasificador bayesiano ingenuo

Es a causa de estas simplificaciones, que se suelen resumir en la hipótesis de independencia entre las variables predictoras, que recibe el apelativo de naive, es decir, ingenuo.En términos simples, un clasificador de Naive Bayes asume que la presencia o ausencia de una característica particular no está relacionada con la presencia o ausencia de cualquier otra característica, dada la clase variable.En muchas aplicaciones prácticas, la estimación de parámetros para los modelos Naive Bayes utiliza el método de máxima verosimilitud, en otras palabras, se puede trabajar con el modelo de Naive Bayes sin aceptar probabilidad bayesiana o cualquiera de los métodos bayesianos.En abstracto, el modelo de probabilidad para un clasificador es sobre una variable dependiente, con un pequeño número de resultados (o clases).de variables independientes es grande (o cuando éstas pueden tomar muchos valores), entonces basar este modelo en tablas de probabilidad se vuelve imposible.Por lo tanto el modelo se reformula para hacerlo más manejable: Usando el teorema de Bayes se escribe: Lo anterior podría reescribirse en lenguaje común como: En la práctica solo importa el numerador, ya que el denominador no depende deson datos, por lo que el denominador es, en la práctica, constante.El numerador es equivalente a una probabilidad compuesta: que puede ser reescrita como sigue, aplicando repetidamente la definición de probabilidad condicional:Ahora es cuando el supuesto "naïve" de independencia condicional entra en juego: se asume que cadasobre las variables clasificatorias puede expresarse de la siguiente manera: dondeTodos los parámetros del modelo (por ejemplo, clases prioris y características de las distribuciones de probabilidad) se puede aproximar con frecuencias relativas del conjunto de entrenamiento.Cuando se trata con los datos continuos, una hipótesis típica es que los valores continuos asociados con cada clase se distribuyen según una Distribución normal.Por ejemplo, supongamos que los datos de entrenamiento contienen un atributo continuo,Naive Bayes se utiliza normalmente cuando hay disponible una gran cantidad de datos (los modelos computacionales más caros pueden lograr una mayor precisión), se prefiere generalmente el método de discretización que el método de distribución.Esto es un problema, ya que acabará con toda la información de las otras probabilidades cuando se multiplican.Por lo tanto a menudo es necesario incorporar una pequeña corrección de muestreo, llamada pseudocontador con toda la probabilidad estimada, de tal manera que no hay probabilidad alguna para que dé exactamente cero.El clasificador Naive Bayes combina este modelo con una regla de decisión.La primera regla en común, es para recoger la hipótesis del más probable, también conocido como el máximo a posteriori o MAP.) se define como: A pesar del hecho de que los clasificadores con mayor alcance son a menudo exactos, el clasificador de Naive Bayes tiene varias propiedades que lo hacen sorprendentemente útil en la práctica.Mientras Naive Bayes a menudo falla a la hora de producir una buena estimación de las probabilidades de clase, puede no ser un requisito para muchas otras aplicaciones.Por ejemplo, el Naive Bayes realiza correctamente la regla de clasificación del MAP de decisión tanto como mayor sea la probabilidad de la clase correcta respecto a las demás clases.De esta manera, el clasificador general puede ser lo suficientemente robusto como para ignorar deficiencias graves en su modelo de probabilidad ingenua subyacente como el Cano.Problema: Clasificar una persona en hombre o mujer basándonos en las características de sus medidas: peso, altura y número de pie.En este caso nos encontramos en una distribución equiprobable, es decir que tienen la misma probabilidad.Ahora recibimos unos datos para ser clasificado como hombre o mujer Ahora nos interesa saber la probabilidad a posteriori de los dos casos, según es hombre o mujer.hombre mujer La evidencia (también denominada constante de normalización) se puede calcular:En este caso nos encontramos en una distribución equiprobable, es decir que tienen la misma probabilidad.son los parámetros de la distribución normal que han sido determinados previamente en el entrenamiento .En este caso el numerador a posteriori más grande es el de la mujer, por eso determinamos que los datos son de mujer.
Red Naive-Bayes basada en un conjunto de datos de 'corral'