En mecánica estadística , el algoritmo de Gibbs , introducido por J. Willard Gibbs en 1902, es un criterio para elegir una distribución de probabilidad para el conjunto estadístico de microestados de un sistema termodinámico minimizando la probabilidad logarítmica promedio.
sujeto a la distribución de probabilidad p i que satisface un conjunto de restricciones (normalmente valores esperados) correspondientes a las cantidades macroscópicas conocidas. [1] en 1948, Claude Shannon interpretó el negativo de esta cantidad, que llamó entropía de la información , como una medida de la incertidumbre en una distribución de probabilidad. [1] En 1957, ET Jaynes se dio cuenta de que esta cantidad podía interpretarse como información faltante sobre cualquier cosa, y generalizó el algoritmo de Gibbs a sistemas de no equilibrio con el principio de máxima entropía y la termodinámica de máxima entropía . [1]
Los físicos denominan al resultado de aplicar el algoritmo de Gibbs distribución de Gibbs para las restricciones dadas, en particular el gran conjunto canónico de Gibbs para sistemas abiertos cuando se dan la energía promedio y el número promedio de partículas. (Véase también función de partición ).
Este resultado general del algoritmo de Gibbs es entonces una distribución de probabilidad de máxima entropía . Los estadísticos identifican tales distribuciones como pertenecientes a familias exponenciales .