e s t a d o
Donde pi es la probabilidad del estado i, εi la energía del estado i, k la constante de Boltzmann, T la temperatura del sistema y M es el número de estados accesibles al sistema.
[3] La suma es sobre todos los estados accesibles a el sistema de interés.
La distribución fu posteriormente investigada amplia mente, en su forma moderna, por Josiah Willard Gibbs en 1902.
Cuando se aplica a partículas como átomos o moléculas, que muestra la distribución de partículas sobre los estados de energía.
Donde pi es la probabilidad del estado i, εi la energía de estado i, k la constante de Boltzmann, T la temperatura del sistema y M es el número de todos los estados accesibles al sistema.
[2][3] La suma es sobre todos los estados accesibles a el sistema de interés.
El denominador en la ecuación anterior también se conoce como la función de partición canónica, comúnmente representado por Q (o por algunos autores como Z).
Por lo tanto, la distribución de Boltzman también se puede escribir como:
[5] La distribución muestra que los estados con menor energía siempre tendrán una mayor probabilidad de estar ocupados que los estados con mayor energía.
También nos puede dar la relación cuantitativa entre las probabilidades de los dos estados que están ocupados.
Donde pi es la probabilidad del estado i, pj la probabilidad del estado j, y εi y εi son las energías de los estados i y j, respectivamente.
La distribución es a menudo utilizada para describir la distribución de partículas, como átomos o moléculas, sobre los estados de energía accesibles a ellos.
Si tenemos un sistema compuesto de muchas partículas, la probabilidad de que una partícula esté en el estado i es prácticamente la probabilidad de que, si elegimos una partícula al azar de ese sistema y comprobáramos en que estado se encuentra, nos encontraremos que se está en el estado i.
Esta probabilidad es igual al número de partículas en el estado i dividió por el número total de partículas en el sistema, es decir la fracción de partículas que ocupan el estado i.
Donde Ni es el número de partículas en el estado i y N es el número total de partículas en el sistema.
Podemos utilizar la distribución de Boltzmann para encontrar esta probabilidad que es, como hemos visto, iguales a la fracción de partículas que se encuentran en el estado i.
Esta ecuación es de gran importancia para la espectroscopia.
En espectroscopia observamos una línea espectral si átomos o moléculas que estamos interesados van de un estado a otro.
[3][6] Para que esto sea posible, debe haber algunas partículas en el primer estado que se someten a la transición.
Podemos encontrar que esta condición se cumple mediante la búsqueda de la fracción de partículas en el primar estado.
En general, una mayor fracción de las moléculas en el primer estado significa un número mayor de transiciones en el segundo estado.
[7] Esto da una línea espectral más fuerte.
sin embargo, hay otros factores que influyen en la intensidad de una línea espectral, como si es causado por una transición prohibida.
En el contexto de la inteligencia artificial, un sistema estocástico es un sistema que se caracteriza por tener un comportamiento aleatorio o incierto.
Por ejemplo, un sistema de aprendizaje automático puede ser considerado un sistema estocástico si utiliza datos aleatorios para aprender y hacer predicciones.
Esto se debe a que, en un sistema en equilibrio térmico, la energía está distribuida de manera uniforme entre todos los estados o configuraciones posibles, lo que maximiza la entropía.
La distribución de Boltzmann se puede expresar matemáticamente como:
El la distribución de Boltzmann aparece en la mecánica estadística cuando se examinan los sistemas aislados (o casi-aislados) de composición fija que se encuentran en equilibrio térmico (equilibrio con respecto al intercambio de energía).
En estadística y aprendizaje automático se llama un registro-modelo lineal.