Termodinámica de máxima entropía
Estas técnicas son pertinentes para situaciones que requieren la extrapolacion de datos incompletos o insuficientes (por ejemplo, la reconstrucción de imágenes, el procesamiento de ciertas señales, los análisis espectrales y problemas inversos).La termodinámica MaxEnt comenzó con dos trabajos de Edwin T. Jaynes publicados en el Physical Review en 1957.Selecciona una distribución de probabilidad preferida para representar dicho modelo.Los datos así presentados apuntan a una "información comprobable"[3][4] relacionada con la distribución de probabilidad, por ejemplo valores de expectativas particulares, sin que sean en sí mismos suficientes para determinarlo de manera exclusiva.El principio establece que se debe preferir la distribución que maximiza la entropía de información de Shannon.En 1878, Josiah Willard Gibbs presentó un algoritmo para establecer conjuntos estadísticos capaces de predecir las propiedades de sistemas termodinámicos en equilibrio.kB, la constante de Boltzmann, no tiene significado físico fundamental en la ecuación, pero es necesaria para mantener la coherencia con la definición histórica de entropía hecha por Clausius en 1865.Sin embargo, la escuela a favor de la tesis MaxEnt argumenta que este enfoque es una técnica general de la inferencia estadística, con aplicaciones mucho mayores.Pero puede ser usada para predecir características de sistemas termodinámicos de no equilibrio a medida que estos evolucionan con el tiempo.Para los escenarios del no equilibrio, cuando las aproximación suponen un estado de equilibrio termodinámico local enfocado en una máxima entropía, las relaciones recíprocas de Onsager y las relaciones de Green-Kubo caen en desacuerdo directo.Para los procesos de no equilibrio, como lo es para las descripciones macroscópicas, una definición general de la entropía para cálculos mecánicos estadísticos microscópicos también es deficiente.En su lugar la cantidad apropiada para maximizar es la "información de entropía relativa,"