stringtranslate.com

Entropía (orden y desorden)

Moléculas de Boltzmann (1896) mostradas en una "posición de reposo" en un sólido

En termodinámica , la entropía a menudo se asocia con la cantidad de orden o desorden en un sistema termodinámico . Esto se deriva de la afirmación de Rudolf Clausius de 1862 de que cualquier proceso termodinámico siempre "admite reducirse [reducción] a la alteración de una forma u otra de la disposición de las partes constituyentes del cuerpo de trabajo " y que el trabajo interno asociado con estas alteraciones es cuantificado energéticamente mediante una medida de cambio de "entropía", según la siguiente expresión diferencial : [1]

donde Q = energía motriz ("calor") que se transfiere reversiblemente al sistema desde el entorno y T = la temperatura absoluta a la que se produce la transferencia.

En los años siguientes, Ludwig Boltzmann tradujo estas "alteraciones de disposición" en una visión probabilística del orden y el desorden en los sistemas moleculares en fase gaseosa . En el contexto de la entropía, a menudo se ha considerado que el " desorden interno perfecto " describe el equilibrio termodinámico, pero como el concepto termodinámico está tan lejos del pensamiento cotidiano, el uso del término en física y química ha causado mucha confusión y malentendidos.

En los últimos años, para interpretar el concepto de entropía, describiendo con más detalle las "alteraciones de la disposición", se ha pasado de las palabras "orden" y "desorden" a palabras como "propagación" y "dispersión" .

Historia

Esta perspectiva de la entropía del "ordenamiento molecular" tiene sus orígenes en las interpretaciones del movimiento molecular desarrolladas por Rudolf Clausius en la década de 1850, particularmente con su concepción visual de 1862 de la disgregación molecular . De manera similar, en 1859, después de leer un artículo de Clausius sobre la difusión de moléculas, el físico escocés James Clerk Maxwell formuló la distribución de Maxwell de velocidades moleculares, que daba la proporción de moléculas que tenían una determinada velocidad en un rango específico. Esta fue la primera ley estadística en física. [2]

En 1864, Ludwig Boltzmann , un joven estudiante de Viena, se topó con el artículo de Maxwell y quedó tan inspirado que pasó gran parte de su larga y distinguida vida desarrollando más el tema. Más tarde, Boltzmann, en un esfuerzo por desarrollar una teoría cinética para el comportamiento de un gas, aplicó las leyes de la probabilidad a la interpretación molecular de la entropía de Maxwell y Clausius para comenzar a interpretar la entropía en términos de orden y desorden. De manera similar, en 1882 Hermann von Helmholtz utilizó la palabra "Unordnung" (desorden) para describir la entropía. [3]

Descripción general

Para resaltar el hecho de que comúnmente se entiende que el orden y el desorden se miden en términos de entropía, a continuación se encuentran las definiciones de entropía actuales de las enciclopedias científicas y los diccionarios científicos:

La entropía y el desorden también tienen asociaciones con el equilibrio . [8] Técnicamente, la entropía , desde esta perspectiva, se define como una propiedad termodinámica que sirve como medida de qué tan cerca está un sistema del equilibrio, es decir, del desorden interno perfecto . [9] Asimismo, el valor de la entropía de una distribución de átomos y moléculas en un sistema termodinámico es una medida del desorden en la disposición de sus partículas. [10] En una pieza de caucho estirada, por ejemplo, la disposición de las moléculas de su estructura tiene una distribución "ordenada" y tiene entropía cero, mientras que la distribución retorcida "desordenada" de los átomos y moléculas en el caucho en el El estado no estirado tiene entropía positiva. De manera similar, en un gas, el orden es perfecto y la medida de entropía del sistema tiene su valor más bajo cuando todas las moléculas están en un lugar, mientras que cuanto más puntos están ocupados el gas es tanto más desordenado y la medida de la entropía del sistema tiene su mayor valor. [10]

En ecología de sistemas , como otro ejemplo, la entropía de una colección de elementos que componen un sistema se define como una medida de su desorden o, de manera equivalente, la probabilidad relativa de la configuración instantánea de los elementos. [11] Además, según el ecólogo teórico e ingeniero químico Robert Ulanowicz , "que la entropía podría proporcionar una cuantificación de la noción hasta ahora subjetiva de desorden ha generado innumerables narrativas científicas y filosóficas". [11] [12] En particular, muchos biólogos han empezado a hablar en términos de la entropía de un organismo, o de su antónimo negentropía , como una medida del orden estructural dentro de un organismo. [11]

La base matemática con respecto a la asociación que la entropía tiene con el orden y el desorden comenzó, esencialmente, con la famosa fórmula de Boltzmann , que relaciona la entropía S con el número de estados posibles W en los que se puede encontrar un sistema. [13] Como ejemplo, considere un cuadro que está dividido en dos secciones. ¿Cuál es la probabilidad de que un cierto número, o todas las partículas, se encuentren en una sección versus en la otra cuando las partículas se asignan aleatoriamente a diferentes lugares dentro de la caja? Si solo tienes una partícula, entonces ese sistema de una partícula puede subsistir en dos estados, un lado de la caja versus el otro. Si tiene más de una partícula, o define los estados como subdivisiones de ubicación adicionales de la caja, la entropía es mayor porque el número de estados es mayor. La relación entre entropía, orden y desorden en la ecuación de Boltzmann es tan clara entre los físicos que, según las opiniones de los ecologistas termodinámicos Sven Jorgensen y Yuri Svirezhev, "es obvio que la entropía es una medida del orden o, más probablemente, del desorden en el sistema." [13] En esta dirección, la segunda ley de la termodinámica, famosamente enunciada por Rudolf Clausius en 1865, establece que:

La entropía del universo tiende a un máximo.

Por lo tanto, si la entropía está asociada con el desorden y si la entropía del universo se dirige hacia la entropía máxima, entonces muchos a menudo se quedan perplejos en cuanto a la naturaleza del proceso de "ordenamiento" y la operación de la evolución en relación con la versión más famosa de Clausius del segunda ley, que establece que el universo se dirige hacia el máximo "desorden". En el reciente libro de 2003 SYNC – the Emerging Science of Spontaneous Order de Steven Strogatz , por ejemplo, encontramos que "Los científicos a menudo se han sentido desconcertados por la existencia de un orden espontáneo en el universo. Las leyes de la termodinámica parecen dictar lo contrario, que la naturaleza "Debería degenerar inexorablemente hacia un estado de mayor desorden, mayor entropía. Sin embargo, a nuestro alrededor vemos estructuras magníficas (galaxias, células, ecosistemas, seres humanos) que de alguna manera han logrado ensamblarse". [14]

El argumento común utilizado para explicar esto es que, a nivel local, la entropía puede reducirse mediante una acción externa, por ejemplo, la acción del calentamiento solar, y que esto se aplica a máquinas, como un refrigerador, donde la entropía en la cámara fría se reduce, para aumentar la entropía. cristales y a los organismos vivos. [9] Sin embargo, este aumento local del orden sólo es posible a expensas de un aumento de entropía en el entorno; Aquí hay que crear más desorden. [9] [15] El condicionante de esta afirmación es suficiente con que los sistemas vivos son sistemas abiertos en los que tanto el calor como la masa o el trabajo pueden transferirse hacia o desde el sistema. A diferencia de la temperatura, la supuesta entropía de un sistema vivo cambiaría drásticamente si el organismo estuviera termodinámicamente aislado. Si un organismo estuviera en este tipo de situación "aislada", su entropía aumentaría notablemente a medida que los componentes del organismo que alguna vez estuvieron vivos se descompusieran hasta convertirse en una masa irreconocible. [11]

Cambio de fase

Debido a estos primeros desarrollos, el ejemplo típico de cambio de entropía Δ S es el asociado con el cambio de fase. En los sólidos, por ejemplo, que normalmente están ordenados en la escala molecular, generalmente tienen una entropía menor que los líquidos, y los líquidos tienen una entropía menor que los gases y los gases más fríos tienen una entropía menor que los gases más calientes. Además, según la tercera ley de la termodinámica , a temperatura del cero absoluto , se estima que las estructuras cristalinas tienen un "orden" perfecto y una entropía cero. Esta correlación se produce porque el número de diferentes estados microscópicos de energía cuántica disponibles para un sistema ordenado suele ser mucho menor que el número de estados disponibles para un sistema que parece estar desordenado.

A partir de sus famosas Conferencias sobre teoría de los gases de 1896 , Boltzmann diagrama la estructura de un cuerpo sólido, como se muestra arriba, postulando que cada molécula del cuerpo tiene una "posición de reposo". Según Boltzmann, si se acerca a una molécula vecina es repelida por ésta, pero si se aleja hay atracción. Ésta, por supuesto, fue una perspectiva revolucionaria en su época; muchos, durante estos años, no creían en la existencia ni de los átomos ni de las moléculas (ver: historia de la molécula ). [16] Según estos primeros puntos de vista, y otros como los desarrollados por William Thomson , si se agrega energía en forma de calor a un sólido, para convertirlo en líquido o gas, una descripción común es que el orden de los átomos y moléculas se vuelve más aleatoria y caótica con un aumento de temperatura:

Por lo tanto, según Boltzmann, debido al aumento del movimiento térmico, cada vez que se agrega calor a una sustancia de trabajo, la posición de reposo de las moléculas se separará, el cuerpo se expandirá y esto creará distribuciones y disposiciones de moléculas más desordenadas y molares. . Posteriormente, estos arreglos desordenados se correlacionan, a través de argumentos de probabilidad, con un aumento en la medida de la entropía. [17]

Orden impulsado por la entropía

Históricamente, por ejemplo Clausius y Helmholtz, la entropía ha sido asociada con el desorden. Sin embargo, en el habla común, el orden se utiliza para describir organización, regularidad estructural o forma, como la que se encuentra en un cristal en comparación con un gas. Esta noción común de orden se describe cuantitativamente en la teoría de Landau . En la teoría de Landau, el desarrollo del orden en el sentido cotidiano coincide con el cambio en el valor de una cantidad matemática, el llamado parámetro de orden . Un ejemplo de parámetro de orden para la cristalización es el "orden de orientación del enlace", que describe el desarrollo de direcciones preferidas (los ejes cristalográficos) en el espacio. Para muchos sistemas, las fases con más orden estructural (por ejemplo, cristalino) exhiben menos entropía que las fases fluidas en las mismas condiciones termodinámicas. En estos casos, etiquetar las fases como ordenadas o desordenadas según la cantidad relativa de entropía (según la noción de orden/desorden de Clausius/Helmholtz) o mediante la existencia de regularidad estructural (según la noción de orden/desorden de Landau) produce etiquetas coincidentes.

Sin embargo, existe una amplia clase [18] de sistemas que manifiestan un orden impulsado por la entropía, en los que las fases con organización o regularidad estructural, por ejemplo, los cristales, tienen una entropía mayor que las fases estructuralmente desordenadas (por ejemplo, fluidas) bajo las mismas condiciones termodinámicas. En estos sistemas, las fases que se etiquetarían como desordenadas en virtud de su mayor entropía (en el sentido de Clausius o Helmholtz) están ordenadas tanto en el sentido cotidiano como en la teoría de Landau.

En condiciones termodinámicas adecuadas, se ha predicho o descubierto que la entropía induce a los sistemas a formar cristales líquidos, cristales y cuasicristales ordenados. [19] [20] [21] En muchos sistemas, las fuerzas entrópicas direccionales impulsan este comportamiento. Más recientemente, se ha demostrado que es posible diseñar partículas con precisión para estructuras ordenadas objetivo. [22]

Desmagnetización adiabática

En la búsqueda de temperaturas ultrafrías, se utiliza una técnica de reducción de temperatura llamada desmagnetización adiabática , donde se utilizan consideraciones de entropía atómica que pueden describirse en términos de desorden de orden. [23] En este proceso, una muestra de sólido como la sal de cromo-alumen, cuyas moléculas son equivalentes a pequeños imanes, se encuentra dentro de un recinto aislado enfriado a una temperatura baja, típicamente 2 o 4 kelvin, con un fuerte campo magnético aplicado. al recipiente mediante un potente imán externo, de modo que los diminutos imanes moleculares queden alineados formando un estado "inicial" bien ordenado a esa baja temperatura. Esta alineación magnética significa que la energía magnética de cada molécula es mínima. [24] El campo magnético externo luego se reduce, una eliminación que se considera muy reversible . Después de esta reducción, los imanes atómicos adoptan orientaciones aleatorias menos ordenadas, debido a agitaciones térmicas, en el estado "final":

Consideraciones de "orden"/"desorden" de entropía en el proceso de desmagnetización adiabática

El "desorden" y por tanto la entropía asociada con el cambio en las alineaciones atómicas ha aumentado claramente. [23] En términos de flujo de energía, el movimiento desde un estado alineado magnéticamente requiere energía del movimiento térmico de las moléculas, convirtiendo la energía térmica en energía magnética. [24] Sin embargo, de acuerdo con la segunda ley de la termodinámica , debido a que ningún calor puede entrar o salir del contenedor, debido a su aislamiento adiabático, el sistema no debería exhibir ningún cambio en la entropía, es decir, Δ S = 0. Sin embargo, el aumento en el desorden , asociado con las direcciones aleatorias de los imanes atómicos representa un aumento de entropía ? Para compensar esto, el desorden (entropía) asociado con la temperatura de la muestra debe disminuir en la misma cantidad. [23] La temperatura cae así como resultado de este proceso de conversión de energía térmica en energía magnética. Si luego se aumenta el campo magnético, la temperatura aumenta y la sal magnética debe enfriarse nuevamente con un material frío como, por ejemplo, helio líquido. [24]

Dificultades con el término "trastorno"

En los últimos años, el uso prolongado del término "desorden" para hablar de entropía ha recibido algunas críticas. [25] [26] [27] [28] [29] [30] Los críticos de la terminología afirman que la entropía no es una medida de "desorden" o "caos", sino más bien una medida de la difusión o dispersión de la energía a más microestados. . El uso que hace Shannon del término "entropía" en la teoría de la información se refiere a la cantidad de código más comprimida o menos dispersa necesaria para abarcar el contenido de una señal. [31] [32] [33]

Ver también

Referencias

  1. ^ Teoría mecánica del calor : nueve memorias sobre el desarrollo del concepto de "entropía" por Rudolf Clausius [1850-1865]
  2. ^ Mahón, Basil (2003). El hombre que lo cambió todo: la vida de James Clerk Maxwell . Hoboken, Nueva Jersey: Wiley. ISBN 0-470-86171-1.
  3. ^ Anderson, Greg (2005). Termodinámica de los Sistemas Naturales . Prensa de la Universidad de Cambridge. ISBN 0-521-84772-9.
  4. ^ Diccionario Oxford de Ciencias , 2005
  5. ^ Diccionario Oxford de Química , 2004
  6. ^ Diccionario de ciencia esencial de Barnes & Noble , 2004
  7. ^ Enciclopedia de física de partículas de Gribbin , 2000
  8. ^ Landsberg, PT (1984). "¿El equilibrio es siempre un máximo de entropía?" J. estadística. Física 35: 159–69.
  9. ^ abc Microsoft Encarta 2006. © 1993–2005 Microsoft Corporation. Reservados todos los derechos.
  10. ^ ab Greven, Andreas; Keller, Gerhard; Warnercke, Gerald (2003). Entropía - Serie Princeton en Matemáticas Aplicadas . Prensa de la Universidad de Princeton. ISBN 0-691-11338-6.
  11. ^ abcd Ulanowicz, Robert, E. (2000). Crecimiento y Desarrollo – Fenomenología de los Ecosistemas . a Excel Presione. ISBN 0-595-00145-9.{{cite book}}: Mantenimiento CS1: varios nombres: lista de autores ( enlace )
  12. ^ Kubat, L.; Zeman, J. (1975). Entropía e Información en Ciencia y Filosofía . Elsevier.
  13. ^ ab Jorgensen, Sven E; Svirezhev, Yuri M (2004). Hacia una teoría termodinámica para sistemas ecológicos . Elsevier. ISBN 0-08-044167-X.
  14. ^ Strogatz, Steven (2003). La ciencia emergente del orden espontáneo . Theia. ISBN 0-7868-6844-9.
  15. ^ Brooks, Daniel, R.; Wiley, EO (1988). La entropía como evolución: hacia una teoría unificada de la biología . Prensa de la Universidad de Chicago. ISBN 0-226-07574-5.{{cite book}}: Mantenimiento CS1: varios nombres: lista de autores ( enlace )
  16. ^ Cercignani, Carlo (1998). Ludwig Boltzmann: el hombre que confiaba en los átomos . Prensa de la Universidad de Oxford. ISBN 978-0-19-850154-1.
  17. ^ Boltzmann, Ludwig (1896). Conferencias sobre teoría de los gases . Dover (reimprimir). ISBN 0-486-68455-5.
  18. ^ van Anders, Greg; Klotsa, Dafne; Ahmed, N. Khalid; Engel, Michael; Glotzer, Sharon C. (2014). "Comprensión de la entropía de la forma a través del empaquetamiento denso local". Proc Natl Acad Sci Estados Unidos . 111 (45): E4812–E4821. arXiv : 1309.1187 . Código Bib : 2014PNAS..111E4812V. doi : 10.1073/pnas.1418159111 . PMC 4234574 . PMID  25344532. 
  19. ^ Onsager, Lars (1949). "Los efectos de la forma sobre la interacción de partículas coloidales". Anales de la Academia de Ciencias de Nueva York . 51 (4): 627. Código bibliográfico : 1949NYASA..51..627O. doi :10.1111/j.1749-6632.1949.tb27296.x. S2CID  84562683.
  20. ^ Haji-Akbari, Amir; Engel, Michael; Claves, Aaron S.; Zheng, Xiaoyu; Petschek, Rolfe G.; Palffy-Muhoray, Peter; Glotzer, Sharon C. (2009). "Fases desordenadas, cuasicristalinas y cristalinas de tetraedros densamente empaquetados". Naturaleza . 462 (7274): 773–777. arXiv : 1012.5138 . Código Bib :2009Natur.462..773H. doi : 10.1038/naturaleza08641. PMID  20010683. S2CID  4412674.
  21. ^ Damasceno, Pablo F.; Engel, Michael; Glotzer, Sharon C. (2012). "Autoensamblaje predictivo de poliedros en estructuras complejas". Ciencia . 337 (6093): 453–457. arXiv : 1202.2177 . Código Bib : 2012 Ciencia... 337.. 453D. doi : 10.1126/ciencia.1220869. PMID  22837525. S2CID  7177740.
  22. ^ Geng, Yina; van Anders, Greg; Dodd, Paul M.; Dshemuchadse, Julia; Glotzer, Sharon C. (2019). "Ingeniería de entropía para el diseño inverso de cristales coloidales a partir de formas duras". Avances científicos . 5 (7): eeaw0514. arXiv : 1712.02471 . Código Bib : 2019SciA....5..514G. doi : 10.1126/sciadv.aaw0514. PMC 6611692 . PMID  31281885. 
  23. ^ a b C Halliday, David; Resnick, Robert (1988). Fundamentos de Física, ampliada 3ª ed . Wiley. ISBN 0-471-81995-6.
  24. ^ abc NASA - ¿Cómo funciona un refrigerador de desmagnetización adiabática?
  25. ^ Denbigh K. (1981). Los principios del equilibrio químico: con aplicaciones en química e ingeniería química . Londres: Cambridge University Press. págs. 55–56.
  26. ^ Jaynes, et (1989). Aclarando misterios: el objetivo original, en Maximum Entropy and Bayesian Methods , J. Skilling, editor, Kluwer Academic Publishers, Dordrecht, págs. 1–27, página 24.
  27. ^ Grandy, Walter T. Jr. (2008). Entropía y evolución temporal de los sistemas macroscópicos. Prensa de la Universidad de Oxford. págs. 55–58. ISBN 978-0-19-954617-6.
  28. ^ Frank L. Lambert, 2002, "Trastorno: una muleta rota para apoyar los debates sobre entropía", Journal of Chemical Education 79: 187.
  29. ^ Carson, EM y Watson, JR, (Departamento de Estudios Educativos y Profesionales, King's College, Londres), 2002, "Comprensión de los estudiantes universitarios sobre la entropía y la energía libre de Gibbs", Educación universitaria en química - Artículos de 2002, Royal Society of Chemistry .
  30. ^ Sozbilir, Mustafa, estudios de doctorado: Turquía, un estudio sobre la comprensión de los estudiantes universitarios sobre ideas químicas clave en termodinámica , Ph.D. Tesis, Departamento de Estudios Educativos, Universidad de York, 2001.
  31. ^ Shannon, CE (1945). Una teoría matemática de la criptografía , Memorándum para archivo, MM-45-110-98, 135 páginas, página 20; encontrado en el Archivo 24 en la página 203 en Claude Elwood Shannon: Miscellaneous Writings editado por NJA Sloane y Aaron D. Wyner (revisión de 2013), Mathematical Sciences Research Center, AT&T Bell Laboratories, Murray Hill, Nueva Jersey; publicado anteriormente en parte por IEEE Press.
  32. ^ Gris, RM (2010). Entropía y teoría de la información , Springer, Nueva York NY, 2.ª edición, p. 296.
  33. ^ Mark Nelson (24 de agosto de 2006). "El premio Hutter". Archivado desde el original el 1 de marzo de 2018 . Consultado el 27 de noviembre de 2008 .

enlaces externos