stringtranslate.com

Entropía (orden y desorden)

Moléculas de Boltzmann (1896) mostradas en una "posición de reposo" en un sólido

En termodinámica , la entropía se asocia a menudo con la cantidad de orden o desorden en un sistema termodinámico . Esto se deriva de la afirmación de Rudolf Clausius de 1862 de que cualquier proceso termodinámico siempre "admite ser reducido [reducción] a la alteración de una forma u otra de la disposición de las partes constituyentes del cuerpo de trabajo " y que el trabajo interno asociado con estas alteraciones se cuantifica energéticamente mediante una medida de cambio de "entropía", de acuerdo con la siguiente expresión diferencial : [1]

donde Q = energía de movimiento ("calor") que se transfiere reversiblemente al sistema desde el entorno y T = la temperatura absoluta a la que ocurre la transferencia.

En los años siguientes, Ludwig Boltzmann tradujo estas "alteraciones de la disposición" a una visión probabilística del orden y el desorden en los sistemas moleculares en fase gaseosa . En el contexto de la entropía, el " desorden interno perfecto " se ha considerado a menudo como una descripción del equilibrio termodinámico, pero como el concepto termodinámico está tan alejado del pensamiento cotidiano, el uso del término en física y química ha causado mucha confusión y malentendidos.

En los últimos años, para interpretar el concepto de entropía, describiendo con más detalle las "alteraciones del ordenamiento", se han pasado de utilizar las palabras "orden" y "desorden" a utilizar palabras como "propagación" y "dispersión" .

Historia

Esta perspectiva de la entropía basada en el "ordenamiento molecular" tiene su origen en las interpretaciones del movimiento molecular desarrolladas por Rudolf Clausius en la década de 1850, en particular con su concepción visual de la disgregación molecular de 1862. De manera similar, en 1859, después de leer un artículo sobre la difusión de moléculas escrito por Clausius, el físico escocés James Clerk Maxwell formuló la distribución de Maxwell de velocidades moleculares, que daba la proporción de moléculas que tenían una cierta velocidad en un rango específico. Esta fue la primera ley estadística de la física. [2]

En 1864, Ludwig Boltzmann , un joven estudiante de Viena, se encontró con el artículo de Maxwell y quedó tan inspirado por él que pasó gran parte de su larga y distinguida vida desarrollando el tema. Más tarde, Boltzmann, en un esfuerzo por desarrollar una teoría cinética para el comportamiento de un gas, aplicó las leyes de probabilidad a la interpretación molecular de la entropía de Maxwell y Clausius para comenzar a interpretar la entropía en términos de orden y desorden. De manera similar, en 1882 Hermann von Helmholtz utilizó la palabra "Unordnung" (desorden) para describir la entropía. [3]

Descripción general

Para resaltar el hecho de que el orden y el desorden se entienden comúnmente como medidas en términos de entropía, a continuación se presentan las definiciones actuales de entropía en la enciclopedia científica y el diccionario científico:

La entropía y el desorden también tienen asociaciones con el equilibrio . [8] Técnicamente, la entropía , desde esta perspectiva, se define como una propiedad termodinámica que sirve como medida de qué tan cerca está un sistema del equilibrio, es decir, del desorden interno perfecto . [9] De la misma manera, el valor de la entropía de una distribución de átomos y moléculas en un sistema termodinámico es una medida del desorden en las disposiciones de sus partículas. [10] En un trozo de goma estirada, por ejemplo, la disposición de las moléculas de su estructura tiene una distribución "ordenada" y tiene entropía cero, mientras que la distribución "desordenada" de los átomos y moléculas en la goma en el estado no estirado tiene entropía positiva. De manera similar, en un gas, el orden es perfecto y la medida de la entropía del sistema tiene su valor más bajo cuando todas las moléculas están en un lugar, mientras que cuando hay más puntos ocupados el gas es más desordenado y la medida de la entropía del sistema tiene su valor más alto. [10]

En la ecología de sistemas , como otro ejemplo, la entropía de una colección de elementos que componen un sistema se define como una medida de su desorden o, equivalentemente, la probabilidad relativa de la configuración instantánea de los elementos. [11] Además, según el ecólogo teórico e ingeniero químico Robert Ulanowicz , "el hecho de que la entropía pueda proporcionar una cuantificación de la noción hasta ahora subjetiva de desorden ha generado innumerables narrativas científicas y filosóficas". [11] [12] En particular, muchos biólogos han comenzado a hablar en términos de la entropía de un organismo, o sobre su antónimo negentropía , como una medida del orden estructural dentro de un organismo. [11]

La base matemática con respecto a la asociación que la entropía tiene con el orden y el desorden comenzó, esencialmente, con la famosa fórmula de Boltzmann , , que relaciona la entropía S con el número de estados posibles W en los que se puede encontrar un sistema. [13] Como ejemplo, considere una caja que está dividida en dos secciones. ¿Cuál es la probabilidad de que un cierto número, o todas las partículas, se encuentren en una sección versus la otra cuando las partículas se asignan aleatoriamente a diferentes lugares dentro de la caja? Si solo tiene una partícula, entonces ese sistema de una partícula puede subsistir en dos estados, un lado de la caja versus el otro. Si tiene más de una partícula, o define los estados como subdivisiones de ubicación adicionales de la caja, la entropía es mayor porque el número de estados es mayor. La relación entre entropía, orden y desorden en la ecuación de Boltzmann es tan clara entre los físicos que, según las opiniones de los ecólogos termodinámicos Sven Jorgensen y Yuri Svirezhev, "es obvio que la entropía es una medida de orden o, más probablemente, de desorden en el sistema". [13] En esta dirección, la segunda ley de la termodinámica, como fue enunciada célebremente por Rudolf Clausius en 1865, establece que:

La entropía del universo tiende a un máximo.

Así, si la entropía está asociada con el desorden y si la entropía del universo se dirige hacia la entropía máxima, entonces muchas personas se quedan a menudo perplejas en cuanto a la naturaleza del proceso de "ordenamiento" y el funcionamiento de la evolución en relación con la versión más famosa de Clausius de la segunda ley, que afirma que el universo se dirige hacia el "desorden" máximo. En el reciente libro de 2003 SYNC - la ciencia emergente del orden espontáneo de Steven Strogatz , por ejemplo, encontramos que "los científicos a menudo se han sentido desconcertados por la existencia de un orden espontáneo en el universo. Las leyes de la termodinámica parecen dictar lo contrario, que la naturaleza debería degenerar inexorablemente hacia un estado de mayor desorden, mayor entropía. Sin embargo, a nuestro alrededor vemos estructuras magníficas -galaxias, células, ecosistemas, seres humanos- que de alguna manera han logrado ensamblarse por sí mismas". [14]

El argumento común que se utiliza para explicar esto es que, localmente, la entropía puede reducirse por acción externa, por ejemplo, la acción del calor solar, y que esto se aplica a máquinas, como un refrigerador, donde se reduce la entropía en la cámara fría, a los cristales en crecimiento y a los organismos vivos. [9] Sin embargo, este aumento local del orden solo es posible a expensas de un aumento de la entropía en los alrededores; aquí debe crearse más desorden. [9] [15] El condicionante de esta afirmación es suficiente: los sistemas vivos son sistemas abiertos en los que tanto el calor como la masa y el trabajo pueden transferirse dentro o fuera del sistema. A diferencia de la temperatura, la supuesta entropía de un sistema vivo cambiaría drásticamente si el organismo estuviera aislado termodinámicamente. Si un organismo estuviera en este tipo de situación "aislada", su entropía aumentaría notablemente a medida que los componentes que alguna vez estuvieron vivos del organismo se desintegraran en una masa irreconocible. [11]

Cambio de fase

Debido a estos primeros desarrollos, el ejemplo típico de cambio de entropía Δ S es el asociado con el cambio de fase. En los sólidos, por ejemplo, que normalmente están ordenados a escala molecular, normalmente tienen una entropía menor que los líquidos, y los líquidos tienen una entropía menor que los gases y los gases más fríos tienen una entropía menor que los gases más calientes. Además, según la tercera ley de la termodinámica , a la temperatura del cero absoluto , las estructuras cristalinas se aproximan a tener un "orden" perfecto y una entropía cero. Esta correlación se produce porque la cantidad de diferentes estados de energía cuántica microscópica disponibles para un sistema ordenado suele ser mucho menor que la cantidad de estados disponibles para un sistema que parece estar desordenado.

En sus famosas Lecciones sobre la teoría de los gases de 1896 , Boltzmann diagrama la estructura de un cuerpo sólido, como se muestra arriba, postulando que cada molécula en el cuerpo tiene una "posición de reposo". Según Boltzmann, si se aproxima a una molécula vecina es repelida por ella, pero si se aleja hay una atracción. Esto, por supuesto, fue una perspectiva revolucionaria en su tiempo; muchos, durante esos años, no creían en la existencia de átomos o moléculas (ver: historia de la molécula ). [16] Según estas primeras opiniones, y otras como las desarrolladas por William Thomson , si se agrega energía en forma de calor a un sólido, para convertirlo en líquido o gas, una descripción común es que el ordenamiento de los átomos y moléculas se vuelve más aleatorio y caótico con un aumento de la temperatura:

Así, según Boltzmann, debido al aumento del movimiento térmico, siempre que se añade calor a una sustancia activa, la posición de reposo de las moléculas se separará, el cuerpo se expandirá y esto creará distribuciones y disposiciones de moléculas más desordenadas desde el punto de vista molar . Estas disposiciones desordenadas, posteriormente, se correlacionan, mediante argumentos de probabilidad, con un aumento en la medida de la entropía. [17]

Orden impulsado por la entropía

La entropía ha sido históricamente asociada, por ejemplo, por Clausius y Helmholtz, con el desorden. Sin embargo, en el lenguaje común, el orden se utiliza para describir la organización, la regularidad estructural o la forma, como la que se encuentra en un cristal en comparación con un gas. Esta noción común de orden se describe cuantitativamente mediante la teoría de Landau . En la teoría de Landau, el desarrollo del orden en el sentido cotidiano coincide con el cambio en el valor de una cantidad matemática, un llamado parámetro de orden . Un ejemplo de un parámetro de orden para la cristalización es el "orden de orientación de enlace" que describe el desarrollo de direcciones preferidas (los ejes cristalográficos) en el espacio. Para muchos sistemas, las fases con más orden estructural (por ejemplo, cristalino) exhiben menos entropía que las fases fluidas bajo las mismas condiciones termodinámicas. En estos casos, etiquetar las fases como ordenadas o desordenadas según la cantidad relativa de entropía (según la noción de Clausius/Helmholtz de orden/desorden) o mediante la existencia de regularidad estructural (según la noción de Landau de orden/desorden) produce etiquetas coincidentes.

Sin embargo, existe una amplia clase [18] de sistemas que manifiestan un orden impulsado por la entropía, en el que las fases con organización o regularidad estructural, por ejemplo, los cristales, tienen mayor entropía que las fases estructuralmente desordenadas (por ejemplo, los fluidos) en las mismas condiciones termodinámicas. En estos sistemas, las fases que se etiquetarían como desordenadas en virtud de su mayor entropía (en el sentido de Clausius o Helmholtz) están ordenadas tanto en el sentido cotidiano como en la teoría de Landau.

En condiciones termodinámicas adecuadas, se ha predicho o descubierto que la entropía induce a los sistemas a formar cristales líquidos, cristales y cuasicristales ordenados. [19] [20] [21] En muchos sistemas, las fuerzas entrópicas direccionales impulsan este comportamiento. Más recientemente, se ha demostrado que es posible diseñar partículas con precisión para estructuras ordenadas específicas. [22]

Desmagnetización adiabática

En la búsqueda de temperaturas ultra frías, se utiliza una técnica de reducción de temperatura llamada desmagnetización adiabática , donde se utilizan consideraciones de entropía atómica que pueden describirse en términos de orden-desorden. [23] En este proceso, una muestra de sólido como la sal de cromo-alumbre, cuyas moléculas son equivalentes a pequeños imanes, se encuentra dentro de un recinto aislado enfriado a una temperatura baja, típicamente 2 o 4 kelvins, con un fuerte campo magnético que se aplica al contenedor usando un poderoso imán externo, de modo que los pequeños imanes moleculares se alinean formando un estado "inicial" bien ordenado a esa baja temperatura. Esta alineación magnética significa que la energía magnética de cada molécula es mínima. [24] Luego se reduce el campo magnético externo, una eliminación que se considera casi reversible . Después de esta reducción, los imanes atómicos asumen orientaciones aleatorias menos ordenadas, debido a agitaciones térmicas, en el estado "final":

Consideraciones sobre el “orden”/“desorden” de la entropía en el proceso de desmagnetización adiabática

El "desorden" y, por lo tanto, la entropía asociada con el cambio en las alineaciones atómicas ha aumentado claramente. [23] En términos de flujo de energía, el movimiento desde un estado alineado magnéticamente requiere energía del movimiento térmico de las moléculas, convirtiendo la energía térmica en energía magnética. [24] Sin embargo, de acuerdo con la segunda ley de la termodinámica , debido a que no puede entrar ni salir calor del contenedor, debido a su aislamiento adiabático, el sistema no debería exhibir ningún cambio en la entropía, es decir, Δ S = 0. Sin embargo, el aumento del desorden asociado con las direcciones aleatorias de los imanes atómicos representa un aumento de la entropía . Para compensar esto, el desorden (entropía) asociado con la temperatura de la muestra debe disminuir en la misma cantidad. [23] La temperatura cae como resultado de este proceso de energía térmica que se convierte en energía magnética. Si luego se aumenta el campo magnético, la temperatura aumenta y la sal magnética debe enfriarse nuevamente utilizando un material frío como el helio líquido. [24]

Dificultades con el término “trastorno”

En los últimos años, el uso prolongado del término "desorden" para hablar de entropía ha suscitado algunas críticas. [25] [26] [27] [28] [29] [30] Los críticos de esta terminología afirman que la entropía no es una medida de "desorden" o "caos", sino más bien una medida de la difusión o dispersión de la energía a más microestados. El uso que hace Shannon del término "entropía" en la teoría de la información se refiere a la cantidad de código más comprimida o menos dispersa necesaria para abarcar el contenido de una señal. [31] [32] [33]

Véase también

Referencias

  1. ^ Teoría mecánica del calor : Nueve memorias sobre el desarrollo del concepto de "entropía" de Rudolf Clausius [1850-1865]
  2. ^ Mahon, Basil (2003). El hombre que lo cambió todo: la vida de James Clerk Maxwell . Hoboken, Nueva Jersey: Wiley. ISBN 0-470-86171-1.
  3. ^ Anderson, Greg (2005). Termodinámica de sistemas naturales . Cambridge University Press. ISBN 0-521-84772-9.
  4. ^ Diccionario Oxford de Ciencias , 2005
  5. ^ Diccionario Oxford de Química , 2004
  6. ^ Diccionario esencial de ciencias de Barnes & Noble , 2004
  7. ^ Enciclopedia de física de partículas de Gribbin , 2000
  8. ^ Landsberg, PT (1984). "¿El equilibrio es siempre un máximo de entropía?" J. Stat. Physics 35: 159–69.
  9. ^ abc Microsoft Encarta 2006. © 1993–2005 Microsoft Corporation. Reservados todos los derechos.
  10. ^ de Greven, Andreas; Keller, Gerhard; Warnercke, Gerald (2003). Entropía – Serie Princeton en Matemáticas Aplicadas . Princeton University Press. ISBN 0-691-11338-6.
  11. ^ abcd Ulanowicz, Robert, E. (2000). Crecimiento y desarrollo: fenomenología de los ecosistemas . toExcel Press. ISBN 0-595-00145-9.{{cite book}}: CS1 maint: varios nombres: lista de autores ( enlace )
  12. ^ Kubat, L.; Zeman, J. (1975). Entropía e información en ciencia y filosofía . Elsevier.
  13. ^ ab Jorgensen, Sven E; Svirezhev, Yuri M (2004). Hacia una teoría termodinámica para sistemas ecológicos . Elsevier. ISBN 0-08-044167-X.
  14. ^ Strogatz, Steven (2003). La ciencia emergente del orden espontáneo . Theia. ISBN 0-7868-6844-9.
  15. ^ Brooks, Daniel, R.; Wiley, EO (1988). La entropía como evolución: hacia una teoría unificada de la biología . University of Chicago Press. ISBN 0-226-07574-5.{{cite book}}: CS1 maint: varios nombres: lista de autores ( enlace )
  16. ^ Cercignani, Carlo (1998). Ludwig Boltzmann: El hombre que confiaba en los átomos . Oxford University Press. ISBN 978-0-19-850154-1.
  17. ^ Boltzmann, Ludwig (1896). Lecciones sobre teoría de los gases . Dover (reimpresión). ISBN 0-486-68455-5.
  18. ^ van Anders, Greg; Klotsa, Daphne; Ahmed, N. Khalid; Engel, Michael; Glotzer, Sharon C. (2014). "Entendiendo la entropía de forma a través del empaquetamiento denso local". Proc Natl Acad Sci USA . 111 (45): E4812–E4821. arXiv : 1309.1187 . Bibcode :2014PNAS..111E4812V. doi : 10.1073/pnas.1418159111 . PMC 4234574 . PMID  25344532. 
  19. ^ Onsager, Lars (1949). "Los efectos de la forma en la interacción de partículas coloidales". Anales de la Academia de Ciencias de Nueva York . 51 (4): 627. Bibcode :1949NYASA..51..627O. doi :10.1111/j.1749-6632.1949.tb27296.x. S2CID  84562683.
  20. ^ Haji-Akbari, Amir; Engel, Michael; Keys, Aaron S.; Zheng, Xiaoyu; Petschek, Rolfe G.; Palffy-Muhoray, Peter; Glotzer, Sharon C. (2009). "Fases desordenadas, cuasicristalinas y cristalinas de tetraedros densamente empaquetados". Nature . 462 (7274): 773–777. arXiv : 1012.5138 . Código Bibliográfico :2009Natur.462..773H. doi :10.1038/nature08641. PMID  20010683. S2CID  4412674.
  21. ^ Damasceno, Pablo F.; Engel, Michael; Glotzer, Sharon C. (2012). "Autoensamblaje predictivo de poliedros en estructuras complejas". Science . 337 (6093): 453–457. arXiv : 1202.2177 . Bibcode :2012Sci...337..453D. doi :10.1126/science.1220869. PMID  22837525. S2CID  7177740.
  22. ^ Geng, Yina; van Anders, Greg; Dodd, Paul M.; Dshemuchadse, Julia; Glotzer, Sharon C. (2019). "Ingeniería de entropía para el diseño inverso de cristales coloidales a partir de formas duras". Science Advances . 5 (7): eeaw0514. arXiv : 1712.02471 . Bibcode :2019SciA....5..514G. doi :10.1126/sciadv.aaw0514. PMC 6611692 . PMID  31281885. 
  23. ^ abc Halliday, David; Resnick, Robert (1988). Fundamentos de física, versión ampliada, 3.ª edición . Wiley. ISBN 0-471-81995-6.
  24. ^ abc NASA – ¿Cómo funciona un refrigerador de desmagnetización adiabática?
  25. ^ Denbigh K. (1981). Los principios del equilibrio químico: con aplicaciones en química e ingeniería química . Londres: Cambridge University Press. págs. 55-56.
  26. ^ Jaynes, ET (1989). Aclarando misterios: el objetivo original, en Maximum Entropy and Bayesian Methods , J. Skilling, Editor, Kluwer Academic Publishers, Dordrecht, pp. 1–27, página 24.
  27. ^ Grandy, Walter T. Jr. (2008). Entropía y evolución temporal de sistemas macroscópicos. Oxford University Press. pp. 55–58. ISBN 978-0-19-954617-6.
  28. ^ Frank L. Lambert, 2002, "El desorden: una muleta agrietada para apoyar los debates sobre la entropía", Journal of Chemical Education 79: 187.
  29. ^ Carson, EM, y Watson, JR, (Departamento de Estudios Educativos y Profesionales, King's College, Londres), 2002, "Comprensión de los estudiantes universitarios sobre la entropía y la energía libre de Gibbs", University Chemistry Education – 2002 Papers, Royal Society of Chemistry.
  30. ^ Sozbilir, Mustafa, Estudios de doctorado: Turquía, Un estudio de la comprensión de las ideas químicas clave en termodinámica por parte de estudiantes universitarios , Tesis de doctorado, Departamento de Estudios Educativos, Universidad de York, 2001.
  31. ^ Shannon, CE (1945). Una teoría matemática de la criptografía , Memorándum para archivo, MM-45-110-98, 135 páginas, página 20; encontrado en el Archivo 24 en la página 203 en Claude Elwood Shannon: Miscellaneous Writings editado por NJA Sloane y Aaron D. Wyner (revisión de 2013), Mathematical Sciences Research Center, AT&T Bell Laboratories, Murray Hill, NJ; previamente publicado parcialmente por IEEE Press.
  32. ^ Gray, RM (2010). Entropy and Information Theory , Springer, Nueva York, NY, 2.ª edición, pág. 296.
  33. ^ Mark Nelson (24 de agosto de 2006). «El premio Hutter». Archivado desde el original el 1 de marzo de 2018. Consultado el 27 de noviembre de 2008 .

Enlaces externos