La entropía, esa gran desconocida, de José A. Cuesta


Para este nuevo post de ciencia de NeG, he pedido la ayuda de mi colega y sin embargo amigo Jose Cuesta, que de esto sabe mucho más que yo: 
La entropía, esa gran desconocida o Todo lo que usted quería saber sobre la entropía y nunca se atrevió a preguntar
Me atrevería a afirmar que la entropía es el concepto más extraño de toda la física clásica. Sí, ya sé que las leyes de la física cuántica lo dejan a uno perplejo y que la teoría de la relatividad marea, pero lo que tiene de peculiar la entropía es que se inventó en el siglo XIX, en una época y un contexto en el que la física intentaba entender los motores térmicos. ¿Cómo pudo un concepto tan esotérico surgir de unas aplicaciones de índole tan práctica? No voy a responder a esta pregunta porque me llevaría muy lejos y me tendría que poner pedante y escribir ecuaciones. Lo que importa es que Rudolf Clausius, en 1850, inventa una cantidad a la que llama “entropía” (palabra tomada del griego cuyo significado está relacionado con transformación) para satisfacer ciertos requerimientos matemáticos de la termodinámica, con unas propiedades bastante atípicas para ser una cantidad física. Entre ellas, la más llamativa es que se trata de una cantidad que no decrece en ningún proceso físico, y que por lo general crece, dando lugar a procesos que reciben el nombre de irreversibles, porque no se pueden deshacer (no es posible volver al estado de entropía anterior, dado que ésta no puede decrecer).
Si tenemos un gas en la mitad izquierda de un recipiente dividido en dos por una pared y de pronto quitamos la pared, observaremos cómo el gas se expande hasta ocupar todo el volumen. El proceso contrario jamás se observa. Si echamos una gota de tinta en agua observamos cómo ésta se difunde hasta que toda el agua se vuelve de color uniforme. Lo que jamás veremos es que las partículas de tinta se reúnan de nuevo en una gota separada del agua. Si se nos cae un jarrón lo veremos romperse. Si metemos los trozos en una bolsa y la sacudimos con la esperanza de que se reconstituya el jarrón, lo llevamos crudo. Todo esto son procesos irreversibles, y de ellos hay miles en nuestra vida cotidiana. Son tan habituales como respirar (por cierto, otro proceso irreversible). Y en todos ellos la entropía aumenta. Para añadir más misterio al asunto, la flecha del tiempo parece estar ligada a la existencia de estos procesos, al punto de que podemos ser capaces de saber si una película está proyectándose al revés sin más que observar alguno de estos sucesos imposibles (porque conllevarían una disminución de entropía).
Aunque la física convivió con ella durante medio siglo, la entropía colisionó con la teoría atómica y sumió a la ciencia en una profunda paradoja: si el última instancia todo está compuesto de átomos, y si los átomos siguen las leyes reversibles de la mecánica de Newton, ¿cómo es posible que puedan existir procesos irreversibles? ¿Y dónde está esa entropía de la que los átomos parecen carecer? La resolución de este problema se debe a Ludwig Boltzmann, que hizo dos cosas: produjo uno de los mayores avances de la física, permitiendo explicar la conexión entre el micromundo (el mundo de los átomos y las moléculas) y el macromundo (el mundo que percibimos), y acabó con el misterio de la entropía.
Para intentar explicar el concepto recurriré a un modelo de juguete. Imaginemos un sistema formado por unas partículas (no importa qué son las partículas) que solo pueden adoptar dos estados: amarillo y azul. El sistema tiene una dinámica (sin dinámica no tiene sentido hablar de entropía) extremadamente sencilla. En cada paso de tiempo, una partícula al azar cambia de color: si era amarilla ahora es azul y viceversa. Pero vamos a añadir dos ingredientes clave a nuestro modelo: vamos a suponer que las partículas son microscópicas y que nuestro sistema macroscópico está formado por una cantidad enorme de ellas, y vamos a suponer que no podemos observar el estado de las partículas individuales, sino solo el color global del sistema. Como la mezcla de azul y amarillo da verde, observaremos un color que irá del azul a amarillo pasando por toda la gama de verdes.
Para ilustrar el asunto he hecho una animación del sistema. En un cuadrado 40×40 he puesto 1600 de tales partículas y he procedido a cambiarles el color de acuerdo a la dinámica que acabo de describir. Partiendo de una configuración en que todas las partículas son amarillas, la animación muestra cómo su color va cambiando al azar, de manera que algunas van volviéndose azules. Encima del cuadro un contador indica el paso temporal, y debajo aparece la fracción de cuadros que son amarillos. En realidad 1600 partículas son muy pocas; tenemos que imaginar muchísimas más. En sistemas físicos hay del orden de un billón de billones de partículas, un número astronómico (de hecho, del orden del número de estrellas que habría en… ¡cien universos como el nuestro!). Con ese número de partículas sólo veríamos un cuadrado de color uniforme, y el tono de verde nos indicaría la proporción de los dos tipos de partículas. Para ilustrarlo, he puesto a la derecha de la animación un cuadrado cuyo color se va ajustando a la proporción de partículas amarillas y azules del sistema. [Ver animación.]
Lo que se ve es bastante esperable: como al principio casi todas las partículas son amarillas, lo que vemos son cambios de amarillo a azul; a medida que el número de partículas azules aumenta, aumenta también la probabilidad de que una azul se convierta en amarilla. La situación se equilibra, lógicamente, cuando la proporción de ambas es aproximadamente la misma. Y en efecto, el cuadro de la derecha muestra un color amarillo uniforme que gradualmente se va poniendo verde hasta estabilizarse en el tono de verde puro (la mezcla perfecta de amarillo y azul). ¿Es concebible esperar que el cuadrado verde se vuelva gradualmente amarillo o azul? No, podría fluctuar en torno al tono de verde perfecto (en la imagen ni siquiera se aprecia la fluctuación), pero ni en un millón de años veríamos reaparecer el amarillo. Tenemos ante nuestras narices un proceso irreversible.
Y ahora analicemos: ¿la dinámica que hemos impuesto es irreversible? No. La probabilidad de que en un paso de tiempo elijamos la partícula x para cambiarla de color es de 1 en 1600, que es exactamente la misma probabilidad de que en el siguiente paso volvamos a elegir esa misma partícula para volverla a su color inicial.Así que la probabilidad de producir un cambio determinado en el sistema es exactamente la misma que la de revertirlo en el paso siguiente. Entonces, si la dinámica es reversible, ¿por qué observamos un proceso irreversible? Antes de contestar a esta pregunta hagámonos la siguiente reflexión: si la configuración inicial, en lugar de todas las partículas amarillas, tuviera más o menos la mitad amarillas y la mitad azules al azar, ¿creéis que en la evolución siguiente volveríamos a ver alguna vez exactamente esa misma configuración inicial, con exactamente las mismas partículas amarillas y azules en exactamente las mismas posiciones?
Si habéis respondido un categórico NO, entonces ya estamos en el buen camino. 
Porque esa es la clave de todo. 
Lo único que hace distinta la condición inicial de todas las partículas amarillas de esta otra es que su aspecto “macroscópico” (su color, para que nos entendamos) es distinto. Por eso nos parecen dos condiciones iniciales muy diferentes, cuando en términos de probabilidad son exactamente equiprobables (cualquier configuración concreta de partículas tiene la misma probabilidad de aparecer en la dinámica; muy pequeña, por cierto). Pero en la variable macroscópica esa probabilidad uniforme deja de serlo. Porque tan sólo hay una configuración en que todas las partículas sean amarillas, pero ya hay 1600 configuraciones en las que una partícula es azul y todas las demás amarillas. Y hay 1.279.200 configuraciones que tienen dos partículas azules y el resto amarillas… El número se dispara hasta llegar más o menos a la mitad de cada tipo, y luego vuelve a disminuir cuando las azules superan las amarillas, hasta volver a llegar a una sola configuración con todas las partículas azules. En la siguiente figura represento el número de configuraciones distintas con un número dado de partículas azules, para tres tamaños de sistema: 100, 400 y 1000 partículas. Obsérvese las gigantescas cifras que aparecen en la escala vertical, y eso que estos sistemas son diminutos comparados con los sistemas físicos.

Esta figura encierra la clave de todo el “misterio” de la entropía. Se unen tres cosas:
  1. Lo que observamos son estados macroscópicos (el color global del sistema), no estados microscópicos (la configuración concreta de colores de las partículas).
  2. Aunque la dinámica es reversible y todo estado estado microscópico tiene la misma probabilidad de ser visitado, los estados macroscópicos, como muestra la gráfica, están formados por números muy distintos de configuraciones diferentes y tienen, por tanto, distinta probabilidad de ser observados. Como puede apreciarse, el que llamaríamos estado de “equilibrio” o “estacionario” o “típico” es el más probable de todos.
  3. La diferencia entre la probabilidad de observar los estados más probables y los menos probables es más desproporcionada cuanto mayor es el sistema. La desproporción es brutal si hablamos de sistemas físicos (con billones de billones de partículas). Eso hace que observar estados improbables sea, en la práctica, imposible.
Ahí está todo: el origen de la entropía y de la irreversibilidad. No se trata de que hay una ley oscura y esotérica que empuja al universo en una dirección concreta, se trata, simple y llanamente, de que vemos aquello que es probable ver, y no vemos lo que es improbable ver. Porque además, lo que vemos son estados agregados, colectivos, macroscópicos que, a diferencia de los microscópicos, tienen muy distinta probabilidad de aparecer. Y en el mundo real, la diferencia entre probable e improbable se traduce en posible frente a imposible. En esta visión, un proceso irreversible no es más que el viaje desde un estado macroscópico improbable (que hemos construido ad hoc) al estado más probable.
Fue Boltzmann el que primero se dio cuenta de esto, y su gran hallazgo se resume en una de esas sencillas pero profundas ecuaciones: S = k log WS es la letra que en física se usa para denotar la entropía. Dejando de lado la constante k (denominada “constante de Boltzmann” en honor a su descubridor), que sólo tiene como misión asignar las unidades correctas a la entropía termodinámica, e ignorando el logaritmo (un tecnicismo en el que no voy a entrar), la letra clave es W, una letra con la que Boltzmann denotó el número de estados microscópicos, inobservables, que corresponden a un mismo estado macroscópico, observable. Ahí está la conexión entre el microcosmos y el macrocosmos, entre el mundo atómico y nuestro mundo, el origen de fuerzas extrañas como la presión de los gases o la elasticidad de las gomas, de fenómenos sorprendentes como la cristalización de los minerales, la ebullición del agua, la inmiscibilidad del agua y el aceite… Porque de facto la entropía es una fuerza: es la fuerza de los sistemas por comportarse de la forma más probable. Es una fuerza porque para disminuir la entropía tenemos que consumir energía, porque no queda otro remedio para ello que confinar al sistema en regiones de baja probabilidad, algo que el sistema, lógicamente, se resiste a hacer de forma espontánea. Por eso es tan difícil enfriar (enfriar no es más que disminuir entropía). En fin, podría citar miles de ejemplos, a cual más llamativo, del efecto que la entropía tiene en nuestras vidas, pero ya me ha salido demasiado largo el artículo. Quédese, pues, para una futura contribución.
Nota: alguna idea de este post está tomada de este libro, donde se puede leer en profundidad sobre este tema.



http://allariz.uc3m.es/~anxosanchez/entropia/entropia.html


La entropia desvelada

Ben-Naim, Arieh



 

La

«entropía» –término de origen griego que significa «transformación»– es un extraño concepto que tiene que ver, vagamente, con el calor y la energía, el paso del orden al desorden, el aumento de la incertidumbre y la irreversibilidad del caos. Sea como fuere, la entropía siempre parece estar creciendo. Los científicos, por su parte, precisan que la célebre segunda ley de la termodinámica (la que enuncia la entropía) establece que, en cualquier proceso espontáneo, es imposible convertir completamente el calor en trabajo, pues se pierde parte del calor. Pero por qué la naturaleza se comporta precisamente de este modo sigue siendo objeto de polémica, hasta el punto de que, en más de una ocasión, se ha dicho que la ley de la entropía constituye uno de los misterios más profundos de la física moderna.
Escrito con el máximo rigor pero sin tecnicismos, este libro tiene como principal objetivo conseguir que el lector aplique sencillamente el sentido común y descubra que una de las leyes de mayor alcance en el universo es de una claridad meridiana. Explica asimismo la fascinante evolución de la noción de entropía a partir de los trabajos de Sadi Carnot, Clauius, Lord Kelvin o el gran Ludwig Bolzmann. Además, Ben-naim, una autoridad mundial en el campo de la termodinámica, formula una sugestiva interpretación de la entropía apoyándose en la noción de pérdida de información. 


http://www.tusquetseditores.com/titulos/metatemas-entropia-desvelada

No hay comentarios:

   Escenarios 2025 ¿Como reaccionara Europa?     The World Ahead, The Economist, y que presentará las tendencias clave que influirán en 202...