Blogia
vgomez

ENTROPÍA

Hai certas palabras capaces de adornar calquera discurso ou cita. “Entropía” é unha delas. Atopámola nesas frases inintelixibles dalgún famoso gurú espiritual, ou mesmo na autoaxuda ou o coaching. E naturalmente, todos sabemos o que significa entropía: desorde. Se non ordenamos a casa, devóranos a entropía, dicimos. Salvo que, en realidade, non é así: os físicos esgánase explicando que non, que entropía non significa desorde. E con todo, con este sentido aproximado entrou a formar parte dun vocabulario que xa é case popular. Pero que significa realmente a entropía?

O austriaco Ludwig Boltzmann introduciu a actual formulación da entropía, dándolle un sentido estatístico entendido como a distribución de probabilidade entre os diferentes microestados posibles / Alamy Stock Photo

Cando en 1865 o físico prusiano Rudolf Clausius definiu a entropía, a idea da desorde estaba lonxe de aparecer por ningunha parte. Clausius buscaba explicar matematicamente o funcionamento da enerxía na máquina de Carnot, un modelo optimizado de motor térmico (no que se baseou o motor diésel orixinal) proposto catro décadas antes polo francés Sadi Carnot. Para expresar a calor perdida non aproveitable definiu a entropía (etimolóxicamente, unha transformación do contido de enerxía), que mide como de forma espontánea un corpo quente cede calor a outro frío mentres o sistema tende ao equilibrio, a menos que se interfira para impedilo. E é por iso que “a entropía en sentido termodinámico é unha enerxía dividida por unha temperatura”, resume o químico-físico Emil Roduner, profesor emérito da Universidade de Stuttgart (Alemaña).

Este comportamento espontáneo dun sistema é o fundamento básico da segunda lei da termodinámica, tal como foi intuído por Clausius anos antes da súa definición da entropía. Ao acuñar o termo, o físico terminaba o seu traballo resumindo deste xeito as dúas primeiras leis da termodinámica: “A enerxía do universo é constante”, e “A entropía do universo tende ao máximo”. Pero o termo elixido por Clausius non facilitou a comprensión do concepto; segundo escribiría en 1968 o físico e Nobel Leon Cooper, ao elixir o termo entropía “en lugar de extraer unha expresión da linguaxe común (digamos, calor perdida), [Clausius] logrou acuñar unha palabra que significaba o mesmo para todo o mundo: nada”. En 1904 o matemático especializado en termodinámica George H. Bryan escribía en Nature que a entropía é “o máis difícil de todos os conceptos físicos”.

Anos despois da definición de Clausius, o austriaco Ludwig Boltzmann introduciu a actual formulación da entropía, dándolle un sentido estatístico que relaciona os microestados da materia (átomos, moléculas) co macroestado (observable) do sistema. A definición de Boltzmann refírese á medida estatística da desorde, entendido como a distribución de probabilidade entre os diferentes microestados posibles. “Desorde é tecnicamente incorrecto”, di o físico teórico Peter Watson, profesor emérito da Universidade Carleton (Canadá); “pero a idea é correcta, e se o substitúes por probabilidade, non teño ningún problema”, engade.

Dan Styer explica a entropía coa analogía do aderezo, que ten separadas as súas capas de aceite e vinagre, moi ordenadas, e con todo están en equilibrio, con máxima entropía / Lisa Top/Getty Images
 

Watson pon un exemplo: nunha habitación hai seis átomos de gas. Que os seis estean no mesmo lado é improbable, unha situación de baixa entropía; o máis probable é unha distribución de tres a cada lado. Esta tendencia ao equilibrio relaciónase coa frecha do tempo, un concepto ligado á entropía, xa que trata de procesos irreversibles que só se moven nunha dirección temporal. Este é un dos motivos, segundo Watson, polos que probablemente non podamos viaxar atrás no tempo, xa que isto violaría a segunda lei da termodinámica, o aumento da entropía.

O físico teórico Dan Styer, do Oberlin College (Ohio, EEUU), cita outra analoxía que axuda a desmontar a idea da desorde: un bote de vinagreta italiana ten separadas as súas capas de aceite e vinagre, moi ordenadas, e con todo está en equilibrio térmico, con máxima entropía. Styer prefire outra palabra para explicar a entropía: liberdade. Un club (macroestado) con normas máis permisivas que outro permite aos seus membros (microestados) unha maior variedade de opcións. “Se hai máis microestados correspondentes ao macroestado, o macroestado ten unha maior entropía”. “Así que o club que dá aos seus membros máis liberdade é análogo a un macroestado con entropía máis alta”. Os microestados, aclara Styer, non teñen entropía, só os macroestados.

Así, a idea da desorde é enganosa, salvo nos casos en que coincide co significado real da entropía, como no caso dos gases, o seu campo orixinal. E segundo Roduner, tamén noutros exemplos como a transición dun sólido a líquido e gas, ou cando vertemos unha pinga de tinta nun vaso de auga. Pero “a natureza é moito máis complexa”, advirte. “Moitas cousas parecen ocorrer espontaneamente, pero na dirección equivocada”. A formación dunha folerpa de neve ou de calquera clase de materia viva son fenómenos que parecen ir en contra da espontaneidade dos procesos naturais que conlevan un aumento de entropía.

BBVA-OpenMind-Yanes-La entropia no es desorden_3 La formación de un copo de nieve, por ejemplo, es un fenómeno que parece ir en contra de la espontaneidad de los procesos naturales que conllevan un aumento de entropía. Crédito: Martin Siepmann/Westend/Getty images

A formación dunha folerpa de neve, por exemplo, é un fenómeno que parece ir en contra da espontaneidade dos procesos naturais que conlevan un aumento de entropía / Martin Siepmann/Westend/Getty images
 

Como é isto posible? “Este é un dos malentendidos máis comúns da segunda lei da termodinámica”, sinala Roduner. “Aquí non temos un sistema illado; temos un sistema de interese, e a súa contorna”. Nestes casos non hai un equilibrio, senón un gradente que guía a dirección do proceso; a entropía dun sistema pode diminuír espontaneamente se ao mesmo tempo a da súa contorna aumenta en maior grao. Comprender esta idea foi o que na década de 1960 levou ao químico belga de orixe rusa Ilya Prigogine a explicar como era termodinámicamente posible que a vida xurdise a partir dos seus compoñentes elementais, o que á súa vez foi unha gran influencia no desenvolvemento da teoría do caos.

Esta aplicación da entropía á bioloxía é un exemplo de como o concepto estendéronse a outros ámbitos. En 1948 o matemático e enxeñeiro Claude Shannon, considerado o pai da teoría da información, aplicou a idea da entropía á perda de información nas telecomunicacións. Segundo apunta o físico Kevin Knuth, da Universidade de Albany e director da revista científica Entropy, neste sentido “a entropía é unha medida da incerteza e, como tal, ten ampla aplicación a calquera problema no que un está a facer inferencias”. En 1957 o físico Edwin Jaynes aplicou de volta á termodinámica o concepto de entropía introducido por Shannon para a información. “É por isto que se confunde coa desorde, porque un sistema desordenado resulta nunha gran incerteza, di Knuth; “ pero o concepto principal é a incerteza, non a desorde”.

BBVA-OpenMind-Yanes-La entropia no es desorden_4 La entropía, señala Kevin Knuth, es una medida de la incertidumbre, por eso se confunde con el desorden, porque un sistema desordenado resulta en una gran incertidumbre. Crédito: Aaron Amat/Getty Images

A entropía, sinala Kevin Knuth, é unha medida da incerteza, por iso confúndese coa desorde, porque un sistema desordenado resulta nunha gran incerteza / Aaron Amat/Getty Images

E é un concepto tan importante, subliña Watson, como expresaban as palabras do dramaturgo inglés Tom Stoppard, na súa obra de 1993, Arcadia: “A calor vai ao frío. É unha rúa dun só sentido. O teu té acabará a temperatura ambiente. O que lle sucede ao teu té está a ocorrerlle a todo en todas partes. O sol e as estrelas. Tardará un tempo, pero todos acabaremos a temperatura ambiente”.

FONTE: Javier Yanes/bbvaopenmind.com

0 comentarios