ENTROPÍA
Hai certas palabras capaces de adornar calquera discurso ou cita. “Entropía” é unha delas. Atopámola nesas frases inintelixibles dalgún famoso gurú espiritual, ou mesmo na autoaxuda ou o coaching. E naturalmente, todos sabemos o que significa entropía: desorde. Se non ordenamos a casa, devóranos a entropía, dicimos. Salvo que, en realidade, non é así: os físicos esgánase explicando que non, que entropía non significa desorde. E con todo, con este sentido aproximado entrou a formar parte dun vocabulario que xa é case popular. Pero que significa realmente a entropía?
O austriaco Ludwig Boltzmann introduciu a actual formulación da entropía, dándolle un sentido estatístico entendido como a distribución de probabilidade entre os diferentes microestados posibles / Alamy Stock Photo
Cando en 1865 o físico prusiano Rudolf Clausius definiu a entropía, a idea da desorde estaba lonxe de aparecer por ningunha parte. Clausius buscaba explicar matematicamente o funcionamento da enerxía na máquina de Carnot, un modelo optimizado de motor térmico (no que se baseou o motor diésel orixinal) proposto catro décadas antes polo francés Sadi Carnot. Para expresar a calor perdida non aproveitable definiu a entropía (etimolóxicamente, unha transformación do contido de enerxía), que mide como de forma espontánea un corpo quente cede calor a outro frío mentres o sistema tende ao equilibrio, a menos que se interfira para impedilo. E é por iso que “a entropía en sentido termodinámico é unha enerxía dividida por unha temperatura”, resume o químico-físico Emil Roduner, profesor emérito da Universidade de Stuttgart (Alemaña).
Este comportamento espontáneo dun sistema é o fundamento básico da segunda lei da termodinámica, tal como foi intuído por Clausius anos antes da súa definición da entropía. Ao acuñar o termo, o físico terminaba o seu traballo resumindo deste xeito as dúas primeiras leis da termodinámica: “A enerxía do universo é constante”, e “A entropía do universo tende ao máximo”. Pero o termo elixido por Clausius non facilitou a comprensión do concepto; segundo escribiría en 1968 o físico e Nobel Leon Cooper, ao elixir o termo entropía “en lugar de extraer unha expresión da linguaxe común (digamos, calor perdida), [Clausius] logrou acuñar unha palabra que significaba o mesmo para todo o mundo: nada”. En 1904 o matemático especializado en termodinámica George H. Bryan escribía en Nature que a entropía é “o máis difícil de todos os conceptos físicos”.
Anos despois da definición de Clausius, o austriaco Ludwig Boltzmann introduciu a actual formulación da entropía, dándolle un sentido estatístico que relaciona os microestados da materia (átomos, moléculas) co macroestado (observable) do sistema. A definición de Boltzmann refírese á medida estatística da desorde, entendido como a distribución de probabilidade entre os diferentes microestados posibles. “Desorde é tecnicamente incorrecto”, di o físico teórico Peter Watson, profesor emérito da Universidade Carleton (Canadá); “pero a idea é correcta, e se o substitúes por probabilidade, non teño ningún problema”, engade.
Dan Styer explica a entropía coa analogía do aderezo, que ten separadas as súas capas de aceite e vinagre, moi ordenadas, e con todo están en equilibrio, con máxima entropía / Lisa Top/Getty Images
Watson pon un exemplo: nunha habitación hai seis átomos de gas. Que os seis estean no mesmo lado é improbable, unha situación de baixa entropía; o máis probable é unha distribución de tres a cada lado. Esta tendencia ao equilibrio relaciónase coa frecha do tempo, un concepto ligado á entropía, xa que trata de procesos irreversibles que só se moven nunha dirección temporal. Este é un dos motivos, segundo Watson, polos que probablemente non podamos viaxar atrás no tempo, xa que isto violaría a segunda lei da termodinámica, o aumento da entropía.
O físico teórico Dan Styer, do Oberlin College (Ohio, EEUU), cita outra analoxía que axuda a desmontar a idea da desorde: un bote de vinagreta italiana ten separadas as súas capas de aceite e vinagre, moi ordenadas, e con todo está en equilibrio térmico, con máxima entropía. Styer prefire outra palabra para explicar a entropía: liberdade. Un club (macroestado) con normas máis permisivas que outro permite aos seus membros (microestados) unha maior variedade de opcións. “Se hai máis microestados correspondentes ao macroestado, o macroestado ten unha maior entropía”. “Así que o club que dá aos seus membros máis liberdade é análogo a un macroestado con entropía máis alta”. Os microestados, aclara Styer, non teñen entropía, só os macroestados.
Así, a idea da desorde é enganosa, salvo nos casos en que coincide co significado real da entropía, como no caso dos gases, o seu campo orixinal. E segundo Roduner, tamén noutros exemplos como a transición dun sólido a líquido e gas, ou cando vertemos unha pinga de tinta nun vaso de auga. Pero “a natureza é moito máis complexa”, advirte. “Moitas cousas parecen ocorrer espontaneamente, pero na dirección equivocada”. A formación dunha folerpa de neve ou de calquera clase de materia viva son fenómenos que parecen ir en contra da espontaneidade dos procesos naturais que conlevan un aumento de entropía.
A formación dunha folerpa de neve, por exemplo, é un fenómeno que parece ir en contra da espontaneidade dos procesos naturais que conlevan un aumento de entropía / Martin Siepmann/Westend/Getty images
Como é isto posible? “Este é un dos malentendidos máis comúns da segunda lei da termodinámica”, sinala Roduner. “Aquí non temos un sistema illado; temos un sistema de interese, e a súa contorna”. Nestes casos non hai un equilibrio, senón un gradente que guía a dirección do proceso; a entropía dun sistema pode diminuír espontaneamente se ao mesmo tempo a da súa contorna aumenta en maior grao. Comprender esta idea foi o que na década de 1960 levou ao químico belga de orixe rusa Ilya Prigogine a explicar como era termodinámicamente posible que a vida xurdise a partir dos seus compoñentes elementais, o que á súa vez foi unha gran influencia no desenvolvemento da teoría do caos.
Esta aplicación da entropía á bioloxía é un exemplo de como o concepto estendéronse a outros ámbitos. En 1948 o matemático e enxeñeiro Claude Shannon, considerado o pai da teoría da información, aplicou a idea da entropía á perda de información nas telecomunicacións. Segundo apunta o físico Kevin Knuth, da Universidade de Albany e director da revista científica Entropy, neste sentido “a entropía é unha medida da incerteza e, como tal, ten ampla aplicación a calquera problema no que un está a facer inferencias”. En 1957 o físico Edwin Jaynes aplicou de volta á termodinámica o concepto de entropía introducido por Shannon para a información. “É por isto que se confunde coa desorde, porque un sistema desordenado resulta nunha gran incerteza”, di Knuth; “ pero o concepto principal é a incerteza, non a desorde”.
A entropía, sinala Kevin Knuth, é unha medida da incerteza, por iso confúndese coa desorde, porque un sistema desordenado resulta nunha gran incerteza / Aaron Amat/Getty Images
E é un concepto tan importante, subliña Watson, como expresaban as palabras do dramaturgo inglés Tom Stoppard, na súa obra de 1993, Arcadia: “A calor vai ao frío. É unha rúa dun só sentido. O teu té acabará a temperatura ambiente. O que lle sucede ao teu té está a ocorrerlle a todo en todas partes. O sol e as estrelas. Tardará un tempo, pero todos acabaremos a temperatura ambiente”.
FONTE: Javier Yanes/bbvaopenmind.com
0 comentarios