Blogia
vgomez

SABÍAS QUE...

SABÍAS QUE... POR QUE EXISTE A NOITE?

Preguntas que parecen demasiado simples, inxenuas ou infantís, como por que existe a noite, lévannos moitas veces a respostas complexas que encerran multitude de conceptos físicos e derivadas curiosas. Que existan o día e a noite deriva directamente de que a Terra rota sobre o seu eixo e non sempre ofrece a mesma cara cara ao Sol. Así que a pregunta sobre por que existe a noite convértese en por que a Terra rota sobre o seu eixo e como o fai.

A explicación baséase en física fundamental e, como tal, é extremadamente importante para comprender como funciona o universo. Non falamos de física tan popular como a lei de gravitación universal ou a equivalencia entre masa e enerxía E=mc², pero si da conservación do momento angular, que é tan importante como esas ecuacións. Xa hai moitas explicacións sobre iso, só direi que na formación de sistemas planetarios a conservación do momento angular obriga aos planetas para rotar.

Sigamos o camiño cara a entender por que existe a noite, engadindo máis variables que afectan a esa rotación. Todos os planetas rotan sobre o seu eixo? Pois deberían facelo, se fose só por conservación do momento angular desde a súa formación, pero aos planetas ocórrenlles outras cousas que poden parar a rotación. De feito, Venus pénsase que parou a súa rotación e mesmo a investiu: rota en sentido contrario ao resto de planetas do sistema solar e ao da súa propia órbita ao redor do Sol. O resultado é que un ano venusiano (o tempo que tarda en dar unha volta ao Sol: uns 224 días terrestres), dura algo menos que o día venusiano (243 días terrestres). Podemos concluír que o concepto de día e noite non é o mesmo noutros mundos; polo menos, se consideramos a duración de ambos os que os terrícolas temos en mente.

Venus si ten día e noite, só que duran unha chea. É posible que un planeta non teña día e noite en absoluto? É dicir, para ser máis precisos, é posible que nunha zona dun planeta sempre sexa de noite? A resposta é si, e está relacionado con outros conceptos físicos. A rotación non é a única responsable de que haxa día e noite: se mañá a Terra detivese a súa rotación, o día e a noite non se acabarían en lados opostos do planeta.

Como a Terra vira ao redor do Sol, se non rotase e sempre dese a cara cara ao mesmo lado, ao final nalgún momento deixaría ao Sol ao carón e finalmente por detrás do planeta. Trasladémonos ao círculo central dun campo de fútbol, e imaxinen que o Sol fose un balón que está no punto do saque de centro. Se un paseante móvese polo bordo do círculo sen rotar ao redor do seu eixo (é dicir, sempre mirando ao mesmo fondo do campo, o que implica que ás veces nos moveriamos de lado e ás veces camiñando cara atrás), na metade ese camiño, equivalente á órbita dun planeta, perdería de vista o balón e iso sería como a noite do planeta. Pero despois de percorrer de novo medio círculo, volvería ver o punto central e iso sería coma se fixésese de día.

Para que sempre nunha zona dun planeta sexa de noite ou de día, na súa viaxe orbital ao redor dunha estrela a rotación do planeta sobre o seu propio eixo e a órbita ao redor da estrela deben estar sincronizadas. No noso exemplo do campo de fútbol, a persoa movéndose polo círculo central debería ir virando segundo vai andando, de maneira adecuada para nunca ver o punto do centro (sempre de noite) ou velo sempre (día eterno). Tal grao de sincronía parece mentira, pero é posible, e moi común no universo: non por casualidade, por suposto, senón por física: a propia Lúa está sincronizada coa Terra, no sentido de que rota sobre o seu eixo máis ou menos co mesmo período que vira ao redor da Terra. Existe, por tanto, unha cara oculta da Lúa que nunca vemos e nunca nos ve. Se a Terra fose a súa estrela e a Lúa o seu planeta, a Lúa tería unha noite eterna nunha parte da súa superficie.

A inclinación do eixo de rotación de Urano chega case a 90 graos, e por iso hai zonas nas que os invernos duran decenas de anos / eltiempo.com

Existen planetas sincronizados coa súa estrela, de maneira parecida ao que lle pasa á Lúa coa Terra? A resposta é si. Criamos que iso era posible dada a nosa experiencia selenita, e agora coñecemos planetas rochosos como a Terra nos que a súa rotación e a súa órbita axustáronse, chámaselles planetas con axustes de marea (o nome provén de que é o mesmo que provoca as mareas na Terra). Obviamente, este axuste ten un efecto dramático nas probabilidades de existencia de vida. Pode ser o caso do planeta LHS3844b, bautizado como Kua’kua: é o primeiro planeta descuberto ao redor da estrela LHS3844, que é unha estrela uns 3000 graos máis fría que o Sol, o que a fai máis vermella, así que alí non son moi luminosos os días.

Hai algunha maneira máis de quedar sen noite, ou sen día, por longos períodos de tempo? Pois si: a duración da noite depende tamén de como se orienta o eixo de rotación co da órbita ao redor da estrela. Na propia Terra, o eixo de rotación non é perpendicular ao plano por onde se move o planeta ao redor do Sol, que se chama plano da eclíptica e é común a todos os planetas, aproximadamente. Coma se fose unha buxaina lixeiramente tombada, existe un ángulo de 23 graos entre o eixo e a eclíptica. Ese ángulo da eclíptica, ademais de provocar as estacións nalgunhas zonas do globo, fai que a noite sexa moi longa ou inexistente durante meses nas zonas polares.

Cada planeta ten o seu ángulo eclíptico, depende do seu proceso de formación e seguramente de eventos moi específicos. Podería ser que ese ángulo fóra tan grande que a rotación do planeta non dese lugar a que exista a noite e o día? Pois tamén Urano, sen ir máis lonxe, rota ao redor dun eixo que forma case 90 graos coa eclíptica. É coma se o noso paseante do campo de fútbol sempre se movese ao redor do punto central mirando cara a un fondo, pero facendo piruetas laterais, de modo que virase ao redor do seu embigo. O resultado para ese planeta do noso sistema solar é que hai un punto na superficie de Urano que ten 42 anos de noite e 42 anos de día, ao longo do seu ano, que equivale a 84 anos terrestres.

Hai algunha outra forma de que sempre sexa de noite en todo un planeta enteiro? De novo, pois si: que non teña estrela e sexa un planeta errante. Xa falamos sobre estes lobos solitarios, así que pechamos o artigo de hoxe aquí. Concluímos antes, iso si, dicindo que algo tan cotián para nós como é o día e a noite non tería por que existir. Aínda que seguramente non existiriamos como existimos sen esas noites e eses días, o que podería levar a dicir que tampouco seriamos como somos sen esa conservación do momento angular, esa lei de gravitación universal nin esas forzas de marea (e outros efectos que non detallamos), esa física que en última instancia explica o porqué do universo.

FONTE: Pablo G. Pérez González/elpais.com/ciencia      Imaxes: diariocorreo.pe/cultura e eltiempo.com

SABÍAS QUE... POR QUE OS BARCOS FLOTAN NA AUGA?

Observamos o vasto océano, as súas ondas incansables rompendo contra a costa. De súpeto, un barco emerxe ao lonxe, desafiando a gravidade coa súa impoñente presenza. Como é posible que esta mole de metal e madeira se rehúse a sucumbir ás profundidades, mentres que unha simple pedra afúndese de forma irremediable? A resposta a este enigma reside nun principio tan simple como sorprendente: a flotabilidade.

Imaxinemos o barco como un xigante oco que abraza a auga. Ao mergullarse, despraza unha certa cantidade de líquido, creando unha cavidade ao seu redor. A auga, en resposta, exerce unha forza ascendente sobre o barco, empuxándoo cara arriba, que é coñecida como empuxe hidrostático e que é exactamente igual ao peso da auga desprazada.

Se o peso do barco é menor que o peso da auga que despraza, a forza de empuxe supérao, facendo que o barco flote. En cambio, se o peso do barco é maior, a forza da gravidade vénceo, e afúndese nas profundidades.

O principio de flotabilidade foi descuberto por Arquímedes e foi a base para o deseño de barcos desde a máis remota antigüidade. Os construtores navais crearon embarcacións que optimizan o desprazamento da auga.

Dalgunha forma, a imaxe dun barco flotando é máis que un simple fenómeno físico. É un símbolo da creatividade humana, é un constructo da nosa capacidade para comprender as leis da natureza e utilizalas para o noso beneficio.

A metahistoria que explica como Arquímedes desenvolveu o principio da flotabilidade é verdadeiramente extraordinaria e non deixa de sorprendernos a día de hoxe. Cóntase que o sabio grego vivía na antiga Siracusa e que certo día o rei Hierón II convocoulle cun problema verdadeiramente perentorio.

O soberano sospeitaba que o ourive que lle deseñou unha coroa de ouro utilizara prata na súa elaboración, sen que el soubéseo. Hierón quería que Arquímedes determinase se a coroa era pura ou ben contiña metais menos valiosos pero, está claro, sen necesidade de destruíla.

Arquímedes, intrigado polo desafío, mergullouse nun profundo pensamento. Cóntase que mentres paseaba polos xardíns do palacio observou como unha rama dunha árbore afundíase na auga ao ser mergullada, desprazando unha cantidade de líquido equivalente ao seu volume. Foi entón cando unha faísca de inspiración iluminou a súa mente.

A clave para resolver o problema do rei estaba precisamente aí, na flotabilidade. Se a coroa era pura, desprazaría unha cantidade de auga equivalente ao seu volume en ouro. Se, pola contra, contiña prata, desprazaría menos auga, xa que a prata é menos densa que o ouro.

Para probar a súa teoría, Arquímedes encheu unha bañeira ata o bordo con auga e colocouna sobre unha báscula. Logo, tomou dous recipientes idénticos, un cheo de auga ata o bordo e outro baleiro. Mergullou a coroa no recipiente cheo de auga e colleitou a auga desprazada no recipiente baleiro.

Con coidado, mediu o peso da auga desprazada pola coroa. Logo, pesou a coroa e o ouro equivalente ao volume de auga desprazada. Se os pesos coincidían, a coroa era pura. Se o peso da coroa era menor que o do ouro, a diferenza indicaría a cantidade de prata utilizada.

Arquímedes levou os seus resultados ao rei Hierón. Con gran expectación, o rei observou como Arquímedes comparaba os pesos. A tensión era palpable. Finalmente, Arquímedes anunciou: A coroa non é pura! Utilizouse prata na súa elaboración.

FONTE: Pedro Gargantilla/abc.es/ciencia

SABÍAS QUE... O SEGREDODO PRODUTO QUE DEIXA A ROUPA MÁIS BRANCA

No mundo da limpeza, a lixivia álzase como un heroe indiscutible. O seu poder blanqueador, aparente máxico, permítenos eliminar manchas difíciles e manter a nosa roupa impecable. Pero, como funciona realmente?

Para comprender o poder da lixivia debemos penetrarnos no fascinante mundo das moléculas. Sabemos que a roupa, do mesmo xeito que calquera outro material, está composta por moléculas estreitamente unidas, as cales, á súa vez, están formadas por átomos.

Ademais, as moléculas non se atopan illadas no espazo, senón que interactúan entre si a través de forzas intermoleculares (forzas de Van der Waals ou forzas de ligazón de hidróxeno).

Introducímonos agora na cor da roupa, e dunha forma simplificada, podemos afirmar que se produce cando a luz branca incide sobre ela e os electróns dos átomos absorben un pouco da súa enerxía, devolvendo a luz sen esa fracción enerxética.

Isto explica por que a luz rebotada non é branca senón de cor.

A sucidade, nas súas diversas formas, tamén está composta por moléculas, as cales, ao entrar en contacto coa roupa, poden interactuar coas moléculas do tecido a través das forzas intermoleculares.

Segundo a interacción hai dous tipos principais de manchas: por transferencia e por precipitación. As primeiras prodúcense cando as moléculas da sucidade transfírense á roupa por contacto directo. Un exemplo clásico é unha mancha de graxa de comida.

Pola súa banda, as manchas por precipitación fórmanse cando as moléculas da sucidade disólvense nun líquido, como pode ser auga ou o aceite, e logo deposítanse sobre a roupa ao evaporarse o líquido. Un exemplo común é unha mancha de café.

Agora é cando entra en xogo o terceiro actor, a lixivia, cuxo compoñente principal é o hipoclorito de sodio (NaClO). Este composto químico actúa como un axente oxidante, o que significa que ten a capacidade de roubar electróns a outras moléculas.

E é que cando a lixivia entra en contacto cunha mancha, as súas moléculas de hipoclorito de sodio atacan as moléculas do colorante, arrebátanlle electróns, rompen as ligazóns e altera a súa estrutura molecular.

Ao perder electróns, as moléculas experimentan un cambio na súa configuración electrónica que modifica a súa capacidade para absorber a luz visible, facendo que a mancha perda a súa cor e tórnese invisible aos nosos ollos. Este proceso químico é irreversible, posto que unha vez que as moléculas perderon os seus electróns e cambiaron a súa estrutura nunca poderán volver ao seu estado orixinal.

Ademais do seu poder blanqueador, a lixivia tamén ten propiedades desinfectantes, xa que é capaz de eliminar microorganismos. Esta característica convértea nun produto ideal para desinfectar superficies e previr a propagación de enfermidades.

De feito, cando a lixivia foi descuberta, alá por 1785, polo químico francés Charles- Francois de Bethollet, utilizouse principalmente para desinfectar auga e previr a aparición de enfermidades.

FONTE: Pedro Gargantilla/abc.es/ciencia     Imaxes: espacioclean.cl e pascual-eduardo.com

SABÍAS QUE... A ORIXE ESPAÑOLA DA POTA DE PRESIÓN

No apaixonante mundo da innovación culinaria a pota ocupa un lugar central. O seu deseño simple pero efectivo revolucionou a forma coa que preparamos e gozamos dos alimentos.

O principio fundamental da pota de presión é simple: utilizar a presión do vapor para aumentar o punto de ebulición da auga. Ao pechar hermeticamente a pota créase un ambiente con vapor de auga a alta presión, o cal eleva o punto de ebulición da auga, permitindo que os alimentos se cociñen a temperaturas máis altas que nunha pota convencional. Agora ben, cando e onde xurdiu esta ferramenta tan esencial?

Para asistir ao seu alumeamento témonos que remontar ata o século XVII. Foi entón cando o físico francés Denis Papin, inspirado nos traballos de matemáticos e físicos de Heron de Alexandría, inventou un dispositivo chamado «dixestor» que utilizaba o vapor para cociñar os alimentos a temperaturas máis altas que as que se podían alcanzar nunha pota convencional.

Este aparello estaba fabricado con metal groso e provisto dunha tapa hermética, de forma que o primeiro que había que facer é encher o dixestor con auga e cos alimentos que se desexaban cociñar, para a continuación colocar o aparello sobre unha fonte de calor, como un lume ou unha estufa, de tal forma que a auga se quentaba e convertíase en vapor.

A presión do vapor elevaba o punto de ebulición da auga, permitindo que os alimentos se cociñasen a temperaturas moito máis altas, reducindo significativamente o tempo de cocción.

A pesar de tratarse dun utensilio enxeñoso, o dixestor de Papin presentaba algunhas limitacións: a súa construción non era completamente segura, o que aumentaba o risco de explosións debido á alta presión interna. Por outra banda, o seu manexo requiría dun coñecemento técnico previo. En Román paladino, que o invento francés non tivo a aceptación que se esperou, aínda que é certo que sentou as bases para o desenvolvemento da pota a presión moderna.

A pota a presión, tal e como a coñecemos a día de hoxe, e por sorprendente que nos poida parecer, é un invento español. Foi o zaragozano José Álix Martínez quen, en 1919, rexistrou unha patente á que denominou «pota exprés».

Diferenciábase das potas tradicionais polo seu deseño ergonómico e funcional. E é que a súa forma ovalada permitía unha mellor distribución da calor, mentres que o seu fondo plano facilitaba a cocción uniforme dos alimentos. Ademais, incorporaba unha tapa hermética que conservaba a calor e os sabores.

Catro anos despois a empresa americana Silex lanzou a primeira pota a presión comercial, a coñecida como Silex Pressure Cooker, que tivo un enorme impacto na cociña doméstica. Aínda que é certo que terían que pasar máis de dúas décadas para que a súa presenza convertésese en esencial nos fogóns.

Para favorecer a súa difusión, nos seus inicios a pota vendíase acompañada dun folletín con 360 receitas, o cal constitúe o primeiro receitario do mundo para este tipo de electrodomésticos. Ao longo dos seguintes anos a pota a presión incorporou mecanismos de seguridade e válvulas reguladoras a presión.

FONTE: Pedro Gargantilla/abc.es/ciencia      Imaxes: clickmica.fundaciondescubre.es e gl.wikipedia.org

SABÍAS QUE... POR QUE O XABÓN FAI ESCUMA?

Era extremadamente tímido, solitario e misóxeno. Dicíase que non vía a ninguén, nin sequera aos seus familiares máis próximos e que se comunicaba coas súas serventas a través de notas escritas. Os seus contemporáneos dicían del que era un excéntrico, quizais agora, e coa axuda do manual de diagnóstico de trastornos mentais DSM-V, haberiámoslle etiquetaxe de Síndrome de Asperxer. O seu nome era Henry Cavendish (1731-1810) e pasou á Historia da Ciencia como un dos químicos máis importantes.

Un dos seus descubrimentos máis coñecidos tivo lugar en 1766. Ese ano Cavendish observou que cando mesturaba partículas de zinc con ácido clórico xerábase un gas ao que bautizou como ’aire inflamable’, e ao que agora coñecemos como hidróxeno.

Comprobou, tamén, que se poñía aquel composto gaseoso en contacto co aire xerábase auga. Desta forma, Cavendish descubriu que a auga estaba formada por dous partes de hidróxeno e unha de osíxeno, converténdose así na primeira persoa en formular a composición da auga.

Pasaron case tres séculos daquel experimento e nestes momentos sabemos que as moléculas de auga atráense entre si e forman o que denominamos «tensión superficial». Isto tradúcese en que as moléculas «máis expostas» atópanse máis unidas, actuando a modo de coraza en relación ás máis internas.

Se nos fixamos agora no xabón, as súas moléculas son cadeas longas de átomos que teñen unha cola que repele a auga (hidrófoba) e unha cabeza que é soluble nela (hidrófila).

Por ese motivo, cando o xabón entra en contacto coa auga fórmanse micelas, isto é, esferas nas que todas as cabezas están en contacto coa auga e todas as colas orientadas cara ao interior. Son estas micelas as responsables da formación da escuma jabonosa.

Agora ben, as cabezas hidrófilas poden reaccionar cos ións de calcio e magnesio presentes na cal da auga. Ambas as substancias químicas teñen carga positiva, polo que se a auga ten moito cal vai existir unha gran interacción, que acabará fracturando as micelas. A derivada última deste fenómeno é que o xabón forma menos escuma e necesítase unha maior cantidade de xabón para atrapar a sucidade.

Esta explicación desmonta un mito moi popular que atribúe aos xabóns e deterxentes que fan máis escuma unha mellor calidade como produto de limpeza, cando a realidade é que a escuma que se forma depende da cantidade de calcio e magnesio presente na auga.

Un concepto moi utilizado cando se fala da calidade da auga é a ’dureza’, a cal garda unha relación directamente proporcional á presenza de magnesio e calcio que hai disolto na auga.

A dureza da auga depende en último termo das formacións xeolóxicas que atravesa antes de ser captada. Así, por exemplo, as augas subterráneas que pasan por acuíferos calizos teñen maior dureza que aquela que pasa por acuíferos silicitados.

Isto explica por que ao longo e ancho da xeografía española atopámonos diferentes tipos de dureza da auga, desde unha auga moi branda, como a de Vigo, ata outra moi dura, a da cidade de Málaga.

FONTE: Pedro Gargantilla/abc.es/ciencia      Imaxe: grupoakua.es

SABÍAS QUE... POR QUE MANTEMOS O EQUILIBRIO NUNHA BICICLETA?

Medidas de seguridade para facer ciclismo / freerkset.live

Foi en 1818, hai máis de douscentos anos, cando o alemán Karl von Drais, patentou o seu Laufsmachine, un aparello de dúas rodas que podía virarse cunhas manillas e que se movía grazas ao impulso dos pés. Durante moito tempo esta primitiva bicicleta foi coñecida, simplemente, como velocípedo.

A bicicleta, mirémolo por onde o miremos, baséase nas leis da física. Co permiso dos académicos da lingua poderiamos definila como unha máquina que segue todos os capítulos dun libro de física. Nela conceptos como o peso, o rozamento, a enerxía cinética e potencial gravitatoria, o traballo, a potencia e as velocidades lineais e angulares son básicos para manter a súa estabilidade.

Desde hai máis de 150 anos os físicos están a dar voltas á bicicleta para gañar estabilidade. Na súa procura permanente de modelos máis aerodinámicos non se cansan de analizar tres parámetros básicos: a xeometría en xeral, a distancia entre os eixos e o ángulo que forma a pinza respecto ao cadro.

Fai xa máis dunha década, no ano 2007, un grupo de científicos da Universidade Tecnolóxica de Delft publicaron un artigo en Proceedings of the Royal Society no que explicaban o modelo de maniobrabilidade e estabilidade da bicicleta en base a vinte e cinco factores diferentes.

Nas súas conclusións defendían que a velocidade ideal, para que unha bicicleta sexa o máis estable posible, está ao redor de 14-20 quilómetros á hora, por encima aumenta a posibilidade de envorcar e por baixo diminúe a estabilidade.

Todos comprobamos a dificultade que entraña manter a liña recta cunha bicicleta e que cando se nos inclina cara á dereita bastará que nós fagamos o propio cara a ese lado para que as rodas queden xusto debaixo de nós e reorientemos a traxectoria. Este bamboleo, tamén o sabemos, é moito máis visible nos principiantes, especialmente nos nenos, e pasa practicamente inadvertido nun ciclista avezado.

A experiencia tamén nos demostra que cando queremos virar temos que facer un fenómeno contraintuitivo, é dicir, que se pretendemos ir á esquerda o que facemos é mover levemente o guiador á dereita para provocar unha inclinación á esquerda que, finalmente, lévanos onde queriamos. Este fenómeno foi observado por vez primeira a finais do século XIX polo enxeñeiro William Rankine.

Outro aspecto importante para manter o equilibrio é o deseño da bicicleta. A través do método de ensaio e erro chegouse á conclusión de que a columna de dirección, a pinza, debe estar inclinada.

A pinza é a peza dobre que sostén a roda dianteira e que se conecta co guiador, debe estar situada de forma que a roda frontal entre en contacto co chan nun punto que se atope lixeiramente por detrás. A distancia entre eses dous puntos é o que se coñece como «trail», o cal é un factor crave para dar estabilidade á bicicleta cando montamos sen mans ou cando nos inclinamos sobre a bicicleta.

Os investigadores tamén comprobaron que canto máis grande sexa o ángulo que forma a pinza cara a adiante, máis estable será a bicicleta cando se desprace en liña recta, pero está claro, maior será a complexidade para cambiar de dirección.

Un xiroscopio é un dispositivo estabilizador. Basicamente poderíase dicir que é un conector que fai máis difícil cambiar a orientación do obxecto sobre o que actúa. O xiroscopio é moi útil en navegación, en satélites, en contornas onde se require precisión ou unha certa inmunidade fronte a influencias externas.

Para realizar a súa función debe dispón dun elemento circular que se fai virar rapidamente. Mentres o fai, e grazas ao principio da conservación do momento angular, impide que se produzan cambios bruscos no eixo de xiro.

Coñecendo todo isto durante moito tempo pensouse, con bo criterio, que o movemento giroscópico debía ser esencial para manter o equilibrio na bicicleta.

Con todo, cando se realizaron modelos de estudo para coñecer a súa importancia a conclusión foi sempre a mesma: non é un variable determinante, polo menos na bicicleta.

FONTE: Pedro Gargantilla/abc.es/ciencia

SABÍAS QUE... PORQUE VOLVEMOS Á LÚA?

A pregunta expúxose hai xa máis de medio século e volve estar de actualidade agora, cando estadounidenses e chineses prepáranse para regresar ao único satélite natural da Terra. Por que volver? As dúas potencias fano, eta vez, coa intención de quedar durante estancias máis longas que as breves visitas dos primeiros astronautas nos 60 e 70. O interese xeopolítico nesta carreira é indiscutible.

Pero hai máis razóns. Como sempre, o ansia, implícita na natureza humana, de chegar sempre un pouco máis aló. É famoso o motivo que deu George Mallory para tentar a ascensión ao Everest: “Porque está alí”. Quizá esa mesma razón podería xustificar en parte a épica dos primeiros voos Apolo, pero hoxe esa sensación de aventura evaporouse para deixar paso a motivacións máis prosaicas.

A Lúa é un excelente laboratorio científico. Esa pode ser outra xustificación para os novos exploradores. Aínda quedan moitas incógnitas que despexar sobre a súa orixe, a súa evolución e con ela, a das primeiras épocas do sistema solar. A ausencia de atmosfera e de campo magnético ofrece unhas condicións especialísimas para realizar observacións astronómicas desde a súa superficie. E a cara oculta sería un lugar perfecto onde instalar radiotelescopios, a salvo das perturbacións electromagnéticas xeradas na Terra. Claro que a simple curiosidade científica quizá non xustifique o enorme custo da empresa.

Queda outra motivación máis material: o interese mercantil. Hai algo de valor na Lúa que a faga interesante comercialmente? Unha resposta obvia é auga. Por suposto, na maior parte do satélite a súa existencia (sólida ou líquida) é imposible: no baleiro e coa calor do día, calquera placa de xeo sublimaríase e os gases escaparían ao espazo.

Pero nas rexións polares a situación é diferente. Ao contrario que na Terra, a órbita e o eixo da Lúa están moi pouco inclinados con respecto á eclíptica. Alí case non existen estacións. Nos polos, os raios do Sol inciden sempre moi tanxenciais e non alcanzan o fondo dalgúns cráteres profundos. Sumidos nunha noite eterna, neles rexístranse temperaturas que nunca soben dos 150 graos baixo cero, suficiente para permitir a conservación indefinida de xeo.

Varios experimentos confirmaron a existencia de xeo de auga. Algúns satélites detectárono mediante a análise de neutróns orixinados polo bombardeo dos raios cósmicos, un síntoma que apunta á presenza de átomos de hidróxeno embebidos no regolito (termo xeral usado para designar a capa de materiais non consolidados, alterados, como fragmentos de roca e grans minerais, que descansa sobre rocha sólida inalterada). Non necesariamente como auga, senón tamén como constituíntes de minerais hidratados. Outros empregaron a técnica do “radar biestático”: enviar un sinal de radio que rebote no fondo deses cráteres para ser recollida nas grandes antenas de seguimento na Terra. A distorsión que sufrían as ondas resultou máis propia de superficies xeadas que de terreos rochosos.

Estímase que na rexión austral da Luna hai uns 10.000 km2 de zonas de sombra permanente. Nelas, o xeo non forma grandes extensións como pistas de patinaxe, senón que está mesturado co regolito nunha especie de barro xeado. En proporción, de cada metro cúbico de terreo podería extraerse, no mellor dos casos, o equivalente a unha lata de refresco de auga.

Se algunha vez obtense auga lunar non irá destinada nin ao consumo humano nin a enviala á Terra. Aínda purificada, o máis seguro é que teña un sabor desagradable e, por outra banda, no noso planeta xa temos auga dabondo. A súa verdadeira utilidade será como materia prima para descompoñela en osíxeno e hidróxeno, que son unha das mesturas máis enerxéticas en motores foguete. É xusto o que consumirá a futura nave de aluaxe de Blue Origin (o proxecto de SpaceX, máis conservador, queimará metano e osíxeno).

A produción de auga lunar en cantidades industriais esixirá instalacións a gran escala, neste momento difíciles de soñar cando a mera construción dunha modesta base permanente expón tantos problemas. Pero algún día a Lúa convértese nunha especie de gasolineira espacial, eses cráteres escuros poden ser o terreo máis valioso no noso sistema solar.

No noso satélite hai outro elemento con enorme potencial económico, o helio-3 (3He). É un isótopo estable do helio que se forma na nosa estrela e chéganos arrastrado polo vento solar. Na Terra, o campo magnético e a atmosfera actúan como escudo, pero na Lúa esa protección non existe e ao longo de millóns de anos o helio-3 foi embebéndose no terreo. Todo o noso satélite é un posible xacemento. Polo menos, en teoría.

Cando helio-3 esconde a Lúa? Algúns cálculos suxiren que entre un e tres millóns de toneladas, case todo acumulado nas capas exteriores do regolito, así que a súa extracción sería relativamente fácil.

Na Terra, cantidades ínfimas de helio-3 permanecen atrapadas nas capas profundas do chan, ocasionalmente escapan nas emisións dalgúns xacementos de gas. A maior parte prodúcese artificialmente en reactores nucleares, irradiando litio ou como resultado da desintegración do tritio, un elemento utilizado nas bombas termonucleares. O progresivo desmantelamento deses arsenais reduciu a súa dispoñibilidade.

O helio-3 describiuse como o combustible do futuro nas centrais de fusión. A súa reacción con deuterio desprende enormes cantidades de enerxía dando como refugallo inofensivos átomos de helio-4 sen emisión de radiacións perigosas. O santo graal da enerxía limpa.

O helio-3 só está dispoñible en cantidades moi pequenas, apenas suficientes para algúns experimentos. Está claro, é moi caro: máis de 30.000 dólares por gramo. O consumo mundial, limitado pola restrinxida oferta, é de pouco máis de medio quilo ao ano. Utilízase para construír equipos para a industria nuclear, en especial detectores de neutróns. Tamén para alcanzar temperaturas moi baixas, da orde dunhas décimas de grao sobre o cero absoluto, de uso obrigado en instrumentación cuántica. E é cada día máis utilizado en aplicacións biomédicas de diagnóstico por imaxe con equipos de resonancia magnética e de espectroscopia de raios X.

Os analistas estiman que existe unha demanda potencial de helio-3 por valor duns 400 millóns de dólares, un pastel non só moi atractivo, senón que presenta unha clara tendencia crecente. Esa substancia pode ser escasa no noso planeta, pero con seguridade na Lúa hai xacementos de fácil explotación, xa que está absorbido nas capas superiores do regolito. O que podía parecer ciencia ficción hai dez anos é agora unha oportunidade comercial real. Varias empresas están a estudar seriamente esa posibilidade.

FONTE: Rafael Clemente/elpis.com/ciencia   Imaxe: es.wikipedia.org

SABÍAS QUE... CANDO APARECEU O PRIMEIRO RELOXO MECÁNICO?

Ilustración dun reloxo desde Acta Eruditorum, 1737 / Wikicommons

 

Na Europa do século X a vida viraba en torno ao ritmo das oracións e o traballo manual. Os mosteiros benedictinos, centros de coñecemento e relixiosidade, eran os encargados de marcar o paso do tempo con campás que ecoaban ao longo do día e a noite.

Hai que ter en conta que, alá polo século VI, San Benito estableceu as Horas Canónigas dentro dos muros dos mosteiros benedictinos, e con elas creou unha nova realidade temporal ao dividir ao día en sete partes: maitines, laudes, terzas, nonas, vésperas, sexta e completas.

Agora ben, as campás eran accionadas manualmente e, ademais, non eran do todo precisas. Os cambios de estación, as condicións climáticas e, mesmo, o estado de ánimo do campanero podía afectar o seu ritmo. Por este motivo, os monxes benedictinos, ávidos de precisión e orde, non cesaron no seu empeño de atopar unha solución máis fiable.

É aí onde entra en escena Gerberto de Aurillac, un monxe benedictino francés cunha mente prodixiosa. A finais do século X, Gerberto, quen máis tarde se convertería no Papa Silvestre II, ideou un sistema para medir o tempo con maior precisión: o primeiro reloxo mecánico.

O seu invento baseábase no uso de pesas que, ao descender, proporcionaban a forza necesaria para mover un sistema de engrenaxes. Estas engrenaxes, á súa vez, facían virar unha roda dentada que indicaba o paso do tempo.

Aínda que o deseño de Gerberto era rudimentario, se o comparamos cos reloxos mecánicos posteriores, marcou un fito sen precedentes na historia da reloxería. A súa invención permitiu aos benedictinos xestionar mellor o seu tempo e optimizar as súas actividades diarias.

O enxeño de Gerberto sentou as bases para o desenvolvemento de reloxos mecánicos máis complexos e precisos. No século XIII, a invención do escape de foliot, un mecanismo que regulaba o movemento das engrenaxes, supuxo outro avance significativo. Nada volvería ser igual desde entón. As nubes podían paralizar o reloxo do sol, o xeo podía deter o reloxo de auga nunha noite invernal, pero o reloxo mecánico carecía de obstáculos meteorolóxicos capaces de impedir aquilo para o que estaba deseñado.

A pesar de todo, habería que esperar ata o século XVII para que o reloxo mecánico alcanzase o seu apoxeo. A incorporación do péndulo, inventado por Galileo Galilei, permitiu medir o tempo cunha marxe de erro de só uns segundos ao día.

A campá, outrora o único indicador do tempo, converteuse nun complemento perfecto do reloxo mecánico. As badaladas, agora sincronizadas co movemento do péndulo, marcaban as horas e servían como sinal para as actividades diarias da comunidade.
Un legado revolucionario

O nacemento do primeiro reloxo mecánico non só transformou a forma en que mediamos o tempo, senón que tamén tivo un profundo impacto na sociedade: a precisión coa que se podía medir permitiu unha mellor organización do traballo, a navegación e a comunicación.

Aos poucos os reloxos mecánicos convertéronse en obxectos de gran valor e prestixio, símbolos de poder e status. A súa elaboración requiría dunha gran habilidade artesanal e coñecementos matemáticos e físicos avanzados.

Dalgunha forma cada tic-tac actual lémbranos o enxeño dos monxes benedictinos e a procura constante da humanidade por comprender e medir o tempo, ese elemento intanxible que define as nosas vidas e impúlsanos a seguir adiante.

FONTE: Pedro Gargantilla/abc.es/ciencia