Loading....

I diamanti: un tesoro per gli scienziati.

di Irene Feliciotti

Le gemme più splendenti vengono da Arda, ma pietre in grado di imprigionare la luce del sole non se ne trovano sono nella Terra di Mezzo: noi abbiamo i diamanti! Queste pietre preziose non solo attirano l’interesse dell’ego femminile, ma sono anche uno scrigno di segreti per chimici, fisici e geologi!

Il diamante è un reticolo di carbonio in forma solida, come quella della grafite delle matite, che per la sua conformazione riesce ad avere un’incredibile lucentezza e durezza.

Ma per diventare una gemma preziosa, questi atomi devono avere una specifica conformazione degli orbitali atomici e devono sottostare a particolari condizioni di temperatura e pressione.

Ci sono due teorie sulla formazione dei diamanti. La prima ipotizza che si formino nel mantello litosferico ad una profondità compresa tra 40 e 250 km, a una temperatura tra 900° C e 1400° C, e pressioni tra 10 e 80 mila atmosfere.

L’altra teoria prevede che i diamanti si formino da rocce metamorfiche durante i processi di subduzione, ovvero dove una placca scivola al di sotto di un’altra (pensate alla “cintura di fuoco” attorno all’Oceano Pacifico per avere un’idea di una zona di subduzione). La formazione avrebbe inizio entro la placca tettonica che affonda nel mantello terrestre, a partire da 600°C e per pressioni superiori ai 3 gigapascal. Esiste poi un’altra fonte di diamanti: nelle zone di impatto dei meteoriti sono stati riscontrati microcristalli di diamanti.

Un interessante studio pubblicato su Nature ha recentemente ipotizzato una nuova possibile via di formazione dei diamanti: i preziosi minerali potrebbero anche essersi formati nelle profondità della Terra grazie ad una reazione tra roccia e acqua! Quando ci sono infiltrazioni di fluidi (acqua in condizioni supercritiche, non l’acqua che siamo abituati a vedere abitualmente) in rocce calde ad alte pressioni, in particolari condizioni di pH, ci può essere una precipitazione del carbonio e la formazione della pietra preziosa.

Ma per trovare i diamanti non si scava fino a centinaia di km di profondità: questi sono stati portati in superficie da particolari eruzioni esplosive violentissime che in passato hanno perforato la crosta degli antichi continenti formando quei camini diamantiferi dove oggi si trovano le miniere, soprattutto in Canada, Africa australe e Australia.

Altro segreto del diamante e la metastabilità! Il diamante è termodinamicamente instabile, dovrebbe spontaneamente trasformarsi in grafite, se ciò non avviene  è perché il suo reticolo cristallino a forma tetraedrica è cineticamente stabile e impedisce la traslazione degli atomi di carbonio in atomi con orbitali ibridi sp2. Inoltre, esattamente come un pezzo di carbone, il diamante tende a reagire con l’ossigeno in una reazione di combustione: un diamante gettato nel monte fato si trasformerebbe in CO2.

Per le loro caratteristiche chimiche e fisiche i diamanti sono tra i materiali più duri, tanto che possono essere tagliati solo con altri diamanti o con materiali sintetici di recentissimo sviluppo. Per questa loro caratteristica di durezza, per la loro alta conducibilità e per mille altre proprietà, queste pietre sono molto usate in campo tecnologico ed industriale.

Ma per gli scienziati allo studio del loro reticolo cristallino e della loro formazione i diamanti sono molto di più: sono scrigni di conoscenza in cui sono contenuti la storia ed i segreti delle profondità della Terra. Infatti all’interno dei diamanti spesso sono intrappolati sia altri minerali che fluidi, che forniscono informazioni sulla composizione dell’interno della terra. Analizzando le inclusioni, possiamo ricostruire sia il chimismo dei materiali che le condizioni di pressione e temperatura presenti al momento della formazione del diamante che le contiene.

Quindi possiamo dire che i diamanti non sono solo i bellissimi luccicanti amici delle donne, sono piuttosto essi stessi una miniera di conoscenza, una sorta di capsula del tempo che ci mostra come era l’interno della terra alcuni miliardi di anni fa.

Fonti:

https://www.nature.com/articles/ncomms9702
http://www.elementsmagazine.org/toc/toc_v1n2.pdf
https://www.smithsonianmag.com/travel/german-town-contains-millions-diamonds-180961467/



Le Regole della Scienza e il Gioco dei Vaccini

I vaccini non sono sicuri al 100%, lo dice la scienza.

Lo dice serenamente perché, per fortuna, nessuno scienziato oserebbe dire che qualcosa è sicuro al 100%. Grazie al progresso scientifico però possiamo essere ambiziosi e puntare al massimo della sicurezza e dell’efficacia. Purtroppo però quando dici che un vaccino è sicuro al 98%, sembra che quel 2% di resto sia la cosa più spaventosa del mondo.

È importante fare chiarezza; remare contro lo sviluppo tecnologico non può fare bene a nessuna società. Sembra un discorso chiaro e semplice, ma a quanto pare non è così condiviso. Negli ultimi anni sono diffuse tante notizie sui vaccini e si è cominciato a parlare di contaminanti, di vaccini influenzali, di epidemie… tanta confusione che ha portato una generale sfiducia verso questo superpotere che abbiamo contro le malattie, dagli anni di Edward Jenner che scoprì il vaccino contro il vaiolo, 1796.

A far cresce questa sfiducia recentemente ci ha pensato l’associazione CORVELVA – Coordinamento Regionale Veneto per la Libertà delle Vaccinazioni fondata nel 1993.

L’intento era proprio dimostrare l’inefficacia del vaccino polivalente Infanrix, indicato per la vaccinazione primaria e di richiamo di neonati e bambini contro difterite, tetano, pertosse, epatite B, poliomielite e malattia causata da Haemophilus influenzae tipo b.

Purtroppo però se vuoi giocare con la Scienza, devi rispettare le regole del gioco. Ci sono dei protocolli da seguire, dei reagenti da usare e dei metodi approvati per ottenere i risultati. Non si può semplicemente fare un po’ il prestigiatore e trarre conclusioni che, guarda un po’, sono esattamente quelle sperate.

Intanto spieghiamo brevemente il principio alla base dei vaccini. Ogni vaccino porta un componente detto antigene: una proteina che viene riconosciuta dal sistema immunitario e quindi scatenala reazione immunitaria. Per fare il vaccino, questa proteina viene scaricata della sua azione tossica e viene perfezionata per attivare i nostri linfociti.

In questo studio viene scritto che non sono state rilevate tracce dell’antigene, quindi il vaccino è inutile. Se si va a vedere bene però, con occhi tecnici, si capisce che per fare l’esperimento è stato usato un reagente, la tripsina, che denatura e rompe tutti i legami che tengono insieme le proteine. In poche parole, anche se l’antigene ci fosse stato, sarebbe stato distrutto.  Andando a leggere più a fondo viene e scritto che utilizzando un saggio colorimetrico chiamato Bradford, si capisce che ci sono proteine, probabilmente questo antigene, nel campione. Ma lo studio questo risultato non lo mette in evidenza.

Il secondo punto, e qui uno studente di biochimica si strapperebbe i capelli, è la rilevazione di contaminanti. Infatti lo studio rivela che sono stati rilevati 65 contaminanti nel vaccino. Per farlo hanno usato una tecnica chiamata SANIST che non rivela assolutamente quali siano questi composti. Quello che possono dire è che sono stati rilevati 65 spettri di massa ma non hanno idea di cosa siano. E se fossero proprio pezzi degli antigeni? Loro non ce lo dicono! Ma perché non possono, avrebbero dovuto fare molte indagini identificative in più che, giustamente, si sono risparmiati.

Altro grande problema dello studio contro i vaccini: mancano i controlli!  Ora, chiunque abbia fatto una minima esperienza in laboratorio ad un certo punto si è trovato a fissare degli splendidi risultati, urlare “Eureka”, poi fissare un punto a caso, realizzare di non aver messo dei controlli nell’esperimento, cadere in depressione e pensare seriamente di cambiare mestiere!  I controlli sono quelli che ti permettono di validare un esperimento, di dire che non sei stato te a manomettere la procedura e di affermare che nessuno dei tuoi strumenti o reagenti sia stato contaminato.

In conclusione questo esperimento fa acqua da tutte le parti. La cosa allucinante è che è arrivato alla stampa senza subire un processo di controllo o di peer-review, come se non fosse stato prima approvato dalla comunità scientifica.

Lo scopo di questo studio è stato quello di dimostrare che i vaccini sono vuoti di principio attivo, sono quindi quasi vaccini omeopatici, e che invece contengono sostanze inquinanti. Ma a che pro? Perché svalutare così tanto l’utilizzo dei vaccini? Sono stati un’innovazione rivoluzionaria che ci ha permesso di non morire più a 5 anni di poliomielite o a 16 di tifo. Non dovrebbe la comunità scientifica investire soldi nel sostenere la ricerca vaccinale? Se abolissimo i vaccini, quale sarebbe l’alternativa? Perché si è smesso di puntare al progresso?  

di Irene F.

Fonti:

https://www.nature.com/articles/d41586-018-07464-0

Immagine di https://www.instagram.com/p/BrnNRpBAgcl/

Farmaco Equivalente o Originale?

Oggigiorno si sente continuamente parlare in tv, sui social, per radio di farmaci equivalenti.

Cosa si intende per farmaco equivalente? Perché è definito così? Attualmente su questa tematica c’è tanto da discutere, proviamo a mettere un po’ di ordine.

Che cos’è un farmaco equivalente?

La caratteristica principale del farmaco equivalente è quella di avere il principio attivo ( la sostanza da cui dipende l’attività curativa del farmaco) nella stessa forma farmaceutica del farmaco originale (originator), ciò che varia sono gli eccipienti, ovvero altri elementi che si trovano all’interno del farmaco nella sua forma finita.

Sono gli eccipienti (sostanze prive di proprietà terapeutiche, ma necessarie per facilitare l’assunzione o rendere il farmaco disponibile all’organismo) che possono provocare reazioni allergiche. Molto spesso non si conoscono nella loro totalità e quindi diventa imprevedibile sapere se possono alterare alcune reazioni all’interno del nostro organismo.

Un parametro di un farmaco equivalente da non sottovalutare è la sua biodisponibilità, ovvero il tempo necessario per rendere il principio attivo disponibile all’organismo. Se la biodisponibilità l’equivalente oscilla tra il 3 ed il 5%  si può affermare che non ci sono variazioni significative rispetto all’originale.

Occhio alla provenienza

Un fattore rilevante ,ma spesso sottovalutato, è il sito di produzione del farmaco. La maggior parte delle aziende farmaceutiche a causa degli elevati costi di gestione e di produzione ha spostato all’estero gli stabilimenti produttivi; ciò ha fatto sì che spesso non si conosca la provenienza del farmaco e quali siano gli eccipienti inseriti.

Invece i  farmaci equivalenti prodotti in Italia  sono sottoposto a controlli da parte dell’AIFA (Agenzia Italiana del Farmaco) durante tutti i vari step della loro produzione; ciò fornisce una maggiore garanzia sulla loro sicurezza.

Di contro quelli prodotti all’estero subiranno procedure e controlli totalmente diversi da quelli italiani non permettendo sempre di appurare la loro reale efficacia.

Perché un farmaco equivalente è più economico?

Un farmaco equivalente nasce quando scade il brevetto del farmaco originale, facendo decadere  il costo del prodotto e la ricerca del principio attivo. Ecco spiegato il calo del prezzo.

Ad oggi l’uso di questa tipologia di farmaci si rivela più economico sia per i pazienti, sia per il SSN (Sistema Sanitario Nazionale) che tende così a concentrare la spesa economica su farmaci più specifici e costosi.

Alla luce di queste informazioni, ricordiamoci sempre che anche un farmaco equivalente resta pur sempre un farmaco (ogni possibile abuso anziché risolvere un problema rischia di generarne altri) e gli eccipienti utilizzati o la provenienza di questi possono mutare (seppur sensibilmente) le proprietà del farmaco; per questa ragione resta sempre valido il consiglio di informarsi su queste caratteristiche quando ne valutiamo l’acquisto.

[A. L. A.]

Riferimenti:

Zhong Zhong e Hua Hua, le prime scimmie clonate come la pecora Dolly

È accaduto in Cina, alla “Chinese Academy of Science Institute of Neuroscience” di Shanghai e lo studio è stato pubblicato sulla celebre rivista “Cell”, creando molto scalpore e non solo nel mondo scientifico: sono state clonate per la prima volta due scimmie con la tecnica detta somatic cell nuclear transfer (SNCT).

Leggi di più

Il futuro dell’alimentazione è la carne artificiale?

Ogni anno vengono macellati a scopo alimentare oltre cento miliardi (avete letto bene) di animali, la maggior parte dei quali è pollame. L’allevamento è una delle attività umane con il maggiore impatto ambientale: oltre metà delle coltivazioni terrestri è infatti destinato produrre foraggi e mangime per gli allevamenti, con enorme pressione verso territori vergini (che vengono convertiti a nuove coltivazioni, con danni ad animali e popolazioni) e danno ambientale diretto (deterioramento del suolo, elevato consumo di acqua…).

Per finire, la richiesta di carne è più che raddoppiata negli ultimi 50 anni, e -complice l’aumento della popolazione umana e il miglioramento delle condizioni di vita umane in molte aree del globo- aumenterà ancora nei prossimi anni.

Immagine grande: fiasche di coltura per la produzione in piccola scala di un hamburger artificiale. (C) New Harvest, http://www.new-harvest.org/ Immagine piccola: rappresentazione artistica della coltivazione in vitro

È dunque evidente che il sistema degli allevamenti potrebbe giungere al collasso. Una risposta sempre più diffusa all’aumentata consapevolezza del problema è l’incremento di persone che sposano diete vegetariane, che resta tuttavia un fenomeno di nicchia e poco influente a livello globale.

Ma se fosse possibile produrre carne…senza animali?

La carne artificiale è ottenuta tramite colture cellulari, in laboratorio. Cellule staminali vengono fatte crescere a formare un tessuto con caratteristiche del tutto simili al tessuto animale. L’idea che fosse poco efficiente allevare un intero animale per usarne solo alcune parti a scopo alimentare era stata evidenziata già da Winston Churchill nel 1931, ma i primi passi avanti nella produzione di carne artificiale si sono avuti alla fine degli anni 90, quando è stato depositato il primo brevetto per la produzione in vitro di tessuti ingegnerizzati. Nel 2013 a Londra ha avuto luogo la prima dimostrazione pubblica, un hamburger è stato cotto e poi assaggiato da un critico, che ha affermato che “il sapore è quello della carne”.

Da allora l’interesse per la carne artificiale è enormemente lievitato, per via delle enormi ricadute etiche ed ambientali che un simile prodotto ha, ma anche per la possibilità di produrre a costi enormemente inferiori. La possibilità di “creare” da cellule ingegnerizzate permette inoltre di stabilire a priori la composizione in termini di nutrienti (proteine, grassi…) per offrire un prodotto del tutto bilanciato con le necessità nutrizionali umane.

La procedura di produzione, sebbene ancora grezza, è semplice: si parte da cellule staminali di muscolo animale e le si fa crescere in una coltura usando un’impalcatura tridimensionale per “guidare” la crescita e la forma della massa cellulare (un compito che nell’organismo è svolto dalla matrice extracellulare). Una volta iniziato il processo, le cellule ingegnerizzate continuano a replicarsi all’infinito, producendo teoricamente 50 mila tonnellate di carne a partire da una singola cellula dopo due mesi di coltivazione.

Vi sono ancora alcune questioni da risolvere: la carne “vera” non è fatta solo da cellule muscolari ma anche da cellule lipidiche, fondamentali per dare alla carne il “gusto” a cui siamo abituati e le qualità organolettiche necessarie ad una cottura tradizionale. Inoltre, ad oggi il liquido in cui le cellule vengono coltivate contiene componenti di origine animale, quindi, finché non saranno trovate soluzioni alternative, anche la produzione di carne artificiale avrebbe comunque una certa dipendenza (sebbene molto inferiore) dall’allevamento.

Voi assaggereste un hamburger coltivato in laboratorio?

Di S. M.

Approfondimenti

Il cervello non ha rughe

Di Erika Salvatori

“Il cervello non ha rughe: se continua a lavorare sodo, si rinnova continuamente, anche dopo gli 80 anni e, a differenza di altri organi, può persino migliorare”: non potremmo usare parole migliori di queste della grande scienziata Rita Levi Montalcini per introdurre il concetto di plasticità sinaptica, la capacità del cervello di modificare la sua struttura e funzionalità a seconda dell’esperienza.

Per molti anni l’apprendimento e la memoria sono stati considerati argomenti di psicologia più che di biologia. In tempi più recenti si è invece scoperto come dietro questi fenomeni si celino complessi meccanismi cellulari e molecolari: quando apprendiamo qualcosa, il nostro cervello subisce un riarrangiamento strutturale e funzionale, più o meno duraturo, che coinvolge le sinapsi, ossia i punti di contatto tra neuroni che servono a propagare gli impulsi nervosi.

Il modello più noto di plasticità sinaptica è quello del “potenziamento a lungo termine” e del suo opposto “depressione a lungo termine”, che si fonda sulla pionieristica ricerca dello psicologo canadese Donald Hebb. Entrambi i meccanismi sono mediati dai recettori per il neurotrasmettitore glutammato, una molecola segnale che viene rilasciata dal neurone pre-sinaptico e determina una risposta eccitatoria nel neurone post-sinaptico. Quando il glutammato si lega al proprio recettore (NMDA), questo si attiva e consente l’ingresso di calcio nel neurone post-sinaptico. Il calcio modula una serie di processi biochimici e molecolari alla base della funzionalità della sinapsi, come la sintesi di neurotrasmettitori o recettori, cambiamenti nella velocità di conduzione degli stimoli nervosi o variazioni nella taglia o numero delle cosiddette “spine dendritiche”, piccole protrusioni ricoprenti i dendriti, che si propagano a partire dal corpo del neurone.

Gli stessi recettori e modulatori intervengono in entrambi i processi di potenziamento e depressione: a cambiare è il tipo di stimolazione pre-sinaptica (e dunque la quantità di calcio in ingresso nel neurone post-sinaptico): più precisamente una stimolazione ripetuta ed intensa determina un aumento della funzionalità della sinapsi, mentre una stimolazione a frequenza più bassa ne determina una riduzione.

Il potenziamento a lungo termine è collegato non solo ai processi di apprendimento e memoria, ma anche, in alcune sue manifestazioni anomale, a diverse patologie e alla dipendenza da stupefacenti ed è perciò molto studiato nell’ambito delle neuroscienze.

“Tieni allenato il tuo cervello” è dunque molto più che uno slogan per  pubblicizzare giornali enigmistici: le esperienze che facciamo, le nozioni che apprendiamo contribuiscono a rinforzare e rimodellare i nostri circuiti cerebrali permettendoci, come la Montalcini ci ha insegnato, di mantenere una sorprendente lucidità anche fino a 100 anni!

 

Per approfondire:

Ergotismo, funghi allucinogeni e credenze popolari

Ergot (in francese “sperone”) è il nome comune dato al fungo Claviceps purpurea, parassita di circa 400 specie vegetali appartenenti alla famiglia delle graminacee, in particolare della segale. Questo fungo si caratterizza per la formazione di strutture (gli sclerozi) simili a cornetti che conferiscono alla pianta infetta il nome di “segale cornuta“.

Attorno all’anno 1.000 sulle Dolomiti e lungo tutto l’arco alpino si raccoglieva segale per vivere; il grano dell’epoca non riusciva a crescere in quota e quello nero tedesco era il pane quotidiano dei montanari. A quel tempo non si sapeva, ma la segale usata per produrre il pane era spesso contaminata da Claviceps purpurea. Il fungo produce delle sostanze (alcaloidi) psicoattive derivate dall’acido lisergico e strutturalmente omologhe all’LSD; esse vengono sintetizzate dal fungo per evitare che d’inverno gli animali mangino lo sclerozio, una struttura fondamentale per la sopravvivenza del fungo stesso.

Gli alcaloidi assunti in dosi acute causano visioni, delirio e violenti fenomeni psichedelici nei mammiferi; buona parte della letteratura storiografica dell’Alto e Basso Medioevo sulle follie collettive e demoniache di interi villaggi (specie in Francia, Germania ed Olanda ma anche in seguito in America settentrionale) ha la sua causa scientifica in panificazioni operate con farine fortemente contaminate da Claviceps purpurea.

Corpo fruttifero di C. purpurea all’interno di una spiga si segale (Di Rasbak – Opera propria, CC BY-SA 3.0, https://commons.wikimedia.org/w/index.php?curid=295119)

Invece, se assunti in forma cronica all’interno di farine leggermente inquinate, gli alcaloidi della segale cornuta determinano uno stato di intossicazione, detto ergotismo, caratterizzato da una progressiva degradazione del sistema circolatorio periferico che provoca spasmi dolorosi, crisi convulsive e talvolta anche forme di cancrena. Nel contesto culturale dell’epoca queste manifestazioni erano interpretate come la punizione divina per i peccati commessi.

Ai tempi delle Crociate, le reliquie di Sant’Antonio Abate furono traslate da Costantinopoli a Motte-Saint-Didier (attuale Saint-Antoine-l’Abbaye, vicino a Vienne in Francia); la devozione principale per il santo riguardava la guarigione dal cosiddetto “Fuoco di Sant’Antonio”. Nello sconforto, nel dolore fisico e nel terrore derivato da una malattia inspiegabile, gli abitanti delle montagne si aggrappavano alla Chiesa. I montanari intraprendevano un pellegrinaggio che diveniva una vera e propria epopea di settimane: a piedi o a dorso di mulo giungevano in Francia, lasciando i campi montani ed investendo i pochi risparmi.

Il numero dei malati che ricorrevano al santo taumaturgo era così elevato che si costruirono apposite strutture di accoglienza e venne impegnato l’ordine degli Antoniani per l’assistenza e la cura dei pellegrini. Tuttavia durante i giorni di cammino per giungere a Motte-Saint-Didier, la dieta dei pellegrini cambiava poiché in pianura iniziavano a nutrirsi di pane bianco, non più contaminato dal fungo. Il cambio di dieta continuava per tutti i giorni di permanenza e questo permetteva una graduale detossificazione dell’organismo; così i sintomi recedevano, le cancrene guarivano ed i dolori sparivano. Il Santo aveva compiuto il miracolo! In più, il potere taumaturgico della visita alla basilica ed alle reliquie di Sant’Antonio era rinforzato dalla conseguenza del ritorno ai pascoli in quota: la dieta era di nuovo ricca di pane nero contaminato e la malattia si manifestava ancora. La lontananza dalla Retta Via e la ricaduta nel peccato tornavano ad essere divinamente punite!

Così l’ergotismo prese il nome di “Fuoco di Sant’Antonio” e la Basilica del Santo deve buona parte della sua fama ad un fungo, ad un cereale ed alla scarsa conoscenza della loro relazione.

N.B.: Oggi con il nome “Fuoco di S. Antonio” si intende la riattivazione del virus della varicella (HZV) che colpisce un nervo e si manifesta con fenomeni cutanei localizzati lungo il decorso del nervo stesso. Compaiono gruppi di vescicole, simili a quelle della varicella, accompagnate da dolore vivo e alterata sensibilità.

Di A.A.

Approfondimenti:

Pioppi modificati per biocarburanti

Una modificazione degli enzimi coinvolti nella sintesi della lignina rende possibile un considerevole aumento nella resa del bioetanolo prodotto a partire dai comuni pioppi.

Populus_Tremula_20060604

Una delle alternative più promettenti ai combustibili fossili è il bioetanolo, il comune alcool etilico presente nel vino e nella birra, ricavato dalla fermentazione dai composti zuccherini presenti in varie piante. Responsabile della fermentazione è il lievito microscopico Saccharomyces cerevisiae, quello impiegato già da millenni tanto della lievitazione del pane che nella produzione di bevande alcoliche. Uno dei problemi di questo approccio è che le parti delle piante più ricche di questi zuccheri sono quelle usate a scopo alimentare, con il rischio di mettere nutrizione e carburanti in conflitto per la propria realizzazione.

Leggi di più

Mucche catalizzate

Minime quantità di un semplice composto chimico a basso costo sono in grado di ridurre la formazione di metano nello stomaco dei ruminanti, senza danneggiare la salute degli animali e senza alterare i prodotti alimentari da essi derivati. Lo studio del meccanismo d’azione specifico del composto, a livello biochimico, promette a breve un suo possibile uso sicuro per ridurre l’impatto dell’allevamento sul riscaldamento globale.

Cow

A cominciare dalla rivoluzione industriale, avvenuta 200 anni fa, e con la conseguente meccanizzazione di agricoltura e allevamento, la concentrazione atmosferica di metano è aumentata da 0,6 a 1,8 ppm (parti per milione). Anche se questo incremento è solo una minima frazione rispetto al corrispondente aumento di anidride carbonica, il metano è un gas serra con una potenza da 28 a 34 volte quella del biossido di carbonio e il suo contributo al riscaldamento globale non è trascurabile. Per questo motivo, paiono abbastanza allarmanti alcune stime verosimili che ritengono che attualmente siano presenti sul nostro pianeta 1,5 miliardi di mucche, 1 miliardo di pecore e 1 miliardo di capre allevate allo stato domestico. Questi animali sarebbero responsabili infatti, con i loro processi digestivi, dell’emissione di 100 milioni di tonnellate di metano per anno; corrispondenti al 20% di quello di origine antropica emesso in atmosfera.

Leggi di più

Il fenomeno del drenaggio acido

I processi di drenaggio acido sono a livello mondiale tra le principali cause di inquinamento delle acque, con un notevole impatto sugli esseri viventi e sull’ambiente, dove si manifesta un diffuso degrado chimico e fisico del territorio. Tali fenomeni possono avere un origine sia naturale, nel qual caso si parla di ARD (Acid Rock Drainage), sia legata alle attività minerarie umane per lo sfruttamento di mineralizzazioni a solfuri, dove il processo viene chiamato AMD(Acid Mine Drainage).

Leggi di più

Back To Top