Le piante: una fonte pulita di energia elettrica

La ricerca di fonti di energia pulita è una delle grandi scommesse del nostro tempo. Le conseguenze dell’uso dei combustibili fossili, prima fra tutte il cambiamento climatico, ci impongono di intraprendere strade diverse e spesso inimmaginabili fino a pochi anni fa. E come sempre quando siamo a corto di idee, ecco che la natura, con i suoi straordinari ed ingegnosi meccanismi, giunge in nostro soccorso.

Una tipica foglia, la sede della fotosintesi (By Jon Sullivan – PdPhoto, Public Domain, https://commons.wikimedia.org/w/index.php?curid=18858)

La più importante fonte di energia del nostro pianeta è il Sole, ma tra gli esseri viventi c’è chi ha imparato ad utilizzarlo molto meglio di noi. Le piante sono veri e propri campioni nella trasformazione dell’energia solare, il “motore” di un processo chiamato fotosintesi clorofilliana che converte l’anidride carbonica e l’acqua in zuccheri ed ossigeno. L’efficienza di questa trasformazione, dopo milioni di anni di evoluzione, si avvicina al 100%, mentre i nostri pannelli solari, per fare un paragone, operano con un’efficienza compresa tra il 12% e il 17%: in altri termini, la pianta trasforma quasi tutta la radiazione solare che assorbe in energia chimica, noi con le nostre tecnologie riusciamo ad utilizzarne solo una minima frazione.

Diversi gruppi di ricerca stanno studiando una strategia per ottenere elettricità dai vegetali. La corrente elettrica viene comunemente definita come un moto ordinato di cariche elettriche. Se vi state chiedendo perché cercarla proprio in una pianta, la risposta è semplice: perché è già lì! Durante le reazioni della fotosintesi le molecole d’acqua vengono “spezzate” liberando elettroni, ossia cariche negative. Questi ultimi sono trasferiti lungo una catena di trasportatori proteici e temporaneamente immagazzinati nella molecola NADP, così da essere utilizzati in una seconda fase alla sintesi del glucosio.

Schema della fotosintesi, detto “schema a Z” (By w:User:Bensaccount – http://en.wikipedia.org/wiki/Image:Z-scheme.png, CC BY-SA 3.0, https://commons.wikimedia.org/w/index.php?curid=3461098
Cloroplasti al microscopio (By Kristian Peters — Fabelfroh – Self-photographed, CC BY-SA 3.0, https://commons.wikimedia.org/w/index.php?curid=1350193)

Ciò che un team di ricercatori della University of Georgia è riuscito a fare è stato interrompere la fotosintesi e catturare questi preziosi elettroni, prima che la pianta potesse utilizzarli per generare gli zuccheri. Per raggiungere lo scopo sono stati isolati i tilacoidi, sistemi di membrane appiattite e disposte in pile all’interno degli organuli responsabili della cattura della luce e della fotosintesi, che si chiamano cloroplasti. E’ proprio qui, tra le membrane tilacoidali, che si svolge il trasporto degli elettroni, grazie ad una sequenza di proteine che sono state  opportunamente manipolate per bloccare il flusso e deviarlo in strutture cilindriche 50000 volte più fini di un capello umano, i nanotubi di carbonio. Queste meraviglie della nanotecnologia funzionano come “trappole” di elettroni e li veicolano lungo i cavi elettrici.

Il sistema è ancora nelle sue fasi embrionali e l’elettricità prodotta molto modesta, ma ci sono margini di perfezionamento e l’ottimismo è tanto. Il concetto è di per sé così allettante che è stata fondata nel 2009, in Olanda, un’azienda che usa le piante per produrre energia elettrica, con un procedimento simile ma diverso. E’ stato messo a punto in questo caso un sistema per “catturare” gli elettroni prodotti dai microrganismi che consumano le sostanze di scarto della fotosintesi espulse dalle radici e liberate nel terreno, una metodologia che peraltro non danneggia o influenza in nessun modo la vita della pianta stessa. Il prossimo traguardo sarà portare questi e simili sistemi di produzione su larga scala, tale da soddisfare il fabbisogno energetico annuale medio delle famiglie o raggiungere le aree più povere del mondo.

Di Erika Salvatori

Riferimenti:

Nuove molecole ad attività battericida

di Giovanna M.

L’utilizzo frequente di antibiotici ha portato allo sviluppo di ceppi 

batterici resistenti a questi farmaci, spingendo i ricercatori ad isolare nuove molecole antibatteriche per contrastarli ovvero i peptidi (proteine). Questa nuova classe di antibiotici è rappresentata dai peptidi antimicrobici (AMPs, Anti Microbial Peptides) che trovano già impiego in numerosi campi  come l’agricoltura, l’industria alimentare e l’acquacoltura, a cui va aggiunto il campo clinico che negli ultimi 25 anni ha intensificato le proprie ricerche. 

 

 

 

 

 

 

 

Gli AMPs appartengono al sistema immunitario innato, in grado di esercitare un’azione antimicrobica contro diversi patogeni dannosi per la salute dell’uomo e per la qualità degli alimenti. Quelli di origine naturale sono piccole molecole di lunghezza variabile, contenenti dai 10 ai 50 amminoacidi. Essi costituiscono la prima linea di difesa degli organismi contro una grande varietà di agenti esterni ed hanno una doppia valenza, perché oltre a proteggere circa l’80% delle specie animali inferiori e tutte le piante dall’attacco dei patogeni, giocano un ruolo importante anche nell’immunità degli organismi superiori collegando i meccanismi dell’immunità innata ed acquisita.

 

Sono ulteriormente suddivisi in due sottoclassi: AAMPs (anionici, carica netta negativa) e CAMPs (cationici, carica netta positiva). Questi ultimi rappresentano il gruppo maggiormente studiato ed utilizzato per lo sviluppo di nuovi farmaci. Sono considerati ottimi candidati come agenti terapeutici per molteplici ragioni: agiscono contro batteri Gram positivi e negativi, lieviti e virus e sono prodotti da una vasta gamma di organismi tra cui insetti, piante, batteri, funghi, anfibi e mammiferi. Sono caratterizzati da rapidità d’azione e riescono a neutralizzare le endotossine. Hanno bassa capacità di indurre la comparsa di ceppi resistenti e la loro azione battericida diretta sia verso cellule in attiva divisione che verso cellule quiescenti li rende dei farmaci promettenti anche per il trattamento di infezioni croniche.

 

Il principale bersaglio molecolare dei CAMPs è la membrana batterica, il meccanismo d’azione non è del tutto chiaro perciò sono stati proposti una serie di modelli che prevedono un’interazione elettrostatica dovuta alle cariche opposte tra peptidi e membrana che ne altera la struttura facilitando l’accesso all’interno della membrana.

Attualmente il metodo di produzione classico conosciuto per la produzione di queste molecole è la sintesi chimica ma richiede costi elevati e tempi molto lunghi. In alternativa al metodo sintetico è stata utilizzata una tecnica ricombinante mediante la quale i peptidi sono espressi in un ospite eterologo che normalmente non lo produrrebbe, il più utilizzato è E. coli, e successivamente vengono isolati da esso per studiarne la capacità tramite saggi di attività antimicrobica. Alcuni di quelli già prodotti hanno mostrato un’elevata efficienza su ceppi di Staphylococcus aureus (foto a sinistra) e Pseudomonas aeruginosa (foto a destra). 

                        

              

Ad oggi sono sette i CAMPs in fase di studio clinico, soprattutto per applicazioni topiche. Ad esempio, per il trattamento di ferite infette ed ulcere, per la prevenzione delle infezioni associate all’uso dei cateteri ed altri ancora per il trattamento di infezioni del cavo orale.

             

[GM]

 

Fonti

Wiesner J e Vilcinskas A, Virulence 1(5):440-64 (2010) https://goo.gl/vqbMMV

Mahlapuu M et al., Front Cell Infect Microbiol 6:194 (2016) https://goo.gl/PCdosM

Sangue artificiale: a che punto siamo?

La donazione del sangue da parte di soggetti volontari sani è ad oggi l’unica modalità per assicurare continuità e sicurezza alle terapie trasfusionali. Ciononostante, complicazioni legate alla non compatibilità tra gruppi sanguigni, alla scarsa disponibilità e talora ai bassi standard di sicurezza riscontrati nei paesi in via di sviluppo rendono l’approvvigionamento di sangue per le trasfusioni un problema non indifferente. E’ plausibile pensare che in un futuro la ricerca scientifica consentirà di produrre sostituti artificiali del sangue, rivoluzionando la medicina trasfusionale? Gli scienziati credono di sì.

Sacca di sangue per trasfusioni (By ICSident at German Wikipedia, CC BY-SA 3.0, https://commons.wikimedia.org/w/index.php?curid=29492562)

Il progetto è però ambizioso: il liquido rosso che circola nei nostri vasi sanguigni è straordinariamente complesso nelle sue funzioni e composizione. Costituito da milioni di composti chimici e cellule diverse, il sangue assolve meticolosamente a una serie di funzioni: trasporta ossigeno e nutrimento ai tessuti, raccoglie i prodotti del catabolismo, mantiene costanti pH e temperatura corporea, trasporta ormoni verso i loro tessuti bersaglio e ci protegge dai patogeni. Ancora non esiste un surrogato di sangue in grado di adempiere a tutti questi compiti, ma si stanno investigando diverse soluzioni, in buona parte basate sull’emoglobina, la proteina contenuta nei globuli rossi e responsabile del trasporto dell’ossigeno.

L’emoglobina è un tetramero, ossia una proteina costituita da quattro parti. Fuori dal globulo rosso viene però rapidamente degradata nelle forme dimerica o monomerica, costituite rispettivamente da due o una parte e potenzialmente tossiche. Per rendere l’emoglobina “acellulare” più stabile ed aumentare le sue performance in termini di trasporto di ossigeno, si è provato a modificarla chimicamente rinforzando i legami tra le sue quattro porzioni, collegando tra loro più molecole a formare una catena o coniugandola ad altri composti chimici. Nonostante le potenzialità, nessuna di queste soluzioni acellulari è veramente ottimale: l’emoglobina infatti funziona meglio all’interno del globulo rosso che non all’esterno.

Per questa ragione diversi gruppi di ricerca stanno studiando come generare globuli rossi artificiali. Semplificando al massimo, una cellula, e quindi anche un globulo rosso, è uno spazio acquoso delimitato da una membrana composta da grassi chiamati fosfolipidi. Incapsulando l’emoglobina in uno strato fosfolipidico è possibile quindi simulare una struttura cellulare ed aumentare di molto la sua stabilità nella circolazione sanguigna ed il trasporto di ossigeno.

I globuli rossi artificiali potrebbero dunque nei prossimi decenni diventare una realtà, alleviando la scarsità di sangue a disposizione per le trasfusioni in situazioni di emergenza ed in particolar modo nei paesi in via di sviluppo, dove si concentra l’80% della popolazione mondiale ma si raccoglie solo il 32% delle scorte mondiali di sangue e con bassi standard di sicurezza e alto rischio di trasmissione di infezioni.

Di Erika Salvatori

Fonti e approfondimenti:

La brexit geologica

A partire dal 29 Marzo il Regno Unito ha intrapreso ufficialmente il processo per la separazione dall’Unione Europea. Vari ricercatori hanno però messo in evidenza una “Brexit”molto più antica, iniziata circa mezzo milione di anni fa!

Riscostruzione dell’istmo che collegava la Gran Bretagna all’Europa durante una glaciazione di mezzo milione di anni fa (da BBC News)

In quel periodo, nel bel mezzo delle ere glaciali, la Gran Bretagna si trovava connessa all’Europa attraverso una sottile lingua di terra (istmo), tra la città inglese di Dover e quella francese di Calais. A Nord di questo collegamento era collocato un imponente lago glaciale, posto alla base della grossa calotta di ghiaccio che copriva il Mare del Nord e gran parte dell’Europa.

Circa 450.000 anni fa, il lago avrebbe iniziato a tracimare, inviando grosse quantità d’acqua a schiantarsi contro l’istmo, indebolendolo. Successivamente, circa 150.000 anni fa, una seconda esondazione catastrofica ne avrebbe provocato la completa distruzione. Gli eventi che avrebbero prodotto tali fenomeni non sono ancora chiari. I ricercatori ritengono che parti della calotta glaciale possano essere collassati nel lago, provocando delle inondazioni che avrebbero scavato un percorso per l’acqua e creato cascate a partire dalla dorsale dell’istmo. Diversi eventi sismici, che sono caratteristici di questa regione ancora oggi, potrebbero averlo ulteriormente indebolito.

La combinazione di questi fenomeni avrebbero provocato il collasso del rilievo, rilasciando così un’enorme inondazione. Le evidenze di tutto ciò si trovano sul fondale marino dell’attuale stretto di Dover dove diverse indagini, tra cui quelle effettuate durante la progettazione e costruzione del cosiddetto Chunnel o Tunnel della Manica, hanno evidenziato numerose strutture morfologiche e sedimentarie. Tra queste sono degne di nota le grosse depressioni circolari, prodotte con molta probabilità dalle cascate che dall’istmo si riversavano nella zona depressa posta a ovest, attualmente riempite da sedimenti, e le imponenti valli incise lungo lo stretto, larghe fino a 10 km e indice di grandi fenomeni alluvionali.

I ricercatori dovranno ora comprendere meglio i tempi con cui si è manifestata questa “Brexit geologica”, attraverso perforazioni sul fondale dello stretto di Dover e l’analisi dell’età dei sedimenti. Il progetto è davvero complicato in quanto quest’area è molto trafficata e caratterizzata da elevate escursioni di marea.

Di F. Mu.

Fonti e Approfondimenti:

OGM o non OGM: questo è il problema!

Un pubblico non specializzato alla domanda “cos’è un OGM?” probabilmente risponderebbe che è un organismo che ha subìto una manipolazione genetica, che è stato “geneticamente modificato”. La risposta è corretta, ma solo parzialmente e pecca di imprecisione: non tutti gli organismi geneticamente modificati sono OGM!

Leggi di più

Con la realtà virtuale nella testa dei robot

Quanto siamo vicini al futuro rappresentato nel film “Il mondo dei replicanti” (in cui l’umanità, comodamente seduta sul divano di casa, vive, interagisce e lavora per mezzo di androidi dalle fattezze in tutto e per tutto umane)? Le ultime innovazioni nel campo della robotica sembrano dimostrare che manca poco.

Un gruppo di ricerca dell’MIT ha recentemente pubblicato un lavoro in cui viene presentato un nuovo sistema per telecomandare un robot a distanza. Il punto di forza dell’approccio proposto sta nell’utilizzare tecnologie dai costi contenuti: un visore per la realtà virtuale già in commercio (l’Oculus Rift), sensori di movimento utilizzati per i videogiochi (Razer Hydra), programmi di controllo per robot esistenti ed il trasferimento dei dati via internet. Concettualmente, il sistema si basa sul modello mentale dell’homunculus, eredità del pensiero filosofico di Cartesio.

Secondo la teoria dell’homunculus, le nostre funzioni esecutive sarebbero governate da un piccolo essere, l’omuncolo appunto, situato all’interno del cervello, che osserverebbe la realtà come se assistesse ad una rappresentazione teatrale (da ciò l’espressione “teatro cartesiano”). Se da un lato questo modello è assolutamente inadeguato a descrivere l’intelligenza umana, d’altra parte ricalca molto bene la condizione di un robot telecomandato. Applicare il modello dell’homunculus al robot Baxter permette di svincolare la presenza fisica dell’uomo dalle attività produttive, sfruttando per la prima volta le capacità di entrambi al meglio. Infatti, i sistemi di telerobotica sviluppati finora sono molto specializzati: richiedono la riproduzione dello spazio di lavoro e l’imitazione dei movimenti. Tali limitazioni sono decisamente costose, complicate e scomode per gli operatori: un braccio robotico, banalmente, ha giunture e snodi che si comportano diversamente da quelli del braccio umano. Attraverso la stanza di controllo nella realtà virtuale, invece, si disaccoppiano gli stimoli e le reazioni dei due soggetti, permettendo all’uomo di sentirsi come se fosse all’interno del robot (condizione non ovvia nel caso dei sistemi fondati su mappature più semplici).


Ad esempio, nel caso del modello elementare “a pilotaggio(1) l’utente pilota il robot attraverso un elemento quale una tastiera, o un mouse, non avvertendo assolutamente la propria presenza nello spazio di lavoro. L’operatore quindi non “sente” né “vede” ciò che percepisce il robot.

L’esperienza di essere immersi e co-localizzati con il robot è introdotta dal modello “ad imitazione(2) che presenta, tuttavia, le limitazioni accennate in precedenza, dovute all’incongruenza tra le forme dei corpi dei due soggetti.

Più complesso dei precedenti è il modello “ciber-fisico(3) che introduce il concetto di spazio virtuale. Ciò è reso possibile rappresentando, all’interno di un computer, copie virtuali del robot, dell’utente e dello spazio di lavoro. Nonostante sia utilissimo per far apprendere ai robot azioni ripetitive, manca purtroppo della capacità, tipicamente umana, di adattarsi qualora le condizioni mutino nel tempo.

Il modello dell’homunculus (4 vedi anche il video al seguente link) combina il meglio dei tre metodi appena descritti: lo spazio nel quale si trova l’utente viene replicato nella realtà virtuale che a sua volta definisce l’area di funzionamento del robot. L’uomo è quindi libero di muoversi senza influenzare lo stato della macchina.

La posizione delle braccia, ad esempio, è rappresentata nella stanza di controllo da sfere colorate che l’operatore può scegliere di manipolare oppure no (vedi fig. a lato). Inoltre due telecamere ad alta definizione, poste nella testa di Baxter, creano una visione stereoscopica (ovvero da due punti di vista diversi) dello spazio di lavoro. Tale visione è quindi usata dalla corteccia visiva dell’uomo per ricostruire la tridimensionalità, come nel caso della comune visione binoculare. Questo stratagemma evita costose simulazioni grafiche. Una volta accoppiato ad altre videocamere sulle mani del robot, consente di raggiungere risultati mai ottenuti prima: il 100% di successo in attività del tipo “raccogliere e piazzare”, “assemblare”, “graffettare”.

Sistemi robotici di questo tipo potranno permettere agli uomini di lavorare in condizioni che al momento vengono considerate proibitive, sia dal punto di vista ambientale che della sicurezza. Inoltre, la riduzione dei costi e la possibilità di pilotare il robot da centinaia di chilometri di distanza, semplicemente collegandosi ad internet, aprono anche agli operai la strada del lavoro remoto.

di U.M.M.


Fonte:

Jeffrey I Lipton, Aidan J Fay, and Daniela Rus. Baxter’s Homunculus: Virtual Reality Spaces for Teleoperation in Manufacturing. arXiv. Mar. 3, 2017 (open-access): https://arxiv.org/abs/1703.01270

Video pubblicato dall’MIT: https://www.youtube.com/watch?v=4a-W3Od5-t8

L’età dell’oro per l’Astronomia. Letteralmente!

Da quando il progetto LIGO/Virgo sulla rilevazione delle onde gravitazionali ha iniziato a funzionare, non ha mai smesso di stupire gli astronomi con continue scoperte di grandissima importanza. Quest’ultima però, annunciata il 16 Ottobre 2017, le supera davvero tutte.

Alessandra Corsi, radioastronoma al Texas Tech University di Lubbock e cofirmataria del primo documento ufficiale rilasciato dal team di LIGO/Virgo, ha definito questo evento come un “grande regalo da parte della natura […] Un evento che cambia la vita.” Vediamo cosa è successo.

La rilevazione dell’evento

Il 17 Agosto alle ore 12:41 tempo universale, i due rilevatori LIGO di Hanford, Washington e Livingston, Louisiana insieme al rilevatore Virgo di Pisa, Italia hanno rilevato un segnale assolutamente anomalo e stupefacente.

Image credit: Karan Jani/Georgia Tech
 

Mentre i quattro eventi gravitazionali precedentemente rilevati avevano una durata di massimo pochi secondi, questo è durato 100 secondi. Inoltre le frequenze delle onde gravitazionali degli eventi precedenti si misuravano in decine di cicli al secondo, mentre per questo sono state rilevate frequenze che arrivavano a migliaia di cicli al secondo. Si tratta quindi di un evento molto “squillante” dal punto di vista gravitazionale, con in più qualcosa di completamente nuovo che ora capiremo insieme.

Due stelle di neutroni si scontrano

Analizzare una tale abbondanza di dati ha permesso di desumere che in questo caso non si trattava di buchi neri che spiraleggiavano uno verso l’altro, ma bensì di più “leggere” stelle di neutroni di 1,1 e 1,6 masse solari rispettivamente.  Per avere un idea delle grandezze in gioco, il primo evento gravitazionale rilevato da LIGO il 14 Settembre 2015, GW150914, aveva coinvolto due buchi neri ambedue di circa 30 masse solari.

Ma non finisce qui, perché lo scontro è stato osservabile come un lampo luminoso durato per giorni in un evento chiamato “kilonova”, nome che indica la superiore potenza esplosiva rispetto ad una nova. L’osservazione diretta in questo caso è stata possibile perché le stelle di neutroni sono composte dalla massa barionica (ovvero da materia vera e propria, come le stelle o i pianeti) più densa in assoluto nell’universo, talmente densa che le stelle che si sono fuse avevano un diametro stimato di circa 20 chilometri), al contrario dei buchi neri che invece sono completamente oscuri in quanto assorbono anche la luce.

Arriva l’astronomia “multimessaggero”

Questo evento, che porta il nome di GW170817, è passato alla storia per diverse ragioni. La più importante è che con questa scoperta, la quinta epocale nel giro di due anni dall’inizio del progetto LIGO/Virgo, si può tranquillamente affermare che l’era dell’astronomia “multimessaggero” è partita eccezionalmente bene, confermando come il metodo scientifico è ancora l’unico valido. Ha confermato previsioni che risalivano a 100 anni fa e siamo sicuri che le sorprese non sono certo finite qui. Si tratta di un’astronomia che coniuga le osservazioni elettromagnetiche come quelle dei telescopi ottici, delle antenne radio dei satelliti a raggi x con le rilevazioni delle onde gravitazionali. Oggi possiamo vedere e ascoltare il nostro Universo come mai ci è stato possibile e siamo pronti a scommettere che ci saranno sorprese incredibili ad attenderci la fuori.

Kilonova e sintesi dei metalli più pesanti del ferro

Brian Metzge

Importantissimo è anche il fatto che sia stata confermata l’esistenza delle kilonova, oggetti teorizzati sin dal 1990 ma mai osservati direttamente. Brian Metzger, un fisico teorico della Columbia University, ha giustamente paragonato questa scoperta a una tenda che all’improvviso si alza e mostra quanto il gruppo di fisici si era avvicinato alla realtà dei fatti.

L’esistenza delle kilonova è fondamentale nella fisica nucleare per confermare o smentire le ipotesi sulla formazione di metalli più pesanti del ferro nell’universo: metalli come l’oro, l’argento, il platino, il rutenio o il neodimio. I fisici nucleari avevano ipotizzato che questi atomi si formassero in eventi chiamati r-process (rapid neutron capture process) all’interno delle stelle più vecchie ma con una mole di dati a disposizione come questa, avranno di che lavorare parecchio per confermare le loro teorie.

Ora sapete da dove viene l’oro del vostro anello, che probabilmente è più vecchio del nostro pianeta!

L’origine dei gamma-ray burst brevi

A differenza della fusione di buchi neri che ha permesso di scoprire le onde gravitazionali, questo evento è stato osservabile simultaneamente anche nello spettro del visibile e nello spettro delle onde radio, oltre che attraverso le onde gravitazionali.

Il Fermi Gamma Ray Space Telescope e lo Swift Space Telescope hanno rivelato dei lampi gamma di breve durata (short Gamma-Ray Burst, sGRB). Dodici ore dopo la rilevazione delle onde gravitazionali (alle ore 23.33 del tempo universale, 10 ore e 52 minuti dopo che l’onda gravitazionale era arrivata sulla terra), l’osservatorio cileno di Las Campanas guidato da Charles Kilpatrick, un postdoc dell’università di Santa Cruz, ha notato un nuovo punto luminoso in una fotografia della galassia NGC4993. In uno scambio di messaggi online scrisse, incredibilmente calmo “ho scoperto qualcosa”: era l’emissione nel visibile dell’evento di fusione delle due stelle di neutroni che poi fu chiamato GW170817.

Il ruolo del nostro paese

Vogliamo sottolineare con ben più di una punta di orgoglio il ruolo dell’Italia in questo progetto di collaborazione scientifica internazionale. L’interferometro Virgo è affiliato al progetto LVC: LIGO Scientific Collaboration and Virgo Collaboration, fondato nel 1997 dal fisico sperimentale Barry Clark Barish, che nel 2016 ricevette il premio Enrico Fermi “per i suoi fondamentali contributi alla formazione delle collaborazioni scientifiche LIGO e LIGO-Virgo e per il suo ruolo nell’affrontare aspetti tecnologici e scientifici impegnativi la cui soluzione ha portato alla prima rilevazione delle onde gravitazionali “.

Virgo, oltre ad essere situato nel comune di Cascina, frazione Santo Stefano a Macerata (PI), gode della presenza di 8 tra ingegneri e fisici

L’interferometro VIRGO a Cascina, in provincia di Pisa. (Creative Commons CC0

dell’Istituto Nazionale di Fisica Nucleare (INFN), oltre che di altri 272 esperti provenienti dal Centre National de la Recherche Scientifique (CNRS) in Francia; dal Nikhef in Olanda; dall’MTA Wigner RCP in Ungheria; dal gruppo POLGRAW in Polonia; dall’Università di Valencia in Spagna; e dall’European Gravitational Observatory.

La presenza italiana nell’LVC si fa sentire anche tramite Adalberto Giazotto, fisico dell’INFN e “padre” di Virgo, che nel 2001 propose una rete mondiale di interferometri e di utilizzarli come una single machine operante in sinergia. Altrettanto orgogliosi sono Fernando Ferroni e Antonio Masiero, rispettivamente presidente e vicepresidente dell’INFN, quest’ultimo  anche presidente di ApPEC, il consorzio che coordina la ricerca europea in fisica delle astroparticelle.

Molti sono anche gli italiani sparsi per il mondo che collaborano a questo enorme ed ambizioso progetto del quale dobbiamo andare giustamente fieri! Non ci stancheremo mai di ribadire che la nostra nazione non è solo fucina di stantii stereotipi ma anche di eccellenze in campo scientifico, di ricerca e innovazione e soprattutto di entusiasmo e incrollabile fiducia nel futuro.Altre considerazioni preferiamo non farne, vogliamo rimanere in un ottica di realistico ottimismo e guardare alle nostre giovani leve che stanno per sperimentare un nuovo, entusiasmante modo di guardare ed ascoltare il nostro meraviglioso Universo.

Carl Sagan

Riecheggiano potenti le parole di Carl Sagan: “Da qualche parte, qualcosa di incredibile è in attesa di essere scoperto”.

Possiamo starne certi che la strada è solo agli inizi ma non abbiamo paura!

 
[Andrea Grossi]

Il futuro dell’alimentazione è la carne artificiale?

Ogni anno vengono macellati a scopo alimentare oltre cento miliardi (avete letto bene) di animali, la maggior parte dei quali è pollame. L’allevamento è una delle attività umane con il maggiore impatto ambientale: oltre metà delle coltivazioni terrestri è infatti destinato produrre foraggi e mangime per gli allevamenti, con enorme pressione verso territori vergini (che vengono convertiti a nuove coltivazioni, con danni ad animali e popolazioni) e danno ambientale diretto (deterioramento del suolo, elevato consumo di acqua…).

Per finire, la richiesta di carne è più che raddoppiata negli ultimi 50 anni, e -complice l’aumento della popolazione umana e il miglioramento delle condizioni di vita umane in molte aree del globo- aumenterà ancora nei prossimi anni.

Immagine grande: fiasche di coltura per la produzione in piccola scala di un hamburger artificiale. (C) New Harvest, http://www.new-harvest.org/ Immagine piccola: rappresentazione artistica della coltivazione in vitro

È dunque evidente che il sistema degli allevamenti potrebbe giungere al collasso. Una risposta sempre più diffusa all’aumentata consapevolezza del problema è l’incremento di persone che sposano diete vegetariane, che resta tuttavia un fenomeno di nicchia e poco influente a livello globale.

Ma se fosse possibile produrre carne…senza animali?

La carne artificiale è ottenuta tramite colture cellulari, in laboratorio. Cellule staminali vengono fatte crescere a formare un tessuto con caratteristiche del tutto simili al tessuto animale. L’idea che fosse poco efficiente allevare un intero animale per usarne solo alcune parti a scopo alimentare era stata evidenziata già da Winston Churchill nel 1931, ma i primi passi avanti nella produzione di carne artificiale si sono avuti alla fine degli anni 90, quando è stato depositato il primo brevetto per la produzione in vitro di tessuti ingegnerizzati. Nel 2013 a Londra ha avuto luogo la prima dimostrazione pubblica, un hamburger è stato cotto e poi assaggiato da un critico, che ha affermato che “il sapore è quello della carne”.

Da allora l’interesse per la carne artificiale è enormemente lievitato, per via delle enormi ricadute etiche ed ambientali che un simile prodotto ha, ma anche per la possibilità di produrre a costi enormemente inferiori. La possibilità di “creare” da cellule ingegnerizzate permette inoltre di stabilire a priori la composizione in termini di nutrienti (proteine, grassi…) per offrire un prodotto del tutto bilanciato con le necessità nutrizionali umane.

La procedura di produzione, sebbene ancora grezza, è semplice: si parte da cellule staminali di muscolo animale e le si fa crescere in una coltura usando un’impalcatura tridimensionale per “guidare” la crescita e la forma della massa cellulare (un compito che nell’organismo è svolto dalla matrice extracellulare). Una volta iniziato il processo, le cellule ingegnerizzate continuano a replicarsi all’infinito, producendo teoricamente 50 mila tonnellate di carne a partire da una singola cellula dopo due mesi di coltivazione.

Vi sono ancora alcune questioni da risolvere: la carne “vera” non è fatta solo da cellule muscolari ma anche da cellule lipidiche, fondamentali per dare alla carne il “gusto” a cui siamo abituati e le qualità organolettiche necessarie ad una cottura tradizionale. Inoltre, ad oggi il liquido in cui le cellule vengono coltivate contiene componenti di origine animale, quindi, finché non saranno trovate soluzioni alternative, anche la produzione di carne artificiale avrebbe comunque una certa dipendenza (sebbene molto inferiore) dall’allevamento.

Voi assaggereste un hamburger coltivato in laboratorio?

Di S. M.

Approfondimenti