Loading....

Il 5G spiegato da chi ci lavora

Ultimamente si sta parlando del 5G, con un interesse sempre crescente da parte dei cittadini di conoscere la natura, le opportunità e i rischi di questa nuova generazione delle telecomunicazioni.

Per raccogliere queste informazioni siamo “andati direttamente alla fonte” intervistando chi sta studiando e lavorando in questo campo.

Abbiamo quindi intervistato, col nostro redattore Francesco Marino, il Prof. Vittorio degli Esposti (autore di oltre 120 articoli scientifici peer-reviewed nei settori dell’Elettromagnetismo Applicato, Propagazione Radio e Sistemi Wireless) e la Ricercatrice Marina Barbiroli (titolare del corso di “Compatibilità elettromagnetica” e specializzata in modelli di previsione di campo elettromagnetico, criteri di pianificazione per sistemi radio, e valutazione dei livelli di campo per il controllo dell’inquinamento elettromagnetico) dell’Università di Bologna.

Il Prof. Vittorio Degli Esposti e la Ricercatrice Marina Barbiroli

Cosa si intende come tecnologia 5G? 

[Vittorio] Più che una tecnologia è uno standard per i sistemi radiomobili cellulari e ne rappresenta la quinta generazione, che segue la quarta rappresentata dallo standard LTE (Long Term Evolution).

Gli standard sono necessari per permettere a infrastrutture e terminali mobili di diversi produttori di esser compatibili e comunicare fra loro.

Come i precedenti, lo standard 5G è stato sviluppato dalla comunità scientifica e dalle associazioni di industrie del settore e in particolare dall’associazione industriale 3GPP [1].

Quali necessità o opportunità stanno spingendo verso questa nuova generazione delle telecomunicazioni?

Come in tutti i settori, il progresso avanza e, se da un lato c’è necessità di una sempre maggiore velocità e qualità del collegamento (in particolare per il trasferimento di contenuti multimediali per gli utenti umani, la realtà aumentata e l’alta definizione) dall’altra c’è una grande esigenza di connessione in rete di apparecchi e dispositivi come elettrodomestici, sistemi di domotica, sensori, veicoli, macchine in ambiente industriale, eccetera: il cosiddetto “internet delle cose”. Per alcune di queste applicazioni c’è la necessità di rispettare requisiti molto stringenti in termini di “tempo di reazione” (latenza) e affidabilità: è il caso ad esempio dei collegamenti per la guida autonoma o la e-health).

Nel prossimo futuro il numero di oggetti e dispositivi connessi tramite la rete radiomobile supererà il numero di terminali utente (telefonini, tablets ecc.), e la rete del futuro deve essere in grado di fare fronte a questo aumento di connessioni e a queste nuove esigenze. Va detto che, se il numero di connessioni aumenterà, la potenza di trasmissione in molte di esse diminuirà rispetto agli attuali standard.

Applicazioni del 5G – https://ec.europa.eu/digital-single-market/en/towards-5g

Quali sono le differenze principali del 5G rispetto alle generazioni precedenti? 

[Vittorio] Le principali novità sono tre

  1. una maggiore velocità di trasmissione (fino ai Giga-bit al secondo) che consente il trasferimento di contenuti dati e multimediali in tempi più brevi 
  2. maggiore velocità di risposta nell’instaurare la connessione (latenza) che consente applicazioni in tempo reale in ambito industriale e di controllo veicolare
  3. infine la maggiore capacità di gestire un’elevata densità di connessioni per l’internet delle cose

Al fine di realizzare le prestazioni sopra descritte la rete 5G farà uso di nuove bande per la trasmissione, sia a frequenze simili a quelle tradizionali (al di sotto di 6 GHz) sia a frequenze più elevate, nella banda delle onde millimetriche. 

In Italia, come in moltissimi altri paesi dell’UE e anche extra UE, le frequenze licenziate per i sistemi 5G sono nella banda a 700 MHz, nella banda a 3.6 GHz e nella banda a 27 GHz. 

Inoltre la rete 5G farà uso di tecniche software e di rete per dare flessibilità e riconfigurabilità alla rete, ed infine di tecniche di trasmissione con multiple antenne in trasmissione e in ricezione, le cosiddette tecniche MIMO (Multiple-Input Multiple-Output), per migliorare la qualità della comunicazione e la velocità di trasmissione minimizzando la potenza utilizzata.

L’Università di Bologna come sta supportando le fasi di ricerca, sviluppo ed implementazione del 5G?

[Vittorio] L’Università di Bologna tramite molti dei suoi gruppi di ricerca ha contribuito indirettamente alla realizzazione delle tecnologie sia hardware sia software utilizzate dallo standard 5G. 

Inoltre ha anche contribuito direttamente con la partecipazione a progetti e associazioni che hanno supportato la definizione dello standard 5G, come ad esempio le associazioni 3GPP e 5G-PPP.

Argomento salute: ad ogni innovazione nell’ambito delle telecomunicazioni si riapre il dibattito degli impatti dei segnali radio sugli organismi viventi ed in particolare sul corpo umano: quali sono ad oggi le evidenze scientifiche sulle attuali e passate tecnologie?

[Vittorio] Allo stato attuale gli effetti dimostrati sono gli effetti termici, cioè il fatto che l’esposizione alle onde radio provoca riscaldamento dei tessuti umani, in particolare in misura variabile a seconda del tipo di tessuto. 

Tali effetti potrebbero provocare alcune patologie (es la cataratta precoce negli anziani). Sebbene alcuni studi abbiano evidenziato una possibile correlazione con alcuni tumori, tali studi non sono stati confermati da altri studi indipendenti in sede internazionale. 

La conclusione ufficiale della comunità scientifica nel suo complesso allo stato attuale è che non ci sono evidenze di effetti non-termici sulla salute umana dovuti all’esposizione a campi elettromagnetici (che includono le onde radio n.d.r.) di basso livello [2]

Classificazione dei Campi Elettromagnetici
https://www.who.int/peh-emf/about/emf_brochure_webversion.pdf?ua=1

Il fatto che milioni di persone ormai da più di 15 anni utilizzino quotidianamente dispositivi radiomobili, ma che gli studi epidemiologici non abbiano confermato un aumento di patologie correlate fa concludere che eventuali effetti negativi “non-termici” dell’esposizione alle onde radio, qualora presenti, dovrebbero essere molto blandi rispetto agli effetti di altri agenti di dimostrata pericolosità, quali ad esempio l’inquinamento atmosferico. 

[Marina] Un altro aspetto importante da sottolineare è che studi sull’interazione tra campi elettromagnetici e sistemi biologici sono in atto dagli anni ‘60 (introduzione del servizio televisivo)  del secolo scorso e il loro numero è notevolmente aumentato a partire dagli anni ‘90 con l’avvento della telefonia mobile;

Ad oggi sono stati pubblicate 28,455 pubblicazioni scientifiche e 6,360 sommari di studi scientifici individuali, tutti  sugli effetti dei campi elettromagnetici [3]

Questo a sottolineare che il campo elettromagnetico a diverse frequenze è un agente fisico che è stato studiato in maniera estremamente estensiva, come nessun altro agente fisico, e per un intervallo temporale molto esteso;  il risultato complessivo è che l’identificazione di eventuali effetti nocivi dell’esposizione a campi elettromagnetici a radiofrequenza (RF), a livelli inferiori alle linee-guida sull’esposizione (che proteggono da noti effetti termici a breve termine), non è ad oggi dimostrata.

Tra le principali preoccupazioni per il 5G una riguarda la banda di lavoro ad alta frequenza (ad esempio 3 GHz) facilmente associabile a quelle tipiche del forno a microonde

[Vittorio] La banda di lavoro del microonde (2.45 GHz) è già da tempo quasi sovrapposta a quella dei sistemi WIFI diffusi in ogni dove. Tale banda accentua gli effetti termici (riscaldamento) perché corrisponde alla risonanza di alcune molecole presenti nei cibi, in particolare la molecola d’acqua. Le potenze dei trasmettitori WIFI però è dell’ordine dei milli-Watt mentre quella dei forni a microonde del kilo-Watt, c’è quindi una differenza di quasi 1 milione di volte!

Un altro elemento percepito con diffidenza è il crescente numero di antenne, considerando anche quelle degli oggetti connessi (ad esempio nello scenario domotico), lasciando pensare ad una maggiore esposizione dei campi elettromagnetici

[Vittorio] L’esposizione umana è in minima parte dovuta ai trasmettitori degli oggetti o delle stazioni base, e determinata soprattutto dall’uso dei terminali utente vicino al corpo umano, come nel caso del telefono all’orecchio o davanti al viso. Il campo prodotto cala esponenzialmente (con esponente 2 o più) con la distanza, quindi già a 1-2 metri è trascurabile rispetto al campo vicino. Di conseguenza il livello di esposizione è soprattutto determinato dall’uso ravvicinato dei terminali personali e dalla potenza degli stessi (che nei futuri sistemi diminuirà), non tanto dalla presenza di emettitori nell’ambiente. Ciò non toglie che si dovrà continuare a monitorare il livello di campo negli ambienti abitati, per evidenziare eventuali situazioni che superino i limiti di legge, come è stato fatto finora grazie al lavoro delle agenzie ARPA regionali. 

[Marina] Arpa è infatti l’agenzia locale preposta al controllo del rispetto dei limiti di esposizione ai campi elettromagnetici e negli ultimi 15 anni ha effettuato un monitoraggio continuo dei livelli di campo nelle città, come si può evincere consultando il sito di Arpa stessa [4].

Ogni tanto emergono studi indipendenti che denunciano il rischio di cancro negli organismi viventi (ad esempio l’istituto Ramazzini)

[Vittorio] Sono a conoscenza di studi che hanno evidenziato possibili correlazioni, ma non basta uno studio, occorre che sia confermato da altri studi indipendenti. 

[Marina] Inoltre le frequenze, le tempistiche e soprattutto le potenze di esposizione dello studio che Lei cita sono assolutamente non correlabili alle esposizioni generate dalla telefonia cellulare e quindi assolutamente inutilizzabili in questo contesto.

Un altro argomento che spesso viene sollevato è l’allarme sottoscritto da 180 scienziati

[Marina] L’iniziativa a cui si riferisce è Bioinitiative Report, un’iniziativa di 14 scienziati del 2007, che ha avuto degli aggiornamenti fino al 2012, ma che è stata rivista dai seguenti organismi internazionali: Health Council of the Netherlands, Australian Centre for Radiofrequency Bioeffects Research (ACRBR), European Commission’s EMF-NET, Institute of Electrical and Electronics Engineers (IEEE) Committee on Man and Radiation (COMAR), German Federal Office for Radiation Protection, French Agency for Environmental and Occupational Health Safety, Indian Council of Medical Research, che ne hanno sottolineato le grandi criticità.

Un’altra preoccupazione riguarda l’elettrosensibilità – la possibile connessione tra una serie di sintomi e la presenza di campi elettromagnetici

[Marina] Sulle connessioni tra i sintomi di ipersensibilità e l’esposizione a campi elettromagnetici è stata effettuata una serie di studi sperimentali (dal sito [3] risultano complessivamente 394 articoli),  la maggior parte dei quali (specialmente in doppio cieco) non ha rilevato una relazione causa-effetto tra sintomi ed esposizione ai campi elettromagnetici.

Gli studi in doppio cieco sono studi scientifici tesi a valutare le effettive azioni di un dato agente fisico (nel caso i campi elettromagnetici) non fornendo ai due protagonisti dello studio (i casi, ovvero i soggetti ipersensibili, e i controlli, i soggetti non ipersensibili) le informazioni fondamentali sull’esposizione.

Per quanto riguarda lo studio della presunta ipersensibilità i casi e i controlli sono stati esposti a campi elettromagnetici senza sapere né la durata né il momento dell’esposizione; le risposte fornite dai due gruppi non hanno mostrato evidenza che i soggetti ipersensibili siano in grado di percepire il campo elettromagnetico più che i soggetti non ipersensibili (le cui risposte al questionario erano completamente casuali).”

Il parere della comunità scientifica si può inoltre ritrovare nel promemoria n.296 del 2005 dell’OMS [5]  che riconosce la sintomatologia ma che non vi è nessuna indicazione che una riduzione dei limiti di esposizione accettati internazionalmente ridurrebbe la prevalenza dei sintomi attribuiti a campi elettromagnetici.

Il principio di precauzione quanto può essere vincolante e quanto in questo caso è significativamente rassicurante?

[Vittorio] Il Principio di Precauzione (PP) è condivisibile. Si applica però qualora una nuova tecnologia porti ad un sensibile aumento dell’esposizione a un certo agente. 

E’ il caso per esempio della tecnologia diesel nelle automobili che nel passato ha provocato un notevole aumento delle polveri, in cui però il principio di precauzione non è stato applicato, se non tardivamente, per adottare opportune contromisure. 

[Marina] In particolare il principio di precauzione può essere invocato solo quando sono soddisfatte le tre seguenti condizioni preliminari: 

  • identificazione degli effetti potenzialmente negativi, 
  • valutazione dei dati scientifici disponibili e 
  • valutazione del grado di incertezza scientifica

Nel caso dei campi elettromagnetici nessuna delle tre precedenti condizioni possono dirsi soddisfatte. Inoltre ci sono tutta una serie di misure per i decisori da adottare al fine di avvalorare il PP e senza le quali il PP perde di validità, tra cui:

  • finanziamento di programmi di ricerca 
  • Informare il pubblico sulle misure di sicurezza supplementari 
  • Implementazione di valori limite speciali

Nessuna di tali azioni è stata intrapresa dai decisori italiani al fine di avvalorare e sostenere il citato PP.

[Vittorio] Come evidenziato in precedenza i sistemi 5G non porteranno necessariamente ad un aumento dell’esposizione alle onde radio. Un terminale che in un certo momento utilizza per una certa connessione il 5G non utilizza il 4G o il 3G, e quindi probabilmente emette minori livelli di campo. 

Un collegamento dati tra “cose” anziché fra “umani” provoca minore esposizione per questi ultimi. Infine un collegamento che utilizza onde millimetriche anziché le frequenze tradizionali, probabilmente provocherà minori effetti ai tessuti umani, perché al crescere della frequenza diminuisce la capacità di penetrazione nei tessuti, e gli eventuali effetti si limiteranno a uno strato di cute più superficiale.

Vi ringrazio per le vostre risposte, buon proseguimento e buon lavoro!

link e approfondimenti

[1] Third Generation Partnership Project https://www.3gpp.org/

[2] Sezione dell’EMF project sul Organizzazione Mondiale della sanità https://www.who.int/peh-emf/project/en/

[3] EMF portal https://www.emf-portal.org/en

[4] Sito dell’ARPA ER dedicato all’inquinamento elettromagnetico https://www.arpae.it/dettaglio_generale.asp?id=2618&idlivello=1534

[5] Promemoria dell’OMS sull’elettrosensibilità https://www.who.int/peh-emf/publications/facts/ehs_fs_296_italian(2).pdf?ua=1

Qual è il colore dell’acqua?

di Gabriele Mozzicato

L’acqua è il liquido incolore e insapore per antonomasia. Tuttavia riempiendo d’acqua demineralizzata un lungo tubo e guardandoci attraverso, si verifica che l’acqua è effettivamente colorata di un blu molto tenue.

Ripetendo lo stesso esperimento con dell’acqua pesante non si nota però nessun colore particolare. L’acqua pesante ha la stessa composizione chimica dell’acqua, ma nelle sue molecole gli atomi di Idrogeno sono sostituiti da un isotopo più pesante, il deuterio, che non influisce sulle proprietà chimiche della molecola.

A fare la differenza è la massa.

L’acqua infatti non trae il colore dal comportamento dei suoi elettroni, come la grande maggioranza delle altre sostanze, ma dalla capacità delle sue molecole di vibrare a frequenze specifiche. La geometria delle molecole d’acqua è tale per cui onde elettromagnetiche di particolari lunghezze d’onda riescono a eccitare l’intera molecola, provocando delle vibrazioni. Per far ciò però i fotoni devono essere assorbiti, e quindi l’intensità della luce riflessa a quelle particolari lunghezze d’onda risulta inferiore rispetto alle altre.

Questo è il fenomeno dell’assorbimento selettivo e, nel caso dell’acqua, consiste in un maggior assorbimento di lunghezze d’onda attorno ai 760, 660 e 605 nm, esattamente nella banda del rosso visibile, e di conseguenza una maggiore riflessione di lunghezze d’onda inferiori, a cui corrispondono colori dal verde al blu.

Le molecole d’acqua pesante hanno una massa maggiore, vibrano quindi a frequenze differenti, e risultano assorbire onde elettromagnetiche nelle lunghezze d’onda dell’infrarosso, per questo l’intensità dei colori visibili non è influenzata in alcun modo e guardando attraverso il tubo non si nota nulla di strano.

L’acqua è l’unica sostanza conosciuta a trarre il proprio colore principalmente dalle sue proprietà vibrazionali e non dalla configurazione elettronica; la molecola alla base di tutta la vita non smette mai di stupire.

#noidiminerva #fisica #acqua

Fonti e approfondimenti:

https://goo.gl/5YFA3k
https://goo.gl/qZt3kg

La fetta biscottata con la marmellata vs le leggi della fisica

Il rito della colazione classica con toast e fette biscottate ricoperte di deliziosa marmellata accomuna molte persone in ogni parte del mondo. Allo stesso modo, la caduta della succitata fetta biscottata a terra naturalmente con il lato “condito” rivolto verso il pavimento, è ritenuta tra le maggiori cause di improperi e blasfemie di prima mattina.

Una delle famose massime di Murphy assume l’esempio della fatidica fetta biscottata per dimostrare la fatalità del caso e che ogni cosa che può succedere, accadrà.

Fotogrammi originali dell’esperimento, usati per definire attrito statico e dinamico tra fetta e tavolo

Può far sorridere scoprire che fior di scienziati hanno studiato e dimostrato sperimentalmente che questo fenomeno non ha nulla a che vedere con iatture o gatti neri. e che non è correlato con il valore del tappeto!

Esso è dovuto semplicemente alla fisica coinvolta, che si rifà, con le dovute semplificazioni, al principio di caduta dei gravi e al momento di inerzia del toast.

Assumendo un tavolo standard alto 75 cm, e un “toast standard” di dimensioni pari a 10.2×9.5×1.3 cm, uniformemente ricoperto di marmellata e con centro di massa a “metà” della lunghezza della fetta, si dimostra che: per una lunghezza di sporgenza fino al 6 -7.5% (a seconda dell’ attrito tavolo-fetta) della metà della larghezza della fetta suddetta (circa 1 cm oltre il baricentro quindi), velocità orizzontale iniziale zero, e tralasciando i rimbalzi a terra, la fetta raggiunge il pavimento prima di aver compiuto una rotazione completa sul suo asse (e spalmandosi impietosamente per terra sul lato della marmellata).

Analisi schematica delle forze in gioco

Studi sperimentali hanno dimostrato che per sporgenze maggiori del 6-7%, la velocità angolare di caduta è tale che la fetta riesce a compiere una rotazione completa e ad atterrare sul lato “non condito”.

Anche l’altezza di caduta, cioè del tavolo, è un parametro critico: nella dissertazione completa del 1995 (qui citata nei credit) si dimostra come se avessimo tavoli sufficientemente alti, la fetta di toast cadrebbe molto più spesso sul lato opposto alla marmellata. Piccolo problema: i tavoli dovrebbero essere alti circa 3 metri.

Se pensate che un team di fisici sia sprecato per dimostrare questo semplice dilemma di tutti i giorni, considerate che è stato insignito del premio Ignobel per la fisica nel 1996. [RL]

#noidiminerva #Toast #fisica #Ignobel

Credits:

completa dissertazione : http://space.umd.edu/dch/p405s04/AJP00038.pdf

Robert A. J. Matthews, ‘‘Tumbling toast, Murphy’s law and the fundamental constants,’’ Eur. J. Phys. 16 ~4!, 172–176 ~July 1995

Microrganismi all’opera (d’arte)

Qualcuno dice che “Ciò che non uccide fortifica”! Beh, questo antico proverbio può essere un incipit adeguato per raccontare il relativamente recente sodalizio fra arte e microbiologia.

https://www.flickr.com/photos/clairity/20814842436

Robert Ryman, Twin (1966)

Malgrado si tenda quasi sempre ad associare i batteri ad un pericolo, in realtà molte specie batteriche non solo non uccidono, ma sono addirittura utili a “fortificare” i nostri beni culturali.

E’ vero che alcune costruzioni e opere d’arte, di vario genere e fattura, possono essere influenzate negativamente da diverse attività microbiche; tuttavia è altrettanto vero, che da quelle stesse attività microbiche, altre opere di materiale diverso possono trarne vantaggio.

Consideriamo ad esempio l’attività metabolica dei solfobatteri. Questi ultimi prendono il nome dalla loro capacità di produrre energia ossidando composti organici o idrogeno molecolare e riducendo il solfato a idrogeno solfuro. In pratica questi batteri per respirare hanno necessità del solfato e non dell’ossigeno. La via metabolica della riduzione del solfato ha effetti negativi e positivi. Un effetto negativo è la biocorrosione del ferro e delle leghe in ferro; un effetto positivo è invece la rimozione delle croste nere dalla pietra (proprio attraverso la riduzione del solfato in esse contenuto). E’ per questi motivi dunque che i solfobatteri sono temuti dalle costruzioni in ferro e hanno invece trovato applicazione sulle opere in pietra.

A mettere pace fra il micro e il macro sono state le biotecnologie e la microbiologia. Alcuni studiosi hanno infatti pensato a trattamenti di pulitura e restauro utilizzando in maniera adeguata le vie metaboliche di diversi microrganismi appositamente selezionati in base al substrato da restaurare. Questi trattamenti hanno avuto un ottimo riscontro perchè non sono nocivi per l’operatore, contribuiscono a preservare i nostri beni culturali e sono sostenibili anche per l’ambiente.

Le opere d’arte purtroppo sono minacciate da diverse insidie e fra queste l’inquinamento è una delle più note. Tanti sono anche i danni creati da agenti biologici come alghe, licheni, muschi, batteri e funghi. Essi scelgono la loro opera non in base ad un gusto artistico ma in base alla proprietà di biorecittività e alla capacità di soddisfare le loro esigenze metaboliche (esposizione alla luce, reperimento di molecole organiche, umidità, ecc..). Le opere d’arte sono dei veri e propri ecosistemi! In questo contesto, la figura del biologo diventa dunque importante per l’identificazione degli organismi presenti al fine di scegliere mirati interventi di conservazione e restauro.

Vi sono anche numerose insidie di origine organica. Fra queste, particolarmente minacciose, sono i residui di sostanze impiegate in precedenti interventi di restauro, quali colle animali e caseina. Questi materiali, distribuiti sulla superficie dipinta dell’affresco per staccare gli stessi  dalla parete originaria prima del restauro o come adesivante sul retro (caseina) al termine dei lavori, costituivano, purtroppo, un ottimo terreno di crescita per microrganismi, come alcuni miceti (funghi), che penetrano in profondità con le loro ife. Come risolvere il problema della colla? Un noto gruppo di ricerca nel settore del biorestauro, diretto dal Professore Giancarlo Ranalli, Università del Molise, ha utilizzato delle cellule batteriche vitali di Pseudomonas stutzeri (ceppo A29) per la biopulitura di affreschi medievali del Camposanto monumentale di Pisa.

Due particolari dell’Affresco Conversione di S.Efisio e battaglia del Camposanto monumentale di Pisa,

prima e dopo la biopulitura con Pseudomonas Stutzeri ed enzima Proteasi-type XIX

(Ranalli et al. Biotechnology applied to cultural heritage: biorestoration of frescoes using viable bacterial cells and enzymes. Journal of Applied Microbiology (2005), 98, 73-83 )

Il ceppo batterico è stato scelto dopo studi in laboratorio che hanno verificato l’elevata capacità di biodegradare la colla animale alterata in oggetto. Dopo la rimozione dello strato di cotone contenente la coltura batterica di P. stutzeri, piccoli residui di materiale organico si trovavano ancora sulla superficie dell’affresco. Per rimuovere questi ultimi è stata allora utilizzata una soluzione enzimatica contenente una proteasi. L’uso degli enzimi purificati è stato documentato in diversi progetti di biopulitura. I lavori per il recupero degli affreschi del Camposanto monumentale di Pisa, recentemente definito da Antonio Paolucci “La Sistina Pisana”, sono giunti a termine e sono stati presentati al pubblico nel Giugno del 2018.

E’ aperta la sfida anche per la conservazione dei reperti in ferro, molto comuni tra i reperti degli scavi archeologici. Lo strato di corrosione formato su questi oggetti richiede la stabilizzazione; le attuali tecnologie utilizzate per questo scopo sono lunghe e generano rifiuti pericolosi e vi è pertanto la necessità di un metodo alternativo. A tal proposito si stanno valutando i possibili benefici dell’utilizzo dei batteri anche su queste opere.

Sono sempre più numerosi i laboratori di ricerca in Italia e nel mondo che lavorano in questo settore per raggiungere una sempre più alta efficienza.

Il nostro Paese, noto per lo straordinario patrimonio artistico, non poteva non distinguersi nel campo del biorestauro! Fra i vari gruppi di lavoro possiamo citare l’Enea (Agenzia nazionale per le nuove tecnologie, l’energia e lo sviluppo economico sostenibile) che detiene addirittura un brevetto dal titolo: Processo Biotecnologico per la Rimozione di Depositi Coerenti di Origine Organica ed Inorganica da Materiali ed Opere di Interesse Storico-Artistico. L’innovazione del lavoro brevettato consiste nell’utilizzo di ceppi batterici ambientali non patogeni immobilizzati in un gel di laponite (un particolare tipo di argilla) atossico, che può essere facilmente rimosso alla fine del trattamento senza lasciare residui e senza intaccare la patina pittorica.

Un’altra azienda italiana che lavora nel settore del biorestauro è la Bioresart. Fra i servizi che offre vi è il monitoraggio biologico e ambientale per la prevenzione del biodeterioramento delle opere d’arte e per la valutazione del rischio biologico.

Guardando la tela di Robert Ryman, gli esperti affermeranno che trattasi di arte concettuale; gli scettici dubiteranno del suo valore; i cinici vedranno un’opera vuota; i sognatori la dipingeranno con l’immaginazione; un microbiologo indagherà sui ceppi batterici che la popolano; un biotecnologo valuterà come utilizzare vantaggiosamente quei ceppi. Poi ci sarà qualcuno (come me) che dopo aver elebaborato le informazioni di questo articolo, penserà che quella tela non è un capolavoro, ma per lo meno un giorno sarà facile da restaurare!

M. falzone

Fonti:

-Microbial Biotechnology (2017) 10(5), 1145–1148

-Environmental Microbiology (2005) 7(7), 909–915

-Journal of Applied Microbiology (2005), 98, 73-83

http://www.enea.it

http://www.bioresart.it

iPSC: Il futuro delle cellule staminali

Immaginate ogni cellula del nostro corpo come ad una potenziale cellula staminale!

Sembra fantascienza,  invece è realtà grazie agli studi di Kazutoshi Takahashi e Shinya Yamanaka, che nel 2006 hanno dimostrato che è possibile riprogrammare una cellula somatica (es. cellula epiteliale) riportandola a uno stadio di staminalità.

Queste cellule riprogrammate, grazie all’inserimento artificiale di 4 geni, furono chiamate iPSC ossia “Cellule Staminali Pluripotenti Indotte”.

Prima di tutto occorre fare un passo indietro e chiederci cosa sia una cellula staminale.

Si tratta di una cellula che ha la capacità di trasformarsi in altre cellule del corpo attraverso un meccanismo chiamato “differenziamento cellulare”.

Le cellule staminali possono essere classificate a seconda della loro capacità nel differenziarsi in altre cellule:

Totipotenti: cellule capaci di differenziarsi in tutte le cellule dell’organismo e anche nei tessuti extraembrionali (es. placenta);

Pluripotenti: cellule che possono differenziarsi in uno qualsiasi dei 3 strati germinativi di cui è composto l’embrione: ectoderma (strato più esterno), il mesoderma (strato intermedio) e l’endoderma (strato più interno).

Le cellule staminali pluripotenti non hanno la capacità di formare un organismo adulto completo o di formare tessuti extraembrionali;

Multipotenti: cellule che hanno la capacità di differenziarsi in un numero limitato di tipi cellulari;

Oligopotenti: cellule in grado di trasformarsi solo in alcuni tipo cellulari;

Unipotenti: cellule con la capacità di differenziarsi in un singolo tipo cellulare;

Nella ricerca si tende ad usare principalmente le cellule pluripotenti per il loro alto grado di differenziazione e la relativa semplicità di reperimento.

Prima dell’avvento delle iPSC, come fonte principale di questo genere di cellule si usavano le ESC (cellule staminali embrionali) ma erano accompagnate da numerose critiche etiche.

Le iPSC sono state in grado di eliminare i problemi etici delle ESC e hanno aperto nuove frontiere nella ricerca.

La terapia cellulare e un’opzione molto valida per la cura di diversi danni e patologie. Le iPSC hanno permesso un grosso passo avanti in tale direzione.

Esse infatti possiedono molte delle caratteristiche delle staminali embrionali e non vanno incontro a problemi di rigetto in un possibile trapianto, dal momento che si usano le stesse cellule del paziente.

Alcuni ricercatori sono riusciti a portare a uno stadio di normalità topi affetti da anemia falciforme grazie al trapianto di cellule ematopoietiche derivate da iPSC.

Purtroppo non tutto è perfetto, alcuni studi hanno dimostrato che le iPSC e le ESC non sono uguali al 100%, e si sta cercando di capire come queste differenze possano influire sulla medicina e sulla ricerca

Attualmente l’utilizzo delle iPSC nella terapia cellulare è limitato da problemi tecnici e conoscenze ancora ridotte

Tutto ciò dimostra come ancora poco sappiamo sul mondo che ci circonda e soprattutto sul funzionamento del nostro stesso corpo, ed è per questo che migliaia di ricercatori lavorano, per trovare delle risposte.

di Alessandro B.

Fonti:

“Induction of pluripotent stem cells from mouse embryonic and adult fibroblast cultures by defined factors” , Takahashi K , Yamanaka s. – https://www.ncbi.nlm.nih.gov/pubmed/16904174

“Cellule iPS e riprogrammazione: trasformare ogni cellula del corpo in una cellula staminale” – https://www.eurostemcell.org/it/cellule-ips-e-riprogrammazione-trasformare-ogni-cellula-del-corpo-una-cellula-staminale

“Cellula Staminale” – https://it.wikipedia.org/wiki/Cellula_staminale#Classificazione_in_base_all’origine

“La rigenerazione tramite cellule iPS” – http://www.irmi.eu/wordpress/medicina-rigenerativa/la-rigenerazione-tramite-cellule-ips/

Ingranare la PRIMAvera – Capitolo 1: Occhio all’epifisi e alla melatonina

Con l’arrivo della primavera la natura si risveglia e si colora, ma spesso gli unici colori che vorremmo vedere sono quelli del nostro pigiama! Magari anche tu, come tanti, in questo periodo non riesci ad ingranare la prima e non sai con chi prendertela! Beh, i motivi sono svariati e sono anche legati a fattori ambientali, come l’aumento delle ore di luce e l’innalzamento della temperatura, che inducono risposte energeticamente dispendiose del nostro corpo. Uno degli artefici della mancata regolarità nel ciclo sonno/veglia nei primi giorni della bella stagione, è il lavoro svolto dall’epifisi e dalla melatonina.

L’epifisi è una piccola struttura endocrina posta nella parte posteriore del cervello sulla linea mediana. E’ anche chiamata ghiandola pineale per via della sua forma che ricorda quella di una pigna. Cartesio la descrisse come il punto di congiunzione tra corpo e anima: le percezioni del corpo qui divengono pensieri che pervengono all’anima. Ma trascurando la visione di Cartesio, secondo il quale a muovere l’epifisi sarebbero gli spiriti, questa è davvero una ghiandola trasduttrice. Tuttavia, invece di trasformare le percezioni doppie in pensieri unici, trasduce gli impulsi nervosi in variazioni della secrezione ormonale. L’epifisi è parte di un meccanismo “foto-neuro-endocrino”: la stimolazione luminosa arriva alla retina e da qui, attraverso una rete nervosa del sistema simpatico, induce il rilascio di noradrenalina che va a sua volta a regolare l’epifisi nella produzione di un ormone chiamato melatonina. In particolare accade questo:

– al buio l’epifisi stimola il rilascio della melatonina (raggiungendo il suo culmine intorno alle 2-3 di notte)
– alla luce l’epifisi inibisce il rilascio della melatonina.

La melatonina agisce sull’ipotalamo disattivando la funzione di questa parte del sistema nervoso centrale di promuovere lo stato di veglia, inducendo dunque il sonno:

– più melatonina = più sonno
– meno melatonina = meno sonno

La conseguenza di avere più luce a disposizione in primavera è quella di rilasciare meno melatonina e di avere problemi di insonnia o comunque un sonno poco profondo. Durante il giorno dunque è normale sentirsi più stanchi. Come si diceva prima, la stanchezza può anche essere provocata da altri fattori e dall’azione combinata di altri ormoni, che al contrario della melatonina, in questo periodo aumentano il loro livello di secrezione.

Avete presente il fenomeno del jet lag? L’influenza dell’epifisi sul ritmo circadiano è stata confermata anche da studi basati sulla difficoltà dell’organismo di adeguarsi, in seguito ad un volo transcontinentale, al nuovo ritmo giorno/notte. Il periodo di adattamento si riduce con l’assunzione della melatonina per via orale. Quest’ultima è spesso prescritta dai medici nel trattamento di disturbi del sonno.

A muovere l’epifisi non sono dunque gli spiriti proposti da Cartesio, bensì la luce, tanto da essere anche definita il “terzo occhio”!

Curiosità:

– La melatonina è coinvolta anche in altre importanti funzioni: nella difesa immunitaria, nella regolazione del glucosio, nella riproduzione, nell’apoptosi, nel controllo dei radicali liberi.

– L’epifisi calcifica con il passare degli anni a partire dalla pubertà ed è per questo che gli anziani dormono meno.

– L’uso di tablet, smarthphone e pc, prima di andare a dormire, mima la funzione del sole e riduce la secrezione di melatonina provocando insonnia.

– La SAD (disturbo affettivo stagionale) è una forma di depressione che si verifica al cambio di stagione e poi regredisce lentamente. Solitamente questo disturbo sovviene con l’inizio della stagione invernale, ma sono numerosi i casi in cui si presenta con l’arrivo della primavera.

di Marilisa F.

Fonti:

http://www.almanacco.cnr.it

https://www.fondazioneserono.org

– http://www.repubblica.it/scienze/2013/06/20

– Fisiopatologia generale di Pontieri

#primaveraMinerva

Plastiche e Bioplastiche: un sacco di problemi!

di S. Manfredini e F. Marino

Si parla tanto, in questi primi giorni del 2018, di sacchetti di plastica e plastica biodegradabile.

Vediamo di approfondire un po’ il tema della plastica, dell’impatto ambientale, delle bioplastiche e delle nuove norme per la loro introduzione.

 

La plastica

La plastica è un materiale organico costituito da lunghe catene (dette polimeri) di molecole semplici, le quali ne costituiscono l’unità base. A seconda della molecola che costituisce queste catene abbiamo varie tipologie di plastica, con differenti proprietà chimiche e meccaniche.

Se prendiamo in considerazione i discussi e ormai scomparsi sacchetti di plastica sottile tipici del reparto ortofrutticolo vedremo che essi sono costituiti da un sottile film di PoliEtilene, indicato con il simbolo “PE” oppure con il numero “02” (che specifica che il polietilene è “ad alta densità”, a differenza di quello indicato con il numero “04” che invece è a bassa densità e ha una consistenza più “morbida”.

Il polietilene è la più semplice e diffusa delle materie plastiche essendo costituita – lo dice il nome stesso – da ripetizioni di (-C2H4-)n, ottenute in un processo di polimerizzazione a partire dall’etilene, a sua volta un derivato del petrolio.

Questo tipo di plastica, economica e versatile, trova impiego in numerosissimi oggetti e prodotti di uso quotidiano, dai flaconi alle taniche, ai giocattoli, ai tubi, ai mobili da esterno.

Il PE, insieme al PoliPropilene (PP), PoliEtilene Tereftalato (PET) e Cloruro di PoliVinile (PVC) – che insieme costituiscono la stragrande maggioranza delle plastiche in commercio- sono facilmente riciclabili: il riciclo prevede la raccolta e suddivisione per tipo (e talvolta colore) dei materiali. Successivamente, le plastiche vengono purificate da materiali contaminanti, fuse e nuovamente estruse in pellet per permetterne il riutilizzo.

 

L’impatto sull’ambiente

La plastica è uno dei materiali più utilizzati nel mondo, si stima che la produzione mondiale sia attualmente pari a quasi 300 milioni di tonnellate annue.

Quasi il 40% di questa produzione è costituita da PE [1]. Molta plastica tuttavia non viene riciclata (o distrutta) ma viene invece dispersa nell’ambiente: si stima che ogni anno 8 milioni di tonnellate di materie plastiche siano disperse negli oceani.

Secondo un rapporto dell’UNEP (Programma Nazioni Unite per l’Ambiente) del 2009, la percentuale di sacchetti di plastica sul totale dei rifiuti in mare corrisponde all’8,5% – subito dopo le bottiglie di plastica (9,8%).

Fonte immagine: commons.wikimedia.org/wiki/File:1682478-poster-1280-plasticbags.jpg

Le plastiche sono resistenti e in natura possono impiegare dai 100 ai 600 anni per essere totalmente degradate (principalmente ad opera dei raggi UV provenienti dal Sole).

Nel frattempo però l’azione meccanica tende a frammentare i rifiuti in particelle di dimensioni inferiori al millimetro: queste particelle possono facilmente entrare nella catena alimentare e inquinare tutto l’ecosistema marino e non.

L’impatto ambientale di questo tipi di rifiuti si può anche tradurre sia come pericolo di ingestione da parte degli animali marini, sia come possibile rilascio di sostanze pericolose, inquinando l’acqua e sedimentando sul fondo (con successivo annientamento degli organismi che vi vivono) [2]; non ultimo, la contaminazione di queste sostanza, entrando nella catena alimentare, costituisce un rischio anche per la salute umana.

 

Biodegradabile o Bioplastica?

Con il termine bioplastiche si può intendere una famiglia di prodotti che soddisfi la caratteristica di biodegradabilità (processo chimico con cui l’ambiente riesce a convertire il materiale in sotto-sostanze come acqua, anidride carbonica e compost) o biobased (ovvero prodotta da materiali rinnovabili o biomasse quali sostanze vegetali/cellulose) [3].

Fonte immagine: european-bioplastics.org/bioplastics/

I requisiti che le nuove buste devono soddisfare sono descritti nella norma europea EN 13432:2002 (entrata in vigore col decreto italiano a inizio 2018) [4] e definiscono anche il tempo massimo con cui il materiale deve degradarsi (almeno il 90% entro 6 mesi, diversamente dalle centinaia di anni menzionate prima)[5]

Oltre a ridurre gli impatti già descritti delle plastiche ottenute con combustibili fossili, ulteriori vantaggi che si possono annoverare sono la riduzione di emissione di gas serra grazie a un minor uso e spreco di combustibili fossili.

 

Riconoscere i sacchetti giusti

A garanzia del consumatore, come tutti i prodotti conformi ad uno standard, anche i sacchetti riportano dei loghi di certificazione.

Lega Ambiente ha avviato la campagna “#UnSaccoGiusto” per sensibilizzare sul riconoscimento dei sacchetti usati da un supermercato, dal momento che viene denunciata la presenza della criminalità organizzata nella diffusione di confezioni non conformi [6].

https://www.legambiente.it/unsaccogiusto/

Una busta biodegradabile deve infatti riportare:

  • la dicitura Biodegradabile e Compostabile
  • La scritta di conformità allo standard UNI EN 13432:2002
  • il marchio di un ente certificatore

 

Conclusioni

Il problema dei sacchetti non è sicuramente il solo che produce un impatto sull’ambiente, ma come è stato evidenziato ha comunque dato un contributo importante alla contaminazione del suolo, di mari e dei relativi ecosistemi.

Si parla spesso di sensibilizzare e di responsabilizzare ad uno stile di vita più ecologico, uno dei modi più efficaci per spingere al raggiungimento di questi nobili obiettivi sono gli standard e le relative norme che ne seguano l’applicazione.

La gestione dei rifiuti ed il relativo impatto ambientale restano un problema ancora irrisolto e i passi da compiere sono ancora tanti (già solo sul discorso sacchetti resta il punto aperto della biodegradabilità delle etichette [7]);

l’importante è prendere coscienza di quale sia la direzione da prendere e seguirla tutti assieme.

S. Manfredini, F. Marino

 

Fonti

[1] L’industria delle plastiche

https://committee.iso.org/files/live/sites/tc61/files/The%20Plastic%20Industry%20Berlin%20Aug%202016%20-%20Copy.pdf

[2] Impatto delle buste di plastica, report dell’ARPA
https://www.arpae.it/cms3/documenti/_cerca_doc/mare/RN_Rapporto_plastica_mare.pdf

[3] Bioplastiche e plastiche in generale

http://docs.european-bioplastics.org/2016/publications/fs/EUBP_fs_what_are_bioplastics.pdf

[4] Legge di introduzione dei nuovi sacchetti

http://www.gazzettaufficiale.it/eli/id/2017/08/12/17G00139/sg

[5] Riassunto della norma EN 13432

https://it.m.wikipedia.org/wiki/EN_13432

[6] Come riconoscere i sacchetti, l’iniziativa di LegaAmbiente

https://www.legambiente.it/unsaccogiusto/

[7] Per ulteriori approfondimenti, specialmente sul piano dei consumatori:

https://www.altroconsumo.it/alimentazione/fare-la-spesa/news/2018/sacchetti-biodegradabili

 

Le piante: una fonte pulita di energia elettrica

La ricerca di fonti di energia pulita è una delle grandi scommesse del nostro tempo. Le conseguenze dell’uso dei combustibili fossili, prima fra tutte il cambiamento climatico, ci impongono di intraprendere strade diverse e spesso inimmaginabili fino a pochi anni fa. E come sempre quando siamo a corto di idee, ecco che la natura, con i suoi straordinari ed ingegnosi meccanismi, giunge in nostro soccorso.

Una tipica foglia, la sede della fotosintesi (By Jon Sullivan – PdPhoto, Public Domain, https://commons.wikimedia.org/w/index.php?curid=18858)

La più importante fonte di energia del nostro pianeta è il Sole, ma tra gli esseri viventi c’è chi ha imparato ad utilizzarlo molto meglio di noi. Le piante sono veri e propri campioni nella trasformazione dell’energia solare, il “motore” di un processo chiamato fotosintesi clorofilliana che converte l’anidride carbonica e l’acqua in zuccheri ed ossigeno. L’efficienza di questa trasformazione, dopo milioni di anni di evoluzione, si avvicina al 100%, mentre i nostri pannelli solari, per fare un paragone, operano con un’efficienza compresa tra il 12% e il 17%: in altri termini, la pianta trasforma quasi tutta la radiazione solare che assorbe in energia chimica, noi con le nostre tecnologie riusciamo ad utilizzarne solo una minima frazione.

Diversi gruppi di ricerca stanno studiando una strategia per ottenere elettricità dai vegetali. La corrente elettrica viene comunemente definita come un moto ordinato di cariche elettriche. Se vi state chiedendo perché cercarla proprio in una pianta, la risposta è semplice: perché è già lì! Durante le reazioni della fotosintesi le molecole d’acqua vengono “spezzate” liberando elettroni, ossia cariche negative. Questi ultimi sono trasferiti lungo una catena di trasportatori proteici e temporaneamente immagazzinati nella molecola NADP, così da essere utilizzati in una seconda fase alla sintesi del glucosio.

Schema della fotosintesi, detto “schema a Z” (By w:User:Bensaccount – http://en.wikipedia.org/wiki/Image:Z-scheme.png, CC BY-SA 3.0, https://commons.wikimedia.org/w/index.php?curid=3461098

Cloroplasti al microscopio (By Kristian Peters — Fabelfroh – Self-photographed, CC BY-SA 3.0, https://commons.wikimedia.org/w/index.php?curid=1350193)

Ciò che un team di ricercatori della University of Georgia è riuscito a fare è stato interrompere la fotosintesi e catturare questi preziosi elettroni, prima che la pianta potesse utilizzarli per generare gli zuccheri. Per raggiungere lo scopo sono stati isolati i tilacoidi, sistemi di membrane appiattite e disposte in pile all’interno degli organuli responsabili della cattura della luce e della fotosintesi, che si chiamano cloroplasti. E’ proprio qui, tra le membrane tilacoidali, che si svolge il trasporto degli elettroni, grazie ad una sequenza di proteine che sono state  opportunamente manipolate per bloccare il flusso e deviarlo in strutture cilindriche 50000 volte più fini di un capello umano, i nanotubi di carbonio. Queste meraviglie della nanotecnologia funzionano come “trappole” di elettroni e li veicolano lungo i cavi elettrici.

Il sistema è ancora nelle sue fasi embrionali e l’elettricità prodotta molto modesta, ma ci sono margini di perfezionamento e l’ottimismo è tanto. Il concetto è di per sé così allettante che è stata fondata nel 2009, in Olanda, un’azienda che usa le piante per produrre energia elettrica, con un procedimento simile ma diverso. E’ stato messo a punto in questo caso un sistema per “catturare” gli elettroni prodotti dai microrganismi che consumano le sostanze di scarto della fotosintesi espulse dalle radici e liberate nel terreno, una metodologia che peraltro non danneggia o influenza in nessun modo la vita della pianta stessa. Il prossimo traguardo sarà portare questi e simili sistemi di produzione su larga scala, tale da soddisfare il fabbisogno energetico annuale medio delle famiglie o raggiungere le aree più povere del mondo.

Di Erika Salvatori

Riferimenti:

OGM o non OGM: questo è il problema!

Un pubblico non specializzato alla domanda “cos’è un OGM?” probabilmente risponderebbe che è un organismo che ha subìto una manipolazione genetica, che è stato “geneticamente modificato”. La risposta è corretta, ma solo parzialmente e pecca di imprecisione: non tutti gli organismi geneticamente modificati sono OGM!

Leggi di più

Back To Top