Loading....

Il 5G spiegato da chi ci lavora

Ultimamente si sta parlando del 5G, con un interesse sempre crescente da parte dei cittadini di conoscere la natura, le opportunità e i rischi di questa nuova generazione delle telecomunicazioni.

Per raccogliere queste informazioni siamo “andati direttamente alla fonte” intervistando chi sta studiando e lavorando in questo campo.

Abbiamo quindi intervistato, col nostro redattore Francesco Marino, il Prof. Vittorio degli Esposti (autore di oltre 120 articoli scientifici peer-reviewed nei settori dell’Elettromagnetismo Applicato, Propagazione Radio e Sistemi Wireless) e la Ricercatrice Marina Barbiroli (titolare del corso di “Compatibilità elettromagnetica” e specializzata in modelli di previsione di campo elettromagnetico, criteri di pianificazione per sistemi radio, e valutazione dei livelli di campo per il controllo dell’inquinamento elettromagnetico) dell’Università di Bologna.

Il Prof. Vittorio Degli Esposti e la Ricercatrice Marina Barbiroli

Cosa si intende come tecnologia 5G? 

[Vittorio] Più che una tecnologia è uno standard per i sistemi radiomobili cellulari e ne rappresenta la quinta generazione, che segue la quarta rappresentata dallo standard LTE (Long Term Evolution).

Gli standard sono necessari per permettere a infrastrutture e terminali mobili di diversi produttori di esser compatibili e comunicare fra loro.

Come i precedenti, lo standard 5G è stato sviluppato dalla comunità scientifica e dalle associazioni di industrie del settore e in particolare dall’associazione industriale 3GPP [1].

Quali necessità o opportunità stanno spingendo verso questa nuova generazione delle telecomunicazioni?

Come in tutti i settori, il progresso avanza e, se da un lato c’è necessità di una sempre maggiore velocità e qualità del collegamento (in particolare per il trasferimento di contenuti multimediali per gli utenti umani, la realtà aumentata e l’alta definizione) dall’altra c’è una grande esigenza di connessione in rete di apparecchi e dispositivi come elettrodomestici, sistemi di domotica, sensori, veicoli, macchine in ambiente industriale, eccetera: il cosiddetto “internet delle cose”. Per alcune di queste applicazioni c’è la necessità di rispettare requisiti molto stringenti in termini di “tempo di reazione” (latenza) e affidabilità: è il caso ad esempio dei collegamenti per la guida autonoma o la e-health).

Nel prossimo futuro il numero di oggetti e dispositivi connessi tramite la rete radiomobile supererà il numero di terminali utente (telefonini, tablets ecc.), e la rete del futuro deve essere in grado di fare fronte a questo aumento di connessioni e a queste nuove esigenze. Va detto che, se il numero di connessioni aumenterà, la potenza di trasmissione in molte di esse diminuirà rispetto agli attuali standard.

Applicazioni del 5G – https://ec.europa.eu/digital-single-market/en/towards-5g

Quali sono le differenze principali del 5G rispetto alle generazioni precedenti? 

[Vittorio] Le principali novità sono tre

  1. una maggiore velocità di trasmissione (fino ai Giga-bit al secondo) che consente il trasferimento di contenuti dati e multimediali in tempi più brevi 
  2. maggiore velocità di risposta nell’instaurare la connessione (latenza) che consente applicazioni in tempo reale in ambito industriale e di controllo veicolare
  3. infine la maggiore capacità di gestire un’elevata densità di connessioni per l’internet delle cose

Al fine di realizzare le prestazioni sopra descritte la rete 5G farà uso di nuove bande per la trasmissione, sia a frequenze simili a quelle tradizionali (al di sotto di 6 GHz) sia a frequenze più elevate, nella banda delle onde millimetriche. 

In Italia, come in moltissimi altri paesi dell’UE e anche extra UE, le frequenze licenziate per i sistemi 5G sono nella banda a 700 MHz, nella banda a 3.6 GHz e nella banda a 27 GHz. 

Inoltre la rete 5G farà uso di tecniche software e di rete per dare flessibilità e riconfigurabilità alla rete, ed infine di tecniche di trasmissione con multiple antenne in trasmissione e in ricezione, le cosiddette tecniche MIMO (Multiple-Input Multiple-Output), per migliorare la qualità della comunicazione e la velocità di trasmissione minimizzando la potenza utilizzata.

L’Università di Bologna come sta supportando le fasi di ricerca, sviluppo ed implementazione del 5G?

[Vittorio] L’Università di Bologna tramite molti dei suoi gruppi di ricerca ha contribuito indirettamente alla realizzazione delle tecnologie sia hardware sia software utilizzate dallo standard 5G. 

Inoltre ha anche contribuito direttamente con la partecipazione a progetti e associazioni che hanno supportato la definizione dello standard 5G, come ad esempio le associazioni 3GPP e 5G-PPP.

Argomento salute: ad ogni innovazione nell’ambito delle telecomunicazioni si riapre il dibattito degli impatti dei segnali radio sugli organismi viventi ed in particolare sul corpo umano: quali sono ad oggi le evidenze scientifiche sulle attuali e passate tecnologie?

[Vittorio] Allo stato attuale gli effetti dimostrati sono gli effetti termici, cioè il fatto che l’esposizione alle onde radio provoca riscaldamento dei tessuti umani, in particolare in misura variabile a seconda del tipo di tessuto. 

Tali effetti potrebbero provocare alcune patologie (es la cataratta precoce negli anziani). Sebbene alcuni studi abbiano evidenziato una possibile correlazione con alcuni tumori, tali studi non sono stati confermati da altri studi indipendenti in sede internazionale. 

La conclusione ufficiale della comunità scientifica nel suo complesso allo stato attuale è che non ci sono evidenze di effetti non-termici sulla salute umana dovuti all’esposizione a campi elettromagnetici (che includono le onde radio n.d.r.) di basso livello [2]

Classificazione dei Campi Elettromagnetici
https://www.who.int/peh-emf/about/emf_brochure_webversion.pdf?ua=1

Il fatto che milioni di persone ormai da più di 15 anni utilizzino quotidianamente dispositivi radiomobili, ma che gli studi epidemiologici non abbiano confermato un aumento di patologie correlate fa concludere che eventuali effetti negativi “non-termici” dell’esposizione alle onde radio, qualora presenti, dovrebbero essere molto blandi rispetto agli effetti di altri agenti di dimostrata pericolosità, quali ad esempio l’inquinamento atmosferico. 

[Marina] Un altro aspetto importante da sottolineare è che studi sull’interazione tra campi elettromagnetici e sistemi biologici sono in atto dagli anni ‘60 (introduzione del servizio televisivo)  del secolo scorso e il loro numero è notevolmente aumentato a partire dagli anni ‘90 con l’avvento della telefonia mobile;

Ad oggi sono stati pubblicate 28,455 pubblicazioni scientifiche e 6,360 sommari di studi scientifici individuali, tutti  sugli effetti dei campi elettromagnetici [3]

Questo a sottolineare che il campo elettromagnetico a diverse frequenze è un agente fisico che è stato studiato in maniera estremamente estensiva, come nessun altro agente fisico, e per un intervallo temporale molto esteso;  il risultato complessivo è che l’identificazione di eventuali effetti nocivi dell’esposizione a campi elettromagnetici a radiofrequenza (RF), a livelli inferiori alle linee-guida sull’esposizione (che proteggono da noti effetti termici a breve termine), non è ad oggi dimostrata.

Tra le principali preoccupazioni per il 5G una riguarda la banda di lavoro ad alta frequenza (ad esempio 3 GHz) facilmente associabile a quelle tipiche del forno a microonde

[Vittorio] La banda di lavoro del microonde (2.45 GHz) è già da tempo quasi sovrapposta a quella dei sistemi WIFI diffusi in ogni dove. Tale banda accentua gli effetti termici (riscaldamento) perché corrisponde alla risonanza di alcune molecole presenti nei cibi, in particolare la molecola d’acqua. Le potenze dei trasmettitori WIFI però è dell’ordine dei milli-Watt mentre quella dei forni a microonde del kilo-Watt, c’è quindi una differenza di quasi 1 milione di volte!

Un altro elemento percepito con diffidenza è il crescente numero di antenne, considerando anche quelle degli oggetti connessi (ad esempio nello scenario domotico), lasciando pensare ad una maggiore esposizione dei campi elettromagnetici

[Vittorio] L’esposizione umana è in minima parte dovuta ai trasmettitori degli oggetti o delle stazioni base, e determinata soprattutto dall’uso dei terminali utente vicino al corpo umano, come nel caso del telefono all’orecchio o davanti al viso. Il campo prodotto cala esponenzialmente (con esponente 2 o più) con la distanza, quindi già a 1-2 metri è trascurabile rispetto al campo vicino. Di conseguenza il livello di esposizione è soprattutto determinato dall’uso ravvicinato dei terminali personali e dalla potenza degli stessi (che nei futuri sistemi diminuirà), non tanto dalla presenza di emettitori nell’ambiente. Ciò non toglie che si dovrà continuare a monitorare il livello di campo negli ambienti abitati, per evidenziare eventuali situazioni che superino i limiti di legge, come è stato fatto finora grazie al lavoro delle agenzie ARPA regionali. 

[Marina] Arpa è infatti l’agenzia locale preposta al controllo del rispetto dei limiti di esposizione ai campi elettromagnetici e negli ultimi 15 anni ha effettuato un monitoraggio continuo dei livelli di campo nelle città, come si può evincere consultando il sito di Arpa stessa [4].

Ogni tanto emergono studi indipendenti che denunciano il rischio di cancro negli organismi viventi (ad esempio l’istituto Ramazzini)

[Vittorio] Sono a conoscenza di studi che hanno evidenziato possibili correlazioni, ma non basta uno studio, occorre che sia confermato da altri studi indipendenti. 

[Marina] Inoltre le frequenze, le tempistiche e soprattutto le potenze di esposizione dello studio che Lei cita sono assolutamente non correlabili alle esposizioni generate dalla telefonia cellulare e quindi assolutamente inutilizzabili in questo contesto.

Un altro argomento che spesso viene sollevato è l’allarme sottoscritto da 180 scienziati

[Marina] L’iniziativa a cui si riferisce è Bioinitiative Report, un’iniziativa di 14 scienziati del 2007, che ha avuto degli aggiornamenti fino al 2012, ma che è stata rivista dai seguenti organismi internazionali: Health Council of the Netherlands, Australian Centre for Radiofrequency Bioeffects Research (ACRBR), European Commission’s EMF-NET, Institute of Electrical and Electronics Engineers (IEEE) Committee on Man and Radiation (COMAR), German Federal Office for Radiation Protection, French Agency for Environmental and Occupational Health Safety, Indian Council of Medical Research, che ne hanno sottolineato le grandi criticità.

Un’altra preoccupazione riguarda l’elettrosensibilità – la possibile connessione tra una serie di sintomi e la presenza di campi elettromagnetici

[Marina] Sulle connessioni tra i sintomi di ipersensibilità e l’esposizione a campi elettromagnetici è stata effettuata una serie di studi sperimentali (dal sito [3] risultano complessivamente 394 articoli),  la maggior parte dei quali (specialmente in doppio cieco) non ha rilevato una relazione causa-effetto tra sintomi ed esposizione ai campi elettromagnetici.

Gli studi in doppio cieco sono studi scientifici tesi a valutare le effettive azioni di un dato agente fisico (nel caso i campi elettromagnetici) non fornendo ai due protagonisti dello studio (i casi, ovvero i soggetti ipersensibili, e i controlli, i soggetti non ipersensibili) le informazioni fondamentali sull’esposizione.

Per quanto riguarda lo studio della presunta ipersensibilità i casi e i controlli sono stati esposti a campi elettromagnetici senza sapere né la durata né il momento dell’esposizione; le risposte fornite dai due gruppi non hanno mostrato evidenza che i soggetti ipersensibili siano in grado di percepire il campo elettromagnetico più che i soggetti non ipersensibili (le cui risposte al questionario erano completamente casuali).”

Il parere della comunità scientifica si può inoltre ritrovare nel promemoria n.296 del 2005 dell’OMS [5]  che riconosce la sintomatologia ma che non vi è nessuna indicazione che una riduzione dei limiti di esposizione accettati internazionalmente ridurrebbe la prevalenza dei sintomi attribuiti a campi elettromagnetici.

Il principio di precauzione quanto può essere vincolante e quanto in questo caso è significativamente rassicurante?

[Vittorio] Il Principio di Precauzione (PP) è condivisibile. Si applica però qualora una nuova tecnologia porti ad un sensibile aumento dell’esposizione a un certo agente. 

E’ il caso per esempio della tecnologia diesel nelle automobili che nel passato ha provocato un notevole aumento delle polveri, in cui però il principio di precauzione non è stato applicato, se non tardivamente, per adottare opportune contromisure. 

[Marina] In particolare il principio di precauzione può essere invocato solo quando sono soddisfatte le tre seguenti condizioni preliminari: 

  • identificazione degli effetti potenzialmente negativi, 
  • valutazione dei dati scientifici disponibili e 
  • valutazione del grado di incertezza scientifica

Nel caso dei campi elettromagnetici nessuna delle tre precedenti condizioni possono dirsi soddisfatte. Inoltre ci sono tutta una serie di misure per i decisori da adottare al fine di avvalorare il PP e senza le quali il PP perde di validità, tra cui:

  • finanziamento di programmi di ricerca 
  • Informare il pubblico sulle misure di sicurezza supplementari 
  • Implementazione di valori limite speciali

Nessuna di tali azioni è stata intrapresa dai decisori italiani al fine di avvalorare e sostenere il citato PP.

[Vittorio] Come evidenziato in precedenza i sistemi 5G non porteranno necessariamente ad un aumento dell’esposizione alle onde radio. Un terminale che in un certo momento utilizza per una certa connessione il 5G non utilizza il 4G o il 3G, e quindi probabilmente emette minori livelli di campo. 

Un collegamento dati tra “cose” anziché fra “umani” provoca minore esposizione per questi ultimi. Infine un collegamento che utilizza onde millimetriche anziché le frequenze tradizionali, probabilmente provocherà minori effetti ai tessuti umani, perché al crescere della frequenza diminuisce la capacità di penetrazione nei tessuti, e gli eventuali effetti si limiteranno a uno strato di cute più superficiale.

Vi ringrazio per le vostre risposte, buon proseguimento e buon lavoro!

link e approfondimenti

[1] Third Generation Partnership Project https://www.3gpp.org/

[2] Sezione dell’EMF project sul Organizzazione Mondiale della sanità https://www.who.int/peh-emf/project/en/

[3] EMF portal https://www.emf-portal.org/en

[4] Sito dell’ARPA ER dedicato all’inquinamento elettromagnetico https://www.arpae.it/dettaglio_generale.asp?id=2618&idlivello=1534

[5] Promemoria dell’OMS sull’elettrosensibilità https://www.who.int/peh-emf/publications/facts/ehs_fs_296_italian(2).pdf?ua=1

Un nuovo chilogrammo, come mai?

Finalmente! Era ora! Mancava solo lui. Anche il kilogrammo, dal 20 Maggio, ha una definizione accettabile. Sia chiaro: non dovete buttare le vostre bilance. Un kilo resta un kilo, ma adesso è più fancy.

Fino a qualche giorno fa, cos’era un kilogrammo? Era La massa (la massa, non il peso, ricordatevi, sono diversi) di un particolare cilindro di Platino-Iridio depositato all’Ufficio internazionale dei pesi e delle misure in Francia. La materia che ci circonda, però, ha il brutto vizio di cambiare: qualche molecola può staccarsi, può semplicemente ossidarsi, cambiare forma grazie a qualche raggio cosmico. Piccole variazioni di cui, di solito, nessuno si preoccupa. Però quando si vuol definire un’unità di misura si deve essere estremamente precisi, non ci si possono permettere nemmeno piccolissime variazioni. La soluzione? Utilizzare più campioni, tenuti nelle migliori condizioni di isolamento possibile, e utilizzarli tutti insieme per diminuire la variazioni statistiche.

Così, però, il problema non viene risolto, e, per le misure di precisione, serve che il kilogrammo sia definito in maniera immutabile. La soluzione è quella di fissarlo sulla base di processi estremamente precisi, oppure di qualche costante fisica, che, di natura, è costante. Così è stato fatto per il secondo, definendolo grazie alla transizione da un livello energetico all’altro dell’atomo di Cesio, o con il metro, ora lo spazio percorso dalla luce nel vuoto in un tempo brevissimo.

Insomma, l’obiettivo era prendere il chilogrammo e collegarlo in qualche modo ad una costante fisica. La soluzione prevede un complicato sistema di specchi e leve quantistici, una bilancia di Watt e la costante di Planck. Cerchiamo di capire come si mischiano gli ingredienti.

La costante di Planck indica la minima quantità di energia trasportabile da una radiazione elettromagnetica per unità di frequenza. Insomma, un’onda elettromagnetica è fatta da piccoli pacchetti (i famosi quanti) di energia, ognuno dei quali trasporta hν energia, dove ν è la frequenza dell’onda ed h, appunto, la costante di Planck. Una costante fondamentale dell’universo sembra un ottimo punto di partenza.

Il passo successivo è tentare di collegarla al chilogrammo. La costante di Planck appare in contesti puramente quantistici, quindi è necessario entrare in questo mondo, assai ingarbugliato,  per dare un senso al tutto. La via da percorrere è quella della bilancia di Watt. Questo oggetto (anche noto come bilancia di Kibble) funziona più o meno come i bilancini della nonna, quelli con i bracci, in cui su un piatto metti quello che vuoi pesare e sull’altro una serie di campioncini, fino a trovare l’equilibrio.

Il campioncino necessario per trovare l’equilibrio, però, stavolta non è un pezzettino di ferro, ma si usa una bobina percorsa da corrente, immersa in un campo magnetico. Grazie all’interazione tra campo magnetico e corrente, sulla bobina si sviluppa una forza, che dipende strettamente dai loro valori. Variando la corrente fino a raggiungere l’equilibrio, stiamo facendo l’equivalente di aggiungere o sottrarre campioncini nella bilancia della nonna. Alla fine con questo strumento si riesce a passare da una massa ad una corrente elettrica. Perfetto, ma h ancora non è apparsa da nessuna parte.

Questo perché non siamo ancora entrati nel reame quantistico, necessario per far spuntar fuori la costante di Planck. Ed ecco che entrano in gioco l’effetto Hall quantistico, insieme all’effetto  Josephson. Combinando questi due effetti, che prevedono superconduttori a bassissime temperature, per misurare la differenza di potenziale indotta dalla corrente nella spira, riusciamo finalmente a saltare nell’infinitamente piccolo, avendo tutti gli ingredienti.

Alla fine con questo complesso meccanismo di specchi e leve quantistici è stato utilizzato per pesare un chilogrammo, vedere “quante costanti di Planck era” e cambiare la definizione, finalmente.

Bilancia di Watt

Come potete aver notato, ora il nostro kilogrammo è pesantemente più complesso. D’altronde, quando si entra nella stessa meccanica quantistica che ha un gatto sia vivo che morto, cosa ci si può aspettare? I benefici, però, sono enormi. Non c’è più un oggetto su cui basarsi, un laboratorio dotato delle strutture adatte può fare i suoi conti utilizzando la perfetta definizione di kilogrammo, senza dover arrivare in Francia a prendere uno dei cilindri conservati in atmosfera controllata. In più non ci dobbiamo più preoccupare che questo valore vari nel tempo: la costante di Planck quella è e quella rimarrà.

Come se non bastasse, ora abbiamo un kilogrammo molto più elegante. Ce lo possiamo immaginare con uno smoking, che va finalmente agli eventi importanti insieme ai suoi fratelli di Sistema Internazionale.

Di Matteo M

Fonti:

https://aip.scitation.org/doi/full/10.1063/1.4953825

La fetta biscottata con la marmellata vs le leggi della fisica

Il rito della colazione classica con toast e fette biscottate ricoperte di deliziosa marmellata accomuna molte persone in ogni parte del mondo. Allo stesso modo, la caduta della succitata fetta biscottata a terra naturalmente con il lato “condito” rivolto verso il pavimento, è ritenuta tra le maggiori cause di improperi e blasfemie di prima mattina.

Una delle famose massime di Murphy assume l’esempio della fatidica fetta biscottata per dimostrare la fatalità del caso e che ogni cosa che può succedere, accadrà.

Fotogrammi originali dell’esperimento, usati per definire attrito statico e dinamico tra fetta e tavolo

Può far sorridere scoprire che fior di scienziati hanno studiato e dimostrato sperimentalmente che questo fenomeno non ha nulla a che vedere con iatture o gatti neri. e che non è correlato con il valore del tappeto!

Esso è dovuto semplicemente alla fisica coinvolta, che si rifà, con le dovute semplificazioni, al principio di caduta dei gravi e al momento di inerzia del toast.

Assumendo un tavolo standard alto 75 cm, e un “toast standard” di dimensioni pari a 10.2×9.5×1.3 cm, uniformemente ricoperto di marmellata e con centro di massa a “metà” della lunghezza della fetta, si dimostra che: per una lunghezza di sporgenza fino al 6 -7.5% (a seconda dell’ attrito tavolo-fetta) della metà della larghezza della fetta suddetta (circa 1 cm oltre il baricentro quindi), velocità orizzontale iniziale zero, e tralasciando i rimbalzi a terra, la fetta raggiunge il pavimento prima di aver compiuto una rotazione completa sul suo asse (e spalmandosi impietosamente per terra sul lato della marmellata).

Analisi schematica delle forze in gioco

Studi sperimentali hanno dimostrato che per sporgenze maggiori del 6-7%, la velocità angolare di caduta è tale che la fetta riesce a compiere una rotazione completa e ad atterrare sul lato “non condito”.

Anche l’altezza di caduta, cioè del tavolo, è un parametro critico: nella dissertazione completa del 1995 (qui citata nei credit) si dimostra come se avessimo tavoli sufficientemente alti, la fetta di toast cadrebbe molto più spesso sul lato opposto alla marmellata. Piccolo problema: i tavoli dovrebbero essere alti circa 3 metri.

Se pensate che un team di fisici sia sprecato per dimostrare questo semplice dilemma di tutti i giorni, considerate che è stato insignito del premio Ignobel per la fisica nel 1996. [RL]

#noidiminerva #Toast #fisica #Ignobel

Credits:

completa dissertazione : http://space.umd.edu/dch/p405s04/AJP00038.pdf

Robert A. J. Matthews, ‘‘Tumbling toast, Murphy’s law and the fundamental constants,’’ Eur. J. Phys. 16 ~4!, 172–176 ~July 1995

Microrganismi all’opera (d’arte)

Qualcuno dice che “Ciò che non uccide fortifica”! Beh, questo antico proverbio può essere un incipit adeguato per raccontare il relativamente recente sodalizio fra arte e microbiologia.

https://www.flickr.com/photos/clairity/20814842436

Robert Ryman, Twin (1966)

Malgrado si tenda quasi sempre ad associare i batteri ad un pericolo, in realtà molte specie batteriche non solo non uccidono, ma sono addirittura utili a “fortificare” i nostri beni culturali.

E’ vero che alcune costruzioni e opere d’arte, di vario genere e fattura, possono essere influenzate negativamente da diverse attività microbiche; tuttavia è altrettanto vero, che da quelle stesse attività microbiche, altre opere di materiale diverso possono trarne vantaggio.

Consideriamo ad esempio l’attività metabolica dei solfobatteri. Questi ultimi prendono il nome dalla loro capacità di produrre energia ossidando composti organici o idrogeno molecolare e riducendo il solfato a idrogeno solfuro. In pratica questi batteri per respirare hanno necessità del solfato e non dell’ossigeno. La via metabolica della riduzione del solfato ha effetti negativi e positivi. Un effetto negativo è la biocorrosione del ferro e delle leghe in ferro; un effetto positivo è invece la rimozione delle croste nere dalla pietra (proprio attraverso la riduzione del solfato in esse contenuto). E’ per questi motivi dunque che i solfobatteri sono temuti dalle costruzioni in ferro e hanno invece trovato applicazione sulle opere in pietra.

A mettere pace fra il micro e il macro sono state le biotecnologie e la microbiologia. Alcuni studiosi hanno infatti pensato a trattamenti di pulitura e restauro utilizzando in maniera adeguata le vie metaboliche di diversi microrganismi appositamente selezionati in base al substrato da restaurare. Questi trattamenti hanno avuto un ottimo riscontro perchè non sono nocivi per l’operatore, contribuiscono a preservare i nostri beni culturali e sono sostenibili anche per l’ambiente.

Le opere d’arte purtroppo sono minacciate da diverse insidie e fra queste l’inquinamento è una delle più note. Tanti sono anche i danni creati da agenti biologici come alghe, licheni, muschi, batteri e funghi. Essi scelgono la loro opera non in base ad un gusto artistico ma in base alla proprietà di biorecittività e alla capacità di soddisfare le loro esigenze metaboliche (esposizione alla luce, reperimento di molecole organiche, umidità, ecc..). Le opere d’arte sono dei veri e propri ecosistemi! In questo contesto, la figura del biologo diventa dunque importante per l’identificazione degli organismi presenti al fine di scegliere mirati interventi di conservazione e restauro.

Vi sono anche numerose insidie di origine organica. Fra queste, particolarmente minacciose, sono i residui di sostanze impiegate in precedenti interventi di restauro, quali colle animali e caseina. Questi materiali, distribuiti sulla superficie dipinta dell’affresco per staccare gli stessi  dalla parete originaria prima del restauro o come adesivante sul retro (caseina) al termine dei lavori, costituivano, purtroppo, un ottimo terreno di crescita per microrganismi, come alcuni miceti (funghi), che penetrano in profondità con le loro ife. Come risolvere il problema della colla? Un noto gruppo di ricerca nel settore del biorestauro, diretto dal Professore Giancarlo Ranalli, Università del Molise, ha utilizzato delle cellule batteriche vitali di Pseudomonas stutzeri (ceppo A29) per la biopulitura di affreschi medievali del Camposanto monumentale di Pisa.

Due particolari dell’Affresco Conversione di S.Efisio e battaglia del Camposanto monumentale di Pisa,

prima e dopo la biopulitura con Pseudomonas Stutzeri ed enzima Proteasi-type XIX

(Ranalli et al. Biotechnology applied to cultural heritage: biorestoration of frescoes using viable bacterial cells and enzymes. Journal of Applied Microbiology (2005), 98, 73-83 )

Il ceppo batterico è stato scelto dopo studi in laboratorio che hanno verificato l’elevata capacità di biodegradare la colla animale alterata in oggetto. Dopo la rimozione dello strato di cotone contenente la coltura batterica di P. stutzeri, piccoli residui di materiale organico si trovavano ancora sulla superficie dell’affresco. Per rimuovere questi ultimi è stata allora utilizzata una soluzione enzimatica contenente una proteasi. L’uso degli enzimi purificati è stato documentato in diversi progetti di biopulitura. I lavori per il recupero degli affreschi del Camposanto monumentale di Pisa, recentemente definito da Antonio Paolucci “La Sistina Pisana”, sono giunti a termine e sono stati presentati al pubblico nel Giugno del 2018.

E’ aperta la sfida anche per la conservazione dei reperti in ferro, molto comuni tra i reperti degli scavi archeologici. Lo strato di corrosione formato su questi oggetti richiede la stabilizzazione; le attuali tecnologie utilizzate per questo scopo sono lunghe e generano rifiuti pericolosi e vi è pertanto la necessità di un metodo alternativo. A tal proposito si stanno valutando i possibili benefici dell’utilizzo dei batteri anche su queste opere.

Sono sempre più numerosi i laboratori di ricerca in Italia e nel mondo che lavorano in questo settore per raggiungere una sempre più alta efficienza.

Il nostro Paese, noto per lo straordinario patrimonio artistico, non poteva non distinguersi nel campo del biorestauro! Fra i vari gruppi di lavoro possiamo citare l’Enea (Agenzia nazionale per le nuove tecnologie, l’energia e lo sviluppo economico sostenibile) che detiene addirittura un brevetto dal titolo: Processo Biotecnologico per la Rimozione di Depositi Coerenti di Origine Organica ed Inorganica da Materiali ed Opere di Interesse Storico-Artistico. L’innovazione del lavoro brevettato consiste nell’utilizzo di ceppi batterici ambientali non patogeni immobilizzati in un gel di laponite (un particolare tipo di argilla) atossico, che può essere facilmente rimosso alla fine del trattamento senza lasciare residui e senza intaccare la patina pittorica.

Un’altra azienda italiana che lavora nel settore del biorestauro è la Bioresart. Fra i servizi che offre vi è il monitoraggio biologico e ambientale per la prevenzione del biodeterioramento delle opere d’arte e per la valutazione del rischio biologico.

Guardando la tela di Robert Ryman, gli esperti affermeranno che trattasi di arte concettuale; gli scettici dubiteranno del suo valore; i cinici vedranno un’opera vuota; i sognatori la dipingeranno con l’immaginazione; un microbiologo indagherà sui ceppi batterici che la popolano; un biotecnologo valuterà come utilizzare vantaggiosamente quei ceppi. Poi ci sarà qualcuno (come me) che dopo aver elebaborato le informazioni di questo articolo, penserà che quella tela non è un capolavoro, ma per lo meno un giorno sarà facile da restaurare!

M. falzone

Fonti:

-Microbial Biotechnology (2017) 10(5), 1145–1148

-Environmental Microbiology (2005) 7(7), 909–915

-Journal of Applied Microbiology (2005), 98, 73-83

http://www.enea.it

http://www.bioresart.it

A scuola di robot: come nasce una passione

Siamo felici di essere entrati in contatto con Valeria Cagnina: maker, blogger e giovanissima insegnante di robotica.

 

 

[Domandando a Valeria] Ti descrivi anche come “un Whynotter, non uno Yesbutter”, cosa intendi con queste due espressioni?

Il mio motto è “Sono un Whynotter e non un Yesbutter”, ossia sono un ‘perché no?’ e non un ‘si, ma…’. Mi piace sempre interrogarmi, farmi domande e soprattutto perché non mi faccio fermare da un semplice no o da quelle classiche affermazione fatte dai grandi “è così e basta!” oppure ‘sei troppo piccola’. Mi piace sempre analizzare ogni situazione, per trarne il meglio e davanti agli ostacoli che non si possono disintegrare, cercare il modo per raggirarli e riuscire a raggiungere quello che sembra impossibile.

 

Raccontaci qualcosa del tuo percorso formativo, i momenti e le scelte che ritieni più importanti

Il mio percorso formativo è completamente fuori standard. Dal punto di vista della scuola ‘normale’, il mio rapporto con la scuola pubblica non è mai stato idilliaco, ma fino alla 4° andavo a scuola normalmente e facevo fuori dalla scuola le cose che mi interessavano.

Ho finito la 4° e darò la maturità da privatista: pur avendo ottimi voti la preside mi ha detto che se non abbandonerò tutto quello che faccio e rimarrò in una decina di giorni di assenza come gli altri, non mi ammetteranno all’esame. Da qui la scelta obbligata.

La scuola pubblica mediamente non è pronta a gestire chi non si adegua, chi non si appiattisce,… si trincera dietro la burocrazia anche quando la legge dice altro. Non ha mai digerito il mio essere arrivata al MIT di Boston a 15 anni o aver fondato la nostra scuola (mia e di Francesco Baldassarre, il mio socio) a 16 anni..

L’ambiente scolastico mi è sempre stato un po’ stretto perché troppo indietro e completamente scollato dal mondo reale, ho sempre trovato ostruzionismo alle mie attività extrascolastiche, da un lato per via delle tante assenze, dall’altro per la frustrazione presente in questi ambienti. Il fatto che io abbia sempre avuto ottimi voti non bastava: alla fine della 4° ho anche passato i test di ammissione al Politecnico di Milano alla Facoltà di Ingegneria.

Il resto della mia formazione invece… è avvenuto online. Oggi bastano un computer ed una connessione per cambiare la propria vita. Io arrivo da una piccola città di provincia dove il web è ancora visto oggi come l’uomo nero, fortunatamente però a casa mi hanno sempre lasciato libero accesso al web e device e questo mi ha permesso di aprirmi al mondo.

Le risorse online presenti oggi nel mondo sono infinite e tantissime sono gratuite: basti pensare ai corsi del MIT di Boston! Ho sempre guardato, studiato, esplorato e poi mettevo in pratica quello che imparavo nella vita di tutti i giorni, così ho maturato che le mie due grandi passioni sono la robotica e l’education. Da lì a metterle insieme, dopo aver visto Boston, il passo è stato breve e un anno dopo l’azienda cresceva sempre di più e così Francesco ed io siamo diventati soci.

 

Com’è nata la passione per la robotica?

A 11 anni mi piacevano la chimica e l’informatica. La chimica potevo sperimentarla un po’ anche ad Alessandria, la città in cui vivo, l’informatica no. Avendo sempre avuto libero accesso al web, alla rete e ai computer di casa, a differenza dei miei coetanei, navigando ho scoperto il Coderdojo Milano ed è stato amore a prima vista: tutti i sabati e tutte le domeniche mi facevo portare a Milano per questi incontri di programmazione. Lì un giorno scopro una pianta digitale realizzata con Arduino che rilevava la temperatura e ‘appassiva’ se c’era poca umidità, sentiva i suoni e ‘stava male’ se veniva lasciata da sola. Mi sono fatta comprare lo starter kit di Arduino e da sola, davanti ai video di Youtube (all’epoca solo in inglese) ho fatto tutti i progetti iniziali e ho costruito il mio primo robot in grado di muoversi da solo per la stanza ed evitare gli ostacoli. Pensavo fosse una cosa semplice, normale per tutti i ragazzi della mia età, ma ben presto ho scoperto che non era così!

 

Cosa motiva il tuo hobby e i tuoi sforzi?

Ora la robotica è diventata molto di più di hobby, è un vero e proprio lavoro [Occhiolino]

L’essere appassionati a qualcosa ti permette di arrivare veramente ovunque, perché ogni cosa la vivi in maniera positiva e, se credi veramente in un progetto, non ti fermi mai davanti agli ostacoli, pensi sempre che ‘niente è impossibile’ e una soluzione ‘creativa’ la trovi sempre oltre a non sentire la fatica.

Per me non esiste divisione tra lavoro e vita privata, tutto si incastra e si amalgama: fa’ ciò che ami e non lavorerai un solo giorno della tua vita. Per me è così: ci vuole coraggio, determinazione, voglia di fare e di mettersi in gioco, ma i risultati raggiunti ripagheranno di ogni sforzo.

 

La fantascienza o altri elementi hanno alimentato questa passione? hai qualche film o libro che ti hanno ispirata?

Film e tv non ne guardo molti. Ho sempre viaggiato fin da quando ero piccola, sia realmente che con la fantasia e continuo a farlo oggi. I viaggi reali sono sicuramente stati di ispirazione tanto nelle parti più tech del mondo come in quelle più povere. Il viaggiare con la fantasia mi aiuta invece molto oggi nella parte ‘non solo tech’ della nostra scuola.

Non c’è quindi cosa particolare a cui mi sono ispirata, ho sempre preso ispirazione da tante persone in giro per il mondo, anche in ambienti diversi, che mi colpivano per qualche motivo.

Se devo pensare a un personaggio famoso mi viene in mente Bebe Vio con la sua determinazione nel superare tutti gli ostacoli o a Luca Parmitano che con la sua tenacia ha raggiunto la stazione spaziale. Però mi piace ispirarmi anche a persone più vicine a me, come alla mia allenatrice di ginnastica ritmica che mi ha insegnato il ‘Vietato dire non ce la faccio’ e soprattutto a non arrendermi.

 

Com’è nata la tua scuola? a chi si rivolge?

A 15 anni sono stata al MIT di Boston come Senior Tester nel progetto Duckietown.

Ho passato l’intera estate a Boston per realizzare un robot autonomo in grado di muoversi per una città in miniatura e grazie alla sua telecamera leggere cartelli stradali, semafori, evitare pedoni e altri veicoli, fermarsi agli incroci. Costruendo il robot dovevo semplificare i tutorial a livello universitario e renderli accessibili anche ai ragazzi delle superiori.

Ovviamente in 3 mesi al MIT ho girato tantissimi dipartimenti, ho incontrato persone, ho fatto domande,… ma soprattutto lì ho scoperto che i maggiori cervelli della terra, fanno le cose più difficili che riusciamo ad immaginare, ma sempre divertendosi tantissimo. Così ho chiuso il cerchio con quello che vivevo io a scuola e ho trovato l’anello mancante: ho capito che l’istruzione può essere divertente e che si può imparare giocando.

Appena sono tornata in Italia ho cominciato a fare semplici lezioni di robotica a qualche bambino seguendo questo metodo che si stava formando sempre di più nella mia testa. In pochissimo tempo le richieste sono aumentate in maniera esponenziale e a 16 anni ho aperto la mia scuola di robotica. Questa scuola oggi è sempre più grande, ho un team di una decina di insegnanti che ci aiutano e un socio, Francesco, che ha lasciato il suo lavoro a tempo indeterminato per inseguire le sue passioni. La nostra scuola si rivolge a bambini a partire dai 3 anni fino ad arrivare a ragazzi, adulti, insegnanti (con corsi certificati MIUR) e aziende e manager in ogni parte del mondo. Tutte le nostre attività possono essere svolte sia in italiano che in inglese.

 

Normalmente si associa la programmazione a qualcosa di difficile o noioso, cosa risponderesti a chi nutre questi dubbi?

Ogni cosa può essere noiosa o divertente, alienante o coinvolgente, dipende sempre tutto da chi te la insegna e soprattutto dal come ti viene trasmessa.

La programmazione, la robotica come mille altri campi se fatti in maniera standard su un banco di scuola con un professore che spiega formule e numeri sono noiosissime, ma se fatta con il nostro metodo, giocando, divertendosi, senza lezioni frontali, ma facendo scoprire direttamente ai Dreamers (i partecipanti alle nostre attività) ogni nuova competenza, diventa tutto più semplice e divertente. Tieni poi presente che noi non vogliamo trasmettere robotica e coding: noi utilizziamo la robotica, che è la nostra passione, per trasmettere un approccio al mondo diverso e invogliare i Dreamers a scoprire, coltivare ed inseguire le proprie passioni. E’ questa la cosa principale!

 

è una strada che può coinvolgere tutti, indipendentemente dall’età o dal genere?

Certo! La robotica e la programmazione si possono cominciare a qualsiasi età, da bambini e da adulti e, anche se in molti (e troppi genitori!) pensano il contrario, non sono attività solo per maschi! Chiunque può avventurarsi in questo mondo e scoprire cosa più gli piace. Non bisogna mai farsi fermare dai classici stereotipi tipici italiani a cui siamo sottoposti ogni giorno. Tutti hanno le carte in regola per inseguire le proprie passioni e fare della propria vita ciò che si vuole. Non fatevi fermare da chi avete intorno e vi dice il contrario! Ricordatevi sempre che niente è impossibile!

 

Dal sito www.valeriacagnina.tech e possibile trovare anche le 10 regole, ce n’è qualcuna che senti di raccomandare più di altre?

Ovviamente la regola più importante è la prima “Niente è impossibile”, con questa convinzione si può raggiungere qualsiasi obiettivo, ma soprattutto credere questo ti permette di sognare sempre più in grande! Noi vietiamo ai Dreamers frasi come ‘non ce la faccio’ o ‘non sono capace’. Insegniamo loro a dire: devo ancora imparare. Non ce la faccio è solo un blocco mentale per convincerci ad arrenderci!

Ogni regola poi è fondamentale e tutte insieme formano a 360 gradi la filosofia della nostra scuola e ci permettono di essere completamente diversi, con un metodo educativo che mette al centro i Dreamers e il gioco.

 

Dalla tua formazione e interventi emergono due competenze in particolare, l’inglese e la programmazione.

Competenze che nel mondo di oggi diventano sempre più centrali: quale parte attiva possono avere i tuoi coetanei, i genitori e la scuola per contribuire a potenziare questi aspetti?

La parte fondamentale per genitori e scuola è quella di trasmettere l’importanza dell’utilizzo della tecnologia senza paura. In questo modo si acquisiscono in maniera naturale sia le hard skills necessarie al mondo del lavoro, sia le soft skills che permetteranno un futuro da protagonista. L’inglese invece oggi è un must imprescindibile che chiunque, in qualsiasi parte del mondo, deve conoscere da madrelingua. Viviamo in mondo in cui non si lavora solo nel proprio piccolo contesto, ma con il mondo…sapere l’inglese ti permette di avere più possibilità, di accedere a più opportunità, di confrontarti e contaminarti… non bastano le nostre quattro frasi fatte che si imparano a scuola!

 

La scuola è stata un passo, quali sono i prossimi programmi per il futuro?

Ovviamente i passi, progetti e sogni sono tantissimi, sia a breve che a lungo termine!

Francesco ed io nell’immediato (già a partire dall’inizio del prossimo anno) abbiamo in mente di creare una rete di Ambassador, persone che vogliano abbracciare la nostra filosofia di scuola e di educazione e replicare i corsi con il nostro metodo educativo nelle diverse realtà italiane, soprattutto nelle piccole realtà provinciali dove le opportunità sono minori. Vorremmo diffondere a macchia d’olio le nostre 10 regole per stravolgere l’education come la conosciamo oggi.

Nel medio e lungo termine l’idea, ancora più ambiziosa, è quella di creare, all’interno dell’azienda, un vero e proprio reparto di ricerca e sviluppo per ideare e costruire strumentazioni robotiche pensate ad hoc per le nostre attività e che siano ovviamente a misura di bambino.

 

I media o le realtà associative (tra cui la nostra) in che modo possono contribuire al vostro progetto?

Attraverso l’unico modo in cui è possibile l’innovazione, quella vera: attraverso il contagio. Non importa se online o offline: parliamo di cosa capita a Boston e fuori dai confini, raccontiamo che l’education può essere divertente e che non c’è niente di più bello che imparare tutta la vita. Diffondiamo le nostre 10 regole, contattateci per eventi, laboratori, corsi e incontri dove arriviamo con i nostri speech motivazionali a raccontare queste cose o a far provare e toccare con mano il learn by doing e soprattutto, credendo sempre che niente è impossibile. Con impegno, determinazione e duro lavoro si arriva dove si vuole, ricordandovi sempre che solo sul dizionario successo viene prima di sudore!

 

Complimenti per la grinta e auguri per il vostro progetto www.valeriacagnina.tech!

[FM]

 

Le piante: una fonte pulita di energia elettrica

La ricerca di fonti di energia pulita è una delle grandi scommesse del nostro tempo. Le conseguenze dell’uso dei combustibili fossili, prima fra tutte il cambiamento climatico, ci impongono di intraprendere strade diverse e spesso inimmaginabili fino a pochi anni fa. E come sempre quando siamo a corto di idee, ecco che la natura, con i suoi straordinari ed ingegnosi meccanismi, giunge in nostro soccorso.

Una tipica foglia, la sede della fotosintesi (By Jon Sullivan – PdPhoto, Public Domain, https://commons.wikimedia.org/w/index.php?curid=18858)

La più importante fonte di energia del nostro pianeta è il Sole, ma tra gli esseri viventi c’è chi ha imparato ad utilizzarlo molto meglio di noi. Le piante sono veri e propri campioni nella trasformazione dell’energia solare, il “motore” di un processo chiamato fotosintesi clorofilliana che converte l’anidride carbonica e l’acqua in zuccheri ed ossigeno. L’efficienza di questa trasformazione, dopo milioni di anni di evoluzione, si avvicina al 100%, mentre i nostri pannelli solari, per fare un paragone, operano con un’efficienza compresa tra il 12% e il 17%: in altri termini, la pianta trasforma quasi tutta la radiazione solare che assorbe in energia chimica, noi con le nostre tecnologie riusciamo ad utilizzarne solo una minima frazione.

Diversi gruppi di ricerca stanno studiando una strategia per ottenere elettricità dai vegetali. La corrente elettrica viene comunemente definita come un moto ordinato di cariche elettriche. Se vi state chiedendo perché cercarla proprio in una pianta, la risposta è semplice: perché è già lì! Durante le reazioni della fotosintesi le molecole d’acqua vengono “spezzate” liberando elettroni, ossia cariche negative. Questi ultimi sono trasferiti lungo una catena di trasportatori proteici e temporaneamente immagazzinati nella molecola NADP, così da essere utilizzati in una seconda fase alla sintesi del glucosio.

Schema della fotosintesi, detto “schema a Z” (By w:User:Bensaccount – http://en.wikipedia.org/wiki/Image:Z-scheme.png, CC BY-SA 3.0, https://commons.wikimedia.org/w/index.php?curid=3461098

Cloroplasti al microscopio (By Kristian Peters — Fabelfroh – Self-photographed, CC BY-SA 3.0, https://commons.wikimedia.org/w/index.php?curid=1350193)

Ciò che un team di ricercatori della University of Georgia è riuscito a fare è stato interrompere la fotosintesi e catturare questi preziosi elettroni, prima che la pianta potesse utilizzarli per generare gli zuccheri. Per raggiungere lo scopo sono stati isolati i tilacoidi, sistemi di membrane appiattite e disposte in pile all’interno degli organuli responsabili della cattura della luce e della fotosintesi, che si chiamano cloroplasti. E’ proprio qui, tra le membrane tilacoidali, che si svolge il trasporto degli elettroni, grazie ad una sequenza di proteine che sono state  opportunamente manipolate per bloccare il flusso e deviarlo in strutture cilindriche 50000 volte più fini di un capello umano, i nanotubi di carbonio. Queste meraviglie della nanotecnologia funzionano come “trappole” di elettroni e li veicolano lungo i cavi elettrici.

Il sistema è ancora nelle sue fasi embrionali e l’elettricità prodotta molto modesta, ma ci sono margini di perfezionamento e l’ottimismo è tanto. Il concetto è di per sé così allettante che è stata fondata nel 2009, in Olanda, un’azienda che usa le piante per produrre energia elettrica, con un procedimento simile ma diverso. E’ stato messo a punto in questo caso un sistema per “catturare” gli elettroni prodotti dai microrganismi che consumano le sostanze di scarto della fotosintesi espulse dalle radici e liberate nel terreno, una metodologia che peraltro non danneggia o influenza in nessun modo la vita della pianta stessa. Il prossimo traguardo sarà portare questi e simili sistemi di produzione su larga scala, tale da soddisfare il fabbisogno energetico annuale medio delle famiglie o raggiungere le aree più povere del mondo.

Di Erika Salvatori

Riferimenti:

Con la realtà virtuale nella testa dei robot

Quanto siamo vicini al futuro rappresentato nel film “Il mondo dei replicanti” (in cui l’umanità, comodamente seduta sul divano di casa, vive, interagisce e lavora per mezzo di androidi dalle fattezze in tutto e per tutto umane)? Le ultime innovazioni nel campo della robotica sembrano dimostrare che manca poco.

Un gruppo di ricerca dell’MIT ha recentemente pubblicato un lavoro in cui viene presentato un nuovo sistema per telecomandare un robot a distanza. Il punto di forza dell’approccio proposto sta nell’utilizzare tecnologie dai costi contenuti: un visore per la realtà virtuale già in commercio (l’Oculus Rift), sensori di movimento utilizzati per i videogiochi (Razer Hydra), programmi di controllo per robot esistenti ed il trasferimento dei dati via internet. Concettualmente, il sistema si basa sul modello mentale dell’homunculus, eredità del pensiero filosofico di Cartesio.

Secondo la teoria dell’homunculus, le nostre funzioni esecutive sarebbero governate da un piccolo essere, l’omuncolo appunto, situato all’interno del cervello, che osserverebbe la realtà come se assistesse ad una rappresentazione teatrale (da ciò l’espressione “teatro cartesiano”). Se da un lato questo modello è assolutamente inadeguato a descrivere l’intelligenza umana, d’altra parte ricalca molto bene la condizione di un robot telecomandato. Applicare il modello dell’homunculus al robot Baxter permette di svincolare la presenza fisica dell’uomo dalle attività produttive, sfruttando per la prima volta le capacità di entrambi al meglio. Infatti, i sistemi di telerobotica sviluppati finora sono molto specializzati: richiedono la riproduzione dello spazio di lavoro e l’imitazione dei movimenti. Tali limitazioni sono decisamente costose, complicate e scomode per gli operatori: un braccio robotico, banalmente, ha giunture e snodi che si comportano diversamente da quelli del braccio umano. Attraverso la stanza di controllo nella realtà virtuale, invece, si disaccoppiano gli stimoli e le reazioni dei due soggetti, permettendo all’uomo di sentirsi come se fosse all’interno del robot (condizione non ovvia nel caso dei sistemi fondati su mappature più semplici).


Ad esempio, nel caso del modello elementare “a pilotaggio(1) l’utente pilota il robot attraverso un elemento quale una tastiera, o un mouse, non avvertendo assolutamente la propria presenza nello spazio di lavoro. L’operatore quindi non “sente” né “vede” ciò che percepisce il robot.

L’esperienza di essere immersi e co-localizzati con il robot è introdotta dal modello “ad imitazione(2) che presenta, tuttavia, le limitazioni accennate in precedenza, dovute all’incongruenza tra le forme dei corpi dei due soggetti.

Più complesso dei precedenti è il modello “ciber-fisico(3) che introduce il concetto di spazio virtuale. Ciò è reso possibile rappresentando, all’interno di un computer, copie virtuali del robot, dell’utente e dello spazio di lavoro. Nonostante sia utilissimo per far apprendere ai robot azioni ripetitive, manca purtroppo della capacità, tipicamente umana, di adattarsi qualora le condizioni mutino nel tempo.

Il modello dell’homunculus (4 vedi anche il video al seguente link) combina il meglio dei tre metodi appena descritti: lo spazio nel quale si trova l’utente viene replicato nella realtà virtuale che a sua volta definisce l’area di funzionamento del robot. L’uomo è quindi libero di muoversi senza influenzare lo stato della macchina.

La posizione delle braccia, ad esempio, è rappresentata nella stanza di controllo da sfere colorate che l’operatore può scegliere di manipolare oppure no (vedi fig. a lato). Inoltre due telecamere ad alta definizione, poste nella testa di Baxter, creano una visione stereoscopica (ovvero da due punti di vista diversi) dello spazio di lavoro. Tale visione è quindi usata dalla corteccia visiva dell’uomo per ricostruire la tridimensionalità, come nel caso della comune visione binoculare. Questo stratagemma evita costose simulazioni grafiche. Una volta accoppiato ad altre videocamere sulle mani del robot, consente di raggiungere risultati mai ottenuti prima: il 100% di successo in attività del tipo “raccogliere e piazzare”, “assemblare”, “graffettare”.

Sistemi robotici di questo tipo potranno permettere agli uomini di lavorare in condizioni che al momento vengono considerate proibitive, sia dal punto di vista ambientale che della sicurezza. Inoltre, la riduzione dei costi e la possibilità di pilotare il robot da centinaia di chilometri di distanza, semplicemente collegandosi ad internet, aprono anche agli operai la strada del lavoro remoto.

di U.M.M.


Fonte:

Jeffrey I Lipton, Aidan J Fay, and Daniela Rus. Baxter’s Homunculus: Virtual Reality Spaces for Teleoperation in Manufacturing. arXiv. Mar. 3, 2017 (open-access): https://arxiv.org/abs/1703.01270

Video pubblicato dall’MIT: https://www.youtube.com/watch?v=4a-W3Od5-t8

Esoscheletri: quanto siamo vicini all’armatura di Ironman?

L’esoscheletro, detto anche “wearable robot”, non è altro che un sostegno elettromeccanico esterno, mosso e guidato a partire dalla forza propria dell’individuo. Questo sistema è tuttavia in grado di fornire forza e resistenza sovraumane all’indossatore, assistendolo in tutti i movimenti tramite vari sistemi di trasmissione.

Leggi di più

Cellulari e radiazioni, rischi reali e non

Si parla spesso delle onde elettromagnetiche dei telefoni cellulari e dei rischi per la salute ad essi correlati: che cosa c’è di dimostrato e cosa di infondato?

I telefoni cellulari, così come le altre tecnologie wireless, fondano il proprio funzionamento sul passaggio di informazioni tra un’antenna trasmittente e una ricevente (eventualmente capaci di essere alternate per gestire una comunicazione bidirezionale): le informazioni vengono codificate agendo sul cambio delle caratteristiche delle onde elettromagnetiche (come per esempio modulazione di ampiezza, frequenza o fase) che vengono propagate dall’antenna trasmittente e “lette” da quella ricevente.

I campi elettromagnetici o radiazioni sono un fenomeno che sia in natura (uno dei casi più noti è la luce solare) che nelle applicazioni (come quelle wireless) si possono dividere in due grandi categorie:

  • ionizzanti: onde la cui energia è tale da ionizzare un atomo colpito (cioè di modificare la sua carica elettrica e la sua reattività), andando ad alterare la struttura delle molecole di cui fanno parte, come ad esempio il DNA, e potendo causare in ultimo l’insorgenza di tumori
  • non ionizzanti: onde la cui energia non è sufficiente a scatenare gli effetti delle ionizzanti

In questo articolo l’attenzione viene rivolta verso le tecnologie wireless le cui onde rientrano nella categoria onde non ionizzanti.

Non esistono quindi effetti nocivi ricondotti all’uso dei cellulari?

Gli unici effetti nocivi accertati dalla comunità scientifica sono legati al riscaldamento dei tessuti e allo scopo di contenere questo effetto esiste un limite massimo di legge legato al SAR (Specific Absorption Rate)[1]: il SAR è un valore fisico che descrive il livello assorbimento di un’emissione elettromagnetica da parte dei tessuti biologici e, a seconda dei tessuti biologici (parti del corpo, età della persona), il grado di assorbimento può cambiare.

A scopo cautelativo i limiti di legge sono fissati considerando il caso peggiore e tutti i costruttori di dispositivi wireless sono obbligati a rispettare queste soglie per poter vendere i loro prodotti in rispetto della salute pubblica [2].

Analogamente, le compagnie telefoniche o le aziende responsabili dell’installazione di antenne emettitrici sono tenute a rispettare emissioni massime di potenza definite dalla comunità europea ed implementate dai paesi degli stati membri, tra cui l’Italia [3].

Se l’unico impatto sulla salute realmente dimostrato è il riscaldamento dei tessuti, a cosa si riferisce l’organizzazione mondiale della sanità  (OMS) quando parla di classificazione “potenzialmente cancerogena”[4]?

Il dibattito sulla sicurezza delle radiofrequenza ha portato, e tuttora porta, ad un esame attento di tutti i potenziali effetti, non solo termici ma anche cancerogeni.

Su quest’ultimo punto si sono susseguiti una lunga serie di studi, il più recente e di riferimento per la comunità scientifica è lo studio Interfone, condotto dall’Associazione Internazionale di Ricerca sul Cancro (IARC), il cui risultato non ha dimostrato legami di causa effetto ma, non potendo escludere possibili correlazioni tra persone affette da cancro e uso prolungato su cellulare, si è classificato questo elemento nella categoria 2B.

A scopo di chiarimento, la classificazione IARC comprende diversi livelli di causalità [5]:

  • Group 1 (carcinogeni umani certi) – es. tabacco, alcolici, radiazione solare
  • Group 2A (carcinogeni probabili per l’uomo) – es. steroidi anabolizzanti
  • Group 2B (carcinogeni possibili per l’uomo) – es. radiofrequenze
  • Group 3 (non classificabili come carcinogene)
  • Group 4 (probabilmente non carcinogene)

Com’è possibile notare, il gergo specialistico pone molta differenza nell’uso delle parole “probabile” e “possibile”, così come, guardando tra gli agenti appartenenti alla stessa categoria 2B [6], si possono trovare altri agenti quali gli anticoncezionali al progesterone la cui pericolosità risulta molto inferiore a quella di altri agenti del gruppo 1 (tabacco, alcolici, radiazione solare) e che restano comunque legate al dosaggio.

Conoscere le normative e le classificazioni di riferimento nel settore scientifico aiutano a non incappare in errori di considerazione (i limiti di legge e di produzione sono introdotti per contenere solo gli effetti termici dei dispositivi wireless, gli unici finora misurati) e in generalizzazioni che allontanano dallo scopo informativo cui vorrebbero tendere.

Nel prossimo articolo si prenderanno in esame gli accorgimenti consigliati per ridurre gli effetti termici dei dispositivi mobili.

fonti:

[1] organizzazione mondiale della sanità

http://www.who.int/mediacentre/factsheets/fs193/en/

[2] FCC – ente regolatore dei limiti SAR in America

https://www.fcc.gov/general/specific-absorption-rate-sar-cellular-telephones

[3] norme e limiti di legge per il dimensionamento delle stazioni radio base

https://www.arpae.it/elettrosmog/legge2.html

[4] comunicato dell’OMS sui risultati dello studio interphone

http://www.iarc.fr/en/media-centre/pr/2011/pdfs/pr208_E.pdf

[5] livelli cancerogenicità IARC

http://monographs.iarc.fr/ENG/Classification/

[6] lista degli agenti IARC

https://monographs.iarc.fr/ENG/Classification/ClassificationsAlphaOrder.pdf

Solar Impulse: Volare con l’energia solare

Riparte la sfida di Solar Impulse, il velivolo rivestito di celle solari nato per portare un messaggio: la possibilità di ridurre le emissioni nei trasporti rinunciando ai combustibili fossili.

L’aereo, realizzato in Svizzera, dalla sua presentazione nel 2009, ha conseguito una serie di obiettivi sempre più ambiziosi, dalla trasvolata della Svizzera, all’attraversamento degli USA fino alla circumnavigazione della Terra, attualmente in corso.

Leggi di più

Back To Top