Nanoparticelle da batteri, funghi e estratti vegetali.

In evidenza

Luigi Campanella, già Presidente SCI

Le nano-scienze studiano i materiali nelle componenti più piccole di cui sono composti, quindi a livello atomico e molecolare. Alcune delle applicazioni più moderne ed attuali dei nano-materiali sono la protezione da scritte e graffiti di vetri, carrozzerie, pannelli pubblicitari, l’azione di contrasto allo sporco ed all’umidità su superfici di vetro o specchio; l’azione idrorepellente, l’attività antivegetativa su imbarcazioni e cabine marine.

Per grandi applicazioni si utilizzano dispersioni delle nanoparticelle in alcool; tali applicazioni sono sempre più diffuse e variate, allargando i campi di interesse e di studio. Alcune nano particelle hanno dimostrato proprietà di inibizione della crescita di microorganismi, altre sono state applicate alla decontaminazione delle acque reflue da uranio. Tutto ciò mette in evidenza come le nano-particelle rappresentino promettenti opzioni per la chimica sostenibile. In alcuni casi, la maggior parte in realtà, la loro preparazione comporta metodi e processi non ecocompatibili; da qui l’importanza di superare questo limite con metodi di sintesi delle nanoparticelle che siano riconducibili alla green chemistry.

Nasce così la nanotecnologia verde come combinazione delle nanotecnologie con la chimica verde, che punta a creare nano-materiali sostenibili e sviluppare applicazioni per ridurre i residui dannosi a salute ed ambiente da smaltire. Il risanamento di terreni inquinati è uno dei problemi che rientrano in questa casistica. Questo può avvenire in situ senza la necessità di scavare ed ex situ con rimozione del terreno seguita da trattamento adeguato in condizioni controllate. La nanotecnologia verde ha trovato applicazioni proprio nei metodi di risanamento in situ, ovviamente i più ambiti per la maggiore semplicità operativa. Il primo aspetto da considerare per dare credito al carattere green è quello relativo alla preparazione/sintesi rispettosa di ambiente e salute. Le sintesi tradizionali avvengono per via chimica, che può essere con tecnologia tradizionale o con tecnologia green: nel primo caso si utilizzano spesso solventi tossici e condizioni sperimentali estreme, consumi energetici elevati, mentre nel secondo caso si impiegano reagenti green, per lo più estratti naturali, condizioni ambientali miti, catalisi chimica con ridotti consumi energetici. Successiva alla sintesi è la caratterizzazione che avviene con tecniche diverse XRD, UV, FTIR.

Sono note due classi di nano-materiali ,l’organica e l’inorganica, la prima costituita principalmente da carbonio, la seconda da metalli nobili come l’oro e l’argento. Un’altra classificazione distingue le nano-particelle in naturali, sintetiche, ingegnerizzate, a seconda della loro origine; quelle metalliche rientrano in quest’ultima classe.

I microrganismi hanno talvolta la capacità di ridurre gli ioni metallici conducendo alla sintesi di materiali in nanoscala; ciò avviene attraverso l’azione di enzimi extracellulari secreti dai microorganismi. I batteri hanno una speciale affinità per i materiali e questa proprietà di legarli li rende particolarmente utili nel nanobiorisanamento. Oltre ai batteri analoghi usi hanno i funghi ed i lieviti, questi ultimi in particolare nei casi di sintesi di grandi quantità di nano particelle, in ragione dell’elevato contenuto proteico di questi microorganismi. Infine in letteratura si trovano molti esempi di sintesi di nanoparticelle a partire da estratti di piante. Esistono numerosi articoli nella bibliografia scientifica che, in funzione delle nano particelle che si vogliono sintetizzare, indicano la piante o il microorganismo più idoneo.

Alcuni esempi: per la sintesi di nanoparticelle di argento i microrganismi o le piante più adatti sono il lievito del pane, lo staffilococco, la magnolia,la trigonella e il ficus; per quelle di oro aspergillus penicillium ed eucalipto; per quelle di ferro escherichia coli, papaya, tè verde, rosmarino.

Questo fra l’altro getta luce sulla pretesa di alcuni che le nanoparticelle che si ritrovano nei cibi o nell’ambiente siano tutte sintomo di inquinamento. Non sembra sia così e secondo alcuni anzi talune nanoparticelle hanno un ruolo nella crescita delle piante. Diciamo che c’è molto da studiare.

Dopo la loro caratterizzazione le nanoparticelle vengono applicate al nanorisanamento del sistema in cui è richiesto di abbattere la concentrazione di composti pericolosi per l’uomo e per l’ambiente. L’azione delle nano particelle si può esplicare attraverso l’adsorbimento con conseguente rimozione dei composti adsorbiti o attraverso la loro proprietà di donatori elettronici che comporta una reazione con le specie ioniche metalliche e con gli elettronaccettori con la trasformazione di questi in specie meno tossiche; tale minore tossicità auspicata deve essere però testata.

Alcuni dei problemi che assillano queste nuove tecnologie sono la perdita di attività nel tempo delle nanoparticelle, il trasporto di queste, l’azione tossica nei confronti dei biocatalizzatori, spesso indispensabili per lo sviluppo di una reazione. I microorganismi del suolo ,ad esempio, sono estremamente importanti per il ciclo naturale dei nutrienti nell’ambiente, proteggendo anche il suolo da eventuali composti contaminanti. Dovendo decidere sul metodo più adatto per risanare un sito contaminato vanno tenuti in conto numerosi aspetti, quali l’efficienza, la complessità, il rischio, la disponibilità di risorse, il tempo necessario, giungendo alla conclusione che non esiste un metodo che soddisfi completamente ed inducendo quindi la convinzione di ricorrere ad una multi-tecnologia.

Alcuni riferimenti.

Nanochem Res 3(1): 1-16, Winter and Spring 2018

Sustainability 2018, 10, 913; doi:10.3390/su10040913

J Nanomed Nanotechnol
 Volume 5 • Issue 5 • 1000233


­ M.H. Siddiqui et al. (eds.), Nanotechnology and Plant Sciences,
DOI 10.1007/978-3-319-14502-0_2

Anshup A, Venkataraman JS, Subramaniam C, Kumar RR, Priya S, Kumar TS, Omkumar RV, John A, Pradeep T. (2005). Growth of gold nanoparticles in human cells. Langmuir, 21 11562–11567.

Chaudhuri GR, Paria S. (2012). Core/shell nanoparticles: classes, properties, synthesis mechanisms, characterization, and applications. Chem Rev, 112 (4) 2373-433.

Dwivedi AD, Gopal K. (2010). Biosynthesis of silver and gold nanoparticles using Chenopodium album leaf extract. Colloids Surf A Physicochem Eng Asp, 369 (1–3) 27–33.

Iravani S. (2011). Green synthesis of metal nanoparticles using plants. Green Chem, 13 2638–2650. Iravani S. (2011). Green synthesis of metal nanoparticles using plants. Green Chem, 13 2638–2650.

Economia e conoscenza.

In evidenza

Luigi Campanella, già Presidente SCI

La definizione non è mia ma di Paul Romer, premio Nobel per l’Economia 2018, a cui ha dedicato un bellissimo articolo Cesar Hidalgo.

La frase a cui mi riferivo è la seguente: “A differenza dei fattori classici di produzione,come il capitale ed il lavoro, la conoscenza è un bene non competitivo, ovvero può essere condiviso senza che si consumi e quindi come tale potrebbe effettivamente aumentare a livello pro capite, così costituendo il segreto della crescita economica.”

Il modello elaborato negli anni 90 ha affascinato molti giovani che hanno seguito con passione le orme dei maestri. 3 di loro hanno pubblicato un articolo divenuto un caposaldo di questa teoria ed il cui fuoco era sulla diffusione geografica della conoscenza : con una tecnica di corrispondenza , di abbinamento, ad ogni brevetto se ne può accoppiare un altro gemello. Confrontando i 2 brevetti gemelli è possibile verificare come la loro capacità di essere diffusi e conosciuti risenta in misura determinante della vicinanza geografica.

Questa conclusione impone di discutere perchè questo sia un limite ad una conoscenza che Romer aveva giudicato infinita. Per comprendere questo apparente contrasto sono stati svolti ampi dibattiti giungendo alla conclusione che il mondo di internet che sembrava destinato a decentrare i centri di conoscenza, quasi a fare svanire le città, invece non funzionava da elemento uniformante ma al contrario differenziante sempre di più. Un ulteriore elemento a giustificazione di quanto rilevato era rappresentato dalla coautorialità, un vero cappio della geografia intorno al collo della conoscenza. C’era poi un aspetto più generale. La conoscenza è trasportabile, può essere resa disponibile a tutti, ma non è trasferibile in toto: un chimico, quale io sono, sa di chimica, ma può non sapere di musica o sport e viceversa.

La misura della conoscenza totale non ha perciò senso rispetto a quella della conoscenza riferita a ciascuna attività economica. Vale certo il principio della correlazione; l’eventualità che un’economia entri in un certo mercato aumenta a seconda della correlazione fra quell’economia e quel mercato. Nella misura del totale della conoscenza in un’economia, portata avanti successivamente dalla stessa scuola, i rilievi non tenevano conto della correlazione, ma del grado di intensità. Confrontando esiti della misura per Paesi diversi si arriva alla conclusione che i Paesi con maggiore conoscenza totale erano anche i più ricchi: Singapore, ad esempio,con 4 milioni di abitanti, ha una conoscenza totale superiore all’Etiopia con i suoi 80 milioni di abitanti. La conoscenza produttiva non deve necessariamente correlarsi alla popolazione, è una quantità pro capite. Si intravede una delle tesi di questo tipo di studio: la conoscenza intesa come il nuovo PIL.

Per approfondire:

https://blogs.scientificamerican.com/observations/the-rise-of-knowledge-economics/

Rivoluzione X.0

In evidenza

Luigi Campanella, già Presidente SCI

Cambia la società, cambia l’industria. I numeri puntati seguiti dallo 0 sono un must del nostro tempo: industria 4.0, Internet 3.0, Chimica 3.0.https://blog.castuk.com/2018/01/30/value-architects-are-you-ready-for-the-4th-industrial-revolution/

Sostanzialmente volendo riassumere queste trasformazioni in un’unica espressione potremmo parlare di informatizzazione e comunicazione partecipata della società. Il rapporto all’interno ed all’esterno delle aziende, finanche al livello familiare, è ormai affidato alle intelligenze artificiali, ai big data, alla trasmissione telematica. Ciò da un lato crea opportunità, apre nuove strade, dall’altro produce effetti che possono essere devastanti in tema di privacy.

https://www.reddit.com/r/forwardsfromgrandma/comments/7wnf81/5g_is_deep_state/

Per questo cambiano le professioni ambite e la più richiesta di tutte è proprio quella di esperto in cyber security, come gli esperti di blockchain, una specie di internet delle transazioni. Se poi si tiene conto del fatto che ogni ora vengono caricati nel mondo 2,8 milioni di foto su Instagram, postati 24 milioni di tweet, visualizzati 248 milioni di video su YouTube, si comprende facilmente come un’altra professione ambita debba essere il data scientist, cioè gli esperti capaci da questa pletora di dati di estrarre informazioni redditizie. Nei prossimi anni serviranno sempre più esperti di tecnologie informatiche, Oltre alle 3 professioni citate sono perciò richiesti gli esperti di intelligenza artificiale e machine learning (le macchine imparano dall’esperienza intesa come reiterazione di input e stimoli).i meccatronici , nuove figure del mercato professionale che nascono dalla fusione fra tecnico di automazione industriale, tecnico informatico e tecnico elettronico e progettano e realizzano sistemi di controllo automatico, gli esperti di realtà virtuale, gli esperti di Internet delle cose (le cose prendono vita), gli esperti di usabilità, fondamentali per la crescita delle vendite.Illustration by Jack Reilly

E’ fondamentale che i percorsi formativi si adeguino e potenzino in queste direzioni e che i giovani prendano conoscenza e coscienza di queste trasformazioni: c’è di mezzo il loro futuro rispetto al mercato del lavoro. Purtroppo a fronte di questo sviluppo che rende ormai Industria4.0 un’espressione familiare a molti italiani, non si può dire purtroppo la stessa cosa per Agricoltura 4.0 intendendo con essa non solo agricoltura digitale, come nel caso delle imprese gestionali, ma anche un approccio globale di sistema che va dalla coltivazione alla raccolta, alla gestione attraverso tecnologie innovative che consentono di valorizzare il significato di filiera Agricola. Questo avviene solo per l’1% della superficie agricola del nostro Paese, un po’ a conferma della dimensione artigianale dell’agricoltura italiana. Ovviamente questa situazione se può non essere drammatica oggi, lo può diventare domani rendendo non competitive molte aziende agricole. E’ necessario quindi cambiare e per fare questo è necessaria una piattaforma di gestione di precisione della filiera. Molto si discute sui contenuti di questa piattaforma. Il punto di partenza non può che essere la formazione di agricoltori e consulenti che sappiano discutere ed utilizzare sensori, algoritmi, Gis; fondamentale è la disponibilità di rete nelle aree rurali: il 5G deve essere una priorità per queste aree. Il ricorso al conto terzi può essere uno strumento prezioso per avvicinare le nuove tecnologie da parte dei piccoli agricoltori.

‘I’ve found a cafe just 300 yards from where you’re standing. We could meet their for a latte.’

https://www.pintherest.eu/french-restaurants-cartoons-and-comics-funny-pictures.html

La sensoristica ha sviluppato metodi innovativi per monitoraggio e diagnosi su terreni esposti. Il rinnovo strumentale, quando avviene, deve essere sempre caricato di un costo di manutenzione che garantisca il funzionamento e la comunicazione. L’open science, intesa come approccio alla messa a comune nel sistema di avanzamenti e conoscenze, a partire dai big data richiede un impegno delle singole aziende, ma è basilare per raggiungere la massa critica e fare sistema. Infine è necessario che i giovani – torniamo ancora a loro, i cittadini, i politici, gli amministratori di domani, comprendano l’importanza di questo salto di qualità: incoraggiarli su questa strada promuovendo startup e spin off sembra, più che opportuno, necessario.

https://digital-luxembourg.public.lu/news/digitalwellbeing-engaged-society

Il secondo traguardo: oltre le calorie.

In evidenza

Luigi Campanella, già Presidente SCI

Il secondo traguardo dello sviluppo sostenibile per le Nazioni Unite si focalizza sulla lotta entro il 2030 contro la cattiva nutrizione in tutte le sue forme. Una nuova ricerca sull’argomento dimostra che per raggiungere questo traguardo è necessario un approccio nuovo rispetto alla definizione dei limiti della sufficienza di nutrienti nell’alimentazione dei cittadini del Pianeta. Lo studio è stato pubblicato in ” Frontiers in sustainable food systems”.

https://www.frontiersin.org/articles/10.3389/fsufs.2018.00057/full?utm_source=FWEB&utm_medium=NBLOG&utm_campaign=ECO_FSUFS_calories-nutrients

E’ il primo studio che cerca di mappare quantitativamente a livello globale il flusso di energia, proteine, grassi, amminoacidi essenziali e micronutrienti dal campo di cultura al piatto e di identificare i punti caldi dove si perdono nutrienti. Lo studio mostra che mentre produciamo nutrienti in quantità molto maggiore di quanto richiesto dalla popolazione del Pianeta, le inefficienze nella catena di distribuzione comportano deficienze alimentari. La ricerca sottolinea le complessità che sorgono nel mettere a punto un sistema di alimentazione equilibrato, che solo può essere maneggiato con un approccio olistico. Le innovazioni di approccio che si richiedono derivano dal fatto che attualmente la sicurezza alimentare è valutata in termini di calorie, mentre la cosiddetta fame nascosta, cioè la malnutrizione di micronutrienti, affligge più di 2 miliardi di persone nel mondo

Attualmente i differenti aspetti del sistema alimentare globale sono trattati in termini di tonnellate o chili, e diventa difficile definirne sufficienza o meno e rispetto a quante persone tali quantità possano garantire alimentazione sufficiente.

Il capofila dell’equipe che ha svolto la ricerca ha dichiarato: ”vogliamo, per la prima volta, valutare l’intero sistema alimentare in unità di misura utili-nutrienti medi per persona- guardando a tutti i nutrienti essenziali per la buona salute”. Il gruppo di ricerca ha utilizzato i dati forniti dalla FAO circa i bilanci alimentari e le composizioni nutrizionali per quantificare proteine digeribili, grassi, calorie, aminoacidi e micronutrienti (calcio, zinco, ferro, folato, vitamine A, B6, B12, C) attraverso la catena di distribuzione, dalla produzione in campo all’alimento sulla tavola.

Le perdite di alimenti e nutrienti sono state calcolate dai dati regionali sui rifiuti delle Nazioni Unite e tutti i dati quantitativi sono stati normalizzati per mediare per persona e per giorno. I valori delle forniture di nutrienti sono stati confrontati alla richieste medie nutrizionali per stabilire circa la sufficienza o meno. I ricercatori sono stati colpiti dal risultato: tutti i nutrienti, non le calorie corrispondenti, sono distribuiti in quantità sufficienti. Studi precedenti avevano dimostrato che noi produciamo più dei nostri bisogni in termini di calorie (5500-6000 kcal per persona per giorno), ma mentre per alcuni nutrienti si arriva ad un eccesso di quasi 5 volte, i dati su proteine e micronutrienti essenziali sono di segno completamente opposto, in più con gravi diseguaglianze nella disponibilità di cibo e con differenti tempi e fasi nella perdita (raccolto, stoccaggio, utilizzo a fini energetici). Queste informazioni sono preziose per interventi preventivi a salvaguardia di un equilibrio alimentare globale.

COP24: quali conclusioni?

In evidenza

Luigi Campanella, già Presidente SCI

Si è conclusa la COP24 che si è svolta a Katowice in Polonia. Si è discusso di impegni ed accordi globali per salvare il Pianeta. In molti workshop satelliti si sono poi affrontati argomenti più specifici. Il risultato più significativo credo sia rappresentato dalle attese regole sui meccanismi di trasparenza sull’implementazione degli impegni di riduzione delle emissioni e da indicazioni chiare per l’incremento a breve degli stessi. Questo risultato è la mediazione fra chi ha spinto per risultati più ambiziosi e chi ha frenato conducendo battaglie di retroguardia per cercare di indebolire i risultati finali. Il comunicato finale ha di conseguenza raccolto apprezzamenti ed insoddisfazioni. Fra i punti che mi sento di apprezzare sono la presenza fra i temi oggetto di monitoraggio di quello relativo all’uso e cambiamento d’uso di suoli e foreste e l’archiviazione della tradizionale differenziazione degli obblighi (la cosiddetta biforcazione) tra Paesi industrializzati e Paesi in via di sviluppo con l’adozione di regole comuni e la previsione di flessibilità per quei Paesi in via di sviluppo che ne necessitano in base alle loro capacità. E’ stato istituito il Forum sull’impatto delle misure di risposta al cambiamento climatico con il fine di permettere alle Parti di condividere in modo interattivo esperienze ed informazioni Per gli aspetti finanziari credo che il risultato più concreto sia quello di mobilitare 100 miliardi di dollari all’anno dal 2020 per sostenere i Paesi in via di sviluppo. La COP del 2019 si svolgerà in Cile e per quella del 2020 il nostro Ministro Costa ha presentato la candidatura dell’Italia.

Fra i workshop satelliti ho rilevato con una certa sorpresa che uno è stato dedicato all’energia nucleare all’interno del più ampio discorso della de-carbonizzazione del settore elettrico considerato passo essenziale per contrastare i cambiamenti climatici, se si pensa che la produzione di elettricità contribuisce per il 40% alle emissioni e che gas e carbone sono ancora le fonti principali che producono il 63% dell’elettricità. Un recente studio del MIT mostra come il costo della decarbonizzazione dell’elettricità sarebbe molto minore se nel cocktail di tecnologie alternative fosse presente anche il nucleare. Forse proprio questo studio ha spinto l’Associazione Mondiale per il Nucleare a rivendicare nella sede del Workshop i caratteri di questa tecnologia: basso contenuto di carbonio, basso livello di emissioni, elevata sicurezza. La stessa IPCC nel suo ultimo rapporto dettaglia ciò che è necessario fare per limitare il riscaldamento globale a 1,5°C sopra il livello preindustriale, osservando la elevata scalabilità del nucleare nei diversi Paesi ed evidenziando i successi della Francia che in meno di 20 anni ha massicciamente decarbonizzato la sua elettricità ricorrendo al nucleare. Nel 2018 il nucleare ha fornito nel mondo il 10,5% dell’energia totale con 6 nuovi reattori entrati in funzione* (fra Cina e Russia) e 14 da attivare nel 2019.

L’Italia dal referendum è fuori dal nucleare fra polemiche e dibattiti che di tanto in tanto si riaccendono; certo non si può dimenticare né l’aspetto dei costi né soprattutto quello della sicurezza: la densità di danno nel caso di un incidente è incommensurabilmente superiore a quella relativa a qualunque altro tipo di impianto. E aggiungiamo che nessun paese ha risolto il problema dell’immagazzinamento degli scarti della fissione nucleare da una parte e che i paesi da cui provengono i minerali usati soffrono seri problemi di inquinamento ambientale di lungo periodo. Questo complesso di problemi rende il nucleare poco appetibile specie nei paesi con una pubblica opinione libera; in Europa solo Francia e Finlandia hanno progetti nucleari in corso e di entrambi si sa che soffrono enormi problemi di attivazione sicura. L’esempio del reattore finlandese di Olkiluoto 3 (1600MW) i cui costi e tempi di costruzione sono triplicati (stimati a 9 miliardi di euro nel 2012, ma non più aggiornati) e non ancora conclusi dal 2005 è al momento un esempio vivente di questi problemi. Olkiluoto 4 non è più in programma. Flammanville 3 è nella medesima situazione di Olkiluoto 3, iniziato nel 2007 non si sa quando finirà e i costi sono arrivati a superare gli 11 miliardi di euro.

L’aria di Katowice e le biomasse.

In evidenza

Luigi Campanella, già Presidente SCI

Per capire l’aria che tira a Katowice nella COP24 è veramente istruttiva la discussione che si è svolta nella giornata di sabato e di cui sono stati dalla stampa riportati ampi resoconti. In occasione della plenaria di chiusura del 49° meeting del SBSTA (Subsidiary Body for Scientific and Technological Advice), dopo l’approvazione di numerosi documenti, anche importanti, a sostegno dell’accordo di Parigi del 2015 sul clima, la discussione si è impantanata sull’approvazione del documento su Research and Systematic observations preparato nella settimana.

Si tratta di un documento in cui il SBSTA saluta come “benvenuta” (in inglese welcomed) una serie di dichiarazioni, lavori e documenti scientifici, tra i quali la Dichiarazione sullo stato globale del clima, il Bollettino sui gas-serra, la dichiarazione sui progressi conseguiti nel Sistema globale di osservazione del clima, la dichiarazione del programma di ricerca sul clima mondiale, le osservazioni terrestri da satellite. Una frase ha innescato la polemica, la sostituzione richiesta da alcuni Paesi della parola “welcomed”, che per l’appunto saluta come benvenuta la serie con “noted” cioè ha preso atto. Su questa alternativa si è discusso per oltre 2 ore.

La differenza non è solo terminologica: se si dà il benvenuto ad un documento poi non si può procedere in direzione opposta a quella indicata in termini di emissione di gas serra, di uso del carbone quale combustibile di poIitica energetica. I Paesi che hanno chiesto di prendere atto e non di dare il benvenuto sono Arabia Saudita, Kuwait, Federazione Russa e Stati Uniti, tutti Paesi nei quali gli interessi economici legati alle fonti energetiche fossili sono rilevanti. Il risultato è stato che il documento non trovando un’unanimità non è stato approvato, suscitando per tale conclusione numerose proteste con dichiarazioni di adesione al testo di benvenuto. Il 7% della popolazione (quello corrispondente ai suddetti 4 Paesi), ha così bloccato un’approvazione importante perché capace di formalizzare l’adesione a documenti di provenienza strettamente scientifica e tecnologica.Mentre avviene tutto questo, a dimostrazione dello scontro sul clima in atto nel mondo, non solo orientale, ma anche occidentale, l’editrice Alkes ha distribuito un interessante documento sulle fake news in campo ambientale in particolare affrontando un tema di grande attualità, quello relativo alle biomasse (http://www.nuova-energia.com/index.php?option=com_content&task=view&id=5548&Itemid=113). Proposta come una possibile soluzione rispetto a produzioni energetiche capaci di riciclare gli scarti e rispettose dell’ambiente di recente è stata attaccata in quanto concorrenziale con un ben più “degno” uso delle aree ad essa dedicate, quello per le produzioni alimentari, in quanto economicamente non sostenibile per le PMI, in quanto collegata a deforestazioni selvagge, in quanto inquinante. In effetti sappiamo che si tratta di critiche effettive, ma parziali, il discorso è complesso.

Oggi in Italia le bioenergie impegnano circa 300 mila ettari pari a circa il 2,3% della superficie agricola, dunque in Italia non c’è concorrenza fra le due cose; la superficie forestale italiana in 50 anni si è raddoppiata (da 5,5 a 11 ) milioni di ettari, dunque anche senza colture dedicate le disponibilità di biomassa sono significative (30 milioni di tonnellate di biomasse ligno-cellulosiche); le centrali a biomasse non sono inceneritori e richiedono specifiche autorizzazioni per essere realizzate; in Italia sono stati realizzati oltre 1500 impianti a biogas per una potenza complessiva di circa 12GW bene integrati nel contesto agricolo nazionale (si tenga però presente che SE si fa uso di tecniche intensive di coltivazione ed allevamento il biogas contiene una porzione di energia primaria tratta dal petrolio).

E’ chiaro che le biomasse DA SOLE non sono una soluzione al problema energetico anche data la loro bassa densità energetica per unità di superficie, l’inquinamento ambientale evidenziabile in contesti cittadini e anche il ciclo di vita LCA che (considerando l’energia di trasporto o i contributi primari fossili) ne abbassa la sostenibilità; tuttavia il loro uso può essere un contributo, la cui utilità dipende dal contesto, al passaggio a forme rinnovabili e sostenibili di energia primaria in un quadro energetico nazionale da rinnovare significativamente.

In conclusione, per rendere realmente utile alla produzione di energia pulita una centrale a biomasse, il legislatore, dovrebbe anche chiarire cosa ci possa finire dentro, perché norme troppo vaghe sono altamente pericolose per la comunità, visto che, come detto, lì dentro ci potrebbero finirebbero pure materiali che di bio non hanno proprio niente.

https://www.tuttogreen.it/centrali-a-biomasse-sono-davvero-eco/

COP24, cosa ci aspettiamo.

In evidenza

Luigi Campanella, già Presidente SCI

E’ partito il 3 dicembre in Polonia, più precisamente in Slesia, Katowice, la COP 24 (Conferenza delle Parti all’interno della più generale Conferenza delle Nazioni Unite sul clima).

Sembra un’ironia, ma Katowice si trova a 150 Km dalla centrale elettrica a carbone, indicata nel 2014 dalla C.E. come la più dannosa nell’Unione Europea. Sono attese le linee guida, il cosiddetto Rule book, per rendere operativo l’accordo di Parigi del 2015.

Si tratta forse di uno degli ultimi appelli ancora validi per salvare il nostro pianeta. Gli scienziati parlano di solo 12 anni da ora rimasti per agire in modo decisivo per salvare in Pianeta.

Durerà 11 giorni e le attese per gli esiti dell’evento sono molto forti, anche se il carattere tecnico più che politico della manifestazione, raffredda molti entusiasmi. Il punto fondamentale riguarda il rispetto dell’intesa per limitare a due gradi centigradi il riscaldamento globale. Correlati ad esso sono i problemi relativi ai finanziamenti della decarbonizzazione, all’adattamento ed al trasferimento di tecnologie sostenibili innovative, ai meccanismi e agli attori delle fasi di controllo. Secondo gli esperti l’Europa si trova nelle condizioni, rispetto a questi problemi, di conseguire i risultati attesi ed, addirittura, di modificarli in meglio, andando ben oltre il 55% di riduzione delle emissioni entro il 2030.

All’evento partecipano 30000 fra delegati e visitatori provenienti da tutto il mondo. Il mancato carattere politico, a cui prima si accennava, ha fatto considerare da qualcuno COP24 come inutile. Credo sia errata tale valutazione. L’evento polacco fa parte di un percorso definito, ogni tappa del quale ha un suo significato: annullarla avrebbe effetti molto negativi rispetto alla fiducia dei cittadini nel buon esito del processo in atto. D’altra parte per esso si possono individuare elementi di fiducia quali il disaccoppiamento fra crescita del PIL e delle emissioni, l’aumento del ricorso alle energie rinnovabili, gli impegni di contenimento delle emissioni. Su quest’ultimo punto pesa il fatto che esso non riguarda tutti i Paesi firmatari dell’accordo di Parigi, dal quale in particolare gli USA si sono ritirati. Anche in questo caso però a parziale consolazione c’è da dire che ampie Regioni degli USA, come California, New York, Washington ed altre istituzioni americane hanno di fatto annunciato il loro continuato impegno. Quindi credo che sia necessario dare fiducia e credibilità all’incontro, alternativa al quale sarebbe solo sperare nelle singole iniziative con ben più scarse probabilità di successo.

Si veda anche

http://www.climalteranti.it/2018/12/09/un-momento-di-chiarezza-alla-cop24/

e

http://www.climalteranti.it/2018/12/02/raccontare-la-cop24-i-5-errori-da-non-commettere/