Informazioni su devoldev

chemist, university researcher, marxian, peakoiler,climate worried, bridge player, Mozart/Vivaldi loving, pedal biker

Ancora chimica e sottomarini. Freon, killer a bordo!

In evidenza

Giuseppe Poeta Paccati

L’8 novembre 2008 si verificò un gravissimo incidente sul sottomarino* nucleare russo K-152 Nerpa della flotta del Pacifico provocata da un’avaria al sistema antincendio a Freon che provocò la morte per asfissia di 20 persone e 41 feriti tra il personale tecnico civile e quello militare.

Sottomarino russo Nerpa (K-152), oggi in dotazione alla marina indiana come INS Chakra

Costruito presso il cantiere di Komsomol’sk-na-Amure (unico sottomarino nucleare russo a non essere in costruzione nei cantieri Sevmaš di Severodvinsk), il sottomarino appartiene alla classe di sottomarini nucleari sovietici dal nome in codice NATO Akula, Progetto 971 Ščuka-B ed era destinato ad essere ceduto in leasing alla marina indiana.

I battelli di questa classe sono in grado di attaccare con successo sia gruppi di unità navali ostili (subacquee e di superficie), sia installazioni terrestri. Grazie ai due scafi in acciaio amagnetico più distanziati del normale, in caso di incidente, hanno una maggiore probabilità di evitare danni allo scafo interno che è, a sua volta, diviso in otto compartimenti. Dotati di un reattore nucleare OK-650B da 190 MW (100’000 hp) per la propulsione che consente una velocità di 20 nodi in emersione e 35 in immersione, sono costruiti con materiali e tecnologie pensate appositamente per rendere minima la loro traccia acustica e renderli più difficilmente localizzabili in immersione.

L’unità incrociava nel golfo di Pietro il Grande, una vasta insenatura lungo la costa russa nell’estremo oriente, situata nella parte nordoccidentale del mare del Giappone per svolgere un programma di collaudi e, per questo motivo, l’equipaggio che era a bordo il giorno dell’incidente era molto più numeroso del solito: 208 persone di cui 81 militari e 127 ingegneri civili dei cantieri navali Amursky, responsabili della costruzione e dell’allestimento del sottomarino.

I compartimenti di un sottomarino russo sono presidiati da stazioni di erogazione di gas freon R-114B2 (dibromotetrafluoroetano, noto come khladon in russo) per estinguere rapidamente gli incendi in spazi chiusi.

Dibromotetrafluoroetano, R-114B2, Halon 2402, CAS Number 124-73-2   (1,2-isomer)

Alle 8:30 PM (ora locale), durante la prima prova di immersione, l’attivazione accidentale del sistema di estinzione del sottomarino causò la chiusura ermetica di due compartimenti adiacenti che furono saturati di gas estinguente prima che il personale lì presente potesse essere evacuato. Il dibromotetrafluoroetano, in alte concentrazioni, può causare narcosi, che progredisce per fasi in eccitazione, confusione mentale, letargia e, infine, asfissia. Molti dei feriti hanno sofferto degli effetti delle ustioni da congelamento causate dal gas.

  1. Personnel working in front section of submarine affected when fire extinguishers set off unexpectedly
    2. Affected area may have been sealed off, trapping personnel inside. There were more staff than usual on board as submarine was undergoing tests
    3. Fire extinguishers release freon gas, which displaces breathable oxygen, causing workers to suffocate

http://news.bbc.co.uk/2/hi/europe/7718156.stm

Il dibromotetrafluoroetano è un liquido incolore con punto di ebollizione di 47,2 °C.

Dal 1994 il protocollo di Montreal prevede l’eliminazione, la produzione, l’utilizzo e il commercio delle sostanze dannose per l’ozono stratosferico (ozone-depleting substance, ODS). Il dibromotetrafluoroetano ha un elevato potenziale di distruzione dell’ozono (ozone-depleting potential, ODP).

Il Potenziale di eliminazione dell’ozono (Ozone Depletion Potential o ODP) di un composto indica la capacità di danneggiare lo strato di ozono rispetto a quella esercitata da un composto preso come standard di riferimento, il triclorofluorometano (R-11), cui viene dato il valore di ODP pari a 1,0. Ad esempio, in questa scala, il clorodifluorometano (R-22), ha un ODP di 0,05 mentre il dibromotetrafluoroetano di 6.[1]

Secondo le testimonianze dei sopravvissuti, le vittime non sarebbero state avvertite in tempo perché l’allarme sonoro di segnalazione di pericolo d’incendio sarebbe scattato solo dopo che il gas aveva già iniziato ad essere erogato nei compartimenti. Alcune delle vittime sono state trovate che indossavano i loro kit di respirazione di emergenza mentre altre, si stabilì in seguito, non furono in grado di attivare i kit respiratori d’emergenza prima di rimanere asfissiate.[2]

Gli esperti individuarono due principali spiegazioni del disastro: un malfunzionamento del sistema antincendio di bordo e l’errore umano. Secondo questa seconda ipotesi un membro dell’equipaggio avrebbe attivato il sistema “senza permesso o alcun motivo particolare”.

Questa grave accusa sarebbe però destituita di fondamento perché il membro dell’equipaggio che era stato accusato risultò essere uno specialista esperto e competente. L’attribuzione delle responsabilità all’equipaggio sarebbe il tentativo della marina russa di individuare un “capro espiatorio”[3] Alcuni ufficiali della marina in pensione riferirono alla stampa che era impossibile che una persona soltanto fosse l’unica responsabile dell’incidente perché il sistema antincendio doveva ricevere più livelli di conferma prima di poter essere attivato.

L’incidente al K-152 Nerpa è stato il peggior incidente per la Marina russa dopo la perdita del sottomarino a propulsione nucleare K-141 Kursk avvenuta nel 2000 nel Mare di Barents durante un’esercitazione militare navale in cui perì tutto il suo equipaggio di 118 uomini.

  • (NdP. Un sottomarino a differenza di un sommergibile è una unità che viaggia essenzialmente sott’acqua, con prestazioni migliori che in superficie , mentre il sommergibile, viceversa, è una unità che viaggia essenzialmente in  superficie)

[1]          http://gestis-en.itrust.de/nxt/gateway.dll/gestis_en/031750.xml?f=templates$fn=default.htm$3.0

[2]          Halpin, Tony (13 November 2008). “Crew member blamed for Russian submarine disaster”. London: The Times.

[3]          “Russia accused of cover-up over gassing of 20 sailors on nuclear submarine”, Daily Mail, 13 November 2008.

Il riciclo “di fatto” della plastica.

In evidenza

Claudio Della Volpe

Molti pensano che il riciclo sia fatto una volta che i rifiuti siano separati nei vari cassonetti; poi le famose “mani invisibili”, quelle inventate da Adam Smith, ci penseranno; beh le cose non stanno così.

La separazione dei rifiuti è solo il primo passo, necessario ma non sufficiente; i rifiuti devono poi arrivare in un deposito e successivamente in un luogo di produzione dove l’azione venga perfezionata. (I comuni “ricicloni” non stanno riciclando, stanno solo separando.)

Ora questa strada verso il riciclo è lunga, molto lunga e anche pericolosa per i poveri rifiuti o materie prime seconde, come si dice in politicalcorrettese.

Un esempio di cosa succede ai rifiuti anche nostrani si vede in questo film che potete scaricare o di cui potete vedere qualche fotogramma qui:

La Cina è stata di fatto il deposito intermedio dei rifiuti di mezzo mondo; la cosa dà da “vivere” a un po’ di cinesi ma con qualche problema, tanto è vero che i politici cinesi si sono resi conto che qualcosa non quadrava ed hanno deciso di BLOCCARE, ripeto bloccare, l’import di rifiuti plastici da riciclo dall’Europa dal 1 gennaio di quest’anno di grazia 2018. La cosa ha avuto qualche effetto che adesso analizzeremo brevemente.

Il Corepla (Consorzio nazionale per la raccolta, il riciclo, il recupero degli imballaggi in plastica) scrive in un recentissimo report:

Le aumentate quantità raccolte hanno generato un incremento dei costi di selezione; i costi di recupero sono aumentati in quanto, a seguito della saturazione degli spazi disponibili presso i recuperatori, causata dai volumi provenienti dalla raccolta urbana, sono cresciuti i corrispettivi medi. Questo ha anche generato la necessità di trasferire materiali dal centro-sud al nord, con conseguente aumento dei costi di trasporto.  Laddove ciò non è stato possibile si è reso necessario trasferire del materiale in discarica, con conseguente aumento anche dei costi di smaltimento.”

Dice Il Sole 24 ore: Senza mercato, in Europa i carichi di materiali diventati inutilizzabili vengono deviati verso gli inceneritori affinché almeno vengano ricuperati sotto forma di combustibile di qualità.

http://www.ilsole24ore.com/art/impresa-e-territori/2018-01-12/la-cina-blocca-l-import-rifiuti-caos-riciclo-europa-160732.shtml?uuid=AELQpUhD

Dunque c’è troppo da riciclare e la plastica finisce in…discarica o nell’inceneritore. (Poi dicono che al classico non si impara nulla? Signori miei questo è un esempio di dialettica hegeliana: la negazione della negazione!)

Ma non solo; molto “riciclo” arriva in depositi di materiale plastico che non riescono a perfezionare il passaggio né verso le fabbriche vere e proprie che sono spesso altrove, casomai in Cina, né perfino verso gli inceneritori.

Sempre il solerte giornale di Confindustria ci avverte:

I pochi impianti italiani di ricupero energetico marciano a tutta forza e non bastano;  in una situazione di forte domanda di incenerimento e di poca offerta di impianti di ricupero energetico le tariffe praticate dagli inceneritori salgono a prezzi sempre più alti, oltre i 140 euro la tonnellata.

Già in ottobre Andrea Fluttero, presidente di un’associazione di imprese del riciclo (Fise Unire), aveva avvertito che «purtroppo sta diventando sempre più difficile la gestione degli scarti da processi di riciclo dei rifiuti provenienti da attività produttive e da alcuni flussi della raccolta differenziata degli urbani, in particolare quelli degli imballaggi in plastica post-consumo».

(notate la raffinatezza di quel “di poca offerta di impianti di ricupero energetico” messo lì con nonchalance! E facciamo altri inceneritori, dai!)

Di conseguenza con o senza l’aiuto di malavitosi compiacenti la plastica prende la via dello smaltimento forzato, della “termovalorizzazione obbligata” tramite incendio doloso; nella seconda metà del 2017 il numero di incendi dei depositi di plastica nella zona Lombardo Piemontese è aumentata di quasi il 50%; difficile dimostrarne la origine dolosa, ma come avviene negli incendi dei boschi c’è qualche traccia e soprattutto i numeri parlano chiaro. (Attenzione anche ai depositi di carta e alle cartiere!).

Potete leggere a proposito un recente e brillante articolo comparso sulla cronaca milanese del Corriere del 3 aprile a firma di Andrea Galli (Milano, il «sistema» degli incendi gemelli: affari sporchi nella terra dei fuochi).

(http://milano.corriere.it/notizie/cronaca/18_aprile_03/milano-sistema-incendi-gemelli-affari-sporchi-terra-fuochi-6ab3f2e2-36a0-11e8-a836-1a6391d71628.shtml)

C’è una terra dei fuochi anche nel cuore del triangolo industrializzato, fatta di depositi di plastica (o di carta) che scoppiano anche grazie al divieto cinese, ma non solo, e il cui problema viene risolto bruciando tutto e contando sulle inefficienze o sulle compiacenze dell’apparato statale; l’industria chimica esalta i successi del riciclo, ma i 2700 impianti di deposito plastiche del Nord Italia, sulla via del riciclo, non potendo contare più sulla via della Cina, via alla rovescia, che una volta importava seta ed adesso esporta rifiuti, cercano soluzioni alternative.

Il rischio è che qualcuno (ricordate la frase del Sole citata prima) dica “visto che lo bruciano comunque allora fatecelo bruciare per bene”; col cavolo! rispondo io; la plastica non va bruciata MAI! Riciclare e cambiare la sua produzione e il suo uso.

Dunque paradossalmente il successo della differenziata ha messo in luce un problema serio: la via del riciclo è complessa e costosa; in alcuni casi come il PET, la plastica delle bottiglie di cui abbiamo anche parlato di recente la cosa più o meno funziona, ma di plastiche, al plurale ce ne sono tanti tipi che non sono miscibili fra di loro e il loro riciclo costituisce un serio problema, ancora non risolto.

Paradossalmente il PET è un esempio negativo nel senso che occorrerebbe semplicemente consumarne di meno, usare più acqua del rubinetto e meno acqua da bottiglia, meno acqua minerale. Ma è anche il caso in cui il riciclo viene meglio, il caso guida, anche se con qualche problema di qualità.

Come abbiamo detto altrove il riciclo comincia dalla produzione, la materia deve essere trattata dal momento della prima produzione con l’ottica del riciclo, non si può riciclare tutto (dopo averlo ben mescolato!!!) poichè i costi energetici della separazione, dovuti all’onnipresente effetto del 2° principio della termodinamica sono ENORMI. E d’altronde riciclare non il 100% ma poniamo il 95, non risolve il problema, ma lo sposta nel tempo: 0.9510=0.6 ; se ricicliamo dieci volte di seguito una cosa al 95% alla fine ce ne ritroveremo solo il 60% e dovremo comunque attingere a risorse casomai non rinnovabili o al collasso.

Questo è un analizzatore di colore che separa i flakes di PET (ottenuti per macinazione) per colore, realizzando una parte del costoso processo antientropico di separazione.

La realtà vera è che riciclare è assolutamente necessario, ma COSTA! Servono tecnologie sofisticate e spazio di stoccaggio.

E il costo di questo passaggio epocale al momento non è stato ancora né quantificato né chiarito. Lo spazio grigio viene riempito dalla malavita o da imprenditori di pochi scrupoli. Il successo (inaspettato) del riciclo della plastica deve essere a sua volta “curato” riducendone la produzione e l’uso: imballaggi in numero e quantità eccessivi devono essere eliminati e le tipologie di plastica devono essere scelte con l’occhio al loro fine vita. Per fare un esempio pratico, lo stesso PET nel momento in cui si cerca di esaltarne le caratteristiche aggiungendo altri materiali come nanosilicati, grafene o altri diventa più difficilmente riciclabile; la soluzione non è una strategia supertecno dal punto di vista dello scopo ma molto meno dal punto di vista complessivo dell’economia circolare; cosa faremo quando tutto il PET sarà “caricato” di diversi qualcosa? Sarà ancora riciclabile come adesso?

L’economia circolare non può coincidere col riciclare quello che c’è già, e che si fa come si fa adesso e con i medesimi scopi (mercato, profitto, crescita dei consumi); finora l’industra ha riciclato in quest’ottica (vetro, ferro, alluminio, PET), ma adesso le dimensioni sono diventate planetarie e il metodo tradizionale non funziona più.(D’altronde la “pattumiera” oceanica è satura.)

Ora si deve necessariamente trasformare il contenuto “fisico” dei prodotti e della loro manipolazione e anche in definitiva tutto il nostro rapporto con la Natura: non solo riciclare, ma consumare meno e meglio, riprogettando dal principio ogni materiale ed oggetto che usiamo.

Una rivoluzione. In cui la chimica gioca la parte del leone.

La chimica delle uova di Pasqua e altre storie.

In evidenza

Claudio Della Volpe

Le uova di Pasqua sono una tradizione che risale a ben prima della cultura cristiana.

Dioniso con l’uovo e il càntaro, IV sec. a.C. Parigi, Louvre | © RMN

Il Dioniso di Tanagra (Beozia, dove Dioniso sarebbe nato) figura tombale o quello del Louvre, che mostrano un uovo, ricordano l’uso di donare uova (casomai colorate o dipinte) come augurio di fecondità e salute all’inizio della primavera, tradizione che risale al primo millennio a.C. (Egitto, Persia). Solo poi, nella cultura cristiana, l’uovo, apparentemente minerale, ma che nasconde la vita, acquista il senso della rinascita dalla morte e, dunque, della resurrezione.

Le uova di cioccolata invece sono un prodotto recente non foss’altro perchè la cioccolata è stata importata in Europa come dolce frutto dello scambio “colombiano” di cui abbiamo parlato in altro post. E infine solo il macchinismo industriale le ha rese comuni perchè lavorare l’uovo di cioccolata a mano non è certo semplice: roba da re al tempo del Re Sole, le uova di cioccolata diventarono comuni solo dopo la 2 guerra mondiale dalle nostre parti.

Eppure uova colorate cuocendole con foglie e fiori opportuni erano comuni già nel medioevo. Insomma, a parte il simbolismo, le uova colorate e la chimica che c’è dietro sono un prodotto “popolare” dell’”oscuro” medioevo tedesco. (ma poi perchè il medioevo è sempre oscuro?).

Hieronymus Bosch, Concerto nell’uovo, Lille, Palais des Beaux-Arts | © RMN - 
Copia anonima del XVI sec. Fra gli altri significati di quest'opera perduta 
l'uovo potrebbe essere il contenitore  dell'Universo, un contenitore dove 
il chimico ermetico mette a reagire gli elementi creandone una sinfonia,
un pò folle.

La parola “Ostern” in tedesco non si riferisce all’origine greca e latina della festa ebraica per celebrare l’emigrazione degli ebrei dall’Egitto, ma si riferisce invece alla dea “Ostara”. Nella Germania delle figurine bruciate negli “Osterfeuer” (fuochi di Pasqua), pratica molto popolare nel nord del paese ma nota anche in altre regioni, (figurine che erano simboli dell’inverno e bruciate dopo la “Tag-und-Nacht-Gleiche” (giorno e notte dell’equinozio)), lo “Osterhase” (Coniglio di Pasqua), che “nasconde” dolciumi (soprattutto uova di Pasqua di cioccolata) è più popolare dell’agnello come animale simbolico della Pasqua. Già, ma come si fanno le uova colorate e come funziona il meccanismo di colorazione delle uova? Ovviamente c’è un meccanismo base di assorbimento della superficie dell’uovo che è porosa. Ma non solo.

Hamilton, R. M. G. (1986) “The Microstructure of the Hen’s Egg Shell – A Short Review,” Food Structure: Vol. 5: No. 1, Article 13.

Available at: http://digitalcommons.usu.edu/foodmicrostructure/vol5/iss1/13

https://www.researchgate.net/publication/51895246_The_eggshell_structure_composition_and_mineralization/figures       Figure 4. Artistic rendition of cross-sectional view of chicken eggshell. The major morphological features are labelled.

Questo bel grafico lo troviamo su Chemical and Engineering News; il metodo è semplice ed è spiegato bene qui.

Il guscio dell’uovo di gallina è fatto principalmente di carbonato di calcio e, immergendolo in un acido debole come l’aceto, si hanno due effetti:

1) il guscio reagisce con l’acido producendo diossido di carbonio gassoso (vedrete formarsi delle bollicine sulla superficie dell’uovo). Il guscio inizia a sciogliersi il che ne acccresce l’area e ne espone una maggiore superficie al contatto con l’esterno.S. O’Malley su https://www.sciencefriday.com/educational-resources/eggs-to-dye-for/

2) le proteine nella sottile cuticola del guscio reagiscono con l’acido debole e si protonano, acquistano ioni idrogeno e dunque cariche positive in eccesso. Sono proprio queste cariche positive a legare le molecole di colorante se queste sono caricate negativamente come quelle che sceglierete opportunamente seguendo i consigli di C&En News.S. O’Malley su https://www.sciencefriday.com/educational-resources/eggs-to-dye-for/

Ovviamente potrete sperimentare usando acidi deboli diversi come quelli elencati qui sotto (aspirina, succo d’arancia, aceto o vitamina C; o altri) e diversi coloranti che si usano in cucina.Fra i coloranti da cucina: succo di barbabietola, di carota o di cavolo rosso, curcumina dalla curcuma, le antocianine del vino o dei mirtilli, il succo di altri frutti o il thè o il caffè, succo di pomodoro, etc.

Una volta che sarete diventati esperti con questi metodi potrete andare oltre le uova di Pasqua e far cambiare il colore del thè aggiungendo un acido o una base (succo di limone, soda Solvay (carbonato di sodio) o bicarbonato) oppure perfino il colore dei fiori come le ortensie facendo cambiare l’acidità del terreno.

Provate e sappiatemi dire.

Entropia e biosfera.2.

In evidenza

Claudio Della Volpe

Continuiamo a presentare la relazione fra la biosfera e il flusso entropico che la attraversa, la cui prima parte è stata presentata qui. Il flusso di entropia può essere visualizzato molto più semplicemente dell’entropia stessa che appare un concettto molto astratto.

Dato che le sue dimensioni sono quelle di una energia diviso una temperatura diviso un tempo, il flusso di entropia corrisponderà a quello di una potenza diviso una temperatura; se la temperatura del sistema o della sua interfaccia è costante la potenza dissipata dal sistema sarà di fatto proporzionale al flusso entropico.

La biosfera, il sistema Terra, come lo abbiamo definito nel post precedente è di fatto una gigantesca macchina termica che trasforma in energia meccanica, potenziale e chimica la radiazione che arriva dal Sole e anche l’ormai flebile flusso di calore proveniente dal’interno della pianeta. In realtà quel flusso di entropia ha il suo corrispondente, il suo alter-ego diciamo così in quella che noi chimici chiamiamo energia libera, produzione di entropia e grandi gradienti di energia libera che lo sostengono: produzione e flusso di entropia e flusso di potenza che gli corrisponde.

Quanto è grande questo flusso?

Si sente spesso dire che il flusso di energia solare è decine di migliaia di volte superiore a quello che usiamo perciò non dobbiamo preoccuparci: se passiamo alle rinnovabili non avremo più problemi di energia. Ma è così?

Vediamo da vicino.

Certo se stimiamo la quantità netta di energia che arriva dal Sole essa è veramente grande, ma quanta di quella energia si può effettivamente sfruttare? In genere le macchine termiche tradizionali, quelle dotate di due sorgenti una calda ed una fredda hanno un limite di trasformazione che è dato dal famoso teorema di Carnot.

Efficienza= 1-Tbassa/Talta

Di fatto il criterio di Carnot è solo un limite teorico insuperabile; ma esistono altri criteri che consentono di arrivare semplicemente più vicino alla realtà della cose; uno di questi criteri è il cosidetto criterio endoreversibile (AJP, Courzon e Ahlborn, vol. 43 p. 22, 1975) frutto del cosiddetto approccio della termodinamica a tempo finito. L’idea di base è che per avere potenza da una macchina termica occorre considerare dei salti finiti di temperatura e che se si semplificano le condizioni di calcolo considerando ideale la macchina in se e attribuendo la irreversibilità al solo salto termico per di più semplificato considerando degli scambiatori “lineari” ossia in cui la trasmissione del calore è proporzionale al salto termico è possibile arrivare ad una condizione concreta: se la macchina termica così concepita lavora alla massima potenza, allora la sua efficienza effettiva diventa

Efficienza= 1-√(Tbassa/Talta).

Dato che le moderne macchine termiche sono il frutto di oltre due secoli di perfezionamenti e i materiali degli scambiatori sono anch’essi sofisticati l’approssimazione funziona alla grande, anche se pochi testi di fisica tecnica ne fanno menzione; in pratica gli ingegneri snobbano questo approccio mentre i teorici come Callen lo hanno accolto a braccia aperte (Callen, Thermodynamics and an introduction to thermostatistics, 2 ed. p. 125-127, 1985)

Per poter applicare questa stima al nostro caso, alla nostra particolare macchina termica, però dovremmo dimostrare che valgono le condizioni che ho detto prima.

Sulla approssimazione lineare del trasporto di calore nel nostro caso essa è certamente grossolana, anche se considerando valori medi la cosa è certamente applicabile; mentre è più facile immaginare di essere in una situazione di massima potenza e dunque di massima entropia prodotta.

Non ci sono criteri assoluti di evoluzione nei sistemi lontani dall’equilibrio, ma va facendosi strada l’idea che se c’è un numero sufficientemente alto di gradi di libertà l’evoluzione di un sistema seguirà la regola della massima produzione di entropia (MEPP); attenzione non confondete questa idea con quella di Prigogine, valida solo per i sistemi stazionari, in quel caso il sistema produce la minima quantità di entropia compatibile, ma quello è un sistema stazionario.

Dopo tutto l’idea della MEPP è una sorta di generalizzazione del 2 principio; nei sistemi isolati il sistema evolve verso il massimo di entropia; l’evoluzione verso il massimo seguirebbe a sua volta una legge di massimo: va verso il massimo di entropia e ci va alla massima velocità possibile; ripeto non ci sono dimostrazioni, si tratta di una proposta che di fatto è entrata a far parte di alcuni dei sistemi più importanti lontani dall’equilibrio, come quelli ecologici, ma non abbiamo dimostrazioni valide in assoluto (si pensi qui al principio di Odum , principio della massima potenza o anche al caso del teorema di Thevenin per i circuiti elettrici; la massima potenza di una batteria si ottiene quando la resistenza interna e quella esterna sono uguali; mi piace anche ricordare qui la discussione a riguardo di Enzo Tiezzi e Nadia Marchettini in un loro indimenticato libro di qualche anno fa (Che cos’è lo sviluppo sostenibile?: le basi scientifiche della sostenibilità …Donzelli Ed. 1999)

Con queste due ipotesi tuttavia il calcolo è facile: al confine fra Sistema Terra e spazio esterno che viene arbitrariamente posto sulla superficie dove il flusso di radiazione solare in ingresso eguaglia quella terrestre in uscita si hanno, tenendo conto della riflessione dell’albedo circa 235W/m2, come spiegato nel post precedente.

La superficie di cui parliamo è poco più di 500 milioni di chilometri quadri e dunque l’ordine di grandezza della potenza in ingresso è di 100.000 TW, centomila terawatt!! Contro questa sta il consumo di energia primaria dell’uomo di circa 18TW di potenza equivalente*; poco, ma abbiate pazienza, c’è un trucco o due da tener presenti:

  • anzitutto tutta questa energia che entra nella macchina termica usa come piastra calda una sorgente che è alla temperatura media della Terra, molti chilometri più in basso; è lì che la radiazione si assorbe, la temperatura per effetto serra è di circa 15°C, ossia 288K; alla superficie di uscita invece dove effetto serra non ce n’è la temperatura media è stimabile in 254K circa; dunque la nostra macchina che efficienza avrebbe in termini endoreversibili? Beh circa il 6%, perchè 1-√(Tbassa/Talta).=1- √(254/288)= 0.06 dunque solo 6000 TW arrivano come energia meccanica e servono prima di tutto a rimescolare l’atmosfera! A questa quantità occorre sommare sostanzialmente l’energia radiante catturata come fotosintesi, 200TW, e il debole flusso dal centro della Terra, ma sono solo 40TW, è un flusso che ci mette anni a forgiare la forma del pianeta e secoli ad accumulare l’energia meccanica che si scarica poi nei terremoti e nelle eruzioni.
  • L’umanità usa 18TW di energia primaria, intesa come potenza media continua, ma di fatto ne usa di più; perchè per esempio in questa potenza non c’è la quota di energia solare catturata nel nostro cibo; non c’è la quota di energia solare necessaria a pompare l’acqua come pioggia verso la sommità dei nostri bacini di accumulo e tanti altri servizi naturali che di fatto sfruttiamo di “stramacchio”; in totale Kleidon stima la quota di potenza umana media continua a circa 50TW, pensate più di quella che l’interno della Terra cede alla superficie!

Ora facciamo qualche precisazione; questa descrizione che vi ho fatto è una forma diversa da quella usata da Kleidon nei lavori che ho già citato e che ricito qui; ho cercato di essere molto semplice e ho usato un paio di strade concettuali che probabilmente non sono mai state pubblicate per questo scopo, e il mio risultato è uguale quello di Kleidon, che fa però un modello più dettagliato e preciso.

Dalla seguente figura vedete subito i rapporti espressi come potenze istantanee in terawatt e se li intendete come flussi di energia libera (per unità di tempo ovviamente) e li dividete per la temperatura assoluta dissipati dai vari processi avrete i flussi di entropia corrispondenti.

Dunque l’umanità non è tanto piccola; la quota di potenza catturabile qui giù in fondo all’oceano atmosferico non può superare i 6000TW; di questi la fotosintesi vecchia di miliardi di anni ne cattura 200 circa e noi ne rubiamo 50 in due quote: una relativa a quella che la fotosintesi aveva accumulato negli ultimi 400 milioni di anni come combustibili fossili ed un’altra che intercettiamo come servizi di mobilità di acqua e materiali vari (vento, onde, pioggia, etc)che trasformiamo in idroelettrico,eolico e altre cosette tipo cibo per 7 miliardi e mezzo; in tutto sono 50TW (18 è solo energia primaria esplicita diciamo così).

50TW sono all’incirca l’1% del totale di energia libera disponibile (sempre per unità di tempo), ma è molto di più se si pensa che la quota di attività fotosintetica intercettata ad ogni ciclo è dell’ordine del 15-20%. La biomassa terrestre dei vertebrati è praticamente tutta al nostro servizio, ne abbiamo il 98% (uomo e animali domestici mentre i leoni gli elefanti e i lupi e gli orsi sono il 2% e vogliamo anche ammazzarli ancora). Ma anche quella oceanica è talmente sovrasfruttata da essere ridotta al lumicino; dobbiamo interrompere la pesca ogni anno in molte zone per consentire un ripopolamento appena sufficiente.

Certo in una visione dysoniana (la sfera di Dyson ricordate?) potremmo sostituirci alla grande macchina termica; volete sapere come? Beh piazziamo alcune centinaia di milioni di chilometri quadri di pannelli al bordo dell’atmosfera; intercettiamo così il 20% dell’energia in arrivo, sono 20.000TW, energia elettrica pura mica quella povertà di 6000TW attuali da macchina termica!) e li usiamo noi per fare tutto: moto ondoso, venti, monsoni, luce diretta, tutto controllato da una adeguata intelligenza artificiale; vi sembra abbastanza grandioso?

A me sembra una follia ma il fatto è che siamo diretti da quelle parti se continuiamo a crescere così, e sono sicuro che troverei qualcuno che mi finanzierebbe una ricerca in merito. Povero me!!

Voi che ne dite?

* per avere il consumo annuo dovete moltiplicare questo numero per quello dei secondi: 18TWx31.5 milioni di secondi= oltre 500 exajoule

Riferimenti:

1) Axel Kleidon

Phil. Trans. R. Soc. A 2012 370, doi: 10.1098/rsta.2011.0316, published 30 January 2012

2) A.Kleidon R.D.Lorenz (Eds.)

Non-equilibrium Thermodynamics and the Production of Entropy

Life, Earth, and Beyond, Springer 2005

3) . Kleidon Physics of Life Reviews 7 (2010) 424–460

Entropia e sistema Terra.1.

In evidenza

Claudio Della Volpe

Abbiamo esaminato in un precedente post la relazione fra entropia e corpo umano, fra flusso entropico e organizzazione corporea; oggi parleremo di flusso entropico e sistema Terra.

Anche la biosfera come il corpo umano è un sistema aperto; infatti se ne delimitiamo i confini in modo da escludere l’interno della Terra, possiamo immaginare che sia un vero e proprio superorganismo che riceve energia radiante dal sole riemettendola verso lo spazio e solo in piccola quantità dall’interno del pianeta al quale invece attinge e verso il quale restituisce quantità molto grandi di materiale.In alternativa possiamo immaginare una definizione più semplice, la intera crosta terrestre come un sistema Terra; in tal caso parliamo di un sistema chiuso, che scambia essenzialmente energia col Sole e il vuoto dello spazio, ma che non scambia che pochissima materia (pochissima su base cosmica ovviamente raggi cosmici e meteoriti in entrata per migliaia di tonnellate all’anno e idrogeno in uscita, dato che l’idrogeno atomico o molecolare così leggero può raggiungere facilmente la velocità di fuga, 3kg/sec, ossia 105 ton/year [http://faculty.washington.edu/dcatling/Catling2009_SciAm.pdf]).

La delimitazione esatta del sistema può essere critica per certi aspetti, ma per quel che vogliamo fare oggi ci basta questa definizione più semplice.

E’ l’approccio scelto dal solito Aoki al cui lavoro ci siamo già rifatti per il corpo umano, che in un lavoro di poco successivo spostò la sua attenzione su questo particolare sistema e su tutti quelli analoghi costituiti dai pianeti del sistema solare.Con questa impostazione il sistema Terra è un sistema diabatico (senza la a-!!!), ossia che scambia energia non sotto forma di lavoro ma essenzialmente di energia radiante.

Siamo in una situazione non dissimile da quella del corpo umano del post precedente, ma non identica; il flusso energetico radiante dal Sole verso la Terra e il flusso entropico che vi si accompagna però si distribuisce su una superficie crescente con il quadrato della distanza, per cui il flusso energetico e quello entropico per unità di superficie si possono calcolare tenendo conto di questo fattore geometrico; inoltre la Terra è a sua volta una sfera che intercetta la radiazione lungo la sua sezione massima e la ripartisce nella media su una superficie della sfera stessa che è 4 volte maggiore dell’area di intercettazione del cerchio massimo.

Il flusso di energia in entrata è dunque di circa 342W/m2, che corrisponde a circa 0.08W/ m2 K di entropia in ingresso.

Infine una parte di questo flusso energetico ed entropico va incontro ad una riflessione significativa (l’albedo che esprime questo fatto è di 0.3, ossia solo il 70% della radiazione incidente penetra nel sistema). E il flusso radiativo che è in equilibrio viene poi riemesso alla temperatura della Terra (che possiamo stimare senza effetto serra ai bordi dell’atmosfera a 254K); se rifacciamo con Aoki il conto otteniamo adesso sempre la stessa potenza radiativa di 342W/m2, ripartita fra una riflessione ed una riemissione vera e propria di 235W/m2 che corrisponderà adesso ad un flusso entropico in uscita negativo di 1.27 W/ m2 K; la somma dei due flussi dà circa -1.19 W/ m2 K; questo flusso in uscita di cui la Terra si libera costantemente corrisponde alla formazione di ordine sulla sua superficie sia di strutture atmosferiche che della biosfera.

Usando una scala con unità di misura miste MKS-CGS (W/ cm2 K) quindi con numeri circa 10000 volte minori, Aoki calcola il flusso entropico in uscita dei pianeti del sistema solare che vi mostro qui:

Si vede qui che tale flusso entropico si riduce enormemente con la distanza dal Sole. Potremmo concludere che una delle condizioni necessarie (ma non sufficienti) della vita e della struttura atmosferica è questo parametro di flusso entropico.

Un altro autore, Kleidon, ha poi esteso queste riflessioni in un articolo (Phil. Trans. R. Soc. A (2012) 370, 1012–1040) ed in un libro(A.Kleidon R.D.Lorenz (Eds.) Non-equilibrium Thermodynamics and the Production of Entropy Life, Earth, and Beyond, Springer 2005).

Kleidon va più a fondo di Aoki, partendo dalle considerazioni originali di James Lovelock, chimico, che fu inventore dell’ECD, uno dei rivelatori basici della gascromatografia; ma anche uno dei maggiori studiosi di questi temi; fra l’altro concepì insieme con Lynn Margulis l’idea di Gaia, la biosfera intesa come un superorganismo che di fatto si identificherebbe con essa ed in grado attraverso vari meccanismi di retroazione positiva e negativa di controllarne la storia, sforzandosi di mantenere constanti le sue condizioni, in sostanza difendendo la propria esistenza, nulla di vitalistico, un semplice ma grandioso meccanismo omeostatico.

http://didawiki.cli.di.unipi.it/lib/exe/fetch.php/modellisticaambientale/daisyworld.pdf

Lovelock, ingaggiato dalla NASA ai tempi delle prime sonde solari, sostenne che la semplice osservazione della composizione atmosferica lontana dall’equilibrio è un indizio molto forte dell’esistenza della vita.

Per esempio, come sappiamo la nostra atmosfera è lontanissima dall’equilibrio termodinamico. Ossigeno ed azoto possono reagire per formare ossidi di azoto, ma per nostra fortuna la energia di attivazione del processo è elevata, ma anche la presenza di metano è un indizio di forte non equilibrio, come lo è anche la situazione di non equilibrio del vapore acqueo che non è a saturazione, cioè in condizione di equilibrio. Lovelock sviluppò un modello della interazione fra biosfera ed energia solare che chiamò Daisyworld, il pianeta delle margherite in cui mostrò come (senza alcun vitalismo o religione) una forma di vita semplice può contribuire ad equilibrare la temperatura del suo pianeta rispondendo e resistendo al costante incremento di radiazione solare che è basico della vita del nostro Sole (negli ultimi 4 miliardi di anni la radiazione solare è cresciuta di circa il 30% ma la temperatura è rimasta sostanzialmente costante e questo è uno dei motivi fondamentali per cui la percentuale di CO2 atmosferica si è ridotta nel tempo su scala geologica, da decine di migliaia di ppm a poche centinaia)

Kleidon porta avanti questa riflessione in modo più dettagliato dividendo il Sistema terra nelle sue componenti ed analizzando in dettaglio gli scambi di materia ed energia e i flussi di entropia fra le sue parti e chiedendosi quale sia l’importanza della attività umana in questo quadro; ve ne parlerò in un prossimo post.

(continua)

Quando l’arsenico si beveva a fiumi.

In evidenza

Claudio Della Volpe

Uno dei motivi per cui l’acqua in bottiglia ha successo è che in alcuni casi le acque delle sorgenti del sindaco hanno problemi naturali non da inquinamento; per esempio molte sorgenti vicine alle grandi montagne o in zone vulcaniche contengono una piccola percentuale del tutto naturale di arsenico (ma anche di fluoruri o di altri ioni fra i quali boro e vanadio). Fino a qualche anno fa sia le acque minerali che alcune acque del sindaco avevano “le deroghe” per certi componenti fra i quali proprio l’arsenico, cosa che è durata fino al 31-12-2012 in Italia (in realtà è andata avanti in qualche forma fino al 2013-2014).

Potete leggere un vecchio articolo de Le Scienze del 2010 che conteneva molti dati. Nel 2014 un documento dell’ARPA Lazio confermava e approfondiva la situazione in Lazio.

Nella zona dove abito io, il Trentino, la cosa è stata relativamente comune ed è stata affrontata prima diluendo le acque di alcune sorgenti con altre e poi con specifici apparati depurativi (la depurazione si effettua comunemente ossidando l’As e adsorbendolo su idrossido di ferro, in pratica ruggine, presente in filtri di speciale costruzione, in cui l’acqua da trattare viene fatta passare). Al momento la nostra acqua del sindaco é del tutto a norma, As < 10 μg/l  (microgrammi per litro). Ciò che colpisce è la storia di questi limiti e la situazione che si è generata in alcune parti del mondo; è una storia che vale la pena di essere raccontata questa dei limiti dell’arsenico.

Le norme UE parlano di un un aumento del livello di rischio di insorgenza di tumori; il Comitato congiunto di esperti della FAO/OMS (JECFA) ha proposto una dose di riferimento fissandola a 3 microgrammi/ Kg di peso corporeo al giorno, che provoca un rischio supplementare, rispetto al rischio standard, dello 0,5% di tumori ai polmoni. Sono considerati test significativi gli aumenti di insorgenza di 4 fenomeni: tumori alla vescica, ai polmoni, alla pelle e lesioni cutanee (iper e ipopigmentazioni, cheratosi, melanosi). Le norme si riferiscono ad Arsenico totale anche se As+3 è molto più pericoloso di As+5.

L’arsenico è un elemento la cui tossicità è conosciuta da tempo lunghissimo; l’arsenico è conosciuto nei suoi effetti fin dal “calcolitico” ed è stato isolato da Alberto Magno nel 1250; usato come componente di cosmetici e di altri materiali ha una vasta eco letteraria; chi non ricorda i casi della letteratura?

Per esempio ne “Il Conte di Montecristo”, l’arsenico è uno dei protagonisti del romanzo: il suo uso e i modi per resistere all’avvelenamento da arsenico, all’”acqua tofana” (che conteneva anche Pb) inventata a Palermo nel 1640, usata dall’avvelenatrice, la signora di Villefort, per proteggere i diritti di suo figlio contro la figlia di primo-letto del procuratore del re, Valentine, e il cui uso viene supportato dal Conte proprio per stimolare i peggiori istinti della donna e, dunque, realizzare la sua vendetta contro Villefort.

Potrei citarne altri.

Insoma si sa che l’arsenico è velenoso; ma i suoi effetti a basse dosi, che Dumas ritiene salubri e difensivi, in grado di garantire da avvelenatori improvvisati, sono stati compresi solo dopo molti anni di studi.

Oggi si sa che anche basse e costanti dosi di arsenico possono indurre tumori, diabete e molte altre malattie (Environ Health Perspect; DOI:10.1289/ehp.1510209).

Prima del 1958 non c’erano limiti dell’arsenico nelle acque potabili: la storia di questi limiti può essere rintracciata nei documenti dell’OMS[vedi altri riferimenti] ed è mostrata nel grafico seguente:

In 50 anni i limiti sono quindi scesi di 20 volte mettendo in crisi ripetutamente le scelte fatte dai vari governi; nel 1987 poi lo IARC ha definito l’As come cancerogeno di gruppo 1, dunque stabilito che c’é pericolo di tumore nel consumo di arsenico; e negli ultimi anni si sta concludendo che anche a queste dosi altre malattie come il diabete, di cui è in atto una epidemia mondiale, possono essere indotte dal suo uso. E’ un caso importante, stabilisce che nel tempo come società umana impariamo gli effetti delle sostanze “NATURALI” sul nostro organismo e che tali sostanze non sono di per se “BUONE A PRESCINDERE”, come taluno immagina.

«O natura, o natura, / perchè non rendi poi / quel che prometti allor? perchè di tanto / inganni i figli tuoi?» (G. Leopardi, A Silvia, 1828)

L’italia è stata messa in mora ripetutamente per la difficoltà che ha avuto nel ridurre i valori di As in alcuni dei suoi acquedotti; ci sono zone del paese, come il centro Italia, l’alto Lazio, Viterbo, ma anche Latina, per esempio dove le sorgenti arseniacali sono frequenti; d’altronde l’Italia è terra vulcanica, recente, spinta dal profondo dalla zolla africana; se si eccettua la Sardegna tutto il territorio italiano è zolla africana; anche il Trentino dove vivo io è geologicamente zolla africana, terra di movimenti tellurici profondi e duraturi; tutta la terra italica sotto la geosutura della linea Insubrica è zolla africana, soggetta alla spinta verso Nord; le rocce che emergono contengono arsenico, le Alpi come l’Himalaia sono una catena montuosa sorta dallo scontro fra due placche tettoniche che hanno portato allo scoperto zone profonde. In un bel lavoro del 2005[Atti Acc. Rov. Agiati, a. 255, 2005, ser VIII, vol V, B: 59-94] il collega Fuganti del mio Dipartimento ha analizzato la composizione delle rocce della Val d’Adige

La geosutura insubrica.

concludendo che quantità significative di arsenico sono presenti nelle rocce della val d’Adige e sono rilasciate nelle acque in alcuni casi ai limiti o sopra i valori oggi ritenuti sicuri.

Analisi di questo tipo consentono poi di intervenire attivamente per la salvaguardia della qualità delle acque potabili.

Il problema è generale.

Luca Lucentini, 3 corso regionale sui prodotti Fitosanitari, nov. 2017

In questa slide Lucentini che è Direttore del Reparto di Igiene delle Acque Interne dell’Istituto Superiore di Sanità, è coautore di Linee Guida sulla qualità delle acque potabili dell’Organizzazione mondiale della Sanità ci mette in guardia dal considerare come scontati certi fatti: la tossicità dell’arsenico e la necessità di controllarne la concentrazione è stata maturata tutto sommato lentamente e recentemente. Quando sono nato io (1950) questa coscienza non c’era.

Esistono casi in cui l’intervento umano si è risolto in un enorme problema; consideriamo la questione acque potabili in Bangladesh; si stima che decine di milioni di persone (da 20 a 35) siano esposte all’intossicazione da arsenico di falda in quel territorio; come si è arrivati a questo risultato drammatico? (fra l’altro quando vedrete la prossima volta qualcheduno del Bangladesh che scappa verso l’Europa, casomai dalle nostre parti, potreste immaginarvi perchè lo fa). Come forse ricorderete il Bangladesh si separò dal Pakistan a maggioranza islamica nel 1971, e questo evento spostò milioni di persone di religione induista dall’attuale Pakistan al Bangladesh. La pressione sulle povere risorse del paese si accrebbe.

La storia è raccontata in questo articolo di Human Rights Watch (https://www.hrw.org/report/2016/04/06/nepotism-and-neglect/failing-response-arsenic-drinking-water-bangladeshs-rural).

Fino ad allora l’agricoltura si era basata su una irrigazione che usava le acque superficiali, fortemente inquinate; la nuova situazione peggiorò le cose incrementando problemi di acque inquinate da scarichi fecali.water research 44 (2010) 5789e5802

Per risolvere il problema le organizzazioni internazionali spinsero verso l’uso di acqua estratta da pozzi non dai fiumi; tuttavia nessuno si rese conto che le acque estratte dai primi 10-20 metri erano fortemente inquinate da arsenico per motivi naturali. O meglio nei primi 10-20 metri l’arsenico era molto più disponibile; d’altronde per motivi di costo la maggior parte dei pozzi si fermava a quella profondità.water research 44 (2010) 5789e5802

Racconta The Guardian, 23/5/2006

In 1990 the BGS obtained a commission from the UK government’s aid agency, then known as the Overseas Development Agency , to survey deep wells dug in the previous decade. Samples from the wells were taken to BGS laboratories to test for toxic elements. BGS argues that its report did not give the water a clean bill of health for drinking, but the report’s author indicated in a published paper in 1994: “The groundwaters are … suitable for crop irrigation and domestic usage.”

BGS è il British Geological Survey, una organizzazione governativa inglese, la quale NON condusse un test per l’arsenico.

In quel medesimo 1994 cominciava a venir fuori il problema

Questo scatenò una causa da parte di una ONG bengalese contro il governo di sua maestà; la risposta tardò ad arrivare e quando arrivò fu molto deludente:

Lord Hoffman’s ruling at the time was that the relevant agencies, such as the BGS, in cases like this were ‘liable only for the things they did and the statements they made, not for what they did not do‘. (trovate i dettagli di questa storia qui)

La conclusione della BBC:

Correspondents say that if successful the legal action could have cost the British taxpayer millions of dollars in compensation.water research 44 (2010) 5789e5802 water research 44 (2010) 5789e5802

Nel frattempo milioni di pozzi entrarono in funzione, distribuendo acqua con tassi di arsenico da decine a centinaia di volte superiori alla norma OMS; ancora oggi in Bangladesh è legale acqua con 50 microgrammi di arsenico per litro; e ancora oggi decine o centinaia di migliaia di pozzi pompano acqua da bassa profondità con tassi altissimi di arsenico.

L’OMS parla di un caso di avvelenamento di massa, il maggiore mai visto nella storia umana recente e forse in tutta la storia, che ha come condizione base la Natura, come condizione storica interventi umanitari poco accorti ed è aggravato dalla sovrappopolazione, dalla povertà, dalla lotta politica e religiosa in un paese che è da sempre ultimo in tutte le graduatorie del mondo.

La chimica si intreccia così drammaticamente con la salute e la vita di decine di milioni di uomini.

Altri riferimenti.

http://www.enkiwater.it/valori-di-arsenico-nelle-acque-minerali/

 

Standard, norme e certificazioni. 2. Il loro ruolo nell’economia circolare.

In evidenza

Marino Melissano

 

Economia circolare

Il nostro sistema economico attuale è “lineare”: dalle materie prime produciamo un prodotto finito, lo usiamo e poi lo smaltiamo: terminato il consumo, finisce il ciclo del prodotto, che diventa un rifiuto. Esempi eclatanti: esce un nuovo smartphone, lo compriamo e gettiamo via il vecchio; la lavastoviglie si rompe, ne compriamo una nuova ed eliminiamo la vecchia. In questo modo ci siamo allontanati dal modello “naturale”, “biologico”: lo scarto di una specie è alimento di un’altra; in Natura qualsiasi corpo nasce, cresce e muore restituendo i suoi nutrienti al terreno e tutto ricomincia. (www.ideegreen.it)

Per Economia circolare si intende appunto un sistema economico che si può rigenerare da solo. Rigenerazione, riciclo, riuso. Tante “ri”, che non devono rimanere solo prefissi che rendono virtuosi i verbi, riempiendo la bocca di chi non sa poi nella pratica cosa fare, dove mettere le mani.

Per esempio, pensiamo a prodotti, costruiti e trasportati usando energie rinnovabili e che, una volta usati, possano restituire i componenti a chi li ha fabbricati e le eventuali parti biologiche all’ambiente, incrementando la produzione agricola. Ciò significa ripensare un modello industriale che usi solo materiali sicuri e compostabili o, se materiali tecnici, riciclabili. Circolare, flusso continuo: dalla materia prima alla produzione del prodotto finito, uso, riuso o riciclo.


Ponendosi come alternativa al classico modello lineare, l’economia circolare promuove, quindi, una concezione diversa della produzione e del consumo di beni e servizi, che passa ad esempio per l’impiego di fonti energetiche rinnovabili, e mette al centro la diversità, in contrasto con l’omologazione e il consumismo L’idea in sé dell’economia circolare è nata nel 1976, quando spunta in una rapporto presentato alla Commissione europea, dal titolo “The Potential for Substituting Manpower for Energy” di Walter Stahel e Genevieve Reday. Le applicazioni pratiche dell’economia circolare fanno però capolino, concretamente, su sistemi moderni e su processi industriali, solo negli anni ’70.
I maggiori obiettivi dell’economia circolare sono:

– l’estensione della vita dei prodotti (Product Life Cycle o PLC) e la produzione di beni di lunga durata,

– la sostenibilità ambientale,

– le attività di ricondizionamento e

– la riduzione della produzione di rifiuti.

In sintesi, l’economia circolare mira a vendere servizi piuttosto che prodotti.
Lo sviluppo di un sistema di economia circolare indurrebbe un cambiamento epocale ambientale, economico, occupazionale e di stili di vita. Secondo il Ministro dell’Ambiente Galletti “fare economia circolare conviene alle imprese, oltre che all’ambiente, perché significa consumare meno materie prime, avere processi produttivi più performanti, produrre meno rifiuti, che sono un costo e potrebbero, invece, trasformarsi in risorse”.

Nel 2014 la Commissione europea ha approvato una serie di misure per aumentare il tasso di riciclo negli Stati membri e facilitare la transizione verso “un’economia circolare.

La Commissione Europea il 2 dicembre 2015 ha adottato un nuovo Piano d’azione per l’economia circolare che prevede importanti modifiche alla legislazione in materia di rifiuti, fertilizzanti, risorse idriche, per sostenere il passaggio da un’economia lineare ad un’economia circolare, a basse emissioni di carbonio e resiliente ai cambiamenti climatici.

Contestualmente all’adozione della comunicazione COM (2015) 614/2 (http://www.minambiente.it/sites/default/files/archivio/allegati/vari/anello_mancante_piano_azione_economia_circolare.pdf) contenente il Piano per l’economia circolare, sono state presentate quattro proposte di modifica delle direttive che ricadono nell’ambito del pacchetto di misure sulla economia circolare (tra cui la direttiva quadro rifiuti, la direttiva discariche, rifiuti da imballaggio).

 

Economia circolare nel settore rifiuti

Secondo l’economia circolare i rifiuti sono “cibo”, sono nutrienti, quindi in un certo senso non esistono. Se intendiamo un prodotto come un insieme di componenti biologici e tecnici, esso deve essere progettato in modo da inserirsi perfettamente all’interno di un ciclo dei materiali, progettato per lo smontaggio e riproposizione, senza produrre scarti. Rispettivamente, i componenti biologici in una economia circolare devono essere atossici e poter essere semplicemente compostati. Quelli tecnici – polimeri, leghe e altri materiali artificiali – saranno a loro volta progettati per essere utilizzati di nuovo, con il minimo dispendio di energia.

In un mondo in cui regna l’economia circolare si privilegiano logiche di modularità, versatilità e adattabilità, perché ciascun prodotto sia di più lunga durata, sia realizzato e ancora prima pensato per poter essere aggiornato, aggiustato, riparato. Un design sostenibile di nome e di fatto.
L’EXPO 2015, con il suo 67% di raccolta differenziata, è stato un buon esempio di economia circolare. I visitatori hanno potuto essere parte della sfida di Expo e viverne i risultati, passeggiando in un sito dove verde, acqua, energia e illuminazione, materiali e sistemi di mobilità, erano tutti pensati per essere il più “green” possibile. (http://www.ideegreen.it/economia-circolare-67689.html#b888jJUwMogrfb8k.99).

La CE ha annunciato, nella Comunicazione del 27.01.17 “Chiudendo il cerchio- un piano d’azione europeo per l’economia circolare”, l’intenzione di intraprendere un’analisi e fornire opzioni sulle connessioni tra prodotti chimici di sintesi, materie prime e legislazione sui rifiuti, che portino anche a come ridurre la presenza e migliorare il monitoraggio di prodotti chimici pericolosi nei composti; ciò significa sviluppare politiche che possono fornire economia circolare attraverso un flusso senza soluzione di continuità di materiali riciclati dai rifiuti come materie prime adatte all’economia. L’analisi prenderà in considerazione un certo numero di studi, incluso quello del 2014 che aveva lo scopo di identificare azioni potenziali per l’economia circolare, settori prioritari, flusso di materiali e catene di valore, nonché il recente studio condotto dalla CE su “Ostacoli normativi per l’economia circolare – Lezioni e studio di casi”. Il risultato della procedura legislativa copre le molteplici direttive rifiuti, inclusa la direttiva quadro sui rifiuti 2008/98, attualmente in discussione del Consiglio e del Parlamento europei. I risultati sono previsti per la fine dell’anno in corso.

Esempi di applicazione dell’economia circolare

Grandi aziende aderenti al GEO (Green Economy Observatory) stanno sperimentando e mettendo in pratica modelli di economia circolare: Barilla ha lanciato il progetto “Cartacrusca”: viene prodotta la carta dallo scarto della macinazione dei cereali (crusca), lavorato insieme alla cellulosa; la toscana Lucart produce carta igienica, tovaglioli e fazzoletti dal recupero totale del tetrapak; Mapei ha sviluppato un additivo, “Re-con Zero”, che trasforma il calcestruzzo fresco inutilizzato (scarto) in un materiale granulare, usato come aggregato per nuovo calcestruzzo.

Tutto questo potrebbe portare con sé la fine di uno dei meccanismi su cui si basa l’economia lineare: (l’obsolescenza programmata dei prodotti) e potrebbe introdurre anche una serie di cambiamenti a livello culturale. Quella circolare è una forma di economia più collaborativa, che mette al centro non tanto la proprietà e il prodotto in quanto tale, ma la sua funzione e il suo utilizzo. Se una lavatrice viene progettata per funzionare per 10 mila cicli e non per 2 mila, può essere utilizzata da più di un consumatore attraverso l’attivazione di una serie di meccanismi economici a filiera corta: affitto, riutilizzo o rivendita diretta.

Per diventare un modello realizzabile e dominante l’economia circolare dovrebbe naturalmente garantire ai diversi soggetti economici una redditività almeno pari a quella attuale: non basta che sia “buona”, deve diventare conveniente. Gli incentivi a produrre sul modello di un’economia circolare sarebbero essenzialmente due: un risparmio sui costi di produzione e l’acquisizione di un vantaggio competitivo (un consumatore preferisce acquistare un prodotto di consumo circolare piuttosto che lineare). Prolungare l’uso produttivo dei materiali, riutilizzarli e aumentarne l’efficienza servirebbe a rafforzare la competitività, a ridurre l’impatto ambientale e le emissioni di gas e a creare nuovi posti di lavoro: l’UE, facendo le sue proposte sul riciclaggio, ha stimato che nei paesi membri ne sarebbero creati 580 mila.

Economia circolare e standard

Anche l’economia circolare ha il suo standard.

         Dopo la creazione di ISO 20400 è arrivato il momento di regolamentare un modello a cui le aziende possano fare riferimento per attuare in modo performante e funzionale l’economia circolare all’interno della loro organizzazione.

 Nasce così il primo standard di economia circolare, che parla inglese. A lanciarlo è stata, l’1 giugno 2017, la British Standards Institution BSI), un’organizzazione britannica di standardizzazione sul cui lavoro si basa anche la prima serie di norme ISO 9000.

In una prima volta, unica a livello mondiale, l’Istituto apre le porte alle imprese intenzionate a sposare i principi della circular economy.

La BS8001, questo il nome della norma, servirà ad aiutare le aziende di ogni dimensione a integrare le tre R del nuovo modello economico (ridurre, riusare e riciclare) nelle loro attività quotidiane e nelle strategie societarie a lungo termine. (www.bsigroup.com)

BS 8001 è uno standard “guida”: fornisce consigli e raccomandazioni in un quadro flessibile. “Non si può certificare la propria organizzazione o prodotto/servizio a questo standard”, spiega Cumming della BSI, si è completamente liberi di decidere l’allineamento che si desidera con i principi fondamentali stabiliti dallo standard”.

Questa norma è destinata all’applicazione su scala internazionale e al conseguente sviluppo non solo come standard di efficienza organizzativa aziendale, ma anche come strategia di gestione dei costi e dei conseguenti ricavi.

Lo standard BS 8001 è quindi figlio dell’ISO 20400, primo standard internazionale sugli acquisti sostenibili, che ha visto la luce l’1 aprile 2017, dopo 4 anni di lavoro del Comitato di Progetto ISO/PC 277: anche questo standard è una linea guida che vuole aiutare le aziende e le amministrazioni a fare scelte d’acquisto economicamente, eticamente ed ecologicamente migliori lungo tutta la catena di approvvigionamento; vuole indurre una nuova strategia politica di acquisto sostenibile, introducendo principi quali la responsabilità, la trasparenza e il rispetto dei diritti umani.

Anche qui siamo di fronte a semplici raccomandazioni, ma, nel momento in cui la norma viene inserita nei capitolati di appalto, diviene obbligatoria.

E il cerchio si chiude: dallo standard alla norma, dalla norma alla legislazione europea e nazionale, dalla legislazione al superamento di questa attraverso l’economia circolare.

Rimane tuttavia che tale standard presenta ancora aspetti discutibili e migliorabili; in un recentissimo lavoro (Resources, Conservation & Recycling 129 (2018) 81–92) gli autori scrivono che la norma cerca di mettere d’accordo “ le grandi ambizioni della economia circolare con le forti e ben stabilite routine del mondo degli affari.” che il controllo sull’implementazione della strategia dell’economia circolare rimane vaga e che le organizzazioni che usano la norma dovrebbero tener d’occhio la crescita dell’effettivo stock in uso di un determinato bene per verificare il successo concreto della strategia.

 

Occorre anche considerare che di fatto nel passato e nel presente produttivo ed industriale la necessità economica di ridurre i costi ha già indotto in alcuni casi da molti decenni a riciclare i materiali con cifre di riciclo nel caso di acciaio, vetro, alluminio, oro, piombo che sono di tutto rispetto, ma che questo non ha fatto diminuire quasi mai in modo significativo la pressione sulla ricerca di nuove risorse, sia per l’ampiamento continuo dei mercati e dei consumi che per l’uso di tecnologia che privilegiano non tanto il riciclo in se quanto la riduzione dei costi di produzione e che quindi raramente raggiungono valori veramente elevati.

Un altro recente risultato che dovrebbe farci accostare criticamente alla mera enunciazione della questione riciclo è dato dalla stima energetica del risparmio indotto dall’economia circolare in termini energetici; anche qui una stima realistica della riduzione in assenza di regole forti non darebbe risultati eclatanti; nel lavoro Thermodynamic insights and assessment of the circular economy pubblicato in Journal of Cleaner Production 162 (2017) 1356e1367,

gli autori concludono che l’economia circolare ha un potenziale di riduzione energetica non superore al 6-11% e dunque è equivalente alle tecnologie tradizionali per la riduzione energetica nell’industria. Ma che comunque:

.” The circular economy approaches tend to reduce demand for energy efficient processes slightly more than those with low energy efficiency. Therefore, from an overall perspective, the circular economy approaches are unlikely to make further energy efficiency savings disproportionately harder to achieve.

ossia

Gli approcci dell’economia circolare tendono a ridurre leggermente la domanda di processi efficienti dal punto di vista energetico rispetto a quelli a bassa efficienza energetica.

Pertanto, da un punto di vista generale, è improbabile che gli approcci all’economia circolare rendano ancora più difficile ottenere ulteriori risparmi in termini di efficienza energetica.

Ed infine dati analoghi si trovano in una pubblicazione del Club di Roma sul tema del riciclo (The Circular Economy and Benefits for Society di Wijkman ed altri, marzo 2016) in cui riconfermando i valori diretti di riduzione del consumo energetico dovuti al solo riciclo si sottolinea l’effetto sinergico delle scelte di riciclo, riuso, e uso delle rinnovabili.

Insomma le cose non sono automatiche e probabilmente avremo bisogno di norme e di standard più stringenti ed efficaci come anche di scelte politiche coraggiose e ad ampio raggio.