Osservazione al microscopio del fango attivo.

Mauro Icardi

Il processo di depurazione a fanghi attivi per essere gestito correttamente richiede diverse tipologie di controlli e regolazioni. Una tra le più interessanti è quella della verifica delle caratteristiche biologiche e della struttura del fango. Occorre sempre tenere a mente che una vasca di ossidazione biologica è un reattore biologico, mentre per molto tempo la si vedeva semplicemente come una “vasca piena di fango”. Condizioni operative del fango non appropriate, non tempestivamente identificate e corrette (es.: carenza di ossigeno, carico organico elevato, ecc.), si ripercuotono inevitabilmente sulla qualità dell’effluente finale dell’impianto. Nel reattore biologico avvengono fenomeni di bioflocculazione e di metabolismo batterico che richiedono un equilibrio tra biomassa (MLSS), quantità di substrato (BOD), ossigeno disciolto (OD), volume e tempo relativo al completamento delle reazioni biochimiche. Nel sedimentatore secondario invece avviene la separazione tra acqua chiarificata e fango biologico che viene poi rimandato nel reattore attraverso il ricircolo.

(colonia di vorticelle)

I trattamenti biologici si basano sul processo di autodepurazione tipico dei corsi d’acqua quale risultato dell’attività delle comunità microbiche. Il processo di trattamento a fanghi attivi differisce dal meccanismo depurativo dei corsi d’acqua per alcune caratteristiche: elevato flusso di sostanza organica all’interno del sistema, l’accelerata attività dei processi di decomposizione, il diverso tempo di ritenzione idraulico.

Il processo a fanghi attivi si basa sull’aggregazione di batteri (fiocchi di fango) su cui altri microrganismi possono svilupparsi. Perciò una popolazione di organismi con la capacità di attaccarsi, o di rimanere strettamente associata al fango, ha un vantaggio su altre popolazioni di organismi che nuotano liberamente nella frazione liquida, e che quindi possono essere persi tramite il trasporto o il dilavamento con l’effluente finale.  Se l’acqua reflua che deve essere depurata ha il giusto rapporto tra nutrienti, per esempio un rapporto C:N:P che vari tra 100:10:1 e 100:5:1, come indicato nella letteratura specifica di settore, si potrà sviluppare un fango caratterizzato da una biomassa ottimale. Le rese depurative saranno buone e il fango sedimenterà senza troppi inconvenienti nella fase finale del trattamento. Normalmente quando si verificano queste condizioni, si sviluppano sui fiocchi di fango i protozoi ciliati, che sono i microrganismi che più di tutti sono gli amici del gestore di un impianto di depurazione.

(Aspidisca)

 E’ stato dimostrato che i protozoi ciliati migliorano la qualità dell’effluente attraverso la predazione della maggior parte di batteri dispersi nella miscela areata, che continuamente entrano nel sistema con il liquame. In assenza di ciliati infatti, l’effluente finale è caratterizzato da BOD più elevato e da alta torbidità per la presenza di molti batteri dispersi. I ciliati inoltre predano anche i batteri patogeni e quelli fecali. Negli effluenti di impianti a fanghi attivi in cui non vi sono ciliati la presenza di Escherichia coli risulta essere, in media, il 50% di quella osservata nel liquame in ingresso alla vasca di areazione. In presenza di ciliati tale percentuale può scendere però fino al 5%.

(Chilodonella)

Dal punto di vista della gestione questo diminuisce i volumi di dosaggio di disinfettanti finali sull’effluente finale, come per esempio ipoclorito di sodio, o acido peracetico. Altra importante caratteristica dei ciliati nei fanghi attivi è il loro comportamento alimentare.  La maggior parte dei ciliati dei fanghi attivi si nutre di batteri dispersi nella miscela aerata. Tuttavia, vi sono ciliati come gli Aspidisca ed altri come Chilodonella che, avendo la bocca posta in posizione ventrale, possono “raschiare” i batteri adagiati sulla superficie del fiocco. Tutti i ciliati batteriofagi muovono le ciglia di cui sono dotati per incanalare i batteri sospesi nella frazione liquida verso il loro l’apparato boccale. Nei primi anni di lavoro avrei voluto passare ore intere al microscopio. Vedere un fiocco di fango era vedere un microcosmo spettacolare che ha sempre avuto su di me un effetto di stupore e meraviglia. La preparazione del test di osservazione al microscopio dei fanghi è piuttosto semplice e richiede alcuni semplici accorgimenti. Per il prelievo è importante che il campione di fango attivo sia ben miscelato, e che venga effettuato nella vasca di areazione in punti non troppo vicini né alle pareti, né alle turbine e comunque non in zone di ristagno.

Se si è avuta la precauzione di lasciare la bottiglia semivuota (di solito si prelevano circa 500ml in una bottiglia di plastica da 1L), l’aria contenuta è sufficiente (entro 3-4 ore) ad evitare che durante il trasporto si verifichino situazioni di anossia del fango. E’ buona norma eseguire il test subito dopo il campionamento, ma in caso si debba rimandarlo si può ricorrere all’areazione con una normale pompa per acquario. Ho trasportato fango biologico all’interno di una borsa termica refrigerata con i cosiddetti “siberini” (la definizione corretta è piastra eutettica), ovvero il contenitore con acqua e glicole usato per i frigoriferi portatili. Non ho mai rilevato alterazioni significative nel fango da osservare.

Per l’osservazione al microscopio con una pipetta Pasteur si preleva una piccola quantità di fango dalla bottiglia da campionamento in cui il campione è mantenuto in aerazione costante. Si appoggia una goccia di fango (es. 50µl) sul vetrino porta oggetto, si copre con il vetrino copri oggetto con cautela, in modo che non vengano incluse bolle d’aria fra i due vetrini, si preme delicatamente una carta assorbente sul copri oggetti per togliere il materiale in eccesso, in modo da evitare che la lente dell’obiettivo si bagni. E’ necessario che il preparato non risulti né troppo scarso, né troppo denso, infatti nel primo caso i fiocchi apparirebbero dispersi e la scarsità del liquido può provocarne l’essicamento, nel secondo caso il materiale apparirebbe addensato e sovrapposto e non permetterebbe l’osservazione corretta dei microrganismi.

Questa operazione semplice è di grande aiuto per la gestione impiantistica. Ma ha un fascino davvero particolare. Non è sempre stato possibile eseguirla quando erano in visita studenti in impianto. Ma quando ho  potuto farlo, le facce sorprese degli studenti sono state davvero una grande soddisfazione. In particolare quelle dei ragazzi delle scuole elementari o medie. Osservare al microscopio come un protozoo si nutre, e di conseguenza come depura l’acqua sporca, è servito a far capire il trattamento delle acque reflue ai ragazzi che posavano i loro occhi sugli oculari del microscopio. Questo stratagemma li rendeva estremamente attenti e coinvolti nelle successive spiegazioni teoriche, evitando la disattenzione e la noia.

Sempre in vetrina l’Intelligenza Artificiale.

Luigi Campanella, già Presidente SCI

L’applicazione dell’intelligenza artificiale per la risoluzione di problemi nell’ambito della chimica o della ricerca di materiali per il settore manufacturing è uno dei campi delle cosiddette tecnologie combinate, la versione 4.0 dei metodi ifenati degli anni 60 del secolo scorso. In campo chimico il livello di complessità è piuttosto elevato però anche in quest’ambito l’intelligenza artificiale inizia a mostrare grandissime potenzialità. L’esempio della Chimica ci aiuta a generalizzare in favore del continuo ampliamento delle applicazioni dell’intelligenza artificiale.

Il suo contributo in medicina per contrastare patologie pericolose è esaltato dalla recente esperienza per battere il glaucoma, una malattia asintomatica che può portare alla perdita della vista e che può essere curata con terapie combinate tra farmaci e laser guidate da programmi informatici gestiti anche da intelligenze artificiali. Gli stessi programmi possono essere preziosi nella fase diagnostica che deve essere anticipata quanto più possibile, anche sfruttando possibili dati di familiarità o di esposizione alla patologia.

Ma l’intelligenza artificiale è anche vista come sfida al diritto, dai profili biometrici fini all’interazione con i chat box e disciplinarla è illusorio: prevale il timore dell’algoritmo come prodotto potenzialmente incontrollabile e pericoloso. Fissare delle regole non è sufficiente a smontare queste sensazioni: è necessario che la comunità traduca queste regole in precetti etici, questo scrive il giurista Giuseppe Corasaniti nel suo saggio “Tecnologie Intelligenti”. Ciò non significa che bisogna rinunciare a strumenti così preziosi ed ancora largamente non esplorati, ma al contrario continuare il percorso intrapreso bilanciando norme e rischi, tutelandoci contro un potenziale impatto negativo su diritti fondamentali quali la dignità umana, la libertà intellettuale, la condivisione tecnologica e la conseguente uguaglianza.

Uno dei settori che sulla base di questi principi sta cercando di finalizzare le capacità dell’IA al superamento di metodi di indagine molto discussi e, per certi aspetti criticati, è quello della sperimentazione animale. I critici di questo approccio sperimentale hanno di recente organizzato un fascicolo di Frontiers dedicato all’intelligenza Organoide partendo dall’osservazione che l’IA e la scienza computazionale hanno guidato la rivoluzione tecnologica, ma sembra ora siano arrivati ad uno stop nell’avanzamento. Che può essere superato solo con la biocomputistica capace di collocare nel passato gli attuali limiti tecnologici. Per quasi 2 decadi gli scienziati hanno usato minuscoli organoidi, tessuti cresciuti in laboratorio, capaci di rappresentare organi completamente cresciuti da potere utilizzare per la sperimentazione su polmoni, reni, altri organi senza ricorrere alla sperimentazione animale o su umani. Ancor più di recente si è arrivati a lavorare con organoidi del cervello e con neuroni capaci di rappresentare attività cerebrali come l’apprendimento e la memoria fino al completo funzionamento del cervello umano, così consentendo di superare limiti anche di natura etica. È in effetti da oltre 10 anni che la Hopkins University lavora all’ipotesi di un biocomputer alimentato da cellule del cervello umano e che Thomas Hartung ha iniziato a fare crescere ed assemblare cellule del cervello in organoidi funzionali utilizzando cellule della pelle umana riprogrammate in uno stato di cellule embrionali staminali. Ogni organoide contiene fino a 50000 cellule, quante quelle del sistema nervoso della mosca da frutto.

Questi biocomputer in futuro potranno consentire di risparmiare l’energia che oggi viene spesa per il funzionamento dei supercalcolatori, ormai da considerare non sostenibili per la spesa energetica ad essi correlata. Anche se i calcoli su numeri e dati sono più lenti, i biocomputer hanno capacità logiche decisionali superiori, come ad esempio distinguere un cane da un gatto. E se in qualche caso i supercomputer riescono a pareggiare la capacità logica del cervello umano lo fanno a costi energetici enormemente (un milione di volte) superiori. Dice Hartung che modulando la scala della produzione di organoidi cerebrali ed addestrandoli con intelligenza artificiale sarà possibile arrivare a biocomputer competitivi per velocità ed efficienza di calcolo. L’intelligenza organoide è anche destinata a rivoluzionare la ricerca su nuovi farmaci contro i disordini neurocomportamentali e neurodegenerativi. Il confronto fra organoidi cerebrali da donatori di riferimento e da donatori autistici permetterà di comprendere il funzionamento delle reti neurali nei soggetti autistici senza ricorrere a sperimentazione su umani e su animali. In campo medico un avanzamento di grande effetto è stato realizzato all’Università Cattolica: con l’IA non solo si può fare rivivere chi non c’è più, ma di studia la creazione di un avatar, un gemello digitale, che può aiutare i malati di Alzheimer a ricordare chi sono ed a curarsi meglio. Chatbot è lo strumento di IA divenuto estremamente popolare nelle ultime settimane per la sua capacità di interagire con autonomia e precisione con l’essere umano. Questo progetto è il fiore all’occhiello dell’Human Technology Lab, diretto da Giuseppe Riva e caratterizzato da una ricerca multidisciplinare, il cui goal principale è arrivare alla sperimentazione di nuovi farmaci, superando i tradizionali metodi in vitro, in silico e di sperimentazione animale

Questa grande attenzione per l’IA si è trasferita anche alla formazione con differenti corsi di laurea

Uno fra questi di “DATA SCIENCE” presso la Luiss dedicato all’applicazione dell’IA allo studio ed alla ricerca mostra come la nostra vita sia stata modificata, e sempre più lo sarà, dall’IA capace di influenzare il biotech come anche i mercati finanziari, tanto per citare due settori apparentemente distanti. Imparare il linguaggio dei dati per leggere l’evoluzione della società è il fine didattico ultimo del corso di laurea. Il corso si ripromette anche di mettere in guardia gli studenti rispetto ai rischi dell’IA. Innanzitutto rischi di bias in cui sistemi di IA possono portare a discriminazioni, poi problemi di privacy, in cui sistemi di IA sono utilizzati per raccogliere dati personali e monitorare l’attività delle persone senza il loro consenso, infine le applicazioni malevole dell’IA, come la diffusione di disinformazioni.

Per tutto questo purtroppo c’è anche un risvolto negativo. Eco diceva che i computer potevano essere utili se strumenti stupidi in mano a persone intelligenti, il contrario di strumenti intelligenti in mano a persone stupide. Ci sono così i primi esempi di sospetti di tesi di laurea scritte da IA. Al contrario di una calcolatrice che parte dalle regole con cui è stata programmata, l’IA parte dalle informazioni con cui è stata addestrata per correlarle statisticamente: quindi chiaramente inadatta a scrivere una tesi di laurea, ma certo di supporto per traduzioni, riassunti e ricerche bibliografiche. Basta quindi insegnare agli studenti come usare questa tecnologia nella consapevolezza di limiti e potenzialità. Intanto Parigi ha imposto certi limiti e certe regole e sono già in arrivo i software antiplagio aggiornati per identificare i testi truffa. Sul New York Times di recente in un articolo a firma Harari, Raskin e Harris si fa un discorso ancora più ampio: se l’IA non fosse padroneggiata dall’uomo, ma avvenisse il contrario, sarebbe la stessa democrazia ad essere in pericolo. La macchina infatti padroneggia il linguaggio che essa stessa produce e da questo controllo possono derivare capacità di manipolazione del sistema operativo della Civiltà, inondandola di nuovi prodotti, anche intellettuali, rispetto a quelli che costituiscono il patrimonio storico. La democrazia è partecipazione, comunicazione, conversazione: se il linguaggio viene hackerato la democrazia è in pericolo.

Su tutto questo tema ho di recente avuto modo di leggere un saggio di Gerd Gigerenzer (Università di Chicago,Max Planck Institute) “Perchè l’Intelligenza Umana batte ancora gli algoritmi”, Cortina Editore. L’autore per esorcizzare il rischio di una macchina che padroneggia l’uomo ne mette in evidenza gli errori con alcuni esempi: la previsione della vittoria di Hillary Clinton alle elezioni americane vinte da Donald Trump, la ricerca dell’anima gemella, confronto fra le indicazioni fornite dall”algoritmo e risultati positivi. Possiamo stare tranquilli, sembra dire l’autore, IA ed algoritmi non sono pronti a sostituire del tutto il nostro cervello, anche se oggi la convinzione spesso dichiarata e che essi dalle auto a guida autonoma al riconoscimento facciale, dal sistema giudiziario a quello sanitario possano spesso essere visti in chiave salvifica.

Gli effetti di questi atteggiamenti meno disponibili cominciano a vedersi: c’è chi scrive che un paesaggio non può essere ridotto a dei numeri, che insieme alla ragione l’uomo possiede l’intuito che manca alla macchina, chi infine in funzione del rispetto della privacy limita l’estensione delle banche dati sulle quali si basa la capacità interattiva della macchina, giustificandola con l’assenza di una base giuridica.

Storia della chimica al femminile

Rinaldo Cervellati

Lo scorso 13 aprile, su Chemistry World (newsletter della Royal Society of Chemistry), Vanessa Seifert, ricercatrice in filosofia della scienza, ha scritto un breve saggio su questo argomento[1] che qui traduco adattandolo.

Figura 1. Vanessa Seifert

Il saggio inizia affermando che il primo chimico nella storia è stata Tappūtī-bēlat-ekalle, donna a capo di un gruppo di profumiere nell’antica Assiria, intorno al 1200 a.C. Sono state infatti scoperte tavolette con le sue ricette di profumi che descrivono, tra le altre cose, come effettuare processi chimici di base, tipo l’estrazione a caldo e la filtrazione [1].

Figura 2. Copertina del libro citato in [1]

Ricordando il giorno della donna nella scienza, quali sarebbero i modi sfaccettati in cui questa giornata possa promuovere l’uguaglianza delle donne, specialmente nell’ambito della chimica? Ricordare le storie di donne come Tappūtī-bēlat-ekalle aiuta a chiarire il fatto che i loro contributi alla chimica sono stati costantemente trascurati. La semplice informazione al pubblico su questi dettagli storici è preziosa in quanto ci aiuta a rivedere i nostri preconcetti sulla presenza delle donne nella chimica. Tuttavia, rivela anche un altro problema: perché tali dettagli non sono stati incorporati nella storia della chimica e nei libri di testo per l’insegnamento? A sua volta, questo fa sorgere un’altra domanda. Su quali basi riconoscere attori specifici nella ricostruzione storica di una scienza? C’è una buona ragione per cui Robert Boyle è celebrato come il “padre della chimica”, mentre Tappūtī-bēlat-ekalle è ampiamente trascurata?

Tali domande non hanno una risposta semplice in quanto richiedono la definizione dei criteri con cui identifichiamo qualcuno come storicamente importante. Ad esempio, è sufficiente la scoperta di un nuovo fatto chimico? È necessario ricoprire una posizione accademica o di ricerca in un’istituzione consolidata o produrre una quantità sostanziale di pubblicazioni molto citate? I premi Nobel o altri riconoscimenti prestigiosi sono buoni indicatori? Oppure è necessario essere attivi nella propria comunità scientifica, prendere parte a conferenze internazionali, redigere o recensire riviste scientifiche, acquisire fondi e così via?

Più andiamo indietro nella storia della chimica, più è difficile applicare tali criteri. Tuttavia, anche nei casi in cui possono essere applicati, vediamo che il ruolo delle donne nella chimica non è riconosciuto allo stesso modo di quello degli uomini. Ci sono diversi esempi di donne che hanno contribuito alla ricerca scientifica ma non sono state riconosciute in quanto i loro mariti o supervisori si sono presi il merito. Marie Lavoisier è un esempio calzante. Ci sono altre che, nonostante il loro lavoro, non hanno acquisito una posizione accademica, o a cui sono stati offerti solo incarichi amministrativi o di segreteria o hanno ricevuto una retribuzione inferiore rispetto ai loro colleghi. La biochimica Gerty Cori ne è un esempio: le università volevano solo assumere suo marito Carl, nonostante lavorassero insieme e avessero ottenuto insieme un premio Nobel. Alla fine si stabilirono nella Washington University School of Medicine, che offrì a suo marito la cattedra di farmacologia e a lei il ruolo di assistente di ricerca. Inoltre, ci sono casi di plagio (l’esperienza di Rosalind Franklin ne è un esempio tipico) in cui pubblicazioni o risultati di ricerche sono stati attribuiti a figure che detenevano posizioni di potere più elevate.

Tali storie ci aiutano a capire i modi precisi in cui le donne (e altri gruppi di persone sottorappresentati) sono stati trascurati o esclusi dalla pratica scientifica. In generale, questa discussione fa parte della cosiddetta “critica della scienza” che viene perseguita all’interno della storia femminista e della filosofia della scienza. Questo campo è stato istituito intorno agli anni ’70 e illumina i diversi modi in cui le donne (e di conseguenza altri gruppi minoritari) sono state costantemente sottovalutate all’interno della scienza. Ciò include l’esame dei modi in cui la scienza mantiene i pregiudizi sessisti nelle sue teorie e pratiche, nonché i modi in cui viene invocata per stabilire l’inferiorità delle donne.

Le cose non vanno così male come tempo fa, tuttavia, la pratica scientifica è ancora strutturata in modo tale da escludere in pratica le donne dalla scienza. Ad esempio, la moda esistente di determinare il successo accademico in termini di h-index (che misura il numero di citazioni per pubblicazione) indebolisce molte donne, in particolare le madri, nella loro ascesa a posizioni accademiche più elevate. Questo perché le donne sono più propense degli uomini a prendere delle interruzioni professionali per motivi come il congedo di maternità, con conseguenti h-index più bassi [2].

Da tutto ciò non si deve dedurre che l’intera storia della chimica così come è presentata nella sua forma attuale sia completamente fuorviante o falsa. L’obiettivo è contribuire a una storia più equilibrata ed equa e superare i pregiudizi esistenti nei confronti di gruppi di persone sottorappresentati. Che ci piaccia o no, è ancora difficile lavorare come chimico per una donna, una persona di colore o una persona LGBTQ+. Ricordare le donne nella storia della chimica ogni marzo è una preziosa opportunità per riconoscere e superare questo problema, non solo a beneficio di questi gruppi sottorappresentati, ma anche a vantaggio della chimica stessa. Dopotutto, come disse una volta James Clerk Maxwell, “…in Science, it is when we take some interest in the great discoverers and their lives that it becomes endurable, and only when we begin to trace the development of ideas that it becomes fascinating” (nella scienza, è quando ci interessiamo ai grandi scopritori e alle loro vite che diventa sopportabile, e solo quando iniziamo a tracciare lo sviluppo delle idee che diventa affascinante) [3].

Desidero infine ricordare che recentemente ho pubblicato un libro con le biografie di più di 40 donne (dalla metà del XIX al XX secolo) che hanno dato contributi fondamentali alle scienze chimiche, dal titolo Chimica al femminile, Aracne, Roma 2019.

Bibliografia

[1] H. Wills, S. Harrison, E. Jones, F. Lawrence-Mackey, and R. Martin, eds. Women in the History of Science: A Sourcebook. UCL Press, 2023. https://doi.org/10.2307/j.ctv2w61bc7

oppure

https://discovery.ucl.ac.uk/id/eprint/10165716/

il libro è disponibile in licenza Creative Commons

[2] A. R. Larson, JAMA Netw Open, 2021, 4, e2112877

DOI: 10.1001/jamanetworkopen.2021.12877)

[3] J Read, Through alchemy to chemistry: A procession of ideas and personalities. London: G. Bell and Sons ldt, 1957, p. xiii


[1] V. Seifert, Chemistry’s history through the feminist lens, Chemistry World, 13 April 2003.

Forever chemicals.

Luigi Campanella, già Presidente SCI

I PFAS, sostanze perfluoroalchiliche, sono di solito utilizzate per rendere diversi prodotti di consumo resistenti all’acqua, alle macchie ed al calore. Sono chiamati forever chemicals, “prodotti chimici per sempre” perché non si degradano ed a causa della loro stabilità rischiano di essere accumulati nell’organismo umano a concentrazioni superiori alla soglia di sicurezza, divenendo causa di patologie gravi come il cancro, complicazioni fetali, disfunzioni epatiche. Il percorso più comune per arrivare all’uomo passa attraverso le acque reflue, i fanghi di depurazione, smaltiti poi su terreno come fertilizzanti o versati nei corsi di acqua e da questi all’uomo.

Uno studio della Università della Florida pubblicato su Environmental Science and Technology Letters (scaricabile liberamente)

ha dimostrato che un prodotto di generale consumo contenente PFAS è la carta igienica: 21 marche diffuse nel mondo hanno dimostrato di contenerne. In effetti il lavoro non dimostra implicazioni dell’uso della carta igienica con la salute, ma allerta rispetto al rischio di assorbimento attraverso la pelle di PFAS, tenuto conto del generale elevato consumo di carta igienica. In Italia nella precedente legislatura era stato presentato un disegno di legge per la messa al bando dei PFAS, ma in quella in corso nessuno lo ha riproposto. I suoi contenuti rispondono alle richieste di Associazioni, Movimenti, Comitati che chiedevano la messa al bando dei PFAS, bioaccumulabili e persistenti, per evitarne la presenza in aria, acque, alimenti con possibile trasferimento all’organismo umano. La proposta di legge riguardava il divieto di produzione, uso e commercializzazione dei PFAS e di prodotti che li contenevano, e regolava riconversione produttiva e misure di bonifica e controllo. Una recente inchiesta giornalistica dimostra come ripresentare questa legge risponderebbe ad elementari principi di sicurezza visto che una mappa realizzata in Europa ha evidenziato 17000 siti contaminati da PFAS di cui 2000 a concentrazione pericolosa; fra questi Brescia.

Intorno al problema PFAS sono attivi 2 processi. Il primo è presso il Tribunale di Vicenza, contro la Miteni di Trissino produttrice di PFAS e accusata di essere responsabile dell’avvelenamento di molti lavoratori, denunciato anche dalla Commissione Episcopale Italiana in un grande convegno. C’è da aggiungere che anche i Sindacati hanno avviato questa battaglia e che l’INCA CGIL ha chiesto ed ottenuto che le malattie da PFAS di 19 lavoratori siano riconosciute come malattie professionali con danno del 2%. Il secondo processo riguarda il Tribunale di Alessandria ed è in corso contro la Solvay di Spinetta Marengo a cui viene contestata l’ipotesi di disastro ambientale colposo. In particolare è sotto accusa la tenuta della “barriera idraulica” che, al contrario di quanto garantito, non ha evitato fuoriuscite di contaminanti storici come i PFAS, ma anche cromo esavalente.

In memoria di Will Steffen.

Claudio Della Volpe

Will Steffen, nato in USA ma professore di chimica per anni in Australia è stato con Paul Krutzen l’inventore del concetto dell’Antropocene e con Johan Rockström ha iniziato il dibattito mondiale sui limiti planetari e sul concetto di spazio operativo sicuro per l’Umanità.

E’ morto a 75 anni nello scorso gennaio per una grave forma di tumore del pancreas.

Era nato a Norfolk nel 1947 completando gli studi di Chimica prima nel Missouri e poi in Florida con un PhD ottenuto nel 1975.

Si era poi trasferito in Australia dove aveva iniziato ad interessarsi ai problemi ambientali; aveva accettato fra i primi l’idea della cosiddetta “grande accelerazione”, ossia il fatto che l’impatto umano sul pianeta era entrato in una fase quantitativamente nuova dopo la seconda guerra mondiale con la rottura di parecchi fra i precedenti equilibri ecologici.

In Australia aveva collaborato a tutte le iniziative riguardanti le nuove idee che si stavano sviluppando all’epoca e che trovavano ancora parecchia resistenza sia nell’ambiente scientifico che fuori, in particolare due idee base erano l’Antropocene, ossia il fatto che l’Umanità stava cambiando le condizioni geologiche del pianeta in un modo che sarebbe rimasto documentato per millenni a venire e che per questo era giusto introdurre una nuova epoca geologica e l’altro concetto che la Terra è una ecosfera limitata, non infinita e che dunque possiede dei limiti intrinseci che non possono essere violati a pena di distruggerli.

Nel 1988 ha fatto parte della spedizione ANU che ha scalato il Monte Baruntse, alto 7.162 metri in Nepal, una guglia ghiacciata a est dell’Everest. Della sua scalata, Will una volta disse: L’arrampicata è come la scienza. Per salire su una roccia dura o una scalata su ghiaccio, proprio come quando stai risolvendo un problema nel ciclo del carbonio, devi essere ultra-concentrato, devi prendere decisioni olistiche e devi essere assolutamente consapevole di ciò che ti circonda. Quando scendi da una grande salita, apprezzi davvero la bellezza di ciò che ti circonda. Questa è la sensazione che si ottiene nella scienza quando si risolve un grosso problema e improvvisamente si vede come tutto si incastra.

(https://theconversation.com/weve-lost-a-giant-vale-professor-will-steffen-climate-science-pioneer-198873)

Quando il governo Abbott chiuse la Commissione sul clima nel 2013, Will e i suoi colleghi – Tim Flannery, Lesley Hughes e Amanda McKenzie – non si dimisero semplicemente. Al contrario raccolsero 1 milione di dollari australiani in una settimana e fondarono il Climate Council, che è ora una delle principali fonti indipendenti di consulenza sul clima in Australia.

(https://theconversation.com/weve-lost-a-giant-vale-professor-will-steffen-climate-science-pioneer-198873)

Ha pubblicato molti lavori per dare una veste concreta sia all’idea di Antropocene che a quella dei limiti planetari, divenuti entrambi, anche grazie al suo lavoro certosino, dei “memi” sempre più pervasivi, che oggi sono conosciuti a livello mondiale nonostante la lotta spasmodica dei gruppi culturali negazionisti, molto forti in ambito anglosassone ed americano (anche grazie agli enormi finanziamenti ricevuti dal mondo petrolifero, carbonifero e gasiero).

Una lista di questi lavori potete trovarla per esempio qui.

Forse il migliore ricordo è quello di ripubblicare uno dei suoi più noti grafici come ha fatto Nature physics di recente (Volume 19 | March 2023 | 301 ):

Un grafico in cui si riassumono i trend storici dei più importanti parametri ambientali e climatici ma anche legati ai limiti di risorse del pianeta, argomenti che sono tutti connessi fra di loro come è chiaro a qualunque chimico, gli argomenti di cui si era occupato tutta la vita.

Nel 2020 Will scrisse in una lettera ad alcuni suoi colleghi:

Sono arrabbiato perché la mancanza di un’azione efficace sui cambiamenti climatici, nonostante la ricchezza non solo di informazioni scientifiche ma anche di soluzioni per ridurre le emissioni, ha ora creato un’emergenza climatica”. “Gli studenti hanno ragione. Il loro futuro è ora minacciato dall’avidità della ricca élite dei combustibili fossili, dalle bugie della stampa di Murdoch e dalla debolezza dei nostri leader politici. Queste persone non hanno il diritto di distruggere il futuro di mia figlia e quello della sua generazione.

Si, dopo tutto aveva 75 anni, ma molto ben portati.

Da leggere o (ri) leggere.

https://royalsocietypublishing.org/doi/abs/10.1098/rsta.2010.0327

La fusione nucleare: come distrarci dalle emergenze che dobbiamo affrontare

Margherita Venturi

Dipartimento di Chimica “G. Ciamician” dell’Università di Bologna e Gruppo Energia per l’Italia (http://www.energiaperlitalia.it)

Siamo in un periodo difficile per l’umanità caratterizzato da due gravi emergenze: quella energetica e quella climatica. Sono due emergenze strettamente connesse perché è ormai ampiamente dimostrato che il cambiamento climatico è la conseguenza dell’uso massiccio dei combustibili fossili. Occorre, quindi, abbandonare senza indugio questa fonte energetica e trovare soluzioni alternative. Nonostante la maggioranza della comunità scientifica sia concorde sul fatto che il ricorso alle fonti energetiche rinnovabili, in particolare fotovoltaico ed eolico, rappresenti l’unica strada da battere, purtroppo, recentemente, è tornato alla ribalta il nucleare. Non solo si vuole potenziare il nucleare da fissione, ma addirittura si sta dando l’illusione che la fusione nucleare ci darà prestissimo energia pulita, sicura e inesauribile. Allora cerchiamo di capire perché si tratta ancora di una vera e propria illusione.

Come è noto, si possono generare enormi quantità di energia non solo dalla fissione di atomi pesanti, ma anche dalla fusione di atomi leggeri, il processo che alimenta il nostro Sole. Realizzare il processo di fusione nucleare è, infatti, stato paragonato a mettere “il Sole in bottiglia”; è sicuramente una frase d’effetto, capace di colpire la fantasia del pubblico, che però nasconde cosa in realtà ciò significhi. Allora, vale la pena confrontare quello che davvero avviene nel nucleo del Sole a 150 milioni di km da noi rispetto a quanto possiamo disporre noi sulla piccola Terra che gli ruota attorno. All’interno della nostra stella c’è un plasma di protoni, che, a quattro per volta, grazie a temperatura e pressioni elevatissime (16 milioni di gradi centigradi e 500 miliardi di atmosfere) fondono per dare un nucleo di elio, con un difetto di massa tale da produrre un’enorme quantità di energia secondo la famosa formula di Einstein E = mc2.

Poiché queste estreme condizioni non possono essere riprodotte, nei laboratori “terrestri”, neppure in quelli più avanzati, si cerca di ovviare all’impossibile replicabilità del processo di fusione solare, imitandone solo il principio. Si ricorre, infatti, ai nuclei di due isotopi dell’idrogeno – il deuterio e il trizio – che, però, non hanno alcuna voglia di fondersi perché, essendo entrambi carichi positivamente, si respingono violentemente. Tuttavia, se si riesce in qualche modo a portarli a contatto, entra in gioco una forza nucleare attrattiva che agisce solo a cortissimo raggio, ma che è molto più intensa della repulsione elettromagnetica: i due nuclei fondono con la formazione di un nucleo di elio (He), l’espulsione di un neutrone e l’emissione di una grandissima quantità di energia che si manifesta sotto forma di calore.

Il problema, ma non l’unico, è che, al fine di “costringere” i nuclei di deuterio e trizio a scontrarsi per poi incollarsi, occorre mantenere confinato il tutto per il tempo necessario a produrre la fusione. Per ottenere ciò si utilizzano principalmente due approcci.

Uno si basa sul confinamento magnetico del plasma caldissimo formato dai nuclei di deuterio e trizio:un campo magnetico potentissimo generato dall’esterno costringe questi nuclei a muoversi lungo traiettorie circolari in modo che, giro dopo giro, acquistano l’energia necessaria per dare il processo di fusione. La difficoltà è che il campo magnetico deve essere intensissimo e per mantenerlo tale ci vogliono dei magneti superconduttoriche devono lavorare a temperature molto basse (-268 °C).

L’altro approccio è quello basato sul confinamento inerziale che consiste nel bombardare con dei potentissimi impulsi laser un piccolo contenitore in cui è presente una miscela solidificata (in quanto freddissima) di deuterio e trizio: si verifica così una intensissima compressione che fa salire contestualmente la pressione e la temperatura (fino a una sessantina di milioni di gradi), tanto da innescare la fusione.

Il primo approccio è quello che si sta affrontando a Cadarache in Francia da parte di un folto gruppo di paesi, compresi USA, UE, Cina, India e Italia, noto come il progetto ITER (Figura 1): sono già stati spesi 20 miliardi di euro senza essere ancora riusciti a produrre quantità di energia maggiori di quelle utilizzate. I report scientifici dicono molto chiaramente che la strada sarà lunga e in salita, perché ogni volta che viene fatto un piccolissimo passo in avanti emergono nuovi problemi da affrontare.

Figura 1. Il Tokamak è il cuore del progetto ITER; è infatti la macchina che utilizzando un potente campo magnetico contiene il plasma caldo formato da nuclei di deuterio e trizio che vengono accelerati in modo da acquistare l’energia necessaria alla loro fusione

Presso della National Ignition Facility (NIF) del Laurence Livermore National Laboratoryin California (USA) si sta invece studiando il secondo approccio. Il 13 dicembre dello scorso anno i giornali di tutto il mondo hanno riportato con grande enfasi che il gruppo di ricerca dell’NIF ha ottenuto un importante risultato (Figura 2): l’energia di 192 laser focalizzata su una sferetta (pellet) contenente deuterio e trizio ha indotto in pochi nanosecondi la loro fusione, generando una quantità di energia (3,15 MJ) leggermente maggiore a quella iniettata dai laser nella sferetta (2,05 MJ).

Figura 2. L’energia fornita da 192 laser viene concentrata in una sferetta contenente nuclei di deuterio e trizio inducendo la reazione di fusione

La cosa, però, passata sotto silenzio è che i 192 laser hanno consumato circa 400 MJ, ai quali va aggiunta l’energia richiesta dalle altre apparecchiature costruite e utilizzate per preparare e seguire l’esperimento. Oltre a vincere la sfida energetica (produrre più energia di quella consumata), per generare energia su scala commerciale si deve vincere un’altra sfida praticamente impossibile: modificare l’apparecchiatura per far sì che produca energia non per una piccolissima frazione di secondo, ma in modo continuo. La maggioranza degli esperti concorda sul fatto che con questo metodo così complicato è impossibile generare elettricità a costi commerciali competitivi. C’è allora il dubbio, certamente fondato, che i laboratori di ricerca, per assicurarsi gli ingentissimi finanziamenti pubblici necessari, cercano di “vendere” ai decisori e ai cittadini i risultati conseguiti come successi strepitosi e, anche, che la competizione presente da decenni tra confinamento magnetico e confinamento inerziale spinge a dimostrare di essere i più bravi. Bisogna, inoltre, sottolineare che nello sfondo c’è l’inquietante spettro militare, perché il compito primario del NIF non è quello di studiare la fusione per ottenere energia, ma di sfruttarla a fini bellici.

A parte ciò, la fusione nucleare ha molti altri ma.

Il primo ma riguarda il fatto che, indipendentemente dal modo con cui verrà ottenuto questo processo (ammesso che ci si riesca), occorre disporre dei due isotopi dell’idrogeno. Mentre il deuterio è abbastanza abbondante, il trizio è molto raro (è radioattivo e decade con un tempo di dimezzamento di soli 12 anni). Quindi, problema non da poco, ci si imbarca in un’impresa titanica sapendo già in partenza che manca la materia prima. Chi lavora nel settore dice che il trizio potrà essere ottenuto “in situ” bombardando con neutroni il litio 6, cosa che però aggiunge complessità a complessità.

Un’ulteriore ma è connesso alla radioattività indotta dai neutroni (prodotti assieme all’elio nella reazione di fusione) nei materiali che li assorbono, il che vuol dire che la struttura stessa del reattore diventa radioattiva e che, in fase di dismissione, crea scorie. Anche se in questo caso i tempi di decadimento degli isotopi radioattivi non sono così lunghi come quelli creati dalla fissione, è un falso in atto pubblico definire il nucleare da fusione una tecnologia pulita, perché lascia comunque il problema della difficile gestione delle scorie.

C’è poi un grosso ma legato al confinamento magnetico e, in particolare, al fatto che i superconduttori devono essere raffreddati a elio liquido, un gas molto raro e sicuramente non sufficiente per la gestione dei futuri reattori a fusione dal momento che già ora sta scarseggiando. Qualcuno teme addirittura che a breve non sarà più possibile utilizzare la tecnica NMR, così importante nella ricerca scientifica e, soprattutto, in ambito diagnostico, proprio perché usa come liquido di raffreddamento l’elio.

In conclusione, la storia della fusione nucleare, dagli anni Cinquanta del secolo scorso ad oggi, dimostra che questa tecnologia non riuscirà a produrre elettricità a bassi costi e in modo attendibile in un futuro ragionevolmente vicino.

Nonostante ciò, a marzo di quest’anno, i giornali hanno riportato che ENI, per voce del suo amministratore delegato Carlo Descalzi, vuole puntare tutto sulla fusione nucleare “perché permette di ottenere energia pulita, inesauribile e sicura per tutti: una vera rivoluzione capace di superare le diseguaglianze fra le nazioni e di favorire la pace”. Questa affermazione lascia alquanto perplessi dal momento che non si capisce come i paesi poveri potranno accedere a una tecnologia così sofisticata e costosa.

Descalzi ha, poi, aggiunto che nel 2025 sarà pronto un impianto pilota a confinamento magnetico in grado di ottenere elettricità dalla fusione e che nel 2030 sarà operativa la prima centrale industriale basata su questa tecnologia. Un’altra affermazione che lascia ancora più stupiti, perché sembra che all’improvviso e velocemente verranno risolti i tanti problemi incontrati dagli scienziati che lavorano nel settore da decenni: un vero miracolo! In realtà si tratta di un estremo tentativo di ENI per distrarre le persone, e in particolare i politici, dalla necessità e urgenza di abbandonare l’uso dei combustibili fossili e sviluppare le già mature ed efficienti tecnologie del fotovoltaico e dell’eolico.

Ancora una volta ENI ci vuole illudere di voler cambiar tutto, senza cambiare nulla; la sua classica strategia di mettere sotto il tappeto le emergenze che dobbiamo affrontare immediatamente, per poter continuare a estrarre e vendere combustibili fossili, senza curarsi dei gravi e ben noti problemi causati dal loro uso.

Da leggere

Vetro biomolecolare

Diego Tesauro

Nell’era dell’antropocene siamo in una fase nella quale l’umanità non si può più permettere di produrre manufatti costituiti da materiali per i quali non si abbia un processo sostenibile che ci permetta di riciclarli al termine della loro vita utile, oppure di smaltirli senza alterare le matrici ambientali in modo significativo. Oggi questa sensibilità viene giustamente diretta verso i materiali polimerici che provengono dalle fonti fossili e costituiscono la larga parte della plastica utilizzata. Il vetro, sarà perché totalmente riciclabile, non costituisce apparentemente un problema. Invece, innanzitutto è necessaria una raccolta differenziata accurata, in alcuni casi separandolo anche per colore per evitare di mandarlo in discarica, dove servirebbero migliaia di anni per decomporlo; poi è necessario fonderlo ad elevata temperatura con notevole consumo di energia. Inoltre la sua densità, abbastanza elevata rispetto alla plastica, comporta anche un consumo di energia nel trasporto. E’ chiaro che la sua notevole inerzia chimica, dovuta alla relativa scarsa reattività del costituente base, la silice, tranne che verso le basi forti, lo rende un materiale di eccellenza. Queste considerazioni spingono la ricerca a percorrere strade alternative per un futuro sostenibile verso un materiale che sostituisca la silice, conferendo la classica trasparenza ai manufatti. Un materiale a base peptidica sarebbe una valida alternativa, almeno secondo uno studio pubblicato su Science Advances [1]. Chiaramente la tecnica di formazione del vetro, cioè un riscaldamento seguito da un rapido raffreddamento, applicata ai peptidi, comporterebbe una decomposizione della catena amminoacidica e degli amminoacidi stessi prima che si possa giungere alla fusione.  

Per stabilizzare in primo luogo gli amminoacidi, evitarndone la decomposizione, oltre ad impedire la rottura dei legami peptidici e cambiare il modo in cui i peptidi si assemblano; sono state modificate le estremità degli amminoacidi introducendo i gruppi acetile, 9-fluorenilmetilossicarbonile (Fmoc) e benzilossicarbonile (Cbz). In particolare gli amminoacidi che si sono mostrati più stabile sono la glutammina (Q), l’istidina (H), la fenilalanine (F), e la tirosina (Y) ed una volta modificati la loro temperatura di fusione era molto lontana dalla temperatura di decomposizione. La tecnica applicata infatti ha previsto la fusione per formare prima un liquido super raffreddato quindi un riscaldamento alla velocità di 10°C al minuto, in atmosfera inerte, fermandosi prima di raggiungere la temperatura di decomposizione (Figura 1). Attraverso un controllo accurato delle velocità di riscaldamento e raffreddamento, il liquido super raffreddato è stato raffreddato in acqua per formare infine il vetro ed evitare la cristallizzazione. Sono stati così ottenuti biovetri ed invistigati nelle loro proprietà sopratutto quelli ottenuti con l’amminoacido Ac-F e con il tripeptide (Cbz-FFG). Il prodotto così ottenuto è rimasto solido quando è tornato a temperatura ambiente.

Figura 1 Diagramma schematico del vetro biomolecolare.

Le unità strutturali sono derivati ​​di amminoacidi o peptidi molecolari utilizzati per preparare un liquido sottoraffreddato attraverso un processo di fusione ad alta temperatura e quindi trasformati in un vetro mediante una procedura di tempra. Questi vetri avevano eccellenti caratteristiche ottiche, lavorabilità flessibile, nonché biodegradabilità e bioriciclabilità. Copyright Science Advances

Questo metodo impedisce agli amminoacidi e ai peptidi di formare una struttura cristallina quando si solidificano, il che renderebbe il vetro opaco, anche se gli autori dello studio notano che in alcuni casi il vetro non era completamente incolore. Il vetro biomolecolare non solo è trasparente, ma può essere stampato in 3D e colato in stampi. Effettivamente i vetri ottenuti hanno una combinazione unica di proprietà funzionali, eccellenti caratteristiche ottiche, buone proprietà meccaniche e buona propensione verso processi di flessione.

Per determinare se il vetro biomolecolare sviluppato, fosse stato ecologico, sono stati, quindi, condotti esperimenti di biodegradazione in vitro e esperimenti in vivo e di compostaggio. Il vetro biomolecolare sottoposto ai fluidi digestivi e al compost, ha impiegato da poche settimane a diversi mesi per rompersi, a seconda della modifica chimica e dell’amminoacido o del peptide utilizzato dimostrando la desiderata biodegradabilità e bioriciclabilità (Figura 2). Pertanto invece di rimanere per anni in una discarica, i nutrienti generati dal vetro biomolecolare potrebbero, in linea di principio, ricongiungersi all’ecosistema.

Figura 2 Frammenti generati dal processo di decomposizione enzimatica del peptide CbzFFG

Bisogna rilevare che questi vetri biomolecolari sono completamente diversi dai vetri bioattivi (BAG)/biovetri, scoperti nel 1969 da Hench.[2] Infatti BAGisa è un tipo di materiale ceramico bioattivo che presenta proprietà di rigenerazione ossea con una composizione contenente più calcio e fosfato rispetto ai vetri di silice e apparteneva al sistema di vetro di silicato inorganico SiO2-Na2O-CaO-P2O5.

Al momento il vetro biomolecolare rappresenta una curiosità scientifica e non sarebbe adatto per applicazioni come bottiglie di bevande perché il liquido ne causerebbe la decomposizione. Ma le curiosità scientifiche in futuro potrebbero risultare foriere di nuove scoperte in grado di far progredire la conoscenza.

Riferimenti 

1) R. Xing, C. Yuan, W. Fan, X. Ren, X. YanBiomolecular glass with amino acid and peptide Nanoarchitectonics Sci. Adv. 9, eadd8105 (2023)

2) L. L. Hench, H. A. Paschall, Direct chemical bond of bioactive glass-ceramic materials to bone and muscle. J. Biomed. Mater. Res. 7, 25–42 (1973).

Le riflessioni di un emarginato.

Mauro Icardi

“Le basi più elementari dei presupposti su cui si fonda il nostro futuro benessere economico sono marce. La nostra società vive una fase di rifiuto collettivo della realtà che, quanto a proporzioni e implicazioni, non ha precedenti nella storia”

Il brano riportato è tratto dal libro “Fine corsa” di Jeremy Legget, geologo inglese che ha lavorato nell’industria petrolifera prima di collaborare con Greenpeace, e poi diventare consulente del governo britannico per lo sviluppo delle energie rinnovabili.

Pubblicato in Inghilterra nel 2005, è uscito in Italia pubblicato da Einaudi nel 2006. Il tema del libro è ovviamente legato al petrolio, alla sua prossima scarsità o per meglio dire alla difficolta di estrazione a costi sostenibili. Preciso che ho estrapolato la frase per occuparmi non di una disamina tecnica, ma di un tema che continua a riempire i miei pensieri. Ovvero il comportamento collettivo di fronte ai problemi ambientali ed energetici. Forse sono avventato e presuntuoso. Avrei bisogno del supporto di uno psicologo o di un antropologo. Ma tento ugualmente una riflessione. Dalla pubblicazione di questo libro in Italia sono passati diciassette anni. Nel 2008 la crisi dei mutui subprime negli Stati Uniti diede l’avvio ad una delle tante crisi economiche di cui si è scritto e si scrive sui giornali. In quei giorni pensai che quella potesse essere la chiave che permettesse un minimo cambiamento di percezioni e abitudini. Leggevo sui quotidiani che non solo si rubava il rame, ma le cronache giornalistiche riportavano anche notizie di furti di chiusini stradali. Non vidi molti cambiamenti nei comportamenti delle persone, e nel 2009 con il calo del prezzo del petrolio che era arrivato a toccare nel periodo 2005/2006 il massimo storico di 140 dollari al barile, tutti tirarono un sospiro di sollievo e continuarono con le abitudini di sempre.

Il tema del petrolio nella percezione comune delle persone con cui parlo, si lega inevitabilmente alla necessità, per molti assolutamente imprescindibile, dell’utilizzo dell’auto privata. Non trovo una spiegazione razionale in questo tipo di attaccamento quasi morboso. L’auto è stata vista come uno strumento di progresso, e gli Italiani la adorano.  Un film in particolare lo mostra in maniera interessante, ed è “Il sorpasso” di Dino Risi. In quella pellicola il protagonista Bruno Cortona, magistralmente interpretato da Vittorio Gassman, è una cosa sola con la sua automobile.

Per gli appassionati una Aurelia B 24 spider, coprotagonista forse più di Jean Louis Trintignant che interpreta Roberto Mariani, lo studente timido che Cortona coinvolge in un viaggio da Roma fino alla Liguria che finirà tragicamente.

Il film esce nel 1962 l’anno ricordato dagli storici e dagli economisti come il migliore in assoluto per l’economia italiana. Quinto anno dell’era del miracolo economico, fa registrare un incremento del pil pari all’8,6% rispetto al 1961. Da quell’anno in poi il Pil continuerà faticosamente a crescere nonostante il miracolo italiano lentamente si sfilacci, si consumi. Dapprima impercettibilmente. Nel 1964 si comincerà a parlare di congiuntura. Arriverà il 1968 anno di cambiamenti e di insofferenze.

Poi gli anni 70 anni complicati e violenti. Gli anni delle stragi, della lotta politica cruenta. Gli anni del terrorismo. Gli anni che vedranno la nascita del Club di Roma. Il decennio nel quale in Italia viene pubblicato “I limiti dello sviluppo” traduzione approssimativa di “Limits to Growth”. Si inizia a riflettere sul concetto di crescita I problemi in quel periodo sono ormai evidenti. Sono gli anni in cui i fiumi sono coperti da nuvole di schiuma, gli anni dell’incidente di Seveso, della prima impattante crisi del petrolio. Ma proprio nel 1962, curiosamente l’anno in cui sono nato, qualcuno già prova a criticare questo modello di vita. In particolare Pier Paolo Pasolini che proprio in quell’anno sulla rivista “Vie nuove” scrive questo: “L’Italia sta marcendo in un benessere che è egoismo, stupidità, incultura, pettegolezzo, moralismo, coazione, conformismo: prestarsi in qualche modo a contribuire a questa marcescenza è, ora, il fascismo. Essere laici, liberali, non significa nulla, quando manca quella forza morale che riesca a vincere la tentazione di essere partecipi a un mondo che apparentemente funziona, con le sue leggi allettanti e crudeli.”

Un altro scrittore dimenticato e sottovalutato scrive un libro che è uno dei miei preferiti. Lo scrittore è Luciano Bianciardi, il libro “La vita agra” anche questo pubblicato nel 1962 come il film di Risi. 1962 che è curiosamente anche il mio anno di nascita.  Romanzo a carattere autobiografico: storia di un provinciale che sale a Milano per vendicare la morte di alcuni minatori, ma che finisce completamente assorbito e metabolizzato dalla società che voleva distruggere. La vita agra,1964.

Se parlo con i colleghi, se leggo commenti sui social, se analizzo le politiche governative dell’ultimo decennio, ho la sensazione che molte persone siano convinte di vivere ancora in quel periodo. Che lo rimpiangano e lo sognino ancora. Incapaci di immaginare un tipo di vita diverso. Potrei raccontare decine di aneddoti. Ma ne cito due, a mio parere molto significativi. Una studentessa universitaria che negli anni in cui ero il referente tecnico degli stages, e mi spendevo molto nel parlare di temi energetici e ambientali, mi disse candidamente che nella sua famiglia, ogni componente, madre, padre, fratello oltre a lei, possedeva un’auto. La giustificazione erano gli orari, le diverse necessità di ognuno di loro. Mentre lei mi diceva questo, io pensavo a quando ho iniziato a lavorare. Utilizzavo mezzi pubblici, una vecchia bicicletta di mio padre, e l’auto di famiglia se avevo turni notturni o serali.

Il secondo episodio è più recente.  Riguarda un collega che dovendo recarsi a Milano per una visita medica chiede informazioni su come arrivarci in auto. Alla mia proposta di utilizzare i mezzi pubblici, stronca le mie velleità sul nascere. L’utilizzo di treno e metropolitana è percepito come fastidioso e faticoso. Molto meglio alzarsi molto presto per poter accedere nella zona a traffico limitato prima del blocco, che poi lo costringerà ad aspettare la sera per poter essere libero di tornare a casa. Ci sono treni frequenti tra Varese e Milano, non regge nemmeno l’alibi di essere mal collegati al capoluogo di regione.

Mi chiedo quanto sia condizionante il potere delle abitudini, spesso non siamo nemmeno consapevoli di agire in un determinato modo a causa di una buona o cattiva abitudine. Per sostituire una cattiva abitudine con una buona ci vuole sforzo. Occorre fare fatica. La fatica è qualcosa ormai fuori moda. La riflessione vale non solo per l’uso dell’auto, ma per quello dell’acqua, per i consumi di carne, per il modo con il quale reagiamo ai tanti allarmi ambientali. Alla subalternità di troppe persone ai richiami della pubblicità.

Federic Beigdeber pubblicitario ribelle si esprime così: ““Sono un pubblicitario: ebbene sì, inquino l’universo.  Io sono quello che vi vende tutta quella merda. Quello che vi fa sognare cose che non avrete mai… Io vi drogo di novità, e il vantaggio della novità è che non resta mai nuova. C’è sempre una novità più nuova che fa invecchiare la precedente. Farvi sbavare è la mia missione. Nel mio mestiere nessuno desidera la vostra felicità, perché la gente felice non consuma.”

Mi domando sempre più spesso come potremo uscire da questo impasse. Ci riusciremo? Francamente non lo so. Se misuro questa possibilità utilizzando come termine di paragone il numero di follower di un divulgatore scientifico o ambientale, rispetto a quelli di una qualunque bella ragazza che lavora nello spettacolo non ho buone sensazioni. E riguardo a me che oggi rientro nella categoria dei cosiddetti boomer, anzi più precisamente dei baby boomer, percepisco sempre di più una sensazione di disagio, quasi di emarginazione. Bevo acqua di rubinetto, uso bici e mezzi pubblici. Le persone mi guardano in maniera strana, qualcuno accenna a parole di circostanza, del tipo “Verrei anche io in bici al lavoro ma…”

E le giustificazioni sono sempre quelle: abito distante, non uso il treno perché la stazione è lontana. Non bevo acqua di rubinetto perché sa di cloro. Intanto le leggi naturali continuano imperterrite a fare la loro strada da tredici miliardi di anni. Tanti sognano un nuovo eldorado, qualcuno sui social commenta che continuerà a sgasare con il suo fuoristrada, motivando la cosa con il fatto che, visto   che si pensa di inviare armi ad uranio impoverito in Ucraina, questa sia la giustificazione per non impegnarsi più ad essere rispettosi dell’unico pianeta, della casa comune. Giustificazione banale e fraudolenta, ma credo anche piuttosto diffusa con diverse varianti.  A cosa serve impegnarsi se poi i cinesi continuano ad inquinare per esempio è una delle più frequenti.

“I cani abbaiano alla luna e intanto la carovana passa.”

(Proverbio arabo).

Terza età

Luigi Campanella, già Presidente SCI.

L’Antropocene vede la predominanza della specie umana fra tutte le specie di vertebrati; in particolare questo nel tempo ha comportato una piramide della popolazione che in moltissimi paesi, specie nei più ricchi, vede la crescente importanza della quota anziana della popolazione. Con una serie di conseguenze.

Il 28 marzo nella Sala del Senato “Caduti di Nassirya” e stato istituito l’Intergruppo del Parlamento Italiano denominato “Invecchiamento Attivo”. Questa azione fa seguito all’approvazione da parte del Parlamento stesso di una legge che rappresenta una riforma strutturale rivolta alle persone anziane. È una legge che in Italia interessa 14 milioni di persone, è legata ai fondi del PNRR ed è frutto del grande lavoro del Comitato per la Riforma della Salute e dell’Assistenza Sociale istituito nel 2020 dall’allora Min.ro della Salute Speranza e presieduto da Monsignor Paglia, e poi confermato dal Governo Draghi e da questo lasciato in eredità al Governo attuale che ha nuovamente approvato la Riforma con piccole variazioni blindandone l’approvazione.

La protezione delle persone più anziane e più specificatamente il rispetto dei più vecchi che hanno nella loro vita vissuto nel mondo della scienza e della cultura e che hanno svolto un ruolo di guida e consiglio alle nuove generazioni ha stimolato in tutto il mondo la nascita e lo sviluppo di Associazioni e di Gruppi Leader. La loro forza è diversa a seconda dei Paesi in qualche caso considerati con interesse ed attenzione, in qualche altro praticamente ignorati. Questa è la ragione per cui si sta pensando che un passo importante possa essere la creazione di una Rete fra queste Associazioni, capace di fungere da supporto a ciascuna di esse, sulla base dello stesso principio della Commissione dei Diritti Umani delle Nazioni Unite, dell’Esperto Indipendente sulla fruizione dei Diritti Umani e dell’Alleanza Mondiale per i Diritti dei più anziani, tutte e 3 iniziative che da sempre raccomandano la creazione di strumenti di coesione e collaborazione.

I componenti della Rete dovrebbero scambiarsi con continuità esperienze e competenze, organizzando periodici incontri/eventi durante i quali da un lato rinforzare la collaborazione ed il peso a livello di ogni singolo Paese e dall’altro incentivare le adesioni e presentare i nuovi membri a quanti già fanno parte del Network. Dovrebbero essere garantite promozione della salute, prevenzione dalla malattia e fruizione di tutti i servizi, né più né meno di quanto avviene per tutti gli altri cittadini, a partire dal diritto alla mobilità, alla educazione e sicurezza alimentare, all’ambiente pulito, alla istruzione sulle nuove tecnologie di servizio, alla protezione dalle nuove malattie e dai nuovi rischi.

Non si tratta però solo di welfare ed assistenza sociale, tenuto conto che una delle proiezioni economiche di maggiore interesse riguarda la Silver Economy. Questa copre numerosi settori della economia collegati alla gestione di servizi ed attività che da un lato garantiscono il rispetto di certi diritti alla componente più anziana della popolazione, salute, alimentazione, tecnologie e dall’altro inseriscono tale componente nel bilancio economico dello Stato e nella produzione del prodotto interno lordo nazionale, anche innovando rispetto alle strategie politiche adottate e portando a nuove occasioni di investimento ed a crescita dell’occupazione con la nascita di nuove figure. I settori coinvolti sono quelli a cui prima mi riferivo, sui quali l’allungamento della vita incide maggiormente: salute, prevenzione, sicurezza, educazione permanente, istruzione tecnologica, mobilità sostenibile, robotizzazione della società.

Per capire l’importanza di questo settore dell’economia è opportuno rifarsi al primo report su di esso da parte della Commissione Europea. L’età media dei cittadini europei si è allungata per due motivi, l’accresciuta longevità ed il basso tasso di natalità: passeremo da 4 cittadini in età lavorativa per uno oltre i 65 anni nel 2013 a 4 per 2 nel 2050. Un altro dato allarmante per il presente: un baby ogni 5 anziani (oltre 50 anni).

Questa medaglia ha però un’altra faccia collegata alle opportunità ed opzioni che questa situazione comporta: nuove esigenze, nuovi bisogni, nuova gestione della società, nuove competenze ed esperienze richieste.

La Silver Economy non è un mercato, ma un’economia trasversale. Se la comunità dei più anziani fosse uno stato il suo PIL sarebbe più ricco di quelli di Germania, Regno Unito e Giappone e solo secondo a quelli di Stati Uniti e Cina. In Italia un Rapporto di Confindustria illustra come gli over 75 siano dotati di conoscenze tecnologiche, di disponibilità economiche, di servizi a disposizione, di qualità della vita, di pratica sportiva impensabili 30 anni fa. La ovvia conseguenza è che queste condizioni devono essere sostenute e soddisfatte così divenendo opportunità economiche e sociali in campi diversi: dai trasporti all’energia, dall’industria alimentare alla robotica, dalla cultura alla sicurezza, dallo sport alle telecomunicazioni. Ad esempio con l’Internet delle Cose i più anziani possono essere monitorati continuamente nelle loro stesse case per gli aspetti di salute, sicurezza, alimentazione genuina, comunicazione.

A causa dell’invecchiamento medio della popolazione si rende necessaria una riorganizzazione della nostra Società rispetto ai modelli attuali di gestione, a partire dalla possibile istituzione di un Ministro della Terza Età, capace di inserire all’interno delle scelte governative la soluzione dei problemi connessi alla terza età, con particolare riferimento all’allungamento medio della vita ed alle conseguenti implicazioni sulla economia dei singoli Paesi. Attualmente soltanto 7 Paesi si sono dotati di un tale Ministero (Australia, Nuova Zelanda, Canada, Malta, Scozia, Irlanda, Galles) con il compito per esso di guardare alla popolazione più anziana come una componente alla quale devono essere garantiti servizi e salvaguardati diritti nell’interesse stesso del Paese, esattamente come avviene per le altre componenti della popolazione. Come membro del Governo e componente del Consiglio dei Ministri il Ministro dovrebbe preoccuparsi del fatto che le politiche per la terza età siano componenti di quelle più generali di competenza del Governo stesso, quindi una voce al pari delle altre. Strettamente collegato è il rilievo che questo Ministero potrà dare all’Economia della Terza Età, quale opzione ed opportunità da cogliere come spinta e supporto alla crescita ed al progresso della societa civile e della sua qualità della vita. Il neo Ministro potrebbe considerare l’invecchiamento medio della popolazione con un approccio olistico che spazi dall’educazione permanente a forme di cultura modulate sulle capacità ed abilità fisiche ed intellettive. Solo così si potrà rendere responsabile la partecipazione dei cittadini più anziani alle scelte del Paese, come avviene nel caso dei referendum, tenendo conto che si tratta in ogni caso di scelte che corrispondono complessivamente al 20% del PIL nazionale. Per il coordinamento a livello sia nazionale che locale dell’area Silver Economy con le scelte politiche dei Governi potrebbe essere prevista la istituzione di un Comitato Interministeriale degli Anziani capace di suggerire sulla base della conoscenze e dei data disponibili la migliore allocazione possibile delle risorse in relazione alle disponibilità ed alle esigenze locali e nazionali pervenendo alla proposizione di programmi chiave. Per monitorare continuamente gli aggiornamenti circa le necessità più urgenti degli anziani il Comitato dovrebbe mantenere sempre attivi i collegamenti con le Associazioni di Categoria ed i Gruppi rappresentativi di Opinione degli Anziani attraverso audit e forme di consultazione on line da estendere anche ad Associazioni presenti in altri Paesi, ma attive per le stesse finalità.

Il ruolo  di questo Comitato dovrebbe essere garantito da leggi nazionali e ne dovrebbe essere prevista la crescente importanza nella fase delle scelte. In attesa che tutto maturi rincuora vedere che c’è già Next Age, il primo programma europeo di accelerazione per start up attive nella silver economy impegnate ad ideare soluzioni innovative per gli over 50. Il programma fa parte della Rete Nazionale Acceleratori e nasce dall’iniziativa di diverse entità imprenditrici con una dotazione finanziaria complessiva di 8 milioni. Next Age avrà durata di 3 anni e tende a supportare circa 10 start up all’anno attive nella silver economy che si trovino nella fase seed e preseed tramite un percorso di 4 mesi verso la validazione dei loro modello di business ed il rafforzamento delle loro potenzialità di crescita. L’acceleratore avrà sede ad Ancona.

Il valore delle fonti rinnovabili

Vincenzo Balzani, docente emerito di Chimica, Università di Bologna

Già pubblicato su Avvenire, Bo 7, 2 aprile 2023

La nostra fonte primaria di energia è il Sole, che ci inonda di luce e calore. L’energia solare causa anche spostamenti di masse d’aria nell’atmosfera generando il vento e governa il ciclo dell’acqua. Sole, vento e acqua sono energie presenti in natura (energie primarie). L’uomo, fin dalle origini, ha cercato di procurarsi altra energia e ha scoperto che sulla terra (legno) o sottoterra (carbone, petrolio, gas naturale) ci sono materiali che la contengono. Oggi sappiamo che questo è dovuto a un processo (fotosintesi naturale) che ha imprigionato l’energia solare in quei materiali sotto forma di legami chimici (energia chimica). Con l’energia chimica è possibile accendere il fuoco, utilizzato dagli uomini primitivi per generare luce e calore e, molto più recentemente, dalla società umana per ottenere energia meccanica ed elettrica.

Da qualche decennio, però, ci siamo accorti che i combustibili fossili, così utili e così comodi, sono una risorsa non rinnovabile, generano inquinamento e, soprattutto, causano il cambiamento climatico.

Per risolvere il problema energetico, bisogna quindi tornare alle fonti primarie, le energie del Sole, del vento e dell’acqua, che sono rinnovabili, non producono sostanze inquinanti e non causano il cambiamento climatico. Perché ci sia utile, però, l’energia di queste fonti deve essere convertita nelle energie di uso finale: termica (calore), meccanica ed elettrica.

Grazie allo sviluppo della scienza e della tecnologia abbiamo inventato e realizzato dispositivi, congegni e apparati (celle fotovoltaiche, pale eoliche, dighe, ecc.) che ci permettono di convertire direttamente le energie primarie del Sole, del vento e dell’acqua in energia elettrica, che è la forma di energia di uso finale più nobile, molto più utile del calore generato dai combustibili fossili. Questo grande successo della scienza (in particolare, il fotovoltaico che converte l’energia del Sole in energia elettrica con una efficienza cento volte superiore a quella della fotosintesi naturale), ha spinto Mark Jacobson a intitolare No Miracles Needed il suo ultimo, bellissimo libro. Dall’energia elettrica, infatti, è possibile ottenere le altre forme di energia di uso finale con efficienza non lontana dal 100%, mentre la conversione del calore in energia meccanica o elettrica è tre-quattro volte meno efficiente.

Per realizzare i dispositivi capaci di generare, trasmettere, convertire e immagazzinare l’energia elettrica dobbiamo usare gli elementi chimici presenti nelle sostanze che costituiscono il nostro pianeta. Alcuni di questi elementi sono molto abbondanti (ad esempio, silicio, alluminio e ferro); altri, come il litio, che permette di costruire batterie leggere ed efficienti, sono scarsi. C’è poi un altro problema: alcuni elementi importanti sono presenti solo in certe nazioni; ad esempio, il neodimio, che è fondamentale per l’efficienza delle pale eoliche, si trova prevalentemente in Cina. La relativa scarsità e la non equa distribuzione di elementi importanti potrebbero sembrare due cattive notizie. Dobbiamo, invece, coglierle come un forte invito che ci viene dalla Terra affinché il pianeta diventi veramente, come esorta papa Francesco, la nostra casa comune, dove le nazioni collaborano e i popoli vivono in pace. Però, per far sì che questo si avveri sembra che ci voglia un vero e proprio miracolo.