25 aprile 2024

In evidenza

Claudio Della Volpe

Il 25 aprile è una data fondante della repubblica, specie oggi dopo 79 anni e con un governo che non accetta fino in fondo i presupposti di questa data; abbiamo scritto in passato molti post per ricordare cosa hanno fatto o facevano i chimici in quel 25 aprile del 1945, a partire dal più famoso, Primo Levi; ve ne linko alcuni qui sotto.

Ma penso che oggi il 25 aprile lo dobbiamo vivere ogni giorno cercando di realizzare, di mettere in pratica i principi che furono stabiliti nella Costituzione repubblicana, una di cui qualcuno ha detto che è troppo “socialista”; beh forse lo è troppo poco ed è anche sotto attacco.

Come chimico il 25 aprile per me oggi è lottare per cambiare una società nella quale  la crisi ecologica, il degrado ambientale, la distruzione della biodiversità, l’invasione di nuove molecole indistruttibili si fondono, si intrecciano con l’incremento delle differenze sociali: crescono i poveri e il lavoro povero, insufficiente a  vivere, ma buono per morire (e in tutta Europa non solo in Italia, i morti sul lavoro sono troppi) mentre i profitti e il PIL aumentano (pochi giorni fa uno dei più famosi imprenditori italiani gioiva dei profitti record del 2023 mentre la sua fabbrica, la più famosa fabbrica italiani di automobili sta per chiudere, la sua fabbrica, proprio di quell’imprenditore lì!)

La chimica è scienza centrale, ma è anche stata usata come uno dei fondamenti di questa società dell’accumulazione; nell’accumulazione c’è stato progresso, ma anche distruzione; un esempio in cui la Chimica ha svolto un ruolo centrale? La rivoluzione verde dell’agricoltura , spinta dalla chimica MA non ha risolto la fame nel mondo (chi ha fame non ha i soldi per pagare), ha prodotto un miliardo di persone obese e sovra-nutrite, ha contribuito a sovra-produrre per  alimentare animali ammassati a miliardi e mangiare tanta, troppa carne alterando irreversibilmente il ciclo dell’azoto e del fosforo, riducendo la biodiversità e trasformando la biomassa che oggi è al nostro servizio; noi e i “nostri” animali  siamo il 98% di tuti i vertebrati, la biomassa vegetale è ridotta al 50% di quella che era 10mila anni fa, gli insetti sono ridotti del 75%.

Certo la Chimica in tutto ciò è stata principalmente splendido mezzo, opportuno strumento in mano alle classi al potere. Ma anche clava e martello, un po’ si è fatta “manipolare” (“il mezzo è il messaggio”) e la Chimica è troppo bella e potente per lasciarne il controllo a chi vuole accrescere il PIL; questo è il 25 aprile per noi; ogni giorno; smetterla di accettare che mentre in natura gli organofluorurati sono una ventina di molecole, nel nostro palmares di molecole sintetiche siano invece 21 milioni; molte di queste sono indistruttibili e si accumuleranno per millenni a partire dall’acqua che beviamo e che dovremo purificare ogni volta.

Ma anche questo non lo facciamo ancora, non abbiamo ancora preso coscienza del problema; ci stiamo lavorando, stiamo discutendo ancora per mettere un limite in Europa, mentre negli USA il numero di processi di SINGOLI danneggiati stimola il governo a imporre limiti molto netti, zero in alcuni casi.

Non è questo che dobbiamo fare, aspettare che ci arrivi la moda americana del momento; non abbiamo niente da imparare, dobbiamo solo attuare la costituzione repubblicana che ci è venuta da quel 25 aprile; noi abbiamo REACH e Costituzione, muoviamoci allora; se no a che è servito il 25 aprile? (in grassetto le ultime modifiche).

Art. 9 «La Repubblica promuove lo sviluppo della cultura e la ricerca scientifica e tecnica.

Tutela il paesaggio e il patrimonio storico e artistico della Nazione.

Tutela l’ambiente, la biodiversità e gli ecosistemi, anche nell’interesse delle future generazioni. La legge dello Stato disciplina i modi e le forme di tutela degli animali».

Art. 41 L’iniziativa economica privata è libera.

Non può svolgersi in contrasto con l’utilità sociale o in modo da recare danno alla salute, all’ambiente, alla sicurezza, alla libertà, alla dignità umana.

La legge determina i programmi e i controlli opportuni perché l’attività economica pubblica e privata possa essere indirizzata e coordinata a fini sociali e ambientali».

Library Everywhere:una biblioteca per tutti

In evidenza


Seconda parte

Alfredo Di Nola*

Un progetto di volontariato sviluppato da Alfredo Di Nola, Nico Sanna** e Gianluca Sbardella***

https://www.library-everywhere.org

Nel 2017 scrissi su questo sito un post sul progetto di una biblioteca digitale pensata soprattutto per i Paesi poveri.

Avevo lungamente lavorato in Africa e in India nel settore dell’istruzione e avevo potuto constatare che la mancanza di libri di lettura era una costante. Le persone, che localmente si occupavano dell’istruzione, mi sollecitavano spesso a fornire loro un aiuto.

Come ho scritto nel post precedente, avevo alcuni dubbi etici, riguardo al colonialismo culturale, insito in questo tipo di operazione, ma poi, insieme ad altri due colleghi (Nico Sanna e Gianluca sbardella), abbiamo deciso di impegnarci.

La prima cosa che abbiamo pensato di fare è stata la costruzione di una biblioteca cartacea in una zona remota dell’India (link), presso una missione gestita da suore indiane. Per placare le nostre coscienze abbiamo lasciato che fossero loro a scegliere i libri. Era il 2010. Abbiamo progettato insieme alle suore la sistemazione di uno spazio dedicato e stabilito come e dove comprare i libri. In questo eravamo avvantaggiati dalla presenza in India di una fiorente editoria. Ci sono voluti due anni e uno sforzo economico non indifferente, per le nostre possibilità. Alla fine, nel 2012, abbiamo creato una biblioteca di 3-4 mila libri. Avevano scelto quasi tutti libri in lingua inglese e di scrittori occidentali!!!.

Eravamo soddisfatti, ma anche consapevoli che la ripetizione di una tale iniziativa era per noi impossibile. Le difficoltà sarebbero poi aumentate di molto in Paesi dove non ci fosse una industria editoriale.

Abbiamo allora pensato che una biblioteca digitale avrebbe risolto molti dei problemi, anche se ne avrebbe creati altri. Rimando al post precedente per i dettagli. Ricordo solo che era una biblioteca offline, che veniva distribuita tramite pendrive e installata in uno o più pc per la consultazione. Era composta da 1000 libri in lingua inglese e 500 in francese. Era il 2015. Nel 2016 l’abbiamo installata in due scuole in Kerala-India (link). Una ONG inglese ha provato a installarla in Sudan (credo senza successo).

Nel 2019 la abbiamo installata in 10 scuole tenute da Gesuiti nello Jharkhand-India.

In tutte queste comunità siamo stati accolti con entusiasmo. Sembrava che finalmente avessimo imbroccato una strada di successo. Ma non era così; rimanevano dei problemi non indifferenti, che dovevano essere risolti. Potrei dire che è stato un insuccesso di successo. Ma è dall’esperienza sul campo che si deve sempre partire per migliorare.

Elenco brevemente i problemi che erano ancora da risolvere:

La fruizione della Library richiedeva l’uso della sala computer. Molte comunità ne hanno una. Purtroppo però questa è dedicata a corsi di informatica e raramente disponibile come sala di lettura.

L’aggiornamento dalla Library richiede ogni volta l’invio di una pendrive e una nuova installazione.

Molti giovani dei paesi poveri studiano nella loro lingua e contemporaneamente imparano la seconda lingua ufficiale del paese (inglese, francese, ecc.), però hanno difficoltà a leggere in una lingua straniera.

I lettori digitali possono essere troppo costosi per molte comunità.

Nel 2020, grazie ai notevoli incrementi nella diffusione di internet, al miglioramento dei traduttori digitali e grazie anche al lockdown dovuto alla pandemia, abbiamo cambiato radicalmente la Library.

Ora ha queste caratteristiche:

È online, quindi non ha necessità di essere installata.

È composta da 1500 libri tradotti ciascuno in 11 lingue: Italiano, Afrikaans, Arabo, Hindi, Inglese, Francese, Portoghese, Shona, Spagnolo, Swahili e Zulu. Altre lingue si potranno aggiungere in seguito. Per la traduzione è stato usato Google Translate.

Si può consultare e leggere con pc, tablet e, cosa importante (vedi punto successivo), con smartphone.

Il problema del costo dei dispositivi di lettura può essere superato con l’uso di vecchi smartphone, non più utilizzati, ma funzionanti. Infatti, anche senza una scheda SIM, si possono collegare al nostro sito tramite WIFI. Molte persone hanno vecchi smartphone dispersi nei cassetti, che possono essere donati. Io ad esempio ne ho due. La connessione WIFI può avvenire anche tramite uno smartphone, dotato di SIM, che funge da hotspot.

La Library può essere ampliata con l’aggiunta di libri scritti e proposti direttamente dalle comunità locali.

Date queste caratteristiche l’attuale Library non richiede quindi costi di installazione e di gestione.

C’è tuttavia da notare che la traduzione, se pur accettabile, non è perfetta, ma col tempo i programmi di traduzione miglioreranno e così la Library.

In conclusione, per avere la nostra biblioteca in una comunità, anche remota, servono semplicemente un certo numero di dispositivi e un responsabile, che ne gestisca il prestito per la lettura.

In questi link riporto due brevi video di presentazione e il link al sito.

Presentazione Italiano
Tutorial Italiano

Sito Web

 *Alfredo Di Nola, alfredo@dinola.it

Alfredo Di Nola è nato a Roma ed è laureato in Fisica.

Ordinario di Chimica Fisica, presso il Dipartimento di Chimica della Sapienza-Roma (in pensione). La sua attività di ricerca è stata principalmente focalizzata nell’ambito della Chimica-Fisica teorica e computazionale, mediante simulazioni di dinamica molecolare classica e quantistica. Dal 1977 al 1989 ha tenuto corsi presso l’Università Nazionale Somala di Mogadiscio. Dal 2004, insieme a Nico Sanna e Gianluca Sbardella, si occupa di volontariato nell’ambito della diffusione della cultura.

**Nico Sanna Laureato in Chimica. Ha lavorato presso il CASPUR-Roma e presso il CINECA.
Attualmente prof. Associato di Chimica presso l’Università della Tuscia.

***Gianluca Sbardella Laureato in Chimica. Ha lavorato presso il CASPUR-Roma e presso il CINECA. È stato tecnico informatico presso l’Università Sapienza-Roma.
Attualmente è Tecnologo presso il centro di ricerca per le nanotecnologie applicate all’ingegneria del Dipartimento di Ingegneria della Sapienza-Roma.

Sostenibilità pratica.

In evidenza

Luigi Campanella, già Presidente SCI.

La sostenibilità ha cessato di essere un concetto teorico ed un po’astratto ed è divenuta parte dell’agenda dei governi, soprattutto dei Paesi più sviluppati. La sostenibilità ambientale storicamente più matura è divenuta la base di un concetto più ampio nel quale sostenibilità ambientale, economica e sociale s’intrecciano. Chi è preposto a scelte, nelle quali la componente etica gioca un ruolo non secondario, è obbligato a fare un bilancio costi benefici la cui più significativa difficoltà sta nel fatto che le sue tre componenti (economica, ambientale, sociale) rispondono a scale di valutazione non omogenee e non modulate né comparabili.

Soddisfare i bisogni della generazione presente senza compromettere quelli della generazione futura” è la definizione ufficiale di sviluppo sostenibile. Ma perché è così importante perseguire questo fine? I 17 Obiettivi di sviluppo sostenibile definiscono un nuovo modello di società, secondo criteri di maggior responsabilità in termini sociali, ambientali ed economici, finalizzati ad evitare il collasso dell’ecosistema terrestre.

La sostenibilità di recente è stata estesa al settore alimentare. L’alimentazione sostenibile è un approccio alimentare che mira ad essere rispettoso dell’ambiente e dei lavoratori nel settore alimentare L’obiettivo è creare un equilibrio tra la produzione alimentare e il massimo rispetto per l’ambiente, la salute umana e l’equità sociale. Si discute da una ventina di anni di indicatori di sostenibilità, ma per la verità con scarso successo in termini di risultati ottenuti.

Cosa sono ed a cosa servono gli indicatori di sostenibilità? Sono uno strumento atto a misurare il successo delle strategie adottate da un’azienda. Queste strategie vengono stabilite in un piano di sostenibilità aziendale e sono collegate a degli obiettivi specifici, quali, ad esempio, la riduzione dell’impronta di carbonio o dei rifiuti generati durante la produzione. Il loro impiego permette di valutare se vengano compiuti o meno progressi nella giusta direzione.

La ragione principale per cui vengono utilizzati è proprio quella di determinare se l’azienda stia raggiungendo i propri obiettivi. Qualora questo non stia avvenendo, possono essere introdotte delle misure correttive. Pertanto, gli indicatori di sostenibilità misurano le prestazioni dell’azienda e il modo in cui essa mette in atto i suoi piani. Tuttavia, è importante selezionare i parametri giusti, che siano strettamente connessi agli obiettivi proposti. Diversamente, gran parte della loro efficacia va perduta.

La questione degli indicatori è cominciata nel 2010 con le proposte di linee guida del Global Reporting Initiative (GRI). Successivamente il Sustainability Accounting Standard Board e l’Internazionalization Reporting Council hanno elaborato altri standard la cui versione ultima è etichettata UE. La critica a questi standard deriva da una definizione di sostenibilità soltanto all’interno dello spazio delimitato delle informazioni finanziarie, eliminando così ogni attenzione agli impatti ambientali e sociali interni ed esterni. Inoltre tali linee guida si basano su un approccio incrementale in termini di consumo idrico, risparmio energetico, salari, salute, sicurezza che da solo non dice nulla sulla sostenibilità in assoluto.

Un’alternativa credibile è rappresentata dell’approccio attraverso i planetary boundaries che individuano dei limiti e delle soglie oltre i quali non c’è sostenibilità. Da ciò deriva che ogni impresa per valutare una sua contabilità di sostenibilitá dovrebbe misurare l’impatto sulle risorse vitali del pianeta, come perdita di biodiversità, consumo di risorse, sistema di regolazione del clima, capacità di un bacino idrico di fornire acqua, attraverso un approccio basato su soglie.

Dal 2014 al 2021 l’UE è entrata nel dibattito sugli standard di sostenibilità con una apposita direttiva, di cui però il documento allegato tassonomico si conclude con una definizione politicizzata piuttosto che scientifica delle soglie della sostenibilità.

La sostenibilità è sempre più al centro del business. Il 59% delle imprese italiane ha istituito al proprio interno un comitato ESG (Environmental, Social and Governance), mentre un ulteriore 45% ha stabilito un obiettivo di riduzione nelle emissioni di CO2: i risultati di una ricerca congiunta di Dynamo Accademy e SDA Bocconi Sustainability LAB evidenziano chiaramente quanto fare sostenibilità in modo tangibile sia ormai parte dell’agenda dei CEO. È emersa nel tempo l’esigenza di categorizzare adeguatamente gli indicatori di sostenibilità, i quali ricadono in prima battuta in tre grandi cluster – come indicato nell’acronimo ESG.

-Indicatori di sostenibilità ambientale. Valutano il successo delle iniziative che mirano ad eliminare l’impatto delle attività di business sull’ecosistema: tra essi si annoverano la misura della quantità di acqua consumata, l’impronta di carbonio, le emissioni di anidride carbonica registrate per produrre un certo bene.

-Indicatori di sostenibilità sociale. Misurano le modalità con cui l’impresa si interfaccia con la società e/o la comunità in cui opera, analizzandone l’impatto su diversi gruppi di individui come dipendenti, fornitori e stakeholder; questo set di indicatori si concentra su temi come la parità di genere, la diversità e l’inclusione in azienda, così come la qualità e la salubrità dell’ambiente di lavoro. 

-Indicatori di sostenibilità di governance. Analizzano etica, correttezza e trasparenza del governo societario a più livelli, prestando attenzione anche alla compliance normativa.  

Negli ultimi anni, si è assistito ad ulteriori tentativi di sistematizzazione degli indicatori di sostenibilità. Ad esempio un rapporto di SDA Bocconi ha raggruppato gli indicatori di carattere ambientale in tre macrocategorie:

-Indicatori di Performance Operativa (OPI), che si focalizzano sia sugli input di produzione (materiali, energia e acqua) che su impianti, attrezzature, logistica e output (prodotti e servizi, rifiuti, reflui ed emissioni).  

-Indicatori di Performance Gestionale (MPI), i quali forniscono informazioni sulla capacità del management di incidere sulle performance delle attività aziendali rispetto all’ambiente. 

-Indicatori di Performance Ambientale (ECI), che si concentrano sullo stato dell’ecosistema in cui agisce l’impresa e sono più rivolti all’esterno verso le comunità locali e gli stakeholder in generale. Il riferimento, ad esempio, è alle concentrazioni di agenti inquinanti nel suolo e nelle acque e ai danni potenziali causati da certi tipi di emissioni. 

In questa prospettiva è essenziale misurare i risultati raggiunti, così da correggere rapidamente eventuali errori di strategia ed elaborare al meglio i progetti futuri: ogni azienda che oggi desidera adottare pratiche volte alla sostenibilità dei processi produttivi e all’economia circolare, può valutare le sue performance affidandosi agli indicatori di sostenibilità, ovvero ai parametri oggettivi che sono in grado di restituire, internamente ed esternamente, una fotografia dell’approccio sostenibile dell’azienda e guidare così l’analisi e i processi decisionali. 

Costruzione e decostruzione di una disciplina scientifica

In evidenza

Alessandro Maria Morelli

Il confronto in atto tra biochimici mi stimola a formulare alcune osservazioni sulle più evidenti criticità che penalizzano la ricerca scientifica. Dovrebbe essere libera, come recitano più articoli della Costituzione italiana: “La Repubblica promuove lo sviluppo della cultura e la ricerca scientifica e tecnica”, art. 9; “L’arte e la scienza sono libere e libero ne è l’insegnamento”, art 33.

Invece la ricerca scientifica è sottoposta e limitata fortemente da un organismo creato ad hoc, l’ANVUR, che di fatto immobilizza la ricerca. Come mai solo l’attività della ricerca è sottoposta a così rigidi controlli? L’attività economica, per esempio non lo è. Anche l’arte non è soggetta a valutazioni governative della qualità. Solo la ricerca deve sottostare ad un organismo di controllo costituito in prevalenza da burocrati della ricerca, ovvero soggetti che non tengono conto delle seguenti proprietà che valorizzano la ricerca:

  1.  Ricerca vuol dire fare delle scoperte. Trovo che spesso questa intrinseca finalità della ricerca scientifica viene dimenticata. Nella pratica un ricercatore si deve muovere tra i paletti fissati dallo “stato dell’arte” e se trova qualcosa di nuovo deve opportunamente nasconderlo perché non previsto dai progetti di finanziamento. Oggi al ricercatore viene chiesto di attenersi ai protocolli. Ridicolo poi che gli venga anche chiesto quali sono i risultati previsti, una domanda insulsa. Perché la ricerca sarà tanto più valida quanto più risultati “non attesi” avrà.
  2. Si dà troppo credito alle citazioni. Se ci pensiamo bene il citare il lavoro di altri significa stare fermi. Idealmente un lavoro che non porta referenze vuol significare che ha fatto delle scoperte. Ovvero esiste un rapporto di reciprocità inversa tra numero delle referenze e valore di una pubblicazione scientifica. Il paper storico di Watson & Crick su Nature del 25 aprile 1953 riportava solo 6 citazioni e la prima era la confutazione delle tripla elica del DNA proposta e pubblicata dal famosissimo Linus Pauling, il padre del legame covalente, autorità assoluta per la chimica, già in odore di Nobel (che infatti gli fu attribuito l’anno successivo, nel1954). Eppure i 2 sconosciuti e giovanissimi Watson & Crick si permisero di umiliare Pauling dicendo in pratica che aveva visto lucciole per lanterne, perché le macchie nella lastra fotografica proveniente dalla diffrazione a raggi X valutata da Pauling quale indicatore della struttura a tripla elica del DNA, in realtà era dovuta ai sali. 
  3. Noi vediamo solo quello che in filigrana esiste già nella nostra mente. Questo deriva dalla filosofia di Immanuel Kant, mi sembra. Quindi quanto più siamo preparati su un dato argomento, e tanto meno possiamo accogliere una novità perché non fa parte delle nostre categorie mentali. Cioè noi vediamo solo quello che in filigrana è già presente nel nostro cervello per cui siamo naturalmente portati a rifiutare una scoperta perché la consideriamo un inciampo. E la configurazione di queste categorie mentali è in gran parte dovuta ai nostri studi. Più studiamo e più siamo portati a scartare quello che non rientra nei nostri schemi, schemi che si sono consolidati con lo studio e con l’insegnamento.
  4. Una ricerca perde di forza con la “specializzazione”. Molti ambiti della ricerca sono innescati da una osservazione originale al quale seguono tanti interventi che tendono ad enfatizzare la scoperta iniziale. Con il passare del tempo si perde l’ansia di effettuare altre scoperte perché i partecipanti a queste ricerche si specializzano in quell’argomento e quindi nasce la “disciplina” e gli scienziati sono sempre meno recettivi nei confronti delle novità e accade che la tematica non va avanti perché non tiene conto delle anomalie che inevitabilmente emergono.  In altre parole non può nascere un senso critico se l’analisi viene portata avanti con gli stessi criteri che hanno fatta nascere un circoscritto ambito di conoscenze, alias disciplina. Per cui sarà fruttuosa una opera di decostruzione della disciplina stessa, seguendo le indicazioni di George Derrida, il padre del decostruzionismo.

Concludo invitando tutti gli operatori in ambito scientifico a cercare meno sicurezze e garanzie protocollari a sostegno dell’attività della ricerca. La ricerca vuol dire rischio, ed è necessario avere il coraggio di percorrere strade poco battute, come ci ha ricordato Rita Levi Montalcini. Rischio che può essere anche fatale, come testimoniato da Francis Bacon, Madame Curie, Rosalinda Franklin ed altri. Chi vuole fare lo scienziato deve essere disposto a considerare l’ansia per la scoperta come una ferita che non si cicatrizza mai.

Da leggere anche

Due storie su cui riflettere.

In evidenza

Mauro Icardi

Le due storie che voglio raccontare potrebbero essere viste come storie che gettano ombre sulla chimica. Invece ci si accorge subito che, come per ogni altro disastro ambientale, sono storie che hanno come denominatore comune il profitto ricercato ad ogni costo; economizzando in maniera scellerata sulle più elementari misure di sicurezza e igiene del lavoro. Di queste brutte storie sentivo parlare quand’ero ragazzo, perché erano vicine anche geograficamente. Cengio non era poi così distante da Mombaruzzo, il paese dei nonni, e Ciriè era ancora più vicina a Settimo Torinese dove ho vissuto. Sono le storie dell’ACNA e dell’IPCA.

L’ACNA nasce nel 1882 e inizialmente si chiama Dinamitificio Barbieri. Nel 1891 la fabbrica diventa SIPE – Società Italiana Prodotti Esplodenti e ha un forte sviluppo. L’area della fabbrica occupa nel 1908 mezzo milione di m² con una produzione di 14.000 Kg al giorno di acido nitrico, 13.000 di oleum (acido solforico fumante) e 2.500 di tritolo. L’impatto sull’ambiente è da subito devastante. Già nel 1909 si arriva a dover vietare l’utilizzo di qualsiasi pozzo che si trovi a valle dello stabilimento. I comuni toccati da questa direttiva sono quelli di Saliceto, Camerana e Monesiglio.  Ma il numero di persone impiegate continua a crescere e negli anni della prima guerra mondiale sono 6000 le persone che vi lavorano. Dopo il primo conflitto mondiale lo stabilimento passa di mano altre due volte, rilevato prima da Italgas per essere riconvertito alla produzione di coloranti tessili insieme agli impianti di Rho e Cesano Maderno.

 Nel 1929 nasce ACNA – Aziende Chimiche Nazionali Associate ; ma nel 1931 la fabbrica passa in mano alla Montecatini e alla IG Farben mantenendo l’acronimo con un significato diverso: Azienda Coloranti Nazionali e Affini. Con le guerre in Abissinia e in Eritrea viene ripresa anche la produzione di esplosivi e gas tossici. Questi ultimi verranno usati anche contro le popolazioni civili e le tende della Croce Rossa, in completo spregio delle convenzioni internazionali che ne vietavano l’uso. Pagina non edificante della nostra storia; da sempre rimossa e di cui si parla poco, e quando se ne parla traspare più fastidio che imbarazzo o vergogna. Negli anni del secondo dopoguerra anche lo scrittore Beppe Fenoglio, nel racconto Un giorno di fuoco, scritto nel 1954 e pubblicato nello stesso anno nella rivista Paragone, descrive e denuncia il degrado ambientale che sarebbe divenuto ancora più grave negli anni a venire: “Hai mai visto Bormida? Ha l’acqua color del sangue raggrumato, perché porta via i rifiuti delle fabbriche di Cengio e sulle sue rive non cresce più un filo d’erba. Un’acqua più porca e avvelenata, che ti mette freddo nel midollo, specie a vederla di notte sotto la luna.”

 I contadini della Val Bormida citeranno in giudizio la fabbrica già nel 1938, ma tutto finirà nel 1962 in una sconfitta legale. Ovvero oltre al danno la beffa: gli agricoltori saranno condannati al pagamento delle spese processuali. Ma intanto a fine anni 60 le acque del Bormida si tingevano di UN colore diverso ogni giorno. Nello stesso periodo viene chiuso l’acquedotto di Strevi, e il sindaco di Aqui Terme sporge una denuncia contro ignoti per l’avvelenamento delle acque destinate al consumo umano.

Nel 1974 viene iniziata un’azione penale contro 4 dirigenti dell’ACNA, che però verranno assolti 4 anni dopo. Il 1976 è l’anno in cui viene emanata la legge Merli e qualcosa finalmente si muove, non solo in Val Bormida ma anche nel resto d’Italia. Ma le cronache relative alla gestione dell’ACNA parlano di operazioni che hanno dell’incredibile: rifiuti stoccati illegalmente in buche nel terreno. Nel 2000 la Commissione Parlamentare d’inchiesta sui rifiuti accerterà che una quantità di rifiuti dell’ACNA pari a 800 mila tonnellate è stata smaltita illegalmente nella discarica di Pianura, in provincia di Napoli. Bisognerà attendere il 1999 quando l’ACNA verrà chiusa dopo altre decine di proteste, blocchi stradali, l’interruzione di una tappa del Giro d’Italia nel 1988.

L’ACNA rientrerà nei siti di interesse nazionale per le bonifiche, e la bonifica stessa verrà dichiarata conclusa. L’investimento in totale ammonterà  di 51 milioni di euro.(1)

La seconda storia è quella dell’IPCA di Ciriè. Gli operai che vi lavoravano erano soprannominati “pisabrut”

Il nomignolo stava ad indicare un’urina brutta, perché chi lavorava in quella fabbrica si ritrovava inesorabilmente a urinare “rosso”. Tutto ciò era il preludio di una malattia che avrebbe portato alla inesorabile e dolorosa morte di 168 dipendenti.

La Società Anonima Industria Piemontese dei Coloranti all’Anilina (IPCA s.a.), fu fondata nel 1922 dai fratelli Sereno e Alfredo Ghisotti; nei pressi di Cirié essi individuarono un’area adatta alla fabbricazione di coloranti all’anilina, un tipo di produzione fino a quel momento assente in Italia.

I successi commerciali dovuti alla concorrenzialità dei prodotti IPCA rispetto a quelli delle ditte estere, si ottennero riducendo in maniera considerevole i costi di produzione mediante un metodo di lavorazione obsoleto e altamente nocivo per gli addetti ai lavori.

Nel ’56 la Camera del Lavoro di Torino descriveva la fabbrica in questo modo: “L’ambiente è altamente nocivo, i reparti di lavorazione sono in pessime condizioni e rendono estremamente gravose le condizioni stesse del lavoro. I lavoratori vengono trasformati in autentiche maschere irriconoscibili. Sui loro volti si posa una pasta multicolore, vischiosa, con colori nauseabondi e, a lungo andare, la stessa epidermide assume disgustose colorazioni dove si aggiungono irritazioni esterne”.

È così che veniva descritta l’IPCA di Ciriè, a metà dello scorso secolo.  La produzione di pigmenti a base di ammine aromatiche la cui pericolosità era stata descritta fin dal 1895 dal chirurgo tedesco Ludwig Rehn.

Si racconta che un medico, che lavorava nella fabbrica e che doveva occuparsi della salute dei dipendenti, consigliava agli operai che urinavano rosso di bere meno vino e più latte. Nel 1972  due operai ex lavoratori dell’IPCA, Albino Stella e Benito Franza presentano una denuncia contro l’azienda.  Ecco alcune testimonianze scaturite durante il processo: “Gli operai usano tute di lana (che si procurano in proprio perché il padrone non fornisce niente) in quanto la lana è l’unico tessuto che assorbe gli acidi senza bruciarsi… anche i piedi li avvolgevamo in stracci di lana, e portavamo tutti zoccoli di legno, altrimenti con le scarpe normali ci ustionavamo i piedi.”

 “Quelli che lavorano ai mulini dove vengono macinati i colori orinano della stessa tinta dei colori lavorati (blu, giallo, viola, ecc.) fin quando non si comincia ad orinare sangue“.

“Quando lavoravo lì, c’era un paio di guanti in tutto per sei persone addette. Mi sono bruciato parecchie volte e ho ancora le cicatrici sulle mani“.

“I colori e gli acidi che si sprigionano corrodono tutto, anche le putrelle del soffitto sono tutte corrose; figuriamoci i nostri polmoni, il nostro fegato, le nostre vie urinarie“.

“In tutta la fabbrica ci sono solo alcuni aspiratori collocati sopra i tini dove viene fatto cuocere il materiale, ma non aspirano tutto. Evitano soltanto che si muoia subito e ci permettono di morire con un po’ più di calma.”

 In seguito a questa vicenda e alle mutate condizioni di competitività commerciale, l’IPCA fallì e cessò definitivamente l’attività nell’agosto del 1982.

Queste sono due storie di cui leggevo il dipanarsi delle vicende sul quotidiano “La Stampa” che mio padre comprava tre volte alla settimana. Sentivo parlare e discutere parenti, amici, e conoscenti. Ho conosciuto anche ragazzi rimasti orfani, perché il loro papà ad un certo punto faceva la pipì “brutta”. E poi moriva.

Da queste storie si evince come non sia del tutto corretto additare la sola chimica come la responsabile di queste storie drammatiche e cariche di sofferenze.

Nei miei primi anni di lavoro ho visto, pesato, ricevuto e trattato i fusti di fanghi della Stoppani di Cogoleto c sui quali eseguivamo il trattamento di riduzione del Cr(VI)  contenuto nei fanghi a Cr(III).  Si lavorava indossando i DPI, eseguendo le visite periodiche e utilizzando cautela, prudenza e buon senso. In quegli anni ho percepito che poteva e doveva esserci un’altra chimica, la chimica che trova le soluzioni per la tutela ambientale. E mi domandavo come fosse stato possibile che un imprenditore, un dirigente, un funzionario potesse dormire la notte, sapendo i rischi a cui deliberatamente sottoponeva i lavoratori

E alla fine il ragionamento porta sempre alla stessa conclusione. È il profitto, la crescita incontrollata, l’incapacità di concepire un modo diverso di lavorare e di vivere, più che la chimica, la metallurgia o qualsiasi altra tecnologia o scienza a metterci nei guai. È la nostra superbia, la pretesa sciocca di poter disporre a piacimento del pianeta e delle risorse. E anche della vita di persone che avevano semplicemente la necessità di portare uno stipendio a casa. La chimica, sin dalle sue origini, si è sempre trovata al centro dell’attenzione, perché le sue ricadute pratiche si sono dimostrate di vitale importanza. E da sempre il difficile equilibrio tra i benefici e i rischi è al centro di un dibattito serrato. Il dibattito unitamente alla ricerca devono continuare. Ma potrebbero non bastare se il profitto rimane l’unica cosa che importa, che sovrasta ogni altra cosa. Anche la nostra umanità se il denaro finisce per diventare un fine ultimo, piuttosto che un mezzo di sostentamento. E queste purtroppo non sono le uniche storie, ma sono quelle che ricordo con un immutato senso di sgomento e tristezza.

  • Dato ricavato dal sito del Ministero dell’ambiente e della sicurezza energetica, sezione anagrafica dei siti contaminati.

Microrganismi e biocidi in conceria

In evidenza

Biagio Naviglio

Conservazione delle pelli grezze

Quando la pelle viene separata dal corpo dell’animale costituisce la spoglia o pelle grezza, materia prima dell’industria conciaria; con la rimozione della pelle dell’animale hanno inizio i processi naturali di putrefazione per cui è necessario sottoporre la pelle fresca ad opportuni trattamenti che impedendo i processi di decomposizione ne consentano la conservazione fino al momento della lavorazione in conceria. Infatti, la popolazione microbiologica degli animali in vita è tenuta sotto controllo dalla loro immunità naturale e dalle numerose barriere di resistenza fisica e metabolica che essi possiedono. Non appena, però, l’animale muore, cessano tutti i processi vitali e non vi è più alcuna resistenza allo sviluppo dei numerosi microrganismi presenti. Per la pelle grezza, materia prima dell’industria conciaria, ha inizio da questo momento l’importanza del controllo di muffe e batteri che durerà per tutto il periodo della conservazione e della lavorazione, onde evitare che l’azione deteriorante, causata da questi microrganismi, alteri le caratteristiche chimiche, fisiche e l’aspetto estetico della pelle finita/cuoio.

Per prevenire la biodegradazione, nell’arco di tempo che intercorre dalla scuoiatura all’inizio delle operazioni di trasformazione della pelle in cuoio, è necessario provvedere ad un’adeguata conservazione della pelle grezza, considerando anche che quasi sempre le pelli vengono lavorate in luoghi distanti dalle zone di produzione.

In questa fase, gli effetti dello sviluppo microbiologico da parte dei batteri proteolitici per una inadeguata conservazione, si possono manifestare sia attraverso la formazione di maleodoranze sia producendo dei danni meccanici/estetici alle pelli; i batteri proteolitici attaccano le proteine della pelle, in condizioni favorevoli di umidità, temperatura, pH ed altri fattori ambientali. Le reazioni chimiche avanzano fino alla degradazione degli amminoacidi in una varietà di prodotti degradativi, e possono essere così semplificate:

Il segno di un attacco batterico in atto è facilmente riconoscibile sia dall’odore pungente dell’ammoniaca prodotta sia dall’osservare la facilità con cui si può asportare il pelo, fenomeno noto come “Riscaldo”: putrefazione della pelle rilevata da una prematura perdita di pelo; quando il fenomeno è in fase avanzata sul cuoio finito è possibile osservare segni di abrasione del fiore con perdita della sua naturale lucentezza.

Inoltre, l’azione dei batteri sulle pelli può provocare la perdita di sostanza dermica con la conseguente formazione di danni meccanici come, ad esempio, la presenza di piccoli «crateri» sulla superficie (figura 1) oppure di buchi (figura 2)

Figura 1: Danno (“cratere”) da attacco batterico visibile sulla pelle

Figura 2: Buchi dovuti ad attacco batterico

La conservazione delle pelli grezze, in particolare quelle bovine, viene effettuata mediante salatura; tale trattamento consiste sostanzialmente nel saturare la pelle con sale comune (cloruro sodico) in modo da determinare, all’interno della pelle stessa, condizioni incompatibili con l’attività di batteri e microrganismi in genere. Il principio della salatura è basato sulla perdita dell’acqua per limitare la crescita microbica. Quando il sale viene distribuito sulla pelle fresca il contenuto iniziale di umidità pari a ca. 60-70% viene ridotto a 15-20%

Processo produttivo

La concia, generalmente, viene definita come un trattamento che consente di trasformare la pelle animale da materiale putrescibile in materiale imputrescibile conservandone la struttura naturale fibrosa e conferendo proprietà chimico-fisiche che la rendono adatta all’uso cui è destinata.

Tuttavia, il cuoio finito, conciato al cromo, al vegetale o altro, resta pur sempre un materiale sostanzialmente organico e, in particolari condizioni ambientali, può essere attaccato da microrganismi come le muffe e danneggiato in misura più o meno evidente.

La trasformazione della pelle grezza in cuoio, dalla scuoiatura al prodotto finito, prevede numerose fasi e soste nel corso delle quali le proteine della pelle possono essere anche rapidamente attaccate e distrutte da agenti biologici.

Ecco, quindi, la necessità di proteggere la pelle con processi di conservazione subito dopo la scuoiatura o nel rinverdimento quando questa sensibilità è massima, ma anche nel corso delle altre varie fasi della lavorazione quando, per motivi tecnologici o commerciali, le pelli devono sostare a lungo in uno stato semilavorato.

La presenza di un elevato contenuto di acqua, infatti, rende queste pelli ugualmente sensibili ad un attacco biologico nonostante che le condizioni del loro stato (pH basso, elevata concentrazione di sale, presenza di cromo legato e libero) siano tali da conferire loro una certa protezione.

Le pelli allo stato semiterminato (esempio, allo stato piclato* e/o wet-blue**) hanno una resistenza all’attacco biologico notevolmente maggiore della pelle fresca e tuttavia quando debbono essere conservate in tale stato per periodi piuttosto lunghi, richiedono l’impiego di preservanti per aumentare la resistenza all’attacco di batteri e muffe.

Molti microrganismi si trovano associati alla pelle ed al cuoio in virtù della loro capacità di utilizzare questi materiali come fonti di nutrimento; infatti, questi, sono prodotti organici costituiti da carbonio, azoto, ossigeno, idrogeno e minerali indispensabili per lo sviluppo dei microrganismi. Gli studi fin ora effettuati hanno rivelato, infatti, una grandissima varietà di microrganismi associati all’industria conciaria, quali batteri, muffe, ecc.

La tipologia e la quantità di microflora presente nei processi di lavorazione varia con i fattori ambientali, quali pH, temperatura, attività dell’acqua, concentrazione di biocidi, etc.

Nelle prime fasi di lavorazione del processo conciario (rinverdimento, calcinaio, decalcinazione-macerazione), in condizioni di pH alcalino, i batteri giocano un ruolo predominante.

Le muffe, invece, che sopravvivono in condizioni di bassi valori di pH, sono prevalentemente associate  ai processi di piclaggio e di concia, data l’estrema acidità presente in queste fasi (pH 2-3)

I Batteri sono microrganismi unicellulari procarioti, delimitati da una parete cellulare sotto cui è presente la membrana cellulare, il loro DNA appare costituito da un unico e lunghissimo filamento che forma una struttura circolare.

A seconda della loro forma, distinguiamo i batteri in cocchi (di forma sferica), bacilli (di forma cilindrica), vibrioni (a forma di virgola), spirilli (a forma spirale) e spirochete (a forma sinusoidale con più curve) come evidenziato in figura 3.

Figura 3: Microrganismi – Batteri

Con il nome di muffe vengono indicate varie specie di funghi aventi un micelio di aspetto filamentoso; alcuni di questi funghi appartengono ai Ficomiceti, altri agli Ascomiceti.

I funghi si sviluppano su molte sostanze organiche animali e vegetali: sul legno, sulla carta, sul cuoio, sulle stoffe, sulle sostanze alimentari. Le muffe sono organismi pluricellulari.

Le muffe del genere Penicillium e Aspergillus (Funghi Ascomiceti) si trovano spesso su pelli piclate (pelli trattate con sale e acido) e wet-blue (pelli conciate al cromo allo stato bagnato). In Figura 4 è riportata, a titolo di esempio, una fotografia di un cuoio di origine bovina allo stato wet-blue caratterizzato da una notevole presenza di muffe.

Figura 4: Pelle wet-blue con presenza di muffe

Tipici biocidi/conservanti in conceria

  • Composti fenolici (paraclorometacresolo, ortofenilfenolo, ecc.)
  • Composti eterociclici/organosolforati (tiocianometilbenzotiazolo, metilenbistiocianato, octilisotiazolinone, ecc.)

Biocidi a base fenolica

I composti a base fenolica agiscono principalmente denaturando le proteine cellulari e danneggiando le membrane cellulari

Biocidi eterociclici: composti solforati

Il modo di azione dei composti TCMTB e MBT è quello di inattivare il trasferimento di elettroni nei citocromi, inibendo il sistema respiratorio; l’isotiazolone (OIT),invece, agisce inibendo la sintesi delle macromolecole essenziali : DNA, proteine, ecc.

L’efficacia del TCMTB è dovuta alla presenza del gruppo tiocianato che reagisce con i gruppi sulfidrici del sistema enzimatico oppure causa la disattivazione dei complessi metallo-enzima mediante attività chelante, inibendo cosi la reazione enzimatica ed interrompendo il rifornimento energetico alla cellula (nutrimento) pregiudicandone quindi la sua sopravvivenza.

I biocidi/preservanti sono, spesso, regolamentati anche nei capitolati redatti dalle case di moda (Burberry, Kering, Louis Vuitton, ecc.) insieme ad altre sostanze come la formaldeide, il cromo esavalente, gli azocoloranti che per scissione idrolitica liberano le ammine aromatiche vietate e così via. Un esempio di requisiti, relativi ai cinturini di orologi in cuoio, richiesti da noti Brand circa i biocidi/preservanti è riportato in tabella 1.

Tabella 1: Esempio di una lista di sostanze ristrette previste in alcuni capitolati di noti Brand- Product Restricted Substances List (PRSL)- Biocidi

In generale, per gli articoli in cuoio a diretto contatto con la cute, come ad esempio i cinturini da orologio, sono previsti dei limiti per taluni allergeni tipo formaldeide, cromo esavalente, ecc. Nell’ambito REACH, il regolamento UE 301/14 prevede un limite per il cromo esavalente di 3 ppm; tale restrizione riguarda il rischio di sensibilizzazione cutanea indotto dal contatto della cute con articoli in cuoio.

Bibliografia

  1. Naviglio B., Aveta R., Comite G., Batteri e muffe nell’industria conciaria: Identificazione, cause e prevenzione dei danni, Cuoio, Pelli e Materie Concianti (CPMC), 79 (2), 93 (2003)
  • Naviglio B., Microrganismi e trattamento antimicrobico del cuoio, Seminario Associazione Italiana Chimici Cuoio (AICC), Solofra, 28 ottobre 2022
  • Naviglio B., Gambicorti T., Caracciolo D., Calvanese G., Aveta R., Caratteristiche dei residui solidi da conce wet-white/metal free, 46° Convegno Nazionale AICC, 8 giugno 2018, Castelfranco di Sotto (PI)
  • Testi P., Pelli grezze: Caratteristiche e difetti, incontro formativo AICC, 2023
  • PFI – Germany, Preservatives in Leather Production,  Research Project

* Prima di essere conciata la pelle deve essere sottoposta ad una fase di lavorazione denominata piclaggio; questa operazione consiste nel trattare la pelle con un bagno contenente sale (cloruro sodico) ed acido (acido solforico e formico). La pelle piclata ( pelle che ha subito le prime fasi di lavorazione atte ad eliminare l’epidermide) può, talvolta, essere commercializzata anche in questo stato (stato piclato).

** wet-blue: trattasi di una pelle conciata al cromo in condizioni umide; anche in questo caso, la pelle conciata al cromo può essere commercializzata allo stato wet-blue.

Dal caffè al cioccolato.

In evidenza

Claudio Della Volpe

In tempi pasquali il post sulla caffeina mi ha stimolato ad estendere la discussione al cacao; e questo per due motivi.

Non solo nel cacao c’è la caffeina, ma c’è anche dell’altro, altre metilxantine che hanno effetti simili.

Vediamo un po’ meglio.

La caffeina viene metabolizzata nel nostro organismo e si trasforma in almeno altre tre xantine che vedete qui sotto:

La caffeina viene metabolizzata nel nostro fegato da un sistema enzimatico multipotente denominato citocromo P450 o anche CYP450, un enzima, o meglio sarebbe dire, una famiglia di enzimi presenti nell’uomo e in tantissime altre specie viventi con lo scopo di funzionare da ossidasi, ossia detossificare l’organismo per esempio da molecole estranee come i farmaci; ce ne sono decine di tipi diversi in ciascuno di noi e in quantità diverse, cosa che potrebbe spiegare la diversa velocità di metabolizzazione dei farmaci nelle persone (ne abbiamo parlato a proposito dell’effetto pompelmo).

Nel solo uomo sono state censite almeno una sessantina di iso-forme del citocromo in questione codificate da geni diversi e che dunque interagiscono fra di loro nel liberarci di molecole più o meno sgradite.

Tornando alla caffeina vedrete che possiede tre gruppi metilici sui tre azoti e dunque è una tri-metilxantina; il fegato la trasforma nelle tre di-metilxantine mostrate in figura, ciascuna delle quali dotata a sua volta di proprietà analoghe. Il CYP450 la demetila.

Le due dimetilxantine sulla destra sono a loro volta presenti in natura come tali, la prima nei semi cacao e la seconda nelle foglie del té.

Dunque quando parliamo di caffeina dovremmo parlare più opportunamente di sistema metil-xantinico che ci produce i noti effetti stimolanti; ma attenzione a questo punto, specie in periodo pasquale sarebbe d’uopo notare che il cioccolato, prodotto a partire dal cacao contiene non solo la caffeina, ma anche la teobromina, dunque se al pupo rifiutiamo il caffè sarebbe ovvio chiedersi quanta caffeina e teobromina gli forniamo tramite il cioccolato.

La risposta è interessante; anche nel cioccolato al latte la presenza di caffeina e di teobromina è significativa.

Mentre nel cosiddetto cioccolato bianco non c’è cacao, ma solo burro di cacao, ossia il grasso presente nel cacao stesso, ma privo delle componenti che ci interessano (per esempio le caramelle Galak sono fatte di burro di cacao), man mano che saliamo con la percentuale di cacao nel cioccolato cresce anche la percentuale di caffeina e di teobromina; dunque nel favoloso cioccolato fondente amaro al 99% ne avremo il massimo.

Gli effetti stimolanti del cacao sono legati proprio alla presenza di teobromina (contenuta in misura del 2% circa), congiuntamente alla caffeina (0,6-0,8%).

Di conseguenza, in una barretta al cioccolato fondente da 100 grammi, ritroviamo 600-1800 mg di teobromina e 20-60 mg di caffeina. Si tratta comunque di valori generali, che possono variare – anche considerevolmente – in relazione al tipo di semi, alle tecniche colturali e al processo di fermentazione a cui vengono sottoposti prima di essere torrefatti.

https://www.my-personaltrainer.it/integratori/teobromina.htm

In sostanza 100 grammi di cioccolato non sono meno potenti come stimolante di una tazza di caffè espresso o di una tazzona di caffè americano; ma forse più piacevoli.

La teobromina, teniamo presente, è una decina di volte meno efficace della caffeina come stimolante; comunque parte dell’eccitazione pasquale (spesso postprandiale) del pupo (o della pupa) viene certamente dalle dosi significative di metilxantine somministrate.

Un aspetto sempre familiare ma non bambinesco di questo discorso dipende dalla presenza di animali da compagnia, cani e gatti principalmente.

Ora i suddetti soggetti, amatissimi in famiglia, vengono spesso trattati alla pari dei bambini e dunque non gli si negherà un po’ di cioccolato: errore gravissimo!

E già perché il metabolismo delle suddette fonti di metilxantine non è altrettanto veloce nei cani e gatti e dunque esse rimangono in circolo più a lungo con effetti fortemente indesiderati; in sostanza il cioccolato è TOSSICO per cani e gatti e NON glielo si deve somministrare in alcun modo.

Il gatto ancor più del cane è sensibile a questo tipo di intossicazione anche perché è più piccolo e dunque a parità di dose totale ingurgitata gli effetti possono essere molto seri.

Ricordatelo.

L’altra cosa che ricorderei, soprattutto per esperienza personale (ma che non mi impedisce di essere un consumatore obbligato di cioccolato fondente, sarei dunque un “cioco-olico”) è la presenza nel metabolismo del cioccolato di ossalati, i quali a loro volta contribuiscono alla formazione di calcoli renali; dunque attenti al cioccolato se avete calcoli o indizi della loro presenza.

Tra gli antiossidanti presenti nel cacao vi sono anche l’epicatechina, un flavonoide che contribuisce al rilassamento dei vasi sanguigni e al rafforzamento delle capacità antiossidanti totali del sangue, e i polifenoli che svolgono un ruolo protettivo nei confronti del sistema cardiovascolare e del metabolismo, oltre a migliorare la circolazione nel sangue.

Nonostante si tratti di un alimento ricco di sostanze “benefiche” per la salute, è sempre importante consumarlo con moderazione e nelle giuste quantità, senza lasciarsi andare agli eccessi. I LARN, Livelli di Assunzione di Riferimento di Nutrienti ed energia per la popolazione italiana (IV revisione), consigliano una porzione media di 30 g per un consumo sporadico. Per chi desidera consumare cioccolato fondente ogni giorno, invece, la quantità è compresa tra i 5 e i 15 g.

(noto di passaggio che le catechine sono composti incolori che si ossidano facilmente, dando origine a imbrunimenti (per esempio nei vini) e sono astringenti, cioè fanno precipitare delle proteine della saliva facendo sentire il palato ruvido (come succede mangiando frutta acerba)).

Già. Ma questo continua a non spiegare come mai il cioccolato ci attragga tanto e ci dia quella particolare sensazione di benessere, che è evidentemente un effetto a livello di SNC.

Ci sono vari indizi interessanti.

Forse la spiegazione dipende dal fatto che il cioccolato contiene un certo numero di sostanze psicoattive, fra le quali troviamo: anandamide, tiramina e feniletilammina.

L’anandamide è un endocannabinoide, un neuro-modulatore che mima gli effetti dei composti psicoattivi presenti nella cannabis, noti come cannabinoidi. Questo composto, il cui nome deriva dal sanscrito “ānanda”, beatitudine interiore, è stato isolato e caratterizzato dal chimico ceco Lumír Ondřej Hanuš e dal farmacologo americano William Anthony Devane nel 1992.

(da wikipedia)

L’anandamide viene metabolizzato velocemente da un enzima denominato in sigla FAAH (Fat Acid Amide Hydrolase) che a sua volta viene inibito da altre sostanza come i polifenoli; nel cacao (specie se poco trattato e ricco di polifenoli) troviamo la giusta combinazione di anandamide e inibitori della sua distruzione nell’organismo, così da potenziarne gli effetti piacevoli.

Dato che il cacao fondente crudo, contiene circa 0,5 microgrammi/grammo di Anandammide, ed è anche una delle fonti vegetali più ricche di polifenoli, forse per questo gli antichi Aztechi chiamavano il cioccolato “cibo degli dei”.

Quanto rimane di questo meccanismo nel comune cioccolato?

Tiramina e feniletilammina a loro volta possono avere effetti potenti.

La feniletilammina (PEA) in particolare è presente nel cacao (specie nella varietà Criollo); si tratta di un ormone naturale prodotto anche dal nostro cervello.

I livelli di PEA sarebbero significativamente più alti nel cervello delle persone innamorate, svolgendo un ruolo chiave nel fenomeno conosciuto come “colpo di fulmine”. Inoltre, la sua produzione aumenta in seguito a uno sforzo fisico, spiegando l’effetto benefico sull’umore derivante dall’attività sportiva. La carenza di PEA è riscontrata nel 60% delle persone depresse, ma l’integrazione di questa sostanza ha dimostrato di alleviare i sintomi depressivi nel 60% dei pazienti.

Tuttavia se si cerca di documentarsi meglio si trova che:

la feniletilammina viene degradata dall’enzima MAO-B, per cui non si ritiene che, assunta per via alimentare, possa avere effetti psicoattivi.

La nomea di “molecola dell’amore” è frutto di una speculazione dovuta principalmente al libro dello psichiatra Michael Liebowitz The Chemistry of Love, in cui l’autore propose che livelli aumentati di monoammine, tra cui PEA, fossero in relazione con il sentimento di attrazione romantica. Non ci sono prove empiriche dirette sul ruolo specifico della feniletilamina nell’innamoramento.

(Da Wikipedia)

(per altri effetti di PEA si veda qui)

Tuttavia è da dire che la feniletilammina sostituita è usata effettivamente come farmaco in molte occasioni.

PEA

La tiramina è proprio una feniletilammina sostituita.

Tiramina

La tiramina, è ampiamente presente nell’organismo degli esseri viventi, viene sintetizzata per decarbossilazione della tirosina in seguito a processi fermentativi o di decomposizione batterica.

Molti cibi sono ricchi di tiramina e ad essa sono imputati gli effetti dei postumi dell’ubriachezza. È anche una molecola responsabile di alcune forme di intolleranza alimentare.

Ma la cosa che ci interessa notare è che la tiramina è un simpaticomimetico in grado di stimolare il rilascio di noradrenalina dalle vescicole neuronali causando vasocostrizione, con aumento dei battiti cardiaci e della pressione sanguigna, con effetti spiacevoli se si superano certe dosi

L’esistenza di un recettore con alta affinità per la tiramina, appartenente alla famiglia dei recettori per le ammine “traccia” accoppiato a una proteina G e denominato Trace Amine receptor 1 o TA1, suggerisce la possibilità che questa sostanza agisca da neurotrasmettitore. I recettori TA1 sono distribuiti nel cervello e in tessuti periferici quali i reni. Ciò giustificherebbe l’ipotesi che la tiramina possa anche agire in modo diretto sul controllo della pressione sanguigna.

(da Wikipedia)

Un ultimo aspetto da considerare e che è stato suggerito per spiegare l’attrattività del cioccolato è il seguente: il rapporto fra sostanze dolci e grasse presente nella sua formulazione.

Comunemente il cioccolato contiene il 20-25% di grassi e il 40-50% zuccheri.

Livelli così alti di questi due nutrienti non sono comuni nei cibi naturali.

Tuttavia esiste un cibo che quasi tutti noi abbiamo provato e che ha queste caratteristiche: il latte umano. Particolarmente ricco di lattosio e con una composizione di circa il 4% di grassi e l’8% di zuccheri, dunque un rapporto (1:2) che ricorda quello del cioccolato.

Dunque un altro suggerimento è che la composizione relativa di nutrienti sia particolarmente gradita al nostro cervello.

In definitiva non è ben chiaro perché il cioccolato ci piaccia tanto, ma un tocco di mistero tutto sommato non guasta, mentre ci crogioliamo con un pezzo di costoso uovo di cioccolato, residuo delle vacanze pasquali.

Fonti varie:

Berk, L. et. Al. (2018) Dark chocolate (70% organic cacao) increases acute and chronic EEG power spectral density (μV2) response of gamma frequency (25–40 Hz) for brain health: enhancement of neuroplasticity, neural synchrony, cognitive processing, learning, memory, recall, and mindfulness meditation. FASEB Journal; 32(1). 

Berk, L. et. Al. (2018) Dark chocolate (70% cacao) effects human gene expression: Cacao regulates cellular immune response, neural signaling, and sensory perception. FASEB Journal; 32(1). 

Brickman, A. M. et. Al. (2014) Enhancing dentate gyrus function with dietary flavanols improves cognition in older adults. Nature Neuroscience; 17: 1798–1803.

https://www.bbc.com/news/health-39067088

Nota: i contributi diretti da altre fonti sono in italico

La sindrome circolare del rasoio al supermercato.

In evidenza

Mauro Icardi

La conferenza tenuta l’8 novembre 1972 dall’economista rumeno Nicholas Georgescu-Roegen (1906-1994) alla Yale University può essere considerata come l’atto di nascita della “bioeconomia”.

La conferenza faceva parte di una serie di incontri organizzati dalla storica università statunitense a seguito della pubblicazione, nel marzo dello stesso anno, di The Limits to Growth e del vivace dibattito che il libro aveva suscitato.

Per Georgescu-Roegen non era la limitatezza delle risorse planetarie, quanto la loro esauribilità, dovuta alla legge dell’entropia, “la più economica per sua natura tra le leggi naturali, che sfidava l’idea di una crescita economica continua.

Nel libro “Energia e miti economici” scritto dall’economista rumeno, e pubblicato da Bollati Boringheri nel 1982, si possono leggere gli otto punti di un programma bioeconomico minimale. È una lettura che consiglio, anche se il libro è purtroppo difficile da reperire, anche nei siti di libri usati, e in qualche caso i prezzi possono raggiungere cifre relativamente elevate.

L’ottavo punto del programma bioeconomico è quello che mi torna puntualmente in mente ogni volta che faccio la spesa, e devo acquistare quanto mi occorre per la rasatura quotidiana.

Riporto integralmente il testo: “ Ottavo, in completa armonia con i pensieri sopraelencati, dovremmo guarire da quella che ho chiamato “sindrome circolare del rasoio elettrico”, che consiste nel radersi più velocemente, in maniera da avere più tempo per lavorare ad un rasoio che permetta di radersi più rapidamente ancora, in maniera da avere ancora più tempo per progettare un rasoio ancora più veloce, e così via all’infinito. Questo cambiamento richiederà una buona dose di autocritica da parte di tutte quelle professioni che hanno allettato l’umanità a questo regresso infinito. Dobbiamo arrivare a capire che un requisito importante per una buona qualità di vita è una quantità sostanziosa di svago spesa in maniera intelligente”

Io non adopero il rasoio elettrico, ma prediligo la rasatura con le lamette. Ed è qui che si pone il problema, in quanto esiste certamente, secondo il mio modesto parere, anche una sindrome circolare della lametta da barba. O per meglio dire una profusione di lamette da barba spesso monouso, in altri casi con lama sostituibile.

Per approfondire il tema bisogna citare un altro personaggio: King Camp Gillette. Fu lui l’inventore del rasoio di sicurezza. Nato in una piccola cittadina del Wisconsin inizia a lavorare come commesso viaggiatore.

Nel 1894, Gillette ha 39 anni e non è soddisfatto della sua vita professionale. Decide, così, di tornare nella sua città natale e di lavorare come venditore nell’azienda Crown Cork & Seal Co. Il presidente è William Painter, l’inventore dei tappi di bottiglia a corona, che gli consiglia di inventare qualcosa che la gente usi e poi butti via. Gillette che detestava perdere tempo, e che, come molti altri suoi colleghi commessi viaggiatori dell’epoca, era solito radersi durante i viaggi in treno con un rasoio a mano libera, spesso chiamato “taglia gola,” inventa il rasoio di sicurezza. Una sottile lama di acciaio, montata ad angolo retto su un piccolo manico.

Figura 1 Disegno del brevetto del rasoio di Gillette

Oggi il rasoio di sicurezza con lametta è un oggetto oserei dire di modernariato. Negli scaffali dei supermercati esiste una miriade di rasoi usa e getta, che a partire dagli anni 70 lo stanno sostituendo quasi completamente. E col tempo è cresciuto il numero delle lame, dalla singola alla doppia per arrivare fino al considerevole numero di cinque lame.

Per questo tipo di prodotti colgo una singolare analogia con le pubblicità delle acque in bottiglia. Non nego che non è piacevole radersi con un rasoio con la lama non perfettamente affilata, ma oggettivamente non riesco a capire questa profusione di lame di ogni genere, tipologia e marca, a cui si aggiunge la difficoltà a reperire una semplice confezione di lamette da barba di ricambio per un rasoio di sicurezza.

Una lametta monouso ha come destinazione finale il rifiuto secco indifferenziato. Quelle con confezioni di lamette intercambiabili quantomeno conservano il manico, ma ogni tipologia ha il suo. Non sarebbe una cattiva idea utilizzare un manico universale per diverse tipologie di lamette intercambiabili.

Queste sono riflessioni che faccio ogni volta che sono al supermercato, una cosa a volte più forte di me. E mi rimane una curiosità che non potrò mai soddisfare, ovvero sapere cosa avrebbe detto Georgescu Roegen in un ipotetico incontro con mister Gillette, nello stile delle “Interviste impossibili”, programma radiofonico che mi piaceva e di cui non perdevo una puntata.

Forse è utopia ma sono convinto che le nostre scelte quotidiane potrebbero avere un impatto se solo fossimo maggiormente attenti e consapevoli. Io intanto proseguo la mia ricerca di lamette di ricambio per il rasoio di sicurezza. E in tutta la zona di Varese solo un supermercato, e uno storico negozio, che vende di tutto, compresi i famosi coltellini svizzeri multiuso, sono gli esercizi commerciali in cui posso trovarle.

Per essere consumatori consapevoli occorre molta pazienza e perseveranza.

Idrogeno già oggi.

In evidenza

Luigi Campanella, già Presidente SCI

Quando i ricercatori vengono chiamati a presentare o a contribuire ad eventi nell’ambito della transizione ambientale e/o energetica sono portati per loro stessa natura a preferire gli aspetti tecnici ed a configurare il problema di turno come una scelta da assumere sulla base di indicatori prevalentemente di tipo tecnico.

Quando ci riferiamo così all’idrogeno sono portati ad evidenziare come primo elemento per le scelte future che il 95% della produzione mondiale di idrogeno è oggi colorata in nero e in grigio, nel senso che essa avviene con l’uso dei combustibili fossili, invece che con sistemi derivati da fonti rinnovabili (idrogeno verde e azzurro).

L’idrogeno prodotto tramite l’elettrolisi dell’acqua, sarebbe destinato a rivestire un ruolo cruciale nell’eliminazione dell’attuale dipendenza mondiale dai combustibili fossili, ma finirebbe per esaltare gli stessi problemi che vorrebbe risolvere. Le metodologie green per produrre idrogeno, viene ribadito, purtroppo al momento sono ancora troppo onerose e quindi fuori dalla produzione in larga scala. (7/8 euro per 1 Kg di H2 contro i circa 2 euro per 1 Kg per gli attuali combustibili fossili), per cui necessitano ancora passaggi tecnologici innovativi per abbattere i costi di produzione. Il costo della produzione dell’idrogeno verde non sta diminuendo come molti speravano. Ma, secondo quanto dicono gli esperti, sembra venuto il momento buono per un abbattimento dei costi di produzione dell’idrogeno verde, almeno da avvicinarlo all’idrogeno grigio (3 euro/kg) e all’idrogeno blu (5 euro/kg). L’Unione Europea ha lanciato la sua prima asta per l’idrogeno verde con un prezzo massimo di 4,5 euro/kg. I progetti approvati riceveranno sovvenzioni per un decennio oltre ai proventi dalle vendite di idrogeno, e dovranno iniziare la produzione entro 5 anni. Ipotizzando, come esempio, di produrre idrogeno in Germania a partire da energia eolica, il costo finale sarebbe 6 euro/kg che con un sussidio di 4 euro, il max previsto, consentirebbe la vendita a 2 euro/kg. La strada verso un’economia dell’idrogeno non è mai stata in discesa e questo proprio in ragione dei costi. Non solo però, in quanto ostacoli a tale economia vengono anche dalle incertezze normative e regolatorie, in particolare riferite agli standard di sicurezza e dalla sfida tutt’altro che banale di creare una domanda al di fuori dei settori di impiego tradizionali, come la raffinazione del petrolio o l’industria dei fertilizzanti.

Eppure benché vi siano ancora numerosi ostacoli alla diffusione dell’idrogeno su larga scala, compresa la questione dell’efficienza, la tecnologia basata sull’idrogeno potrebbe presentare interessanti opportunità di investimento. Oltre a ciò vanno affrontate e risolte le attuali carenze di infrastrutture, nonché studiate azioni normative per l’approvazione di regolamenti specifici. Come si vede il ricercatore focalizza l’attenzione sulle difficoltà che ancora esistono e che devono essere superate per conseguire traguardi significativi. Ciononostante in tutto il mondo si sono aperti orizzonti interessanti non solo nella ricerca, ma anche nella produzione dell’idrogeno per la mobilità e anche per la produzione di energia, svincolata dalla rete energetica tradizionale. La prospettiva è che entro un trentennio l’idrogeno possa sostituire, anche in Italia, oltre il 70% dei combustibili fossili. Come si vede si parla di prospettiva, di traguardi auspicati, di successi ancora solo sporadici e non garantiti sul piano della riproducibilità, di difficoltà operative. Forse è il momento cambiare l’approccio partendo dalla osservazione che importanti successi non sono visti solo come traguardi futuri, ma rappresentano significativi successi di oggi.

Per l’idrogeno è limitativo parlare di prospettiva essendoci già traguardi conseguiti che devono indurre imprenditori coraggiosi a dire “se lui è riuscito perché non posso riuscire anche io?”. Partiamo cioè da risultati già ottenuti per supportare innovazioni concrete da subito. Solo così si crea un sistema industriale ed economico capace di condividere esperienza e conoscenza e di fornire sostegno alla propria innovazione con responsabilità, ma anche con coraggio e determinazione

A che serve la caffeina?

In evidenza

Claudio Della Volpe

Dato che la maggior parte di noi la beve quasi tutti i giorni e anche più volte al giorno e fa parte ormai della nostra cultura, la mia domanda può sembrare alquanto scema.

Ma è ovvio, d’altra parte, che la caffeina non è presente in natura per farci svegliare la mattina o per farci stare svegli se abbiamo bisogno di restare svegli. Dunque la mia domanda ha un senso; a cosa serve la caffeina in natura e come agisce su di noi?  

I frutti del caffè (da Wikipedia).

La struttura della caffeina è riportata qui sotto; si tratta di una molecola a scheletro planare, priva di carboni otticamente attivi (la nicotina viceversa lo è).

https://www.acs.org/education/resources/undergraduate/chemistryincontext/interactives/brewing-and-chewing/3d-model-caffeine.html

La caffeina è uno stimolante del sistema nervoso centrale (SNC).

Come agisce sull’uomo? La caffeina agisce bloccando il legame dell’adenosina al recettore dell’adenosina A1, che aumenta il rilascio del neurotrasmettitore acetilcolina. La caffeina ha una struttura tridimensionale simile a quella dell’adenosina, che le permette di legarsi e bloccare i suoi recettori. La caffeina aumenta anche i livelli di AMP ciclico attraverso l’inibizione non selettiva della fosfodiesterasi (questo avviene anche nell’insetto).

Cogliamo l’occasione per ricordare brevemente alcuni concetti dell’interazione fra enzimi, recettori, substrati e molecole interferenti.

Una molecola si definisce antagonista quando, pur legandosi selettivamente a un recettore, non lo attiva, cioè blocca la trasduzione del segnale. Gli antagonisti sono dotati di affinità per il recettore, ma sono privi di efficacia intrinseca, non sono in grado di provocare da soli effetti misurabili. Se un antagonista viene aggiunto a un sistema in cui sono presenti sia l’agonista corrispondente sia il recettore, si nota una diminuzione della risposta rispetto a una situazione analoga in cui ci sia solo l’agonista.

Esistono due grandi categorie di antagonisti: ortosterici e allosterici.

Gli antagonisti ortosterici (competitivi o sormontabili) si legano al recettore nello stesso sito in cui si lega l’agonista. Nel caso di un antagonista ortosterico, un aumento della concentrazione di agonista può spiazzare l’antagonista e ripristinare l’attività del recettore (es. morfina/naloxone).

Gli antagonisti allosterici (non competitivi o non sormontabili) si legano in un sito del recettore che non è sfruttato dall’agonista e modifica la conformazione del recettore in modo tale da diminuire l’affinità o l’efficacia dell’agonista. L’interferenza di un antagonista nella formazione di un complesso agonista-recettore prende il nome di antagonismo farmacologico.

La caffeina è un antagonista ortosterico dei 4 recettori dell’adenosina; qui sotto una rappresentazione di come si lega al recettore A2A

In assenza di caffeina e quando una persona è sveglia e vigile, poca adenosina è presente nei neuroni del SNC. Con uno stato di veglia continua, nel tempo l’adenosina si accumula nella sinapsi neuronale, legandosi a sua volta e attivando i recettori dell’adenosina presenti su alcuni neuroni del SNC; quando attivati, questi recettori producono una risposta cellulare che alla fine aumenta la sonnolenza. Quando la caffeina viene consumata, antagonizza i recettori dell’adenosina. In altre parole, la caffeina impedisce all’adenosina di attivare il recettore bloccando la posizione sul recettore in cui l’adenosina si lega ad esso. Di conseguenza, la caffeina previene o allevia temporaneamente la sonnolenza e quindi mantiene o ripristina la vigilanza.

La caffeina contiene strutturalmente due sistemi ad anello che sono anche chiamati purine. La caffeina si lega ai recettori che normalmente legano l’adenosina, cioè i recettori dell’adenosina. Esistono diversi tipi di recettori dell’adenosina, e le molteplici funzioni di questi recettori non sono ancora del tutto comprese. L’attivazione dei recettori dell’adenosina è nota per attivare la conversione di ATP in cAMP. cAMP è una molecola di segnalazione intracellulare che attiva la cAMP chinasi. Questa chinasi apre un canale K+ nella membrana, e questo porta alla fuoriuscita di K+ dalla cellula. In questo modo, la cellula si iperpolarizza e l’attività nervosa viene inibita. L’adenosina appartiene quindi a un sistema che inibisce i segnali nervosi.

La caffeina è un antagonista dei recettori dell’adenosina. La sostanza inibisce tutti i segnali dell’adenosina, e quindi la conversione di ATP in cAMP. Pertanto, contrasta anche l’inibizione del cAMP dei segnali nervosi nel cervello. La caffeina crea un aumento dell’attività e influenza anche altri neurotrasmettitori, aumentando i livelli di dopamina e serotonina. Questi due neurotrasmettitori sono legati a molti degli effetti della caffeina, tra cui quelli sulla resistenza, la fatica, il rilassamento e la demenza.

Ma torniamo alla domanda iniziale: a che serve la caffeina in Natura?

La caffeina è un alcaloide presente in decine di specie di piante, tra cui la pianta del caffè del genere Coffea. Fonti comuni sono i “chicchi” (semi) delle due piante di caffè coltivate, Coffea arabica e Coffea canephora (la quantità varia, ma l’1,3% è un valore tipico); e della pianta del cacao, Theobroma cacao; le foglie della pianta del ; e le noci di kola. Altre fonti sono le foglie dell’agrifoglio yaupon, dell’agrifoglio sudamericano yerba mate e dell’agrifoglio amazzonico guayusa; e i semi delle bacche di guaranà dell’acero amazzonico. Insomma i climi temperati di tutto il mondo hanno prodotto piante non correlate fra di loro, ma tutte contenenti caffeina.

Perché?

Una probabile spiegazione è stata fornita nel 1984 su Science da James Nathanson, allora al Dipartimento di Neurologia di Harvard.

La caffeina nelle piante agisce come un pesticida naturale (soprattutto attraverso l’inibizione della fosfodiesterasi ed aumentando l’adenosina monofosfato ciclico): può paralizzare e uccidere gli insetti predatori che si nutrono della pianta. Alti livelli di caffeina si trovano nelle piantine di caffè quando stanno sviluppando il fogliame e non hanno protezione meccanica. Inoltre, alti livelli di caffeina si trovano nel terreno circostante le piantine di caffè, che inibisce la germinazione dei semi delle piantine di caffè vicine, dando così alle piantine con i livelli di caffeina più alti meno concorrenti per le risorse esistenti per la sopravvivenza. La caffeina è immagazzinata nelle foglie di tè in due luoghi. In primo luogo, nei vacuoli cellulari, dove viene complessata con i polifenoli. Questa caffeina viene probabilmente rilasciata nelle parti della bocca degli insetti, per scoraggiare l’erbivoro. In secondo luogo, intorno ai fasci vascolari, dove probabilmente inibisce l’ingresso e la colonizzazione dei fasci vascolari da parte di funghi patogeni.

Questo comportamento della caffeina è condiviso da altre molecole come la nicotina, la cui natura chimica è però assai diversa (la caffeina è una metilxantina, mentre la nicotina è una piridina); entrambe però sono comunemente considerate alcaloidi, una classe di sostanze molto varia e definita su basi biologiche piuttosto che strettamente chimiche (e con molte polemiche).

La caffeina è generata come metodo di difesa dalle piante che abbiamo detto, mentre la nicotina da parecchie solanacee. In entrambi i casi però si vede dall‘uso concreto che un possibile veleno per gli insetti può diventare uno stimolante per l’uomo. Del caso nicotina abbiamo parlato in passato.

Della caffeina parlo oggi.

Una prima cosa interessante è che la caffeina, che è abbiamo detto un insetticida naturale, in effetti non viene usato come tale dall’uomo (per vari buoni motivi, il primo dei quali è che agisce non per contatto, ma solo se è assorbito dall’insetto col cibo), ed inoltre, in dipendenza della dose, può diventare uno stimolante almeno per alcuni insetti.

Si è infatti scoperto che la caffeina nel nettare può migliorare il successo riproduttivo delle piante produttrici di polline aumentando la memoria di ricompensa degli impollinatori come le api da miele.

In un primo momento la cosa è stata testata in laboratorio; Couvillon et al. (http://dx.doi.org/10.1016/j.cub.2015.08.052 ) hanno dimostrato che il foraggio con caffeina presente in natura induce le api da miele a comportarsi come se la qualità del nettare, misurata dalle api in base al contenuto di zucchero, fosse superiore a quella reale. Le operaie aumentano i comportamenti di bottinatura e reclutamento, che alla fine quadruplica il reclutamento a livello di colonia, tentando la colonia con strategie di bottinatura non ottimali. In definitiva la caffeina fa più bene alla pianta che all’insetto

Gli stessi autori hanno poi dimostrato sul campo che la caffeina genera effetti significativi a livello individuale e di colonia nelle api mellifere operaie in volo libero (https://pubmed.ncbi.nlm.nih.gov/26480843/). Rispetto a un controllo, una soluzione di saccarosio con dosi realistiche di caffeina ha fatto sì che le api mellifere aumentassero significativamente la frequenza di foraggiamento, la probabilità e la frequenza delle danze ondulatorie, la persistenza e la specificità del luogo di foraggiamento, con il risultato di quadruplicare il reclutamento a livello di colonia.

Dunque a seconda della dose la caffeina può essere sia un veleno che una sorta di droga per gli insetti.

Anche i ragni risentono della caffeina; le loro ragnatele sono fortemente influenzate dalla presenza di caffeina nella loro dieta:

(immagine da wikipedia)

E veniamo a questo punto ad un altro aspetto della questione. Ossia la caffeina è presente in diverse piante e per ciascuna di queste si è sviluppato un differente uso umano con effetti simili ma non identici. Come mai?

A causa della sua presenza in molte specie botaniche, dal cacao al mate, la caffeina ha preso spesso nomi alternativi derivanti dalla specie di origine. La guaranina, ad esempio, scoperta e isolata nel 1826 dal botanico bavarese Carl Friedrich Philipp von Martius, è una sostanza di colore rosso, chimicamente identica alla caffeina, contenuta nelle piante di Paullinia cupana presenti nella Foresta Amazzonica. Per effetto dell’alto contenuto lipidico del seme di guaranà che rallenta il rilascio del principio attivo, gli effetti del guaranà non sono immediati come quelli delle tradizionali bevande contenenti caffeina, quali caffè o altre bevande. Questo eccitante è usato dagli indigeni della zona Satéré Mawé per resistere a lunghi digiuni nella foresta. È presente nel guaranito e nei prodotti a base di guaranà nativo.

Nel 1827, M. Oudry ha isolato la teina dal tè: l’identità chimica con la caffeina è stata dimostrata in seguito da Gerardus Johannes Mulder e da Carl Jobst dopo che, verso la fine del XIX secolo, la struttura della caffeina è stata chiarita da Hermann Emil Fischer, il primo a raggiungere la sua sintesi totale, parte del lavoro per il quale gli è stato assegnato il Premio Nobel per la chimica nel 1902.

 Hermann Emil Fischer, premio Nobel 1902 per la chimica in riconoscimento dei suoi risultati nella sintesi dello zucchero e delle purine (fra cui la caffeina).

 La diversa percezione degli effetti dell’ingestione di bevande ricavate da varie piante contenenti caffeina potrebbe essere spiegata non solo dal diverso dosaggio di caffeina, ma anche dal fatto che queste bevande contengono miscele variabili di altri alcaloidi metilxantinici, tra cui gli stimolanti cardiaci teofillina e teobromina, e polifenoli che possono formare complessi insolubili con la caffeina.

Un’altra cosa da considerare è che dato che è contenuta in parti diverse della pianta, come le foglie o i semi il suo trattamento successivo e i metodi di estrazione usati influiscono pesantemente sulle quantità e sulle altre molecole presenti e dunque sull’effetto finale raggiunto. In modo assolutamente indicativo si tenga presente la seguente tabella:

La caffeina può aumentare la produzione di neurotrasmettitori come l’adrenalina, che può contribuire all’aumento della frequenza cardiaca e della pressione sanguigna. 

Questo effetto può essere responsabile della sensazione di aumentata energia e vigore dopo aver consumato bevande contenenti caffeina.

Uno dei ruoli più discussi della caffeina riguarda il suo impatto sul metabolismo. 

Studi scientifici hanno suggerito che la caffeina possa aumentare temporaneamente il metabolismo basale, cioè la quantità di energia che il corpo utilizza a riposo. 

In secondo luogo poiché la caffeina è anche un inibitore della fosfodiesterasi che converte il cAMP (secondo messaggero per l’azione dell’adrenalina) nella sua forma aciclica AMP, prolunga l’effetto di queste sostanze e altre simili come l’anfetamina, la metanfetamina e il metilfenidato. Inoltre, queste azioni della caffeina facilitano la trasmissione di dopamina (neurotrasmettitore vincolato con la motivazione) e del glutammato (con la memoria).

L’utilizzo prolungato di caffeina porta a tolleranza. Viene completamente assorbita nello stomaco e nel tratto iniziale dell’intestino nei primi 10 minuti dopo l’ingestione e raggiunge la massima concentrazione in sangue dopo i 45 minuti. Viene poi distribuita lungo tutto il corpo nei fluidi corporei.

Fonti usate oltre i lavori e le figure citati:

https://www.psychiatrictimes.com/view/caffeine-as-a-competitive-antagonist

https://it.wikipedia.org/wiki/Alcaloidi

https://theory.labster.com/it/caffeine-binds-adenosine-receptor

https://it.wikipedia.org/wiki/Caffeina

https://www.ncbi.nlm.nih.gov/books/NBK202233

le parti in italico sono riportate tal quali da altre fonti.

Io sono Marie Curie

In evidenza

Recensione.

Alessandro Maria Morelli*

Sono rimasto piacevolmente sorpreso per i successi ottenuti dalla mia allieva Sara Rattaro che nel 1999 si laureò in Biologia discutendo una tesi sperimentale in chimica biologica preparata frequentando il laboratorio dell’Università di Genova, di cui il sottoscritto era il coordinatore.

La sorpresa nasce dal fatto che la mia allieva ha conseguito notorietà e fama non in biologia ma in ambito letterario/narrativo. Sara Rattaro ha scritto numerosi romanzi di grande successo, ha conseguito prestigiosi riconoscimenti come il premio Bancarella e il suo ultimo libro  “Io sono Marie Curie” – Ed. Sperling & Kupfer – è incentrato sulla vita della scienziata polacca Marie Skłodowska Curie.

La stesura di questo libro potrebbe essere collegata al master in comunicazione della Scienza “«Rasoio di Occam» che Sara Rattaro ha frequentato a Torino, ma sta di fatto che questo romanzo certamente contribuisce alla divulgazione della scienza e non può che appassionare chi professa una attività scientifica nel campo delle cosiddette scienze “dure” come la fisica e la chimica, materie per le quali la Curie fu insignita di ben due distinti premi Nobel (rispettivamente nel 1906 e nel 1911).

Le difficoltà di inizio ‘900, che oggi potrebbero apparire insormontabili, furono affrontate da madame Curie con una forza e una determinazione straordinarie ed erano sostenute da un eccezionale intuizione scientifica. Il libro di Sara Rattaro ci fornisce anche un quadro avvincente della vita privata di Marie Curie come moglie, madre ed anche amante.

 Sara Rattaro, Ed Sperling&Kupfer, p. 208, euro 17.90

Scorrendo le pagine di questo libro il lettore viene a conoscenza di tanti scienziati che collaborarono a vario titolo con madame Curie, come  il marito Pierre Curie (che condivise con Marie il Nobel per la fisica), Paul Langevin  (ideatore del sonar per l’individuazione dei sommergibili), il chimico-fisico Jean Battiste Perrin (noto per aver determinato la costante di Avogadro), Antoine Henri Becquerel (pioniere nello studio della luce polarizzata), Lord Kelvin (l’ideatore della scala assoluta della temperatura) , Émile Borel (insigne matematico fondatore della teoria dei giochi) e lo stesso Albert Einstein, del quale il libro della Rattaro riporta una lettera che esprime sconfinata ammirazione per madame Curie.

Il romanzo non solo ha valore in sé come opera letteraria, ma a pieno titolo acquisisce notevole valore pedagogico per la divulgazione della cultura scientifica.

* Alessandro Maria Morelli, laureatosi in chimica a Genova nel 1968, professore ordinario di Chimica Biologica dal 1986. Ha svolto ricerche in vari ambiti della biologia: realizzato in vitro la correzione del deficit genetico della Glucosio-6P Deidrogenasi,  scoperto la proteina Fx, contribuito all’individuazione di alcuni bersagli biomolecolari danneggiati dai campi elettromagnetici, elaborato la teoria di base dell’Elettrostretching di Proteine, studiato le alterazioni mieliniche a seguito di chemioterapia,  scoperto la sintesi aerobica extramitocondriale di ATP nella guaina mielinica ipotizzando per essa il ruolo di accumulatore protonico che sta alla base di una teoria del sonno.

Dal 1973 è in pensione ma continua a svolgere intensa attività di ricerca e divulgazione (https://www.biochemlab.it/ )

Giornata mondiale dell’acqua: una modesta proposta

In evidenza

Mauro Icardi

La giornata mondiale dell’acqua, come tutte le altre ricorrenze simili, corre il rischio di trasformarsi in qualcosa di didascalico. Forse di banalizzarsi.

Ho con l’acqua un rapporto particolare, che è iniziato sin da quando ero un bambino curioso che ci giocava, riempiendo e svuotando per interi pomeriggi bottigliette che avevano contenuto succo di frutta. Mia nonna teneva un mastello prima di zinco, poi dell’indistruttibile e diffusissimo moplen nel cortile. L’acqua che aveva faticosamente attinto con il secchio legato a una carrucola era a disposizione per le necessità più diverse. Dall’igiene personale, al lavaggio del bucato, all’irrigazione dell’orto. Probabilmente la manualità di laboratorio devo averla sviluppata proprio in quegli assolati pomeriggi.

In quegli anni ho imparato una prima, basilare lezione: non bisognava sprecare nemmeno una goccia d’acqua. Io infatti, riempivo le bottigliette versando poi l’acqua nuovamente nel mastello.

Forse può sembrare un gioco stupido, ma per esempio mi ha aiutato a comprendere e a percepire meglio le proprietà fisiche dell’acqua, come la viscosità. E via via tutte le altre che avrei poi studiato negli anni a venire.

Per conoscere e rispettare l’acqua, per festeggiare in maniera coerente la giornata mondiale che tutti gli anni le dedichiamo, io ho un suggerimento.

Riprendiamo in mano i libri scolastici, quelli divulgativi e rileggiamoli senza l’assillo degli esami universitari o dei compiti in classe.

Rileggiamo cosa sono e significano alcuni concetti: il calore latente di evaporazione, la legge di Raoult, la chimica delle soluzioni acquose. L’infinito potere solvente che il composto dalla formula più conosciuta al mondo ha nei confronti di un numero elevatissimo di molecole. Se si ha voglia di capire la meraviglia dell’acqua, questi sono solo alcuni degli stimoli e dei suggerimenti.

Quello che propongo non sono i deliri o i vaneggiamenti di un chimico di mezza età, o per brevità diversamente giovane. E’ un invito che a mio modo di vedere potrebbe avere alcuni benefici.

Risolverebbe le infinite diatribe familiari, o le discussioni sui social, su quando sia opportuno aggiungere il sale nell’acqua in cui stanno cuocendo gli spaghetti.

Eviterebbe di poter sentire gli strafalcioni di due persone che anni addietro, sedute in autobus dietro di me, sostenevano di avere ricevuto una esosa bolletta dell’acqua potabile. Nella quale a loro dire fossero stati contabilizzati troppi “metri quadri di acqua”.

Forse leggere di acqua potrebbe anche smuovere il senso di civico di accaldati cittadini che riempiono piscine con acqua potabile, nelle nostre estati sempre più afose e assolate. Quando magari viene emanata un’ordinanza che invita alla parsimonia e che vieta espressamente di utilizzare l’acqua per questa finalità.

Maggiore è la conoscenza, maggiore potrebbe essere la tutela di questo bene comune.

Affido a Talete la chiusura di questa mia modesta proposta augurando a tutti i lettori di questo blog una buona giornata dell’acqua.

“L’acqua è la sostanza da cui traggono origine tutte le cose; la sua scorrevolezza spiega anche i mutamenti delle cose stesse. Questa concezione deriva dalla constatazione che animali e piante si nutrono di umidità, che gli alimenti sono ricchi di succhi e che gli esseri viventi si disseccano dopo la morte.”

Scienza e fede: “come” e “perché”

In evidenza

Vincenzo Balzani, prof. emerito UniBo

(già pubblicato su Avvenire, Bologna sette, 10 marzo 2024)

Cos’è l’Universo, che nel linguaggio comune chiamiamo il mondo e, nel linguaggio biblico il creato? Il primo libro della Bibbia, Genesi, inizia con “In principio Dio creò” e riporta poi due racconti della creazione. Il primo è basato su uno schema di sette giorni: Dio crea la luce, il firmamento, separa la terra dalle acque e crea le piante, poi crea il Sole e la Luna, i pesci e gli uccelli, gli animali terrestri e, infine, l’uomo, a sua immagine e somiglianza; il settimo giorno si riposò. Nell’altro racconto l’uomo è creato per primo e tutto il resto viene creato in sua funzione.

Genesi non è un libro scientifico. Non è, cioè, un resoconto dell’attività di Dio che ci viene dato per risparmiarci la fatica e toglierci la bellezza di scoprire mediante la scienza la storia dell’Universo. Quello di Genesi è un racconto simbolico che vuole farci conoscere una verità di fede: tutto è stato creato da Dio, per amore dell’uomo, sua creatura privilegiata.

Gli scienziati sono persone curiose. Stupiti davanti alla complessità e alla bellezza del mondo che li circonda, si fanno domande su come il mondo funzioni osservando la natura e anche mediante esperimenti.  Più intelligente è la domanda, più importante è la risposta che si ottiene. Secondo l’opinione di molti scienziati, le grandi scoperte della scienza saranno risposte a domande che non siamo ancora in grado di formulare.

Il continuo progredire della scienza mostra che la realtà è molto più grande di noi. Gli scienziati aprono ad un ad una le porte dell’Universo, sia sul versante dell’infinitamente piccolo (molecole, atomi, particelle elementari) che su quello dell’infinitamente grande (pianeti, stelle, nebulose). Sanno bene, però, che aprendo una porta ci si viene a trovare in una stanza dove ci sono almeno altre due porte da aprire ed esplorare. Ogni scoperta, infatti, genera più domande di quelle a cui dà risposta. Lo ha detto, poeticamente, John Priestley, uno dei primi scienziati che ha studiato la fotosintesi: “Più grande è il cerchio di luce, più grande è il margine dell’oscurità entro cui il cerchio è confinato”.

Per quanto possa sembrare strano, i racconti di Genesi e le teorie scientifiche sull’Universo si possono tenere assieme. E’ sbagliato pensare che la creazione in senso materiale sia avvenuta letteralmente nei tempi e nei modi del racconto di Genesi, ma è sbagliato anche pensare che la storia dell’Universo, così come ce la presenta la scienza, sia di per sé sufficiente e che quindi non ci sia bisogno di Genesi. La scienza e la sacra Scrittura sono chiaramente su due piani diversi. Quello della scienza è un tentativo di dare una risposta alle domande come si è formato l’Universo e in esso come si è formato l’uomo. Genesi risponde, secondo la fede, alle domande di senso, più profonde, che sono fuori dalla portata della scienza: perché c’è l’Universo? che senso ha la mia vita? perché c’è il male? C’è quindi molto spazio per quello che non conosciamo, dai come a cui la scienza non riesce a rispondere ai perché della fede, fino alle domande finali sull’esistenza di Dio.

Ammoniaca inaspettata.

In evidenza

Claudio Della Volpe

La produzione di ammoniaca sintetica è una delle industrie più importanti del pianeta e la organicazione dell’azoto che ne discende ha cambiato completamente l’industria bellica e l’agricoltura oltre a costituire una delle fonti più potenti di alterazione ambientale, con l’immissione in circolo di una quantità di azoto che supera quella organicata naturalmente.

E’ uno dei limiti planetari che abbiamo infranto, distruggendo quello che una volta si chiamava “ciclo dell’azoto” che è adesso fuori equilibrio; anche se nessuno ne parla se non in positivo, per ricordare l’effetto sull’agricoltura umana, sta di fatto che la produzione di ammoniaca sintetica è alla base dell’inquinamento da nitrati di laghi, fiumi ed oceano; l’incremento stabiliante di produttività agricola viene sfruttato soprattutto per alimentare l’industria zootecnica, non certo per risolvere i problemi di fame che ancora affliggono parte dell’umanità.

Inoltre la produzione di ammoniaca non è certo gratuita dal punto di vista energetico e anche dal punto di vista stechiometrico; per ogni ton di ammoniaca si producono all’incirca il doppio di ton di CO2, che non dimentichiamolo è un gas serra.

Da dire infine, per completare il quadro, che l’ammoniaca potrebbe essere un modo, alternativo all’idrogeno, per accumulare energia in eccesso dalle rinnovabili usandola poi nei periodi invernali o notturni.

Oggi voglio parlarvi di un nuovo metodo di produzione di ammoniaca ancora più facile di quello tradizionale o dei metodi elettrochimici con i quali pur si cerca di ridurne l’impatto; un recente lavoro su PNAS illustra la produzione di ammoniaca a partire da azoto ed acqua a t ambiente.

https://www.pnas.org/doi/epdf/10.1073/pnas.2301206120

Scrivono gli autori, sintetizzando in modo molto efficace la situazione presente:

L’ammoniaca (NH3) è il più semplice composto stabile di idrogeno e azoto. È il materiale di partenza per la produzione di molti composti contenenti azoto, ma il suo uso principale è quello di fertilizzante. Anche il nitrato di ammonio, il solfato di ammonio e l’urea sono fertilizzanti alternativi convertiti dall’ammoniaca (1). La produzione di ammoniaca su larga scala avviene tramite il processo Haber-Bosch, in cui l’azoto (N2) e l’idrogeno (H2) reagiscono ad alta pressione (da 80 a 300 atm) e ad alta temperatura (da 300 a 500 °C) in presenza di un catalizzatore (solitamente ossido di ferro magnetico, Fe3O4) per formare ammoniaca: N2+ 3H2→ 2NH3 (2). La fonte di idrogeno è solitamente il metano (gas naturale), che viene fatto reagire con vapore a 700-1.000 °C e a una pressione di 3-25 atm. Si formano idrogeno, monossido di carbonio e una quantità relativamente piccola di anidride carbonica: CH4 + H2O → CO + 3H2 (+ piccola quantità di CO2).  Successivamente, il monossido di carbonio e il vapore vengono fatti reagire utilizzando il nichel come catalizzatore per produrre anidride carbonica e altro idrogeno: CO + H2O → CO2 + H2. Per ogni tonnellata di NH3 sintetizzata da H2 con il processo Haber-Bosch vengono emesse da 1,8 a 2,1 tonnellate di CO2 (3). Nel 2021, la quantità di NH3 prodotta ha superato i 150 milioni di tonnellate, corrispondenti alla produzione di circa 300 milioni di tonnellate di CO2 associate all’H2 proveniente dalla vaporizzazione del metano. Si stima che la sintesi di ammoniaca sia responsabile di oltre il 2% del consumo energetico globale (4) e di circa l’1% della CO2 atmosferica. Di conseguenza, c’è molto interesse nello sviluppo di un metodo per produrre ammoniaca su larga scala con un danno sostanzialmente minore per l’ambiente. Descriviamo un metodo per la formazione di ammoniaca da acqua e azoto a temperatura ambiente e pressione atmosferica senza ricorrere alla fotochimica o all’elettrochimica.

Ho messo in neretto le frasi più significative.

Quale è il metodo usato? In apparenza è molto semplice e viene descritto dalla prima figura del lavoro:

 In sostanza goccioline di acqua ed azoto od aria (dunque anche in presenza di ossigeno) ad alta pressione si incontrano su una griglia di grafite ricoperta di Nafion e ossido di ferro; nel flusso in uscita si riscontra la presenza di ammoniaca ed idrazina in concentrazione significativa, ma non altissima.

Se avessimo una griglia di 1 metro quadro e lavorassimo per un’ora alla fine avremmo 1 mole di ammoniaca, 17grammi.

Il meccanismo proposto coinvolge la presenza di ioni idronio all’interfaccia delle gocce e l’abbondanza di H+ alla superficie del nafion; calcoli DFT confermano il meccanismo.

Il risultato è massimo quando non si usano né calore (30°C) né elettricità (campo applicato nullo) e dunque il costo energetico si riduce alla compressione del gas e all’uso del catalizzatore oltre ai processi di separazione a partire però da materie prime tutto sommato semplici e disponibili.

Comunque una valutazione energetica completa non è ancora disponibile.

E’ tuttavia chiaro che si apre una strada che facilita la produzione di ammoniaca; sapremo governare positivamente questa nuova possibilità? O sarà solo l’occasione per incrementare produzione e profitti?

Le nuove scoperte sono sempre benvenute ma a patto di governarle per il bene comune non per quello di pochi. E al momento il bene comune è di ridurre gli impatti legati alla produzione e all’uso eccessivo di concimi di sintesi.

La chimica della discarica

In evidenza

Mauro Icardi

Quasi tutto il mio percorso lavorativo e professionale si è svolto nel campo della protezione ambientale. Acque reflue e rifiuti hanno molte cose in comune, sia dal punto di vista delle tecniche gestionali, sia come rappresentazione dell’assuefazione ad un consumismo compulsivo. Sono forse i fenomeni che meglio rappresentano l’epoca che viviamo, ormai definita antropocene. Questa volta non voglio occuparmi di acqua ma di rifiuti.

Il percolato può essere definito come quel liquido che liscivia attraverso i rifiuti solidi. Si origina dal liquido che entra nella discariche da sorgenti esterne come la pioggia, l’acqua sotterranea, e il liquido prodotto dalla eventuale decomposizione dei rifiuti. Quando l’acqua percola attraverso i rifiuti solidi che si stanno decomponendo, sia il materiale biologico sia i costituenti chimici vengono lisciviati.

Il percolato che viene raccolto per essere trattato e poi smaltito non ha una composizione chimica costante, ma variabile in funzione delle tipologie di rifiuti che vengono conferiti nelle discariche, e dagli anni di funzionamento. Inizialmente nella massa dei rifiuti si innesca una fase aerobica di idrolisi di proteine e carboidrati, con formazione di CO2 che dissolvendosi in acqua rende il percolato debolmente acido, facilitando la dissoluzione di sostanze minerali. In questa fase il percolato presenta valori elevati di COD.

Quando tutto l’ossigeno è stato consumato inizia una fase di fermentazione acida instabile, sono coinvolte diverse specie di batteri che ossidano acidi grassi, zuccheri e aminoacidi. A partire dal glucosio si possono formare gli acidi organici acetico, butirrico e propionico che insieme alla CO2, la cui concentrazione continua ad aumentare, fanno abbassare il pH del percolato fino a valori compresi tra 5,5 e 6,5.

Una ulteriore stabilizzazione della fermentazione dei rifiuti avviene nella fase acida stabile, che precede quella in cui avviene la produzione di biogas, ovvero quando i batteri metanigeni trovano le condizioni ottimali (valori di pH compresi tra 6,5 e 7,5). Il percolato che si produce è stabilizzato, caratterizzato da bassi valori di BOD5 e rapporti BOD5/COD attorno a 0,1. Il pH aumenta assumendo valori prossimi alla neutralità (compresi tra 6 e 8), azoto ammoniacale, cloruri, solfati sono comunque presenti, i metalli tendono a precipitare.

Nella cosiddetta fase di maturazione, che in genere segue il periodo in cui non si conferiscono più rifiuti, il percolato ha una composizione nella quale sono presenti per la maggior parte acidi umici e fulvici difficilmente degradabili.

 Vorrei precisare che sto utilizzando il termine fermentazione, anziché quello di digestione anaerobica, per una mia personale deformazione professionale. Ovvero il processo di digestione anaerobica dei fanghi viene gestito e ottimizzato con il controllo dei parametri di processo durante il caricamento del digestore anaerobico. Nel caso di una discarica ci sono fasi diverse di lavorazione, quali il compattamento degli strati di rifiuti, la loro eventuale copertura, il controllo della tenuta dell’impermeabilizzazione del fondo.  

Il percolato ed il biogas che si originano vengono gestiti e captati con le migliori tecnologie, ma il termine digestione anaerobica io lo associo al trattamento dei fanghi di risulta, anche se dal punto di vista biochimico le reazioni sono le stesse. Nel caso dei fanghi il digestore anaerobico è un reattore vero proprio. Nel caso di una discarica vi è la gestione di un processo spontaneo di fermentazione della massa di rifiuti che sono conferiti, l’eventuale trattamento del percolato, o il suo conferimento a impianti di trattamento.

Nelle discariche si può effettuare un ricircolo del percolato (altra analogia con quanto avviene negli impianti di depurazione, ma con finalità completamente diverse, l’analogia è decisamente solo terminologica).Il ricircolo del percolato all’ interno della discarica viene operato per garantire un adeguato contenuto d’umidità dei rifiuti e così accelerare la velocità di degradazione.

Il percolato prodotto è, per utilizzare un termine discorsivo, un cliente difficile. Sia dal punto di vista analitico, per la complessità della matrice, sia dal punto di vista del trattamento. La sua variabilità di composizione nel tempo è il fattore principale che richiede quindi controlli e valutazioni appropriate.

In generale un percolato “giovane” può, in determinate condizioni, subire un trattamento aerobico, mentre per altri si può ricorrere al trattamento anaerobico, all’evaporazione, all’osmosi inversa. O combinare i trattamenti in più fasi successive. Per percolati con elevate concentrazioni di azoto ammoniacale si può ricorrere alla tecnica dello strippaggio.

Anche il percolato non sfugge alla contaminazione da PFAS, e negli ultimi anni diversi dipartimenti dell’Arpa in diverse regioni stanno iniziando a raccogliere dati, e a iniziare studi scientifici. La chimica ambientale, la chimica modesta sono pronte a dar loro una mano.

La tendenza, oserei dire arcaica, di disfarsi dei residui delle nostre attività come esseri umani, in buchi nel terreno, o scaricando nei corpi idrici non è ovviamente la scelta più saggia.  Per questa ragione sarebbe opportuno ripensare al nostro modo di vivere. Educandoci ad un atteggiamento più responsabile nei confronti dell’ambiente. Invece mi sembra di notare che, rispetto ad un passato nemmeno tanto remoto, siamo peggiorati come cittadini. Io che viaggio in bici e in treno vedo ogni giorno di più distese di plastica e centinaia di mozziconi di sigarette praticamente ovunque. Sui bordi delle strade come nelle rotaie delle linee ferroviarie. Nel 1961 venne prodotto un cortometraggio Disney che in Italiano è stato intitolato “Paperino e l’ecologia”, o “Paperino lo sporcaccione”.

Si trova facilmente in rete ed è consigliabile la visione, sia ai bambini che agli adulti che dovrebbero educarli. Il famoso papero con giacchetta alla marinara è lo sporcaccione, declinato in moltissime varianti. La riflessione più amara che si può fare su questo cartone animato è quella che viene enunciata in apertura: lo sporcaccione “In un solo weekend riesce a produrre sudiciume pari a tre volte il proprio volume!”

Nessuna tecnica di trattamento, per moderna che sia può funzionare contro questa deprecabile tendenza.

Perché siamo noi quelli che riempiamo discariche e strade dei nostri rifiuti. E poi magari contestiamo un nuovo depuratore o un nuovo impianto di trattamento di rifiuti o di percolato. Riflettiamoci con maggiore attenzione per favore.

La battaglia dell’Antropocene.

In evidenza

Claudio Della Volpe

Negli ultimi giorni si è sviluppato all’interno della Unione internazionale di scienze geologiche (IUGS) uno scontro che è chiaramente il risultato della più generale difficoltà sociale da parte di alcuni gruppi di scienziati e potentati economici di accettare la crisi climatica attuale e gli altri numerosi (6 su 9 limiti) infrangimenti dei confini del Sistema Terra e le ragioni, tutte e SOLO umane, che le hanno determinate.

La storia comincia con un articolo del NYT (a pagamento) che trovate però illustrato qui.

E anche commentato in modo più dettagliato qui.

Avevamo dato notizia dell’esistenza di un gruppo denominato Anthropocene Working Group (AWG) dedicato a questo problema di individuazione di una nuova epoca geologica in vari post (qui e qui) e dei suoi lavori.

La notizia del NYT è che sia stato messo in votazione un documento a riguardo, prodotto dall’AWG, all’interno di una delle tre sottocommissioni della IUGS, che dovrebbe approvarlo almeno col 60% di votanti a favore; tale documento non avrebbe avuto la maggioranza necessaria; la notizia non è ufficiale, ossia non c’è ancora un comunicato ufficiale dell’organo che avrebbe votato.

Ricordiamo qui che la proposta di stabilire una epoca Antropocene ha avuto il suo inizio nel 2009, quando è stato costituito l’AWG per indagare su questo tema. Dopo anni di discussione, il gruppo, costituito da una trentina di specialisti, ha concluso per il si ed ha deciso che la migliore data di inizio per il nuovo periodo era intorno al 1950, con l’inizio della cosiddetta Grande Accelerazione, che include non solo i residui dell’attività industriale massiva, ma anche gli isotopi prodotti dalle esplosioni atomiche.

Il gruppo ha anche scelto un sito fisico (stratotipo) che illustrerebbe chiaramente il passaggio definitivo tra l’Olocene (epoca attualmente in corso, iniziata 11700 anni fa con l’inizio di una fase calda e il ritiro dei ghiacciai) e l’Antropocene. Si tratta del lago Crawford (Canada)dove i sedimenti indisturbati di questo piccolo ma profondo bacino (una dolina) hanno registrato un evidente cambiamento geochimico dell’atmosfera.

Il lago Crawford vicino a Toronto, in Canada, ha raccolto e conservato i segni dell’impatto umano sulla Terra nei suoi sedimenti, tra cui microplastiche e plutonio provenienti dai test delle bombe all’idrogeno.

Lo scorso autunno, il gruppo di lavoro ha presentato la sua proposta di Antropocene alla prima delle commissioni di governo dell’Unione internazionale delle scienze geologiche. Ogni commissione deve approvare la proposta con una maggioranza del 60% e passarla ad un ulteriore sottocommissione. I membri della prima, la sottocommissione internazionale sulla stratigrafia quaternaria (ISQS, la stratigrafia è la disciplina della geologia che studia la datazione delle rocce ed i rapporti fra unità rocciose , mentre il Quaternario è il periodo geologico in corso che è iniziato 2,6 milioni di anni fa) avrebbero votato l’1 febbraio 2024 con 19 presenti rigettando la proposta. Questo rigetto, se confermato, bloccherebbe il processo di discussione per almeno un altro decennio. E questo sarebbe l’evento riportato dal NYT. In particolare il rifiuto sarebbe stato votato da 12 contro quattro, con due astensioni (un terzo membro non ha votato né si è astenuto)

Tuttavia, ci sono molte discussioni sulla validità di questa votazione, il cui risultato, peraltro, non è stato annunciato ufficialmente, ma è stato comunicato al NYT senza la approvazione di tutti i dirigenti della ISQS; si tratta dunque di una indiscrezione.

Come commentare la notizia in attesa di comunicati più ufficiali?

La discussione interna alla commissione sembra abbia evidenziato questo tema: alcuni membri della commissione, pure se favorevoli in linea di principio, non hanno accettato la data scelta per l’inizio sostenendo che l’impatto umano è iniziato ben prima del 1950 e che dunque questa scelta avrebbe ridotto il peso reale della determinazione. Altri hanno sostenuto che la subitaneità del processo di modifica umano e la molteplicità dei suoi aspetti comporta di considerarlo più come “un evento” che come l’inizio di una nuova era geologica; “eventi” sono considerati ad esempio estinzioni di massa, rapide espansioni della biodiversità o lo sviluppo di ossigeno in atmosfera (il maggiore caso di inquinamento terrestre mai avvenuto).

Il Presidente dell’ISQS, Zalasiewicz, ha scritto una lettera all’IUGS in cui denuncia la non validità della votazione e alcune irregolarità nelle procedure usate.

Il gruppo di lavoro AWG, da parte sua, ha pubblicato questo commento di risposta all’articolo del NYT:

I risultati di un voto sull’Antropocene sono stati annunciati oggi da alcuni membri del ISQS, anche se senza l’autorizzazione del Presidente della ISQS e di uno dei due Vice-Presidenti. In questa fase rimangono diversi problemi che devono essere risolti sulla validità del voto e sulle circostanze che lo circondano, in parte per quanto riguarda le informazioni pertinenti appena ricevute oggi dal Presidente della Unione Internazionale delle Scienze Geologiche. Quando questi saranno risolti e chiariti, speriamo tra breve, saremo lieti di commentare ulteriormente, ma sarebbe inappropriato parlare direttamente di questo argomento al momento.

Indipendentemente dal voto, l’AWG è pienamente convinto della sua proposta, che ha dimostrato senza ragionevole dubbio quanto segue:

  • Il sistema terrestre ora si trova chiaramente al di fuori delle condizioni interglaciali relativamente stabili che hanno caratterizzato l’Epoca dell’Olocene a partire da 11.700 anni fa.
  • I cambiamenti del sistema terrestre che segnano l’Antropocene sono collettivamente irreversibili, il che significa che un ritorno alle condizioni stabili dell’Olocene non è più possibile.
  • Gli strati di Antropocene sono distinti dagli strati dell’Olocene. Possono essere caratterizzati e tracciati utilizzando segnali sedimentari durevoli tra cui radionuclidi antropici, microplastiche, residui di cenere volante e pesticidi, la maggior parte dei quali mostrano forti aumenti a metà del XX secolo, in concomitanza con la “Grande Accelerazione” della popolazione, dell’industrializzazione e della globalizzazione.

David Harper, geologo dell’Università di Durham, nel Regno Unito, che presiede l’ICS (Commissione Internazionale di Stratigrafia), ha confermato a Nature che la proposta “non può essere portata avanti“. I sostenitori potrebbero proporre un’idea simile in futuro. Fra almeno 10 anni.

Nel frattempo il mondo si avvicinerà ad un disastro senza nome né responsabili.

Ringrazio per gli utili suggerimenti il collega Dario Zampieri geologo.

Da leggere anche: https://umaincertaantropologia.org/2024/03/06/the-anthropocene-is-dead-long-live-the-anthropocene-science/

https://www.nature.com/articles/d41586-024-00675-8

https://www.theguardian.com/science/2024/mar/07/quest-to-declare-anthropocene-an-epoch-descends-into-epic-row

Eccezionale scoperta alla Fiera Antiquaria di Arezzo

In evidenza

Roberto Poeti

Poco tempo fa, passeggiando tra le file di banchi della fiera antiquaria di Arezzo , che si tiene ogni prima domenica del mese, scorsi, sul tavolo di uno dei tanti banchini , il riflesso dorato, appena percepibile, di uno spettroscopio di Bunsen, quasi sommerso  da chincaglierie di ogni genere. Fu lunga e faticosa la trattativa per spuntare un prezzo ragionevole.

È sconcertante come un oggetto, per un chimico fortemente simbolico, si possa trovare abbandonato in mezzo a tante cose “superflue”. Sulla sua superficie è inciso il nome del costruttore e il luogo : “A. Krüss  – Hamburg”

Non è riportata la data di  fabbricazione. Ma ho scoperto che uno spettroscopio della stessa generazione, del tutto simile,  è conservato al Museo di Fisica dell’Università di Roma. Quest’ultimo venne acquistato  nel 1887 dal Regio Istituto Fisico di via Panisperna. Si tratta quindi di uno spettroscopio destinato alla ricerca.

Il primo spettroscopio

Il primo Spettroscopio ideato da Bunsen e  Kirchhoff risale al 1859-60.

È descritto in un articolo apparso nella rivista Annalen der Physik und der Chemie  dal titolo “Chemical Analysis by Observation of Spectra” a firmaGustav Kirchhoff e Robert Bunsen

https://www.chemteam.info/Chem-History/Kirchhoff-Bunsen-1860.html:

Lo seconda versione dello spettroscopio

Lo spettroscopio rinvenuto alla Fiera Antiquaria è proprio il modello che Bunsen e Kirchhoff hanno ottenuto con i miglioramenti  apportati alla prima versione.

Il primo modello di spettroscopio fu modificato da Bunsen e Kirchhoff apportandovi  alcuni miglioramenti. Il piccolo telescopio separato dal resto dello spettroscopio, utilizzato per l’orientamento del prisma e la scala graduata, ora costituisce un terzo braccio D fissato nel corpo dello spettroscopio. Reca a un estremo una lente e all’altro una scala di riferimento per le lunghezze d’onda  (generalmente incisa su di una lastrina di vetro) che, opportunamente illuminata, va a sovrapporre la propria immagine a quella dello spettro in esame. Il cannocchiale C, contenente l’ottica di osservazione, è provvisto di sistema di ingranaggio (con  vite micrometrica) che consente di variare l’angolazione reciproca di collimatore B e cannocchiale per la risoluzione delle diverse righe spettrali. A fianco della fenditura (la cui apertura è regolabile mediante una vite micrometrica), si trova un piccolo prisma, utilizzato per il confronto diretto tra uno spettro di riferimento e lo spettro in studio ( Nello spettroscopio questo elemento è mancante, è visibile nella immagine dello spettroscopio del museo di Pisa)  . Ciò si realizzava coprendo con tale prisma metà della fenditura, e facendo incidere su di esso della luce proveniente da una sorgente (un piccolo Bunsen) posta al lato del collimatore A. In tal modo lo spettro prodotto dal prisma aggiuntivo si andava a sovrapporre a quello dovuto al prisma principale, consentendo dunque uno studio simultaneo dei due spettri.

Dopo pochi anni questo strumento si diffonderà nei laboratori di chimica e fisica d’Europa commercializzato dalla azienda  di A. Krüss Optronic, una delle più antiche e prestigiose industrie tedesche nel campo degli strumenti ottici, fondata nel 1798 con sede ad Amburgo, tuttora operante.  

Lo spettroscopio rinvenuto alla Fiera antiquaria di Arezzo si aggiunge così , come ho riportato tempo fa  in un post sempre in questo blog , alla Enciclopedia completa del Prof. Francesco Selmi del 1870 e alla raccolta di lezioni di Chimica generale  del Prof. Gioacchino Taddei del 1850.

Quale sarà la prossima scoperta?

Felice come Chicco.

In evidenza

Luigi Campanella, già Presidente SCI

Ho avuto l’opportunità di leggere il libro “Elogio della crescita felice: contro l’integrazione ecologica” di Chicco Testa storico ambientalista, che però in questo suo testo, forse proprio per non volere dare una manifestazione eccessiva di tale posizione, finisce per produrre una via di mezzo, un volere stare con due piedi in due scarpe che non aiuta ad arrivare alla verità ed alla conoscenza. Testa parte da due considerazioni, le variazioni termiche fanno parte della storia del mondo e la complessità del sistema ambiente espone questo a tali e tante variabili che le sue variazioni sono difficilmente identificabili con un solo unico processo.

Testa poi considera 2 altri punti: l’incertezza del dato scientifico e, quasi come conseguenza di questa, l’impossibilità di previsioni affidabili. Capisco il fine dell’autore di non scontentare nessuno ma gli elementi portati a sostegno di un riequilibrio verso il negazionismo sembrano discutibili: il riscaldamento globale supera il range di variabilità, gli elementi della complessità ambientale sono stati ampiamente considerati e discussi dalla bibliografia scientifica, le tecnologie analitiche hanno fatto progressi tali da non potere mettere in discussione i risultati dei loro rilevamenti. Forse Testa avrebbe fatto meglio ad esprimere chiaramente il suo pensiero senza dare l’idea di trovare ad esso motivazioni difficili da accettare.

Anomalia termica media Italia; dati ISAC CNR.

Intanto registriamo che il 2023 è stato l’anno del riscaldamento record di +1,43°C rispetto ai livelli prendustriali, molto vicino alla soglia di allarme di 1,5 gradi. Con l’obbiettivo centrale dell’Europa del 45% di energia green entro il 2030 ed il Paese piu virtuoso la Svezia, con il 60%(seguita da Finlandia, Lettonia, Estonia) l’Italia è ferma ad un modesto 18,7%,con un ancor più modesto 2,4% dei fondi governativi dedicato a ricerca e sviluppo, mentre il 92%della popolazione è esposta ad oltre 10 microgrammi per metro cubo  di PM2.5 contro una media OCSE del 61.2%.Forse un’analisi più puntuale di questi dati chiarirebbe dubbi ed ambiguità

Separazione di enantiomeri mediante campi elettromagnetici.

In evidenza

Diego Tesauro

L’identificazione e la separazione degli enantiomeri per noi chimici ha sempre costituito una sfida, in quanto, essendo la vita basata su molecole chirali, l’interazione con le biomolecole è selettiva verso solo uno dei centri chirali. Soprattutto in campo farmaceutico un punto cruciale è l’ottenimento di molecole chirali. Si possono citare diversi esempi di farmaci i cui enantiomeri hanno effetti contrastanti sul nostro organismo. È noto che la D-penicillammina, derivato dall’idrolisi dell’antibiotico penicillina, è un farmaco con azione antinfiammatoria in alcune forme di artrite per il suo effetto chelante, mentre la L-penicillammina è tossica. Altro esempio è la talidomide (Figura 1), un farmaco utilizzato come sedativo, anti-nausea e ipnotico e successivamente come chemioterapico per diverse patologie. Ebbene prodotto in forma di racemo, fu ritirato dal commercio in quanto l’enantiomero S era teratogenico per cui le donne trattate con talidomide davano alla luce neonati con gravi alterazioni congenite dello sviluppo degli arti. Questi due esempi mostrano come l’analisi enantiomerica sia essenziale prodromo alla separazione. L’analisi degli enantiomeri può essere ottenuta in base alla loro interazione differenziale con campi elettromagnetici, come si manifesta nella rotazione ottica di polarizzazione, dicroismo circolare, o dispersione anomala in cristallografia a raggi X; o attraverso le interazioni con molecole chirali, come quelli presenti nella fase stazionaria in cromatografia. La spettrometria di massa (MS) è una potente piattaforma per l’analisi di miscele complesse con elevata specificità strutturale. Sebbene la determinazione dell’eccesso enantiomerico venga spesso eseguita accoppiando la MS con la gascromatografia o la cromatografia liquida ad alta prestazione (HPLC) con la fase stazionaria chirale, il differenziamento diretto degli enantiomeri da parte della MS è rimasta una sfida importante. Sin dalla sua introduzione commerciale la spettrometria di massa a mobilità ionica (IMMS) [1] è stata ampiamente utilizzata nelle scienze chimiche, della vita e dei materiali per studiare la struttura molecolare ed è stata particolarmente potente nella separazione e caratterizzazione degli isomeri. Poiché hanno le stesse formule chimiche, gli isomeri spesso producono spettri di massa identici, ma possono essere differenziati dalla mobilità ionica, che misura gli ioni in virtù della disposizione dei loro atomi nello spazio tridimensionale (configurazione e conformazione). La mobilità ionica è stata ampiamente studiata per la separazione degli enantiomeri, ma questo è possibile solo dopo aver introdotto un modificatore chirale di qualche tipo per indurre un qualche carattere diastereomerico, essendo i diastereomeri separabili mediante la mobilità ionica.

Figura 1 I due enantiomeri della talidomide 

Recentemente, su Science [2] è stata riportata una nuova applicazione basata su una tecnica per rompere la simmetria chirale e differenziare gli enantiomeri inducendo la rotazione direzionale di ioni chirali in fase gassosa. Per ottenere questo risultato sono state applicate doppie eccitazioni a corrente alternata per alterare i movimenti degli ioni intrappolati, includendo la rotazione attorno al centro di massa e il macromovimento attorno al centro della trappola ionica (vedi figura sotto)

Gli autori riportano che le differenze nelle rotazioni direzionali sono risultate nelle differenze notate nella forza di trascinamento nel macromovimento degli ioni dovuto alle collisioni con le molecole del gas di fondo. Ciò ha portato alle differenze nell’ampiezza del macromovimento e la possibile differenziazione degli ioni enantiomerici intrappolati. Attraverso la scansione della tensione alternata, la differenziazione in ampiezza degli ioni enantiomerici è risultata incrementata, di conseguenza gli ioni sono stati espulsi in sequenza a distanza dalla trappola.

Quindi ogni enantiomero sperimenta un comportamento di collisione distinto, portando a una separazione sufficiente per la quantificazione ad alta risoluzione. La tecnica è stata applicata oltre per la identificazione degli enantiomeri dei due farmaci citati in particolare della Talidomide, presa come modello, anche per alcuni amminoacidi. Inoltre come proof of concept la tecnica è stata applicata all’identificazione rapida dell’eccesso enantiomerico prodotto dalla reazione di idrogenazione asimmetrica della 2-(3,4-dimetossi)fenetil-chinolina catalizzata da quattro complessi di manganese (Figura 2).

Figura 2 (Copyright Science) Il rapido screening di catalizzatori per l’idrogenazione asimmetrica. (A) Idrogenazione asimmetrica della 2(3,4 dimetossi)fenetilchinolina catalizzata da alcuni complessi di manganese coordinati con L1, (SC,RFC)-N-2-(1H-imidazol-2-yl)- 1-(2-bis[3,5-di-phenylphenyl]phosphine)-ferrocenylethylamine (rosa); s L2, (SC,RFC)-N-2-(1H-4(5)- phenyl-imidazol-2-yl)-1-(2-bisphenylphosphine)- ferrocenylethylamine (arancione); s L3, (SC, RFC)-N-2- (1H-imidazol-2-yl)-1-(2-diphenylphosphino)- ferrocenylethylamine (blu); s L4, (SC, RFC)-N-2- (1H-benzo[d]imidazol-2-yl)-1-(2-diphenylphosphino)- ferrocenylethylamine (porpora). (B) Procedura per l’analisi diretta del grezzo di reazione t usando un MS. Il prodotto grezzo di meno di 10 ng fu trasferito nel nanoESI, diluito con 10 mL di acetonitrile, e iniettando nell’ ESI per l’analisi MS/MS e l’analisi degli e.e.  (C) Spettro MS del grezzo di reazione (D) Spettri di MS/MS del prodotto di idrogenazione isolato (sinistra) con la struttura per mostrare la frammentazione (destra). (E) Spettri (sinistra) e valori dei prodotti di reazione con i valori di e.e. (destra) usando catalizzatori con differenti ligandi: s L1(rosa); s L2(arancione); s L3(blu); s L4(porpora). Misure di e.e. =  IS – IR / IR + IS, dove IR e IS sono le intensità di R e S-2-(3,4-dimetossifenetil)- 1,2,3,4-tetraidrochinolina. Ciascun valore rappresenta la media di 10 replicati.

Questi promettenti risultati schiudono le porte quindi alla possibilità di una separazione di enantiomeri senza indurre modificazioni chimiche e soprattutto alla possibilità di analizzare le miscele enantiomeriche al fine di determinarne la composizione utilizzando quantità di materia dell’ordine dei nanogrammi prelevando direttamente da un grezzo di reazione.

Bibliografia

1)  Pringle, S. D.; Giles, K.; Wildgoose, J. L.; Williams, J. P.; Slade, S. E.; Thalassinos, K.; Bateman, R. H.; Bowers, M. T.; Scrivens, J. H. An Investigation of the Mobility Separation of Some Peptide and Protein Ions Using a New Hybrid Quadrupole/Travelling Wave IMS/Oa-ToF Instrument. Int. J. Mass Spectrom. 2007, 261 (1), 1– 12. https://doi.org/ HYPERLINK “https://doi.org/10.1016/j.ijms.2006.07.021″10.1016/j.ijms.2006.07.021

2) Zhou, X.; Wang, Z.; Li, S.; Rong, X.; Bu, J.; Liu, Q.; Ouyang Z. Differentiating enantiomers by directional rotation of ions in a mass spectrometer Science 2024, 383, 612–618. https://doi.o HYPERLINK “https://doi.org/10.1126/science.adj8342″rg/10.1126/ HYPERLINK “https://doi.org/10.1126/science.adj8342″science.adj8342

“Dai diamanti non nasce niente, dal letame nascono i fior”

In evidenza

Mauro Icardi

Il titolo del post è tratto da una canzone famosa e struggente di Fabrizio De Andrè. Volendo esaminare questa strofa dal punto di vista del chimico del ciclo idrico è un tentativo, forse anche provocatorio, di far comprendere la necessità del riciclo e riuso dell’acqua. Dell’acqua oggi quasi tutti abbiamo un’idea fortemente influenzata dall’immaginazione e dalla pubblicità.

In un mondo dove l’automazione e l’intelligenza artificiale potrebbero sostituirsi al lavoro degli uomini, questi ultimi continuano ad occuparsi della gestione delle reti fognarie e degli impianti di trattamento delle acque che le raccolgono per essere trattate. Oggi che persino l’acqua del rubinetto viene spesso snobbata in favore della neoacqua che la pubblicità ogni giorno ci propone, diventa difficile e faticoso pensare che ci siano persone interessate a capire l’importanza del riciclo e riuso dell’acqua di fognatura.

Altrove hanno capito meglio le potenzialità del riuso delle acque reflue, e si sono adattati con maggior pragmatismo e minore ribrezzo.

A Singapore il Public Utilities Board ha creato il marchio NEWater©, dato alle acque reflue di recupero altamente trattate. La NEWater viene prodotta purificando ulteriormente le acque reflue trattate in modo convenzionale, attraverso la microfiltrazione, l’osmosi inversa e l’irradiazione ultravioletta. L’acqua è di qualità potabile e può essere aggiunta nelle falde o nei serbatoi, da dove viene prelevata e ulteriormente potabilizzata prima dell’immissione nella rete acquedottistica. La maggior parte dell’acqua di nuova generazione viene attualmente utilizzata per scopi non potabili, soprattutto da industrie che richiedono un’elevata purezza dell’acqua di processo. Per esempio l’industria dei semiconduttori. Singapore ha iniziato a prendere in considerazione il riciclaggio dell’acqua per aumentare le sue limitate riserve di acqua dolce, a partire dagli anni ’70. Un Piano Regolatore redatto nel 1972 propose il recupero dell’acqua e la desalinizzazione, come alternative per ridurre la dipendenza dall’importazione di acqua che al tempo veniva acquistata dalla Malesia.

 Ovviamente il processo per ottenere quest’acqua tramite trattamento ad osmosi inversa non è applicabile ad ogni situazione.  L’acqua depurata può essere utilizzata per il mantenimento degli ecosistemi. Pensiamo a quanto avviene anche in Italia, quando i fiumi restano in secca e sono alimentati unicamente dagli scarichi dei depuratori. Quell’acqua è l’unica che permette il mantenimento di un ecosistema per quel corso d’acqua durante l’emergenza. In Italia anche un fiume certamente non minore come il Lambro è rimasto senz’acqua. Questa situazione si è verificata nel 2015, nel 2017 e nel 2020 quindi un’emergenza tristemente normalizzata.

Singapore rappresenta una singolarità per molti aspetti: è una città stato dove le decisioni in materia di acqua sono prese in maniera illuminata ma unilaterale. Però questo progetto ci fa capire che quando si conosce bene l’acqua, quando non esistono preconcetti o superficialità, si possono intraprendere azioni virtuose nel concreto.

Dove si fa strada l’idea che l’acqua sporca non è un rifiuto da far sparire, ma può essere trasformata per altri usi, o per produrre energia si è già fatto un gran passo avanti. E anche la canzone di un cantautore (anche se io preferisco definirlo un poeta) può essere utile per un cambio di mentalità. Per altro più che mai necessario. Educandoci al concetto della circolarità, dei cerchi da chiudere, anche quando come in questo caso il sentimento di rifiuto o ribrezzo sovrasta ogni considerazione più razionale.

Le batterie atomiche sono delle baggianate?

In evidenza

Claudio Della Volpe

In questi giorni torna ripetutamente in rete il mito della batteria atomica eterna, quella che negli anni 50 o 60 ogni tanto balenava nei racconti di Asimov; chi ha letto Asimov ricorderà certamente le minicentrali nucleari piccole come un pugno su cui alcuni degli eroi della Prima Fondazione facevano affidamento: alimentavano le armi, gli scudi personali ma anche i gioielli delle donne e nascevano dalla esigenza degli scienziati di Terminus, il pianeta della Prima Fondazione che era povero di metalli.

L’emblema dell’impero galattico, il Sole e l’astronave, che era stampato su tutti i dispositivi descritti nei romanzi di Asimov.

Nella realtà storica le cose sono andate diversamente, almeno finora.

Il primo dispositivo fondato su questa reazione per produrre energia elettrica è stato creato per la prima volta nel 1913 da Henry Moseley: in quel caso, gli elettroni provenienti dal decadimento beta del radio generavano la differenza di potenziale tra due elementi del dispositivo ed erano alla base del circuito elettrico. Tuttavia, tale prototipo non era molto potente e la corrente era troppo bassa per trovare applicazioni pratiche. Un passo avanti fu compiuto nel 1953, quando Paul Rappaport propose l’uso di semiconduttori per convertire l’energia del decadimento beta in energia elettrica, queste batterie erano più energetiche e furono utilizzate negli anni ’70 nei pacemaker.(da Wired)

Il risultato finale del lavoro di Rappaport ed altri ricercatori fu la seguente Betacel, prodotta nei primi anni 60 ai Donald W. Douglas Laboratories, un generatore beta basato su 147Pm

https://citylabs.net/betavoltaic-batteries-a-historical-review

Con un volume di 16 cm3, di cui un terzo schermatura, il dispositivo produceva 400 μW, con una efficienza finale del 4%. (densità di potenza di 25μW/cm3)

Il processo non è dissimile da quello che fa funzionare le celle FV, solo che l’origine delle cariche libere non è la luce solare che eccita gli elettroni, ma le reazioni nucleari di emissione “beta” che avvengono in alcuni isotopi.

La barriera elettrica presente nella giunzione a semiconduttore impedisce l’annichilimento delle cariche libere, che devono allora procedere lungo il circuito elettrico; è esattamente quel che avviene nel fotovoltaico, ma con una sorgente primaria diversa dalla luce solare, un pezzo di emettitore beta (elettroni).

Il dispositivo che vedete qui sotto è invece quello russo del 2018, il cui principio è sempre lo stesso anche se con qualche modifica.

Un sottile strato di isotopo, in questo caso 63Ni, che poi si trasformerà in rame non radioattivo con un tempo di decadimento di 104 anni circa, funziona sia da emettitore beta che da connettore negativo, risparmiando materiale. Uno strato di diamante di 50microns depositato sottovuoto funge da “assorbitore” ; il giallo rappresenta il carico ohmico; gli elettroni a causa del diodo Schottky in verde scuro, (una giunzione formata da un metallo ed un semiconduttore) sono costretti a scorrere nel circuito esterno; notate la costruzione in serie.

Densità finale di potenza 10μW/cm3, ma con una sorgente beta molto più maneggevole e sicura.

Uno schema più generale è il seguente:

Come vedete l’emettitore ha effetto sia dal lato n che dal lato p della giunzione.

Il generatore cinese, denominato Betavolt, di cui si parla in questi giorni è rappresentato qui sotto

Ha dimensioni di 1.5×1.5×0.5 cm e genera una corrente di 33μA o 100μW a 3V per un periodo dichiarato di 50 anni; la generazione, come per tutte le reazioni nucleari non risente delle condizioni ambientali.

Usando i numeri forniti da Betavolt si può calcolare che il volume della singola cella è di 1.125cm3, e la densità di potenza è di poco meno di 90μW/cm3, circa 4 volte maggiore di quella di Rapaport e come nel generatore russo la sorgente beta è 63Ni che ha una emivita di un secolo e che si produce per esposizione di alcune centinaia di ore in un reattore nucleare di 62Ni.

Adesso facciamo qualche confronto; supponiamo che la potenza non cambi per 50anni (ma il generatore decade!); avremmo allora che nella singola cella betavoltaica sono stati immagazzinati 158kJ; ossia 140kJ/cm3 o 140MJ/L. Si tratta di una energia immagazzinata che si trasforma in 50 anni, però non tutta subito come poniamo quella di 1g di idrogeno che venga bruciato in aria o ossidato in una cella a combustibile.

Se sostituissimo il serbatoio della nostra auto da 50L con 50 litri di batterie betavoltaiche è vero che avremmo 50 anni di autonomia ma solo per una potenza di 4.5W continui, con i quali al massimo faremmo andare per 50 anni un cellulare.

Anche aumentando di 10 volte la potenza (ancora lontana come risultato) non riusciremmo ad andare oltre i 45W continui, ma dovremmo trascinarci dietro i 50 litri di nichel ed altri materiali, alcuni quintali di generatore insomma.

E’ da dire che la efficienza finale della conversione fra energia nucleare ed energia elettrica è abbastanza basso: si stima del 28% nel caso dell’uso di uno strato di diamante (simile a quello del dispositivo russo e cinese); basso in assoluto ma non lontano dal limite teorico (lo stesso del FV il limite di Shockley-Queisser); e comunque questo fattore non contiene il costo energetico per produrre il beta emettitore.

La fantasia di Asimov era veramente futuribile e il minireattore nucleare dell’impero galattico, piccolo come una noce, quello che faceva funzionare pistole laser, astronavi, schermi energetici e altre meraviglie è ancora di là da venire. Dopo tutto l’impero galattico durerà dodicimila anni ed avremo tempo per inventare un minireattore.

Ma prima dobbiamo superare la crisi ecologica e sociale attuale.

E per quella aiuta il fotovoltaico, il betavoltaico ancora non ce la fa.

Da leggere:

https://www.sciencedirect.com/science/article/abs/pii/B9780128233009000030

https://citylabs.net/technology-overview

https://en.wikipedia.org/wiki/Betavoltaic_device

http://large.stanford.edu/courses/2013/ph241/harrison2/

Sulla recente storia di questi dispositivi e le loro prospettive in rapporto ai rifiuti nucleari si veda:

https://link.springer.com/article/10.1007/s41365-023-01189-0

Donne STEM

In evidenza

Luigi Campanella, già Presidente SCI

Domenica scorsa 4 febbraio si è celebrata la Giornata Internazionale delle donne nella Scienza, dedicata ad avvicinare le donne alla professione STEM.

Delle donne che frequentano l’Università soltanto il 14%, frequenta facoltà di Scienza, Tecnologia, Ingegneria e Matematica. Anche la RAI si è occupata dell’evento producendo la serie “Women of Science” che vuole ispirare le ragazze a divenire Donne di Scienza raccontando di scienziate le cui storie si affiancano alla imprenditorialità al servizio della società civile. Tra le 6 scienziate raccontate c’è l’italiana Monica Gori, Senior presso l’IIT di Genova dove dirige il laboratorio dell’Unità per persone con disabilità visive.

Le altre storie riguardano 

-la britannica Anne-Marie Imafidon che ha fondato “Stemettes” impresa per la promozione delle donne in carriera

-la belga Sarah Baatout che presso il Centro Nucleare di Mol studia l’effetto delle radiazioni ionizzanti sulla salute

-la tedesca Tiziana Brauer che presso il Centro Aerospaziale tedesco misura l’effetto delle scie di condensazione dagli aerei sul clima

-l’austriaca Doris Schlaffer che coordina una Rete di oltre 1600 donne attive nella scienza

-la lituana Ieva Plikusiene dell’Università di Vilnius dove studia biosensori ottici per rilevare proteine marker di virus o tumori

C’è stato pure uno spettacolo teatrale finalizzato agli scopi della Giornata: si intitolava La Forza Nascosta dedicato a 4 grandi scienziate del 900 (Vera Rubin, Marietta Blau, Chien-ShungWu e Milla Baldo-Ceolin).Molti gli Enti italiani coinvolti sia universitari come l’Università di Tor Vergata che EPR come ENEA, CNR, ASI, INAF

Fa piacere che in questo evento la chimica sia stata ufficialmente presente con un tema, quello della sensoristica, che dopo un boom iniziale sembrava essere alla ricerca di nuovi stimoli. Questi sono arrivati nel rapporto con i temi della Salute per difenderci dai virus rilevando con azione preventiva marker di patologie pericolose e con le applicazioni alla tele-medicina: l’invecchiamento della popolazione obbliga, per monitorarne lo stato di salute, a seguirne stato ed alterazioni indipendentemente da tempi e luoghi.

Anno 1615: la prima rappresentazione di una Equazione Chimica.

In evidenza

Roberto Poeti

Nel 1607 si iniziarono a tenere a Parigi le prime lezioni, private, di chimica. Erano aperte al pubblico, gratuite, per lo più frequentate da studenti della facoltà di Medicina e speziali. L’insegnante era Jean Béguin (1550 – 1620), uno iatrochimico, cioè chimico medico che divenne elemosiniere di Luigi XIII di Francia.  L’insegnamento di Beguin, che per il suo contenuto assieme all’obbiettivo di rendere accessibile la conoscenza, si contrapponeva alla segretezza della medicina tradizionale e alla sua impronta galenica, trovò una forte ostilità da parte della potente Facoltà di Parigi e degli ordini  medici.

Jean Béguin (1550 – 1620)

Per due volte il laboratorio di Beguin fu svaligiato, molti preziosi preparati furono distrutti e Beguin stesso fu picchiato. L’opposizione della Facoltà di Medicina alla chimica durò a lungo e l’insegnamento della chimica non fu consentito all’Università di Parigi fino alla fine del XVII secolo. Sebbene Beguin praticasse l’alchimia, distinse attentamente l’alchimia, che si occupava della trasmutazione dei metalli, dalla chimica pratica, finalizzata alla preparazione dei rimedi, che insegnava nel laboratorio da lui allestito.

Per guidare e orientare i suoi allievi, Béguin pubblicò nel 1610 un volumetto intitolato Tyrocinium chymicum e naturae fonte et manuali experientia depromptum, che fu molto popolare tra gli studenti di chimica. Da questo volumetto rivisto e ampliato con l’aggiunta di alcuni capitoli sui principi generali nasce la prima edizione del suo trattato completo, destinata al pubblico che apparve a Parigi nel 1612 e dovrebbe essere considerata l’Editio Princeps dell’opera di Beguin.  È del 1615 la prima traduzione in francese, con il titolo Les Éléments de chimie, de maître Jean Béguin, aumônier du roi, e la prima traduzione in inglese è del 1669. Questo testo fu l’opera classica più popolare del XVII secolo, poiché tra il 1612 e il 1690 furono pubblicate quasi 50 edizioni, per lo più in latino. Il Tyrocinium chymicum inaugurò un nuovo genere di opere chimiche, l’introduzione per un pubblico più vasto e interessato. Questo genere fu tra i presupposti per l’eventuale emergere della scienza chimica. Il testo principale è diviso in tre libri composti rispettivamente da sei, venti e tre capitoli come appare nell’Index Capitum.

Anche se l’opera si conclude con una nota esoterica (il terzo libro), Béguin si distingue dagli altri chimici medici che circondano di segretezza le loro attività. Egli intende in linea di massima la chimica come una branca della farmacologia e desidera insegnare le sue conoscenze a tutti coloro che sono interessati. Che egli voglia che il suo libro sia utile dal punto di vista pratico è evidente dalle sue osservazioni chiare e precise sugli strumenti e le tecniche chimiche e dalle sue numerose definizioni di termini tecnici nella parte iniziale del suo lavoro.

Il testo principale è diviso in tre libri composti rispettivamente da sei, venti e tre capitoli come appare nell’Index Capitum.

 È una rappresentazione dell’arte chimica in antitesi con la segretezza delle operazioni alchemiche e non ha precedenti all’epoca di Beguin e per molto tempo costituirà un caso isolato. Beguin tuttavia non rifiuta la parte esoterica, mistica dell’alchimia, crede ancora fermamente nella trasmutazione. In lui si sta compiendo quella scissione dalla quale nascerà più avanti la scienza chimica.

Questa immagine ha l'attributo alt vuoto; il nome del file è image003.jpg

Ma c’è un capitolo del suo testo, contenuto nel Libro II, che si intitola De Calcinatione Antimonii in cui alla chiara volontà di trasmettere le sue conoscenze si aggiunge l’atteggiamento lucido e scientifico di Beguin.

Per inquadrare meglio l’originalità e acutezza del pensiero di Beguin è necessario premettere alcune notizie sul capitolo Antimonio.

 L ’Antimonio allo stato di metallo e nei suoi composti è stato nei secoli un protagonista della pratica alchemica prima e della chimica medica dopo.  Il minerale antimonio è citato da Dioscoride ( 40-90) con il nome di στίμμι ( stibi) tra i cinquanta medicamenti di origine minerale elencati nel De materia medica . Era noto anche a Plinio il Vecchio (23-79) come stibium. San Tommaso d’Aquino (1224-1274) nel suo L’Alchimia ovvero Trattato della pietra filosofale cita l’antimonio chiamandolo «Terra Hispanica». Basilius Valentinus (1394? – …) monaco benedettino e alchimista tedesco, nella sua opera Il carro trionfale dell’antimonio celebra le qualità medicinali precisando che: «L’Antimonio è veleno, ma benché tale si può convertire in suprema medicina da adoprarsi internamente ed esternamente». Paracelso (1493-1541) confermò le virtù deostruenti ed emetiche dei sali d’antimonio affermando «antimonium omnes morbos tollit». La polvere di Vittorio Algarotti (1553-1604), medico veronese, è una miscela di ossicloruro e ossido di antimonio, all’epoca usata in terapia come purgante ed emetico. Nel 1707 il chimico e medico Nicolas Lemery produsse il monumentale Traité de l’Antimonine, tradotto in italiano nel 1717.

Nel suo testo Tyrocinium Chymicum, Beguin non poteva non trattare anche l’antimonio. Dopo aver parlato di varie calcinazioni dell’antimonio, nel paragrafo Autre calcination d’antimoine, appelle poudre Emetic ou Mercure de vie ci descrive la preparazione di uno dei farmaci più discussi e utilizzati nella iatrochimica, l’ossicloruro di antimonio SbOCl (poiché il composto funziona sia come emetico che come lassativo, era originariamente usato come purgante).

Veniva chiamato antimonio o antimonio crudo, la stibnite Sb2S3che si otteneva per fusione del minerale, separandola dalla ganga. Il sublimato corrosivo è HgCl2. La distillazione del miscuglio produceva una sostanza densa, volatile, che era chiamata burro di antimonio, SbCl3. Parte si fermava lungo il collo della storta e tramite una fonte di calore si faceva colare nel recipiente contenete acqua. L’idrolisi del cloruro

 SbCl3 + H2O → SbOCl + 2 HCl

forniva la polvere bianca di ossicloruro di antimonio, poudre Emetic o Mercure de vie o poudre d’Algarotti, dal nome di Vittorio Algarotti Medico di Verona, che gli diede la popolarità, o fiori di burro d’antimonio, che veniva lavata per togliere l’acrimonia, le tracce di acido cloridrico.

Nella storta rimaneva il solfuro di mercurio, il cinabro rosso, che veniva fatto sublimare e raccolto sul collo della storta.

Prima di leggere le sue considerazioni, per meglio comprenderne la forte valenza delle sue conclusioni, è necessario chiarire alcuni termini di cui fa uso. Si incontra il termine regolo dell’antimonio [8]. Abbiamo già visto che antimonio semplicemente o antimonio crudo significava la stibnite Sb2S3 . Ma era conosciuto anche il metallo, che veniva chiamato regolo di antimonio. Il nome latino Regulus, cioè reuccio, era stato attribuito dagli alchimisti, perché pensavano che l’antimonio poteva trasformarsi in oro, considerato come il re dei metalli. Parla di spirito vetriolico, e l’acido a cui si riferisce è l’acido cloridrico.

Intanto sottolineiamo che quello che afferma “per una ragione basata sull’esperienza (poiché non ammetto altro in questa arte)” è una dichiarazione manifesta di fiducia nel metodo sperimentale, e questo lo distingue dalla pratica alchemica.

 “..che la polvere emetica non è altro che la regola dell’antimonio, disciolta e calcinata dallo spirito vitriolico del sublimato” è traducibile:SbCl3 deriva dall’antimonio metallo che si combina con il cloro (spirito vetriolico) di HgCl2 (sublimato). Osserva che l’acido cloridrico si combina con i metalli tanto più quanto è elevato il loro carattere metallico. Questa proprietà gli permette di trarre una coerente conclusione:

Seguiamo il ragionamento induttivo-sperimentale di Beguin. La natura metallica dell’antimonio è maggiore di quella del mercurio, questo spiega perché il cloro (spirito vetriolico) legato al mercurio nel sublimato (HgCl2) lasci il mercurio e si leghi al metallo antimonio, formando “un liquore gommoso od oleoso”, che è SbCl3. Questo prodotto era chiamato burro di antimonio. Veniva fatto cadere nel recipiente di raccolta che conteneva acqua. Qui l’osservazione di Beguin è sottile: SbCl3 in acqua subisce idrolisi, si libera HCl che rende acida la soluzione. Ciò non passa inosservato a Beguin e così spiega l’idrolisi.

“.. lo spirito vetriolico si scioglie nell’acqua. Lo si riconosce dal sapore dell’acqua, che è impregnata di spirito vetriolico.”

Il composto che si forma SbOCl è la polvere bianca che contiene più o meno spirito vetriolico (secondo quanto è lavato), e il regolo di antimonio, perché sottoponendo SbClO a forte riscaldamento riottiene il metallo . Poi passa a considerare quello che rimane nella storta. Quando il liquore gommoso è stato tutto distillato nella storta resta il mercurio del sublimato (HgCl2) e lo zolfo dell’antimonio (Sb2S3), e poiché questi hanno un’estrema simpatia l’uno per l’altro, sublimano, riscaldando, nel collo della storta come cinabro (HgS). Egli conclude da queste incontrovertibili [infallibili] esperienze che la polvere emetica non è altro che un regolo di antimonio calcinato dallo spirito al vetriolo(HCl) del sublimato .

Beguin considera l’antimonio qualcosa di distinto rispetto al mercurio correggendo le opinioni contenute nell’Enciclopedie ancora cento anni dopo. Poi riassume quella che è virtualmente un’equazione in senso moderno di doppio scambio

La forma è un po’ differente, ma il suo significato è senza dubbio:

È in assoluto la prima rappresentazione di una reazione chimica. Si tratta di una di quelle intuizioni, spesso solitarie, che cadono nel vuoto, perché sono in forte anticipo rispetto al suo tempo. Non fece alcuna generalizzazione sulle reazioni chimiche. Passò un intero secolo prima che una simile generalizzazione fosse avanzata.

William Cullen (1710-1790) medico e chimico scozzese, noto per i suoi metodi di insegnamento innovativi, nei suoi appunti di lezioni che teneva all’Università di Edimburgo, fa uso di questo schema, che appare per la prima volta dopo quello di Beguin, nella sessione 1756-7

Sorprende la somiglianza di questa rappresentazione di una reazione a doppio scambio con l’equazione di Beguin di cento anni prima !

                                                                    La Chimica in Italia

Lascuola di Jean Beguin lasciò la sua impronta . Il suo allievo Jacques de Clave è riconosciuto dagli storici della scienza come uno dei primissimi (forse il primo) professore di chimica nelle università italiane. Già nell’autunno del 1626 fu nominato da Vincenzo Gonzaga, duca di Mantova e Monferrato, professore ordinario di chimica nel Pacifico Gymnasio Mantuano.

Questa effimera università era stata fondata a Mantova solo un anno prima, per crollare tragicamente tre anni dopo, nel 1629, in seguito alla morte del duca Vincenzo Gonzaga (fine 1627) e alla conseguente guerra di successione, portando infine al sacco di Mantova (1630).

L’unico precedente, per la posizione accademica di Jacques de Clave in Italia, era la posizione del medico scozzese Giacomo Macolo (presumibilmente il nome italianizzato di James McCole, o MacCallough). Nel 1614 fu incaricato di insegnare medicina chimica all’Università di Pisa. La sua posizione, tuttavia, scomparve nel 1618. Oltre a queste due brevi cariche accademiche a Pisa e Mantova, non esisteva in Italia alcuna cattedra di medicina chimica o chimica fino al XVIII secolo. L’Università di Bologna discusse l’istituzione di una cattedra di chimica nel 1617 e di nuovo nel 1633, ma non lo fece fino al 1737. Solo più tardi altre università italiane ne seguirono l’esempio.

Bibliografia

  • J. Le Ronde D’ Alembert, D. Diderot, Encyclopédie, ou Dictionnaire raisonné des sciences, des arts et des métiers, 1751, 14, 38
  • J.S. Davidson, Chemistry at the King’s Garden, University of Glasgow Department of Chemistry, 2005
  • D. Kahn, The First Private and Public Courses of Chymistry in Paris (and Italy) from Jean Beguin to William Davisson, Ambix, 2021, 68 (2-3 ), 247-272
  • Clericuccio, Teaching Chemistry and Chemical Textbooks in France. From Beguin to Lemery, Science & Education 15(2), 335-355
  • Clericuccio, L’insegnamento della Chimica agli inizi dell’età moderna, Atti del XII Convegno Nazionale di
  • Storia e Fondamenti della Chimica, Firenze, 19-22 Settembre 2007, p.19
  • Archäologie, 27 Dic 2001,  L’estrazione dell'”Antimonium Crudum” nei pressi di Sulzburg nella Foresta Nera meridionale nel tardo Medioevo e nei tempi moderni   https://www.archaeologie-online.de/
  • T.S. Patterson, Jean Beguin and his Tyrocinum Chymicum, Annals of Science, 2, 1937, 243-298,

Il Cuoio in Maschera

In evidenza

Biagio Naviglio

La storia delle maschere ha origini molto lontane; sin dal paleolitico superiore l’uomo utilizzava maschere rituali durante riti tribali, magici e religiosi, per permettere a stregoni e sciamani di contrastare gli spiriti maligni. Oltre alle maschere rituali alcune tribù utilizzano anche maschere da guerra. Esse hanno il compito di incutere timore all’avversario e perciò devono avere un aspetto terribile.

La consuetudine di utilizzare maschere durante le cerimonie religiose esisteva anticamente anche presso i Greci. Queste rappresentazioni religiose si trasformarono gradualmente in rappresentazioni teatrali. A questi antichi attori le maschere greche offrivano diversi vantaggi. Grazie alle maschere un attore poteva sostenere diverse parti; inoltre, gli attori maschi potevano sostenere parti femminili, dato che alle donne non era permesso di recitare nei teatri. I lineamenti della maschera erano adatti al personaggio che l’attore doveva rappresentare: in questo modo si aiutava lo spettatore a distinguere i personaggi e a capire meglio la trama. Infine, la maschera era più grande della faccia dell’attore e in questo modo riusciva ad amplificare la sua voce.

Al tempo dei romani, durante i festeggiamenti dei Saturnali (riti pagani in onore del Dio Saturno), era previsto l’utilizzo di maschere. Queste feste popolari prevedevano ricchi banchetti a cui partecipavano tutti. Vi era un vero e proprio rovesciamento delle classi sociali favorito anche da maschere che impedivano il riconoscimento delle persone, le quali, per questo motivo, si lasciavano andare a qualsiasi genere di sfrenatezza. Secondo queste teorie, le origini del Carnevale italiano risalirebbero proprio a questo periodo e questi riti sarebbero sopravvissuti fino al Medioevo. Nel Medioevo si diffuse in tutta Europa l’uso di fare grandi e festosi cortei mascherati, che percorrevano le vie delle città. Durante il Carnevale medievale l’uso del travestimento permetteva di abbattere le barriere sociali della ricchezza e del rango: in questo periodo dell’anno il ricco, mascherato da povero, poteva permettersi certi comportamenti non concessigli nella vita quotidiana ed il povero, travestito naturalmente da ricco, poteva accedere a luoghi di solito proibiti ed avvicinare persone inaccessibili.

Verso la fine del XVI secolo, in Italia si diffuse la “Commedia dell’arte”, che utilizzava le maschere italiane, cioè personaggi che ricomparivano in ogni commedia con lo stesso nome, lo stesso costume, lo stesso trucco o maschera, lo stesso linguaggio e soprattutto lo stesso carattere. Questi personaggi, come Arlecchino, Pantalone, Colombina, Balanzone, Pulcinella divennero famosi in tutta Europa (figura 1). Il declino del teatro delle maschere iniziò nel XVIII secolo, quando autori come Carlo Goldoni abolirono le loro avventure grottesche e ridimensionarono il loro ruolo, riducendole a figure di contorno.

Figura 1: Eduardo De Filippo: Pulcinella

La maschera, nel senso ristretto e abituale della parola, è un finto volto che viene posto sul viso allo scopo di non essere riconosciuti; finto volto che può essere, di cartapesta, plastica, legno o altro materiale, riproducente lineamenti umani, animali o del tutto immaginarî e generalmente fornito di fori per gli occhi e la bocca; può essere indossata a scopo di spettacolo (per comunicare con immediatezza il carattere e la funzione di un personaggio), di divertimento (come le maschere dai tratti spesso grotteschi che si usano per il carnevale), o semplicemente per non farsi riconoscere.

In ambito sanitario la maschera, di forma e materia assai varie, può essere indossata come un dispositivo di protezione (del volto o delle vie respiratorie), per evitare possibili conseguenze di un’attività, di una professione, di uno sport, o per altri particolari scopi. Ad esempio, in ambito sportivo, a seguito di un trauma che interessa la zona del viso, è necessario utilizzare una protezione per consentire all’atleta di svolgere l’attività sportiva in totale sicurezza. In sostanza, le maschere protettive possono essere utilizzate per coprire e proteggere le parti del viso interessate o instabili, come ossa nasali, mascellari o zigomatiche fratturate.

A tale riguardo, una maschera protettiva famosa è quella indossata da Oshimen, centravanti del Napoli, tenuto conto che è diventata un vero e proprio oggetto di culto da parte dei tifosi napoletani in quanto simbolo significativo del terzo scudetto del club azzurro (figura 2).

Figura 2: Maschera di protezione indossata da Oshimen

La maschera protettiva di Oshimen è costituita da un materiale composito a base di fibre di kevlar e carbonio; il kevlar è una fibra sintetica aramidica, inventata nel 1965 da una ricercatrice della DuPont, caratterizzata, tra l’altro, da una elevata resistenza all’impatto.

Il termine aramide indica delle poliammidi aromatiche e deriva da aramid, contrazione dell’inglese ARomatic poly-AMIDes. Le poliammidi sono macromolecole caratterizzate dal legame ammidico CO-NH, formalmente derivante dalla condensazione di un acido carbossilico e di un’ammina (figura 3).

Figura 3: Struttura del Kevlar

Uno degli utilizzi più noti del kevlar è nei giubbotti antiproiettile: la sua elevata resistenza è utilizzata per assorbire, tramite deformazione plastica, l’energia cinetica dei proiettili.

L’azienda ortopedica, che ha realizzato la maschera protettiva, ha ricalcato la mascherina su misura, partendo da un calco della testa del nigeriano.

In un contesto sanitario/ortopedico, quindi, le maschere utilizzate per la protezione del viso, sono generalmente costituite da materiali innovativi caratterizzati da elevate prestazioni meccaniche come, ad esempio, la resistenza agli urti.

Per quanto riguarda, invece, le maschere teatrali e carnevalesche esse sono realizzate prevalentemente con materiali tradizionali che variano dalla cartapesta al legno, dalle plastiche ai materiali siliconici. La maggior parte di essi, però, non permette alla cute di respirare; sono materiali adatti ad un uso saltuario, occasionale e non di lunga durata, come quello teatrale. La cartapesta, al contrario di quanto si possa pensare non è traspirante, perché è costituita non solo da carta, ma anche da numerosi strati di colla. Con un uso prolungato la maschera rischia di sfaldarsi completamente. Il legno per entrambi gli aspetti è migliore della cartapesta, ma è molto rigido e stanca l’attore.

Anche il cuoio, per secoli è stato utilizzato nella fabbricazione di maschere teatrali e carnevalesche; in particolare, Il cuoio è forse il materiale più affascinante per quanto riguarda le maschere della Commedia dell’Arte, non solo per le tecniche di lavorazione reinventate nel Novecento dallo scultore Amleto Sartori, ma per il rapporto quasi simbiotico che instaura col volto dell’attore.

La Commedia dell’Arte, in Italia, torna nei teatri solo dopo la Seconda guerra mondiale grazie all’opera di Giorgio Strehler con il celebre allestimento di “Arlecchino servitore di due padroni“; a ridosso dell’esperienza strehleriana l’artigianato della maschera da commedia riprende vita e Amleto Sartori, scultore, reinventa la tecnica di costruzione della maschera in cuoio su stampo in legno. Le fasi di lavorazione per la realizzazione delle maschere di cuoio furono ricavate soprattutto dalla conoscenza delle tecniche del restauro degli antichi volumi rilegati in cuoio e pergamena.

Il cuoio, rispetto agli altri materiali, lascia traspirare la pelle, si adatta al viso di chi indossa la maschera, ne prende la forma con l’uso; trasmette caldo e freddo, non affatica l’attore anche dopo molte ore di utilizzo; l’uso frequente non la danneggia, ma anzi ne aumenta la morbidezza, la calzabilità, la comodità e le dona quella particolare patina superficiale che solo il tempo e il sudore dell’attore sanno conferirle. Il cuoio per la costruzione delle maschere deve avere la particolarità di assorbire bene l’acqua, non deve essere quindi cerato o impermeabilizzato; in sostanza deve essere trattato il meno possibile; il cuoio deve possedere due caratteristiche principali: permeabilità all’aria ed al vapore acqueo. Adeguatamente trattato, il cuoio è perfettamente plasmabile, in grado di riprodurre fedelmente il calco che permette all’attore di recitare con estrema disinvoltura perché la maschera, dello spessore di qualche millimetro, è fatta su misura ed assicura la migliore veridicità di espressione.

La pelle bovina, se conciata al vegetale, ha la caratteristica di rimanere in forma lavorandola; ha nella sua struttura una memoria che è quella che consente di effettuare pieghe e lavorazioni che rimarranno ferme e non si modificheranno nel tempo.

Le maschere teatrali in cuoio sono dei prodotti di alto artigianato artistico ed i “Mastri Mascherai” affermano che il cuoio deve essere “fianco di vacchetta conciato al vegetalenon colorato e senza alcun tipo di trattamento ulteriore. La concia al vegetale è la sola che permette al cuoio di mantenere la forma desiderata”.

Il termine vacchetta indica una pelle bovina conciata al vegetale che può essere utilizzata per diverse destinazioni d’uso (pelletteria, tomaia, ecc.); per concia vegetale si intende un tipo di trattamento in grado di stabilizzare la pelle mediante impiego di tannini vegetali estratti, ad esempio, dal legno delle piante (castagno, quebracho, mimosa).

La “classica vacchetta” è un prodotto che viene realizzato in Toscana, ed in particolare, dalle concerie ubicate nella zona di Ponte a Egola – San Miniato – S. Croce S/Arno in provincia di Pisa.

In generale, quindi, per la costruzione delle maschere in cuoio viene impiegato cuoio al vegetale (cioè conciato con tannini naturali estratti dalle piante) adeguatamente “sbagnato”* in acqua calda; dopo un lungo periodo di applicazione su calco, che può essere di gesso, di legno o plastica, sul quale viene fissato ai lembi con puntine, si procede alla “battitura” con martelletti di varia forma e peso. Nelle maschere artistiche si tiene anche conto dell’angolo di incidenza della luce (se da usarsi in palcoscenico) e dei particolari effetti ottenibili con la colorazione. Questa viene applicata con coloranti basici, che sono i più adatti allo scopo.

* una volta scelto il pezzo di cuoio, esso va immerso in acqua per alcune ore, manipolato, tirato e strizzato più volte per sfibrarlo e ammorbidirlo; poi viene fatto aderire con le dita sulla matrice di legno, alla quale viene fissato sul retro con puntine di ottone, inerti all’ossidazione cui vanno invece soggette le puntine di ferro a contatto con l’acqua.

Bibliografia

  1. Simoncini A., Chiacchierini E., De Simone G., Cuoi speciali difficilmente sostituibili, XI Congresso Nazionale di Merceologia, Napoli, 1984
  2. Squadroni L., Le maschere in cuoio e le loro origini, La Conceria, 91 (14), 8 (1984)
  3. Squadroni L., Le maschere in cuoio, La Conceria, 91 (18), 18 (1984)
  4. Geri G., Smascherati. Strategie e prodotti per un centro di innovazione e sviluppo della maschera, Tesi di L.M. in Design del Prodotto per l’Innovazione, Politecnico di Milano, A.A. 2013/2014
  5. Alvaro V., Materiali compositi a matrice cementizia per i rinforzi strutturali, Tesi di L.S. In Ingegneria Civile-Indirizzo Strutture, Università di Bologna, A.A., 2006-2007

La chimica del piano Mattei.

In evidenza

Claudio Della Volpe

In questi giorni il governo italiano ha iniziato una procedura, denominata piano Mattei (dl n. 161 del 15 novembre 2023), che intenderebbe riprendere le fila del progetto politico che Mattei cercò di realizzare fino alla data della sua morte a Bescapè, nel 1962.

Ne avevamo accennato in un post dell’estate scorsa di Vincenzo Balzani.

Si tratta di un approccio che potremmo definire “non predatorio” nei confronti dell’Africa da parte europea, volto alla promozione di uno sviluppo sostenibile e duraturo.

In realtà le cose andarono diversamente, ENI, dopo la morte di Mattei, si è caratterizzata in Africa e nel mondo intero per significativi scontri con la politica locale; l’esempio della Nigeria che abbiamo raccontato negli anni passati anche su La chimica e l’Industria o la storia del Kazakistan e  le ricadute sulla politica italiana (il caso Shalabaieva) e gli altri casi raccontati anche su questo blog (si veda per esempio l’articolo a più voci su Eni e dintorni del 2020 ) mostrano che l’ENI si comporta come tutte le multinazionali del mondo: appropriarsi delle risorse fossili di altri paesi mediante accordi (non sempre chiari, spesso con accuse di corruzione che spuntano da tutte le parti) con la politica locale e continuare a portare in Italia energia fossile, un piano che ormai non ha più senso; il dissesto climatico ci obbliga a cambiare direzione prima possibile; invece i nostri governanti, e l’ENI con loro, insistono per continuare a consumare fossili.

Il piano Mattei prevede di investire 5.5 miliardi di cui 3 stornati dalle precedenti decisioni di piano energetico “verde” per l’Italia.

Invece di insistere nella direzione di appoggiare lo sviluppo delle rinnovabili e di espandere l’attuale limitato apporto di accumuli necessari quando si usano le rinnovabili, che è la vera strozzatura della transizione energetica, si torna all’antico: gas gas gas!

Finora non ha funzionato un certo approccio paternalistico e predatorio”, ha spiegato Meloni. “Quello che va fatto in Africa non è carità, ma partnership strategiche da pari a pari”, ha aggiunto la premier.  Stando alle indiscrezioni, il progetto mirerebbe a mobilitare almeno 4 miliardi di fondi italiani nell’arco dei prossimi cinque-sette anni, coinvolgendo, per quanto possibile, tutto il sistema Italia.

https://tg24.sky.it/politica/2024/01/29/paesi-africani-piano-mattei

Le risorse fossili implicate nel piano sono quelle africane dell’ENI;

le origini del piano stanno nelle “radici africane” di ENI, chiare da ben prima del “piano Mattei”; ENI è nell’Africa sub-sahariana dagli anni ‘60 ed è operativa in progetti di esplorazione e produzione in Angola, Congo, Ghana, Gabon, Mozambico, Nigeria, Repubblica Democratica del Congo, Togo, Kenya e Liberia.

La forte presenza in Africa e le strategie per lo sviluppo di progetti in varie parti del Continente Nero hanno trasformato il cane a sei zampe nel principale operatore petrolifero mondiale in Africa. L’amministratore delegato dell’ENI, Claudio Descalzi, ha dichiarato più volte che l’Africa è la priorità per il gruppo e che la compagnia petrolifera continuerà ad investire massicciamente per rafforzare la produzione nei mercati africani.

Sarà per questo che nasce il piano Mattei? Dalla fusione di interessi fra l’ENI che ha forte presenza nel mercato africano dell’energia fossile ed il governo di destra che vuole fare della lotta all’immigrazione la principale priorità del paese? Sarà per questo che ENI ha la fama di nemico del pianeta?

Nell’articolo del 2018 si racconta cosa ha fatto l’ENI in Africa compresi i numerosi casi dubbi in cui la corruzione, l’inquinamento sono arrivati nelle aule dei tribunali italiani; l’ENI finora non è stata condannata, ma i dubbi sulle difficoltà di accertare la verità sono forti.

Perché questo piano dovrebbe essere diverso?

Già ridurre gli investimenti nella transizione e spostare i soldi sul gas è un arretramento importante per l’Italia, che il governo giustifica con la necessità di frenare gli sbarchi; ma bastano 5 miliardi per frenare un flusso che ha dietro di sé oltre un miliardo di persone che vivono con un reddito medio fra i 1000 ed i 5000 dollari all’anno?

Una goccia nel mare. E nel frattempo la transizione verso l’energia rinnovabile langue.

In sostanza dal mio punto di vista il piano Mattei, condito di gentili parole e grandi principi, è la scusa ENI per ridurre l’impegno in Italia sulle rinnovabili ed avere appoggi nel terreno che le è proprio e in cui controlla molti dei progetti continentali: il mercato africano. Con la scusa della minaccia “immigrazione selvaggia” (che copre una parte degli arrivi totali sia perché ne arrivano di più via terra sia perché non arrivano tutti dall’Africa) il governo appoggia il piano di penetrazione ENI in Africa e rallenta le rinnovabili in  Italia, dichiarando che il cambiamento climatico non è così importante.

Gattopardi: cambiare tutto per non cambiare nulla.

Daleggere:

autodifesa di ENI: https://www.eni.com/it-IT/media/caso-opl245-processo-nigeria/atti-giudiziari-milano.html

https://www.ilfattoquotidiano.it/2023/10/19/caso-shalabayeva-la-cassazione-ha-annullato-le-assoluzioni-dei-superpoliziotti-ci-sara-un-nuovo-appello/7328441

https://www.ilfattoquotidiano.it/2020/10/14/caso-shalabayeva-condannati-tutti-gli-imputati-cinque-anni-allattuale-questore-di-palermo-cortese-e-al-capo-della-polfer-improta/5966258

https://www.repubblica.it/cronaca/2023/10/20/news/caso_shalabayeva_protagonisti_misteri-418293099

Ricordate che in Kazakistan l’ENI ha fortissimi interessi petroliferi per il giacimento Kasciagan su cui tra l’altro insiste un problema ambientale

https://www.e-gazette.it/sezione/energia/accordisanzioni-eni-firma-intese-kazachistan-investe-evitare-megamulta-ambientale

Il plauso di Descalzi a Meloni per il piano Mattei potete leggerlo qua e capire cosa c’è dietro ai paroloni:

Il contenuto tecnico del “piano” che è poi un decreto legge lo trovate qui:

Il PNACC e i cittadini

In evidenza

Luigi Campanella, già Presidente SCI

Mi ha sorpreso leggere di quanto avvenuto a Roma dove un Gruppo di Associazioni di Cittadini non è riuscita ad interferire sulle scelte del Comune per l’applicazione di iniziative finalizzate ai comportamenti per essere resilienza rispetto ai cambiamenti climatici (vedi in fondo).

Questi rappresentano una delle sfide più rilevanti da affrontare a livello globale ed anche nazionale. L’Italia è infatti notoriamente soggetta ai rischi naturali (fenomeni di dissesto, alluvioni, erosione delle coste, carenza idrica). Inoltre l’aumento delle temperature e l’intensificarsi di eventi estremi connessi ai cambiamenti climatici (siccità, ondate di caldo, venti, piogge intense, ecc.) amplificano tali rischi i cui impatti economici, sociali e ambientali sono destinati ad aumentare nei prossimi decenni. È quindi evidente l’importanza dell’attuazione di azioni di adattamento nel territorio per far fronte ai rischi provocati dai cambiamenti climatici. PNACC è uno strumento nazionale che ha l’obiettivo di fornire un quadro di indirizzo per l’implementazione di azioni finalizzate a ridurre al minimo i rischi derivanti dai cambiamenti climatici, migliorare la capacità di adattamento dei sistemi naturali, sociali ed economici nonché trarre vantaggio dalle eventuali opportunità che si potranno presentare con le nuove condizioni climatiche.

Il Piano Nazionale di Adattamento al Cambiamento Climatico definisce le linee di comportamento per contrastare gli effetti di questo cambiamento a partire dall’analisi del rischio ambientale 

I primi passi a livello nazionale sono stati compiuti nel 2015, quando è stata adottata la Strategia nazionale di adattamento ai cambiamenti climatici (SNAC) che ha analizzato lo stato delle conoscenze scientifiche sugli impatti e sulla vulnerabilità ai cambiamenti climatici per i principali settori ambientali e socioeconomici e ha presentato un insieme di proposte e criteri d’azione per affrontare le conseguenze di tali cambiamenti e ridurne gli impatti.

 Successivamente l’Italia ha recepito gli indirizzi contenuti nei citati atti di fonte internazionale e dell’UE e, coerentemente con essi, oltreché con quanto previsto dalla SNAC, ha intrapreso rilevanti iniziative sul tema dell’adattamento proseguendo, inoltre, gli sforzi intrapresi dal 2017 per giungere all’approvazione di un Piano nazionale sull’adattamento ai cambiamenti climatici.È anche attiva la Piattaforma nazionale sull’adattamento ai cambiamenti climatici avvista molto di recente.In primo luogo, nel mese di ottobre 2022 il Ministero della Transizione Ecologica (ora Ministero dell’Ambiente e della Sicurezza Energetica – MASE), in collaborazione con l’Istituto Superiore per la Protezione e la Ricerca Ambientale (ISPRA), ha pubblicato la Piattaforma nazionale sull’adattamento ai cambiamenti climatici, un portale finalizzato ad informare e sensibilizzare i cittadini e i portatori di interessi sulla tematica dell’adattamento ed a rendere disponibili dati e strumenti utili a supportare la Pubblica Amministrazione nei processi decisionali. La Piattaforma è periodicamente aggiornata e arricchita con dati e informazioni provenienti da diverse fonti.In linea con le indicazioni della Strategia europea di adattamento, che mirano a realizzare un adattamento più intelligente, la Piattaforma nazionale sull’adattamento ai cambiamenti climatici si prefigge lo scopo di mettere insieme dati, informazioni e strumenti operativi e di renderli facilmente disponibili per incrementare la conoscenza e la capacità di pianificazione e attuazione di azioni di adattamento sul territorio nazionale. Tutto quanto si può quindi fare per resistere ai cambiamenti climatici non può prescindere dalla sensibilizzazione ed educazione dei cittadini dei quali si deve favorire al massimo il coinvolgimento. Vorrei però aggiungere che un altro occhio del potere politico dovrebbe essere rivolto alla Scienza. I cambiamenti climatici sono un fenomeno dinamico rispetto al quale la ricerca sforna continuamente analisi e proposte da guardare con grande attenzione. Da qui pensare a Consulte Municipali espressioni del mondo civile e di quello scientifico potrebbe avere un risvolto molto positivo rispetto ai contrasti che purtroppo si sono registrati a Roma col potere politico e che di certo non giovano al ricercato ed invocato adattamento

*COMUNICATO DI DIVERSE ASSOCIAZIONI  

23 gennaio 2023 – “PRESENTAZIONE DEL PIANO DI ADATTAMENTO AL CAMBIAMENTO CLIMATICO DI ROMA CAPITALE: IMPEDITO L’ACCESSO ALLE REALTÀ TERRITORIALI”

“Ieri mattina, in qualità di rappresentanti di comitati, associazioni e altre realtà territoriali , abbiamo cercato di partecipare all’evento di presentazione delle “Strategie di adattamento al cambiamento climatico” promosso da Roma Capitale. La nostra partecipazione è stata però impedita dalla presenza di un nutrito cordone di forze dell’ordine messo a protezione della “quiete” della manifestazione: siamo tuttavia riusciti a denunciare la “selezione della composizione della platea” messa in atto dagli organizzatori che ha di fatto trasformato l’evento in un “incontro ad inviti”. Nelle esposizioni degli assessori è emersa la palese contraddizione tra le mirabolanti promesse esposte nel Piano e la quotidiana realtà della città, fatta di aumento incessante del consumo di suolo, grandi e piccole opere imposte dall’alto che devastano o denaturalizzano il territorio e aree verdi considerate un “vuoto urbano” da riempire con il cemento o da mettere a reddito tramite assegnazione in favore di privati”.

“Il processo di consultazione, programmato in 7 appuntamenti ed annunciato durante il convegno, costituisce quindi l’ennesima azione in cui si finge di coinvolgere i cittadini in un percorso già deciso e pianificato, che nella realtà, esclude dai processi decisionali le competenze, le conoscenze e le esperienze maturate in decenni di lotte e mobilitazioni socio-ambientali”.

“Ci opponiamo pertanto a queste “consultazioni a porte chiuse”, camuffate da spazi di confronto democratico che in realtà celano strategie di mero greenwashing che nulla hanno a che fare con la tutela del verde pubblico e con la partecipazione dei territori nella costruzione di azioni volte alla difesa dei beni comuni”.

“In contrapposizione a questa propaganda ecologica, saremo parte attiva nel promuovere incontri, riunioni, assemblee pubbliche e consultazioni dal basso che coinvolgano realmente i territori, perché la lotta al cambiamento climatico parte dalla costruzione di una coscienza ambientale e di una giustizia sociale che mal si addicono ad azioni speculative nell’interesse del privato”.

Comitato Pratone di Torre Spaccata

Coordinamento Si al Parco, Si all’Ospedale – NO ALLO STADIO Forum Parco Delle Energie – Lago Bullicante

Ecoresistenze X Cambiare Rotta

Casale Podere rosa

Comitato Stadio di Pietralata, No Grazie

Uniti per la Cervelletta

Rete per Aguzzano

Casa Del Popolo Roma Sud-Est

Insieme per l’Aniene APS

Collettivo No Porto Fiumicino

Elenco non esaustivo dei facili alibi.

In evidenza

Da qualche parte, nella marea di libri e riviste sparse per la casa, ho una ristampa del primo numero della rivista “Quattroruote”. Quel numero uscì nel febbraio del 1956 e aveva come sottotitolo “la rivista per gli automobilisti di oggi e di domani”. Vi si può leggere  un editoriale nel quale si stabilisce un principio che è valido ancora oggi: ovvero l’ostracismo sociale nei confronti di chi usa la bicicletta. Le motivazioni addotte dall’autore sono quelle che si possono ascoltare o leggere nei commenti social anche oggi. Ovvero che la strada sia un patrimonio per le auto e non per ciclisti o pedoni. L’autore dimostra questa tesi adducendo che l’automobilista paga una tassa di circolazione, ovvero il bollo, dal quale il ciclista è esentato. Nonostante il bollo dell’automobile sia stato trasformato in una tassa di possesso, ancora oggi molte persone pensano che il bollo sia l’attribuzione del diritto quasi feudale ad essere dei privilegiati nella circolazione su strada. Io per la mia formazione personale ho sempre avuto idee piuttosto diverse…

Preciso che posseggo un’auto che cerco di usare con oculatezza. La tipologia di auto è quella che un tempo si sarebbe definita utilitaria, e oggi invece city car. L’austerity del 1973 fu una vicenda che segnò l’avvio delle mie curiosità e delle mie riflessioni. Molte altre vicende degli anni 70 orientarono il mio percorso professionale che mi ha portato ad essere un chimico che ha praticato la chimica modesta. Ho iniziato ad usare la bicicletta per andare al lavoro nel 1996 ovvero quarant’anni dopo l’editoriale che ho citato. La scelta era decisamente anticonformista per il periodo. Ma la mia passione per la bici non è spiegabile razionalmente. Sono conscio dei rischi che corro e che cerco di minimizzare quanto più posso. Ho già pagato il mio dazio alla monocultura automobilistica. Ma non desisto.

Fino a qualche tempo fa tenevo il conto del risparmio della CO2 che non emettevo, poi ho smesso. Mi sembrava un vezzo inutile. La ragione è semplice, ovvero che comincio a sentire il peso della difficoltà di comunicare in maniera corretta la necessità di adottare stili di vita più rispettosi del pianeta che ci ospita, di cui da sempre molti si sentono i padroni assoluti. Ho avuto docenti che mi hanno fatto amare la termodinamica, e genitori che mi hanno insegnato ad apprezzare quello che si poteva avere, senza crucciarsi troppo di quello che non era ragionevole desiderare. Non sono cose da poco. Negli anni 70 esisteva ancora una cultura ambientalista, poi sopraffatta nel decennio successivo dal trionfo del consumismo più sfrenato. La chimica è stata per me un supporto indispensabile per capire meglio i temi ambientali. Col tempo però ho iniziato ad intuire che c’erano altri meccanismi più subdoli che condizionavano il comportamento collettivo. Non sono molto cambiati nel tempo, anzi sono rimasti più o meno gli stessi, in particolare le obiezioni più comuni quando discuto di temi ambientali. Vediamone alcuni.

Gli allarmi sono esagerati. Mi sembra di vedere in bambini che si mettono le mani davanti agli occhi. Ovvero il pensiero magico trasferito agli adulti.

La terra è grande: ci sono ancora sterminati territori da sfruttare e colonizzare. Il mito del pioniere, forse uno dei più pericolosi. Nell’immaginazione di chi sostiene questa tesi c’è sempre un piccolo eroico uomo che lotta ad armi impari contro le forze della natura. Nella quale non si sente inserito, ma che deve sottomettere e colonizzare. Un’altra convinzione è quella che le risorse naturali e minerali siano inesauribili. Questo tipo di mentalità è purtroppo patrimonio anche di capi di governo.

E’ il prezzo inevitabile che si paga per il progresso.  Questa obiezione troppo spesso mi fa pensare alla malafede, alla speculazione. Alle scelte che si dovrebbero fare con oculatezza ma alle quali si rinuncia con fastidio. Servirebbe anche capire quale sia una definizione condivisa di progresso. Per molte persone l’auto è stata ed è un simbolo del progresso. Difficile far loro cambiare idea. Controproducente citare i dati sulle morti premature dovute all’inquinamento dell’aria. Vengono semplicemente ignorate, pensando che il prezzo da pagare con qualche malattia cronica riguarderà di certo qualcun altro.

Non c’è più niente da fare e poi noi non siamo i maggiori responsabili, la colpa è dei cinesi.

Questa è la classica obiezione alla quale ho smesso di avere la voglia e la forza di obiettare. Soprattutto se viene pronunciata da chi tendenzialmente ha tutta la preparazione che gli dovrebbe permettere di approcciare la questione in maniera più razionale. L’obiezione spesso non è pronunciata  dalla famosa (forse solo per le persone della mia generazione) “casalinga di Voghera”.

Alcune parole, almeno in Italia hanno perso significato e slancio. Ambientalismo è una di queste.

Si disprezzano e si ignorano stupidamente i problemi ambientali, creando neologismi orrendi: “gretini” su tutti, seguiti a ruota da quelli come “spostapoveri” riferito alla metropolitana di Milano, ma per estensione a tutte le reti di trasporto pubblico. Ho scoperto poi di essere in possesso della “patente dei pirla”, ovvero l’abbonamento del treno nel mio caso, o dei mezzi pubblici. Rassicuro per altro di possedere anche quella dei non pirla.

Devo dire con molta franchezza di provare un senso di stanchezza e per dirla con Sartre di nausea. Ho sempre sostenuto che  l’educazione e la conoscenza siano due valori primari. L’educazione intesa come quelle che venivano chiamate buone maniere è di fatto estinta. La conoscenza combatte una strenua battaglia, dall’esito decisamente incerto con la propagazione di ogni tipo di stupidaggini che il web, e in particolare i social possono veicolare.

Vorrei chiudere questo post, con un aforisma che ho sempre amato visceralmente. Che potrebbe essere un punto di partenza o di stimolo per persone di buona volontà che vogliano capire cosa effettivamente governa il nostro mondo. Un buon auspicio per uscire da questo vicolo cieco in cui ci siamo cacciati, trainati dalla sindrome del paese dei balocchi planetario.

” Una teoria è tanto più importante quanto maggiore è la semplicità delle sue premesse, quanto più diversi sono i tipi di cose che correla e quanto più esteso è il campo della sua applicabilità. Di qui, la profonda impressione che ho ricevuto dalla Termodinamica classica. E’ la sola teoria fisica di contenuto universale di cui sono convinto che nell’ambito di applicabilità dei suoi concetti di base non verrà mai superata.”
Albert Einstein

Se questo è

In evidenza

La redazione

Ci sarebbe stato impossibile trovare una sintesi anche nella nostra sparuta redazione, ma ci sentiamo in dovere di non dimenticare il 27 gennaio, come abbiamo sempre fatto da quando esiste il blog.

E’ per questo che non cerchiamo sintesi e non facciamo tentativi di piegare il pensiero di Levi o la sua arte ai tempi che viviamo, come pure sta succedendo intorno a noi.

E poi non ve ne sarebbe bisogno.

La materia è cieca e testarda, ma è anche “politica”, perché nel nostro “conflitto” con essa si genera quel processo di conoscenza che cambia il mondo. Ma questo non è solo il procedere della Scienza, ma anche di tutta la nostra attività come uomini nei confronti della Natura: conflitto, sintesi, superamento.

Se i versi di Primo Levi, come noi pensiamo, sono vera arte, e se come vera arte sintetizzano e sorpassano il contingente, allora la lettura della più classica poesia di Levi ci sarà a tutti di ispirazione per prendere posizione nei tempi bui odierni, nella speranza, anzi nella certezza, che non possano durare per sempre.

Shemà (Se questo è un uomo) di Primo Levi

Voi che vivete sicuri
nelle vostre tiepide case,
voi che trovate tornando a sera
il cibo caldo e visi amici:
Considerate se questo è un uomo
che lavora nel fango
che non conosce pace
che lotta per mezzo pane
che muore per un si o per un no.
Considerate se questa è una donna,
senza capelli e senza nome
senza più forza di ricordare
vuoti gli occhi e freddo il grembo
come una rana d’inverno.
Meditate che questo è stato:
vi comando queste parole.
Scolpitele nel vostro cuore
stando in casa andando per via,
coricandovi, alzandovi.
Ripetetele ai vostri figli.
O vi si sfaccia la casa,
la malattia vi impedisca,
i vostri nati torcano il viso da voi.

Che Italia vorrebbero.

In evidenza

Luigi Campanella, già Presidente SCI

Ho avuto modo di vedere lo Special del TG1 dedicato a CHE ITALIA VORRESTI durante il quale sono stati intervistati a partire da questa domanda 11 imprenditori italiani fra i più noti (Illy, Tronchetti Provera, Doris, Cucinelli, Menarini, Della Valle ed altri).

Intervengo nel blog perché fra i tanti temi affrontati c’è stato anche quello del rapporto del sistema industriale con quello della Formazione ed in particolare con l’Università. Sostanzialmente i nostri imprenditori hanno un’opinione positiva sul nostro sistema educativo e considerano i nostri docenti e ricercatori tra i primi al mondo. Le lamentele riguardano il basso numero di laureati che trova un ulteriore riscontro nel numero, il più alto di Europa, di giovani che non studiano e non lavorano ed anche nella esistenza di un sistema Educazione-Industria affidato ad interventi sporadici e singoli piuttosto che, come sarebbe necessario, ad un’organizzazione ufficiale e sistematica.

Lauretai in Italia 2021.

Contro questa concorre anche un atteggiamento in genere competitivo e da solisti delle imprese italiane: non si fa sistema e questo pregiudica la possibilità di modifiche di scala dell’impresa che, attraverso l’ampliamento, potrebbero significare preziosi risparmi gestionali.

Circa l’innovazione di processo e di prodotto la nostra industria è di certo fra le più virtuose, ma manca di capacità nell’attività di diffusione e pubblicità dei prodotti di tale innovazione. La creatività e la qualità sembrano le caratteristiche positive più evidenti e ricercate, ma la ricaduta positiva è più affidata alle richieste che il nostro sistema produttivo riceve che alla pubblicità dei nostri prodotti da parte di chi li produce.

Un limite può essere rappresentato dalle risorse a disposizione, condizionate dai pessimi dati del rapporto debito/Pil e da quelli ugualmente negativi del rapporto deficit/PIL. Su questi valori negativi pesano anche sistematicamente l’elevato costo dell’energia e della mano d’opera e la mancanza di infrastrutture e contingentemente il rapporto con le economie di USA, Germania, Russia e Cina per i riflessi di mercato e per le disponibilità di materie prime. 

I settori in migliore salute sono proprio quelli nei quali la ricerca contribuisce maggiormente e cioè alimentazione, aerospazio, farmaceutica, manifatturiero oltre a turismo e Beni Culturali Sono in fondo i settori nei quali il carattere di italianità, come mix di qualità, cultura, gusto, eleganza hanno maggiore possibilità di esprimersi.

Anche la sostenibilità è stata spesso citata dagli imprenditori, ma ciò che mi ha colpito è stato che accanto alla proiezione economica, ambientale e sociale è emersa anche quella morale e psicologica: fare lavorare in un ambiente adeguatamente attrezzato rispetto al supporto al buon umore ed all’ottimismo dei lavoratori si trasforma anche in un maggiore sostenibilità economica.

“Biologico”: chi era costui?

In evidenza

Biagio Naviglio

ll prefisso “bio” (abbreviazione di biologico) è oggi molto ricorrente nella descrizione di un prodotto (es. bioplastiche, biotensioattivi, biosolventi, ecc.); il termine deriva dal greco βίος ed è evidentemente legato al concetto di vivere, di vita o di essere vivente. Nell’immaginario collettivo, invece, un “prodotto bio” equivale ad un “prodotto naturale” che per un consumatore sta a significare che trattasi di un prodotto salutare, buono, benefico, sicuro. D’altra parte, riferendoci, ad esempio, all’agricoltura biologica essa viene intesa, a livello europeo, come un metodo agricolo volto a produrre alimenti con sostanze e processi naturali.

Nell’ambito della Comunicazione della Commissione al Parlamento Europeo, al Consiglio, Comitato Economico e Sociale Europeo e al Comitato delle Regioni riguardante il “Quadro strategico dell’UE sulle plastiche a base biologica, biodegradabili e compostabili” (Bruxelles, 30.11.2022 COM(2022) 682 final), l’espressione “a base biologica” afferita alle plastiche indica le materie prime utilizzate per la loro produzione (le plastiche a base biologica sono ottenute dalla biomassa). Attualmente la biomassa proviene per la maggior parte da piante coltivate specificamente per essere utilizzate come materie prime sostitutive delle risorse fossili, come la canna da zucchero, le colture cerealicole, le colture oleaginose o fonti non alimentari come il legno. Altre fonti sono rifiuti e sottoprodotti organici, come olio alimentare usato, bagassa e tallolio. Quelle convenzionali, invece, sono prodotte a partire da risorse fossili (petrolio e gas naturale).

La norma EN 16575 Prodotti a base biologica- Vocabolario specifica che un “prodotto biobased” (prodotto a base biologica) è un prodotto interamente o parzialmente derivato dalla biomassa.

Attualmente non esiste alcun obbligo circa un contenuto a base biologica minimo né un sistema di certificazione o un’etichetta concordati affinché un prodotto di plastica possa essere qualificato come a base biologica. Per contrastare l’ecologismo di facciata ed evitare di indurre in errore i consumatori, non si dovrebbero formulare dichiarazioni generiche sui prodotti di plastica quali “bioplastica” o “a base biologica”. Al fine di evitare di indurre in errore i consumatori, le dichiarazioni dovrebbero fare riferimento solo alla quota esatta e misurabile del contenuto di plastica a base biologica nel prodotto, indicando ad esempio che “il prodotto contiene il 50 % di contenuto di plastica a base biologica“. È inoltre importante garantire che il contenuto a base biologica sia misurato con precisione. I metodi al radiocarbonio dovrebbero essere preferiti in quanto i loro risultati sono affidabili e il loro utilizzo è ampiamente accettato.

A tale riguardo nella prassi di riferimento UNI/PdR 135:2022 “Prodotti a base biologica-Indirizzi applicativi a livello di organizzazione e di prodotto per la qualificazione ambientale e sociale”, viene riportato che l’impiego di materie prime rinnovabili (derivate da piante/animali/microrganismi) nelle materie è una caratteristica misurabile e dichiarabile utilizzando standard specifici. Questa caratteristica può essere misurata ed espressa come percentuale di Carbonio rinnovabile rispetto al Carbonio totale presente nel prodotto; si parla in tal caso di “bio-based carbon content” e ci si riferisce al “metodo del 14C”.

Questo metodo si basa sulla determinazione della quantità di un “marcatore” presente nella biomassa, ossia del Carbonio radioattivo 14C (carbonio-14) e quantifica il “Carbonio rinnovabile” presente nel prodotto.

Gli standard per la misurazione del carbonio-14, elencati nella prassi di riferimento, sono:

− UNI EN 16640 Prodotti a base biologica – Contenuto di carbonio di origine biologica – Determinazione del contenuto di carbonio di origine biologica usando un metodo basato sul radiocarbonio 14C

 − ASTM D6866:2016 Standard Test Methods for Determining the Biobased Content of Solid, Liquid, and Gaseous Samples Using Radiocarbon Analysis

L’analisi del radiocarbonio 14C permette di misurare il contenuto biobased dei prodotti perché questi sono una combinazione di materiali provenienti da organismi vissuti recentemente e materiali fossili. I materiali provenienti da organismi vissuti recentemente (la componente biobased) contengono carbonio-14 mentre i materiali fossili (derivati dal petrolio) non hanno più questo isotopo debolmente radioattivo. Perciò tutto il carbonio-14 del prodotto proviene dalla componente biobased.

Il metodo basato sul radiocarbonio 14C, basato sulla misura del tempo di dimezzamento, permette di datare un qualsiasi reperto archeologico, geologico, idrogeologico, con un’età non superiore ai 60.000 anni (e non inferiore ai 200 anni) misurando l’emissione beta e, confrontandola con un reperto attuale, di stabilire dal numero di dimezzamenti l’età del reperto stesso.

Qualche esempio di misurazione tramite radiocarbonio è qui di seguito riportato:

Cuoio al vegetale (vacchetta)

Contenuto di Carbonio Biobased = 96%

Contenuto di Carbonio fossile = 4%

Cuoio nubuk conciato al cromo

Contenuto di Carbonio Biobased = 89%

Contenuto di Carbonio fossile = 11%

Materiale alternativo denominato «Cactus Leather»

Contenuto di Carbonio Biobased = 24%

Contenuto di Carbonio fossile = 76%

Bibliografia

  1. Naviglio Biagio, I Biopolimeri nell’industria conciaria, Dispensa tecnica, UNPAC- Unione Nazionale Produttori Italiani Ausiliari Conciari, 2023
  2. Commissione Europea, Comunicazione della Commissione al Parlamento Europeo, al Consiglio, Comitato Economico e Sociale Europeo e al Comitato delle Regioni “Quadro strategico dell’UE sulle plastiche a base biologica, biodegradabili e compostabili” (Bruxelles, 30.11.2022 COM(2022) 682 final)
  3. Norma EN 16575 Prodotti a base biologica- Vocabolario
  4. Prassi di riferimento UNI/PdR 135:2022 “Prodotti a base biologica-Indirizzi applicativi a livello di organizzazione e di prodotto per la qualificazione ambientale e sociale”, 15 dicembre 2022
  5. Defeo Gustavo Adrian, La trasparenza nella composizione dei materiali-La misurazione tramite radiocarbonio, 50° Convegno Nazionale AICC, Solofra (AV)

Lo sviluppo di odori dall’acqua di fognatura.

In evidenza

Mauro Icardi

 I fattori che contribuiscono allo sviluppo di odori dalle acque di fognatura sono dovuti principalmente a:

  • i componenti tipici delle acque di scarico;
  • le trasformazioni biochimiche che avvengono durante il processo depurativo;
  • l’aggiunta di reagenti chimici che  possono essere dosati nei vari stadi di trattamento;
  • il ristagno di fanghi o liquami che possono creare condizioni anossiche/anaerobiche.

Gli odori tipici delle acqua reflue provengono da diverse tipologie di composti chimici: i composti alifatici e aromatici contenuti nei detergenti; solventi; composti derivanti dal metabolismo umano (ammoniaca, urea dalle urine, indolo dalle feci).

La maggior parte dei composti aromatici volatili hanno bassa solubilità, e quindi possono venire  strippati quando si verificano condizioni di turbolenza, come ad esempio nelle zone di sollevamento oppure di aerazione.

Alcuni composti organici volatili possono essere adsorbiti nella fase di sedimentazione primaria e rilasciati durante il processo di digestione anaerobica.

In taluni casi si possono individuare altri fattori di sviluppo di odori, ovvero il verificarsi di scarichi anomali, eventuali volumi elevati di scarichi di reflui da industrie alimentari, la temperatura più alta dell’acqua reflua (caso abbastanza raro),la presenza di scarichi sulfurei o di acqua salmastra nei reflui in ingresso.

La riduzione del rilascio di odori sgradevoli, è sempre correlata ad una corretta gestione delle fasi del processo depurativo.

Nella sezione di ossidazione biologica è raro che si possano sviluppare cattivi odori in quanto si lavora in fase aerobica. In caso si avvertano  occorre verificare il corretto funzionamento delle apparecchiature che trasferiscono aria o ossigeno liquido in vasca di ossidazione. E occorre anche verificare che il mescolamento della vasca di ossidazione sia completo. In caso di accumulo di fango in zone poco areate, la sostanza organica immessa subisce un fenomeno di fermentazione ad opera di batteri anaerobici , simile a quanto avviene nei digestori anaerobici non riscaldati; e questo può esser causa di sviluppo di cattivi odori.

Per quanto riguarda la gestione della sezione fanghi dove si lavora in fase anaerobica, il controllo puntuale e rigoroso del processo è maggiormente necessario. Specialmente nelle fasi di avviamento dei digestori, prima che sia a regime il processo che porta alla produzione di biogas.

Gli intermedi di reazione sono tutti composti odorigeni come ad esempio acidi grassi, mercaptani, solfuri. Per questo in fase di avviamento di un digestore è procedura normale caricarlo con fango digerito proveniente  da altri digestori già a regime. Questo fango formato dovrà venire mescolato con gradualità al fango da trattare, fino a quando il valori di acidi volatili e dell’alcalinità indicheranno che il processo è in grado di procedere autonomamente. Per ridurre il tempo di avviamento il digestore dovrà essere gradualmente riscaldato con combustibile ausiliario.

Altra situazione da monitorare è quella del corretto dosaggio di prodotti chimici, usati come coadiuvanti in alcune situazioni particolari di gestione del processo depurativo.

Per esempio l’aggiunta di prodotti a base di sali di ferro (per esempio il cloruro ferrico),usati per la rimozione del fosforo, o per migliorare la sedimentazione e la rimozione della sostanza carboniosa misurata come BOD, se non correttamente dosati possono provocare la diminuzione del pH e il desorbimento dei solfuri come acido solfidrico.

La stessa attenzione e precauzione si deve avere nel caso si utilizzasse la calce per migliorare la sedimentazione dei fanghi biologici, oppure per la stabilizzazione di quelli disidratati. In questo caso il rilascio di solfuro di idrogeno sarebbe inibito, ma un dosaggio sbagliato favorirebbe lo sviluppo dell’ammoniaca e degli altri composti odorigeni dell’azoto.

In molti depuratori vengono installati impianti di abbattimento degli odori, dove l’aria contenente i composti odorigeni viene sottoposta a una nebulizzazione a doppio stadio, con acqua additivata con acido cloridrico nel primo stadio, e con soda caustica nel secondo per ridurre gli effetti olfattivi indesiderati dei composti odorigeni basici ed acidi. In alcuni casi si può inserire un terzo stadio di trattamento dove l’aria da trattare viene fatta passare in uno scrubber fornito di un generatore di ozono. Inutile dire che la gestione di questo processo di deodorizzazione deve essere estremamente rigorosa e attenta, e la manutenzione fatta ad intervalli regolari. L‘esposizione continuativa ad ozono può provocare irritazioni all’apparato respiratorio, e nei casi peggiori l’insorgere della BPCO (broncopneumopatia cronica ostruttiva).

Quindi adottare un buon principio di precauzione è norma primaria.

Sorbona libera!

In evidenza

Luigi Campanella, già Presidente SCI

Da sempre mi sono schierato a favore della Open Science, questo prezioso strumento di condivisione della conoscenza. In una società che ha ormai sposato il modello circolare dell’economia non si può prescindere dalla circolarità del bene più prezioso e cioè la conoscenza e quindi dello strumento che lo produce, il capitale umano.

Purtroppo interessi molto personali e privati, per certi aspetti anche comprensibili, si oppongono alla diffusione ed applicazione della cultura della Open Science. Gli editori, finalmente consci della sua importanza per costruire una società meno polarizzata ed un mondo più equilibrato, hanno cercato di creare una propria immagine della quale l’Open Science rappresenta un connotato in passato quasi del tutto assente, ma le proposte formulate basate su accessi differenziati alle pubblicazioni hanno finito per essere solo immagini senza reale sostanza.

Il fatto che alcune prestigiose istituzioni comincino a schierarsi a favore della Open Science nei servizi di formazione ed educazione dei giovani e di crescita culturale del proprio personale è un segnale che la cultura dell’Open Science comincia a farsi largo, non solo fra i suoi sostenitori. In questo senso un indice significativo viene dalla Sorbona di Parigi da molti anni intensamente impegnata nella promozione e nello sviluppo della scienza aperta.

In linea con il suo impegno per la diffusione delle informazioni aperte sulla ricerca, la Sorbona ha deciso di interrompere la sottoscrizione al database Web of Science e agli strumenti bibliometrici Clarivate dal 2024 ed ha deciso di indirizzare i propri sforzi nella collaborazione con iniziative alternative agli strumenti proprietari, aperte e partecipate, e per ora la scelta è caduta su OpenAlex.

Nei confronti delle negoziazioni con gli editori la Sorbona ha sempre avuto un atteggiamento molto fermo, e del resto la Francia è uno dei paesi con il minor numero di contratti trasformativi (fonte ESAC). La decisione della Sorbona avviene in un contesto specifico. Nel 2018 la Francia ha emanato la sua prima policy sulla scienza aperta (a cui ne è poi seguita una seconda) e contemporaneamente ha istituito un open science monitor per una verifica degli effetti della politica implementata. Fin dall’inizio il Ministero della ricerca francese ha deciso che non si sarebbero usati dati o strumenti proprietari. Va ricordato che la maggior parte delle istituzioni italiane ha sottoscritto COARA,  Coalition for Advancing Research Assessment, una coalizione europea costituita da organizzazioni che finanziano la ricerca, organizzazioni che svolgono attività di ricerca, autorità e agenzie di valutazione nazionali/regionali, nonché associazioni delle suddette organizzazioni, società scientifiche e altre organizzazioni pertinenti. La coalizione ha recentemente superato i 500 membri complessivi che operano attraverso gruppi di lavoro con diversi contenuti ma stesso metodo, quello dell’Open Science 

IUPAC, odi et amo!

In evidenza

Margherita Venturi, Professoressa Alma Mater

La IUPAC (International Union of Pure and Applied Chemistry) è un’organizzazione non governativa internazionale, fondata nel 1919 da chimici provenienti dall’industria e dall’accademia; in tutti questi anni è riuscita a promuovere le comunicazioni su scala mondiale nelle scienze chimiche e a unire sotto uno stesso cappello i chimici dell’accademia, dell’industria e del settore pubblico. I suoi obiettivi sono infatti: fornire un linguaggio comune per la chimica; sostenere il libero scambio di informazioni scientifiche; sviluppare raccomandazioni per stabilire una nomenclatura e una terminologia univoche, uniformi e coerenti per campi scientifici specifici, inclusi la denominazione di nuovi elementi e il loro l’inserimento nella Tavola Periodica; fornire indicazioni per la standardizzazione di metodi di misurazione, dei pesi atomici e molti altri dati.

Per raggiungere questi scopi la IUPAC pubblica relazioni tecniche, riviste, libri, banche dati e altre risorse informative per facilitare lo svolgimento della ricerca scientifica. I suoi volumi più noti, che vengono continuamente aggiornati, sono i “Color Books” (https://iupac.org/what-we-do/books/color-books/), così detti perché hanno la copertina di colore diverso in base al tema affrontato; alcuni di essi sono mostrati sotto.

In tempi recenti, poi, la IUPAC ha messo al centro della sua strategia lo sviluppo sostenibile, promuovendo una chimica verde e un’economia circolare. Inoltre, ha allargato il suo spettro d’azione proponendo tutta una serie di iniziative di sensibilizzazione su tematiche sociali e di diffusione della conoscenza chimica, utilizzando al meglio tutte le nuove possibilità offerte dai social media e dalla comunicazione globale. A questo proposito si possono riportare almeno due esempi:

  • Global Breakfast, un evento che si svolge il 14 febbraio di ogni anno con l’obiettivo di celebrare i risultati di Women in Science, di ispirare le giovani generazioni a intraprendere una carriera nel campo della scienza e di superare le barriere all’uguaglianza di genere;
  • Periodic Table Challenge 2.0, una vera e propria sfida online, per imparare, divertendosi, notizie storiche, curiosità, aspetti fondamentali e le moltissime applicazioni nella vita quotidiana dell’affascinante universo degli elementi chimici, razionalizzati nel geniale strumento della Tavola Periodica.

Inoltre, la IUPAC esercita un ruolo positivo nella composizione dei conflitti politici ed economici che dividono le Nazioni. Durante la guerra fredda è stato un importante strumento per mantenere vivo il dialogo tra gli scienziati di tutto il mondo e, oggi, lavora per promuovere la comunicazione, la trasparenza, la diversità e il comportamento etico come suoi valori fondanti, collaborando con numerose altre organizzazioni sovranazionali, fra le quali l’UNESCO e l’OPCW, cioè l’organizzazione per la proibizione delle armi chimiche.

Ovviamente, chiunque lavori in ambito chimico riconosce l’importanza di questa organizzazione e apprezza il ruolo fondamentale che svolge per far rispettare regole comuni e per parlare un unico linguaggio; ciononostante tutte le volte che la IUPAC pubblica nuove raccomandazioni ai chimici tremano i polsi.

Tremano i polsi perché, a volte, queste raccomandazioni sono pedanti come, ad esempio, il fatto che il simbolo usato per l’unità di misura della massa atomica deve essere semplicemente u, e non u.m.a. o, peggio, uma,e che i nomi degli elementi chimici non devono avere la prima iniziale in maiuscolo, anche se si rifanno a nomi propri (Md e Cm, dedicati rispettivamente a Mendeleev e ai coniugi Curie, si scrivono mendelevio e curio, e non Mendelevio e Curio).

Tremano i polsi perché, a volte, le indicazioni sono ambigue e non aiutano a fare chiarezza; questo è il caso della definizione di elemento, un concetto chiave in ambito chimico, per il quale la IUPAC riporta due definizioni contradditorie che mescolano l’aspetto microscopico di atomo e quello concreto di ente materiale: 1) una specie di atomi, cioè tutti quelli con lo stesso numero di protoni  nel nucleo atomico; 2) una sostanza chimica pura composta di atomi con lo stesso numero di protoni nel nucleo atomico; talvolta questo concetto è denominato sostanza elementare per distinguerlo dall’elemento così come è definito nel punto 1, ma nella maggior parte dei casi il termine elemento è usato per entrambi i concetti.

Ai chimici, poi, tremano ancora di più i polsi quando le raccomandazioni riguardano la nomenclatura; le ultime indicazioni, infatti, se da una parte hanno semplificato la nomenclatura relativa agli ossidi, eliminando anche i termini anidride e ossido, dall’altra hanno complicato sensibilmente quella degli ossoacidi; secondo queste nuove regole l’acido solforico si chiama acido tetraossosolfato di diidrogeno, l’acido nitrico diventa acido triossonitrato di monoidrogeno, l’acido fosforico prende il nome di acido tetraossofosfato di triidrogeno e così via, con scioglilingua sempre più complicati. Questo, a mio avviso, significa volersi complicare la vita a tutti i costi e, in effetti, la IUPAC lo deve aver capito, perché nel caso degli ossoacidi ci dà il permesso di continuare a usare la vecchia nomenclatura.

Infine, nel 2018, è arrivata la nuova definizione di mole e, qui, ci sarebbe stato veramente motivo per far tremare i polsi a tutti i chimici, dal momento che la mole è uno dei concetti fondanti della nostra disciplina e quello, forse, più assodato nel tempo. Ho detto “ci sarebbe stato motivo”, perché, dopo un momento di sconforto iniziale, ho realizzato che, questa volta, la IUPAC ha cambiato decisamente in meglio il concetto di mole e lo si può capire mettendo a confronto la vecchia e la nuova definizione.

Nel 1971 la mole, simbolo mol, era definita dalla IUPAC come la quantità di specie chimica che contiene tante entità elementari quanti sono gli atomi contenuti in 12 g (esatti) di 12C; nel 2018 la nuova definizione data dalla IUPAC stabilisce che una mole contiene esattamente 6,02214076 × 1023 entità elementari. Questo numero, che è adimensionale, viene chiamato Numero di Avogadro.

Ma perché è stata cambiata la definizione di mole? Oltre al fatto di essere molto più semplice e immediata, una tale definizione ha permesso di rispondere all’esigenza della Conferenza Generale dei Pesi e delle Misure di definire le sette unità di misura fondamentali, fra le quali c’è appunto la mole, basandosi su costanti fisiche totalmente indipendenti tra loro; esigenza non verificata nel caso della prima definizione di mole della IUPAC, dal momento che essa era legata al kg.

La costante alla base della nuova definizione di mole è chiamata Costante di Avogadro, ha per simbolo NA ed è il rapporto tra la quantità di sostanza espressa come numero di entità elementari, N (adimensionale), e quella espressa come numero di moli, n (che ha la dimensione di mole):

NA = N/n = 6.02214076 × 1023 mol−1

Quindi, NA ha lo stesso valore del Numero di Avogadro, ma dimensione mol–1.

Di fatto, la nuova definizione di mole non cambia nulla da punto di vista pratico e per i calcoli stechiometrici che sono il pane quotidiano dei chimici. Infatti, è sempre vero che qualsiasi rapporto espresso in numero di atomi o molecole rimane inalterato quando è espresso in numero di moli (se una molecola di acqua contiene due atomi di idrogeno e un atomo di ossigeno, una mole di molecole di acqua contiene due moli di idrogeno atomico e una mole di ossigeno atomico). E, soprattutto, è ancora vero che la massa molare di un qualsiasi nuclide, specie atomica, o specie molecolare è rispettivamente uguale, dal punto di vista numerico, alla massa atomica, al peso atomico, o al peso molecolare; le unità di misura, però sono diverse: g/mol per la massa molare e u negli altri casi; anzi, direi che sono abissalmente diverse, perché c’è di mezzo un numero enorme: la Costante di Avogadro.

È fondamentale sottolineare che questa uguaglianza non sarebbe stata ottenuta definendo la Costante di Avogadro, alla base della nuova definizione di mole della IUPAC, in maniera più “approssimata” (per esempio, 1,000 x 1024).

Quindi, per buona pace di noi chimici, la mole, indipendentemente dalla vecchia o nuova definizione, continua a essere il tramite fra le particelle invisibili, che popolano il mondo della Chimica, e la bilancia, lo strumento più semplice e comune che popola i nostri laboratori!

Chimica ed IA.

In evidenza

Luigi Campanella, già Presidente SCI

La domanda se l’Intelligenza Artificiale potrà mai sostituire l’uomo nella organizzazione dei laboratori scientifici (posta da un recente articolo su Nature) è a parere mio limitativa in quanto pone un quesito che fa riferimento al rapporto uomo macchina, limitandoci ad un caso specifico quando in effetti il dilemma è molto più ampio.

https://www.nature.com/articles/d41586-023-03790-0

Il ricercatore è un soggetto espressione della società civile che però per molti aspetti ha con la macchina gli stessi rapporti, conflittuali e collaborativi insieme, che riguardano le altre attività della vita civile e sociale. Tentare di assegnare al lavoro scientifico caratteri di eccezionalità non favorisce l’integrazione della ricerca nel contesto delle attività attraverso le quali, educazione, associazionismo, lavoro, la nostra società cresce e si sviluppa.

Se ad esempio parliamo del lavoro manuale si può dire che l’automazione ha storicamente in parte spiazzato il lavoro umano nelle fabbriche, ma gli strumenti di Intelligenza Artificiale stravolgeranno il mercato del lavoro connotando come superati ed obsoleti alcuni mestieri e le relative formazioni o al contrario queste saranno implementate ed arricchite con i relativi vantaggi di produttività? Per rispondere a questa domanda sono stati fatti veri e propri esperimenti che possono aiutarci anche a rispondere circa il rapporto fra Intelligenza Artificiale e gestione dei laboratori scientifici.

Da questi esperimenti è emerso che le tecnologie di IA calate su lavoratori educati ed istruiti ad un certo mestiere producono effetti migliorativi con incrementi qualitativi e quantitativi. Anche l’atteggiamento psicologico dei lavoratori in presenza di tecnologie IA a loro disposizione era migliore con un cresciuto attaccamento al proprio lavoro ed una visione più ottimistica della stessa vita.

Le prospettive dirette sono considerate a volte negative, robot e macchina sostituiranno in alcune funzioni l’uomo, ma si può recuperare con le prospettive di un nuovo mercato del lavoro, proprio quello relativo alle competenze richieste per gestire l’Intelligenza Artificiale.

C’è poi da valutare quanti fondamentali servizi ed attività dell’uomo ricevano un aiuto significativo dall’IA. Proprio in questi giorni leggiamo che essa previene gli incendi in California, ottimizza le risorse energetiche, migliora la resa dei campi agricoli, protegge la biodiversità. Ciò di cui oggi non manchiamo sono i dati, ma il difficile è estrarre informazioni e soprattutto conoscenze in tempo reale,  come deve avvenire, ad esempio, per gli allarmi ambientali.

L’IA può addirittura funzionare da sentinella dei boschi attraverso sistemi di machine learning con i quali si insegna alla macchina a riconoscere rumori collegati a possibili disboscamenti illeciti e selvaggi. 600 sensori installati in 35 Paesi hanno protetto 400 mila ettari di foreste.

Algoritmi green consentono all’IA di guidare ed ottimizzare i processi di irrigazione e la programmazione dei cicli colturali. Le specie a rischio vengono protette dotandone gli esemplari di braccialetti elettronici che monitorati dall’IA proteggono la specie dai pericoli di estinzione dovuti all’inquinamento e molto più spesso ai cattivi comportamenti dell’uomo. Il punto focale dell’argomento sta nella esigenza che l’uomo non rinunci al suo più prezioso patrimonio, il capitale intellettuale, che è poi quello che dinnanzi alle grandi scelte – sull’immigrazione, sulla fame nel mondo, sul rispetto della persona, sui diritti inalienabili, a partire da quello al lavoro – fa seguire alle parole i fatti e le azioni in favore di una società più giusta e meno polarizzata.

Lo scienziato, il ricercatore sulla base dello stesso principio dovrà sempre tenere vive le proprie conoscenze nella guida delle esperienze che puntano a farle crescere. Questo è particolarmente vero per la chimica, disciplina a prevalente carattere induttivo della conoscenza, basata quindi più su nuove esperienze che su approfondimenti di quelle già svolte.

Il senso delle COP per il futuro.

In evidenza

Claudio Della Volpe

Non mi sforzerò di fare una analisi tecnica della COP28 che abbiamo seguito sui giornali e che ha posto molte persone in uno stato di rabbia o di angoscia per il futuro; forse uno delle più lucide espressioni della rabbia è questo articolo che vi linko qui.

(disegno di otarebill) https://www.monitor-italia.it/il-successo-del-fallimento-sulla-cop28-di-dubai/

Cercherò invece di ragionare sul senso generale del cercare un accordo mondiale sul clima nonostante sia chiaro che la soluzione della questione non è semplicemente quella di un accordo tecnico fra uguali, ma i paesi e le classi sociali dentro i paesi hanno responsabilità ben diverse, a partire dal fatto che è stato notato quest’anno che l’1% della popolazione mondiale produce tanto gas serra quanto il 66% più povero (https://quifinanza.it/green/inquinamento-climatico-1-piu-ricco-mondo-inquina-piu-66-quello-povero/779604/).

Si tratta cioè di uno scontro sociale e politico fra classi sociali e non di un accordo di compravendita fra uguali. E le COP sono invece una trattativa di mercato, il metodo (alternativo alla guerra) con cui le classi attualmente al comando trovano a volte un accordo.

Ma a parte la questione politica generale mi voglio mantenere sul terreno scientifico, di merito; e dunque vediamo cosa succederà se riusciamo a trovare un accordo nelle COP e poi anche a realizzarlo nel merito, una cosa che mi sento di dire è molto, molto difficile.

Supponiamo dunque di arrivare al fatidico 2050 e di essere riusciti a realizzare il famoso net-zero, ossia di aver bloccato le emissioni nette di gas serra; cosa succede al clima?

Le previsioni sono espresse nell’ultima parte dell’AR6, il documento che l’IPCC pubblica ogni qualche anno per riassumere le conoscenze acquisite e le possibili strategie da seguire.

Il meccanismo base lo abbiamo illustrato già in un precedente post, è quello del climate commitment, il riscaldamento climatico implicito, gli effetti del GW che  a causa della differente scala temporale del nostro sistema sociale e del sistema Terra sono comunque inevitabili (https://ilblogdellasci.wordpress.com/2021/12/27/il-cambiamento-climatico-implicito/).

A pag 631 cap 4 dell’AR6 (che trovate qui) si introduce una nuova grandezza che si chiama ZEC50, e che è tabulata nella Tab 4.8 qui sotto riportata; per comprenderla introduciamo il senso delle grandezze tabulate ed ottenute con 20 diversi programmi di simulazione del clima. ZEC50 è la media a 20 anni della variazione della GSAT ossia della Global Mean Surface Air Temperature, la temperatura superficiale media stimata, usata come stima della temperatura media della superficie terrestre.

Il commento alla tabella è il seguente:

Il valore medio di ZEC50 è di -0,079 °C, con un intervallo del 5-95% di -0,34 °C-0,28 °C. Non esiste una forte relazione tra ZEC50 e la sensibilità climatica modellata (né ECS né TCR; MacDougall et al., 2020). È quindi probabile che la magnitudine assoluta di ZEC50 sia inferiore a 0,3°C, ma valutiamo una bassa confidenza nel segno di ZEC su scale temporali di 50 anni. Questo è piccolo rispetto alla variabilità naturale nel GSAT.

In sostanza pur non essendo sicuri se la variazione dopo il raggiungimento del net-zero sarà positiva o negativa essa sarà comunque piccola nei 50 anni successivi e più probabilmente negativa, ma solo meno di un decimo di grado nei primi 50 anni dopo net-zero.

Aggiungo che la fusione dei ghiacci terrestri e dei poli è comunque irreversibile e dunque si può prevedere un aumento del livello del mare dell’ordine di qualche metro, almeno 2 nei prossimi secoli (stessa pagina dell’AR6 della tab 4.8).

Allora, riepilogando, anche se riuscissimo a realizzare il programma delle COP, di COP28, il meccanismo climatico messo in moto è talmente enorme che non potremmo fermarlo ma solo rallentarlo e sperare di bloccarne gli effetti peggiori; realizzando COP28 non avremmo un aumento di 3-4°C che ci porterebbe verosimilmente fuori da ogni limite di sopravvivenza come specie, ma avremmo comunque enormi cambiamenti che solo lentamente e parzialmente potrebbero regredire. Abbiamo bisogno di enormi investimenti e modifiche non per tornare agli anni 70, quelle condizioni possiamo scordarcele, ma solo per evitare il peggio.

Questo è il senso delle COP per il futuro, evitare il peggio non evitare i cambiamenti, quelli sono già tra di noi.

I cambiamenti climatici su grande scala sono determinati dai gas serra; un recente articolo su Science racconta la storia di questi cambiamenti negli ultimi 66 milioni di anni descritti nel grafico qua sotto:

 La combinazione delle oscillazioni di CO2 e della variazione complessa della struttura del pianeta (le correnti marine, la esistenza o meno dei poli (che esistono solo da 35 milioni di anni), la deriva dei continenti e i grandi processi di neoformazione della crosta, come la formazione dell’Himalaya che hanno alterato sostanzialmente i processi di erosione e dunque il ciclo del carbonio inorganico (mediante la reazione che trasforma silicati in carbonati, il cosiddetto silicate weathering)) hanno favorito la migrazione del sistema Terra fra stati termici diversi che vengono denominati in genere “case calde” e “case fredde”, con oscillazioni attorno ad attrattori per un certo tempo seguite da brusche variazioni irreversibili, descritte in questo grafico qui sotto

Westerhold et al., Science 369, 1383–1387 (2020) 11 September 2020

I grafici che stiamo usando sono un modo ben diverso dal solito di rappresentare le transizioni climatiche e vengono dalla tradizione dei diagrammi di fase della meccanica; un diagramma che elimina il tempo e scrive la relazione fra le grandezze chiave del sistema dinamico; in questo caso possiamo fare lo stesso con le recenti variazioni climatiche per apprezzarne meglio il senso.

Non il solito grafico temporale:

, ma un grafico di fase come quello usato da Bernard Etkin, un ingegnere aeronautico famoso che ha sempre studiato la stabilità degli aeromobili che ci mostra come ci stiamo allontanando dal nostro attrattore pleistocenico e in modo probabilmente irreversibile; è più facile rendersene conto se guardiamo le cose in questo modo.

Etkin, Bernard – Climatic Change Dordrecht Vol. 100, Fasc. 3-4,  (Jun 2010): 403-406.

L’ultimo punto in colore lo ho aggiunto io; non torneremo agli anni 70, stiamo esplorando un terreno sconosciuto e per evitare i guai peggiori un accordo COP ci serve, ma non ci farà tornare indietro.

Dato che come forza geologica ci siamo sostituiti alle grandi forze preesistenti alla nostra venuta sulla Terra, che data solo 200mila anni, dobbiamo stare bene attenti a cosa facciamo; che siamo noi i responsabili della situazione c’è poco da dire, ne abbiamo già parlato; lo aveva capito anche il vecchio abate Stoppani (quello che compare sulla etichetta del formaggio Bel paese) uno dei grandi geologi italiani, oltre un secolo fa.

In qualche modo mi ricorda la storia di Asimov e la caduta dell‘impero galattico, che molti di voi hanno letto.

“Domanda: – Non è forse noto a tutti che la forza dell’Impero è immutata?

Risposta: – Si tratta di una forza solo apparente. A guardare le cose in modo superficiale si direbbe che tutto sia normale. Tuttavia, signor avvocato, anche il tronco marcio dell’albero, fino a quando l’uragano non l’abbia spezzato in due ha tutte le apparenze di solidità. Le prime folate della tempesta fischiano attraverso le fronde dell’Impero già adesso. Ascoltate con le orecchie dello storiografo, e ne udrete gli scricchiolii.

Domanda: – (con voce incerta) Noi non siamo qui, dottor Seldon, per ascoltare…”

.Risposta: – (con fermezza) Svanirà l’Impero con tutte le sue conquiste. Il sapere che vi è stato accumulato si inaridirà e scomparirà ogni ordine costituito. Le guerre interstellari continueranno senza fine; decadrà il commercio interstellare; la popolazione s’avvierà al declino, i mondi perderanno contatto con il corpo principale della Galassia… e regnerà il caos.

Domanda: – (quasi un mormorio nel vasto silenzio) Per sempre?

Risposta: – La psicostoriografia, che può predire la caduta, può anche fare ipotesi sui successivi periodi di oscuramento. L’Impero, signori, come è stato appena detto, ha resistito per dodicimila anni. Il periodo oscuro della storia futura non durerà dodicimila ma trentamila anni. Un altro Impero sorgerà, ma fra esso e la nostra civiltà ci saranno migliaia di generazioni d’umanità sofferente. E noi dobbiamo opporci.

Domanda: – (riprendendosi in qualche modo) Vi state contraddicendo. Prima avevate detto che non era possibile impedire la distruzione di Trantor; e di conseguenza, presumibilmente, la caduta… La cosiddetta caduta dell’Impero.

Risposta: – Io non sostengo che riusciremo a impedire la caduta. Ma non è ancora troppo tardi per accorciare l’interregno che seguirà. È possibile, signori, ridurre la durata dell’anarchia a un solo millennio, se si permette al nostro gruppo di continuare la sua opera. Siamo in un momento delicato della storia. L’enorme massa degli eventi che incombe sulla civiltà deve essere deviata. Non sarà possibile fare molto ma forse lo sforzo basterà a eliminare ventinovemila anni di miseria dalla storia dell’umanità.”

Passi di: Isaac Asimov. “Cronache Della Galassia”.

Bottiglie forzute e pandori griffati.

In evidenza

Mauro Icardi

Confesso apertamente che da molti anni non ho più molto interesse per i programmi televisivi. A questa regola non scritta, ho derogato solo in occasione di trasmissioni che si occupassero di eventi culturali, sia di carattere scientifico che umanistico. Alla sera insieme a moglie e figlia seguiamo insieme le serie televisive prima di cenare. Da circa un mese c’è uno spot che viene trasmesso, che è riuscito davvero a infastidirmi.

Il prodotto reclamizzato è una bottiglia di acqua naturale, che è additivata con proteine e zinco. Nello spot che viene mandato in onda, alla bottiglia spuntano magicamente due braccia forzute e muscolose, che poi si mettono in posa come una volta facevano i culturisti, per mettere in bella mostra i luccicanti bicipiti.

Credo che la mia posizione riguardo il consumo di acqua in bottiglia sia conosciuta. Ma in questo specifico caso ci vedo qualcosa di più, qualcosa di diverso e triste.

Ovvero il superamento quasi definitivo del ruolo dell’acqua che non può più avere le sue caratteristiche originarie, ma per piegarsi al desiderio del consumatore, sia che esso sia consapevole o indotto, deve diventare tutt’altro. Un prodotto che in maniera subliminale promette il vigore e il benessere fisico, la salute e la giovinezza. Che mi ricorda allo stesso tempo le miracolose scatole di spinaci di Braccio di Ferro, o le forse meno conosciute arachidi di Superpippo che risvegliano le nostalgie dei “boomer” come il sottoscritto, che era un accanito lettore di fumetti.

La mia riflessione amara parte da un dato di fatto, ovvero che il messaggio che l’autore dello spot ci trasmette dica che la normale acqua sia ormai un prodotto incompleto, forse addirittura da reiventare, da stravolgere e ricostruire per adattarla a esigenze nuove. Il primo risultato che ha avuto su di me questo spot è stato quello di prendermi una pausa di riflessione. Ho sempre accettato con piacere di mettere l’esperienza maturata nel settore del ciclo idrico per parlare del trattamento completo delle acque, quando qualcuno mi invitava. Ora francamente nutro più di un dubbio. Non è facile combattere ad armi pari con pubblicità suadenti e fondamentalmente fuorvianti.

 Nel film “Idiocracy”  viene dipinto uno scenario distopico del futuro dove, a causa della maggiore prolificità delle persone stupide, il livello di intelligenza medio raggiunge livelli talmente bassi da mettere a rischio la sopravvivenza del genere umano. L’ambientazione temporale è nell’anno 2505 e il pianeta terra soffre di carenza di cibo. I campi soffrono una grave siccità, ma non sono irrigati con acqua, ma con Brawndo il tronca-sete, una bevanda energetica che ha rimpiazzato l’acqua in tutti i suoi usi.

Il film è opera di fantasia ed ha una gradevole connotazione umoristica. La realtà che vedo invece, mi fa pensare che forse passo dopo passo non è così fuori luogo immaginare che il disprezzo, o per meglio dire la sottovalutazione dell’acqua, possa portare nella direzione immaginata dal film. Il referendum sull’acqua pubblica risale al 2011. Le speranze di quella stagione direi che sono ormai svanite, e vedo diverse derive impietose. Alle quali davvero faccio fatica ad immaginare come si possa fare argine. L’attualità ci sta sottoponendo ad uno stillicidio di notizie su una storia tipicamente italiana, quella della beffa (o truffa)  dei pandori griffati i cui proventi sarebbero dovuti servire per beneficienza. Scenario degno di essere narrato in una commedia all’italiana. Non ho intenzione di giudicare o peggio ancora infierire sui protagonisti di questa operazione. Ma francamente tutto questo mi lascia ogni giorno più amareggiato. Consapevole di non poter competere ad armi pari con la prossima showgirl che, in maniera ammiccante, potrebbe in futuro pubblicizzare un’acqua con decantate proprietà afrodisiache. Orwell immaginò la neolingua, i pubblicitari e gli imbottigliatori di acqua lavorano per imporre la neoacqua. La risposta forse arriverà da noi consumatori.

Forse.

Chemofobia

In evidenza

Luigi Campanella, già Presidente SCI

La paura della chimica nasce dal fatto che i composti chimici, come sempre anche gli uomini nella vita, sono in parte buoni, in parte cattivi, questi ultimi molto più reclamizzati degli altri presso i cittadini non addetti ed inoltre quei composti che possono essere collocati fra i buoni ed i cattivi vengono sempre aggregati a questi ultimi

La chemofobia è stata in più occasioni definita in letteratura. Paura della Chimica, paura dei composti chimici, paura delle malattie, a partire dal cancro, correlate alla interazione con composti chimici, paura dei composti presenti negli ambienti di lavoro o negli alimenti sono alcune delle più comuni interpretazioni della chemofobia.

Si è creata una prevenzione emotiva e psicologica rispetto ad esperimenti chimici e a industria chimica.

Alcuni episodi hanno certamente pesato a partire dal disastro farmaceutico del talidomide (1960), l’esposizione alle diossine in Missouri (1970),l’incidente di Seveso poco dopo, il dramma di Bhopal con il rilascio da un’industria di pesticidi di 40 tonnellate di metilisocianato gassoso, fino alle più recenti morti di donne incinte e relativi feti a causa del rilascio di tossici per i polmoni da parte di sterilizzanti umidificanti, come anche alcuni articoli scientifici importanti come quello su Nature (1974) a proposito del buco dell’ozono prodotto dai cloro-fluorocarburi. Due eventi che di certo hanno alimentato la chemofobia sono stati l’utilizzo delle armi chimiche nella prima guerra mondiale e la scoperta della presenza di pesticidi nei prodotti alimentari. Il primo dato quantitativo sulla correlazione fra chemofobia e reali morti è del 2016 con un dato fornito dalla Organizzazione Mondiale della Sanità:1,6 milioni di vite perdute nel 2016 a causa della interazione degli organismi umani con i composti chimici. Interrogati su come dinnanzi a questi fatti siano state apprese le condizioni da cui proteggersi il 32% ha  indicato la scuola, anche se si è osservato un gap di genere perché le donne dopo gli stessi insegnamenti scolastici si sono mostrate meno sicure degli uomini nel dibattere i focus della chemofobia.

https://www.scienzainrete.it/articolo/superare-chemofobia/valentina-domenici/2017-10-12

Si e confermata l’ambiguità naturale/buono sintetico/cattivo al punto che i pesticidi, composti chimici pericolosi, vengono accettati perché visti come protettori della qualità degli alimenti naturali. Al contrario dei composti sintetici si mettono a fuoco più i rischi che i possibili vantaggi, anche se evidenti.

Le formule chimiche brute e strutturali sono poi componenti di un linguaggio chimico che di certo non aiuta il rapporto col cittadino. Smontare anni di chemofobia di certo non è facile. Le strade sono quelle delle reti di informazione, gestite soprattutto da chimici, capaci di correggere nella conoscenza dei cittadini concetti sbagliati o superati, e quelle intraprese dalla industria chimica sostenendo l’adozione del REACH e promuovendo ed attuando il programma, prima europeo poi internazionale, Responsible Care i cui risultati sono evidenziati dalla riduzione degli incidenti sul lavoro, delle emissioni serra, dei consumi energetici ed idrici. Inoltre la green chemistry è progressivamente passata dai laboratori di ricerca a quelli industriali ed anche questo ha contribuito alla nuova immagine della chimica. Ma il nodo cruciale è quello della cultura chimica che nasce nella scuola.

L’educazione chimica va riformulata, evitando il perpetuarsi di studenti che dichiarano di essere stati tagliati fuori dalla chimica sin dalla sua prima presentazione. La disciplina deve essere insegnata attraverso concetti semplici e con l’uso di esempi pratici concreti rilevanti per la vita quotidiana degli studenti, includendo nei programmi nozioni di base di tossicologia, sostenibilità ed anche di chemofobia, dando allo studente le risorse per opporsi ad essa.

Formazione degli elementi pesanti da fissione nucleare.

In evidenza

Diego Tesauro

Negli ultimi anni in precedenti post abbiamo riportato l’origine di elementi pesanti nell’universo (ad esempio Origine dell’oro | La Chimica e la Società (wordpress.com), Zirconio ed Afnio: origine e presenza nello spazio | La Chimica e la Società (wordpress.com)). Tutti gli elementi con massa atomica superiore a 56 u* hanno origine a seguito di processi di accrescimento dei nuclei atomici più leggeri con acquisizioni di neutroni secondo due modalità:  una lenta, processo s, ((https://it.wikipedia.org/wiki/Processo_s), che si verifica in una fase evolutiva della stella quando questa viene a trovarsi nel ramo asintotico delle giganti rosse (Figura 1) ed ha una scala di durata di migliaia di anni, l’altra rapida, processo r, https://it.wikipedia.org/wiki/Processo_r) che si verifica in pochi secondi nelle esplosioni di supernove di stelle massicce (superiori alle 8 masse solari) (Figura 2) o nella fusione di stelle di neutroni (Figura 2).

Figura1 La stella Antares nella costellazione dello Scorpione è una supergigante rossa in questa tipologia di stelle si verifica una sintesi di elementi attraverso il processo s

a)

                         b)

Figura 2 (a) Resti di una supernova nella costellazione di Cassiopea esplosa circa 11000 anni fa e (b) immagine di una fusione di stelle di neutroni definita come esplosione di kilonova. Entrambi gli oggetti sono sede di processi r.

Come è noto gli elementi con numero atomico superiore ad 82 (cioè dal piombo in poi) non sono stabili e decadono naturalmente in elementi più leggeri emettendo particelle alfa. Infatti, sulla Terra troviamo solo 3 nuclei (il 232Th, 235U e 238U) che hanno un tempo di emivita tale che ne ha permesso una sopravvivenza dopo 4,5 miliardi di anni (età del sistema solare). Ma nello spazio, a seguito dell’evento di supernova o fusione di stelle di neutroni si formano anche elementi più pesanti che rapidamente decadono. Si supponeva che il decadimento avvenisse sempre con emissione di particelle alfa, ma uno studio pubblicato la settimana scorsa su Science [1] smentisce questa ipotesi e presenta, alternativamente, delle evidenze che fanno suppore che invece i nuclei decadono spezzandosi in nuclei più leggeri. Si hanno quindi evidenze che la fissione non è soltanto un processo indotto artificialmente dall’uomo sulla Terra negli ordigni bellici e nelle centrali elettriche nucleari attuali. In questi casi vengono bombardati con neutroni i nuclei di uranio e plutonio che si spezzano in una quarantina di nuclei più leggeri. In particolare, analizzando gli spettri di 42 stelle della Via Lattea, gli autori dello studio, determinando la quantità di elementi pesanti presenti, hanno trovato una correlazione inattesa fra la quantità di alcuni nuclei di metalli della seconda serie di transizione d e quella di alcuni nuclei di terre rare. Quando uno di questi gruppi di elementi aumenta in concentrazione nelle stelle, aumentano anche gli elementi corrispondenti dell’altro gruppo, cioè esiste una correlazione positiva. Più precisamente, le abbondanze di rutenio, rodio, palladio e argento (elementi con numero atomico compreso fra 44 e 47 e numero di massa fra 99 e 110) sono risultate correlate con quelle degli elementi più pesanti della serie dei lantanidi e della terza serie di transizione d fino al platino (cioè con numero atomico fra 63 e 78 e numero di massa compreso fra 150 e 200). Mentre la correlazione è invece assente per elementi di numero atomico e numero di massa appena inferiori (rispettivamente da 34 a 42 e da 48 a 62). Questa anomalia non è spiegata con i modelli a due componenti della nucleosintesi del processo r, in cui un componente (denominato debole, o limitato, processo r) prevale per gli elementi più leggeri del processo r e un altro (denominato il processo r principale) prevale per gli elementi più pesanti del processo r.

L’unica spiegazione plausibile per un simile risultato è che ci sia uno stesso processo in atto, per cui una fissione nucleare è stata l’unica in grado di riprodurre la tendenza osservata.

Se si assume che gli elementi più pesanti hanno un numero di massa > 150, dovrebbero essere stati generati da un nucleo con numero di massa A > 260 (110 + 150). Ricordiamo che artificialmente l’isotopo più pesante ottenuto sulla Terra è 294Og osservato nel 2002 al Joint Institute for Nuclear Research (JINR) di Dubna, in Russia, studio frutto di una collaborazione tra scienziati americani e russi [2].

Pertanto questa osservazione è un risultato incredibilmente “profondo” ed è la prima prova di fissione nucleare all’opera nel cosmo. Ovviamente questa osservazione dovrebbe essere confermata da successive osservazioni. È possibile, inoltre, che in futuro potrebbero esserci evidenze che permettano di ipotizzare la sintesi anche di elementi più pesanti, al di là dell’attuale confine ultimo della tavola periodica così come la conosciamo, a cominciare dall’elemento con numero atomico 126 che dovrebbe essere molto stabile rispetto agli elementi con alto numero atomico, secondo i fisici teorici, avendo un numero atomico “magico”.

Riferimenti.

[1] Roederer et al. Element abundance patterns in stars indicate fission of nuclei heavier than uranium Science 2023, 382 (6675), 1177-1180 DOI: 10.1126/science.adf1341. Element abundance patterns in stars indicate fission of nuclei heavier than uranium | Science

[2] 287(D7-2002-287)e.pdf (jinr.ru)

*NdB Si ricorda che dal 2019 l’acronimo u.m.a. è sostituito da u

Termo-ossidatore per le armi chimiche.

In evidenza

Luigi Campanella, già Presidente SCI.

L’Italia è fra i 193 Paesi che hanno aderito alle convenzioni internazionali, a partire da quella di Parigi del 1993, che prevedono la distruzione di tutte le armi chimiche, anche di provenienza estera, presenti sul territorio, alcune risalenti alla 2 guerre mondiali altre più recenti, operazione in linea con il fatto che il 99% delle armi chimiche stoccate nel mondo è stato già distrutto. La distruzione avverrà in un inceneritore (NdB previsto dalla nuova finanziaria) che costerà 29 milioni di euro e sarà operativo nel 2025 (NdB: la posizione dell’impianto è coperta da segreto). Le armi chimiche ancora presenti sul nostro territorio sono costituite da munizioni inesplose e da numerosi composti chimici quali fosforo bianco, iprite, cloro, fosgene.

In effetti in Italia esiste già un Centro che raccoglie le armi chimiche che nel frattempo vengono trovate: si tratta di una struttura tecnicamente molto avanzata collocata a Civitavecchia (CETIL). Vengono qui conservate sostanze pericolosissime, a partire da oltre 2000 proiettili al fosforo bianco che richiedono un monitoraggio scrupoloso e continuo ai fini della sicurezza civile. Il processo di smaltimento deve essere però accelerato proprio per gli stessi motivi. Da qui l’impegno a costruire una nuova struttura.

La scelta tecnica è caduta su un termo-ossidatore pirolitico, in attesa del quale si potenzia il Centro esistente con ulteriore finanziamento di oltre 2 milioni di euro. Il problema principale, va ribadito assolutamente, è che in attesa della completa rimozione, la sicurezza è a rischio come dimostrano alcuni casi di persone che inoltratesi nei boschi vicino al Centro sono state offese o hanno sofferto per inalazione di fosgene.

La scelta del metodo di distruzione delle armi chimiche deriva dalle loro proprietà chimiche variate e quindi richiedenti metodi aggressivi di demolizione. Il fosforo bianco è un potente “disidratante”* in quanto (NdB: dopo reazione con ossigeno) si lega all’acqua e produce acido fosforico che distrugge completamente il tessuto organico. Il cloro è un potente ossidante soffocante ed irritante, il fosgene lo è ancora di più, essendo capace di distruggere i tessuti umani, alcune mostarde hanno un’azione biologica aggredendo i componenti del sangue, a partire da globuli rossi e globuli bianchi, l’iprite è fortemente cancerogena, capace di alchilare il DNA e vescicante a causa della sua grande affinità per tutti i componenti dell’organismo umano, l’acido cianidrico si lega al ferro del sistema enzimatico umano inibendone il funzionamento.

A queste differenze attive corrispondono molecole molto diverse che richiedono quindi metodi molto aggressivi per essere certi della loro distruzione da qui la scelta della termoossidazione pirolitica, un processo di decomposizione termochimica, ottenuto mediante l’applicazione di calore e in presenza di un agente ossidante (normalmente ossigeno).

In pratica, se si riscalda il materiale in presenza di ossigeno avviene una combustione generando calore e producendo composti gassosi ossidati; effettuando invece lo stesso riscaldamento in condizioni anossiche (totale assenza di ossigeno), il materiale subisce la scissione dei legami chimici originari con formazione di molecole più semplici. Il calore fornito nel processo di pirolisi viene quindi utilizzato per scindere i legami chimici, attuando la omolisi termicamente indotta. In questo caso è chiaro che l’interesse primario è per la distruzione delle armi e l’interesse per riciclare molecole più piccole da esse provenienti completamente assente.

https://tg24.sky.it/cronaca/2023/11/24/armi-chimiche-scorie-impianto-italia#00

https://www.ilmessaggero.it/politica/armi_chimiche_italia_impianto_civitavecchia_pericoli_residenti-7772477.html

*Nota del blogmaster: il fosforo bianco non è considerato arma chimica da tutti i paesi, nonostante il suo meccanismo di azione. Si noti inoltre che diventa disidratante DOPO la reazione con l’ossigeno; infatti può venir conservato sott’acqua. Per una descrizione più precisa dei suoi effetti si veda https://www.who.int/news-room/fact-sheets/detail/white-phosphorus. Ringrazio il collega Biffis per le gradite osservazioni.

Efficienza e sufficienza                                

In evidenza

Vincenzo Balzani, professore emerito UniBo.

(testo comparso su supplemento Bo7 di Avvenire del 10 dicembre 2023)

Per combattere il cambiamento climatico è necessario portare a termine la transizione energetica dai combustibili fossili alle energie rinnovabili del Sole, del vento e dell’acqua, convertendole poi nelle forme di energia di uso finale (elettrica, termica e meccanica). La scienza e la tecnologia hanno come obiettivo il compimento della transizione energetica e anche l’aumento dell’efficienza di tutti i processi e le apparecchiature che ci forniscono energia nella vita di tutti i giorni, costruite con le risorse materiali che ci fornisce la Terra.  

Per diminuire il consumo di energia si punta molto sull’aumento dell’efficienza energetica, definita come rapporto, o altra relazione quantitativa, tra i risultati ottenuti in termini di prestazioni, servizi, beni, o energia e la quantità di energia usata per ottenerli. A prima vista, infatti, sembra logico pensare che l’aumento nell’efficienza energetica possa produrre vantaggi molto consistenti. In realtà, si è constatato che nella UE dal 1998 al 2012 i frigoriferi e i congelatori sono diventati più efficienti del 75% e le lavatrici del 63%, ma il consumo di energia elettrica è aumentato. In tutti i paesi sviluppati, in effetti, ogni anno si consuma sempre più energia, sia pure in un modo via via più efficiente.

Questo risultato è dovuto al cosiddetto “effetto rimbalzo”*: l’aumento di efficienza incoraggia un maggior uso di servizi forniti dall’energia. Un caso tipico è quello dell’automobilista che, dopo aver finalmente deciso di comprare un’auto più efficiente, è talmente compiaciuto dal minor consumo chilometrico della nuova auto che finisce con l’usarla più frequentemente dell’auto che aveva prima. L’aumento di efficienza, il “fare con meno”, non è una soluzione, bensì parte del problema; in ultima analisi, può essere addirittura controproducente.

In effetti, è illusorio pensare di ridurre il consumo di energia (o di altre risorse) agendo solo sulle cose, cioè aumentando l’efficienza delle apparecchiature che usiamo, o inventandone nuove per fare gli stessi servizi. Se si vuole realmente consumare meno energia (e altre risorse) per contribuire alla sostenibilità ecologica, bisogna anzitutto agire sulle persone. Bisogna partire dal concetto di sufficienza e convincere, sollecitare “gentilmente” (come suggerisce il premio Nobel per l’economia R.H. Thaler) e, se necessario, obbligare le persone, con leggi e sanzioni, a ridurre l’uso dei servizi energetici. Per risparmiare realmente energia, infatti, non basta “fare con meno”, bisogna, anzitutto, “fare meno”: meno viaggi, meno luce, meno riscaldamento, meno prodotti inutili, minor velocità.  Se poi, dopo aver adottato la strategia della sobrietà, tutto quello che si fa lo si fa in un modo più efficiente, si avrà un risparmio ancora maggiore: è il “fare meno (sobrietà) con meno (efficienza)”. Sobrietà ed efficienza, da sole, non possono dare risultati concreti. Quello che si deve fare è massimizzare, per così dire, il prodotto sobrietà x efficienza.

*Nota del blogmaster: il paradosso di Jevons (detto anche postulato di Khazzoom-Brookes) citato nelle figure è uno dei tre casi possibili dell’effetto rimbalzo che è il caso più generale.

In ricordo di Massimo Scalia

In evidenza

Luigi Campanella, già Presidente SCI

L’ambientalismo con la scomparsa di Massimo Scalia perde un rappresentante impegnato e competente. Lo posso dire con assoluta certezza per i numerosi dibattiti scientifici che ho avuto con lui e con Gianni Mattioli da quando entrambi erano professori della Facoltà di Scienze MFN di Sapienza Università di Roma che avevo l’onore di presiedere. Da sempre contrario al nucleare Massimo aveva però chiaro sin da quegli anni, 40 e più anni fa che le fonti fossili di energia dovevamo essere sostituite progressivamente dalle rinnovabili.

Chi fosse Massimo Scalia e cosa perdono questo Paese e l’ambientalismo lo si capisce leggendo il sunto del suo curriculum scientifico pubblicato dalla Sapienza: «Laureato in Fisica nel 1969 presso la “La Sapienza”, con una tesi di Fisica Teorica Nucleare, ha continuato le ricerche in tale disciplina negli anni immediatamente successivi: le possibili rappresentazioni tramite le algebre di Lie delle “simmetrie” dei decadimenti beta; lo studio della “materia nucleare”, nel formalismo delle espansioni ipergeometriche. Dalla metà degli anni ’70 si è orientato verso la ricerca sulla stabilità e sull’’analisi qualitativa dei sistemi dinamici, in particolare la generalizzazione della biforcazione di Hopf, secondo le classiche teorie sviluppate a partire da Poincare e da Lyapunov. Dagli anni ottanta si è inoltre interessato delle interazioni tra campi elettromagnetici e sistemi biologici (bioelettromagnetismo), degli effetti dei “campi deboli” e del ruolo del “rumore termico” nei materiali biologici. Su queste tematiche partecipa, insieme a ricercatori di altre università e istituti italiani, a un programma di ricerca dell’Unione Europea (FP VII). E’ titolare di un programma di ricerca del’l’AST sulla teoria dei sistemi dinamici non lineari e sulle applicazioni alla Matematica, alla Fisica e alla Biologia. E’ responsabile di un accordo bilaterale di collaborazione scientifica con il Politecnico dell’Universià di Kiev (KPI).

Le pubblicazioni più significative degli ultimi cinque anni di Massimo Scalia sono reperibili sul sito on line dedicato de “La Sapienza”.

Sul sito htpp://sae.uniroma1.it/ è reperibile, alla voce Approfondimenti, il testo di divulgazione scientifica sul rapporto tra energia e cambiamenti climatici».

I grandi meriti di Massimo Scalia vanno al di là del valore scientifico perchè quello che caratterizzava Massimo era mettere questo valore al servizio della comunità con un linguaggio semplice e coinvolgente insieme che molto lo ha aiutato nell’attività di divulgazione scientifica che è stato uno dei più intensi motivi e fonti di contatto con me. Non posso non ricordare i frequenti scambi con lui e Gianni circa l’opportunità o meno di trasformare un movimento in un partito. Non avevamo la stessa opinione, ma lui già politico affermato, non rinunciava a spendere tempo con il “suo preside”, come diceva lui per convincerlo della bontà della sua scelta.

Finisco con un ricordo tennistico: ero a quel tempo molto forte in terza categoria e Massimo diceva “non posso chiederti di giocare con me“, invece lo facevamo ed erano altre occasioni di dibattito nei quali francamente il tennis non era la componente principale.

Suo ultimo articolo contro i piccoli reattori nucleari: https://www.qualenergia.it/articoli/il-piccolo-atomo-e-vecchio/

https://it.wikipedia.org/wiki/Massimo_Scalia

Nuove scoperte sui PFAS.

In evidenza

Claudio Della Volpe

Questo post cerca di fornire i dati più recenti sulla situazione PFAS nel nostro paese e nel mondo. Personalmente considero questo tipo di inquinamento il più grave segno di compromissione ambientale recente e non sono il solo visto che è considerato in letteratura come lo sforamento di un limite planetario con effetti sul ciclo dell’acqua per secoli a venire (ne abbiamo parlato qui).

Il cammino dei PFAS (da Sci. Am.)

Le cosiddette “sostanze chimiche per sempre” sono sostanze prodotte dall’uomo composte da perfluoroalchilici e polifluoroalchilici (PFAS) e si trovano in prodotti come cosmetici e shampoo e nei rivestimenti idrorepellenti per pentole antiaderenti e imballaggi alimentari. Vengono lavati negli scarichi e gettati nelle discariche, e quindi sono diventati onnipresenti nell’ambiente. Un nuovo studio condotto da ricercatori della Florida International University ha tracciato la precisione con cui i PFA entrano nell’oceano al largo della costa della Florida.
La contaminazione delle acque reflue, dovuta a sistemi settici che funzionano male o non aggiornati e perdite di acque reflue nelle aree urbane, è diventata una delle principali fonti di PFA nei corsi d’acqua. Un altro sono le strutture militari e aeroportuali, dove la schiuma acquosa filmogena si riversa nei corsi d’acqua locali. Le concentrazioni di PFAS erano più alte nei canali che drenavano nelle baie, sono diminuite lungo le baie e sono diminuite man mano che l’acqua dell’oceano diventava più profonda e più salina, il che rende i PFAS meno solubili in acqua.
  Perché è importante: sapere come la maggior parte di queste sostanze chimiche entra nell’ambiente potrebbe aiutarci a evitarne il rilascio. Un recente studio governativo ha stimato che queste sostanze chimiche erano presenti in almeno il 45% dell’acqua del rubinetto negli Stati Uniti e si ritiene che una grande percentuale di americani abbia livelli rilevabili di PFAS nel sangue. Le sostanze chimiche sono state collegate a disturbi immunologici, disturbi endocrini, dello sviluppo, riproduttivi e neurologici e aumento del rischio di cancro alla vescica, al fegato, ai reni e ai testicoli. In ambiente marino influenzano il sistema immunitario e la funzionalità epatica di pesci e mammiferi marini.  
La situazione in Florida ci richiama a quanto sappiamo nel nostro paese al di fuori delle due aree fortemente inquinate in Piemonte (Spinetta Marengo) e in Veneto, a valle dello stabilimento Miteni (Trissino). Su questo un esempio sono i dati resi pubblici da Green Peace Italia durante l’anno per la Lombardia. Nella mappa sotto sono riportati alcuni del 4000 risultati ottenuti dalle istituzioni pubbliche su richiesta dell’associazione ambientalista dei quali 738, dunque un po’ meno del 20% sono positivi ai PFAS per valori fra i 5 e i 1146 ng/l nelle acque potabili o usate a questo scopo. Interessante il confronto delle posizioni fra GreenPeace e le istituzioni lombarde. Le seconde sostengono che le acque sono sicure i primi invece dicono che sforano i valori più conservativi proposti a livello mondiale (USA e Danimarca). In effetti in EU vige la norma che trovate qui:
PFAS Totale 0,50 μg/l Per «PFAS — totale» si intende la totalità delle sostanze per- e polifluoro alchiliche. Tale valore di parametro si applica esclusivamente dopo l’elaborazione di orientamenti tecnici per il monitoraggio di tale parametro in conformità dell’articolo 13, paragrafo 7. Gli Stati membri possono quindi decidere di utilizzare uno o entrambi i parametri «PFAS — totale» o «Somma di PFAS».
Somma di PFAS 0,10 μg/l Per «somma di PFAS» si intende la somma di tutte le sostanze per- e polifluoro alchiliche ritenute preoccupanti per quanto riguarda le acque destinate al consumo umano di cui all’allegato III, parte B, punto 3. Si tratta di un sottoinsieme di sostanze «PFAS — totale» contenenti un gruppo perfluoroalchilico con tre o più atomi di carbonio (vale a dire –CnF2n–, n ≥ 3) o un gruppo perfluoroalchiletere con due o più atomi di carbonio (vale a dire –CnF2nOCmF2 m–, n e m ≥ 1). Siamo quindi ad un massimo di 500 e di 100 nanogrammi/litro per i due criteri (tutti i pfas o solo i 4 più “preoccupanti”); mentre in USA il criterio è sotto la determinazione strumentale (considerata come livello zero) e in Danimarca 2 nanogrammi/litro. I criteri europei sono dunque peggiori di quelli di USA e Danimarca.      



https://public.tableau.com/app/profile/greenpeace.italy/viz/PFAS_Lombardia/PFAS_COMUNI https://www.ilgiorno.it/cronaca/acque-potabili-inquinate-pfas-cosa-sono-y0eclciv     Sappiamo già che i PFAS possono arrecare danni seri all’organismo ma la cosa più preoccupante è quella legata ad una recentissima pubblicazione su The Lancet Oncology. Nel novembre 2023, un gruppo di lavoro di 30 scienziati provenienti da 11 paesi si è riunito presso l’Agenzia internazionale per la ricerca sul cancro (IARC) a Lione, in Francia, per finalizzare la valutazione della cancerogenicità di due agenti: l’acido perfluoroottanoico (PFOA) e l’acido perfluoroottansolfonico (PFOS), compresi i corrispondenti isomeri e sali.
Il lavoro è riassunto nell’infografica qui sotto:


le sostanze prese in considerazione sono PFOA e PFOS, la prima è considerata carcinogenica per l’uomo e la seconda possibilmente carcinogenica per l’uomo. Ricordiamo che lo IARC è il braccio sperimentale dell’OMS che analizza il pericolo di una sostanza chimica non il rischio nei confronti del cancro. Ne abbiamo parlato ampiamente in relazione al glifosato (qui e qui). Dunque queste ricerche dicono che c’è il pericolo di scatenare un tumore ma non si valuta il rischio concreto in condizioni di esposizioni date; questo è compito di ECHA o delle istituzioni che decidono nei vari paesi; ricordiamo anche che i criteri dello IARC sono MOLTO stringenti, e anche molto attenti ai conflitti di interesse presenti in molte pubblicazioni e non sempre rilevati, tanto che anche sostanze comuni come l’alcol etilico ci rientrano, pur essendo usate da miliardi persone e da secoli. Tuttavia questa è la situazione concreta. L’alcol etilico è cancerogeno per l’uomo, come i PFAS, ma almeno sappiamo se e quanto ne beviamo (non rinuncerò al mio bicchiere di vino bianco in occasioni conviviali, o in rari casi al bicchiere della staffa), mentre nel caso dei PFAS (o del glifosato) non sappiamo nemmeno se ci sono, non sono indicati in etichetta, ma sono presenti nella pioggia o si accumulano nei tessuti grassi.
 https://www.iarc.who.int/news-events/iarc-monographs-evaluate-the-carcinogenicity-of-perfluorooctanoic-acid-pfoa-and-perfluorooctanesulfonic-acid-pfos/  
https://monographs.iarc.who.int/news-events/volume-135-perfluorooctanoic-acid-and-perfluorooctanesulfonic-acid/   Piuttosto la questione potrebbe essere complessa perché ci sono moltissimi composti perfluoroalchilici o polifluoroalchilici (un numero che si trova in rete è questo: 4000 sono stati sintetizzati dall’uomo e alcune centinaia di essi rinvenuti in campioni biologici (J Expo Sci Environ Epidemiol. 2019 March ; 29(2): 131–147. ); sono tutti pericolosi? Non lo sappiamo ancora. Ma ci sono alcune cose da notare; c’è una notevole incertezza sulla definizione di PFAS che è stata aggiornata nel 2021 (Environ. Sci. Technol. 2021, 55, 15575−15578) https://pubs.acs.org/doi/epdf/10.1021/acs.est.3c04855
Quanti sono i PFAS? Al settembre 2023 i composti presenti in PubChem erano 116milioni; di questi 21milioni sono fluorurati e 7 milioni rientrano nella definizione di PFAS proposta nel 2021 dall’OECD. Questo numero rappresenta un salto enorme rispetto alla stima comunemente fatta negli anni precedenti (per esempio Trier, X.; Lunderberg, D. S9 | PFASTRIER | PFAS Suspect List: Fluorinated Substances. Zenodo, 2015. DOI: 10.5281/zeno- do.2621989. ) che conteneva circa 4700 composti. Ovviamente tutto dipende dalla definizione usata che è la seguente. PFAS are defined as fluorinated substances that contain at least one fully fluorinated methyl or methylene carbon atom (without any H/Cl/Br/I atom attached to it), i.e. with a few noted exceptions, any chemical with at least a perfluorinated methyl group (CF3) or a perfluorinated methylene group (CF2−) is a PFAS.”  

Questi numeri fanno pensare parecchio perché mostrano con chiarezza il problema posto da sintesi chimiche che DI FATTO non sono rispettose dell’ambiente: in natura conosciamo un numero molto basso di composti organofluorurati (non è un dato facile da stimare, ma nel 2005 la stima era di alcune decine di composti!! mentre su Nature del 2012 con riferimento ad un lavoro del 94 il numero era stimato a 12 ; occorre anche dire che invece fra i composti inorganici che contengono alogeni il fluoro è maggioranza) e la cosa ha senso perché come sappiamo bene il legame CF è il legame più forte fra i legami carbonio-alogeno; ne segue che non conosciamo o conosciamo pochissimi esempi di enzimi capaci di rompere questo legame e dunque di metabolizzare i composti organofluorurati, i quali tendono ad accumularsi in biosfera. Al contrario noi umani abbiamo una percentuale di composti organofluorurati sintetici (PubMed) di quasi 1 ogni 5! Perché questo avviene? Questo avviene proprio perché i composti organofluorurati sono “stabili”, non avendo vie metaboliche o naturali di degradazione e dunque sono più efficaci come antibiotici, come farmaci in genere, come pesticidi e così via; i composti perfluorurati sono estremamente stabili; e dunque sembrano una manna dal cielo. La loro rarità fa si che i sistemi biologici siano “indifesi” rispetto alla loro azione, qualunque essa sia. Ma basta introdurre in catena degli eteroatomi perché questo possa indurre un potenziale attacco e dunque l’inizio di una lenta degradazione, che non impedisce però l’accumulo e l’effetto cresce al crescere della quota di catena perfluorurata. La superattività dei composti fluorurati dovuta a questa stabilità la paghiamo dunque come accumulo lungo la catena metabolica della biosfera. Questo dovrebbe portarci a rinunciare a questo tipo di composti se non per applicazioni assolutamente necessarie e certo non ha senso che quei composti siano presenti in così gran numero nella nostra tecnologia. Una ultima considerazione riguarda il loro meccanismo di azione biologico; una recente ricerca supporta l’idea che molecole diverse di PFAS inducano modifiche simili di tipo trascrizionale  (il trascrittoma comprende l’insieme delle molecole di RNA presenti in una cellula di un dato tessuto in un dato momento), fra specie diverse e questo è uno step importante per iniziare a capire gli effetti che producono.  

Riciclo della plastica, come si fa?

In evidenza

Luigi Campanella, già Presidente SCI

La recente diatriba fra i sostenitori del riuso e quelli del riciclo degli imballaggi nasce chiaramente da interessi prevalentemente economici. Non si tratta in genere di capacità di un Paese in una direzione o nell’altra, ma forse proprio l’Italia rappresenta l’eccezione virtuosa. Venendo infatti al materiale per imballaggi fra i più diffusi, la plastica, la scelta dell’Italia rispetto all’alternativa riuso/riciclo e stata invece dettata dalle capacità tecniche.

L’economia circolare ha esaltato nel nostro Paese la pratica del riciclo lanciando, nel caso della plastica, due opzioni principali, quella meccanica e quella chimica.

Mentre la prima produce materiali non puri, spesso miscele, non separati da tutti gli inquinanti contenuti nello scarto riciclato, non può essere ripetuta per un numero molto elevato di volte, il riciclo chimico produce i monomeri puri del polimero riciclato e miscele di idrocarburi che possono fungere da materia prima di molti processi a partire da quelli di produzione della stessa plastica di partenza con evidenti vantaggi economici ed è applicabile a plastica difficilmente riciclabile meccanicamente.

Il riciclo chimico inoltre può essere ripetuto teoricamente per un numero infinito di volte.

L’ affermazione piena del riciclo chimico della plastica è contrastata dai bassi costi della materia prima rispetto a quelli della materia prima seconda lievitati proprio dai costi dei processi di riciclo chimico.

I processi di riciclo chimico della plastica sono

-Depolimerizzazione che comporta la rottura della catena polimerica, rottura che può portare ai monomeri o a polimeri intermedi. Si tratta del metodo di riciclo più utilizzato con l’unico inconveniente che può applicarsi solo ai polimeri di condensazione, non a quelli di addizione. Un caso particolare della depolimerizzazione è il cracking catalitico in cui la depolimerizzazione è strettamente legata alla scelta di un opportuno catalizzatore

-Pirolisi (trattamento termico a 450 gradi in assenza di ossigeno) con produzione di miscele di idrocarburi

-Gassificazione: inizialmente applicata alla produzione del gas di sintesi, poi applicata ai rifiuti polimerici, produce gas da destinare a scopi chimici ed energetici, a partire direttamente da miscele, quindi senza separazione preliminare, di materiali plastici.

Idrogenazione mediante azione combinata di calore, idrogeno e catalizzatore con produzione di idrocarburi saturi direttamente applicati alla combustione

-Termolisi: decomposizione termica, ma in ambiente inerte

Un mondo più salato.

In evidenza

Claudio Della Volpe

Quando parliamo di sale nel linguaggio comune ci riferiamo al sale da cucina, ossia NaCl che è un componente essenziale di vari cibi e per secoli è stato anche un prezioso materiale di scambio che ha dato perfino il suo nome a varie città del mondo che si trovavano al centro di un reticolo di commercio del sale.

A parte la famosa Salisburgo esiste una rete  europea delle città del sale  che comprende dall’affascinante Aigue Mortes nella Camargue (foto qui sotto) alla nostra Cervia.

Il sale era così importante che l’integrazione della retribuzione che veniva data ai legionari e ai magistrati romani era a base di sale, a quel tempo sostanza rara e preziosa e ha generato la parola italiana “salario” con riferimento al pagamento in sale delle ore di lavoro effettuate nella giornata

Ma per un chimico sale è una espressione dal senso più ampio perché include un numero enorme di composti costituiti da ioni di segno opposto disposti in un reticolo cristallino complessivamente neutro; i sali sono una parte sconfinata dei composti chimici che costituiscono la crosta terrestre.

Come si è alterato, se si è alterato, il bilancio di questi composti nell’ambiente? E’ una domanda apparentemente semplice ma che ha trovato risposta solo di recente in un articolo review comparso su una delle riviste di Nature dal titolo:

L’articolo è stato leggibile (per alcuni giorni) ma non scaricabile in formato pdf. I dati e l’analisi si riferiscono al caso americano, ma l’interpretazione è generalizzabile al pianeta intero ed ha una enorme rilevanza ecologica.

La produzione del solo NaCl è dell’ordine di 300 Mton a livello mondiale con principali produttori Cina (64), India (45), USA (42), Germania (15) mentre l’Italia produce oggi poco meno di 2Mton all’anno. La riserva principale di questo materiale è il mare, che è virtualmente inesauribile, ma esistono molte saline ossia depositi di sale geologico, anche molto lontane dal mare e che sono preziose documentazioni della passata geologia di un territorio.

Dice il riassunto iniziale:

L’aumento della produzione e dell’uso del sale sta spostando gli equilibri naturali degli ioni di sale nei sistemi terrestri, causando effetti correlati tra i sistemi biofisici noti collettivamente come sindrome da salinizzazione dell’acqua dolce. In questa review, concettualizziamo il ciclo naturale del sale e sintetizziamo le crescenti tendenze globali della produzione di sale e delle concentrazioni di sali fluviali e dei loro flussi. Il ciclo naturale del sale è guidato principalmente da processi geologici e idrologici relativamente lenti che portano diversi sali sulla superficie della Terra. Le attività antropiche hanno accelerato i processi, i tempi e le grandezze dei flussi salini e ne hanno alterato la direzionalità, creando un ciclo salino antropogenico. La produzione globale di sale è aumentata rapidamente nell’ultimo secolo per diversi sali, con circa 300 Mt di NaCl prodotte all’anno. Un bilancio del sale per gli Stati Uniti suggerisce che i flussi di sale nei fiumi possono essere all’interno di ordini di grandezza simili ai flussi di sale antropogenici e ci può essere un sostanziale accumulo di sale nei bacini idrografici. L’eccesso di sale si propaga lungo il ciclo antropogenico del sale, causando la sindrome da salinizzazione dell’acqua dolce che si estende oltre le forniture di acqua dolce e influisce sulla produzione di cibo ed energia, sulla qualità dell’aria, sulla salute umana e sulle infrastrutture. È necessario identificare i limiti e le soglie ambientali per gli ioni di sale e ridurre la salinizzazione prima che i limiti planetari vengano superati, causando danni gravi o irreversibili in tutti i sistemi terrestri.

Si tratta di un concetto introdotto per primo da un nostro collega di Siena troppo spesso dimenticato, Enzo Tiezzi, autore di un libro bellissimo dal titolo: Tempi storici e tempi biologici, in cui sostanzialmente si mettevano a confronto i cicli umani e quelli naturali notando come l’effetto prevalente del nostro modo di produrre accelera a dismisura i processi naturali mettendo in crisi i meccanismi di bilancio dei grandi cicli degli elementi; una saggezza antica, filtrata da una profonda conoscenza della chimica-fisica.

Il ciclo naturale del sale è caratterizzato da un equilibrio nel sollevamento dei sali sulla superficie della Terra e dagli agenti atmosferici e dal trasporto dei sali verso gli oceani. La salinizzazione è comunque un processo naturale in molti ambienti aridi, ma non in generale.

Il ciclo antropogenico del sale è caratterizzato da un trasporto accelerato di sali sulla superficie della Terra attraverso l’estrazione mineraria e l’estrazione di risorse, un aumento dei flussi di sale nell’atmosfera dalla polvere salina, e un aumento della salinità del suolo e della formazione di evaporiti a causa dell’essiccazione. Le fonti antropogeniche di sali superano i pozzi naturali, con un’ampia varietà di processi geologici, chimici, biologici, ingegneristici e idrologici che contribuiscono all’alterazione umana del ciclo globale del sale.

In questo occorre tenere presente che la stima della review è che i flussi di origine antropogenica siano della stessa dimensione di quelli naturali.

L’autore corrispondente Kaushal ha dichiarato:

Se si pensa al pianeta come a un organismo vivente, quando si accumula così tanto sale potrebbe influenzare il funzionamento degli organi vitali o degli ecosistemi. Rimuovere il sale dall’acqua è dispendioso dal punto di vista energetico e costoso, e il sottoprodotto della salamoia che si ottiene è più salato dell’acqua dell’oceano e non può essere facilmente smaltito.

Kaushal e i suoi co-autori hanno descritto i disturbi al ciclo naturale del sale come un “ciclo antropogenico del sale”, stabilendo per la prima volta che gli esseri umani influenzano la concentrazione e il ciclo del sale su scala globale e interconnessa.

Il coautore dello studio Gene Likens, ecologo presso l’Università del Connecticut e il Cary Institute of Ecosystem Studiesha commentato: Vent’anni fa, tutto ciò che avevamo erano casi di studio. Potremmo dire che le acque superficiali erano salate qui a New York o nell’approvvigionamento di acqua potabile di Baltimora”, “Ora dimostriamo che si tratta di un ciclo – dalle profondità della Terra all’atmosfera – che è stato significativamente perturbato dalle attività umane”.

Ora che questo processo di salinizzazione sia una novità non è del tutto vero; in realtà abbiamo notizie precise e documentate che processi analoghi sono avvenuti in un contesto di cui di solito si decanta il successo storico, ossia la nascita e lo sviluppo dell’agricoltura nella cosiddetta Mezzaluna fertile.

La Mezzaluna fertile è quella zona descritta nella figura sottostante da una fascia colorata che si estendeva dal golfo Persico all’Egitto in un contesto ambientale estremamente delicato, in cui la semplice attuazione di una irrigazione intensiva accoppiata ad un clima caldo ebbe come effetto una evaporazione accentuata ed una progressiva salinizzazione dei suoli. Questo avviene anche nell’agricoltura attuale, si badi, con esempi notevoli anche nei paesi avanzati come gli USA. Ma in uno contesto sensibile e delicato come quello della Mezzaluna portò ad un progressivo passaggio a colture sempre più resistenti alla salinizzazione (con il corrispondente cambio di potere economico e politico) ed infine ad un crollo della produttività agricola.

Nella review ci sono molti aspetti innovativi ed intriganti; prima di tutto si considerano sali diversi da NaCl perché il ciclo dei sali mobilita quantità molto grandi anche di altri anioni e cationi e in secondo luogo il lavoro considera la penetrazione del sale non solo nel terreno e nelle acque superficiali ma anche negli aerosol con effetti inaspettati.

La salinizzazione è anche associata a effetti “a cascata”. Ad esempio, la polvere salina può accelerare lo scioglimento della neve e danneggiare le comunità che dipendono dalla neve per il loro approvvigionamento idrico. A causa della loro struttura, gli ioni di sale possono legarsi ai contaminanti presenti nel suolo e nei sedimenti, formando “cocktail chimici” che circolano nell’ambiente e hanno effetti dannosi. “Il sale ha un piccolo raggio ionico e può incunearsi tra le particelle del suolo molto facilmente“, ha detto Kaushal. “In effetti, è anche così che i sali stradali prevengono la formazione di cristalli di ghiaccio“.

I sali stradali hanno un impatto enorme negli Stati Uniti, che sfornano 44 miliardi di libbre di agente antigelo ogni anno. Tra il 2013 e il 2017 i sali stradali hanno rappresentato il 44% del consumo di sale negli Stati Uniti e rappresentano il 13,9% del totale dei solidi disciolti che entrano nei corsi d’acqua in tutto il paese. Ciò può causare una concentrazione “sostanziale” di sale nei bacini idrografici, secondo Kaushal e i suoi coautori. Per evitare che i corsi d’acqua degli Stati Uniti vengano inondati di sale nei prossimi anni, Kaushal ha raccomandato politiche che limitino i sali stradali o incoraggino alternative. Washington, D.C., e molte altre città degli Stati Uniti hanno iniziato a trattare le strade gelide con succo di barbabietola, che ha lo stesso effetto ma contiene molto meno sale

Da https://www.sciencedaily.com/releases/2023/10/231031111505.htm

Cibo coltivato.

In evidenza

Luigi Campanella, già Presidente SCI

Il Ministro Lollobrigida aveva anticipato la notizia di una legge italiana che vieta il cosiddetto “cibo sintetico” la sua importazione e commercializzazione. Il cibo “sintetico” non utilizza prodotti della terra, è di fatto indipendente dell’agricoltura (ma le cellule originali coltivate sono normali cellule animali e i materiali usati come nutrimento cellulare sono o possono essere comunque naturali), ma si basa su principi alimentari coltivati in laboratorio, a partire da cellule animali, un metodo che si è fatto strada prima di tutto nel campo dei biomateriali e della medicina rigenerativa, con la ricostruzione di tessuti ed organi umani come il tessuto cartilagineo, osseo, cardiaco, nervoso a scopo curativo; fra l’altro l’uso di cellule del paziente stesso garantisce la mancanza di fenomeni di risposta immunitaria. Non c’è nessun processo di sintesi chimica, ma solo la coltivazione in laboratorio delle cellule dell’essere vivente scelto e del suo specifico tessuto. Non a caso in inglese si chiama “cultured meat” traducibile in italiano come carne coltivata.

Tornando al caso del cibo il problema è stato affrontato anche in Europa. Dall’Europa arriva infatti uno stop al cibo coltivato. La commissione Agricoltura e sviluppo rurale del Parlamento europeo ha infatti cassato il paragrafo 19 della risoluzione sulle colture proteiche, nella parte in cui faceva riferimento a prodotti innovativi a base cellulare e comunque è stato sancito che non si possa chiamare carne quella prodotta “sinteticamente”. In effetti il testo originale includeva un paragrafo che definiva la carne sintetica un’opportunità da sfruttare, ma gli emendamenti presentati dai partiti hanno ribaltato questo impianto eliminando ogni riferimento al cibo di laboratorio e sottolineando invece l’importanza delle nuove biotecnologie sostenibili nella sfida globale per un’agricoltura in grado di produrre di più  utilizzando meno input, dunque ufficialmente l’UE sceglie la strada di aumentare la produzione alimentare senza modificarne la struttura ma introducendo tecnologie genetiche non OGM, quelle tecniche che lasciano evolvere il materiale genetico spontaneamente ma lo testano per scegliere poi le mutazioni spontanee più favorevoli.

In ogni caso l’Italia come si diceva all’inizio, si è mossa con una legge ora approvata che vieta la produzione e l’importazione di carne coltivata. Il processo inizia con il prelievo di alcune cellule dai muscoli di animali adulti, cellule che vengono poi poste in un bioreattore dove un liquido di alimentazione le fa crescere fino a dare vita ad una coltura cellulare e poi ad un tessuto vero e proprio. La sperimentazione è stata eseguita con cellule di bovini, maiali, tacchini, polli, anatre e pesci. Ma come scritto in precedenza IDENTICHE procedure vengono usate su cellule umane per la rigenerazione di tessuti di vario genere, in quella che viene definita medicina rigenerativa o ingegneria tissutale; queste procedure consentono di risparmiare con la carne coltivata non solo la vita degli animali e le loro sofferenze, ma riducono i consumi idrici (fino a 15000 l per 1 kg per la carne tradizionale) ed  in generale l’inquinamento ambientale.

Fino ad oggi gli unici Paesi che hanno approvato il consumo di carne coltivata sono gli USA e Singapore, ma in molti altri sono attivi programmi sperimentali per la sua produzione. Nel nostro Parlamento comunque fra contrari ed astenuti 87 deputati si sono dichiarati contrari al divieto di produzione e di mercato per alimenti e mangimi costituiti, isolati o prodotti a partire da colture cellulari o di tessuti derivati da animali vertebrati. La legge sancisce anche il divieto di denominazione di carne per prodotti trasformati contenenti proteine vegetali. La legge dovrà essere valutata a livello europeo per i suoi aspetti di conformità rispetto al diritto comunitario, specie per quanto riguarda il principio di libera circolazione delle merci.

Un aspetto della legge che di certo ne qualificherebbe i contenuti riguarda la ricerca scientifica nel settore dei cibi sintetici. La sicurezza e la qualità alimentare non devono essere messe in discussione e l’Italia con la legge approvata intende rappresentare un modello per tutti i Paesi Europei ma la fame nel mondo e le nuove crescenti povertà obbligano a non trascurare possibili nuove risorse alimentari che le contrastano e che possono aprire a nuove innovative risorse alimentari; la ricerca scientifica deve essere posta nella condizione di percorrere queste nuove strade. A margine dell’approvazione della legge c’è stato uno scontro fra l’onorevole Della Vedova di +Europa e Ettore Prandini, presidente di Coldiretti, il primo contrario, il secondo favorevole alla nuova legge. Lo scontro anche fisico soffre purtroppo di un comune difetto del dibattito anche istituzionale: di una medaglia si vede solo una faccia, quella di proprio comodo.

Vale anche la pena di chiarire un concetto semplice; il problema della quantità di cibo a cui le varie tecnologie cercano idealmente di rispondere esiste se e solo se ci si continua a basare su una alimentazione basata in modo significativo su proteine animali; la maggior parte della produzione agricola infatti non è diretta alla produzione di cibi umani, ma alla produzione di cibi per gli animali da allevamento, che come abbiamo detto varie volte costituiscono il grosso della biomassa animale del pianeta; un cambiamento nella struttura alimentare che privilegiasse i vegetali, senza impoverire la qualità proteica usata, eliminerebbe alla radice la questione delle carenze alimentari che sono poi esacerbate prima di tutto da processi di mercato o politici, come si è visto con il prezzo del grano.

Si veda anche:

https://www.ilfattoquotidiano.it/2023/11/16/la-legge-che-vieta-la-carne-coltivata-e-una-delle-piu-assurde-e-inutili-di-sempre/7355489/

https://gfi.org/science/the-science-of-cultivated-meat/

https://www.nature.com/articles/d41586-023-02095-6

Perché i tessuti si restringono e altre storie.

In evidenza

Claudio Della Volpe


Provate a riflettere su una cosa: veniamo al mondo nudi, ma comunemente veniamo seppelliti vestiti; in qualche modo il vestito si aggiunge al nostro corpo appena dopo la nascita e poi non ci lascia più.

Questo dovrebbe farci avere più attenzione ai tessuti di cui i vestiti sono fatti, e i tessuti debbono molto alla fisica e alla chimica (e alla geometria-topologia).

Questo post nasce dalla domanda apparentemente semplice: ma perché i tessuti si restringono quando vengono bagnati soprattutto la prima volta?

In realtà la risposta a questa domanda è molto complicata e non credo di poterla soddisfare in un solo post. Ma è una buona domanda, perché apre la stura a molte altre.

Anche perché il mondo dei tessuti coniuga aspetti geometrici, fisici e chimici in modo assolutamente affascinante e credo sia colpevolmente assente dalla cultura generale e dal mondo della scuola, sebbene, sotto forma di moda sia comunque presente nella nostra vita.

Ci sono testimonianze archeologiche di tessuti più vecchi di trentamila anni (in Georgia, le fibre di Dzudzuana sono tracce di tessuti di lino risalenti a 36mila anni fa), dunque certamente la tessitura è stata una tecnologia molto antica e che una volta entrata in circolo non ci ha più lasciati.

Qui devo fare una nota, ma significativa, di cui ringrazio mia figlia Daniela; esistono e hanno avuto molto spazio nella regione dell’indopacifico, fino a certe regioni dell’Africa dei materiali per vestiario prodotti a partire dalla corteccia interna di alcuni alberi, nome inglese bark cloth, che sono stati recentemente rimessi in gioco in Uganda dal desiderio di non perderne la tradizione. Questa corteccia fortemente battuta si presta a produrre “tessuti” di una certa dimensione e consistenza, ma non è affatto “tessuta”, conservando la propria struttura originale. Per converso i tessuti da ginestra di alcune regioni del nostro sud sono invece tessuti, ossia ottenuti da fibre estratte a differenza del bark-cloth.

Bark cloth indonesiano.

I tessuti sono fatti a partire da fibre vegetali o animali ed oggi anche sintetiche, dunque c’è tutta una parte della storia, che non vi racconterò, che porta dal vegetale o dall’animale (o dal petrolio) alla fibra; una volta arrivati alla fibra inizia il cammino del tessuto: come si tessono le fibre?

Le due grandi classi di tessitura sono espresse dalle due parole inglesi (la tessitura industriale moderna è nata in Inghilterra, ma era presente in fase artigianale anche dalle nostre parti; chi non ricorda i Ciompi, che battevano la lana per eliminarne i nodi?) weaving ossia tessitura (o lavoro a navetta) e knitting, o lavoro a maglia, rispettivamente, rappresentate nelle due figure qui sotto:

Weft è la trama e warp l’ordito

Intreccio a maglia

A sua volta il lavoro a maglia prevede due classi di intreccio che sono qui sotto schematizzate:

L’asola sinistra è a dritto quella a destra è a rovescio (seguire il filo giallo, a sin è sotto il rosso, mentre a destra è sopra il rosso))

Si racconta che una volta il dritto-rovescio sia stato ri-scoperto dal fisico teorico PAM Dirac tramite una osservazione “sperimentale”. Racconta Gamow nel libro 30 anni che sconvolsero la fisica (Zanichelli BMS 19, 1968)

A seconda del filato e del modello di lavorazione a maglia, i capi lavorati a maglia possono allungarsi fino al 500%. Per questo motivo, la lavorazione a maglia è stata inizialmente sviluppata per indumenti che devono essere elastici o elasticizzati in risposta ai movimenti di chi li indossa, come calzini e calzetteria.

Gli indumenti lavorati a maglia sono spesso più aderenti rispetto agli indumenti tessuti, poiché la loro elasticità consente loro di adattarsi più fedelmente al contorno del corpo; al contrario, la curvatura viene introdotta nella maggior parte degli indumenti tessuti a navetta solo con pince, svasature, tasselli e inserti cuciti, le cui cuciture hanno l’inconveniente di ridurre ulteriormente l’elasticità del tessuto.

Se tagliate un tessuto a navetta dovete far caso alla direzione del taglio rispetto a trama ed ordito; nel cucito, un pezzo può essere tagliato dal tessuto in qualsiasi orientamento, che però influenzerà il modo in cui il tessuto pende e si allunga e quindi la vestibilità di un indumento.

Si dice che un taglio è a dritto quando è orientato lungo l’ordito, traverso quando è orientato lungo la trama e a sbieco quando è a 45°; in questo ultimo modo il taglio dà un aspetto più fluido; e si tenga presente che ci sono due direzioni di sbieco l’una perpendicolare all’altra.

Esiste poi un altro modo storico di tessere che è l’antenato del moderno tessuto-nontessuto (woven-nonwoven in inglese) ossia il feltro. Il feltro è una stoffa realizzata in pelo animale. Non è un tessuto: viene prodotto con l’infeltrimento delle fibre. Il materiale che lo compone comunemente è la lana cardata di pecora, ma si può utilizzare qualsiasi altro pelo (o fibra sintetica, le mascherine anti-Covid sono tutte fatte così).

Se aggiungiamo a queste nozioni di base sui tessuti quel che ci siamo detti nel post su lavatura e stiratura saremo pronti a rispondere alla domanda iniziale: ma perché i tessuti si restringono quando vengono bagnati soprattutto la prima volta?

Cominciamo col dire che la tessitura specie a navetta prevede un meccanismo di accorciamento già in fase di tessitura perché la trama e l’ordito si devono adattare reciprocamente e dunque la lunghezza finale del tessuto dipende dal modo in cui sono esattamente intrecciati; inoltre in questa fase come nella fase precedente di filatura le fibre sono stressate anche significativamente e dunque il risultato finale dell’operazione di tessitura è una struttura soggetta a forti tensioni che possono essere rilasciate successivamente nel contatto con l’acqua che come sappiamo dal post sulla stiratura interagisce fortemente con le catene molecolari di proteine o di polisaccaridi che costituiscono il grosso dei tessuti di origine naturale (cotone e lino sono a base di polisaccaridi, mentre seta e lana sono proteine); l’interazione è certamente inferiore con i polimeri sintetici (massima col nylon, minore con i poliesteri che costituiscono il grosso dei sintetici); è infine da dire che in linea generale si possono avere sia fenomeni di restringimento che di allungamento durante le varie fasi di produzione e durante l’uso del tessuto, anche se il restringimento è probabilmente prevalente.

https://fabriziofamularo.it/restringimento-e-raccorciamento-nei-tessuti/

Possiamo definire restringimento (in inglese shrinkage) quel fenomeno di variazione dimensionale del tessuto dovuto al rilascio delle tensioni accumulate in fase di produzione e legato alla bagnatura, alla variazione di temperatura (per lavaggio o per asciugatura) e in genere al cambiamento ambientale del materiale, incluso per esempio fenomeni meccanici di compressione legati al lavaggio stesso (la lavatrice comprime e mescola meccanicamente i panni sia in lavaggio che in centrifuga). Ovviamente tali variazioni sono dirimenti, arrivano a qualche percento e sono dunque o possono essere maggiori delle differenze di taglia di un capo di vestiario con pesanti conseguenze pratiche. Proprio per questo motivo esistono dei procedimenti standard per valutare l’effetto di vari parametri sul tessuto che si restringe: AATCC 135, AATCC 158 e ISO 3759.

Alcuni meccanismi di restringimento sono specifici del tessuto e si possono verificare in ogni momento della sua vita; per esempio l’infeltrimento che è tipico della lana è dovuto alla struttura specifica delle sue fibre che sono dotate di scaglie lungo la superficie esterna:

Queste scaglie impediscono alle fibre di scorrere facilmente in una direzione e dunque bloccano eventuali variazioni dimensionali avvenute per esempio a causa di uno stress termico; la cosa è stata scoperta nel 1933 (J. Text. Inst., 24, 273T (1933) da Speakman.

In un lavoro successivo del 1944 su Nature (per chiarire l’importanza che una tale scoperta aveva sulla tecnologia dell’epoca) si dice (NATURE DECEMBER 16, 1944, Vol 154):

Il lavoro di Speakman e dei suoi collaboratori ha indicato che il restringimento della lana per infeltrimento è dovuto principalmente alla squamosità delle fibre, ma che in panni di costruzione e composizione simile l’entità dell’effetto viene determinata dalla facilità di estensione e dalla potenza di recupero delle fibre. Il restringimento dei tessuti trattati sotto condizioni comparabili è maggiore in condizioni acide e alcaline che in acqua, e i panni possono essere resi irrestringibili mediante trattamento con reagenti quali cloro, soda caustica o cloruro di zolfo. Questi fenomeni possono essere dovuti alla modificazione o delle proprietà elastiche o delle scaglie e gli esperimenti di questa nota sono stati concepiti per determinare quali delle due caratteristiche è più significativa.

Dunque in ogni momento una lana può comunque esprimere questo potenziale di “infeltrimento” e per questo motivo occorre trattare la lana con molta attenzione evitando di sottoporla a stress meccanici o termici eccessivi in fase di lavaggio.

Esiste comunque un procedimento chiamato Hercosett al cloro che consiste nella eliminazione tramite ossidazione delle scaglie e di una parziale ricopertura della superficie fibra con altri materiali; questa procedura riduce molto gli effetti di restringimento della lana; la lana vergine non è trattata in questo modo.

Un altro meccanismo di restringimento è legato al rilassamento di fibre stressate in fase di produzione, con un effetto mostrato nella seguente figura:

Il restringimento del rilassamento avviene con un tessuto realizzato con filati organici o fili che sono stati allungati o messi in tensione durante il processo di tessitura o colorazione o altri procedimenti. Questo rende le fibre temporaneamente più lunghe, e quando il tessuto viene successivamente lavato in acqua calda, i fili tendono a recuperare la loro stabilità dimensionale; questo effetto avviene una volta sola e di solito nel primo lavaggio, può esser tipico di alcuni di tipi di cotone (oltre che della lana) e limitarsi a 2-3%, che è comunque significativo. Come potete osservare dallo schema mostrato le fibre in realtà non si restringono, ma si alterano di forma.

Un altro meccanismo di restringimento è legato allo stress meccanico subito in fase di lavaggio, quando i panni sono sbattuti l’uno contro l’altro o compattati per la centrifugazione. La quantità di fibra che viene strappata ed espulsa come lanugine durante ogni lavaggio fa sì che il capo si riduca in volume, specialmente se sono presenti anche altri fattori di restringimento, come una alta temperatura. Questo fattore contribuisce pesantemente anche all’inquinamento legato alle fibre artificiali.

Ed infine un ultimo meccanismo è essenzialmente legato alla forte variazione di temperatura usata nel caso di asciugatura non naturale; in questo caso si ha una notevole perdita di acqua e l’umidità intrinseca di qualsiasi fibra può essere forzatamente ridotta. La lana ha un livello di umidità di circa il 17%, mentre il cotone di circa il 5%, entrambe queste percentuali possono essere ridotte da trattamenti termici inappropriati con vistosi effetti di restringimento.

Come si vede i processi di restringimento possono avere svariate origini, anche se sono più facili in tessuti naturali; esistono ovviamente metodi che all’origine cercano di ostacolarne l’evenienza, ma è anche da dire che un uso improprio del lavaggio e della asciugatura possono produrre questo effetto indesiderato perfino in tessuti di fibre artificiali; fare attenzione è obbligatorio per proteggere i nostri vestiti ed evitare anche inquinamento ambientale.

Termino con l’osservazione generale della distribuzione di mercato delle fibre tessili nel mondo, 110 miliardi di kilogrammi l’anno, ossia una quindicina a testa in media ogni anno; voi quanti ne avete nel vostro armadio?

Consultati:

https://en.wikipedia.org/wiki/Knitting

https://en.wikipedia.org/wiki/Dimensional_stability_(fabric)

https://www.displaycloths.com/fabric-shrinkage/

https://en.wikipedia.org/wiki/Compaction_(textiles)

Libro: La trama del mondo. I tessuti che hanno fatto la storia – Kassia St Clair UTET 2019

Delusioni europee.

In evidenza

Claudio Della Volpe

Ho spesso difeso da queste pagine la situazione europea dei controlli sulla chimica; REACH è certamente un baluardo (o almeno potrebbe esserlo) contro l’uso scriteriato della nostra disciplina che si è verificato nel secolo scorso lasciandoci con un ambiente fortemente inquinato. Ricordiamo che in Italia ci sono al momento 42 SIN, siti di interesse nazionale migliaia di chilometri quadrati fortemente inquinati e per i quali non si conoscono spesso le modalità di bonifica.

Come si vede dal grafico il loro numero è stato ridotto per legge nel 2012 da 57 a 39 (poi ritornato a 42); ma questo non toglie che abbiamo una colossale quantità di zone inquinate dall’attività della chimica industriale e non abbiamo né i soldi né, spesso, i metodi per bonificarle.

In alcuni casi questo inquinamento non è stato NEMMENO riconosciuto ancora e nel frattempo si è esteso dal 3% del territorio nazionale (circa 10mila chilometri quadrati!!) a zone molto più ampie.

Il caso recente più eclatante è ovviamente quello dei PFAS. Come abbiamo riportato si tratta della violazione di un vero e proprio limite planetario che, a causa della stabilità delle molecole in questione, ci condanna per secoli ad usare acqua e suolo inquinati e ad avere queste sostanze nel nostro stesso corpo, dato che ormai cade con la pioggia.

Ma come mai REACH non ci difende? Come mai non ci ha difeso? Dove sta il busillo? Perché REACH non ha fermato i PFAS?

Qualche amico mi sollecita a ricordare un caso recente, ossia il glifosato, di cui abbiamo parlato sul blog anche in anni passati (ricordate il conflitto inimmaginabile fra ECHA e IARC?); in questi giorni l’EU ha deciso di rinnovare, sia pure a certe condizioni, il permesso di usarlo per altri 10 anni, nonostante ci siano ormai le prove che questa molecola non sia del tutto innocua, ma danneggi in modo significativo l’ambiente naturale e che le sue modalità di determinazione e di verifica nei tessuti biologici non siano adeguate allo scopo.

A riguardo del primo punto, oltre i noti dubbi espressi già nel 2015 dallo IARC sull’effetto cancerogeno della molecola, un altro recente lavoro dell’Istituto Ramazzini sostiene che il glifosato altera il microbioma intestinale anche a dosi molto basse.

A riguardo del secondo punto un recentissimo lavoro stabilisce che

In conclusione, il nostro studio evidenzia la mancanza di affidabilità dei processi di valutazione effettuati dalle agenzie regolatorie per il glifosato in particolare, e per i pesticidi in generale, e mette in discussione la rilevanza di tali processi che dovrebbero salvaguardare la salute umana e l’ambiente.

Il meccanismo è il seguente; per bloccare il glifosato o permetterlo ci vuole la maggioranza qualificata del 55% e non si è trovata in entrambi i casi; solo qualche matto si è schierato; ne segue che si continua ad usarlo; nessun meccanismo di precauzione, ma invece di garanzia del profitto si (ma si parla solo dei posti di lavoro “salvati”).

Forse la cosa buona è che se ne parli e anche tanto; almeno così si riesce a mettere le persone sull’avviso e in generale a combattere la disinformazione; che non è solo legata ai gruppi che mettono in discussione la Scienza sostenendo sciocchezze palesi, come i no-vax, ma anche a coloro che si pongono su un altare tecno-economico riducendo a zero ogni sia pur elementare principio di precauzione; mantenere il timone in questo mare procelloso ed incerto di informazioni contraddittorie è difficile anche per chi come molti di noi ha strumenti di discrimine.

Durante l’estate c’è stata la possibilità di esprimersi a riguardo della richiesta di bando dei perfluorurati chiesta da alcuni paesi europei; l’ECHA ha aperto la possibilità di esprimere il proprio parere pubblicamente; nessuna associazione professionale o culturale di chimici a livello europeo si è espressa. Perché questo avviene?

Oddio qualcuno si è comunque espresso pubblicamente sui PFAS, chessò la RCS:

https://www.rsc.org/policy-evidence-campaigns/environmental-sustainability/sustainability-reports-surveys-and-campaigns/cleaning-up-uk-drinking-water/

La RCS ha dedicato una pagina web ai pfas e chiesto il contatto con il grande pubblico e stimolato il governo.

La ACS, in un’America straziata anche dai processi che sono diventati film è intervenuta in qualche modo:

https://cen.acs.org/sections/pfas.html

Da noi nulla a parte il nostro blog.

In questi giorni è in corso il processo a Vicenza contro Miteni, mosso da denunce di privati (le Mamme NO Pfas); scrive la stampa nazionale (Il Fatto Quotidiano del 26/10/2023) che l’istituzione pubblica che sovraintende alla salute (l’assessorato regionale del Veneto) sospese la ricerca sull’inquinamento del sangue dei cittadini veneti per motivi economici (traduzione: le analisi costavano troppo); e cosa ha impedito ai chimici italiani di schierarsi? Anche qui motivi economici? Perché gli italiani non hanno letto da nessuna parte, casomai attraverso un comunicato stampa, che i chimici italiani in qualche forma organizzata, una associazione, una lista di nomi conosciuti, quel che volete, deplorava l’uso criminale, irresponsabile della chimica fatto dalla Miteni?

Qualche giorno fa abbiamo reso noto che su alcuni giornali europei era uscita una denuncia precisa contro la presidente von der Leyen: con la scusa delle elezioni europee ha posticipato la riforma e l’adeguamento del REACH di un anno almeno. E perché mai ha indebolito così il nostro principale strumento di difesa ambientale proprio in un momento critico? La denuncia parte dalle grandi firme del giornalismo europeo: The Guardian e Le Monde. Nessun giornale italiano a parte il Fatto se ne è accorto.
Cari amici e colleghi, qua si tratta lo so, di cambiare “narrazione”; da la Chimica è bella e potente a la Chimica non è dei Chimici, è guidata da interessi economici e nessuno di noi (a parte qualche matto) si muove per denunciarlo; a Napoli si dice “’a pazziella mmano e ccriature”; una guida irresponsabile di uno strumento potente e difficile! I risultati tragici sono scontati!

Non sto accusando nessun chimico in particolare, ma sapere le cose non comporta una responsabilità? Sapere le cose della Chimica e magnificarle non comporta fare da garanti della sua bellezza e potenza? (e qua ben vengano filmati anche un po’celebratori)

Ma perché non anche della sua correttezza e affidabilità? (e qua purtroppo silenzio totale)

Ricordi di depurazione: la digestione anaerobica.

In evidenza

Mauro Icardi

Il corretto caricamento dei fanghi è il fattore principale per la corretta conduzione del processo di  digestione anaerobica. Per ottenere questo risultato occorre operare un attento e continuo controllo, sia analitico che gestionale.

La digestione anaerobica si svolge attraverso una catena metabolica che, partendo da composti carboniosi complessi, conduce a intermedi metabolici più semplici, fino alla produzione di acidi grassi volatili (fase acidogena), poi ridotti a metano nella fase metanigena. La reazione di metanazione è la reazione più lenta e condiziona l’intera velocità del processo. Se si mantiene l’equilibrio tra la quantità di acido acetico prodotta nella fase acidogena e la quantità metabolizzata a metano si parla di condizioni stabili. Diversamente, l’accumulo di acido acetico non ancora metabolizzato a metano determina un rallentamento dei processi, tossicità per i batteri di acidificazione dei fanghi e, in certe condizioni, anche blocco del digestore e della produzione di biogas. Per favorire condizioni stabili si bilancia il rapporto tra materiale già digerito, e il caricamento giornaliero del fango ancora da decomporre. I parametri chimici di processo vengono determinati sul materiale prelevato nell’ambiente di reazione (digestore) per verificare il corretto procedere della reazione. I principali parametri di processo comunemente valutati sono principalmente i seguenti.

Acidi grassi volatili (AGV). Sono gli acidi organici prodotti nel corso della degradazione della sostanza organica. La concentrazione di AGV è espressa come concentrazione di acido acetico nel volume di materiale (mg/L), dipende dalla quantità e qualità del fango caricato nel digestore e dall’equilibrio tra batteri acidogeni e batteri metanigeni. Come parametro di stabilità non viene assunta la concentrazione assoluta ma le variazioni di concentrazione: incrementi repentini di concentrazione indicano che il processo volge verso la fase acidogenica piuttosto che metanigena. In generale un incremento degli AGV è conseguente all’aumento del carico organico da trattare.

Alcalinità. Rappresenta la capacità del sistema di accettare protoni ed è espressa come concentrazione di carbonato di calcio. L’alcalinità di un digestore anaerobico è determinata dall’equilibrio di ammoniaca, originata dalla degradazione proteica, e bicarbonato, derivato dalla dissoluzione dell’anidride carbonica (CO2), che formano un sistema in grado di tamponare l’abbassamento del pH dovuto dall’accumulo degli acidi grassi volatili.

Rapporto AGV/alcalinità totale. La concentrazione di AGV e l’alcalinità sono due parametri molto sensibili alle variazioni del sistema e il rapporto è importante per monitorare segnali di condizioni di instabilità del processo. Valori intorno a 0,3 indicano un’operatività stabile del digestore, mentre valori superiori possono indicare l’accumulo di AGV e l’insorgere di problemi, oltre che il rischio di blocco della produzione di biogas. Il rapporto AGV/alcalinità descrive la dinamica tra materiale già digerito (alcalinità rappresentata da ceneri e ammoniaca) e materiale fresco in fase di degradazione . Valori di rapporto AGV/alcalinità totale superiori sono molto spesso sintomo di una sovralimentazione del digestore.

Concentrazione di ammoniaca. L’ammoniaca è prodotta durante la degradazione delle proteine. Un’alta concentrazione di ammoniaca può inibire i batteri sia acidogeni sia metanigeni. Gli intervalli di concentrazione possono variare con questa scala di concentrazione e producono effetti diversi:

• 200-1.500 mg/L  non tossica

• 1.500-3.000 mg/L inibente se il pH è sotto 7,4

 • 3.000 mg/L sempre inibente.

La presenza di ammoniaca è comunque importante per tamponare il sistema dentro al digestore e compensare l’accumulo di acidi grassi volatili mantenendo un pH stabile.

pH. Il valore dipende dai parametri visti in precedenza: concentrazione di acidi grassi volatili, ammoniaca, alcalinità. In un digestore in fase stabile il valore di pH dovrebbe aggirarsi intorno a 6,5-8. Cadute del valore di pH sotto 6,5 indicano un accumulo di acidi grassi volatili le cui cause vanno verificate, anche se nella maggior parte dei casi sono dovute al sovraccarico del digestore per un caricamento non corretto.

Come si può notare la gestione di un digestore anaerobico è un’operazione da non sottovalutare e che non deve essere condotta con superficialità, un’operazione per addetti alla conduzione del processo anaerobico che devono servirsi delle analisi di controllo, ma anche della propria sensibilità ed esperienza, che si costruisce con il tempo e la pazienza. Le conoscenze di chimica industriale si applicano molto bene alla gestione di questa sezione di un impianto di depurazione. Io ne sono sempre stato attratto e ne conservo un ricordo molto vivo e gradevole. Il solito confronto con la materia che Primo Levi narrava nelle sue opere. Un altro caso di chimica modesta poco conosciuta, ma molto utile.

Ecologia e giustizia sociale.

In evidenza

Luigi Campanella, già Presidente SCI

Il Giorno della Terra che dal 1970 annualmente festeggiamo il 22 aprile è nato per merito dell’ambientalismo americano in risposta ad un disastroso inquinamento da petrolio sulle coste della California. Poco dopo nel 1972 si celebrò a Stoccolma un altro evento spinto da una ideologia ambientalista: il primo summit ONU sull’ambiente Umano. Ma purtroppo i risultati sono stati quelli con cui ci confrontiamo oggi in termini di estinzione documentate di specie animali, 765, e di estinzione a rischio, oltre 6000, di cui 161 in Italia. La causa principale è la distruzione degli habitat naturali attaccati dagli agenti patogeni a seguito del grave degrado ambientale. Le risposte del mercato non sono mancate con nomi diversi, come sviluppo sostenibile, economia verde, economia circolare, transizione ecologica, tutte portate avanti affidandosi alla innovazione tecnologica, ma senza tenere conto di quello che finalmente negli ultimissimi tempi è emerso come l’indicazione di ONE HEALTH, una sola salute che lega tutti gli esseri viventi ed il mondo nel quale vivono, quella che papa Francesco ha chiamato nell’enciclica Laudato si’: ecologia integrale.

 Il difetto di queste risposte è pensare di parametrare l’ecologia all’economia come avviene oggi con il commercio fra imprese di tonnellate di CO2 al costo di 40 euro/ton: tutti guadagnano e perde l’ambiente. Nemmeno l’economia circolare su cui puntavano sembra la soluzione se, come dice l’ultimo Report The Circularity Gap, l’economia mondiale ricicla solo l’8,6%, peraltro in calo rispetto al 2019 (9,1%). L’uomo è purtroppo il primo responsabile se si pensa che la massa di plastica in circolazione è doppia di quella di tutti gli animali viventi (7 Gton rispetto a 4) e che la massa di tutti gli alberi e arbusti è superata da quella di edifici ed infrastrutture (900 Gton rispetto a 1100). Finalmente si comincia a parlare di una Corte di Giustizia per i Diritti della Natura; sarebbe sbagliato se però questa Corte nascesse col primario interesse a contrastare lo sviluppo, la crescita e la civiltà industriale e quanto hanno realizzato in termini di sicurezza, salute, alimentazione.

È la condivisione delle conoscenze e la solidarietà che consentono di rendere tutti questi valori fra loro compatibili e non alternativi, contrastando le sperequazioni responsabili della polarizzazione della nostra Società fra ricchi e poveri, paesi industrializzati e paesi in via di sviluppo, società demograficamente in espansione ed altre sempre più in contrazione, tecnologie innovative mature e elementari ritardi digitali.

Scienza e verità.

In evidenza

Luigi Campanella, già Presidente SCI

Marcello Cini diceva che la scienza non è la verità come dimostra la sua storia e diceva anche che non è neutra poiché nasce in un contesto economico, politico, sociale che ne influenza sviluppi ed esiti.

Il rapporto con il potere politico spesso però si basa su valutazioni opposte: utilizzare la scienza come verità assoluta in difesa di scelte e posizioni di comodo. A questa situazione purtroppo concorrono anche alcuni scienziati che inebriati dalla propria immagine dispensatrice di verità rassicurano l’opinione pubblica, prestandosi alla strumentalizzazione politica.

In questo non c’è nessuna valutazione negativa: che fenomeni inediti non abbiano spiegazioni acquisite, che alle tante domande che la vita pone non ci siano sempre risposte adeguate deve essere accettato proprio in funzione della fiducia dei cittadini negli avanzamenti della scienza. A proposito dei quali il ricercatore ha un ruolo essenziale che gli consenta mentre percorre la strada in una direzione di cogliere occasioni e scoperte in un’altra.L' ape e l'architetto - - Libro Usato - Feltrinelli - I Nuovi Testi | IBS

La scienza esplora, indaga, nelle occasioni più fortunate fornisce risposte che però sono sempre contingenti nel tempo ne possono arrivare altri più idonee a spiegare certi fenomeni perché la scienza non avanza per dogmi, ma per paradigmi.

Purtroppo questo stato dinamico espone la scienza a fake news e infox, le prime destinate a creare ignoranza con informazioni artatamente false, il secondo a creare confusione attorno alle conoscenze già acquisite (informazione tossica, dal francese). Insieme i 2 fanno ridurre o scomparire l’orizzonte del vero. La scienza però continua – guai se non fosse- a difendere ed esaltare la propria insostituibile credibilità con mezzi e strumenti diversi spesso affidati alle interazioni e collaborazioni fra discipline.

Alfio Quarteroni, matematico del Politecnico di Milano, è una dimostrazione vivente e recente delle opportunità di applicazione che vengono stimolate quando una disciplina scientifica interagisce con le altre. Così nel suo caso l’applicazione della matematica alla fluidodinamica ed alla medicina ha consentito di realizzare un cuore virtuale per aprire la strada a nuove terapie.

Grazie a supercomputer nel progetto Heart Simulator è stato ricostruito il funzionamento dello straordinario motore del nostro organismo. Tradurre la complessità cardiaca in equazioni matematiche significa mettere a disposizione dei medici strumenti di conoscenza del comportamento del cuore che TAC e RMN non sono in grado di fornire.

Il punto di partenza è che ogni singola attività del cuore si può descrivere con le leggi della fisica e può quindi essere tradotta in equazioni. Si tratta di equazioni perfette ma quasi impossibili a risolvere, visto che per ogni battito bisogna risolvere milioni di variabili; ma non per un supercomputer. Il modello virtuale ottenuto ci mostra un cuore in movimento che batte con la possibilità in ogni suo punto di ricostruire valori e variabili che caratterizzano un determinato comportamento. Per rendersi conto della complessità del progetto si pensi che ad ogni battito cardiaco corrispondono 4 ore di attività di elaborazione da parte del supercomputer e che linee di codice del software che compone il progetto sono 200 mila. Il progetto è già attivo in 20 ospedali al mondo.

Anche la chimica è coinvolta in questi avanzamenti. I sensori indossabili sono un nuovo prezioso strumento di controllo dello stato di salute capace di prevenire situazioni di allarme con la determinazione di opportuni biomarcatori. La matrice a cui si applicano può essere il sangue, la saliva, l’esalato e, come ultima scoperta, il sudore all’interno dei quali sono presenti numerosi indicatori di patologie anche gravi. La tecnologia è mini-invasiva, continua, scientificamente affidabile. Gli approcci sperimentali sono 2: quello differenziale in cui il sensore indossabile determina un indice e quello integrale in cui invece misura più indici insieme ed elabora una risposta complessiva. La tecnologia è in grande sviluppo grazie alle ricerche condotte per gli aspetti sia di ingegneria che di chimica e biologia dei sensori