Facciamo Rete per la Cultura Chimica

In evidenza

Giovanni VIllani

Il Progetto SCI “La Chimica: dalla scuola alla vita quotidiana”.

giovanni.villani@cnr.it

L’immagine della rete è ormai ampiamente utilizzata per la sua intrinseca forza visiva. Dall’iniziale rete materiale per pescare, si è passati ormai ad associare al termine “rete” delle cose molto più astratte, fino a Internet, la “rete delle reti”.

La rete è l’immagine metaforica di un approccio che, lasciando autonomia ai nodi, poi li metta in relazione, li connetta. La rete è intrinsecamente “democratica”, non c’è gerarchia, tutti i nodi sono sullo stesso piano, non ci sono capi. La rete connette superando i confini fisici, non riconosce differenze se non internamente ad essa. La reta dà valore alle relazioni: essa è tanto più robusta quanto più numerose sono le interconnessioni. Da supporter del calcio, mi piace ricordare che “fare rete” può anche significare “raggiungere un fine, una meta”, fare goal.

Qui noi, tuttavia, non vogliamo parlare né di Internet né di calcio, ma della cultura chimica e della necessità di costruire per essa una rete, uno stabile insieme di nodi, distribuiti spazialmente, autonomi ma connessi. Vediamo la necessità di una vera e propria Rete per la Cultura Chimica (RCC) e vorremmo provare a costruirla partendo da una bella occasione offertaci dal Bando 2020 per la Diffusione della Cultura Scientifica del MIUR.

Come ben saprete, con periodicità non facilmente decifrabile, il MIUR emana tali tipi di bandi. Alla fine dell’anno scorso, venuto a conoscenza di un Bando, mi sono attivato perché la Società Chimica Italiana ci provasse. Era un bando annuale per progetti fino a 100000 euro, finanziati all’80%.

Dopo aver trovato ampia disponibilità da parte del nostro Presidente, ho scritto da Referente per la SCI un progetto dal titolo “La Chimica: dalla scuola alla vita quotidiana”, articolato nelle tre seguenti azioni.

(a) Costruire una rete di divulgazione chimica, individuando in ogni regione italiana un nodo e collegandoli tra di loro; ogni nodo dovrebbe essere parte attiva in iniziative culturali sulla chimica e utile nel riproiettare sul territorio tali iniziative. In ogni nodo deve essere presente una scuola che faccia da capofila per l’essenziale componente scolastica.

(b) Dotare tale rete di una sua specifica piattaforma informatica che consenta di diffondere e pubblicizzare le iniziative dei singoli nodi e creare ulteriori rapporti con simili reti di altre discipline. Tale piattaforma, inoltre, consentirebbe la propagazione nel tempo di tale progetto.

(c) Creare un’iniziativa nazionale che riassuma e valorizzi le iniziative locali e che sia sufficientemente grande da dare visibilità alla cultura chimica sui media.

Sorprendentemente, il progetto è stato finanziato con il massimo possibile: 80000 euro.

Nei prossimi giorni il Progetto dovrà essere dettagliato. Proprio nella logica della rete, si accettano candidature e autocandidature.

Lasciatemi finire questo articoletto di informazione in una prospettiva più vasta e allo stesso tempo personale (della qualcosa mi scuso in anticipo). Entro dicembre ci sarà l’elezione del Presidente della Società Chimica Italiana per il triennio 2023-2025 e io sono uno dei due candidati. Io voglio incentrare il mio Programma proprio sulla Cultura Chimica e sulla necessità di creare per essa una stabile e diffusa Rete.

La SCI è la più antica società scientifica disciplinare. Nonostante la nostra storia e il nostro costante impegno, tuttavia, non possiamo dire che la Chimica goda di una bella immagine “pubblica”. Certamente la disciplina Chimica è insegnata a quasi tutti gli studenti delle Scuole Secondarie; certamente sono tanti gli indirizzi universitari che prevedono uno o più esami di Chimica. Nonostante ciò, tuttavia, non è difficile trovare ogni giorno sui media chi parla male della Chimica. Sarebbe bello pensare che sono “chiacchiere al vento” che non ci porteranno problemi, ma temo che questo non sia vero. Anche l’esempio dell’attuale pandemia, ci dovrebbe far riflettere su tutto il lavoro che deve essere fatto, a monte non nell’emergenza, per una corretta diffusione della cultura chimica, in particolare, e scientifica in generale.

Non facciamoci illusioni. Il lavoro giornaliero di diffondere una corretta idea della Chimica, dei sui concetti e delle sue applicazioni, delle sue interazioni con le altre discipline e delle sue problematiche culturali ed etiche va esplicato principalmente nelle Scuole e nelle Università. È per questo che la Divisione di Didattica lavora da sempre insieme a Scuole ed Università. Se questo lavoro non funzionasse, infatti, non ci potrebbe essere a valle nessuna altra istituzione in grado di intervenire. Rattoppare ad un abito mal confezionato, infatti, non ha mai risolto i problemi.

Nella nostra comunità non è mai mancato l’impegno e la consapevolezza sul problema dell’immagine negativa della Chimica nella società, ma, da persone di scienza, abbiamo troppo a lungo pensato che tale problema si risolvesse da solo perché non aveva nessuna consistenza razionale. Va preso atto che non è così e bisogna intensificare gli sforzi e indirizzare risorse, mentali e materiali, per operare in questa direzione. Io credo che su queste problematiche la Società Chimica Italiana debba impegnarsi in un forte e attivo lavoro.

La SCI ha un’articolazione territoriale in Sezioni regionali, prova del radicamento ubiquitario della nostra comunità. Queste Sezioni vanno coinvolte nella RCC che verrà costruita nell’ambito del progetto. Esistono, poi, all’interno della SCI altre articolazioni non rivolte a specifici settori chimici: la Divisione di Didattica (l’unica Divisione non tematica), il Gruppo per la Diffusione della Cultura Chimica, il Gruppo Giovani e quello Senior. Io credo che tutte queste articolazioni debbano essere parte attiva, oggi, nella formazioni della RCC e, domani, nel tenerla viva.

Assodato questo, noi chimici che lavoriamo con la Chimica nelle differenti professioni (siano esse la ricerca, l’industria o i servizi) non possiamo esimerci da un lavoro attivo, distribuito ma coordinato, sulla diffusione della cultura chimica e tale compito di coordinamento può farlo solamente la Società Chimica Italiana. A tale compito va affiancato per la SCI un forte impegno nell’elaborazione di idee generali, di progetti culturali nazionali come, per esempio, la rete dei musei di Chimica. È solo così che possiamo dire di aver fatto tutto il possibile per una corretta percezione della Chimica nella società.

Zanzare e chimica

In evidenza

Luigi Campanella, già Presidente SCI

Un dibattito recente fra classi di pensiero ha riguardato gli strumenti a disposizione dell’uomo per contrastare le invasioni da parte di insetti: come stabilire il rapporto fra vantaggi per la salute e danni all’ambiente quando si interviene con prodotti chImici aggressivi?

Tale dibattito in un certo periodo é stato particolarmente vivo nel.nostro Paese con riferimento alla lotta contro le zanzare. Un recente saggio dello storico canadese Winegard

Zanzare. Il più¹ micidiale predatore della storia dell’umanità

si schiera decisamente in.questa dialettica definendo la zanzara il più micidiale predatore dell’umanità.

In effetti però a volte questo predatore si è rivelato un alleato prezioso come per Napoleone per distruggere i sudditi di sua maestà la Regina di Inghilterra o come per gli Inglesi nel contrastare la lotta per l’indipendenza della Scozia o per gli Americani contro gli Inglesi durante la guerra di indipendenza o ancora per i Papi fungendo da bastione per proteggerli da possibili invasori della Stato Pontificio. Generalmente però la zanzara è sempre stata vista come un pericolo per l’uomo. Di recente anche sulla morte di Dante è sorta l’ipotesi che a procurarla sia stata la puntura di una zanzara. I crociati a causa della zanzara non riuscirono a conquistare Gerusalemme durante la terza spedizione ed analogamente fallì la colonializzazione dei Caraibi da parte degli Inglesi. Nel saggio Winegard osserva che la scienza che ha vinto tante battaglie ha perso o sta perdendo quella con la zanzara: non si trovano nuovi ritrovati efficaci tanto che nel 2018 a causa della sua puntura sono morte quasi 1 milione di persone e che un recente monitoraggio ha evidenziato che le popolazioni di zanzare sul nostro territorio godono di ottima salute. La chimica da sempre è stata chiamata in causa contro le zanzare, ma poi le azioni richieste a difesa, si sono spesso trasformate in occasioni di accuse contro la Chimica per i “veleni” diffusi. Il metodo più efficace per tenere le zanzare lontane è applicare un repellente sulla pelle o sui vestiti, se sono coprenti. Il repellente più potente contro le zanzare, anche se non l’unico efficace, è la dietiltoluamide (DEET), una sostanza chimica sviluppata dall’esercito statunitense durante la Seconda guerra mondiale e derivata dall’agricoltura, usata per tenere lontani i parassiti. Non va confusa con il DDT.

La DEET è usata in ambito civile dalla fine degli anni Cinquanta ed è ritenuta da molte ricerche scientifiche la sostanza più adatta contro le zanzare. Inizialmente si pensava che la DEET mascherasse gli odori prodotti dall’organismo impedendo quindi ai recettori delle zanzare di perceperli, ma studi più recenti hanno dimostrato che è proprio l’odore della DEET a infastidire le zanzare e ad allontanarle. Non protegge solo dalle zanzare: può essere usato anche contro mosche, pulci e zecche. La concentrazione di DEET nel repellente varia da 5 per cento (un’ora e mezza di protezione) a 100 per cento (10 ore di protezione). Queste poche notizie ci fanno capire che un fondo di verità sui dubbi circa il rapporto danno/beneficio in fondo c’è. Forse la risposta sta -come spesso avviene – nell’equilibrio gestionale di certi strumenti e di esempi, ben oltre le zanzare, se ne possono fare molti: dalle diete alimentari all’isolamento termico,dalla depurazione dell’acqua all’uso dei fitofarmaci, dalla fertilizzazione alla nutraceutica.

Il Premio Nobel 2021 per la chimica a due chimici organici

In evidenza

Rinaldo Cervellati

Sia Chemistry & Engineering news (ACS, USA) sia Nature hanno dato risalto al Premio Nobel per la Chimica 2021 ottenuto da due chimici organici sintetisti, Bemjamin List[1] e David William Cross MacMillan[2], per la scoperta dell’organocatalisi asimmetrica. L’organocatalisi asimmetrica utilizza piccole molecole organiche come catalizzatori al posto dei catalizzatori tradizionali come enzimi o metalli. Queste molecole sono in grado di catalizzare le reazioni per formare selettivamente un enantiomero di un particolare composto, cioè una versione di due molecole speculari.

Benjamin List (sopra) e David William Cross MacMillan (sotto)

Nel 2000, List e collaboratori hanno utilizzato la L-prolina per catalizzare una reazione aldolica intermolecolare (Figura 1).

Fig. 1.

Sempre nel 2000, MacMillan e collaboratori hanno dimostrato che un imidazolidinone chirale può catalizzare la reazione di Diels-Alder tra aldeidi e dieni α,β-insaturi (Figura 2).

Fig. 2

L’organocatalisi asimmetrica è una tecnica utilizzata e particolarmente importante per il processo di scoperta di farmaci. Le molecole biologicamente attive sono spesso chirali e gli organocatalizzatori forniscono un modo per produrre composti farmacologici candidati in modo rapido ed efficiente.

Il lavoro di MacMillan in questo settore è iniziato con la trasformazione di ammine in ioni di iminio e l’utilizzo degli ioni iminio per catalizzare un gran numero di reazioni organiche, inclusa la reazione iniziale di Diels-Alder. List lavorò presto con il composto chirale L-prolina e lo usò per catalizzare una reazione aldolica intermolecolare.

L’utilizzo di piccole molecole organiche come catalizzatori è simile all’imitazione degli enzimi, afferma David Nicewicz, un chimico organocatalitico dell’Università della Carolina del Nord, che ha lavorato con MacMillan come ricercatore post-dottorato oltre un decennio fa. In questo modo, il lavoro ha davvero attinto ad alcune delle basi chimiche che si possono trovare in natura.

Vy M. Dong, un chimico organico dell’Università della California a Irvine afferma: “Dave e Ben sono stati persone davvero critiche nel portare questo riconoscimento e fare scoperte che mostrano alla gente le cose che potrebbero essere possibili con quest’area di ricerca”.

Il presidente dell’American Chemical Society H. N. Cheng ha detto a C&EN: “Penso che la selezione del comitato Nobel sia una scelta eccellente perché in chimica, come sappiamo, apprezziamo la capacità di trovare nuove soluzioni e nuovi modi di sintesi. L’organocatalisi è un grande progresso e questo è un giusto riconoscimento dei loro contributi”.

Opere consultate

L.K. Boerner, Pioneers of asymmetric organocatalysis win 2021 Nobel Prize in Chemistry, C&EN,  October 6, 2021.

D. Castervecchi, E. Stoye, ‘Elegant’ catalysts that tell left from right scoop chemistry Nobel., Nature, 06 October 2021.


[1] Benjamin List (1968-), noto anche come Ben List, è un chimico organico tedesco, uno dei direttori dell’Istituto Max Planck per la ricerca sul carbonio e professore di chimica organica all’Università di Colonia.

[2] David William Cross MacMillan, (1968-) è un chimico organico scozzese-americano professore di chimica all’Università di Princeton, dove è stato anche presidente del Dipartimento di Chimica dal 2010 al 2015.

Il rapporto corretto dei nutrienti nel fango attivo.

In evidenza

Mauro Icardi

Un rapporto equilibrato dei nutrienti è la condizione necessaria perché i microrganismi che sono presenti nei fiocchi di fango attivo trovino le condizioni adatte per degradare adeguatamente gli inquinanti presenti nelle acque reflue.  In questo caso, i nutrienti più importanti sono il carbonio, l’azoto e il fosforo.

Carbonio

 Il carbonio è l’elemento principale delle sostanze organiche contenute nelle acque reflue. Viene biodegradato dai microrganismi presenti nel fango attivo in condizioni aerobiche nelle vasche areate, (zona di nitrificazione), e nell’ambiente anossico (zona di denitrificazione) . I composti del carbonio vengono utilizzati dai microrganismi per la costruzione delle strutture cellulari specifiche e per la produzione di energia.  I composti del carbonio vengono determinati principalmente attraverso l’analisi dei parametri COD e BOD5.

Il test per la determinazione del BOD5, misura l’ossigeno consumato dai microrganismi mentre ossidano e consumano la materia organica disciolta nelle acque reflue. Il test misura solo la quantità di ossigeno che viene richiesta (assorbita o consumata) dall’acqua di scarico quando viene esposta all’aria o all’ossigeno per un periodo di tempo prolungato. Le sostanze tossiche presenti nelle acque reflue possono inibire o addirittura impedire la crescita batterica, e, quindi la capacità complessiva di ossidazione della materia organica. Quando questo si verifica, il risultato del test del BOD5 è inferiore alla quantità effettiva di materia organica presente. Rimane però uno dei parametri fondamentali per la progettazione e la conduzione degli impianti di depurazione.

Azoto

All’ingresso dell’impianto di depurazione l’azoto è presente come azoto organico (N org) e sotto forma di azoto ammoniacale (NH4-N). Nella fase di ossidazione biologica l’azoto viene convertito in nitrato. La frazione dei composti di azoto che non viene totalmente biodegradata nella fase di ossidazione, viene trasformata in condizioni anossiche, cioè con concentrazione di ossigeno disciolto limitata (circa 0,5 mg/L), in azoto elementare (denitrificazione).  I composti dell’azoto vengono determinati come NH4-N, NO2-N, NO3-N e Azoto totale (N Tot).

Fosforo

Il fosforo nelle acque reflue che vengono convogliate in un impianto di depurazione è presente sotto forma di ortofosfati , polifosfati e composti organici del fosforo. Tutti insieme producono il parametro cumulativo fosforo totale (Ptot). Durante la depurazione biologica delle acque reflue, i polifosfati e il fosforo combinato in modo organico vengono trasformati in ortofosfati. Il fabbisogno di fosforo da parte dei microorganismi è dovuto al particolare ruolo che il fosforo gioca nel loro metabolismo energetico. Il fosforo è necessario per la struttura della membrana cellulare e del DNA. Solo una frazione del fosforo presente nelle acque reflue viene eliminato per via biologica (mediamente circa il 50% della quantità in ingresso). Il rimanente può essere eliminato tramite una precipitazione chimico-fisica che permette di rispettare il valore di parametro previsto prima dello scarico nel corpo idrico ricettore.

Zolfo

Acque di scarico civili, reflue e anche diverse acque di scarico industriali contengono composti ridotti (acido solfidrico, solfuro e tiosolfato). Lo zolfo è un componente indispensabile delle proteine. Negli impianti di depurazione, i composti dello zolfo vengono ossidati a solfati.

(Fiocco di fango attivo caratterizzato da proliferazione di Microtrix parvicella)

Microelementi

Altri microelementi necessari per la struttura cellulare, quali calcio, magnesio, manganese, ferro, rame, zinco, nichel nonché le vitamine sono quasi sempre presenti nelle acque reflue civili. La determinazione di questi parametri avviene tramite spettroscopia di assorbimento atomico, spettrometria di massa a plasma, oppure con l’utilizzo di kit analitici.

Il contenuto dei singoli nutrienti nelle acque reflue deve soddisfare le necessità della biomassa dei fanghi attivi e presentare un rapporto equilibrato di C, N e P. Ciò è determinante per una corretta gestione della fase di ossidazione. Nella depurazione aerobica delle acque reflue, il rapporto C: N: P dovrà essere compreso tra 100:10:1 e 100:5:1. Questo rapporto può variare per diverse ragioni.  La modifica delle attività industriali in un comparto industriale, o all’opposto per la loro riduzione o dismissione.

Le conseguenze dello sbilanciamento dei nutrienti si traducono in un’alterazione nel metabolismo della biomassa che colonizza il fango attivo, provocando il fenomeno conosciuto come bulking (o bulking sludge, cioè rigonfiamento del fango). In sostanza il fiocco di fango attivo osservato al microscopio si presenta poco compatto e rigonfio. Un fango con queste caratteristiche sedimenta con difficolta, può sfuggire facilmente dai sedimentatori secondari, peggiorando in maniera marcata la qualità dell’acqua depurata.

Science of The Total Environment Volume 712, 10 April 2020, 135795

Il ripristino del corretto rapporto di nutrienti può essere effettuato con diversi tipi di interventi tecnici.

Spesso si utilizzano miscele enzimatico batteriche presenti in commercio, ma per esempio nel caso di carenze di carbonio nella fase di denitrificazione si possono utilizzare dosaggi di sostanze economicamente sostenibili come l’acetone, il metanolo o miscele industriali di recupero (verificando con molta attenzione la presenza e la concentrazione di eventuali impurità). Le carenze di azoto e fosforo si possono correggere con sali e soluzioni di uso agronomico (acido fosforico, urea). Poiché i dosaggi non sono facilmente teorizzabili, saranno necessarie prove di laboratorio seguite se possibile da prove su impianto pilota.

Una coppia di plastiche riciclabili

In evidenza

Rinaldo Cervellati

In luglio e agosto sono apparsi su Chemistry & Engineering news due articoli su polimeri facili da riciclare. Ne riporto qui una traduzione debitamente adattata.

Realizzazione di un polimero riciclabile con una struttura ad anello

Anche se molte materie plastiche sono riciclabili, la maggior parte non viene riciclata a causa del costo e della manodopera necessari. Per rendere più facile il riciclaggio della plastica, i chimici intendono trovare nuovi polimeri che richiedono meno lavoro per essere riutilizzati, ma che abbiano le stesse proprietà meccaniche e fisiche che rendono utili le comuni plastiche.

Per raggiungere quest’obiettivo, Junpeng Wang e il suo gruppo dell’Università di Akron (Ohio, USA) hanno sviluppato un polimero che si può scomporre in monomeri e quindi riassemblare per essere riutilizzato [1]. Questi composti sono altamente versatili, nel senso che i chimici possono modificare le loro proprietà cambiando i gruppi funzionali sulla catena principale del polimero. A causa di questa variabilità, i ricercatori pensano che questi polimeri potrebbero trovare molteplici usi, anche come plastiche o gomme.

Junpeng Wang

Wang e collaboratori hanno sintetizzato polimeri da monomeri di cicloottene, con un anello di ciclobutano a quattro membri unito all’anello di otto membri (Fig. 1).

Figura 1

I chimici possono polimerizzare il composto cicloottene al di sotto della temperatura ambiente con una resa del 67% e quindi riportare il 90% del monomero a 50 °C, utilizzando lo stesso catalizzatore al rutenio. Dice Wang: ”La reazione è controllata dalla concentrazione: a alta concentrazione, si forma il polimero e a bassa concentrazione, si forma il monomero. Il polimero è stabile fino a 370 ° C e polimerizzerà o depolimerizzerà solo quando è presente il catalizzatore Ru.”

Questi polimeri reversibili hanno una struttura carbonio-carbonio, il che significa che la loro resistenza, elasticità e stabilità termica sono paragonabili a quelle delle attuali materie plastiche, come il polietilene. Per creare i legami carbonio-carbonio da monomeri con doppi legami, il gruppo ha utilizzato una reazione chiamata polimerizzazione metatesi con apertura dell’anello. Se i monomeri contenessero solo il cicloottene, l’energia dovuta alla deformazione dell’anello sarebbe sufficientemente elevata da impedire al polimero di riciclarsi in monomeri, rendendo la reazione irreversibile. Wang sostiene che l’aggiunta di ciclobutano al cicloottene modifica l’energia sia del monomero sia del polimero e rende reversibile la reazione di polimerizzazione.

Afferma Wang: “La tensione dell’anello è davvero un termine relativo”. In sostanza, è la differenza di energia tra la forma ciclica chiusa del monomero e la forma polimerizzata aperta che determina se la reazione è reversibile o meno. Attraverso studi computazionali, il gruppo ha scoperto che il ciclobutano blocca il polimero e il monomero in configurazioni simili, in modo che entrambe le forme abbiano energie comparabili. Dice Wang: “Il ciclobutano non riduce la tensione dell’anello del cicloottene stesso, ma in realtà aumenta l’energia del polimero. Poiché una forma non è più stabile dell’altra, la reazione di polimerizzazione diventa reversibile”.

La produzione di poliolefine riciclabili è una sfida enorme e l’approccio di Wang è molto promettente, afferma Colleen Scott, chimico dei polimeri presso la Mississippi State University. La prospettiva di definire le proprietà dei polimeri riciclabili in modo che corrispondano a quelle degli attuali polimeri commerciali è particolarmente entusiasmante.

Il gruppo di Wang ha scoperto questo polimero reversibile durante la pandemia di COVID-19, quando i laboratori di chimica di tutto il mondo erano chiusi. Incapace di lavorare sulle reazioni di sintesi in laboratorio, Wang e il suo team si sono concentrati su studi computazionali sull’anello in una serie di ciclootteni. Uno studente ha scoperto che un composto di cicloottene fuso con ciclobutano pubblicato in precedenza aveva una deformazione dell’anello sorprendentemente bassa. “Non potevo crederci“, dice Wang. “L’ho ripetuto io stesso diverse volte e ogni volta ci ha dato una tensione dell’anello molto bassa.” Il gruppo si è reso conto che questo polimero, che già avevano, doveva subire una depolimerizzazione: “L’abbiamo testato e ha funzionato molto bene”.

Un polimero da imballaggio semplice da riciclare

Un modo per incoraggiare il riciclaggio è produrre plastica da polimeri che possono essere riciclati chimicamente o scomposti in monomeri che possono essere recuperati e trasformati in nuovi polimeri. Alla riunione dell’autunno 2021 dell’American Chemical Society, il chimico della Cornell University, Geoffrey W. Coates, ha presentato un polimero che può essere scomposto in monomeri e recuperato da una miscela di materie plastiche.

Geoffrey W. Coates

Parlando in una sessione della Divisione di chimica dei polimeri, Coates ha fatto notare che il polimero poliacetale, utilizzato negli imballaggi, è stabile fino a 325 °C. Tuttavia, una volta che i ricercatori combinano questa plastica con un forte catalizzatore acido e la riscaldano a una temperatura superiore a 73 °C, il polimero si scompone nei suoi costituenti monometrici, Fig. 2.

Figura 2

I monomeri, tra cui 1,3-diossolano e derivati, sono liquidi a questa temperatura. Ciò rende facile separare i monomeri da una miscela di materiali che non si decompongono in queste condizioni.

Brooks A. Abel, un chimico dei polimeri dell’Università di California, a Berkeley, che ha contribuito a sviluppare la nuova plastica, afferma di aver sperimentato a casa i contenitori per il riciclaggio.

Brooks A. Abel

Il gruppo ha tritato questo mix di plastica, che conteneva ancora etichette, colle, e probabilmente un po’ di Gatorade, e l’hanno posto in un pallone con un catalizzatore fortemente acido, riscaldando poi sopra 73 oC, riuscendo a distillare fino al 98% del monomero [2].

Quindi il polimero dopo l’utilizzo come materiale di imballaggio potrebbe essere raccolto, scomposto in monomeri e quindi riutilizzato nella stessa fabbrica che lo produce.

Il polimero può essere riciclato chimicamente solo se riscaldato in presenza di un acido forte, ha affermato Coates.

Non solo il polimero è facile da riciclare, ha affermato, ma si possono anche controllarne le proprietà meccaniche valutando attentamente le lunghezze dei polimeri. La chiave è stata l’aggiunta di una trappola protonica piridinica per catturare l’acqua in eccesso dalla reazione. L’acqua può fermare la polimerizzazione prima che le catene polimeriche raggiungano la lunghezza desiderata. Per collegare i monomeri, viene usato un catalizzatore di ioduro di indio che strappa un anione bromuro dall’estremità della catena, creando un carbocatione. Questa specie reattiva attacca quindi un altro monomero, aggiungendolo all’estremità della catena. Inoltre, il materiale monomerico 1,3-diossolano è un solvente comunemente usato che può essere facilmente ottenuto da glicole etilenico e formaldeide, due molecole che sono molto abbondanti.

Craig Hawker, di Scienza dei Materiali all’Università della California, Santa Barbara, ha definito la ricerca rivoluzionaria. Ha affermato: “questo lavoro sfrutta un approccio innovativo: combinare blocchi di costruzione noti e starter commerciali con un nuovo catalizzatore di indio per produrre materiali ad alto peso molecolare“. Il metodo di depolimerizzazione è un importante passo avanti e consente un ciclo di vita sostenibile e circolare, ha anche detto Hawker.

Coates e il suo team stanno attualmente lavorando per determinare se il polimero è biodegradabile e per ottimizzare la reazione di polimerizzazione con un catalizzatore allo zinco, poiché il metallo è più abbondante e meno costoso dell’indio.

Opere consultate

L. K. Boerner, Chemists make a recyclable polymer with the help of ring strain.,Chem. Eng. News,

July 23, 2021

L. K. Boerner, Potential packaging polymer simple to recycle., Chem. Eng. News, August 25, 2021.

Bibliografia

[1] D. Sathe et al., Olefin metathesis-based chemically recyclable polymers enabled by fused-ring monomers., Nat. Chem. 13, 743–750 (2021). https://doi.org/10.1038/s41557-021-00748-5

[2] Brooks A. Abel, Rachel L. Snyder, Geoffrey W. Coates, Chemically recyclable thermoplastics from reversible-deactivation polymerization of cyclic acetals.,Science,  2021, 373 (6556), 783-789

DOI: 10.1126/science.abh0626

Recensione – Oltre la fragilità di Antonio Calabrò

In evidenza

Luigi Campanella, già Presidente SCI

ANTONIO CALABRO’

OLTRE LA FRAGILITA’

LE SCELTE PER COSTRUIRE LA NUOVA TRAMA DELLE RELAZIONI ECONOMICHE E SOCIALI

ed. UBE pag 208 euro 16.15

Alla ricerca di qualche lato positivo pure nelle situazioni più drammatiche nel nuovo saggio di Antonio Calabrò “Oltre la fragilità” si evidenzia come dinnanzi al pericolo virale ed alla connessa pandemia si sia registrata una crescita della fiducia nella scienza e della conoscenza dei meccanismi sanitari e sociali.

Questo è un cambiamento-dice l’autore-rispetto al pre covid quando l’informazione degradata dalle fake news e dalle incompetenze di giudizio aveva spesso dato la sensazione di divenire il punto di riferimento.della nostra società. Dunque se di nuovo si considera la scienza un.bene comune ciò richiede investimenti pubblici di grande respiro e di lungo periodo su formazione,ricerca,innovazione e trasferimento tecnologico, orientando in questa direzione parte significativa della quota del Recovery Fund che spetterà all’Italia.

C’è poi il tema dell’economia.Abbiamo vissuto per anni nella convinzione che il trend positivo non si sarebbe arrestato e che quello che viviamo è, per dirla con Voltaire “il migliore dei mondi possibili”.Oggi ci siamo convinti che così non.è, che non ci sono nè vincitori nè vinti il che obbliga a reinventare le regole e l’autore si cimenta anche nella definizione di un algoritmo che deriva da una sorta di illuminismo digitale. Il crollo percentuale del PIL stimato dalla Banca d’italia al -9% e il crollo dei consumi valutato in 84 miliardi, il 5% del PIL sono i dati obbiettivi dei danni subiti dalla pandemia. L’intervento pubblico però non.deve rappresentare un condizionamento alle strategie di impresa da qui la scelta delle forme di intervento: finanziamento a fondo perduto non solo credito; rimborsi nel lungo periodo, governance indipendente ed autorevole per riportare l’impresa dentro il mercato, un mercato però che richiede una riconsiderazione da parte della politica per contrastarne alcuni fallimenti. Il farmaceutico italiano, pure criticato per certe delocalizzazioni, merita questa attenzione con una produzione di oltre 30 miliardi di euro, pure nelle difficoltà strutturali ben rappresentate dalla % di energia primaria consumata in Italia proveniente dall’estero e pari all’80%. Un’ancora a cui aggrapparsi è di certo la cultura con le imprese di questo settore che valgono quasi 100 miliardi, che occupano 1.5 milioni di persone e che per un terzo investono in sostenibilità.

È vero che in alcuni sorge il sospetto di un impegno interessato: a parte che non si può colpevolizzare un’impresa che valuta in primis le ricadute economiche delle sue politiche. C’è poi la oggettiva difficoltà a valutare queste attività. In molte sedi si tende a finalizzare la valutazione confinandola alla contrapposizione fra economia ed ecologia dimenticando che i valori delle due entità si intrecciano in modo complesso a causa della mancanza di normalizzazione fra la scala economica e quella ecologica. Si stanno in questa direzione compiendo dei passi in avanti: ad esempio l’inquinamento da traffico è stato valutato in 1450 euro /anno di danno economico per ogni italiano; ed ancora una tonnellata di CO2 è stata valutata 50 euro al relativo mercato. Un altro problema nasce dalla mancanza di indicatori della sostenibilità.Ne sono stati proposti tanti: % di materie prime secondarie rispetto alle primarie, impronta ecologica, cinetica di crescita del verde o della raccolta differenziata. Nessuna soddisfa completamente e la ricerca è aperta: la Chimica potrebbe contribuire forse più di quanto noi stessi pensiamo.

Il riscaldamento globale ha diverse velocità

In evidenza

Rinaldo Cervellati

Dal 1948, la temperatura media annuale del pianeta è aumentata di 0,8 gradi. In Canada[1] questo valore è doppio  (+1,7 °C) e nell’estremo nord quasi triplo: +2,3 °C (Figura 1).

Questa è la conclusione del rapporto commissionato dal governo canadese sui cambiamenti climatici [1].

Non c’è da stupirsi per un paese situato ad alte latitudini. Più ci si avvicina all’Artico, più diventa caldo, ha affermato Steven Guilbeault su Radio Canada. Questo ecologista co-presiede l’Advisory Council on the Fight Against Climate Change, un’organizzazione istituita dal governo canadese afferma: “Più si arriva a nord dall’Ecuador, più velocemente le temperature aumentano. Nell’Artico, non è solo due volte più veloce della media planetaria, è 4 anche 5 volte più veloce! È un fenomeno planetario, è legato alla nostra geografia”.

“Se tutti i paesi rispettassero [i loro impegni] alla Conferenza di Parigi [sul clima] potremmo evitare 1°C di riscaldamento. Sarebbe un fatto enorme “.

Le conseguenze sono già molteplici per il Canada: innalzamento del livello degli oceani che lo costeggiano, aumento delle precipitazioni annue (con riduzione delle nevicate nel Canada meridionale). Nell’estremo nord, la durata e l’estensione delle assenze di ghiaccio marino nelle regioni canadesi dell’Oceano Artico e dell’Oceano Atlantico sono in aumento.

C’è anche un impatto sugli eventi meteorologici estremi, spiegano gli esperti che hanno scritto il rapporto: “Ciò aumenterà la gravità delle ondate di calore e contribuirà ad aumentare il rischio di siccità e incendi boschivi. Anche se le inondazioni interne sono il risultato di molteplici fattori, precipitazioni più intense faranno aumentare il rischio di inondazioni nelle aree urbane “.

L’azione umana è la principale responsabile.

Questo voluminoso rapporto rileva che le variazioni naturali del clima possono aver contribuito al riscaldamento osservato in Canada, ma specifica che il fattore umano, cioè le emissioni di gas serra, è dominante. Gli esperti canadesi affermano che: “È probabile che più della metà del riscaldamento osservato sia causato dalle attività umane”.

Il riscaldamento globale continuerà in Canada, ma la sua entità dipenderà dagli sforzi compiuti in tutto il mondo per ridurre le emissioni di gas serra, soprattutto nei prossimi due decenni. Il rapporto delinea diversi scenari per la fine del secolo. I più ottimisti prevedono un aumento di 1,8°C (rispetto al periodo di riferimento dal 1986 al 2005). Il più pessimista, se non si fa nulla, + 6,3 °C. Per il ministro federale dell’ambiente Catherine Mckenna, questo rapporto è un allarmante promemoria della necessità di agire.

Possiamo, dobbiamo e lo faremo. Il prezzo dell’inquinamento in Canada, oggi effettivo in tutto il paese, è un modo per agire e proteggere il nostro ambiente.

Questo rapporto è stato commissionato dal governo liberale di Justin Trudeau nel bel mezzo di un dibattito sull’introduzione di una carbon tax sulla benzina ma anche su olio combustibile, propano e gas naturale. Il risultato è stato la Carbon tax, ovvero l’aumento del prezzo del carburante per i contribuenti. Il principio è aumentare il prezzo di questi combustibili fossili che emettono molta CO2 per incoraggiare i privati ​​e le aziende a rivolgersi ad altre fonti di energia, a modi di trasporto e riscaldamento più ecologici.

Questa tassa sui prodotti fossili e derivati è entrata in vigore lunedì 1 aprile 2019 in quattro province canadesi: Ontario, Saskatchewan, Manitoba e New Brunswick. Tassa imposta dal governo federale, contro il parere dei vertici delle province interessate. A livello nazionale, il leader dell’opposizione, del partito conservatore, Andrew Scheer, è decisamente contrario a questa “tassa aggiuntiva”.

Il governo di Ottawa promette di restituire il 90% delle entrate di questa tassa al contribuente sotto forma di rimborso. Il resto dei fondi sarà investito in programmi di efficienza energetica. Non abbastanza da convincere il Premier della provincia del Saskatchewan, che annuncia di voler sporgere denuncia contro il governo canadese.

Il Canada è andato ieri, lunedì 19 al voto anticipato, a due anni dalle precedenti elezioni.

Opere consultate

[1] Sandy Dauphin, Au Canada, le réchauffement climatique va deux fois plus vite que sur le reste de la planète, France inter, 2 aprile 2019

https://web.archive.org/web/20190410152640/https://www.franceinter.fr/environnement/au-canada-le-rechauffement-climatique-va-deux-fois-plus-vite-que-sur-le-reste-de-la-planete


[1] Il Canada è un Paese del nord America compreso tra gli Stati Uniti a sud e il circolo polare artico a nord. È stato dominio inglese fino al 1931. Le sue dieci province e tre territori si estendono dall’Atlantico al Pacifico e verso nord nell’Oceano Artico, coprendo 9,98 milioni di chilometri quadrati. Le due lingue principali sono inglese e francese, ma essendo un Paese multietnico si parla il cinese, l’hindi, il tedesco, lo spagnolo, l’italiano e altre lingue.  Per esperienza personale desidero dire che il tasso di razzismo in Canada è prossimo a zero.

Un sottoprodotto della carta contro i batteri resistenti.

In evidenza

Rinaldo Cervellati

Il post di Claudio sulla resistenza battèrica agli antibiotici, ben documentato, ha suscitato molti commenti. In effetti l’aumento dei ceppi di batteri resistenti agli antimicrobici è un problema di salute pubblica globale a causa della loro capacità di aumento della morbilità dei pazienti e un maggiore onere per il sistema sanitario. Secondo la stima di un’organizzazione sanitaria statunitense i batteri reagiscono costantemente mutando il loro DNA e trovando nuovi modi per resistere agli antibiotici fin troppo utilizzati.

In uno speciale di settembre di Chemistry & Engineering news, Benjamin Plackett riporta un nuovo studio che propone una tattica alternativa agli antibiotici tradizionali che eviterebbe di promuovere questa resistenza [1]. Un gruppo di ricercatori di Singapore ha lacerato le membrane batteriche con lignina chimicamente modificata, un sottoprodotto abbondante ed economico della produzione di carta.

I polimeri sintetici si sono dimostrati promettenti come antibatterici perché sono in grado di distruggere intere membrane cellulari, piuttosto che attaccare obiettivi più specifici contro i quali è più facile per i batteri sviluppare meccanismi di difesa. Tuttavia, spesso presentano problemi di biocompatibilità, come tossicità o risposte infiammatorie e immunitarie indesiderate.Al contrario, la lignina, un biopolimero vegetale altamente ramificato e contenente ossigeno, costituito principalmente da fenoli, è stata elogiata in studi precedenti per il suo potenziale di biocompatibilità. Questo è stato uno dei motivi per cui Rajamani Lakshminarayanan, della National University of Singapore, e Dan Kai e Xian Jun Loh, dell’Institute of Materials Research and Engineering, hanno deciso di vedere se potevano usare la lignina per combattere le infezioni batteriche (Figura 1)[2].

I ricercatori hanno aggiunto sui gruppi idrossilici della lignina catene polimeriche caricate positivamente, che sono attirate nei gruppi fosfato caricati negativamente sulla membrana esterna di un batterio. Contemporaneamente, i gruppi idrofobici all’interno della lignina sono respinti dalla membrana cellulare. Quando queste due interazioni avvengono contemporaneamente, il polimero apre dei buchi nella membrana, uccidendo i batteri (Figura 2).

I ricercatori hanno testato il polimero applicandolo alle cornee di conigli infettati da Pseudomonas aeruginosa per simulare la cheratite, un’infezione oculare comune negli esseri umani, spesso causata dall’uso continuo di lenti a contatto. I risultati hanno mostrato che i polimeri a base di lignina sono in grado di sradicare i batteri entro 72 ore.

I ricercatori hanno anche condotto esperimenti per valutare se due ceppi di Escherichia coli potessero sviluppare resistenza al nuovo trattamento. Anche dopo 20 cicli di esposizione, la dose del polimero necessaria per prevenire la crescita visibile dei batteri non è aumentata, il che implica che i batteri hanno sviluppato poca resistenza. Quando gli esperimenti sono stati condotti invece con l’antibiotico polimixina B, i risultati sono stati significativamente differenti. Entro il 18° ciclo di esposizione, uno dei ceppi di E. coli ha richiesto un aumento di 128 volte della concentrazione dell’antibiotico per limitare la sua crescita, mentre l’altro, trattato con il polimero, ha richiesto un aumento di sole due volte.

Tutto ciò ha impressionato Orlin D. Velev, un ingegnere biomolecolare della North Carolina State University: “Sarà molto difficile per i batteri sviluppare resistenza a questo polimero perché dovrebbero ricaricare l’intera membrana in modo che la sostanza non si leghi, un compito molto difficile per i batteri”.

Mentre i risultati dello studio dimostrano che il polimero è efficace se applicato localmente, gli scienziati mirano a svilupparlo come farmaco orale o endovenoso, ampliando così i tipi di infezioni che potrebbe combattere.  Kai afferma: “Probabilmente non è tossico nell’uso sistemico, ma avremmo bisogno di molte più prove prima di poterne essere sicuri.”

Opere consultate

B. Plackett, A by-product of papermaking helps kill bacteria while avoiding antibiotic resistance, C&EN special, September 1, 2011

Pei Lin Chee et al., Cationic Lignin-Based Hyperbranched Polymers to Circumvent Drug

Resistance in Pseudomonas Keratitis., ACS Biomater. Sci. Eng., 2021

DOI: 10.1021/ascbiomaterials.1c00856

Scienza e società

In evidenza

Vincenzo Balzani

(ripreso col permesso dell’autore da Bo7 del 12 settembre 2021)

Quando nel 1088 è stato fondato il più antico ateneo del mondo occidentale, l’Università di Bologna, le conoscenze scientifiche erano molto limitate. Con una battuta ovvia, che però ha un profondo significato, si può dire che a quei tempi gli scienziati sapevano quasi niente di quasi tutto. Essi, infatti, si limitavano a contemplare la Natura, nel tentativo di capirne le leggi. Poi verso il 1600, particolarmente con Galileo e Newton, si capì che, oltre ad osservarne i fenomeni naturali, si può interrogare la Natura mediante esperimenti, costringendola a rivelare i suoi segreti. Ha avuto così origine l’impressionante sviluppo della scienza e, col passare degli anni, il campo del sapere, allargandosi, si è frammentato in discipline diverse. Oggi, per scoprire o inventare qualcosa di nuovo è necessaria un’alta specializzazione, per cui, contrariamente a quanto accadeva un tempo, gli scienziati sanno quasi tutto, ma di quasi niente. E a volte accade che, per parlare di quel quasi niente che conoscono in modo così approfondito, usano parole che quasi nessuno capisce.

L’espandersi della conoscenza ha avuto, ovviamente, conseguenze molto positive, ma ha anche causato problemi. Si sono create fratture fra le varie branche della scienza,perché ogni disciplina è stata costretta a elaborare un proprio linguaggio, rendendo più difficile la collaborazione fra scienziati di ambiti diversi. Si è poi creata una frattura fra cultura scientifica e cultura umanistica, sintetizzabile nella frase dello studioso inglese Charles P. Snow: “Gli umanisti hanno gli occhi rivolti al passato, mentre gli scienziati hanno, per natura, il futuro nel sangue”. È una frattura che deve essere ricomposta perché la complessità del mondo deve essere affrontata con saperi diversi: il progresso, infatti, nasce solo dall’incontro, dal confronto e dalla collaborazione fra diversità.

Un’altra frattura pericolosa che va evitata è quella fra scienza e società, perché se è vero che la società non può fare a meno della scienza, è anche vero che la scienza avulsa dalla società non solo è poco utile, ma può anche diventare pericolosa. C’è una responsabilità che deriva dalla conoscenza: lo scienziato ha il dovere di occuparsi dei problemi della società e deve contribuire a risolverli. Ha molti modi di farlo: con le sue ricerche, l’insegnamento, la divulgazione della scienza e anche partecipando attivamente al governo della sua università, città, o nazione. Questo impegno è oggi più che mai importante, perché viviamo in un momento cruciale della storia, caratterizzato dal manifestarsi di due gravi problemi che rischiano di compromettere la vita delle prossime generazioni: l’insostenibilità ecologica, che ha il suo culmine nella crisi energetico-climatica, e l’insostenibilità sociale, causata dal continuo aumento delle disuguaglianze di reddito economico e di diritti. Come ha scritto il premio Nobel Richard Ernst: “Chi altro, se non gli scienziati, ha la responsabilità di stabilire le linee guida verso un progresso reale, che protegga anche gli interessi delle prossime generazioni?”

Nuovi materiali per la fotonica per l’IA.

In evidenza

Luigi Campanella, già Presidente SCI

Sempre più spesso si sente affermare che il futuro prossimo è un mondo nel quale intelligenze artificiali e realtà si integreranno ai fini di una migliore qualità della vita.Il settore dell’IA e in forte sviluppo nel mondo, ma anche in Italia nel 2020, pure nelle difficoltà da Covid 19, ha segnato una crescita del 15% per un valore pari a 300 milioni di euro.

La differenza sta nelle applicazioni: all’estero il settore è già visto come un surrogato a tutte le attività umane, mentre in Italia trova impiego soprattutto per le funzioni di assistenza vocale nelle richieste telefoniche e per aiutare gli utenti nella navigazione suo siti di e-commercio.

Il problema più grande che si trova oggi davanti il settore sta nella precisione degli algoritmi utilizzati, tanto che gli errori non sono così rari. Per migliorare la situazione la strada è solo una: fornire più dati. Più dati vuol dire più efficienza, ma anche significa insegnare alle macchine (e quindi alle aziende che le posseggono) tutto di noi, della nostra vita, del nostro modo di pensare. Replicare il ragionamento umano, come da molti si aspira a realizzare, significa perciò superare gli accettabili limiti di privacy e riservatezza:e questo è il problema numero 1 dello sviluppo dell’IA: e forse è un bene perchè alcuni drammarici errori dell’IA (si pensi all’auto mobile Tesla a guida automatica) ci fanno capire che delegare certi compiti che richiedono una umana dose di buon senso può essere prematuro.

Le intelligenze artificiali scambiano enormi quantità di dati e per fare questo richiedono reti ultraveloci che consumano energia in misura crescente con il loro diffondersi: si pensi che dal 2017 al 2019 i modelli di rete neurale prevedevano 100 milioni di variabili ed oggi ne prevedono un miliardo e che è stato valutato al 10% dell’utilizzo mondiale di elettricità l’energia consumata dai Data Center, i sistemi dotati di intelligenza artificiale.Per progettare ed addestrare una rete neurale a trovare la soluzione si produce CO2 in quantita circa 5 volte maggiore a quella emessa in tutta la sua vita da un autovettura e circa 50 volte superiore a quella emessa in un anno da un essere umano. La componene più rilevante si riferisce all’energia spesa per il raffreddamento dei sistemi di calcolo. Un altro aspetto riguarda l’impatto ambientale:questi processori potenti richiedono minerali rari estratti da miniere con conseguente distruzione del territorio e poi alla fine del loro vita sono smaltiti nell’ambiente costituendo un rischio al degrado.

Alla Sapienza di Roma un gruppo di ricerca guidato dal fisico Claudio Conti ha elaborato un sistema a favore della sostenibilità dell’intelligenza artificiale. Tale sistema si basa sulla fotonica in luogo dell’elettronica. La fotonica,nata negli anni 70, impiega raggi laser per tante applicazioni,dalla medicina alla matematica.Per alcuni anni i suoi costi elevati non la rendevano vantaggiosa rispetto alla elettronica,ma oggi non è più cosi:un raggio luminoso,in particolari i fotoni che lo costituiscono, sostituisce la corrente elettrica per elaborare e veicolare le informazioni, ad esempio un’immagine, codificate attraverso un modulatore di luce. La macchina fotonica può, analogamente a quanto avviene per l’elettronica, essere addestrata all’intelligenza artificiale (machine learning). I vantaggi principali del nuovo processore fotonico rispetto all’elettronico sono la superiore capacità elaborativa di informazioni in quanto i laser possono intrecciarsi e sovrapporsi senza interferenza di segnale e nel fatto che il fascio laser,al contrario della corrente,non scalda sprecando così energia: si valuta un’efficienza energetica superiore del processore fotonico rispetto a quello elettronico di circa 10mila volte. Infine se il raggio laser viene fatto propagare in aria non è necessario costruire una scheda di contenimento con un ulteriore vantaggio di semplificazione. Di fatto siamo dinnanzi ad una superintelligenza artificiale che non inquina. Una delle integrazioni più applicate dell’IA avviene con i sensori. Quando si parla di sensori si pensa sempre a dispositivi di carattere analitico finalizzati a monitorare ambiente,alimenti,organismi viventi. Oggi però integrati con l’intelligenza artificiale hanno trovato applicazioni nella riabilitazione di persone colpite da malattie neuromotorie con prospettive di sviluppo in campi correlati come lo sport e la mobilità sostenibile, una volta che i costi saranno abbattuti e la miniaturizzazione avrà fatto i passi in avanti che oggi promette.

Un altro gruppo di Ricerca di Sapienza sta lavorando ad una innovazione nella elettromiografia oggi basata su elettrodi commerciali e caratterizzata da costi elevati ( circa 10000 euro),ma purtroppo non personalizzabile per rispondere alla variabilità delle conformazioni muscolari. L’innovazione consiste in sensori realizzati con la stampa a getto di inchiostro utilizzando una comune stampante nella quale le cartucce sono state invece caricate , anziché con l’inchiostro tradizionale, con inchiostro a nanoparticelle di argento. I sensori sono stampabili su carte flessibili in plastica commerciali personalizzabili in base alle esigenze dell’utente usando software molto comuni ed in ogni scheda ne possono essere montati fino ad 8.

https://www.uniroma1.it/en/notizia/printable-sensors-patient-oriented-approach

La matrice di sensori viene collegata al computer mediante un componente elettronico commerciale che in futuro sarà miniaturizzato. Anche per i materiali dei sensori ci sono state innovazioni: rispetto a quanto usato tradizionalmente oggi (grafene, nanofili di argento e nanotubi di carbonio): l’inchiostro a nanoparticelle di argento infatti ne supera i limiti di conduttività, riproducibilità, stabilità e costi (200 euro in tutto,stampante compresa).

Si punta a dispositivi indossabili trasferibili all’ambito clinico e sportivo

Raffreddare per irraggiamento, una tecnica anti GW.

In evidenza

Claudio Della Volpe

Il mio primo incontro con l’idea che vi racconto oggi fu da studente quando sentii parlare di questo lavoro che vi cito adesso:

https://www.sciencedirect.com/science/article/abs/pii/0038092X75900626

Vittorio Silvestrini

Vittorio Silvestrini un fisico, ma insegnò anche al Politecnico di Napoli (che è il più antico d’Italia, 4 marzo 1811), una poliedrica personalità come spesso la mia città sa produrre: scienziato e politico, fondatore di Città della scienza di Napoli, di cui ha presieduto il consiglio d’amministrazione. Nel 2006 ha ricevuto il Premio “Descartes” per la comunicazione scientifica diventando di fatto l’unico italiano ad aver vinto tale premio.

L’idea di questo lavoro, il raffreddamento passivo è stato uno dei concetti che più mi hanno colpito nella mia vita; allora ero un giovane studente e mi occupavo di altro, ma ci ho pensato spesso. Il dipartimento di Fisica era ancora a via Tari e noi chimici a via Mezzocannone, altri tempi. Silvestrini ed i suoi collaboratori realizzarono un semplice radiatore passivo stendendo un sottile strato (pochi micron) di polivinilfluoruro (Tedlar) su una lastra di alluminio con ottimi risultati.

L’idea di Silvestrini e collaboratori è semplice ed efficace: siamo circondati da scambi radiativi importantissimi ma tendiamo a sottovalutarne il ruolo perché non li vediamo; ma esistono. La temperatura del nostro corpo è assicurata in effetti proprio da questi scambi radiativi, ne abbiamo parlato in dettaglio qui per esempio, parlando di entropia del corpo umano, ma difficilmente ce ne rendiamo conto.

Possiamo bloccarli per conservare il calore, ma possiamo anche facilitarli per ridurre la temperatura delle cose. Semplice e potente, come tutte le grandi idee.

Possiamo anche intendere queste cose pensando che come il riscaldamento globale è causato da un aggravamento dell’effetto serra noi possiamo usando meccanismi analoghi rovesciare l’effetto dei medesimi scambi radiativi: è come fare la lotta giapponese con la radiazione, rovesciarne l’effetto usando ed assecondando i suoi punti di forza.

Da allora sono passati oltre 45 anni e questa idea ha fatto proseliti e si è sviluppata; esistono vernici termoriflettenti per esempio ma ci sono anche molti interessanti sviluppi recenti, due dei quali vi racconto oggi.

https://pubs.acs.org/doi/pdf/10.1021/acsami.1c02368

Il primo è l’uso di un comune materiale inorganico opportunamente tarato; il gruppo diretto da Xiulin Ruan alla Purdue University scrive: 

In questo lavoro, dimostriamo sperimentalmente le notevoli prestazioni di raffreddamento sotto la temperatura ambiente per l’intera giornata sia con le nanoparticelle di un film di BaSO4 che con vernici nanocomposite di BaSO4. BaSO4 ha un elevato gap di banda degli elettroni e una risonanza fononica a 9 μm con una notevole emissività verso lo spazio. Con una dimensione delle particelle appropriata e un’ampia dimensione di distribuzione, il film di nanoparticelle BaSO4 raggiunge una riflettanza solare ultraelevata del 97,6% e un’emissività della finestra del cielo elevata di 0,96. Durante i test sul campo, il film BaSO4 rimane più di 4,5°C al di sotto della

temperatura ambiente o raggiunge una potenza di raffreddamento media di 117 W/m2. La vernice acrilica di BaSO4 è sviluppata con una concentrazione in volume del 60% per migliorare l’affidabilità nelle applicazioni esterne, raggiungendo una riflettanza solare del 98,1% e un’emissività della finestra del cielo di 0,95. I test sul campo indicano prestazioni di raffreddamento simili a quelle del film di BaSO4.

Come si vede siamo ad una performance circa tre volte superiore a quella del film proposto da Silvestrini 45 anni fa, un bel progresso con un materiale semplice  ma anche una conferma della geniale idea del fisico napoletano e del suo gruppo di ricerca.

L’altra ricerca è ancora più interessante dato che riguarda addirittura i tessuti per i vestiti, ma con lo stesso scopo, una sorta di condizionamento personale. In questo secondo caso i colleghi cinesi, del laboratorio di Optoelettronica di Wuhan (proprio la città del virus), scrivono:
L'integrazione di strutture di raffreddamento radiativo passive nelle tecnologie di gestione termica personale potrebbe difendere efficacemente gli esseri umani dall'intensificarsi del cambiamento climatico globale. Mostriamo che i “metatessuti” tessuti su larga scala possono fornire alta emissività (94,5%) nella finestra atmosferica e alta riflettività (92,4%) nello spettro solare a causa del design gerarchico-morfologico degli scatterer dispersi casualmente in tutto il metatessuto. Attraverso percorsi di produzione tessile industriale scalabili, i nostri metatessuti mostrano resistenza meccanica, impermeabilità e traspirabilità desiderabili per l'abbigliamento commerciale, pur mantenendo un'efficiente capacità di raffreddamento radiativo. Test pratici di applicazione hanno dimostrato che un corpo umano coperto dal nostro metatessuto potrebbe essere raffreddato a ~4.8°C in meno rispetto a uno ricoperto da un tessuto di cotone commerciale. L'economicità e le elevate prestazioni dei nostri metatessuti presentano vantaggi sostanziali per indumenti intelligenti, tessuti intelligenti e applicazioni di raffreddamento radiativo passivo.
Mi rimane solo da ricordare cosa sia un metatessuto o più in generale un metamateriale:

Un metamateriale è un materiale creato artificialmente con proprietà elettromagnetiche peculiari che lo differenziano dagli altri materiali. Le sue caratteristiche macroscopiche non dipendono solo dalla sua struttura molecolare, ma anche dalla sua geometria realizzativa. In altri termini, un metamateriale guadagna le sue proprietà dalla sua struttura oltre che direttamente dalla sua composizione chimica. Il termine fu coniato nel 1999 da Rodger M. Walser dell’Università del Texas ad Austin. Egli definì i metamateriali come:

Compositi macroscopici aventi una architettura tridimensionale cellulare periodica e sintetica progettata per produrre una combinazione ottimizzata, non disponibile in natura, di due o più risposte a una specifica sollecitazione.

Nel nostro caso si tratta di fibre di polimero, acido polilattico addizionate di particelle di politetrafluoroetilene (teflon) e di particelle di biossido di titanio. La combinazione delle loro proprietà di diffusione e di assorbimento della luce dovute sia alla composizione che alla dimensione conduce alle caratteristiche finali.

Si tenga presente che una combinazione di materiali del genere serve a trattenere come a evitare l’ingresso del calore e dunque costituisce un metodo principe per il condizionamento degli edifici e dei corpi umani senza spesa energetica se si esclude quella dovuta alla produzione e messa in opera dei manufatti usati

Possiamo vantarci di avere avuto grandi maestri; facciamone tesoro perché senza questo il futuro sarà ancora più difficile.

Organoidi e test in vitro, il caso clorpirifos.

In evidenza

Luigi Campanella, già Presidente SCI

Quando nel 2008 si cominciò a parlare in termini concreti di regolamento REACH, uno dei punti caldi fu di certo la sperimentazione animale: confermarla o no fra i metodi per pervenire alla certificazione Reach di un materiale che ne sanciva l’accesso al mercato garantito da regolarità in termini di stabilità, tossicità, bioaccumulabilità?

La soluzione adottata fu di confermarne l’adozione (anche perché molti dei dati disponibili facevano riferimento ad essa come metodo di acquisizione) stemperata da una direttiva, quella delle 3 R (replacement,reduction,refinement).

Proprio a seguito  di tale Direttiva in moltissime sedi di ricerca, anche in Italia ( si veda il testo della Società Chimica Italiana del 2010: Innovative methods alternative to animal experiments) equipe di ricerca si dedicarono allo studio e messa a punto di metodi innovativi ed alternativi agli esperimenti con animali. Successivamente la spinta a metodi alternativi si è indebolita soltanto affidata a gruppi scientifici dichiaratamente contrari ad essa e quindi spinti da motivazioni in primis etiche. Oggi possiamo registrare un significativo passo in avanti con la tecnologia degli organoidi.

Gli organoidi sono repliche in miniatura di organi e tessuti umani: derivano da cellule staminali pluripotenti indotte (iPSC) o da cellule e tessuti adulti, anche di tipo tumorale. Al contrario dei metodi classici di coltura in 2D, un organoide riproduce l’esatta struttura tridimensionale dell’organo originale. Questi modelli hanno trovato largo impiego nella ricerca biomedica, per testare nuovi farmaci o per studiare i processi dell’organogenesi o della cancerogenesi. Nonostante la loro rapida espansione, però, gli organoidi hanno attraversato negli anni più di una crisi di identità. Non è ancora chiaro, neanche tra gli scienziati, cosa può essere definito “organoide” e cosa sicuramente non lo è. 

Senza regole precise, fino ad ora chiunque era libero di chiamare organoide qualsiasi modello cellulare a tre dimensioni. Secondo la nuova definizione, invece, molti di quelli che in passato venivano classificati come organoidi, oggi non lo sarebbero più. Gli organoidi cerebrali, che riproducono cioè il cervello umano, sono stati applicati allo studio del potenziale ruolo della interazione fra genetica ed ambiente nelle situazioni di disordine autistico.

La ricerca svolta presso la Johns Hopkins  School  di Salute Pubblica ha evidenziato che la suddetta interazione può portare a disturbi nello sviluppo del sistema nervoso. L’impiego degli organoidi cerebrali apre anche la strada verso sperimentazioni meno costose, più rapide e più rilevanti per il genere umano rispetto ai tradizionali studi su animali. Il modello di organoide cerebrale sviluppato dalla Johns Hopkins  School  consiste di gruppi di cellule che si differenziano dalle culture di cellule staminali umane e mimano lo sviluppo del cervello umano. I ricercatori in particolare nella loro ricerca hanno trovato che il clorpirifos, un comune pesticida,contribuisce allo sviluppo di condizioni di neurotossicità e di rischio di autismo, in quanto in grado di diminuire drammaticamente negli organoidi i livelli di proteina CHD8, un regolatore dell’attività genica durante il processo di sviluppo del cervello.

Le mutazioni nel gene che riducono l’attività della proteina sono tra i più forti fattori di rischio per l’autismo mai identificati. La ricerca è stata pubblicata sul fascicolo del 14 luglio di Environmental Health Perspectives ed è la prima a mostrare in un modello umano che i fattori di rischio ambientale possono amplificare gli effetti di quelli di rischio genetico rispetto all’insorgere dell’autismo, un disordine nervoso che, molto raro fino a 40 anni fa , è purtroppo oggi presente nel 2% dei soggetti nati vivi.

Questo aumento nelle diagnosi di autismo e difficile da spiegare poiché  non può esserci stata in così breve tempo una modificazione genetica della popolazione né -affermano i ricercatori- è stato possibile rilevare un’esposizione ambientale che lo possa giustificare. Come fattori ambientali e suscettibilità genetica interagiscono per aumentare il rischio per i disordini mentali dell’autismo rimane ancora non definito, in parte perché queste interazioni sono difficili da studiare in parte perché la tradizionale sperimentazione animale è costosa e di limitato rilievo per il genere umano nel caso di patologie del disordine mentale. I progressi nei metodi con cellule staminali hanno permesso ai ricercatori nella passata decade di utilizzare cellule di pelle umana che possono essere trasformate prima in cellule staminali e poi in qualsiasi altro tipo di cellula e studiate in laboratorio. In anni recenti gli scienziati hanno allargato la ricerca oltre le culture in laboratorio per arrivare, come si diceva più sopra, ad organoidi a 3 dimensioni che meglio rappresentano la complessità degli organi umani.

CHD8, una Chromodomain-helicase-DNA-binding protein 8 codificata dal gene CHD8.

Per la loro ricerca il team, attraverso un intervento di modificazione genetica, ha combinato gli effetti di un interferente del gene che codifica per la proteina CHD8 con quelli dell’esposizione al pesticida clorpirifos, sia pure a concentrazioni e condizioni più aggressive di quelle che si possono avere nella vita di tutti i giorni. Il livello della presenza del gene a seguito della presenza dell’interferente risultava diminuito di un terzo, valore che con il trattamento con  clorpirifos si abbassava drasticamente. A complemento del loro studio i ricercatori hanno compilato una lista di sostanze  presenti nel sangue o nel tessuto cerebrale delle persone autistiche verificando se fossero capaci di abbattere il livello della proteina in organoidi già geneticamente modificati con una riduzione del contenuto di questa ed hanno così confermato il risultato circa la interazione sinergica fra ambiente e genetica nei casi di disordine autistico. Le  prospettive diagnostiche operando con organoidi possono trovare applicazioni nello studio dell’lnterazione fra organismo umano e sostanze che siano in attesa di ricevere la certificazione REACH di compatibilità con un’immissione nel mercato che sia  sicura per l’utenza, quindi con un contributo sostanziale alla riduzione della sperimentazione animale nel rispetto della Direttiva 3R

Resistenza batterica agli antibiotici: la prossima pandemia?

In evidenza

Claudio Della Volpe

Come sapete Nature è oggi un brand, non più solo una rivista scientifica; in particolare alcune delle sue iniziative non sono del tutto autonome, ma pur rivendicando libertà editoriale sono “supportate” da marchi altrettanto prestigiosi. Nell’ottobre 2020 Nature ha dedicato un Nature outlook, ossia una sorta di numero speciale alla questione della resistenza antibiotica.

Il numero era supportato da un marchio sconosciuto in Italia ma non nel mondo, un marchio giapponese Shionogi, che non distribuisce col suo nome ancora alcun farmaco in Italia, ma che si sta organizzando per farlo.

Detto questo cosa diceva il numero di Nature outlook?

Beh parecchie cose su questo problema che è uno dei maggiori e che per il suo impatto sulla salute e la società si avvicina molto a quello di una pandemia come la attuale.

L’uso estensivo ED IMPROPRIO di antibiotici sia nella terapia umana che animale, e, ancor meno giustificabile, nell’allevamento del bestiame, dove l’antibiotico sostituisce un allevamento “fatto come si deve”, guidato essenzialmente da ragioni di profitto, ha fatto si che al momento esistano batteri, specie in ambito ospedaliero, che sono resistenti a TUTTI, ripeto tutti gli antibiotici conosciuti. Antibiotici vengono rilasciati in ambiente dai nostri depuratori che non sono spesso in grado di gestirli e il rischio di diffondere specie di batteri comuni ma resistenti a tutti gli antibiotici e portarci dunque in un’era pre-antibiotica è altissimo.

Al momento la resistenza antibiotica fa 700mila vittime all’anno nel mondo secondo i dati dell’ONU e questo numero, se non si fa nulla, potrebbe crescere moltissimo fino ad arrivare a parecchi milioni all’anno nei prossimi decenni; dato che una soluzione non è banale da trovare e la ricerca di nuovi antibiotici è costosa e lunga non è sbagliato porre il problema adesso per il futuro.

Per capire di cosa parliamo nel concreto facciamo qualche esempio dalla pagina

https://labtestsonline.it/articles/batteri-resistenti-agli-antibiotici

Nel 2013 l’ente statunitense CDC ha identificato i 18 microrganismi più pericolosi presenti negli Stati Uniti, classificandoli in 3 categorie: urgenti, seri e preoccupanti. Nelle prime due categorie rientrano i microrganismi per i quali è necessario un monitoraggio ed una prevenzione più stringente, mentre nell’ultima categoria rientrano i microrganismi per i quali è necessario un monitoraggio occasionale, nell’eventualità di epidemie.

Enterobacteriacee resistenti ai carbapenemi (CRE): le infezioni operate da Escherichia coli e Klebsiella stanno aumentando, diffondendosi perlopiù negli ospedali e negli istituti di ricovero e con una resistenza a quasi tutti gli antibiotici disponibili. Per quanto riguarda Klebsiella, la percentuale di resistenza in Italia è del 34%, una delle percentuali più alte in Europa insieme a Grecia e Romania.

Gonorrea farmaco resistente: si tratta di un’infezione sessualmente trasmessa resistente alla cefalosporina, il farmaco di elezione per il trattamento di questa patologia. L’impossibilità di utilizzare la cefalosporina comporta l’inizio di un protocollo terapeutico più complesso e lungo. Negli Stati Uniti, degli 820.000 casi di gonorrea stimati annualmente, 246.000 sono resistenti a tutti gli antibiotici disponibili.

Secondo i dati raccolti dall’Istituto Superiore di Sanità, in Italia, la resistenza agli antibiotici per le specie batteriche sotto sorveglianza, si mantiene tra le più elevate d’Europa ed interessa perlopiù le specie batteriche Escherichia coli e Klebsiella pneumoniae, resistenti a quasi tutti gli antibiotici disponibili, Pseudomonas aeruginosa e Acinetobacter spp, responsabili soprattutto di multiresistenze, Staphylococcus aureus, resistente alla meticillina e, Streptococcus pneumoniae, responsabile di polmoniti e sepsi in pazienti ospedalizzati.

Quali sono i motivi di questa situazione e cosa fare per gestirla?

La descrizione più comune della antibiotico resistenza è quella “microscopica” per così dire focalizzata sui batteri e descritta in questa immagine:

Secondo questa descrizione, peraltro giusta sul suo livello “micro”, la resistenza ad un attacco chimico pertiene al batterio come tale che può selezionarsi od acquisire la resistenza da altri batteri, ed è un comportamento tipico degli esseri viventi non solo dei batteri, virus, ma anche piante o insetti si selezionano e perfino esseri umani; tuttavia una analisi più complessiva, più olistica del problema ne può sottolineare la natura sistemica, descritta invece nella seconda figura, in cui si sottolineano gli aspetti ecologici e sistemici del problema.

L’origine di questa più complessa concezione può essere fatta risalire ad un bell’articolo che lessi molti anni fa sulla EST Mondadori, “L’unificazione microbica del mondo”, pubblicata insieme alla prima versione di “Limits to growth”, al principio degli anni 70.

Fu infatti nel 1973 che Emmanuel Le Roy Ladurie inventò il concetto di malattie della globalizzazione, dovute all’”unificazione microbica del mondo”. In effetti già nel 1347 dodici navi portarono dalla Crimea a Messina grano, topi e appestati portando la peste in Europa. Nel 1493 la caravella Niña, proveniente dal Nuovo Mondo, sbarcava a Lisbona la sifilide che in tre anni portò alla prima unificazione dell’Europa cinquecentesca, quella sessual-treponemica. (https://www.avvenire.it/opinioni/pagine/lironica-rivincita-dei-piccoli-mondi-antichi_200904300815015000000 )

La formidabile spinta economica umana alla crescita globale, alla globalizzazione è alla base della massiccia distruzione di biodiversità non solo fra gli animali superiori, ma anche fra i batteri e i virus. L’articolo de L’avvenire che citavo si intitola: L’ironica rivincita dei piccoli mondi antichi; in definitiva la rete naturale è fortemente glocale, ossia è globale si ma è in realtà l’unione di forti strutture locali in una rete globale che ne mantiene un isolamento relativo. La nostra economia o meglio la nostra attuale forma economica, il capitalismo, porta invece ad una unificazione profonda e dunque al superamento dell’antico isolamento “naturale”; la scelta umana di poche specie di piante ed animali più “utili”, più “produttive” concorre da una parte a ridurre la diversità complessiva e dall’altra accresce il numero di ospiti suscettibili, uomini compresi. Quel che segue è la formazione di “sistemi” resistenti non solo di batteri o virus ma ambienti di ogni tipologia, ospedali, persone, comunità genetiche, batteri singoli e geni resistenti, strutturati come scatole cinesi. Il flusso della resistenza è bidirezionale dal gene alla comunità e dalla comunità al gene.I nativi americani non resistenti alle malattie importate dagli europei morirono come le mosche e il loro potenziale genetico fu distrutto come avviene con la popolazione batterica del nostro intestino quando arrivano antibiotici “ad ampio spettro”. Alla fine l’intero continente americano fu europeizzato quanto a malattie, così come i topi portatori della peste ci asiatizzarono durante le potenti pandemie a partire dal 1300

A differenza dei batteri noi non siamo capaci di scambiarci geni così velocemente e soprattutto lo facciamo solo tramite il sesso, mentre i batteri e i virus lo fanno anche in altri modi tramite scambi diretti di materiale genetico non con riproduzione sessuale.

Inoltre la riproduzione umana viaggia su scale di decenni mentre quella batterica o delle piante o degli insetti può essere molto più veloce, su scala perfino di minuti od ore. Tutto ciò ci aiuta comprendere che  si tratta di fenomeni naturali ma che non comprendiamo ancora completamente e che al momento governano le  nostre attività e preparano per noi situazioni impreviste.

Gli antibiotici come strategia antibatterica non sono unica, si può pensare come minimo ad altre due strategie:

-i batteriofagi, ossia i virus specifici dei batteri, un’idea sviluppata dai Russi a cavallo fra le guerre mondiali (si veda la pagina dell’istituto Eliava di Tbilisi o anche https://it.wikipedia.org/wiki/Terapia_fagica)

-oppure gli inibitori del Quorum -sensing, ossia molecole che interferiscono con le comunicazioni fra batteri specie nelle fasi avanzate di infezione in cui gli antibiotici sono in difficoltà.

Mentre la nostra cultura medica è dominata dagli antibiotici queste alternative iniziano a farsi strada anche da noi e trovano applicazioni in alcuni paesi o casi specifici.

Se ci limitiamo agli antibiotici, e sottolineo ci limitiamo, possiamo notare i fatti seguenti:
– l’elemento determinante è il costo di sviluppo degli antibiotici, calcolato nell’ordine di alcuni miliardi di euro ognuno e il tempo necessario alla loro messa  a punto: 10-15 anni ;

-le conseguenze del costo elevato e del tempo lungo sono a loro volta duplici: da una parte chi sviluppa l’antibiotico  deve rifarsi delle spese e dunque tende a venderlo in ogni dove “ad ampio spettro” come si dice anche quando sarebbe medicalmente logico non farlo e dunque ogni infezione , ma perfino OGNI specie uomo od animale viene curato con quell’antibiotico ed in ogni parte del mondo eventualmente per ridurre le spese di sviluppo con piccole modifiche non cruciali o realmente  innovative, ma solo finalizzate a superare i vincoli brevettuali ed a minimizzare le spese private ed a massimizzare i profitti, senza riguardo alla logica naturale che vorrebbe un uso non globalizzato, da “piccole patrie”, solo nei casi necessari, solo nelle comunità batteriche dove l’efficacia è maggiore.

– questo ha portato al fatto che il numero degli antibiotici in sviluppo si è ridotto fortemente proprio mentre si sviluppano in maniera crescente le resistenze a quelli che possediamo già.

Per superare questi problemi si propone da parte di alcuni di finanziare la ricerca privata (da parte dello stato, da parte di associazioni benefiche o da parte dei futuri utenti (il cosiddetto modello Netflix, in pratica pagare un abbonamento per la terapia antibiotica(sic!)) che ovviamente è una strategia che non risolve affatto il problema di fondo, aiuta le grandi multinazionali ma non l’umanità nel complesso, che necessita invece di strategie culturali nell’uso degli antibiotici che ne riducano la globalizzazione e casomai di tecnologie di analisi ed individuazione rapida dei batteri responsabili di un’infezione specifica; ma al momento serve troppo tempo per fare questo, una coltura batterica è semplice da realizzare ma può arrivare nel concreto a vari giorni e nel frattempo il paziente può andare incontro a gravi complicazioni.

In un altro articolo Nature commenta i recenti metodi per accelerare il processo di analisi batterica: Nature | Vol 596 | 26 August 2021 | 611 ; un metodo molto veloce è quello basato sull’analisi genomica dei batteri che si può attuare in ore; il problema è capire dal gene quale meccanismo di resistenza il batterio possegga o se lo possegga. ; questo implica che il metodo si possa usare in casi specifici; per esempio la Neisseria Gonorreae di cui si diceva prima per individuare i batteri resistenti alla ciprofloxacina, un antibiotico molto maneggevole ed usatissimo nel campo.

Un’altra idea italiana è la seguente: Nel 2013, Giovanni Longo, del Consiglio Nazionale delle Ricerche d'Italia a Roma, e i suoi colleghi hanno scoperto che quando hanno legato l'Escherichia coli patogeno a strutture in miniatura simili a un trampolino chiamate cantilever che sono parte integrante del microscopio a forza atomica, una sorta di punta di giradischi molto piccola, e li hanno esposti ad antibiotici, il cantilever ha oscillato su e giù a causa di piccoli movimenti dei batteri viventi attaccati. I movimenti cessavano se i microbi erano sensibili agli antibiotici. Il movimento era visibile al microscopio a forza atomica in pochi minuti, molto prima che i microbi si replicassero, il che significa che il test può identificare i batteri vivi molto più velocemente di quanto sia possibile con un test.
Il problema è avere il microscopio e saperlo usare, non è un metodo facile da automatizzare anche in un ospedale periferico di una città non grandissima.
Altre idee le trovate nell’articolo.
A me era sembrata eccezionale e semplice l’idea invece di usare la spettroscopia RAMAN per fare il lavoro di individuazione, idea che si era sviluppata anni fa. Si veda per esempio qui.

Rimane che la resistenza batterica non è un problema (solo) tecnico, ma più profondo, ecologico e culturale; fateci caso l’industria chiama i vari tipi di prodotti per l’agricoltura “fitofarmaci”; e i fitofarmaci (o come li chiamano gli ambientalisti “oltranzisti e radical chic”“(la nuova definizione di Cingolani) i pesticidi” (erbicidi inclusi))  sono usati per fare un deserto e chiamarlo agricoltura industriale (o a volte agricoltura razionale, il che mi fa ridere).  Come per i fitofarmaci i farmaci umani o veterinari hanno una logica precisa: usarli per fare un deserto e chiamarlo guarigione.

Tacito aveva capito questo meme raccontando la storia dei rapporti fra Romani e Britanni nel De Agricola: facendo dire a Calgaco, il capo dei valorosi, ma sfortunati, Calédoni: Ubi solitudinem faciunt, pacem appellant.

Occorre studiare meglio il senso del nostro esistere come esseri individuali e contemporaneamente parte di un complesso sistema di relazioni ecologiche ed ambientali (o come si dice un olobionte, un termine che sarei curioso di sapere se Cingolani conosce, ma scommetto di no e la cui invenzione si fa risalire  ad Alexander von Humboldt nel suo famoso viaggio in America, forse durante l’ascesa al Kimborazo): questo non l’abbiamo ancora digerito.

E Cingolani e tutti noi dovremmo ricordare che dopo la vittoria di Agricola nella battaglia di Monte Graupio i romani rinunciarono ad occupare la Caledonia (delimitata dei fiumi Forth e Clyde). La logica del deserto-chiamato-pace non funziona o in altri termini le vittorie degli antibiotici o dei pesticidi sono “vittorie di Pirro”, non durano.

Roma: fra cultura e musei

In evidenza

Luigi Campanella, già Presidente SCI

In vista delle elezioni per il Sindaco di Roma i candidati hanno cominciato a parlare di quanto vorrebbero fare nel caso risultassero vincitori. Per quanto riguarda la cultura, uno dei temi più caldi, come Roma merita, la comune opinione è che la nostra capitale sia la ideale sede dell’agenzia dell’UE.

Il fatto che a novembre dell’anno scorso 45 sindaci di Città in tutto il mondo, da Città del Messico a Barcellona, abbiano firmato un protocollo che prende il nome dalla nostra città-la Carta di Roma 2020-è il segno dell’attenzione mondiale verso Roma e le sue risorse culturali.

Una chiave della ripartenza post-Covid sarà la capacità di valorizzare in modo innovativo  il nostro patrimonio culturale e turistico e tutta l’economia ad esso legata. Si dice che la bellezza salverà il modo: forse l’economia della bellezza potrà contribuire significativamente alla ripresa in Italia. I fondi del PNRR rappresentano di certo una straordinaria occasione che sarebbe imperdonabile mancare. Abbiamo assistito ad un nuovo rapporto fra pubblico e privato sui Beni Culturali ed anche il pubblico è finalmente più collaborativo. Roma che non per caso è stata scelta come sede del G20 della cultura che si e svolto pochi giorni fa con tanto di inaugurazione spettacolare al Colosseo merita di ospitare l’agenzia europea in forma definitiva, finora con sede a Bruxelles, guidata da un italiano, Roberto Carlini, succeduto alla direzione belga. G20 a Roma: «Tutti più poveri senza cultura»- Corriere.it

Il G20 della cultura ha prodotto un documento finale in 32 punti: sviluppare d’intesa con UNESCO forze nazionali a tutela del  patrimonio culturale, azioni forti e coraggiose contro l’impatto dei cambiamenti climatici, progetti a sostegno della formazione e delle imprese giovanili operanti nella cultura.

Tornando alla tornata elettorale per il Sindaco di Roma ed al dibattito in atto fra i candidati mi sarei immaginato che un tema caldo fosse il Museo/Città della Scienza di cui Roma soffre la mancanza e discute da quasi 50 anni. Invece al tema, a parte la generale ovvia considerazione che Roma come Capitale della Scienza e Ricerca del nostro Paese merita il Museo, poco viene dedicato.

In ambito museale il tema più discusso è quello del Museo di Roma, intendendo per esso ogni manifestazione museale in cui si parla e si tramanda la storia della nostra Città e il grande percorso della Civiltà Romana attraverso i secoli: dalle grandi famiglie romane alla Roma antica, dalla Roma rinascimentale a quella risorgimentale, dalla Roma barocca a quella moderna.

A Roma già esistono Musei che sono rivolti a questi fini (Museo di Roma, Museo Nazionale Romano, Museo della Civiltà Romana, Musei Capitolini) ed il dibattito si è incentrato sulla proposta formulata da uno dei candidati circa la possibilità di aggregare i contenuti dei differenti Musei all’interno di un unico Grande Museo di Roma da insediare in un’area strategica per la quale sono anche state indicate possibili collocazioni al centro della Città ( via dei Cerchi, edificio comunale exPantanella).

Il passaggio perciò è da quello che viene indicato come il modello diffuso al modello di Museo Unico e Centrale, il processo inverso a quello che in mancanza della realizzazione di un Museo della Scienza si è invece concretizzato in questi 50 anni: per sopperire a questa mancanza si sono sviluppati progetti ed iniziative (MUSIS, Settimana della Ricerca, Notte dei Ricercatori, Laboratori Aperti), basandosi sulla ricchezza di centri espositivi scientifici nella nostra città.

Il pericolo che vedo è rappresentato dalla politicizzazione del tema che può rappresentare un freno alla chiarezza del dibattito ed un freno a qualsiasi innovazione, oltre al rischio di escludere nella definizione delle scelte proprio la comunità che, venendo dal sistema culturale diffuso di oggi, è forse quella con maggiore esperienza e titoli per fornire utili suggerimenti.

Abbiamo purtroppo già vissuto. negli anni ’70 con i progetti del Museo della Scienza questa esperienza, in cui il dibattito per arrivare ad un modello ideale di Museo della Scienza per Roma si è trasformato in un confronto più politico che tecnico-scientifico.

È chiaro quali siano le caratteristiche dei due modelli: più vicino al territorio, più culturale, più economico uno, più fruibile, più rappresentativo, più propositivo il secondo. Un elemento di novità – ma quanto pertinente? – riguarda l’ipotesi di indirizzare il Museo diffuso verso compiti di protezione e conservazione, una sorta di policlinico del patrimonio culturale integrando quindi il sistema museale con università, Enti di Ricerca, parchi scientifici, Soprintendenze, candidando Roma ad essere la sede di una grande sperimentazione scientifica. Forse una pretesa troppo grande in relazione alle risorse e che invece potrebbe rivolgersi verso la creazione di un Centro Regionale di tale natura da realizzare a partire dal Distretto Tecnologico Culturale già esistente.

Da questa prospettiva si può invece certamente evidenziare la funzione didattica e formativa che l’organizzazione diffusa e decentrata di certo può agevolare, avvicinandosi ai cittadini anche di aree non centrali della città. Credo in definitiva che il problema sia un altro: come rendere un Museo Diffuso come se fosse un Museo Unico, il che vuol dire mantenere l’unità progettuale, pensare ad un sistema per coordinare gestione, promozione, comunicazione e fruizione di Musei ed aree archeologiche appartenenti a soggetti diversi (Stato, Roma Capitale, Accademie, Centri Culturali, Istituzioni private),facilitare la visitazione attraverso percorsi ed itinerari guida, supportati anche da mezzi di mobilità organizzata, istituire biglietteria integrata di accesso ai vari poli museali, disporre di una sede dove il patrimonio disponibile venga illustrato complessivamente lasciando poi al visitatore la scelta di come fruirne. Le tecnologie dell’informazione e della comunicazione sviluppatesi prepotentemente in questi anni ci danno una mano a patto di non farle divenire un limite al necessario passaggio-promozione dall’informazione ai livelli superiori della conoscenza e della cultura.

Afghanistan e i soldi per fare la guerra

In evidenza

Luciano Celi*

Reduce dal “discorso alla nazione” di Joe Biden finito qualche ora fa, e trasmesso in diretta anche alla nostra di nazione, ascolto, basito, la cifra che è costata ai soli Stati Uniti questa guerra ventennale: 300 milioni di dollari al giorno, tutti i giorni, per 20 anni. In un anno sono 109,5 miliardi di dollari che, moltiplicati per 20 anni, fanno 2109 miliardi di dollari o, nell’uso statunitense, 2,1 trilioni di dollari (approssimando per difetto).

Quante altre cose si possono fare con tutti questi soldi, con uno sforzo economico così ingente? Fatico a scegliere, ma essendo diciamo “sensibile” alla questione energetica e quindi alla sua auspicata e auspicabile transizione, per non far bollire noi stessi di effetto serra e per offrire un po’ di giustizia e di equità sociale (che, ce lo dimentichiamo troppo in fretta, passa soprattutto dall’energia – perché le guerre si fanno soprattutto per questo…), scelgo questo: la transizione energetica.

Allora faccio due conti della serva, basandomi sulla mia modesta esperienza personale. Nel 2019 ho installato un impianto fotovoltaico sul tetto di casa mia della potenza (di picco) di 6 kW, con delle batterie (con capacità di accumulo di 7,2 kWh) per essere – a queste latitudini – quasi indipendente dal gestore dei servizi elettrici (GSE) per quasi tutto l’anno (certo: d’inverno, con giornate corte e magari piovose, un po’ di corrente la chiediamo, per carità… ma è proprio poca e le mie bollette in sostanza consistono di fatto in oneri fissi di allaccio alla rete, senza contare quella che in rete ributtiamo e che quasi regaliamo, visto che viene ripagata praticamente nulla).

Da utente finale, grazie agli incentivi che c’erano all’epoca (sostanzialmente fiscali), la detrazione, anziché essere fatta nei 10 anni a venire sulla dichiarazione dei redditi, poteva essere ceduta tutta e subito alla ditta che ha eseguito l’impianto, così per un impianto “chiavi in mano” dal costo nominale di 15mila euro, ne ho spesi esattamente la metà, 7,5 e lo sgravio fiscale che mi sarebbe toccato nei 10 anni successivi l’ho, appunto, ceduto all’azienda (si chiama “cessione del credito”, appunto). Non ho crediti da vantare, ma ho avuto un formidabile sconto subito.

Continuiamo col conto: diciamo quindi, per approssimare e farla semplice, che anziché 7mila e 500 euro ne ho spesi 6mila (magari i costi si sono ulteriormente abbattuti in questi due anni e io sto parlando sempre da utente finale…) e quindi posso fare una equivalenza del tipo mille euro per kW installato, “chiavi in mano” (cioè a impianto funzionante). La ditta inoltre mi garantisce, da contratto a queste latitudini (vale a dire “circa” centro Italia), una produzione annua di 7.200 kWh (per i primi 5 anni, poi ci sarà senz’altro una flessione nel rendimento dei pannelli, ma queste flessioni sono molto contenute). Il cambio euro/dollaro di oggi è 1:1,18 ovvero 1 € = 1,18 $. Compensiamo la stima per difetto di prima (1 kW installato = 1000 € e quindi per installare 1 watt ci vuole 1 €) con quella in eccesso di adesso, dicendo che il dollaro è uguale all’euro, in un rapporto 1:1, così la cifra dei 2,1 trilioni di $ diventa di 2,1 trilioni di €. Ma solo per fare i conti pari e “spannometrici” (e, per carità, teorici: a queste “scale” ovviamente gli investimenti dovrebbero essere strutturali – e i costi si abbasserebbero ulteriormente…).

Insomma con questi soldi la potenza installata potrebbe essere quindi di 2,1 trilioni (2,1 * 10^12) di watt che, ipotizzando Pisa (dove vivo) caput mundi con una produzione annua minima come quella garantitami (7.200 kWh/anno che risulta sicuramente più elevata anche solo spostandosi in sud Italia) significa 2.530.800.000.000.000 (1) (due miliardi e cinquecentotrenta milioni e ottocentomila… miliardi di) Wh, ovvero 2.531 TWh (terawatt/ora – il prefisso “tera” = 10^12) all’anno.

Il bombardamento della raffineria iraniana di Abadan fu tra gli eventi che aprirono la guerra tra Iraq e Iran nel 1980. https://aspeniaonline.it/la-geopolitica-della-transizione-energetica/

Sapete qual è stata la domanda di elettricità nazionale per il 2019 (il 2020 non l’ho preso in considerazione essendo un anno comunque anomalo per il lockdown pandemico)? 316,6 TWh (a questo link la fonte del dato), ovvero un ottavo di quello che – ipotizzando di poter investire tutti i soldi della ventennale guerra in Afghanistan in qualcosa di utile come la messa in opera massiva di pannelli solari – questa potenza installata avrebbe potuto produrre. L’avremmo fatta la transizione energetica in Italia? No, ne avremmo fatte 8!!!

Ma vediamo questo dato per gli Stati Uniti che, sempre nel 2019, ha avuto un consumo di 3.955 miliardi di kWh (a questo link la fonte del dato), quindi 3.955 di TWh. Ecco, qui non ce l’avremmo fatta a coprire il fabbisogno complessivo, visto che 3.955 è superiore a 2.531, ma una bella mano se la sarebbero data pure loro e stiamo pur sempre parlando di una delle prime potenze mondiali (diciamo la prima insieme alla Cina)!

Questo solo per citare la prima cosa che mi è venuta in mente – ma che sarebbe una cosa di vitale importanza per sfuggire alla trappola energetica nella quale ci siamo cacciati, visto che dipendiamo ancora oggi per oltre l’80% da fonti fossili e atmosfera, mari, oceani e terra non ce la fanno più ad assorbire anidride carbonica.

E tutto questo senza contare le vite umane. Perse. Per sempre. Valore? Non monetizzabile, infinito, fuori scala. Siamo veramente animali di una stupidità formidabile!

(1) per ottenere questo numero ho diviso i 2,1 TW per 6 kW – la dimensione del mio impianto – a cui però equivale la “produzione garantita” di 7.200 kWh/anno.

*Luciano Celi , già macchinista di treno, ha conseguito una laurea in Filosofia della Scienza (Università di Pisa) e un master in giornalismo scientifico presso la SISSA di Trieste. Nel 2013 un secondo master di I livello in tecnologie internet. Nel giugno 2019 ha discusso la tesi di dottorato in Ingegneria Energetica con una tesi sull’EROEI delle compagnie petrolifere al DICAM dell’Università di Trento. Oggi collabopra a coordinare la comunicazione scientifica presso l’area della ricerca di Pisa del CNR. E’ anche responsabile di una piccola casa editrice (Lu.Ce. edizioni) che ha pubblicato titoli di notevole interesse.

Il chimico di via Panisperna.

In evidenza

Riccardo Giustozzi

Nella foto il famoso ritratto dei ragazzi di Via Panisperna. D’Agostino è il primo a sinistra.

Il 1933 è l’anno in cui in Italia iniziarono ufficialmente le ricerche nel campo della Fisica Nucleare, portate avanti da tre differenti istituti: quello di Roma, di Firenze e di Padova. Ad ognuno era stato assegnato uno specifico argomento di ricerca; Orso Mario Corbino, Enrico Fermi e Franco Rasetti decisero di occuparsi della spettroscopia gamma. È da sottolineare che, inizialmente, fu presa in considerazione Firenze, e non Roma, per ospitare gli studi sui neutroni.

A Roma, dunque, Fermi e Rasetti si concentrarono sul perfezionamento di tecniche spettroscopiche e sul problema della diffusione dei raggi gamma. Questi argomenti di ricerca portarono alla costruzione di uno spettrografo a cristalli di bismuto che testarono attraverso dei piccoli che contenevano sorgenti di materiale radioattivo, preparate direttamente da Giulio Cesare Trabacchi che era a capo dell’Ufficio del Radio, unico organo che poteva distribuire campioni radioattivi ai diversi centri di ricerca. Per questo motivo Trabacchi era soprannominato “La Divina Provvidenza”.

La maggiore difficoltà era quella di isolare il Polonio dal materiale radioattivo disponibile per creare così sorgenti di particelle α ad alte energie con cui bombardare una serie di nuclei atomici. Questa estrazione è possibile, attraverso metodi molto sofisticati, dal Radio D e se ne occupò in prima battuta Rasetti. Ben presto però ci si rese conto che serviva un aiuto. Fermi chiese a Nicola Parravano, direttore dell’Istituto di Chimica dell’Università di Roma, di segnalargli il nome di un bravo chimico che potesse spalleggiare Rasetti durante questi esperimenti. Quel bravo chimico si chiamava Oscar D’Agostino.

D’Agostino era nato il 29 agosto del 1901 ad Avellino e si era laureato a Roma in Chimica qualche anno prima (1926). Dopo una breve esperienza di consulenza tecnica presso una società produttrice di pile, era entrato all’Istituto di Chimica come assistente del Prof. Parravano.

Era il 1933 quando Fermi lo chiamò all’Istituto di Via Panisperna per trattare quel processo, complesso e delicato, di estrazione del Polonio. Lo stesso D’Agostino descrisse quella pratica:

“Una di queste sorgenti era il Polonio, ricavabile dal RadioD, estratto dal deposito attivo lasciato dalla emanazione del Radio o da vecchi preparati di Sali di Radio lasciati per molti anni chiuse ed inutilizzati.”

Grazie al lavoro congiunto dei due, l’Istituto di Roma si trovò a possedere, nel giro di pochissimo tempo, una quantità di Radio seconda soltanto a quella prodotta dall’Institut du Radium di Parigi.

Proprio all’Institut du Radium fu indirizzato D’Agostino, su suggerimento di Corbino e Rasetti, nei primi mesi del 1934 grazie ad un assegno di ricerca che gli era stato conferito nel novembre dell’anno precedente dal CNR. A Parigi poté approfondire le sue conoscenze della radioattività attraverso le lezioni di Marie Curie e dei coniugi Irène e Frédéric Joliot-Curie, che agli inizi del 1934 avevano ottenuto i primi elementi radioattivi artificiali dopo aver bombardato alcuni elementi leggeri con particelle α.

Qualche mese dopo, verso la fine di marzo, D’Agostino rientrò a Roma per le vacanze di Pasqua e Fermi decise di coinvolgerlo nella ricerca sulla radioattività indotta dai neutroni come si legge in una lettera datata 26 giugno 1934:

Il Dr. O. D’Agostino, che ha una borsa di studio del CNR per Parigi, è, come ti accennai, stato trattenuto da me per lavorare qui alle nuove radioattività artificiali. So che ti ha scritto perché gli venga pagata la seconda rata della borsa di studio. Vedi se è possibile accontentarlo.

Coi più cordiali saluti e ringraziamenti

Enrico Fermi”.

Lo scopo era quello di bombardare tutti i 92 elementi presenti in natura in tempi molto brevi e D’Agostino ricoprì un ruolo fondamentale, separando e caratterizzando un gran numero di radioisotopi artificiali. Il solito Fermi dirà:

“Nel corso dei lavori si è presentato anche frequentemente il problema di manipolare e preparare sostanze radioattive naturali. In tutte queste ricerche ho potuto sempre apprezzare l’abilità e l’operosità del D’Agostino, nonché la sua attitudine ad orientarsi rapidamente di fronte a nuovi problemi.”

Durante questi bombardamenti fu indotta anche la radioattività nell’Uranio che portò al famoso dilemma della scoperta del 93esimo elemento, ipotesi rivelata sbagliata solo nel biennio1938-39 con i lavori di Meitner e Hanh sulla fissione nucleare**.

Nel 1935 iniziò a disgregarsi il nucleo romano, specialmente con la partenza di Segrè per Palermo dove aveva vinto il concorso a cattedre, e si allontanò anche D’Agostino e nel marzo del 1938 conseguì la libera docenza in Chimica Generale. Dopo alcuni anni al CNR, tornò definitivamente all’Istituto Superiore di Sanità dove si impegnò in ricerche di radioterapia, in particolar modo sull’utilizzo di isotopi radioattivi in ricerche chimiche e biologiche.

Edoardo Amaldi, in merito ai suoi tentativi di ricostruire un gruppo di ricerca nel 1939, scriverà:

“In quel periodo feci vari tentativi per convincere Oscar D’Agostino a tornare a lavorare in radiochimica, come aveva fatto con successo dalla primavera 1934 al giugno 1935. Sia la fissione dell’Uranio che l’impiego di nuovo isotopi radioattivi come traccianti erano settori di straordinario interesse scientifico. La sua collaborazione con il nostro gruppo, utilizzando l’impianto dell’Istituto Superiore di Sanità, avrebbe potuto dare notevoli frutti, ma i suoi interessi si erano spostati verso altri settori ed ogni mio sforzo fu inutile nonostante anche lui fosse enormemente colpito dalla scoperta della fissione”.

**************************************

*Riccardo Giustozzi, laureando in Fisica presso l’Università degli Studi di Camerino. Creatore e ideatore nell’agosto 2019 della pagina di divulgazione storico-scientifica chiamata “Storie Scientifiche”. Da gennaio 2020 collaboratore e autore di alcuni contenuti per il Centro Ricerche Enrico Fermi, con un occhio di riguardo per la storia dei fisici italiani del Novecento.

Sul centro ricerche Enrico Fermi e sul costituendo museo di via Panisperna diretto da Francesco Sylos Labini abbiamo pubblicato recentemente un post.

**Nota dell’Editor: a questo proposito richiamo l’attenzione dei lettori sulla storia di Ida Noddack che abbiamo raccontato in un post a firma di Rinaldo Cervellati

Cosa non dobbiamo più buttare nello scarico di casa.

In evidenza

Mauro Icardi

Nel marzo 2015 e stato pubblicato un mio articolo, che intitolai “ Cosa buttiamo nelle fognature?

 A distanza di più di sei anni devo riprendere il tema, modificando il titolo.

Nei sei anni trascorsi la gestione degli impianti di depurazione ha risentito fortemente delle modifiche dei regimi di caduta delle piogge. Ricordo per precisione, che le fognature sono ancora principalmente di tipo misto, raccolgono cioè anche acque di pioggia.

Le cronache meteorologiche dello scorso mese di luglio nella zona prealpina descrivono una situazione molto problematica.

Riporto dal sito del centro geofisico prealpino di Varese cosa accaduto a fine luglio.

Deciso cambiamento dal 24 a causa di correnti umide da SW, sospinte da una bassa pressione sulla Manica. Temporali forti e diffusi il 25 (forte grandinata Locarno-Avegno, tetto scoperchiato a Gallarate, grandinate abbondanti con strade imbiancate Lecco, h15 nubifragio a Varese e allagamenti, grandine a Orino fino 30 mm).
I temporali proseguono intensi anche nei giorni successivi. Il 26 in particolare su Valcuvia e Valganna. Il 27 nubifragi interessano il Mendrisiotto, il Lario (colate fango, interrotta SS Regina, a Cernobbio esonda torrente Breggia e distrugge il lungolago) e anche il Varesotto con allagamenti (Varese via Peschiera). Il 28 piogge battenti sul medio Varesotto (Brinzio 89mm, Cuvio 82 mm, Ganna=141 mm) e a ridosso del Campo dei Fiori. Esonda il torrente Tinella a Luvinate ed estesi allagamenti interessano Gavirate (frazioni Armino, Pozzolo e Trinità), Brusimpiano e Cuvio dove esonda il torrente Broveda.

Quando avvengono eventi piovosi di questa intensità, aumenta la quantità di materiale che viene raccolto dalle griglie poste a monte dei trattamenti successivi, cioè sedimentazione primaria e ossidazione biologica.

Negli scarichi di casa, siano essi quelli del lavandino di cucina, oppure quello dei servizi igienici non si devono assolutamente buttare materiali non biodegradabili.

Quindi no a plastica, bastoncini cotonati per orecchie, profilattici, parti di pannolini, rifiuti solidi di piccole dimensioni, mozziconi di sigaretta, stracci.

Mi sento di fare questa richiesta, perché tutto questo materiale provoca davvero problemi nel funzionamento delle fasi depurative. Manda in sofferenza i depuratori.

Basta guardare con attenzione questa immagine.

Dopo la giornata di pioggia del 28 luglio si è dovuto ripristinare il funzionamento della sezione di grigliatura.  La sezione di trattamento è rimasta fuori servizio per circa tre ore.  L’intervento non solo ha ripristinato il corretto funzionamento della fase di grigliatura, ma ha salvaguardato le successive fasi di trattamento. Evitando malfunzionamenti dovuti all’intasamento dei pozzetti dove sono installate le pompe, e i relativi sensori di livello. Il materiale che si vede, chiamato residuo di vagliatura non proviene dal dilavamento stradale. Arriva per i motivi più disparati dai nostri scarichi. Facciamo in modo di ricordarci di avere comportamenti attenti e responsabili, non solo nella gestione dei rifiuti, ma anche in quella della gestione dell’acqua che arriva nelle nostre abitazioni, prima di scaricarla.

La gestione di un bene prezioso come l’acqua richiede un atteggiamento di maggior attenzione, da parte di tutti. Solo in questo modo il termine “bene comune” assume un significato vero.

Piccola nota conclusiva: i colleghi addetti alla conduzione dell’impianto mi hanno chiesto di scrivere qualcosa, che raccontasse del loro impegno, quando si verificano situazioni come queste. Io ho accettato subito volentieri. In passato anche io ho preso in mano il badile. E loro lo ricordano. Se dovesse servire ancora, sanno che li aiuterei di nuovo. Purtroppo i fenomeni di piogge anomale si verificano piuttosto frequentemente.  E ci sono persone che si occupano di non interrompere mai né la fornitura, né la depurazione delle acque. Giusto e doveroso ricordarlo. E ringraziarli.

La TAC compie 50 anni

In evidenza

Luigi Campanella, già Presidente SCI

La TAC (Tomografia Assiale Computerizzata) compie 50 anni (il primo dispositivo venne installato nel 1971 nell’Atkinson Morley’s Hospital di Wimbledon) e la festeggiano oltre alla medicina, anche numerose altre discipline che si giovano delle sue straordinarie capacità,a partire proprio dalle Scienze dei Beni Culturali e da quelle Ambientali, con particolare riferimento ai paleoambienti ed alla radiazione ambientale.

Godfrey Hounsfield, il suo inventore si pose per primo l’obiettivo di fotografare anche i tessuti molli del nostro organismo che le normali radiografie non riescono a distinguere. I raggi X vedono solo gli oggetti compatti più densi, come ossa ,ma non quelli composti per la maggior parte da acqua come i muscoli. Per raggiungere il suo fine Hounsfield con l’aiuto di un tornio su cui montò il macchinario per radiografie effettuò migliaia di scansioni attorno al campione e le fece elaborare da un computer per ottenere un’immagine tridimensionale.Tempo impiegato: 9 giorni, troppi per dare un significato pratico alla scoperta.Con una raccolta di fondi a cui contribuirono in misura significativa anche i Beatles nel 1971 fu realizzato il primo prototipo di apparecchiatura TAC applicata ad una paziente con cisti al cervello. Il suo costo è stato di 69000 sterline,l’equivalente di 1,5 milioni di euro di oggi. Nel 1973 compaiono le prime TAC installate negli ospedali.Lo strumento scatta 160 immagini per ogni spostamento di 1 grado nell’intervallo 0–180 gradi per un totale di 28800 radiografie successivamente elaborate da un computer in un tempo complessivo di 2h con un salto di velocità rispetto ai 9 giorni del prototipo precedente Nel 1973 compaiono le prime TAC negli ospedali, anche in Italia a Bologna. 6 anni dopo Hounsfield riceve il premio Nobel per la medicina insieme ad Allan McCormack.


Oggi con i successivi perfezionamenti la TAC riesce distinguere dettagli dell’ordine del decimo di mm ed a studiare anche organi in movimento come il cuore.Combinata con le IA (Intelligenze artificiali) sta contribuendo alla lotta contro i tumori ancor più che in passato. Tale lotta è uno degli obbiettivi più ambiti della ricerca scientifica del nostro tempo e si articola in due principali linee, prevenzione e cura.
Un esempio molto rappresentativo è offerto dal tumore del colon retto rispetto al quale un grande passo in avanti si sta realizzando nello screening: si va a caccia di quelle lesioni precancerose, polipi, alterazioni tessutali, ma con strumenti sempre più sensibili. Questi avanzamenti sono stati resi possibili grazie alle applicazioni dell’intelligenza artificiale a tali strumenti.La nuova tecnologia da un lato immagazzina milioni di immagini e di dati relativi a polipi di ogni foggia e dimensioni il che consente di catalogare per pericolo e per caratteristiche fisiologiche e dall’altro può essere definita un occhio di falco capace di stanare lesioni di 2mm in precedenza difficilmente rilevabili.
Oggi la TAC, come accennavo all’inizio, ha trovato applicazioni anche in campi diversi dalla medicina, in particolare archeologia ed archeo-metria ed ambiente. Uno degli studi più recenti ha riguardato le mummie dell’antico Egitto, raccogliendo su di esse preziose informazioni
Nel caso di reperti ipogei come le tombe la problematica della stabilità ambientale assume gravità diverse a seconda dei metri di profondità del suolo che insiste sul sito considerato: se questa profondità è di pochi metri alle oscillazioni termo-igrometriche interne si sommano.infatti quelle esterne che possono modificare la condizione interna con conseguenti pericoli per le opere interessate. La conoscenza accurata dello stato preliminarmente a qualsiasi intervento risulta pertanto fondamentale. In campo ambientale la TAC ha consentito lo studio di reperti fossili contribuendo ad importanti avanzamenti della paleoantropologia.In qualche caso la TAC ha smontato ipotesi suggestive su opere d’arte relative ai materiali ussti (pigmenti naturali o artificiali ?) o agli stessi autori o chiarito se su un quadro fosse intervenuto sia pure in tempi diversi più di un pittore.

La mummia di Usai: figlio di Nekhet e di Heriubastet (XXVI dinastia, 664-525 a.C.) per lui è arrivato il momento della T.A.C. al Malpighi di Bologna.

Una ricerca dimenticata di Giacomo Ciamician.

In evidenza

Rinaldo Cervellati

Fra le molte ricerche di Giacomo Ciamician (1857-1922)[1] ci sono quelle sul pirrolo, questo composto “aromatico” eterociclico (Figura 1):

Figura 1. Struttura del pirrolo

Chiaramente, nell’ultimo ventennio del XIX secolo, le conoscenze sulla struttura atomico-molecolare erano molto limitate come pure la strumentazione, sicché si doveva ricorrere a metodi come l’analisi elementare, il comportamento chimico e la spettroscopia di emissione.

Come scrive Diego Savoia [1]: gli studi di Ciamician furono indirizzati ad approfondirne la reattività, l’aromaticità, l’acidità e la basicità e la sua trasformazione in derivati più complessi e funzionalizzati.

Dopo gli studi a Vienna e la laurea a Giessen (Germania), Ciamician divenne, nel 1880, assistente di chimica organica a Roma, nel gruppo di Stanislao Cannizzaro. Continuò gli studi sul pirrolo e, insieme a Max Dennstedt (1852-1931)[2] (Figura 2), scoprì una reazione che va sotto il nome di riarrangiamento di Ciamician-Dennstedt.  In pratica si tratta dell’espansione dell’anello pirrolico mediante riscaldamento con cloroformio o altri composti alogenati in soluzione alcalina, che oggi scriveremmo come:

L’intermedio diclorocarbene, in aggiunta al pirrolo, forma un dialogenociclopropano instabile che si riorganizza a 3-alogenopiridina.

Il lavoro fu pubblicato nel 1881 dal Berichte [2].

Figura 2. Giacomo Ciamician (sinistra) e Max Dennstedt (destra)

Nel numero del 9 agosto 2021 [3] di C&EN news, XiaoZhi Lim, ci informa che  i ricercatori guidati da Mark D. Levin (Figura 3) dell’Università di Chicago hanno aggiornato la reazione di  riarrangiamento Ciamician-Dennstedt del 1881, che produce anelli piridinici a sei membri inserendo un carbene in un anello pirrolico a cinque membri.

Figura 3. Mark D. Levin

 Levin afferma: “Purtroppo dovrebbe essere davvero utile, ma in pratica non funziona come dovrebbe”. Infatti, i chimici tipicamente generano il carbene aggiungendo cloroformio o composti trialogenati simili alla reazione di Ciamician-Dennstedt, che limita i sostituenti sull’anello piridinico risultante agli alogeni. Sicché, il gruppo di Levin ha sostituito il cloroformio con clorodiazirine, che si scompongono in un catione carbinile e azoto gas [4].

Come un carbene, il catione carbinile può aggiungersi ai pirroli o agli indoli, espandendoli in piridine o chinoloni. I reagenti clorodiazirina possono essere preparati in un unico passaggio ossidando le ammidine disponibili in commercio con ipoclorito di sodio, e ci sono più di 1.600 di tali ammidine che portano diversi sostituenti tra cui scegliere. Levin spera che questa reazione renda più facile per i chimici farmaceutici sintetizzare stimolanti farmaci a base di piridina o chinolone senza doverli costruire tutti da zero (Figura 4).

Figura 4. La reazione di un indolo (a sinistra) con una clorodiazirina espande la molecola in una chinolina con l’aggiunta di un gruppo fenile (a destra) [3]. Credit: J. Am. Chem. Soc.

Bibliografia

[1] D. Savoia, Ciamician e il pirrolo, in: M. Venturi (a cura di), Ciamician, Profeta dell’energia Solare, Atti del Convegno storico-scientifico in occasione del 150° anniversario della nascita. Fondazione Enrico Mattei, 2008, pp.125-147;  V. anche: M. Taddia, Ciamician, un chimico di vario sapere, ibid, pp. 7-32.

[2] G. L. Ciamician, M. Dennstedt,  Ber.,  14, 1153 (1881).

[3] XiaoZhi Lim, Reaction expands nitrogen-containing rings and options for medicinal chemists Reimagined 19th-century method could potentially take advantage of more than 1.600 commercially available reagents, special to C&EN, August 9, 2021

[4] B. D. Dherange, P. Q. Kelly, J. P. Liles, M. S. Sigman, M. D. Levin*. Carbon Atom Insertion into Pyrroles and Indoles Promoted by Chlorodiazirines.,  J. Am. Chem. Soc., 2021, 143, 11337–11344


[1] Giacomo (Luigi) Ciamician, Professore di Chimica Generale nell’Università di Bologna dal 1889 fino alla scomparsa è considerato il fondatore della fotochimica moderna, collaborò al progetto dell’edificio dell’Istituto di Chimica dell’Università di Bologna che oggi ospita il Dipartimento a lui intitolato. Si è occupato attivamente della sintesi di prodotti organici naturali.  Oltre a essere uno dei fondatori della fotochimica moderna, Giacomo Ciamician è considerato anche il precursore dell’utilizzo pratico dell’energia solare.

[2] Max Eugen Hermann Dennstedt (1852 -1931) è stato un chimico tedesco. Dopo aver conseguito il dottorato a Berlino nel 1879, dal 1880 fu professore visitatore all’Università di Roma, dove lavorò per Cannizzaro e Ciamician nel campo della chimica del pirrolo e conseguì la sua abilitazione.  Nel 1893 assunse la direzione del Laboratorio chimico statale dell’Università di Amburgo. E’ considerato uno dei pionieri delle applicazioni fotografiche nelle prove forensi. Dopo gli studi sul pirrolo si occupò di chimica analitica.

I progetti europei per la direttiva 3R sulla sperimentazione animale

In evidenza

Luigi Campanella, già Presidente SCI

Come ho più volte scritto sono contrario alla sperimentazione animale, nella convinzione che in molti casi possa essere sostituita, ma anche con la convinzione della sua possibile insostituibilità in certe situazioni. Il mio è un atteggiamento in cui la componente scientifica e quella etica si intrecciano, rendendo talvolta difficile anche a me distinguere una dall’altra.

Credo che la chimica possa contribuire proprio a ridurre progressivamente questi casi di insostituibilità. Guardo quindi con interesse ed attenzione, scientifica e personale, ai progetti di ricerca che si sviluppano attorno a questa problematica

La quantità e la varietà di composti chimici è in continua crescita. Migliaia di sostanze non sono mai state testate per la tossicità e la loro produzione è prevista raddoppiarsi entro il 2030. Mentre l’inquinamento viene accreditato come responsabile di una morte su 10 nel mondo risulta sempre più evidente il bisogno di sviluppare test più affidabili e più rapidi che al tempo stesso soddisfino i principi etici di ridurre quanto più possibile il ricorso alla sperimentazione animale. A tal fine l’Unione Europea sta investendo 60 Meuro in 5 anni (il doppio del precedente finanziamento) in 3 progetti internazionali interamente dedicati al progresso della tossicologia regolamentaria senza l’uso di test su animali.

Nel mese di marzo passato 15 organizzazioni guidate dall’Università di Birmingham hanno lanciato PrecisionTox.

Questo progetto è focalizzato su linee cellulari umane e su una diversa organizzazione degli organismi modello biomedici, come ad esempio la mosca della frutta, la zanzara dell’acqua, i vermi e gli embrioni del pesce zebra. Questi organismi non senzienti non sono guardati come animali negli standard legali e condividono molti geni con gli umani secondo l’evoluzione. Questi test rapidi che soddisfano le indicazioni della direttiva europea in materia delle 3 R (ridurre, sostituire, riformulare) e le esigenze di costo consentiranno di mappare le origini dell’azione tossica sui rami dell’albero dell’evoluzione animale per predire chimicamente effetti negativi sulla salute di tutti gli animali, compreso l’uomo.

Il secondo progetto ONTOX, coordinato dall’Universitá Vrije di Bruxelles, è partito in maggio con l’obiettivo di creare metodi innovativi senza sperimentazione animale capaci di predire tossicità cronica per gli umani a seguito di esposizione prolungata. Il progetto si basa sulle Intelligenze Artificiali per misurare gli effetti tossici indotti da ogni genere di composto chimico (farmaco, cosmetico, alimento, biocida) su fegato, rene, cervello, ma con una metodologia esportabile ad altri organi.

Infine il terzo progetto Risk-Hunt 3R raccoglierà il testimone dal progetto EU-ToxRisk che sta per concludersi avendo disposto di un finanziamento di 27 Meuro. Il consorzio  di 37 partner guidati dall’Università di Leiden è impegnato per trovare una nuova impostazione al problema dei test di tossicità esenti da sperimentazione animale combinando scenari di esposizione umana, test in vitro e metodologie computazionali per ottenere dati sui meccanismi di tossicità che possano identificare attraverso quali processi l’essere umano possa essere danneggiato dal contatto con i composti testati.

 Come si vede si tratta di 3 progetti che ben si integrano rispetto da un lato alla ottimizzazione delle conoscenze in materia e dall’altro alla esigenza di nuovi approcci che rispondano alla direttiva 3r. Di questa si tende ad esaltare gli aspetti relativi alla riduzione progressiva ed alla completa sostituzione dei test su animali, ma vorrei osservare che altrettanto e forse più importante è la terza R, che riguarda la riformulazione dei test ancora adottati ai fini di un rispetto per l’animale che ne riduca quanto più possibile disagi e sofferenze e di una maggiore affidabilità del dato sperimentale che consenta un minore numero di esperienze senza perdere in accuratezza del risultato.

La chimica e la fisica della stiratura (con qualche nota di profumo).

In evidenza

Claudio Della Volpe

Questo post ha una storia lunghissima; sono sposato da 44 anni e sono 44 anni che discuto con mia moglie della stiratura dei panni, della sua necessità e delle metodiche per farla od evitarla; in particolare ci sono alcune cose che mi hanno sempre stupito: una per tutte, perché sbattere i panni umidi prima di stenderli dovrebbe essere una strategia che aiuta a ridurre la stiratura?

Ecco oggi cerco di parlarvi di cose del genere e finalmente risponderò alla domanda o se volete allo sfottò di mia moglie (che è una chimica anche lei) del tipo: ok non so il motivo-chimico-fisico ma funziona così (“motivo chimico fisico” scritto con le lineette corrisponde alla particolare cantilena usata dalla consorte, una cosa che normalmente mi fa imbestialire).

Il fatto è che a me il motivo chimico fisico mi intriga troppo per trascurarlo e così dopo l’ennesima discussione, questa volta con amiche e sorelle che davano assolutamente ragione a mia moglie, ho deciso di capirci qualcosa.

Ok, mia moglie ha ragione e adesso so perché e ve lo voglio raccontare.

Sarà un segno dei tempi, un frutto poco goloso, ma comunque è il mio contributo al MeToo.

Dobbiamo partire dal materiale di cui sono fatti i vestiti: le fibre tessili.

La maggiore o minore inclinazione alla formazione di pieghe dipende prima di tutto dalla composizione dei tessuti. I tessuti in cellulosa naturale sono quelli più soggetti alla formazione di pieghe (cotone, lino…).

Nelle fibre naturali costituite di polisaccaridi come la cellulosa che è la molecola base del lino, del cotone le lunghe molecole di polisaccaride possono formare legami idrogeno che specie in presenza di umidità e molecole di acqua assorbite si rompono e riformano con l’asciugatura; questi legami sono più deboli di quelli covalenti o ionici e possono formarsi e rompersi con relativa facilità e soprattutto sono numerosi e non “obbligati” dalla struttura, se ne possono formare molti e fra parti diverse e non connesse in origine.

Aggiungo qui che questa osservazione per me, che mi occupo di adesione, ha un grande valore perché il legame idrogeno è il più comune dei legami acido-base di Lewis che costituiscono la base dei legami adesivi fra superfici; ne abbiamo parlato in altri post (per esempio qui e qui). Dunque come i legami adesivi comuni prevedono legami idrogeno e simili meccanismi di donazione-accettazione di densità elettronica fra molecole di superficie, così fanno i legami INTERNI fra molecole in materiali comuni come i tessuti; solo che nei tessuti questa adesione ne modifica la forma e la geometria producendo nel nostro caso pieghe a non finire specie se il tessuto è stato bagnato!

Tout se tien!

Scusate ma ho bisogno di un mondo fatto così, dove capisco cosa faccio!

Uno dei motivi per cui i tessuti naturali vengono arricchiti con fibre sintetiche o rigenerate, come elastan o viscosa, è limitare la formazione di pieghe oltre a migliorare elasticità e vestibilità; in pratica limitare la possibilità di formare legami idrogeno aiuta a limitare le pieghe nelle fibre a base di polisaccaridi.

I tessuti in fibra di cellulosa rigenerata tendono a piegarsi meno. Queste fibre sono prodotte dalla cellulosa naturale, che viene prima trasformata in nitrato o acetato di cellulosa, e poi riorganizzata in fibre. Rayon, viscosa, acetato o tencel sono esempi di tessuti in fibra di cellulosa rigenerata.

Le fibre sintetiche, come il poliestere e il nylon, sono caratterizzate da una tipologia più differenziata ma generalmente tendono a piegarsi meno (nel nylon i legami idrogeno ci sono, ma per fare legami idrogeno intercatena le difficoltà steriche sono maggiori).

Infine, le fibre meno soggette a pieghe sono quelle di origine animale fatte di proteine, non di polisaccaridi, come la seta e la lana e questo comporta anche la loro elevata cristallinità e una specifica struttura piana le cosiddette beta-sheet, legate alla struttura cosiddetta “secondaria” della catena proteica; le strutture possibili sono due ma entrambe rigide.

Qui i legami idrogeno ci sono eccome, ma sono tanti e tali e così ben connessi che la rigidità è strutturale; le fibre sono fortemente connesse e rimangono tali anche durante e dopo il lavaggio.

In definitiva la formazione delle odiate pieghe nei tessuti dipende dalla possibilità di formare legami interni fra le molecole delle fibre e tra le fibre stesse (le fibre sono complessi lineari di macromolecole); perché ciò avvenga ci vogliono tante molecole capaci di fare legami idrogeno ma anche senza obblighi strutturali, se no come succede nella seta o nella lana i legami non si spostano; nelle fibre a base di cellulosa la cosa è possibile, con calore o pressione e si esalta se si aggiungono molecole di acqua, ovviamente. Allontanando l’acqua (o il calore o la pressione) i legami si riformano nella nuova posizione (e fanno le pieghe!!!).

The glass transition of cotton PhD thesis di Chantal Denam, Deakin University 2016

Chiaramente ci sono condizioni di temperatura e pressione che facilitano la distruzione e formazione di questi legami. Nella chimica dei polimeri la condizione di temperatura che consente la trasformazione è chiamata “temperatura di transizione vetrosa” Tg, risente della pressione e dell’umidità  e consente di distruggere e formare nuovi legami, facendo anche variare lo spazio libero fra le fibre e dentro le fibre; per il cotone la temperatura in questione risente particolarmente dell’umidità come si vede dal grafico. In definitiva dunque lavaggio e successiva stiratura riproducono questa condizione e consentono di forzare od eliminare la piegatura; la stiratura, meglio se leggermente umida, come si fa stirando a vapore è un modo di mettersi in queste condizioni di Tg.

 C’è da dire che a volte la formazione di pieghe è desiderata: una gonna plissettata per esempio è una gonna a pieghe e come si formano?  Pare che le prime tecniche di stiratura vengano dai tentativi di fare tessuti plissettati svolti ai tempi degli egiziani e a freddo con uno strumento piatto e molto pesante detto lisciatoio, usato sui tessuti umidi.

Solo nel 200dC arrivò l’antenato del nostro ferro a caldo, un recipiente in bronzo con manico in legno, contenente brace incandescente, impiegato alla corte cinese per lisciare sete e tessuti. La storia dei ferri da stiro la potete trovare sulla pagina della Polti, uno dei più noti produttori di questo elettrodomestico, elencata in fondo.

Ci sono altri aspetti che favoriscono o meno la formazione di pieghe; la tessitura, in pratica i tessuti piatti (weave), come il tessuto di una camicia tradizionale, tendono a formare più pieghe rispetto ai tessuti a maglia (knit), come quelli di maglioni e felpe, anche a parità di composizione. E a parità di altri parametri la densità della tessitura, tessuti più fitti fanno meno pieghe.

Ed infine da notare che in anni recenti si sono sviluppate tecniche decisamente “chimiche” per ridurre le pieghe; i procedimenti attuali per ottenere tessuti antipiega consistono in trattamenti con urea-formaldeide e melammina-formaldeide che reticolano con legami covalenti i tessuti sia naturali che sintetici, impedendo la formazione di pieghe ma possono rilasciare molecole come la formaldeide.

Ho riassunto l’essenziale delle condizioni chimiche e fisiche che portano alla formazione di pieghe nei tessuti. Adesso torniamo alla pratica della manipolazione dei tessuti quando li si lava e li asciuga e poi li si stira.

La stiratura ha preso piede soprattutto all’inizio del 900 con la comprensione che essa aiutava ad igienizzare i panni eliminando per esempio le uova di pidocchio o le spore ed i batteri che fossero rimasti adesi al tessuto; oggi con le maggiori condizioni di igiene complessiva e la potenza dei nuovi detersivi questo ruolo è meno importante, ma è comunque ragionevole ricordarlo, specie nei paesi dove le condizioni igieniche non sono come le nostre. Inoltre la stiratura come tale aiuta a riposizionare le fibre nella posizione originale allungando la vita utile del tessuto, ma questo come vedremo si può fare anche altrimenti.

Quali procedure possono essere utili per ridurre la stiratura al minimo? Lo scopo è ridurre la spesa energetica della stiratura che viene stimata in alcuni kWh per chilo di tessuto

La prima è scegliere tessuti che non fanno le pieghe o ne fanno meno stando attenti in fase di acquisto; seguono poi alcuni criteri operativi.

Se si lava in lavatrice usare una centrifuga meno spinta perché le forze sviluppate durante la centrifugazione forzano i tessuti bagnati in una configurazione a pieghe, specie se avete riempito la lavatrice al massimo. Se lavate a mano e torcete i panni per asciugarli le pieghe si formano ancor più.

Stendere i panni al sole e al vento ma facendo attenzione a “stenderli” eliminando le pieghe che si sono formate durante il lavaggio; e qui, in questo momento topico, lo sbattimento del tessuto, di cui ho discusso innumerevoli volte con mia moglie, ha il suo ruolo maggiore; sbattere il tessuto prima di stenderlo, casomai più di una volta prendendolo in posti “chiave” e ricordandogli la sua forma “giusta”; non ci riuscirete subito, cari lettori maschi.

Nonostante io adesso l’abbia capito non ci riesco sempre.

Questo metodo si deve usare anche nell’appendere il vestito, sfruttando i posti da cui può pendere in modo simmetrico, evitando la formazione di nuove pieghe causate dalle mollette per esempio. Un trucco può anche essere di stendere non solo lungo il filo ma FRA due fili, perpendicolarmente al filo cercando di ottenere un supporto di dimensioni opportune. Quest’ultima operazione può essere motivo di discussione con i rispettivi consorti.

Usare per i capi di forma complessa come le camicie una stampella a cui appenderla nel modo più “naturale”.

Sto parlando di stendere al sole e al vento, nostri naturali alleati energetici; oggi si è creato anche in Italia un mercato di “asciugatrici” elettriche; personalmente credo siano spesso inutili; stendere al balcone i panni o alla finestra deve diventare un nuovo  status symbol, quello di chi capisce che risparmiare energia è necessario e civile. Non dico che non possa essere perfino indispensabile la asciugatrice ma certo la spinta ad acquistarla che viene dal mercato dei falsi bisogni deve essere ben valutata. Nella maggior parte dei casi non è necessaria.

Inoltre i panni asciugati al sole e al vento (asciugatura rinnovabile…..) hanno anche un particolare profumo che ricorda a molti di noi quando stendere i panni insieme a mamme e nonne era un momento clou dell’infanzia. Voglio finire con questa nota profumata ricordando qui un recente lavoro di una giovane ricercatrice italiana, Silvia Pugliese, ora all’Università di Copenhagen che ha pubblicato un interessante lavoro su cosa conferisca ai panni stesi al sole quel particolare profumo.

Silvia Pugliese

Come vedete dalla figura si tratta di un complesso effetto legato alla compresenza di idrocarburi atmosferici, luce solare e cotone bagnato.

Silvia Pugliese et al.  Environmental Chemistry 17(5) 355-363 https://doi.org/10.1071/EN19206 Chemical analysis and origin of the smell of line-dried laundry

Dice l’autrice: L'odore fresco e gradevole della biancheria asciugata all'aperto al sole è riconosciuto dalla maggior parte delle persone, ma nonostante decenni di speculazioni l'origine dell'odore non è stata dimostrata. Mostriamo che l'odore del bucato steso è dovuto alla combinazione unica di tracce di idrocarburi atmosferici, luce solare e superficie del tessuto bagnato. È probabile che questa fotochimica superficiale sia diffusa nell'ambiente su superfici di materiali naturali.
E ancora:
Proponiamo che l'ozono o le reazioni fotochimiche convertano i VOC (ossia i composti organici volatili, come gli idrocarburi) a catena corta nelle loro controparti ossigenate, che sono note per avere una varietà di odori, molti dei quali possono fungere da note che contribuiscono al caratteristico odore di bucato appena steso. La superficie del cotone lega i prodotti di reazione per fisisorbimento o legame idrogeno e può trattenere l'odore per alcuni giorni.

Brava Silvia!.

Da consultare:

https://www.polti.com/news/the-science-of-effective-ironing/

https://www.polti.it/stiro-e-cura-dei-capi/evoluzione-e-storia-del-ferro-da-stiro-con-caldaia/

La Polti produce ferri da stiro, ma ha anche costruito delle interessanti pagine web sul tema, dunque, al netto dei conflitti di interesse, grazie alla Polti ed alla collega Deborah García Bello che ne ha curate alcune molto interessanti.

Cocktail di erbicidi.

In evidenza

Mauro Icardi

Di glifosato come di altre centinaia di molecole che abbiamo sintetizzato ex-novo, e che poi sono state diffuse nell’ambiente, probabilmente  sentiremo parlare ancora a lungo. Perché il glifosato non è presente soltanto nel cibo che consumiamo ogni giorno, ma è stato rilevato anche nei fiumi italiani.

Un nuovo studio (vedi anche link in fondo) , condotto dall’Università Statale di Milano e coordinato da Caterina La Porta, docente di Patologia generale del dipartimento di Scienze e Politiche Ambientali e Stefano Bocchi, docente di Agronomia dello stesso dipartimento, ha valutato la presenza di erbicidi e insetticidi in fiumi e acque sotterranee della Lombardia. I risultati, anche stavolta, non sono certo confortanti e mostrano un livello di inquinamento da pesticidi molto alto.

Nelle acque lombarde (soprattutto quelle superficiali), infatti, vi è una grande presenza di sostanze “chimiche”, in particolare di glifosato e Ampa (metabolita che deriva dalla trasformazione microbica  dell’erbicida anche se dobbiamo ricordare che l’AMPA può derivare anche da altre fonti).

Lo scopo dello studio pubblicato su Scientific Reports però non rivolgeva l’attenzione solamente al glifosato, ma si prefiggeva di valutare gli effetti del mix di queste sostanze sull’ambiente, quello che è ormai noto come “effetto cocktail”. 

In merito al quale i ricercatori scrivono: Anche se un singolo pesticida potrebbe essere allo stesso tempo efficace e sicuro a una concentrazione sufficientemente bassa, oggi la questione principale è l’impatto dell’accumulo di più pesticidi nell’ambiente, considerando l’intero ecosistema e inclusi gli esseri umani.

Spesso insieme al glifosato, soprattutto nelle acque delle aree agricole, si trovano anche altri erbicidi come Terbutilazina, Bentazon, il 2,4-Diclorofenolo (intermedio di produzione di erbicidi) e Metolaclor (erbicida).

I risultati di questo studio hanno mostrato che l’esposizione per 7 giorni a un mix di inquinanti di questo genere è in grado di provocare problemi sulla crescita e sulla conformazione morfologica dell’alga C.Reinhardtii utilizzata come biosensore.

Il monitoraggio non ha preso in esame l’acqua che esce dal rubinetto ma quella dei corpi idrici.  Nella filiera di trattamento delle acque destinate al consumo umano, sono previsti sistemi di abbattimento e depurazione per poter immettere nel rubinetto acqua a norma. Questo perché i corpi idrici superficiali e sotterranei sono sempre più vulnerabili al cocktail di molecole definite come inquinanti emergenti.

Le aziende che gestiscono il ciclo idrico integrato perseguono una politica volta a implementare controlli e trattamenti adeguati per i nuovi inquinanti. Tra questi ad esempio il “water safety plan”.

Il 12 dicembre 2020 il parlamento europeo ha approvato in via definitiva la nuova direttiva sulle acque potabili (DIRETTIVA (UE) 2020/2184), la prima legislazione europea adottata in seguito a una mobilitazione dei cittadini, la campagna Right2Water del 2013. Per consentire e incoraggiare le persone a bere l’acqua del rubinetto piuttosto che l’acqua in bottiglia, la qualità dell’acqua sarà migliorata imponendo limiti più severi per alcuni inquinanti, tra cui il piombo. Entro l’inizio del 2022, la Commissione redigerà e monitorerà un elenco di sostanze o composti. Tra queste vi saranno i prodotti farmaceutici, i composti che alterano il sistema endocrino e le microplastiche.

Il problema però rimane aperto per quanto riguarda le acque superficiali. Ed è un problema che dovrebbe indurre a riflessioni importanti.

L’interesse verso la presenza di contaminanti emergenti risale  al famoso libro pubblicato da Rachel Carson nel 1962, Silent Spring, che mostrò come l’uso eccessivo di DDT e fitofarmaci avesse portato alla morte di molte specie, tra cui anche quelle che solitamente accompagnavano con il loro canto i mesi primaverili (da cui il titolo che voleva sottolineare come la primavera fosse diventata silenziosa).

E’ giusto precisare che l’inquinamento dovuto da un utilizzo eccessivo di prodotti fitosanitari può provocare una profonda alterazione dei suoli, ma anche altri fattori concorrono alla perdita di biodiversità. Per esempio il cambiamento climatico, e l’introduzione di specie alloctone.

 Sull’effetto della presenza diffusa di molecole di sintesi (nel senso di molecole non esistenti in natura e dunque ragionevolmente mancanti di meccanismi di depurazione naturali) nell’ambiente, occorre senza dubbio un attento lavoro di ricerca e di studio. Che data la complessità e l’importanza del tema, non potrà che essere multidisciplinare. Ma sul quale, come per altri problemi ambientali, non possiamo perdere troppo tempo.

Una nota finale è sulle quantità; ci sono molte altre molecole di sintesi che arrivano nei depuratori, farmaci umani per esempio o anche veterinari, (un buon esempio è il diclofenac un comune antinfiammatorio che ha effetti micidiali su alcuni uccelli); anche su questi i depuratori possono poco al momento, dovremo adattarli, ma considerate che il diclofenac viene prodotto in quantità che sono 400 volte inferiori al glifosato, 2400 ton/anno contro 1 milione in tutto il mondo.

Il lavoro di adeguamento degli impianti di trattamento delle acque reflue è iniziato già da tempo. Il percorso decennale che ha portato alla costituzione delle aziende di gestione del ciclo idrico, a livello di ambito provinciale, permette lo sblocco di investimenti  attesi e non più rimandabili. Per quanto riguarda  l’ambito provinciale di Varese  53 milioni nel quinquennio 2021-2025 sono destinati all’adeguamento tecnologico degli impianti di trattamento delle acque reflue già esistenti. Le tecnologie di abbattimento a livello di trattamento definito “terziario”, sono ormai tecnologie mature.  Il lavoro di depurazione deve essere completato in maniera più completa possibile, a monte del corpo idrico ricettore, diminuendo il carico di inquinanti che possano interferire con l’equilibrio ecologico dei corpi idrici. Una rivoluzione concettuale e progettuale, rispetto a quanto avveniva in passato quando si lasciava fare una parte del lavoro di rimozione degli inquinanti ai meccanismi di autodepurazione naturali.  Ma questa scelta mostrava già da tempo criticità importanti, legate al modificato regime delle precipitazioni idriche, alla riduzione dei ghiacciai alpini. Fenomeni che hanno impatti significativi sulle portate dei principali fiumi italiani. E che nei casi più gravi hanno provocato anche fenomeni di mancanza totale di acqua, come nel caso del Lambro nel 2015.

Link per approfondimento

https://www.nature.com/articles/s41598-021-93321-6#Fig2

Acqua torrenziale e siccità.

In evidenza

Luigi Campanella, già Presidente SCI

Dinnanzi alle piogge torrenziali di questi giorni ed alla siccità generale denunciata dai nostri agricoltori con i pericoli di incendi e di colture definitivamente spente un pensiero viene spontaneo: perché non si può utilizzare l’acqua che viene dal cielo per sopperire alle carenze di questa preziosa risorsa?

Riflettendo sulla situazione della presente estate nella quale abbiamo avuto un quinto del Paese sotto il diluvio ed i rimanenti 4 quinti nella morsa dell’aridità estrema nasce evidente la necessità di moltiplicare in tutte le nostre colline e montagne un cospicuo numero di piccoli e medi invasi  dedicati a trattenere l’acqua.

https://www.inmeteo.net/2021/08/05/siccita-estrema-in-italia-pioggia-latitante-da-mesi-in-molte-regioni/

Quanto più una risorsa è preziosa tanto più se ne rende fondamentale un uso sostenibile e sociale. Quando si affronta questo problema si finisce per parlare di risparmio, di uso intelligente dell’acqua, di sistemi di distribuzione colabrodo con conseguenti perdite, di riciclo, ma difficilmente si sente parlare di raccolta dell’acqua piovana e del suo successivo impiego. Il lago artificiale usato per immagazzinare una certa quantità d’acqua è creato, di solito, attraverso la costruzione di una diga che sbarra un corso d’acqua. Quando l’invaso è localizzato in zone montuose, l’acqua è contenuta dai lati della valle, mentre la diga è posizionata di solito nel punto più basso e più stretto sí da minimizzare il costo di costruzione. In zone collinari gli invasi sono a volte ricavati aumentando la capacità di laghi naturali già presenti.

Gli invasi possono essere ricavati anche  all’interno di fiumi, in zone pianeggianti; in questo caso una parte del volume è ottenuta per escavazione e l’altra attraverso la costruzione di argini. Gli invasi possono essere realizzati per differenti scopi, quali ad esempio: idroelettrico, irriguo, di produzione di acqua potabile, di controllo delle piene (le cosiddette casse di espansione). In un invaso a scopo idroelettrico l’acqua contenuta viene convogliata attraverso un sistema di tubazioni in alcune turbine.Il sistema idroelettrico è stato alla base della nostra industrializzazione tanto da rappresentare il 90% dell’elettricità nel periodo di boom economico. Oggi vale molto di meno, circa il 20%, per motivi diversi: invecchiamento degli impianti, nuove forme di energia, incertezze normative.

In corrispondenza di una caduta dei grandi invasi, a partire da ENEL, c’è invece una crescita dei piccoli basati su corsi di fiumi e torrenti che forse meritano una maggiore attenzione e per i quali è auspicabile un sostegno nell’ambito del PNRR(Piano Nazionale di Ripresa e Resilienza). La loro modesta potenza non risolve certamente il problema dell’energia pulita, ma ne permette uno sviluppo con investimenti che necessitano di contributi meno rilevanti di quelli degli impianti eolici. Siamo giustamente preoccupati per gli andamenti climatici sempre più estremi e sempre più altrettanto giustamente si invocano cambiamenti di stili di vita, ma si dimenticano una seria di altri importanti azioni.

26 e 27 luglio grandinate sul nord Italia.

https://www.ilmeteo.it/notizie/meteo-cronaca-nord-italia-travolto-da-nubifragi-frane-grandine-e-alluvioni-lampo-ancora-allerta-154137

Quella sugli invasi è una di queste eppure se correttamente sviluppata potrebbe rappresentare una efficace difesa. Un problema può essere rappresentato dalla recente liberalizzazione del settore adottata nel nostro Paese e dalla contemporanea norma sulla riduzione dei tempi delle concessioni che sconsigliano gli attuali acquirenti, Regioni incluse: questo significa puntare su imprese straniere che vogliano investire. Infine c’è il problema dell’abbandono delle campagne e delle colline proprio per l’assenza di una politica di sostegno anche relativa agli invasi: oggi le cause di quelle fughe sono anche ascrivibili all’abbandono degli invasi che ha portato ad una drammatica riduzione della produttività agricola. La mancanza d’acqua è la prima causa della morte della nostra montagna e della nostra collina.

Rimanendo al tema acqua voglio segnalare la moltiplicazione delle indicazioni “acqua non potabile” che ho personalmente rilevato anche lungo sentieri di montagna che di certo non possono giustificare tale raccomandazione. La burocrazia e le incertezze normative sulle responsabilità spingono gli amministratori locali verso una condotta di deresponsabilizzazione: meglio un cartello che procedere a controlli adeguati!!

Ma le cellule sono cariche o no? (parte 2)

In evidenza

Claudio Della Volpe

la prima parte di questo post è stata pubblicata qui.

Trasferiamoci adesso nel contesto delle soluzioni e delle cellule e ragioniamo in modo quasi analogo.

Vi consiglio la lettura di una pagina dedicata a questo tema:

http://book.bionumbers.org/what-is-the-electric-potential-difference-across-membranes/

Table 1: Differenza di potenziale elettrico su una gamma di membrane biologiche. I valori negativi indicano che il compartimento esterno è più positivo del compartimento interno. pmf è la forza motrice protonica totale che include l'effetto del pH. Quando il pH del mezzo cambia, il potenziale elettrico degli organismi unicellulari tende a cambiare in modo tale che il pmf rimane nell'intervallo da -100 a -200 mV.
 

La tabella qui riportata vi mostra i tipici potenziali presenti fra l’interno e l’esterno della cellula considerata, siamo attorno a un decimo di volt. Una cellula ha un potenziale elettrico più negativo dell’ambiente esterno di circa 100mV; ma quante cariche negative, se ce ne sono, sono in eccesso all’interno e all’esterno?

Notate che in realtà anche all’interno della cellula ci sono zone con diverso potenziale elettrico; i mitocondri, che sono gli organelli che aiutano la cellula a respirare e produrre energia, hanno una loro membrana ed una differenza di potenziale interno/esterno addirittura di -170mV. Questo ci obbliga a considerare che l’ambiente cellulare è più complesso di quello della giunzione p-n perché la sua geometria non è planare; inoltre la struttura è molto più complessa poiché prevede che ci siano delle “pompe” molecolari, installate lungo la membrana,  che sono in grado di esercitare una azione bidirezionale sul flusso di cariche controllando il  flusso delle cariche .

Tuttavia anche qui è necessario il modello elettrochimico del funzionamento, non ci sono solo grandezze elettriche ma anche grandezze chimiche ed il potenziale in gioco è un potenziale elettrochimico, non banalmente elettrico.

Nel caso della giunzione p-n nei solidi le cariche in moto sono elettroniche, elettroni (o buche) che diffondono velocemente e sono tutte uguali; qui invece non abbiamo elettroni liberi, abbiamo ioni di tipo diverso anche con cariche multiple, diversa diffusività, abbiamo un solvente che si può ionizzare e pompe molecolari specifiche, insomma una situazione molto più complessa.

In entrambi i casi vale ancora la elettroneutralità e il bilancio all’equilibrio fra la tendenza a diffondere dei vari ioni e l’attrazione elettrica fra le varie cariche; all’equilibrio la tendenza a diffondere degli ioni si bilancia col campo elettrico prodotto, come nel caso della giunzione p-n.

Nel funzionamento cellulare dobbiamo considerare anche l’attività delle pompe ioniche che sono attivate da molecole che trasportano pacchetti energetici, ATP e dagli onnipresenti “protoni”, anche se in realtà protoni liberi non ce ne sono, ma ci sono cluster di acqua che accettano volentieri i protoni liberi la cui esistenza è praticamente nulla; quando si parla di protoni in soluzione acquosa dunque si deve intendere cluster di molecole d’acqua con un protone eccesso, che grazie all’effetto Grotthus, che è di fatti un meccanismo quanto meccanico, può spostarsi velocemente nel cluster e in soluzione, circa 5-10 volte più velocemente di qualunque altro ione eccetto lo ione idrossido.

Il gradiente di concentrazione dei protoni che tendono a diffondere contro di esso è uno dei più comuni modi di produrre ATP e dunque altre molecole o generare altri processi diffusivi.

Questo avviene perché una differenza di pH tra due compartimenti legati alla membrana aggiunge 60 mV per differenza di unità di pH alla forza motrice complessiva per il trasporto di protoni. 
La somma di termini elettrici e di differenza di concentrazione è la cosiddetta forza protone-motrice, fondamentale per il funzionamento della maggior parte delle trasformazioni energetiche ancorate alla membrana, ad esempio nei cloroplasti. 
Avendo i potenziali si possono fare delle stime di energia associata ricordando che il prodotto (carica x differenza di potenziale, qV) è una energia. Dato che un singolo protone o elettrone ha una carica di ±1,6 x 10-19 coulomb il trasporto di una di queste cariche contro o a favore di una differenza di potenziale di 100mV converte un'energia in Joule di 1,6 x 10-20 J. 

Una domanda ancora più interessante è quella che ci siamo posti in principio; ossia quale carica elettrica in eccesso, se c’è, si trova fra i due lati della membrana biologica?

Per rispondere a tale domanda possiamo usare lo stesso metodo usato prima nel caso della giunzione p-n e che è espresso dalla seguente figura:

Figure 1: Schema di calcolo di quanti protoni sarebbero necessari per costruire la differenza di tensione della membrana se fosse fatta completamente attraverso il trasporto di protoni.

Ovviamente occorre considerare che la membrana si comporti come un condensatore, che le cariche in gioco siano sempre elementari, per esempio protoni, che la costante dielettrica della membrana in questo caso è solo 2; inoltre conosciamo le dimensioni della cellula, la sua superficie che si può stimare di alcuni micron quadrati e il suo spessore che adesso è solo pochi nanometri. Il risultato è che in una cellula di queste dimensioni (circa 1 micron cubico, 1.2 micron di diametro, molto piccola) bastano 10mila protoni o cariche elementari in eccesso su un lato.

Possiamo ancora stimare la frazione di cariche eccesso considerando per esempio quanti siano gli ioni in un tale spazio; la concentrazione tipica è dell’ordine di 100 mM e dunque dato che 1 litro è 1015 micron cubici nella cellulina da 1 micron ci sono dentro 108 ioni. Come abbiamo detto l’eccesso diventa allora solo 1/10millesimo del totale di cariche oppure stimando molto alla raffa gli atomi esistenti nella stessa cellula nell’ordine di 1/1000000 degli atomi totali; dunque una situazione in cui l’eccesso di cariche è veramente piccolo sia pure maggiore di quello esistente nel caso di una giunzione p-n.

La conclusione è che l’approssimazione di Nernst dell’elettroneutralità è una buona approssimazione e che l’analisi del comportamento dei sistemi elettrochimici o biologici dovrebbe essere condotto sempre tenendo conto della sua validità. Le cariche nette non sono il modello giusto, anche se un piccolo eccesso può esistere localmente nei sistemi che abbiamo considerato.

Da consultare oltre i due lavori citati nel testo sul tema dell’elettroneutralità:
1) Encyclopedia of Computational Neuroscience
DOI 10.1007/978-1-4614-7320-6_32-1  Springer Science+Business Media New York 2014  Capacitance, Membrane Jorge Golowasch* and Farzan Nadim

2) J Solid State Electrochem (2011) 15:1335–1345 DOI 10.1007/s10008-011-1323-x  – The electroneutrality approximation in electrochemistry  – Edmund J. F. Dickinson · Juan G. Limon-Petersen · Richard G. Compton

3) AM. ZOOLOCIST 10:347-354 (1970). The Origin of Bioelectrical Potentials in Plant and Animal Cells   JOHN GCTKNECHT

Ma le cellule sono cariche o no?(parte 1)

In evidenza

Claudio Della Volpe

Dopo vent’anni di insegnamento di elettrochimica in varie salse (da elettrochimica per chimici a elettrochimica per ingegneri dei materiali ad accumulo e conversione elettrochimica dell’energia per ingegneri energetici) credo di poter trarre il succo dicendo che ci sono due concetti veramente duri da assimilare per gli studenti: il potenziale chimico/elettrochimico e l’elettroneutralità.

Del primo ho scritto già in questo blog (una lista di post in fondo) e mi avvio a fare un commento sul secondo, ponendomi e ponendovi una domanda: ma le cellule viventi sono cariche elettricamente o no?

Una domanda del genere rischia di risvegliare i fantasmi delle teorie galvaniane!

Ma non è questo il mio scopo; al contrario è comune leggere anche parlando di celle elettrochimiche che dato che c’è una differenza di potenziale allora c’è una separazione di cariche.

Ora questa secondo me è sostanzialmente una sciocchezza; occorre sempre verificare se la separazione si verifichi o meno. E’ vero che se c’è una separazione di cariche allora c’è una differenza di potenziale, ma non è vero il contrario, ossia che se c’è una differenza di potenziale (elettrico) allora c’è per forza una separazione di cariche.

Gli elettroni che si muovono lungo un filo metallico si muovono lungo un campo elettrico verso potenziali più positivi, ma non sono respinti o attratti da un accumulo di cariche. Il filo è privo di accumuli di cariche nette lungo il suo percorso.

Il potenziale elettrico è l’energia per unità di carica e dunque ciò che ci dice una differenza di potenziale elettrico è che l’energia potenziale di due cariche o di due punti di un campo sono diversi, una maggiore dell’altra, ma non che ci siano più o meno cariche separate.  Tuttavia questo non esclude che ci possano essere cariche in eccesso, ma saranno in genere un numero molto molto basso a causa del secondo fenomeno, l’elettroneutralità

La cosiddetta ipotesi di elettroneutralità è stata introdotta nel 1889 da Nernst (Nernst W (1889) Die elektromotorische Wirksamkeit der Jonen. Z Phys Chem 4:129–181 ).

Nel par. 2 p. 133 dice: Poiché all'interno delle soluzioni non può esistere elettricità libera (almeno non in misura tale da essere solo lontanamente comparabile con la quantità totale di elettricità + e - legata agli ioni), deve valere la condizione
 
(riscritta da me con simboli moderni, dove le C sono le concentrazioni degli ioni iesimi e le z le cariche dei medesimi). Nernst si esprime in termini di "pressioni parziali" degli ioni che modernamente equivarrebbero alle attività e che ho approssimato con le concentrazioni.

L’idea base è che in soluzione (o comunque in fase condensata, aggiungeremmo oggi) non possano esercitarsi spontaneamente forze che porterebbero su distanze macroscopiche alla separazione di cariche elettriche.

Se applicate la legge di Coulomb a due cariche opposte di una femtomole, poste a distanza di  1 micron, ve ne rendete subito conto: fra di loro si eserciterebbe una forza di 100 N (10kg)!!

Una conferma della tipologia di forze che si esercitano in queste condizioni è data dalle variazioni geometriche e meccaniche che si ottengono cambiando il campo elettrico in una giunzione p-n, ossia in una condizione che riproduce l’esperimento originale di Volta ma in una coppia di semiconduttori dopati in modo opposto; le giunzioni p-n sono oggi la base della tecnologia elettronica, costituendo l’essenziale dei transistor, delle celle fotovoltaiche, ma anche dei LED. All’interfaccia fra la fase p e la fase n si forma una cosiddetta regione di deplezione, dell’ordine del micron ai cui estremi è presente un piccolo eccesso di cariche opposte, che determina una barriera di potenziale. Questo fenomeno si spiega per l’azione del diverso potenziale chimico dell’elettrone, ossia della tendenza a sfuggire o se volete, più banalmente, della concentrazione di elettroni “liberi”, di conduzione. Essi si sposteranno dal lato n, più ricco di elettroni di conduzione, al lato p, lasciando il lato n carico positivamente e caricando il lato p negativamente. Le forze di attrazione elettriche si oppongono a tale flusso e lo bloccano ad una distanza appunto di circa un micrometro. Questa barriera di potenziale permette sia il funzionamento delle celle FV, sia dei transistors che dei LED.

Di cosa parliamo quantitativamente?

Queste cariche generano un campo elettrico inferiore al volt (0.3-0.6V) ed esercitano anche uno sforzo meccanico sui materiali a contatto e reciprocamente, tramite un campo elettrico applicato, si possono far variare le distanze fra i due materiali p ed n costruendo così un nanoattuatore (Kanygin, M., Joy, A.P. & Bahreyni, B. Localized Mechanical Actuation using pn Junctions. Sci Rep 9, 14885 (2019). https://doi.org/10.1038/s41598-019-49988-z), senza la necessità di usare materiali piezoelettrici.

Comodo no? Il lavoro che vi cito dimostra che il fenomeno si comporta in modo elastico; usando un campo variabile potete far oscillare la giunzione a frequenze dell’ordine dei kHz espandendola e contraendola di qualche centinaio di picometri, diciamo l’1/1000 della zona di deplezione che è stimata a 0.3 micrometri.

La struttura e l’andamento del campo elettrico nella giunzione p-n.

Come si sa il lato p è dopato con circa un atomo per milione di boro e il lato n con circa un atomo per milione di fosforo, creando in tal modo un gradiente artificiale di elettroni di conduzione, “liberi”.

Il modulo di Young del silicio usato in questo esperimento è di 169 GPa e le misure portano ad un effetto di variazione dimensionale di qualche picometro per ogni volt di differenza di potenziale aggiuntiva.

Quale è la carica elettrica netta che si accumula agli estremi di questa sorta di condensatore? E’ un condensatore particolare poiché le armature sono solo zone di materiale ai bordi della deplezione.

Possiamo stimarla usando la formula della capacità per un condensatore a facce piane, ricordando che la permittività elettrica relativa del silicio è 12; avremo dunque

C = ε A / D

dove la costante ε è il prodotto della permittività del vuoto per quella relativa del siilicio ; su un metro quadro di superficie avremmo

C=12*8,854187817 × 10−12 [C]2[m]−2[N]−1*1m2/10-6m

Stiamo dunque parlando di una capacità di 10-4 farad, che si può anche esprimere come dQ/dV, una carica per unità di potenziale, per volt, che tenendo conto delle proprietà misurate nell’esperimento di Kanygin o di quelle medie di una giunzione (<1V) corrispondono a circa un decimillesimo di coulomb o un miliardesimo di Faraday per metro quadro.

In sostanza tenendo conto del volume della zona di deplezione e della densità del silicio parliamo di una carica elementare ogni 100 milioni di atomi presenti. (E comunque il numero di cariche di segno opposto è uguale.)

Vedete voi stessi che si tratta di quantità molto piccole, a conferma che l’ipotesi di Nernst vale non solo in soluzione ma anche nei solidi, e in genere nelle fasi condensate.

(continua)

Post sul potenziale chimico:

Informazione e conoscenza.

In evidenza

Luigi Campanella, già Presidente SCI

È oggetto di riflessione e sempre più si legge circa la necessità che la cultura umanistica ritrovi fiducia in se stessa e si metta in grado di competere per il primato con quella scientifica che oggi lo detiene.

La riflessione richiesta deriva dal fatto che per decenni abbiamo lamentato nel nostro Paese esattamente il contrario: una scarsa attenzione alla cultura scientifica, storicamente da giustificare con la grandezza di personaggi come Raffaello, Michelangelo, Leonardo, Giotto, Tiziano complessivamente depositari del  primato dell’arte.

Kant si chiedeva cosa posso sapere e cosa posso sperare: forse alla base di questa inversione di tendenza che sorprende ci sono proprio queste due domande. Per molto tempo ci siamo chiesti cosa potevamo sapere del mondo che ci circondava e la risposta non poteva venire che dalla scienza. Oggi che di certo di risposte ne abbiamo avute tante dalla informazione planetaria ed universale- anche se non sempre corredata da reale conoscenza- si guarda avanti e questo richiede non solo dati ma elaborazione che si affida alla ragione capace di porre ciascuno di noi di fronte al mondo, chiedendo perché e cercando significati per i dati acquisiti.

Lucas Cranach il Vecchio, Adamo ed Eva in Paradiso.

Proprio attraverso questa elaborazione ciascuno di noi si collega alla società e diviene componente di un sistema. Al contrario della natura dove tutto è interconnesso (aria, acqua, suolo) ed ogni cosa è legata a tutte le altre, la nostra società consumistica invece costruisce i propri messaggi puntando l’attenzione sull’io, sull’individuo: dobbiamo invece concepire per ciascuno di noi una collocazione sistemica e questa è la risposta alla seconda domanda di Kant perché quello che possiamo sperare non può dipendere dal singolo ma dalla comunità di cui fa parte. Collegato a quanto detto è il rapporto fra Fisica Matematica ed anche Chimica da una parte e Filosofia dall’altra. Il processo di correlazione ha subito un iter molto simile a quello delle cosiddette 2 facce della cultura, ma con andamenti alternati simili.

Oggi come si invoca un riposizionamento della cultura umanistica si chiede anche che Fisica e Filosofia tornino ad incontrarsi: questo avverrà-e ci colleghiamo a quanto detto sopra-quando la distinzione fra informazione e conoscenza con il ridimensionamento di quella e l’amore per questa, sarà consolidata e la confusione tra esse definitivamente superata. Tale confusione è stata di certo favorita proprio dalla disarticolazione culturale e sapienzale.

Non voglio chiudere questa riflessione senza un riferimento alla teologia. La scissione fra scienza da una parte e filosofia e teologia è probabilmente il frutto del nostro stesso modo di pensare con la distinzione fra intelletto e ragione: piu c’é coesione ed armonia fra essi, più l’essere umano è completo, pronto a  quelle integrazioni sociali e culturali di cui ho parlato e di cui va ribadita la necessità. La religione diviene all’interno di questo dibattito un possibile arricchimento personale. Da chimico sono convinto che la nostra disciplina, al centro della quale c’è di certo la creatività e il prevalente carattere induttivo della conoscenza, può dare un grande contributo come processo logico di sintesi.

Ci rimane solo l’adattamento.

In evidenza

Claudio Della Volpe

https://www.economist.com/leaders/2021/07/24/a-3degc-world-has-no-safe-place

Si è appena chiuso il G20 di Napoli sul clima e si è chiuso male; è vero che il comunicato finale è stato proposto come una vittoria, ma la realtà è che due articoli chiave sono stati esclusi.

Il ministro per la Transizione ecologica, Roberto Cingolani al termine di un negoziato che come previsto è “stato molto lungo e intenso” ha dichiarato che un accordo era stato raggiunto, ma ahimè per lui esclude le cose di sostanza.

Anche Cingolani riconosce che “Su 60 articoli due sono stati estratti perché non è stato possibile trovare l’accordo quindi alcuni punti sono stati rinviati ai livelli di decisione politica più alta del G20 dei capi di Stato: oggettivamente è stato un ottimo risultato“.

L’ultima frase è del tutto sballata. Perché?

I due punti su cui non si è raggiunto l’accordo sono

  1. sulla decisione di rimanere sotto 1,5 gradi di riscaldamento globale al 2030
  2.  sull’eliminare il carbone dalla produzione energetica entro il 2025.

A differenza di Cingolani che non può che fare buon viso la grande stampa mondiale non ha peli sulla lingua; l’Economist scrive chiaramente che non ci rimane che l’adattamento perché la mitigazione non è passata. Il titolo che leggete nella figura di apertura è: Non ci sono posti sicuri in un mondo a +3°C rispetto al passato prossimo.

D’altronde i fenomeni estremi verificatisi negli ultimi tempi, partendo dagli incendi australiani e finendo alle tragiche alluvioni tedesche i cui effetti mortali non sono stati ancora quantificati con precisione confermano che nessun emisfero e nessun continente è sicuro nemmeno ora.

Il motivo del disaccordo è che i paesi come India e Cina che rappresentano 3/8 dell’umanità e oggi anche una frazione significativa della produzione mondiale in tutti i settori non hanno accettato condizioni che potrebbero mettere a rischio la loro crescita economica; mentre i 7-8 paesi più industrializzati spingono per una transizione forte e rapida in termini energetici, ma che metterebbe a rischio  le quote di mercato di Cina ed India e a loro volta non sono intenzionati a nessun tipo di aiuto o cessione di diritti.

Il problema appare di non facile soluzione; troppo facile o perfino ipocrita dire che adesso gli inquinatori sono cinesi o indiani quando poi buona parte di quelle economie produce per noi dei paesi ricchi e i gas serra ivi prodotti sono un nostro carico.

Perché le aziende occidentali esternalizzano in paesi che vanno a carbone, hanno un costo del lavoro più basso e nessun controllo sull’inquinamento ambientale? Perché non producono qui, recuperando posti di lavoro?

Il G20 non è una COP, una conference of parties, ma di fatto mostra gli stessi problemi sociali e politici già presenti in tutte le discussioni mondiali sul clima e finora non risolte; nel frattempo le cose peggiorano.

Scultura di Issac Cordal a Berlino intitolata: ′′ Politici che discutono del riscaldamento globale.”

Aptameri: cosa sono e a cosa servono.

In evidenza

Claudio Della Volpe

Per carità solo una brevissima introduzione a questo “nuovo” tipo di molecole (hanno già trent’anni in realtà); che noi chimici chiameremmo volentieri “oligopeptidi e oligonucleotidi mirati”. L’uovo di colombo in un certo senso.

Ma il nuovo termine introduce il concetto (dal latino aptus) che ha uno scopo, che serve ad uno scopo, meglio ancora che si adatta ad uno scopo, che si adatta ad una proteina preesistente o ad un pezzo di acido nucleico preesistente e ne modifica il comportamento: mi ricorda molto una sorta di “anticorpo monoclonale” sintetico per dirla in modo semplice, ma non è poi proprio così.

Il termine aptamer (dal latino apto, che significa appunto “adattarsi”) per questi ligandi quando sono a base di acidi nucleici fu coniato nel laboratorio diretto da J. W Szostak (Harvard) premio Nobel per la medicina nel 2009 insieme a Elizabeth Blackburn e a Carol W. Greider per i  loro studi su come i cromosomi sono protetti dai telomeri e dall’enzima telomerasi.

Probabilmente il primo a pensare ad una cosa del genere (per i nucleotidi) è stato Sol Spiegelman un biologo di New York convertito alla matematica e poi alla biologia molecolare.

Gli aptameri hanno una capacità innata di legarsi a qualsiasi molecola verso la quale abbiano affinità di legame, comprese quelle esistenti sulle cellule tumorali e i batteri.

Una volta legati a un bersaglio, gli aptameri possono agire come agonisti o antagonisti. Gli aptameri soffrono di problemi che ne limitano l’efficacia: in particolare sono facilmente digeribili in vivo dagli enzimi che attaccano gli oligonucleotidi o i peptidi. (fra parentesi questa solo relativa stabilità degli oligonucleotidi è uno dei problemi dei vaccini ad mRNA; ad onta delle cavolate dei no-vax sulla capacità di tali molecole di retrotrascriversi nel DNA, un processo che non è possibile se non in tessuti e contesti molto limitati; su questo ho trovato un bellissimo post qui).

Nel caso dei peptidi l’idea fu sviluppata da R. Brent (Nature. 1996;380:548–550).

ora ad Harvard  (e marito della vincitrice del Nobel  2004 per la medicina per i suoi studi sui recettori olfattivi). In quel caso Brent introdusse l’idea di una breve sequenza di amminoacidi incorporata ("doppio vincolo") nel contesto di uno scheletro proteico piccolo e molto stabile (lo "scaffold").

Per quanto riguarda il modo di determinare la struttura specifica dell’oligomero nucleotidico occorre ricordare che la nozione di selezione in vitro è stata preceduta più di vent’anni prima, quando Sol Spiegelman ha utilizzato un sistema di replicazione Qbeta come un modo per evolvere una molecola autoreplicante. Inoltre, un anno prima della pubblicazione della selezione in vitro e di SELEX, Gerald Joyce utilizzò un sistema che chiamò “evoluzione diretta” per alterare l’attività di scissione di un ribozima.

Dalla scoperta degli aptameri, molti ricercatori hanno utilizzato la selezione degli aptameri come mezzo sia applicativo che scientifico. Nel 2001, il processo di selezione in vitro è stato automatizzato da J. Colin Cox nel laboratorio Ellington dell'Università del Texas ad Austin, riducendo la durata di un esperimento di selezione da sei settimane a tre giorni.
Nel 1990, due laboratori hanno sviluppato indipendentemente la tecnica di selezione: il Gold lab, utilizzando il termine SELEX per il loro processo di selezione dei ligandi dell'RNA contro la DNA polimerasi T4; e il laboratorio Szostak, coniando il termine selezione in vitro, selezionando ligandi di RNA contro vari coloranti organici. Due anni dopo, il laboratorio Szostak e Gilead Sciences, indipendentemente l'uno dall'altro, hanno utilizzato schemi di selezione in vitro per sviluppare ligandi di DNA a singolo filamento per coloranti organici e coagulante umano, trombina (i cosiddetti aptameri antitrombina), rispettivamente. Non sembrano esserci differenze sistematiche tra aptameri di RNA e DNA, salvo la maggiore stabilità chimica intrinseca del DNA.
Per gli aptameri peptidici le tecniche di selezione sono ovviamente diverse e forse più complesse  e meno automatizzabili; non mi addentro nel problema.

https://en.wikipedia.org/wiki/Aptamer

Quali applicazioni per gli aptameri?

Tre esempi veloci ne svelano le enormi possibilità:

https://www.georgofili.it/Media?c=b570baf3-7dda-4f6f-ad23-3acabf7edb72

Un primo aspetto è lo sviluppo di fitofarmaci innovativi, a basso impatto ambientale e ridotta tossicità come nel seguente lavoro di M. Colombo, S. Masiero, S. Vezzulli, P. Pesaresi che lavorano presso il Centro Ricerca ed Innovazione, Fondazione Edmund Mach a S. Michele all’Adige (dalle mie parti) e al  Dipartimento di Bioscienze di Milano ; questi colleghi hanno sviluppato una applicazione di aptameri peptidici che sono individuati e testati sulla base della loro affinità e specificità per proteine vitali per un certo patogeno. Secondo loro l’utilizzo di questa tecnologia consente lo sviluppo di principi attivi che hanno un alto livello di specificità e ridotti rischi di insuccesso, sono dotati di una buona precisione nel colpire solo il bersaglio designato, e  minimizzano i possibili effetti indesiderati su organismi non target. In particolare hanno messo a punto un aptamero peptidico, chiamato NoPv1 (No P. viticola 1), in grado di inibire la crescita di P. viticola su vite e dotato di ottime proprietà di attività, specificità e tossicità. L’aptamero NoPv1 ha infatti dimostrato di essere altamente efficace a dosi molto basse, non essere citotossico per le cellule umane, non essere tossico per le foglie di vite ed essere innocuo su organismi non target, quali batteri del suolo (Agrobacterium tumefaciens, Bacillus amyloliquefaciens) ed Erysiphe necator, agente causale dell’oidio della vite.  Dunque un ottimo sostituto sia per i pesticidi di sintesi che per il solfato di rame (o la poltiglia bordolese usato in biologica)

http://www.scienzaegoverno.org/sites/default/files/file_attach/BiosensoriEnea.pdf

Un secondo esempio sviluppato dai colleghi del centro CNR de La Casaccia  (F. Vitali e collaboratori) è stato lo sviluppo di un biosensore qcm  (quartz crystal microbalance) per la determinazione dell’ aflatossina b1 mediante un saggio sandwich aptamero-anticorpo

Come si vede dal grafico il sensore QCM è in grado di determinare con elevatissima specificità bassissime dosi di aflatossina B1.

Qui invece abbiamo un caso di possibile terapia antitumorale schematizzata nell’immagine che è diventata una invenzione concreta, il cui brevetto è detenuto anche dal CNR (CNR, Beth Israel Deaconess Medical Center, National University of Singapore ) contatto italiano Vittorio de Franciscis (amico di battaglie sessantottine a Napoli e che ritrovo per puro caso qui, ciao Vittorio! se leggi mai questo post)

Inconfondibile profilo di Vittorio de Franciscis.

Gli inventori hanno isolato aptameri ad RNA anti-DNMT1 (DNMT1 è l’enzima responsabile della metilazione del DNA, dunque strettamente correlato allo sviluppo di tumori) capaci di inibizione altamente specifica della metilazione del DNA, alta stabilità, e riduzione della vitalità cellulare, dimostrandosi efficaci ed innovativi per il trattamento del cancro, eventualmente anche inseriti in apposite nanostrutture per veicolare in maniera specifica prodotti antitumorali.

Le promesse erano già vent’anni fa e sono rimaste enormi  in tutti i campi ma, come spesso accade, si tratta di tecniche nuove e da sperimentare con attenzione per evitare di introdurre strumenti potentissimi ma poco gestibili.

Esistono diversi studi preclinici con aptameri non modificati, ma la stragrande maggioranza degli studi sugli aptameri nucleotidici nell’uomo è stata condotta con aptameri modificati, poiché gli aptameri non modificati dimostrano instabilità metabolica, nonché rapida filtrazione ed eliminazione renale. A parte la modifica chimica dei nucleotidi per stabilizzarli contro la degradazione della nucleasi, la principale modifica per prolungare l’emivita è la pegilazione (il processo di legame covalente della catena polimerica del Glicole polietilenico (PEG) ad un’altra molecola, il PEG è uno dei pochissimi polimeri che sono stabili e sicuri nel corpo umano) un termine che è divenuto più conosciuto al grande pubblico perché questa tecnica di stabilizzazione è stata usata pure nei vaccini anticovid ad mRNA.

Mi fermo qua perché non è assolutamente il mio settore ma se qualcuno volesse cimentarsi lo aspettiamo.,

Review sui problemi di uso degli aptameri nucloetidici https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3890987/

Review sulle applicazioni degli aptameri peptidici

https://pubmed.ncbi.nlm.nih.gov/25866267/

La nuova legge europea sul clima

In evidenza

Luigi Campanella, già Presidente SCI

La nuova legge europea sul clima è stata approvata in via definitiva dalla Commissione Europea dopo il voto favorevole del Parlamento Europeo (442 voti a favore,203 contrari e 51 astenuti).Tale legge rende vincolante l’obbligo al rispetto dei temi del Green Deal che punta alla neutralità climatica,entro il 2050.

A parte lo spostamento sempre in avanti degli impegni ambientali assunti nei grandi consessi, forse in.questa occasione ci si poteva aspettare un po’ di più. Il fatto positivo è  che il tasso di abbattimento delle emissioni di gas serra, al 2030 è stato fissato al 55% rispetto al 1990 con un aumento rispetto al precedente valore concordato che era del 40%. Inoltre una proposta della Commissione Europea per regolare le emissioni e le rimozioni di gas serra dall’uso del suolo (cambiamento d’uso e silvicoltura) aumenterà i pozzi di carbonio dell’UE e quindi porterà l’obiettivo dell ‘UE per il 2030 al 57%. Le foreste rappresentano degli importanti pozzi di carbonio per il pianeta, in grado di assorbire circa il 30% delle emissioni antropiche di gas-serra, cioè prodotte dall’attività umana. La vegetazione assorbe CO2 durante la fotosintesi e ciò significa che, fintanto che le piante sono vive, possono essere un importante strumento di stoccaggio a lungo termine di anidride carbonica.

Per tale ragione, uno studio (pubblicato su Nature Ecology & Evolution) ha realizzato una mappa della distribuzione delle aree forestali per analizzare il funzionamento dei pozzi di carbonio nelle varie regioni della Terra. L’accordo dovrebbe essere formalmente approvato a breve anche dal Consiglio Europeo ed il regolamento poi pubblicato nella G.U. dell’UE per entrare in vigore 20 giorni dopo. L’ approvazione di una legge europea sul clima è di certo evento storico, ma i contenuti non possono essere considerati soddisfacenti per un’Europa Verde. In particolare è proprio quel valore al 55 % che non convince perché in effetti se si considerano le emissioni assorbite dal suolo e dalle foreste la percentuale si ferma al 52%. In molti Paesi Europei è stata la Magistratura ad intervenire ricordando ai politici le loro responsabilità. E avvenuto in Germania, Francia, Olanda, ora avviene anche in Italia con il processo Giudizio Universale. Pur con i suoi limiti la legge è tuttavia  stata equiparata per importanza al libro bianco sulla chimica che ha gettato 20 anni fa  le basi della politica europea sui composti chimici e poi portato al  regolamento Europeo REACH.

La globalizzazione e la qualità del sarago.

In evidenza

Claudio Della Volpe

Uno dei ristoranti più famosi di Napoli quando ero un giovanotto si chiamava “Al sarago”; alla fine dell’allora Viale Elena (oggi viale Gramsci) a piazza Sannazzaro; nella classe media, nella “Napoli da bere” degli anni 70 cenare “Al sarago” casomai insieme a Ferlaino, il proprietario del Napoli calcio, era una sorta di punto di arrivo; voleva dire che non solo avevi i soldi per pagare, ma anche che apprezzavi la buona cucina.

Una storia di quegli anni la trovate qui (attenzione c’è un odore di destra politica, ma fa parte del …..piatto).

Negli anni successivi si spostò a Piazza Vittoria (cambiando nome in Sarago dal 1973) all’altro capo del lungomare di Napoli; oggi credo non ci sia più un locale con questo nome; sarà per il covid, sarà forse anche perché il sarago non è “più” un pesce apprezzatissimo e il nome ha perso di attrattiva.

Il sarago è in effetti un pesce tipico del nostro Mediterraneo, Diplodus vulgaris, sui 40cm di lunghezza e un paio di chili, è un pesce molto apprezzato in passato per le sue caratteristiche organolettiche. Ma le cose belle non sono fatte per durare in eterno. Come e perché ce lo racconta un recente lavoro pubblicato su Frontiers in marine science da parte di un composito gruppo di ricercatori italiani.

Il problema del sarago e dei suoi estimatori è cominciato dopo il 1990 quando la Caulerpa cylindracea, un’alga verde di origine Indo-Pacifica, australiana, è arrivata nel Mediterraneo (Verlaque et al. 2015: 251) verosimilmente trasportata dal flusso di navi che da quella zona del mondo risale l’Oceano indiano e poi il canale di Suez.

Detta anche “alga a grappoli verde”, la caulerpa è di origine australiana e fu segnalata per la prima volta nel bacino del Mediterraneo nel 1990 lungo le coste della Libia e in Italia lungo le coste siciliane nel 1993; ha avuto un enorme successo ecologico, diffondendosi in tutto il bacino mediterraneo, prima di tutto a causa della sua elevata capacità di riprodursi e colonizzare tutti i tipi di habitat (fondali sabbiosi, rocciosi e anche (ahimè!) le praterie di Posidonia oceanica), dalla superficie fino a oltre 60 m di profondità.

Caulerpa cylindracea è facilmente riconoscibile: il tallo, cioè il corpo dell’alga, è di colore verde brillante ed è formato da uno stolone strisciante dal quale si dipartono verso il fondo i così detti “rizoidi” e verso la superficie i cosiddetti “filloidi”. I rizoidi sono filamenti che, come le radici delle piante più grandi, consentono l’ancoraggio dell’alga al substrato, i filloidi invece si innalzano come fronde nell’acqua e sono caratterizzati dalla presenza di numerosissime vescicole a forma di clava.

http://www.resmaris.eu/caulerpa-cylindracea-2/

Caulerpa cylindracea.

Caulerpa cylindracea è una specie altamente invasiva e competitiva nei confronti di altre specie in virtù di alcune sue caratteristiche quali la capacità di occupare tridimensionalmente lo spazio e produrre metaboliti secondari (caulerpina, caulerpenina, caulerpicina). Queste tre molecole sono un esempio di mediatore chimico fra specie diverse come discusso qui. Le Caulerpe sono insolite perché sono costituite da una sola cellula con molti nuclei, rendendole tra le più grandi singole cellule del mondo.

Il gruppo di ricerca costituito da colleghi dell’Università della Tuscia, di Trieste, di Catania, della Stazione Anton Dohrn di Napoli e dalla Fipsas, aveva già ipotizzato che il sarago avesse cambiato abitudini alimentari e che questo avesse avuto effetto sulla sua valenza organolettica ed alimentare. Si può ipotizzare una sorta di tendenza del sarago maschio a “drogarsi” con questa alga con la conseguenza che le sue carni diventano stoppose e, se cucinate come di solito, sono amare e si staccano dalla lisca.

L’abstract del lavoro ci riassume perfettamente la situazione:

Le invasioni biologiche provocano impatti negativi e imprevedibili sugli oceani di tutto il mondo. I macrofiti non indigeni spesso sintetizzano metaboliti secondari a fini difensivi e per aumentare l’efficienza competitiva: è il caso della Caulerpa cylindracea, entrata nel Mar Mediterraneo nel 1990 e da allora in competizione con la flora e la fauna locali. È stato dimostrato che il sarago Diplodus sargus (i) ha incluso le alghe nella sua dieta, (ii) è soggetto alla peculiare condizione di Abnormally Tough Specimen (ATS) post-cottura e (iii) soffre di disturbi fisiologici e comportamentali da caulerpina, uno dei tre principali metaboliti secondari algali. Questo documento conferma una relazione di alimentazione tra il pesce e le alghe, quantifica l’accumulo di caulerpina nel fegato, suggerisce una possibile biomagnificazione causata da molluschi ed echinodermi e mette in evidenza il fatto che tutti gli esemplari di ATS erano maschi. Le analisi multivariate su un pannello multi-biomarker rivelano correlazioni differenziali a processi cellulari chiave come lo stress ossidativo, il metabolismo, la neurotossicità e la perossidazione lipidica, nonché agli indici di condizionamento.

La responsabile di tutto ciò è la molecola qui rappresentata, la caulerpina, un alcaloide con attività antiinfiammatoria e forse anche antitumorale; le sue attività farmacologiche sono oggi oggetto di studio e in questo senso si potrebbe dire che non tutto il male vien per nuocere, o come diceva il mio relatore, il compianto Guido Barone, “ogni cosa ha due corni”.

Più modestamente io ricordo in questi casi un verso di Louis MacNeice (da Snow), un poeta comunista inglese amato  e citato da J.B.S Haldane e A.I Oparin, (che pensavano all’origine della vita in una irripetibile stagione della cultura mondiale) e arrivato a me tramite un altro maestro di Napoli (Pierandrea Temussi, PAT per gli amici):

World is crazier and more of it than we think,

Incorrigibly plural.

Il mondo è più matto e ricco di quanto pensiamo,

incorreggibilmente plurimo.

Ecco perché quando facciamo qualcosa dobbiamo ricordarci che gli effetti sull’ecosfera sono spesso imprevedibili ed essere guardinghi e attenti, principio di precauzione: “solo la natura sa il fatto suo”, come diceva Barry Commoner.

Non sono credente (potrei accettare il dio di Spinoza, deus-sive-natura): ma penso che non siamo gli orgogliosi dominatori, ma al più gli umili guardiani di un mondo che non conosciamo, ancora; e se continuiamo così potremmo non conoscere. Mai.

A volte ritornano. La battaglia del glifosato.

In evidenza

Claudio Della Volpe

Nelle ultime settimane si è riaccesa quella che potremmo definire la battaglia del glifosato, l’erbicida più venduto al mondo, del quale avevamo parlato parecchio negli anni dal 2015 al 2017, prima che la UE decidesse di consentirne l’uso per 5 anni, che scadranno nel 2022.

Alla fine dell’articolo troverete la lista dei post che pubblicammo (a mia firma meno uno all’epoca raccontando le varie situazioni); nei commenti ad uno di essi si sviluppò anche una polemica fra me e la senatrice Elena Fattori.

Come vedete dalla figura qua sotto lo IARC (attenzione in italiano la sigla AIRC corrisponde ad una associazione privata fondata da Veronesi, ma qui cita quasi punto per punto in italiano la pagina IARC sul glifosato) ritiene il glifosato un “probabile cancerogeno” cat. 2A; potete accedere a questa pagina qui. Il documento originale sul glifosato di IARC è qui*.

Perché si sta riaccendendo questa discussione?

Il motivo è semplice dato che il permesso di usare il glifosato scadrà il 15/12/2022 stanno scendendo in campo da una parte i produttori di glifosato e di prodotti collegati (soprattutto di semi geneticamente resistenti) riassunti nella sigla GRG (Glyphosate renewal group), una lobby e dall’altra le associazioni ambientaliste a partire per esempio da Stop Glyphosate.

Il suo utilizzo come erbicida è stato approvato nell’Unione europea nel 2017 fino al 2022, con alcune limitazioni, tra cui il divieto di avere nella stessa formulazione glifosato e ammina di sego polietossilata e una serie di divieti relativi al fatto che anche ECHA ha riconosciuto che il glifosato è tossico per l’uomo in certe condizioni e dannoso per l’ambiente acquatico.

I paesi europei arrivano divisi alla questione almeno al momento; scrive il Sole 24 ore:

Dopo la retromarcia dell’Austria, il Lussemburgo sarà il primo Stato Ue a vietare l’uso dell’erbicida già dal 2021. Una decisione che ha anticipato quelle di Francia e Germania. Parigi, nonostante un investimento pubblico da 400 milioni non è riuscita a far decollare il piano, denominato “Ecophyto”, che mira a ridurre del 50% i fitofarmaci in agricoltura entro il 2025. Dal lancio del piano nel 2008 il loro uso è aumentato del 12%, secondo i dati presentati dalla corte dei conti al governo francese

L’Italia non ha una posizione chiara.

Cosa è successo di interessante nel frattempo dal punto di vista scientifico?

Il sito http://www.weedscience.org che riporta lo sviluppo delle resistenza ai vari fitofarmaci mostra che c’è stato un continuo incremento delle resistenze anche per il glifosato

Dal 2017 altre 15 specie sono diventate resistenti al glifosato per un totale attuale di 53; è un fenomeno che dovrebbe far riflettere poiché riguarda TUTTI i fitofarmaci- erbicidi usati nel mondo come mostra quest’altro grafico:

A questo occorre aggiungere che l’azione dei movimenti ambientalisti ha obbligato a rendere pubblici i documenti su cui si sono basate le autorizzazioni delle varie istituzioni pubbliche; se ricordate è stata proprio la diversa strategia nell’accettare la documentazione  che ha portato all’inimmaginabile conflitto fra IARC ed ECHA o EFSA nell’autorizzazione del glifosato.

IARC usa una metodologia autorizzativa basata solo su documenti privi di ogni conflitto di interesse, pubblicati sulla letteratura internazionale, mentre ECHA, EFSA o EPA accettano la documentazione dei produttori, che fra l’altro NON E’ PUBBLICA o almeno non lo è sempre.

Dato che sono in corso negli USA centinaia di cause di privati che sostengono di essere stati danneggiati dall’uso del glifosato le associazioni antiglifosato sono riuscite a rendere pubblici molti dei documenti di cui si parlava grazie alla forza della magistratura; analogamente nel marzo 2019 quattro europarlamentari verdi hanno ottenuto  una sentenza della Corte di giustizia in  cui si afferma che l’EFSA dovrebbe pubblicare tutti gli studi (segreti) sui rischi di cancro del glifosato. L’ONG SumOfUs ha richiesto all’EFSA 54 studi di genotossicità e ha avviato un’azione di finanziamento pubblico per poter pagare scienziati indipendenti per lo screening di questi studi ne è seguita una analisi dettagliata di queste documentazioni che sono ora pubbliche e che è  stata condotta da alcuni specialisti.

Tutta la storia è stata pubblicata dal Guardian e sono disponibili anche i documenti stessi.

https://www.theguardian.com/business/2021/jul/02/glyphosate-herbicide-roundup-corporate-safety-studies

o anche

https://greenreport.it/news/inquinamenti/glifosato-la-valutazione-positiva-dellefsa-si-basava-su-dati-scientifici-accomodanti/

i documenti resi pubblici sono su

L’analisi dei documenti condotta da due specialisti del settore, Armen Nersesyan and Siegfried Knasmueller, dello Institute of Cancer Research, Department of Medicine I, Medical University of Vienna, è scaricabile da qui.

L’analisi è stata condotta gratuitamente da Knasmueller, mentre l’altro autore (precario) è stato ricompensato con 3500 euro.

Cosa si conclude in questa analisi?

«Non meno di 34 dei 53 studi di genotossicità finanziati dall’industria utilizzati per l’attuale autorizzazione dell’Ue del glifosato sono stati identificati come “non affidabili”, a causa di sostanziali deviazioni dalle linee guida per i test dell’OCSE, che potrebbero compromettere la sensibilità e la precisione del sistema di prova. Per quanto riguarda il resto dei 53 studi, 17 erano “parzialmente affidabili” e solo 2 studi “affidabili” da un punto di vista metodologico».

Su questa base molte associazioni ambientaliste e di consumatori chiedono una revisione dei permessi che tenga conto di questi nuovi punti di vista.

Come chimici ci resta da dire che vorremmo che ci fossero metodologie non inficiate da scelte discutibili e soprattutto completamente trasparenti; non è possibile che gli enti regolatori debbano scegliere sulla base di documenti non solo soggetti a conflitti di interesse, ma perfino non completamente pubblici; le stesse leggi europee dovrebbero tener conto di queste profonde debolezze dei processi di accertamento; e non sono le sole modifiche legislative da considerare.

Ricordo qui per la sua assonanza la questione posta dal tema PFAS: l’uso dei brevetti contro i ricercatori che vogliono misurare la presenza di inquinanti nell’ambiente, come denunciato da alcuni colleghi dell’Università di Padova e raccontato in un nostro recente post. Questa situazione porta all’impossibilità di avere lo standard di misura utile per misurare l’inquinamento perché i detentori del brevetto dell’inquinante ne impediscono l’uso o non ne diffondono lo standard.

Poi non ci si dica che non si sa perché la chimica è considerata “sporca e cattiva” o perché molti siano i chemofobici. Sta a noi chimici schierarci apertamente e sempre per la trasparenza dei dati.

SEMPRE.

  • grazie a Francesco Pascale per avermi fatto notare questa possibile confusione.

Post pubblicati sul glifosato nel nostro blog:

https://ilblogdellasci.wordpress.com/2015/04/13/glifosato-e-altre-storie/ https://ilblogdellasci.wordpress.com/2015/08/16/ancora-sul-glifosato/ https://ilblogdellasci.wordpress.com/2015/08/24/non-ce-due-senza-tre-ancora-glifosato/ in questo c’è una polemica negli interventi con la allora senatrice 5S Elena Fattori (oggi SI). https://ilblogdellasci.wordpress.com/2017/07/31/ma-insomma-il-glifosato-e-o-non-e-cancerogeno/ https://ilblogdellasci.wordpress.com/2017/12/15/glifosato-dove-siamo-parte-prima-alcuni-fatti/ https://ilblogdellasci.wordpress.com/2018/01/12/glifosato-dove-siamo-parte-2-altri-fatti-e-qualche-opinione/ https://ilblogdellasci.wordpress.com/2018/10/10/glifosato-e-api-da-miele/

Via Panisperna: museo, ricerca didattica.

In evidenza

Luigi Campanella, già Presidente SCI

Negli anni 30 all’Istituto di Fisica di via Panisperna a Roma  Enrico Fermi con la supervisione di Orso Mario Corbino formò un Gruppo di Ricerca con  Franco Rasetti,Emilio Segre,Bruno Pontecorvo, Edoardo Amaldi ed Ettore Majorana che si rese protagonista di grandi scoperte nel campo della Fisica Nucleare, ma che già dalle parole di Fermi  riaffermò il principio della unitarietà delle Scienze:

”La speranza è che i progetti in corso permetteranno di realizzare qui in forma costruttiva quella collaborazione fra Fisica,Chimica e Biologia che è così fortemente auspicata dai cultori di queste 3 discipline,le quali pure avendo nomi diversi ed essendo per una necessaria divisione del lavoro coltivate da persone diverse non sono in realtà altro  che capitoli dell’unica grande scienza della Natura”.

Purtroppo per lunghi anni la struttura originaria, la palazzina, è stata dismessa e solo l’incancellabile valore storico ne ha rappresentato la difesa dell’identità. Finalmente nel 1999 è stato fondato il Centro Ricerche Enrico Fermi (CREF) come composizione fra un ruolo di Museo dedicato alla eredità scientifica di Fermi con reperti originali  degli esperimenti ed adeguati sistemi audio/video per renderne fruibile la comprensione ed uno di struttura di ricerca  propria. All’atto della fondazione del Centro ne è stata ribadita la funzione di promozione della ricognizione sistematica delle testimonianze storiche  delle scienze e delle tecniche conservate nel Paese, nonché delle relative pertinenti risorse bibliografiche e documentali. Sono anche state focalizzate nell’atto istitutivo l’incentivazione, anche in collaborazione con università e centri di ricerca, delle attività formative e professionali per gestire musei, città della scienza e la promozione della cultura e divulgazione scientifica. Bisogna però fare un salto di 20 anni per arrivare a vedere, come oggi è possibile, qualcosa di concreto, la palazzina completamente  restaurata da potere essere utilizzata per gli obbiettivi scientifici del CREF.

A quelli codificati vorrei aggiungerne un altro connesso ad una mancanza che nell’area romana si sente dal tempo della chiusura del Laboratorio di Didattica delle Scienze della Facoltà di SMFN della Sapienza. Oggi la didattica delle Scienze soffre della mancanza di strumentazione trasparente quindi didattica. Sempre più spesso gli strumenti ai giorni nostri si configurano come vere e proprie “scatole nere”. 

Nel passato recente e meno recente purtroppo esigenze di spazio e di rinnovamento hanno indotto a sacrificare strumenti obsoleti, forse sul piano scientifico, ma straordinariamente utili sul piano didattico in quanto modulari e trasparenti rispetto ai loro contenuti tecnici ed alla loro modalità costruttiva. In tale situazione strumentazioni che si sono salvate dalla rottamazione divengono preziose tanto più se si riflette sulla difficile esperienza a Roma di Kircher e Neviani (Liceo Visconti al Collegio Romano) per formare una collezione museale.

Diceva Neviani “Non vi ha dubbio che per l’incremento delle collezioni (intendiamoci-precisava- non dell’accumulo di materiale qualsiasi che si lasci dormire nei cassetti e negli scaffali  a coprirsi di polvere ed essere preda dei tarli)occorrono alcuni elementi di fatto, senza i quali esse sarebbero impossibili. Locali, arredamento e dotazioni proporzionate” Questo impegno sul CREF oggi finalmente riattivato non deve andare disperso ed in questo senso bisogna affidarsi alla lungimiranza dei nostri governanti. Quando nel 1870 tutte le proprietà del Vaticano passarono allo Stato Italiano, la cultura dell’epoca non era sufficientemente preparata ad accogliere e valutare il valore di questo tipo di Museo che fu insipientemente smembrato e volutamente disperso, distruggendo quanto Kircher aveva razionalmente aggregato.Oggi la situazione e le sensibilità sono diverse.

La ricomposizione culturale ed il valore della Storia e dei suoi insegnamenti è molto cresciuto nella convinzione popolare:la richiesta di conoscenza,non di semplice informazione,deve essere soddisfatta perché davanti ad essa c’è una scelta partecipata dei cittadini alle domande che la vita- e di conseguenza la politica- pone continuamente davanti.

Il sito del nuovo museo: https://cref.it/

Il team di lavoro del nuovo CREF, i nuovi ragazzi di via Panisperna.

Non possiamo più sprecare tempo

In evidenza

Mauro Icardi

Le anomale precipitazioni piovose, che hanno interessato Germania, Belgio e Olanda dovrebbero indurci non solo a maggiori riflessioni, ma anche all’adozione di piani concreti contro il cambiamento climatico. Le ultime notizie parlano di oltre 180 morti e un numero non ben definito di dispersi.

Ridurre le emissioni dovute all’uso dei combustibili fossili, modificherà inevitabilmente e in maniera profonda il nostro modo di vivere. Sia nell’ambito della nostra vita privata, che in quella sociale e nell’organizzazione del lavoro. Non credo si possa pensare di risolvere problemi di questa importanza tramite compromessi. Dovremo adattarci a dei cambiamenti che modificheranno in maniera profonda le nostre abitudini.

L’adattamento a nuove situazioni è un processo che richiede indubbiamente risorse personali, una sorta di meccanismo di omeostasi psicologica, al quale però occorre essere stati preparati.

 Ricordo bene che nel periodo della mia infanzia e poi dell’adolescenza, sono stato educato a non eccedere nella richiesta di beni materiali. A non legare in maniera esagerata le mie soddisfazioni personali al possesso di beni materiali. Soprattutto se questi erano superflui. Queste indicazioni provenivano dai miei genitori, che nati negli anni 30, avevano vissuto in maniera ovviamente diversa.

Personalmente ho vissuto anch’ io il periodo della necessità di essere parte di una comunità di amici, ma fortunatamente nessuno di noi era influenzato in maniera eccessiva dalle lusinghe pubblicitarie.

Oggi invece molte, direi troppe cose sono cambiate. Ci confrontiamo con i problemi ambientali ormai da tempo. Ma quando ne parlo con amici, conoscenti e persone che frequento, rimango sempre piuttosto perplesso. Le obiezioni che mi sono rivolte quando cerco di spiegare quelle che possono essere le soluzioni (per altro non più rimandabili)  sono le stesse che ho iniziato a sentire negli anni 70.

In genere sentivo dire che, la Terra è grande e ha ancora sterminati territori da sfruttare, che l’inquinamento fosse il prezzo da pagare per il progresso, che fosse un diritto fondamentale quello del possesso dell’auto e magari della seconda casa al mare.

La sensazione che provo è che non sia cambiato nulla, quando ascolto le persone che parlano, magari sul tram o al ristorante. Invece sono cambiate diverse cose. E’ aumentata la concentrazione di CO2 in atmosfera, la biodiversità è profondamente compromessa, cosi come i cicli biogeochimici di fosforo e azoto.

Lo scopo di questo blog è questo. Informare nella maniera più rigorosa possibile come si debba preservare il pianeta.  La scienza, soprattutto quella del clima ha già indicato con chiarezza quali sono gli scenari probabili con cui dovremo fare i conti, se non invertiamo la tendenza. Le leggi fisiche non sono emendabili per decreto.  Si è detto e scritto molte volte, su questo blog e su migliaia di altri. Su centinaia di riviste scientifiche.

I segnali che ci dovrebbero far reagire immediatamente, pretendendo un impegno immediato e reale da parte della politica si susseguono con un’ allarmante regolarità. Il 2020 ha chiuso il decennio più caldo mai registrato. La temperatura globale è stata di circa 1,2 °C sopra il livello pre-industriale. 

E mi chiedo cosa altro dobbiamo aspettare che accada per smuoverci da questo torpore.

“ Le basi più elementari dei presupposti su cui si fonda il nostro futuro benessere economico sono marce. La nostra società vive una fase di rifiuto collettivo della realtà che, quanto a proporzioni e implicazioni non ha precedenti nella storia”

Jeremy Legget- Fine corsa Einaudi 2006.

Gli avvertimenti arrivano da lontano. Questo che ho tratto è solo uno dei tanti. Non abbiamo troppo tempo, e sprecarlo non è saggio.

Nota: L’intensità di questo evento alluvionale è stata certamente inusuale, se confrontata con le altre alluvioni avvenute in passato in Germania. E quindi non è corretto attribuire un singolo episodio, sia pure catastrofico come questo direttamente al riscaldamento globale, come affermato dal ministro tedesco Horst Seehofer. Ma quello che ci si può ragionevolmente supporre, e che eventi estremi di questo genere si possano verificare più frequentemente in un’atmosfera modificata dai gas serra.
Riporto quanto dichiarato da Antonio Navarra, climatologo e presidente della fondazione Centro Euro Mediterraneo sui cambiamenti climatici, intervistato a proposito di quanto successo in Germania.

Professor Navarra, eventi come questo sono certamente riconducibili all’emergenza
climatica?

«È molto probabile, ma per essere scientificamente corretti non possiamo parlare di certezza. Si tratta di fenomeni che hanno scale temporali completamente diverse ed è difficile spiegare un evento puntuale con un processo che invece si estende per secoli. Sarebbe come voler creare un rapporto di causa-effetto tra il fatto che sono inciampato in una strada della capitale e il crollo dell’Impero Romano. Probabilmente il legame, c’è ma è difficile dimostrarlo scientificamente.
Qualche collega sta cercando di dimostrate il legame tra global warming e singoli eventi meteo
estremi, ma alla fine non si può che parlarne in termini statistici».
Un dato, statistico appunto, consolidato è che frequenza e intensità dei fenomeni estremi stanno aumentando.
«Questo è fuor di dubbio. C’è una chiara correlazione tra l’aumento della concentrazione
dell’anidride carbonica nell’atmosfera e la frequenza e l’intensità di alluvioni, ondate di calore e
periodi di siccità. Nel caso specifico delle precipitazioni assistiamo a un graduale spostamento
verso nord delle due fasce che attraversano l’Europa. Una passa nella zona centrale del
continente, l’altra attraversa il Mediterraneo. Quest’ultima sta migrando verso latitudini più alte: tra qualche anno da noi ci saranno sempre meno piogge che si riverseranno proprio dove c’è stata l’alluvione di ieri. Le nostre proiezioni danno per l’area mediterranea un calo delle precipitazioni compreso tra il 15 e il 20%».

Riflettendo la luce solare

In evidenza

Dario Zampieri*

Recentemente, è stato pubblicato da parte delle National Academies of Sciences, Engineering and Medecine (Usa) un nuovo rapporto, seguente quello del 2015 del National Research Council, sulla praticabilità della geoingegneria quale possibile risposta al rapido cambiamento climatico che sta creando impatti severi su individui, comunità, economie ed ecosistemi.

Il rapporto dal titolo “Reflecting Sunlight: Recommendations for Solar Geoengineering Research and Research Governance” è dedicato a Paul J. Crutzen, recentemente scomparso, laureato Nobel in Chimica nel 1995 per l’individuazione della causa dell’impoverimento dell’ozono stratosferico, il quale in tempi più recenti si occupò anche della geoingegneria solare (SG) quale tecnica per contrastare gli effetti del cambiamento climatico.

La sfida dell’emergenza climatica richiede una serie di opzioni di mitigazione (che vanno dalla riduzione dell’emissione dei gas climalteranti alla rimozione e sequestro del carbonio dall’atmosfera) e di adattamento. La preoccupazione che l’adozione dell’insieme delle opzioni di mitigazione non avvenga alla dovuta velocità o che comunque non sia sufficiente ad evitare le peggiori conseguenze, ha portato a suggerire di esplorare ulteriori strategie come la geoingegneria solare. Con questo nome si intende l’aumento della riflessione verso lo spazio della radiazione solare o la riduzione della quantità di radiazione termica intrappolata. Naturalmente, per avere efficacia, queste strategie dovrebbero essere perseguite per tempi molto lunghi, come l’uso di un farmaco salvavita che non possa più essere abbandonato. Esse però introducono anche dei nuovi potenziali rischi, alcuni dei quali con effetti molto difficili da prevedere.

La SG è comunque una strategia che non sostituisce la necessaria riduzione dell’emissione dei gas climalteranti, i quali altrimenti continuerebbero a produrre l’acidificazione degli oceani e ad incrementare il cambiamento climatico. Inoltre, non servirebbe a riportare il clima globale o regionale ad uno stato precedente e se dovesse essere interrotto, in assenza di contestuale riduzione delle emissioni, potrebbe portare ad un repentino riscaldamento con effetti catastrofici.

La parola geoingegneria comprende numerose strategie incluse l’alterazione della riflettività della terra, del mare e dei ghiacci, nonché quelle per rimuovere la CO2 dall’atmosfera (emissioni negative). Il rapporto si limita ad esaminare quelle strettamente “solari” che sono:

  • Iniezione stratosferica di aerosol (Stratosferic Aerosol Injection, SAI), con aumento del numero delle particelle in grado di aumentare la riflessione della luce incidente.
  • Lo schiarimento delle nubi marine (Marine Cloud Brightening, MCB), con aumento della riflettività delle nuvole nella bassa atmosfera al di sopra di certe regioni degli oceani.
  • Assottigliamento delle nuvole cirri (Cirrus Cloud Thinning, CCT), con aumento della trasparenza delle nuvole ghiacciate in modo da favorire la radiazione infrarossa in uscita.

La ricerca indica che la SG può ridurre la temperatura, ma al tempo stesso può introdurre nuovi potenziali rischi come la perdita dell’ozono stratosferico, la modificazione regionale del clima interferendo ad esempio sul monsone indiano, e con numerosi effetti ambientali, sociali, politici ed economici (ad esempio, effetti regionali positivi per una certa regione possono implicare effetti negativi per altre regioni, che vanno dal cambio del regime delle piogge con problemi per la produzione di cibo alla induzione di migrazioni interne di popolazione).

SAI: è la tecnica più studiata e meglio compresa. Diversamente dalla troposfera, la stratosfera è relativamente poco turbolenta e gli aerosol possono permanere in sospensione per oltre un anno, prima di passare alla troposfera o precipitare al suolo. L’eruzione vulcanica del M. Pinatubo, nel 1991, ha iniettato nella stratosfera grandi quantità di idrogeno solforato (H2S) e biossido di zolfo (SO2), che si sono ossidati a formare un aerosol con proprietà riflettenti di acido solforico (H2SO4). Si stima che l’eruzione abbia abbassato la temperatura globale di circa mezzo grado centigrado per oltre un anno. Tuttavia, benchè simile agli effetti naturali di grandi eruzioni vulcaniche, lo spargimento di solfati può provocare effetti indesiderati come la riduzione della concentrazione dell’ozono, che protegge dalla dannosa radiazione ultravioletta. La superficie addizionale degli aerosol riduce i livelli di NOx via conversione di N2O5 ad acido nitrico. Nella bassa stratosfera questo aumenta la perdita di ozono per via dell’incremento dei livelli di HO2 e ClO.

Inoltre, l’incremento di riscaldamento infrarosso associato all’aggiunta di solfati cambierebbe la circolazione stratosferica, alterando la distribuzione dell’ozono. Nei prossimi 50-100 anni la concentrazione dell’ozono dovrebbe aumentare per effetto delle restrizioni nella produzione dei clorofluorocarburi. Tuttavia, la messa in opera della SAI potrebbe ritardare questo recupero.

Sostanze alternative ai solfati potrebbero essere particelle solide di calcite, di alluminio o di rutilo, ma la microfisica di questi composti, come la coagulazione sulle superfici degli aerosol non è ancora compresa. Un altro effetto non ben compreso è il possibile aumento del rapporto tra luce diffusa e luce diretta, con implicazioni sulla fotosintesi (produzione agricola, ecosistemi) e sulla produzione di energia fotovoltaica.

Un altro potenziale effetto indesiderato per la salute umana può essere l’esposizione cronica delle popolazioni via ingestione di acqua e cibo contaminati dalle particelle che si depositerebbero al suolo. Infatti, alcuni degli aerosol proposti contengono per esempio alluminio.

MCB: la ricerca mostra che aggiungendo aerosol alle nubi marine (tra 0 e 3 km sulla superficie marina) può in certi casi aumentare la riflettività, come accade per esempio sulla scia lasciata dai gas di scarico dalle navi. È stato proposto che lo stesso effetto possa essere ottenuto spruzzando una nebbia sottile di acqua salata. Non è però chiaro dove e quanto l’albedo delle nuvole possa cambiare e se i feedback amplifichino o mascherino gli effetti. Anche la scala ridotta di questo processo potrebbe essere un problema.

CCT: le nuvole cirri sono composte prevalentemente da cristalli di ghiaccio nella alta troposfera.  Queste contribuiscono al riscaldamento del pianeta, in quanto riducono la radiazione infrarossa in uscita più di quanto riflettano la radiazione solare incidente. Disseminando i cirri con nuclei di ghiaccio si possono produrre cristalli più grandi che cadono più in fretta, riducendo il tempo di vita e quindi la copertura di queste nuvole. L’efficacia della CCT non è ben compresa e le simulazioni di pochi modelli climatici hanno fornito risultati contrastanti.

Etica e geoingegneria

Dal punto di vista etico vi sono parecchie considerazioni, di seguito estremamente sintetizzate e solo accennate.

Alcuni ricercatori sociali hanno prospettato che questo “giocare a essere Dio” di una parte dell’umanità è una brama eccessiva. Altri invece pensano che poiché l’uomo sta già alterando il clima, anche se non intenzionalmente, il farlo invece in modo intenzionale non sarebbe più problematico. Se in futuro si dovesse ricorrere alla geoingegneria come misura disperata, sarebbe meglio conoscere a fondo quali approcci sono più efficaci e quali ne sono i limiti e le incertezze. Sempre nell’ambito delle discipline filosofico/sociali, altri ancora pensano che la ricerca sulla SG potrebbe distrarre dalla ricerca sulla mitigazione (azzardo morale), perché la geoingegneria sarebbe ingovernabile o perché non ha il consenso delle popolazioni indigene del Sud Globale. Un altro aspetto riguarda la giustizia intergenerazionale, in quanto la SG è un’impresa multigenerazionale alla scala dei decenni o dei secoli. La percezione del pubblico è un altro aspetto da considerare, perché esistono tanti pubblici con differenti vedute, come ad esempio la questione delle vaccinazioni anti-Covid sta dimostrando. Inoltre, gli studi (pochi) sinora fatti riguardano quasi esclusivamente i paesi sviluppati (Europa, Usa e Canada, con poche eccezioni in Giappone e Cina) e non si sa quale sia l’opinione delle popolazioni del Sud Globale, che sono maggiormente vulnerabili.

Una conclusione è che la ricerca sulla SG è in uno stadio embrionale e non permette di fornire elementi di supporto ad eventuali decisioni.

Aspetti legali

Anche qui la questione è piuttosto complessa. Ad esempio, la Convenzione di Vienna sulla protezione dello strato di ozono (1985), ratificata da quasi tutte le nazioni, chiede alle parti di proteggere la salute umana e l’ambiente dagli effetti avversi risultanti dalle attività umane che possono modificare lo strato di ozono. L’iniezione di aerosol solfatici nella stratosfera può appunto esacerbare la perdita di ozono. Il Protocollo di Montrèal (1987) restringe la produzione e l’uso di una serie di sostanze elencate in una lista, che dovrebbe essere aggiornata.

In risposta ai tentativi di usare come arma la modificazione del clima durante la guerra del Vietnam è stata ratificata una specifica convenzione (Environment Modification, ENMOD, 1978), che però non esclude usi diversi da quelli militari. La convenzione è comunque carente nel definire le istituzioni che dovrebbero implementare o espandere l’accordo.

La Convenzione delle nazioni unite sulla legge del mare (UNCLOS), ratificata da più di 160 stati ma non dagli Usa, prevede l’obbligo di proteggere gli oceani dall’inquinamento “da o attraverso l’atmosfera”.

Sta aumentando il riconoscimento che il cambiamento climatico e le risposte possono impattare i diritti umani. Il preambolo dell’Accordo di Parigi (2015) incoraggia le parti a rispettare e promuovere gli obblighi rispetto ai diritti umani quando si implementino azioni sul cambiamento climatico.

Una conclusione è che non esiste attualmente una azione coordinata sulla ricerca SG e che i meccanismi legali esistenti, nati in altri contesti, possono applicarsi solo ad alcuni aspetti su impatti di tipo fisico.

Il rapporto 2021 delle National Academies of Sciences, Engineering and Medecine fornisce una serie di proposte per un governo della ricerca su SG e delle raccomandazioni sulle modalità da rispettare per eventuali esperimenti in atmosfera, laddove non sia possibile ottenere informazioni tramite modelli e studi di laboratorio. Nelle conclusioni, si evidenzia che “dato che il cambiamento climatico è una delle sfide più complesse che l’umanità abbia mai affrontato, e che la SG è uno degli aspetti più controversi di risposta, la comunità scientifica deve raccogliere questa sfida con umiltà e creatività, mettendosi alla prova tra discipline diverse e confini nazionali, con nuove modalità oltre gli approcci business-as-usual della ricerca”.

Appare qua evidente il carattere di predicament dell’Antropocene, di cui il cambiamento climatico è uno dei tanti effetti. Non si può risolvere un predicament (situazione spiacevole, difficile o pericolosa), si può solo cercare di farvi fronte con umiltà, sapendo che le risposte non possono essere solo di tipo scientifico e tecnologico, ma anche sociale, culturale, politico ed ecologico.

National Academies of Sciences, Engineering, and Medicine 2021. Reflecting Sunlight: Recommendations for Solar Geoengineering Research and Research Governance. Washington, DC: The National Academies Press.

una versione libera del testo è scaricabile previa registrazione

https://doi.org/10.17226/25762

Rasch, P. J., P. J. Crutzen, and D. B. Coleman. 2008. Exploring the geoengineering of climate using stratospheric sulfate aerosols: The role of particle size. Geophysical Research Letters 35(2). https://doi.org/10.1029/2007GL032179.

*l’autore, già conosciuto dai nostri lettori per altri interessanti contributi è prof. associato di geologia presso UniPd e presidente di Aspo-Italia.

Alan Turing (1912-1954). Parte 2.

In evidenza

Rinaldo Cervellati

la prima parte di questo post è pubblicata qui.

Rinaldo Cervellati

Formazione di modelli e biologia matematica

Quando Turing aveva 39 anni nel 1951, si dedicò alla biologia matematica, pubblicando finalmente il suo capolavoro “Le basi chimiche della morfogenesi” nel gennaio 1952.

Alan Turing

Si interessò alla morfogenesi, allo sviluppo di schemi e forme negli organismi biologici.  Suggerì che un sistema di sostanze chimiche che reagiscono tra loro e si diffondono nello spazio, chiamato sistema di reazione-diffusione, potrebbe spiegare “i principali fenomeni della morfogenesi” [4]. Usò sistemi di equazioni differenziali alle derivate parziali per modellare reazioni chimiche catalitiche. Ad esempio, se è necessario un catalizzatore A affinché una certa reazione chimica abbia luogo e se la reazione ha prodotto più del catalizzatore A, allora diciamo che la reazione è autocatalitica e c’è un feedback positivo che può essere modellato dal differenziale non lineare di equazioni. Turing scoprì che si potevano creare schemi se la reazione chimica non solo producesse il catalizzatore A, ma producesse anche un inibitore B che rallentasse la produzione di A. Se A e B si diffondessero poi attraverso il contenitore a velocità diverse, allora si potevano avere alcune regioni dove A dominava e in alcuni dove dominava B. Per calcolare l’entità di questo fenomeno, Turing avrebbe avuto bisogno di un potente computer, che non era così liberamente disponibili nel 1951, quindi dovette usare approssimazioni lineari per risolvere le equazioni a mano. Questi calcoli hanno dato i giusti risultati qualitativi e hanno prodotto, ad esempio, una miscela uniforme che stranamente aveva macchie rosse regolarmente distanziate. Il biochimico russo Boris Belousov[1] aveva eseguito esperimenti con risultati simili, ma non era riuscito a pubblicare i suoi articoli a causa del pregiudizio contemporaneo che una cosa del genere violasse il secondo principio della termodinamica. Belousov non era a conoscenza dell’articolo di Turing nelle Philosophical Transactions of the Royal Society.

Sebbene pubblicato prima che la struttura e il ruolo del DNA fossero compresi, il lavoro di Turing sulla morfogenesi rimane rilevante oggi ed è considerato un lavoro fndamentale nella biologia matematica. Una delle prime applicazioni dell’articolo di Turing fu il lavoro di James Murray che spiegava macchie e strisce sulla pelliccia dei gatti, grandi e piccoli [5,6]. Ulteriori ricerche nell’area suggeriscono che il lavoro di Turing può spiegare in parte la crescita di “piume, follicoli piliferi, il modello di ramificazione dei polmoni e persino l’asimmetria sinistra-destra che mette il cuore sul lato sinistro del torace”[7]. Nel 2012, Sheth, et al. hanno scoperto che nei topi, la rimozione dei geni Hox provoca un aumento del numero di cifre senza un aumento della dimensione complessiva dell’arto, suggerendo che i geni Hox controllano la formazione delle cifre sintonizzando la lunghezza d’onda di un meccanismo di tipo Turing [8]. I documenti successivi non furono disponibili fino alla pubblicazione delle Collected Works of A. M. Turing nel 1992 [9].

La condanna e la morte

Nel 1941, Turing propose il matrimonio alla collega Joan Clarke, una matematica e criptoanalista, ma il loro fidanzamento fu di breve durata. Dopo aver ammesso la sua omosessualità con la sua fidanzata, che secondo quanto riferito non era “per nulla turbata” dalla rivelazione, Turing decise che non poteva portare avanti il ​​matrimonio.

Nel gennaio 1952, Turing aveva 39 anni quando iniziò una relazione con Arnold Murray, un disoccupato di 19 anni. Poco prima di Natale, Turing stava camminando lungo Oxford Road a Manchester quando incontrò Murray appena fuori dal Regal Cinema e lo invitò a pranzo. Il 23 gennaio, la casa di Turing fu svaligiata. Murray disse a Turing che lui e il ladro si conoscevano e Turing denunciò il crimine alla polizia. Durante le indagini, riconobbe una relazione sessuale con Murray. Gli atti omosessuali erano reati penali nel Regno Unito a quel tempo,ed entrambi gli uomini furono accusati di “gravi atti osceni” ai sensi della Sezione 11 del Criminal Law Amendment Act del 1885. Il 27 febbraio si svolsero i primi procedimenti di rinvio a giudizio per il processo, durante i quali l’avvocato di Turing “si è riservato la difesa”, cioè non ha sostenuto o fornito prove contro le accuse.

Turing fu poi convinto dai consigli di suo fratello e del suo stesso avvocato, e presentò una dichiarazione di colpevolezza.  Il caso, Regina v. Turing e Murray, fu portato in giudizio il 31 marzo 1952.  Turing fu condannato e gli fu data una scelta tra la reclusione e la libertà vigilata. La sua libertà vigilata sarebbe stata subordinata al suo consenso a sottoporsi a cambiamenti fisici ormonali volti a ridurre la libido. Accettò la possibilità di iniezioni di quello che allora veniva chiamato stilbestrolo (ora noto come dietilstilbestrolo o DES), un estrogeno sintetico; questa femminilizzazione del suo corpo è proseguita per un anno. Il trattamento rese Turing impotente e causò la formazione di tessuto mammario, adempiendo in senso letterale alla predizione di Turing secondo cui “senza dubbio ne emergerò un uomo diverso, ma proprio non l’ho scoperto”. A Murray fu dato un congedo condizionale (!).

La condanna di Turing portò alla rimozione del suo nulla osta di sicurezza e gli impedì di continuare con la sua consulenza criptografica per il Government Communications Headquarters, l’agenzia di intelligence dei segnali britannica che si era evoluta da GC&CS nel 1946, sebbene mantenne il suo lavoro accademico. Gli fu negato l’ingresso negli Stati Uniti dopo la sua condanna nel 1952, ma fu libero di visitare altri paesi europei. Turing non fu mai accusato di spionaggio ma, come tutti coloro che avevano lavorato a Bletchley Park, gli fu impedito dall’Official Secrets Act di discutere il suo lavoro di guerra.

L’8 giugno 1954, la governante di Turing lo trovò morto all’età di 41 anni; era morto il giorno prima. L’avvelenamento da cianuro è stato stabilito come causa della morte. Quando il suo corpo fu scoperto, una mela giaceva mezza mangiata accanto al suo letto, e sebbene la mela non fosse stata testata per il cianuro, fu ipotizzato che questo fosse il mezzo con cui Turing aveva consumato una dose fatale[2]. Un’inchiesta stabilì che si era suicidato. Andrew Hodges e un altro biografo, David Leavitt, hanno entrambi ipotizzato che Turing stesse rifacendo una scena del film di Walt Disney Biancaneve e i sette nani (1937), la sua fiaba preferita. Entrambi gli uomini notarono che (secondo le parole di Leavitt) provava “un piacere particolarmente intenso nella scena in cui la Regina Perfida immerge la sua mela nell’infuso velenoso”. I resti di Turing furono cremati al crematorio di Woking il 12 giugno 1954, e le sue ceneri furono sparse nei giardini del crematorio, proprio come lo era stato per suo padre.

Il professore di filosofia Jack Copeland ha messo in dubbio vari aspetti del verdetto storico del coroner. Ha suggerito una spiegazione alternativa per la causa della morte di Turing: l’inalazione accidentale di fumi di cianuro da un apparato utilizzato per placcare l’oro su cucchiai. Il cianuro di potassio è infatti stato utilizzato per sciogliere l’oro. Turing aveva un tale apparato installato nella sua minuscola stanza degli ospiti. Copeland ha notato che i risultati dell’autopsia erano più coerenti con l’inalazione che con l’ingestione del veleno. Turing mangiava abitualmente una mela prima di andare a letto, e non era insolito che la mela venisse scartata mezza mangiata (v. nota 3). Inoltre, secondo quanto riferito, Turing aveva sopportato le sue battute d’arresto legali e il trattamento ormonale  “con buon umore” e non aveva mostrato alcun segno di sconforto prima della sua morte. Fece anche un elenco di compiti che intendeva portare a termine al suo ritorno in ufficio dopo il fine settimana festivo. La madre di Turing credeva che l’ingestione fosse accidentale, a causa dello stoccaggio negligente di suo figlio di sostanze chimiche di laboratorio. Il biografo Andrew Hodges ha teorizzato che Turing abbia organizzato la consegna dell’attrezzatura per consentire deliberatamente a sua madre una negazione plausibile riguardo a qualsiasi affermazione di suicidio[3].

Le “lacrime di coccodrillo” di parlamento e governo e la “giustizia” postuma.

Nell’agosto 2009, il programmatore britannico John Graham-Cumming lanciò una petizione chiedendo al governo britannico di scusarsi per l’accusa a Turing come omosessuale. Il Primo Ministro, Gordon Brown, riconobbe la petizione, rilasciando una dichiarazione il 10 settembre 2009 in cui si scusava e descriveva il trattamento di Turing come “spaventoso”.

Migliaia di persone si sono unite per chiedere giustizia per Alan Turing e il riconoscimento del modo spaventoso in cui è stato trattato. Sebbene Turing sia stato trattato secondo la legge del tempo, il suo trattamento è stato ovviamente assolutamente ingiusto e sono lieto di avere la possibilità di dire quanto profondamente dispiaciuto io e tutti noi siamo per quello che è successo a lui … Quindi, a nome del governo britannico, e di tutti coloro che vivono liberamente grazie al lavoro di Alan, sono molto orgoglioso di dire: ci dispiace, meritavi molto di meglio.

Nel dicembre 2011, William Jones e il membro del Parlamento, John Leech, hanno lanciato una petizione elettronica, chiedendo che il governo britannico condoni Turing per la condanna per “gravi atti osceni”. Chiediamo al governo di Sua Maestà di concedere la grazia ad Alan Turing per la condanna per “gravi atti osceni”. Alan Turing è stato portato a una terribile disperazione e alla morte prematura dalla nazione che aveva fatto così tanto per salvare. Questo rimane una vergogna per il governo britannico e la storia britannica. Un perdono può fungere da scuse per molti altri uomini gay, non così noti come Alan Turing, che sono stati soggetti a queste leggi .La petizione ha raccolto oltre 37.000 firme, ed è stata presentata al Parlamento dal deputato di Manchester John Leech, ma la richiesta è stata scoraggiata dal ministro della Giustizia Lord McNally.

John Leech, il deputato di Manchester, ha presentato diversi progetti di legge al Parlamento e ha condotto una campagna di alto profilo per ottenere la grazia. Leech ha sostenuto alla Camera dei Comuni che il contributo di Turing alla guerra lo ha reso un eroe nazionale e che era “alla fine solo imbarazzante” che la condanna fosse ancora valida. Leech ha continuato a portare il disegno di legge in Parlamento e ha condotto una campagna per diversi anni, ottenendo il sostegno pubblico di numerosi eminenti scienziati, tra cui Stephen Hawking. Alla premiere britannica di un film basato sulla vita di Turing, “The Imitation Game”, i produttori hanno ringraziato Leech per aver portato l’argomento all’attenzione del pubblico e aver ottenuto il “perdono di Turing”. Leech, successivamente alla legge Alan Turing,  ha continuato a garantire la grazia per 75.000 altri uomini e donne condannati per crimini simili.

Nel 2012 è stato presentato alla Camera dei Lord un disegno di legge per concedere la grazia legale a Turing per i reati ai sensi della sezione 11 del Criminal Law Amendment Act 1885, per il quale fu condannato il 31 marzo 1952. Alla fine dell’anno in una lettera al The Daily Telegraph, il fisico Stephen Hawking e altri 10 firmatari tra cui l’astronomo Royal Lord Rees, il presidente della Royal Society Sir Paul Nurse, Lady Trumpington (che ha lavorato per Turing durante la guerra) e Lord Sharkey (sponsor del disegno di legge) ha invitato il primo ministro David Cameron ad agire sulla richiesta di grazia. Il governo ha indicato che avrebbe sostenuto il disegno di legge, ​​e ha approvato la sua terza lettura alla Camera dei Lord in ottobre 2012.

Alla seconda lettura del disegno di legge alla Camera dei Comuni il 29 novembre 2013, il deputato conservatore Christopher Chope si è opposto al disegno di legge, ritardandone l’approvazione. Il disegno di legge sarebbe dovuto tornare alla Camera dei Comuni il 28 febbraio 2014, ma prima che il disegno di legge potesse essere discusso, il governo ha deciso di procedere sotto la prerogativa reale della “misericordia”. Il 24 dicembre 2013, la regina Elisabetta II ha firmato la grazia per la condanna di Turing per “gravi atti osceni”, con effetto immediato.

Questa storia ricorda (a parte gli anni trascorsi), la “riabilitazione” di Galileo da parte delle alte gerarchie della chiesa cattolica…(N.d. R.).

Ci fa piacere ricordare che Alan Turing fu nominato Ufficiale dell’Ordine dell’Impero Britannico nel 1946, nonchè eletto Fellow della Royal Society (FRS) nel 1951. Turing è stato onorato in vari modi a Manchester, la città dove ha lavorato verso la fine della sua vita, come mostrano le seguenti figure.

Figure: (sotto) l’Edificio Alan Turing; (sopra) placca commemorativa. Città  di Manchester.

Oggi, l’effige di Alan Turing è stampata sulla banconota da 50 sterline:

Bibliografia

[1] A.M. Turing, On Computable Numbers, with an Application to the Entscheidungsproblem.,London Math. Soc., 1936

[2]J.Grime,What Did Turing Do for Us?,https://nrich.maths.org/8050

[3] A.M Turing, Systems of  Logic Based on Ordinals, PhD thesis, Univers. Princeton

https://web.archive.org/web/20121023103503/https://webspace.princeton.edu/users/jedwards/Turing%20Centennial%202012/Mudd%20Archive%20files/12285_AC100_Turing_1938.pdf

[4] A.M. Turing, The chemical basis of morphogenesis.,Phil. Trans. R. Soc. Lond. B, 1952, 237, 37-72.

[5] J. D. Murray, How the Leopard Gets its Spots. Scientific American, 1988, 258(3), 80.

[6] J. Murray, Mathematical Biology, Springer Verlag, 2007, Chap. 6.

[7] G. Vogel, Turing Pattern Fingered for Digit Formation., Science, 2012, 338, 1406.

[8] R. Sheth et al., Hox Genes Regulate Digit Patterning by Controlling the Wavelength of a Turing-Type Mechanism., Science, 2012, 338, 1476-1480.

[9] A. Hodges, The Alan Turing Bibliography, https://www.turing.org.uk/sources/biblio2.html


[1] Boris Pavlovich Belousov (1893–1970) è stato un chimico e biofisico sovietico che ha scoperto la reazione Belousov-Zhabotinsky (reazione BZ) nei primi anni ’50. Il suo lavoro ha avviato il campo della moderna dinamica chimica non lineare, anche se la prima reazione chimica periodica fu in realtà scoperta da William Crowell Bray nel 1921. V. anche J. Chem. Educ. 201794 (2), 195-201.

[2] A me sembra che questa “ricostruzione” sia abbastanza fantasiosa: si ritiene che sia sufficiente mezza tazza di semi di mela per uccidere un adulto, e una mezza mela smangiucchiata non è certamente sufficiente.

[3] I Servizi segreti, che già avevano Turing nel mirino, non è difficile pensare che abbiano avuto un loro interesse nell’eliminarlo.

Recensione. I bugiardi del clima.

In evidenza

Luigi Campanella, già Presidente SCI

I bugiardi del clima. Potere, politica psicologia di chi nega la crisi del secolo

di Stella Levantesi,ed.Laterza p.256 2021 17 euro

In questi 2 fine settimana di luglio ho avuto il tempo di leggere un libro che merita alcune riflessioni in relazione all’impegno del nostro blog rispetto ad alcuni temi per i quali l’aspetto scientifico, sociale e politico si intrecciano intimamente. Mi riferisco a “I bugiardi del clima” di Stella Levantesi, ed.Laterza. Il libro vuole rispondere ad una domanda: perchè nonostante decenni di consapevolezza scientifica sui motivi dei cambiamenti climatici l’azione politica è così lenta e le iniziative più significative sono quelle affidate alla società civile? La risposta può aiutare a comprendere gli errori del passato ed a non commetterne ancora.

La novità del libro secondo me deriva dal suo metodo:percorrere al fine di comprendere non il.percorso di chi è giunto alla conclusione dell’emergenza climatica, ma di chi afferma che non c’è. Si comprende quindi come i negazionisti siano abili nel trasformare un fenomeno scientifico da tutti osservabile in un tema politico: così il fenomeno perde il suo fondamento scientifico e diventa questione politica, se non addirittura partitica, e come tale è più facile metterne in discussione l’esistenza e, soprattutto, l’urgenza.

Il libro presenta anche una interpretazione storica della nascita del negazionismo ambientale: alcune aziende di gas,carbone e petrolio sapevano come realmente stessero le cose sin dagli anni ’70-’80 con.i loro tecnici capaci di collegare attività produttive, combustibili fossili ed emissioni climalteranti, causa dell’innalzamento termico del pianeta. Per dirottare la conoscenza delle cose e delle relative responsabilità tali tecnici hanno attuato una campagna di disinformazione durata fino al 2015, quando tali fatti vennero alla luce con riferimento specifico alla Exxon.

In effetti anche Shell ed altri sapevano,ma nessuno aveva parlato cosicché il fronte negazionista aveva avuto la possibilità di crescere e rinforzarsi. Non erano state coinvolte nell’operazione solo aziende di combustibili fossili: associazioni industriali avevano arruolato negazionisti a noleggio (la denominazione è dovuta allo scienziato Michael Mann) ed alcuni circoli conservatori avevano promosso una camera dell’eco che comprendeva alcune piattaforme mediatiche negazioniste. Tra i primi obbiettivi di queste sono stati e sono tuttora l’ostacolo e la resistenza a qualunque regolamentazione al settore fossile ed alla politica climatico ambientale e la semina di discredito alla scienza del clima. Questa – può essere una giusta osservazione a posteriori -si é dispersa in molti troppi rivoli frazionando dati e conoscenze a svantaggio della loro significatività. La macchina negazionista per acquisire forza si serve di differenti strumenti, dai finanziamenti alla propaganda politica alle strategie di comunicazione.Secondo uno studio le maggiori compagnie di gas e petrolio spendono più di 200 milioni di dollari l’anno al fine di esercitare pressioni per ostacolare le politiche climatiche e la regolamentazione del settore. Circa i dati scientifici gli strumenti più adottati per finalizzarli al proprio tornaconto negazionista sono quelli del cosiddetto cherry pickling per cui si isolano dei dati e si sopprimono le prove e le vie di accesso al quadro completo e dell’argumentum ad hominem,strategia per cui invece di criticare i contenuti di un’argomentazione si lancia discredito su chi l’ha formulata. Infine viene confusa l’opinione pubblica dando l’impressione che il dibattito scientifico sui cambiamenti climatici sia ancora in corso e su questo torna l’osservazione già prima formulata, circa alcune responsabilità del mondo scientifico talvolta ubriacato da un numero crescente di dati in un approccio olistico che però finisce per fare perdere la visione di sintesi.

La prima bugia che si può raccontare sull’emergenza climatica è che non è colpa dell’essere umano;la seconda è che tutti gli esseri umani ne sono responsabili in uguale misura.Queste bugie, insieme alla paura di perdere lo status quo ed i propri benefici all’interno della società, finiscono per alimentare il negazionismo. Ed ecco perché la crisi climatica non riguarda solo la Scienza, ma va reinterpretata come crisi che interseca tutte le altre, dalla giustizia sociale alla salute pubblica.
Non voglio chiudere queste note sul libro di Stella Levantesi senza ricordare il significativo paragone che vi si può leggere descritto circa come le strategie negazioniste ricalchino quelle dell’industria del tabacco. I parallelismi tra le due campagne di disinformazione sono evidenti: per continuare a vendere sigarette si nascondono dati e si screditano quanti su basi scientifiche dimostrano la correlazione stretta fra fumo e tumore dei polmoni o anche semplici patologie respiratorie.
Non sono Stella Levantesi ed ho solo cercato di sintetizzare il suo pensiero descritto con chiarezza ed incisività nel suo libro.Il fatto che io condivida quanto riportato non deve togliere a quanti leggono questo post la curiosità di leggere in dettaglio il libro per poi elaborarlo nella propria coscienza al fine di contribuire affinchè il dibattito perda quei caratteri di strumentalità che nuocciono a scelte sostenibili.

Alan Turing (1912-1954). Parte 1.

In evidenza

Rinaldo Cervellati

A proposito del mio post su scienziati e scienziate LGBT, un attento lettore mi ha fatto notare che mi sarei dimenticato di Alan Turing, ampiamente considerato il padre dell’informatica e dell’intelligenza artificiale, oltre di altre “cosette” oggi ricordate dai ricercatori in dinamica non-lineare.(NdP) Ebbene, non mi sono certo dimenticato di Turing, avendo letto la versione italiana della sua ponderosa biografia compilata da Andrew Hodgens[1]. Dopo questo volume, è certamente difficile scrivere un post su Turing, tenendo conto che, dopo aver servito l’Inghilterra decifrando il codice tedesco “Enigma”, fu costretto, nel 1952, alla “castrazione chimica” per la sua omosessualità. Dopo di che, due anni dopo, Alan Turing si suicidò. Guardate che sono solo circa meno di 70 anni fa, ma in Inghilterra le cose stavano così.

E adesso, perdonatemi, ma la mia biografia è presa da wikipedia (English edition)[2]. Molto recentemente, una breve storia di Turing è stata riportata su Rai Storia, “Passato e Presente”, il 23 giugno[3].

Turing nacque a Maida Vale, Londra, mentre suo padre, Julius Mathison Turing, era in congedo dalla sua occupazione come Presidente di Madras nello Stato di Odisha, in India. La madre di Turing, era Ethel Sara Turing, figlia di Edward Waller Stoney, ingegnere capo delle ferrovie di Madras, in India.

Il lavoro di Julius portò la famiglia nell’India britannica, dove suo nonno era stato generale nell’esercito del Bengala. Tuttavia, sia Julius che Ethel volevano che i loro figli crescessero in Gran Bretagna, quindi si trasferirono a Maida Vale(in seguito il Colonnade Hotel), Londra, dove Alan Turing nacque il 23 giugno 1912, Turing aveva un fratello maggiore, John.

L’attività per il servizio civile del padre di Alan era ancora attiva e durante gli anni dell’infanzia di Turing, i suoi genitori viaggiarono tra Hastings nel Regno Unito e l’India, lasciando i loro due figli con una coppia dell’esercito in pensione. Ad Hastings, Turing soggiornò a Baston Lodge, Upper Maze Hill, St Leonards-on-Sea, ora contrassegnato da una targa blu. La targa è stata svelata il 23 giugno 2012, centenario della nascita di Turing.

Molto presto nella vita, Turing mostrò segni del genio che in seguito avrebbe mostrato in modo prominente. I suoi genitori acquistarono una casa a Guildford nel 1927 e Turing visse lì durante le vacanze scolastiche.

I genitori di Turing lo iscrissero a St Michael’s, una scuola diurna di Charles Road, all’età di sei anni. La direttrice riconobbe presto il suo talento, così come molti dei suoi successivi insegnanti.

Tra il gennaio 1922 e il 1926, Turing studiò alla Hazelhurst Preparatory School, una scuola indipendente nel villaggio di Frant nel Sussex. Nel 1926, all’età di 13 anni, passò alla Sherborne School, un collegio indipendente nella città di Sherborne nel Dorset, dove si iscrisse alla Westcott House. Il primo giorno di scuola coincise con lo sciopero generale del 1926, in Gran Bretagna, ma Turing era così determinato a partecipare che percorse in bicicletta  60 miglia (97 km) da Southampton a Sherborne, fermandosi per la notte in una locanda.

La naturale inclinazione di Turing verso la matematica e le scienze non gli valse il rispetto di alcuni degli insegnanti di Sherborne, la cui definizione di educazione poneva più enfasi sui classici. Il suo preside scrisse ai suoi genitori: “Spero che non cada tra due sgabelli. Se vuole restare alla scuola pubblica, deve mirare a diventare istruito. Se vuole essere solo uno specialista scientifico, sta perdendo il suo tempo in una scuola pubblica”. Nonostante ciò, Turing continuò a mostrare notevole abilità negli studi che amava, risolvendo problemi avanzati nel 1927 senza aver studiato nemmeno il calcolo elementare. Nel 1928, all’età di 16 anni, Turing lesse il lavoro di Albert Einstein; non solo lo comprese, ma è possibile che sia riuscito a dedurre l’interrogativo di Einstein sulle leggi del moto di Newton da un testo che non è mai stato reso esplicito.

Ritratto di Alan Turing a 16 anni

A Sherborne, Turing strinse un’amicizia particolare con il compagno di studi Christopher Collan Morcom (1911 – 1930), che è stato descritto come il “primo amore” di Turing. La loro relazione fornì ispirazione per i futuri sforzi di Turing, ma fu interrotta dalla morte di Morcom, nel febbraio 1930, per complicazioni della tubercolosi bovina, contratta dopo aver bevuto latte di mucca infetto alcuni anni prima. L’evento causò grande dolore a Turing.  Affrontò il suo dolore lavorando molto più duramente sui temi della scienza e della matematica che aveva condiviso con Morcom. In una lettera alla madre di Morcom, Frances Isobel Morcom (nata Swan), Turing scrisse:

Sono sicuro che non avrei potuto trovare da nessuna parte un altro compagno così brillante eppure così affascinante e senza presunzione. Consideravo il mio interesse per il mio lavoro, e in cose come l’astronomia (che mi ha fatto conoscere) come qualcosa da condividere con lui e penso che lui provasse un po’ lo stesso per me… so che devo mettere tanta energia se non tanto interesse per il mio lavoro come se fosse vivo, perché così vorrebbe che facessi.

La relazione di Turing con la madre di Morcom continuò a lungo dopo la morte di Morcom, con l’invio di regali a Turing e l’invio di lettere da parte di lui. Un giorno prima del terzo anniversario della morte di Morcom (13 febbraio 1933), scrisse che continuava a mostrare notevole abilità negli studi che amava, risolvendo problemi avanzati. Alcuni hanno ipotizzato che la morte di Morcom sia stata la causa dell’ateismo e del materialismo di Turing. Apparentemente, a questo punto della sua vita credeva ancora in concetti come uno spirito, indipendente dal corpo e sopravvissuto alla morte. In una lettera successiva, scritta anche alla madre di Morcom, Turing scrisse:

Personalmente ritengo che lo spirito sia realmente eternamente connesso con la materia ma certamente non dallo stesso tipo di corpo… per quanto riguarda l’effettiva connessione tra spirito e corpo ritengo che il corpo possa trattenere uno ‘spirito’, mentre il corpo è vivo e sveglio i due sono saldamente collegati. Quando il corpo dorme non riesco a indovinare cosa succede ma quando il corpo muore, il ‘meccanismo’ del corpo, che tiene lo spirito è sparito e lo spirito trova un nuovo corpo prima o poi, forse immediatamente.

Dopo Sherborne, Turing studiò come studente universitario dal 1931 al 1934 al King’s College di Cambridge, dove ricevette il massimo dei voti in matematica. Nel 1935, all’età di 22 anni, fu eletto Fellow del King’s College sulla base di una tesi in cui dimostrò il teorema del limite centrale. Nel 1936 Turing pubblicò il suo articolo “On Computable Numbers, with an Application to the Entscheidungsproblem”[1], sulla rivista Proceedings of the London Mathematical Society in due parti, la prima il 30 novembre e la seconda il 23 dicembre. In questo articolo, Turing ha riformulato i risultati del 1931 di Kurt Gödel sui limiti della dimostrazione e del calcolo, sostituendo il linguaggio formale universale basato sull’aritmetica di Gödel con i dispositivi ipotetici formali e semplici che divennero noti come macchine di Turing. L’Entscheidungsproblem (problema decisionale) fu originariamente posto dal matematico tedesco David Hilbert nel 1928. Turing dimostrò che la sua “macchina di calcolo universale” sarebbe stata in grado di eseguire qualsiasi calcolo matematico concepibile se fosse rappresentabile come un algoritmo. Proseguì dimostrando che non esisteva una soluzione al problema decisionale dimostrando innanzitutto che il problema dell’arresto per le macchine di Turing è indecidibile: non è possibile decidere algoritmicamente se una macchina di Turing si fermerà. Questo articolo è stato definito  “il documento di matematica più influente della storia”.

Al King’s College di Cambridge, dove Turing era uno studente nel 1931 e divenne Fellow nel 1935, la sala computer prende il suo nome.

Sebbene la dimostrazione di Turing sia stata pubblicata poco dopo la dimostrazione equivalente di Alonzo Church usando il suo lambda calcolo, l’approccio di Turing è considerevolmente più accessibile e intuitivo di quello di Church.[2] Comprendeva anche una nozione di “macchina universale” (ora nota come macchina di Turing), con l’idea che tale macchina potesse svolgere i compiti di qualsiasi altra macchina di calcolo (come in effetti potrebbe fare il lambda calcolo di Church). Secondo la tesi di Church-Turing, le macchine di Turing e il lambda calcolo sono in grado di calcolare qualsiasi cosa sia calcolabile. John von Neumann riconobbe che il concetto centrale del computer moderno era dovuto all’articolo di Turing. Fino ad oggi, le macchine di Turing sono un oggetto di studio centrale nella teoria del calcolo.

Dal settembre 1936 al luglio 1938, Turing trascorse la maggior parte del suo tempo a studiare con Church alla Princeton University, nel secondo anno come Jane Eliza Procter Visiting Fellow. Oltre al suo lavoro puramente matematico, studiò la criptografia e costruì anche tre dei quattro stadi di un moltiplicatore binario elettromeccanico. Nel giugno 1938 conseguì il dottorato di ricerca presso il Dipartimento di Matematica di Princeton; la sua tesi, Systems of Logic Based on Ordinals,[3] introdusse il concetto di logica ordinale e la nozione di calcolo relativo, in cui le macchine di Turing sono potenziate con i cosiddetti “oracoli”, che consentono lo studio di problemi che non possono essere risolti dalle macchine di Turing. John von Neumann voleva assumerlo come suo assistente post-dottorato, ma tornò nel Regno Unito.

Quando Turing tornò a Cambridge, frequentò le lezioni tenute nel 1939 da Ludwig Wittgenstein sui fondamenti della matematica. Le lezioni sono state ricostruite testualmente, comprese le interiezioni di Turing e di altri, dagli appunti degli studenti. Turing e Wittgenstein discutevano e non erano d’accordo, con Turing che difendeva il formalismo e Wittgenstein che proponeva la sua opinione secondo cui la matematica non scopre verità assolute, ma piuttosto le inventa.

Criptoanalisi

Durante la seconda guerra mondiale, Turing fu uno dei principali partecipanti alla violazione dei codici tedeschi a Bletchley Park[4]. Lo storico e decodificatore del tempo di guerra Asa Briggs ha detto: “Avevi bisogno di talento eccezionale, avevi bisogno di genio a Bletchley e Turing era quel genio”.

Dal settembre 1938, Turing lavorò part-time con la Government Code and Cypher School (GC&CS), l’organizzazione britannica per la decifrazione dei codici. Si concentrò sulla criptoanalisi della macchina per cifrare Enigma usata dalla Germania nazista, insieme a Dilly Knox, un decifratore anziano di GC&CS. Subito dopo l’incontro del luglio 1939 vicino a Varsavia, durante il quale l’Ufficio di crittografia polacco fornì ai britannici e ai francesi i dettagli del cablaggio dei rotori della macchina Enigma e il loro metodo per decifrare i messaggi della macchina Enigma, Turing e Knox svilupparono una soluzione più ampia. Il metodo polacco si basava su una procedura di indicatore insicura che i tedeschi avrebbero probabilmente cambiato, cosa che in effetti fecero nel maggio 1940. L’approccio di Turing era più generale, utilizzando una decifrazione per la quale produsse la specifica funzionale della “bomba” (un miglioramento sulla “Bomba” polacca).

Il 4 settembre 1939, il giorno dopo che il Regno Unito dichiarò guerra alla Germania, Turing riferì a Bletchley Park, la stazione di guerra di GC&CS. Specificare la bomba fu il primo dei cinque grandi progressi criptoanalitici che Turing fece durante la guerra. Gli altri erano: dedurre la procedura di indicizzazione utilizzata dalla marina tedesca; sviluppare una procedura statistica chiamata Banburismus per fare un uso molto più efficiente delle bombe; sviluppo di una procedura soprannominata Turingery per elaborare le impostazioni dei rotori della macchina cifratrice Lorenz SZ 40/42 (Tunny) e, verso la fine della guerra, lo sviluppo di uno scrambler vocale sicuro portatile a Hanslope Park che è stato nome in codice Delilah .

Utilizzando tecniche statistiche per ottimizzare la sperimentazione di diverse possibilità nel processo di decifrazione del codice, Turing ha dato un contributo innovativo all’argomento. Ha scritto due articoli che discutono gli approcci matematici, intitolati The Applications of Probability to Cryptography e Paper on Statistics of Repetitions, che sono stati di tale valore per GC&CS e il suo successore GCHQ, che non sono stati rilasciati agli archivi nazionali del Regno Unito fino all’aprile 2012, poco prima del centenario della sua nascita. Un matematico del GCHQ, “che si identificò solo come Richard”, disse all’epoca che il fatto che il contenuto fosse stato limitato per circa 70 anni dimostrava la loro importanza, e la loro rilevanza per la criptoanalisi del dopoguerra: [Egli] ha affermato che il fatto che i contenuti siano stati ristretti “dimostra l’enorme importanza che ha nei fondamenti del nostro argomento”. … I documenti dettagliati utilizzando “l’analisi matematica per cercare di determinare quali sono le impostazioni più probabili in modo che possano essere provate il più rapidamente possibile”. … Richard ha detto che GCHQ aveva ora “spremuto il succo” ed era “felice che fossero rilasciati nel pubblico dominio”.

Turing aveva la reputazione di essere eccentrico a Bletchley Park. Era noto ai suoi colleghi come “Prof” e il suo trattato su Enigma era noto come “Libro del prof”. Lo storico Ronald Lewin, Jack Good, un criptoanalista che ha lavorato con Turing, ha detto del suo collega:

Nella prima settimana di giugno di ogni anno aveva un brutto attacco di febbre da fieno e andava in bicicletta in ufficio indossando una maschera antigas di servizio per tenere lontano il polline. La sua bicicletta aveva un difetto: la catena si staccava a intervalli regolari. Invece di farla riparare contava il numero di giri dei pedali e scendeva dalla bicicletta in tempo per aggiustare a mano la catena.

Peter Hilton ha raccontato, nelle sue “Reminiscenze di Bletchley Park”, la sua esperienza di lavoro con Turing nel capanno 8: “È un’esperienza rara incontrare un autentico genio. Quelli di noi che hanno il privilegio di vivere nel mondo della borsa di studio hanno familiarità con gli stimoli intellettuali forniti da colleghi di talento. Possiamo ammirare le idee che condividono con noi e di solito siamo in grado di comprenderne la fonte; possiamo anche spesso credere che noi stessi avremmo potuto creare tali concetti e originato tali pensieri. Tuttavia, l’esperienza di condividere la vita intellettuale di un genio è completamente diversa; ci si accorge di essere in presenza di un’intelligenza, di una sensibilità di tale profondità e originalità che si riempie di stupore ed eccitazione. Alan Turing era un tale genio, e chi, come me, ha avuto la sorprendente e inaspettata opportunità, creata dalle strane esigenze della seconda guerra mondiale, di poter avere Turing come collega e amico, non dimenticherà mai quell’esperienza, né potrà perdere mai il suo immenso beneficio per noi.”

Mentre lavorava a Bletchley, Turing, che era un talentuoso fondista, occasionalmente correva per 40 miglia (64 km) fino a Londra quando era necessario per le riunioni, ed era capace di standard di maratona di livello mondiale. Turing provò per la squadra olimpica britannica del 1948, ma fu ostacolato da un infortunio. Il suo tempo di prova per la maratona è stato di soli 11 minuti più lento del tempo di gara olimpico di 2 ore e 35 minuti di Thomas Richards, medaglia d’argento britannica. Era il miglior corridore del Walton Athletic Club, un fatto scoperto quando ha superato il gruppo mentre correva da solo. Quando gli è stato chiesto perché ha corso così tanto in allenamento, ha risposto: “Ho un lavoro così stressante che l’unico modo per togliermelo dalla testa è correre duro; è l’unico modo per ottenere un po’ di libertà.”

Entro poche settimane dall’arrivo a Bletchley Park, Turing aveva ideato una macchina elettromeccanica chiamata “bomba”, che poteva decifrare Enigma in modo più efficace della bomba kryptologiczna polacca, da cui derivava il nome. La bomba, con un miglioramento suggerito dal matematico Gordon Welchman, divenne uno degli strumenti principali, e il principale automatizzato, utilizzato per decifrare i messaggi cifrati da Enigma.

Una replica completa e funzionante di una bomba è ora al National Museum of Computing a Bletchley Park

Una replica completa e funzionante di una macchina di Turing (“bomba”). National Museum a Bletchley Park

La “bomba” ha cercato possibili impostazioni corrette utilizzate per un messaggio Enigma (cioè, ordine del rotore, impostazioni del rotore e impostazioni del plugboard) utilizzando un frammento di probabile testo in chiaro. Per ogni possibile impostazione dei rotori (che aveva dell’ordine 1019 stati, o 1022 stati per la variante U-boat a quattro rotori), la “ bomba” eseguiva una catena di deduzioni logiche, attuate in modo elettromeccanico.

La bomba ha rilevato quando si verificava una contraddizione ed ha escluso tale impostazione, passando alla successiva. La maggior parte delle possibili impostazioni causerebbe contraddizioni e verrebbe scartata, lasciandone solo alcune da indagare in dettaglio. Si sarebbe verificata una contraddizione quando una lettera cifrata sarebbe stata ritrasformata nella stessa lettera in chiaro, cosa impossibile con Enigma. La prima bomba fu installata il 18 marzo 1940.

Alla fine del 1941, Turing e i suoi colleghi criptoanalisti Gordon Welchman, Hugh Alexander e Stuart Milner-Barry erano frustrati. Basandosi sul lavoro dei polacchi, avevano messo a punto un buon sistema funzionante per decifrare i segnali Enigma, ma il loro personale limitato impedivano loro di tradurre tutti i segnali. In estate ebbero un notevole successo e le perdite dei convogli erano scese a meno di 100.000 tonnellate al mese; tuttavia, avevano un disperato bisogno di più risorse per tenersi al passo con gli adeguamenti tedeschi. Avevano cercato di ottenere più persone e finanziare più bombe attraverso i canali appropriati, ma avevano fallito.

Il 28 ottobre scrissero direttamente a Winston Churchill spiegando le loro difficoltà, con Turing come primo nominato. Sottolineavano quanto fosse esiguo il loro bisogno rispetto all’ingente dispendio di uomini e denaro da parte di esercito e marina e rispetto al livello di assistenza che potevano offrire alle forze armate.

Nel luglio 1942, Turing ideò una tecnica chiamata Turingery (o scherzosamente Turingismus) da usare contro i messaggi cifrati di Lorenz prodotti dalla nuova macchina tedesca Geheimschreiber (scrittore segreto). Questa era una tecnica di cifratura del rotore di una telescrivente, nome in codice Tunny a Bletchley Park. Turingery era una procedura per elaborare le impostazioni dei rotori di Tunny. Ha anche presentato il team di Tunny a Tommy Flowers che, sotto la guida di Max Newman, ha continuato a costruire il computer Colossus, il primo computer elettronico digitale programmabile al mondo, che ha sostituito una macchina precedente più semplice (la Heath Robinson), e la cui velocità superiore ha permesso di applicare utilmente ai messaggi le tecniche di decrittazione statistica. Alcuni hanno erroneamente affermato che Turing fosse una figura chiave nella progettazione del computer Colossus. Turingery e l’approccio statistico di Banburismus hanno senza dubbio alimentato il pensiero sulla criptoanalisi del cifrario di Lorenz, ma non è stato direttamente coinvolto nello sviluppo di Colossus.

Dopo il suo lavoro presso i Bell Labs negli Stati Uniti, Turing perseguì l’idea della cifratura elettronica nel sistema telefonico. Nell’ultima parte della guerra, si trasferì a lavorare per il servizio di sicurezza radio dei servizi segreti (in seguito HMGCC) a Hanslope Park. A Hanslope, ha ulteriormente sviluppato la sua conoscenza dell’elettronica con l’assistenza dell’ingegnere Donald Bayley. Insieme hanno intrapreso la progettazione e la costruzione di una macchina portatile per comunicazioni vocali sicure, nome in codice Delilah. La macchina era destinata a diverse applicazioni, ma non aveva la capacità di essere utilizzata con trasmissioni radio a lunga distanza. In ogni caso, Delilah fu completata troppo tardi per essere utilizzata durante la guerra. Sebbene il sistema funzionasse pienamente, con Turing che lo dimostrava ai funzionari crittografando e decifrando una registrazione di un discorso di Winston Churchill, Delilah non fu usata. Turing si consultò anche con i Bell Labs sullo sviluppo di SIGSALY, un sistema vocale sicuro che fu utilizzato negli ultimi anni della guerra.

Tra il 1945 e il 1947, Turing visse a Hampton, Londra, mentre lavorava alla progettazione dell’ACE (Automatic Computing Engine) presso il National Physical Laboratory (NPL). Presentò un progetto il 19 febbraio 1946, che è stato il primo progetto dettagliato di un computer a programma memorizzato. La prima bozza incompleta di un rapporto sull’EDVAC di von Neumann era precedente all’articolo di Turing, ma era molto meno dettagliata e, secondo John R. Womersley, sovrintendente della divisione matematica della NPL, “contiene una serie di idee che sono proprio del dottor Turing”. Sebbene ACE fosse un progetto fattibile, la segretezza che circondava il lavoro in tempo di guerra a Bletchley Park portò a ritardi nell’avvio del progetto e Turing rimase deluso. Alla fine del 1947 tornò a Cambridge per un anno sabbatico durante il quale produsse un’opera fondamentale sulle macchine intelligenti che non fu pubblicata durante la sua vita. Mentre era a Cambridge, il Pilot ACE venne costruito in sua assenza. Eseguì il suo primo programma il 10 maggio 1950 e un certo numero di computer successivi in ​​tutto il mondo gli devono molto, tra cui l’inglese Electric DEUCE e l’americano Bendix G-15. La versione completa dell’ACE di Turing fu costruita solo dopo la sua morte.

Secondo le memorie del pioniere tedesco dei computer Heinz Billing del Max Planck Institute for Physics, pubblicate da Genscher, Düsseldorf, ci fu un incontro tra Turing e Konrad Zuse. Ebbe luogo a Göttingen nel 1947. L’interrogatorio ha avuto la forma di un colloquio. I partecipanti erano Womersley, Turing, Porter dall’Inghilterra e alcuni ricercatori tedeschi come Zuse, Walther e Billing.

Nel 1948 Turing fu nominato lettore nel dipartimento di matematica della Victoria University di Manchester. Un anno dopo, divenne vicedirettore del Computing Machine Laboratory, dove lavorò al software per uno dei primi computer a programma memorizzato, il Manchester Mark 1. Turing scrisse la prima versione del Manuale del programmatore per questa macchina, e fu reclutato da Ferranti come consulente nello sviluppo della loro macchina commercializzata, la Ferranti Mark 1. Ha continuato a ricevere commissioni di consulenza da Ferranti fino alla sua morte. Durante questo periodo, continuò a fare lavori più astratti in matematica,e in “Computing Machinery and Intelligence”, Turing affrontò il problema dell’intelligenza artificiale e propose un esperimento che divenne noto come Turing test, un tentativo di definire uno standard per una macchina da chiamare “intelligente”. L’idea era che si potesse dire che un computer “pensa” se un interrogatore umano non poteva distinguerlo, attraverso la conversazione, da un essere umano. Nell’articolo, Turing suggerì che piuttosto che costruire un programma per simulare la mente dell’adulto, sarebbe stato meglio produrne uno più semplice per simulare la mente di un bambino e poi sottoporlo a un corso di educazione. Una forma inversa del test di Turing è ampiamente utilizzata su Internet; il test CAPTCHA ha lo scopo di determinare se l’utente è un essere umano o un computer.

Nel 1948 Turing, lavorando con il suo ex collega di laurea, D.G. Champernowne, iniziò a scrivere un programma di scacchi per un computer che non esisteva ancora. Nel 1950, il programma fu completato e ribattezzato Turochamp. Nel 1952, tentò di implementarlo su una Ferranti Mark 1, ma mancando di potenza sufficiente, il computer non fu in grado di eseguire il programma. Invece, Turing “eseguiva” il programma sfogliando le pagine dell’algoritmo ed eseguendo le sue istruzioni su una scacchiera, impiegando circa mezz’ora per mossa. Il gioco è stato registrato. Secondo Garry Kasparov, il programma di Turing “ha giocato una partita a scacchi riconoscibile”. Il programma ha perso contro il collega di Turing, Alick Glennie, anche se si dice che abbia vinto una partita contro Isabel Champernowne. Il test di Turing è stato un contributo significativo, tipicamente provocatorio e duraturo sul dibattito sull’intelligenza artificiale, che continua dopo più di mezzo secolo.

(continua)


[1] Andrew Hodges, Storia di un Enigma. Vita di Alan Turing 1912-1954, Bollati Boringhieri, Torino, 1991.

[2] https://en.wikipedia.org/wiki/Alan_Turing

[3] https://www.raiplay.it/video/2021/03/Passato-e-Presente—Alan-Turing-il-matematico-che-sconfisse-Hitler-1497f5bf-c77f-4efc-8857-004539429d03.html

[4] Bletchley Park, anche nota come Stazione X, è una tenuta situata a Bletchley, un paese a circa 75 km a nord-ovest di Londra. Durante la seconda guerra mondiale, Bletchley Park fu il sito dell’unità principale di criptoanalisi del Regno Unito, nonché sede della Scuola governativa di codici e cifrazione (GC&CS). Codici e messaggi cifrati dei paesi dell’Asse sono stati decifrati a Bletchley Park. Il più noto è il codice nazista ottenuto con la macchina Enigma e la cifratrice di Lorenz.

NdP.

Oltre alla completa bibliografia di Rinaldo ricordo anche i seguenti link:

un articoletto per una rivista divulgativa di matematica Xlatangente, n. 18 2009

Margherite, morfogeni e automi cellulari C. Della Volpe e S. Siboni

http://www.xlatangente.it/page.php?id=1632

sul nostro blog un post sulla castrazione chimica

Turing è anche stato ricordato in un altro post di Nebbia

ed in altri post

Inquinamento da Covid.

In evidenza

Luigi Campanella, già Presidente SCI

Ho già affrontato questo argomento in tempi meno sospetti, ma oggi dati alla mano forniti dal WWF Italia la mia preoccupazione di allora diviene molto più angosciata. Mi riferisco agli effetti della pandemia sullo stato di inquinamento del pianeta, effetti che sembrano vanificare gli sforzi di questi ultimi anni per ridurre il consumo di plastiche monouso.

7miliardi di mascherine indossate al giorno nel.mondo, 900 milioni in Europa, 2000 tonnellate delle quali confluiscono ogni giorno tra i rifiuti, 60% degli utenti che preferisce confezioni a prodotti sfusi, impennata degli imballaggi in plastica, 56% in più di consegne di cibo a domicilio, 54 g di plastica la media di ogni pasto, conseguente aumento di stoviglie monouso (malgrado le recenti contrarie disposizioni in materia), 50 tonnellate di rifiuti plastici al giorno in relazione al divieto di consumo al banco, boom.degli acquisti on-line con il loro carico di imballaggi.

Tutto ciò ha prodotto in corrispondenza con la pandemia un inquinamento crescente di strade e mari, mettendo a rischio la vita di molti animali e la nostra salute. In particolare la plastica smaltita a seguito di questa emergenza è aumentata in quantità ed in pericolosità in quanto proprio la ricerca di matrici plastiche degradabili comporta la formazione per dissoluzione delle pericolosissime microplastiche che finiscono negli intestini degli animali e rappresentano inquinanti di nuova generazione, che giungono attraverso il plancton ad entrare nella catena alimentare apportando all’organismo umano pericolosi composti precedentemente assorbiti, a partire dai metalli pesanti.

https://farmaciagaudiana.it/mascherine-kn95-ffp2-ffp3-filtro-valvola-covid

Per capire bene la complessità del problema con riferimento, ad esempio, alle mascherine anticovid si pensi alla loro composizione, non monostrato ma costituita da tre strati successivi di composizione diversa fra loro il che ne rende difficile il riciclo dei costituenti:uno strato esterno in poliestere o nylon,uno mediano in tessuto non tessuto di polipropilene,uno interno assorbente in cellulosa. La risposta a questa emergenza non può che essere affidata ad un cambiamento di stile di vita con un comportamento corretto di noi cittadini che nella situazione attuale non può che concretizzarsi nello smaltimento come indifferenziata (ma ovviamente questo comportamento non può prescindere da un aumento della quantità di rifiuti) e nell’attenzione ad evitare dispersioni involontarie nell’ambiente (quei 2 g volati via dalle nostre mani peseranno per anni come macigni per l’ambiente!), tornando a frequentare i mercati e ad acquistare prodotti sfusi, riattivando l’uso della borraccia, evitando l’accumulo delle bottiglie per l’acqua, nella messa a punto di tecnologie capaci di riciclare i materiali delle mascherine dopo avere provveduto alla sanificazione ed Infine nella produzione di mascherine resistenti e riutilizzabili più volte attraverso un continuo processo di disinfezione ed una struttura meccanicamente più resistente. Sembrano riflessioni fuori tempo visto l’andamento calante della pandemiaa la storia ci insegna che le lezioni che sono venute dalle emergenze hanno purtroppo sempre trovato occasioni successive di applicazione.

Inoltre il caso delle mascherine ci insegna 2 cose;

-che parlare di economia circolare modo concreto significa adeguarsi per la sua applicazioni ai nuovi consumi

-e che le tecnologie di riciclo e riuso prevedono innovazioni che si basano sull’ avanzamento della ricerca.

Il Piano nazionale di ripresa e resilienza noto come Pnrr punta con decisione sulla diffusione dell’economia circolare, non solo come obiettivo etico, ma come strumento di crescita sostenibile nel tempo, anche dal punto di vista economico. Dall’agricoltura sostenibile alle smart cities fino alla gestione dei rifiuti i temi della circolarità sono in cima alle priorità del Piano e richiederanno grande attenzione anche all’innovazione tecnologica; proprio per adeguarsi al rinnovamento della nostra società.

Acqua chirale

In evidenza

Claudio Della Volpe

Acqua chirale.

Due gruppi molecolari sono chirali quando hanno la stessa struttura chimica ma sono l'immagine speculare l’uno dell'altro. Gli amminoacidi nelle proteine ​​sono chirali e, sebbene possano esistere come immagini speculari sinistrorse (L-) e destrorse (D-), in natura si trovano solo gli enantiomeri L. Al contrario, zuccheri e DNA si trovano solo in forma D. Le macromolecole costruite da blocchi di costruzione chirali formano esclusivamente strutture L o D. La stragrande maggioranza delle reazioni biologiche in ambienti acquosi viene messa a punto per la loro velocità e accuratezza utilizzando la selettività chirale

PNAS 2021 Vol. 118 No. 2 e2024376118 https://doi.org/10.1073/pnas.2024376118





Tutto ciò è ben noto al chimico e soprattutto al biochimico, ma dato che il tutto si svolge in acqua rimane una domanda: che ruolo svolge l’acqua in questa situazione?

La risposta non è chiara ma un recente lavoro getta nuova luce su questo aspetto e lo fa con una risposta inaspettata.

L’acqua viene di solito considerata un solvente “e basta”, un supporto al massimo “polare”, dotato di elevata costante dielettrica e costituita di molecole dipolari; ma questa visione semplicistica e di pubblico dominio ha dovuto pian piano cedere il passo ad una visione più complessa e ricca di chiaroscuri.

Anzitutto la molecola d’acqua è un esempio da manuale di molecola capace di comportarsi da acido e base di Lewis, ossia formare legami idrogeno; il legame idrogeno è una forma di legame chimico in cui l’accettazione e donazione di densità elettronica svolge un ruolo importante; ne abbiamo parlato anche nel blog.

Il legame idrogeno può essere visto come un legame acido-base di Lewis generalizzato; l’ossigeno o l’azoto o l’alogeno è la base che dona all’idrogeno densità elettronica, dall’HOMO dell’ossigeno o azoto o alogeno al LUMO dell’idrogeno; esistono addirittura legami idrogeno CONTRO la componente di carica elettrostatica; per esempio nel legame fra fluoruro e idrogeno del bicarbonato ([Parajuli] R. Parajuli, Does the recent IUPAC definition on hydrogen bonding lead to new intermolecular interactions? CURRENT SCIENCE, VOL. 110, NO. 4, 25 FEBRUARY 2016 ); insomma un legame idrogeno ANTI-ELETTROSTATICO!

L’acqua liquida è anche una sostanza presente sotto forma di due quasi-fasi, in rapido equilibrio, ossia le sue proprietà termodinamiche si possono calcolare considerando che a qualunque temperatura esista un equilibrio veloce fra una acqua strutturata, tipo ghiaccio con 4 primi vicini, ed una cosiddetta destrutturata con un po’ più di molecole vicine, più densa.

Questa visione ha attraversato il secondo cinquantennio del secolo scorso catalizzata soprattutto dai lavori di Bernal e dal monumentale trattato Water in 7 volumi di F. Franks.( https://ilblogdellasci.wordpress.com/2017/11/17/vite-parallele/)

Su idee e modelli come questi c’è chi ci ha passato una intera vita professionale; penso al compianto Guido Barone per esempio ed al suo gruppo storico di ricerca calorimetrica a Napoli (Castronuovo, Elia e tanti altri che mi scuseranno se non li nomino qui) .

All’epoca si sperava di usare i risultati calorimetrici ottenuti con sostanze semplici per modellare il comportamento in acqua di molecole complesse; l’acqua non era considerata un semplice supporto ma un mezzo “attivo” che interagiva e sosteneva la struttura proteica, non un semplice mezzo con un certa costante dielettrica alla maniera di Debye e Huckel per intenderci. E si usava il concetto della cosfera di idratazione, uno spazio organizzato di acqua condiviso fra più molecole disciolte, ma non ricordo si arrivasse mai all’idea che l’acqua delle cosfere potesse essere otticamente attiva.

Ma non basta l’acqua è anche la sostanza, unica al momento oltre l’idrogeno, ad aver mostrato l’impatto di un altro fenomeno originale, l’esistenza di  orto- e para- molecole in cui l’orientamento magnetico dei nuclei gioca un ruolo importante; anche di questo abbiamo parlato nel blog.

Questa caratteristica è stato proposto che abbia un ruolo nella articolazione in quasi-fasi;

S.D. Zakharov ipotizza che le strutture tipo ghiaccio siano strutture di para-acqua legate in cluster chiusi, per spiegarne la nulla libertà di rotazione, mentre la orto-acqua sarebbe invece l’acqua destrutturata; l’idea è intrigante, ma da confermare. http://link.springer.com/article/10.1134/S0006350913050205.

Ed infine oggi vi racconto brevemente che l’acqua è capace di strutturarsi in modo chirale attorno ad oggetti chirali; il lavoro è stato pubblicato su PNAS ed è scaricabile senza problemi.

https://www.pnas.org/content/117/52/32902.short?rss=1

con un commento articolato sulla medesima rivista.

https://www.pnas.org/content/118/2/e2024376118

Si tratta di questo; un gruppo di chimici americani (Yale) e cinesi (di varie sedi) ha esplorato la spettroscopia dell’acqua attorno a proteine con la configurazione delle β-sheets (come nella seta) deposte su un supporto di quarzo in blocchi antiparalleli. E poi ne ha riprodotto i risultati teoricamente.

L’analisi sperimentale è stata condotta usando la tecnica cosiddetta SFG ossia Sum frequency generation spectroscopy (SFG); si tratta di una tecnica di spettroscopia laser non lineare utilizzata per analizzare superfici e interfacce. In una tipica configurazione SFG, due raggi laser si mescolano in corrispondenza di un'interfaccia e generano un raggio di uscita con una frequenza pari alla somma delle due frequenze di ingresso, viaggiando in una direzione data dalla somma dei vettori d'onda dei fasci incidenti.
L’immagine tratta dal lavoro mostra cosa succede. Sulla superficie del quarzo α si formano pellicole idratate di assemblaggi di fogli β peptidici antiparalleli. Il campo elettromagnetico chirale SFG rilevato viene aggiunto a quello del quarzo α, portando alle intensità I1 e I2. I1 e I2 sono misurati per due diversi orientamenti del cristallo di quarzo α. La differenza I1 - I2 fornisce la direzione del campo elettromagnetico che riporta l'orientamento su/giù dei dipoli. Gli spettri abbozzati mostrano segnali speculari osservati per gli enantiomeri L contro D. L'illustrazione in basso a destra mostra lo schema a scacchiera degli orientamenti dei dipoli d'acqua che formano la struttura chirale, rivelata dalle simulazioni MD di Perets et al. 
Secondo gli autori il significato del lavoro è il seguente:
La struttura e la funzione delle biomacromolecole dipendono dalle strutture dell'acqua nel guscio di idratazione. Se si eseguono esperimenti e calcoli per esaminare le molecole d'acqua attorno a un foglio β antiparallelo, gli esperimenti mostrano che il segno delle risposte ottiche chirali dell'acqua si inverte quando il foglio è un enantiomero (L-) o (D-). La modellazione molecolare rivela una topologia chirale dell'acqua assemblata attorno al foglio. Questi risultati suggeriscono che le proteine ​​speculari organizzano le molecole d'acqua in strutture supermolecolari di chiralità opposta. Quindi, una descrizione completa della chiralità biomacromolecolare deve includere le molecole d'acqua circostanti. Questa scoperta invita a una nuova linea di indagine sul ruolo dell'acqua nella selettività chirale delle interazioni biomolecolari e sulle origini molecolari dell'omochiralità nel mondo biologico.
Un risultato davvero molto innovativo ed inaspettato.

E la scuola?

In evidenza

Salvatore Coluccia

In questi giorni vengono fatti, da più parti,  elenchi dei problemi prioritari. In genere sono: Fisco, Salute e Lavoro.

Chi può dissentire da queste urgenze? Nessuno, da qualunque parte stia, in qualsiasi partito o movimento militi. Eppure, devo osservare che “Manca la Scuola”.

Trovo esasperante dover esprimere per l’ennesima volta la mia dolorosa sorpresa.

La Scuola sta per finire e chiude questo anno così particolare, che certamente lascia ferite profonde. Ma, riaprirà a Settembre, tra brevissimo tempo, molto più breve di quello che servirà ad impostare le politiche e le decisione sui tre temi evidentemente prescelti come prioritari

E’ facile prevedere la condizioni: non molto diverse dagli anni passati, organici vacanti, strutture immutate, ecc. Anzi, potrebbe essere peggiore, con l’accresciuta frustrazione dei moltissimi precari che hanno visto deluse ancora una volta le loro aspettative di accesso stabile. Gli esiti dei concorsi, già non sufficienti, sono stati quasi sempre fallimentari, con un numero di idonei molto inferiore ai posti disponibili.

Immagino l’osservazione di profondo buon senso che ci accompagna da anni: visto, gli insegnanti precari sono ignoranti, non riescono neanche a passare un concorso! Poveri nostri figli (e nipoti)!

Mi sottraggo a tanto banalità e pongo invece questa domanda: veramente pensiamo che ci possa essere reclutamento senza formazione per i nuovi e aggiornamento per chi già c’è? E’ quanto successo in questi ultimi decenni, con modalità di selezione (rare) e di formazione mutevoli, instabili, contraddittorie. Alcune buone pratiche che si stavano dimostrando efficaci sono state rapidamente abbandonate.

Possiamo immaginare veramente le riforme previste dal PNRR, anche nei tre settori privilegiati, con una scuola ridotta nello stato in cui è? Quale sarà la preparazione di chi sarà reclutato? E quanti ne avremo di giovani disponibili, con l’abbandono scolastico alle stelle, specie nelle regioni che più ne hanno bisogno, e con tanti, fra i già insufficienti, laureati e dottorati che emigrano?

Sembrano tutte domande retoriche, ma non lo sono, sono urla di disperazione, soprattutto perché non credo che l’assenza del tema Scuola dalla campagna politica sia determinato dalla debolezza degli interlocutori interni. La ragione è che i temi sono difficili, alcuni divisivi, ed è meglio accantonarli. Ci penseremo dopo. E così si allunga la lista degli anni in cui l’Italia sarà condannata alla marginalità a causa del basso livello della formazione generale della popolazione.

Diritto alla conoscenza.

In evidenza

Luigi Campanella, già Presidente SCI

Una settimana fa l’Assemblea Parlamentare del Consiglio di Europa, formata da 47 Stati Membro ha discusso e votato il Rapporto “Libertà dei media,fiducia pubblica e diritto alla conoscenza dei cittadini“.


Si tratta di un diritto di nuova generazione sollevato dai Radicali Europei edificato su quattro pilastri base: disponibilità del potere politico a mettere a disposizione dei cittadini le informazioni e conoscenze ed a rendere centrale il dibattito pubblico;
libertà e monitoraggio dei media pubblici e privati attraverso la raccolta e l’analisi di dati condotte da un organismo indipendente;
l’incentivo alla diffusione dei luoghi del sapere e della cultura per coltivar la libertà di pensiero.
Si tratta di un Rapporto fondamentale come precondizione per un Paese che vuole definirsi democratico: da un lato il diritto dei cittadini ad essere informati, dall’altro con tale diritto garantito la possibilità di partecipare responsabilmente alle scelte del Paese anche candidandosi con proposte che possono essere conosciute e giudicate dall’opinione pubblica.
Il diritto alla conoscenza come diritto umano universale è un contributo volto a ristabilire la fiducia nelle istituzioni democratiche ed a fare fronte a governi autoritari, quando non a vere dittature. Ora il traguardo deve essere l’estensione del diritto alla conoscenza in tutti i Paesi di Europa,,ai Paesi dell’ONU, ai paesi dell’estremo Oriente, a partire dalla Cina.
Non si possono ammettere prosperità e sviluppo che nascono nell’oscurità e nella repressione. Le nuove tecnologie ci aiutano in questo processò di condivisione ed ad esse si appoggiano anche strumenti organizzativi come il Museo diffuso, la didattica in vivo,i Network tematici; l’Intelligenza Artificiale,l’e.leasing, la Block Chain: sono strumenti a doppia faccia perché se gestiti egoisticamente possono portare a discriminazioni anche peggiori dell’ignoranza. Da quì l’esigenza che sia la politica ad assumere la condivisione della conoscenza come una irrinunciabile condizione per un equilibrato sviluppo della società globale.
Un ostacolo potrebbe essere rappresentato dal linguaggio: ecco perché il tutto non può prescindere da un’attività formativa ed educativa, anch’essa base di una crescita civile e sociale

Carta igienica biodegradabile.

In evidenza

Mauro Icardi

Mi sono interessato al tema della depurazione dell’acqua abbastanza presto. In generale di ambiente e trattamento ho sentito parlare molto già negli anni 70, quando i problemi d’inquinamento dei corpi idrici si rivelarono , mostrando problemi e criticità rilevanti. Gli anni del secondo dopoguerra in Italia furono caratterizzati da una crescita economica rilevante (il boom economico). Questa euforia non permise di rendersi conto che la crescita economica non si curava troppo dei danni ambientali che provocava.  Tutto questo ebbe inizialmente un forte impatto nella pubblica opinione, e nello stesso tempo accese in me una forte curiosità. Di acqua e di fognature si parlò molto anche durante l’epidemia di colera del 1973.

E sui quotidiani fino alla metà circa degli anni 80 si lessero molti articoli che si interessavano della tutela delle acque. Alcuni di questi non rivolgevano l’attenzione solamente agli scarichi di origine industriale, ma cercavano di dare indicazioni anche per un corretto uso dei prodotti di detergenza e cosmesi.

Ricordo di avere letto articoli che si occupavano dei prodotti per la pulizia del wc. Questo tipo di prodotti possono essere liquidi o in polvere, con caratteristiche acide o basiche. I primi hanno formulazioni nelle quali possiamo trovare idrogenosolfonato di sodio, acido citrico, acido fosforico. Nelle formulazioni si trovano generalmente anche tensioattivi che migliorano l’azione pulente. I prodotti basici  contengono ipoclorito di calcio o di sodio, e carbonato di sodio. Sono prodotti non adatti a sciogliere calcare o macchie di acido urico. Ma hanno una buona azione candeggiante e disinfettante. Non vanno dimenticati poi i prodotti di detergenza a base di formaldeide, sapone potassico e alcol etilico.

“Un uso scorretto ed eccessivo di questi prodotti, date le loro caratteristiche potrebbe potenzialmente inibire il funzionamento dei sistemi centralizzati di depurazione.” Questo è quanto lessi in un articolo a metà degli anni 80. In quel periodo furono le fioriture algali nel mare adriatico a riportare il tema del trattamento delle acque reflue sotto i riflettori.

La considerazione non è del tutto sbagliata, ma ai tempi probabilmente si enfatizzò la cosa. Uno scarico di origine domestica difficilmente presenta difficoltà di trattamento in un impianto di depurazione biologico a fanghi attivi. Ma un utilizzo non eccessivo dei prodotti di pulizia del bagno è ovviamente raccomandato. E oltre a ciò i prodotti di questo tipo devono essere maneggiati con cautela. Ne avevo scritto a suo tempo.

Ovviamente l’industria della detergenza ha sviluppato linee di prodotti di detergenza green, a base enzimatica. Questo tipo di prodotti ha ovviamente effetto su residui di tipo organico.

Ma le novità nel settore non mancano, e quindi sono venuto a conoscenza dell’immissione sul mercato di un tipo di carta igienica brevettata con l’acronimo BATP ® ovvero Biologic Active Tissue Paper.

https://www.bbaecotech.com/en/

Di fatto tra i due rotoli costituenti lo strato di carta igienica viene nebulizzato uno di una miscela di microrganismi in fase liquida. Non appena la carta finisce nello scarico e viene  a contatto con l’acqua, attiva i microrganismi che iniziano a decomporre la sostanza organica depositata nelle condutture e nei sifoni.

Confesso di essere molto incuriosito.  Cercherò di trovare questo tipo di prodotto per sperimentarne personalmente il funzionamento.

Nel redazionale che ho letto, se ne dice un gran bene. E comunque è importante affermare, che occorre essere attenti a cosa si getta anche negli scarichi delle nostre abitazioni, cosa che spesso è sottovalutata. Invece va riproposta. So che l’argomento potrebbe far storcere il naso, ma anche questa volta devo chiamare in causa Primo Levi. “La materia è materia, e non ha alcuna importanza quale sia la sua origine prossima”. Il brano è tratto da Azoto ed è uno dei capitoli che più apprezzo de “Il sistema periodico”.

La consapevolezza dei nostri gesti quotidiani è spesso sottovalutata. Si banalizzano troppe cose invece assolutamente necessarie. Tutto quello che sparisce dai nostri scarichi, confluisce in impianti di depurazione. Se questi non sono presenti, tutto quello di cui ci liberiamo può terminare nel ruscello vicino casa.  E renderlo una fogna a cielo aperto. Non credo sia inutile ricordarlo. La depurazione, o se vogliamo chiamarla in maniera terminologicamente più completa, l’ingegneria sanitaria ambientale, è una delle conquiste di due secoli fa. E una conquista dei paesi cosiddetti sviluppati. E’ invece ancora un sogno per quelli che vivono situazioni molto gravi dal punto di vista igienico, e di approvvigionamento idrico.

Vorrei terminare questo articolo con un suggerimento di lettura.

https://www.ibs.it/grande-bisogno-perche-non-dobbiamo-libro-rose-george/e/9788845264597

Una popolazione di quasi otto miliardi di esseri umani deve preoccuparsi della gestione dei propri rifiuti. Anche quelli innominabili.

Si veda anche:
https://www.bbaecotech.com/it/carta-igienica-biologicamente-attiva.html

Come va l’economia circolare?

In evidenza

Luigi Campanella, già Presidente SCI

Ho avuto modo di leggere il Rapporto 2021 del CEN( Circular Economy Network).Ho così con piacere appreso una notizia che già era rimbalzata sulla stampa: fra i Paesi a livelli più alti di circolarità, Germania, Francia, Italia, Spagna e Polonia è proprio l’Italia ad essere leader con 79 punti contro i 68 della Francia, i 65 di Germania e Spagna, i 54 della Polonia.Il punteggio deriva da una serie di fattori dalla produzione al consumo, dalla gestione dei rifiuti al riutilizzo.

Il tema centrale del Rapporto 2021 verte sull’apporto che l’economia circolare può dare alla lotta ai cambiamenti climatici. Il nostro Paese ha adottato misure significative come il recepimento delle direttive  UE in materia di rifiuti per garantire un riciclo di almeno il 65% dei rifiuti urbani entro il 2035 e per ridurre alla stessa data del 10% gli smaltimento in discarica. È inoltre previsto entro marzo 2022 l’approvazione del Programma Nazionale di gestione dei rifiuti ed in tempi brevi il Piano di Transizione 4.0 che prevede agevolazioni per gli investimenti delle imprese finalizzati all’economia circolare. Il PNRR potrà giocare un ruolo importante per superare gli ostacoli che frenano questi provvedimenti innovativi.  Alcuni dei dati riportati nel Rapporto che giustificano la nostra posizione di prevalenza

-rifiuti per anno per abitante 499 kg contro la media europea di 502

-tasso di riciclo pari al 46 %, stesso valore dell’Europa

-tasso riciclo dei rifiuti pari al 67 % contro un valore del 58% valido per l’Europa

-tasso di utilizzo circolare di materia pari al 19 % ben superiore al valore dell’Europa fermo all’12%.

La lezione che ci viene da questo Rapporto è che se la natura ha la capacità di rigenerarsi e di adattarsi ai cambiamenti, siamo tutti chiamati a fare la nostra parte riducendo la nostra impronta ecologica per dare modo alla natura di rigenerarsi. La Terra vive grazie ad un complesso meccanismo dove ogni elemento, ogni creatura  ed il sistema ambientale in cui vive sono in stretta relazione fra loro e tutti insieme concorrono a garantire un equilibrio fondamentale per la vita dell’uomo, di animali, di vegetali.

Un’altra osservazione più critica riguarda le scadenze degli impegni concordate nei grandi eventi di accordi internazionali per affrontare le crisi climatiche; non si può non osservare come andando avanti le velocità di adeguamento siano progressivamente cresciute obbligando nei prossimi 3 decenni a riduzioni drastiche a dimostrare quanto le due domande che molti si fanno: perché così tardi? perchè così lenti? siano giustificate. I motivi di questi ritardi sono di natura diversa, di certo di natura politica e gestionale dell’ambiente, ma di certo poiché siamo poi noi cittadini, aziende con il nostro comportamento, con il nostro stile di vita e di consumo a determinare emissioni climalteranti ed azioni di mitigazione ed adattamento, non si può trascurare una componente psicosociale ed antropologica.

Anche in molte università italiane da alcuni anni si é sviluppata la riflessione sui contributi che possono venire dalle scienze sociali per contrastare la crisi climatica. La conoscenza dei processi psico-sociali può aiutare a comprendere innanzitutto lo scarto tra la gravità del problema e la scarsa consapevolezza al livello dell’opinione pubblica e della decisioni politiche; sono state descritte alcune barriere psicologiche -dall’inazione allo scetticismo fino al negazionismo -la cui rimozione potrebbe rappresentare un contributo maggiore di quanto si possa pensare alla risoluzione del problema.

Scienziat* “divers*”

In evidenza

Rinaldo Cervellati

Sinceramente non sapevo che questo mese è il Pride Month (Mese dell’Orgoglio), celebrato in parte della Terra dalla comunità LGTB+.  LGBT o GLBT è un sigla che sta per lesbica, gay, bisessuale e transgender. In uso dagli anni ’90, il termine è un adattamento dell’iniziale LGB, che ha cominciato a sostituire il termine gay con riferimento alla più ampia comunità LGBT a partire dalla metà degli anni ’80. L’iniziale, così come alcune delle sue varianti comuni, funziona come un termine generico per la sessualità e l’identità di genere. Gli appartenenti a questa comunità, che ha lo scopo principale di estendere i diritti civili a tutti, sono spesso soggetti a violenze verbali e fisiche, compreso l’omicidio. Le statistiche recenti mostrano che negli USA i LGBT dichiarati sono il 5,6% della popolazione [1], in Italia erano l’1,6% nel 2011 [2].

Certamente non si è dimenticato del Pride Month Chemistry & Engineering News che, nel numero del 7 giugno scorso ha dedicato un articolo per ricordare alcuni scienziati scomparsi appartenenti alla comunità LGTB, per colmare le lacune nella storia della chimica [3].

Per colmare queste lacune, C&EN ha raccolto un elenco preliminare di chimici LGBTQ+ pionieristici della storia e alcuni persi di recente. Questo elenco di scienziati innovativi mette in evidenza i contributi di lunga data dei chimici LGBTQ+, molti dei quali non si trovano nei libri di testo. Oltre a fornire contributi scientifici, questi pionieri hanno avuto un enorme impatto sulle persone con cui hanno lavorato e come attivisti. Hanno guidato e ispirato gli studenti LGBTQ+, hanno contribuito a riformulare il modo in cui il pubblico li percepiva e hanno sfidato i pregiudizi di genere dei loro colleghi. Altri non potevano dichiararsi a causa della discriminazione sul posto di lavoro e del pericolo fisico. Solo nel 2020 la Corte Suprema degli Stati Uniti ha esteso alle persone LGBTQ+ una legge federale che vieta la discriminazione sul lavoro. Oggi, circa 80 paesi criminalizzano le relazioni tra persone dello stesso sesso e molti altri hanno leggi che negano i pieni diritti civili o discriminano attivamente le persone LGBTQ+. La necessità per le persone di nascondere la propria identità rende difficile compilare storie come quelle che racconteremo qui.

Un’altra sfida quando si mettono insieme storie LGBTQ+, è che il modo in cui si concepiscono le identità cambia continuamente; i personaggi storici non hanno necessariamente usato lo stesso linguaggio per descriversi come si fa oggi. Per compilare un primo elenco, C&EN ha fatto affidamento su risorse storiche di organizzazioni come GLAAD (Gay & Lesbian Alliance Against Defamation), ricerche indipendenti e sondaggi sul pubblico [3].

Qui elencherò alcune scienziate e scienziati in ordine della loro data di nascita.

Nina Vedeneyeva (1882-1955)

Nata nel 1882 a Tbilisi, in Georgia (allora parte dell’Impero russo), Nina Vedeneyeva è stata un’eminente cristallografa. I suoi riconoscimenti includono il Premio Stalin, l’Ordine di Lenin e diverse altre medaglie assegnate dall’Unione Sovietica.

Vedeneyeva ha iniziato i suoi studi presso la Scuola Politecnica di Liegi in Belgio, ma è tornata in Russia dopo solo un anno. Dopo essersi laureata al dipartimento di chimica dei Corsi Bestuzhev, una delle migliori università femminili, nel 1913, iniziò a insegnare alla Seconda Università di Stato e all’Istituto di tecnologia chimica fine, entrambi a Mosca.

Nina Vedeneyeva. Credit:Wikimedia Commons

Sposò un uomo, dal quale in seguito ha divorziato, e più tardi nella vita si è innamorata della famosa poetessa lesbica russa Sophia Parnok. Nel corso della loro relazione, che durò fino alla morte di Parnok nel 1933, la poetessa scrisse 32 poesie ispirate a Vedeneyeva.

Vedeneyeva conseguì il dottorato in fisica e matematica nel 1937 e fu assunta a capo del settore ottico dell’Istituto di scienze geologiche nel 1941. Lì, ha lavorato su problemi di mimetizzazione per l’Armata Rossa e ha sviluppato un metodo per analizzare le proprietà ottiche dei materiali sul campo. Nel 1945, Vedeneyeva fondò il Laboratorio di Cristallo Ottica presso l’Istituto di Cristallografia, parte dell’Accademia delle Scienze dell’URSS; ha diretto il laboratorio fino alla sua morte nel 1955.  Tra gli altri contributi, la sua ricerca ha dimostrato che la colorazione di diversi tipi di quarzo è dovuta a difetti del reticolo.

Rachel Carson (1907-1964)[1]

Se ispirare il movimento ambientale globale può essere attribuito a un individuo, quella persona è la biologa marina Rachel Carson. Il suo lavoro su come i pesticidi danneggiano gli habitat naturali ha avuto un impatto duraturo su governo, industria e società. Un articolo del 1985 sull’EPA (European Patent Office) Journal definì l’Agenzia per la protezione ambientale degli Stati Uniti “l’ombra estesa di Rachel Carson”. Il suo libro del 1962, Primavera silenziosa, sugli effetti dannosi dei pesticidi, ha influenzato in modo significativo il modo in cui le persone pensano sull’impatto ambientale dell’uso di sostanze chimiche, e le autorità di regolamentazione hanno successivamente vietato molti dei pesticidi di cui ha scritto nel libro.

Nata il 27 maggio 1907 a Springdale, in Pennsylvania, Carson è stata affascinata dal mondo naturale fin dalla giovane età. Vinse una borsa di studio per frequentare il Pennsylvania College for Women e nel 1929 fu accettata nel programma di laurea in zoologia della Johns Hopkins University. Due anni dopo aver conseguito la laurea, Carson lasciò la scuola per sostenere la sua famiglia. Nel 1935 entrò a far parte dell’US Bureau of Fisheries.

Rachel Carson a una conferenza. Credit: Associated Press

In questo periodo, ha iniziò a scrivere sulla vita acquatica e ha prodotto una terna di libri: Under the Sea-Wind, The Sea around Us e The Edge of the Sea.

Tuttavia Carson è meglio conosciuta per aver scritto Silent Spring (Primavera silenziosa), che ha sollevato la consapevolezza pubblica sull’inquinamento dovuto all’uso incontrollato di sostanze chimiche nell’agricoltura e nell’industria. Carson sostenne la regolamentazione del governo per gli inquinanti persistenti, incluso il DDT. Dovette affrontare gravi contraccolpi da parte dell’industria chimica per la sua posizione.

Nel 1953, Carson incontrò Dorothy Freeman. Sebbene si vedessero di rado, si scambiarono circa 900 lettere in 12 anni. Carson distrusse la maggior parte di queste lettere prima della sua morte. Quelle che rimangono, pubblicate decenni dopo in una raccolta curata dalla nipote di Freeman, alludono alla natura romantica della relazione.

Carson, cui fu diagnosticato un cancro al seno ebbe una malattia respiratoria in tarda età, è morta per un attacco di cuore nel 1964. Oltre a numerosi riconoscimenti nel corso della sua vita, è stata destinataria postuma della Presidential Medal of Freedom.

Martin Gouterman (1931-2020)

Martin Gouterman, un gay dichiarato in un’epoca in cui pochi scienziati erano aperti sulla loro sessualità, ha scoperto perché il sangue è rosso e l’erba è verde.

Gouterman è nato il 26 dicembre 1931 ed è morto il 22 febbraio 2020 all’età di 88 anni. Era un chimico dell’Università di Washington che divenne un esperto di porfirine, grandi molecole ad anello costituite da quattro anelli più piccoli formati da quattro atomi di carbonio e un azoto . Sono essenziali per gran parte della vita, aiutando a formare sia l’emoglobina rossa nel sangue che la clorofilla verde nelle piante.

Martin Gouterman in laboratorio. Credit: Univ. of Washington

Nel 1963, Gouterman, allora all’Università di Harvard, e i suoi colleghi svilupparono un modello della fisica delle porfirine per spiegare le proprietà delle molecole [4]. Il suo modello a quattro orbitali descrive le porfirine metalliche come aventi due orbitali molecolari occupati più alti che hanno quasi gli stessi livelli di energia, o sono “quasi degeneri” e due orbitali molecolari non occupati esattamente degenerati.

Chiuso a Harvard e brevemente sposato con DeLyle Eastwood, Gouterman è sbocciato quando si è trasferito a Seattle nel 1966. Lì ha vissuto nel quartiere storicamente gay di Capitol Hill e ha contribuito a fondare la Dorian Society, un Gruppo per i diritti di Stonewall che ha cercato di ritrarre gay e lesbiche come cittadini rispettabili. Ha anche lavorato per porre fine alla guerra in Vietnam e si è unito a Kadima/New Jewish Agenda e all’International Jewish Peace Union, facendo una campagna per porre fine all’occupazione israeliana del 1967 della Cisgiordania e della Striscia di Gaza. Durante l’epidemia di AIDS, ha aperto la sua casa a giovani gay malati senza nessun altro posto dove andare, e in seguito si è offerto volontario presso la Bailey-Boushay House di Seattle, il primo ospizio per l’AIDS della nazione.

Nel 1983, ha aiutato una coppia lesbica a concepire un figlio, Mikaelin BlueSpruce, che, insieme a una nipote, gli sopravvive.

Bruce Voeller (1934-1994)

Figura di spicco nella lotta contro l’epidemia di AIDS, Bruce Voeller è stato uno scienziato e attivista, il cui lavoro ha contribuito a prevenire la trasmissione dell’HIV. Intendeva promuovere i diritti degli omosessuali. Infatti, ha coniato il termine sindrome da immunodeficienza acquisita (AIDS) in sostituzione dell’impreciso e stigmatizzante soprannome di disordine da immunodeficienza legato all’omosessualità.

Voeller nacque nel 1934 a Minneapolis ed crebbe nella piccola città di Roseburg, nell’Oregon.  Eccelse nei suoi studi universitari al Reed College e conseguì il dottorato di ricerca in biologia dello sviluppo, biochimica e genetica presso la Rockefeller University nel 1961. Dopo la laurea, è rimasto come ricercatore associato presso Rockefeller. Secondo un necrologio pubblicato al momento della sua morte sul Journal of Sex Research, Voeller era la persona più giovane ad essere promossa a professore associato all’università.

Bruce Voeller. Credit:#7301/Division of Rare and Manuscript Collections/Cornell University Library

Tuttavia, sospese la sua carriera di ricercatore per concentrarsi sulla campagna per i diritti dei gay. Voeller ha cofondato la National Gay Task Force nel 1973 e ne è stato direttore esecutivo fino al 1978.

Alla fine degli anni ’70, Voeller cofondò la Mariposa Education and Research Foundation, che ha studiato la sessualità e le infezioni sessualmente trasmissibili. Mentre l’epidemia di AIDS imperversava negli Stati Uniti negli anni ’80, Voeller e la Fondazione Mariposa erano in prima linea nella ricerca sulla prevenzione della trasmissione del virus successivamente identificato come HIV. È stato uno degli autori di uno studio del 1985 su Lancet che mostrava che un popolare spermicida, nonoxynol-9, potrebbe inattivare l’HIV [5].

Voeller morì nel 1994 per una malattia correlata all’AIDS. Nel 2019, è stato una delle 50 persone  commemorate sull’inaugurando National LGBTQ Wall of Honor degli Stati Uniti.

Ben Barres (1954-2017)

Ben Barres, il primo membro apertamente transgender della National Academy of Sciences degli Stati Uniti, è ricordato non solo per il suo lavoro pionieristico sulle cellule gliali nel cervello, ma anche come campione per le donne nella scienza.

Barres nacque il 13 settembre 1954 a West Orange, nel New Jersey, e alla nascita fu stata assegnata come femmina. Il suo interesse per la scienza si sviluppò mentre era a scuola, ma poiché si presentava come una ragazza, fu scoraggiato dal seguire corsi di matematica e scienze. Nonostante questo, ha guadagnò un posto al Massachusetts Institute of Technology e andò alla Dartmouth Medical School per la sua laurea in medicina.

Ben Barres in laboratorio. Credit: Associated Press

All’inizio degli anni ’80, mentre Barres stava facendo la sua specializzazione in neurologia, le cellule gliali nel cervello catturarono la sua attenzione. Le cellule gliali erano state precedentemente considerate semplicemente come la colla biologica del cervello, ma Barres ha dimostrato che svolgono un ruolo attivo nella funzione cerebrale. Il suo lavoro ha cambiato il modo in cui comprendiamo le interazioni delle cellule con i neuroni.

Barres ha compiuto la transizione sulla quarantina e ha parlato apertamente del sessismo che ha dovuto affrontare come donna nella scienza e di come è cambiato dopo la transizione. Subito dopo la transizione, un collega ha osservato su di lui: “Il suo lavoro è molto migliore di quello di sua sorella”, non rendendosi conto che erano la stessa persona.

Ha continuato a sostenere le donne scienziate e ha sfatato l’idea che l’abilità innata fosse dietro il loro basso numero nelle carriere scientifiche.

Nel 1993, Barres è entrato a far parte del Dipartimento di Neurobiologia di Stanford e nel 2008 ne è diventato presidente. Ha pubblicato 167 articoli, ha vinto numerosi premi e ha fatto parte di numerosi comitati editoriali. Morì di cancro al pancreas nel dicembre 2017, all’età di 63 anni.

Gregory L. Hillhouse (1955-2014)

Gli scienziati hanno a lungo considerato i nitreni, molecole altamente reattive a base di azoto, troppo difficili da usare. Sembrava impossibile isolare un nitrene stabile basato su metalli di transizione perché quei metalli sono così ricchi di elettroni. Gregory L. Hillhouse, nato il 1 marzo 1955, dimostrò di poter produrre nitreni con metalli di transizione tardivi, aprendo nuove reazioni per la creazione di importanti molecole organiche.

Hillhouse chiamò la sua prima molecola del genere, costruita nel 2001, nichel doppio, un nome che anche i suoi colleghi dell’Università di Chicago gli hanno conferito [6]. Il suo lavoro ha vinto l’ACS Award Hillhouse in Chimica organometallica nel 2013.

Era stato affascinato dai composti azotati ricchi di energia sin dalla sua tesi di dottorato all’Indiana University (Bloomington) nel 1980.

Gregory L. Hillhouse. Credit: J. Montgomery

Dopo il lavoro post-dottorato al California Institute of Technology, Hillhouse si stabilì all’Università di Chicago, dove è ricordato non solo come uno scienziato innovativo ma anche come un caloroso amico per studenti e colleghi, cuoco gourmet e collezionista di vini, pittore di talento e organizzatore di squadre di basket e softball intramurali. Il suo ruolo di mentore è stato così efficace che la società universitaria di chimica dell’Università di Chicago ha intitolato la sua conferenza annuale in suo onore.

Hillhouse ha impiegato molti anni per dichiararsi gay, temendo che potesse danneggiare la sua carriera, secondo un ricordo in The Chemists Club, una pubblicazione dell’Università di Chicago. Negli anni ’90, scosso dalla morte di un caro amico, ha iniziato a fare volontariato in un ospizio per l’AIDS di Chicago, dove preparava pasti gourmet ogni fine settimana. È diventato anche un modello per i più giovani chimici LGBTQ+. “Mentre non ero al college, Greg mi ha aiutato a sentirmi bene essendo me stesso e a sentirmi a mio agio nell’essere fuori nella comunità della chimica”, dice Matthew Joannou, che ha frequentato il corso di Hillhouse come studente universitario dell’Università di Chicago.

Hillhouse è morto di cancro al pancreas nel 2014 all’età di 59 anni.

Jemma Redmond (1978-2016)

Da bambina, Jemma Redmond amava smontare i giocattoli e rimetterli insieme, cercando di migliorare il design mentre lo faceva. Nata come donna intersessuale nel 1978 a Tallaght, un sobborgo di Dublino, Redmond ha studiato ingegneria elettronica prima di conseguire la laurea in fisica applicata alla Robert Gordon University. Ha poi completato un master in nanobioscienze presso l’University College di Dublino nel 2012. Ha iniziato a realizzare le sue prime biostampanti sul tavolo della sua cucina e la sua tesi di master si è concentrata sulla stampa 3D delle ossa delle dita da cellule ossee derivate da topi.

A photo of Jemma Redmond.

Jemma Redmond. Credit: You Tube

Redmond era sterile e parte del suo interesse per la stampa 3D biologica derivava dal desiderio di stampare per se stessa organi riproduttivi funzionanti. Ha cofondato una start-up di stampa 3D chiamata Ourobotics nel 2015. Il suo lavoro ha attirato l’attenzione di diverse società di capitali, e di un incubatore di start-up a Cork, in Irlanda.

Redmond è stata CEO (Amministratore delegato) di Ourobotics e, sotto la sua guida, l’azienda ha sviluppato la prima stampante 3D in grado di utilizzare 10 diversi biomateriali contemporaneamente. Era anche una ferma sostenitrice della scienza aperta e accessibile, e la seconda stampante 3D di Ourobotics era interamente open source e un ordine di grandezza più economica del primo design. La sua speranza era che un giorno, ogni ospedale e università del mondo avrebbe avuto una biostampante in loco in grado di stampare nuovi organi per i pazienti nell’elenco dei trapianti. Ha anche immaginato di fondere il biologico e il tecnologico, ad esempio impiantando sensori negli organi per monitorare la salute. Redmond è morta prematuramente nel 2016 all’età di 38 anni.

Bibliografia

[1] https://news.gallup.com/poll/329708/lgbt-identification-rises-latest-estimate.aspx

https://www.vice.com/it/article/mb8kwx/glossario-lgbtq

[2] https://www.oecd.org/social/society-at-a-glance-19991290.htm

[3] AA.VV. LGBTQ+ chemists you should know about, C&EN, June, 7 2021., tradotto e adattato dall’autore del post

[4] M. Gouterman, G.H. Wagnière, Spectra of Porphyrins II. J. Mol. Spectrosc.,1963, 11, 108-127.

[5] D.R. Hicks et al., Inactivation of HTLV-III/LAV-Infected Cultures of  Normal Human Lymphocytes by Nonoxynol-9 in vitro. The Lancet, 1985, 21/28, 1422-23.

[6] D.J. Mindiola, G.L. Hillhouse, Terminal Amido and Imido Complexes of Three-Coordinate Nickel. J. Am. Chem. Soc., 2001, 123, 4623-4624.


[1] Per una biografia di Carson, si può vedere: Rachel Carson (1907-1964), in R. Cervellati, Chimica al feminile, Aracne, Roma, 2020, pp. 235-246.

Biologico e biodinamico.

In evidenza

Luigi Campanella, già Presidente SCI

I due termini biologico e biodinamico, vengono artificiosamente confusi, anche se hanno significati molto diversi e soprattutto fanno parte di due mondi culturali diversi, quello della scienza il biologico, quello della non scienza il biodinamico.

Di fatto la domanda di prodotti agroalimentari ottenuti da un impiego meno intensivo della terra è in continuo aumento ed il biologico rappresenta in questo senso la nuova frontiera, una sorta di ri-orientamento della PAC (politica agricola comunitaria), ma anche un superamento dell’agricoltura industriale in favore di un recupero degli equilibri naturali persi in questi ultimi 50 anni e di una riparazione dell’agroecosistema. Ne guadagnano ambiente, consumatori e produttori. Non è un processo semplice, anzi richiede impegno e disponibilità da parte del produttore che deve mettere in previsione difficoltà organizzative e gestionali, un periodo di transizione a produzione ridotta, una maggiore possibile esposizione delle colture alle avversità parassitarie a causa della rinuncia al ricorso alla chimica di sintesi. Bisogna superare le paure per rese bio inferiori al convenzionale, per rese economiche meno convenienti, per una maggiore vulnerabilità alle malattie vegetali.

In linea con definizioni analoghe in altri settori possiamo parlare di agricoltura 4.0.

Ma l’impegno deve proseguire oltre il cambiamento: saranno necessari monitoraggi sull’adattamento del suolo, sul tasso di produttività, sullo stato di salute. I cambiamenti climatici già causa di tanti danni diventano un ulteriore problema in una fase di transizione. Tutti questi sforzi sono però compensati a regime; quando l’ambiente risulterà più sano, le denunce su alimenti non sicuri, quando non tossici, saranno diminuite, i consumatori dimostrerano con gli acquisti la loro accresciuta fiducia nei prodotti agroalimentari. Fino a qui il biologico.

Diverso il biodinamico che vede crescita delle piante e allevamento di animali come componenti interrelati, combinati insieme da pratiche spirituali e mistiche. In altre parole poca agronomia e molte pseudoscienze varie, che vengono equiparate al metodo scientifico del povero Galileo.

Si vede così preparare il terreno seppellendo in primavera, per rimuoverlo in autunno, un corno di mucca segato e riempito di polvere di quarzo oppure l’intestino tenue di un vitello riempito di fiori così da raccogliere le forze cosmiche. Che poi anche la biodinamica preveda pratiche comuni all’agricoltura biologica, quali la rotazione delle colture e le  colture di superficie, il ricorso a concimi non basati su composti di sintesi, ma  su materiali naturali, come il letame, la difesa della biodiversità è anche vero, ma è proprio da questo che nasce confusione e malinteso sui due termini.

Una curiosità riguarda la storia delle 2 pratiche: mentre la agricoltura biologica è propria del nostro tempo, quella biodinamica è più vecchia e risale ad un secolo fa, essendo nata più come attività filosofica che come pratica agraria, questa è stata vista come un’applicazione.

Plastiche biodegradabili e bioplastiche

In evidenza

Rinaldo Cervellati

Dal 1907, quando fu brevettata la prima plastica completamente sintetica, la bachelite[1], a oggi, le materie plastiche sono aumentate in modo vertiginoso, tanto che difficilmente potremmo farne a meno. Le materie plastiche sono una vasta gamma di materiali sintetici o semisintetici che utilizzano i polimeri come base principale. La loro plasticità consente di modellarle, estruderle o pressarle in oggetti solidi di varie forme. Quest’adattabilità, come la leggerezza, la durevolezza, la flessibilità e l’economicità di produzione, ha portato al loro impiego diffuso. Le materie plastiche sono tipicamente prodotte attraverso sistemi industriali. La maggior parte delle plastiche moderne deriva da sostanze chimiche a base di combustibili fossili come il gas naturale o il petrolio; tuttavia, i metodi industriali recenti utilizzano varianti realizzate con materiali rinnovabili, come i derivati del mais o del cotone.

Poiché la struttura chimica della maggior parte delle materie plastiche le rende durevoli, sono resistenti a molti processi di degradazione naturale. Gran parte delle plastiche può persistere per secoli o più, come dimostrano le seguenti figure, con incalcolabili danni ambientali (fig 1-4).

Figure 1-4. Discariche in spiagge, animali marini e uccelli si cibano di plastiche.

Esistono stime diverse sulla quantità di rifiuti di plastica prodotti nell’ultimo secolo. Secondo una stima, un miliardo di tonnellate di rifiuti di plastica sono stati scartati dagli anni ’50. Altri stimano una produzione umana cumulativa di 8,3 miliardi di tonnellate di plastica, dei quali 6,3 miliardi di tonnellate sono rifiuti, con un tasso di riciclaggio di solo il 9%.

Per questi motivi sono state studiate e prodotte “plastiche biodegradabili” e “bioplastiche”, parole che sebbene siano simili, non sono sinonimi.

La bioplastica è, secondo la definizione data dall’European Bioplastics, un tipo di plastica che può essere biodegradabile, a base biologica (bio-based) o possedere entrambe le caratteristiche. Più precisamente: può derivare (parzialmente o interamente) da biomassa e non essere biodegradabile (per esempio: bio-PE polietilene, bio-PET polietilentereftalato); può derivare interamente da materie prime non rinnovabili ed essere biodegradabile (per esempio: PBAT polibutirrato, PCL policaprolattone, PBS polibutilene succinato); può derivare (parzialmente o interamente) da biomassa ed essere biodegradabile (per esempio: PLA acido polilattico, PHA poliidrossialcanoati, plastiche a base di amido).

Secondo la definizione data da Assobioplastiche, per bioplastiche s’intendono quei materiali e quei manufatti, siano essi da fonti rinnovabili che di origine fossile, che hanno la caratteristica di essere biodegradabili e compostabili. Assobioplastiche suggerisce di non includere nelle bioplastiche quelle derivanti (parzialmente o interamente) da biomassa, che non siano biodegradabili e compostabili, indicandole piuttosto con il nome “plastiche vegetali”.

Su questo blog molto è stato scritto sulle plastiche, il loro riciclo e la degradazione, qui riportiamo i risultati di una recente ricerca condotta da un gruppo dell’Università di Berkeley, coordinato dalla Prof. Ting Xu [1].

Prof. Ting Xu

I ricercatori sono partiti dalla considerazione che molte plastiche biodegradabili spesso impiegano mesi o anni per decomporsi e anche in questo caso possono formare microplastiche[2] potenzialmente dannose. Essi sono stati in grado di accelerare il processo attraverso enzimi che trasformano la plastica in un rivestimento protettivo che incorpora le nanoparticelle.

L’esposizione a umidità e temperature comprese tra 40 e 60 °C libera gli enzimi, che decompongono i polimeri in monomeri di unità trimeriche in poche ore o giorni.

Il policaprolattone (PCL) e l’acido polilattico (PLA) sono entrambi plastiche biodegradabili, utilizzate per contenitori per alimenti, applicazioni biomediche e sacchetti per rifiuti. Tuttavia, questi polimeri si degradano facilmente solo alle alte temperature che si trovano negli impianti di compostaggio industriale. Ting Xu, un ingegnere chimico, e il suo gruppo del Lawrence Berkeley National Laboratory, dell’UC a Berkeley e dell’Università del Massachusetts intendono consentire anche ai consumatori di degradare queste plastiche in casa propria [1].

Il nuovo materiale del gruppo incorpora nanoparticelle, insieme a enzimi tipo lipasi o proteinasi K e avvolte in un polimero costituito da una miscela di esteri metilenici metacrilici, come il “ripieno” di un raviolo. Questo rivestimento protegge gli enzimi dalle alte temperature necessarie per fondere ed estrudere la plastica a formare fogli e altri oggetti. Il gruppo ha aggiunto meno del 2% della nanoparticelle in peso, quindi esse non interferiscono con le proprietà chimiche o meccaniche della plastica.  Solo quando i ricercatori espongono la plastica all’umidità e al calore o alla luce UV che lo strato protettivo si rompe, rilasciando gli enzimi all’interno. Secondo il polimero e la temperatura del test, l’enzima ha scomposto fino al 98% dei polimeri in appena 30 ore. Gli acidi lattici risultanti possono essere buttati con acqua nello scarico o aggiunti al terreno del giardino, così che la degradazione può essere fatta anche in casa (figura 5).

Figura 5. Gli enzimi incapsulati distribuiti in tutto il policaprolattone accelerano la degradazione del sacchetto in presenza di calore e umidità. Le foto mostrano il materiale prima (a sinistra) e dopo (a destra) il trattamento per 3 giorni. Credit: Nature

Tuttavia, come ricorda Xu, la maggior parte delle materie plastiche è composta di parti sia cristalline sia amorfe. Nelle tipiche plastiche biodegradabili, i microrganismi mangiatori di polimeri presenti nei cumuli di compost, degradano le parti amorfe ma non quelle cristalline. Di conseguenza, i materiali non sono completamente scomposti, lasciando frammenti di microplastica cristallina. Incorporando gli enzimi all’interno della plastica, essi sono in una posizione migliore per accedere alle parti cristalline e degradare completamente i polimeri.

Xu sostiene che il punto chiave è che si possono disperdere gli enzimi a livello nanoscopico, che è la stessa scala delle singole catene polimeriche. Questa dispersione aumenta la disponibilità degli enzimi. La maggior parte dell’enzima sarà abbastanza vicino alle catene polimeriche per catalizzare la loro rottura e quindi non è necessario aggiungerne troppo.

Julia A. Kornfield, ingegnere chimico presso il California Institute of Technology, afferma:

Ci sono stati tentativi precedenti di incorporare enzimi nella plastica allo scopo di degradarli alla fine della loro vita, ma hanno fallito e ho considerato l’approccio un vicolo cieco fino a quando non ho letto questa ricerca. Rispetto ai precedenti tentativi di utilizzare enzimi per abbattere la plastica, le nanoparticelle del gruppo di Xu si disperdono molto più finemente nella plastica, “come la differenza tra le dimensioni di una pallina da tennis e un capello umano”.

Xu e il suo gruppo ritengono che le persone siano in grado di decomporre queste plastiche nelle loro case, sia in vasche di acqua calda o in pile di compost nel giardino. Il metodo sarebbe inoltre compatibile con i servizi di compostaggio municipale su scala più ampia. L’ex studente di Xu e coautore del nuovo lavoro, Aaron Hall, ha ideato uno start-up chiamata Intropic Materials per sviluppare commercialmente queste plastiche.

Opere consultate

L. K. Boerner, Plastics with embedded particles decompose in days instead of years, C&EN, 2021, Vol. 99, n. 15

Bibliografia

[1] C. DelRe, Y. Jiang, P. Kang, et al., Near-complete depolymerization of polyesters with nano-dispersed enzymes. Nature  2021, 592,558–563.


[1] La bachelite (poliossibenzilmetilenglicolanidride) è una resina fenolo-formaldeide termoindurente, formata da una reazione di condensazione del fenolo con la formaldeide. È stata sviluppata dal chimico belga-americano Leo Baekeland (1863-1944) a Yonkers (New York).

[2] Le microplastiche sono frammenti di qualsiasi tipo di plastica di lunghezza inferiore a 5 mm. Qui ci interessano le microplastiche secondarie che derivano dalla degradazione di prodotti di plastica più grandi dopo essere entrati nell’ambiente. Tali fonti di microplastiche secondarie includono bottiglie di acqua e soda, reti da pesca, sacchetti di plastica, contenitori per microonde ecc. È noto che persistono nell’ambiente a livelli elevati, in particolare negli ecosistemi acquatici.

Oceani e acqua.

In evidenza

Luigi Campanella, già Presidente SCI

Due giorni fa è stata celebrata la giornata degli Oceani.

Vogliamo celebrarla anche noi , a modo nostro, ricordando due episodi che riguardano l’acqua e che ci educano al rispetto della sua purezza, preziosa risorsa per il Pianeta. Negli oceani è proprio la purezza a garantire la biodiversità.

Il primo ci mostra come l’inquinamento oltre ai ben noti danni che provoca può portare ad errori scientifici, come di recente la stessa dimostrata correlazione con la diffusione del covid 19 dimostra. Negli anni sessanta del secolo scorso circolò in Europa la notizia di una scoperta in Russia relativa ad una nuova forma di acqua che poteva essere prodotta in piccole gocce, in tubi sottilissimi. L’informazione arrivò negli USA e lascio di stucco ed incredulo il mondo della ricerca americana: tale atteggiamento va inquadrato nel clima da guerra fredda tra est ed ovest di quei tempi. L’informazione era arrivata da una conferenza di Boris Derayagin a Nottingham. Questa nuova forma di acqua era caratterizzata da  una tensione di vapore minore, un punto di ebollizione di 200 gradi ed uno di congelamento a -30 gradi,valori quindi molto diversi da quelli della forma nota di acqua Si ipotizzò che questa nuova forma di acqua avesse una densità maggiore di quella che si trova normalmente sulla Terra. Il famoso cristallografo Bernal scrisse addirittura che ci si trovava di fronte ad una scoperta rivoluzionaria, forse la più importante del secolo. Fu battezzata poliacqua con una struttura ipotizzata esagonale : sei molecole di acqua unite da ponti ossigeno.

Americani ed inglesi si misero alla caccia della poliacqua. Si ipotizzò che avesse una struttura esagonale dove sei molecole di acqua si uniscono attraverso ponti di ossigeno.Fu ipotizzata presente nella polvere stellare e sospettata di essere inquinante e pericolosa e quindi da trattare con prudenza. Finalmente si scoprì che poliacqua si produceva dai piccoli capillari da esperimento che la inquinavano. Si tratta di una storia combattuta sui due più grandi giornali scientifici, Nature e Science e con la compartecipazione dei mass media. Ma la conclusione fu che non c’era una nuova forma di acqua, ma solo acqua inquinata.

Il secondo episodio del quale si è scritto molto ed a lungo riguarda la memoria dell’acqua. Il tutto è cominciato con gli esperimenti di uno scienziato francese, Jacques Benveniste, un immunologo di grande reputazione, ricercatore a Clamart all’istituto per la ricerca medica di Francia. Benveniste faceva esperimenti sulla degranulazione di alcuni globuli bianchi speciali (granulociti basofili) in presenza di un siero contenente le immunoglobuline E – quelle dell’asma dei bambini.

Un giorno si accorse che la degranulazione era molto più grande di quella che immaginava potesse avvenire sulla base della diluizione delle proteine usate. A seguito di questa osservazione Benveniste ed i suoi pubblicarono su Nature un lavoro in cui si asseriva che l’acqua era capace di degranulare i basofili anche quando le IgE erano state diluite fino a 10 elevato a 120. A queste diluizioni si disse che non ci sono più IgE e che pertanto la degranulazione era opera dell’acqua che conservava la memoria, quasi un’impronta, delle immunoglobuline disciolte prima che la loro diluizione divenisse tanto elevata da potere considerare prossima a zero la concentrazione.

Posto di fronte ad una commissione internazionale Benveniste non fu in grado di ripetere l’esperimento. Successivi lavori smentirono il risultato. E’ stata una battaglia importante perché se fosse stato vero quel che diceva Benveniste anche l’omeopatia, che si basa sulla diluizione dei farmaci, avrebbe avuto un suo solido supporto su base scientifica. 

Niente improvvisazioni in laboratorio.

In evidenza

Mauro Icardi

Il nostro tempo è quello dell’informazione costante continua ossessiva a cui purtroppo non corrisponde una crescita della conoscenza. Questa ha due possibili metodi di acquisizione quello deduttivo dall’universale al particolare basato sulle grandi verità (Platone, Aristotele fino a Kant) dalle quali derivano le conoscenze attraverso processi di elaborazione e quello induttivo affidato invece all’esperienza da Bacone a Leonardo a Hume fino ad Einstein. La chimica é disciplina che per la sua storia possiamo considerare a prevalente conoscenza induttiva e quindi fondamentalmente legata al laboratorio come sede preferenziale ed irrinunciabile dell’esperienza

Ho scritto diverse volte del lavoro in laboratorio. E delle norme  di comportamento  cui ci si deve attenere.  A mio parere col passare degli anni alcune sono state in parte disattese. Partendo da quella che dovrebbe essere la prima di tutte. Un laboratorio ordinato. Mi è capitato alcune volte di dover essere coinvolto in discussioni che avrei davvero preferito evitare, quando mi erano affiancati colleghi oppure tirocinanti o tesisti che non erano attenti su questo punto.

Nonostante Berzelius abbia sostenuto in un suo noto aforisma che “Un laboratorio ordinato è segno di un chimico pigro”, si può e si deve lavorare con un approccio che sia attento a non trasformare i banconi di laboratorio in vortici di caos e disordine. Se questo concetto viene capito ed applicato con naturalezza, anche la produttività ne risente positivamente. Lo posso affermare con sicurezza.

Un altro aspetto fondamentale è quello di essere in grado di creare una propria metodologia di lavoro. Oggi la tendenza nei laboratori di analisi, in particolare quelli al servizio del ciclo idrico integrato, è quella di raggiungere l’accreditamento. L’accreditamento attesta la competenza,l’indipendenza e l’imparzialità dei laboratori di prova e ne assicura l’idoneità a valutare la conformità di beni e servizi alle prescrizioni stabilite dalle norme volontarie e obbligatorie. Questo è certamente un traguardo importante, ma chi lavora in laboratorio dovrebbe acquisire non solo manualità, ma anche la capacità di saper vedere ed individuare i carichi di lavoro, il modo più opportuno per gestirli, le priorità da dare nell’esecuzione del lavoro giornaliero. Mi sento di dire con un certo rammarico, che non sempre le cose funzionano in questa maniera. Le ragioni di questi comportamenti mi riescono davvero incomprensibili. Credo rientrino in un certo qual modo nella rarefazione del concetto di voglia. La voglia di fare le cose bene, sembra in qualche caso quasi sparita.

Altro tema sul quale ritorno spesso, è quello di sapere osservare. Nell’esecuzione anche di analisi routinarie, essere attenti. Non sottovalutare nessun particolare, anche se a prima vista può apparire insignificante. Questa forma mentis fa la differenza. Sapere osservare può essere una qualità innata, ma ci si può anche esercitare nel coltivarla e farla crescere. E a quel punto (perlomeno a me continua a succedere) ci si rende conto di avere acquisito una consapevolezza del proprio lavoro, e del modo con cui si opera che avvicina davvero molto a quanto diceva Primo Levi. Amore per il proprio lavoro come una delle migliori approssimazioni alla felicità terrena.

Un ultimo punto importante, che si collega agli altri. Saper valutare con attenzione e senso critico il risultato di un’analisi. Nel caso delle acque reflue questo è molto importante. Collegare quel numero alla realtà dell’impianto. Capire se esiste un nesso possibile, oppure si è commesso un errore grossolano che con un minimo di attenzione in più si sarebbe potuto evitare. Gli errori sono ovviamente inevitabili, ma qui mi riferisco ancora all’attenzione continua. Non parlo di demonizzare gli sbagli, ma semplicemente di farne un’occasione per superarli e crescere. Questi atteggiamenti creano un circolo virtuoso. Più impari, più senti la voglia di continuare a farlo. Ultima raccomandazione: imparare, conoscere, riflettere sono tre condizioni importantissime per acquisire una reale cultura della sicurezza. In laboratorio, ma più in generale nell’esecuzione di ogni tipo di lavoro.

Ringrazio Luigi Campanella per gli utili suggerimenti.

In occasione della Giornata dell’ambiente 2021.

In evidenza

Luigi Campanella, già Presidente SCI

Scrive il Parlamento Europeo introducendo il suo Piano d’azione per l’economia circolare che entro il 2050 consumeremo come se avessimo a disposizione tre pianeti terra, per cui il passaggio da un modello lineare ad uno circolare di economia è una pietra angolare per una transizione verso una società e verso un’economia più sostenibili.

L’Assemblea Plenaria del Parlamento Europeo ha accolto con favore la proposta individuando come obbiettivi ad essa correlati la riduzione dell’impronta ambientale dei prodotti e dei materiali riferita all’intero ciclo di vita e di quella di consumo, una cultura della manutenzione e della riparazione, un mercato unico dei materiali riciclati, il design sostenibile, il contrasto all’obsolescenza programmata.

È una strada lunga se si pensa che oggi fino all’80% dell’impatto ambientale dei prodotti è determinato nella fase di progettazione e solo il 12% dei materiali utilizzati dall’industria proviene dal riciclo.

Un interessante specificità nella trattazione del.Parlamento Europeo riguarda i materiali elettronici e per le telecomunicazioni per i quali vengono raccomandati longevità e riparabilità, nonché eco progettazione di batterie (concetto peraltro esteso anche alle autovetture) e per i materiali di imballaggio oggi fonte di grandi quantità di scarti, anche di materuale plastico.

La Commissione Europea punta a che gli Stati membri attraverso incentivi finanziari si muovano verso la creazione di un mercato unico delle materie prime seconde

La chimica della maggioranza (molecolare)

In evidenza

Claudio Della Volpe

Uno dei concetti apparentemente più semplici ed elementari della chimica è la purezza delle varie sostanze di cui conosciamo la formula; prendiamo la comune acqua, la formula è H2O.

E’ una sostanza comunissima e necessaria alla vita; l’acqua che usiamo è solo acqua? Ossia possiamo immaginare almeno in questo caso di avere acqua al 100%?

No, non possiamo; l’acqua che usiamo di solito è una soluzione salina di qualche tipo; anche se la distilliamo in aria il risultato sarà una soluzione di acido carbonico a pH fra 5 e 6; per avere dell’acqua più pura possiamo usare dei metodi a scambio ionico o ad osmosi inversa che partono da acqua già distillata e avremo la cosiddetta acqua ultrapura, che sarà priva di biossido di carbonio, di batteri, virus e quasi di sali disciolti finché non la esporremo all’aria.

Quale è la massima purezza ottenibile dell’acqua?

Se si cerca in rete si trova in vendita acqua con un grado di purezza rispetto alle contaminazioni batteriche del 99.9999%; ma cosa vale per il contenuto in sali? La resistività finale è di 18,2 MΩ.cm a 25°C e i livelli di TOC inferiori a 5 ppb.

Anche un’acqua di questo tipo se esposta all’aria andrà comunque all’equilibrio con i suoi costituenti; fra l’altro qualunque contenitore dell’acqua cederà qualcosa: vetro o PTFE, che sono fra i materiali più resistenti all’attacco dei solventi, cederanno piccole quantità del loro materiale; dunque anche se fossimo in grado di ottenere un’acqua al 100% non sapremmo come conservarla per mantenerne la purezza assoluta.

Ma questo non vale solo per l’acqua.

Un altro materiale relativamente comune che per i suoi impieghi industriali deve essere ultrapuro è il silicio, usato per la costruzione dei dispositivi elettronici.

Cosa possiamo dire del silicio e della sua purezza?

Il silicio è un semiconduttore le cui proprietà vengono esaltate dal drogaggio, un drogaggio che al massimo arriva a 1ppm; dunque la base dell’elemento deve essere più puro se possibile; attualmente si arriva ad un silicio 12N ossia con una purezza di una parte su 1012; questo significa che su una mole di silicio, 28 grammi, abbiamo comunque 1011 atomi di diverso tipo. Esposto all’aria il silicio si ossida ricoprendosi di uno strato di ossido di silicio perché i suoi atomi esterni avranno legami liberi.

In realtà la cosa è più complessa; si è tentato di usare il silicio come campione di massa o del numero di Avogadro, un’idea partorita molti anni fa da uno scienziato italiano (C. Egidi, Phantasies on a Natural Unity of Mass, Nature, 1963, 200, 61-62.) e portata avanti dal gruppo dell’INRIM diretto da Enrico Massa e Carlo Sasso; per fare questo occorreva un campione di silicio isotopicamente puro; ma non si è andati oltre 99.9998% di purezza in 28Si. Dunque se guardiamo le cose dal punto di vista della purezza isotopica le cose stanno ancora peggio che prima; su 28g di silicio isotopo-28 avremo che ben 2 atomi su un milione saranno diversi per qualche motivo.

Il problema isotopico ovviamente è presente anche nell’acqua; avremo infatti isotopi sia dell’idrogeno che dell’ossigeno e dunque oltre alle impurezze dovute alla presenza di gas disciolti o di ioni residui non tutte le molecole saranno veramente uguali; o meglio lo saranno nei limiti in cui la loro nuvola elettronica sarà sovrapponibile a quella dell’acqua “base”, diciamo così; ci sarà un certo effetto isotopico sia per l’idrogeno che per l’ossigeno con proprietà di reazione diverse. Saranno “quasi” uguali; saranno approssimativamente uguali; d’altronde ricordiamo che quando si analizzano le proprietà molecolari teoricamente si fa una approssimazione, nota come approssimazione di Born-Oppenheimer, che vuol dire considerare trascurabile il moto del nucleo che ha una massa molto grande rispetto a quella degli elettroni; questo aiuta a fare i conti ma anche a mascherare le differenze che dipendessero dal nucleo.

Ma anche se avessimo la possibilità di purificare una molecola come l’acqua al 100%, ottenendo solo atomi di H e isotopi dell’ossigeno 16, combinati tra di loro, (cosa che non siamo in grado di fare al momento) comunque avremo una differenza residua che riguarderebbe una percentuale elevata di molecole.

Infatti le molecole come l’acqua hanno che i nuclei dell’idrogeno, dotati ciascuno di un proprio vettore momento magnetico potranno avere i due vettori dei due idrogeni allineati od antiallineati, nel primo caso parliamo di orto-acqua e nel secondo di para-acqua; le due molecole sono interconvertibili, ma hanno proprietà leggermente diverse e sono separabili e si possono mantenere separate.

Una situazione analoga ma molto più evidente, tanto da dare problemi di accumulo, si ha con l’idrogeno, il semplice idrogeno. Ne abbiamo parlato qualche anno fa (https://ilblogdellasci.wordpress.com/2017/02/03/naturale-o-sintetico-note-sullidentita-chimica-1/).

Cosa possiamo concludere?

La nostra tecnologia chimica per quanto ormai basata su una enorme esperienza sperimentale e teorica non è in grado né di generare né di conservare sostanze totalmente pure; la nostra chimica è dunque una chimica approssimata, una “chimica della maggioranza” delle molecole, che riguarda la maggioranza delle molecole di una sostanza o al massimo il loro comportamento medio ma che trascura necessariamente effetti al di sotto di un certo valore critico. Le minoranze molecolari sono trascurate almeno in una descrizione di base.

C’è ancora spazio di progresso e anche enorme. Chissà cosa potrebbe fare (se ci fosse, se ci potesse essere) una chimica in grado di gestire purezze del 100%.

Il chimico analitico potrebbe commentare: Ogni metodo è caratterizzato da 5 grandezze: accuratezza, precisione, limite minimo di rilevabilità, sensibilità, selettività: si comprende facilmente come a seconda del metodo un’impurezza possa essere rilevata oppure no

Questo è giusto ma non cambia la situazione di fatto: la chimica moderna non è in grado di garantire sostanze pure al 100% e non saprebbe nemmeno dove conservarle. E’ in grado di arrivare fino ad un certo punto che dipende dallo sviluppo della tecnica analitica; ma ci sono limiti assoluti? Potremo mai avere una chimica analitica che discrimini la singola molecola?

D’altronde occorre ricordare che SE le molecole sono abbastanza grandi come accade per le proteine o gli acidi nucleici per esempio, questo limite critico è GIA’ stato raggiunto.

Nel recente libro (2018) Single Molecule Analysis – Methods and Protocols Second Edition Edited by Erwin J. G. Peterman si fa il punto sui metodi e le tecniche analitiche che almeno nel settore della biochimica consentono di operare su singole molecole di notevole dimensione. DNA, RNA, proteine possono essere analizzate individualmente usando microscopia a forza atomica o pinze magnetiche o ottiche

.

Ma saremo mai in grado di farlo su piccole molecole?

Voi che ne pensate?

Si veda anche: