L’art.41 del decreto “Genova” è un imbroglio o un ragionevole compromesso?

In evidenza

Claudio Della Volpe

Da pochi giorni su tutti i giornali è esploso il problema degli idrocarburi nei fanghi, a causa del fatto che nel cosiddetto decreto Genova uno degli articoli è dedicato a risolvere il problema dell’uso dei fanghi in agricoltura, una delle emergenze che si è sommata negli ultimi giorni a tutto il resto.

L’art. 41 recita:

Disposizioni urgenti sulla gestione dei fanghi di depurazione

  1. Al fine di superare situazioni di criticita’ nella gestione dei fanghi di depurazione, nelle more di una revisione organica della normativa di settore, continuano a valere, ai fini dell’utilizzo in agricoltura dei fanghi di cui all’articolo 2, comma 1, lettera a), del decreto legislativo 27 gennaio 1992, n. 99, i limiti dell’Allegato IB del predetto decreto, fatta eccezione per gli idrocarburi (C10-C40), per i quali il limite e’: ≤ 1.000 (mg/kg tal quale). Ai fini della presente disposizione, per il parametro idrocarburi C10-C40, il limite di 1000 mg/kg tal quale si intende comunque rispettato se la ricerca dei marker di cancerogenicita’ fornisce valori inferiori a quelli definiti ai sensi della nota L, contenuta nell’allegato VI del regolamento (CE) n. 1272/2008 del Parlamento europeo e del Consiglio, del 16 dicembre 2008, richiamata nella decisione 955/2014/UE della Commissione del 16 dicembre 2008.

Non sto a pronunciarmi sul fatto che il decreto denominato “Genova” dai giornali contenga altre norme; questo è un fatto che è successo tante volte nella decretazione di urgenza del nostro paese e non ne farei un problema, ma c’entra poco col resto.

Come era la situazione del riuso dei fanghi in agricoltura? Complessa, con un recente intervento del TAR che ha di fatto bloccato il tutto in attesa di un pronunciamento del Governo e del Parlamento. La situazione precedente era ben riassunta da un documento di ISPRA il 228 del 2015 che riporta una dettagliata analisi in ben 115 pagine con i dati riguardanti le regioni che fanno più uso di questo procedimento: Lombardia, Veneto ed Emilia Romagna.

Anche da una rapida scorsa si può vedere che i limiti consentiti di idrocarburi nella sostanza secca del fango raggiungevano in alcune regioni come l’Emilia i 10g/kg sostanza secca, un valore cioè nettamente superiore a quanto stabilito dall’art.41 (1g/kg tal quale, la quota di acqua nel fango arriva all’80%, dunque moltiplicate questo numero per 5 sulla sostanza secca, 5g/kg di sostanza secca).

Quando leggete che la normativa attuale limita a 50mg/kg il valore degli idrocarburi nei fanghi sversabili sul terreno sappiate che si tratta non di una norma nazionale decisa con una legge ma di una una sentenza emanata dal TAR Lombardia il 20 luglio scorso sulla base di un ricorso di alcuni comuni lombardi. La sentenza ha annullato alcune parti della delibera regionale (n.7076/2017), che definivano i parametri di alcuni componenti contenuti nei fanghi per il loro utilizzo in agricoltura. Fino ad allora valevano le decisioni regionali riportate nel documento ISPRA.

Nella sentenza si spiega la ratio della decisione che vi sintetizzo con questa frase:

In proposito si deve anzitutto osservare che, come eccepito dai ricorrenti (che a suffragio delle loro conclusioni hanno prodotto una controperizia) – a differenza di quanto accade per altri materiali (le parti resistenti portano l’esempio di alcuni prodotti alimentari) – i fanghi da depurazione sono destinati ad essere mescolati ad ampie porzioni di terreno e a divenire, quindi, un tutt’uno con esso; appare pertanto logico che il fango rispetti i limiti previsti per la matrice ambientale a cui dovrà essere assimilato.

Se si volesse seguire questo criterio “logico” alla lettera non si potrebbe aggiungere al terreno nulla con una diversa composizione, né un concime, nemmeno naturale né qualunque altro ammendante; perfino il letame non rispetta i limiti della matrice ambientale.

Se voleste seguire questo criterio quando vi prendete un farmaco o un integratore o perfino quando mangiate, la concentrazione del quid nella pillola o nella fiala o nel piatto non dovrebbe superare quella nel vostro corpo!!! E’ un criterio del tutto cervellotico.

Comunque da questo nasce la regola invocata che il tasso di idrocarburi nei fanghi non debba essere superiore a quello dei terreni in cui riversarli; si consideri che nei terreni c’è un tasso naturale di idrocarburi “biogenici” che dipende dal tipo di terreno e di vegetazione e dal livello di inquinamento.

Aggiungo una ultima osservazione; nel suolo ci sono idrocarburi di varia origine, idrocarburi sono le cere vegetali che noi non digeriamo e ricoprono varie specie di foglie e di tessuti vegetali e che finiscono nei fanghi, ma ci sono anche idrocarburi (in questo caso insaturi) dagli splendidi colori, come il licopene del pomodoro o il beta carotene.

Se occorre costruire l’economia circolare e se occorre chiudere il ciclo della produzione il caso agricolo è fondamentale; il cibo produce rifiuti prima di tutto attraverso il nostro corpo e le nostre deiezioni (e quelle degli animali asserviti, ma ce ne sarebbero comunque, tenete presente) ed esse devono essere riciclate e reimmesse in circolo recuperandone l’apporto minerale ed organico.

Questo processo non può essere eliminato e non potrà mai essere eliminato; molti dei problemi che viviamo vengono dal fatto che lo facciamo troppo poco: nitrati e fosfati vengono immessi in circolo in quantità troppo maggiori della bisogna, a partire da aria e minerali, distruggendo i depositi minerali o estraendo azoto atmosferico e accumulando l’eccesso nelle zone morte che stanno crescendo negli oceani del pianeta, nei laghi e nei fiumi. Molto meno da origini naturali, come le deiezioni animali e ancor meno da deiezioni umane (dai depuratori si può recuperare il fosforo per via elettrochimica).

Dunque non ci sono alternative: dobbiamo riciclare i nostri rifiuti organici più e meglio di quanto facciamo ora.

Allora, se le cose stanno così, il riciclo dei fanghi civili, provenienti dalla depurazione dell’acqua delle nostre città costituisce il modo principale di realizzare questo fine.

Stiamo solamente facendo quello che già Liebig chiedeva quasi 200 anni fa:

“But how infinitely inferior is the agriculture of Europe to that of China! The Chinese are the most admirable gardeners and trainers of plants…the agriculture of their country is the most perfect in the world.” Perfect because the Chinese understood the importance of the “most important of all manures,” human excrement. …..“Indeed so much value is attached to the influence of human excrements by these people, that laws of the state forbid that any of them should be thrown away, and reservoirs are placed in every house, in which they are collected with the greatest care.” (Agricultural Chemistry, pp 65-66.)

Non solo azoto e fosforo ci sono nelle nostre feci e in quelle degli animali, ma anche carbonio, organico, organicato, preziosissimo, che occorre evitare si ritrasformi in CO2 e contribuisca all’effetto serra e rimanga invece nel suolo.

Torniamo all’art.41 che analizzo in dettaglio.

Anzitutto l’articolo stabilisce che la legge da seguire sul tema è l’

articolo 2, comma 1, lettera a), del decreto legislativo 27 gennaio 1992, n. 99,

che recita:

Art. 2.

                             Definizioni

  1. Ai sensi del presente decreto, si intendono per:
  2. a) Fanghi: i residui derivanti dai processi di depurazione:

   1) delle acque reflue provenienti esclusivamente da insediamenti

civili come definiti dalla lettera b), art. 1-quater, legge 8 ottobre

1976, n. 670;

   2) delle acque reflue provenienti da insediamenti civili e

produttivi:   tali   fanghi   devono   possedere   caratteristiche

sostanzialmente non diverse da quelle possedute dai fanghi di cui al

punto a.1.;

   3) delle acque reflue provenienti esclusivamente da insediamenti

produttivi, come definiti   dalla   legge   319/76   e   successive

modificazioni ed integrazioni; tali fanghi devono essere assimilabili

per qualita’ a quelli di cui al punto a.1. sulla base di quanto

disposto nel successivo articolo 3.1.

  1. b) Fanghi trattati: i fanghi sottoposti a trattamento biologico,

chimico o termico, a deposito a lungo termine ovvero ad altro

opportuno procedimento, in modo da ridurre in maniera rilevante il

loro potere fermentiscibile e gli inconvenienti sanitari della loro

utilizzazione.

  1. c) Agricoltura: qualsiasi tipo di coltivazione a scopo commerciale

e alimentare, nonche’ zootecnico;

  1. d) Utilizzazione: il recupero dei fanghi previsti al punto a)

mediante il loro spandimento sul suolo o qualsiasi altra applicazione

sul suolo e nel suolo.

Questo articolo è in vigore da quasi 20 anni. In sostanza si chiarisce che NON si possono usare fanghi da insediamenti produttivi diversi nella sostanza da quelli civili.

I limiti delle varie sostanze sono stabiliti nell’allegato IB

Anche la nota L rimane in vigore:

Nota L:

La classificazione come cancerogeno non è necessaria se si può dimostrare che la sostanza contiene meno del 3 % di estratto di Dmso secondo la misurazione IP 346 «Determinazione dei policiclici aromatici negli oli di base inutilizzati lubrificanti e nelle frazioni di petrolio senza asfaltene — estrazione di dimetile sulfosside», Institute of Petroleum, Londra. La presente nota si applica soltanto a talune sostanze composte derivate dal petrolio contenute nella parte 3.

Dunque cominciamo col dire che chi sta gridando e sostenendo che i fanghi si potranno usare senza verificare la loro origine o il loro contenuto in cancerogeni e metalli pesanti e altro dice una sciocchezza.

Nessun valore viene modificato eccetto quello relativo agli idrocarburi la cui catena sia compresa nell’intervallo 10-40, dunque si eccettuano i leggeri e i molto pesanti.

Per questi che costituiscono un elemento rivelatore di qualità, ma alcuni dei quali sono anche di origine naturale si dice:

fatta eccezione per gli idrocarburi (C10-C40), per i quali il limite e’: ≤ 1.000 (mg/kg tal quale).

Cominciamo col dire che non c’era un limite precedente NAZIONALE NEI FANGHI; c’era nei suoli, che era quello a cui si attaccano oggi i critici (50mg/kg peso secco), ma scusate cosa c’entra il limite nei fanghi e quello nei suoli? Anzi diciamo che questa è una regola nazionale che prima non c’era.

Il limite scelto è la metà di quelli usati dalle regioni secondo i dati del documento ISPRA; infatti dato che la tipica composizione del fango è acqua per circa l’80% quel 1000 viene moltiplicato per 5 circa, siamo dunque ad un valore limite dei C10-C40 nel fango di circa 5000mg/kg di peso secco. Questa è comunque una scelta che può creare ambiguità e raggiri, tornerei alla definizione in peso secco.

Il limite europeo nei suoli è di C10-C40 50mg/kg di suolo, misurato in un modo analitico. Quando mettete alcune tonnellate di fanghi per ettaro, tipicamente 5 per ettaro, con una densità del secco che è pari a quello del suolo attorno a 2ton/m3, state distribuendo un volume dell’ordine di 2.5m3 su 10.000m2. Questo corrisponde a 0.25mm di spessore su un suolo che poi le operazioni di aratura, erpicatura, vangatura smuoveranno e mescoleranno per almeno 30cm, ossia 300mm; potrei usare il valore di 40cm come in alcune proposte di legge, ma dato che sono conservativo uso 30. Dunque i vostri 5000mg/kg di fango diventeranno 5000mg/(300/0.25)=4.16mg/kg di suolo. Il suolo finale avrà un incremento di circa 4mg/kg di suolo negli idrocarburi C10-C40, questa sarebbe la variazione nella composizione della matrice.

Ho letto allarmi perchè in tre anni si sverserebbero 75kg/ettaro di idrocarburi; allora calcoliamo quanti ce ne possono stare; il limite è 50mg/kg di terra; i primi 30cm di un ettaro pesano in media 10.000*0.3*2=6000 ton ossia 6.000.000kg che corrispondono a un limite di 300kg di idrocarburi “preesistenti” per ettaro a cui se ne aggiungerebbero 25 all’anno, circa l’ 8%; questa è l’alterazione della matrice.

E’ vero che c’è un limite di 500mg/kg di peso secco per gli idrocarburi di questa fascia nei materiali da portare in discarica, ma con due note: a) si tratta di olio minerale, la tabella lo dice esplicitamente, valutato attraverso questo dato, in sostanza si tratta di fanghi che possono venire anche dall’industria mentre in questo caso la cosa è vietata dal richiamo contenuto nell’articolo e b) inoltre le discariche di cui si parla sono di INERTI; ma l’uso nel terreno non può essere assimilato a quello di una discarica di inerti, il terreno è vivo, in grado di metabolizzare le cose.

A riprova di ciò noto che nella legge che impone la composizione dei rifiuti da scaricare nelle discariche di inerti anche i metalli pesanti sono meno concentrati; le discariche di inerti non sono il suolo.

(in tutti questi calcoli grossolani non sto tenendo conto dell’acqua nel terreno; l’acqua nel terreno insaturo sta al massimo al 20-30% del totale a secondo se è argiloso o sabbioso, dunque i conti possono variare ma l’ordine di grandezza rimane questo che dico).

Ancora non ho capito di cosa si stanno lamentando i Verdi e mi spiace perché di solito condivido le loro critiche. Mi sembra una critica strumentale.

Certo non è una soluzione definitiva, né completa del problema; sarebbe meglio riferirsi ad una legge organica che integrasse e superasse la legge 99; ma è meglio che rimanere con impianti di riciclo e produzioni agricole bloccate.

Certo sarebbe meglio che si dicesse ancora una volta e CHIARAMENTE che i reflui industriali, i fanghi industriali NON possono essere usati nei campi (quasi mai, solo per certe industrie alimentari) specificando i vari casi, chiarendo in dettaglio quali IPA e quali concentrazioni oltre i valori GIA’ stabiliti.

Ma nelle more di una revisione organica della normativa di settore ci sta; l’art. 41 non è una soluzione finale, ma un compromesso ragionevole e TEMPORANEO, non un imbroglio, conserva le regole base contro l’inquinamento da metalli pesanti e cancerogeni e varia solo la componente C10-C40.

La condizione è che:

  • ci sia in futuro, prima possibile, una legge dedicata chiara e completa; questa legge dovrebbe porre limiti differenti per suoli differenti, i suoli argillosi o sabbiosi o con pH diversi non sono da trattare al medesimo modo;
  • che in questa legge si dica che i depuratori devono operare per ridurre i fanghi, cosa che si può fare se si usano accorgimenti opportuni, così si evita il problema alla radice; occorre anche investire nella ricerca di questo settore; per esempio nelle celle MFC (microbial fuel cell) non si generano fanghi;
  • ci siano controlli SEVERI e continui sull’uso dei fanghi, per evitare l’ingresso o contrastare od eliminare l’attività della malavita che cerca continuamente di entrare in ogni lucroso mercato e che sicuramente ha le mani in pasta in questo (come ce l’ha in quello dei rifiuti, fate caso al numero crescente di incendi nei depositi di plastica di cui abbiamo parlato).
  • Sarebbe utile modificare l’articolo 41 sostituendo al termine tal quale e al valore 1000 la dizione equivalente 5000mg/kg s.s.

Pregherei inoltre la TV la prossima volta che fa una trasmissione sui fanghi di chiedere la consulenza di qualche chimico e di non sparare a zero nel mucchio spaventando e senza informare adeguatamente.

Mi spiace per Bonelli e i Verdi e anche per Cianciullo; dovrebbero rifare l’esame di chimica.

Si veda anche:

https://ilblogdellasci.wordpress.com/2014/03/28/chimica-e-agricoltura-una-risposta-a-carlo-gessa/

https://www.lanuovaecologia.it/un-codicillo-infangato/?fbclid=IwAR111r1Rzi2UxaavFJO_L8X68wVgSrwgAODqIKrOl_-Rl8zeADJY5k8Dd1A

 

Una scienziata affermata scomparsa prematuramente: Phyllis Tookey Kerridge (1901-1940)

In evidenza

Rinaldo Cervellati

Come ricordato in un precedente post, Phyllis Margaret Tookey Kerridge, chimico e fisiologo inglese ideò il microelettrodo a vetro per la misura del pH del sangue e di altri fluidi corporei ed è considerata la fondatrice della moderna audiometria.

Phyllis nacque nel 1901, unica figlia di William Tookey, un noto ingegnere di Broomley, nel Kent. Completò gli studi preuniversitari nella City of London School for Girls, distinguendosi in particolare nelle materie scientifiche. La sua carriera universitaria è descritta come “brillante”[1], ma la sua ricostruzione è complicata in quanto elencata sia come membro dello staff dell’University College London (lettore dal 1923) che come studente (dal 1919 – fino al completamento degli studi in medicina 14 anni dopo). Conseguì il B.Sc. in Chimica e Fisica nel 1923, il M.Sc. in Chimica nel 1924 e completò il dottorato di ricerca nel 1927. Tuttavia, nel frattempo continuò gli studi di medicina diventando membro del Royal College of Surgeons e ammessa al Royal College of Physicians nel 1933 (membro RCP a tutti gli effetti nel 1937)1.

Phyllis M. Tookey Kerridge

Phyllis visse in famiglia fino al 1926, quando si sposò con William Kerridge, prendendo residenza a Londra in St Petersburgh Place . Del marito si sa poco, ma l’insistenza di Phyllis a mantenere il suo nome da nubile anche dopo il matrimonio (da allora in poi Phyllis Tookey Kerridge) è certamente un’indicazione delle sue idee sul ruolo delle donne nella società e il suo sostegno alle istanze femministe. Nel periodo studentesco fu registrata come membro del comitato della Women’s Union Society.

Il suo interesse per lo sviluppo di un elettrodo a vetro in miniatura nacque dalle ricerche per il suo dottorato in chimica. Phyllis Tookey conosceva bene la chimica fisica e questo le permise di progettare elettrodi a vetro in grado di fare misure su piccole quantità di campioni o che fossero inseribili nei tessuti dei viventi. A quest’ultimo scopo molte fonti[2] riportano che Tookey risolse il problema cercando di massimizzare l’area della superficie dell’elettrodo, senza aumentare le dimensioni del contenitore esterno. Trattò il filo di platino con cloruro di platino scaldando poi fino al calor rosso ottenendo un’area di superficie efficace per la misura del potenziale.

Tuttavia nei due articoli che Phyllis Tookey pubblicò prima della discussione della dissertazione scritta [1,2] non è menzionata questa procedura, è invece descritta la preparazione di un recipiente miniaturizzato di vetro sottile.

Nel suo importante articolo del 1925, Tookey, dopo aver discusso le difficoltà tecniche nella miniaturizzazione, nonchè lo schema dell’intero circuito utilizzato per le misure, riporta la seguente figura della parte elettrochimica dell’apparato:

Figura 1 Apparato di P. Tookey Kerridge: a sinistra l’elettrodo di misura (vetro + calomelano), a destra l’elettrodo di riferimento a calomelano (dall’originale [1])

A proposito dell’elettrodo a vetro, Tookey scrive [1]:

A form of electrode found very convenient for biological purposes is illustrated in Fig. 2. The membrane in this case is in the shape of a deep spoon sucked inside a bulb of thicker glas. This is very easily glass-blown after a little practice. The solution of known pH may be filled into the outer bulb by turning the electrode on its side and putting the tube A under the jet of a pipette or burette, the air in the bulb escaping through B. The other solution, that of unknown pH for example, is put into the spoon. The advantages of this form are self-evident. Filling, washing and emptying the inside solution are simple operations. The membrane blown in this way seems to be under less strain than when blown at the end of a tube, and does not break so easily, and the quantity of liquid required for the spoon is very small. The total capacity of the spoon is about 1 cc. and it need never be more than half-full. A smaller quantity than 0,5 cc. may be used if necessary. If the liquid under experiment is liable to air oxidation or to loss of CO2 it may be covered with liquid paraffin without affecting the E.M.F.

[traduzione]

Una forma di elettrodo trovata molto conveniente per scopi biologici è illustrata in Fig. 2. La membrana in questo caso ha la forma di un cucchiaio profondo aspirato all’interno di un bulbo di vetro più spesso. Ciò si ottiene facilmente dopo un poco di pratica. Il bulbo esterno viene riempito con la soluzione a pH noto ruotando l’elettrodo su un lato, attraverso il tubo A con l’aiuto di una pipetta o di una buretta, l’aria fuoriesce attraverso B. L’altra soluzione, quella a pH sconosciuto viene posta nel cucchiaio. I vantaggi di questa forma sono evidenti. Riempire, lavare e svuotare la soluzione interna sono operazioni semplici. La membrana soffiata in questo modo sembra essere meno sollecitata di quando viene soffiata all’estremità di un tubo, e non si rompe così facilmente, e la quantità di liquido richiesta per il cucchiaio è molto piccola. La capacità totale del cucchiaio è di circa 1 cc. e non deve mai essere più che mezzo pieno. Una quantità inferiore a 0,5 cc. può essere usato se necessario. Se il liquido in esame è suscettibile all’ossidazione dell’aria o alla perdita di CO2, può essere coperto con paraffina liquida senza influenzare la f.e.m.

 

Niente filo di platino, la sua funzione è assicurata dalla giunzione con l’elettrodo a calomelano. Lo stesso assemblaggio è descritto nel successivo lavoro del 1926 [2]. Potrebbe essere che il discorso sul platino sia contenuto nella tesi discussa nel 1927, che non sono riuscito a ritrovare (molti archivi di quegli anni sono andati distrutti durante la 2a guerra mondiale).

Di platino non ne parla nemmeno nell’articolo sugli effetti di vari additivi sul pH del sangue, scritto in collaborazione con Robert Havard [3]. Quest’ultimo sembra essere il termine delle ricerche di Tookey Kerridge a carattere principalmente chimico.

Dopo essersi diplomata in medicina all’inizio degli anni ’30, Kerridge fu raccomandata dal Dr. Edward Poulton al costruttore di strumenti scientifici Robert W. Paul, che stava cercando una persona per condurre rigorosi test fisiologici su un respiratore chiamato “pulsatore” creato da William Henry Bragg[3]. I test di Tookey Kerridge fornirono numerose misurazioni fisiologiche utili per migliorare l’efficienza del dispositivo. Suggerì anche miglioramenti al design per ridurne complessità e ingombro. Oltre a ciò Tookey Kerridge svolse anche un ruolo attivo nel pubblicizzare l’apparecchio. Scattò molte fotografie dei suoi assistenti di laboratorio con il dispositivo, consigliò a Bragg e Paul di pubblicare l’apparato nei Proceedings of the Royal Society of Medicine e lei stessa ne scrisse su Lancet [4].

Respiratore di Bragg-Paul-Tookey Kerridge

Nella seconda metà degli anni ’30, Tookey Kerridge lavorò al Royal Ear Hospital e sviluppò standard audiometrici per i test dell’udito. Svolse anche un ruolo significativo nella costruzione di apparecchi acustici per i non udenti. Il suo vivo interesse per la musica le ispirò simpatia per coloro che hanno perso l’udito. Il suo lavoro si incentrò quindi in particolare sull’incidenza della sordità nei bambini. Incoraggiò i suoi studenti ad accompagnarla durante le visite ai sobborghi di Londra per stabilire potenziali fattori socio-economico-ambientali nell’eziologia della sordità in bambini in età scolare. Per questa ricerca ottenne nel 1936 un finanziamento dal Medical Research Council di Londra. Gli esperimenti audiometrici furono effettuati nella ‘stanza del silenzio’, un’enorme stanza insonorizzata nel seminterrato dell’University College Hospital a Londra, la prima istituzione britannica a possedere un audiometro elettrico che utilizzava test a toni puri piuttosto che a registrazione vocale.

La ‘stanza del silenzio’

L’esperienza di Kerridge nella tecnologia degli apparecchi acustici fu utilizzata dalle Poste e Telefoni Britannici. Inizialmente erano interessati al miglioramento della qualità del suono nelle linee telefoniche. Tuttavia, Tookey Kerridge ha collaborato con l’ufficio postale in modo più approfondito quando iniziò a testare l’udito dei telefonisti con il suo audiometro. Nel 1937 fece installare negli uffici postali i telefoni amplificati progettati per le persone con problemi di udito.

Allo scoppio della seconda guerra mondiale, Tookey Kerridge stava lavorando all’University College Hospital. È stata distaccata al servizio medico di emergenza dell’ospedale di St Margaret, a Epping. Lì, Kerridge e i suoi colleghi attrezzarono un laboratorio improvvisato per trasfusioni di sangue e indagini patologiche.

Omaggio a Phyllis Tookey Kerridge

Colta da una improvvisa rara malattia, Phyllis Margaret Tookey Kerridge morì il 22 giugno 1940 all’età di 38 anni. Scienziata già affermata e nota, oltre alla rivista Nature, anche il quotidiano The Times ne pubblicò un necrologio il 26 giugno 1940.

Bibliografia

[1] P. Tookey Kerridge, The Use of the Glass Electrode in Biochemistry., Biochemical Journal, 1925, 19, 611-617.

[2] P. M. Tookey Kerridge, The Use of Glass Electrodes., Rev. Sci. Instr., 1926, 3, 404-409.

[3] R. E. Havard, P. Tookey Kerridge, An Immediate Acid Change in Shed Blood., Biochemical Journal, 1929, 23, 600-607.

[4] P.M. Tookey Kerridge, Artificial respiration for two years., The Lancet1934, 223, 786–788.

[1] University College London Annual Report for 1940, http://www.inventricity.com/phyllis-kerridge

[2] Oltre al sito della nota precedente v. http://www.inventricity.com/phyllis-kerridge-chemist-inventor

[3] Sir William Henry Bragg (1862-1942), britannico, fisico, chimico e matematico, condivise il premio Nobel per la Fisica 1915 con il figlio Lawrence Bragg, “per le loro ricerche sull’analisi della struttura cristallina mediante raggi X”.

Un chimico alla prova dell’emozione.

In evidenza

Mauro Icardi

Terminata la mia breve presentazione alla cerimonia di premiazione dei vincitori della selezione regionale lombarda dei giochi della chimica 2018, scrivo questo breve post, che è sostanzialmente un ringraziamento.

Certamente rivolto agli organizzatori, che hanno voluto la mia presenza, per una breve conferenza che ho intitolato “Spirito di osservazione e sensibilità chimica: due doti del chimico”. Ho cercato di trasmettere alcune sensazioni personali. Di identificare in qualche modo quel qualcosa che unisce chi si occupa di chimica. La sensibilità nella pratica di una scienza che, a fronte di tanti che ancora banalmente denigrano considerandola con leggerezza la dispensatrice di ogni male, invece suscita ancora fascino ed entusiasmo.

Ho aggiunto anche qualche argomento legato al mio ormai quasi trentennale lavoro di chimico del ciclo idrico. Ma devo dire, e lo dico con molta emozione, che ho certamente ricevuto più di quanto ho dato nella mia conferenza.

Ho visto negli occhi dei ragazzi che sono stati premiati molta comprensibile emozione, ma tanto entusiasmo per le meraviglie che la chimica può suscitare. E come sempre mi accade ho ricevuto davvero ottime sensazioni. Gli interventi di alcuni ragazzi premiati che hanno parlato della loro esperienza di studio e di conoscenza della chimica, sono stati un grande segno di positività. In primo luogo per il giusto ringraziamento ai loro insegnanti, capaci di instaurare con loro un corretto e proficuo rapporto docente-studente. Fondamentale per migliorare l’apprendimento ed il percorso scolastico, ma anche per la crescita personale dei ragazzi. Come sempre, gli alberi che cadono (mi riferisco a fatti di cronaca che riportano notizie di insegnanti insultati o addirittura percossi e minacciati) sovrastano nell’immaginario le foreste che crescono. E c’è un gran bisogno che queste diventino rigogliose.

I ragazzi spiegando cos’è per loro la chimica mi hanno fornito molti spunti. La chimica come linguaggio, in riferimento alla tavola periodica ( e quindi come non collegare immediatamente il pensiero a Levi che la definì “La più alta e più solenne di tutte le poesie”.) La chimica come chiave di lettura del mondo, di come esso funziona ed evolve. La chimica “Bella e potente”.

Mi ha contagiato il loro entusiasmo giovanile. Le discussioni di chimica che i ragazzi hanno citato, passando dalla cristallizzazione dell’acqua nei gelati, fino alle discussioni fino all’alba sul riconoscimento degli spettri IR. Ho provato le ben note sensazioni di arricchimento reciproco. Non sono un insegnante o un docente universitario. Quindi potrei difettare di conoscenze pedagogiche. Ma ho dedicato negli anni ad altri studenti un poco del mio tempo, e li ho ascoltati e incoraggiati quando sono venuti a svolgere i loro stages o a completare il loro percorso di tesi, in campo, nel luogo dove lavoro ormai da quasi trent’anni. Un depuratore di acque reflue. E questo ha aiutato anche me a crescere. Lasciando ricordi indelebili.

L’auspicio è che questi ragazzi possano trovare la loro realizzazione professionale. La chimica può e deve fare tanto, ad esempio per il disinquinamento. Ci sono dei problemi che aspettano una soluzione, penso agli inquinanti emergenti. Alla sintesi di nuove molecole e prodotti che possano essere rimessi in circolo senza perturbare l’ambiente. Il loro entusiasmo, la loro passione, la loro futura preparazione e professionalità meritano di essere riconosciute e premiate.

Ringrazio il comitato organizzatore nelle persone di Domenico Albanese (Presidente della sezione regionale Lombardia della Società Chimica Italiana),Mariano Calatozzolo, Carmen Capellini, Donatella Nepgen, Paolo Tenca.

Estendo il ringraziamento alla redazione del blog. L’invito che mi è giunto gradito ed inaspettato arriva dopo anni di lavoro con una redazione dove si lavora davvero bene. Quindi ringrazio Claudio Della Volpe, Margherita Venturi, Vincenzo Balzani, Rinaldo Cervellati, Giorgio Nebbia, Luigi Campanella, Silvana Saiello e Annarosa Luzzatto.

Un ringraziamento va anche a Valentina Furlan, la collega con la quale lavoro ormai da sedici anni. Per l’incoraggiamento a vincere l’emozione prima della conferenza, e per aver documentato con qualche foto il ricordo di questa giornata.

E ringrazio ancora i ragazzi. Quelli premiati, e quelli che si sono cimentati nei giochi.

E vorrei chiudere questo post con questo brano di Francesco Muzzarelli tratto dal libro “Studio dunque sono”

Il proprio sistema di apprendimento plasma la visione del mondo e determina le nostre opportunità.

Saper imparare, non smettere mai di imparare, significa dare un orientamento consapevole e responsabile alla propria evoluzione

Glifosato e api da miele

In evidenza

Rinaldo Cervellati

Il discusso erbicida glifosato (di cui abbiamo parlato diffusamente nel blog, cercate glifosato in alto a destra e anche nella rubrica La Chimica allo specchio di C&I) potrebbe incrementare la mortalità delle api da miele come ritiene uno studio riportato da M. Satyanarayana nell’ultimo numero di settembre di Chemistry & Engineering newsletter on-line.

Struttura molecolare del glifosato

Lo studio, effettuato da un gruppo di ricercatori in Texas, ha evidenziato che l’erbicida, commercializzato col nome RoundupÒ, potrebbe danneggiare le api indirettamente perturbando la flora batterica del loro intestino. (E.V.S. Motta et al. Glyphosate perturbs the gut microbiota of honey bees., Proc. Nat. Acad. Sci. USA., 2018, DOI: 10.1073/pnas.1803880115). Gli scienziati pensano che i risultati potrebbero aiutare a spiegare il declino delle api da miele osservato negli ultimi anni.

Il gruppo, coordinato da Nancy Moran, esperta in biologia delle api alla Texas University di Austin, ha esposto centinaia di api operaie al glifosato a concentrazioni uguali a quelle che avrebbero potuto incontrare nei pressi di campi agricoli trattati con l’erbicida.

Nancy Moran

Questo gruppo di api è stato poi reintrodotto nel proprio alveare. Dopo tre giorni la flora batterica dell’intestino di queste api è stata analizzata e confrontata con quella di un gruppo di api non trattato col glifosato. I ricercatori hanno scoperto che l’abbondanza di alcune delle otto specie predominanti di battèri intestinali era significativamente diminuita nelle api trattate rispetto a quelle non trattate, suggerendo che l’esposizione al glifosato aveva modificato la composizione della flora batterica intestinale nel gruppo di api trattato. I due gruppi sono stati poi esposti a un comune agente patogeno delle api. E’ risultato che le api operaie esposte al glifosato sono decedute a velocità più elevate rispetto alle api non esposte, portando alla conclusione che la diminuzione di alcuni battèri della flora intestinale aveva reso gli insetti trattati più vulnerabili degli altri.

Queste conclusioni corrispondono a quelle riportate in precedenza che hanno dimostrato che le api da miele con flora intestinale compromessa sono malnutrite e suscettibili alle infezioni. Moran sostiene che questi risultati, insieme ai dati che mostrano che il glifosato può influenzare i battèri del suolo e che si accumulano nelle api, suggeriscono ai ricercatori di valutare se i possibili effetti indesiderati del popolare erbicida abbiano avuto un ruolo nel declino delle api.

Continua Moran: “Circa 10 anni fa, ci fu un preoccupante declino nelle popolazioni di api da miele, in seguito chiamato colony collapse disorder. I tassi di mortalità hanno continuato ad essere alti, ma i decessi non sono stati così improvvisi.”

Fred Gould, entomologo, patologo ed ecologista, professore distinto della North Carolina State University, fa notare che ricercatori hanno esaminato il ruolo di diversi pesticidi e fungicidi nel declino e nell’infezione delle colonie di api, ma il glifosato non era mai stato preso in considerazione. La ricerca di possibili effetti trascurati, come quelli descritti nel nuovo studio è un sintomo che questo settore di indagine è in netto miglioramento rispetto al passato.

Fred Gould

Come quasi tutti gli erbicidi, il glifosato agisce bloccando un enzima chiamato EPSP sintasi nelle piante, necessario per la biosintesi di amminoacidi aromatici come la fenilalanina, la tirosina e il triptofano, impedendo così la crescita delle piante[1]. Il glifosato non uccide i battèri, ma impedisce loro di crescere, e la maggior parte dei batteri trovati nell’intestino delle api portano il gene che codifica l’enzima.

Ma mentre alcune specie di battèri che abitano nell’intestino delle api sono sensibili al glifosato, altre lo sono meno, perché portano un gene per una forma di EPSP resistente al glifosato, o per altri meccanismi sconosciuti, dice Moran. Il suo gruppo ha in programma di ripetere i loro esperimenti su alveari interi e di esplorare i meccanismi di nonresistenza degli EPSP.

Colonia di api da miele

L’impatto ambientale e gli effetti sulla salute del glifosato sono una questione ancora controversa dice Gould, quindi studi sull’ intero alveare potrebbero far luce sugli effetti dell’ erbicida su una specie critica per l’agricoltura.

Questi studi potrebbero anche aiutare a evitare possibili effetti negativi del glifosato sulle api. Il risultato probabile sarà una sorta di miglior pratica su quando e dove spruzzare il glifosato, dice Juliana Rangel, entomologa della Texas A & M University.

Juliana Rangel

L’impollinazione attraverso le api è un’industria di circa 15 miliardi di dollari l’anno, dice, e “molte volte, tragedie come il colony collapse disorder possono essere evitate con una migliore comprensione dell’ecosistema”.

[1] A differenza di molti altri erbicidi che risultano efficaci contro alcune specie, cioè selettivi, il glifosato è un erbicida totale il che ne spiega l’uso generalizzato.

Le molecole della pubblicità: ma dove sta la camomilla nella Saugella?

In evidenza

Claudio Della Volpe

(per gli altri articoli di questa serie si cerchi “molecole della pubblicità” nel riquadro in alto a destra)

Uno dei prodotti detergenti intimi più comuni è la Saugella, prodotto della italiana Meda (oggi Rottapharm); lo uso anche io, è un detergente a pH neutro indicato per la pelle delicata. Utile prodotto, almeno nella mia esperienza; non ve ne parlo per fare pubblicità, ma per capire una cosa: ma dove sta la camomilla, dato che il prodotto è declamato come “a base di camomilla”?

I detergenti a pH neutro o perfino acido sono giustificati dal fatto che il pH della pelle non è basico come i comuni saponi che contengono spesso residui di OH in quantità significativa; dopo tutto la saponificazione è il processo per la produzione del sapone a partire da grassi e idrossidi di metalli alcalini. In termini tecnici, la saponificazione è l’idrolisi basica (solitamente si impiega soda caustica, NaOH) di un trigliceride per produrre il corrispettivo sale sodico (carbossilato, più propriamente).

Ma la nostra pelle è prima di tutto coperta di sebo e dunque una pulizia totale è sconsigliata, eliminerebbe il grasso naturale con funzione protettiva, e d’altronde l’igiene, ossia la riduzione del carico batterico indesiderato, è utile; inoltre il pH è dell’ordine di 5.5, ossia vicino a quello dell’acqua naturalmente carbonatata dall’atmosfera.

5.5 non 7.

E’ un trucco di tutti i tecnici di laboratorio di chimica: ohi ragazzo dimmi quale è il pH dell’acqua distillata; e noi tutti a pecorella: 7! Ah, ah; ma quando mai! Dice il tecnico è 5-5.5; e perchè? Ma perchè il diossido di carbonio ci si scioglie dentro alla grande, forma acido carbonico, è il motivo per cui se lasci aperta una soluzione di idrossido di sodio calibrata te la ritrovi fuori range in poche ore; una volta ci si metteva una valvola di ingresso piena di idrossido di potassio o di sodio che si carbonata; anche nel famoso romanzo di Verne, Intorno alla Luna (seguito di Dalla terra alla Luna) si usa questa capacità degli idrossidi per purificare l’aria del proiettile lanciato verso la Luna, assorbendo l’anidride carbonica prodotta dalla respirazione degli astronauti.

Allora tornando a noi: guardiamo l’INCI della Saugella e cerchiamo la camomilla della pubblicità:Apparentemente la camomilla non c’è; ricordiamo che l’elenco INCI riporta i prodotti in ordine quantitativo (solo dopo l’1% in ordine sparso); il primo prodotto “naturale” è un estratto di timo (non camomilla), ma di essenziale c’è un sapone magnesio laurilsolfato, e varie altre molecole detergenti, molecole tutte sintetiche che fanno da regolatori dell’acidità, profumi; dato che non contiene parabeni contiene altre sostanze antibatteriche e conservanti (i parabeni servivano a questo e devono essere sostituiti in qualche modo, se no la scadenza dei prodotti si riduce notevolmente).

Ma la camomilla? Dov’è?

Beh dopo lunga osservazione e riflessione, in 11esima posizione e dunque in quantità mooolto , ma moolto piccola trovo il bisabololo.

Ecco qua, dove si nasconde la camomilla!

Eh si perchè l’α-bisabololo, anzi

l’α-(−)-bisabololo è un alcool naturale sesquiterpenico monociclico che si forma per neutralizzazione con acqua del catione bisabolile.

Costituisce il componente principale (10-25%) dell’olio essenziale di camomilla derivato dai capolini freschi o essiccati.

Possiede proprietà calmanti ben conosciute da secoli e perciò viene utilizzato in numerosi prodotti cosmetici. Ha proprietà lenitive e disarrossanti.

(da Wikipedia)

il bisabololo naturale è lo stereoisomero indicato con 118

da Handbook of Cosmetic Science and Technology A.O. Barel ed. pag 277 e seguenti; la prima molecola è α(-)-bisabololo, la seconda  α(+)-bisabololo, l’una enantiomera dell’altra.

Si tratta di una molecola con due stereocentri , e quello naturale è uno solo dei quattro possibili*. I primi due sono enantiomeri, in quanto le loro configurazioni assolute si invertono. 1S,2S nel α-(-) bisabololo e 1R,2R nel α-(+)bisabololo. Il bisabololo della Saugella non è esplicitamente dichiarato come estratto dalla camomilla, anche se sulla bottiglia è scritto  a base di camomilla e a base di estratto di camomilla, ma negli ingredienti c’è solo il bisabololo che potrebbe venire dalla camomilla.

In genere viene estratto anche dalla camomilla, Matricaria Camomilla var. recutita (e anche da un’altra pianta del tutto diversa), ma può essere anche sintetizzato.

Ora la questione che si pone è la seguente: la pubblicità dice che la Saugella è “a base di camomilla”, mentre è solo l’11esimo prodotto dell’INCI, pochino proprio; ma soprattutto, questo bisabololo da dove viene? è un estratto dall’olio di camomilla oppure è sintetico o ha ancora altre origini? Come facciamo a capire?

Vabbè direte voi, ma tanto sono identici: il bisabololo è bisabololo!

Certo, è vero (quasi al 100%) ma con qualche piccola differenza che esaminiamo qua .

Cominciamo a dire che ci sono tre possibili sorgenti di α-bisabololo;

  1. A) c’è quello della camomilla, 10-15% dell’olio di camomilla che contiene solo lo stereisomero indicato comunemente come α(-)-bisabololo , relativamente raro al giorno d’oggi sul mercato.

Occorre quasi una tonnellata di fiori di camomilla (cosiddetta tedesca, ma ne esistono altre varietà) per ricavare due chilogrammi di olio essenziale di camomilla il cui colore blu intenso è dovuto all’alta percentuale di azulene, un idrocarburo, che non è contenuto nell’olio di Candeia (altra sorgente di α-bisabololo), ma è contenuto in altre piante e funghi. L’azulene ha proprietà lenitive analoghe al bisabololo e molto potenti.

Anti-inflammatory drugs- Vane e Ferreira Springer 1979

Si veda anche: https://www.tandfonline.com/doi/abs/10.1080/0972060X.2016.1224689?journalCode=teop20

Nel libro di Heinrich e altri, Fondamenti di farmacognosia e fisioterapia si chiarisce che l’olio essenziale di camomilla si può avere in una seconda versione in cui però dominano gli ossidi di bisabololo.

  1. B) c’è una seconda sorgente naturale, una pianta brasiliana dal cui olio essenziale si estrae tramite un processo di distillazione diretta; la pianta è l’albero brasiliano Candeia (Vanillosmopsis erytropappa), per distillazione in corrente di vapore del legno delle piante si estrae l’olio dal quale si può distillare un equivalente (che però ha certamente impurità diverse rispetto a quello della camomilla) e comunque non viene dalla camomilla, ma certo è ancora propriamente α(-)-bisabololo, lo stesso stereoisomero; da una rapida indagine sul mercato questo olio costerebbe meno di quello di camomilla. La pianta appartiene alle composite o asteracee come la camomilla, ma è un albero sia pur non altissimo. Le asteracee sono originarie del sud America e si sono differenziate dopo la separazione del supercontinente Gondwana. In pratica la camomilla è una discendente della Candeia. (https://it.wikipedia.org/wiki/Asteraceae)
  1. C) ed infine c’è un bisabololo sintetico che però è una miscela dei 4 stereoisomeri la cui composizione esatta dipende dal tipo di sintesi scelta*   e dunque, supponendo che la sintesi produca solo i due indicati nella figura e che non ci siano problemi con la molecola 127 in figura , è efficace la metà e non ha a che fare con la camomilla se non in linea indiretta. Altre sintesi darebbero risultati ancora diversi*.

Nel bisabololo sintetico sul mercato, che come detto è un una miscela di enantiomeri , c’è ancora un altro problema, che circa il 10% del prodotto è farnesolo;In anni recenti sono stati lanciati prodotti sintetici a base di bisabololo di maggiore purezza (nome commerciale Dragosantolo) che contengono solo lo 0.01 o perfino lo 0.001 di farnesolo.

https://www.cosmeticsdesign.com/Article/2005/03/09/Symrise-gets-EC-compliance-for-purer-Bisabolol

Quale di questi tre è contenuto nella Saugella?

L’INCI parla di bisabololo, non di estratto di camomilla come la pubblicità. Però possiamo rifarci alla definizione che dà, se non l’INCI stessa la legislazione europea che si rifa all’INCI

http://ec.europa.eu/growth/tools-databases/cosing/index.cfm?fuseaction=search.details_v2&id=74499

dove troviamo che il termine usato sul contenitore della Saugella escluderebbe uno dei tre casi; infatto il temine “bisabololo”(Nota: non fatevi ingannare dai simboli R*,R*, ricordando che secondo il goldbook (https://goldbook.iupac.org/html/R/R05260.html) questo indica solo che i due centri hanno la stessa configurazione; infatti sono entrambi S, come descritto nella immagine del Barel)

******************************

corrisponde al CAS 515-69-5/23089-26-1 che corrisponde al solo (α-(−)-bisabololo ), mentre l’altro stereoisomero (α-(+)-bisabololo ) corrisponde ad un diverso CAS. Dunque saremmo portati ad escludere nella Saugella la presenza del bisabololo di sintesi che sarebbe efficace la metà o meno, in quanto nella lista dei componenti NON è indicato l’altro stereoisomero.

Dunque anche se il bisabololo della Saugella è indicato solo come bisabololo il rispetto della legislazione europea ci porta a concludere che è presente solo α-(−)-bisabololo che è di origine naturale.

Diciamo che qua un piccolo dubbio mi rimane; se il bisabololo fosse di sintesi sarebbe d’obbligo indicare la presenza dell’altro o degli altri stereisomeri visto che esso NON è indicato nella lista INCI? Di fatto sarebbe solo una questione di titolo: se uno usasse il sintetico, quello giusto ci sarebbe, mentre l’altro (o gli altri) che non è presente in INCI sarebbe un di più, senza nome. Non so se è possibile.

Supponiamo col beneficio di inventario che non ci sia. Rimane comunque un problema; la denominazione INCI non decide della provenienza.

Il bisabololo della Saugella potrebbe anche venire dalla Candeia, il distillato dell’olio di Candeia sarebbe solo α-(−)-bisabololo, e la composizione sarebbe allora giusta.

Diciamo però che la pubblicità non sarebbe del tutto corretta. Intendiamoci nulla di male, il prodotto sarebbe sempre quello, ma non sarebbe “a base di camomilla”, ma di Candeia. Come stanno le cose? Non lo so. Da chimico capisco che di fatto la differenza, se fosse così, sarebbe minima, ma questa incertezza mi dà un certo fastidio.

Non sarebbe nemmeno un caso unico.

Si sa che l’acido carminico estratto dalla cocciniglia, che è un insetto, colora le fragole degli Yogurt; al massimo in quelli per bambini si usa la carota nera che vira al rosso cambiando il pH; grande chimica, ma tutto ciò ripeto mi da un certo fastidio.

Bah; sulla Saugella spero in un chiarimento del produttore al quale ho anche mandato una richiesta, poi vi dico.

Sul resto voi che ne dite?

NdB: Rottapharm-Madaus è proprietà di un gruppo italiano, Meda (oggi Meda AB) che si occupa di prodotti per la cura della persona, ha acquisito la Rottapharm-Madaus nel 2014; è a capitale italiano, ha 1800 dipendenti ed è presente in 90 paesi.

*

a proposito della sintesi del bisabololo si veda THE TOTAL SYNTHESIS OF NATURAL PRODUCTS vol. 5 di J. ApSimons, J. Wiley & Sons 1983 pag 59 dove si analizzano in dettaglio le varie strade di sintesi e le diverse quote di prodotto ottenute fra i 4 stereisomeri.

Chimica, società, vaccini.

In evidenza

Luigi Campanella, già Presidente SCI

Alla recente riunione del Consiglio Centrale della SCI ho avuto l’opportunità di partecipare ad una discussione, purtroppo per esigenze organizzative limitata nel tempo, relativa al dibattito in atto nel Paese circa l’obbligatorietà o meno di vaccinazioni.

Il tema è caldo: la politica ha tentato di scavalcare la scienza, in parte-per fortuna solo in parte- riuscendovi. Giustamente sono apparsi sulla stampa interventi di prestigiose ed eminenti istituzioni scientifiche e loro ricercatori, soprattutto medici, a difesa dei vaccini obbligatori. La domanda che è emersa in sede di Consiglio Centrale SCI è stata: è opportuno che una Società Scientifica non medica si pronunci su un tema così dibattuto e non strettamente di sua competenza? Mi permetto in questo post di focalizzare i motivi per cui la mia risposta a quella domanda non può che essere: sì è opportuno, utile e necessario. Innanzitutto la scienza non ha comparti stagni: i punti di contatto e le correlazioni sono presenti sempre avvicinando discipline a volte un tempo considerate lontane (si pensi ad archeologia e chimica,ad economia e matematica, a diritto e statistica).

La chimica tradizionalmente oltre a sviluppare una propria ricerca di scienza molecolare è stata considerata una disciplina di supporto (di servizio si diceva con irrispettosa espressione ) per molte altre: dalla medicina alla biologia, dalla geologia alla merceologia, dalla fisica all’antropologia. In passato talvolta questo ruolo non è stato riconosciuto così da perdere occasioni di progresso e di avanzamento. Noi stessi chimici mentre da un lato ci siamo lamentati per questi mancati riconoscimenti e delle resistenze e mancate permeabilità di alcune componenti scientifiche , dall’altro ci siamo impegnati a trovare sbocchi culturali alla nostra disciplina, che camminassero parallelamente alla riconosciuta importanza della chimica nella vita di tutti i giorni ed aprissero settori di studio poco esplorati. Così abbiamo fatto crescere il nostro patrimonio metodologico e tecnico offrendo modelli di approccio, metodi e strumenti avanzati di indagine per i ricercatori delle altre discipline. Nel caso della medicina è mia ferma convinzione che un contatto più stretto ed assiduo con la chimica avrebbe certamente giovato al progresso già esaltante di questa scenza. Per tutto ciò io credo che laddove questa correlazioni scientifiche e culturali ci siano si debba cogliere l’occasione di esprimere la nostra posizione. Che poi queste correlazioni ci siano nel caso dei vaccini mi pare quasi ovvio per numerose ragioni. Esistono settori della Chimica dedicati al tema: si pensi alla Chimica Biologica, in particolare all’Immunochimica,alla Chimica Farmaceutica; i vaccini sono sistemi complessi la cui composizione prevede la coesistenza con l’antigene di numerosi composti generalmente tutti a concentrazioni di sicurezza, ma da valutare integralmente; si tratta di associazioni di elementi che non esistono nei manuali dei materiali conosciuti; questi materiali sono in massima parte non biodegradabili, per cui una volta iniettati rimangono nel corpo laddove il sangue li ha trasportati; le particelle di dimensione ridotta possono venire incamerate da cellule ed interagire direttamente con il DNA danneggiandolo. Apprezzo quindi molto la proposta-che spero si concretizzi- del Presidente della SCI al Consiglio per creare un GdL che sintetizzi questi punti evidenziando gli aspetti chimici di un problema che è soprattutto medico, sociale, culturale.

Perché oggi la scienza non può tacere.

In evidenza

Vincenzo Balzani

In occasione dell’iniziativa Saperi Pubblici, piazza Verdi, 1 e 2 ottobre 2018, Bologna, Vincenzo Balzani ha scritto e pubblicato questo intervento che è anche apparso sul quotidiano la Repubblica.

Perché oggi la scienza non può tacere? Perché la scienza per sua natura è rivoluzionaria e, come dice una celebre frase di George Orwell, “In un’epoca dove si diffondono bugie, dire la verità è rivoluzionario”.

Potremmo anche partire da una frase celebre di Aldous Huxley, filosofo, scrittore e pacifista: “Molte persone credono di stare pensando quando, in realtà, stanno solo riorganizzando i loro pregiudizi”. E’ proprio questo che sta accadendo: fra la gente e, cosa ancor più pericolosa, fra molti di coloro che ci governano emergono pregiudizi che si concretizzano in discriminazioni, attacco ai diritti civili, spregio della diversità, disprezzo della scienza e più in generale delle competenze, fino alla formulazione di proposte di legge disgiunte dai principi costituzionali: la flat tax che è in contrasto con l’art. 53 della Costituzione, la discriminazione sul reddito di cittadinanza e la legittima difesa che sconfina nella giustizia fai da te.

Il primo e più grave pregiudizio che certe persone hanno, anzi coltivano, è quello di avere in tasca la verità, di essere migliori degli altri e quindi di non avere bisogno di nulla e di nessuno. La loro unica preoccupazione è difendere, con muri materiali, mentali e culturali, la loro identità. Quindi: si può fare a meno dell’Europa, si può fare a meno della Costituzione, si può fare a meno della magistratura, si può fare a meno del ragioniere generale dello Stato … Se ne può fare a meno perché sono solo ostacoli al “cambiamento”, perché “sappiamo noi cosa si deve fare”.

Per raccogliere consensi questi governanti non usano argomenti razionali, ma lo fanno suscitando paure, facendo credere ai cittadini che sono minacciati nei loro averi, nel loro lavoro, persino nella loro religione. Diffondono la xenofobia e isolano così la gente sotto una cappa di spavento e di ignoranza dalla quale è poi difficile uscire.

Le caratteristiche della scienza sono oggettività, rigore, collaborazione, confronto, libertà di pensiero e anche accettazione del dissenso, ma non del pregiudizio. La scienza è libera, non può sottostare ad imposizioni, sia che vengano dal basso, dalla gente, e tantomeno dall’alto, da chi governa. La scienza è per abbattere muri e costruire ponti. La scienza è per l’uomo, per tutti gli uomini. La Scienza educa alla democrazia perché i pilastri su cui si regge sono anche i pilastri della democrazia.

Ecco, quindi, perché oggi la scienza non può tacere: perché nella scienza non c’è posto per bugie e pregiudizi, non c’è posto per chi vuole rimanere isolato, non c’è posto per chi non ha dubbi e per chi agisce senza competenza. Noi scienziati pretendiamo che questo accada anche nella politica “quella tecnica regia (basiliké téchne) che deve far trionfare ciò che è giusto attraverso il coordinamento e il governo di tutte le conoscenze, le tecniche e le attività che si svolgono nella città” (Platone).

Detto questo, noi docenti e ricercatori dobbiamo, però, fare autocritica: dobbiamo chiederci perché ci troviamo in questa situazione. Forse siamo arrivati a questo punto, dove non possiamo più tacere, perché non abbiamo parlato prima, nel modo giusto, alla gente e anche alla politica. Molti di noi docenti, persone che hanno avuto il beneficio di poter studiare e il privilegio di potersi dedicare alla ricerca scientifica, forse non hanno ancora capito di essere in debito verso la società.

L’iniziativa dell’1 e 2 ottobre ha per titolo Saperi Pubblici. Ecco, forse abbiamo accumulato saperi, ma non siamo stati capaci di farne saperi pubblici. Molti di noi non si sono dedicati con sufficiente impegno, non hanno “sprecato” tempo a divulgare in modo corretto la scienza e se ne sono stati chiusi nei loro laboratori, affascinati dalle loro ricerche, senza curarsi dei problemi del mondo che ci circonda. Quanti di noi nelle lezioni si sono preoccupati di collegare la scienza alla pace, alla politica, all’etica, alle disuguaglianze, alla necessità di custodire il pianeta?

Il mondo ha molti problemi e noi docenti e scienziati abbiamo il dovere di contribuire a risolverli. Lo dobbiamo fare con le nostre ricerche, ma anche rendendo partecipi le persone dei nostri saperi e prendendo posizioni chiare. Se l’avessimo fatto, ci sarebbero in giro meno bugie e meno pregiudizi. Non siamo innocenti come scienziati e forse neppure come docenti e come cittadini; dobbiamo infatti svolgere il nostro ruolo con un maggior impegno civile.

Preistoria e storia dell’elettrodo a vetro

In evidenza

Rinaldo Cervellati

 L’elettrodo a vetro è noto a tutti i chimici ma anche a tutti coloro che se ne servono per misurare il pH di soluzioni acquose. La sua invenzione è generalmente attribuita al fisiologo Max Cremer nel 1906 [1] e a Fritz Haber e Zygmunt Klemensiewicz nel 1909 [2]. In effetti l’origine delle scoperte di questi tre scienziati è da far risalire a osservazioni e esperimenti effettuati almeno una trentina di anni prima. Cerchiamo di andare con ordine.

Fu Wilhelm Giese[1], uno studente di dottorato del noto scienziato Hermann von Helmholtz (1821-1894), che nel 1878 fece una serie di importanti misurazioni mentre conduceva ricerche per la sua tesi di dottorato. Giese era interessato a cercare di capire la natura delle cariche residue in una bottiglia di Leida[2] scaricata e sospettava che il fenomeno fosse collegato a cariche superficiali rimaste sul vetro. Preparò un pallone di vetro a pareti sottili dotato di un filo di platino e vi mise del mercurio. All’interno di questo pallone pose un secondo pallone a pareti sottili, anch’esso dotato di un filo di platino, ma riempito con una soluzione acquosa di un sale. In questa apparecchiatura venne fatto il vuoto. Giese scoprì che fra i due elettrodi di platino si stabiliva una tensione elettrica. Stabilì poi che questa differenza di potenziale dipendeva dalla natura della soluzione acquosa, mentre la velocità con cui la tensione si stabiliva dipendeva dallo spessore del vetro – tanto più sottile il vetro tanto più veloce la risposta. Il lavoro influenzò indubbiamente Helmholtz, che ne parlò a Londra, nella Faraday Discussion del 4 aprile1881 [3]. In quella occasione, mostrò una cella simile a quella di Giese, ma con il mercurio sostituito da solfato di rame e solfato di zinco nell’altra soluzione. L’apparecchiatura (Figura 1) si comportava esattamente come una pila Daniell[3], il vetro agendo come un setto altamente resistivo.

Figura 1 Cella di Hemholtz-Giese, adattata da Fig. 20 [1]

Hemholtz fece l’ipotesi che l’elettrochimica potesse essere interpretata solo in termini di particelle cariche, ma non andò oltre.

Un decisivo passo in avanti fu fatto dal fisiologo Max Cremer 25 anni dopo.

Max Cremer nacque a Ürdingen, sulle rive del Reno nella Ruhr, il cuore industriale della Germania. Studiò medicina a Bonn, a Würzburg e a Berlino, ma, piuttosto che alla pratica medica era interessato alla ricerca fisiologica e studiò fisica e matematica, combinazione improbabile a quei tempi per uno interessato alla biologia [e oggi in Italia? NdR]. Ottenne l’abilitazione presso l’Istituto di Fisiologia a Monaco di Baviera, dopo aver studiato con il noto fisiologo Carl von Voit[4] e il chimico Franz von Soxhlet[5]. A Monaco Cremer studiò il metabolismo dei carboidrati, stabilendo la relazione tra glucosio e glicogeno e studiando i percorsi biochimici nel fegato in modelli animali.

L’interesse di Cremer si rivolse poi alla biofisica. Voleva capire il ruolo delle membrane cellulari. Consapevole del lavoro di Helmholtz e Giese, suppose che il vetro sottile poteva essere una buona analogia di una sottilissima membrana. Prendendo un tubo di vetro, soffiò una piccola e sottile bolla ad una estremità del tubo. Con un filo di platino immerso in una soluzione standard all’interno, mise il suo tubo a bolla in una seconda soluzione in cui immerse pure un filo di platino. Una differenza di potenziale si stabilì fra i due elettrodi e Cremer notò che essa variava cambiando il grado di alcalinità e acidità delle soluzioni. Era la nascita di quello che ora chiamiamo l’elettrodo a vetro.

Max Cremer

A proposito degli esperimenti di Helmholtz e Giese, Cremer scrisse:

The idea that the glass as a diaphragm between the two liquids may possibly lead to a rather considerable electromotive force, obviously did not occur at that occasion to Helmholtz, and in any case no experiments have been arranged to test such possibility.[1]

Ovviamente deve essere sembrato importante a Cremer enfatizzare la rivendicazione della priorità di questa scoperta. Cremer aggiunse:

I recalled the bulbs which the glassblowers used to fabricate when they join glass tubes;
therefore I decided to perform experiments with such glass bulbs. Only later I carefully searched the literature in how far glass membranes have been used earlier for similar purposes.
[1]

In effetti gli esperimenti di Cremer differiscono da quelli della classica pila di Giese-Helmholtz nel contenuto dei recipienti di vetro. Cremer potè documentare che la differenza di potenziale dipendeva dai cambiamenti nell’acidità e alcalinità delle soluzioni. Sebbene Cremer sia da molti accreditato della scoperta dell’elettrodo a vetro, sembra non aver mai immaginato che il suo apparato potesse diventare uno strumento di misura.

Il passo successivo nello sviluppo dell’elettrodo a vetro fu fatto dal famoso chimico Fritz Haber e soprattutto dal suo studente di dottorato Zygmunt Klemensievics nel 1909. Il loro contributo è celebrato in un articolo del 2010 di B. Marczewska e K. Marczewski [4], per commemorare il centenario dell’elettrodo a vetro che essi attribuiscono appunto essenzialmente a Haber e Klemensievics.

Fritz Haber (1868-1934) è stato un famoso chimico tedesco, Premio Nobel 1918 per la sintesi dell’ammoniaca.

Zygmunt Aleksander Klemensiewicz nacque a Cracovia il 24 aprile 1886. Suo padre Robert era un insegnante, sua madre Maria Jozefa era una scrittrice e una traduttrice di lingue scandinave.

Nel 1904 si diplomò con il massimo dei voti nella scuola secondaria di Leopoli (allora Lemberg, parte dell’impero austro-ungarico). Quindi iniziò gli studi universitari presso il Philosophical Department della Jan Kazimierz University di Leopoli dove studiò chimica, fisica e matematica. Nel luglio del 1908 Zygmunt Klemensiewicz ottenne (summa cum laude) il suo dottorato di ricerca discutendo la dissertazione scritta intitolata: Il cloruro di antimonio come diluente ionizzante, sotto la guida del prof. Stanislaw Tołłoczko (1868-1935).

Dopo il dottorato ottenne un finanziamento dal Dipartimento Nazionale, una istituzione governativa eletta dal parlamento della Galizia, per partecipare a uno stage scientifico, parte di un programma di ricerca in cooperazione. Nel novembre 1908 si recò quindi alla Friedrich Technische Hochschule di Karlsruhe per lavorare con il professor Fritz Haber.

Non si sa con esattezza perché Klemensiewicz abbia scelto di andare da Haber per il suo stage scientifico post-dottorale, una delle ragioni potrebbe essere la notorietà o anche l’amicizia del prof.

Haber con il professor Tołłoczko o anche l’argomento della sua tesi di dottorato che convinse Haber che il nuovo stagista sarebbe stato utile nelle ricerche di elettrochimica. Fatto è che immediatamente dopo il suo arrivo nel laboratorio di Haber, il 22 novembre 1908, Klemensiewicz fu incaricato di indagare il comportamento elettrochimico del vetro in soluzioni acide e basiche. Fortunatamente abbiamo la descrizione del lavoro direttamente da una lettera che Klemensiewicz scrisse a Malcom Dole (che migliorò notevolmente la tecnica di costruzione degli elettrodi a vetro) molti anni dopo, [5]:

…queste indagini erano ispirate dai lavori di Cremer ripetuti nel laboratorio di Haber senza risultati degni di nota. Per le mie indagini ricevetti un primo apparecchio consistente in un pezzo di un cilindro di vetro rotto, con pareti di spessore 3 mm ricoperte di un foglio sottile di stagno. Mi resi subito conto che un dispositivo di questo tipo era inadeguato a causa della possibilità di un cortocircuito che avrebbe potuto facilmente verificarsi attraverso la superficie bagnata del vetro e quindi era necessario proteggere il sistema contro la dispersione di corrente lungo la superficie del vetro. Non conoscendo gli articoli di Cremer e Giese, realizzai un elettrodo costituito da un tubo di vetro di 7 – 8 mm di diametro e lungo 8 cm, terminante con un bulbo di vetro di 2,5 cm di diametro e 0,06 – 0,1 mm di spessore. Il vetro che usai era un vetro facilmente fusibile, specifico di Thüringen. Subito dopo averlo soffiato fuori, trattai il bulbo di vetro con vapore surriscaldato per sterilizzarlo e successivamente lo immersi in acqua distillata per idratarlo prima dell’uso o fra una misurazione e la successiva … Scoprii l’importanza di queste due procedure accidentalmente. Ho usato la sterilizzazione come metodo di purificazione, perché pensavo che residui di altri metodi, come l’acido cromico o solventi organici avrebbero potuto interagire chimicamente col vetro o essere adsorbiti da esso. Giunsi inoltre alla conclusione che il funzionamento dell’elettrodo sarebbe stato meglio presentato dalla registrazione di una titolazione poiché una serie di valori è più attendibile di una sola misura di forza elettromotrice. Il suo apparato per la titolazione potenziometrica fu schematizzato in [2]. Continua Klemensiewicz:

Gli elettrodi utilizzati erano l’elettrodo a vetro e un normale elettrodo a calomelano [Figura 3]. La differenza di potenziale fu misurata con un elettrometro a quadrante il cui uso mi era famigliare. Quando Haber venne a trovarmi in laboratorio dopo pochi giorni, sono stato in grado di mostrargli una curva molto buona per la reazione HCl-KOH, con una differenza di potenziale di circa 0,5 V fra inizio e fine titolazione… all’inizio Haber non voleva credere che fosse possibile ottenere questi risultati in così poco tempo, ho dovuto insistere a fargli ripetere l’esperimento tracciando da solo il diagramma delle letture sperimentali. L’esperimento procedette alla perfezione e Haber ebbe uno scoppio di entusiasmo.

Figura 3. L’apparato di Klemensiewicz e Haber, figura originale [2]

Figura 4. Una delle prime curve di titolazione tracciata per punti[6]

Klemensiewicz terminò di scrivere l’articolo sull’elettrodo prima del Natale 1909. Il lavoro [2] consiste di due parti: una parte teorica con cui Klemensiewicz non era completamente d’accordo e quindi è firmata solo da Haber, e da una seconda parte, sperimentale, a firma di entrambi (Fig. 5).

Figura 5. Titolo, autori e affiliazione dell’articolo citato, in originale [2]

Secondo il parere di Klemensiewicz, il professor Haber aveva troppa fretta di arrivare a una conclusione sulla natura e ruolo del vetro in base a dati di letteratura inadeguati.

Sempre secondo Klemensiewicz, il resto della sua permanenza a Karlsruhe non fu molto fruttuoso. Haber gli propose di portare a termine, come egli ha scritto, alcuni esperimenti “stravaganti”. Tuttavia, questo parere non può essere del tutto vero, perché a Karlsruhe intraprese ricerche sulla formazione di ioni positivi per riscaldamento di metalli, che in seguito divenne oggetto della sua abilitazione alla docenza. L’articolo sull’elettrodo a vetro resta comunque l’unico che Haber e Klemensiewicz hanno scritto in collaborazione. Per Klemensiewicz è stata una delle pubblicazioni più importanti della sua vita. Più tardi Klemensiewicz lavorò con Marie Curie e divenne infine professore di fisica al Politecnico di Leopoli.

Deportato dai russi in Polonia nel 1940, passò un anno e mezzo fra prigione e campi di concentramento finchè, con l’aiuto di amici, ottenne un posto al Technical College di Londra nel 1947.

Tornò in Polonia nel 1956 e nel 1959 partecipò ai festeggiamenti per il 50° anniversario del suo dottorato organizzati dalla Slesian University of Technology, importante Politecnico della Slesia fondato nel 1945 dai professori e tecnici polacchi che dovettero abbandonare Leopoli causa l’annessione all’Ucraina. Klemensiewicz morì il 25 marzo 1963.

Il termine glass electrode fu coniato per primo da Haber già nel 1907 come antonimo di “porcelain electrode”[6], tuttavia il termine in inglese si deve a Brown [7].

Diversi studi ebbero per oggetto l’elettrodo a vetro, fra i quali quello di Huges [8] che ne confrontò le prestazioni e i vantaggi rispetto all’elettrodo a idrogeno. In particolare va menzionato il lavoro di Phyllis Tokey Kerridge [9], che nel 1925 utilizzò l’elettrodo a vetro in biochimica facendo ben 450 misure di pH su soluzioni e fluidi biologici fra cui quella sul sangue (7.42) con un elettrodo miniaturizzato da lei costruito. Provò anche diversi tipi di vetro accorgendosi che un vetro di puro quarzo non funzionava qualsiasi ne fosse lo spessore.

Mac Innes e Dole nel 1930 [10] trovarono che la composizione ottimale per un elettrodo a vetro era 72% biossido di silicio, 22% ossido di sodio e 6% ossido di calcio. In ogni caso, sebbene la tecnologia abbia compiuto continui perfezionamenti dell’elettrodo durante più di ottanta anni, i principi di base rimangono gli stessi. Si è a lungo ritenuto che l’elettrodo funziona perché gli idrogenioni migrano attraverso il vetro come se fosse una membrana semipermeabile H+selettiva. Oggi sappiamo che la realtà è molto più complessa. Gli interessati possono trovare una interpretazione formalmente rigorosa in [11, 12]. Nel seguito se ne espone una, diciamo più ‘casalinga’, senza formalismi.

Non c’è da meravigliarsi se Kerridge non riscontrò alcuna attività in un elettrodo formato da silice pura. Oggi è infatti noto che le impurità ioniche (e in particolare il contenuto di sodio) nel vetro svolgono un ruolo importante nella sua funzione di “elettrolita atipico”, e non è quindi un caso che MacInnes e Dole abbiano scoperto che la composizione del vetro “ideale” per la membrana dell’elettrodo dovesse contenere circa un quarto di ossido di sodio.

La stessa membrana di vetro non lascia migrare ioni idrogeno di per sé. All’interfaccia fra la soluzione acquosa si forma invece un “gel idratato”, come mostrato in figura 6.

Figura 6. Schema del funzionamento elettrodo a vetro

Questo strato è incredibilmente sottile (~ 10 nm) ed è composto da vetro saturo d’acqua . Può essere strano pensare al vetro come materiale assorbente, ma in realtà questa proprietà di assorbimento è fondamentale: se un elettrodo di vetro si disidratasse completamente, cesserebbe di funzionare come dispositivo di misurazione del pH.

Quindi, si può pensare al vetro come a una “spugna di silicato amorfo”, composta da siti anionici e vacanze cationiche. E così, quando una soluzione a maggiore attività di H+ incontra questa spugna idratata, si verifica uno scambio di cationi. Questo scambio cationico può essere rappresentato dall’ equilibrio:

(H+(soluzione) + Na+(vetro)) ⇌ (Na+(soluzione) + H+(vetro))

Ovviamente, ogni lato del gel ha un’equazione separata per descrivere il suo equilibrio. Nel caso in cui il pH è diverso per le due soluzioni, l’equilibrio favorirebbe un diverso rapporto H +/Na+; quindi ci sarebbe una differenza di carica positiva tra i due strati di gel idratati. Ciò si traduce in un flusso di carica positiva attraverso il vetro secco, come conseguenza del piccolo movimento degli ioni (litio e sodio nella maggior parte degli elettrodi moderni). Anche se le frecce in grassetto nella figura potrebbero far pensare che un piccolo ione sodio (1.02´10-7 mm) attraversi il massiccio strato di gel idratato (0.1 mm), in effetti ogni singolo ione probabilmente muove solo pochi diametri atomici, scambiando posto con lo ione vicino in una sorta di staffetta.

Opere consultate (oltre a quelle citate in bibliografia)

https://www.chemistryworld.com/opinion/cremers-electrode/3008550.article

https://derangedphysiology.com/main/core-topics-intensive-care/arterial-blood-gas-interpretation/Chapter%201.1.2/history-glass-electrode

Bibliografia

[1] Cremer, Max. Über die Ursache der elektromotorischen Eigenschaften der Gewebe, zugleich ein Beitrag zur Lehre von den polyphasischen Elektrolytketten., Zeit. Biologie, 1906, 4, 562 – 608.

[2] Haber, F., Klemensiewicz, Z. Über elektrische Phasen grenzkräfte., Zeit. Physik. Chem.

1909, 67, 385-431.

[3] H. von Helmholtz, The Modern Development of Faraday’s Conceptions of Electricity, originariamente pubblicata in J. Chem. Soc., 1881, 39, 277, scaricabile da:

https://www.chemteam.info/Chem-History/Helmholtz-1881.html

[4] B. Marczewska, K. Marczewski, First Glass Electrode and its Creators F. Haber and Z. Klemenskievics – On 100th Anniversary., Bunsen-Magazin, 2010, 12 (5), 220-222, reprinted by permission from Zeitschrift fur Physikalische Chemie., 2010, 224 795–799.

[5] M. Dole, The Early History of the Development of the Glass Electrode for pH Measurements., J. Chem. Educ., 1980, 57, 134.

[6] F. Haber, F. Fleischmann, Uber die Knallgaskette. I. Mitteilung, Z. Anorg. Chem., 1907, Bd. 51 S. 245-288 (scritto nel 1906).

[7] W.E.L. Brown, The measurement of hydrogen ion concentrations with glass electrodes., J. Sci. Inst., 1924, 2, 12.

[8] W.S. Hughes, The Potential Difference Between Glass and Elrctrolytes in Contact with the Glass., J. Am. Chem. Soc.192244, 2860–2867.

[9] P.T. Kerridge, The use of the Glass Electrode in Biochemistry., Biochemical Journal., 192519 611-617.

[10] D.A. MacInnes, M. Dole, The Behavior of Glass Electrodes of Different Compositions., J. Am. Chem. Soc., 1930, 52, 29-36.

[11] P. Kurzweil, Metal Oxides and Ion-Exchanging Surfaces as pH Sensors in Liquids: State-of-the-Art and Outlook., Sensors 2009, 9, 4955-4985.

[12] D. J. Graham et al., Development of the Glass Electrode and the pH Response., J. Chem. Educ. 2013, 90, 345−351.

[1] Su Wilhelm Giese non si sa molto. Un articolo di Giese (Giese, W. Ann. Phys. (Wieri. Ann.) 1880, 9, 161-208) è citato da C.E. Moore et al., Development of the Glass Electrode, Electrochemistry, Past and Present. Chapt. 9, pp. 272-285. Giese partecipò come fisico alla Spedizione Scientifica Polare Tedesca all’isola di Baffin negli anni 1883-1884 (F. Boas, Among the Inuit of Baffin’s Island 1883-1884. Journals & Letters, Univ. Toronto Press, 1998).

[2] La bottiglia di Leyda è la forma del primo condensatore elettrico, invenzione attribuita al fisico olandese Pieter van Musschenbroek di Leyda (Paesi Bassi), nella seconda metà del XVIII secolo.

[3] La pila Daniell, croce e delizia degli studenti di chimica, è stata inventata nel 1836 da John Frederic Daniell (1790-1845) chimico e meteorologo inglese. Daniell ha fatto molte ricerche in chimica, meteorologia e agricoltura, il suo nome è inevitabilmente legato a quello della pila, usata nello sviluppo del telegrafo e degli apparecchi Morse.

[4] Carl von Voit (1831-1908) fisiologo e chimico tedesco, è considerato il fondatore della moderna dietetica. Come chimico scoperse che il contenuto in azoto dell’urea è una misura del turnover delle proteine.

[5] Franz Ritter von Soxhlet (1848-1926) chimico tedesco. Inventore dell’estrattore che porta il suo nome (1879) tuttora utilizzato, propose che la pastorizzazione venisse applicata anche al latte per prevenire infezioni batteriche.

[6] Vale la pena ricordare che il concetto di pH fu proposto da SØrensen nello stesso 1909. v. https://ilblogdellasci.wordpress.com/2016/06/29/il-concetto-di-ph/

Domani, 29 settembre, mi son svegliato e…

In evidenza

Luigi Campanella già Presidente SCI

Il 29 settembre è diventata una data nota a molti in quanto ad essa è stata dedicata una popolare canzone degli anni 60.

A me piacciono le canzoni,  ma da buon ricercatore, quale spero di essere, non posso non ricordare che quella data è importante per tutto il mondo per ben altro motivo, è la data di nascita di Enrico Fermi, il ragazzo di via Panisperna e Nobel per la Fisica, nato a Roma nel1901, come si diceva, il 29 settembre. A lui di deve l’idea di utilizzare neutroni lenti per bombardare gli atomi dei diversi elementi. Giunto all’elemento più pesante, l’uranio, pensò di aver ottenuto elementi transuranici. In effetti successivamente ammise che gli esperimenti eseguiti da Hahn e Strassmann facevano pensare piuttosto alla disintegrazione dell’uranio. Non sono un fisico, ma mi sento di affermare che Fermi rappresenti l’icona dello scienziato, con mille interessi, curioso e razionale al tempo stesso, intuitivo e deduttivo. Si affermò rapidamente tanto da divenire cattedratico all’età di soli 25 anni, radunando attorno a sè nell’edificio di via Panisperna studiosi come Amaldi, Setti,Segre.

Nel 1938 gli fu assegnato il Nobel e da Stoccolma dove lo ricevette si trasferì negli USA, senza tornare in Italia, per evitare che le famigerate mai sufficientemente vitupefate leggi razziali fossero scontate da sua moglie ebrea. In effetti già prima di ricevere il NOBEL e di trasferirsi negli USA era stato affascinato dalle esperienze condotte sull’atomo da Hahn e Strassman per scinderlo, tanto che nella sua Nobel Lecture aggiunse, rispetto all’originaria versione, la seguente nota: la scoperta di Hahn e Strassmann (di cui abbiamo parlato in un recente post) rende necessario riesaminare tutta la questione degli elementi transuranici poiché molti di essi potrebbero essere dovuti alla disintegrazione dell’atomo. In ogni caso a riconoscimento e dimostrazione del successivo importante lavoro di Fermi e collaboratori negli USA tre anni dopo era pronta la prima pila atomica, che frantumando un atomo di uranio produceva energia, in effetti neutroni, che colpivano altri atomi in un processo controllato  a cascata. Questo successo nasceva però dal riconoscimento da parte di Fermi della misinterpretazione dei suoi esperimenti e dall’accettazione di quella data con l’apparecchiatura di Hahn e Strassmann. Oggi la Storia della Fisica riconosce questi diversi ruoli, anche sulla base delle attente  analisi condotte sui quaderni  di laboratorio del team di via Panisperna. Dopo questo successo, affascinato da Einstein e adulato da Roosevelt, prese la direzione scientifica dei laboratori di Los Alamos dove fu preparata la bomba che esplose nel vicino deserto-era il 16 luglio del 1945- paragonata dallo stesso Fermi per i suoi effetti a diecimila tonnellate di tritolo. Quello che avvenne dopo – un nuovo test sganciandola su  “una base militare” circondata da abitazioni (NdB cioè Hiroshima, il presidente Truman la definì così nel discorso del 9 agosto 1945)- non vide d’accordo nè Fermi nè Oppenheimer, il direttore tecnico di Los Alamos. La domanda che ancora oggi si sente formulare in relazione alle responsabilità ed alle terribili devastanti  conseguenze di quel lancio è: Fermi può essere considerato il padre della bomba atomica? La storia della scienza ci insegna che le scoperte non sono mai  merito di un solo ricercatore; ciascuno è sempre l’erede di precedenti studi  e  significative  collaborazioni. Credo sia  anche il caso di Fermi i cui studi partirono e comunque si appoggiarono a quelli di Born, Einstein, Heisenberg, Rutheford.

Quello che ancora oggi gli viene imputato è di avere diretto l’esperimento su Hiroshima e soprattutto di non avere mai sconfessato la sua creatura giustificandola come necessaria per la rapida fine della guerra ed il conseguente risparmio di altre vite umane. Sappiamo che neanche questo accadde perchè ci volle un’altra bomba su Nagasaki affinchè ciò avvenisse. Fermi credette  anche nell’energia nucleare come strumento in medicina contro i tumori in particolare. Le valutazioni di un ricercatore dinnanzi alle ricerche  che svolge possono scaricarne le responsabilità? E’ questa una domanda continuamente riproposta-al centro dell’Etica della Scienza-ma  ancora con risposte ambigue e discordanti.

altri post sul tema:

https://ilblogdellasci.wordpress.com/2018/06/07/la-storia-della-scoperta-della-fissione-nucleare-i-chimici-risolvono-un-problema-fisico-prima-parte/

https://ilblogdellasci.wordpress.com/2017/11/20/scienziate-che-avrebbero-dovuto-vincere-il-premio-nobel-lise-meitner-1878-1968/

https://ilblogdellasci.wordpress.com/2017/11/06/scienziate-che-avrebbero-dovuto-vincere-il-premio-nobel-ida-noddack-1896-1978/

https://ilblogdellasci.wordpress.com/2015/08/04/era-bario-davvero/

https://ilblogdellasci.wordpress.com/2015/10/29/quanta-chimica-ce-nelle-bombe-atomiche-3/

 

Si fa presto a dire ricicliamo…… 1. Premessa.

In evidenza

Claudio Della Volpe.

Riciclare è l’imperativo categorico diventato addirittura una direttiva europea (DIRETTIVA (UE) 2018/851 DEL PARLAMENTO EUROPEO E DEL CONSIGLIO del 30 maggio 2018 che modifica la direttiva 2008/98/CE relativa ai rifiuti). Ma riciclare è di fatto una attività che l’industria porta avanti da più di cento anni in qualche settore, si pensi all’industria siderurgica che ricicla il ferro: una parte significativa della produzione siderurgica si fa nei forni elettrici e il tondino del calcestruzzo è ferro riciclato, usato per fare le nostre case e i nostri manufatti stradali.

Dunque ricicliamo già, e anche parecchio, ma non basta. Abbiamo già fatto notare questa contraddizione in una serie di articoli pubblicati 6 anni fa da Giorgio Nebbia (https://ilblogdellasci.wordpress.com/2016/01/11/noterelle-di-economia-circolare/ e nei successivi di analogo titolo).

Riciclare è una necessità sempre maggiore; lo facciamo già e non in piccola quota ma dovremo farne di più e soprattutto diversamente; ma cosa distingue allora il riciclo che dovremo sviluppare da quello che già facciamo? quanto ne facciamo e quanto dovremo farne? Cosa distingue il semplice riciclo che già si fa dall’economia circolare?

Non sono domande facili. In questo post e nei successivi analizzeremo la situazione in qualche dettaglio e soprattutto cercheremo di mettere dei numeri in questo discorso.

Due o tre osservazioni basilari da fare.

La prima è che il riciclo o ricircolo è una caratteristica base dei reattori chimici che si insegna in tutti i corsi di principi di ingegneria chimica: in un impianto chimico tradizionale un riciclo è rappresentato da un “ciclo chiuso” di correnti materiali, che può passare attraverso una o più apparecchiature chimiche.

Il rapporto di riciclo è dato dal rapporto tra la portata della corrente riciclata e la portata della corrente principale prima del punto di reimmissione del riciclo. Lo scopo del riciclo è quello di aumentare la resa complessiva del processo e riciclare in un reattore è una necessità produttiva indiscutibile. Se la trasformazione è parziale il riciclo fa aumentare la resa. Dunque la chimica ha il riciclo nel proprio DNA.

Non solo, ma in qualunque azienda moderna si riciclano, almeno pro quota, gli sfridi di lavorazione; pensate all’alluminio; gli sfridi dei lingotti ottenuti vengono rimessi nei forni subito; insomma molte aziende di fatto costituiscono già dei sistemi di riciclo molto efficienti al proprio interno. In questo caso il riciclo corrisponde al risparmio. La questione nasce quando esternalizzando i problemi, diventa più economico per l’azienda lasciare all’”esterno” di occuparsi del riciclo: al mare, all’aria o alla terra. E questo non è un problema tecnico, ma di forma della proprietà; se il bene inquinato è “comune”, non privato perché l’azienda privata dovrebbe riciclare? Non altera i suoi conti, altera solo quelli “comuni”. E dunque non è interessata a meno che una legge e una serie di severi controlli non la obblighino. E’ la cosiddetta “tragedy of commons” analizzata dal famoso articolo di Garret Hardin.La seconda osservazione è che riciclare di solito si fa parzialmente, mentre l’economia circolare è un cosa diversa, è chiusa corrisponde ad un riciclo del 100%; di solito si prendono come esempio dell’economia circolare i cicli naturali degli elementi, C, N, P, S etc; e si dice in natura non ci sono discariche.

Già, ma i cicli naturali sono molto lunghi, in genere durano milioni di anni e da qualche parte occorre stoccare le cose; anche la Natura deve farlo; pensiamo al petrolio e in genere ai combustibili fossili, frutto della degradazione degli organismi a partire dal Carbonifero; noi stiamo estraendo questi intermedi di riciclo del carbonio in gran parte nascosti sotto il suolo e li stiamo rimettendo in circolo anzitempo accelerandone la trasformazione in CO2. In un certo senso stiamo solo accelerandone il riciclo. Già, ma il risultato è stato il riscaldamento globale.

E’ un tema del famoso libro: Tempi storici e tempi biologici del compianto Enzo Tiezzi. (Enzo come ci manchi.)

Aggiungiamo che anche i perfetti cicli naturali possono essere alterati; ricordiamo che l’ossigeno che respiriamo e che oggi costituisce la base della vita come la intendiamo, solo un paio di miliardi di anni fa era il prodotto di discarica della reazione di fotosintesi che, accumulandosi in atmosfera come oggi i gas serra, ne cambiò irreversibilmente la composizione. Questo costrinse gli allora dominatori del pianeta, i batteri anaerobi, a rifugiarsi nel sottosuolo, nel fondo del mare, negli intestini degli animali.

Volete un altro esempio? Beh parliamo ancora di ciclo dell’azoto e del fosforo, ma in realtà questi due cicli sono stati completamente alterati dalla nostra azione in quanto oggi produciamo noi uomini la gran parte del fosfato che va in mare e dell’azoto assorbito dall’atmosfera, ma non abbiamo inserito alcun controllo dalla parte del recupero, mandando in tilt il ciclo naturale originario. Dunque cicli naturali sono perfetti ma lunghi e delicati.

Facciamo qualche conto per far capire un’altra differenza fra riciclo naturale e artificiale. Poniamo di avere un materiale che abbia un ciclo di vita di 10 anni, chessò l’oro dei contatti elettronici e supponiamo di riciclarlo al 95%.

Cosa succede dopo 100 anni? Avremo fatto 10 ricicli e quanto dell’oro originale ci sarà rimasto? 0.9510=0.60; avremo comunque perso negli sfridi il 40% e avremo dovuto estrarre altro materiale vergine, in grande quantità. Detto fra di noi nessun materiale è riciclato dalla nostra tecnologia attuale a questo livello, ossia con meno del 5% di spreco. Tutti gli altri stanno peggio.

Ecco, fatte queste riflessioni siamo pronti a partire per una analisi più dettagliata della situazione.

(continua)

Fatberg: oli e grassi nei depuratori.

In evidenza

Mauro Icardi

Oli e grassi si riscontrano negli scarichi civili e in quelli provenienti dalle industrie alimentari. Questo nonostante molte realtà industriali del settore alimentare abbiano propri impianti di trattamento con sezioni di rimozione dei grassi residui. Le concentrazioni e le proporzioni di questo tipo di inquinanti sono variabili ma la loro rimozione è una fase fondamentale. Gli impianti di depurazione normalmente hanno una sezione di disoleatura di per sé sufficiente ad evitare questo tipo di inconvenienti. Ma si possono verificare accumuli nella stessa sezione, e in qualche caso anche nelle condutture di adduzione, provocandone in qualche caso il restringimento e la parziale occlusione.

Un anno fa la notizia del rinvenimento di una palla di grasso nelle fognature di Londra ebbe un forte risalto, sui giornali e nel web.

https://www.corriere.it/esteri/13_agosto_06/grasso-fogne-londra_ae729aea-fe80-11e2-9e44-1a79176af940.shtml

Questo è stato un caso eclatante, ma l’accumulo di grassi nelle condotte fognarie provoca ovviamente lo sviluppo di cattivi odori dovuti ad irrancidimento e parziale idrolisi. Con tutte le spiacevoli conseguenze del caso. Per i cittadini e per gli operatori.

Per altro questa reazione può trovare condizioni adatte al suo svilupparsi principalmente per la temperatura, considerando che essa si mantiene sempre intorno a valori superiori a 10°C (normalmente 12° C nella stagione invernale, e circa 20°C in quella estiva) nei reflui di fognatura e da tracce di metalli che sono anch’essi presenti nelle medesime acque.

In caso di trascinamento nella sezione di ossidazione le sostanze grasse ed oleose formano una pellicola che rende impermeabile ed ostacola l’assorbimento di sostanze nutritive ed ossigeno da parte della biomassa, ed allo stesso modo danneggiano i corpi idrici ricettori.

Nel comparto di sedimentazione finale tendono a far flottare il fango biologico, peggiorando sensibilmente la qualità delle acque scaricate. Nei casi più gravi non permettono di raggiungere i limiti previsti per legge per diversi parametri, quali BOD5,COD, odore, solidi e naturalmente quello degli oli e grassi.

In passato si sono utilizzate soluzioni diverse, dalla cattura meccanica superficiale, sfruttando la naturale tendenza al galleggiamento ed alla flottazione, o effettuando lavaggi con soda e tensioattivi. Tutte queste soluzioni sono spesso risultate parziali e costose, e con un impegno importante di manodopera, che in qualche caso si è anche dovuta addestrare all’utilizzo corretto ed in sicurezza di questi prodotti chimici.

Una soluzione praticabile più facilmente è quella dell’utilizzo di prodotti batterico enzimatici che possono iniziare il loro ciclo riproduttivo, sia in campo aerobico che anaerobico, appena le condizioni di umidità , temperatura, pH. ecc. siano idonee. La componente biologica di questi prodotti comprende microrganismi selezionati non patogeni. L’ immissione di prodotti di questo tipo in un sistema inquinato, sia solido che liquido, avvia immediatamente il ciclo metabolico e riproduttivo dei microrganismi in essi contenuti innescando una serie di reazioni. In generale si ha un aumento della riproduzione biologica e della secrezione enzimatica, sia in aerobiosi che in anaerobiosi, a spese della componente organica inquinante. L’ingegnerizzazione industriale di questi microorganismi li rende efficienti anche nei confronti di composti difficilmente biodegradabili come oli e grassi, tensioattivi, fenoli, che la normale biomassa che si sviluppa nei fanghi di ossidazione biologica degrada molto più lentamente, e dopo periodi di acclimatamento generalmente molto più lunghi.

L’aggiunta di questo tipo di prodotti generalmente riduce i tempi di mineralizzazione della componente organica inquinante riducendo i quantitativi di ossigeno ed energia da fornire.

I prodotti usati per ridurre gli inconvenienti provocati dall’accumulo di oli e grassi sono in grado, a differenza dei microrganismi spontanei, di secernere l’enzima lipasi che è responsabile della scissione dei lipidi in glicerina ed acidi grassi, composti facilmente biodegradabili. Dal punto di vista dell’applicazione pratica, prodotti di questo genere quando siano forniti allo stato liquido si possono dosare piuttosto facilmente con una pompa dosatrice, nelle condotte a monte. Le acque reflue normalmente non necessitano di correzione del pH, in quanto questi prodotti hanno attività massima in un intervallo di pH tra 5 e 9. In questo modo si crea una sorta di pellicola protettiva sulla condotta, o nei punti come la sezione di disoleatura dove il materiale viene rimosso e destinato allo smaltimento. Ovviamente il costo di questi prodotti si può ammortizzare considerando che si riducono gli interventi di pulizia e spurgo, e di manutenzione straordinaria. In chiusura però la raccomandazione solita. Anche se è meno immediato rispetto ad esempio alla raccolta differenziata, cerchiamo di porre attenzione a ciò che scarichiamo dalle nostre abitazioni e dagli insediamenti industriali. Raccomandazione niente affatto banale. Per quanto riguarda la mia esperienza diretta posso dire che attualmente situazioni di questo tipo si sono notevolmente ridotte. Ma non è detto che una palla di grasso (che i londinesi hanno   battezzata “fatberg” cioè iceberg di grasso) possa comparire anche alle nostre latitudini.

Scienziate che avrebbero potuto aspirare al Premio Nobel: Erika Cremer (1900-1996)

In evidenza

Rinaldo Cervellati

Forse solo pochi chimici sanno che Erika Cremer è stata praticamente la prima a studiare le basi teoriche della gas cromatografia e a costruire e utilizzare con successo, insieme al suo studente di dottorato Fritz Prior, il primo gas cromatografo [1,2].

Nata a Monaco (Baviera) il 20 maggio 1900, da Max Cremer e Elsbeth Rosmund, unica femmina fra due figli maschi. Suo padre, Max Cremer, professore di fisiologia, è stato, fra l’altro, il pioniere ideatore dell’elettrodo a vetro[1], il fratello maggiore, Hubert divenne un matematico e il minore, Lothar un fisico specializzato in acustica. Anche il nonno e il bisnonno erano coinvolti in ricerche scientifiche.

In un tale ambiente Erika desiderò dedicarsi all’apprendimento delle scienze e alla ricerca, nonostante a quei tempi queste attività fossero ancora decisamente sconsigliate alle donne.

Trasferitasi la famiglia a Berlino, Erika trovò qualche difficoltà ad adattarsi al sistema scolastico prussiano, tuttavia riuscì a ottenere il diploma di scuola superiore nel 1921. Nello stesso anno si immatricolò all’Università di Berlino per studiare chimica. Seguì le lezioni di Fritz Haber (1868-1934), Walther Nersnt (1864-1941), Max Plank (1858-1947), Max von Laue (1868-1960) e Albert Einstein (1979-1953), tutti già Premi Nobel.

Cremer ottenne il dottorato in chimica fisica nel 1927 sotto la guida di Max Bodenstein[2], discutendo una tesi sulla cinetica della reazione fra idrogeno e cloro [3]. La tesi fu pubblicata con il solo suo nome perché la conclusione che la reazione seguisse un meccanismo a catena era ancora considerato un concetto estremamente originale per quel tempo[3]. A causa di questo articolo e più in generale per il suo lavoro in cinetica, Nikolay Semyonov[4] la invitò a lavorare a Leningrado. Cremer rifiutò e rimase in Germania per lavorare con Karl-Friedrich Bonhoeffer[5] all’Istituto Kaiser Wilhelm per la Chimica Fisica e l’Elettrochimica, diretto da Fritz Haber.

Erika Cremer in gioventù

Per un breve periodo Cremer usufruì di una borsa di studio all’università Di Friburgo dove compì ricerche sulla decomposizione degli alcoli catalizzata da ossidi metallici. Tornata a Berlino, Cremer lavorò nel dipartimento di Michael Polanyi[6] del Kaiser Wilhelm dove hanno approfondito lo studio della conversione dell’orto-idrogeno in para-idrogeno. Rimase in quel dipartimento fino al 1933 quando il partito nazista salì al potere in Germania e il dipartimento venne sciolto per la sua reputazione anti-nazista. Tutto lo staff fu allontanato e Cremer non fu in grado di continuare a fare ricerca o di trovare un lavoro per quattro anni [4].

Nel 1937 Cremer fu chiamata da Otto Hahn al Kaiser Wilhelm Institute for Chemistry per studiare i tipi di radiazioni emesse dai radioelementi concentrandosi in particolare sulla separazione isotopica. Nel 1938, Cremer ricevette l’abilitazione alla docenza universitaria dall’Università di Berlino. Normalmente questa qualifica l’avrebbe portata a una cattedra nella facoltà di chimica; tuttavia, il governo nazista dell’epoca aveva approvato una legge sulla posizione delle donne dipendenti pubblici. Questa legge vietava alle donne di ricoprire cariche elevate e richiedeva alle donne di dimettersi in caso di matrimonio. Molte donne scienziate e studiose furono lasciate senza lavoro o limitate nelle prospettive di carriera da questa legge, anche Cremer non divenne mai docente a Berlino [4].

Con l’inizio della seconda guerra mondiale molti scienziati e professori maschi furono chiamati o richiamati nell’esercito e Cremer nel 1940 ottenne un posto di docente all’Università di Innsbruck in Austria. Fu tuttavia informata che avrebbe dovuto lasciare il posto una volta finita la guerra e gli uomini tornati a casa.

E’ a Innsbruck che Cremer concepisce i principi della gascromatografia e realizza il primo strumento.

Erika Cremer in laboratorio

Mentre era impegnata in una ricerca sull’idrogenazione dell’acetilene stava incontrando notevoli difficoltà nel separare i due gas con calori di assorbimento simili usando le tecniche a disposizione a quel tempo. Basandosi sugli studi di cromatografia liquida di adsorbimento che venivano effettuati in quel momento all’università di Innsbruck, pensò che un gas di trasporto inerte avrebbe avuto lo stesso ruolo del solvente usato come fase mobile in cromatografia liquida. Nel 1944 sottopose un’illustrazione teorica di questa idea alla rivista Naturwissenschaften, sfortunatamente il reparto stampa della rivista fu distrutto da una incursione aerea proprio mentre era in stampa il fascicolo contenente il suo articolo, che fu pubblicato solo 30 anni più tardi [5] e quindi considerato come un reperto storico.

Nel dicembre 1944 tutte le strutture dell’Università di Innsbruck erano seriamente danneggiate dalla guerra e a Erika Cremer non fu permesso di utilizzare le poche attrezzature funzionanti. Il suo studente di dottorato e insegnante di chimica nelle scuole superiori, Fritz Prior (1921-1996) scelse l’idea di Cramer come argomento di tesi e continuò il lavoro con lei nel laboratorio della scuola dove lavorava. Anche dopo la parziale agibilità dell’istituto Cremer fu temporaneamente interdetta dal lavoro a causa della sua cittadinanza tedesca ma continuò a frequentare segretamente il laboratorio per continuare la ricerca. A Cremer fu concesso di tornare al suo lavoro alla fine del 1945. La ricerca fu completata e la tesi discussa nel 1947 dimostrando la messa a punto di un nuovo metodo strumentale di analisi qualitativa e quantitativa per gas e vapori [6]. Cremer iniziò a presentare il lavoro di Prior e suo nel 1947 a vari incontri scientifici [7]. Un altro studente, Roland Müller, sviluppò le possibilità analitiche del gascromatografo nel suo lavoro di tesi del 1950 [8].

Cremer fu nominata direttore del Physical Chemistry Institute di Innsbruck e professore ordinario nel 1951.

Schema del gascromatografo di Cremer e Prior [6,9]

Nello stesso anno, due articoli sul lavoro di Cremer furono pubblicati su Zeitschrift für Elektrochemie e uno su Mikrochemie [9-11], riviste scientifiche tedesche meno prestigiose di Naturwissenschaften. La comunità scientifica sembrò darvi poco peso o ignorarli del tutto.

Nel 1952, i britannici Anthony Trafford James (1922-2006) e Archer Porter Martin (1910-2002) pubblicarono articoli che rivendicavano l’invenzione della gascromatografia. Lo stesso fece il collaboratore di Martin, Richard Laurence Millington Synge (1914-1994). A Martin e Synge fu assegnato il premio Nobel per la Chimica 1952 per la cromatografia di ripartizione liqudo-liquido, associata al possibile uso di un gas inerte come fase mobile. Tutti costoro erano completamente all’oscuro dei primi lavori di Cremer. Secondo Bobbleter [2] , il mancato riconoscimento del lavoro di Cremer e dei suoi collaboratori può essere ricondotto a tre motivi. Innanzitutto, le loro pubblicazioni furono ritardate a causa della situazione geopolitica in Europa centrale, inoltre i risultati furono per lo più presentati ai convegni della società chimico fisica tedesca (la Bunsengesellschaft) scarsamente interessata a questo settore di indagine. Secondo, quando gli articoli di Cremer furono finalmente pubblicati, le varie parti d’Europa erano ancora divise in zone di occupazione; quindi, un risultato scientifico proveniente dall’Europa centrale poteva non essere immediatamente diffuso o riconosciuto in altre aree. Infine, non si deve dimenticare che gli articoli di Cremer furono pubblicati in tedesco e in riviste relativamente poco conosciute, in un periodo di tempo in cui la lingua scientifica era già largamente l’inglese. Va poi ricordato che nei primi anni del dopoguerra la comunicazione tra scienziati inglesi e tedeschi era scarsa.

Negli anni successivi, grazie anche all’applicazione nell’industria petrolifera per la separazione degli idrocarburi isomerici, la tecnica gascromatografica si diffuse ampiamente e il lavoro di Cremer ottenne lentamente il riconoscimento che meritava.

Erika Cremer in età matura

Cremer e i suoi collaboratori hanno continuato il lavoro sullo sviluppo teorico e l’implementazione strumentale della gascromatografia nei due decenni successivi. Si deve a loro il concetto di “tempo di ritenzione relativa” e il metodo di calcolare l’area del picchi moltiplicando la loro altezza per la larghezza a metà altezza, hanno inoltre dimostrato la relazione tra le misure e la temperatura della colonna.

Cromatogramma originale e calcolo area dei picchi

Nel 1958 le fu assegnata la Wilhelm Exner Medal, istituita dall’Associazione delle Industrie Austriache per una ricerca scientifica eccellente, e nel 1970 il Premio Erwin Schrödinger dell’Accademia Austriaca delle Scienze.

Cremer continuò la sua ricerca all’Università di Innsbruck fino al suo ritiro nel 1971. Rimase attiva nella ricerca in gascromatografia fino quasi alla fine della vita. Nel 1990 si svolse a Innsbruck un simposio internazionale in celebrazione del suo lavoro e del novantesimo compleanno [1].

È morta nel 1996 all’età di 96 anni.

Omaggio a Erika Cremer

Nel 2009, l’Università di Innsbruck ha istituito un premio a suo nome per donne scienziate altamente qualificate in attesa di concorrere al diploma di abilitazione all’insegnamento universitario.

Nota. Per chi fosse interessato, la bibliografia completa di Erika Cremer si può trovare in un in memoriam di Ortwin Bobleter: http://www.zobodat.at/pdf/BERI_84_0397-0406.pdf

In inglese vale la pena citare il ricordo comparso su Analytical Chemistry, 1990, 62, 1015A-1017A.

Bibiografia

[1] L.S Ettre, Professor Erika Cremer Ninety Years Old., Chromatographia, 1990, 29, 413-4.

[2] O. Bobleter, Exhibition of the First Gas Chromatographic Work of Erika Cremer and Fritz Prior., Chromatographia, 1996, 43, 444-446.

[3] E. Cremer, (1927). Uber die Reaktion zwischen Chlor, Wasserstoff und Sauerstoff im Licht, Thesis, University of Berlin, 1927 (in German)

[4] A.B. Vogt, Erika Cremer (1900-1996). In: J. Apotheker, L. S. Sarkadi (Eds.), European Women in Chemistry, Wiley-VCH Verlag & Co. Weinheim, Germany, 2011, pp. 135-137

[5] E. Cremer, On the Migration Speed of Zones in Chromatographic Analysis., Chromatographia, 1976, 9, 363-4 (in German); v. anche: E. Cremer, How We Started to Work in Gas Adsorption Chromatography., Chromatographia, 1976, 9, 364-366.

[6] F. Prior, Determination of Adsorption Heats of Gases and Vapors by the Application of the Chromatographic Method in the Gas Phase., Doctoral Thesis, University of Innsbruck, May 1947 (in German).

[7] v. ad es. E. Cremer, F. Prior, Meeting of the Verein Osterreichischer Chemiker, Linz, May 1949.

[8] R. Müller, Anwendung der chromatographischen Methode zur Trennung und Bestimmung kleinsten Gasmengen., Doctoral Thesis, University of Innsbruck, May 1950.

[9] E. Cremer, F. Prior, Application of the Chromatographic Method to the Separation of Gases and to the Determination of Adsorption Energies., Z. Elektrochem., 1951, 55, 66-70 (in German).

[10] E. Cremer, R. Müller, Separation and Determination of Substances by Means of Gas-Phase Chromatography., Z. Elektrochem., 1951 55, 217-220 (in German).

[11] E. Cremer, R. Müller, Trennung und quantitative Bestimmung kleiner Gasmengen durch Chromatographie. — Mikrochemie u. Microchim. Acta, 1951, XXXVI-XXXVII, 533 – 560.

[1] Parleremo dell’origine e dello sviluppo dell’elettrodo a vetro in un prossimo post.

[2] Max Ernst August Bodenstein (1871 –1942), chimico fisico tedesco, noto per le sue ricerche in cinetica chimica, fu il primo a immaginare un meccanismo di reazione a catena e che le esplosioni si potevano essere interpretate in base a un tale meccanismo.

[3] Ricordiamo che la corrispondente reazione fra idrogeno e iodio segue una cinetica semplice del secondo ordine, quindi per molti decenni è stata considerata un atto elementare. Qualche testo, fortunatamente sempre meno, la presenta ancora così.

[4] Nikolay Semyonov (1896-1986) chimico fisico sovietico noto per i suoi lavori sulle reazioni con meccanismo a catena e a catena ramificata. Premio Nobel per la chimica 1956 insieme a Sir Cyril Hinshelwood per le loro ricerche sui meccanismi delle reazioni chimiche.

[5] Karl-Friedrich Bonhoeffer (1899 – 1957) chimico tedesco, fu allievo di Fritz Haber ed è noto per le sue ricerche in meccanica quantistica che lo portarono a scoprire l’orto e para idrogeno.

[6] Michael Polanyi, (1891 – 1976), ungherese britannico è stato uno scienziato eclettico, che ha dato importanti contributi teorici alla chimica fisica, all’economia e alla filosofia. Dal 1926 al 1933 è stato professore di chimica al Kaiser Wilhelm Institute di Berlino, nel 1933 è stato il primo professore di chimica e poi di scienze sociali all’Università di Manchester. Dal 1944 membro della Royal Society. La sua opera filosofica più nota è il libro Towards a Post-Critical Philosophy del 1958, pubblicato in italiano col titolo La conoscenza personale da Rusconi, Milano, 1990. Suo figlio, John Charles è stato covincitore del Nobel per la Chimica nel 1986 per il contributo allo studio delle dinamiche delle reazioni elementari. Curioso perché fra le ricerche in chimica del padre, forse la più importante ha riguardato la teoria cinetica dello stato di transizione per le reazioni elementari.

Vaccini, negazioni e Jenner.

In evidenza

Luigi Campanella, già Presidente SCI

É dei nostri giorni il dibattito sulla obbligatorietà o meno delle vaccinazioni. Riflettevo su questo quando un mio amico mi ha dato un appuntamento a cena in un ristorante a via Jenner nella mia città. Qualcuno si chiederà quale sia il collegamento fra i due eventi. Il fatto è che io nella mia curiosità dinnanzi ai nomi delle vie dedicate a personaggi cerco sempre di raccogliere informazioni sugli intestatari, quando a me non noti.

 

Non mi vergogno di dire che lo stesso è avvenuto con Jenner e così ho potuto apprendere il grande contributo dato da questo studioso allo sviluppo della pratica protettiva basata sulla vaccinazione. Edward Jenner fu un medico inglese vissuto a cavallo fra diciottesimo e diciannovesimo secolo che per primo introdusse il vaccino contro il vaiolo.
Scriveva Voltaire che su 100 persone a quel tempo 60 contraevano questa brutta malattia ed in effetti tutta l’Europa fu vittima di questo morbo. Solo la peste nera in altri tempi aveva prodotto un maggiore numero di vittime.Eppure proprio quello è il tempo in cui Jenner, una mente scientificamente fertile, appassionata non solo alla propria disciplina,ma anche a Chimica, Fisica, Botanica fino all’Aeronautica, tanto da divenire costruttore di una mongolfiera.

(un riassunto della sua vita affascinante nel link in fondo all’articolo)
Era quello un periodo molto strano: da un lato l’illuminismo ed il razionalismo, dall’altro una medicina spesso basata su pressapochismo e ciarlataneria, condite da farmaci costituiti spesso da improbabili miscugli con nomi ambigui ed effetti imprevedibili e casuali, un’espressione della quale poteva considerarsi Cagliostro con il suo elisir di lunga vita o Mesmer con la sua vasca magnetica.
La grande scoperta di Jenner -non credo adeguatamente conosciuta- fu in effetti solo un’osservazione: le ragazze cinesi – un Paese la Cina che combatteva contro il vaiolo che si diffondeva- che lavoravano nei caseifici non si ammalavano. La spiegazione che diede Jenner al fatto osservato si basava sul fatto che le ragazze mungevano le vacche, finivano per contrarre un’eruzione e con essa si immunizzavano rispetto al vaiolo. Messa a punto l’ipotesi ecco , secondo le regole del metodo scientifico, la prova sperimentale. Cosi Jenner inoculò l’essudato dell’eruzione ad un amico disponibile che fu poi contagiato con il virus del vaiolo: il paziente non si ammalò. Era nata la vaccinazione strumento prezioso contro numerose malattie che si diffusero successivamente nel tempo. Da Pasteur a Sabin furono salvate centinaia di milioni di vite: ma queste vittorie fantastiche per l’umanitá spesso si scontrarono con ignoranza e pregiudizi, gli stessi che oggi ritroviamo in alcuni interventi del nostro tempo.
Se oggi molte gravi malattie sono state debellate è merito di persone come Jenner che hanno tracciato con intuito e studio paziente la via del progresso scientifico. Tale progresso non può essere osteggiato in assenza di controprove: come diceva Popper il compito dello scienziato con i suoi studi non é solo la conferma di una tesi, ma anche la smentita.
Ecco io credo che la lezione di Jenner che ho imparato a conoscere, apprezzare e ringraziare per quanto ha fatto sia proprio questa: la negazione va documentata al pari dell’affermazione.

https://it.wikipedia.org/wiki/Edward_Jenner

Plastica biodegradabile: il polibutirrato (PBAT)

In evidenza

Rinaldo Cervellati.

Tutti abbiamo familiarità con la pellicola da cucina per avvolgere alimenti, con i guanti in plastica sottile per la scelta di frutta e verdura al supermercato e per i sacchetti che oggi sono obbligatori in tutti i negozi di alimentari (figura 1). Sono in larga misura costituiti da una plastica biodegradabile, sostanzialmente polibutilene adipato tereftalato, in sigla PBAT (nome comune polibutirrato).

Figura 1. Pellicola di plastica biodegradabile e suoi molteplici usi

Sintetizzato per la prima volta da chimici della BASF più di venti anni fa, si tratta di un copolimero, specificatamente un copoliestere dell’1,4-butandiolo esterificato con acido adipico e del dimetil tereftalato[1]. Viene generalmente commercializzato come alternativa completamente biodegradabile al polietilene a bassa densità, con molte proprietà simili tra cui flessibilità e resistenza allo stiramento, che consente di utilizzarlo per gli usi sopra ricordati. La struttura del copolimero PBAT è mostrata in figura 2.

Figura 2. Le unità costitutive del PBAT: butandioltereftalato e butandioladipato

Nella figura, il PBAT è mostrato come un copolimero a blocchi a causa del comune metodo sintetico di sintetizzare inizialmente i due blocchi del copolimero e quindi combinarli. Tuttavia, è importante notare che la struttura effettiva del polimero è un copolimero casuale dei blocchi mostrati, ottenuta miscelando i due blocchi in presenza di tetrabutossi titanio come catalizzatore.

Questa casualità, cioè l’assenza di qualsiasi tipo di ordine strutturale fa si che il polimero non può cristallizzare in misura significativa. Ciò porta a diverse proprietà fisiche: ampio intervallo di fusione, basso modulo elastico e rigidità, ma elevata flessibilità e tenacità. Infine, la particolare struttura lo rende biodegradabile da batteri (o loro enzimi) contenuti nel terreno.

Per tenere sotto controllo le infestanti e mantenere l’umidità del terreno, gli agricoltori inseriscono piccoli ammassi (“pacciame”) di pellicole di plastica nei loro campi. Ma questi sottili film polimerici sono poi difficili da raccogliere dopo l’uso e l’accumulo di plastica riduce inevitabilmente la fertilità del suolo. I pacciami di pellicole biodegradabili evitano questi problemi e sono quindi sempre più usati. Un gruppo di ricercatori del Politecnico di Zurigo (ETH) e dell’Università di Vienna, combinando varie tecniche fra cui marcatura isotopica, spettroscopia NMR e NanoSIMS (Nanoscale secondary ion mass spectrometry), hanno sviluppato quello che alcuni esperti dicono sia il metodo più completo per rintracciare quali atomi di carbonio del PBAT finiscono nel suolo. La notizia è stata riportata da Carmen Drahl in C&EN newsletters del 31 luglio scorso (Technique tracks carbon as soil microbes munch plastic).

Il guppo di ricerca, coordinato dal prof. Michael Sander, si è prefisso anzitutto lo scopo di stabilire quale carbonio venisse utilizzato dai microrganismi, se quello presente nel terreno o quello contenuto nel polimero.

Michael Sander

La ricerca, molto dettagliata, è stata recentemente pubblicata on-line su Science Advances (M.T. Zumstein et al., Biodegradation of synthetic polymers in soils: Tracking carbon into CO2 and microbial biomass, Sci. Adv., 2018, DOI: 10.1126/sciadv.aas9024).

Di seguito una sintesi del protocollo della ricerca e dei risultati ottenuti.

La prima fase è consistita nel preparare un pacciame di PBAT marcato con isotopi 13C in diverse posizioni come mostrato in figura 3, ottenendo tre campioni diversamente sostituiti.

Figura 3. Isotopi 13C sostituiti nelle posizioni colorate

I tre campioni del pacciame isotopicamente sostituito mescolati a opportune quantità di terreno sono state fatte incubare in appositi contenitori per sei settimane. La CO2 marcata 13C emessa dalla biodegradazione dei polimeri è stata monitorata nel tempo con la tecnica CRDS (cavity ring-down spectroscopy). Questa tecnica ha permesso anzitutto ai ricercatori di distinguere fra l’anidride carbonica derivata dal polimero da quella formata dalla mineralizzazione della materia organica del suolo.

Dopo l’incubazione, le superfici dei film polimerici sono state studiate mediante microscopia elettronica a scansione (SEM), figura 4, mostrando l’incorporazione di 13C derivato dal polimero nella biomassa e dovuta ai microorganismi che ne utilizzerebbero parti specifiche.

Figura 4. Immagine di numerose colonie microbiche sul film polimerico

Quest’ultima considerazione è stata verificata attraverso spettrometria di massa di ioni secondari su scala nanometrica (NanoSIMS, figura 5).

Figura 5. Schema di un NanoSIMS

Lo studio di tre varianti PBAT con proprietà fisico-chimiche simili ma variati nel monomero che conteneva gli atomi di carbonio marcati 13C [cioè, adipato, butandiolo e tereftalato (v. figura 3] ha permesso ai ricercatori di seguire la biodegradazione dei tre blocchi costitutivi il PBAT.

Il lavoro presentato è un nuovo approccio per studiare i passaggi fondamentali nella biodegradazione dei polimeri in sistemi complessi.

Gli autori concludono che nell’arco di sei settimane la biodemolizione del PBAT non è completa, in parte viene incorporato nella biomassa. La percentuale cumulativa di CO2 marcata proveniente dal polimero marcato nella parte adipato è maggiore di quella proveniente dagli altri due. I ricercatori hanno dato una spiegazione del fatto studiando la biodegradazione del PBAT non marcato sia dalla lipasi del Rhizopus orza che dalla cutinasi del Fusarium solani, due carbossilesterasi fungine con meccanismi di idrolisi diversi. Come previsto, la spettrometria H1NMR ha rivelato che il residuo del PBAT dopo parziale idrolisi enzimatica era arricchito in tereftalato, mentre i prodotti dell’idrolizzato erano ricchi in adipato.

Infine gli autori affermano che il loro lavoro fa avanzare sia la comprensione della biodegradazione dei polimeri sia la capacità metodologica di valutare questo processo in ambienti naturali o ingegnerizzati.

Markus Flury, scienziato del suolo nella Washington State University, dice: “Questo studio mostra chiaramente che il carbonio proveniente da diverse posizioni in un polimero biodegradabile si trasferisce effettivamente in biomassa e CO2, e che ciò avviene a velocità diverse per diversi atomi di carbonio” Tuttavia Flury vorrebbe vedere uno studio a lungo termine per dimostrare che il polimero può essere completamente degradato; lo studio di sei settimane ha mostrato solo un parziale degrado. Vorrebbe anche conoscere il destino degli additivi per la pacciamatura in plastica che conferiscono proprietà ai materiali come resistenza alla luce ultravioletta.

Prof. Markus Flury

A quest’ultimo proposito Sander risponde: gli additivi sono nella lista delle cose da fare. Il mio team sta attualmente conducendo test a lungo termine in diversi terreni e pianificando progetti per condurre anche test sul campo. Il lavoro è stato supportato in parte da BASF, che ha prodotto il polimero biodegradabile.

Un certo numero di scienziati vorrebbe determinare se i microorganismi del lavoro di Sander potrebbero demolire anche altri polimeri più resistenti alla biodegradazione, come il polietilene.

Dr. Till Opaz

Till Opatz, che ha studiato la biodegradazione della plastica all’Università di Mainz, afferma: le indagini precedenti non hanno fornito risposte definitive, ma questa combinazione di tecniche probabilmente sarebbe in grado di farlo.

[1] La BASF (Badische Anilin und Soda Fabrik) lo mise in commercio col marchio ecoflex®, oggi è prodotto da molte altre industrie con i marchi Wango, Ecoworld, Eastar Bio e Origo-Bi.

Le molecole della pubblicità: l’acqua micellare.

In evidenza

Claudio Della Volpe

(per i precedenti articoli di questa serie vedi in fondo)

L’”acqua micellare” è uno dei prodotti di maggior successo pubblicitario degli ultimi tempi; il suo mercato dominante sono le donne che se si truccano poi si struccano ( a questo serve l’acqua micellare, a ripulire la pelle), una attività che in realtà risale a tempi immemorabili; certo la pubblicità e il mercato hanno spinto sul filone della bellezza femminile e non, ma il trucco femminile e anche maschile è una tradizione culturale che risale alle origini della nostra specie e si coniuga con aspetti sociali e sessuali, ma anche religiosi. La caverna di Blombos in sud Africa che testimonia attività di tipo chimico di Homo Sapiens e di cui abbiamo parlato in uno dei primi post pubblicati su questo blog, risale a 100.000 anni fa e vi si producevano, guarda un po’, polveri colorate per scopi analoghi.

Dunque non mi scandalizzo affatto che esistano prodotti del genere; qua si tratta solo di capire di cosa stiamo parlando esattamente. Ha senso questa definizione e a cosa si riferisce esattamente? Cosa è l’acqua micellare?

L’acqua micellare si presenta come una soluzione limpida ma contenente sia componenti acquose che idrofobiche, come l’olio di ricino (si veda più avanti per la formula completa di uno dei tanti prodotti commerciali); ne segue che abbiamo qui qualcosa di simile ad una emulsione, ma a differenza delle normali emulsioni tipo acqua-sapone ed eventualmente olio che sono opache o tendono comunque a diffondere la luce, questa non la diffonde.

Come mai?

Sembra che il primo prodotto di questa classe sia stato fatto in casa ed usato come detergente della lana dalle donne australiane fin dall’inizio del XIX secolo; se mescolate nelle giuste proporzioni acqua/olio di eucalipto/sapone in scaglie e una miscela del cosiddetto spirito bianco, un distillato del petrolio ottenete una emulsione di questo medesimo genere, stabile e trasparente; analogamente la ricetta di Bosisto per lavare la lana è costituita da

scaglie di sapone 300g/spirito metilato (ossia 95% di alcool etilico e 5% di metilico) 200ml agitare bene; miscelare con 50ml di olio di Eucalipto; conservare la pasta che viene fuori e aggiungere poca acqua calda quanto basta al momento del lavaggio; poi aggiungete all’acqua di lavaggio totale.

Dopo avere strizzato i panni avvolti in un tessuto fateli asciugare senza esporli alla luce.

Cosa avete ottenuto con quella miscela e perché il prodotto finale è trasparente e stabile?

Si tratta delle cosiddette microemulsioni, scoperte ufficialmente solo nel 1943 da Hoar and Schulman mescolando una soluzione lattescente con esanolo per produrre una soluzione uniforme, una fase singola e non conduttiva.

Come potete leggere nel testo il fenomeno, dicono gli autori, era già ben conosciuto. La prima applicazione commerciale   delle microemulsioni o delle “idromicelle oleopatiche”, fu infatti costituita dalle cosiddette cere liquide , brevettate da Rodawald nel 1928.

da Microemulsions Theory and Practice a cura di Leon Prince

Nella tabella sottostante vedete le differenze fra i due tipi di emulsioni:

Una rappresentazione più grafica delle differenze in cui è introdotto anche il caso intermedio della nanoemulsioni, (non fatevi confondere dal nome, le nanoemulsioni sono a micelle più grandi della microemulsioni, scherzi della lingua).

Si tratta dunque di micelle, gocce di diametro piccolo di una fase circondate da uno strato di molecole di tensioattivo ben orientate più piccole delle altre; la fase esterna o interna può essere acquosa mentre l’altra è oleosa e viceversa. Il diametro così piccolo delle microemulsioni è dovuto alla particolare geometria dei tensioattivi usati e dei co-tensioattivi, ossia le altre molecole, alcooli per esempio, che consentono di creare una forte curvatura e di rafforzarla, rendendole stabili nel tempo.

Questo giustifica la trasparenza, poichè il diametro delle micelle non consente la diffusione laterale della luce e anche il fatto che le soluzioni ottenute siano stabili, mentre sia le emulsioni normali che le cosiddette nanoemulsioni non lo sono.

Come si spiegano quantitativamente le differenze di comportamento fra i vari tipi di emulsioni? La teoria base fu sviluppata da Eli Ruckenstein negli anni 70 ed è esemplificata dal seguente grafico che vado a commentare, tratto da un classico della letteratura della termodinamica superficiale (J. Chem. Soc., Faraday Trans. 2, 1975,71, 1690-1707); Ruckenstein è stato uno dei maggiori teorici delle soluzioni e delle interfacce e forse è poco ricordato, ma molte teorie affascinanti sono dovute a lui; l’ho conosciuto di persona nel 2000 a Princeton, in un congresso dove presentavo una serie di misure che supportavano una delle sue teorie sul fenomeno della rottura dei film superficiali, fenomeno che poi ha trovato applicazione nell’industria dei detergenti (avete notato che quando lavate l’auto alla pompa usate due detergenti diversi? Uno è il solito anionico per togliere lo sporco, l’altro è un cationico che serve invece a togliere via l’acqua di lavaggio, è un rinsing aid in inglese; la teoria sui rinsing aids è di Ruckenstein). Ruckenstein era seduto in prima fila e mi fece anche una domanda; la cosa mi emozionò parecchio.

In questo grafico si confrontano le energie libere superficiali delle micelle contro la loro dimensione per alcuni casi chiave, ottenuti sommando i contributi delle varie componenti :formazione della microemulsione, aumento dell’area totale, interazione fra le micelle, adsorbimento del tensioattivo ed entropia legata alla dispersione dellla fase oleosa nelle micelle. Questi 5 termini variano al variare del diametro della micella e dunque la somma complessiva.

Per i casi C e D l’energia libera è sempre positiva per cui si possono formare solo emulsioni che non sono termodinamicamente stabili. Nel caso C che mostra un massimo relativo si possono ottenere emulsioni cineticamente stabili, ossia che si possono destabilizzare se in qualche modo il sistema può superare la barriera di energia potenziale (per esempio aumentando la temperatura) ma che rimangono stabili solo se la barrriera è sufficientemente grande. Per i casi A e B invece la energia libera è negativa in certi valori del raggio o anche sempre. Questo vuol dire che una dispersione di micelle aventi un raggio in questo intervallo è stabile rispetto alla separazione di fase e dunque si formerà una microemulsione stabile; ovviamente per il raggio R* la microemulsione presenterà la situazione di massima stabilità.

Giusto per fare un esempio di separazione di fase si pensi all’impazzimento della maionese; quello è un esempio di separazione di fase, mentre la maionese ben riuscita è una emulsione stabile (cineticamente , non è una microemulsione).

Qui sotto la composizione di una specifica acqua micellare:

Acqua micellare Venus

aqua; poloxamer 184; disodium phosphate; hexylene glycol; hamamelis virginiana water; phenoxyethanol; benzyl alcohol; disodium cocoamphodiacetate; potassium phosphate; sodium chloride; parfum; peg-40; hydrogenated castor oil (olio di ricino); limonene;

Il poloxamer 184 è il tensioattivo non ionico, coadiuvato dal glicole, dall’alcol benzilico e dal cocoamfodiacetato, che aiutano a forzare il raggio delle micelle; l’olio di ricino è la componente oleosa che aiuta invece a eliminare il trucco. Gli altri componenti servono essenzialmente a proprietà estetiche come il profumo, ma notate che possono questi avere anche proprietà allergizzanti.

Aggiungo che le microemulsioni hanno molte applicazioni in campo medico e biologico. Ma ne parleremo un’altra volta.

Venus è un marchio della Kelemata-Perlier, una azienda Italiana, fondata nel 1919 dalla famiglia Giraudi, con un fatturato attale di circa 80 milioni di euro e proprietaria di parecchi marchi. Nel 2013 aveva poco più di 200 dipendenti.

Colgate-Palmolive invece è una grandissima multinazionale americana fondata nel 1953 che ha un fatturato di 20 miliardi di dollari e 37000 dipendenti.

La storia dei brevetti su questo tema è troppo intricata per farne una sia pur breve lista; Kelemata non appare detenere brevetti specifici, dunque probabilmente produce su licenza (mi farebbe piacere saperlo).

Esistono molti altri prodotti analoghi in commercio; ho riportato l’esempio anche perchè questo mi appare uno dei pochi produttori italiani di microemulsioni cosmetiche; è da dire che esistono molte altre applicazioni nel campo della detergenza, basate su microemulsioni formulate anche da piccole aziende.

Riferimenti.

J.H. Schulman, W. Stoeckenius, L.M. Prince,

Mechanism of formation and structure of micro emulsions by electron microscopy, J. Phys. Chem. 63 (1959) 1677–1680

HOAR, T. P., & SCHULMAN, J. H. (1943). Transparent Water-in-Oil Dispersions: the Oleopathic Hydro-Micelle. Nature, 152(3847), 102–103. doi:10.1038/152102a0

Microemulsion vs. nanoemulsion Devesh Kumar Jain – SlideShare

https://patentimages.storage.googleapis.com/bd/ad/cd/18969d516e71b1/US5874393.pdf

https://ilblogdellasci.wordpress.com/2016/12/21/la-chimica-della-pubblicita-prodotti-per-la-rasatura

https://ilblogdellasci.wordpress.com/2016/12/16/le-molecole-della-pubblicita-lanticalcare-2/

https://ilblogdellasci.wordpress.com/2016/11/04/le-molecole-della-pubblicita-la-biogenina-e-i-suoi-discendenti

https://ilblogdellasci.wordpress.com/2016/11/30/le-molecole-della-pubblicita-dentifrici-ripara-smalto

https://ilblogdellasci.wordpress.com/2016/11/20/la-chimica-della-pubblicita-lacchiappacolore/

https://ilblogdellasci.wordpress.com/2016/10/24/le-molecole-della-pubblicita-2c/

Nanoinnovation 2018.

In evidenza

Luigi Campanella, già Presidente SCI

Torno a parlare del NANOFORUM (http://www.nanoinnovation.eu/2018 ) in corso dall’11 al 14 presso la Facoltà di Ingegneria della Sapienza a Roma non solo per l’importanza dell’evento, ma per focalizzare ancora una volta il peso e l’influenza delle nanoscienze sulla nostra vita di tutti i giorni, quindi sulla stessa qualità del nostro vivere quotidiano.

Il nanomateriale forse più noto, più studiato, più utilizzato è probabilmente il grafene. Per comprenderne la specificità e l’originalitá basta pensare che con esso la distribuzione degli atomi costituenti perde una delle tradizionali 3 dimensioni delle molecole che rappresentiamo nello spazio: il grafene è un composto bidimensionale, si sviluppa cioè sul piano. Esso è costituito da un singolo strato di carbonio dello spessore di un solo atomo:lo possiamo immaginare come uno strato tipo millefoglie,tanto per addolcire una spiegazione tecnica. Questa caratteristica sin dalla sua scoperta l’ha fatto individuare come un materiale prezioso con aspettative rispetto ad esso confrontabili con quanto atteso da materiali naturali che hanno segnato la storia della nostra civiltà (bronzo, ferro, acciaio, silicio). Al grafene è correlato il premio Nobel ai 2 russi (Geim e Noviselov) che con i loro studi sul comportamento degli elettroni nello spazio a 2 dimensioni hanno di fatto aperto la corsa alle possibili applicazioni del grafene stesso, che sono risultate così molteplici e speciali da assegnare al grafene stesso la denominazione di supermateriale. Come accade in genere per gli strati sottilissimi è trasparente, flessibile, conduttore elettrico (anzi in effetti il grafene è un superconduttore) e termico, ma al contrario  di essi è resistentissimo, impermeabile a gas e liquidi. Una proprietà quasi unica è quella di interagire con luce di qualsiasi lunghezza d’onda e quindi colore.Volendo confrontarlo con i materiali a noi noti si può dire che il grafene si comporta similmente ad una gomma.

Gli studi sul grafene sono stati condotti in tutto il mondo e l’Europa ha addirittura lanciato il”graphene flagship”, un consorzio con un miliardo di euro a disposizione, tanto che simulando la Silicon Valley,ci si riferisce all’Europa come alla Graphene Valley. Non si deve credere che la struttura bidimensionale del grafene sia unica: esistono migliaia di composti con questa caratteristica, il grafene è solo il capostipite più conosciuto.

Come si diceva queste proprietà sono state già sfruttate in molte applicazioni e di certo lo saranno in molte altre.

Le applicazioni già mature sono nei campi

-delle batterie con innovazioni che migliorano dimensioni, potenza e ciclo di vita

-delle telecomunicazioni nel passaggio dal 4G al 5G

-della sensoristica applicata alle tecnologie di portabilità ( vestiti e imballaggi) per il controllo ai fini ambientali ed igienico sanitari

-della sicurezza alimentare con la realizzazione di etichette intelligenti.

La produzione del grafene è oggi possibile a livelli di tonnellate o chilometri, ma resta il problema della diversificazione del prodotto in funzione dell’applicazione.

La ricerca è però molto attiva , anche in Italia presso l’Università di Pisa, i Politecnici di Torino e Milano, il CNR ed anche imprese privati e certamente arriveranno le risposte a molte delle attuali domande.

Ancora sull’aspirina.

In evidenza

Rinaldo Cervellati.

Il 4 aprile 2016 in un breve post sulla storia dell’aspirina https://ilblogdellasci.wordpress.com/2016/04/04/aspirina-breve-storia-di-un-farmaco-pluripotente/

ricordai i quattro effetti farmacologici clinicamente accertati di questo usatissimo farmaco: antidolorifico, antiinfiammatorio, antifebbrile e cardioprotettore. Dissi anche che si stavano effettuando ricerche per evidenziarne eventualmente altri. In questo post riporterò alcuni studi su possibili proprietà preventive per alcune forme di cancro e malattie neurodegenerative.

Acido Acetilsalicilico, principio attivo dell’aspirina

Fra il 2007 e il 2014 diverse ricerche osservazionali e prove randomizzate riportarono evidenze sostanziali sull’effetto chemopreventivo dell’aspirina sul cancro colonrettale. Tuttavia la suscettibilità al farmaco variava fa gli individui partecipanti alle sperimentazioni, quindi il meccanismo con cui il comune antidolorifico eserciterebbe questo effetto protettivo restava insoluto[1].

Nello stesso 2014, un folto gruppo di ricerca guidato da Andrew T. Chan del Massachusetts General Hospital e Sanford D. Markowitz della Case Western Reserve University di Cleveland (OH) ha riportato che l’effetto preventivo dell’aspirina sul cancro del colon è legato ai livelli dell’ enzima idrossiprostaglandina deidrogenasi (15-(nicotinammide adenine dinucleotide), chiamato 15-PGDH) [1].

Andrew T. Chan

Sanford D. Markowitz

                                                                                       Questo enzima svolge un ruolo nella degradazione delle prostaglandine, importanti molecole messaggeri lipidici coinvolti in alcuni tumori del colon. L’aspirina ridurrebbe i livelli di prostaglandine inibendo l’attività di un altro enzima coinvolto nella loro sintesi. I ricercatori hanno esaminato campioni di tessuto prelevati da 270 casi di tumore del colon derivanti da due studi che monitorarono gli effetti dell’ aspirina su 128.000 persone per tre decenni. Essi hanno trovato che il gruppo di individui cui erano state somministrate due compresse di aspirina da 375mg a settimana, vedeva ridotto il rischio di cancro al colon del 50% rispetto al gruppo controllo ma solo fra coloro i cui livelli di 15-PGDH erano superiori alla media. La scoperta potrebbe aiutare a identificare le persone che possono veder ridotto il rischio di cancro al colon assumendo aspirina. Allo stesso modo, l’identificazione di individui privi del giusto livello di 15-PDGH potrebbe aiutarli a evitare gli effetti collaterali del farmaco, tra cui ulcere e sanguinamento gastrointestinale.

* * * * *

Come noto il morbo di Alzheimer è una malattia neurodegenerativa che colpisce particolarmente persone in età avanzata o molto avanzata giungendo più o meno rapidamente a ridurre chi ne viene colpito in uno stato quasi vegetativo. Purtroppo sono sempre più comuni anche i casi di Alzheimer precoci che coinvolgono persone poco più che cinquantenni. Per questo l’alzheimer è oggetto di intensa ricerca medica e biomedica anche se a tutt’oggi non è stata trovata alcuna cura. Esistono comunque trattamenti che possono rallentare temporaneamente il peggioramento dei sintomi della demenza e migliorare la qualità della vita delle persone affette dal male e di chi si occupa di loro.

Nel numero di C&EN newsletters del 28 luglio scorso, Cici Zhang ha riportato i risultati di un gruppo di ricerca, coordinato dal prof. Kalipada Pahan del Rush University Medical Center, Chicago (IL), che mostra indizi di un collegamento fra l’acido acetilsalicilico e i sintomi tipici dell’Alzheimer [2].

Kalipada Pahan

Combinando esperimenti biochimici con la tecnica del computer modeling, i ricercatori hanno scoperto che l’acido acetilsalicilico si lega a un recettore chiamato peroxisoma proliferatore-attivato recettore α (PPARα), coinvolto nel metabolismo degli acidi grassi. Quando il PPARα viene attivato dall’associazione con acido acetil salicilico, si scatena una cascata di segnali che portano ad un aumento delle connessioni fra le cellule nervose nell’ippocampo, una regione chiave del cervello per la formazione della memoria. Per il momento è stata fatta una sperimentazione su un modello animale utilizzando due gruppi di topi con sintomi Alzheimer: a un gruppo è stata somministrata una soluzione di aspirina 5 μM nell’arco di 18 ore, mentre all’altro (gruppo controllo) è stato somministrato un placebo. Il primo gruppo ha mostrato un significativo aumento dell’attenzione e del coordinamento dei movimenti, indice dell’efficacia del trattamento con aspirina. Ovviamente il prof. Pahan afferma che l’obiettivo finale sarà la verifica del rallentamento dei sintomi attraverso adeguati studi clinici.

Scusatemi, ma mentre cercavo un’immagine ho trovato questa curiosa novità (almeno per me):

https://blog.kamagra.co.in/aspirina-trovata-efficace-per-la-disfunzione-erettile

Dunque, l’aspirina sarà anche un sostituto di viagra e cialis ???????????

Bibliografia

[1] S.P. Fink et al., Aspirin and the Risk of Colorectal Cancer in Relation to the Expression of 15-Hydroxyprostaglandin Dehydrogenase (HPGD)., Science Translational Medicine, 2014, 6(233), 1-7.

[2] D. Patel et al., Aspirin binds to PPARα to stimulate hippocampal plasticity and protect memory., Proc. Natl. Acad. Sci. USA2018, DOI: 10.1073/pnas.1802021115

[1] Dal 1971 era stato comunque accertato che gli effetti antiinfiammatori e cardioprotettivi dell’aspirina sono dovuti all’inattivazione irreversibile dell’enzima ciclo ossigenasi necessario alla produzione di prostaglandine e tromboxani nell’organismo (v. post citato sopra).

Lettera aperta alla SAIPEM.

In evidenza

Con il permesso dell’autore pubblichiamo qui una lettera inviata al Corriere e non pubblicata.

Vincenzo Balzani

Bologna, 22 agosto 2018

SAIPEM: mai sentito parlare dell’Accordo di Parigi?

Caro Direttore,

Leggo sul Corriere di oggi a p. 37 l’articolo di Marco Sabella che annuncia con entusiasmo il rialzo del titolo Saipem in seguito a contratti relativi alla estrazione di petrolio e metano in varie zone del globo, fra le quali Congo, Uganda e Nigeria.

Non un cenno al fatto che il governo Italiano è fra i 195 firmatari dell’Accordo sul clima di Parigi, che prevede di ridurre l’uso dei combustibili fossili e lo sviluppo delle energie rinnovabili per salvare il pianeta dai cambiamenti climatici. E’ un’ulteriore conferma di quanto ha scritto papa Francesco nell’Enciclica Laudato si’: “I combustibili fossili devono essere sostituiti senza indugioma la politica e l’industria rispondono con lentezza, lontane dall’essere all’altezza delle sfide”.

L’Africa ha un enorme potenziale di energia solare ed eolica, ed è nello sviluppo di queste energie che dovrebbe essere aiutata.

Secondo gli esperti, In base all’Accordo di Parigi la maggior parte delle riserve di combustibili fossili già note dovrà rimanere nel sottosuolo. Quindi, se l’Accordo di Parigi sarà osservato, Saipem avrà problemi economici perché parte delle sue attività saranno bloccate; forse chi ha acquistato le azioni Saipem non ha tenuto conto di questa eventualità. Se invece la politica permetterà alle aziende petrolifere di usare tutte le riserve, i problemi, purtroppo, li avremo noi,  abitanti della Terra.

Vincenzo Balzani

Professore Emerito, Università di Bologna

Nuovi materiali a base perovskite.

In evidenza

Rinaldo Cervellati

Nuovi materiali perovskite-strutturati potrebbero rivoluzionare la microelettromeccanica e forse il fotovoltaico.

La perovskite naturale è un minerale costituito essenzialmente da titanato di calcio (CaTiO3), scoperto nel 1839 nei monti Urali e così chiamato in onore del mineralogista russo Lev Perovsky (1792-1853). In seguito il nome è stato esteso a tutti i composti aventi la stessa stechiometria del CaTiO3 (A2+B4+X32-) detta appunto struttura perovskite. Molti cationi diversi possono essere incorporati in questa struttura (es. Ba2+, Pb2+, Sn2+), consentendo la crescita di diversi minerali appartenenti al gruppo delle perovskiti. La simmetria cristallina è ortorombica. I cristalli sono tipicamente cubici, ottaedrici o combinazioni di queste forme base[1].

Perovskite (minerale)

Le perovskiti sono materiali ferroelettrici: sotto un campo elettrico applicato esibiscono una polarizzazione spontanea, il che significa che le cariche positive e negative si separano rapidamente all’interno del cristallo. Per questa proprietà hanno trovato applicazioni nella conversione dell’energia solare in energia elettrica, particolarmente nella realizzazione di celle fotovoltaiche.

A questo scopo sono stati utilizzati materiali ibridi inorganici-organici a struttura perovskitica il più studiato dei quali è stato il metilammonio triioduro di piombo:

Struttura cristallina di CH3NH3PbI3

Inizialmente tuttavia la realizzazione del dispositivo non permise di andare oltre a un rendimento (power conversion efficiency o PCE) del 3.8%. Anche  il rivestimento perovskitico rimase stabile per poco tempo, finendo con il degradarsi.

Nel 2013, migliorata notevolmente la tecnologia dei pannelli fotovoltaici, un gruppo di ricercatori inglesi e italiani rispettivamente del Clarendon Laboratory (Università di Oxford) e dell’Istituto Italiano di Tecnologia (Politecnico di Milano) utilizzarono un materiale perovskitico misto metilammonio piombo ioduro-cloruro che opportunamente inserito nella cella fornì un rendimento del 12.2% [1]. Recentemente sono stati sintetizzati materiali con i quali si sono raggiunti rendimenti fino al 22.7% [2].

Oltre che nei pannelli fotovoltaici, le perovskiti artificiali sono impiegate anche nell’imaging medicale e nelle memorie dei computers in quanto conservano le informazioni anche quando un dispositivo è spento.

Nonostante tutte queste applicazioni, i materiali perovskitici sono abbastanza costosi da produrre e contengono piombo e altri metalli pesanti tossici. Per questi motivi, i ricercatori hanno cercato perovskiti senza metallo e sono riusciti a sintetizzarne alcune. Ma i composti privi del metallo pesante presentano deboli proprietà ferroelettriche che ne precludendo molte applicazioni.

Nel numero del 12 luglio scorso di C&EN newsletters on line, Mitch Jacobi riporta il lavoro di un gruppo di ricerca cinese, guidato dal prof. Yu-Meng You e Ren-Gen Xiong della China’s Southeast University, che ha prodotto una famiglia di 23 perovskiti prive di metallo, alcune delle quali stanno alla pari con il titanato di bario (BTO) per quanto riguarda le proprietà ferroelettriche [3].

Le dimensioni degli ioni sono uno degli attributi importanti del comportamento elettronico di questi materiali, ma anche altri fattori, come le forze di van der Waals e le interazioni intermolecolari tra gli ioni nel cristallo, giocano un ruolo importante. Integrando opportune strategie di progettazione con sperimentazioni ‘tentativi ed errori’ (trial-and-error), i ricercatori cinesi sono pervenuti alle loro perovskiti senza metallo pesante.

A – Struttura di una perovskite senza piombo, al centro del cubo si trova la parte organica es:

In blu = NH4+   In rosso = Cl-, Br-, I-

In breve hanno fatto reagire un gran numero di composi organici con alogenuri di ammonio inorganici. La stechiometria dei composti ottenuti è A(NH4)X3, in cui A è un eterociclo organico a due atomi di azoto carichi positivamente e X è un alogeno.

Tra i 23 composti riportati nello studio, quello denominato MDABCO-NH4I3, che contiene un gruppo diazabiciclo, sembra particolarmente promettente.

Struttura cristallina di MDABCO-NH4I3 confrontata con quella di BaTiO3

Questa struttura perovskitica esibisce un notevole valore di polarizzazione spontanea, 22 μcoulomb per cm2, molto vicino al valore 26 del titanato di bario (BTO). Il nuovo composto sembra essere particolarmente stabile in quanto rimane ferroelettrico fino a una temperatura di transizione di fase di circa 180 °C, superando di 60 °C il limite del BTO.

Gli autori concludono che i loro composti, combinando la notevole proprietà ferroelettrica con i vantaggi applicativi di materiali molecolari, possiedono un grande potenziale per la prossima generazione di sistemi microelettromeccanici.

Wei Li, uno specialista in materiali funzionali inorganici all’Università di Nankai, afferma che questi risultati sono sorprendenti, una pietra miliare raggiunta 70 anni dopo lo sviluppo delle perovskiti ferroelettriche convenzionali.

Wei Li

Li aggiunge che il contenuto organico, che può essere modificato per ottimizzare le proprietà cristalline, rende questi materiali facili da sintetizzare, leggeri e poco costosi, che potrebbero presto portare a nuove applicazioni.

Bibliografia

[1] S. D. Stranks et al., Electron-Hole Diffusion Lengths Exceeding 1 Micrometer in an Organometal Trihalide Perovskite Absorber., Science, 2013, 342, 341-344.

[2] https://it.wikipedia.org/wiki/Cella_fotovoltaica_perovskitica

[3] Heng-Youn Ye et al., Metal-free three-dimensional perovskite ferroelectrics., Science, 2018, 361, 151–155.

[1] In realtà la reale simmetria della perovskite e di alcuni altri minerali del gruppo è pseudocubica, perché lievemente distorta rispetto alla struttura ideale.

Cloaca Massima.

In evidenza

Luigi Campanella, già Presidente SCI

Il concetto di Bene Culturale si é molto evoluto nel tempo. Dapprima soprattutto statue, palazzi, quadri; oggi anche siti ambientali, strumenti scientifici ed altro ancora frutto dell’ingegno e dell’intuito umani. Oggi da chimico suggerisco una visita ad un bene culturale ed ambientale di insolita natura: intendo parlare della Cloaca Maxima, la regina di tutte le fogne, la più antica della vecchia Roma, ancora percorribile e visitabile, vero Museo dell’ingegno umano.

E’ nata per merito di Tarquinio Prisco e soprattutto dei suoi tenici per proteggere dall’inquinamento alcune zone della vecchia Roma (Foro, Suburra) convogliando i rifiuti conferiti verso il Tevere. Risale al settimo secolo a.C. ed é ancora in buone condizioni, soprattutto in relazione alla sua più che bimillenaria età.

La sua altezza era all’origine  di circa 3 m per una larghezza di 2, poi estesa ad oltre 4 m. Si sviluppava in massima parte sotterranea, ma-come alcune metrolitane del ns tempo-erano in essa presenti tratti alla luce del sole. Erano previste regolari attività di spurgo e di pulizia che ne hanno garantito il funzionamento per oltre un millennio, purtroppo anche come tomba per quanti – imperatori e cittadini-hanno chiesto di venirvi sepolti. Oggi se ne possono visitare spezzoni a via Cavour; nel Foro Romano, al Foro Boario ed allo sbocco al Tevere presso il Ponte Rotto.

Il collettore raccoglieva acque bianche ed acque nere senza alcuna differenziazione. Nell’ottocento con la confluenza della Cloaca Maxima nella rete fognaria urbana ovviamente le cose sono cambiate. Anche l’architettura della fogna è interessante e tenicamente apprezzabile con la correlazione fra muri tufacei e blocchi regolari a parallelepipedo fino ai fregi che arricchivano i suoi tombini, il più famoso e conosciuto dei quali è presso la Bocca della Verità, a S.Maria in Cosmedin, dove i turisti infilano la mano. Si pensi che i resti di queste preziosità sono stati la ricompensa pattuita con la Ditta americana che a metà novecento drenò il fiume. Malgrado rappresenti un patrimonio culturale di immenso valore che ha ispirato nei secoli autori e pittori (ad esempio il quadro di S.Sebastiano gettato nella Cloaca, esposto al Getty Museum di Londra)-si pensi che i massi utilizzati per la sua costruzione sono considerati i più antichi di queste dimensioni- non è mai stato neanche progettato uno studio articolato e sistematico della Cloaca Maxima. Credo che un progetto di tale natura troverebbe anche nella nostra comunità chimica sostegno culturale, supporto tenico-scientifico e convinta adesione.

Depuratori del futuro: trattamenti a membrana, nanotecnologie e grafene.

In evidenza

Mauro Icardi

Le tecnologie a membrana per i trattamenti di depurazione e potabilizzazione delle acque, sono note e in fase di sviluppo ed applicazione. Ma lo sviluppo tecnologico nel settore è in costante crescita e può trovare un giusto abbinamento con le energie rinnovabili, per ottenere sia una qualità dell’acqua migliore, che la riduzione di consumi energetici ed emissioni.

Il grafene è un materiale che si presta molto bene ad ottenere membrane che siano meno soggette a problemi di intasamento e di incrostazione da accumulo e deposito di organismi viventi, animali e vegetali (bioincrostazione o biofouling).

Due società australiane hanno iniziato un progetto pilota di produzione di membrane in ossido di grafene, in collaborazione con la Monash University di Melbourne.

Secondo i ricercatori impegnati in questo progetto le prospettive dell’utilizzo di questo materiale sono estremamente incoraggianti e si prevede che possano ridurre in maniera significativa i consumi energetici per il processo di filtrazione delle acque.

Altre membrane di nuova progettazione e concezione sono le cosiddette membrane “biomimetiche”.

Il loro funzionamento si ispira al meccanismo con il quale le radici delle piante di mangrovia riescono a utilizzare l’acqua salmastra delle lagune costiere, o dei litorali delle coste marine tropicali. All’interno delle radici ci sono membrane che funzionano grazie a speciali proteine (le acquaporine che sono presenti anche nei reni). Funzionano esattamente come le membrane di osmosi inversa, quindi filtrano l’acqua trattenendo all’esterno i sali. Ma per la loro speciale struttura non richiedono però l’applicazione di alte pressioni di esercizio, e anche in questo caso si ottiene un notevole risparmio energetico ed un maggior vita operativa delle cartucce di filtrazione.

La società danese “Acquaporin” ha già messo in commercio cartucce di filtrazione per uso domestico basate su questo principio. Per il futuro pensa ad una applicazione su scala industriale per la dissalazione a costi concorrenziali delle acque marine, da destinare poi all’utilizzo potabile o industriale.

Altra tecnologia applicata alle membrane, in questo caso destinate alla depurazione delle acque reflue, è quella di costruire membrane costituite da migliaia di tubicini in polimetilsilossano (una resina permeabile appartenente alla categoria dei siliconi). In questo modo si ottiene una maggiore efficienza di diffusione dell’aria alla popolazione batterica che dovrà operare le reazioni di biodegradazione.

In particolare membrane di questo genere riescono ad ottenere un’efficienza di trasferimento di aria pari al 50 – 60%, rispetto al 35% dei diffusori a microbolle presenti negli impianti di depurazione tradizionali.

Se si opera con ossigeno puro l’efficienza può arrivare anche al 100%. Con l’adozione di questo tipo di membrane l’energia necessaria per la depurazione di 1 mc di acqua passa da 0.5-0.6 a 0.2 kWh.

I tempi di trattamento sono ridotti del 40%, e la produzione di fanghi di circa 1/3. La produzione di biofilm risulta limitata dalla maggiore efficacia nella diffusione dell’aria o dell’ossigeno, che produce effetti di cavitazione idrodinamica sui fiocchi di fango biologico, e che riduce quindi la deposizione sulle membrane.

La depurazione, e più in generale il trattamento delle acque sta vivendo un momento di rinnovamento e di implementazione di tecnologie che aiutano nella gestione del bene acqua. E questo è un segnale incoraggiante. Ora l’auspicio è che queste tecniche trovino una diffusione generalizzata sia negli impianti di più antica progettazione e realizzazione, che in quelli di nuova costruzione.

Acqua di mare in vendita.

In evidenza

Luigi Campanella, già Presidente SCI

Una recente notizia ci informa circa la messa in vendita da parte di una ditta spagnola (vedi NdP) di acqua di mare ultrafiltrata o alternativamente purificata e rivitalizzata  per ovvii motivi di sicurezza igienica che non sarebbe garantita da acqua di mare non trattata. Nella sua composizione compaiono alte quantità di sostanze minerali come potassio, magnesio, ferro, iodio. Quali le possibili applicazioni di un acquisto di tale genere che ne possono giustificare la commercializzazione?

L’acqua di mare in vendita, “100% naturale” costa come e più dell’acqua minerale.

Innanzitutto gastronomiche utilizzando quest’acqua in luogo di quella corrente per la cottura soprattutto di pesce, ma anche per produrre pane ed originali birre o per essere utilizzata negli alimenti in luogo del sale. Ma non solo: anche salviette rinfrescanti, soluzioni per la pulizia interna delle orecchie proteggendole dalla dannosa presenza di cerume sono applicazioni dell’acqua di mare.

Da chimici è logico porgersi qualche domanda circa la relazione fra le proprietà chimico fisiche dell’acqua di mare ed i suoi usi, ovviamente accettato il principio della necessaria purificazione prima di qualsiasi impiego che la porti a contatto con l’organismo umano.
Vediamo insieme di analizzare questa matrice per capirne anche le potenzialità.

Si tratta innanzitutto di una soluzione matura e stabilizzata quindi capace di rilasciare il soluto senza alcuna resistenza al trasferimento di massa. Essendo poi una soluzione a concentrazione variabile, ma intorno mediamente a 35 g/l essa risulta influenzata dall’effetto sale (se fosse a concentrazione tripla l’effetto prevalente sarebbe quello salatura con risultati completamente diversi); questo effetto comporta un aumento della solubilità in essa di tutte le specie ioniche; inoltre la capacità del sale puro a coordinare l’acqua rappresenta un inconveniente alla sua assunzione diretta – si producono essiccazioni ed indurimenti e, nel caso di assunzioni da parte dell’uomo, aumento della pressione che obbliga gli ipertesi a mangiare sciapito – inconveniente ridotto nel caso dell’impiego di soluzioni che, a parità di quantità di soluto, producono un maggiore effetto sul gusto salato.
Quindi, in questo senso, l’acqua di mare di fatto contribuisce a tenere bassa la pressione sanguigna. Ma l’acqua di mare è anche antibatterica e stimolante del metabolismo; aiuta a respirare meglio e chi soffre di reumatismi , dolori articolari, problemi alla tiroide. Il paese che in passato ha maggiormente sviluppato le applicazioni dell’acqua di mare è stato la Francia; oggi il maggiore consumatore di acqua di mare è il Nicaragua. L’ acqua di mare, resa isotonica,  è molto simile al liquido interno che circonda le nostre cellule; secondo alcuni si può anche usare nelle trasfusioni. E’ il miglior mezzo di coltura: solo in quest’acqua vivono i globuli bianchi (esperimento realizzato 100 anni fa e riprodotto all’Università di Alicante nel 2012).

L’ acqua marina per certi aspetti può essere considerata complementare all’acqua minerale  naturale perché possiede alcuni elementi presenti anche nel nostro organismo, ma non nelle acque minerali ed alcuni microorganismi che vengono rilasciati, che giustificano l’azione antibatterica a cui più sopra si accennava e che inducono alcuni a ritenere che la igienizzazione dell’acqua di mare debba essere un intervento controllato. Tra  i più interessanti benefici dell’acqua di mare c’è anche quello che riguarda il drenaggio dei liquidi, da essa favorito grazie ad un processo di osmosi. Questo spiega perchè fare il bagno in questa acqua regala molti vantaggi sia per la salute della pelle, sia per l’azione vitalizzante e detergente.
Voglio concludere con una riflessione: avremmo un tesoro gratuito, invece lo degradiamo e poi lo ricompriamo a costi improponibili!

Riferimenti
https://www.dazebaonews.it/breaking-news/49168-l-acqua-marina-un-bene-comune-a-costo-zero-dai-vantaggi-incredibili.html

http://web.ua.es/es/actualidad-universitaria/octubre2012/octubre2012-22-28/un-
estudio-de-la-universidad-de-
alicante-revela-que-el-agua-de-mar-activa-el-sistema-inmunologico-y-ejerce-un-efecto-protector-reforzando-el-organismo.html

https://en.wikipedia.org/wiki/Seawater

NdP Esistono parecchi marchi di acqua di mare in Spagna ma anche in altri paesi europei e anche in Italia, con base di estrazione in Sardegna.

Inedito su medicina e omeopatia.

In evidenza

Vincenzo Balzani

Con il consenso dell’autore pubblichiamo un capitolo inedito riguardante la medicina e l’omeopatia.

I confini della Scienza

 

  1. La medicina

La medicina è una delle branche più importanti della scienza, per cui merita una discussione specifica. Si tratta di una scienza un po’ particolare perchè deve agire sull’uomo, che è fatto di corpo e di spirito. Mi limito a discutere il problema dei farmaci tradizionali e dei farmaci omeopatici.

12.1 il nostro corpo

Dal punto di vista puramente materiale (sottolineo: puramente materiale), il nostro corpo è un insieme molto complicato di reazioni chimiche. Addirittura in passato c’era la tendenza a paragonarlo ad una macchina: alimentazione mediante un combustibile, cabina di guida, produzione di energia, lavoro meccanico, scarico dei prodotti di scarto. Come in una macchina, può succedere che un componente non funzioni e allora si sostituisce il pezzo guasto, con un ricambio “originale” (un trapianto) o “non originale” (una protesi).

Abbiamo già visto che il nostro corpo è fatto di scompartimenti, le cellule, che sono molto piccoli, ma che a loro volta contengono tante cose ancor più piccole. Le ricerche di biologia molecolare hanno chiarito infatti che nelle cellule c’è un numero molto grande di dispositivi, congegni, macchine piccolissime, a livello molecolare (cioè, di dimensioni nanometriche) che funzionano mediante reazioni chimiche. Queste reazioni producono movimenti e generano segnali attraverso lo scambio di molecole e ioni. Così, ad esempio, i movimenti macroscopici dei nostri muscoli sono originati da movimenti su scala molecolare di proteine chiamate miosina e kinesina. Queste proteine si muovono sfruttando una reazione chimica, la trasformazione dell’ATP (adenosintrifosfato) in ADP (adenosindifosfato) e Pi (fosfato inorganico). I movimenti molecolari si possono mettere in evidenza con delle tecniche speciali escogitate di recente. L’ATP, che è un po’ il carburante di tutti i muscoli, a sua volta è prodotto da un altra “macchina”, un motore rotante, l’ATP synthase.

12.2 La medicina tradizionale

Vediamo adesso come si può schematizzare, nel modo più semplice possibile, il modo di agire di una medicina (un farmaco). Chiedo ai medici e a chi conosce un po’ questi problemi di scusarmi per le grossolane semplificazioni e approssimazioni, ma il mio scopo è semplicemente quello di mettere in evidenza alcuni aspetti della medicina tradizionale e di quella omeopatica.

I congegni e macchine molecolari che sono all’interno delle cellule hanno bisogno, per funzionare, di certe sostanze chimiche, ad esempio lo ione potassio (K+). Le cellule però sono delimitate da una membrana, una specie di muro che impedisce ai componenti della cellula di disperdersi e impedisce anche che nella cellula entrino componenti indesiderati. Il potassio può entrare solo attraverso opportuni canali molecolari (“porte” molto selettive) che attraversano la membrana. Supponiamo che una cellula sia “ammalata”, cioè funzioni male perché non contiene abbastanza potassio. Dico “supponiamo” perchè non sarà facile capirlo, ma supponiamo che sia vero, che lo si possa stabilire con certezza. Per “guarirla” dovrò farvi entrare più potassio. Vado dal medico che mi dice di mangiare cibi che contengono potassio e poi, sapendo che ben difficilmente cambierò le mie abitudini alimentari, mi prescrive il Polase, un farmaco a base di potassio. Prendo una bustina di Polase al giorno, e dopo una settimana supponiamo che io sia guarito (dico “supponiamo” perché a volte non si guarisce, o almeno non si guarisce subito). Dunque, se sono guarito la spiegazione sembra semplice: 1) sono guarito perché ho preso il Polase che contiene potassio; prendendo il Polase ho fatto entrare più potassio nelle mie cellule, che si sono rimesse a funzionare bene. Questa è la risposta più ovvia. Ma è proprio così? Se non avessi preso il Polase, non sarei guarito? O sarei guarito ugualmente, o addirittura sarei guarito prima? Sono proprio sicuro che nelle cellule non c’era abbastanza potassio perché ne mangiavo poco? Poteva anche essere successo che il canale attraverso cui può entrare il potassio, che è una struttura chimica complicatissima e sensibile ad un gran numero di fattori, si fosse un po’ stretto; in questa ipotesi la guarigione potrebbe essere avvenuta perché, ad un certo punto, a causa di altri fattori sconosciuti, il canale si è allargato nuovamente. In tal caso l’aver ingerito del Polase non mi avrebbe aiutato. Potrebbe anche essere successo che lo ione aspartato (o un altra sostanza secondaria presente nel Polase) abbia agito sulle proteine che costituiscono il canale attraverso cui entra il potassio impedendo al canale, che spontaneamente cercava di riallargarsi, di farlo più in fretta. In questa ipotesi, sarei guarito prima se non avessi preso il Polase; ma anche questo non posso dimostrarlo. C’è, infine, un’altra possibilità. L’uomo è fatto di carne (cioè di materia, di reazioni chimiche), ma anche di psiche: pensieri, immaginazioni, convincimenti e aspettative. Sappiamo tutti che una buona notizia ci fa star bene e che una cattiva notizia ci fa star male, attraverso meccanismi anch’essi basati su reazioni chimiche, ma complessi e del tutto insondabili. Dunque, come quarta ipotesi potrebbe essere successo questo: sono andato dal medico, che mi ha detto che la mia malattia era dovuta alla scarsità di potassio e che prendendo del potassio sarei guarito; mi ha prescritto un farmaco contenente potassio; io, ubbidiente, l’ho preso e sono guarito, ma sono guarito mediante un meccanismo psicologico, perché ho fiducia nel mio medico e so che mi prescrive sempre la medicina giusta. Se è così, sarei guarito anche se nelle bustine del Polase, anziché il potassio, ci fosse stato dello zucchero, o della farina, o qualsiasi altra cosa. E’ quello che in medicina si chiama “effetto placebo””: si crede di prendere la medicina giusta e si guarisce anche se, in realtà, non la si prende. Infatti (e anche qui schematizzo) per capire se un farmaco è efficace, si scelgono cento persone ammalate della stessa malattia e si dà a tutte una pillola uguale nell’aspetto e nel sapore; cinquanta pillole, però, contengono il farmaco, il principio attivo che cura la malattia, mentre le altre cinquanta non lo contengono. Solo il medico sa quali sono i cinquanta pazienti che hanno avuto la pillola “vera” e i cinquanta che hanno avuto la pillola “falsa” (placebo); i pazienti non lo sanno. In questi tipi di esperimenti si trova sempre che guarisce anche un certo numero dei pazienti che hanno preso la pillola “falsa”; guariscono perché il corpo umano in molti casi rimedia da solo, magari aiutato in modo misterioso dall’aspettativa e dalla volontà di guarire. Secondo studi recenti, per i problemi di depressione il placebo ha effetto positivo nell’80% dei casi.

12.3 La medicina omeopatica

Queste considerazioni si collegano direttamente alle cure omeopatiche. I principi fondamentali delle cure omeopatiche sono: 1) il simile cura il simile; 2) maggiore è la diluizione e più efficace è il trattamento; 3) la “succussione” (agitazione violenta) è essenziale per l’efficacia del trattamento. Torniamo all’esempio precedente. In caso di mancanza di potassio, il medico tradizionale prescrive il Polase: in ogni bustina ci sono, come c’è scritto sopra, 450 mg (poco meno di mezzo grammo) di aspartato di potassio. Se vado dall’omeopata, mi prescrive una cura omeopatica di potassio, cioè (anche qui schematizzo), mi fa bere una bottiglina al giorno di acqua contenente, mi dice, piccolissime quantità di potassio. Per curiosità, mi informo su quanto potassio contiene ogni bottiglina. Mi ha detto che ne contiene poco: ma quanto? Nel Polase c’è poco meno di mezzo grammo di aspartato di potassio in ogni bustina, e nella bottiglina della cura omeopatica? C’è scritto 30C. Cosa vuol dire? Vuol dire (ancora schematizzando, ma senza travisare il senso) che chi l’ha preparata ha preso mezzo grammo di aspartato di potassio (l’equivalente di una bustina di Polase) e l’ha sciolto in un litro d’acqua. In questo litro d’acqua c’è mezzo grammo di aspartato di potassio che a conti fatti significa 1022 molecole, cioè diecimila miliardi di miliardi di molecole (“molecola” nel caso dell’ aspartato di potassio non è un termine scientifico del tutto esatto, ma in questo contesto può essere usato per semplicità senza che il significato di quello che voglio dire venga modificato). Poi il preparatore della medicina omeopatica ha cominciato a diluire e a agitare la soluzione. Diluire vuol dire tenere una parte e buttare il resto. Nel caso delle preparazioni omeopatiche si opera con diluizioni 1:100, cioè si butta via 99/100 della soluzione e al rimanente 1/100 viene aggiunto solvente puro, di solito acqua. Dopo la prima diluizione 1:100, la quantità di aspartato di potassio nella bottiglia si è ridotta a 5 mg, e il numero di molecole a 1020, cioè cento miliardi di miliardi. Alla sesta diluizione c’è rimasto ben poco: 5 decimillesimi di miliardesimo di grammo, una cosa invisibile, meno di un millesimo di granellino di Polase, anche se il numero di molecole è ancora alto (10 miliardi). Ecco, alcuni preparati omeopatici hanno queste diluizioni (6C) e si fa fatica a concepire che possano avere un qualche effetto terapeutico. Ma il bello deve ancora venire, perché i preparati omeopatici considerati più potenti sono quelli che si ottengono non diluendo sei volte, ma trenta volte. A questo punto seguiamo come cala non più in numero di grammi, che giunge a frazioni incredibilmente basse, ma il numero di molecole, che all’inizio erano tante. Ebbene, alla decima diluizione rimangono 100 molecole, e all’undicesima ne rimane 1. Se a questo si effettua una ulteriore diluizione 1:100, è molto probabile che la soluzione non contenga più alcuna molecola. Se fossi stato così “fortunato” (1/100 di probabilità) di pescare nella diluizione l’unica molecola di aspartato di potassio ancora presente, questa “fortuna” non potrà continuare nella tredicesima, quattordicesima,….per cui c’è la “certezza” che giunti alla trentesima diluizione nella bottiglia non c’è più neanche una molecola di aspartato di potassio. In conclusione, nella “cura” prescritta dal medico omeopata, di potassio non ce n’è neppure l’ombra. La boccettina contiene solo acqua sbattuta, cioè acqua, acqua schietta. Quindi, quando compro una medicina omeopatica compro acqua pura, che non può avere nessun effetto chimico sul mio organismo. Eppure qualcuno guarisce. Nel caso della cura omeopatica si può certamente escludere quella che era stata la prima e più solida ipotesi della guarigione ottenuta con i metodi tradizionali (ingresso nella cellula di una maggior quantità di potassio) e anche un ipotetico effetto collaterale negativo della cura. Rimangono due casi: sarei guarito lo stesso (la più probabile) oppure sono guarito perché ho creduto nel medico e nella cura che mi ha dato. Di certo, non sono guarito per l’effetto di quella boccetta d’acqua pura sul mio organismo.

“L’efficacia” (quando c’è) delle cure omeopatiche e “l’effetto placebo” dimostrano quanto sia complicato l’organismo umano; dimostrano, se ce ne fosse bisogno, che non siamo solo “carne” e che la medicina non è una scienza “esatta”.

Samuel Hahnemann 1755-1843

12.4 La “memoria” dell’acqua

L’omeopatia va presa così com’è: dal punto di vista chimico e fisico, non ha alcun senso; se va bene, può avere un effetto psicologico. Ma i sostenitori dell’omeopatia, e in particolare quelli che producono e vendono medicine omeopatiche, giurano che queste medicine hanno un’effettiva azione scientifica, “chimica”. Secondo loro c’è proprio a livello scientifico, e non psicologico, una differenza fra l’acqua pura e le loro complicate preparazioni, che come abbiamo visto finiscono per arrivare all’acqua pura ugualmente. Se non ci fosse un fondamento scientifico, come si potrebbero far pagare tanto i farmaci omeopatici? Quindi, risultati scientifici in favore della omeopatia sono necessari per far aumentare il giro di affare.

Ecco che allora di tanto in tanto saltano fuori pubblicazioni (“lavori”) che vorrebbero dare una base scientifica all’omeopatia. Abbiamo già visto che se un lavoro scientifico viene pubblicato su una rivista poco qualificata nessuno lo legge e nessuno se ne cura; abbiamo anche visto che ci sono riviste scientifiche molto serie, che prima di pubblicare un lavoro chiedono il giudizio di esperti. I lavori scientifici che appaiono su queste riviste fanno colpo ed in effetti fece colpo, nel 1988, un lavoro di autori francesi, apparso sulla rivista scientifica più prestigiosa, Nature (volume 333, p. 816), che sostanzialmente dava credito scientifico alle cure omeopatiche.

Questi ricercatori francesi riportarono dei risultati, un po’ complicati da illustrare, che sostanzialmente dimostravano che l’acqua ha “memoria”. Sostenevano, cioè, che se un composto chimico (nell’esempio di prima, l’aspartato di potassio) viene sciolto nell’acqua e poi tolto via tutto con successive diluizioni, ebbene l’acqua , che ormai non lo contiene più, si “ricorda”, per così dire, che prima dentro ad essa c’era quella certa sostanza. Secondo questi ricercatori, rimarrebbe nell’acqua come una “impronta” della sostanza disciolta, e questa impronta conferirebbe all’acqua proprietà diverse da quelle dell’acqua in cui non ho mai sciolto quella sostanza. Molti capirono subito che questi risultati avevano sapore di magia più che di scienza, ma fecero scalpore lo stesso per l’autorevolezza della rivista su cui erano stati pubblicati, il loro possibile significato teorico e, soprattutto, perché avrebbero dato un senso scientifico all’omeopatia. Subito altri ricercatori provarono di ripetere l’esperimento, senza successo, dimostrando anzi che i ricercatori francesi avevano fatto vistosi errori di metodo tanto da rendere completamente infondati i loro risultati. Questa vicenda lascia l’omeopatia senza supporti scientifici e conferma che la scienza riesce a verificare o a smentire la validità dei suoi risultati.

Scienziate che avrebbero potuto aspirare al Premio Nobel: Martha Annie Whiteley (1866-1956)

In evidenza

Rinaldo Cervellati

Martha Annie Whiteley, oltre a essere stata una ricercatrice originale in chimica, fu coautore e editore capo dell’11° volume, 4a edizione dell’importante dizionario britannico Thorpe’s Dictionary of Applied Chemistry e fervente attivista per le pari opportunità delle donne nelle Facoltà di Chimica.

Nata a Hammersmith, un distretto di Londra, l’11 novembre 1866 da genitori del ceto medio, Martha ricevette la sua educazione nella Girls Public Day School Trust[1] (divenuta poi Kensington High School) di Chelsea, una scuola femminile che offriva una buona istruzione scolastica. Sebbene le scienze non fossero considerate discipline adatte per l’istruzione delle ragazze, esse erano incluse nel curriculum di tutte le GPDST [1]. Martha continuò la sua formazione presso il Royal Holloway College for Women, ottenendo nel 1890 il diploma (B.Sc.) in chimica superando gli esami finali all’Università di Londra. Rimase al Royal Holloway College for Women studiando per un altro anno, superando con onore l’esame finale del primo anno di matematica all’Università di Oxford.

Martha A. Whiteley in gioventù

Nel contempo ha lavorato come insegnante prima alla Wimbledon High School e successivamente al St. Gabriel’s Training College; nel 1898 decise di continuare gli studi di chimica, avendo iniziato a lavorare a tempo parziale al Royal College of Science (poi parte dell’Imperial College of London) sotto la guida del professor Sir William Tilden[2]. Ottenne il dottorato in chimica (D.Sc.[3]) nel 1902, discutendo una tesi sulla preparazione e proprietà di ammidi e ossime, l’anno successivo fu invitata da Tilden a far parte del personale docente e riercatore del Royal College of Science.

Martha Annie Whiteley nel 1907

Promossa a dimostratore nel 1908, divenne docente nel 1914, all’età di quarantotto anni. Per quattordici anni, dal 1920 fino al pensionamento nel 1934, ha ricoperto la carica di assistant professor [1,2].

L’interesse di Whitely per la ricerca in chimica organica è evidente fin dal primo dei suoi lavori scientifici pubblicato 7 anni prima del dottorato, riguardante i punti di fusione di miscele di sostanze [3], mentre stava insegnando alla Wimbledon High School. Nell’articolo (in collaborazione con H. Crompton), l’autrice afferma che il lavoro subì molte interruzioni, dovute probabilmente ai suoi impegni didattici.

Le sue prime ricerche, pubblicate nel periodo fino al 1909, riguardarono gli studi intrapresi nel lavoro di tesi su ammidi e ossime di acidi dicarbossilici e ureidi cicliche correlate, compresi i derivati di caffeina e acido barbiturico. Si concentrò in particolare sul problema del tautomerismo nelle ossime, un’area che stava ricevendo considerevole attenzione a quel tempo, e un interesse particolare di Sir Jocelyn Field Thorpe[4].

Sir Jocelyn Field Thorpe

Anche se Whiteley era collega giovane di Thorpe e sua collaboratrice, è chiaro dai suoi scritti che lei aveva un suo indipendente programma di ricerca [2].

Questo aspetto deve essere particolarmente sottolineato perché se da un lato la produzione scientifica di Whiteley comprende solo 10 articoli nell’arco di tempo 1987 – 1927 [4], dall’altro è altrettanto vero che essa figura sempre come autore responsabile della ricerca [1]. In realtà, anche se diverse donne inglesi del tempo di Whiteley sono state più produttive dal punto di vista del numero di pubblicazioni, spesso il loro contributo è stato limitato ad assistere il professore maschio. A parte il lavoro originale di Ida Smedley MacLean[5] in biochimica, Whiteley, è stata probabilmente l’unica a “ritagliarsi” una propria ricerca in una certa area della chimica in una fra le più importanti istituzioni scientifiche e educative come l’Imperial College of London: un risultato notevole per una donna chimico della sua generazione, afferma M. Creese [2].

Allo scoppio della I Guerra Mondiale, i laboratori dell’Imperial College vennero requisiti dal Ministero delle Munizioni, e il personale fu impegnato ad analizzare campioni di bombe e esplosivi raccolti dai campi di battaglia e dalle città bombardate in Inghilterra. Whiteley e il suo gruppo rivolsero la loro attenzione all’analisi e sintesi di gas lacrimogeni e irritanti. Uno di questi, una miscela di etil iodo acetato e etanolo (noto come SK) fu effettivamente utilizzato in battaglia.

Nel 1917, i tedeschi usarono un nuovo gas vescicante, chiamato iprite[6]. I suoi effetti furono drammatici e causarono la perdita di migliaia di alleati anche perché le maschere antigas si mostrarono inefficaci contro di esso. Un piccolo campione di questo gas fu inviato al gruppo di Whiteley. Scrisse Martha:

Naturalmente ho voluto testare questa proprietà applicandomi un piccolo striscio al braccio: per quasi tre mesi ho sofferto grande disagio dalla ferita che si aprì diffondendosi fino al gomito e di cui porto ancora la cicatrice [1].

Durante la guerra il gruppo si occupò anche alla sintesi di farmaci per gli ospedali militari soprattutto fenacetina, novocaina e b-eucaina, fino a prima del 1914 importate proprio dalla Germania.

Inoltre, in assenza di Thorpe, impegnato in guerra, a Marha Whiteley fu assegnata anche la supervisione dell’intero programma di ricerca organica del Dipartimento di chimica dell’Imperial College.

Whiteley ricevette l’Ordine dell’Impero Britannico (OBE) nel 1920 per il suo contributo durante la guerra, ma il suo trattamento economico rimase invariato (300 £ annue), al contrario di quello dei colleghi maschi che ottennero fino anche al raddoppio dello stipendio.

Tuttavia, nello stesso anno, Whiteley, caduta la pregiudiziale misogina, fu eletta membro della Chemical Society (FRSC[7]), una fra le prime donne a esservi ammessa.

Certificato di candidatura e elezione di Martha Whiteley alla Chemical Society

Nel 1925 fu pubblicata la prima edizione del Manual of Organic Chemical Analysis: Qualitative and Quantitative (con J.F. Thorpe coautore), l’opera ebbe origine dall’esperienza accumulata da Whiteley in venti anni di insegnamento nei laboratori didattici e di ricerca in chimica organica dell’Imperial College, essa diresse anche il corso avanzato per studenti del dottorato. Il manuale (241 pagine) era talmente completo e aggiornato che soltanto due anni dopo si rese necessaria una ristampa.

Anche a causa della sua pluridecennale esperienza nell’insegnamento, dalle high schools ai Colleges, Martha Whiteley fu un’eccellente didatta, ricordata da studenti e giovani colleghi come punto di riferimento e fonte di ispirazione. R. Nicholson e J. Nicholson [1], fanno notare che a quei tempi, il Dipartimento di Chimica aveva più dottorandi femmine di qualsiasi altro Dipartimento dell’Imperial College, il che suggerisce che la figura di Martha Whiteley attirava più studentesse a fare ricerca sotto la sua guida.

Occorre poi menzionare il suo impegno nella compilazione del Dictionary of Applied Chemistry.

Il Dictionay fu originariamente compilato da Thomas Edward Thorpe[8] e pubblicato per la prima volta nel 1890. Whiteley fu coinvolta nella preparazione di alcuni dei volumi della seconda edizione e, quando fu programmata una terza edizione, fu invitata a modificarlo e aggiornarlo in collaborazione con J.F. Thorpe. Ciò comportò per Whiteley non solo doveri editoriali, ma anche la scrittura di diverse voci. Ha continuato con questo lavoro dopo il suo pensionamento dall’Imperial College. Dopo la morte di J. F.Thorpe nel 1940, assunse il ruolo di redattore capo del Dictionary, l’ultimo volume su cui lavorò apparve nel 1954.

Martha Whiteley ha svolto un ruolo significativo nella lunga battaglia per assicurare l’ammissione delle donne alla Chemical Society. Nel 1904, Whiteley fu una delle 19 donne chimico che presentarono una petizione per ammettere le donne nella associazione. La petizione fu ignorata. Nel 1908 successe un fatto più grave. I membri della Società votarono in maggioranza per l’accesso alle donne, ma le manipolazioni del segretario misogino della Società, Henry Armstrong, assicurarono che le donne non fossero realmente ammesse. Quello che successe fu riportato dalla rivista Nature come segue:

“… un elemento contumace e recalcitrante in minoranza ..[impostandosi] per contrastare i desideri della maggioranza … “[5]

Questa azione vergognosa significò che occorse aspettare fino al 1920 quando, come immediata conseguenza della legge sulla rimozione della pregiudiziale sessuale del 1919, le donne furono finalmente autorizzate a diventare membri della Royal Chemical Society e Martha Whiteley è stata, come ricordato, una delle prime.

Martha Whiteley morì il 24 maggio 1956, alle soglie del novantesimo anno di età, non molto tempo dopo aver visto il completamento della revisione del Dictionary.

Bibliografia

[1]R.M. Nicholson, J.W. Nicholson, Martha Whiteley of Imperial College, London: A Pioneering Woman Chemist., J. Chem Educ., 2012, 89, 598−601-

[2]M.R.S. Creese, Martha Annie Whiteley (1866-1956): Chemist and Editor., Bull. Hist. Chem. 1977, 20, 42-45.

[3]H. Crompton, M.A. Whiteley, The melting point of mixtures., J. Chem. Soc., Trans., 1895, 67, 327−337.

[4] Gli articoli scientifici di Whiteley sono citati in [1] rifs. (8)-(14) e in [2] rif. 3.

[5] Editor. Women and the Fellowship of the Chemical Society., Nature 1909, 79, 429−431.

[1] Nel 1871, le sorelle Maria e Emily Shireff fondarono in Gran Bretagna l’ “Unione Nazionale per il miglioramento dell’istruzione delle donne di tutte le classi”, con lo scopo principale di “promuovere l’istituzione di scuole diurne buone ed economiche per tutte le classi ” Per raccogliere sovvenzioni, l’Unione fondò una Società denominata la ‘Girls Public Day School Company (dal 1905 Girls Day Public School Trust, GPDST). Entro il 1905 furono istituite 37 scuole della GPDST, note come “high schools”, attirando un insieme di classi sociali a causa delle loro tasse relativamente basse. Dimostrando gli effetti positivi dell’istruzione delle ragazze, contribuirono enormemente al cambiamento delle istituzioni scolastiche britanniche [1].

2 Sir William Augustus Tilden (1842 -1926), chimico britannico. Scoprì che l’isoprene poteva essere ottenuto dalla trementina, ma non riuscì a trasformare questa scoperta in modo tale da produrre gomma sintetica commercialmente conveniente.

[3]All’epoca, in Inghilterra non esisteva ancora il titolo Ph.D. (Philosophy Doctor), l’equivalente era appunto D.Sc., Doctor of Science [1].

[4] Jocelyn Field Thorpe (Sir) (1872-1940), chimico inglese che ha scoperto la reazione che porta il suo nome e l’effetto Thorpe-Ingold.

[5] Ida Smedley Maclean (1877-1944), un biochimico inglese, considerata la prima donna ammessa alla Chemical Society. Particolarmente nota per i suoi studi sulla sintesi degli acidi grassi dai carboidrati.

[6] Nota anche come gas mostarda per il suo cattivo odore di senape e aglio, l’iprite (solfuro di 2,2’ diclorodietile) fu messa al bando dal Protocollo di Ginevra del 1925 insieme a tutte le armi chimiche…

[7] Fellows of the Royal Society of Chemistry (FRSC) è un titolo onorifico che viene assegnato dai giudici della Società a persone che “hanno fornito un importante contributo al progresso delle scienze chimiche”. Istituita nel 1840 come Chemical Society si è fusa nel 1980 con il Royal Institute of Chemistry, la Faraday Society e la Society for Analytical Chemistry nella Royal Society of Chemistry.

[8] Thomas Edward Thorpe (Sir) (1845-1925), chimico britannico, ha fatto ricerche in svariati campi della chimica. Professore al Royal College, è stato membro della Commissione Internazionale sui Pesi Atomici.

Equilibrio delle risorse.

In evidenza

Luigi Campanella, già Presidente SCI

Più volte anche in questo blog si è parlato dell’oro blù, l’acqua raccomandandone l’utilizzo responsabile e la disponibilità crescente. E’altrettanto vero che spesso abbiamo affrontato il tema dei cambiamenti climatici e delle bombe d’acqua che spesso li caratterizzano.

Due facce della stessa medaglia:mancanze ed eccessi della stessa preziosa sostanza, che ci obbligano a riflettere sulla mancata capacità dell’uomo a convogliare in misura equilibrata le risorse naturali. Ora però giunge un nuovo allarme: le bombe d’acqua non sono sufficienti, proprio per la loro disomogenea distribuzione nel tempo e nello spazio, per garantire all’agricoltura la necessaria contribuzione alle risorse alimentari. Così in Svizzera, un paese a noi così vicino, portano con gli  elicotteri l’acqua ai campi aridi ed in Austria e Germania i tempi della vendemmia sono stati anticipati proprio per l’aridità. Il problema è comunque planetario: in Argentina della caduta del PIL è responsabilizzata la ridotta produzione agricola correlata alla siccità, in Australia si sta attraversando una  crisi idrica senza precedenti, in Sud Africa cercano soluzioni tecniche per una  crescente aridità e fra quelle offerte dai  consulenti colpisce quella di trasportare un iceberg dall’Atlantide del peso di 500  mila tonnellate. La difficoltà principale della proposta è stata  individuata nella forma dell’iceberg che possa garantirne la stabilità durante il trasporto. L’idea è merito del capitano Nick Sloane, lo stesso  che ebbe  l’incarico del recupero del relitto dellaCosta Concordia all’isola del Giglio.

(http://www.dire.it/03-07-2018/217574-sudafrica-iceberg-polo-sud-siccita-nick-sloane/)

Riflettendo però si deve concludere che l’idea non è poi così nuova: le piattaforme petrolifere temono gll iceberg e quando li hanno vicini provvedono al loro spostamento,anche se si tratta di dimensioni  minori. Tornando al Sudafrica c’è anche da affrontare la conservazione dell’iceberg trasportato e la sua fusione modulata e modellata, ma da quanto   viene comunicato sembra che siano disponibili soluzioni per entrambi i problemi. Quanto fin qui detto ci fa riflettere sulle ripetute similitudini  circa il valore prezioso dell’ energia rinnovabile e dell’acqua: la ragione prima di tale preziosità è probabilmente da attribuire alla difficoltà di accumulo; gli eccessi non sono utilizzati per  coprire le carenze. Forse una delle sfide del futuro prossimo è proprio nelle tecnologie di accumulo che consentano una distribuzione equilibrata delle risorse nel tempo e nello spazio.

C’era una volta l’EPA…

In evidenza

Claudio Della Volpe

Abbiamo già affrontato in precedenti post (nei riferimenti) gli effetti dell’arrivo al potere in USA di Donald Trump, e delle forze politiche che rappresenta, con risvolti enormi sulla scienza e la tecnologia e sul controllo degli effetti di queste sulla società; si tratta di un argomento che ormai è di carattere mondiale; anche da noi la questione vaccini pone all’ordine del giorno il rapporto fra la scienza e la democrazia e l’esistenza di forze sociali che, nella loro spinta a ribellarsi ad un modo di produrre insostenibile, potrebbero stravolgere l’ossatura stessa della società.

Si tratta di una contraddizione che ci riguarda; la scienza, lo abbiamo detto altre volte, DEVE prendere posizione sulla insostenibilità del modo di produrre attuale e dei guasti che comporta per il pianeta e per la stessa società umana; ma senza rinnegare se stessa e i suoi metodi. La Scienza deve schierarsi e stare dalla parte dei più deboli.

Uno dei motivi del rifiuto della Scienza da parte di masse crescenti di persone sta nell’apparente identità fra questo modo di produrre insostenibile e la applicazione della Scienza, che viene vista come parte dell’apparato sociale opprimente che non mantiene, almeno non per la grande maggioranza delle persone, le promesse mirabolanti che fa.

E questo è il punto.

Appena arrivato al potere Donald Trump ha iniziato a smontare sistematicamente quei meccanismi sociali di controllo basati sulla Scienza; non mi riferisco qui solo alla sua volontà di disdire l’accordo di Parigi sul clima, ma allo smontaggio sistematico di quell’ enorme apparato di controllo costituito da EPA: Environmental Protection Agency.

EPA è un acronimo che quasi tutti i chimici conoscono; agenzia fondata nel 1970 da un presidente insospettabile, Richard Nixon, è guidata da un amministratore, che è nominato dal Presidente e confermato con un voto del Congresso. Pur non essendo un ministero il suo dirigente ha un ruolo analogo.

Durante la presidenza Trump questo ruolo è stato ricoperto dal 17 febbraio 2017 da Scott Pruitt e dopo le sue dimissioni, dovute a un grave caso di corruzione nell’ Ottobre 2017, è stato nominato dal luglio 2018, Andrew R. Wheeler, suo vice, un avvocato americano che aveva rappresentato prima il magnate del carbone Robert E. Murray e aveva lavorato come lobbista contro le leggi dell’amministrazione Obama in materia ambientale e come assistente del senatore James Inhofe, nella battaglia per rifiutare le modifiche e gli accordi legati al climate change. Ovviamente Wheeler è critico dei limiti di emissione stabiliti da IPCC.

EPA per quasi 50 anni è stata il simbolo mondiale del controllo ambientale pubblicando migliaia di documenti e sviluppando migliaia di metodi di analisi e controllo ambientale.

EPA è l’equivalente delle nostre agenzie provinciali e regionali per l’ambiente, dell’attuale Agenzia Nazionale, ma ne rappresenta in un certo senso l’antesignano, il punto di riferimento.

Ma le cose stanno cambiando velocemente.

A parte il ruolo apicale di Wheeler e Pruitt (in carica per poco più di un anno, Pruitt è coinvolto in una decina di indagini sulla sua condotta a capo dell’EPA, sulle spese personali fatte con fondi di EPA e dove ha dimostrato di avere posizioni in contrasto con le responsabilità della sua agenzia, soprattutto per quanto riguarda la tutela dell’ambiente e la riduzione delle sostanze inquinanti prodotte dalle attività umane. Pruitt in questi mesi era stato molto criticato da ricercatori e scienziati per avere ridotto fondi e risorse a diversi comitati dell’EPA, impegnati nella ricerca e nel fornire consulenze nell’agenzia.) un ruolo fondamentale lo sta svolgendo un altro personaggio che ha sempre lavorato dall’altra parte della barricata e alla quale avevamo già accennato (Le battaglie della Chimica, C. Della Volpe, LA CHIMICA E L’INDUSTRIA online | ANNO I | N° 5 | SETTEMBRE/OTTOBRE 2017). Si tratta di Nancy B. Beck, che, dopo essere stata per i precedenti 5 anni una dirigente dell’American Chemistry Council, l’equivalente della Federchimica italiana, è stata nominata come responsabile della sezione dell’EPA che si occupa di sostanze tossiche. I dettagli della storia li potete trovare sul NYT , ma l’essenziale ve lo riassumo io: smontare le regole di salvaguardia ambientale costruite faticosamente in USA negli ultimi decenni.

L’amministrazione Trump sta percorrendo a ritroso la via che il governo federale precedente aveva stabilito per la determinazione della tossicità dei prodotti di sintesi più importanti. Durante l’ultimo anno della presidenza Obama EPA aveva avuto la richiesta di valutare per la prima volta centinaia di prodotti di sintesi potenzialmente tossici e concludere se occorressero restrizioni o perfino il loro ritiro dal mercato. Si tratta dell’aggiornamento della TSCA ossia della Toxic Substances Control Act. La nuova legge , passata all’epoca in modo bipartisan alla Camera dei Rappresentanti e al Senato, impone:

-Mandatory requirement for EPA to evaluate existing chemicals with clear and enforceable deadlines;

-Risk-based chemical assessments;

-Increased public transparency for chemical information; and

-Consistent source of funding for EPA to carry out the responsibilities under the new law.

E fra le sostanze incluse ci sono ovviamente molte sostanze di uso comune come i solventi per le lavanderie a secco, per la sverniciatura e altre sostanze usate negli shampoo e nei cosmetici. L’EPA nello svolgere questo compito nella nuova era Trump ha deciso di escludere dai conti le potenziali esposizioni causate dalla presenza delle sostanze in questione nell’aria, nel suolo e nell’acqua. E si è invece focalizzata solo sui possibili danni che si hanno per contatto diretto sul posto di lavoro o altrove.

Questo approccio esclude per esempio lo smaltimento scorretto che porta alla contaminazione delle falde e tutti i casi analoghi. Questa scelta è stata una grande vittoria dell’industria chimica che ha fatto enormi pressioni su EPA per restringere la valutazione del rischio.

Tutto il “merito” è della signora Beck.

.

L’ultimo punto, il più sconvolgente di tutta questa vicenda riguarda l’amianto.

Gli USA sono sempre stati restii a fare la scelta che ha fatto per esempio il nostro paese, che ha escluso l’amianto da ogni tipo di applicazione e che obbliga alla sua sostituzione.

Negli USA la situazione è più “clemente”.

Come mai l’amianto non è già vietato negli Stati Uniti?

L’amianto è considerato insieme con i “grassi trans” e raggi UV come una entità oggettivamente dannosa. E per una buona ragione. L’esposizione all’amianto, caratterizzata dall’inalazione di fibre di amianto che si trovano più comunemente nei materiali da costruzione, è legata a condizioni di salute molto negative come l’infiammazione polmonare e il cancro. Secondo il National Cancer Institute: l’amianto è stato classificato come cancerogeno acclarato per l’uomo (una sostanza che causa il cancro) dal Dipartimento della Salute e dei Servizi Umani (HHS), dall’Agenzia per la protezione ambientale degli Stati Uniti (EPA) e dall’Agenzia internazionale per la ricerca sul cancro (IARC). Secondo la IARC, vi sono prove sufficienti del fatto che l’amianto causa il mesotelioma (un tumore relativamente raro delle membrane sottili che rivestono il torace e l’addome), e tumori del polmone, della laringe e dell’ovaio. Sebbene raro, il mesotelioma è la forma più comune di cancro associata all’esposizione all’amianto. Esistono prove limitate del fatto che l’esposizione all’amianto è legata ad un aumentato rischio di tumori dello stomaco, della faringe e del colon-retto.

Nonostante sia un cancerogeno riconosciuto bandito in oltre 60 paesi del mondo gli Stati Uniti, il paese più potente del mondo, sempre all’avanguardia in tutto hanno faticato a implementare un proprio esplicito divieto di uso dell’amianto.

Essenzialmente è successo questo: nel 1976 la legge, la Toxic Substances Control Act (TSCA) diede all’EPA l’autorità di controllare l’uso delle sostanze chimiche tossiche come l’asbesto; nel 1989 il regolamento per il bando dell’uso e l’esclusione dell’asbesto sarebbe stata in grado di risolvere il problema. Ma un appello giudiziario nel 1991 ha stabilito che il divieto sarebbe stato troppo gravoso, una violazione del TSCA e ha limitato la regola ai soli nuovi usi dell’amianto

Nel corso degli anni, è chiaro che non sono stati compiuti molti progressi verso l’effettiva messa al bando. Tutte queste leggi e altre normative sull’amianto adottate nel corso degli anni hanno contribuito a contenere la presenza di amianto, ma non ad eliminarla. La realtà è che milioni di americani sono ancora esposti all’amianto oggi. A causa della natura delle malattie da amianto, ci vogliono decenni dopo l’esposizione per mostrare i sintomi. Stime dicono che almeno 20 milioni di americani svilupperanno il mesotelioma nel corso della loro vita.

Dicono i movimenti popolari contro l’amianto:

Sarebbe inesatto dire che l’amianto è illegale negli Stati Uniti – solo che la restrizione sui nuovi prodotti di amianto in corso da quasi trent’anni ora ha indubbiamente forzato i produttori a capire le alternative.

Ma sfortunatamente in questi giorni, l’EPA entrerà nella parte finale del percorso regolamentare per l’approvazione di una cosiddetta “nuova regola” che permetterà ai produttori di usare l’asbesto in nuovi prodotti, anche se dopo un controllo dell’EPA. Se una regola del genere venisse implementata questa significant new use rule (SNUR) potrebbe reintrodurre l’uso dell’asbesto nei nuovi materiali da costruzione, sconvolgendo la regolamentazione che impedisce “nuovi usi” dell’amianto.

Lo SNUR espanderebbe, non limiterebbe, l’uso dell’amianto I sostenitori dell’ambiente sostengono che lo SNUR dell’EPA annullerebbe decenni di regolamenti. “Il risultato finale sarà una valutazione del rischio gravemente inadeguata che non affronta i maggiori contributori al pesante e crescente bilancio della mortalità e della malattia dell’amianto negli Stati Uniti“, afferma Linda Reinstein, presidente dell’Associazione per la consapevolezza delle malattie dell’amianto, in una dichiarazione rilasciata nel mese di giugno. “Secondo l’EPA, lo SNUR” richiederebbe ai produttori e agli importatori di ricevere l’approvazione EPA prima di iniziare o riprendere la produzione e l’importazione o la trasformazione dell’amianto “. Tuttavia, il modo migliore per prevenire nuovi usi è quello di avere un divieto totale di amianto negli Stati Uniti “. “Non c’è bisogno di uno SNUR di amianto, infatti le sue disposizioni sono controproducenti per la protezione contro i rischi per la salute derivanti dall’esposizione all’amianto

Il presidente Trump ha le idee molto chiare a riguardo; il Washington Post riporta che:

Nel suo libro del 1997, L’arte del ritorno, Trump sosteneva che l’associazione della sostanza chimica con i rischi per la salute era parte di una cospirazione creata dalla mafia. “Credo che il movimento contro l’amianto sia stato guidato dalla mafia, perché spesso le società legate alla mafia facevano la rimozione dell’amianto. Grande pressione è stata messa sui politici e, come al solito, i politici hanno ceduto “, ha scritto

.

(https://www.huffingtonpost.com/entry/donald-trump-and-the-art-of-asbestos_us_581b2e4ee4b0570d6d6f0c1d?guccounter=1)

Vi ricorda qualcosa? Qualche altra cospirazione che abbiamo sentito in Italia: scie chimiche, vaccini?

E infine un’altra cosa che fra il serio e il faceto dà il segno della amministrazione Trump.

Sul sito FB del principale produttore mondiale di asbesto, una società russa (Uralasbest) che gestisce una enorme miniera di asbesto potete vedere il seguente post.

https://www.facebook.com/Uralasbest/posts/531137150617873

La Uralasbest si fa pubblicità apponendo sui proprii sacchi di asbesto un marchio dove si legge: ” approvato da Donald Trump, il 45° Presidente degli Stati Uniti

Ecco questo è quel che succede quando la Scienza incontra una politica scorretta; d’altronde in passato abbiamo dovuto fronteggiare comportamenti diversi ma analoghi, sempre col fine di nascondere, mettere sotto il tappeto, negare i danni che una chimica scorretta può comportare; speravamo di aver trovato ed ottenuto attraverso “il progresso”, ossia la lotta del movimento popolare ed ambientalista delle regole, delle istituzioni che difendessero le nostre vite e l’ambiente; ma come per altri risultati della lotta per una società veramente democratica: lavoro, pensione, assistenza sanitaria pubblica, scuola pubblica, tasse progressive nulla è per sempre; solo un continuo e costante atteggiamento di controllo sociale e di lotta può garantirci i diritti “acquisiti”.

E attenzione chimici, nemmeno la democrazia è acquisita.

Riferimenti.

https://ilblogdellasci.wordpress.com/2017/03/13/briscole-tromboni-e-trombette/

https://ilblogdellasci.wordpress.com/2016/11/11/chimica-e-nuovo-presidente/

http://digg.com/2018/epa-asbestos-trump

https://www.nytimes.com/2018/06/07/us/politics/epa-toxic-chemicals.html

https://www.huffingtonpost.com/entry/donald-trump-and-the-art-of-asbestos_us_581b2e4ee4b0570d6d6f0c1d?guccounter=1

Minimizzare il fango di supero

In evidenza

Mauro Icardi

Il trattamento di ossidazione biologica consiste nella biodegradazione da parte di microrganismi di tutte le sostanze organiche presenti nell’acqua da depurare, fino a trasformarle in sostanze più semplici e innocue dal punto di vista ambientale. Questo trattamento riproduce artificialmente l’autodepurazione naturalmente presente nei corsi d’acqua, mantenendo condizioni il più possibile ottimali per concentrare e accelerare il processo in atto. Tipicamente mantenendo per esempio un tenore di ossigeno disciolto intorno a 2 mg/lt. Durante questa fase avvengono numerosissime reazioni di biodegradazione della materia organica, dove sostanze organiche complesse vengono convertite in sostanze inorganiche più semplici, quali: CO2, H2O, NH4+, NO2 NO3. Dopo un certo tempo di permanenza in questa vasca, opportuno per la degradazione delle sostanze organiche e per la nitrificazione dello ione ammonio a nitrato, il fango viene inviato a un sedimentatore secondario che separa il fango attivo (contenente i microorganismi attuanti la depurazione biologica) dal refluo chiarificato ovvero l’acqua che ha subito il processo depurativo biologico. I fanghi originati dalla depurazione delle acque, in particolare dalla sedimentazione primaria, e dallo spurgo della vasca di ossidazione vengono, ispessiti e poi sottoposti a trattamenti che ne diminuiscano ulteriormente il tenore in sostanza organica.

Sono state sviluppate tecniche tendenti a ridurre la quantità di fango di supero,( a volte indicato come fango di spurgo) da inviare al successivo trattamento fanghi. In particolare il trattamento di lisi dei fiocchi di fango si sta affermando nel settore del trattamento acque reflue. Il processo newlisi messo a punto e brevettato dall’omonima azienda di Paliano in provincia di Frosinone consiste nell’idrolisi termochimica del fango di supero. Il processo viene condotto alla temperatura di 90 ° C e a pressione atmosferica. In questo modo il carbonio organico viene ossidato a CO2, e successivamente la frazione organica residua viene trasformata in peptoni, oligosaccaridi e aminoacidi liberi.

Il fango così trattato possiede un biodegradabilità praticamente totale. A questo punto, dopo un processo di filtrazione o in alternativa di sedimentazione, il fango trattato (l’eluato in buona sostanza) può essere ricircolato in testa all’impianto di depurazione (tipicamente a monte dell’ossidazione biologica), oppure negli impianti dotati di fase di digestione anaerobica, caricato allo stesso digestore. Nel processo di digestione, trattandosi di biomassa solubilizzata vengono ridotti i tempi di ritenzione, in quanto i batteri metanigeni non devono più idrolizzare essi stessi la sostanza organica dei fanghi per poterla rendere disponibile per le loro esigenze nutritive e di accrescimento.

Il processo è coperto da brevetto, ma giova ricordare che è stato messo a punto in collaborazione con l’IRSA CNR di Roma. Facendo una rapida ricerca su Internet, ho potuto vedere che diverse società di gestione hanno adottato tale sistema, l’Acea di Roma, la SEITO di Siena, e l’acquedotto pugliese. E facendo ricerche in rete, si possono trovare altri processi simili a questo, di altre aziende.

Il trattamento di idrolisi termica dei fanghi costituisce decisamente una tecnica che occorrerebbe estendere in maniera generalizzata, soprattutto su quegli impianti che sono stati progettati a metà anni 70, contestualmente al grande sviluppo impiantistico seguito alla promulgazione della legge Merli.

Il depuratore tradizionale è destinato ad essere modificato sostanzialmente. E in questo caso le sinergie hanno coinvolto società di gestione, enti di ricerca, e l’azienda che ha sviluppato questo sistema brevettandolo. Sistema che è un esempio concreto di applicazione della chimica verde.

Per chiudere, qualche numero, che è sempre fondamentale ed esplicativo.

Acea ha dichiarato una riduzione di fango da smaltire pari al 70%, passando da 4700 tonnellate anno, a 1500. Questo significa meno fango, meno autocarri che lo trasportano. Con benefici ambientali, sociali ed economici. Primi passi verso la trasformazione dei depuratori in vere e proprie fabbriche di ripulitura dell’acqua, con l’applicazione di nuove tecniche, ormai mature, che non sostituiranno in toto quelle tradizionali, ma le completeranno.

Ascoltare la Scienza: l’incidente di Bologna e la transizione energetica

In evidenza

Autori vari.

Riceviamo da Vincenzo Balzani e volentieri pubblichiamo.

L’energia è la risorsa più importante. L’ambiente, la Terra, la nostra “casa comune” è il luogo dove dobbiamo vivere. Energia e ambiente sono quindi strettamente connessi. Oggi al mondo, ogni secondo, consumiamo 250 tonnellate di carbone, 1000 barili di petrolio e 105.000 metri cubi di gas. Sappiamo da tempo che i combustibili fossili sono una risorsa non rinnovabile e che il loro uso danneggia la salute dell’uomo. Sappiamo anche che si tratta di sostanze con alto contenuto di energia, pericolose da trattare e da trasportare: il grave incidente del 6 agosto a Bologna non è che l’ultimo di una serie di disastri che hanno coinvolto petroliere, oleodotti, gasdotti, raffinerie, depositi. La scienza negli ultimi decenni ha scoperto che l’anidride carbonica prodotta dall’uso di questa sterminata quantità di combustibili fossili e immessa nell’atmosfera (36 miliardi di tonnellate all’anno) provoca il cambiamento climatico. Nella Conferenza COP 21 di Parigi, le delegazioni di 197 nazioni hanno concordemente riconosciuto che il cambiamento climatico è la minaccia più grave per l’umanità. L’unica soluzione per uscire dalla crisi energetico-climatica è smettere di usare i combustibili fossili. Purtroppo, come scrive il papa nell’enciclica Laudato sì, “La politica e l’industria rispondono con lentezza, lontane dall’essere all’altezza delle sfide”. La transizione energetica è ineluttabile, è già iniziata, ma è fortemente ostacolata dai giganteschi interessi economici della lobby del petrolio, che insiste nel definire immature e non affidabili le energie rinnovabili del sole, del vento e della pioggia, che producono energia elettrica. La scienza dimostra invece che la transizione dai combustibili fossili alla elettricità prodotta dalle rinnovabili è tecnicamente possibile e economicamente conveniente.

Alla nostra Scuola della Pace di Sovere, proprio nel giorno dell’incidente di Bologna, stavamo discutendo di questo problema. In particolare, abbiamo approfondito il piano WWS (water, wind, sun) proposto da scienziati delle Università di Berkeley, Stanford e Berlino. Il piano esamina in dettaglio la situazione di 139 stati del mondo. Per ciascun paese analizza i consumi energetici e la disponibilità di risorse rinnovabili per generare elettricità e propone per ogni paese un piano specifico, tenendo conto della disponibilità di sole, vento, acqua, suolo, tetti, materie prime e situazioni particolari. Per l’Italia, l’analisi dettagliata dello studio WWS si può riassumere con i seguenti dati.

Se decideremo di accelerare la transizione, nel 2050 useremo solo energia elettrica generata da fotovoltaico (56,7%); eolico (26,3%); solare a concentrazione (11,3%); idroelettrico (4,9%); geotermico (0.6%). Dal punto di vista economico, si avrà un risparmio di 382 $/persona/anno sul costo dell’elettricità e un risparmio sui costi dei danni causati da inquinamento e cambiamento climatico per una media di 7.700 $/persona/anno. Si eviterà la morte prematura per inquinamento, in media, di circa 20.000 persone all’anno. Verranno perduti circa 160.000 posti di lavoro nei settori dei combustibili fossili, ma si creeranno circa 300.000 nuovi posti di lavoro permanenti per attività di costruzione e 350.000 per attività di gestione delle energie rinnovabili con un saldo positivo di circa 500.000 posti. Un altro vantaggio è che l’energia viaggerà su fili e non sulle autostrade. Lo studio conclude dicendo che la transizione energetica, pur essendo tecnicamente possibile ed economicamente conveniente, troverà ostacoli di tipo sociale e politico. Si tratta infatti, come dice papa Francesco, di una “rivoluzione culturale” per la quale non siamo ancora preparati.

Ecco: chiediamo che l’incidente di Bologna sia almeno occasione per diffondere conoscenza e consapevolezza, sia a livello politico che fra i cittadini, sulla necessità di promuovere la transizione energetica.

Questa, fra tante di cui si parla in questi giorni, è veramente la “Grande Opera” di cui il Paese ha più bisogno.

A nome dei partecipanti alla scuola della pace organizzata dalle parrocchie della Dozza (Bologna) e Sammartini (Crevalcore). don Giovanni Nicolini, don Giancarlo Giuseppe Scimè, don Francesco Scimè

Due donne nella storia della chimica russa.

In evidenza

Rinaldo Cervellati

Titolo completo: Due donne nella storia della chimica russa: Nadezhda Olimpievna Ziber-Shumova (1854[1]56[2] – 1914216[3]) e Anna Fedorovna Volkova (? – 1876)

Insieme a Julia Lermontova (di cui abbiamo parlato nel precedente post) sono le tre donne che hanno contribuito alla “golden age” della scienza russa nella seconda metà del XIX secolo[4] per quanto riguarda la chimica.

Nadezhda Olimpievna Ziber-Shumova nacque a Kuybyshev (dal 1991 Samara), sesta città russa per estensione, capoluogo del distretto federale di Samara Oblast (ex sovietico Kuybyshev oblast).

A San Pietroburgo seguì le lezioni dei chimici Egor Vagner, Dmitri Mendeleev e A. Butlerov e del botanico A. Famincin. Nel 1872, già sposata con Nikolai Ziber (uno dei primi economisti marxisti russi), si trasferì con lui in Svizzera, a Zurigo senza tuttavia essere formalmente iscritta in quella università. Successivamente continuò i suoi studi presso l’Università di Berna, una delle istituzioni in cui le studentesse di Zurigo si dispersero nel 1873 dopo aver ricevuto l’ordine dal governo zarista di tornare in patria (v. nota 4).

Nadezhda O. Ziber-Shumova

Nel 1877 si unì al gruppo di ricerca guidato dal polacco Marceli Nencki[5], direttore del Dipartimento biochimico dell’Università di Berna e pioniere nell’approccio chimico allo studio dei microrganismi.

Marceli Nencki

La loro collaborazione durò fino alla morte di Nencki ventitré anni dopo [1]. Ottiene il dottorato in medicina nel 1880 [2].

Tra la fine degli anni ’70 e l’inizio del XX secolo, è autrice o co-autrice di oltre trenta articoli su una varietà di argomenti biochimici, tra cui ossidazione in vivo, fermentazione batterica e processi di decomposizione, studi enzimatici e idrolisi zuccherina, nonché studi chimici di base, come l’acilazione di fenoli catalizzata con ZnCl2 (nota come”reazione di Nencki). Per questo è considerata la più produttiva fra le donne che all’epoca facevano ricerche in chimica [1].

Il suo contributo iniziale più importante furono probabilmente i suoi lavori sulla costituzione del pigmento dell’emoglobina [3], parte di una lunga serie di indagini sistematiche sui prodotti di degradazione dell’emoglobina, condotti da Nencki e dai suoi collaboratori per molti anni. Integrati con il lavoro di Leon Marchlewski sulla clorofilla, questi studi portarono Nencki a formulare l’ipotesi sulla relazione chimica tra regno vegetale e regno animale (v. nota 5).

Nencki lasciò Berna nel 1891 per partecipare all’organizzazione del nuovo Istituto Imperiale di Medicina Sperimentale (IIEM) a San Pietroburgo, dove divenne direttore dell’Istituto di Chimica.

Biblioteca dell’Istituto di Medicina Sperimentale a San Pietroburgo

Ziber-Shumova si unì allo staff dell’istituto, insieme a Szymon Dzierzgowski e Martin Hahn, come collaboratori senior di Nencki.

Durante le ricorrenti carestie e le epidemie che devastarono la Russia negli anni Novanta dell’Ottocento, i ricercatori medici russi compirono notevoli sforzi nel campo della sanità pubblica e dei servizi igienico-sanitari per apportare miglioramenti e fornire assistenza nelle zone colpite. Le misure adottate includevano l’organizzazione di cliniche e unità di osservazione sul campo. Nencki, Ziber-Shumova e Dzierzgowski parteciparono attivamente a questo lavoro. Nel 1892 diedero importanti contributi, incluse ampie osservazioni sul campo, durante un’epidemia di colera. La loro ricerca di una fonte di antisettici facilmente accessibili portò a un’indagine dettagliata sulla composizione chimica di estratti di pino e all’esame delle loro proprietà disinfettanti. Più tardi pubblicarono una quantità considerevole di lavoro batteriologico sul problema della peste bovina. Nencki fu incaricato di effettuare prove di immunizzazione sul campo nel Caucaso e in Siberia.

Dopo la scomparsa di Nencki nel 1901, Ziber-Shumova fu a capo del Laboratorio Chimico dell’IIE. continuando a sviluppare i temi di ricerca proposti da Nencki. Nel 1912 fu nominata membro ordinario dell’IIEM, titolo equivalente a quello di professore ordinario. I suoi lavori successivi includevano indagini sui lipidi presenti nel tessuto polmonare e una serie di studi sugli enzimi, molti dei quali apparvero in Zeitschrift für Physiologische Chemie, continuando a pubblicare almeno fino allo scoppio della prima guerra mondiale.

Nadezhda O. Ziber-Shumova è stata la prima donna Professore di biochimica in Russia, fornendo contributi essenziali al consolidamento e allo sviluppo di questa scienza; per questo nel 1921 il Laboratorio di Chimica dell’IIEM fu rinominato Dipartimento di Biochimica.

Il riconoscimento del suo significativo contributo fu la pubblicazione della sua biografia nel famoso Brockhau and Efron Encyclopedic Dictionary[6]. È necessario apprezzare la dirittura morale di Ziber-Shumova. Istituì il premio scientifico “M.W. Nencki”, la prima sovvenzione per sostenere i giovani ricercatori in biochimica. Preparò e curò l’edizione in due volumi “Marceli Nencki Opera Omnia”, contenente 153 pubblicazioni di Nencki e coautori e circa 200 pubblicazioni dei suoi allievi. Immortalando così un ricordo del suo insegnante e mèntore, lasciò ai suoi colleghi una eccellente fonte di informazioni sullo sviluppo della biochimica.

Nel 1909 Ziber-Shumova donò alla Società polacca di ricerche biologiche 50 000 rubli (25 000 dollari dell’epoca) per la fondazione dell’istituto di ricerca Nencki, che fu inaugurato a Varsavia nel 1918 (Nencki Institute of Experimental Biology).

*****

Sulla vita di Anna Feodorovna Volkova si hanno solo poche informazioni, la data di nascita non è nota, appare certa invece quella della morte, avvenuta nel 1876. Forse proprio il fatto che Volkova è morta ancora giovane ha determinato queste insufficienze biografiche. In effetti le uniche fonti di informazioni nei siti occidentali si possono tutte ricondurre all’articolo di Mary Creese [1].

Negli anni ’60 dell’ottocento Volkova seguì le lezioni dei membri della Facoltà di Chimica dell’Università di San Pietroburgo e svolse la sua prima attività di ricerca nell’Istituto di Agricoltura e Silvicoltura di quella città sotto la guida del chimico e agronomo Alexander Engelhardt[7], impegnato insieme ai suoi collaboratori nello studio degli acidi arilsolfonici e loro derivati.

Nel 1870, Volkova si trasferì all’Istituto Tenologico dove estese le ricerche in questo campo con l’incoraggiamento e la guida di Dmitrii Mendeleev[8].

Dmitrij Ivanovic Mendeleev

I suoi due articoli sugli acidi toluenesolfonici e le loro ammidi del 1870 furono probabilmente la prima ricerca chimica pubblicata da una donna [4]. In seguito a queste pubblicazioni Volkova fu invitata a far parte della Società Chimica Russa, prima donna membro di questa Società.

Nonostante una carriera molto breve, conclusa con malattie legate alla povertà e conseguente morte prematura nel 1876, Volkova eseguì una notevole quantità di lavoro sintetico di ammidi aromatiche, in particolare le ammidi dell’acido solfonico. Il contributo per il quale è ricordata, è la sua preparazione del 1870 dell’ammide dell’acido o-toluensolfonico, che doveva diventare un intermedio chiave nella produzione della saccarina[9]. Tuttavia, nel periodo 1870-73, ha studiato un certo numero di reazioni di entrambi gli acidi o- e p-toluensolfonico e dei loro cloruri, ha preparato e studiato le proprietà di diverse nuove acidammidi. Era ben considerata dai suoi colleghi e ben integrata nella comunità chimica; non solo presentò due comunicazioni al Terzo Congresso dei Naturalisti russi a Kiev nel 1871, presiedendo una delle sessioni di chimica. I composti che ha sintetizzato sono stati tra i nuovi materiali preparati dai chimici russi esposti al World Industrial Exhibition di Londra nel 1876.

Bibliografia

[1] M. R. S. Creese, Early Women Chemists in Russia: Anna Volkova, Iuliia Lermontova, and Nadezhda Ziber-Shumova., Bull. Hist. Chem., 1998, 21, 19-24.

[2] T. V. Denisenko, Y. P. Golikov, Nadezhda O. Ziber-Shumova: the first Russian woman Professor of biochemistry, The FEBS Journal, 2013, 280 (Suppl. 1), 618–626.

[3] lavori citati in [1], rif. 21

[4] lavori citati in [1], rif. 9

[1] Registro Università di Berna.

[2] Secondo Franziska Rogger, storica svizzera, specialista nella storia dei primi studi superiori femminili in Svizzera.

[3] WBIS PAB, World Biographical Information System Polskie Archiwum Biograficzne Online

4v. R. Cervellati, https://ilblogdellasci.wordpress.com/2018/07/06/le-donne-scienziate-in-russia-nella-seconda-meta-del-xix-secolo-migranti-della-conoscenza-2/

5 Wilhelm Marceli Nencki (1847, Boczki (PL) – 1901,San Pietroburgo) chimico e medico polacco, particolarmente noto per aver identificato l’emopirrolo fra i prodotti di degradazione dell’emoglobina e mostrato la sua identità con uno dei prodotti ottenuti da un altro chimico polacco, Leon Marchlewski, nella clorofilla. Ha svolto la sua attività prima a Berna (Svizzera) e poi a San Pietroburgo (Russia).

 

[6] Il Dizionario Enciclopedico Brockhaus ed Efron (35 volumi nella versione piccola; 86 in quella più grande) è, nello scopo e nello stile, la controparte russa dell’Enciclopedia Britannica del 1911 e di quella tedesca Brockaus. Contiene 121.240 articoli, 7.800 immagini e 235 mappe.

[7] Alexander Nikolayevich Engelhardt (1832 – 1893) chimico e agronomo russo, di orientamento narodnista e socialista è stato cofondatore della prima rivista di chimica in russo. Famoso per le sue attività sociali e agronomiche e per il suo esperimento sull’organizzazione dell’agricoltura razionale nella sua tenuta. Nel 1870, lui e sua moglie furono arrestati per aver partecipato alla cerchia degli studenti socialisti dell’Istituto di San Pietroburgo. Engelhardt, ritenuto colpevole, fu poi esiliato a vita da San Pietroburgo e bandito dalla sua tenuta-modello.

[8] A parte aver ideato Tavola Periodica (di cui festeggeremo il 150° anniversario l’anno prossimo), Dmitri Mendeleev (1834-1907) è stato uomo di eccezionalmente ampi interessi scientifici, tecnologici, sociali e educativi. La sua Chimica Organica (1861) è stato il primo libro di testo sistematico in quel campo scritto da un russo e i suoi Principi di Chimica in tre volumi (1868-69) è stato considerato un classico. Ha insegnato chimica organica all’Istituto di Agricoltura e Silvicoltura di San Pietroburgo nel 1861, professore ordinario nel 1867.

[9] La saccarina è stato il primo dolcificante artificiale.

Dalla coppa di Licurgo a Nanoinnovation 2018

In evidenza

Luigi Campanella, già Presidente SCI.

Di nanotecnologie e delle loro numerose applicazioni si parlerà in occasione di NANOINNOVATION 2018 l’evento previsto a Roma, presso la Facoltà di Ingegneria della Sapienza dall’11 al 14 settembre.

Si tratta di una delle rivoluzioni scientifiche del nostro tempo. Si pensi che a livello delle comuni attivitá si parla in termini di quantità che comprendono miliardi di miliardi di milioni di molecole fra loro indifferenziabili per comportamento e con le nanotecnologie all’interno di queste comunità si riesce invece a discriminare fino al miliardesimo individuando comportamenti molecolari specifici e diversi.

Le ricadute applicative diventano moltissime: si pensi alla medicina ed alla possibilita di individuare comportamenti anomali di singole molecole o cellule preliminari a malattie e disfunzioni. Per fare una similitudine è come in un coro di miliardi di voci scoprirne una stonata: con le macro e microtecnologie  non sarebbe possibile ciò che invece è possibile con le nano-tecnologie. Accanto a questo aspetto più strettamente analitico le nanotecnologie hanno potenzialitá applicative derivanti dalla nanodimensione delle particelle, dimensione che conferisce ai composti proprietà chimiche e fisiche assolutamente specifiche e spesso superiori rispetto alla macro e microdimensione.

Con riferimento ancora al campo delle scienze mediche si pensi alla minore invasività e la maggipre precisioni rispetto al bersaglio di colpire di agenti nanodimensionati

Ma le potenzialità delle nanotecnologie sono molte altre e continuamente ne vengono esaltate delle nuove. Ecco che un congresso internazionale diventa una sede di dibattito scientifico, ma anche un palcoscenico per non  addetti “stretti” per seguire gli avanzamenti delle tecnologie in termini di applicazione alla nostra vita di tutti i giorni. La partecipazione dei cittadini si basa sulla conoscenza ed insieme sono condizioni necessarie per ottenere il sostegno politico. Il mercato delle nanotecnologie ha registrato un’impennata esponenziale grazie ai settori industriali a cui si rivolge e che riguardano direttamente o indirettamente la vita di milioni di persone.

Dal  punto di vista più strettamente scientifico con il termine Nanoscienze si intende l’insieme  delle competenze derivanti da discipline diverse che vanno dalla fisica quantistica alla chimica supramolecolare, dalla biologia molecolare alla scienza dei materiali, utilizzate con il fine di indagare i fenomeni e le potenzialità applicative di materiali su scala atomica e molecolare. In passato é talvolta avvenuto che fra queste discipline il dialogo è stato difficile e questa difficoltà si è trasferita alla relazione fra domanda ed offerta tecnologica.

Se la storia delle nanotecnologie è relativamente recente (nel 1965 Rychard Feynman ricevette il premio Nobel per la Fisica, ma già nel 1959  aveva  intuito le potenzialità di questa innovativa tecnologia) in effetti si conoscono applicazioni delle nanotecnologie in tempi molto antichi, quando non erano certamente conosciute come tali.

La coppa di Licurgo (British Museum) è una coppa diatreta di vetro di epoca romana, risalente al IV secolo. La coppa è costruita con vetro dicroico e mostra un colore diverso a seconda del modo in cui la luce passa attraverso di essa: rosso quando illuminata da dietro e verde quando illuminata frontalmente. La coppa di Licurgo è l’unico oggetto romano integro completamente costituito da questo tipo di vetro e quello che maggiormente esibisce l’effetto cangiante. (wikipedia)

I casi più noti sono quelli di coppe di età romana costruite con vetri dicroici e di alchimisti medioevali che costruirono vetri con effetti cromatici basati sulla presenza in essi di nanoparticelle. Le stesse nanoparticelle sono oggi ben presenti nella nostra vita di tutti i giorni con i materiali di cui sono costituiti oggetti di uso comune come racchette da tennis, sci, isolanti, luci a LED.

Tutto ciò fa pensare che questo settore possa divenire uno di quelli da cui l’economia sia destinata a dipendere.

Un Nanolaser che cambia colore una volta allungato

In evidenza

Rinaldo Cervellati

In uno speciale di Chemistry & Engineering newsletter on line del 2 luglio scorso, Prachi Patel riporta l’assemblaggio di un nano laser sensibile e sintonizzabile, costituito da nanoparticelle d’oro, un elastomero e un colorante liquido. Il dispositivo è stato realizzato da un gruppo di ricerca costituito da dottorandi e ricercatori dei Dipartimenti di Chimica e di Scienza e Ingegneria dei Materiali della Northwestern University, Illinois, coordinati dai prof. Teri W. Odum e George C. Schatz. (D. Wang et al., Stretchable Nanolasing from Hybrid Quadrupole Plasmons, Nano Lett., 2018, DOI: 10.121/acs.nanolett.8b01774)

George C. Schatz

Teri W. Odum

 I ricercatori si sono ispirati alle caratteristiche dei camaleonti: la pelle di questi rettili è costituita da strati di cellule contenenti nanocristalli di guanina. Quando un camaleonte si irrigidisce o si distende, lo spazio tra i cristalli cambia, alterando il colore della luce riflessa. Nella ricerca di creare sorgenti luminose compatte con colori sintonizzabili, i ricercatori hanno cercato di emulare questo meccanismo.

In linea di principio il dispositivo prevede l’incorporamento di schiere regolari di semiconduttori nanostrutturati all’interno di un materiale elastico. In questi nanolaser, la luce riflessa rimbalza tra le nanostrutture, viene amplificata ed emerge come un raggio laser di una lunghezza d’onda definita. La lunghezza d’onda cambia quando il materiale viene allungato, perché cambia la spaziatura fra le nanostrutture.

Con un’originale modifica a questo concetto, Teri W. Odom, George C. Schatz e il loro gruppo hanno realizzato un nanolaser sintonizzabile 10 volte più sensibile dei precedenti prototipi estensibili e ha il potenziale per offrire una gamma più ampia di colori.

Innanzitutto, hanno depositato una matrice di nanoparticelle d’oro cilindriche (ampiezza 260 nm) su un foglio di polidimetilsilossano (PDMS). Hanno circondato le nanoparticelle con un opportuno materiale liquido, una sostanza colorante in un solvente organico che funge da ulteriore amplificatore di luce (mezzo di guadagno). Nel lavoro precedente, Odom e colleghi avevano realizzato un nanolaser regolabile con un materiale di guadagno liquido, ma per cambiare il colore del nanolaser dovevano sostituire il colorante nel mezzo liquido.

In questo nuovo dispositivo, la variazione di lunghezza d’onda viene ottenuta attraverso l’estensione del supporto elastico. Quando attivato con una fonte di luce esterna, il nanolaser emette una luce nel vicino infrarosso a circa 870 nm. La lunghezza d’onda aumenta o si sposta ulteriormente verso l’infrarosso, quando il dispositivo viene allungato e torna alla lunghezza d’onda originale quando viene rilasciato.

Il nanolaser elastico è costituito da una serie di nanoparticelle di oro su polidimetilsilossano (PDMS) rivestito con un colorante liquido che amplifica la luce. La lunghezza d’onda della luce laser si sposta più in profondità nell’infrarosso quando il dispositivo viene allungato e torna al colore originale quando viene rilasciato.

Un mezzo di guadagno liquido è perfetto per un dispositivo estensibile. Quando allunghi il substrato, il liquido lo segue perfettamente, quindi ci sono sempre molecole per amplificare la luce e ottenere l’effetto laser, afferma Odom.

L’altra novità del dispositivo è che imbriglia i plasmoni – oscillazioni collettive di elettroni – che agiscono sulla superficie delle nanoparticelle d’oro. Le nanoparticelle plasmoniche agiscono come piccole antenne che concentrano la luce in arrivo in campi elettromagnetici attorno alla loro superficie, dice Odom.

Quindi le superfici diventano punti di riferimento nanoscopici per il laser, e un minimo cambiamento nella spaziatura tra le nanoparticelle causa uno spostamento cromatico misurabile, rendendo il dispositivo molto sensibile. Provoca la stessa variazione di lunghezza d’onda con solo un decimo dello stretching richiesto in precedenti progetti di simili laser.

Inoltre, aggiustando sia il tipo di colorante che la spaziatura delle nanoparticelle potrebbe dare una vasta gamma di colori di luce laser emessi.

I ricercatori ora progettano di realizzare un dispositivo con una matrice mista di nanoparticelle di oro e diversi materiali plasmonici. Le nanoparticelle di argento e alluminio, ad esempio, emettono luce nelle lunghezze d’onda dell’ultravioletto e del visibile. Fianco a fianco sullo stesso substrato, si può immaginare di ottenere colori laser [visibili] diversi, sostiene Odom.

Ren-Mi Ma

Ren-Min Ma, un fisico dell’Università di Pechino, afferma: La combinazione di materiale liquido di guadagno mutevole e la risonanza plasmonica dà un laser robusto, ad alte prestazioni e compatto con una grande sensibilità. È un passo significativo verso l’implementazione di nanolaser funzionali.

*Tradotto e adattato da: P. Patel, Nanolaser changes color when stretched, special to C&EN, July 2, 2018.

Smaltimento dei fanghi di depurazione. Qualche considerazione conclusiva.

In evidenza

Mauro Icardi

(il precedente articolo di questa serie è qui)

Ritorno sulla vicenda dello smaltimento agricolo dei fanghi di depurazione. Nella letteratura specialistica del settore depurativo, questa tecnica è molto spesso vista come un buon compromesso tra la necessità di trovare una destinazione finale per i fanghi prodotti dai depuratori, e la necessità di compensare la perdita di sostanza organica e fertilità nei terreni agricoli, spesso troppo sfruttati.

La sostanza organica dei fanghi di depurazione contiene una percentuale di sostanza organica molto simile a quella del terreno. Normalmente i fanghi hanno una percentuale di circa il 40% in glucidi. Questa frazione è quella immediatamente disponibile per i microrganismi del terreno, rappresentando la fonte energetica ed alimentare per essi. E’ piuttosto elevato anche il contenuto di sostanze a struttura ligninica, che possono favorire la formazione di humus. Queste sono condizioni che di solito caratterizzano ( o per meglio dire caratterizzavano) i fanghi provenienti da impianti di depurazione con una preponderante componente di acque residue urbane, rispetto a quelle industriali. Col passare degli anni però, la distinzione netta tra uno scarico definito “civile” rispetto ad uno industriale è risultata meno evidente e più sfumata. Questo per una serie di ragioni legate alla diffusione di inquinanti emergenti, che provengono non solo dagli insediamenti industriali, ma anche dalle mutate condizioni dei costumi della popolazione. Il contenuto elevato di metaboliti di farmaci e droghe d’abuso riscontrato nei depuratori consortili ne è un esempio piuttosto evidente.

E giova ricordare che questa situazione è responsabile non solo dell’accumularsi di tali metaboliti nei fanghi di depurazione, ma anche dell’instaurarsi di fenomeni di antibiotico resistenza che sono stati recentemente studiati.

In Italia l’ente nazionale risi ha pubblicato uno studio relativo all’utilizzo dei fanghi di depurazione in    agricoltura che mostrava risultati piuttosto incoraggianti, relativi al periodo 2006-2012.

http://www.enterisi.it/upload/enterisi/pubblicazioni/Miniottietal.4feb2015comp_16405_122.pdf

In effetti un fango di buona qualità può svolgere una serie di azioni positive: fornire dopo la sua mineralizzazione elementi di fertilità, mobilizzare elementi nutritivi già presenti nel terreno, offrire microambienti favorevoli per lo sviluppo dei semi e delle radici.

La vicenda del sequestro di impianti di trattamento dei fanghi di depurazione per uso agricolo ha però modificato profondamente l’accettazione sociale di queste pratiche da parte della pubblica opinione.

Questo per un serie di motivi, alcuni comprensibili, altri meno. Per esempio molti servizi su questa vicenda, sia televisivi che giornalistici avevano un tono sensazionalistico che non giova ad una corretta comprensione del problema. Non ho la pretesa che un giornalista conosca perfettamente la materia, ma che utilizzi quantomeno un atteggiamento più equilibrato.

La normativa nazionale e quelle regionali forniscono precise indicazioni di comportamento per l’utilizzo di queste biomasse di risulta. Per esempio disciplinano la caratterizzazione analitica preventiva. I fanghi destinati all’impiego in agricoltura devono essere caratterizzati preventivamente in modo dettagliato. Tale obbligo spetta al produttore del fango e deve svolgersi per un periodo di almeno sei mesi, con frequenza di campionamento e numero di campioni variabile in ragione della potenzialità dell’impianto espressa in abitanti equivalenti (AE).

Viene definito il grado di stabilizzazione dei fanghi per consentirne l’utilizzo agronomico. Gli indicatori previsti sono: la percentuale di riduzione dei solidi sospesi volatili (SSV),che deve essere compresa nell’intervallo 35-45% o l’età del fango, che deve essere superiore a 30 giorni.

Tutto questo però non basterà probabilmente a rendere questa pratica accettabile, per diverse ragioni, non ultima una sindrome nimby ormai piuttosto diffusa. L’effetto di questa sentenza del Tar della Lombardia è un’incognita attualmente per questo tipo di destinazione d’uso.

Credo che per uscire da questo impiccio sia necessario uno sforzo piuttosto importante e coordinato, a vari livelli. Lo sforzo di razionalizzazione e ammodernamento della gestione del ciclo idrico, il potenziamento degli istituti di ricerca nello stesso settore, e lo sblocco di finanziamenti per mettere in opera l’ammodernamento degli impianti più obsoleti.

Compatibilmente con l’equilibrio economico-finanziario occorre potenziare la dotazione strumentale dei laboratori dei gestori del ciclo idrico. Oltre a questo concentrare ulteriormente l’attenzione sulla gestione del trattamento dei fanghi, già a livello della fase depurativa. Ed essere molto attenti e rigorosi nella gestione di questa sezione. Questa è una mia propensione personale, dedico molto tempo e molto impegno a questo. E’ il punto critico, ma allo stesso tempo quello che più può dare soddisfazioni a livello personale e professionale. Oltre ad essere quello più importante e complesso, ma ricco di sfide tecniche e analitiche da affrontare. Solo in questo modo i depuratori diventeranno le cosiddette “bioraffinerie”.

Gli obiettivi che l’istituto superiore di ricerca sulle acque elenca per il settore trattamento rifiuti e residui di depurazione, devono diventare anche quelli dei gestori:

  • Incrementare il trattamento anaerobico di biomasse, reflui e fanghi tramite la messa a punto e lo sviluppo di tecnologie innovative per massimizzare il recupero di biometano e/o bioidrogeno e di nutrienti
  • Valorizzare sia la componente lipidica (dove significativamente presente) che la componente ligno-cellulosica di biomasse e rifiuti tramite l’ottimizzazione di trattamenti chimici per la produzione di prodotti ad elevato valore aggiunto, con potenziale applicativo in molti settori
  • Sviluppare modelli di simulazione per la valutazione dei potenziali recuperi in termini di energia e/o risorse dal trattamento di fanghi, reflui e rifiuti
  • Minimizzare il rischio per la salute umana in processi di riuso delle acque reflue trattate attraverso un’attenta valutazione del destino dell’antibiotico resistenza e della carica patogena.

Oltre a questo è necessaria la solita opera di informazione capillare. Nel settore idrico è più complesso coinvolgere l’utente in un impegno simile a quello della raccolta differenziata dei rifiuti, magari invitandolo non solo a risparmiare l’acqua, ma anche a contaminarla di meno, ad utilizzare detergenti e materiali di pulizia con oculatezza. Perché si possono produrre rifiuti tossici anche in ambito domestico, anche se probabilmente molti non lo sanno. Le informazioni elementari sul trattamento delle acque, ma in generale l’educazione ambientale deve essere insegnata già ai ragazzi degli ultimi anni delle scuole elementari.

In futuro serviranno cittadini consapevoli, non cittadini impauriti, o ostinati e con poca conoscenza dell’impatto sull’ambiente delle loro scelte personali. Anche di quello che poi si concentra nei fanghi che nessuno vuole, e di cui nemmeno vuol sentir parlare. La politica dovrebbe avere tutti questi temi come prioritari nella propria azione.

Nel 1976, con la promulgazione della legge 319/76, la legge Merli, si aprì un importante capitolo della storia della legislazione ambientale italiana. Oggi serve una nuova normativa per la gestione dei fanghi, possibilmente condivisa tra addetti, ricercatori e fruitori del servizio idrico, se si vuole ipotizzare di continuare ad utilizzare fanghi destinandoli ad uso agronomico in futuro. E allo stesso modo occorrono controlli molto rigorosi sul loro utilizzo. Perché l’ambiente, la chiusura del ciclo delle acque non sia sempre risolta a colpi di sentenze. Non è questa la via da praticare, e che porta risultati concreti. Come si può vedere i controlli si effettuano, gli operatori disonesti vengono perseguiti. Ma poi occorre lavorare seriamente per trovare le soluzioni ai diversi problemi emergenti nel settore depurativo.

Una gestione corretta e rigorosa, una normativa chiara e non controversa, investimenti mirati ed oculati. Tutto questo non può che avere riscontri positivi, sia ambientali, che occupazionali, in un futuro che però dovrebbe essere prossimo, e non lontano nel tempo.

Per dare un’idea di cosa sta accadendo dopo la sentenza lombarda pubblico una breve rassegna stampa.

https://www.toscanamedianews.it/firenze-guerra-dei-fanghi-quattro-discariche-tar-lombardia-ordinanza.htm

http://www.arezzonotizie.it/attualita/smaltimento-fanghi-da-depurazione-civile-1-800-tonnellate-in-arrivo-a-podere-rota/

E’ non fa male ricordare sempre che ““Nulla si distrugge, tutto si trasforma!Antoine-Laurent de Lavoisier

Aggiornamento: come era ampiamente prevedibile, pena il blocco o la messa in grave difficoltà del sistema depurativo, la conferenza Stato Regioni riunita in seduta straordinaria ha trovato l’accordo su un limite di 1000 mg/Kg per il parametro idrocarburi totali, contro il precedente di 10.000 mg/Kg che la delibera della giunta regionale lombarda del Settembre 2017 aveva invece previsto.

http://laprovinciapavese.gelocal.it/pavia/cronaca/2018/08/02/news/intesa-sui-fanghi-e-adesso-il-decreto-limiti-piu-severi-sugli-idrocarburi-1.17117716

Tutto questo tira e molla nasce come sempre da vuoti normativi, difficoltà di interpretazioni legislative, spesso incoerenti o complicate. Non so se questa soluzione soddisferà i comuni pavesi che erano ricorsi al Tar e l’opinione pubblica. Temo che questo sia solo un’altra puntata di una presumibile lunga telenovela.

Nel frattempo la regione Lombardia prepara il ricorso al Consiglio di Stato contro la sentenza per rivendicare la legittimità a deliberare in campo ambientale.

Aspettando che il decreto legislativo diventi operativo la situazione è ovviamente ancora critica.

http://laprovinciapavese.gelocal.it/pavia/cronaca/2018/08/02/news/miasmi-depuratori-al-limite-resisteremo-venti-giorni-1.17117722

Non dovrebbe essere più il tempo dei litigi. Il ciclo idrico deve essere profondamente riformato, e bisogna passare a fatti concreti. Acque reflue e fanghi non possono essere visti come un problema emergenziale, ma necessitano, lo ripeto di investimenti, di opere di ammodernamento. L’Arera (autorità di regolazione per energia, reti e ambiente) ha varato il ‘metodo tariffario’, che consente di calcolare gli effetti economici delle scelte industriali. La multa dell’UE all’Italia, da 25 milioni di euro forfettari, più di 164 mila euro al giorno per ogni semestre di ritardo fino all’adeguamento – riguarda la mancata messa a norma di reti fognarie e sistemi di trattamento delle acque reflue in alcune aree del nostro Paese.

L’adeguamento deve essere una priorità. Senza ulteriori incertezze e tentennamenti. Si è perso già troppo tempo.

Le Olimpiadi della Chimica, qualche commento.

In evidenza

Claudio Della Volpe

In questi giorni si sono concluse le 50esime olimpiadi della Chimica, nella stessa città che ne vide i natali 50 anni fa, Praga, associata con Bratislava; 50 anni fa la Cecoslovacchia era un solo paese, mentre oggi è divisa nei due paesi Repubblica Ceca (capitale Praga) e Slovacchia (capitale Bratislava).

Non ho ancora i risultati finali se non la (consentitemi un commento: un po’ enfatica) comunicazione interna della SCI di pochi giorni fa:

Cari Soci il capo delegazione alle Olimpiadi Internazionali della Chimica, il Past-President Raffaele Riccio mi ha appena comunicato i risultati della nostra squadra e sono lusinghieri in quanto TUTTI i nostri studenti hanno vinto una medaglia!

Daniele Furlanetto  (Veneto), Giovanni Pellegrino (Puglia) e Luca Spagnoletti (Liguria) si sono aggiudicati la Medaglia di Bronzo, mentre Filippo Bigi (Emilia Romagna) ha ripetuto l’impresa dello scorso anno vincendo per la seconda volta la Medaglia d’Argento!

Devo dire che le Olimpiadi della Chimica non mi hanno mai molto entusiasmato per motivi che vi dirò in questo post. Ma prima vorrei con voi riepilogare le regole e i risultati di questa iniziativa che si svolge ormai da così tanto tempo e per la quale converrebbe forse fare una riflessione più approfondita.

Si tratta di una competizione internazionale, proposta inizialmente da 3 paesi al di là della cosiddetta Cortina di Ferro, e che si è estesa nel tempo e alla quale partecipano studenti di molti paesi del mondo, ma mai più della metà dei paesi (i paesi della Terra sono 196 e i partecipanti sono stati al massimo una novantina); ci sono delle selezioni preliminari in tutti i paesi partecipanti che coincidono di fatto con i Giochi della Chimica e le squadre prescelte partecipano poi ad una serie di prove teoriche e pratiche nel paese prescelto; i punteggi sono individuali e sono ripartiti fra risultati nelle prove pratiche e teoriche con un massimo di 100.

I premi vengono assegnati con i seguenti criteri:

http://www.ichosc.org/documents-of-the-icho/regulations

(1)        The best 10% to 12% of all competitors receive gold, the next 20% to 22% silver, and the following 30% to 32% bronze medals.

(2)        An honorable mention is received by non-medalists who are in the best 70 to 71% of all competitors.

(3)        The exact number of recipients for each award is determined automatically to yield the largest possible difference in the marks of students receiving different honors. In the case of identical differences, the one resulting in more medals will be selected.

(4)        Each medalist must receive the medal and a corresponding certificate from the organizer.

(5)        In addition to the medals other prizes may be awarded.

(6)        Each competitor receives a certificate of participation.

(7)        In the awarding ceremony, the non-medalists are called alphabetically.

(8)        Team classification is not made.

(9)        The organizer must provide a complete list of results as a part of the final report.

Di fatto dunque circa il 66% dei partecipanti riceve COMUNQUE una medaglia, 2 su 3, comunque vadano le cose vengono premiati; su 100 partecipanti di una ipotetica competizione 66 verrebbero premiati; i primi 10-12 riceverebbero una medaglia d’oro, dal 13esimo fino al 32esimo classificato una d’argento e da lì al 66esimo una di bronzo.

Sono regole discutibili ma queste sono. Non so quali altre tipologie di gare abbiano regole che assicurano una medaglia ai 2/3 dei partecipanti, ma ripeto così è. I partecipanti vinceranno statisticamente nel 66% dei casi una medaglia.

Quali sono stati i risultati nel tempo?

Non è banale recuperarli completamente perchè le graduatorie complete con i punteggi divisi fra teoria e pratica sono solo sui siti dei paesi che le hanno indette mentre sul sito internazionale si trovano dei riassunti parziali; capita quindi, per esempio, che i risultati dettagliati dello scorso anno in Thailandia non siano al momento disponibili.

Tuttavia possiamo usare i riassunti di ICHO che è la organizzazione internazionale interessata.

Alcuni risultati complessivi degli ultimi 49 anni li trovate elencati qui:

Italia  Gold medal: 7. Silver medal: 30. Bronze medal: 57. Honorable mention: 12

Germania (riporto separatamente le due germanie di cui una quella democratica non esiste più dal 1989)

Gold medal: 43. Silver medal: 67. Bronze medal: 49. Honorable mention: 9

Gold medal: 9. Silver medal: 12. Bronze medal: 20. Honorable mention: 7

 

Francia  Gold medal: 6. Silver medal: 42. Bronze medal: 68. Honorable mention: 5

 USA Gold medal: 36. Silver medal: 63. Bronze medal: 33. Honorable mention: 1

Paesi bassi  Gold medal: 7. Silver medal: 18. Bronze medal: 78. Honorable mention: 9

Austria   Gold medal: 23. Silver medal: 58. Bronze medal: 59. Honorable mention: 4

UK   Gold medal: 9. Silver medal: 56. Bronze medal: 65. Honorable mention: 1

 Cina   Gold medal: 89. Silver medal: 27. Bronze medal: 4. Honorable mention: 0

 Come vedete i nostri risultati non sono eccezionali anche se occorre dire che partecipiamo dal 1980, dunque ci siamo persi 12 anni di gare. Quattro partecipanti italiani alla volta per un totale di 136 partecipanti hanno meritato in totale 94 medaglie (alcuni anni non abbiamo partecipato), il che ci dice che le nostre performances totali sono 94/136=0.69, poco al di sopra della casualità (0.66 in media se siamo bravi nella media) , come risultati totali.

Ancor più facciamo un esempio dettagliato: anche nel 2016 tutti e quattro gli studenti si sono piazzati, ma l’ordine di arrivo è stato: 63esimo e 70esimo (med. Argento), 151esimo bronzo, e 178esimo, menzione.

Volete un confronto impietoso?

La Germania “Federale” ha mandato in totale 160 studenti e ha avuto 159 medaglie, praticamente tutti gli studenti hanno vinto una medaglia.

La Cina partecipa dal 1987, ha mandato 128 studenti che in 120 casi hanno vinto una medaglia, ossia nel 94% dei casi.

La Cina ha vinto solo una volta il Nobel in Chimica come noi, ma le sue vittorie alle Olimpiadi fanno ben sperare per il futuro.

I risultati dettagliati non  sono esaltanti né rispetto a paesi di dimensioni comparabili come Inghilterra o Francia, ma nemmeno a paesi più grandi e con enorme interesse industriale nella Chimica come Germania, Usa e Cina, ma non lo sono nemmeno rispetto a paesi nostri immediati vicini come l’Austria che sono ben più piccoli di noi come popolazione (ma che vantano però 6 Premi Nobel in Chimica rispetto alla nostra singola vittoria). L’Austria ha mandato 156 studenti e ha vinto 140 medaglie, 9 studenti su 10 hanno vinto.

Diciamo che i risultati di quest’anno con tutti gli studenti italiani che hanno vinto una medaglia sono quello che altri paesi fanno dal primo momento. Bene, molto bene, ma era anche ora.

Anche perchè la nostra ultima medaglia d’oro risale al 1999, quindi ad ormai 19 anni fa.

Attenzione il grafico sotto è indicativo; i singoli punti sono esatti, mentre le zone individuate lo sono “a senso”, i confini fra le zone medaglie sono imprecisi.

Il grafico mostra quel che dicevo prima: incremento del numero di partecipanti mondiali con espansione delle posizioni possibili nel tempo,  medaglie d’oro italiane azzerate da 20 anni, argenti e bronzi si sono consolidati ma con notevoli alternanze e le nostre posizioni attuali tipiche in graduatoria sono fra la 50esima e la 200esima posizione assoluta. Per arrivare sotto la 50esima dobbiamo tornare indietro di quasi 10 anni. Mentre per vincere un oro occorre arrivare sotto la 30esima. Questi i nudi numeri.

Ora dopo 50 anni è da chiedersi: queste gare che senso hanno, a che servono, che indicazioni danno?

Anzitutto sono importanti perchè in qualche modo mostrano l’interesse crescente nei confronti della Chimica, quindi ben vengano; anche la partecipazione dei giovani in quanto tale è importante, sono l’avanguardia di una massa di altri studenti che rappresentano la Chimica nei loro paesi. Tuttavia diciamo anche che mancano molti paesi; tutti i paesi poveri non ci sono ancora; paesi dell’Africa o dell’America Latina sono assenti e non c’è stato interesse finora  a superare questo gap.

Inoltre c’è la questione di come si fanno le gare, di come ci si prepara alle gare; alcuni amici che insegnano dicono che di fatto c’è una situazione di “drogaggio” degli studenti; chi partecipa viene seguito da noi e ancor più in altri paesi moltissimo sulla Chimica a cui dedica tantissime energie, ma trascurando le altre cose, dunque è una preparazione non standard, ma finalizzata alla partecipazione alle olimpiadi; fra l’altro questo cambia anche i contenuti che divengono anno per anno più specialistici, secondo alcuni perfino nozionistici, a volte da ricerca vera e propria. Che significa questo? Chi ne trae vantaggio? Quegli studenti? Gli altri? La scuola tutta?

Non credo; diventa come in altri campi una competizione fine a se stessa, che non misura lo stato della situazione media dei giovani e nemmeno dei più bravi fra di loro, ma è solo una  misura delle risorse umane ed economiche spese nella competizione, invece che nella didattica e nella divulgazione della Chimica. Ma allora se le cose stessero così veramente ci sarebbe da cambiare l’organizzazione delle Olimpiadi della Chimica. (E anche di altre materie credo). Non abbiamo bisogno di fare altre graduatorie per farci belli dei risultati (basati peraltro su uno scalino economico) ma di portare avanti quanti più giovani possiamo e rendere la chimica veramente di tutti, per tutti, in tutti i paesi del mondo. Se no ripeto a che servono le Olimpiadi della Chimica?

E’ un augurio che faccio e lo faccio ringraziando chi si impegna e anche i giovani che hanno ottenuto i risultati, ma sottolineando che occorre cambiare impostazione.

L’anno prossimo sarà l’anno internazionale della tavola periodica; quale migliore occasione di fare diversamente le olimpiadi della Chimica?

Siti.

http://www.icho-official.org/results/organizers.php

Ciclo dell’acqua: il problema dello smaltimento del fango residuo.

In evidenza

Mauro Icardi

Lo scorso 27 Aprile ho scritto un post riguardante la controversa e discussa situazione del recupero agricolo dei fanghi di depurazione.

https://ilblogdellasci.wordpress.com/2018/04/27/nulla-si-distrugge-tutto-si-trasforma/

Ho tentato di dare le informazioni essenziali relativamente ad un problema appunto delicato. Lo scorso 20 Luglio la terza sezione del Tar della Lombardia, ha accolto il ricorso di una cinquantina di comuni del pavese e del lodigiano contro la delibera regionale n. 7076 dell’11 settembre 2017 con cui la Regione Lombardia aveva modificato i parametri relativi all’utilizzo dei fanghi da depurazione delle acque reflue degli impianti civili ed industriali in agricoltura. Le sentenze ovviamente si rispettano, così come le legittime istanze dei proponenti. Ma in questo momento viste le limitazioni di parametro per i parametri relativi agli idrocarburi C10-C40, che era stato fissato in 10.000 mg/kg ss, e di 50 mg/kg per i parametri Nonilfenolo e Nonilfenolo mono e dietossilato esse rendono di fatto impraticabile questa destinazione per i fanghi prodotti dai depuratori.

Questi limiti non sono sempre superati, ma anche a livello analitico, data la matrice particolarmente difficile i valori che si ottengono, sia da laboratori interni, che da laboratori esterni sono decisamente “ballerini”.

Ma qualche considerazione deve ovviamente essere fatta. Per il momento solo alcune considerazioni sugli effetti immediati di questa decisione, dal punto di vista gestionale ed operativo. Successivamente dopo una lettura ulteriore della sentenza del tar, potrò ulteriormente approfondire altri aspetti di questa vicenda ,che come è intuitivo non è possibile trattare in un solo articolo, data la complessità.

Per altro, la sensazione che si sarebbe arrivati ad un ulteriore stop l’avevo da tempo. E così effettivamente è stato.

In ogni caso le prime reazioni non si sono fatte attendere, basta fare una breve rassegna stampa.

http://iltirreno.gelocal.it/grosseto/cronaca/2018/07/25/news/fanghi-stop-all-invio-in-lombardia-costi-di-smaltimento-verso-l-impennata-1.17093767

Per quanto riguarda la situazione che vivo personalmente posso tranquillamente dire che, oltre all’aspetto prettamente economico, anche dove lavoro siamo al momento in piena emergenza.

La priorità sarà quella di trovare nuovi poli di smaltimento con probabile aumento dei costi, e nello stesso tempo la necessità di garantire un funzionamento accettabile degli impianti da gestire, cercando di rispettare i valori di parametro richiesti. Non è una situazione nuova. Si è già presentata altre volte. Vedremo come affrontarla.

Probabilmente dato anche il periodo di prevedibile diminuzione di carico e di portata influente, riusciremo a non peggiorare la qualità delle acque in uscita. Non così potrebbe essere per impianti soggetti a fluttuazioni di portata e di carico, come quelli toscani, dove la popolazione aumenta durante il periodo estivo per l’arrivo dei turisti.

Nei prossimi giorni dovrò lavorare su impianti in cui giorno dopo giorno la concentrazione di fanghi probabilmente crescerà, fino a raggiungere valori non usuali. Dove lavorare sarà difficoltoso.

Si lavora agevolmente con concentrazioni di fango di due, tre, quattro grammi litro. Si può arrivare anche a quaranta (ed è capitato, lo posso garantire). Ma a quel punto sulle vasche devi usare non la mascherina, ma la maschera antigas, altrimenti (ed è capitato anche questo in passato ad un collega), su quelle vasche, con il caldo ci puoi svenire. E a quel punto tutti i parametri di controllo (ossigeno disciolto, carico del fango, età del fango) non hanno di fatto più nessun significato reale. E gli effetti di eventuali eventi di forte pioggia saranno decisamente peggiorativi della qualità delle acque. Solo impianti con la possibilità di utilizzo di vasche di accumulo risentiranno meno di questa situazione.

Probabilmente non si arriverà a questi estremi. E’ la mia speranza. I fanghi prodotti dai depuratori non sono un invenzione. Le stime IRSA CNR prevedono per il 2020 che la quantità prodotta si dovrebbe attestare su valori di un milione e cinquecentomila tonnellate/anno di sostanza secca. Questo è quanto si produce dal trattamento delle acque che usiamo. I poli di smaltimento dei fanghi al momento sono quelli usuali: discarica, incenerimento con recupero energetico, incenerimento in cementifici, recupero in agricoltura. A condizione però che su quest’ultima attività si lavori molto seriamente sia per l’emanazione di una nuova normativa, sia che siano studiati in maniera particolarmente approfondita gli effetti reali di questa pratica.

Allo stato attuale praticamente tutti depuratori hanno ancora una sezione di ossidazione biologica. L’eventuale revamping di tutti i depuratori tradizionali non è sensatamente praticabile, ed è un incognita per quanto riguarda i costi. Quindi per il momento i fanghi devono trovare una collocazione, pena il blocco del sistema depurativo.

L’acqua pubblica, l’acqua diritto universale ha bisogno di scelte reali. Condivise, controllate, trasparenti, ma reali. Non servono né tentennamenti, né demagogie. Serve condivisione, con gli utenti per primi. Servono sinergie tra enti di ricerca, università, aziende. Normative chiare e fruibili. Tutto quello che succede nei soliti paesi virtuosi (Olanda, Francia, Svezia). Quindi non è utopia.

Ma nel frattempo la realtà è questa.

http://www.greenreport.it/news/economia-ecologica/acqua-allitalia-185-milioni-euro-multe-un-anno-la-mancata-depurazione/

Non è cosi ovviamente in tutte le realtà. Ma la situazione di chiaroscuro esiste.

Così come non da anni, ma da decenni sentiamo dire che per l’acqua potabile continuano le dispersioni.

http://www.cnrweb.tv/dispersa-nel-suolo-il-40-dellacqua-della-rete/

Negli anni 80 la rivista “Airone” proponeva un new deal ambientale. Ne ho la memoria precisa.

Credo che sarebbe il caso di prenderla in considerazione.

Prima della chiusura devo riparare ad una omissione (ovviamente non voluta) che è relativa all’articolo precedente a questo. Nella parte iniziale parlavo della scomparsa del tema acqua dalle prime pagine dei giornali. Ma in effetti ho dimenticato di citare il continuo lavoro di divulgazione che da anni porta avanti Luca Mercalli. Del suo programma “Scala Mercalli” sciaguratamente chiuso dove un’intera puntata della seconda serie era dedicata all’acqua, alle pillole che vengono trasmesse su Rainews 24, ed agli articoli che scrive sul terzo quotidiano nazionale “La Stampa.” Piccolo ricordo personale, senza intenzione di ruffianeria o piaggeria. Un pranzo insieme a Cremona, dopo una sua conferenza, nel quale abbiamo parlato insieme della necessità futura di parlare dell’acqua, come in effetti poi è stato. Questo è il mio personale ringraziamento.

Prima di chiudere devo anche fare un’altra citazione. E la citazione riguarda il collega di redazione Giorgio Nebbia, che so essere decisamente persona riservata. Ma avevo già citato questa sua frase in uno dei miei primi articoli. Giorgio mi scuserà se la ripropongo.

mi rendo conto che può sembrare non gratificante dedicarsi all’analisi e allo studio dei liquami zootecnici o dei reflui degli impianti di depurazione urbana, anche se si tratta, solo in Italia, di alcuni miliardi di metri cubi all’anno, da cui potrebbero essere ricavate altre soluzioni forse non potabili, ma utilizzabili in agricoltura (e, con un po’ di furbizia, anche come fonti di metano). La chimica modesta è spesso molto utile per il, paese.

Da domani al lavoro inizieremo la ricerca di nuovi poli di smaltimento. Io ho già preso contatto con due amici di lunga data con cui collaboro, e che lavorano nel settore. Se otterrò la necessaria autorizzazione in tempi sufficientemente rapidi utilizzeremo un impianto pilota per prove di trattamento terziario sia su acqua che su fanghi di depurazione. Lo scopo è quello di verificare la possibilità concreta di abbattimento di POP (persistent organic pollutant),che era lo scopo primario, e di verificare a questo punto anche la possibilità della riduzione delle quantità di fango di supero da avviare in fase di digestione anaerobica. La tecnica utilizzata prevede l’ossigenazione spinta del refluo tramite effetto idraulico venturi, combinata con l’iniezione di un ossidante, che può essere aria, ossigeno puro, oppure ozono.

Da queste eventuali prime valutazioni si potrebbe (per meglio dire dovrebbe) verificare l’applicabilità diretta sull’impianto. Il futuro del trattamento delle acque è indubitabilmente legato all’estensione dei trattamenti terziari. I quali però devono avere due caratteristiche: la sostenibilità economico/energetica, e le dimensioni contenute per la riduzione dei costi di ampliamento dei depuratori esistenti.

Nel frattempo è auspicabile che la querelle legata allo smaltimento dei fanghi di depurazione, che attiene con tutta evidenza al settore rifiuti trovi adeguata attenzione. Sia dal punto di vista normativo che da quello di ricerca scientifica. Il tutto associato ad un’attività capillare di controllo sulle attività di recupero e smaltimento dei fanghi.

Altrimenti non esisteranno alternative praticabili. E i rifiuti resteranno tristemente uno dei business della criminalità organizzata, o di operatori senza scrupoli. E questa è una situazione che non dobbiamo più ritenere normale o accettabile.

Acqua su Marte.

In evidenza

Luigi Campanella, già Presidente SCI

L’acqua è di certo il composto più studiato.

Non c’è branca della Scienza che non abbia fatto i conti con questa piccola molecola,importante per la vita,essenziale per l’alimentazione,fortemente correlata con storia,archeologia,clima. Dal punto di vista strettamente chimico si caratterizza per la presenza contemporanea di diversi tipi di legame fra l’idrogeno e l’ossigeno, ma è soprattutto il suo ruolo nei processi alla base della vita che da un lato affascina e dall’altro ne esalta il valore economico a danno dei più deboli meno ricchi di risorse. La presenza dell’acqua per quanto detto è da sempre stata correlata alla possibilità di vita nei sistemi che la contengono. La recente conclusione di una ricerca in atto da tempo circa la presenza di questo composto su Marte ha rappresentato una definitiva conferma di quanto in altre occasioni e sedi è stato ripetutamente ipotizzato.

In questo ultimo caso la ricerca si deve a Giovanni Picardi scomparso 3 anni fa ed alla collaborazione fra CNR, INAF, ASI e Università. Rispetto a precedenti contributi questo contiene una importante novità: il bacino idrico (assimilabile ad un lago terrestre) su Marte si trova ad una profondità di 1500 metri (sotto i ghiacci di CO2 del polo Sud) quindi al riparo dalle radiazioni e, soprattutto, in ambiente compatibile con la vita dei batteri che potrebbero funzionare da preziosi testimoni di una vita che al suolo si è estinta.

La scoperta è stata resa possibile utilizzando l’eco delle onde lanciate dal radar MARSIS che equipaggia la sonda europea MARS Express decollata da Bajkonur ben 15 anni fa, in volo orbitale fino a 250 km di altezza dalla terra di Marte. Marsis è dotato di due antenne che grazie allo spettro di frequenze disponibili sono in grado di raccogliere segnali che provengono da una profondità massima di 5 km. Le temperature dovrebbero fare ipotizzare che l’acqua fosse allo stato solido,contrariamente ai dati della ricerca che invece la definiscono allo stato liquido, quindi caratterizzata da un abbassamento crioscopico dovuto alla presenza nell’acqua di sali (forse clorato di potassio).

Parlando di acqua su Marte non si può omettere un ricordo di Giovanni Schiaparelli che credette di individuare canali scavati un tempo dall’acqua su Marte e della missione Exomars che permise di trapanare il suolo di Marte fino alla profondità di 2 m anche in quell’occasione con lo scopo primario di evidenziare la presenza di acqua e,correlata ad essa,di vita sul pianeta Marte. Queste accresciute conoscenze sono la base per programmare ulteriori spedizioni spaziali,ma anche per collegare il presente di Marte con il futuro della nostra Terra,se non sapremo rispettare le sue risorse.

Polo Sud di Marte nel 2000; è costituito di strati di CO2

Amminoacidi ferroviari.

In evidenza

Ilaria D’Acquarica*

Qualche giorno fa mi trovavo sul treno “Italo” diretto a Verona Porta Nuova e, per la prima volta, ho cominciato a sfogliare, per la verità un po’ annoiata, la rivista distribuita gratuitamente ai viaggiatori, che la Società fa trovare già alla partenza del treno nella tasca della poltrona del passeggero davanti. Mi imbatto per caso nel messaggio promozionale di un integratore alimentare, dove campeggia la frase “SINTESI NETTA AMINOACIDOICA AL 99% IN SOLI 23 MINUTI”.
L’espressione “sintesi aminoacidoica” mi comincia a girare per la testa e non riesco a smettere di pensarci. Leggo tutto l’articolo, dal quale apprendo che si tratta di compresse contenenti otto amminoacidi essenziali, indicate nei casi di ridotto apporto o di aumento del loro fabbisogno. Nulla da eccepire, ovviamente, sulla composizione chimica e sull’effetto che le compresse esplicano, specialmente se confrontati con altre formule amminoacidiche già in commercio. Quello che proprio non riesco a digerire è quell’aggettivo (aminoacidoica) che non ho davvero mai sentito o letto in nessun libro. E comunque, affermare che gli amminoacidi essenziali facilitano la sintesi amminoacidica mi lascia un po’ perplessa, semmai possono avere effetti sulla sintesi proteica.
Allora decido di contattare immediatamente la ditta produttrice dell’integratore, dal treno su cui mi trovo; se aspettassi di arrivare a destinazione, di sicuro mi dimenticherei di tutta questa storia. Con lo smartphone scrivo una e-mail a una casella di posta elettronica riportata sul sito web della ditta, segnalando che, molto probabilmente, quel termine “aminoacidoica” non è corretto e che, forse, intendevano “amminoacidica” (tra l’altro, con due emme, come dovrebbe essere sempre riportato in italiano, anche se in inglese il termine corrispondente è “amino”).
Appena premo “invia” sulla tastiera dello smartphone mi pento di quello che ho fatto. Forse sono stata troppo precipitosa, sarebbe stato meglio lasciare perdere, tanto ormai la rivista è stata stampata e distribuita su tutti i treni di Italo. E poi, mi potrei sbagliare.
Il tempo di arrivare da Roma a Verona e ricevo una e-mail di risposta dalla ditta produttrice dell’integratore con le testuali parole: “Buongiorno. Lei ha perfettamente ragione. La ringraziamo immensamente per la segnalazione e speriamo che non ci succeda più”.
Sono rimasta senza parole. Avrei preferito che mi rispondessero che il termine, seppure obsoleto, è comunque corretto o che c’è stato un refuso editoriale di cui si scusavano. La constatazione “ha perfettamente ragione” non me l’aspettavo. Perché, se è così, mi chiedo come sia possibile che nessun chimico, di tutto lo staff, non se ne sia accorto prima della pubblicazione. E, soprattutto, mi chiedo il motivo della leggerezza che sempre più spesso mi capita di constatare nella presentazione e promozione di integratori alimentari o similari.
Se adesso ci si collega al sito web della ditta produttrice si legge che le stesse compresse, che prima garantivano una “SINTESI NETTA AMINOACIDOICA AL 99% IN SOLI 23 MINUTI”, adesso esplicano il seguente effetto: “ASSORBIMENTO E SINTESI NETTA PROTEICA AL 99%”. Che sia partito tutto dal mio ignaro smartphone?

* Ilaria D’Acquarica, prof. Associato di Chimica organica Dipartimento di Chimica e Tecnologie del Farmaco , Università di Roma “La Sapienza” – Si occupa di fasi e sostanze chirali e riconoscimento enantioselettivo in fase gassosa.

Naso e lingua sono stereoselettivi.

In evidenza

Claudio Della Volpe.

Non è una novità dirlo o sentirlo, ma se si approfondisce la cosa allora questa abilità dei nostri sensi e di quelli degli animali, primi fra tutti gli insetti, ma anche tanti animali superiori, appare in tutta la sua meraviglia.

Due molecole enantiomere sono di fatto due diverse molecole, non sovrapponibili ma specularmente simmetriche e dunque il fatto che si possa in qualche modo distinguere fra di esse non è scioccante per un chimico; ma che lo possano fare in piena autonomia tessuti e recettori biologici ha profonde implicazioni non ancora completamente comprese.

Non è l’unico caso di molecole la cui distinzione è “sottile”; tempo fa parlammo degli effetti legati allo stato di spin del nucleo.

La scoperta della stereoselettività dei recettori biologici è tutta italiana e risale ad un momento in cui il concetto stesso di recettore biologico non esisteva; e la scoperta contribuì al suo sviluppo.

Nel 1886, Arnaldo Piutti (Cividale del Friuli, 23 gennaio 1857 – Conegliano, 19 ottobre 1928) un chimico italiano trovò che mentre la D-asparagina ha un sapore dolce la L-asparagina è insipida, senza sapore (Una nuova specie di asparagina, in Gazzetta chimica italiana, XVI (1886), a proposito ma quando avremo la Gazzetta online?). L’asparagina è un amminoacido polare e non essenziale.

D- asparagina

L-asparagina

Aveva ottenuto 100 g di D-asparagina da 6500 kg di vecce (Vicia sativa) attraverso un ingegnoso metodo estrattivo (per cristallizzazione frazionata dalle acque madri di estrazione della L-asparagina) e stabilì che la D- non discendeva dalla racemizzazione della L- durante l’estrazione. Fu la prima volta che si trovò un esempio così chiaro di stereoselettività biologica, circa 15 anni prima che il concetto stesso di recettore venisse pienamente compreso. Si trattò di una vera e propria pietra miliare che destò l’interesse dei più importanti chimici del mondo come Louis Pasteur e Arthur Cushny.

Piutti è stato sostanzialmente dimenticato, ma aveva avuto una carriera piena e di ottimo livello e la comunità degli sterochimici oggi dovrebbe rivalutarne maggiormente la figura.

Dopo essersi laureato in chimica presso l’Università di Torino nel 1879, fu per un anno assistente di fisiologia diretto da Angelo Mosso e successivamente in quello di chimica farmaceutica diretto da Icilio Guareschi. Aiuto di Ugo Schiff a Firenze fra il 1881 ed il 1886, vinse la cattedra di chimica farmaceutica all’Università di Sassari. Nel 1888 passò alla medesima cattedra della Università di Napoli dove fondò l’Istituto di chimica farmaceutica. Il 22 agosto 1890 venne affiliato in Massoneria col grado di Maestro nella Loggia La vittoria di Napoli. Socio nazionale dei Lincei dal 1922.

Durante le ricerche per stabilire la posizione del gruppo amminico nell’asparagina (1886) riuscì ad effettuare la composizione di un composto aromatico (trimesitato trietilico) partendo da sostanze alifatiche. Ci riuscì studiando la sintesi dell’acido aspartico per riduzione con amalgama di sodio dell’ossima dell’etere ossalacetico.

Ottenne, inoltre, per azione dell’ammoniaca su uno dei due aspartati monoetilici che aveva preparato, i due antipodi di un’asparagina identica a quella naturale (1887). Sintetizzò anche l’asparagina da anidride maleica ed ammonica e dall’anidride citraconica la glutammina.

Nel 1913 riuscì a dimostrare che il lupino produce sia la destro che la levo-asparagina e che la prima è più favorita con una germinazione al buio, per poi scomparire col progredire della germinazione. Dedicò studi anche ai gas nobili ed alla radioattività dei minerali del terreno vesuviano. (da Wikipedia)

Sebbene ci siano variazioni individuali oggi è accettato che ci siano differenze chiare di sapore fra gli enantiomeri di vari composti. Per esempio:

N-L-R-aspartil-L-fenilalanina (o aspartame) ha un sapore dolce molto spiccato; mentre l’enantiomero DD è amaro.

L-glutamato monosodico, MSG, ha un caratteristico sapore “umami” (saporito), mentre l’enantiomero D non lo ha.

Ancora più intrigante la situazione nell’ambito dell’olfatto.

Probabilmente molti lettori conoscono il caso del carvone.(R)-5-Isopropenil-2-metil-2-cicloesenone

Il carvone esiste come due enantiomeri: l’R-(–)-carvone, che profuma come foglie di menta, e la sua immagine speculare S-(+)-carvone, il quale odora di semi di cumino. Il fatto che i due enantiomeri vengano percepiti in modo diverso è prova che nel sistema olfattivo ci sono dei recettori “chirali”, ossia che permettono una risposta diversa a seconda dell’enantiomero che percepiscono, cosa che non accade comunque per tutte le coppie di enantiomeri presenti in natura.

A questo proposito un altro esempio veramente intrigante è quello dell’alfa pinene.

L’alfa-pinene è un terpene con un anello a quattro membri e dunque tensionato e molto reattivo; queste molecole si trovano in varie piante in diverse combinazioni e dominanze e sono uno dei tre casi in cui il nostro naso riesce a ben discriminare fra le due varianti secondo un classico lavoro di Laska e Teubner. In quel medesimo lavoro si trovarono altri due casi di molecole enantiomere fra le quali il nostro naso riesce a discriminare efficacemente che sono il limonene e il carvone di cui abbiamo già parlato.

Chi è interessato a maggiori dettagli può fare riferimento alla letteratura citata sotto; la domanda importante è: come fa il nostro organismo e in generale come fanno i recettori biologici a discriminare in modo così fine fra molecole enantiomere?

Non c’è una risposta semplice, a parte l’ovvia idea data dal concetto chiave-serratura, tipico delle interazioni enzimatiche.

La conclusione di Laska e Teubner è che la discriminazione non sia generale ma dipenda nei fatti dal caso specifico preso in considerazione e dunque da uno specifico recettore, probabilmente con finalità a loro volta specifiche.

L’effetto sul recettore nasale non è disgiunto da altri effetti fisiologici; per esempio l’ anfetamina (1-metil- 2-feniletilammina) o amfetamina, che coinvolge un atomo di azoto attaccato al centro chirale: l’ (R)-(-) enantiomero mostrato qui sotto ha un odore di ammuffito

mentre l’ (S)-(+) enantiomero mostra un odore fecale ed è molto più efficace sul sistema nervoso centrale L’anfetamina è dunque enantioselettiva sia rispetto alla fisiologia che all’odore. In questo caso questa differenza di odore era conosciuta ben prima della sua analisi scientifica ma fu ritenuta non significativa.

Nella review qui sotto citata di Bentley ci sono moltissimi esempi di differenze di percezione in altri animali diversi dall’uomo dedotte dagli effetti fisiologici dell’odore della sostanza, sia per gli insetti che per le specie superiori; in realtà il campo degli odori e dei sapori e del ruolo relativo della enantiomeria è ancora da approfondire.

Al momento la cosa generale sembra che diverse specie abbiano in genere capacità diverse e specifiche di discriminazione enantiomerica e che questa diversa percezione possa presentarsi come effetti diversi dei due enantiomeri ma anche semplicemente come effetti validi solo per uno degli enantiomeri; ancora più complesso il caso di molecole con più centri chirali e anche delle interazioni fra specie chirali diverse mescolate in rapporti diversi dal racemo, con effetti di inibizione a volte anche per piccole aggiunte il che spiega l’importanza della purezza. Ci sarebero molte altre cose da dire per esempio le tecniche di analisi cromatografica che consentono di distinguere fra gli enantiomeri, ma avremo tempo in futuro a meno che qualche volenteroso collega più esperto di me non voglia contribuire.

Concludo lamentandomi di non conoscere il polacco perchè a senso mi pare che l’articolo in polacco contenga molti esempi interessanti.

Riferimenti.

Chem. Rev. 2006, 106, 4099−4112 Ronald Bentley The Nose as a Stereochemist. Enantiomers and Odor

cHeMik 2014, 68, 2, 83–90 in polacco

CHIRALITY 24:959–976 (2012) JOSEPH GAL The Discovery of Stereoselectivity at Biological Receptors: Arnaldo Piutti and the Taste of the Asparagine Enantiomers—History and Analysis on the 125th Anniversary

Voce Chirality di Meyers – Encyclopedia of Molecular Cell Biology and Molecular Medicine 16 volumes(2006, Wiley) 2 vol pag. 579 e sgg

Chem. Senses 24: 161–170, 1999 Olfactory Discrimination Ability of Human Subjects for Ten Pairs of Enantiomers, Matthias Laska and Peter Teubner

Scienziate che avrebbero potuto aspirare al Premio Nobel: Julia Lermontova (1846-1919)

In evidenza

Rinaldo Cervellati.

Julia (Yulija) Vsevolodovna Lermontova, una fra le tante “migranti della conoscenza” di cui abbiamo parlato nel recente post, è stata la prima donna russa a ottenere il dottorato in chimica e la terza donna europea a raggiungere il traguardo del dottorato [1,2].

Julia nacque a San Pietroburgo il 21 dicembre 1846 da Elisawjeta Andrejevna Kossikovsky e Vsevolod Lermontov della famiglia aristocratica Lermontov. Passò l’infanzia e la prima giovinezza a Mosca dove il padre era generale del Primo Corpo dei Cadetti della capitale russa, una istituzione finanziata dal governo per la formazione di ufficiali e specialisti dell’esercito. I genitori facevano parte dell’intelligentsia russa e l’educazione dei figli era la loro priorità. Julia ricevette quindi una buona istruzione di base da tutori privati. Influenzata dalle correnti “nichiliste”, i suoi interessi si rivolsero alle scienze e, benché i genitori non capissero questi interessi, non la ostacolarono e Julia ebbe accesso alla letteratura specializzata e il permesso di compiere esperimenti in casa.

Julia Lermontova

Nonostante l’interessamento di scienziati come Dmitri Mendeleev[1], Lermontova non riuscì a farsi ammettere come uditore all’Istituto di Agricoltura e Silvicoltura di San Pietroburgo (il massimo cui avrebbe potuto aspirare come donna), noto per i suoi eccellenti programmi di chimica.

Insieme all’amica (e futuro matematico) Sofia Kovalevskaja si recò, nel 1869, all’Università di Heidelberg. Dopo molti tentativi, principalmente da parte della più tenace Kovalevskaja, le fu permesso di seguire le lezioni di Robert Bunsen[2], Gustav Kirchoff[3] e Hermann Kopp[4]. Ottenne anche un posto, come studente privato, nel laboratorio di Bunsen. Sollecitata da Mendeleev, con il quale manteneva un’intensa corrispondenza, apprese le tecniche analitiche e di separazione dei metalli dai loro minerali. Nel laboratorio di Bunsen riuscì a ottenere il platino dai minerali che lo contenevano.

Successivamente le fu offerto un posto, di nuovo come studente privato, nel laboratorio di August Hofmann[5] all’Università di Berlino. A Berlino seguì pure le lezioni di chimica organica di Hofmann. Sebbene la maggior parte dei suoi studi riguardasse il catrame di carbon fossile e derivati, lavorò anche su diverse serie alifatiche contribuendo agli sforzi in corso per stabilirne i principi strutturali [1]. Sotto la sua guida, Lermontova portò avanti la ricerca per la sua dissertazione, la preparazione di un numero di derivati alogenati di idrocarburi alifatici a catena corta e indagini sule loro proprietà. Il suo primo articolo, tuttavia, pubblicato nel Berichte nel 1872, riporta lo studio un composto aromatico, il 4,4′-diammino-azobenzene [3].

Robert Bunsen

August Hofmann

                                                  Poiché a quell’epoca né l’Università di Berlino né quella di Heidelberg avrebbero preso in considerazione la concessione di un dottorato a una donna, Hofmann si rivolse all’Università di Göttingen, un’istituzione più piccola con un atteggiamento generalmente più liberale, che accettò Lermontova come candidata previo però il superamento di una prova orale, cosa che avvenne. In occasione del suo dottorato, ottenuto magna cum laude, Friedrich Wöhler[6], uno dei due chimici della commissione d’esame (l’altro era Hans Hübner[7]), le regalò in ricordo una piccola pietra tagliata del minerale in cui egli aveva scoperto per primo il titanio. La tesi di Lermontova, “Zur Kenntnis der Methylenverbindungen” (Per la conoscenza dei composti del metilene), fu pubblicata a Göttingen nel 1874.

Dopo il dottorato Lermontova tornò in Russia e iniziò a lavorare nel laboratorio di Vladimir Markovnikov[8] all’Università di Mosca, dove continuò le ricerche sugli idrocarburi alifatici. La preparazione del 1,3-dibromopropano, riportata con il suo solo nome nel 1876 [4], ha portato alla sintesi, via il corrispondente diciano-composto, dell’acido glutarico. Nel laboratorio di Markovnikov mise a punto un’apparecchiatura per la distillazione continua del petrolio. Sebbene questo apparecchio non ebbe applicazione industriale, Lermontova è considerata la prima donna a occuparsi di petrolchimica, un settore di ricerca applicata che cominciava a destare molto interesse non solo in Russia.

Nel 1875, su proposta di Mendeleev, venne eletta membro della Russian Chemical Society.

Nel 1878 fu invitata da Alexandr Butlerov[9] a recarsi nel suo laboratorio di San Pietroburgo dove, insieme a Mikhail Lvov, stava conducendo una dettagliata ricerca sulla serie di idrocarburi saturi e insaturi. Qui Lermontova si impegnò nella ricerca in atto sulle olefine a catena ramificata. La maggior parte del suo lavoro è stata pubblicata da Butlerov con riconoscimenti, ma l’importante sintesi del 2,4,4-trimetil-2-pentene fu pubblicata con solo il suo nome [5].

Vladimir Markovnikov

August Butlerov

Nel gennaio 1878 in una conferenza della Russian Chemical Society, A. P. Eltekov dell’Università di Kharkov aveva riportato i risultati preliminari su un nuovo metodo di sintesi di idrocarburi di formula generale CnH2n [6]. Butlerov, che aveva partecipato a quel convegno, notò che un certo numero degli esperimenti riportati erano già stati effettuati da Julia Lermontova. Più tardi, Lermontova scriverà [7]:

Alla ricerca delle migliori condizioni di reazione, non avevo fretta di riportare i miei risultati preliminari… Poiché però il signor Eltekov ha pubblicato i suoi, ho smesso di continuare tutti gli esperimenti che avevo già iniziato, considerando che era necessario descrivere quelli di essi che mi hanno portato a conclusioni certe…[2]

Il valore di queste ricerche è diventato evidente più tardi quando sulla base della sintesi di idrocarburi altamente ramificati è stato possibile lo sviluppo e la produzione industriale di alcuni tipi di carburanti. Questo processo è stato chiamato reazione di Butlerov-Eltekov-Lermontova :

Schema della reazione di Butlerov-Etelkov-Lermontova che consente di aggiungere rami a una catena olefinica

Purtroppo, come fa notare A. Rulev [2], il nome della prima donna-chimico russa non è sempre menzionato anche in Russia.

Attorno al 1880 Lermontova tornò a Mosca per motivi familiari e per stare vicino all’amica Kovalevskaia, si riunì al gruppo di Markovnikov, assistendolo nelle sue indagini sulla composizione del petrolio caucasico. Su suggerimento di Markovnikov indagò sui processi di frazionamento a alte temperature e sul cracking catalizzato da metalli, presentando i suoi risultati alle riunioni della Sezione di Mosca della Società Tecnica Russa. Era entrata a farne parte nel 1881 e per un certo tempo fu un membro particolarmente attivo della divisione di tecnologia chimica di questa Società.

Verso il 1886 smise di fare ricerca in chimica e rivolse la sua attenzione a progetti agricoli nella sua tenuta fuori Mosca. Seguendo metodi e tecnologie moderni per migliorare la fertilità del suolo, aumentò considerevolmente i raccolti; iniziò a fare il formaggio, con un certo successo, producendo formaggi “francesi” messi in vendita a Mosca. Visse il primo conflitto mondiale e le prime fasi della rivoluzione russa che seguì, morendo all’età di settantatre anni nel dicembre 1919.

Bibliografia

[1] M. R. S. Creese, Early Women Chemists in Russia: Anna Volkova, Iuliia Lermontova, and Nadezhda Ziber-Shumova., Bull. Hist. Chem., 1998, 21, 19-24.

[2] A. Yu. Rulev, M. G. Voronkov, Women in chemistry: a life devoted to science, New J. Chem., 2013, DOI: 10.1039/c3nj00718a

[3] J. Lermontova, Ueber die Zusammensetzung des Diphenins, Ber. Dtsch. Chem. Ges., 1872, 5, 230-236.

[4] J. Lermontova, Ueber die Darstellung von Trimethylenbromid, Justus Liebigs Ann. Chem., 1876, 182, 358-362.)

[5] J. Lermontova, Sur l’action de l’iodure de butyle tertiare surl’isobutylène en présence d’oxydes métalliques, St. Pétersb. Ac. Sci. Bull., 1879, 25, col. 203-209, Justus Liebigs Ann. Chem., 1879, 196, 116-122.)

[6] A. Eltekov, Zh. Russ. Phys-Khim. Obshch., 1878, 10, 86. citazione da [2]

[7] Yu. Lermontova, Zh. Russ. Phys-Khim. Obshch., 1878, 10, 238. Citazione da [2]

[1] Dmitri Mendeleev (1834-1907) chimico russo noto a tutti come “padre” della Tavola Periodica della quale ricorrerà l’anno prossimo il 150° anniversario.

[2] Robert Wilhelm Eberhard Bunsen (1811-1899), chimico tedesco. Ha studiato gli spettri di emissione di molti elementi, scoprendo cesio e rubidio insieme al fisico Gustav Kirchhoff. Bunsen sviluppò diversi metodi di analisi dei gas, fu un pioniere della fotochimica e fece molte ricerche in chimica organica. Con il suo assistente di laboratorio, Peter Desaga, sviluppò il becco Bunsen, il noto bruciatore da laboratorio.

[3] Gustav Robert Kirchhoff (1824 -1887), fisico tedesco. Contribuì alla comprensione dei circuiti elettrici, della spettroscopia e dell’emissione delle radiazioni da corpo nero.

[4] Hermann Frantz Moritz Kopp (1817 – 1892), chimico tedesco ha studiato in particolare la relazione fra punto di ebollizione e composizione dei composti organici. E’ stato uno dei primi storici della chimica.

[5] August Wilhelm von Hofmann (1818 –1892), famoso chimico tedesco. Allievo di Justus von Liebig divenne il primo direttore del Royal College of Chemistry a Londra. Fu poi professore e ricercatore all’Università di Berlino. Autore di fondamentali ricerche in chimica organica ha creato una scuola di chimica organica sperimentale e industriale. Cofondatore della Deutsche Chemische Gesellschaft, la Società Chimica Tedesca.

[6] Friedrich Wöhler (1800 – 1882), chimico tedesco noto in particolare per la prima sintesi di un composto organico, l’urea. Dei suoi lavori abbiamo ampiamente scritto in questo blog.

[7] Hans Hübner (1837 – 1884), chimico tedesco, successore di Wöhler all’Istituto di Chimica della Università di Gottingen. Editor dell’importante rivista Zeitschrift für Chemie.

[8] Vladimir Vasil’evič Markovnikov (1838-1904), chimico russo noto in particolare per la sua regola empirica che indica l’orientamento preferenziale nelle reazioni organiche di addizione.

[9] Alexander Mikhaylovich Butlerov (1828-1886), chimico russo, uno dei principali fondatori della teoria della struttura chimica, il primo a incorporare doppi legami in formule strutturali, scopritore dell’ esametilentetrammina e della formaldeide. Fu un forte sostenitore dell’apertura all’istruzione superiore alle donne.

Ciclo dell’acqua: due casi significativi.

In evidenza

Mauro Icardi

In questo periodo, giusto un anno fa i giornali nazionali davano conto di problemi di siccità. In special modo nel sud del paese, e in particolare a Roma. Il New York Times titolava “Roma città di antichi acquedotti deve far fronte ad un razionamento dell’acqua”. Il 2017 secondo i dati forniti da ISPRA è stato un anno con precipitazioni cumulate inferiori del 22% rispetto alle medie annuali che si sono iniziate a registrare dal 1961. I titoli dei giornali a distanza di un anno non riportano notizie di questo tipo, almeno a livello nazionale. Ma secondo le proiezioni dell’IPCC quella che ancora definiamo “anomalia annuale”, potrebbe diventare la normalità a fine secolo. Due casi riguardanti la zona del Gallaratese, che hanno avuto riscontro solo a livello locale, meritano di essere menzionati. Sono casi recenti e inducono a fare riflessioni sul tema acqua e sulla gestione del ciclo idrico.

Il primo caso è quello del comune di Oggiona Santo Stefano, dove il sindaco ha firmato un’ordinanza per il divieto di utilizzo improprio dell’acqua potabile. In particolare per l’innaffiamento di orti e giardini e piscine private. Attività che sono vietate nel periodo che va dalle 07.00 alle 22.00. Agli abitanti del comune la riproposizione di questa ordinanza è risultata poco gradita. In provincia di Varese i mesi di Marzo e Maggio sono stati molto piovosi e questo ha fatto si che la percezione fosse quella di un problema risolto di siccità.

Dopo i mesi di Marzo e Maggio che sono risultati molto piovosi, la percezione di molti è che non esistesse più un problema di siccità. In provincia di Varese questi mesi hanno avuto un saldo positivo di precipitazioni dovute alla pioggia caduta. Ma nel mese di Giugno il bilancio pluviometrico dei primi sei mesi del 2018 è risultato nuovamente deficitario con una diminuzione del 50% della pioggia caduta, rispetto alla media dei venticinque anni precedenti. Più che i numeri, la sensazione che non esistesse più un problema di siccità, ha probabilmente ha indotto molte persone ad utilizzare con poca attenzione e parsimonia l’acqua potabile. Il risultato è che le zone ubicate nella parte alta del paese hanno avuto problemi di erogazione dell’acqua, con cali di pressione e mancanza d’acqua in alcune ore della giornata. L’acquedotto di questo paese non dispone di un bacino di accumulo. E’ previsto che questo acquedotto venga collegato con gli acquedotti dei paesi limitrofi, risolvendo un problema di carattere squisitamente idraulico. Collegato e immesso in rete con acquedotti che sono dotati di bacino di accumulo e di torrino piezometrico.

Ma l’episodio dovrebbe fare riflettere. Il regime delle precipitazioni è ormai molto fluttuante. Le piogge tendono a cadere in maniera violenta e continuata in un periodo di tempo, per poi alternare periodi di scarsità di precipitazioni. Le modifiche, per altro auspicabili sull’acquedotto di Oggiona rischiano di diminuire la percezione di un uso più consapevole dell’acqua. Le strategie di mitigazione e di risparmio idrico, per aziende, ed enti di bonifica ed irrigazione consistono in metodi più efficaci di irrigazione. E questo esempio dovrebbe diventare una buona pratica anche nell’utilizzo privato. E dovrebbe essere ulteriormente continuato da parte delle aziende fornitrici una campagna di informazione capillare per un uso più consapevole dell’acqua. Farebbe bene all’ambiente e alle tasche degli stessi cittadini. Che forse in molti casi non fanno caso all’acqua che sprecano per usi decisamente non primari (lavaggio auto), e che potrebbero invece utilizzare meglio per usi più necessari (irrigazione di orti e giardini).

Il secondo caso sempre riportato dalla stampa locale riguarda il torrente Arno. Ed è l’ultimo di una serie di casi sempre più frequenti di secche prolungate di torrenti ubicati nella zona a sud di Varese. Non solo del torrente Arno, ma anche del Lura.

Questa foto si riferisce ad una secca del torrente Lura risalente al 2015, ma la situazione si è puntualmente ripresentata alla fine dello scorso Luglio. Premesso che per definizione un torrente potrebbe avere un regime idrico discontinuo, gli abitanti di Gallarate e Caronno Pertusella non ricordano secche così prolungate e frequenti. Cittadini e autorità si interrogano. Ma questo è un problema che si ricollega ad un altro. Il consumo di suolo e la cementificazione. Una riduzione della superficie disponibile per l’agricoltura, i pascoli e le foreste conduce infatti inevitabilmente ad una diminuzione della capacità di infiltrazione delle acque, con il progressivo ridursi della ricarica delle falde idriche. La zona a cavallo tra la provincia di Varese e quella di Milano è fortemente antropizzata. La modifica dei regimi di precipitazione sta facendo il resto. A questo punto credo si debba pensare a progettare sistemi di ricarica artificiale delle falde, sfruttando anche le acque depurate, che allo stato attuale in molti casi sono invece scaricate nei letti dei fiumi in secca. E in questo modo se è garantita la qualità chimico fisica delle acque scaricate, o per meglio dire la conformità ai valori di parametro, non così si può dire della qualità ambientale dei corsi d’acqua.

Intraprendere progetti ed iniziative di questo genere avrebbe come obiettivi principali quelli di ristabilire le riserve idriche, stabilizzarle (in previsione dei periodi di magra), smaltire acque di processo idonee/conformi che potrebbero non esserlo se scaricate tal quali nei corsi d’acqua in secca.

Ovviamente questo presume investimenti e visioni di ampio periodo. Studi geologici accurati e controlli capillari della qualità delle acque destinate al ravvenamento delle falde, alcune delle quali sono anche le sorgenti di questi torrenti.

Non è mio costume l’autocitazione e chiedo comprensione ai lettori, ma mi ero già occupato della cosa, con un interesse maggiormente orientato all’acqua potabile. La tecnica avrebbe senso anche se utilizzata per evitare o minimizzare le secche dei torrenti.

https://ilblogdellasci.wordpress.com/2015/09/02/potabilizzazione-indiretta/

E’ ormai evidente che il problema della gestione della risorsa acqua deve essere un tema multidisciplinare.

Non più rimandabile. E’ un tema profondamente legato alla nostra qualità di vita. E questi due casi anche se locali sono decisamente significativi.

Una piccola nota, un ricordo personale. Sono ormai trent’anni che vivo in provincia di Varese. Gli amici e i conoscenti di questa zona mi definivano la provincia di Varese con un termine piuttosto pittoresco, ovverosia come il “pisciatoio d’Italia”, per una sorta di analogia con l’Inghilterra, altra zona che nell’immaginario ricorda piogge continue, e anche noiose. Forse sono ricordi che, per quanto simpatici, non hanno più il valore di un tempo. E occorre prenderne doverosamente atto. Non solo in questa zona.

Link utili

http://www.acqua.gov.it/

http://www.direttivaacque.minambiente.it/

https://www.mbnews.it/2016/02/emergenza-siccita-nel-molgora-ce-solo-lacqua-scaricata-dai-depuratori/

http://ilsaronno.it/2018/06/26/lura-in-secca-centinaia-di-pesci-intrappolati-rischiano-di-morire/

Un enzima umano produce una piccola molecola antivirale

In evidenza

Rinaldo Cervellati

 

Ne parla Cici Zang nel numero del 15 giugno scorso di Chemistry&Engineering news on-line. La proteina Viperin, espressa nell’organismo di pesci, uccelli e mammiferi fra cui gli umani, catalizza la formazione di una piccola molecola che inibisce la replicazione di diversi virus, incluso il temibile Zika[1]. Questa molecola potrebbe fornire la struttura base per lo sviluppo di nuovi farmaci contro le infezioni virali, affermano gli estensori della ricerca (A.S. Gizzi et al., A naturally occurring antiviral ribonucleotide encoded by the human genome., Nature, 2018, DOI: 10.1038 / s41586-018-0238-4).

Da anni era noto che la proteina Viperin (quella umana è costituita da 361 amminoacidi) è in grado di inibire DNA e RNA di molti virus come ad esempio quelli dell’influenza. Ma il meccanismo dell’attività antivirale di questo gene restava praticamente ignota, sebbene gli scienziati sapessero che il gene codifica per un enzima, si conosceva ben poco sulle reazioni che era in grado di catalizzare.

Tyler Grove e Steven Almo dell’Albert Einstein College of Medicine (New York) hanno collaborato con Jamie Arnold e Craig Cameron della Penn State University per studiare l’attività della viperina.

Craig Cameron

Steven Almo

                                                                                  La proteina utilizza la S-adenosil metionina (SAM) per catalizzare reazioni di trasferimento di elettroni e formare specie radicaliche. I ricercatori hanno scoperto che una delle reazioni catalizzate è la deidratazione della citidina trifosfato (CTP):

La struttura della molecola risultante, la [3’-desossi-3’,4’-dideidro-citidin-trifosfato] ddhCTP, è simile a quella di noti farmaci antivirali che interrompono la replicazione di genomi di RNA di alcuni virus. In esperimenti in vitro, i ricercatori hanno stabilito che la ddhCTP inibisce le RNA polimerasi del virus Zika, del virus del Nilo occidentale, del virus della dengue e dell’epatite C. Inoltre è in grado di bloccare la replicazione del virus Zika in colture cellulari prelevate da scimmie infette.

Zika virus al microscopio elettronico

Le RNA polimerasi sono responsabili della sintesi dell’RNA sia per i virus che per altri organismi, compreso l’uomo. Il ddhCTP verrebbe utilizzato dalla polimerasi virale per aggiungere un nucleotide alla catena di RNA in accrescimento, ma una volta effettuata l’aggiunta bloccherebbe l‘ulteriore crescita, facendo terminare la catena di RNA e quindi dando origine a un genoma virale incompleto. I ricercatori stanno ora cercando di capire perché ddhCTP non interferisca con le DNA polimerasi.

Peter Cresswell, professore di immunologia e biologia cellulare, School of Medicine, Yale University, uno studioso del gene Viperin, afferma che la ricerca è “un incredibile lavoro da detective”. Ma sottolinea che non spiega tutti gli effetti antivirali della Viperin, come il modo in cui interrompe la replicazione del genoma virale.

Peter Creswell

Sebbene i settori R&D delle aziende farmaceutiche abbiano progettato inibitori delle polimerasi virali, i biologi non erano in precedenza a conoscenza di organismi che producessero tali piccole molecole, afferma Priscilla Yang, virologa dell’Università di Harvard. Questo studio stimolerà la    ricerca sulle funzioni di piccole molecole prodotte naturalmente, sostiene infine Yang.

Priscilla Yang

Il team di ricerca ha depositato una richiesta di brevetto provvisorio negli Stati Uniti e vorrebbe collaborare con un’azienda farmaceutica allo sviluppo di una versione del ddhCTP che potrebbe entrare più facilmente nelle cellule. I ricercatori stanno anche studiando il motivo per cui la viperina utilizza la CTP per formare la molecola antivirale. Si potrebbero scoprire ulteriori indizi che aiuterebbero a progettare composti antivirali ancora più efficaci, afferma Steven Almo.

 

[1] Il virus Zika (ZIKV) è un RNA virus isolato per la prima volta nel 1947 da un primate in Uganda, nella Foresta Zika, una riserva naturale. La Febbre Zika si contrae prevalentemente tramite punture di zanzare, ma è possibile un contagio diretto attraverso il sangue o per via sessuale. Particolarmente pericoloso per le donne incinte, può provocare gravi malformazioni nel feto tanto da consigliare l’aborto terapeutico.

La Cina prosegue sulla strada dello sviluppo incontrollato.

In evidenza

Claudio Della Volpe

La Cina è la principale produttrice di sostanze chimiche di sintesi al mondo (40% del fatturato mondiale); prova ne sia che anche i nostri marchi si rivolgono a quelli cinesi.

Federchimica chiama pudicamente “outsourcing” la tendenza a delegare alla Cina (e ad altri paesi) dove le regole sono poche nell’ambiente e nel lavoro la produzione di sostanze chimiche di sintesi.

“Dagli anni Duemila l’occupazione chimica è tendenzialmente diminuita, in parte per effetto dell’outsourcing di attività prima svolte all’interno delle imprese chimiche con conseguente miglioramento dell’efficienza.”

Da L’industria chimica in cifre 2017 di Federchimica.

Si guadagna di più (pudicamente “miglioramento dell’efficienza”). Non mi dilungo se no mi arrabbio.

Questi non sono fenomeni naturali, sono scelte di politica economica; che conseguenze hanno?

Pochi giorni fa c’è stato il caso dell’AIFA che ha segnalato che in un farmaco prodotto in Cina per aziende di tutto il mondo comprese aziende italiane (valsartan, un sartano sintetico, antagonista del recettore dell’angiotensina II) da un marchio da noi sconosciuto, ma che di fatto è una delle più grandi aziende cinesi, leader nel settore dei pril-products, ossia gli ACE-inibitori (economicamente concorrenti dei sartani, ossia captopril, enalapril, lisinopril), Zhejiang Huahai Pharmaceuticals, si erano trovati residui di N-nitrosodimetilammina, che è una sostanza sospetta cancerogena.

La cosa non mi meraviglia, poteva succedere anche dalle nostre parti probabilmente; ma tanto più facilmente succede in Cina dove le regole spesso esistono ma non vengono rispettate (cosa che succede anche da noi ed è successa tanto in passato), ma anche non esistono affatto ed è per noi difficile sapere come stanno le cose dato il regime di controllo esasperato delle informazioni di quel grandissimo paese.

Ma ci sono altre storie e sono legate fra di loro.

Il pomeriggio di giovedì 12 luglio scorso alle 18.30 una esplosione ha squarciato il cielo del Sechuan, sopra l’impianto chimico della Yibin Hengda Technology, uno dei principali produttori chimici cinesi; un testimone ha dichiarato di aver sentito 7 esplosioni in 10 minuti; la fabbrica produceva 300 ton di acido benzoico all’anno, usato nella conservazione del cibo e 200 ton/anno di acido 5-nitroisoftalico, per medicine e coloranti.Le cause dell’esplosione sono al momento sconosciute, ma l’esplosione ha provocato 19 morti e 12 feriti.

https://news.abs-cbn.com/list/tag/yibin-hengda-technology

Se sarà possibile vi terrò informati sul prosieguo. Il motivo è che ritengo che nel momento in cui la Cina è diventato il principale produttore chimico del mondo, i chimici di tutto il mondo e i cittadini del mondo debbano fare attenzione ai problemi che questo genera; non meno di quando avviene più vicino a noi.

(abbiamo reso sempre ragione degli incidenti chimici avvenuti in Europa e in Italia su questo blog: qui, qui, qui e qualche altro post mi sfugge certamente).

Lo abbiamo fatto anche per quelli cinesi. Tre anni fa di questi tempi vi raccontavo e discutevamo del grande incidente cinese di Tianjin una esplosione seguita incendio che durò giorni e che fece oltre 160 morti (qui); ipotizzammo che fosse stata probabilmente una esplosione innescata da un uso improprio dell’acqua in un deposito troppo grande di carburo di calcio, nitrato di potassio e nitrato di ammonio. Ma le cose stavano diversamente (anche se alcuni come il collega Paccati nel corso della discussione, avevano fatto l’ipotesi poi rivelatasi quella vera o comunque condivisa dai giudici).

il sito di Tianjin dopo l’esplosione.

Una corte cinese ha condannato 49 persone per non aver fatto il proprio dovere, preso tangenti e abusato del proprio potere ed ha invece ricostruito la situazione così:

https://www.dw.com/en/china-convicts-dozens-for-last-years-giant-explosions-in-tianjin/a-36324321

Yu Xuewei, il dirigente della compagnia Rui Hai International Logistics, che era il proprietario del deposito è stato condannato a morte, ma la pena è stata poi sospesa; aveva pagato tangenti per avere il permesso di stoccare più di 49.000 ton di cianuro di sodio ed altri prodotti chimici tossici fra il 2013 e il 2015. Questo grazie alla compiacenza interessata di decine di responsabili della Rui Hai e di altre compagnie e sulla base di certificati falsi

Le investigazioni dei giudici hanno rivelato che l’esplosione è avvenuta quando un deposito di nitrocellulosa , usata come agente adesivo in farmaci e vernici si è incendiato a causa del caldo eccessivo di agosto 2015. Le fiamme hanno raggiunto il deposito illegale del fertilizzante nitrato di ammonio scatenandone l’esplosione. Nell’esplosione sono morti 99 poliziotti e 11 vigili del fuoco che non sapevano della presenza del materiale esplosivo . I danni fisici hanno coinvolto oltre 800 persone ed una parte del porto di Tianjiin è stato distrutto e danneggiato, mentre l’inquinamento da cianuro ha perfino superato i confini nazionali.

Cosa è cambiato da allora in Cina?

Non lo so, è difficile anche avere informazioni sulle leggi e i regolamenti; un amico che lavora in Cina per una ditta multinazionale, intervistato telefonicamente il 13 luglio sull’incidente in Sechuan mi ha detto: “non ne so nulla, qua le notizie sono rigidamente controllate; e comunque mentre l’inquinamento dell’ambiente è al momento altamente considerato le regole sulla sicurezza del lavoro lo sono molto meno”.

La Cina è un grande paese, con un enorme ed incontrollato sviluppo industriale che sta purtroppo seguendo (forse anche peggiorando) il cattivo esempio che noi occidentali abbiamo dato in passato in questo campo e nell’uso della chimica.

Ma il loro sviluppo e la nostra situazione non sono scorrelati; noi siamo loro clienti ed è molto probabile che ci sia qualcuno dalle nostre parti che si frega le mani per aver esportato la produzione di sostanze che da noi ormai risulta troppo rigidamente regolamentata per risultare “efficiente”: dunque esternalizzare, outsourcing. Anche il caso del valsartan ci obbliga a chiederci: perchè i controlli sulla composizione fatti dai nostri furbi acquirenti nazionali non sono più frequenti e ampi?

E’ veramente più efficiente far produrre in Cina queste sostanze? O è solo un affare economico dato che fino ad ora là ci sono meno regole (ossia lacci e lacciuoli, come li chiamano i giornali di lorsignori). Ma noi europei o cinesi semplici cittadini cosa ci guadagnamo oltre a veder scendere l’occupazione e ricever ogni tanto schifezze al posto di medicine, morire sul lavoro o di inquinamento?

Pensateci, pensiamoci.

Ancora sul problema dei rifiuti di plastica

In evidenza

Rinaldo Cervellati

Nella C&EN newsletters on line del 15 giugno, Sam Lemonik e Carmen Dahl tornano sul problema della raccolta e riciclaggio dei rifiuti di plastica. Partendo dall’osservazione che attualmente anche nei piccoli villaggi esistono i contenitori per la raccolta differenziata dei rifiuti e quindi gettare gli oggetti in plastica nell’apposito contenitore è diventata un’operazione semplicissima, i dati mostrano che le cose non stanno così, e i rifiuti di plastica continuano ad accumularsi nell’ambiente. Uno studio su Science nel 2015 ha stimato che negli oceani potrebbero accumularsi 155 milioni di tonnellate di plastica entro il 2025, il doppio della quantità attuale [1]. Anche gli Usa che risultano al primo posto fra i paesi esaminati, raccolgono solo circa un terzo dei loro rifiuti di plastica. Il problema diviene ancora più grave se si va oltre ai contenitori condominiali o di quartiere: solo il 10% circa degli imballaggi di plastica in tutto il mondo (USA compresi) finisce per essere trasformato in un nuovo prodotto. Un altro 14% viene bruciato, a volte per essere trasformato in energia. Il resto finisce in discariche o nell’ambiente.

L’86% degli imballaggi di plastica prodotti a livello mondiale non viene mai raccolto per il riciclaggio, un altro 4% viene perso durante il processo di riciclaggio, l’8% viene riciclato in prodotti di qualità inferiore, solo il 2% viene riciclato in prodotti equivalenti. Fonte: World Economic Forum; Ellen MacArthur Foundation, 2016.

E lì la plastica rimane, inalterata. La durata della plastica è uno dei motivi per cui è diventata così ampiamente utilizzata. Quando diventa spazzatura, tuttavia, quella durata è una maledizione. La maggior parte delle materie plastiche è costituita da polimeri derivati ​​da combustibili fossili, formati da catene molecolari che possono raggiungere migliaia di unità ripetute trattenute da legami covalenti.

La maggior parte della plastica che viene riciclata fornisce un prodotto di qualità inferiore perché la tecnologia di riciclaggio più diffusa e popolare comporta la triturazione meccanica, la fusione e la riformazione della plastica. I polimeri tendono a degradare a temperature elevate quindi il materiale viene declassato nella fase di riciclo. Come mostra la figura solo il 2% della plastica che ha iniziato come bottiglia di acqua minerale diventerà una nuova bottiglia di uguale qualità. Il resto della plastica riciclata finisce tipicamente in oggetti diversi.

Altri fattori stanno complicando il problema dell’inquinamento da plastica, in particolare la Cina che da decenni raccoglie e tratta i rifiuti riciclabili da tutto il mondo, ha annunciato nel 2017 che limiterà le importazioni di rifiuti stranieri. Già ora alcuni impianti di gestione dei rifiuti degli Stati Uniti devono inviare plastica riciclabile direttamente alle discariche perché non c’è abbastanza capacità di riciclaggio interna. Con una crescente consapevolezza del problema dei rifiuti di plastica, a maggio l’American Chemistry Council ha annunciato l’obiettivo di riciclare o trasformare in altri prodotti tutte le confezioni di plastica utilizzate negli USA entro il 2040.

Mentre le montagne di plastica scartata continuano a crescere, la scienza ha iniziato a offrire alcune possibili soluzioni. I chimici stanno lavorando a nuovi metodi per decomporre le attuali materie plastiche (polimeri) nei loro elementi costitutivi (monomeri) rendendo così più semplice il riutilizzo, e stanno progettando nuove materie plastiche che potrebbero essere più facili da riciclare. I biologi e i biochimici stanno anche lavorando lentamente verso il riciclaggio di materie plastiche biocatalizzate, usando battèri o enzimi per degradare i polimeri.

Di seguito illustreremo brevemente alcune di queste ricerche mettendone in risaldo benefici e svantaggi.

Riciclaggio chimico

Jinwen Zhang, un chimico della Washington State University, dopo aver sviluppato delicati processi catalitici per rompere i legami esterei in resine epossidiche, un tipo di termoindurente molto comune nei materiali compositi, utilizzando opportuni catalizzatori, ha dimostrato che si potrebbero riutilizzare i frammenti per ricostruire il materiale polimerico.

Sembra però che questo metodo non sia conveniente per applicazioni commerciali. Di conseguenza, Zhang e il suo gruppo sta lavorando alla progettazione di nuovi polimeri avendo già in mente il loro riciclaggio. Se questa idea risultasse praticabile, risolverebbe molti problemi del riciclaggio.

Zhang ha sviluppato un vitrimero[1] a base di eugenolo, un fenilpropene naturale presente nella noce moscata, nella cannella e in altre piante [2]. Quando il vitrimero viene riscaldato con etanolo e ZnCl2, il catalizzatore rimasto dal processo di polimerizzazione, il polimero si rompe nei suoi legami esterei e i frammenti possono essere ritrasformati nel vitrimero perché la reazione è invertibile (v. figura)

Vitrimero all’eugenolo

Anche Megan L. Robertson, dell’Università di Houston ha sviluppato termoindurenti riciclabili cercando prodotti chimici di origine vegetale per sostituire in parte o del tutto il bisfenolo A (BPA), utilizzato come precursore epossidico in molte resine. Le alternative al BPA identificate includono olio di semi di soia epossidato, acido salicilico e altri derivati vegetali. Robertson afferma che le caratteristiche chiave che cerca in queste molecole sono gruppi funzionali convenienti per la conversione in epossidi e anelli aromatici per la forza di legame, imitando la struttura chimica del BPA [3]. Poiché molte di queste molecole contengono esteri, afferma Robertson, i metodi di riciclaggio chimico in fase di sviluppo per i poliesteri potrebbero essere applicati ai suoi polimeri termoindurenti.

Un gruppo di ricerca dell’Università della California a Irvine, guidato da Zhibin Guan, ha considerato la borazina per produrre termoindurenti riciclabili [4]. Questi anelli a tre atomi di boro si formano attraverso reazioni reversibili tra gruppi di acido boronico sui monomeri mimando la struttura chimica del BPA, una proprietà che consente anche di riformare il termoindurente. Nell’acqua bollente, il polimero si rompe nei suoi monomeri.

Gli anelli di borozina possono rompersi e facilmente riformarsi in questo termoindurente, consentendo di rimodellarlo.

Ma non tutti i materiali termoplastici riciclabili devono fare affidamento sull’auto-distruzione. Eugene Y.-X. Chen, un chimico della Colorado State University, ha recentemente descritto un polimero completamente riciclabile con proprietà simili alla plastica oggi sul mercato [5]. Di questo polimero ha recentemente parlato Claudio Della Volpe:

https://ilblogdellasci.wordpress.com/2018/05/04/il-santo-graal-del-riciclo-della-plastica/

Biodepolimerizzazione

In questo blog è stato citato un enzima battèrico modificato capace di degradare il polietilene tereftalato favorendone il riciclo:

https://ilblogdellasci.wordpress.com/2018/03/28/un-enzima-per-la-degradazione-e-riciclaggio-del-polietilene-ftalato-pet/

che sarebbe un indice che la ricerca sulla bio-depolimerizzazione sta lentamente avanzando, a parte il circo mediatico sempre pronto a mettersi in moto appena sente il prefisso bio. In effetti la biocatalisi per l’abbattimento della plastica potrebbe un domani costituire una quota del panorama del riciclaggio.

Nel 2017, Federica Bertocchini dell’Istituto di biomedicina e biotecnologia della Cantabria riferì che il bruco della vite, o meglio un enzima contenuto nei suoi battèri intestinali poteva degradare il polietilene (ne demmo notizia sul nostro blog). L’evidenza si basava sull’osservazione che una pellicola di polietilene sottoposta all’azione dei bruchi mostrava nuovi picchi nel suo spettro infrarosso, attribuibili al glicole etilenico, il monomero del PE [6]. Quattro mesi dopo, tuttavia, Till Opatz e il suo gruppo della Johannes Gutenberg University Mainz pubblicarono un articolo che contestava i risultati di Bertacchini. Secondo questa ricerca i picchi osservati da Bertacchini proverrebbero da proteine dei bruchi della vite che sarebbero rimaste attaccate alla pellicola di polistirolo dopo il lavaggio [7].

 

Yun Yang e il suo gruppo alla Beihang University riportarono che i batteri contenuti nelle larve della tignola indiana degradano il polietilene [8]. Ma come nello studio del bruco di Bertocchini, non è stato eseguito alcun lavoro di marcatura isotopica. Yang sostiene che fu possibile confermare la rottura biochimica del polietilene con altre tecniche: spettroscopia i.r., spettrometria di massa e spettroscopia a risonanza magnetica nucleare.

Yu Yang e il suo team hanno poi condotto studi di marcatura isotopica per stabilire che un batterio intestinale proveniente da larve della tarma della farina (Tenebrio molitor) consuma polistirene [9].

Wei-Min Wu, della Stanford University suggerisce che gli organismi convertono circa la metà del carbonio del polistirolo che ingeriscono in CO2 piuttosto che nei monomeri dello stirene che peraltro, sostiene, non sono stati identificati con certezza.

Nel 2016 un gruppo di ricercatori giapponesi [10], riportarono che enzimi contenuti nel battèrio Ideonella sakaiensis erano in grado di depolimerizzare il PET a bassa cristallinità nei suoi due monomeri secondo lo schema:

Fu replicato che poiché il PET è un poliestere semicristallino, solo le regioni amorfe sarebbero sensibili al degrado enzimatico. Pertanto, la bassa cristallinità può essere sostanzialmente la causa della degradabilità del PET usato dai giapponesi.

Kohei Oda dell’Istituto di Tecnologia di Kyoto, che ha co-diretto lo studio originale, dice che il suo gruppo ha iniziato a esaminare battèri che potrebbero usare il PET come nutriente per la crescita, indipendentemente dalla cristallinità [11]. Sostiene che l’ottimizzazione degli enzimi può essere oggetto di una ulteriore ricerca, ritiene però che alcune agenzie di stampa abbiano esagerato l’impatto immediato del lavoro e, di conseguenza, lui e il suo gruppo stanno controllando gli esperimenti con ancora maggior attenzione.

Diversi gruppi hanno risolto la struttura cristallografica a raggi X di uno degli enzimi del team giapponese, che converte il PET in un intermedio chiamato acido mono- (2-idrossietil) tereftalico. Ma John E. McGeehan dell’Università di Portsmouth, Gregg T. Beckham del National Renewable Energy Laboratory, H. Lee Woodcock dell’Università della South Florida, e i loro colleghi hanno avuto una piacevole sorpresa nel risolvere la struttura dell’enzima [12]. Essi hanno deciso di determinare come si è evoluto l’enzima di degradazione del PET e, nel corso della ricerca hanno accidentalmente ottenuto un enzima mutante che potrebbe erodere un PET più altamente cristallino di quello utilizzato dai giapponesi. Beckham dice che l’attuale versione dell’enzima richiederebbe ancora mesi per “digerire” una bottiglia da bibita. “Stiamo facendo un sacco di bioingegneria proteica per migliorare ulteriormente l’attività dell’enzima”, afferma McGeehan.

Sul’argomento della biodepolimerizzazione Carmen Dahl ha posto ai ricercatori sopra citati il seguente quesito:

I battèri si stanno evolvendo per cibarsi della plastica?

Ecco alcune risposte:

Lo spero, ma avremmo sicuramente bisogno di controllarli! (F. Bertacchini)

Sarebbe naturale che microrganismi si evolvano per consumare le materie plastiche, dal momento che le rendiamo sempre più abbondanti nell’ambiente. (R. Gross)

Questo non è ancora stato dimostrato. (W. Zimmermann)

Abbiamo bisogno di più esempi per rispondere a questa domanda. (Kohei Oda)

Da ignorante in materia biologica a biochimica mi auguro che vi sia un adeguato controllo in queste ricerche, come auspica Bertacchini, in particolare in quelle di bioingegneria, quando si cerca di produrre mutazioni proteico enzimatiche non è detto che si sappia come va a finire…

A questo proposito ricordo il romanzo di fantascienza “Lebbra antiplastica” di K. Pedler e G. Davis (1°a Edizione italiana nella collana Urania, Mondadori, 1974) in cui la mutazione improvvisa di una proteina inventata per biodegradare bottigliette di plastica, provoca una catastrofe a livello mondiale. Il romanzo si legge volentieri anche oggi soprattutto perché uno degli autori (Kit Pendler, 1927-1981), è stato scienziato e divulgatore di un certo livello prima di diventare scrittore a tempo pieno.

 

Bibliografia

[1] J.R. Jambeck et al., Plastic waste inputs from land into the ocean., Science, 2015, 347, 768-771.

[2]Tuan Liu et al., Eugenol-Derived Biobased Epoxy: Shape Memory, Repairing, and Recyclability, Macromolecules, 2017, DOI: 10.1021 / acs.macromol.7b01889).

[3] G. Yang et al., Biorenewable Epoxy Resins Derived from Plant-Based Phenolic Acids., ACS Sustainable Chem. Eng., 2016, DOI: 10.1021 / acssuschemeng.6b01343).

[4]W. A. Ogden, and Z. Guan, Recyclable, strong and highly malleable thermosets based on boroxine networks., J. Am. Chem. Soc. 2018, DOI: 10.1021 / jacs.8b03257.

[5] Zhu et al., A synthetic polymer system with repeatable chemical recyclability., Science, 2018, 360, 398–403.

[6] P. Bombelli et al. Polyethylene bio-degradation by caterpillars of the wax moth Galleria mellonella., Curr. Biol. 2017, 27, R283–R293.

[7] C. Weber et al., Polyethylene bio-degradation by caterpillars?, Curr. Biol. 2017, 27, R731–R745.

[8] Jun Yang et al. Evidence of Polyethylene Biodegradation by Bacterial Strains from the Guts of Plastic-Eating Waxworms., Environ. Sci. Technol., 2014, 48, 13776−13784.

[9] Y. Yang et al., Biodegradation and Mineralization of Polystyrene by Plastic-Eating Mealworms: Part 2. Role of Gut Microorganisms., Environ. Sci. Technol., 2015, , 49, 12087−12093; Part1 in ibid, 2015, 49, 12080−12086.

[10] S. Yoshida et al., A bacterium that degrades and assimilates poly(ethylene terephthalate)., Science, 2016, 351, 1196–1199).

[11] S. Yoshida et al. Response to Comment on “A bacterium that degrades and assimilates poly(ethylene terephthalate)”, Science, 2016, 353, 759c-760c.

[12] (H. P. Austin et al., Characterization and engineering of a plastic-degrading aromatic polyesterase., Proc. Natl. Acad Sci. USA, 2018, DOI: 10.1073 / pnas.1718804115).

[1] I vitrimeri sono una classe di materie plastiche, molto simili ai polimeri termoindurenti. I vitrimeri possono cambiare la topologia delle loro reti molecolari mediante reazioni di scambio di legami attivate termicamente. A temperature elevate possono scorrere come liquidi viscoelastici, a basse temperature le reazioni di scambio di legami sono molto lente e i vitrimeri si comportano come i tipici termoindurenti.

Avventure di un chimico in depurazione.

In evidenza

Mauro Icardi.

La depurazione delle acque è diventata un’attività estremamente importante nei paesi più industrializzati, ed è un’attività che necessita di una adeguata ed indifferibile implementazione nei paesi emergenti. La riduzione dell’inquinamento delle acque reflue crea contemporaneamente un nuovo problema. La gestione del fango prodotto dal trattamento delle stesse. Generalmente si può calcolare che, 100 m3 di scarichi producano circa 1 m3 di fango al giorno. Il fango deve subire idonei trattamenti di riduzione della frazione organica e putrescibile, e deve, per poter essere smaltito, subire un trattamento di disidratazione con il quale si incrementa il tenore percentuale di sostanza secca. Il trattamento dei fanghi è a tutti gli effetti il punto cruciale degli sforzi sia tecnici che economici dei gestori di impianto.

Talvolta si verifica anche la necessità di introdurre modifiche allo schema di processo di un impianto di depurazione per far fronte a variazioni di carico organico influente. Tali variazioni possono incrementare la produzione giornaliera di fanghi. In un caso di questo genere può essere utile il dosaggio di un adeguato flocculante nella sezione di sedimentazione primaria, a monte del trattamento di ossidazione biologica. Per chi non lo ricordasse la flocculazione è un processo che determina l’accorpamento delle particelle colloidali presenti principalmente atttraverso la neutralizzazione delle loro cariche superficiali.

Presso l’impianto di depurazione di Varese, per le ragioni suddette e in attesa di un intervento di ampliamento che portò alla costruzione di una nuova linea di ossidazione biologica, e la realizzazione di un nuovo digestore anaerobico di maggiore volumetria (3500 m3 rispetto ai 1800 m3 del preesistente) venne effettuata una sperimentazione realizzata su un impianto pilota, per verificare l’efficacia tecnico economica di una soluzione di questo tipo. Il flocculante testato era cloruro ferrico in soluzione commerciale.

Si voleva in questo modo verificare la possibilità di diminuire il carico inquinante in ingresso alla fase di ossidazione, cercando di ottenere il duplice risultato di diminuire sia la quantità di fango da destinare al successivo trattamento di digestione anaerobica, sia il consumo energetico per l’ossigenazione della biomassa.

A tale scopo venne utilizzato un impianto pilota costituito da un sedimentatore primario, una vasca di ossidazione, e un sedimentatore finale.

Il dosaggio di cloruro ferrico (soluzione al 41% in peso) venne determinato tramite prove preliminari eseguite con jar test e venne fissato in 70 mg/lt, ed il punto di dosaggio era il sedimentatore primario dell’unità pilota. La portata di alimentazione di 160 lt/h. Il tempo di ritenzione in sedimentazione primaria pari 2 ore, e in ossidazione a 3,5 ore.

I campionamenti venivano eseguiti tre volte a settimana sia sulla linea acque (punti di prelievo ingresso, uscita sedimentatore primario, e uscita finale), che sulla linea fanghi (ossidazione biologica).

I parametri determinati in linea acqua comprendevano Ph, COD, Fosforo totale, Solidi sospesi totali e tutte le forme di azoto (TKN, N-NO2, N-NO3)

I parametri ricercati sulla linea fanghi (ossidazione biologica) erano la concentrazione di fango, la percentuale di sostanza volatile e l’indice di volume dei fanghi (MLSS-MLVSS e SVI).

Le percentuali di abbattimento ottenute sull’impianto pilota vennero confrontate con quelle dell’impianto reale. Come era logico attendersi le percentuali di abbattimento di parametri quali il COD e i solidi sospesi totali risultarono maggiori nel sedimentatore primario pilota, rispetto a quelle riscontrate sull’impianto reale, con incrementi del 30% e del 20% rispettivamente.

La valutazione del consumo energetico necessario alla biodegradazione dei reflui in fase biologica, assumendo come valore di riferimento quello di 0,6 KWh/Kg COD, reperito in letteratura, permise di stabilire che il trattamento poteva diminuire il consumo energetico del 12,7%. Il consumo medio dell’impianto in esercizio era di 1900 Kwh, mentre con il dosaggio di flocculante si poteva ridurre a 1658 KWh.

L’aggiunta di flocculante implicava una produzione aggiuntiva di fango chimico, costituito principalmente da fosfato ferrico di circa 0,4 Kg/Kg di FeCl3 dosato, pari a 106 Kg/g.

Ma il minor carico inquinante che veniva inviato in fase di ossidazione permetteva una riduzione della produzione di fango biologico pari al 26% (962 kg/giorno nel processo convenzionale, 712 Kg/g nel processo di pre-precipitazione).

La produzione totale di fango inviato in digestione anaerobica risultava cosi ridotta del 14% rispetto alla gestione con solo trattamento biologico. Oltre a questo, considerando che il fango chimico risultava più concentrato ed ispessito, rispetto al solo fango biologico (primario+supero), si poteva diminuire la volumetria del fango che si doveva inviare al digestore che risultava sovraccaricato. In questo modo ne avrebbe beneficiato anche la resa in biogas.

La riduzione di carico organico influente in ossidazione biologica avrebbe favorito anche il rendimento della reazione di nitrificazione.

Vista la situazione di criticità dell’impianto si decise di sperimentare soltanto il dosaggio di flocculante di 70 mg, e si misero in opera delle strutture provvisorie ed asportabili per il dosaggio di flocculante.

I risultati sulla gestione operativa dell’impianto si dimostrarono congruenti con quelli della sperimentazione.

In questo modo si riuscì a gestire una situazione di criticità gestionale, che, vista anche la vicinanza dell’impianto a un centro commerciale, e a uffici amministrativi, sarebbe potuta diventare delicata dal punto di vista delle molestie olfattive. La riduzione di fango caricato, migliorò decisamente la produzione di biogas del digestore e quindi la riduzione della sostanza organica volatile suscettibile di produrre cattivi odori. Per quanto riguarda invece il beneficio dovuto al risparmio energetico, non essendo stato previsto nella fase di progetto iniziale il recupero del biogas prodotto, che viene tuttora utilizzato solo per il riscaldamento del digestore, esso si limitò al minor consumo per l’ossigenazione della biomassa nella sezione di ossidazione biologica.

Il dosaggio di cloruro ferrico venne mantenuto per due anni e mezzo. Nell’agosto del 1999 si collaudarono e si misero in funzione le nuove sezioni di impianto, e l’impianto di dosaggio del cloruro ferrico venne smantellato.

L’esperienza è interessante, e dimostra come in casi sia di sovraccarico, che di necessità di raggiungere limiti più restrittivi allo scarico, si possano mettere in atto soluzioni provvisorie ma decisamente efficaci.

Il ricordo di quel periodo è certamente quello di un impegno abbastanza gravoso, anche per il laboratorio. Va precisato che in quel periodo non erano ancora stati introdotti i kit analitici, e tutte le analisi venivano effettuate con metodiche tradizionali. Ma alla fine il lavoro diede i suoi frutti, e il ricordo che ho è quello di una collaborazione proficua tra tutti settori che si impegnarono per questa realizzazione.

Ora per l’impianto di Varese si prospetta un’ulteriore fase di ampliamento per continuarne la vita operativa. Il decano dei depuratori nel territorio provinciale di Varese svolge infatti il suo lavoro di “lavaggio delle acque” dal lontano 1983.

La cultura nell’era post-industriale.

In evidenza

Luigi Campanella, già Presidente SCI

Il mondo cambia e con esso l’organizzazione civile e sociale. Anche la cultura ed i suoi servizi dovrebbero rinnovarsi per rispondere ad una richiesta sempre più pressante ma anche diversificata per situazione abitativa, livelli di formazione, possibilità di spese.

Che cosa dire del museo tradizionale? Centralità, linearità, rigidità, nella migliore tradizione gerarchica. Rigidità dovuta al fatto che un museo è stato lungamente identificato con un preciso modello, museo tradizionale come blocco monolitico indipendente dall’esterno, che offre una o poche chiavi di lettura in quanto lineare e rigido.

La cultura non può essere inglobata in un museo onnicomprensivo, esaustivo, assoluto, ma devono essere tenute in conto tutte le interdipendenze fra le numerose branche e ciò può essere attuato soltanto con un modello reticolare che abiliti il maggior numero di connessioni possibili. Dinamicità e flessibilità, quindi, in quanto ad ogni esigenza imprevista la struttura può adeguarsi aggiungendo nodi e connessioni, forgiando quindi nuovi percorsi che agevolino anche le periferie e tutte le zone della città. Il museo del futuro, come tutti i sistemi configurati secondo il modello distribuito della rete deve tendere a privilegiare le possibili connessioni fra i suoi poli elementari, piuttosto che un singolo ambiente centralizzato che raccolga tutto lo scibile umano. La differenza è notevole.

Reputazione e referenze: le carte vincenti del lavoratore post-industriale Ivana Pais Università degli Studi di Brescia 3 febbraio 2009.

Società nell’ Era Post-Industriale

Non stiamo vivendo uno sconvolgimento temporaneo, una congiuntura negativa per economia e politica, ma piuttosto i sintomi di un cambiamento radicale, il passaggio fra due epoche, quella industriale, nata nel diciottesimo secolo in seguito alla spinta ideale dell’illuminismo e quella Post-Industriale.

Era Post-Industriale significa affermazione di un nuovo concetto di capitalismo, nettamente diverso da quello tradizionale. Nel secolo scorso Marx ed Engels svilupparono una critica molro dettagliata del capitalismo, in base ad un’accurata analisi delle condizioni delle masse lavoratrici. Un capitalismo ingiusto, a loro parere, perché incentrato sulla concorrenza spietata, su un profitto che avvantaggiava pochi fortunati a scapito di una maggioranza insoddisfatta ma necessaria per generare il profitto stesso.

Le soluzioni alternative prospettate dai pionieri del comunismo non hanno tuttavia condotto ai risultati attesi, la Storia lo dimostra, tutti gli esperimenti più o meno seri sono falliti miseramente, Unione Sovietica, in primis. Il capitalismo criticato da Marx sta subendo lo stesso destino, se è vero che tutte le strutture e le organizzazioni che hanno sposato i suoi insegnamenti ora stanno attraversando un momento di crisi profonda.

Cosa ci riserverà l’Era Post-Industriale?

Prima di tutto l’internalizzazione, il dissolvimento di qualsiasi frontiera, che sia territoriale o semplicemente simbolica. L’Era Industriale ha concorso a creare le infrastrutture e la tecnologia per eliminare le distanze fra i popoli, per rompere le diversità, per edificare una mentalità universale basata su principi comuni, validi per qualsiasi individuo indipendentemente dal suo luogo di origine. L’Era Post-Industriale sarà segnata da un nuovo cosmopolitismo, da una maggiore libertà di movimento, dalla condivisione dei patrimoni informativi.

La crisi di alcuni principali gruppi industriali del nostro tempo è riconducibile ad una serie di cause più o meno influenti, fra cui senz’altro l’incapacità di motivare il singolo, di farlo sentire in qualche modo importante. L’uomo del futuro sceglierà lavori stimolanti, attività che contribuiranno a far aumentare la fiducia in se stesso, e scarterà le strutture tradizionali, destinate ad un’ingloriosa estinzione.

Era Post-Industriale significherà anche rivalutazione della qualità della vita, ricerca di lavori diversi, occupazioni più innovative per minimizzare gli sforzi e massimizzare i risultati.

L’Era Post-Industriale, per riassumere, combatterà strenuamente le divisioni rigide, le strutture soffocanti per la personalità umana, le situazioni di staticità, per favorire il dinamismo globale, l’interattività e l’etica.

Le donne scienziate in Russia nella seconda metà del XIX secolo: “migranti della conoscenza”. 2.

In evidenza

Rinaldo Cervellati

(la prima parte di questo post è pubblicata qui)

Le prime donne ad ottenere il dottorato furono quelle che erano riuscite a essere ammesse come uditrici all’Accademia medico-chirurgica di San Pietroburgo prima del divieto del 1863. Fra queste è importante ricordare Nadezhda Suslova (1843-1918) e Maria Bokova-Sechenova (1839-1929). Entrambe ottennero il dottorato in medicina all’Università di Zurigo, la prima nel 1867, la seconda nel 1871.

Nadezhda Suslova M. Bokova-Sechenova

Suslova ottenne il permesso di esercitare la professione in Russia nel 1868, al suo ritorno a San Pietroburgo.

Negli anni successivi Suslova, oltre a fare il medico ha effettuato ricerche in fisiologia, ginecologia e igiene. E’ stata una delle prime a osservare che la cecità neonatale poteva essere causata dall’esposizione alla gonorrea durante passaggio attraverso il canale del parto.

Maria Bokova-Sechenova fu autorizzata a esercitare come medico a San Pietroburgo nel dicembre 1971.

Bokova-Sechenova era interessata alla ricerca più che alla pratica medica. Tornò quindi in Europa occidentale per specializzarsi in oftalmologia a Vienna e successivamente ha lavorato come ricercatore e oculista nei laboratori delle Accademie russe di scienze e medicina. Tuttavia, dopo aver ereditato una piccola tenuta, si interessò di agronomia e infine realizzò una fattoria sperimentale che divenne la sua principale occupazione.

Una menzione particolare merita Sofia Kovalevskaia (1850-1891) un genio matematico internazionalmente riconosciuto. A 18 anni si recò insieme al giovane marito paleontologo all’università di Heidelberg per poter continuare gli studi. Frequentò le lezioni di matematica di Paul Du Bois-Reymond, le lezioni di fisica di Hermann von Helmholtz  e  Gustav Kirchhoff e quelle di chimica di Robert Wilhelm Bunsen. Dal 1870 al 1874 andò a Berlino dove Karl Weierstrass, colpito dalle sue doti matematiche, volle prenderla sotto la sua guida impartendole lezioni private. Kovalevskaja preparò tre diverse tesi di dottorato sotto la guida e il sostegno di Weierstrass, ne elaborò una quarta che nel 1874 le fece guadagnare un dottorato summa cum laude presso l’Università di Gottingen. Il principale risultato, conosciuto come Teorema di Cauchy-Kovalevsky, fu pubblicato nel 1875. Fu così che ottenne, prima donna in Europa, un dottorato in matematica. Il suo ritorno in Russia fu inutile per la sua carriera professionale poiché nessuna Università riconobbe i titoli conseguiti in Europa. Tuttavia nel 1881 fu nominata membro della Società Matematica di Mosca come docente privato.

Sonia Kovalevsky

Ritornata in Germania ebbe una figlia, Sofia. Dopo la morte del marito, nel 1883 si trasferì con la figlia a Stoccolma. Nel 1884 cambiò nome e si fece chiamare Sonia Kovalevsky. Divenne, prima donna al mondo, professore di matematica, ottenendo la cattedra all’Università di Stoccolma. In breve tempo imparò perfettamente lo svedese tanto da pubblicare i suoi lavori di matematica in questa lingua.

Dopo aver vinto due premi rispettivamente dell’Accademia di Parigi e di quella di Svezia, nel 1888 fu nominata membro dell’Accademia delle Scienze di Russia.

Sarebbe difficile sopravvalutare le straordinarie realizzazioni di questo primo gruppo di donne russe nella scienza. Provenivano da uno dei paesi più reazionari d’Europa e si impegnarono per cambiare i sistemi educativi europei con determinazione. Sofia Kovalevskaia persuase da sola l’Università di Heidelberg a ritirare il divieto di ammettere donne. Nadezhda Suslova ottenne lo stesso risultato con l’Università di Zurigo. Vera Goncharova è stata nel primo gruppo di quattro donne cui è stato permesso di studiare presso la Facoltà di Medicina a Parigi.

Nonostante i successi delle donne russe nelle università dell’Europa occidentale, i loro percorsi successivi post diploma o dottorato non furono affatto facili. Sulle centinaia di donne che andarono a studiare all’estero nei primi anni del 1870, solo una percentuale valutata fra il 20 e 30% [1], ha completarono i loro programmi. E su quelle che l’hanno fatto, non tutte riuscirono a sfruttare la specialità conseguita. Molte sono le ragioni che hanno contribuito a questo esito non soddisfacente.

Naturalmente, molto è dipeso dallo stress a cui sono state sottoposte le studentesse di tutte le età: la pressione dalle famiglie, la convinzione che le loro scelte professionali fossero essenzialmente dovute a spregiudicatezza, la mancanza di appropriati modelli di ruolo, il sottile quando non palese pregiudizio degli uomini, ecc. Ma c’erano anche alcuni fattori peculiari degli atteggiamenti delle donne russe donne dell’epoca. Come la femminista radicale P.N. Arian ha sottolineato: “Bisognava avere un coraggio e un’energia immensi per andare contro la società, la famiglia e gli amici e partire da sole per luoghi lontani in cerca di realizzarsi nella scienza” [1].

Verso la fine del movimento

Dal 1870 il governo zarista cominciava a sentire un forte disagio per la sempre crescente colonia femminile all’estero. Attraverso le informazioni di una fitta rete di spie, sapeva che gli studenti femmine e maschi si incontravano liberamente con emigrati molto radicali come l’anarchico Mikhail Bakunin (1814-1876) e il narodista (populista,dal russo narod = popolo) Piotr Lavrov (1823-1900), ed era evidente che molte giovani donne erano influenzate da questi pensatori politici. Allarmato da tutto ciò, nel giugno del 1873 il governo russo emise un proclama che richiamava in Russia tutte le studentesse di Zurigo. Chiunque fosse rimasta dopo il 1 ° gennaio 1874 sarebbe stata esclusa dalla possibilità di lavorare in qualsiasi istituzione russa.

Le donne erano scioccate e offese dal contenuto e dal tono del proclama, ma molte di loro decisero che non avevano altra scelta che andarsene da Zurigo. Gli studenti più poveri non potevano permettersi di mettere in pericolo le loro possibilità di occupazione in Russia. Le istituzioni governative erano infatti la loro principale speranza per un lavoro come medico, ricercatore o insegnante. Inoltre, alcune donne erano abbastanza ingenue da credere che presto sarebbero state ammesse agli esami di licenza e alle università russe se avessero obbedito all’ordine del governo.

Altre, cercarono di stabilirsi altrove, Berna, Ginevra e Parigi furono fra le mete preferite, ma continuando la persecuzione zarista anche Boston e Filadelfia furono prese in considerazione.

Tuttavia il governo zarista dovette affrontare un dilemma. Da un lato, la Russia aveva bisogno di personale medico e scientifico, e quindi molti amministratori sollecitarono la liberalizzazione dell’accesso delle donne all’istruzione superiore e alla formazione professionale. D’altra parte, molte di quelle donne che avevano studiato scienze in patria o all’estero erano schedate dalla polizia per le loro attività politiche, e alcune erano addirittura al centro stesso della lotta rivoluzionaria. Sulle otto donne del comitato esecutivo di diciotto membri dell’organizzazione militante narodistsa Volontà Popolare, due avevano studiato a Zurigo. L’autocrazia quindi contemporaneamente all’inasprimento del proclama di Zurigo, istituì corsi di istruzione per donne, permise l’istituzione di corsi di formazione per donne e corsi superiori per “ostetriche istruite” a San Pietroburgo, Mosca e altre grandi città dell’impero russo.

Il movimento delle donne russe considerò la creazione di questi corsi un grande trionfo. I corsi per le ostetriche istruite aperti a St. Pietroburgo nel 1872 furono i primi corsi di medicina esclusivamente per donne in Europa. Questi corsi raggiunsero presto un livello uguale a quello dei Corsi di medicina per uomini russi, anche se le donne laureate non furono autorizzate a chiamarsi “dottori”.

Si può comunque sostenere che molti di questi corsi rappresentarono un passo indietro per le donne scienziate in Russia. Mentre quelli di medicina erano a un livello ragionevolmente alto, i corsi femminili superiori in altre discipline non erano del calibro di quelli che le donne russe avevano seguito in Europa occidentale.

Inoltre, anche nei corsi femminili, mentre le donne potevano essere supervisori o assistenti di laboratorio, non potevano diventare professori.

Dopo l’assassinio di AIessandro II nel 1887 (attribuito al movimento Volontà Popolare) i corsi di medicina smisero di accogliere nuovi studenti o furono chiusi completamente. Solo nel 1895 fu approvato un nuovo istituto medico femminile. Quando anche gli altri corsi furono riaperti nel 1889, si scoprì che erano state prese misure per limitare alle donne lo studio delle scienze. Le facoltà di scienze matematiche, fisiche e naturali erano state notevolmente ridimensionate, i laboratori erano stati chiusi e molti insegnamenti di scienze naturali erano stati cancellati. Completamente aperti alle donne furono solo gli studi linguistici e artistici ritenuti dalle autorità abbastanza innocui.

Così si esaurì la prima fase della storia delle donne nella scienza in Russia. Solo dopo molti anni, nel XX secolo le cose cambieranno grazie ancora a donne che ottennero risultati scientifici paragonabili a quelli delle scienziate della prima generazione, qui ricordate.

Per la redazione di questo post ho attinto in particolare dalle seguenti opere:

[1] A. H. Koblitz, Science, Women, and the Russian Intelligentsia. The Generation of the 1860s,

ISIS, 1988, 79, 208-226.

[2] M. R. S. Creese, Early Women Chemists in Russia: Anna Volkova, Iuliia Lermontova, and Nadezhda Ziber-Shumova., Bull. Hist. Chem., 1998, 21, 19-24.

Le donne scienziate in Russia nella seconda metà del XIX secolo: “migranti della conoscenza”. 1.

In evidenza

Rinaldo Cervellati

Nel libro European Woman in Chemistry, più volte da me citato, è ricordata Julia Lermontova (1846-1919), chimico russo della seconda metà del XIX Secolo. Da una più dettagliata ricerca mi sono reso conto che altre due colleghe di Lermontova, precisamente Anna Volkova (?-1878) e Nadezhda Ziber-Shumova (1870?-1914) sono state, insieme a molte altre donne scienziate, protagoniste di quel movimento di emancipazione femminile che ebbe inizio in Russia negli anni ’60 e ’70 del XIX secolo per filtrare poi in tutta Europa [1,2]. Mi sembra quindi opportuno premettere un excursus storico generale tenendo anche conto che della storia Russa quasi tutti ne sappiamo poco…

Il contesto storico e socio-politico

Nel 1855, l’ascesa al trono dello Zar Alessandro II, considerato un liberale rispetto al padre, Nicola I, suscitò una serie di aspettative nell’intelligentsia[1] e nella parte più progressista della nobiltà e della borghesia riformista. In effetti, nel 1861 promulgò la legge sull’emancipazione, con la quale venne abolita la servitù della gleba da tutto il territorio imperiale determinando l’indipendenza della maggioranza dei contadini russi. Nel 1864 riformò l’amministrazione locale creando assemblee elettive dei rappresentanti dei distretti, e promulgò la riforma dell’ordine giudiziario. L’anno precedente aveva avviato una controversa riforma dell’università che prevedeva però un aumento di fondi statali e l’autonomia dei docenti.

L’élite istruita sperava quindi che l’emancipazione dalla servitù e la riforma dell’istruzione sarebbero state accompagnate da un miglioramento della situazione delle donne, una democratizzazione del governo zarista e una liberalizzazione generale della società russa.

L’ottimismo era particolarmente diffuso fra i giovani (come capita quasi sempre) che si definirono “nihilisti” (o nichilisti) mutuando questo aggettivo dal famoso romanzo Padri e Figli (1862) di Ivan Turgenev, dove il protagonista si autodefinisce appunto “un nichilista”. Secondo Ann Koblitz [1], l’intenzione di Turgenev sarebbe stata di descrivere il suo giovane protagonista come un ribelle che negava tutte le istituzioni della società zarista solo per il piacere di provocare gli anziani.

Ivan Turgenev

 

Edizione di Padri e Figli in russo

Ma molti giovani, lungi dall’essere offesi da questa interpretazione, accettarono con entusiasmo l’aggettivo dichiarandosi nichilisti nel senso che “nulla nella società dei loro genitori valeva la pena di essere salvato; La Russia doveva essere completamente rifondata”[1].

In realtà, i giovani degli anni ’60 del XIX secolo avevano un’incrollabile fede nelle scienze naturali e nel potere dell’educazione, credevano fortemente nell’uguaglianza fra uomini e donne, ammiravano i contadini, le istituzioni rurali e desideravano essere in qualche misura utili all’emancipazione del popolo russo[2].

Per i nichilisti, la scienza sembrava il mezzo più efficace per raggiungere questo scopo: essa aveva respinto le barriere poste dalla religione e dalla superstizione e “provato” attraverso la teoria dell’evoluzione che le rivoluzioni sociali (pacifiche) erano la strada naturale da percorrere [1].

Conseguenze nella scienza in Russia

L’entusiasmo dei nichilisti per la scienza, insieme alla decisione del governo di dedicare materiali e risorse allo sviluppo scientifico, produsse rapidamente ottimi risultati: gli anni ‘60 e ’70 del XIX secolo sono considerati una “golden age” della scienza russa [1].

Agli storici della scienza sono ben presenti i nomi di Ivan Sechenov e Kliment Timiriazev in fisiologia; Dmitri Mendeleev, Aleksander Butlerov e Vladimir Markovnikov in chimica; Ilya Mechnikove, Aleksander Kovalevskii in embriologia; Ivan Pavlov in neurofisiologia; e Vladimir Kovalevskii in paleontologia, solo per citare i più noti. Forse meno noto è che a vari livelli tutti questi scienziati furono coinvolti nel fermento degli anni ‘60 e che molti di essi si consideravano nichilisti.

L’atteggiamento delle università russe nei confronti delle donne

Nei primi anni del 1860 le donne formavano una parte significativa di un gruppo poco caratterizzato di uditori non ufficiali che vagavano dentro e fuori dalle aule dell’Università di San Pietroburgo e di altre accademie tecniche specializzate. Professori e studenti le accoglievano volentieri, e inizialmente le autorità le tolleravano benevolmente, in seguito poi alla fine della guerra di Crimea (1856) e alla legge sull’emancipazione (1861) vi fu una certa liberalizzazione nella struttura universitaria. In questo periodo L’Accademia medico-chirurgica di San Pietroburgo cominciò ad ammettere le donne come studenti su base semiufficiale. Non potevano ricevere lauree, ma potevano sostenere in modo informale esami e lavorare nei laboratori dell’istituzione, entusiasticamente incoraggiate dai professori progressisti della facoltà.

Le studentesse erano ottimiste riguardo alle loro capacità e impegno, erano persuase che i loro studi avrebbero convinto il governo zarista ad ammetterle sulla stessa base degli uomini. Speravano che il nuovo statuto universitario in fase di elaborazione in quel momento, avrebbe codificato il loro ingresso nelle istituzioni di istruzione superiore in tutto l’impero russo. Una proposta di bozza dello statuto, approvata da tutte le università tranne Mosca e Dorpat, suggeriva infatti che le donne fossero ammesse con gli stessi diritti degli uomini. Se questa versione dello statuto universitario fosse stata adottata, la Russia sarebbe stata il primo paese in tutta Europa a concedere alle donne lo stesso status e le stesse lauree degli uomini. Sfortunatamente, lo zar fu molto restio e il governo intervenne a bocciare il provvedimento.

La conseguenza fu una serie di manifestazioni studentesche. Per le donne dell’intelligentsia il risultato più sfortunato del malcontento studentesco fu che le università si chiusero per loro. In termini puramente numerici non erano molte le donne coinvolte nelle proteste. C’erano meno donne uditori rispetto agli studenti maschi, e la maggior parte di esse temeva la sospensione dall’università se avessero partecipato alle dimostrazioni. Ma alcune donne avevano posizioni elevate nel movimento studentesco, quindi attrassero l’attenzione della polizia zarista.

La proposta di consentire alle donne di immatricolarsi ufficialmente fu definitivamente abbandonata, e nello statuto universitario riveduto del 1863 le donne non furono nemmeno menzionate. Inoltre, agli istituti di istruzione superiore fu ordinato di permettere l’ingresso solo agli studenti regolarmente iscritti, nella speranza di controllare così gli elementi più “sovversivi”.

Le donne più determinate e impegnate (spesso quelle con possibilità finanziarie) decisero di andare a studiare all’estero. La maggior parte di loro si recò all’Università o al Politecnico di Zurigo, perché le università svizzere accettavano donne straniere senza esami di ammissione. Questo era un punto importante, perché la maggior parte delle donne russe aveva ricevuto poca o nessuna istruzione formale. Inoltre, le tasse scolastiche e di soggiorno erano relativamente basse a Zurigo, dove esisteva già una grande colonia di studenti russi e di esiliati politici così che le donne si sentivano meno sole.

Dal 1865 al 1873, Zurigo vide una quantità sempre maggiore di donne russe in cerca di diplomarsi o laurearsi in scienze naturali o medicina.

In larga misura si deve a questa prima generazione di donne russe, l’ammissione femminile all’istruzione superiore nell’Europa continentale. Sono state le prime studentesse a Zurigo, Heidelberg, Lipsia e altrove, nonché le prime donne a ottenere dottorati in medicina, matematica, chimica e biologia.

In realtà le donne degli anni ‘60 furono spesso sorprese dal loro status di pioniere. Molte donne nichiliste erano piene di idealismo sull’Occidente e sul livello di democrazia e uguaglianza che secondo loro aveva raggiunto l’Europa occidentale. Inizialmente si sentirono inferiori, provenendo dall’ “arretrata” Russia, e si aspettavano fiduciosamente di unirsi a ranghi di numerose donne europee già impegnate in seri studi. Con grande stupore scoprirono invece che le loro idee e atteggiamenti, il loro entusiasmo per l’educazione e la loro determinazione a riuscire non erano affatto condivise dalle donne dell’Europa occidentale. Sotto alcuni aspetti, ciò le pone in prima linea nella costruzione del movimento femminista in Europa [1].

Soprattutto nei primi anni della colonia studentesca russa a Zurigo, incontrarono poche donne di altre nazioni. Anche le donne svizzere tendevano a non approfittare delle opportunità del loro Paese per l’istruzione avanzata, forse in parte perché gli svizzeri, a differenza degli stranieri, erano tenuti a ottenere il diploma ginnasiale per poter essere ammessi alle università o ai politecnici.

Dai dati statistici dell’Università di Zurigo risulta che dall’inverno 1863/64 all’estate 1872 la provenienza delle studentesse straniere fu di 23 inglesi, 10 tedesche, 6 austriache, 6 americane e ben 148 russe, contro solo 10 svizzere [1].

Ma il soggiorno in Svizzera non fu certo una “pacchia” per queste “migranti della conoscenza”. Sebbene alcune di esse avessero il sostegno dei genitori o in qualche caso dei mariti, molte si trovarono in difficoltà. Dovettero economizzare nel cibo, nell’alloggio, condividere libri e in certi casi alternarsi nell’uso di cappotti e stivali invernali [1]. Altri problemi derivarono da differenze socio-culturali.

Sebbene i professori trattassero con cortesia se non con entusiasmo, gli studenti russi, non altrettanto fu il comportamento dei comuni cittadini svizzeri, la maggior parte dei quali disapprovava il comportamento dei russi, in specifico quello delle donne. Anzitutto non capivano il loro desiderio di istruzione, in particolare per aree come le scienze e la medicina, considerate discipline poco femminili. Gli svizzeri furono scandalizzati anche dai rapporti di cameratismo fra le donne russe e le loro controparti maschili. Per i cittadini della classe media di Zurigo, i capelli corti di queste donne, i loro abiti semplici, i manierismi senza scrupoli e l’abitudine a fumare sigarette erano scioccanti. Se si aggiunge la tendenza delle russe a chiacchierare a tutte le ore, a passeggiare in città in gruppi di sesso misto, si può immaginare come molti svizzeri le considerassero poco più che prostitute. Le donne trovarono quindi difficoltà ad ottenere camere soddisfacenti in affitto e furono spesso discriminate e ridicolizzate nei negozi e nei mercati.

(continua)

[1] Nella Russia imperiale, con il termine intelligentsia veniva descritta una classe di intellettuali in grado di assumere una leadership culturale. A questi intellettuali veniva tuttavia impedito l’accesso alle leve ufficiali della politica e dell’ economia.

[2] Molto di tutto ciò è presente anche nel pensiero di Basarov, il protagonista di Padri e Figli, il nichilista che non credeva in nulla…, Un libro che ha molto influenzato la mia giovinezza (e non solo quella…)

Due lettere a LaRepubblica

In evidenza

Vincenzo Balzani

Con il permesso del’autore riproduciamo qui due lettere inviate recentemente a La Repubblica da Vincenzo Balzani; gli argomenti sono quelli tipici del nostro blog: energia, ambiente, il nostro rapporto con queste cose, il ruolo della Chimica. Non sono state pubblicate e così rimediamo noi nel nostro piccolo.

Eni e noi, abitanti della Terra

Caro Direttore,

ho letto su Repubblica del 16 giugno l’appello sulla Rivoluzione Energetica dell’A.D. di ENI Claudio Descalzi. Quanto è scritto nella prima parte dell’articolo è completamente condivisibile: “Clima ed energia sono i fattori su cui si gioca il futuro, …. la transizione energetica deve essere guidata dalla protezione dell’ambiente, … siamo lontani dal contenere l’aumento delle temperature al di sotto del limite dei 2°C fissato dalla Cop21 di Parigi”.

Da queste premesse si dovrebbe trarre, come scrive papa Francesco nell’enciclica Laudato si’, la conclusione che “I combustibili fossili devono essere sostituiti senza indugio …”. Descalzi si guarda bene dal dirlo, confermando così quanto affermato dal papa stesso: ”… ma la politica e l’industria rispondono con lentezza, lontane dall’essere all’altezza delle sfide” (165)”.

Descalzi informa che Eni ha abbattuto la componente carbonica della sua attività, ma non dice che si tratta di una goccia nel mare di CO2 che Eni direttamente o indirettamente genera con i quasi due milioni di barili di petrolio prodotti al giorno! Qua e là Descalzi cita le energie rinnovabili, ma come ha affermato in molte altre occasioni reputa che non siano “mature” e sostiene che l’unica via per salvare il clima è utilizzare il metano come fonte energetica “ponte”. In realtà l’energia elettrica prodotta dalle energie rinnovabili è già oggi competitiva sul piano economico, anche senza considerare i problemi sanitari e climatici creati dai combustibili fossili. Le energie rinnovabili, insomma, sono già disponibili e pronte all’uso: quello che manca è la volontà di utilizzarle, a causa degli enormi interessi economici e di potere che ne verrebbero colpiti.

Non serve ricorrere al metano come energia “ponte”, anche perché il metano non è affatto innocente riguardo i cambiamenti clmatici. Descalzi dovrebbe saperlo, ma non lo dice. E’ vero, infatti, che a parità di energia prodotta la quantità di CO2 generata dal metano è inferiore di circa il 25% di quella generata dal petrolio, ma è anche vero che il metano rilasciato in atmosfera è un gas serra 72 volte più potente di CO2 quando l’effetto è misurato su un arco di 20 anni (25 volte più potente quando misurato su 100 anni). Poiché nella lunga filiera del metano si stima ci siano perdite di almeno il 3% rispetto alla quantità di gas usato, è chiaro che estendendo l’uso del metano non si combatte affatto il cambiamento climatico.

Nel campo dei trasporti, oltre che sul metano Eni fa molto affidamento sui biocombustibili, in netta contraddizione con la realtà dei fatti. Studi scientifici dimostrano che l’efficienza di conversione dei fotoni del sole in energia meccanica delle ruote di un’automobile (sun-to-wheels efficiency) è almeno 50 volte superiore per la filiera che dal fotovoltaico porta alle auto elettriche rispetto alla filiera che dalle biomasse porta alle auto alimentate da biocombusibili. In effetti, quello che gli esperti prevedono non è una sostituzione significativa dei combustibili fossili con biocombustibili, ma una rapida, dirompente diffusione delle auto elettriche. La cosa non meraviglia perché i motori elettrici non inquinano, non producono CO2, sono quattro volte più efficienti dei motori a combustione interna e sono molto più facili da riparare e da mantenere.

In Italia, quindi, non servono altre bioraffinerie alimentate da olio di palma proveniente dalla Malesia, ma fabbriche di pannelli fotovoltaici, batterie, auto elettriche e colonnine per la ricarica.

Infine, Descalzi lega lo sviluppo dell’Africa, oltre che all’enorme potenziale di energia solare ed eolica, anche alla presenza, in quel continente, di enormi riserve di combustibili fossili, molte delle quali scoperte da Eni, che ha anche l’obiettivo di scoprire altri 2 miliardi di barili di combustibili fossili perforando 115 pozzi in 25 paesi. In base all’accordo di Parigi, però, la maggior parte delle riserve di combustibili fossili già note dovrà rimanere nel sottosuolo. Se quell’accordo sarà osservato, Eni avrà problemi economici. Se invece la politica permetterà di usare tutte le riserve, i problemi, purtroppo, li avremo noi, abitanti della Terra.

Vincenzo Balzani, Professore Emerito, Università di Bologna

 

Lettera a Repubblica 26 giugno 2018

Egregio direttore Calabresi,

Apprendo da Repubblica di oggi che nel “pacchetto formazione” concesso agli operai della Lamborghini in orario di lavoro retribuito sono state inserite Lezioni sulla Costituzione. E’ certamente un’ottima iniziativa.

Credo però che sarebbe necessario ricordare a tutti, cominciando dai politici che hanno salutato con entusiasmo la produzione del nuovo SUV Urus come straordinario esempio di innovazione che:

  • nei motori a scoppio, usati da più di un secolo, non c’é più nulla da innovare; se si vuol fare

innovazione nel campo delle automobili, oggi la si può fare solo sulle auto elettriche.

  • con la sua mostruosa potenza di 600 CV e gli alti consumi di combustibili fossili, il SUV Lamborghini è un emblema del consumismo dal quale le vere innovazioni dovrebbero farci uscire;
  • col suo prezzo di 250.000 euro, Urus è l’icona delle disuguaglianze che, a parole, tutti dicono di voler abbattere.

Non sarebbe male, allora, inserire nel “pacchetto formazione” anche, un paio di frasi dell’enclica di Papa Francesco:

  • Il ritmo di consumo, di spreco e di alterazione dell’ambiente ha superato le capacità del pianeta; lo stile di vita attuale, essendo insostenibile, può sfociare solamente in catastrofi”.
  • Ci dovrebbero indignare le enormi disuguaglianze che esistono tra di Non ci accorgiamo più che alcuni si trascinano in una miseria degradante, mentre altri non sanno nemmeno che farsene di ciò che possiedono”.

Cordiali saluti,

Vincenzo Balzani, Professore emerito, Università di Bologna

 

Michael Mann: Percezione e negazione del cambiamento climatico.

In evidenza

Mauro Icardi

Michael Mann fisico e climatologo, attualmente ancora impegnato nella collaborazione con l’IPCC (Intergovernmental Panel on Climate Change), Direttore dell’Earth System Science Center presso la Pennsylvania State University, e autore di “La terra brucia” in questi giorni è stato in visita in Italia.

Mann ha tenuto una serie di incontri dedicati ai cambiamenti climatici, e al triste fenomeno del negazionismo relativamente alla sua origine antropica. Io ho potuto ( e voluto) assistere a quello tenutosi nella sede della Società Meteorologica Italiana, cioè nel Real Collegio Carlo Alberto di Moncalieri, dove la stessa venne fondata nel 1865 da Francesco Denza, padre barnabita, meteorologo e astronomo.

Prima dell’inizio della conferenza ho avuto la possibilità di visitare la collezione archeologica, la raccolta di strumenti scientifici e la collezione dei dati meteorologici raccolti da padre Denza.

Sono stato fatto salire anche sulla la torretta dell’osservatorio meteorologico dove il religioso si dedicava alle osservazioni astronomiche e meteorologiche.

La mia curiosità è stata ampiamente soddisfatta ed appagata. Anche perché non mancano strumenti che ho potuto utilizzare negli anni di studio, per esempio l’ebulliometro di Malligand.

La foto che segue mostra il professor Mann ritratto davanti a questa parte della raccolta.

Esaurita questa piacevolissima anteprima, la conferenza tenuta dal professor Mann ha positivamente rinforzato le mie convinzioni. Convinzioni che ormai da anni mi portano a cercare di mettere in pratica azioni virtuose ,volte a ridurre quanto più possibile il mio valore di emissioni di CO2. La mia formazione personale è passata anche attraverso l’esperienza ed il ricordo degli anni dell’austerity e della crisi energetica. L’esempio pratico della possibilità di una vita personale appagante, ma che non fosse preda di bramosie consumistiche ed esageratamente edonistiche viene dall’educazione che i miei genitori hanno voluto non impartirmi, ma direi donarmi.

E tutto questo di fatto è una buona base di partenza.

All’inizio della conferenza, già le parole di presentazione di Luca Mercalli inquadrano quello che sarà il tema della serata. Di fronte ai dati scientifici validati dall’istituto di Scienze dell’atmosfera e del Clima, che mostrano come la primavera del 2018 risulti essere la quarta più calda in Italia, con un aumento di temperatura media di 1,8°C, queste ragioni spariscono di fronte alle percezioni e alle opinioni comuni. E’ stata una primavera piovosa, e questo basta perché la gente la avverta automaticamente come una primavera fredda. Con buona pace di grafici e studi scientifici.

L’intervento di Michael Mann da poi conto di molte situazioni surreali e palesemente assurde. Ma prima di parlarne è giusto ricordare l’importanza e il colossale lavoro svolto da Mann e dai suoi collaboratori alla fine degli anni 90.

La raccolta dei dati sulle temperature di migliaia di anni, lo studio dei coralli, degli anelli di crescita degli alberi e i ghiacci polari. Alla fine della ricerca i dati vengono raccolti in un grafico, poi pubblicato su Nature, e conosciuto come il grafico della “mazza da hockey” (hockey stick).La curva della temperatura terrestre che è piatta, improvvisamente si impenna in corrispondenza degli ultimi due secoli, della rivoluzione industriale, dalla sempre maggior quantità di carbone, petrolio e gas naturale bruciato dall’uomo per le proprie necessità. Necessità che col tempo forse si sono trasformate, almeno in parte, in capricci consumistici.

Mann riesce a catturare l’attenzione. Potrebbe non essere così immediato, visto che ovviamente parla in inglese. Ma in sala non vola una mosca.

Scorrono anche diapositive che mi interessano particolarmente. Il cambiamento climatico impatterà, anzi sta già impattando sulle modalità di approvvigionamento delle risorse idriche. L’esempio della California è recente. E viene mostrato.

Ma il tema della serata è centrato sul negazionismo. Sulla pretesa che la pubblica opinione o la cattiva politica possano sfuggire alle evidenze scientifiche, nonché alle leggi fisiche. Sembrerebbe una specie di incubo. Invece è una deprimente e triste realtà. L’indice delle parole proibite dall’amministrazione Trump, come “evoluzionismo” è purtroppo storia recente.

Le teorie e gli studi di Mann sono stati oggetto di ogni sorta di attacchi e minacce. Minacce provenienti sia dall’ambiente scientifico, che da quello politico o dell’opinione pubblica. Mi colpiscono due cose che il professore ci mostra. La prima è la dichiarazione da parte di un membro del congresso degli Stati Uniti che l’innalzamento dei mari sia causato dalle rocce che vi finiscono dentro. La seconda opinione (che purtroppo non è mancata nemmeno in Italia) è la convinzione che in ogni caso il riscaldamento globale sia una buona cosa, una “good thing”. Un immaginario che vede la trasformazione dell’Italia, degli Usa e del pianeta in un unico enorme paradiso turistico. L’idea di un “non luogo” come quelli teorizzati dall’etnologo Marc Augè che non solo non ha nulla di realistico, ma che sottovaluta superficialmente i problemi concreti e reali del riscaldamento globale.

Devo dire che non provo nemmeno sbigottimento o stupore. Parlando di questi temi ho potuto constatare personalmente quanto abbia spazio nelle menti di molte persone, quel sottile e subdolo meccanismo di rimozione e negazione. Che in ultima analisi è solo una scusa per non agire, per procrastinare il necessario cambiamento di strategie politiche e di abitudini personali. Il solo fatto che sia ritornato ad usare la bici come mezzo di trasporto per recarmi al lavoro mi ha probabilmente qualificato agli occhi dei colleghi come eccentrico, se non incosciente.

Al termine della conferenza provo di nuovo una sensazione che non riesco a descrivere. Che è quella di sapere profondamente che non devo derogare alle mie convinzioni, e che devo continuare sulla strada intrapresa. Che passa non solo attraverso una revisione continua delle mie abitudini, nella verifica dei miei veri bisogni, ma anche attraverso un impegno di cui non mi posso privare. Anche se può sembrare faticoso o improbo. Di studio e di divulgazione. Sento che tutto questo mi fa stare bene. In pace con me stesso. Sento in maniera profondamente intuitiva che questa è la strada giusta.

E voglio lasciare alle parole del Professor Mann la chiusura e la sintesi.

«Qual è il ruolo appropriato per gli scienziati nelle discussioni pubbliche a proposito di cambiamenti climatici? Devono restare rinchiusi nei laboratori con le teste sprofondate nei loro laptops? Oppure devono impegnarsi in sforzi vigorosi per comunicare le loro scoperte e parlare delle conseguenze?

Un tempo avrei sostenuto il primo punto di vista… non desideravo nulla di più che essere lasciato solo ad analizzare i dati, costruire modelli teorici e fare scienza guidato dalla curiosità. Pensavo toccasse ad altri pubblicizzare le implicazioni delle ricerche. Prendere anche lontanamente posizione sulle politiche riguardanti il cambiamento climatico mi appariva come anatema.

Tutto ciò che ho sperimentato negli anni, mi ha convinto che quel punto di vista era sbagliato. Sono diventato involontariamente un personaggio pubblico quando il nostro lavoro finì sotto i riflettori dei media alla fine degli anni ’90. Posso continuare a convivere con gli assalti cinici contro la mia integrità e la mia persona portati avanti dalla macchina del negazionismo finanziato dalle multinazionali. Quello con cui non posso convivere è il rimanere in silenzio, mentre gli esseri umani, confusi e ingannati dalla propaganda dell’industria petrolifera, vengono condotti senza saperlo lungo un cammino tragico che condannerà le future generazioni. Come spiegheremo ai nostri nipoti che abbiamo visto approssimarsi la minaccia, ma non abbiamo fatto tutto ciò che era in nostro potere per assicurarci che l’umanità prendesse le giuste contromisure?»

(Michael E. Mann, The Hockey Stick and the climate wars, Columbia University Press 2012)

NB Questo articolo vuole anche essere un ringraziamento a Luca Mercalli, Claudio Cassardo, Daniele Cat Berro, Valentina Accordion della Società Meteorologica Italiana. Non solo per l’organizzazione di questa serata e della conferenza, ma per il loro lavoro di questi anni.

L’aroma del tartufo

In evidenza

Rinaldo Cervellati

Il tartufo è forse il più prezioso ingrediente della nostra gastronomia e viene esportato in tutto il mondo. Come è noto esistono due principali di varietà di tartufo, quello bianco e quello nero, il primo si trova prevalentemente nella zona di Alba (Piemonte), il secondo in quella di Norcia (Umbria), tuttavia i tartufi sia bianchi che neri si trovano anche in altre regioni italiane.

Tartufo bianco e nero

Premesso che i tartufi, ancorchè chiamati “preziosi tuberi” non appartengono al regno vegetale, bensì a quello dei funghi (genere Tuber, da cui la confusione), esistono diversi tipi sia della varietà bianca sia di quella nera. La più pregiata varietà bianca è il Tuber Magnatum Pico (comunemente tartufo bianco d’Alba), la più pregiata varietà nera è il Tuber Melanosporum Vittadini (comunemente tartufo nero pregiato di Norcia). Fra queste due la più costosa è senza dubbio la prima.

Bellissimi e costosissimi tartufi bianchi

Come buongustai siamo interessati ai molti piatti che si possono preparare con questo profumatissimo ingrediente, come chimici siamo curiosi di sapere quale o quali molecole sono responsabili dell’aroma dei tartufi. Studi gas cromatografici hanno mostrato che fra i numerosi composti odorosi esalati dai tartufi, i responsabili del particolare aroma sono composti dello zolfo, in particolare: nel Tuber Magnatum è prevalente il bis(metiltio)metano, mentre nel Tuber Melanosporum è prevalente il dimetil solfuro.

Bis(metiltio)metano

Ci occuperemo qui del primo composto perché in un recente numero di Chemistry & Engineering news è riportato che un gruppo di ricercatori italiani ha messo a punto un nuovo metodo analitico per distinguere il vero aroma del tartufo bianco d’Alba da quello del composto sintetico usato come additivo alimentare (D. Sciarrone et al. Multidimensional GC-C-IRMS/Quadrupole MS with a Low-Bleed Ionic Liquid Secondary Column for the Authentication of Truffles and Products Containing Truffle, Anal. Chem., 2018, DOI: 10.1021/acs.analchem.8b00386.). Questo metodo è certamente importante nella pratica poiché ad es. nel 2012, un controllo di routine da parte delle autorità in un ristorante di Bologna portò al sequestro di oltre 300 kg di merce di contrabbando. Se il materiale contraffatto fosse stato quello che dichiarava di essere, cioè purea di tartufo bianco, oggi sarebbe venduto per oltre 1 milione di dollari. Il costo di 1 kg di tartufo bianco d’Alba nella scorsa stagione è stato mediamente di 7000 dollari.

Simon Cotton, dell’Università di Birmingham, non coinvolto nella ricerca afferma: Si possono imbrogliare alcune persone con tartufi economici, ma arricchirli di aromi artificiali renderà più facile farlo con false etichettature.

Il desiderio dei consumatori per prodotti genuini determina la necessità di test analitici per prevenire tali frodi alimentari, dice Luigi Mondello, responsabile del gruppo di ricerca comprendente docenti e ricercatori delle Università di Messina, Pisa e Roma.

Quando isolato da un tartufo bianco naturale, il bis(metiltio)metano contiene carbonio-12 e carbonio-13 in un rapporto unico, determinato dall’ambiente in cui il fungo è cresciuto. Nel contempo, la versione sintetica di questa molecola contiene pure un rapporto isotopico del carbonio unico determinata dalle origini delle materie prime (petrolchimiche o vegetali) con cui è stato sintetizzato, e quindi diverso dal precedente.

Il gruppo coordinato dal prof. Mondello ha usato questa differenza per testare il bis (metiltio) metano dal tartufo naturale, diversi campioni sintetici e vari prodotti alimentari al tartufo. I ricercatori hanno raccolto campioni di tartufo bianco da tutta Italia, li hanno tagliati e sigillati in fiale contenenti fibre per assorbire i composti volatili che evaporavano dalla massa di tartufi. Quindi hanno estratto i composti adsorbiti sulle fibre e utilizzato un gascromatografo per isolare il bis (metiltio) metano. Hanno quindi iniettato il composto purificato in uno spettrometro di massa a rapporto isotopico, che misura le quantità relative di 12C e 13C nei campioni testando il biossido di carbonio rilasciato quando le molecole vengono bruciate all’interno dello strumento.

Sistema accoppiato GC/MS per analisi isotopiche

I ricercatori hanno poi ripetuto questo processo per misurare l’abbondanza relativa del 13C nel bis (metiltio)metano sintetizzato da derivati petrolchimici. I risultati hanno mostrato che il composto dei tartufi bianchi naturali ha una percentuale maggiore di 13C rispetto all’aroma del prodotto di sintesi, una differenza abbastanza grande da distinguere fra i campioni.

Successivamente, i ricercatori hanno ripetuto gli esperimenti su campioni di olio d’oliva commerciale aromatizzato al tartufo, miele, pasta, formaggi, salse e creme aromatizzate acquistati nei negozi italiani. I prodotti etichettati come contenenti tartufi di qualità inferiore o aroma di tartufo aggiunto mostravano il rapporto isotopico del bis(metiltio)metano sintetico, mentre i prodotti etichettati come contenenti ​​tartufo bianco originale mostravano l’impronta isotopica del composto contenuto nel fungo naturale. Pertanto, i ricercatori non hanno rilevato alcuna vera frode, ma hanno potuto verificare che la tecnica da loro messa a punto può distinguere con successo il bis(metiltio)metano naturale da quello sintetico.

Dice Danilo Sciarrone dell’università di Messina, coautore della ricerca: usando il nostro metodo e la nostra procedura, l’analisi è pronta per essere utilizzata in altri laboratori.

Questo articolo è stato tradotto, ampliato e adattato dall’autore da Melissae Fellet, Isotopes could sniff out fake truffe, C&EN newsletters on-line, June 1, 2018.

Mi prendi un campione?

In evidenza

Mauro Icardi

Quando al lavoro pronuncio questa frase vuol dire che, quasi sempre mi trovo a far fronte ad un problema.

Di solito è l’assenza non prevista di colleghi per malattie proprie, o dei figli piccoli. A quel punto, se non voglio soccombere, devo chiedere un aiuto ai ragazzi che si occupano della conduzione e manutenzione dell’impianto. Il prelievo di un campione di acqua da un campionatore programmabile generalmente è un’operazione tutto sommato semplice. La questione è diversa quando si tratta dei campioni della linea fanghi. Sia che siano destinati ad analisi che devono essere svolte nel laboratorio aziendale, sia che invece debbano essere inviate a laboratori esterni. Cerco di dare delle indicazioni di massima per avere un campione rappresentativo. E cerco di far capire che il campionamento è la fase fondamentale di un’analisi. In questo modo cerco anche di comunicare qualcosa della filosofia chimica. Quella analitica in particolare. Posto che la chimica ancora per troppi rappresenti un concetto negativo , è anche difficile fare capire che il chimico che svolge un’analisi non è un indovino. Che deve seguire un preciso percorso metodologico, sia quando preleva un campione, ma anche quando lo deve pretrattare prima di sottoporlo ad analisi.

Cerco di spiegare che l’analisi della medesima sostanza in materiali diversi può presentare problemi analitici anche sensibilmente differenti. Per esempio la determinazione del ferro nel sangue, in una lega metallica o negli spinaci.

Quindi mi diletto a parlare di queste cose. Qualche volta il mio interlocutore è attento, altre volte visibilmente annoiato. Oppure pensa che io lo stia sottoponendo ad una delle famose “supercazzole” divenute famose grazie al film “Amici miei”. Questo accade quando pronuncio qualche parola che per me è ovviamente usuale. Terminologia tecnica, o qualche formula chimica che risulta a chi mi ascolta particolarmente astrusa. Sembra che il linguaggio e la terminologia della chimica risulti particolarmente indigesto. Infatti secondo alcuni dei miei colleghi io per l’analisi dei metalli utilizzo “l’assorbitore atomico”.

Qualche altro collega , per animare la conversazione mi propone improbabili teorie. Queste notizie sono reperite normalmente su siti, o su programmi televisivi decisamente poco attendibili . Se ci pensiamo bene se ci si vuole informare in maniera corretta, occorre fare un capillare lavoro di verifica dell’attendibilità delle fonti. Smontare teorie assurde o palesemente false nel corso di queste conversazioni, mi fa provare inevitabilmente ad una sensazione di stanchezza e fatica.

Un’altra delle cose che succede, è che chi preleva campioni di fanghi, nonostante io gli dica che la quantità che mi serve è per esempio di circa 250 grammi, si presenta in laboratorio con un barattolo da un chilo pieno fino all’orlo. Quasi che esista un collegamento più campione= analisi più precisa. Forse l’idea che un chimico si occupi di concentrazioni a volte davvero molto basse induce ad un ragionamento di questo tipo. Si tratta di fanghi che poi tendono a gassificare anche se sono già stati già sottoposti al processo di disidratazione. Quindi non mi rimane che liberarmi dell’eccesso, pena riempire il frigorifero del laboratorio di barattoli e campioni inutili.

Non manca mai, e anzi continua l’incomprensione quando parlo del fatto che un problema analitico non si risolve possedendo arti divinatorie, ma che l’approccio al problema analitico deve essere sistematico, cioè non si deve improvvisare. Un dialogo di questo tipo si presenta quando qualcuno mi porta un campione che in questo caso non gli ho chiesto di prelevarmi, ma che invece è stato prelevato di sua iniziativa in qualche punto dell’impianto o della rete di acquedotto. L’intenzione è lodevole, ma di solito non so dove e come il campione sia stato prelevato, e con quali modalità. E la stessa cosa vale per chi mi chiede qualche volta l’analisi dell’acqua di casa. Propongo di fornire i contenitori che uso in laboratorio. Ma l’offerta viene spesso rispedita al mittente. Quindi negli anni mi sono giunti campioni in bottigliette di acqua, in contenitori di marmellata, e anche in scatole di biscotti e caramelle, se erano solidi o polverulenti. E questi campioni sono stati conservati in maniera non ben definita E’ quindi del tutto evidente che questa sia una battaglia persa . La morale finale è quella che, la frase “Scusa puoi prendermi un campione ?” la sto pronunciando ormai da tempo il meno possibile. Preferisco, anche a costo di variare l’impostazione di un programma di lavoro già definito, recarmi di persona per effettuare il campionamento. O accompagnare la persona che è stata incaricata di farlo. Credo che il chimico che lavora con coscienza sa di assumersi una responsabilità di fronte alle persone per le quali sta svolgendo il servizio. E quindi delegare sull’effettuazione dei campionamenti, o delle verifiche sul campo sarebbe come venir meno ad un impegno da cui non mi sento di derogare.

Questo mi pone alcune volte un problema di come ottimizzare il mio tempo, ma è l’unica soluzione possibile. Sarebbe interessante pensare ad un corso interno per insegnare le modalità di base del campionamento per il personale di impianto. Un’idea che però non è ancora stato possibile realizzare fattivamente.

Un ultima considerazione relativa alle fasi di preparazione di un’analisi. Credo che occorra insegnare con molta attenzione il giusto pretrattamento dei campioni. Spesso ho avuto discussioni anche molto accanite su questo aspetto del lavoro. Visto che sono convinto che il punto critico del trattamento di depurazione convenzionale risieda nella linea fanghi, se il campione proviene da quel trattamento occorre convertire l’analita che si andrà a determinare nel modo migliore e nella forma più adatta per la successiva analisi.

Questo ultimo tipo di problema è come uno spartiacque. Sembra che dedicare più tempo al pretrattamento sia una perdita di tempo inutile, e limiti la produttività. E invece è una fase fondamentale.

Non è argomento facile quando l’interlocutore non è un tecnico. La difficile conversazione che da sempre esiste tra il settore tecnico e quello amministrativo. Credo in ogni azienda.