Economia e conoscenza.

Luigi Campanella, già Presidente SCI

La definizione non è mia ma di Paul Romer, premio Nobel per l’Economia 2018, a cui ha dedicato un bellissimo articolo Cesar Hidalgo.

La frase a cui mi riferivo è la seguente: “A differenza dei fattori classici di produzione,come il capitale ed il lavoro, la conoscenza è un bene non competitivo, ovvero può essere condiviso senza che si consumi e quindi come tale potrebbe effettivamente aumentare a livello pro capite, così costituendo il segreto della crescita economica.”

Il modello elaborato negli anni 90 ha affascinato molti giovani che hanno seguito con passione le orme dei maestri. 3 di loro hanno pubblicato un articolo divenuto un caposaldo di questa teoria ed il cui fuoco era sulla diffusione geografica della conoscenza : con una tecnica di corrispondenza , di abbinamento, ad ogni brevetto se ne può accoppiare un altro gemello. Confrontando i 2 brevetti gemelli è possibile verificare come la loro capacità di essere diffusi e conosciuti risenta in misura determinante della vicinanza geografica.

Questa conclusione impone di discutere perchè questo sia un limite ad una conoscenza che Romer aveva giudicato infinita. Per comprendere questo apparente contrasto sono stati svolti ampi dibattiti giungendo alla conclusione che il mondo di internet che sembrava destinato a decentrare i centri di conoscenza, quasi a fare svanire le città, invece non funzionava da elemento uniformante ma al contrario differenziante sempre di più. Un ulteriore elemento a giustificazione di quanto rilevato era rappresentato dalla coautorialità, un vero cappio della geografia intorno al collo della conoscenza. C’era poi un aspetto più generale. La conoscenza è trasportabile, può essere resa disponibile a tutti, ma non è trasferibile in toto: un chimico, quale io sono, sa di chimica, ma può non sapere di musica o sport e viceversa.

La misura della conoscenza totale non ha perciò senso rispetto a quella della conoscenza riferita a ciascuna attività economica. Vale certo il principio della correlazione; l’eventualità che un’economia entri in un certo mercato aumenta a seconda della correlazione fra quell’economia e quel mercato. Nella misura del totale della conoscenza in un’economia, portata avanti successivamente dalla stessa scuola, i rilievi non tenevano conto della correlazione, ma del grado di intensità. Confrontando esiti della misura per Paesi diversi si arriva alla conclusione che i Paesi con maggiore conoscenza totale erano anche i più ricchi: Singapore, ad esempio,con 4 milioni di abitanti, ha una conoscenza totale superiore all’Etiopia con i suoi 80 milioni di abitanti. La conoscenza produttiva non deve necessariamente correlarsi alla popolazione, è una quantità pro capite. Si intravede una delle tesi di questo tipo di studio: la conoscenza intesa come il nuovo PIL.

Per approfondire:

https://blogs.scientificamerican.com/observations/the-rise-of-knowledge-economics/

Scienziate che avrebbero potuto aspirare al Premio Nobel: Elizabeth Rona (1890-1981)

Rinaldo Cervellati

Elizabeth Rona è stata un chimico nucleare, una delle prime quattro persone a scoprire l’uso dei marcatori radioattivi in vari campi della scienza.

Elizabeth Rona nacque il 20 marzo 1890 a Budapest, in Ungheria, da Samuel Rona e Ida Mahler. Suo padre era un noto medico ebreo che installò uno dei primi schermografi a raggi X a Budapest e lavorò con i fondatori della terapia del radio al fine di introdurre questa tecnica anche in Ungheria. Elizabeth voleva diventare un medico come suo padre, ma Samuel credeva che sarebbe stato troppo difficile per una donna raggiungere questo traguardo. Stimolò comunque l’interesse della figlia per le scienze fin dalla giovane età, incoraggiandola a intraprendere studi universitari scientifici. Elizabeth si iscrisse quindi alla Faculty of Philosophy dell’Università di Budapest, studiando chimica, geochimica e fisica. Conseguì il dottorato di ricerca in chimica nel 1912, discutendo una tesi sulla cinetica della bromurazione degli alcooli primari, sotto la guida del Dr. Stefan Bugarszky, tesi che fu poi pubblicata con solo il suo nome [1].

Elizabeth Rona da giovane

Rona iniziò la sua formazione professionale nel 1912 al Kaiser Wilhelm Institute e all’istituto di Fisiologia Animale di Berlino studiando il comportamento dei lieviti come reagenti. Nell’ottobre 1913 si trasferì all’università di Karlsruhe con l’intenzione di lavorare con il noto chimico-fisico George Breding, ma fu consigliata di scegliere piuttosto Kasimir Fajans[1] che stava lavorando nel nuovo e eccitante campo della radioattività. Nel gruppo di Fajans fu benvenuta e trattata subito come qualsiasi altro membro del gruppo di ricerca. E’ del 1913 la scoperta di Fajans e del suo studente di dottorato Oswald Göhring del radionuclide di un nuovo elemento che fu poi chiamato protoattinio. Con Fajans, Rona ebbe un ottimo rapporto professionale e rimasero in corrispondenza costantemente. Per approfondire le conoscenze di radiochimica, Rona si recò, nell’estate 1914, all’University College di Londra, ma lo scoppio della prima Guerra Mondiale la costrinse a tornare in Ungheria. All’Istituto di Chimica dell’Università di Budapest completò una lunga ricerca sul radon, il gas nobile radioattivo emesso dal radio [2]. A quei tempi era tornato a Budapest anche George de Hevesy[2] che a Vienna aveva studiato (insieme a F. Paneth, 1887-1958) il radionuclide ThB[3] (oggi Pb-212) trovandolo identico al Pb-206-207-208, tranne che per la radioattività. Favorevolmente impressionato dal lavoro che Rona stava facendo sul radon, Havesy le chiese di verificare la scoperta di un nuovo elemento radioattivo, chiamato Uranio-Y (oggi Th-231), scoperto a Manchester, che Frederick Soddy[4] e A. Flecks non erano riusciti a confermare. Elizabeth seguì il consiglio di Hevesy e riuscì a separare U-Y da altri interferenti, dimostrando che si trattava di un emettitore β con un’emivita di 25 ore [3].

  1. Hahn e poi F.Soddy riverificarono il lavoro di Rona, da quel momento Elizabeth Rona non fu più “solo una giovane chimico”.[4]

Elizabeth Rona in laboratorio

Nelle discussioni con Hevesy, Rona introdusse per prima i termini “etichette isotopiche“ e “traccianti”, e nel lavoro citato in [3] notò che la velocità di diffusione dei nuclidi dipendeva dalla massa. Sebbene contenuta in una nota a piede di pagina questa osservazione è alla base dello sviluppo della tecnica di separazione con la spettrometria di massa, utilizzata anni dopo da altri scienziati [4]. Nel 1918 Hevesy lasciò Budapest, il suo posto fu affidato a Franz Tangl, noto biochimico e fisiologo dell’Università di Budapest che offrì a Rona una docenza. Insegnò quindi chimica a studenti selezionati che Tangl riteneva non avessero conoscenze sufficienti per seguire il suo corso. Rona divenne così la prima donna a insegnare chimica a livello universitario in Ungheria.

Dopo la fine della Grande Guerra, l’Ungheria attraversò un periodo di grande instabilità sociale e politica, Rona infine accettò l’invito di Otto Hahn a recarsi al Kaiser Wilhelm Institute dove collaborò a separare lo ionium (oggi noto come Th-230) [5]. Oltre alla sua competenza scientifica, Rona parlava correntemente inglese, francese, tedesco oltre ovviamente all’ungherese.

Dopo un breve ritorno in Ungheria, Rona si unì nel 1924 allo staff di Stefan Meyer[5] all’Istituto di Ricerca sul Radio di Vienna. Le sue ricerche a Vienna si focalizzarono sul polonio, come sorgente radioattiva alternativa al radio.

Nel 1926 si recò quindi a Parigi da Irène e Frederic Joliot-Curie[6] per studiare e impratichirsi delle tecniche di separazione degli isotopi del polonio. All’Istituto Curie, Rona sviluppò un metodo avanzato per la preparazione di sorgenti di polonio emittenti particelle α[7]. Riportò queste competenze all’Istituto di Ricerca di Vienna, insieme a una piccola sorgente molto concentrata di polonio. Ciò le permise di preparare esemplari di laboratorio di polonio, che furono usati in gran parte della ricerca successiva dell’Istituto.

Elizabeth Rona con  Berta Karlik, Elizabeth Kara-Michailova, e un’altra ricercatrice.

Le sue capacità la portarono a collaborare con diversi colleghi a Vienna, in particolare con Marietta Blau (1894-1970)[8] [6] e con Hans Pettersson[9]. Nel 1928, Pettersson le chiese di analizzare un campione di sedimento di fondo marino per determinarne il contenuto di radio. Dato che il laboratorio in cui lavorava era contaminato, Rona portò i campioni al laboratorio oceanografico della stazione di ricerca marina di Bornö in Svezia, che diventerà la sua destinazione di ricerca estiva per i successivi 12 anni, culminati nella raccolta dei risultati delle ricerche in un libro in collaborazione con altri componenti dell’Istituto di Vienna [7].

Le sue analisi con Berta Karlik[10] sulle emivite dell’uranio, del torio e dell’attinio fecero da apripista al metodo di datazione con radioisotopi [8]. A Rona e Karlik fu assegnato il premio Haitinger dell’Accademia Austriaca delle Scienze nel 1933, prime donne a ottenere questo prestigioso riconoscimento.

Nel 1934, Rona tornò a Parigi da Joliot-Curie, lo scopritore della radioattività artificiale. Si può quindi affermare che Elizabeth Rona fu pioniera nell’uso di isotopi radioattivi artificiali in medicina, così come lo era stata per quelli naturali [4].

L’anno seguente ritornò a Vienna per condividere ciò che aveva appreso con un gruppo di ricercatori fra i quali Pettersson e Ernst Føyn.[11] I loro studi si incentrarono sulla ricerca degli effetti causati dal bombardamento dei nuclei atomici con i neutroni. Nel 1932 il fisico inglese James Chadwick aveva fatto la scoperta sperimentale del neutrone, la particella neutra contenuta nel nucleo degli atomi, ipotizzata fin dal 1920. Fu presto scoperto che i nuclei di certi elementi bombardati con particelle α emettevano neutroni che a loro volta potevano essere usati come proiettili più efficaci delle particelle α.

Dopo l’annessione dell’Austria alla Germania nazista del 1938, Rona e Marietta Blau lasciarono l’Istituto di Ricerca sul Radio a causa delle loro origini ebraiche e della persecuzione antisemita che avevano subito in laboratorio. Rona tornò una prima volta a Budapest lavorando in un laboratorio industriale, ma nel giro di poco tempo il posto fu eliminato. Lavorò Dall’ottobre al dicembre 1938 in Svezia, quindi accettò un posto temporaneo per un anno all’Università di Oslo, che le era stato offerto da Ellen Gleditsch (v. nota 10). Al termine del suo anno a Oslo, Rona tornò in Ungheria dove fu chiamata a fare la preparatrice del radio per scopi medici al Radium-Cancer Hospital di Budapest.

Ma gli eventi della II Guerra Mondiale convinsero Rona a cercare di ottenere un visto per gli Stati Uniti. Con un visto turistico partì per gli USA all’inizio del 1941. Dopo un inizio molto incerto, incontrò, a un Convegno dell’American Physical Society, il fisico austriaco Karl Herzfeld[12], che la aiutò a farle avere un posto di insegnante al Trinity College di Washington, DC. Durante questo periodo, fu premiata con una borsa Carnegie per ricerche presso il Geophysical Laboratory del Carnegie Institute, lavorando sull’analisi dell’ acqua di mare e di sedimenti marini. Tra il 1941 e il 1942, ha condotto un lavoro alla Carnegie in collaborazione con l’Istituto oceanografico Woods Hole, misurando la quantità di radio nell’acqua di mare e nelle acque fluviali. Il suo studio, completato nel 1942, mostrò che il rapporto tra il radio e l’uranio era più basso nell’acqua di mare e più alto nelle acque di fiume.

Fu poi contattata per il Progetto Manhattan. Il suo status privo di cittadinanza non le impedì di lavorare per l’Ufficio di Ricerca e Sviluppo Scientifico, a cui fornì i suoi metodi senza compenso. Prima del Progetto Manhattan, il polonio era stato usato solo in piccoli campioni, ma il progetto proponeva di usare sia il polonio che il berillio per ottenere una reazione che costringesse i neutroni a essere espulsi e innescare la reazione di fissione richiesta per la bomba atomica. Gli impianti per trattare il plutonio, basati sulle sue specifiche, furono costruiti nel deserto del New Mexico nei laboratori di Los Alamos, ma a Rona non furono forniti dettagli. In effetti, la segretezza che circondò il progetto rende difficile sapere se qualcuno degli scienziati che non vi lavorarono direttamente sapesse in dettaglio a cosa servivano i propri contributi.

Elizabeth Rona in età matura

Rona lavorò anche per l’Ufficio sugli Effetti delle Radiazioni sugli Umani, lei stessa aveva utilizzato scarse protezioni e descrisse i danni alle ossa, alle mani e ai polmoni negli scienziati che studiavano la radioattività in un libro pubblicato nel 1978 due anni prima della morte [9].

Nel 1947, iniziò a lavorare presso l’Argonne National Laboratory dell’Università di Chicago concentrandosi sulle reazioni di scambio ionico e pubblicando diversi lavori per la Commissione per l’Energia Atomica degli USA. Nel 1948 fu naturalizzata cittadina statunitense. Nel 1950, iniziò un lavoro di ricerca presso l’Oak Ridge Institute of Nuclear Studies come chimico e scienziato senior in studi nucleari. In questo periodo, collaborò con la Texas A & M University sulla geocronologia dei sedimenti del fondo marino, datando i campioni in base alla stima del loro decadimento radioattivo. Si ritirò da Oak Ridge nel 1965 per andare a insegnare all’Istituto di Scienze Marine dell’Università di Miami. Rona si ritirò per la seconda volta nel 1976 e ritornò nel Tennessee. E’ morta a Oak Ridge il 27 luglio 1981.

Bibliografia

[1] E. Rona, Über die Geschwindigkeit der gegenseitigen Wirkung des Broms und der einwertigen, gesättigten aliphatischen Alkohole in wässeriger Lösung. (On the rate of mutual action of the bromine and the monohydric, saturated aliphatic alcohols in aqueous solution.), Z. Phys. Chem., 1913, 82U, 225-248.

[2] E. Rona, The diffusion constant and atomic diameter of the radium emanation. (in ungherese), Magyar Chemiai Folyóirat, 1917, 23, 156.

[3] E. Rona, About Uranium Transformations. (in ungherese), Mathematikai és Természettudományi Értesítő, Budapest, Hungary., 1914, 35, 350.

[4] M. Brucer, Elizabeth Rona (1891?-1981)., J. Nucl. Med., 1982, 23, 78-79.

[5] E. Rona, On the Ionium Content in Radium residues. (in tedesco)., Berichte der Deutschen Chemischen Gesellschaft (A and B Series),192255, 294–301.

[6] M. Blau, E. Rona, Application of the chemical photographic method for testing the chemical behavior of polonium. (in tedesco)., Sitzungsberichte Akademie der Wissenschaften Wein Math-naturwissenschaften, 19302A (139), 276–279.

[7] E. Rona, E. Föyn, B. Karlik, H. Pettersson, The Radioactivity of seawater. Elanders, Göteborg, Svezia, 1939.

[8] https://upclosed.com/people/elizabeth-rona/

[9] E. Rona,  How it came about: radioactivity, nuclear physics, atomic energy. Oak Ridge, Tennessee, Oak Ridge Associated Universities,1978.

[1] Kazimierz (Kasimir) Fajans (1887 – 1975) chimico fisico polacco di origine ebraica, poi nturalizzato statunitense, è stato un pioniere della scienza della radioattività e scopritore dell’elemento protoattinio.

[2] George Charles de Hevesy (1885 – 1966) è stato un radiochimico ungherese, Premio Nobel per la Chimica 1943: “per il suo lavoro sull’utilizzo degli isotopi come traccianti nello studio dei processi chimici”,  scopritore dell’elemento afnio.

[3] Va ricordato che a quei tempi i nuovi radionuclidi venivano ancora considerati “elementi”, ed era problematico inserirli nella tavola periodica. Il termine isotopo, che significa stesso posto, fu introdotto nel 1913 in un famoso articolo di F. Soddy e non fu subito accettato. Ne ha parlato Giorgio Nebbia su questo blog: https://ilblogdellasci.wordpress.com/2013/12/06/soddy-e-la-scoperta-degli-isotopi/

[4] Frederick Soddy ( 1877 – 1956) radiochimico inglese, dimostrò che la radioattività è dovuta alla trasmutazione di elementi in altri, Premio Nobel per la chimica 1921 “per il suo contributo alla conoscenza della chimica delle sostanze radioattive, e per i suoi studi sulle origini e la natura degli isotopi. Provò l’esistenza di isotopi di alcuni elementi radioattivi.

[5] Stefan Meyer (1872 – 1949) fisico austriaco impegnato nella ricerca sulla radioattività. Divenne direttore dell’Istituto per la Ricerca sul Radio a Vienna e ricevette il Premio Lieben nel 1913 per le sue ricerche sul radio.

[6] Famosissima coppia di scienziati. Irène, figlia di Marie Curie e Frederick Joliot, entrambi fisici interessati alle ricerche sulla radioattività ottengono entrambi il Premio Nobel per la Fisica 1935 “in riconoscimento della loro sintesi di nuovi elementi radioattivi”.

[7] A quei tempi la radioattività artificiale veniva prodotta per bombardamento con particelle α e il polonio, residuo del radio, era un ottimo emettitore alfa.

[8] Di Marietta Blau abbiamo scritto sul blog:

https://ilblogdellasci.wordpress.com/2018/04/18/scienziate-che-avrebbero-dovuto-vincere-il-premio-nobel-marietta-blau-1894-1970/

[9] Hans Petterson (1888-1966), fisico e oceanografo svedese si interessò inizialmente di fisica atomica, per passare poi all’oceanografia. Professore di geofisica in Svezia e all’università delle Hawaii, fu a capo di diverse spedizioni oceanografiche. Autore di molti testi scientifico-divulgativi che hanno contribuito a diffondere l’interesse per l’ oceanografia al grande pubblico.

[10] Berta Karlik (1904-1990) fisico austriaco, ha scoperto gli isotopi radioattivi natutali dell’Astato studiando la loro emissione α e misurò il contenuto di uranio dell’acqua marina. Fu insignita per la seconda volta del Premio Haitinger nel 1947. Altre donne diedero importanti contributi in fisica nucleare e radiochimica, ad esempio Elizabeth Kara-Michailova (1897-1968) e Ellen Gleditsch (1879-1868).

[11] Johan Ernst Fredrik Føyn (1904 – 1984)  chimico e oceanografo norvegese, ha studiato la radioattività degli oceani marini e il loro inquinamento.

[12] Karl Ferdinand Herzfeld (1892 – 1978), fisico teorico austriaco naturalizzato americano si interessò di teoria cinetica dei gas, meccanica statistica e quantomeccanica. Dal 1926 si stabilì definitivamente negli USA.

Donne da ricordare e cose da ricordare per le donne (e per gli uomini).

Claudio Della Volpe

Nei numerosissimi post pubblicati in questo blog e scritti da Rinaldo Cervellati, dedicati alle donne scienziate che avrebbero potuto vincere il Nobel od avere comunque un ruolo di primo piano in ambito scientifico si è evidenziato ripetutamente il percorso difficile e lungo che si è seguito a partire dalla metà dell’800 fino ad oggi (non è ancora terminato) verso una effettiva parità delle opportunità di genere.

In occasione del 27 gennaio, giornata della memoria, quest’anno riprendiamo dall’oblio i nomi di alcune donne che si occuparono di Chimica nei momenti più bui per il nostro paese.

L’oscurità per le donne era cominciata presto, appena dopo la conquista del potere da parte del movimento fascista. Basta guardare la sequenza legislativa.

Negli anni fra il 1900 e il 1919 era iniziato, a partire dalla cosiddetta legge Carcano un percorso di emancipazione:

la legge 242/1902 che introduce il congedo di maternità, limita a dodici ore giornaliere l’orario massimo di lavoro per la manodopera femminile, vieta alle donne i lavori sotterranei e proibisce l’impiego delle minorenni nel lavoro notturno e per mansioni pericolose e insalubri;

fu seguita dal Regio decreto 1905 che apre alle donne l’insegnamento nelle scuole medie; dalla legge 816/1907 che vieta alle donne il lavoro notturno in ottemperanza alla convenzione di Brema del 1906;

poi la legge 520/10 che Istituisce la Cassa di Maternità per dare un sussidio fisso uguale per tutte durante il congedo obbligatorio

ed infine la Legge 1176/1919, la legge Sacchi, che cancella l’autorizzazione maritale e ammette le donne ad esercitare tutte le professioni, escluse quelle che «implicano poteri pubblici giurisdizionali o l’esercizio di diritti e di potestà politiche o che attengono alla difesa militare dello Stato»

Anna Maria Mozzoni antesignana dell’emancipazione della donna in Italia

Anna Kuliscioff

Maria Montessori

Eleonora Duse

Questo percorso emancipativo si interrompe bruscamente con il potere fascista; il governo più lungo nella storia dell’Italia unita, rimane in carica dal 31 ottobre 1922 al 25 luglio 1943; e già nel 1923 il neoministro Gentile realizza una famigerata riforma rimasta in vigore anche ben dopo la caduta del fascismo; in quella legge,

Regio Decreto 1054/1923, la cosiddetta Riforma Gentile (quella che ha escluso i chimici dall’insegnamento di Chimica nei licei) si inizia a proibire alle donne la direzione delle scuole medie e secondarie;

col Regio Decreto 2480/1926 si continua proibendo alle donne l’insegnamento della filosofia, della storia e dell’economia nelle scuole secondarie;

con le scelte economiche deflazionistiche che portarono alla cosiddetta quota 90 nel cambio si aumentarono le tasse del 20% sui salari e il 20 gennaio 1927 furono dimezzati con un decreto i salari femminili. Dopo l’instaurarsi delle crisi economica mondiale del 1929 la situazione portò ad ulteriori restrizioni per il lavoro femminile; nel 1933 al culmine della crisi si vietò alle donne (e ai pensionati) in cerca di occupazione di iscriversi nelle liste di collocamento. Negli anni successivi la pubblica amministrazione potè discriminare le donne nelle assunzioni, escludendole da una serie di pubblici uffici (Legge 22/1934) ed il Regio Decreto 15/10/1938, che vieta ai datori di lavoro pubblici e privati di assumere più del 10% di donne. Esclusi solo i lavori considerati particolarmente “adatti” alle donne. Tutte queste scelte restrittive oltre alle motivazioni economiche avevano come scopo di rafforzare l’idea che il compito delle donne era quello di stare a casa e fare e crescere i figli. In quindici anni, dal 1921 al 1936, la percentuale delle donne che svolgevano attività extradomestiche passò dal 32,5 per cento al 24 per cento. ( da L’avventurosa storia del femminismo di Gabriella Parca Arnoldo Mondadori Editore S.p.A. – Milano – Prima edizione Collana Aperta maggio 1976)

Marussia Bakunin, figlia di Mikail e zia di renato Caccioppoli

C’è da ricordare che nel 1925 le donne ebbero la possibilità di votare nelle elezioni locali; ma tali elezioni vennero eliminate l’anno successivo. Dovettero aspettare il 1945 per avere il diritto di votare alle politiche.

E’ questo il quadro in cui dobbiamo valutare la forza di carattere e l’impegno profuso da quelle donne che nonostante tutto studiarono e si laurearono impegnandosi nell’insegnamento e nella ricerca.

Ricordiamo qui quattro casi che hanno a che fare con le discriminazioni ebraiche ma che non sono gli unici casi di donne discriminate ovviamente.

I testi sono stati estratti da un sito molto bello dedicato alle donne nella scienza che vi invito a leggere:

http://scienzaa2voci.unibo.it/

Vita Nerina (chimica) a Bologna;

Nerina Vita nacque a Bologna il 29 settembre 1891. Frequentò l’istituto tecnico “Pier Crescenzi”, ottenendo la licenza fisico-matematica con sessantaquattro punti su ottanta il 25 ottobre 1909. Nel 1910 si iscrisse alla Facoltà di scienze matematiche, fisiche e naturali dell’Università di Bologna, laureandosi il 14 novembre 1914, in chimica pura, con la tesi: Sulla trasformazione degli alcaloidi (studio sul seme del lupino) (108/110). Suo relatore fu il noto chimico Giacomo Ciamician.

Nell’anno accademico 1914-15, dopo la laurea in chimica, si iscrisse alla Facoltà di farmacia del medesimo Ateneo. Il 30 gennaio 1916 scrisse poi una lettera al rettore sottoponendogli la propria domanda di congedo per trasferirsi nella stessa facoltà a Parma, città ove era allora domiciliata in quanto assistente nel laboratorio di chimica di quella università. Nel 1934 ottenne l’abilitazione alla libera docenza: a quel tempo era aiuto presso la cattedra di chimica industriale nella Scuola superiore di chimica industriale di Bologna. L’anno successivo passò un brevissimo soggiorno presso la Stazione zoologica di Napoli per apprendere la cosiddetta ‘tecnica Warburg’ per la misurazione del consumo di ossigeno nelle cellule.

Nel 1939, a seguito delle leggi razziali, venne dichiarata decaduta dall’insegnamento. Con la sorella Elda si recò allora clandestinamente in Svizzera: tornò in Italia solo alla fine della guerra. Venne riammessa all’insegnamento il 7 giugno 1945.

Tra il 1959 e il 1960, la direzione della pubblica istruzione la sollecitò affinché regolarizzasse la sua posizione di libera docente; Nerina rispose di non aver proceduto a causa delle proprie condizioni di salute malferma.

Clara Di Capua Bergamini (chimica) a Firenze;

Allorquando, nel 1938, le leggi razziali promulgate dal regime fascista privarono i cittadini italiani di origine ebraica dei diritti civili  e politici, Clara Di Capua era aiuto ordinario di chimica analitica, libero docente di chimica generale nonché professore incaricato di chimica applicata presso la Facoltà di medicina dell’Università di Firenze. In quanto ebrea e nonostante si dichiarasse aconfessionale fu estromessa dal proprio incarico. A nulla valse la sua operosità scientifica per la quale un anno prima era stata premiata.  Aveva sposato Mario Bergamini, libero docente di odontoiatria nel medesimo ateneo. Nel 1944 venne reintegrata come incaricato, libero docente e aiuto.

Angelina Levi (farmacologia) a Modena;

Nata ad Ancona il 10 maggio 1892 da Guido e Sara Carola Castelli, nel 1929 entrò in qualità di aiuto ordinario e libera docente di farmacologia e tossicologia nell’Istituto di farmacologia dell’Università di Modena, diretto da G.M. Piccinini. Nel 1931 fu ammessa nella Società dei naturalisti e matematici di Modena. Qui esordì con una comunicazione tenuta il 30 gennaio circa le proprietà curative di un principio chimico, la periplocina, estratto da una pianta asclepiadea assai diffusa in Italia ma ancora poco studiata, la Periploca graeca; principio che, sembrava, potesse essere validamente usato nella cura delle affezioni cardiache.
Lo studio degli effetti di droghe digitaliche sul sistema cardio-circolatorio fu al centro di altre due comunicazioni, entrambe pubblicate nel 1933 negli «Atti» della Società, relative ad una sostanza estratta da una pianta del genere Acokanthera, proveniente dalla Somalia, e fatta pervenire al laboratorio di Modena, per le necessarie analisi tossicologiche, dall’Istituto di patologia coloniale. I risultati evidenziarono la presenza di principi cardioattivi, le strofantidine, da utilizzare come farmaco naturale.
Le indagini farmacognostiche e chimiche rappresentavano, infatti, il filone principale delle  ricerche della Levi, la quale si era altresì occupata di sperimentazione animale allo scopo di verificare gli effetti della somministrazione di preparati iniettabili a base di ferro, piombo e zinco in organismi affetti da neoplasie. L’idea di fondo era quella di controllare la risposta del sistema reticolo endoteliale (un insieme di cellule del sistema immunitario) al quale, correttamente, si attribuiva un’azione di difesa dell’organismo. Ne erano scaturiti un paio di lavori, rispettivamente del 1928 e del 1930, pubblicati sull’«Archivio di farmacologia sperimentale e scienze affini» e «Arch. Inter. de Pharmacod. et de Therap. ».
Aveva quindi testato l’azione dell’arsenico in una serie di sperimentazioni analoghe di cui diede notizia nel 1935 anche sul «Bollettino della Società medico chirurgica di Modena».
Nello stesso anno erano pure uscite, nelle pagine del «Bollettino della Società italiana di biologia sperimentale», altre due note nelle quali esponeva i risultati di ricerche istologiche compiute sugli apparati nervosi terminali del muscolo gastrocmenico (il più superficiale dei muscoli della regione posteriore della gamba) di rane sottoposte ad una intossicazione cronica da glicerina, stricnina e curaro. Due anni dopo, aveva raccolto dati anche rispetto alla caffeina e alla nicotina e proceduto ad un esame comparativo degli effetti istologici di questi cinque farmaci.
La sua attività, spesso condotta in collaborazione con allievi interni dell’Istituto, venne bruscamente interrotta nel 1938, allorquando, a causa delle leggi razziali promulgate dal regime fascista fu radiata dall’Università di Modena per la sua origine ebraica. Come conseguenza indiretta del provvedimento assunto dall’ateneo, ovvero in assenza di una precisa disposizione del Consiglio direttivo, perse la qualifica di membro della Società dei naturalisti e matematici, ove,  su proposta del presidente Giorgio Negodi e all’unanimità, fu reintegrata nel 1945.
Negli anni seguenti partecipò attivamente alla vita della Società ricoprendo all’interno del Consiglio di presidenza la carica di revisore dei conti dal 1951 al 1955; indi, di consigliere fino al 1957. Continuò altresì a pubblicare negli «Atti»: nel 1948 riferì sulle proprietà analgesiche dei derivati della Cannabis; mentre, nel 1949  illustrò l’azione di alcune sostanze farmacologiche (mianesina, tionarcon, stricnina) sull’attività colinesterasica del tessuto nervoso centrale e del sangue.

Ada Bolaffi (chimica biologica) farmacista

Questo nome è presente su internet come quello di una donna chimica che subì gli effetti della legge del 1938 sulla discriminazione antiebraica, ma non ci sono dati biografici precisi; è anche elencata in nota nell’articolo di Albini e Vita-Finzi citato in fondo; laureata a Firenze fu libera docente a Milano; chi ne sa di più?

 

Aggiungerei un altro nome, ricordato dal bell’articolo di Albini e Vita-Finzi, che sono due soci della SCI, sul tema generale degli effetti delle leggi razziali del 1938; in quell’articolo si testimonia come la collettività ebraica e le donne reagirono alle nuove limitazioni; l’articolo, che è liberamente scaricabile al link qui sotto, ricorda fra l’altro la storia esemplare di Lia Foà che studiò nei corsi organizzati dalla comunità ebraica e completò gli studi universitari prima a Losanna e poi a Pavia e che testimonia della volontà di reagire della comunità ebraica e delle donne.

Ed infine, anche se non era una chimica, ricordo qui Enrica Calabresi, zoologa a Ferrara, che per non farsi deportare si suicidò.

In questo post non ci sono fotografie delle donne citate perché non ne ho trovate.

Riferimenti.

https://womenforwomenitaly.com/donne-leggi-dal-1902-ad-oggi/

http://www.memorieincammino.it/file/2017/01/Una-storia-poco-nota.-Le-leggi-razziali-e-la-chimica.-Milano-1941-di-A.Albini-e-P.Vita-Finzi.pdf

http://scienzaa2voci.unibo.it/

https://www.storiadifirenze.org/?temadelmese=ottobre-1938-lespulsione-dei-docenti-ebrei-dalluniversita-di-firenze

Economia circolare, fonti energetiche rinnovabili, cambiamento di stile di vita ….

Fabio Olmi*

 … tra indispensabile praticabilità reale e qualche “ma” tecnico (**).

Ormai non passa giorno che non compaiano sui giornali articoli sulla economia circolare, il riciclo dei materiali e la sostituzione delle energie di origine fossile con quelle rinnovabili. Questo sarebbe positivo e indice di aumento della sensibilità per tematiche di assoluta importanza per alimentare uno sviluppo sostenibile e cercare di combattere il riscaldamento globale, peccato che spesso si generalizzano situazioni al di là del possibile o peggio si contrabbandino idee sbagliate.

Il riciclo dei materiali

Affrontiamo brevemente la prima tematica. La promozione dell’economia circolare e la massimizzazione della raccolta differenziata dei rifiuti è senz’altro una pratica da spingere al più elevato tasso possibile[1], tuttavia la separazione di carta, plastiche, vetro e umido (organico), ciascuna incanalata nella propria filiera di recupero, non può mai esaurire tutto il materiale di rifiuto e sarà sempre accompagnata da una frazione NON differenziabile e, al momento, non più riciclabile. E anche nel recupero delle altre frazioni differenziate si ha sempre al loro interno una parte di materiale non più riciclabile e quindi non reimpiegabile all’interno delle singole filiere. Questo non sembra essere sufficientemente noto. Facciamo alcuni esempi.

Nella zona di Lucca sono ampiamente diffuse varie industrie per la fabbricazione della carta[2]. Ebbene anche questo materiale, che potrebbe sembrare riciclabile al 100%, comporta un residuo allo stato attuale non riciclabile: si tratta di vari tipi di rifiuti della lavorazione di polpa, carta e cartone che dipendono dal ciclo di lavorazione. Il Codice Europeo dei Rifiuti (CER) [3] indica, ad esempio, scarti della separazione meccanica nella produzione di polpa da rifiuti di carta e cartone, fanghi prodotti dai processi di disinchiostrazione del riciclaggio della carta , ecc. Un recente articolo apparso su La Repubblica[4] mette in evidenza il problema e l’industria locale ha progettato un termovalorizzatore per il recupero almeno energetico di quest’ultima frazione. Tuttavia l’opposizione dell’opinione pubblica ne ha bocciata la realizzazione. Dove vengono smaltiti gli scarti di produzione? Per ora per la maggior parte continuano ad intasare i depositi delle varie industrie. Di recente, dopo alcuni anni di ricerca e sperimentazione, il gruppo Sofidel[5] ha messo in produzione un materiale che sfrutta una frazione dei rifiuti di lavorazione della carta per produrre, miscelandoli con plastiche di riciclo, pancali. Il 12% del materiale di impasto è formato da residui della lavorazione della carta: speriamo che questo sistema consenta un buon riciclo di almeno parte di tali residui e che la ricerca consenta in futuro di aumentare sempre più il riciclo.

Altro esempio è il caso del tessile a Prato (il distretto tessile pratese è il più grande d’Europa e conta circa 7000 imprese di cui 2000 nel tessile in senso stretto: tessuti per l’industria dell’abbigliamento, filati per la maglieria, tessuti per l’arredamento, ecc.)       e il problema qui è diventato più acuto quando gli scarti del tessile, pari a circa 50.000 tonnellate annue, sono stati riclassificati da Rifiuti Solidi Urbani (RSU) a Rifiuti Speciali (RS) e gli impianti per smaltimento di RS in Toscana mancavano e mancano. Questi rifiuti sono di vario tipo (Codice CER 04): rifiuti da materiali compositi (fibre impregnate, elastomeri, plastomeri), materiale organico proveniente da prodotti naturali (ad es. grassi e cere), rifiuti provenienti da operazioni di finitura contenenti solventi organici, rifiuti da fibre tessili grezze, ecc.[6] È chiaro che, a parte criminali che hanno imboccato scorciatoie illecite, le aziende serie hanno trasportato i rifiuti finali della lavorazione all’inceneritore di Brescia o Terni o addirittura in Austria e i costi di smaltimento, ad esempio, dei ritagli e della peluria, sono raddoppiati, mettendo in crisi molte aziende. La peggiore soluzione per lo smaltimento di rifiuti classificabili come RSU (come quelli delle cartiere) è quella, largamente diffusa nel nostro paese, di gettarli in discarica. Invece anche questa frazione potrebbe essere valorizzata ricavando da essa energia in appositi impianti di termovalorizzazione. Marcello Gozzi, Direttore di Confindustria Toscana Nord, sostiene che non c’è economia circolare senza termovalorizzazione che trasforma in energia lo scarto ultimo del riciclo[7]. In questo modo si avrebbe come residuo finale solo una piccola quantità di ceneri. C’è chi sostiene che questo processo risulterebbe inquinante per l’aria e dunque per l’ambiente e per la salute. Esistono però ormai molti esempi di termovalorizzatori realizzati anche in centro di città come Vienna e, per rimanere in Italia, Brescia[8] che, fatti funzionare opportunamente a determinate temperature e

Fig.1 Schema di un sistema di economia circolare

con moderni sistemi di depurazione dei fumi, rendono estremamente bassi gli inquinanti nei fumi di scarico. Concludendo, non è sufficiente fare la sola differenziata e riciclare le singole frazioni differenziate: anche nel caso dell’attuazione integrale dell’economia circolare si avrà sempre una frazione finale di rifiuti , sia pure piccola, non più riciclabile.

Sfruttando un’immagine particolarmente chiara di questo processo riporto una figura (Fig.1) presente in un bellissimo, ampio e ben documentato articolo del prof. Vincenzo Balzani dell’Università di Bologna apparso recentemente sull’organo ufficiale della Società Chimica Italiana,“La chimica e l’industria”[9]. Anche se non riusciremo a sfruttare anche quest’ultima frazione dei nostri residui e dovessimo ricorrere all’uso della discarica questa accoglierebbe quantità di residui estremamente ridotte. Non c’è dubbio, infine, che nella costruzione dei nostri manufatti di ogni tipo, si dovrà prestare sempre maggiore attenzione a rendere facilmente separabili e recuperabili i componenti di natura diversa (metallo, plastica, vetro, ecc.) con cui vengono costruiti.

Le energie rinnovabili

Affrontiamo brevemente la seconda tematica. Le fonti di energia rinnovabile costituiscono la risposta al problema della disponibilità di energia sostenibile al più basso impatto inquinante e c’è chi sostiene che esse potrebbero soddisfare l’intero fabbisogno energetico dei vari Paesi sostituendo completamente i combustibili fossili (carbone, petrolio, gas naturale). Sempre nell’articolo precedentemente citato, il professor Balzani, dopo ad aver messo in chiara evidenza le difficoltà connesse alla transizione energetica dai combustibili fossili alle energie rinnovabili (e aggiunge dall’economia lineare all’economia circolare e dal consumismo alla sobrietà) riporta lo studio dettagliato fatto da M. Z Jacobson (e collaboratori) della Stanford University denominato WWS (wind, water, sunlight) che, in sintesi, sostiene che le energie rinnovabili possono sostituire completamente le fonti fossili entro il 2050 e presenta una roadmap di transizione per 139 paesi del mondo, compresa l’Italia, molto più spinta di quelle previste dagli accordi di Parigi[10]. Sostituire come sorgenti di sola energia le fonti fossili non è solo possibile ma è necessario promuoverlo sempre più rapidamente, stante i problemi causati da queste fonti fossili come cause principali del riscaldamento generale del pianeta e come inquinanti e pericolose per la nostra salute: può essere assunto a testimone di questi fatti il bel libro uscito recentemente del climatologo Luca Mercalli [11]. E’ scientificamente provato che, nella produzione di energia elettrica, si possono eliminare i combustibili fossili (centrali termiche di diverso tipo) e l’energia elettrica può alimentare vari altri processi compreso quello della mobilità, almeno sulla terra e, come risulta da alcune sperimentazioni fatte, anche via mare. Ma c’è di più: è notizia di questi giorni [12] che il gruppo Maersk, il colosso danese dei supercontainer, sarà carbon free entro il 2050. L’articolo di Luca Pagni prosegue : il gruppo ha annunciato che entro il 2030 sceglierà la tecnologia più appropriata per raggiungere emissioni zero e riporta il comunicato della società: “Non solo i governi, ma anche le imprese devono dare il loro contributo per contribuire a combattere il climate change”. Per sottolineare l’importanza della decisione è bene tener presente che l’80% delle merci viaggia per il mondo via mare e la sola nafta per uso marittimo contribuisce al 3% delle emissioni globali. Sembra invece assai problematico che i possibili sviluppi delle tecnologie portino alla sostituzione dell’attuale mobilità via aerea: come si possono rimpiazzare vantaggiosamente i reattori dei nostri attuali aerei? Il problema è ancora del tutto aperto.

Alcuni “ma”….

Fin qui alcuni aspetti propositivi per agire con successo sulle problematiche trattate. A questo punto ci sono però alcuni ma: che cosa succede per esempio in due essenziali processi industriali di base come quello per la produzione del cemento e quello per la produzione del ferro?

Il cemento rappresenta il materiale di più elevata produzione al mondo e anche l’Italia partecipava in ampia misura a questa produzione: abbiamo usato l’imperfetto perché il nostro Paese, a fronte di una produzione di 46 milioni di tonnellate nel 2006 [13], dopo la crisi del 2008, ha drasticamente ridotto la produzione e i dati del 2017 indicano un calo di oltre il 60% di questa produzione. Questo drastico ridimensionamento ha determinato la chiusura di molti impianti e la perdita del 30% di occupati. Nonostante questa situazione, che ancora non accenna a modificarsi, il cemento resta un prodotto di base indispensabile per gran parte dell’industria.

Il cemento viene prodotto con apposite apparecchiature in cementifici. Il materiale di partenza è costituito da una miscela opportunamente dosata di calcare e argilla che viene frantumata e omogeneizzata e immessa, dopo un preliminare riscaldamento, in un lungo tubo rotante inclinato riscaldato dalla combustione di rifiuti e/o carbone (l’impiego del gas metano non è economicamente conveniente in Italia). Portando la temperatura a circa 1450°C la miscela di rocce calcina e si trasforma in clinker di cemento (essenzialmente silicati di calcio). Dove si usa metano si potrà sostituire questo con biogas ottenuto dalla fermentazione di recuperi organici, ma la combustione è comunque necessaria allo sviluppo del processo: è impensabile che questo, almeno allo stato attuale della tecnologia, possa essere alimentato dall’elettricità.

C’è poi un altro processo industriale essenziale in cui la disponibilità energetica termica è connessa strettamente a trasformazioni chimiche indissolubilmente legate a combustibili fossili. Com’è noto in un altoforno viene introdotta una carica formata da minerale e carbon coke e un altoforno non potrà mai essere alimentato con energie rinnovabili o da elettricità da esse ricavata; cerchiamo di capire perché. La disponibilità del metallo più impiegato nell’industria, il ferro, è legata alla trasformazione dei suoi minerali che contengono ossigeno (in genere sono ossidi) e questo va da essi sottratto per ottenere il metallo come tale. Ebbene, la trasformazione in questione avviene in presenza di carbonio e quindi l’uso del carbone (coke) nell’altoforno non ha solo la funzione di raggiungere la necessaria temperatura di fusione del ferro ma, con un processo chimico combinandosi con l’ossigeno, rende possibile l’estrazione del ferro dai suoi minerali (con produzione di CO2).

Per la produzione di acciaio si utilizzano su ampia scala anche forni elettrici che impiegano rottami di ferro per produrre nuovamente acciaio. L’elettrosiderurgia in Italia produceva oltre 16 milioni di tonnellate di acciaio su un totale di 26,8 milioni di tonnellate e rappresentava il 62% dell’intera produzione[14]. Con la crisi dell’ILVA e la chiusura dell’altoforno di Piombino, oggi la produzione di acciaio in Italia si aggira sui 24 milioni di tonnellate e l’elettrosiderurgia ha aumentato la sua percentuale di produzione: l’Italia insieme alla Spagna costituisce il Paese a maggior produzione di acciaio con forni elettrici in Europa (in Germania la produzione da altoforno copre circa il 70% e quella da forni elettrici il 30% e su percentuali del genere si aggirano anche paesi come la Francia e il Regno Unito). E’ chiaro che questi forni si possono utilizzare solo come mezzi per riciclare il ferro di risulta da demolizioni di navi, treni, macchine, ecc., ma non potranno rimpiazzare gli altiforni nella produzione del metallo ferro dal minerale. C’è poi da tener presente che esistono due colli di bottiglia nell’impiego dei rottami di ferro: il primo è quello della impossibilità di far fronte alle richieste con una capacità di fornitura di rottami variabile e praticamente impossibile da programmare; il secondo è che il recupero non è di fatto del ferro ma di acciai di vario tipo che contengono elementi secondari (Ni, Cr, Mo, ecc.) e questi rendono difficile, se non talvolta impossibile, la loro separazione per ottenere il nuovo acciaio[15].

Nel tentativo di superare la produzione di acciaio dal minerale con altiforni si è venuto sviluppando una nuova tecnologia di estrazione del ferro, quella della produzione di “ferro ridotto” (sigla inglese di ferro ridotto diretto, DRI) cioè del cambiamento che il minerale di ferro subisce quando viene riscaldato in forno ad alte temperature (inferiori però a quella di fusione del ferro) in presenza di gas ricchi di idrocarburi (essenzialmente metano), come si evince da una bibliografia segnalatami gentilmente dal collega Della Volpe [16]. Si ottiene in questo modo un prodotto solido in grumi che solitamente viene compresso in bricchette (Fig.2) prima del raffreddamento e costituisce il prodotto commerciale

Fig. 2- Bricchette di ferro

chiamato HBI. In altre parole, ecco il nostro secondo ma…, si può eliminare il carbone coke sostituendo l’altoforno, ma non il carbonio dei gas riducenti necessari per produrre DRI e questi sono sempre fonti di energia fossile. Si sono anche messi a punto nuovi processi di “fusione diretta” in cui si riduce l’ossido di ferro del minerale direttamente a ferro metallico in uno stato fuso con ottenimento di un prodotto simile a quello dell’altoforno. Tra questi tipi di processi , di cui alcuni sono attivi in Sud Africa e in Australia) ricordiamo quello Corex che parte da minerale e da carbone (senza produzione di coke, che costituisce uno dei processi più inquinanti della tecnologia dell’altoforno). Il carbone viene gassificato e la produzione di vari gas, tra cui CO e H2, costituiscono la componente riduttiva del minerale: la riduzione diretta fornisce ghisa liquida simile a quella di altoforno. Anche eliminando gli altiforni, la trasformazione del minerale in ferro comporta sempre l’uso di carbone o gas naturali, ribadendo il concetto sottolineato in precedenza: per passare dal minerale di ferro all’acciaio è comunque necessario l’impiego di carbone o di gas naturale.

Tenendo presente le eccezioni dei due processi ricordati, per attuare la transizione dall’economia lineare a quella circolare e per la sostituzione delle energie di fonte fossile con quelle rinnovabili, per evitare il rapido riscaldamento del pianeta, saranno necessari interventi mirati di orientamento e stimolo di tipo politico sostenuti da altri di natura economico-finanziaria e profonde modifiche nel modello di sviluppo consumistico per orientarlo verso un modello meno energivoro e sostenibile basato sulla sobrietà.

Infine, è ormai chiaro che un elemento indispensabile al raggiungimento di un’economia circolare, sia legato al comportamento responsabile e adeguato di ciascuno di noi: ogni singolo nostro atto che vada incontro a una accurata differenziazione dei rifiuti e al responsabile utilizzo delle energie necessarie alla nostra vita dovrebbe essere attuato e promosso là dove è possibile. In questo campo mi ritengo fortunato perché, con la mia professione di insegnante di scuola secondaria di secondo grado, sono riuscito a interagire con molti studenti e sensibilizzarli sui temi ambientali, aumentando sicuramente la loro consapevolezza dell’esigenza di promuovere la qualità dell’ambiente orientando i loro comportamenti. Negli anni in cui ho insegnato al liceo “L. da Vinci” di Firenze, nei corsi sperimentali che avevo attivato alla fine degli anni ’70 del secolo scorso, ho suggerito e discusso letture e attuato pratiche di controllo della qualità ambientale (soprattutto sull’acqua e sull’aria della città) con gli studenti delle mie classi quarte. E inoltre, per allargare agli studenti dell’intero Liceo la sensibilità verso i problemi del rispetto ambientale, ho creato un “Gruppo ambiente” (Fig.3) promuovendo letture e incontri, come pure attività di pulizia di alcune spiagge toscane dai rifiuti di ogni genere abbandonati, in accordo con le amministrazioni locali di recupero rifiuti.

Fig.3 – Pagina iniziale del depliant che illustrava caratteristiche e attività del Gruppo Ambiente.

Si trattava forse ancora di un ambientalismo di tipo naif e ricordo che allora era parere diffuso che le energie rinnovabili potessero essere solo integrative di quelle fossili e, ancora, si parlava di green economy ma non di economia circolare. Ho però una nitida memoria , ora accompagnata da un velo di commozione, di quando, nei primi anni novanta del secolo scorso, invitai nel mio Liceo l’amico prof. Enzo Tiezzi, chimico di chiara fama dell’Università di Siena. I miei studenti di IV che avevano letto il suo libro “Tempi storici, tempi biologici[17] e quelli di V che avevano letto “I limiti dello sviluppo[18]parteciparono con grande interesse e numerosi interventi alla conferenza tenuta da Tiezzi sulle variazioni del clima sulla terra dove egli presentò i risultati di una ricerca da cui emergeva l’andamento del tutto parallelo tra l’incremento del valore della CO2 nell’atmosfera dovuta alle nostre combustioni e l’aumento dei fenomeni atmosferici di grande violenza (tempeste, uragani, tornado,…) verificatisi negli Stati Uniti.

Allora queste cose potevano sembrare preoccupazioni eccessive per eventi molto lontani nel tempo, sensibilità di una minoranza elitaria, purtroppo la realtà di oggi è ben più grave di quello che pensavamo e gli effetti dei cambiamenti climatici anche in varie parti del nostro Paese si registrano ormai nelle cronache quotidiane. Se non si riuscirà a livello mondiale a trovare concretamente il modo di intervenire sui fattori che determinano il riscaldamento globale, quale futuro lasciamo in mano ai nostri figli e nipoti?

(*) Fabio Olmi è un insegnante in pensione che si è occupato per anni di didattica della Chimica anche a livello ministeriale. La sua multiforme attività educativa e formativa è documentata nel suo sito web dove c’è anche un elenco dei molti articoli da lui pubblicati.

(**) L’articolo in forma ridotta è stato pubblicato sulla rivista Insegnare – CIDI, Roma, sezione Temi e problemi, il 15/12/2018

[1] ARPAT- Rapporto rifiuti urbani 2017: i dati sulla raccolta differenziata (RD) in Italia. La RD in Italia riferita all’anno 2016 risulta del 52,5% , dato assai modesto. Se poi si esaminano le percentuali di raccolta differenziata delle varie macro-aree del Paese si hanno i seguenti dati: 64,2% per le regioni settentrionali, il 48,6% per quelle del centro, il 37,6% per quelle meridionali.

[2] Silvia Pieraccini- La carta di Lucca modello di successo- Il sole 24ore-5/7/17. Il distretto cartario di Lucca, specializzato nel tissue (carta per usi igienico-domestici) nel 2016 ha avuto un fatturato di 4,4 miliardi di euro e contava circa 200 aziende con circa 10.000 addetti complessivi

[3] Il CER riporta nella categoria 03 i diversi 11 tipi di rifiuti

[4] Maurizio Bologni – Marmo, tessile, carta, l’impennata dei costi per smaltire i rifiuti- La Repubblica, 20/11/2018

[5] Il Gruppo Sofidel è uno dei più grossi produttori di carta per uso igienico e domestico (il suo brand più noto è carta “Regina”), ha oltre 6000 dipendenti in 13 paesi del mondo (in Italia a Porcari (Lucca) ne ha circa 1200) e ha una capacità produttiva di oltre 1 milione di tonn./anno. E’ un Gruppo orientato verso una produzione sostenibile, ha una forte produzione di energia da fonti rinnovabili, investe in efficienza energetica e in formazione continua del personale.

[6] Il Codice europeo CER contiene, alla tipologia 04, 11 categorie di rifiuti tessili.

[7] Ibidem 4.

[8]https://www.a2a.eu/index.php/it/gruppo/i-nostri-impianti/termoutilizzatori/brescia

[9] Vincenzo Balzani- Salvare il pianeta:energie rinnovabili, economia circolare, sobrietà- La Chimica e l’Industria n. 6, 11/2018, pag.20

[10] Ibidem 6, pag.7.

[11] Luca Mercalli- Non c’è più tempo-, Einaudi, Torino, 2018.

[12] Luca Pagni- Maersk, il colosso danese dei supercontainer, sarà carbon-free entro il 2050- Repubblica- Economia e Finanza, 5/12/2018.

[13] FILCA-CISL, Cemento, la produzione italiana si espande in tutto il mondo, 21 Aprile 2006.

[14] Siderweb- Forni elettrici, Italia prima in Europa, 27/4/2004.

[15] Daniell B.Muller, Tao Wang, Benjamin Duvalk, T.E. Graedel, Exploring the engine of anthropogenic iron cycles, Ed. Harward University, 2006

[16] F.Grobler, R.C.A. Minnit, The increasing role of direct reduced iron in global steelmaking- The Journal of South African Institute of Mining and Metallurgy, March/April 1999, p. 111. Bibliografia

[17] E. Tiezzi – Tempi storici, tempi biologici – Garzanti, Milano, 1984.

[18] AA.VV. I limiti dello sviluppo – Club di Roma diretto da Aurelio Peccei- EST Mondadori, Milano, 1972.

La Tavola Periodica fra chimica e fisica

Rinaldo Cervellati

Nel 2019 cade il 150° anniversario della pubblicazione della prima Tavola Periodica degli elementi. L’UNESCO ha voluto celebrare l’avvenimento proclamando il 2019 Anno Internazionale della Tavola Periodica degli Elementi.

Una delle prime riviste che ha fornito un contributo all’evento è stata Chemistry & Engineering news, affermando che nonostante la Tavola Periodica campeggi in ogni aula di chimica del mondo e sia uno dei simboli più riconoscibili della scienza chimica, storici e filosofi della chimica stanno ancora dibattendo su quale sia la migliore interpretazione della Tavola e di conseguenza la sua miglior rappresentazione [1].

Ripercorriamo brevemente la genesi già presentata in un post pubblicato su questo blog [2].

Nel 1869 il chimico russo Dmitri I. Mendeleev (1834-1907) pubblicò una tabella in cui i 56 elementi fino allora conosciuti erano ordinati in base al peso atomico crescente in gruppi orizzontali e periodi verticali in modo che ad ogni periodo corrispondevano elementi con proprietà fisiche chimiche simili e in ogni gruppo queste proprietà variavano allo stesso modo in cui variano le valenze degli elementi stessi. La tabella fu chiamata Sistema Periodico dallo stesso Mendeleev ed è mostrata in figura 1, tratta dal lavoro originale dell’Autore [3a].

Figura 1.

Il lavoro, intitolato Sulla dipendenza tra le proprietà e i pesi atomici degli elementi, fu pubblicato in un’oscura rivista russa [3a] quindi ripubblicato in tedesco sullo Zeitschrift für Chemie [3b]. La genialità di Mendeleev sta non solo nell’aver lasciato caselle vuote dove non trovava elementi che dovevano appartenervi, ma nell’aver previsto i pesi atomici e le proprietà chimiche di questi, che furono poi effettivamente scoperti (ad es. il germanio fra il silicio e lo stagno, ecc.).

Nel 1871 Mendeleev pubblicò la sua tavola periodica in una nuova forma, con i gruppi di elementi simili disposti in colonne piuttosto che in righe, numerate da I a VIII in corrispondenza delle valenze minima e massima dell’elemento[1].

Lemonick [1] sostiene che Mendeleev apparentemente organizzò la sua tavola in base al peso atomico crescente, ma diede piuttosto alle proprietà chimiche un ruolo decisivo. Ad esempio, il tellurio è leggermente più pesante dello iodio ma Mendeleev mise il tellurio prima dello iodio perché ha la stessa valenza di ossigeno, zolfo e altri elementi di quel gruppo.

Al tempo di Mendeleev nulla si sapeva circa la struttura interna degli atomi, il modello atomico di Rutherford è del 1909-1911, il concetto di numero atomico si deve a Moseley (1911), sicché Mendeleev non poteva sapere che il tellurio ha un minor numero di protoni – e quindi ha numero atomico inferiore. Quindi gli elementi nella Tavola periodica sono ordinati in base al numero atomico crescente.

Gli anni successivi al 1871 videro la scoperta di molti nuovi elementi che in base alle previsioni di Mendeleev andarono a riempire le caselle vuote e la tavola si arricchì di una colonna, quella dei gas nobili (gruppo 0). Sta comunque di fatto che la scoperta della maggior parte dei nuovi elementi è stata fatta secondo manipolazioni chimiche sulle indicazioni fornite dalle loro previste proprietà.

Insieme ai protoni arrivò la scoperta degli elettroni e l’idea quantomeccanica degli orbitali atomici. Questi risultati hanno fornito un nuovo tipo di logica per il sistema periodico. Sebbene l’organizzazione del sistema di Mendeleev non fosse cambiata, gli scienziati ora potevano vedere che era la struttura elettronica a stabilire le proprietà degli elementi e a spiegare perché i membri dello stesso gruppo avessero proprietà simili. La regola di Madelung, o principio aufbau, che impone che gli elettroni riempiano prima l’orbitale 1s e poi i 2s e i 2p e così via, ha ulteriormente fatto luce su come si ordinano gli elementi [1].

Questo ci porta alle tavole odierne che non sembrano così diverse dalle versioni che il famoso chimico Glenn T. Seaborg (1912-1999)[2] disegnò negli anni ’40. Seaborg spostò gli elementi del blocco-f, chiamati anche la serie dei lantanidi e degli attinidi, fuori dalla tavola principale elencandoli nella parte inferiore della tavola con un richiamo a uno spazio lasciato vuoto o comprendente i simboli del primo e dell’ultimo elemento del gruppo nel corpo della tabella, fig. 2.

Questa decisione è generalmente considerata come una concessione alla convenienza e cioè che la Tavola si adatti a un foglio di carta standard [1].

Seaborg incluse 15 elementi nel suo blocco f. Ciò non ha molto senso dal punto di vista della configurazione elettronica, poiché gli orbitali f possono ospitare solo 14 elettroni.

Figura 2. Tavola Periodica di Seaborg (1940).

Ma molte tabelle, inclusa la tabella sul sito web dell’Unione internazionale di chimica pura e applicata (IUPAC), che ha l’ultima parola sulla terminologia chimica, condividono questa caratteristica (figura 3).

È un modo per evitare una delle domande più controverse sulla tavola periodica: quali elementi appartengono al gruppo 3? Nessuno contesta lo scandio e l’ittrio. Ma quali elementi vengono al di sotto di questi due? Lantanio e attinio? O lutezio e laurenzio

Figura 3. Tavola Periodica IUPAC- La questione del gruppo 3 viene evitata.

Attualmente non c’è uniformità nelle tabelle periodiche che si trovano in aule, laboratori e libri di testo. Alcuni evitano la questione del gruppo 3 e usano un blocco di 15 elementi. Altri mettono La e Ac nel gruppo 3, e altri ancora pongono Lu e Lr, con il resto del blocco f sottostante.

La IUPAC ha convocato un gruppo di lavoro con il compito di dare una raccomandazione definitiva in un modo o nell’altro.

Philip Ball, uno scrittore scientifico e membro del gruppo di lavoro, dice che il dibattito si riduce alla questione fondamentale se debba essere la “fisica” o la “chimica” a dirimerla. Detto in altre parole il gruppo sta discutendo se schierarsi con la fisica quantistica che determina le configurazioni elettroniche degli elementi o con le proprietà e il comportamento chimico degli elementi.

Dal lato del comportamento chimico c’è Guillermo Restrepo, un chimico matematico del Max Planck Institute for Mathematics in the Sciences. Restrepo ha una visione storica di come dovrebbe essere organizzata la tavola. Indica Mendeleev e i suoi contemporanei, che hanno proposto i loro sistemi periodici studiando le proprietà chimiche degli elementi, spesso attraverso il loro comportamento reattivo. “Al centro del sistema periodico, c’è la chimica“, afferma Restrepo.

Restrepo e colleghi hanno analizzato circa 4.700 composti binari contenenti 94 elementi per determinare come le reazioni chimiche informino il sistema periodico [4]. Le molecole potrebbero consistere di più di un atomo ma solo di due elementi. Applicando la teoria delle reti e l’analisi topologica, i ricercatori hanno creato una mappa che raggruppa elementi vicini che formano composti. Ad esempio, il cloro, il bromo e gli altri alogeni si accostano l’uno all’altro perché si legano tutti con gli stessi elementi. Restrepo afferma che questa mappa di somiglianze mostra che il lantanio è più simile allo scandio e all’ittrio rispetto al lutezio, quindi dovrebbe essere nel gruppo 3. Ma la stessa analisi non fornisce una risposta su Lr versus Ac. Restrepo dice che il problema è che non ci sono molti dati su come Lr e Ac si legano ad altri elementi. Mentre ci sono decine di migliaia di composti che si possono usare per studiare le somiglianze di Sc, Y, La e Lu, Ac fornisce solo circa 70 punti dati, e Lr, meno di 40.

Eric Scerri, storico della chimica e filosofo della scienza all’Università della California, a Los Angeles, presidente del gruppo di lavoro IUPAC, non è d’accordo. Ritiene che Sc, Y, Lu e Lr dovrebbero essere elementi del gruppo 3, ma pensa che focalizzare l’attenzione sulle proprietà chimiche o fisiche sia fuorviante. “Si dovrebbe invece utilizzare un qualcosa di fondamentale”, come ad esempio la configurazione elettronica. Non che la configurazione elettronica sia la scelta perfetta dice però Scerri. In termini di riempimento degli orbitali sono state fatte eccezioni per alcuni elementi nella tavola periodica, come il rame. Con la logica della tavola periodica, tutti gli elementi del blocco-d avrebbero dovuto riempire gli orbitali s. Ma il rame sfida questa logica. Dovrebbe avere la configurazione elettronica [Ar] 3d9 4s2. Invece, il suo orbitale atomico 4s rimane semivuoto, e un elettrone entra nel suo guscio 3d, portando alla configurazione [Ar] 3d10 4s1, che è più stabile. Scerri vede una logica ancora più semplice per interpretare la Tavola risolvendo nel contempo la questione del gruppo 3: il numero atomico.

Il mio suggerimento è semplicemente questo”, dice Scerri. “Rappresentare la tavola periodica nel formato a 32 colonne.

Secondo Scerri la rappresentazione a 32 colonne è la forma più naturale per la Tavola periodica, visto che quella a 18 colonne obbedisce solo a una questione di praticità.

Figura 4. Tavola periodica a 32 colonne.

Una tabella a 32 colonne (figura 4) utilizza i numeri atomici come fondamento logico, non solo risolve la questione del gruppo 3 ma Scerri aggiunge che 32 colonne sarebbero più corrette perché collocherebbero il blocco-f nella sua giusta posizione: all’interno della tavola anziché all’esterno per comodità. In una tabella a 32 colonne ordinata per numero atomico crescente, il lantanio (numero atomico 57) segue il bario (numero 56) per avviare il blocco f, con l’attinio sotto di esso. Ciò rende il lutezio il primo elemento nella terza riga del blocco-d, con sopra scandio e ittrio e il laurenzio sotto a formare il gruppo 3. La stretta aderenza al numero atomico soddisfa il desiderio di Scerri di un principio organizzativo fondamentale eludendo in modo chiaro riferimenti a proprietà chimiche o fisiche.

Riguardo all’ordine di riempimento degli orbitali va sottolineato che molti chimici ritengono che potrebbe non reggere più a lungo. Alcuni calcoli mostrano che la regola di Madelung non vale più a numeri atomici molto alti a causa degli effetti relativistici. Gli elettroni di atomi pesanti si muovono così velocemente che il loro comportamento – e le proprietà degli atomi cui appartengono – iniziano a cambiare.

Philip Ball, Guillermo Restrepo ed Eric Scerri, membri della Commissione IUPAC per la Tavola Periodica.

I fan degli effetti relativistici saranno felici di sapere che c’è anche una tabella per loro. Pekka Pyykkö, un chimico teorico dell’Università di Helsinki, ha calcolato le configurazioni di elettroni fino all’elemento 172 e ha proposto una diversa versione della tavola [5]. Pyykkö non si preoccupa della questione del gruppo 3. La sua tabella lascia un buco sotto ittrio e ha tre file di 15 elementi in un blocco-f posto sotto la tavola principale [1]. E non è così limitata dai numeri atomici. Ad esempio, l’elemento 164 è seguito dagli elementi 139, 140 e poi 169. Secondo i calcoli di Pyykkö, 139 e 140 sono i primi elementi con gli elettroni nell’orbitale 8p.

Infine, al di là delle disquisizioni, c’è una fantasia senza limiti: sono state e vengono proposte forme della tavola le più stravaganti. Alcune tabelle sembrano anelli o spirali. Alcune sono in 3-D. Come ho scritto nel precedente post [2] si può consultare l’Internet Database of Periodic Tables, il database più completo che raccoglie e aggiorna le centinaia di forme diverse di tavole periodiche da Mendeleev ai giorni nostri [6].

Bibliografia

[1] S. Lemonick, The periodic table is an icon. But chemists still can’t agree on how to arrange it., Chem. Eng. News, 2019, 97(1)

https://cen.acs.org/physical-chemistry/periodic-table/periodic-table-icon-chemists-still/97/i1

[2] https://ilblogdellasci.wordpress.com/2017/09/08/la-tavola-periodica-dimenticata-di-w-rodebush/

[3a]D.I. Mendeleev, On the Correlation Between the Properties of Elements and Their Atomic Weight (in russo), Zurnal Russkogo Kimicheskogo Obshchestva 1, no. 2-3 186935, 60-77; [3b] D.I.

Mendeleev, Über die Beziehungen der Eigenschaften zu den Atomgewichten der Elemente, Zeitschrift fur Chemie1869XII, 405-406a

[4] W. Leal, G. Restrepo, A. Bernal, A Network Study of Chemical Elements: From Binary Compounds to Chemical Trends., MATCH Commun. Math. Comput. Chem., 2012, 68, 417-442.

[5] P. Pyykko, A suggested periodic table up to Zr>172, based on Dirac–Fock calculations on atoms and ions., Phys. Chem. Chem. Phys., 2011, 13, 161–168.

[6] The INTERNET Database of Periodic Tables

http://www.meta-synthesis.com/webbook//35_pt/pt_database.php

[1] Questa è sostanzialmente analoga alla forma in cui si presenta la maggior parte delle tavole odierne.

[2] Glenn Seaborg (1912-1999) chimico statunitense. Nel 1940 sintetizzò il plutonio (n 94). Successivamente, con metodi radiochimici isolò nel 1944 l’americio (n 95) e il curio (n 96), nel 1949 il berkelio (n 97) e il californio (n 98), nel 1953 l’einsteinio (n 99) e i fermio (n 100). Premio Nobel per la chimica 1951 per i suoi studi sugli attinidi

Rivoluzione X.0

Luigi Campanella, già Presidente SCI

Cambia la società, cambia l’industria. I numeri puntati seguiti dallo 0 sono un must del nostro tempo: industria 4.0, Internet 3.0, Chimica 3.0.https://blog.castuk.com/2018/01/30/value-architects-are-you-ready-for-the-4th-industrial-revolution/

Sostanzialmente volendo riassumere queste trasformazioni in un’unica espressione potremmo parlare di informatizzazione e comunicazione partecipata della società. Il rapporto all’interno ed all’esterno delle aziende, finanche al livello familiare, è ormai affidato alle intelligenze artificiali, ai big data, alla trasmissione telematica. Ciò da un lato crea opportunità, apre nuove strade, dall’altro produce effetti che possono essere devastanti in tema di privacy.

https://www.reddit.com/r/forwardsfromgrandma/comments/7wnf81/5g_is_deep_state/

Per questo cambiano le professioni ambite e la più richiesta di tutte è proprio quella di esperto in cyber security, come gli esperti di blockchain, una specie di internet delle transazioni. Se poi si tiene conto del fatto che ogni ora vengono caricati nel mondo 2,8 milioni di foto su Instagram, postati 24 milioni di tweet, visualizzati 248 milioni di video su YouTube, si comprende facilmente come un’altra professione ambita debba essere il data scientist, cioè gli esperti capaci da questa pletora di dati di estrarre informazioni redditizie. Nei prossimi anni serviranno sempre più esperti di tecnologie informatiche, Oltre alle 3 professioni citate sono perciò richiesti gli esperti di intelligenza artificiale e machine learning (le macchine imparano dall’esperienza intesa come reiterazione di input e stimoli).i meccatronici , nuove figure del mercato professionale che nascono dalla fusione fra tecnico di automazione industriale, tecnico informatico e tecnico elettronico e progettano e realizzano sistemi di controllo automatico, gli esperti di realtà virtuale, gli esperti di Internet delle cose (le cose prendono vita), gli esperti di usabilità, fondamentali per la crescita delle vendite.Illustration by Jack Reilly

E’ fondamentale che i percorsi formativi si adeguino e potenzino in queste direzioni e che i giovani prendano conoscenza e coscienza di queste trasformazioni: c’è di mezzo il loro futuro rispetto al mercato del lavoro. Purtroppo a fronte di questo sviluppo che rende ormai Industria4.0 un’espressione familiare a molti italiani, non si può dire purtroppo la stessa cosa per Agricoltura 4.0 intendendo con essa non solo agricoltura digitale, come nel caso delle imprese gestionali, ma anche un approccio globale di sistema che va dalla coltivazione alla raccolta, alla gestione attraverso tecnologie innovative che consentono di valorizzare il significato di filiera Agricola. Questo avviene solo per l’1% della superficie agricola del nostro Paese, un po’ a conferma della dimensione artigianale dell’agricoltura italiana. Ovviamente questa situazione se può non essere drammatica oggi, lo può diventare domani rendendo non competitive molte aziende agricole. E’ necessario quindi cambiare e per fare questo è necessaria una piattaforma di gestione di precisione della filiera. Molto si discute sui contenuti di questa piattaforma. Il punto di partenza non può che essere la formazione di agricoltori e consulenti che sappiano discutere ed utilizzare sensori, algoritmi, Gis; fondamentale è la disponibilità di rete nelle aree rurali: il 5G deve essere una priorità per queste aree. Il ricorso al conto terzi può essere uno strumento prezioso per avvicinare le nuove tecnologie da parte dei piccoli agricoltori.

‘I’ve found a cafe just 300 yards from where you’re standing. We could meet their for a latte.’

https://www.pintherest.eu/french-restaurants-cartoons-and-comics-funny-pictures.html

La sensoristica ha sviluppato metodi innovativi per monitoraggio e diagnosi su terreni esposti. Il rinnovo strumentale, quando avviene, deve essere sempre caricato di un costo di manutenzione che garantisca il funzionamento e la comunicazione. L’open science, intesa come approccio alla messa a comune nel sistema di avanzamenti e conoscenze, a partire dai big data richiede un impegno delle singole aziende, ma è basilare per raggiungere la massa critica e fare sistema. Infine è necessario che i giovani – torniamo ancora a loro, i cittadini, i politici, gli amministratori di domani, comprendano l’importanza di questo salto di qualità: incoraggiarli su questa strada promuovendo startup e spin off sembra, più che opportuno, necessario.

https://digital-luxembourg.public.lu/news/digitalwellbeing-engaged-society

Raccontino di Natale.

Mauro Icardi

Questo breve articolo, vuole rendere conto di un episodio di pochi giorni fa. Io e la mia collega Valentina lavoriamo insieme da ormai quasi vent’anni. E nelle ore di lavoro parliamo di molte cose. E tra queste l’educazione e la crescita dei figli, le loro fatiche e i loro progressi scolastici sono tra gli argomenti principali. Martina, la sua primogenita, era tra il pubblico durante la mia conferenza di Ottobre a Milano. Il suo secondo figlio, Emanuele, o il piccolo tecnico come a me piace chiamarlo, è un simpatico bambino di otto anni, ma con una dote che apprezzo ed ho sempre ritenuto fondamentale. E’ spinto da una genuina voglia di conoscere, di capire le cose che avvengono intorno a lui. E da sempre è incuriosito e affascinato dal trattamento delle acque, e in particolare dai fanghi. E pone tante domande. Oltre a questo, io e lui condividiamo la passione per la bicicletta. E quest’anno Babbo Natale lo ha reso davvero felice.

In attesa di fare una bella sgambata insieme, io e lui abbiamo approfondito la conoscenza reciproca. Emanuele frequenta la terza elementare, e quando ho saputo che doveva nel compito di scienze fare esperimenti di base di chimica, qualcosa immediatamente mi ha risvegliato ricordi, sensazioni, ed una passione mai sopita, e mi sono offerto di dargli una mano. Doveva spiegare cosa fosse un gas, e doveva eseguire due semplici esperimenti per comprendere che cosa fosse una soluzione. Mescolare acqua e aceto, capire se dopo il mescolamento l’aceto si distinguesse ancora dall’acqua o no. Poi ancora un altro passo: sciogliere una bustina di zucchero in acqua. Pesare l’acqua sottraendo il valore della tara di una piccola beuta che avevo portato con me, poi sciogliere una bustina di zucchero che avevamo pesato precedentemente, e dopo averla sciolta completamente, pesare la soluzione di acqua e zucchero.

Le basi della chimica e della stechiometria. Confesso che la cosa mi ha molto divertito. L’osservavo con attenzione, e in più di una occasione mi sono trattenuto dall’usare termini non adatti per un bambino di quella età (mi venivano in mente ricordi degli anni di studio, volevo spiegargli cosa fosse il “corpo di fondo), poi mi sono frenato. Ma mi è piaciuto vedere il suo sorriso, quando gli ho fatto vedere come doveva impugnare correttamente la beuta, per sciogliere i granelli di zucchero, e mi sono complimentato per la sua ottima manualità. Infatti non ha rovesciato una sola goccia di soluzione, ed impugnava la beuta con una naturale abilità. Abbiamo osservato insieme alla luce, se lo zucchero si stava sciogliendo, chiacchierato delle differenze tra il mescolamento di due liquidi, e quello di un solido in un liquido, sotto l’occhio vigile di mamma Valentina.

Sono tornato bambino insieme a lui, ma il giorno dopo riparlandone con Valentina, non ho potuto fare a meno di esprimere il mio apprezzamento alla maestra di Emanuele, per queste iniziative. Sono decisamente stimolanti e formative. E a mio parere qualunque sarà il percorso scolastico del piccolo tecnico, ma da oggi potrò chiamarlo il piccolo chimico, credo che non le dimenticherà. Un futuro collega, visto l’interesse che ha per il risparmio idrico, e per il depuratore.

Batteria a ioni fluoruro a temperatura ambiente

Rinaldo Cervellati

Agli elettrochimici era noto che batterie ricaricabili a ioni fluoruro (FIB), possono in teoria avere una densità di energia[1] circa otto volte maggiore di quelle attuali agli ioni litio, ma senza applicazioni pratiche. Infatti i dispositivi FIB finora realizzati generano elettricità per migrazione degli ioni fluoruro da un elettrodo all’altro attraverso un elettrolita solido che diviene conduttore efficace solo riscaldandolo sopra 150 ° C, il che ovviamente ne limita fortemente le applicazioni.

Nel numero del 20 dicembre scorso di Chemistry & Engineering newsletter on-line, Mitch Jacoby riporta che un gruppo di ricerca ha realizzato una batteria a ioni fluoruro con un elettrolita liquido

(V.K. Davies et al., Room-temperature cycling of metal fluoride electrodes: Liquid electrolytes for high-energy fluoride ion cells., Science, 2018, 362, 1144–1148.), funzionante a temperature ambiente.

Il gruppo costituito da ben 21 ricercatori facenti capo al Gruppo di Tecnologie Elettrochimiche, Jet Propulsion Lab, California Institute of Technology, coordinato dal Dr. Simon C. Jones, si è diviso in sottogruppi ciascuno occupandosi dei diversi aspetti sperimentali e teorici della complessa e lunga ricerca.Dr. Simon C. Jones

La stesura dell’articolo è stata fatta da Victoria K. Davis con i suggerimenti degli altri autori e la supervisione del Dr. Jones. Davis ha partecipato alla sintesi, analisi e caratterizzazione di una numerosa serie di sali e solventi organici fra i quali sono stati scelti i più opportuni.

Dr. Victoria Davis, fellow National Science Foundation

Per la soluzione elettrolitica, i ricercatori hanno cercato una combinazione di un sale e un solvente organico fluorurato che garantissero ampio intervallo di solubilità, alta conducibilità ionica e stabilità elettrochimica. La ricerca ha portato a un fluoruro di neopentil alchilammonio e al bis (2,2,2-trifluoroetil) etere o BTFE.

Simulazione delle interazioni molecolari tra uno ione fluoruro (verde) e il solvente elettrolitico fluoroetiletere.

I ricercatori hanno poi realizzato un nuovo catodo costituito da un nucleo di rame e un guscio di trifluoruro di lantanio, Cu@LaF3. Il guscio evita la dissoluzione del rame e la decomposizione del BTFE, consentendo una facile diffusione degli ioni fluoruro tra l’elettrolita liquido e il nucleo di rame. Elettrodi fabbricati con queste nanoparticelle a temperatura ambiente sono stati sottoposti reversibilmente in una opportuna cella a sette cicli. La conversione reversibile di Cu a CuF2 (Cu0 + 2F ⇌ CuF2 + 2e) è stata evidenziata tramite spettrometria a raggi X di polveri, il che suggerisce che il guscio di LaF3 consente il passaggio di ioni F permettendo la formazione di CuF2 come atteso. Gli autori della ricerca terminano così:

Utilizzando un elettrolita liquido semplice ma robusto con alta conducibilità di ioni fluoruro abbiamo dimostrato il ciclo elettrochimico reversibile di elettrodi di fluoruro di metallo a temperatura cui è lo ione Fil trasportatore attivo, non il catione metallico.

In particolare, l’ottimizzazione di un catodo Cu@LaF3 e il suo accoppiamento con un anodo metallico elettropositivo, ad esempio Ce, indicano un percorso per sviluppare un dispositivo ad alta energia a temperatura ambiente.

Jun Liu, specialista in materiali per lo stoccaggio di energia presso il Pacific Northwest National Laboratory ha affermato che lo studio dimostra buoni progressi, sottolinea però la necessità di un numero maggiore di ricerche per sviluppare una batteria a lunga vita che possa superare le prestazioni delle batterie agli ioni litio in termini di elevata densità di carica.

[1] La densità di energia di una batteria è data dal rapporto fra la forza elettromotrice moltiplicata per la carica spostata e il suo volume: zFE°/V, dove z è il numero di elettroni scambiati nella reazione redox che avviene nella pila e E° è la forza elettromotrice standard (fem) della batteria.

Piante, animali e altre storie di chimica.

Claudio Della Volpe

Quest’anno per superare la solita incertezza del regalo di fine anno mi sono rivolto all’oggetto più comune della mia vita: il libro. E ho trovato una serie di testi su un argomento di cui avevo sentito parlare ripetutamente, ma senza approfondirlo: l’intelligenza delle piante.

Si tratta di un tema affascinante e che viene da lontano, ma il più recente e famoso scienziato che se ne è occupato è un italiano, Stefano Mancuso, professore ordinario presso UniFi e ricercatore al LINV (Laboratorio di Neurobiologia vegetale).

Ha scritto vari testi su questo tema ed io ho scelto il più agile fra tutti, Verde brillante, sensibilità e intelligenza del mondo vegetale, Ed. Giunti 140 pagine 2014.

E’ un testo non recentissimo scritto insieme alla divulgatrice Alessandra Viola, ma molto ben scritto che ripercorre la trama della discussione sul modo in cui concepiamo le piante, i “vegetali”, termine tutto sommato dispregiativo, che vegetano; ma che, l’autore ci fa scoprire, hanno un comportamento molto articolato e costituiscono un caso di vita senziente, non diversamente da quella animale, solo con una organizzazione diversa da quella degli animali. Le piante hanno una intelligenza ed una struttura della sensibilità distribuita invece che concentrata in organi specifici (cervello, occhi, naso, lingua) le piante “vedono”, sentono, reagiscono con molte delle loro cellule, usando una strategia di sopravvivenza diversa; non possono scappare e dunque sono state obbligate a scegliere di poter perdere anche il 90% del loro corpo potendolo ricostruire completamente; inoltre hanno nella maggior parte dei casi una velocità dei comportamenti inferiore, ma non per questo meno complessa.

In uno degli episodi di Star Trek (del 1995) si affronta questo tema della diversa velocità di esistenza; noi potremmo essere come piante per esseri che vivessero molto più velocemente di noi.

In fotografia il tema del diverso apparire delle cose molto veloci o molto lente costituisce uno splendido argomento tramite le due tecniche complementari delle riprese ad alta velocità riproiettate a bassa (diventate oggi comuni grazie all’avanzare dei processori dei cellulari) e della slow motion o delle riprese tramite filtri ND che sottolineano il paesaggio, ma eliminano le figure che ci si trovano per tempi brevi (la prima foto di paesaggio nel 1839 era di fatto slow motion). Nel caso che ci interessa si applica una terza tecnica, il time lapse, (letteralmente lasso di tempo) le riprese video che si usano anche per nuvole o il paesaggio rese comuni anche queste tramite la possibilità di fare foto ad intervalli lunghi in gran numero per poi riproiettarle a velocità normale, dunque con una grandissima accelerazione; il time lapse fa comprendere come anche le piante abbiano una vita e siano capaci di movimenti ben precisi ed altamente intelligenti se visti in questo nuovo contesto.

https://www.youtube.com/watch?v=w77zPAtVTuI

https://www.youtube.com/watch?v=g9NpE2jntNs

https://www.youtube.com/watch?v=p6rCAuzSQ8U

https://www.youtube.com/watch?v=dTljaIVseTc

Gli ultimi due video mostrano rampicanti che si avvolgono attorno ad un supporto; nel primo caso il fagiolo si gira verso il supporto ancora prima di attaccarcisi; come fa a sapere che è lì? Non lo sappiamo; ma potrebbe essere che in qualche modo avesse ragione Gottlieb Haberlandt, famoso fisiologo vegetale, che ipotizzò la presenza di ocelli foliari (finora mai confermati).

Un esempio altamente poetico di questa tecnica video si trova nel film Il giardino segreto, tratto dall’omonimo romanzo di Frances Hodgson Burnett, in cui viene mostrato il risveglio primaverile della terra e delle piantine del giardino riscoperto dalla piccola Mary Lennox; il film nella versione che ho visto io è del 1993 ed era diretto da Agnieszka Holland che usa con abilità la tecnica time lapse per mostrare la vita delle piante. Lo consiglio a voi e ai vostri bambini.

Nel libro di Mancuso si fa anche notare la ritrosia che hanno avuto anche grandissimi scienziati da Linneo a Darwin nel riconoscere questi aspetti della vita delle piante, per esempio la capacità di molte di queste di cibarsi di insetti o piccoli animali (anche mammiferi) come fonte di azoto, di comunicare fra di loro ed avere un comportamento altamente complesso che se rivisto a diversa velocità e nel contesto degli “animali” non esiteremmo a definire “intelligente” e sensibile; libro consigliatissimo e fra l’altro ottimamente illustrato, ben equilibrato negli aspetti tecnici e storici e anche fra la filosofia della natura e la scienza (sarò fesso ma non credo che l’analisi scientifica risolva ogni aspetto delle cose, la filosofia serve ancora, mia idea per carità).

La cosa che mi ha colpito di più è stata una osservazione di tipo chimico; il fatto che le piante usano delle molecole, che liberano nell’ambiente interno ed esterno per comunicare alle proprie cellule (non hanno segnali nervosi) ed alle altre piante, diverse specie di eventi.

Ora la chimica delle piante come ricorderete è stato un cavallo di battaglia della Chimica in Italia, basti ricordare i lavori di Ciamician e Ravenna di cui abbiamo parlato su questo blog.

Sapevo già che le piante usano una comunicazione “chimica”, ma mi ha colpito molto una di queste molecole in particolare, il metil-jasmonato che non conoscevo e di cui sono andato subito a cercare la formula; le piante usano il metil-jasmonato per segnalare alle congeneri o ad altre piante situazioni di sofferenza e di pericolo (per esempio l’attacco di parassiti). Ho scoperto con grandissimo interesse che è un derivato lipidico ciclopentanoico; ma, ho subito pensato, questa molecola di allarme allora è simile, molto simile, alle molecole che usano anche gli animali in condizioni analoghe: le cosiddette prostanglandine, che sono la base della risposta infiammatoria (e la cui produzione cerchiamo di inibire con gli antiinfiammatori come l’aspirina (ne abbiamo parlato varie volte)). Ho voluto verificare se la similitudine fosse stata notata; beh la risposta è si, ma non ci sono poi così tanti lavori in merito.

In particolare ho trovato il lavoro di cui vi riporto l’immagine qui sopra che parla del tema e anche della scoperta di molecole analoghe che si trovano sia nelle piante che negli animali, gli isoprostani, antenati probabilmente sintetizzati originariamente in modo non enzimatico. E questa è una bella ipotesi; perchè significherebbe che sono veramente molecole antiche; l’ipotesi del lavoro di Mueller (Chemistry & Biology 1998, Vol5 No 12 ) è che siano venute fuori prima dalla reazione spontanea fra lipidi e ossigeno; e possano essere dunque segnali dell’evento forse più traumatico per la vita sulla Terra, ossia il passaggio da forme di vita anaerobie a quelle aerobie, avvenuto fra 2 miliardi e 650 milioni di anni fa. Il pericolo da inquinamento per eccellenza che la vita ha passato finora (l’altro siamo noi che crediamo di essere superiori, ma in effetti……siamo una piaga)

L’ossigeno rimane per la vita a base ossigeno una molecola a doppia faccia; da una parte non possiamo farne a meno, dall’altra essa può produrre spontaneamente radicali liberi molto pericolosi, data la natura altamente reattiva dell’ossigeno atmosferico, la sua forma di molecola con ben due elettroni in orbitali di antilegame altamente disponibili, ciascuno dei quali cerca di appaiarsi; questo ci ha costretti a convivere con esso e anzi imparare a gestirlo.

Un esempio fra tutti potrebbe essere la nostra capacità di gestire enzimaticamente lo ione superossido O2(numero di ossidazione -1/2), che si forma spontaneamente, ma la cui sintesi noi perfino catalizziamo tramite un enzima, la NADPH ossidasi in caso di pericolo; e che usiamo, senza colpo ferire, contro i batteri molti dei quali non sono capaci di resistere al suo attacco ossidante (a meno di non possedere la superossido dismutasi). Lo ione superossido (la cui struttura elettronica è qui sotto) è un’arma letale perchè distrugge gli enzimi basati sul ferro e sullo zolfo e riusciamo a tenerlo a bada solo tramite la superossido dismutasi.

https://chemistryonline.guru/molecular-orbital-theory/

Non è l’unico radicale che usiamo sapientemente, ricordiamoci anche NO, usato in laboratorio di cinetica come scavenger dei radicali, considerato molto tossico, ma che noi maschietti umani produciamo (in piccole quantità) ed usiamo per controllare la pressione arteriosa nel luogo deputato, tutte le volte che qualche femmina della nostra specie ci fa impazzire adeguatamente. Incredibile quante cose si scoprano leggendo! Robe da chimico, ma credo interessanti per tutti.

Piccola lezione sui fanghi di depurazione.5: i controlli (considerazioni finali)

Mauro Icardi

(I precedenti post di questa serie sono qui, qui , qui e qui)

Terminati i controlli per verificare il corretto funzionamento della fase di ossidazione biologica, e successivamente quelli relativi alla stabilizzazione del fango , la fase successiva si riferisce ai controlli da effettuare sul fango ormai disidratato, e destinato a smaltimento, incenerimento, o riutilizzo in agricoltura.

Sul fango si possono determinare diversi parametri. Vediamo nello specifico la determinazione dei metalli.

L’analisi si effettua su campione umido per la determinazione del mercurio, e su fango secco per tutti gli altri parametri. Per la determinazione dei metalli si effettua attacco acido con acido solforico e nitrico, ed eventualmente con acqua ossigenata. Questa tecnica viene sempre di più sostituita dalla mineralizzazione con forno a microonde. Utilizzando questa tecnica le microonde riscaldano contemporaneamente tutto il campione, senza riscaldare i contenitori utilizzati che sono di materiali trasparenti alle microonde. In questo modo le soluzioni raggiungono molto più rapidamente il proprio punto di ebollizione e il riscaldamento è molto più veloce ed efficace del sistema tradizionale. La concentrazione dei metalli portati in soluzione viene determinata attraverso analisi eseguite tramite spettroscopia di assorbimento atomico, normalmente utilizzando la tecnica in fiamma, oppure con spettroscopia di emissione al plasma (ICP Ottico). La concentrazione dei metalli nei fanghi viene espressa in mg/Kg di metallo estraibile, riferito alla sostanza secca.

I fanghi di depurazione delle acque reflue industriali contengono metalli pesanti di tipo e quantità variabili e derivano dal tipo di lavorazioni e dalla dimensione delle industrie. I metalli pesanti provenienti dalle attività civili si ritrovano, inoltre, nella fase gassosa dei combustibili utilizzati per il riscaldamento, nei fumi provenienti dagli inceneritori o dal traffico veicolare; tali metalli raggiungono il suolo attraverso le precipitazioni atmosferiche. Alcune attività tipicamente agricole, come l’uso di prodotti fitosanitari e di concimi minerali, possono costituire una fonte di inquinamento da metalli pesanti.

In genere, i metalli pesanti si concentrano nei sottoprodotti di alcuni settori industriali o, anche se in misura minore, nei rifiuti urbani e nei reflui civili; per questo, lo smaltimento di questi materiali, per i rischi di tossicità sopra riportati, è regolamentato da apposite normative.

Vediamo ora, per alcuni dei principali metalli, ricercati nella matrice fanghi, le provenienze.

Cadmio totale

La concentrazione di cadmio nel suolo, è funzione delle caratteristiche dei materiali originari e dell’utilizzo sul suolo di sostanze contenenti metalli pesanti utilizzate per la difesa antiparassitaria o per la fertilizzazione (concimi fosfatici, fanghi di depurazione).

Cromo totale

La concentrazione di cromo è riconducibile in parte a naturali processi di degradazione dei substrati geologici, da cui i suoli stessi traggono origine; in parte è funzione dell’utilizzo sul suolo di sostanze contenenti metalli pesanti utilizzate per la difesa antiparassitaria o per la fertilizzazione. In particolare il contenuto di cromo può essere molto elevato in alcuni sottoprodotti dell’industria conciaria utilizzati per la produzione di concimi organici.

Piombo

La concentrazione di piombo riscontrabile nei fanghi di depurazione, relativamente alle attività produttive, riguarda principalmente gli scarichi delle fonderie. Un’altra fonte di contaminazione riguarda l’utilizzo di prodotti fitosanitari contenenti arseniti di piombo. Da rammentare che in passato si poteva avere contaminazione da piombo tetraetile, che veniva utilizzato come antidetonante nella benzina.

Rame

La concentrazione di rame dovuta ad attività antropica è anch’essa riferibile all’utilizzo del rame per la difesa antiparassitaria o per la fertilizzazione, soprattutto con reflui zootecnici. In particolare l’elevato contenuto di rame nelle deiezioni zootecniche è dovuto all’utilizzo di integratori e additivi alimentari che contengono questo elemento. I composti del rame sono anche utilizzati nel settore della coltivazione della vite, e molto spesso come componente alghicida per le vernici antivegetative, destinate normalmente a ricoprire il fondo delle imbarcazioni.

Per chiudere queste piccole lezioni sui fanghi, e sui controlli che si possono effettuare, parliamo di una analisi di tipo batteriologico, cioè la determinazione della Salmonella.

Considerando che i fanghi sono il prodotto finale del trattamento delle acque, essi posseggono un’ampia variabilità delle loro caratteristiche fisiche, chimiche, biologiche e tecnologiche che dipendono dalla loro origine, dal tipo di trattamento subito dai reflui, dal fango stesso, dalla durata dello stoccaggio. Se si tiene conto oltretutto che il numero dei microrganismi concentrati nei fanghi supera quello presente nelle acque grezze, bisogna considerare come diventi altrettanto rilevante lo studio delle loro caratteristiche microbiologiche. A qualunque recapito finale vengano destinati, è necessario renderli igienicamente innocui. Dal punto di vista microbiologico la normativa (dlgs 99/1992) fissa il limite di concentrazione nei fanghi per il solo parametro Salmonella. I processi di trattamento del fango sono comunque in grado di ridurre il numero di salmonelle, come di tutti i microrganismi in essi presenti.

L’analisi della Salmonella prevede l’omogeneizzazione, la filtrazione di un campione di fango precedentemente risospeso in una soluzione di acqua sterile tamponata. Il campione, diluito in funzione della concentrazione di Salmonella stimata, è omogeneizzato e filtrato; la membrana è recuperata asetticamente e incubata a 36°C,posizionata su un filtro sterile a fibre di vetro imbibito con un terreno favorevole alla crescita del microrganismo (Brodo al terationato). Dopo 24 ore la membrana è recuperata asetticamente e incubata a (36±2)°C su terreno cromogeno (Rambach® agar).

Le membrane sono esaminate dopo 24 e 48 ore. Trascorso questo tempo di incubazione si procede a quantificare il numero di colonie. Le salmonelle presuntive crescono su questo terreno come colonie di un colore rosso brillante, derivante dalla fermentazione del glicole propilenico.

Ho scritto queste brevi lezioni sui fanghi di depurazione, spinto sia dalla mia personale passione per il tema, che con la nemmeno troppo nascosta speranza che siano in qualche modo utili a chi voglia avvicinarsi ad un tema troppo spesso ancora ignoto ai non addetti. Credo sia utile ribadire un concetto: i fanghi, quali prodotti di risulta derivati dai processi di trattamento dei liquami, costituiscono il concentrato di tutti gli inquinanti presenti nei reflui: sostanze organiche, composti inorganici anche difficilmente biodegradabili, metalli pesanti e microrganismi. Bisogna lavorare a soluzioni economicamente sostenibili, ecologicamente praticabili, socialmente accettabili. E paradossalmente, più fanghi si producono, meglio le acque si depurano. In futuro probabilmente si privilegeranno trattamenti più spinti di riduzione della produzione. Ma non dimentichiamoci che “nulla si crea, nulla si distrugge, tutto si trasforma”.

E che come giustamente faceva osservare Primo Levi “La materia è materia né nobile né vile e non importa affatto quale sia la sua origine prossima”.