Nell’Antropocene, l’epoca geologica attuale fortemente caratterizzata dalle attività dell’uomo, la Chimica ha il compito di custodire il pianeta e aiutare a ridurre le diseguaglianze mediante l’uso delle energie rinnovabili e dell’economia circolare.
Ho terminato il mio servizio ufficiale di professore ordinario alcuni anni fa dal SSD Chim12 , Chimica dell’Ambiente e dei Beni Culturali, ma non ho mai dimenticato le mie origini scientifiche profondamente ancorate alla Chimica Analitica.
Di questa disciplina ho continuato sempre con interesse ed impegno a seguire le evoluzioni particolarmente significative dal dopoguerra ai giorni nostri. Credo anzi che la Chimica Analitica sia fra le discipline che più hanno modificato nel tempo la propria identità, adattandosi -grande merito!- alle esigenze e richieste, sia della comunità scientifica che di quella sociale.
Storicamente la Chimica Analitica ha svolto una funzione soprattutto conoscitiva: creare conoscenza significa garantire gli strumenti per lo sviluppo economico e sociale. Se poi avviene -come è avvenuto – che alcuni valori vengano persi o dimenticati, parlo di ambiente, salute, sicurezza, ecco che il ruolo cambia da garante a tutore. In questo nuovo la Chimica Analitica ha assunto il compito di fungere da sentinella del nostro ambiente, della nostra salute, della nostra sicurezza alimentare.
L’era dei Big Data che stiamo vivendo spinge a misure sempre nuove nella logica di accrescere il patrimonio da cui tecnologie informatiche possano estrarre conoscenze e partecipazioni correlate. La chimica analitica in relazione a ciò è stata costretta a ripensare i suoi fondamentali e la sua posizione nelle Scienze per gli aspetti educazionali e pratici. Come disciplina scientifica centrale fornisce conoscenza o anche solo informazione alle altre discipline oggi più in auge, in particolare la scienza dei materiali, le nanotecnologie, scienze biologiche e biomediche, biotecnologie.
Mentre il cambiamento è un concetto che applicato ad una disciplina ne spiega alcuni aspetti che vengono rivisitati in funzione delle mutate condizioni, ma l’essenza non muta, con metamorfosi si intende una trasformazione più radicale, uno shift di paradigma nel quale le vecchie certezze cadono e nuove emergono.
Deve essere superata la visione minimalistica ed incompleta, di storica origine della chimica analitica, legata alla determinazione della composizione di un sistema in studio. La chimica analitica senza dubbio è oggi coinvolta in un numero di campi elevato come non mai prima, sia con riferimento alla ricerca che alla produzione industriale. I cambiamenti sono stati processi comuni ad altre discipline, ma ciò che rende quelli della chimica analitica una metamorfosi è il massiccio e combinato uso della strumentazione analitica che ha consentito di comprendere materiali eterogenei complessi, naturali e tecnologici.
Essa fornisce anche correlazioni spaziali e temporali fra la composizione chimica, la struttura e la morfologia da un lato e le proprietà e prestazioni dei materiali dall’altro. Si tratta, come si comprende, di un compito difficile: collegare il livello microscopico della struttura e composizione con quello macroscopico del comportamento funzionale. Per assolverlo è stato necesssario aumentare, e di molto, le conoscenze ottenute da un processo analitico. Nanotecnologie, tecniche spettroscopiche e tecniche di immagine combinate insieme hanno consentito di rivelare dettagli submicroscopici, fino al singolo atomo o la singola molecola. Così la misura della composizione chimica analitica ha cambiato i suoi scopi: non solo composizione elementare e/o molecolare ma anche struttura ed interazioni fra i vari componenti fino alle disomogeneitá di sistema di temperatura e/o pressione. Come conseguenza
-la spinta alla ricerca in chimica analitica non viene più dalla cercata risposta ad una richiesta di composizione, ma dalla ricerca di nuove conoscenze;
-l’approccio olistico viene sempre più preferito rispetto a quello deterministico.
Questi sviluppi hanno spinto la disciplina ben oltre i suoi tradizionali e convenzionali confini, tanto da introdurla fra le Scienze dell’Informazione ed all’interno dell’era dei Big Data. Questo però è avvenuto senza rinnegare il proprio passato: così non si è trattato di scelte di ottimizzazione, ma di crescita continua e costante del proprio patrimonio. L’area leader di questa nuova fase della Chimica Analitica è certamente la bioanalisi (biologia molecolare, biotecnologia, farmacia, medicina). Il recente avvento della tecnologia delle microsonde, della sensoristica e della robotica é riuscito a spostare un paradigma della biologia molecolare: un cambio di enfasi dagli approcci riduzionistici e dagli studi su singole proteine per indagini coordinate su sistemi sempre più complessi di molecole tra loro interagenti nel tempo e nello spazio. Questi approcci di sistema sono utilizzati per indagare i processi e rendere possibile attraverso modelli la previsione della condotta di un sistema a seconda delle condizioni, degli stress e delle interazioni.
La migliore rappresentazione di quanto sto scrivendo sta proprio in come siamo oggi visti dagli altri: scienze analitiche più che chimica analitica. Sul piano industriale abbiamo assistito alla rivoluzione industriale del 21° secolo, la cosiddetta Industria 4.0, alla rivoluzione digitale, alla nascita dell’era dei Big Data: ebbene senza tracciabilità dei dati tutto frana e la Chimica Analitica ha ripetuto l’impresa degli anni 70. Allora attraverso la referenziazione analitica fu creato un campo di regole per garantire la qualità della misura e quindi del dato. Nacque in quegli anni il primo catalogo dei Materiali e Processi di Riferimento: poche pagine che in un decennio sono divenute centinaia e centinaia a significare l’importanza del nuovo settore. Oggi analogamente la disciplina si è assunta la responsabilità di mettere in guardia da misure, che in ogni caso costano, ma che, non essendo tracciabili, forniscono dati incerti.
A questa rivoluzione è necessario dare corrispondenza nella formazione ai livelli di laurea, dottorato, scuola, master: in questo senso sono attive molte iniziative finalizzate a rinforzare e rendere più rispondente al nuovo corso il curriculum in chimica analitica. Questi adeguamenti hanno trovato anche risposte europee come il Master EACH (Excellence in Analytical Chemistry) in ambito Erasmus e la Scuola SALSA (Graduate School of Analytical Sciences) alle quali i nostri giovani dovrebbero guardare con la fiducia e la speranza che la Chimica Analitica merita per essersele guadagnate sul campo.
La tecnica della commutazione molecolare nello studio delle reazioni chimiche
I chimici sanno che le reazioni si verificano in generale quando gli elettroni riducono la loro energia potenziale totale inducendo gli atomi a riconfigurarsi. Tuttavia, tracciare i movimenti su scala picometrica degli elettroni nei femtosecondi durante i quali si verifica una reazione specifica per capire come venga influenzata la probabilità che la reazione avvenga rimane una sfida formidabile.
La microscopia a effetto tunnel e la spettroscopia a femtosecondi sono tra gli sviluppi più importanti della chimica negli ultimi decenni. Nel primo, che ha portato al premio Nobel per la fisica nel 1986[1], una sonda atomicamente sottile percorre una piccola distanza su una superficie con un diverso potenziale elettrico. La risultante “corrente di tunneling” produce un’immagine della superficie con risoluzione atomica. Nel secondo, premiato con il Nobel per la chimica nel 1999[2], due impulsi laser sono distanziati di pochi femtosecondi: il primo eccita le molecole a reagire, il secondo segue l’andamento della reazione.
Nel 2016, il gruppo di ricerca guidato da Jascha Repp e Rupert Huber dell’Università di Regensburg, ha irradiato la punta di un microscopio a effetto tunnel con un impulso ultracorto da un laser a frequenza terahertz facendole scansionare una superficie. Hanno notato che il campo elettromagnetico dell’impulso potrebbe interferire con la tensione di polarizzazione in modo sufficiente per estrarre un singolo elettrone da una molecola di pentacene. Studiando l’effetto sulla corrente di tunneling, i ricercatori hanno caratterizzato la risposta della molecola, combinando la risoluzione spaziale della microscopia a scansione tunnel con la risoluzione temporale della spettroscopia a femtosecondi [1].
Figura 1. Schema dell’apparato sperimentale usato dal gruppo di J. Repp e R. Huber in [1]. Credit: Nature
Molto recentemente un gruppo di ricerca misto Università di Regensburg (Germania) e IBM di Zurigo (CH), coordinato dagli stessi Rupert Hubert e Jascha Repp ha studiato la ftalocianina di magnesio, che ha due stati stabili specularmente simmetrici, adsorbita su cloruro di sodio [2].
Jascha Repp e Rupert Hubert
Quando hanno posizionato la punta dell’STM su una molecola di ftalocianina di magnesio e applicato un impulso luminoso di intensità insufficiente per stimolare il tunneling elettronico, hanno scoperto, come previsto, che la molecola non cambiava stato. Tuttavia, circa 10 picosecondi dopo, i ricercatori hanno colpito la molecola con un secondo impulso. Questo ha indotto la commutazione (figura 2).
Figura 2. Colpendo una molecola di ftalocianina di magnesio con un impulso luminoso a bassa energia e successivamente con uno più potente rende effettivamente la molecola più propensa a passare al nuovo stato. Questa tecnica potrebbe eventualmente essere utilizzata per studiare le reazioni chimiche. Credit: Peller/Nature
Essi hanno concluso che la torsione dal campo elettrico del primo impulso aveva fatto oscillare la molecola sulla superficie e queste oscillazioni della sua densità elettronica potrebbero influenzare una reazione chimica. Spiega Repp: “Il primo impulso non può far cambiare la configurazione, ma può aumentare le probabilità che la molecola venga eccitata in uno stato in cui può farlo”.
I ricercatori sperano quindi di poter studiare i meccanismi delle reazioni chimiche utilizzando questa tecnica, ma Repp dice che sarà difficile trovare candidate adatte: “Nel caso presente si tratta di una molecola. Avremmo bisogno di trovare una reazione in cui le molecole possano tornare allo stesso stato alla fine del processo.”
“Ciò che è affascinante qui non è che i movimenti degli atomi siano controllati da un impulso luminoso”, afferma Ludwig Bartels dell’Università della California a Riverside: “Ciò che è affascinante è il controllo coerente del fenomeno. Per mezzo ciclo si ha un campo elettrico che punta in una direzione, e nell’altro mezzo ciclo un campo che punta nella direzione opposta e, secondo la direzione in cui punta il campo, la reazione procede o non procede … Jascha e i suoi colleghi hanno ottenuto il controllo della più piccola entità chimica [molecola], nel più breve lasso di tempo compatibile”.
*Tratto e adattato da: Tim Wogan: Molecular state switching technique offers insight into reactions’ complexity., Chemistry World Weekly, 3 September 2020.
Bibliografia
[1] T.L. Cocker et al., Tracking the ultrafast motion of a single molecule by femtosecond orbital imaging.,Nature, 2016, 539, 263-267.
[2] D. Peller et al., Sub-cycle atomic-scale forces coherently control a single-molecule switch., Nature, 2020, DOI: 10.1038/s41586-020-2620-2
[1] Il microscopio a effetto tunnel (STM, dall’inglese Scanning Tunneling Microscope) è un potente strumento per lo studio delle superfici a livello atomico. Il suo sviluppo nel 1981 valse ai suoi inventori, Gerd Binnig e Heinrich Rohrer (IBM di Zurigo), il Premio Nobel per la Fisica nel 1986.
[2] Una sorgente laser ai femtosecondi è in grado di produrre impulsi di luce di intensità molto elevata e durata estremamente breve, in diversi intervalli di frequenza. Questa sorgente permette due tipi di applicazioni: la spettroscopia/imaging Terahertz e la spettroscopia pump/probe ai femtosecondi. Ahmed Hassan Zewail, egiziano naturalizzato statunitense, ottenne il Premio Nobel per la chimica nel 1999 per i suoi studi sullo stato di transizione usando questa tecnica.
Il problema del trattamento delle acque reflue, derivanti dagli insediamenti delle grandi città, inizia a essere affrontato nel 700. E fino al 1914 quando viene brevettato il sistema di depurazione a “fanghi attivi” si sperimentano trattamenti che sono principalmente di tipo chimico-fisico.
Nel 1762 a Parigi viene registrato il primo brevetto di trattamento ( De Bossieu), a cui ne seguiranno molti altri, ma con scarsa o nulla applicazione pratica.
In Inghilterra invece il trattamento con precipitanti chimici si stava sviluppando, ed era ritenuto il modo migliore per trattare le acque di rifiuto, soprattutto dalle autorità locali. Ma nel 1864 la Royal Commission che si incaricava delle verifiche tecniche sulle fognature, giunse alla conclusione che i soli trattamenti di rimozione meccanica di sostanze grossolane, seguiti da una fase di precipitazione chimica non erano sufficienti per abbattere il carico organico residuo. I liquami di fognatura erano effettivamente chiarificati, ma il carico organico residuo (che oggi viene misurato con la determinazione del BOD5 ) era ancora elevato. Questa situazione poneva un problema sia di molestie olfattive, dovute allo sviluppo di cattivi odori, sia un problema di tipo igienico sanitario.
Le autorità locali erano invece convinte che l’utilizzo di reagenti precipitanti fosse, al momento, la sola soluzione praticabile. Per questa ragione quasi tutte le grandi città inglesi iniziarono sperimentazioni per l’utilizzo di trattamenti chimico-fisici sulle acque reflue. I risultati furono incoraggianti solo per quanto riguarda le prove di laboratorio. L‘applicazione pratica invece non diede i risultati attesi. Anche in Germania furono introdotti i processi di precipitazione chimica, seguendo quanto stava avvenendo in Inghilterra. E anche in questo paese si confermò quanto aveva già rilevato la commissione inglese. Ovvero che il processo depurativo si limitava a una chiarificazione del refluo, e alla rimozione delle sostanze sospese. Rimaneva irrisolta la questione dei cattivi odori, e si aveva una produzione di fango chimico molto maggiore di quello che si sarebbe ottenuto con un solo trattamento fisico di sedimentazione.
In Inghilterra almeno fino al 1911 si utilizzò largamente la calce per il trattamento delle acque reflue. Ma a valle dell’impianto di trattamento si producevano precipitati di carbonato di calcio, che depositandosi sul fondo degli effluenti, finivano per essere colonizzati da Sphaerotilus natans, conosciuto nel linguaggio comune come “il fungo delle acque di fogna”. In realtà si tratta di colonie di batteri filamentosi.
L’utilizzo di sali, o di soluzioni di ferro trivalente invece tendeva a ricoprire il fondo dei canali o dei fiumi, dove venivano scaricate le acque trattate, di uno strato di ossido di ferro, che risultava particolarmente dannoso per la fauna ittica.
Nonostante queste difficoltà quasi insormontabili, a Worcester nel Massachusetts si riuscì a realizzare un impianto che funzionò in maniera soddisfacente. Completato nel 1890, e in seguito ampliato nel 1893, è stato uno dei migliori impianti dell’epoca antecedente lo sviluppo del processo a fanghi attivi. Le acque che erano sottoposte al trattamento, erano costituite per la maggior parte da residui industriali ad alta concentrazione di ferro. Prima dell’invio alla sezione di decantazione, veniva aggiunta calce con un dosaggio di circa 120 gr/m3. In questo modo si otteneva la rimozione di circa il 90% dei solidi sospesi, mentre quella delle materie organiche era di circa il 50%. Nel 1898 furono installati dei filtri a pressa per i fanghi. I fanghi disidratati furono utilizzati per il riempimento di una depressione nel terreno in una zona isolata. Completata la fase di livellamento del terreno, lo smaltimento avveniva scaricandoli in mare. Operazione impensabile oggi.
L’ultima modifica effettuata sull’impianto risale al 1898, quando iniziò la costruzione di filtri a sabbia a funzionamento intermittente. In questo modo nella sua conformazione finale circa ¾ delle acque reflue venivano trattati con la precipitazione chimica, mentre il restante quantitativo subiva un trattamento di sedimentazione. Il trattamento finale consisteva nel passaggio dell’acqua trattata sui filtri a sabbia.
Nel 1925 l’impianto fu dismesso. Per il trattamento delle acque reflue si realizzarono vasche Imhoff collegate in serie.
Nel frattempo gli impianti a fanghi attivi iniziavano a diffondersi. Si chiudeva così il periodo pionieristico della depurazione, e iniziava l’epoca degli impianti a fanghi attivi tradizionali che, con tutte le diverse migliorie, le diverse conformazioni progettuali e di schema di processo, assicureranno la depurazione dei reflui per più di un secolo, cioè da quel 1914 quando Edward Arden e William T. Locket presentarono il brevetto alla società inglese di chimica industriale.
Il cammino non è finito. Oggi gli impianti di depurazione utilizzano tecnologie nuove, come ad esempio i reattori a membrana. Devono raggiungere maggiori livelli di abbattimento degli inquinanti tradizionali, e riuscire a essere efficaci nel trattamento di quelli emergenti. Il cammino che è iniziato nel 1762 continua ancora oggi. Ed è giusto ricordare come i primi passi della depurazione siano stati difficili e faticosi. Per ricordare a tutti che senza l’evoluzione di questo settore, la situazione ambientale ed igienico sanitaria dei nostri corsi d’acqua, e di noi stessi sarebbe molto diversa.
(la prima parte di questo post è stata pubblicata qui)
Astato
Anche la casella 85 della tavola di Mendeleev era rimasta vuota nei primi decenni del secolo scorso. In base alla teoria di Bohr sulla struttura atomica questa casella avrebbe dovuto ospitare un quinto alogeno, dopo fluoro, cloro, bromo e iodio, per questo la casella fu etichettata con l’indicazione eka-iodio. Molti scienziati hanno cercato di trovarlo in natura; data la sua estrema rarità, questi tentativi portarono a diverse false scoperte [2].
Nel 1940, Dale R. Corson (1914-2012), Kenneth R. MacKenzie (1912-2002) ed Emilio Segrè[1] isolarono l’elemento all’Università della California, a Berkeley. Invece di cercare l’elemento in natura, questi scienziati lo hanno ottenuto bombardando il bismuto-209 con particelle alfa in un acceleratore di particelle (ciclotrone) producendo, dopo l’emissione di due neutroni, l’astato-211.
Nobel Prize winner Emilio Segre back at Rome University to teach nuclear fusion after his sojourn in the USA where he fled to escape Fascism. He worked on the atomic bomb while in the USA. (Photo by Keystone/Getty Images)
Emilio Segrè mentre fa lezione
Gli scopritori, tuttavia, non suggerirono immediatamente un nome per l’elemento. La ragione di ciò era che, all’epoca, un elemento ottenuto sinteticamente in “quantità invisibili”, non ancora trovato in natura era considerata scoperta non completamente valida; inoltre, i chimici erano riluttanti a riconoscere gli isotopi radioattivi allo stesso modo di quelli stabili. Nel 1943, Berta Karlik (1904-1990) e Traude Bernert (1915-1998), trovarono l’astato come prodotto di due catene di decadimento naturali, prima nella cosiddetta serie dell’uranio, e poi nella serie dell’attinio[2]. Nel 1946, Friedrich Paneth (1887-1958), chimico austriaco naturalizzato britannico, convinse la comunità chimica a riconoscere finalmente gli elementi sintetici, citando, tra le altre ragioni, la conferma della presenza in natura di alcuni di essi, e propose che gli scopritori di questi elementi gli dessero il nome. All’inizio del 1947, Nature pubblicò i suggerimenti degli scopritori; una lettera di Corson, MacKenzie e Segrè suggeriva il nome “astato” derivante dal greco astatos (αστατος) che significa “instabile”, a causa della sua propensione al decadimento radioattivo, con la desinenza “-ine” (astatine), che si trova nel nomi inglesi dei quattro alogeni scoperti in precedenza (fluor-ine, iod-ine, etc). Corson e i suoi colleghi hanno classificato l’astato come un metallo sulla base della sua chimica analitica. Altri ricercatori hanno successivamente riportato un comportamento simile allo iodio, cationico o anfotero. In una retrospettiva del 2003, Corson ha scritto che “alcune delle proprietà [dell’astato] sono simili allo iodio … mostra anche proprietà metalliche, più simili ai suoi vicini metallici polonio e bismuto“.
Caratteristiche fisico-chimiche
L’astato è un elemento estremamente radioattivo; i suoi isotopi hanno emivite da 8,1 ore a meno di un secondo: fra gli elementi finora noti della tavola periodica, solo il francio è meno stabile, e tutti gli isotopi meno instabili del francio sono comunque sintetici e non si trovano in natura. Sono 39 gli isotopi noti, con masse atomiche da 191 a 229, tuttavia modelli teorici suggeriscono che ne potrebbero esistere quasi altrettanti. Non è stato osservato alcun isotopo stabile, né si prevede che esista. L’isotopo 211At, ottenuto a Berkeley nel 1940, ha un’emivita di circa 7 ore e 20 minuti.
Le proprietà fisiche dell’astato non sono quindi note con certezza in quanto la ricerca è limitata dalla sua breve emivita, che impedisce la formazione di quantità ponderabili significative, inoltre un frammento visibile di astato vaporizzerebbe immediatamente a causa del calore generato dalla sua intensa radioattività. L’astato è solitamente classificato come non metallo ma è stata anche prevista una sua struttura metallica.
La maggior parte delle proprietà fisiche sono state stimate utilizzando metodi teorici o empirici. Ad esempio, gli alogeni diventano più scuri con l’aumentare del peso atomico: il fluoro è quasi incolore, il cloro è giallo-verde, il bromo è rosso-marrone e lo iodio è scuro/violaceo, supponendo che segua questa tendenza l’astato è empiricamente ipotizzato come un solido nero o avente aspetto metallico. Si prevede che anche i punti di fusione e di ebollizione seguano l’andamento osservato nella serie degli alogeni, aumentando con il numero atomico: su questa base è stato stimato che siano rispettivamente 302 e 337 °C (575 e 610 K). L’astato sublima meno prontamente dello iodio, avendo una pressione di vapore inferiore, anche così, metà di una data quantità vaporizzerebbe in circa un’ora se posto su una superficie di vetro pulita a temperatura ambiente a causa della radioattività. Lo spettro di assorbimento nella regione media dell’ultravioletto ha righe a 224,401 e 216,225 nm, indicative di transizioni dai livelli elettronici 6p a 7s. La struttura dell’astato solido è sconosciuta. Come analogo dello iodio, potrebbe avere una struttura cristallina ortorombica composta da molecole biatomiche, ed essere un semiconduttore. In alternativa, se l’astato condensato formasse una fase metallica, come pure è stato predetto, può avere una struttura cubica monoatomica a facce centrate; in questa struttura potrebbe essere un superconduttore, come la fase simile dello iodio ad alta pressione. Le prove a favore dell’una o dell’altra ipotesi sono scarse e inconcludenti. Nonostante questa controversia, sono state previste molte proprietà dell’astato biatomico: per esempio, la sua lunghezza di legame sarebbe di 300 ± 10 pm, l’energia di dissociazione 83,7 ± 12,5 kJ/mol, e il calore di vaporizzazione 54,39 kJ/mol. Quest’ultimo dato starebbe a significare che potrebbe essere metallico allo stato liquido, in base al fatto che gli elementi con un calore di vaporizzazione maggiore di ~ 42 kJ / mol sono metallici quando sono liquidi.
La chimica dell’astato è limitata dalle concentrazioni estremamente basse con cui sono stati condotti gli esperimenti e dalla possibilità di reazioni con impurità, pareti e filtri o sottoprodotti della radioattività e altre interazioni indesiderate a livello nanoscala indesiderate. Molte delle sue apparenti proprietà chimiche sono state osservate utilizzando traccianti su soluzioni estremamente diluite, tipicamente inferiori a 10-10 mol·L-1. Alcune proprietà, come la formazione di anioni, sono analoghe a quelle degli altri alogeni. L’astato presenta anche alcune caratteristiche metalliche, come la coprecipitazione con solfuri metallici in acido cloridrico, e la formazione di un catione monoatomico stabile in soluzione acquosa. Forma complessi con EDTA, un agente chelante dei metalli, ed è in grado di agire come un metallo nella radiomarcatura degli anticorpi; per alcuni aspetti nello stato +1 è simile all’argento nello stesso stato. La maggior parte della chimica organica dell’astato è, tuttavia, analoga a quella dello iodio.
L’astato ha un’elettronegatività di 2,2 (scala di Pauling), inferiore a quella dello iodio (2,66) e uguale all’idrogeno. È stato previsto che la carica negativa nel composto HAt si trovi sull’atomo di idrogeno, il che implica che questo composto potrebbe essere indicato come idruro di astato coerente con la sua elettronegatività nella scala Allred-Rochow, essendo inferiore a quella dell’idrogeno (2.2)[3].Tuttavia, la nomenclatura ufficiale IUPAC si basa su una convenzione dell’elettronegatività relativa degli elementi in virtù della loro posizione all’interno della tavola periodica. Secondo questa convenzione, l’astato viene gestito come se fosse più elettronegativo dell’idrogeno, indipendentemente dalla sua vera elettronegatività.
Struttura ipotizzata per il composto HAt (H in grigio, At in marrone scuro)
Meno reattivo dello iodio, l’astato è il meno reattivo degli alogeni, anche se i suoi composti sono stati sintetizzati in quantità microscopiche e studiati il più dettagliatamente possibile prima della loro disintegrazione radioattiva. Come lo iodio, è stato dimostrato che l’astato adotta stati di ossidazione dispari che vanno da −1 a +7.
Sono stati riportati solo pochi composti con metalli, sotto forma di astaturi di sodio, tallio, argento, e piombo, le cui proprietà sono state stimate mediante estrapolazione da altri alogenuri metallici.
La formazione di un composto con idrogeno fu notata dai pionieri della chimica dell’astato. Come accennato sopra, ci sono motivi per riferirsi a questo composto come idruro di astato. È facilmente ossidabile; l’acidificazione mediante acido nitrico diluito dà le forme At0 o At+, e la successiva aggiunta di argento (I) può solo parzialmente, far precipitare l’astaturo di argento (I) (AgAt).
È noto che l’astato si lega al boro, al carbonio e all’azoto. Sono stati ottenuti vari composti con legami At – B, essendo questi più stabili dei legami At – C. L’astato può sostituire un atomo di idrogeno nel benzene per formare astatobenzene C6H5At; questo può essere ossidato dal cloro a C6H5AtCl2. Trattando questo composto con una soluzione alcalina di ipoclorito, si può produrre C6H5AtO2. Il catione dipiridina-astato (I), [At (C5H5N)2]+, forma composti ionici con perclorato e con nitrato. Questo catione esiste come complesso di coordinazione in cui due legami covalenti dativi collegano separatamente il centro dell’astato (I) con ciascuno degli anelli piridinici tramite i loro atomi di azoto.
Con l’ossigeno si hanno prove delle specie AtO– e AtO+ in soluzione acquosa, formate dalla reazione dell’astato con un ossidante come il bromo elementare o, nel secondo caso, dal persolfato di sodio in soluzione di acido perclorico.
Si suppone che l’astato sia in grado di formare cationi con ossianioni come iodato o bicromato; ciò si basa sull’osservazione che, in soluzioni acide, stati di ossidazione positivi monovalenti o intermedi coprecipitano con i sali insolubili di cationi metallici come lo iodato di argento (I) o il bicromato di tallio (I).
L’astato è noto per reagire con i suoi omologhi più leggeri iodio, bromo e cloro allo stato di vapore; queste reazioni producono composti interalogeni biatomici con formule AtI, AtBr e AtCl. I primi due composti possono anche essere prodotti in soluzione acquosa.
Struttura della molecola AtI (At in marrone scuro, I in viola)
Gli ioni [AtI]+, [AtBr]+ e [AtCl]+ sono stati formati in uno spettrometro di massa con sorgente ionica al plasma, introducendo vapori di alogeni più leggeri in una cella piena di elio contenente astato, evidenziando l’esistenza di molecole neutre stabili nello stato ionico del plasma. Non è stato invece rilevato alcun composto o ione di astato con fluoro. La loro assenza è stata speculativamente attribuita all’estrema reattività di un simile aggregato, inclusa la reazione di un fluoruro inizialmente formatosi con le pareti del contenitore di vetro per formare un prodotto non volatile. Pertanto, sebbene la sintesi di un fluoruro di astato sia ritenuta possibile, potrebbe richiedere un solvente alogeno fluorurato liquido, come è già stato utilizzato per la caratterizzazione del fluoruro di radon.
Disponibilità naturale
L’astato è l’elemento naturale più raro. Alcuni stimano che la quantità totale di astato nella crosta terrestre sia inferiore a un grammo in un dato momento. Altre fonti stimano che la quantità di astato effimero, presente sulla terra in un dato momento, sia fino a circa 28 grammi (circa la stessa quantità stimata per il francio).
Molti isotopi presenti alla formazione della Terra sono scomparsi da tempo; i quattro isotopi presenti in natura (astato-215, -217, -218 e -219) sono invece continuamente prodotti come risultato del decadimento dei minerali radioattivi di torio e uranio e, in tracce, nel nettunio-237. La massa continentale combinata del Nord e del Sud America, fino a una profondità di 16 chilometri, conterrebbero solo circa un trilione di atomi di astato-215 (circa 3,5 × 10-10 g) in un dato momento. L’astato-217 è prodotto tramite il decadimento radioattivo dell’isotopo nettunio-237. I resti primordiali di quest’ultimo isotopo, a causa della sua emivita relativamente breve di 2,14 milioni di anni, non sono più presenti sulla Terra. Tuttavia, tracce si trovano naturalmente come prodotto delle reazioni di trasmutazione nei minerali di uranio. L’astato-218 è stato il primo isotopo dell’elemento scoperto in natura. L’astato-219, con un’emivita di 56 secondi, è il più longevo degli isotopi presenti in natura.
Usi e precauzioni
L’isotopo astato-211 è oggetto di ricerche in corso in medicina nucleare. Deve essere utilizzato abbastanza rapidamente poiché la sua emivita è di 7,2 ore; comunque un tempo abbastanza lungo da consentire strategie di marcatura a più fasi. 211At ha il potenziale per una terapia mirata di particelle alfa, poiché decade per emissione particella alfa (in bismuto-207), o tramite cattura elettronica (in un nuclide di vita estremamente breve, il polonio-211, che subisce un ulteriore decadimento alfa), raggiungendo molto rapidamente l’isotopo stabile piombo-207. I raggi X del polonio emessi come risultato della cattura elettronica consentono il tracciamento dell’astato negli animali e in pazienti umani.
La principale differenza tra l’astato-211 e lo iodio-131 (un isotopo di iodio radioattivo abbastanza usato in medicina nucleare) è che quest’ultimo emette particelle beta ad alta energia, mentre il primo non lo fa. Le particelle beta hanno un potere penetrante molto maggiore attraverso i tessuti rispetto alle particelle alfa molto più pesanti. Una particella alfa media rilasciata dall’astato-211 può viaggiare fino a 70 µm attraverso i tessuti circostanti; una particella beta a media energia emessa dallo iodio-131 può viaggiare quasi 30 volte più lontano, fino a circa 2 mm. La breve emivita e il limitato potere di penetrazione della radiazione alfa attraverso i tessuti offrono vantaggi in situazioni in cui il carico tumorale è basso e/o le popolazioni di cellule maligne si trovano in prossimità di tessuti normali essenziali.
Diversi ostacoli sono stati incontrati nello sviluppo di radiofarmaci a base di astato per il trattamento del cancro. I risultati dei primi esperimenti indicavano che sarebbe stato necessario sviluppare un trasportatore cancro-selettivo e solo negli anni ’70 gli anticorpi monoclonali divennero disponibili per questo scopo. A differenza di 211I, 211At mostra una tendenza a disalogenare questi vettori molecolari, in particolare nei loro siti contenenti atomi di carbonio ibridizzati sp3. Data la tossicità dell’astato accumulato e trattenuto nel corpo, ciò ha sottolineato la necessità di garantire che rimanesse attaccato solo alla sua molecola ospite. Mentre i trasportatori che vengono metabolizzati lentamente possono essere valutati per la loro efficacia, i portatori metabolizzati più rapidamente rimangono un ostacolo significativo alla valutazione dell’astato in medicina nucleare.
Studi sugli animali hanno dimostrato che l’astato, analogamente allo iodio, anche se in misura minore, forse a causa della sua natura leggermente più metallica, è preferenzialmente (e pericolosamente), concentrato nella ghiandola tiroidea. A differenza dello iodio mostra anche una tendenza a essere assorbito dai polmoni e dalla milza, probabilmente a causa dell’ossidazione nel corpo di At– ad At +. Se somministrato sotto forma di un radiocolloide tende a concentrarsi nel fegato. Esperimenti su ratti e scimmie suggeriscono che l’astato-211 causa un danno molto maggiore alla ghiandola tiroidea rispetto allo iodio-131, con conseguente necrosi e displasia cellulare all’interno della ghiandola. Le prime ricerche suggerivano che l’iniezione di astato nelle femmine di roditori causava cambiamenti morfologici nel tessuto mammario, ma questa conclusione rimase controversa per molti anni. Successivamente diverse ricerche hanno mostrato che questi cambiamenti sono probabilmente dovuti agli effetti combinati dell’irradiazione del tessuto mammario e delle ovaie.
Resta comunque che campioni di astato-211 devono essere maneggiate in cappe chimiche protette poiché l’assorbimento biologico dell’isotopo è pericoloso per i tessuti sani (e non) quindi deve essere assolutamente evitato.
Opere consultate
Handbook of Chemistry and Physics, 85th Ed., pp. 4-12-13 e p. 4-4-5
[1] Emilio Gino Segrè (Tivoli, 1905 – Lafayette, 1989) è stato un fisico e accademico italiano naturalizzato statunitense, vincitore del Premio Nobel per la fisica nel 1959 per la scoperta dell’antiprotone (insieme a Owen Chamberlain).
[2] In seguito, l’astato è stato trovato anche in una terza catena di decadimento, la serie del nettunio.
[3] L’algoritmo utilizzato per ottenere la scala Allred-Rochow fallisce nel caso dell’idrogeno, fornendo un valore vicino a quello dell’ossigeno (3.5). All’idrogeno viene invece assegnato un valore di 2,2. Nonostante questa lacuna, la scala Allred-Rochow ha un grado di accettazione relativamente alto.
Parlare di Renato Ugo significa per me parlare di un amico e di un collega di tante imprese comuni. Siamo nati nello stesso anno e questo ci ha portato a vivere lo stesso percorso della chimica italiana dal boom economico al 68, dal tonfo Enimont alla Chimica sociale ed a quella Green. Renato in questo percorso è stato sempre un protagonista con luci ed ombre (ma chi può dire da protagonista di avere avuto solo luci?!).
Montedison, Donegani, Federchimica, Chemtech, Airi alcune delle sue tappe importanti vissute tutte con impegno. La nostra amicizia nacque alla fine degli anni 60: avevo appena superato l’esame di Libera Docenza in Elettrochimica, ho sempre detto l’esame più duro della mia vita, ed uno dei commissari, mi pare il prof. Franzosini che conosceva Renato gli parlò della mia lezione all’esame descrivendogliela in termini molto positivi e Renato mi chiamò per manifestare il suo interesse per alcuni aspetti da me trattati sul rapporto fra catalisi ed elettrocatalisi.
Ci incontrammo per approfondire e da quel colloquio Renato volò in alto, molto in alto con la sua convinta affermazione circa l’unitarietá teorica della catalisi omogenea ed eterogenea. La chimica metalloorganica e la chimica analitica strumentale sono altri 2 dei suoi campi di successo, il secondo motivo di un nostro riavvicinamento dopo un periodo di contrasti (benevoli sempre!) fra noi. Le occupazioni del CNR a cui avevo partecipato per sostenere la Ricerca e le mie critiche a certa politica industriale del tempo non furono da lui ben accettate. Quando ci ritrovammo fu una vera riscoperta fra noi: contribuimmo insieme al rafforzamento dell’idea di un Min.ro della Ricerca, ma poi anche di una visione politica che vedeva la Ricerca come cerniera fra Formazione ed Economia. Gli Enti di Ricerca erano da considerare Enti Pubblici non economici (come sancito dalla legge) o forse così decidendo si perdeva un aspetto importantissimo del ruolo della Ricerca? Non posso dimenticare il suo sostegno alla mia presidenza della SCI ed il suo incoraggiamento ad una gestione molto generosa verso le Sezioni espressioni del rapporto col Territorio. Un giorno mi disse anche “Le Societá Scientifiche dovrebbero trasformare il capitale finanziario in capitale di menti ed intelletti e non viceversa“.
Gli parlai una delle ultime volte in cui ci incontrammo dopo la sua intervista al Sole 24 Ore in cui prevedeva per il 2019 un investimento industrialle per ricerca ed innovazione in salita per raggiungere i 12 miliardi. In effetti questa previsione si é rivelata giusta, anzi in leggero difetto, e potrebbe essere un ottimo viatico se non si confrontasse però con i dati degli investimenti statali fermi all’1,35 del PIL che relega l’Italia per questo aspetto nella posizione di fanalino di coda dell’UE.
Il francio (simbolo Fr) e l’astato (simbolo At) sono gli elementi più rari nella crosta terrestre, derivando da decadimenti di elementi radioattivi. Sono posti praticamente agli antipodi della tavola periodica, il primo al 1° gruppo, 7° periodo, insieme ai metalli alcalini, l’altro al 17° gruppo, 6° periodo, fra gli alogeni.
Andiamo per data di scoperta.
Francio
Fin verso la fine degli anni 30 del secolo scorso la casella 87 della tavola periodica era rimasta vuota, l’elemento che avrebbe dovuto occuparla veniva indicato come eka-cesio. La sua scoperta è dovuta a Marguerite Perey [1], tecnico radiochimico al Curie Institute di Parigi, il 7 gennaio 1939. Perey stava purificando un campione di attinio-227[1] con energia di decadimento di 220 keV, quando notò particelle di decadimento con un livello di energia inferiore a 80 keV. Essa pensò che questa energia potesse essere causata da un prodotto di decadimento precedentemente non identificato, separatosi durante la purificazione, e emerso di nuovo dal puro attinio-227. Vari test eliminarono la possibilità che l’elemento sconosciuto fosse torio, radio, piombo, bismuto o tallio. Il nuovo prodotto mostrava proprietà chimiche di un metallo alcalino (come la coprecipitazione con sali di cesio), che portarono Perey a credere che fosse l’elemento 87, prodotto dal decadimento alfa dell’attinio-227. Perey quindi tentò di determinare la proporzione tra il decadimento beta e il decadimento alfa nell’attinio-227. Il suo primo test diede il risultato dello 0,6%, una cifra che fu successivamente rivista all’1%.
Perey chiamò il nuovo isotopo attinio-K (ora indicato come francio-223), successivamente propose il nome catium (Cm), poiché riteneva che fosse il catione più elettropositivo degli elementi. Irène Joliot-Curie, uno dei supervisori di Perey, si oppose al nome per la somiglianza col latino cattus (gatto); inoltre il simbolo coincideva con quello che da allora era stato assegnato a un altro elemento, il curio. Perey suggerì quindi il nome francio, dal nome del Paese della scoperta. Questo nome fu ufficialmente adottato dall’Unione Internazionale di Chimica Pura e Applicata (IUPAC) nel 1949. Fu l’ultimo elemento scoperto per la prima volta in natura, piuttosto che per sintesi[2].
Marguerite Perey
Caratteristiche chimico-fisiche
Fuori dai laboratori, il francio è estremamente raro, con tracce trovate nei minerali di uranio e torio, dove l’isotopo francio-223 si forma e decade continuamente.
Campione di minerale di uranio contenente francio
Solo fino a 20-30 g (un’oncia) esistono in un dato momento in tutta la crosta terrestre; gli altri isotopi (eccetto il francio-221) sono interamente sintetici. La maggiore quantità prodotta in laboratorio era un ammasso di oltre 300.000 atomi.
Il francio è uno degli elementi naturali più instabili: il suo isotopo più longevo, il francio-223, ha un’emivita di soli 22 minuti. Tutti gli isotopi decadono in astato, radio o radon. Il Francium-223 ha anche un’emivita più breve dell’isotopo più longevo di ciascun elemento sintetico fino all’elemento 105 compreso, il dubnio.
Il francio è un metallo alcalino le cui proprietà chimiche assomigliano per lo più a quelle del cesio. Il francio liquido, se ottenuto, dovrebbe avere una tensione superficiale di 0,05092 N/m al suo punto di fusione, stimato attorno agli 8,0 °C (281,0 K). Il punto di fusione è incerto a causa dell’estrema rarità e radioattività dell’elemento; una diversa estrapolazione basata sul metodo di Dmitri Mendeleev diede 20 ± 1,5 °C. Anche il punto di ebollizione stimato di 620 °C (890 K) è incerto; l’estrapolazione con il metodo di Mendeleev è di 640 ° C (910 K). La densità del francio dovrebbe essere di circa 2,48 g / cm3 (il metodo di Mendeleev estrapola 2,4 g/cm3).
Linus Pauling ha stimato l’elettronegatività a 0,7, la stessa del cesio. Il francio ha un’energia di ionizzazione leggermente superiore al cesio, 392,811 kJ/mol rispetto a 375,704 kJ/mol per il cesio, come ci si aspetterebbe dagli effetti relativistici, e questo implicherebbe che il cesio è meno elettronegativo tra i due. Il francio dovrebbe anche avere un’affinità elettronica più alta del cesio e lo ione Fr dovrebbe essere più polarizzabile dello ione Cs. È stato previsto che la molecola CsFr abbia il francio all’estremità negativa del dipolo, a differenza di tutte le molecole etero diatomiche note dei metalli alcalini.
Il francio coprecipita con diversi sali di cesio, come il perclorato di cesio, che si traduce in piccole quantità di perclorato di francio. Questa coprecipitazione può essere utilizzata per isolare il francio, adattando il metodo di coprecipitazione del radiocesio di Lawrence E. Glendenin e C. M. Nelson. Inoltre coprecipita con molti altri sali di cesio, inclusi lo iodato, il picrato, il tartrato, il cloroplatinato e il silicotungstato, e anche con acido silicotungstico e con acido perclorico, senza un altro metallo alcalino come vettore, che fornisce altri metodi di separazione. Quasi tutti i sali sono solubili in acqua.
Sono noti 34 isotopi che variano in massa atomica da 199 a 232. 223Fr (quello scoperto da Perey) e 221Fr sono gli unici isotopi presenti in natura, essendo il primo molto più comune. 223Fr è l’isotopo più stabile ed è altamente improbabile che venga mai scoperto o sintetizzato un isotopo con un’emivita più lunga. 223Fr è il quinto prodotto della serie di decadimento dell’isotopo attinio-227, decadendo poi in radio-223 per emissione di particelle beta con un percorso parallelo di decadimento alfa minore (0,006%) verso l’astato-219.
Applicazioni
A causa della sua instabilità e rarità, non ci sono applicazioni commerciali per il francio. È stato utilizzato per scopi di ricerca nei campi della chimica e della fisica atomica. È stato anche esplorato il suo utilizzo come potenziale ausilio diagnostico per vari tumori, ma questa applicazione è stata ritenuta impraticabile.
La capacità del francio di essere sintetizzato, intrappolato e raffreddato, insieme alla sua struttura atomica relativamente semplice, lo ha reso oggetto di delicati esperimenti di spettroscopia.
Trappola magneto-ottica, che può trattenere atomi di francio neutri per brevi periodi.
Questi esperimenti hanno portato a informazioni più specifiche sui livelli di energia e le costanti di accoppiamento tra le particelle subatomiche. Studi sulla luce emessa dagli ioni francio-210 hanno fornito dati accurati sulle transizioni tra livelli di energia atomica che sono abbastanza in accordo con quelli previsti dalla teoria quantistica.
(continua)
[1] Elemento radioattivo scoperto nel 1899 da André – Louis Debierne (1874-1949), chimico francese, amico e collaboratore dei Curie.
[2] Alcuni elementi sintetici, come il tecnezio e il plutonio, sono stati successivamente trovati in natura.
Le misure costano. Non è una scoperta, ma in questi drammatici momenti ce ne rendiamo conto chiaramente. L’UE giá oltre 10 anni fa, rendendosi conto di quanto vera sia l’affermazione, raccomandò una sorta di economia della misura sperimentale: misure sì purché tracciabili e necessarie. In questi ultimi 10 anni si é osservata, rispetto a questo tema, una variazione con il progressivo affermarsi del concetto di marker (marcatore), da un lato quale integrale di più grandezze e dall’altro quale varco da valutare prima di passare alla misura vera e propria: una sorta di semaforo che al verde rende superflua la misura successiva consentendo un risparmio, all’arancione obbliga ad un approfondimento e solo al rosso non consente di prescindere dalla misura vera e propria obbligando ad essa. È così iniziata nei vari settori la caccia al marker più affidabile ed accurato, sfruttando anche quanto la Natura ci mette a disposizione, come il colore delle foglie, lo stato di salute dei tronchi, la limpidezza di un corso d’acqua, lo stato superficiale del terreno. In questa direzione oggi markers preziosi consentono di avere capacità predittive e preventive rispetto ad eventi catastrofici e a patologie gravi: due esempi recenti sono l’esalato come marker di alcune forme tumorali e, attualissimo, la voce come marker del covid 19.
https://www.fabioorecchini.it/tag/marcatore-ambientale/ Questa viene analizzata nelle sue frequenze ed attraverso algoritmi di intelligenza artificiale resa marker della presenza e della eventuale gravitá di una patologia da coronavirus; l’analisi può essere compiuta da remoto con smartphone ed un’app con idonei software. L’algoritmo è anche capace di evidenziare oggettivamente minime variazioni della voce in caso di malattie neurodegenerative con livelli di accuratezza prossimi al 100%. Tornando al Covid 19 è stato rilevato, registrando le voci di malati di covid 19 e di persone sane, quali parametri differenziassero i due tipi. Il principio scientifico focalizzato dallo scopritore di questo marker, il prof Saggio del Policlinico di Tor Vergata, è che la voce è il risultato.di 3 importanti fattori, la fisiologia della persona, la sua psicologia e la sua patologia. Queste 3 caratteristiche danno connotati di frequenza diversi alla voce.Ma oggi l’economia si appropria di tutto e lo sta facendo anche in questo campo: ecco allora che la voce diviene marker dello stato d’animo (speranzoso, euforico, esitante?) o degli interessi prevalenti. Molte aziende hanno sviluppato software in grado di leggere le emozioni degli utenti: in Cina si cerca così di prevenire i reati. L’obbiettivo dichiarato è quello di implementare le capacità del cervello attraverso un chip con l’evidente rischio che questo possa poi divenire un monitor/marker indirizzabile, portando ad una sorta di bio-hacking.
Su questa linea Amazon ha annunciato l’arrivo sul mercato di un dispositivo indossabile con capacità di monitorare sonno, attività e forma fisica, stato di benessere inviando poi input per migliorare la propria condizione e, nel caso di atleti, le proprie prestazioni. Le due facce della chimica, come si vede, vengono riproposte-mutatis mutandis-in settori completamente diversi ma con la stessa drammatica incertezza del punto di giusto equilibrio fra tecnologia al servizio dell’uomo e uomo mediante la tecnologia al servizio di un altro uomo.
Finora i mattoni, una delle più antiche invenzioni umane, hanno giocato un ruolo minore nella transizione energetica; i mattoni di argilla, i mattoni “rossi” che devono il loro colore alla presenza di una certa quantità di ossido di ferro, furono inventati dai Sumeri (o meglio nella zona mediterranea il processo di cottura fu inventato dai Sumeri, probabilmente i Cinesi ci arrivarono prima) ed usati in tutta la zona mediterranea per millenni; più tardi in Italia, solo dal I° sec aC; tuttavia sono stati una costante tecnologica.
Nella transizione energetica attuale il mattone ha finora giocato al massimo il ruolo di accumulatore termico, nulla più; ma una recente scoperta consente di intravedere un possibile uso più avanzato del comune mattone.
Nel gioco Minecraft, che recentemente è diventato uno dei più famosi giochi interattivi si ha una sorta di Lego col computer e c’è un mattone che svolge il ruolo di fornire energia alle costruzioni che si fanno; ora immaginate se fosse possibile veramente usare i mattoni come fonte energetica o più precisamente come metodo di accumulo dell’energia solare; in effetti come si diceva prima la struttura porosa del mattone ha un ruolo di accumulatore termico che si può eventualmente gestire sia in senso di isolante vero e proprio che di accumulatore a media temperatura: tutti avranno notato che i forni a legna (che sono fatti di mattoni) rimangono caldi a lungo.
Ma qua parliamo di qualcosa di più “nobile”, di una forma di energia di più elevata qualità rispetto al calore come tale, di energia elettrica.
Un gruppo di ricercatori diretti da J. D’Arcy dell’Università di Washington ha avuto un’idea che si presenta come effettivamente rivoluzionaria, anche se le sue applicazioni pratiche potrebbero essere ancora lontane; l’idea e la sua realizzazione pratica, la sua “proof of concept”, la sua dimostrazione applicativa è stata pubblicata lo scorso 11 agosto su Nature Communications:
Nature Communications Hongmin Wang J. D’Arcy et al Energy storing bricks for stationary PEDOT supercapacitors
Un mattone ha una struttura porosa aperta, il che vuol dire che presenta una delle caratteristiche dei materiali elettrochimici, una area superficiale elevata; ma gli manca la conducibilità; come trasformarlo in un materiale conduttore?
La risposta sta nella sua composizione media che contiene circa l’8% di a-Fe2O3, questo ossido rappresenta un substrato ideale per la sintesi del PEDOT (poly(3,4- ethylenedioxythiophene) un polimero organico conduttore.
Supplementary Figure 1 | Polymerization mechanisms of EDOT. Both acid and Fe3+ serve as initiators for the polymerization of EDOT. Acid leads to acid-catalyzed polymerization producing oligomers whereas Fe3+ results in oxidative radical polymerization generating PEDOT. In acid- catalyzed polymerization (blue box), EDOT is protonated forming a cation (1), then combines with another monomer and is deprotonated resulting in a dimer (2). The dimer is further protonated (3) and polymerized leading to trimer (4) and oligomers (5). The degree of polymerization is n ≤ 12 because of active chain termination (6). In oxidative radical polymerization (green box), EDOT is oxidized by Fe3+ to form a radical cation (1); two radical cations (1) combine to form a dimer cation (2) that undergoes deprotonation leading to a neutral dimer (3). The dimer is further oxidized and polymerized forming protonated trimer cation (4), neutral trimer (5) and PEDOT.
Una volta costruito il mattone qui visto come come un perfetto elettrodo ad altissima superficie (e dunque alta potenziale corrente di scarica/carica) i ricercatori lo hanno usato per produrre un supercondensatore a basso prezzo usando come elettrolita una soluzione acquosa.
Per il momento la cosa è solo una curiosità di laboratorio, ma fa immaginare come in futuro si potrebbero produrre sistemi di abitazione dotati nella loro medesima struttura di un modo di immagazzinare energia senza ulteriori occupazioni di superficie utile e con caratteristiche di durata pari se non superiori a quelle della medesima abitazione (il numero di cicli di carica/scarica di un condensatore sono dell’ordine dei milioni).
Nel numero del 17 luglio di Chemistry World newsletter, rivista ufficiale della Royal Society of Chemistry, Kyra Welter riporta la notizia dell’assemblaggio di questa nuova supramolecola (figura 1):
Figura 1. La struttura ottenuta dall’autoassemblaggio di anelli a incastro [1]. Credit: Springer Nature Ltd. 2020
La struttura ricorda il logo olimpico, e per questo chiamata nanolympiadano dai chimici giapponesi che l’hanno sintetizzata, Shiki Yagai e Sougata Datta [1].
Shiki Yagai e Sougata Datta
La molecola è uno degli ultimi policatenani supramolecolari assemblati usando solo interazioni deboli non covalenti. Attraverso un’originale strategia di miscelazione dei solventi, i ricercatori sono stati in grado di preparare strutture autoassemblate contenenti fino a 22 anelli usando blocchi più semplici. I nuovi catenani sono abbastanza grandi da essere osservati usando la microscopia a forza atomica e potrebbero trovare applicazioni nella scienza dei materiali.
I policatenani sono strutture contenenti diversi anelli meccanicamente interconnessi per formare una catena. La realizzazione di tali architetture è impegnativa, soprattutto se i componenti anulari sono composti da un grande insieme di molecole. In tal caso, è necessario un sistema di assemblaggio molecolare in grado di generare costantemente grandi anelli di diametro uniforme.
Shiki Yagai e Sougata Datta dell’Università di Chiba (Giappone), avevano già in precedenza utilizzato un tipo speciale di polimero supramolecolare per raggiungere questo obiettivo [2].
I materiali sono costituiti da monomeri che possono connettersi attraverso legami a idrogeno per formare anelli a sei membri, chiamati “rosette”, che sono quindi collegati da interazioni π per costruire strutture polimeriche con diverse topologie tra cui anelli toroidali. Spiega Datta: “Ogni anello fondamentale nei nostri nano-policatenani è composto da 600 piccole molecole tenute insieme da interazioni deboli non covalenti. Questo è completamente diverso dai policatenani precedentemente riportati, in cui ciascun anello costituente è costituito da forti legami covalenti.”
Figura 2. Ogni anello è composto di 600 piccole molecole tenute insieme da interazioni di van der Waals. Credit: Springer Nature Ltd
Yagai aggiunge che mentre i metodi precedenti per produrre policatenani si basavano sulla sintesi su schemi metallici, il nuovo approccio sfrutta la tendenza delle molecole a riunirsi sulla superficie dei toroidi esistenti. Dice: “Le indagini spettroscopiche e le simulazioni molecolari multiscala hanno rivelato che se aggiungiamo monomeri a una soluzione contenente anelli preassemblati, tendono a riunirsi sulla superficie di quegli anelli a causa delle interazioni fra solventi e di van der Waals. Pertanto, i monomeri hanno maggiori probabilità di formare anelli che sono interbloccati con strutture preformate piuttosto che in altri spazi vuoti. Questo fenomeno si chiama “nucleazione secondaria””, ed è la chiave del meccanismo di policatenazione.
Il gruppo di Datta e Yagai ha scoperto che si poteva influenzare la chiusura dell’anello variando il solvente e la velocità di raffreddamento. Per creare i nuovi materiali, hanno iniettato una soluzione concentrata di molecole pre-dissolte in un solvente polare posto in un solvente non polare.
Figura 3. Terminato un anello, i monomeri tendono ad avviarne un altro e così via portando alla formazione di policatenani. Credit: Springer Nature Ltd
Yagai e colleghi sono stati in grado di preparare catenani contenenti un numero variabile di toroidi. Hanno chiamato la struttura a cinque anelli “nanolympiadano” in omaggio a “olympiadane”, un sistema catenano covalente riportato nel 1994 [3].
Figura 4. L’olympiadano molecolare del 1994 [3]
David Amabilino, dell’Università di Nottingham nel Regno Unito, coinvolto nella sintesi dell’olympiadano, sottolinea che il nanolympiadano è un nuovo tipo di catenano non covalente i cui anelli sono molto più grandi di quelli nel sistema molecolare. Afferma: “Nella ricerca del team di Yagai, gli anelli hanno un diametro di circa 25 nm, rendendo il sistema a cinque anelli lungo circa 90 nm, mentre l’olimpiadano è lungo circa 4 nm“. Amabilino ritiene che essere in grado di preparare catenani in questo modo apre un campo di ricerca completamente nuovo. E conclude: “Questi materiali non hanno precedenti. Fino ad ora, questo tipo di assemblaggio non è stato nemmeno considerato in senso lato, a causa della potenziale difficoltà nel realizzare i sistemi in modo controllato. Il gruppo di Yagai ha aperto la porta a ciò”.
Guillaume De Bo dell’Università di Manchester (UK) è d’accordo: “Questa è una bella procedura che fornisce un rapido accesso a policatenani piuttosto grandi. Mostra come l’autoassemblaggio può essere usato per costruire architetture supramolecolari complesse. Sarebbe interessante vedere come la composizione e la dimensione degli anelli potrebbero essere sintonizzate utilizzando diversi elementi costitutivi e come le proprietà dinamiche e meccaniche di questi policatenani autoassemblati si confrontino con le loro controparti covalenti”.
Michal Juríček che studia molecole organiche funzionali all’Università di Zurigo afferma:
“In generale, è difficile prevedere e controllare la topologia degli assiemi supramolecolari formati, ma se si ottengono le giuste condizioni funziona, non può essere più semplice di così”.
Bibliografia
[1] S. Datta et al., Self-assembled poly-catenanes from supramolecular toroidal building blocks., Nature583, 400–405 (2020). https://doi.org/10.1038/s41586-020-2445-z
[2] S. Yagai et al., Supramolecular Polymers Capable of Controlling Their Topology., Acc. Chem. Res. 2019, 52, 5, 1325–1335.
Pubblichiamo due recenti lettere di Balzani ai giornali; la prima spedita al Corrierone non è stata pubblicata; la seconda spedita a Il Manifesto si; l’argomento è la transizione energetica in generale e in particolare la recente progettazione di un intervento CCS in Emilia-Romagna.
Lettera al Corriere della Sera.
Caro Direttore,
Ho letto sul Corriere del 20 settembre l’intervista di Stefano Agnoli all’ing. Alessandro Puliti, direttore generale di “Natural Resources” di Eni. L’ing. Puliti parla trionfalmente del progetto CCS (cattura e stoccaggio di anidride carbonica, CO2) che Eni ha in progetto di costruire a Ravenna. Continuare ad usare i combustibili fossili per poi catturare e sotterrare la CO2 prodotta è un progetto inutile e fuori da ogni logica di transizione energetica, la sua fattibilità non è affatto garantita ed è caratterizzato da alti costi e rischi ambientali, soprattutto se lo stoccaggio avviene in zone sismiche o a forte subsidenza come la costa ravennate. Fra pochi anni sarà evidente che si tratta di un progetto fuori luogo e fuori tempo.
I vantaggi che offre CCS, dice l’ing. Puliti, sta nel fatto che “non si consumerà un metro quadrato di suolo in più rispetto alle infrastrutture esistenti, mentre per avere la stessa energia dovremmo avere a disposizione dai 40 ai 60 km quadrati di pannelli solari. Il suolo è prezioso”. Ma la centrale che Eni vuole continuare ad usare occupa già un vasto spazio e in ogni caso i pannelli solari possono essere sistemati su tetti, zone aride e anche su terreni con supporti alti circa 5 metri, al di sotto dei quali poter quindi coltivare prodotti agricoli senza comprometterne la produttività, come dimostrato dal Fraunhofer Institute tedesco.
Quando all’idrogeno, è assodato che il suo uso più conveniente consiste non nel bruciarlo, ma nel convertirlo in elettricità con celle a combustibile per alimentare motori elettrici che sono da 3 a 4 volte più efficienti dei motori a combustione. Questo si può fare solo con idrogeno puro, cioè “green”, prodotto per elettrolisi dell’acqua. Riguardo l’idrogeno “blu”, cioè prodotto dal metano con successiva cattura e stoccaggio della CO2 come vorrebbe fare Eni, riporto una recente dichiarazione di Francesco Starace, CEO di Enel: “Produrre idrogeno con tecnologie legate alla cattura della CO2 sarebbe una distruzione di valore e di fondi. Se poi qualcuno ci crede – ha aggiunto– dovrebbe comunque farlo con fondi suoi, senza chiedere incentivi”.
Biodiesel, biometano, idrogeno “blu” (da metano), “gas verde” (miscele di idrogeno e biometano, Snam) e “diesel verde” (miscele di diesel fossile e biodiesel, per il quale Eni ha subito una sanzione di 5 milioni di euro dall’antitrust per pubblicità ingannevole) sono solo disperati tentativi per mantenere in vita gli inefficienti e inquinanti motori a combustione, continuare ad usare combustibili fossili e procrastinare il più a lungo possibile il passaggio alle vere energie rinnovabili.
A Bruxelles si accorgeranno che la proposta Eni non può entrare nel Green Deal e non può essere finanziata nell’ambito del Recovery Plan Next Generations EU. Anche perché nel 2009 l’UE aveva varato EEPR e NER300, due importanti programmi per la cattura e stoccaggio del carbonio (CCS). I soldi sono stati spesi, ma non si è risusciti “a realizzare nessun progresso e nessun progetto di successo per la cattura e stoccaggio del carbonio”.
Portando a Bruxelles la proposta di Eni, l’Italia non farà certo una bella figura.
Vincenzo Balzani, coordinatore di energiaperlitalia
Ho letto con piacere il supplemento ExtraTerrestre nel Manifesto del 18 settembre. Ho particolarmente apprezzato i due titoli, densi di significato: Il fondo del barile e A Ravenna l’anidride carbonica la nascondono sotto il tappeto.
Come tutti sanno, la transizione energetica in corso, dai combustibili fossili alle energie rinnovabili, è fortemente ostacolata dalla lobby dei combustibili fossili (in Italia, da ENI). Ci troviamo, pertanto, in una strana situazione: il futuro, cioè le energie rinnovabili, è già presente, ma il passato, cioè i combustibili fossili, non vuole passare perché è collegato a enormi interessi, non solo economici. Le energie rinnovabili forniscono energia elettrica con cui si possono alimentare direttamente i motori elettrici, che sono da 3 a 4 volte più efficienti dei motori a combustione; ecco allora che, per continuare a usare i combustibili fossili, le compagnie petrolifere hanno inventato diverse strategie che descrivo brevemente.
1- Sostenere che le energie rinnovabili non sono ancora mature, per cui ci sarà bisogno per molti decenni dei combustibili fossili. Per smentire la favola delle energie rinnovabili non mature, basta fare un semplice confronto: la fotosintesi naturale converte l’energia solare in energia chimica con un’efficienza energetica dello 0,2%, mentre il fotovoltaico converte l’energia solare in energia elettrica con un’efficienza del 20%, cioè 100 volte maggiore! Si possono aggiungere altri due numeri: attualmente gli impianti fotovoltaici e le pale eoliche installati nel mondo generano una quantità di elettricità pari a quella generata, rispettivamente, da 170 e da 270 centrali nucleari. Il tutto, senza produrre scorie radioattive e anidride carbonica. Fotovoltaico ed eolico oggi sono le due tecnologie che forniscono energia elettrica ai costi più bassi. Nel mercato della nuova potenza elettrica installata surclassano, con una quota che sfiora il 70%, le tecnologie tradizionali basate su carbone, gas e nucleare.
2. Abbandonare al suo destino il carbone e, ormai, anche il diesel e puntare sul metano come “combustibile ponte” pulito. Il metano genera un po’ meno (76% ) di CO2 rispetto a benzina e gasolio, ma questo non basta per combattere il cambiamento climatico. Il metano, inoltre, è un gas serra decine di volte più potente della CO2 e, nella lunga filiera dai giacimenti all’utilizzazione finale, si stima ci siano perdite di almeno il 3% rispetto alla quantità di gas utilizzato. Quindi, usando il metano c’è addirittura il rischio di peggiorare gli effetti sul clima. Per quanto riguarda poi l’inquinamento, studi recenti indicano che il particolato prodotto dalla combustione del metano è, come massa, inferiore a quello prodotto dal gasolio, ma le particelle sono più piccole e in numero superiore, quindi potenzialmente più pericolose per la salute.
De Scalzi imputato a Milano di corruzione internazionale per la più grande tangente della storia italiana difende il CCS di Ravenna.
3. Continuare a usare i combustibili fossili e poi catturare e sotterrare l’anidride carbonica prodotta (CCS, carbon capture and storage). Si tratta di un progetto fuori da ogni logica, tecnicamente non ancora sviluppato, caratterizzato da alti costi e forti pericoli ambientali, soprattutto se lo storage avviene in zone sismiche o con forte subsidenza come la costa di Ravenna, dove ENI ha in progetto di costruire un impianto del genere. Questa strategia è semplicemente un escamotage per continuare a produrre ed utilizzare i combustibili fossili.
4. Supportare l’uso dei biocombustibili per mantenere in vita il motore a combustione e quindi per continuare a usare i combustibili fossili. In realtà i biocombustibili non possono giocare un ruolo importante nella transizione energetica semplicemente perché l’efficienza della fotosintesi naturale è molto bassa (0,1-0,2%). È stato calcolato che l’efficienza di conversione dei fotoni del Sole in energia meccanica alle ruote di un’automobile (sun-to-wheels efficiency) è oltre 100 volte superiore per la filiera che dal fotovoltaico porta alle auto elettriche rispetto alla filiera che dalle biomasse porta alle auto alimentate da biocombustibili. Quindi, dal punto di vista energetico la produzione di biocombustibili corrisponde ad uno spreco dell’energia solare. Può essere utile ottenere biometano da prodotti di scarto, ma si tratta di piccole quantità rispetto a quelle che ci vorrebbero per alimentare la mobilità. Per produrlo in quantità massicce sarebbe necessario utilizzare coltivazioni agricole dedicate, entrando così in competizione con la produzione di cibo. Ecco allora che, se si mantengono in circolazione i motori a combustione, c’è ampia opportunità per continuare ad usare grandi quantità di metano fossile.
5. Sostenere lo sviluppo dell’idrogeno da fonti rinnovabili, per miscelarlo (5-10%) al metano o al biometano (gas verde). Non si capisce che senso abbia “sprecare” idrogeno in questo modo, quando l’idrogeno, prodotto per immagazzinare l’elettricità generata dall’energia solare o eolica, può essere riconvertito in elettricità con pile a combustibile per alimentare i molto più efficienti motori elettrici. Il “gas verde” è semplicemente un ulteriore ingannevole tentativo per mantenere in vita gli inefficienti e inquinanti motori a combustione e procrastinare così per un tempo il più lungo possibile il passaggio dai combustibili fossili alle vere energie rinnovabili. Sulla stessa linea, Eni è stata multata dall’Antitrust per aver “presentato come verde un diesel altamente inquinante”.
Purtroppo, Eni è politicamente molto forte ed è riuscita ad imporre a Conte e alla Regione Emilia- Romagna la costruzione di un gigantesco impianto CCS nella zona di Ravenna. Fra non molti anni tutti capiranno che si tratta di una delle tante grandi opere costruite fuori luogo e fuori tempo. La speranza è che a Bruxelles si accorgano che questa proposta Eni non può entrare nel Green Deal e non può essere finanziata nell’ambito del Recovery Plan Next Generations EU. Anche perché nel 2009 l’UE aveva varato EEPR e NER300, due importanti programmi per la cattura e stoccaggio del carbonio (CCS). I soldi sono stati spesi, ma non si è risusciti “a realizzare nessun progresso e nessun progetto di successo per la cattura e stoccaggio del carbonio”.
Vincenzo Balzani
Coordinatore del gruppo di scienziati energiaperlitalia