Un enzima che degrada il legame C-F!

Claudio Della Volpe

Come ho già discusso in un recente articolo su C&I (I chimici e i dervisci, C&I , 3, 2019 purtroppo non disponibile al pubblico) in Natura certi legami chimici appaiono meno probabili e meno comuni; il legame carbonio fluoro (C-F) per esempio non sembra in grado di integrarsi bene almeno nella biosfera terrestre, ma è alla base di una parte importante della nostra chimica di sintesi.

Il motivo è probabilmente la grande forza del legame:

Legame singolo- Energia di legame (kcal/mol)

C-S                             62.0

C-Br                            65.9

C-Cl                            78.5

C-C                             83.1

C-O                             84.0

C-H                             98.8

C-F                            105.4

Come si vede il legame C-F appare il più forte fra tutti i legami del carbonio e dunque il più difficile da scalfire. Pochi esseri viventi usano legami carbonio fluoro; per esempio la nucleocidina prodotta da una muffa e la fluorotreonina isolata dal mezzo di cultura del microorganismo Streptomices Cattleya. Non sembrano esistere materiali perfluorurati naturali; la superidrofobicità naturale (come quella del Loto o del comune Cavolo cappuccio) deriva da cere normali che cristallizzano in geometrie particolari. Per completezza ricordiamo qui che esiste almeno una pianta superiore , Dichapetalum cymosum che produce spontaneamente come sostanza di difesa dagli erbivori il fluoroacetato.

Come agisce? Il composto in se non è tossico ma nel corpo reagisce con il coenzima A producendo il fluoroacetilcoenzima A. A sua volta questo reagisce con l’ossaloacetato per formare fluorocitrato che è tossico perchè è un substrato alternativo per l’aconitasi dalla quale non si separa più; un po’ come il monossido di carbonio per l’emoglobina. La conseguenza è l’interruzione del ciclo di Krebs e della respirazione cellulare, ossia la morte.

E’ da dire che ci sono alcune altre piante in grado di sintetizzare il fluoroacetato. La fluoroacetaldeide è anche l’intermedio di sintesi biologica dei cosiddetti ω-fluoro acidi grassi e del fluoroacetone. Comunque è interessante notare che NESSUN animale usa o sintetizza composti fluorurati composti con legami C-F (a parte quelli di sintesi umani ovviamente).

L’enzima capace di costruire un legame C-F si chiama adenosil-fluoruro sintasi o fluorinasi ed è l’unico conosciuto.

Si tratta, come si vede, di un numero ridotto di casi che entrano in circolo grazie ad un unico enzima.

Al contrario della Natura la chimica del legame C-F non ha fermato l’uomo dall’introdurre un elevato numero di composti basati su questo legame a causa proprio della stabilità e delle proprietà speciali che questo legame conferisce alle molecole che ne sono dotate.

Molecole con legami C-F in particolare con tutti i legami saturati dal fluoro , ossia composti perfluorurati sono stati introdotti perché da una parte sono estremamente idrofobici, sono le sostanze a più bassa energia superficiale che si conoscano, meno di 10 mJ/m2, tendono ad avere una bassissima coesione, dunque sono cere amorfe se di grande dimensioni di catena oppure liquidi, stabili per lungo tempo e con elevate tensioni di vapore.

La somma di queste proprietà li ha portati a dominare certi settori: polimeri perfluorurati come il teflon, PTFE (https://ilblogdellasci.wordpress.com/2015/10/29/quanta-chimica-ce-nelle-bombe-atomiche-3/), liquidi perfluorurati come alcuni tipi di freon, utili nei circuiti frigoriferi o per scacciare l’acqua da mezzi porosi, rivestimenti antiaderenti o antibagnatura, cere da sci più performanti, insomma settori molto utili e dunque anche lucrosi.

Purtroppo si è visto che la stabilità di queste catene perfluorurate o parzialmente fluorurate è tale solo a certe condizioni: la presenza di eteroatomi (per esempio H) anche se alogeni (è il caso di CFC e HFC) e l’effetto degli UV o di un forte riscaldamento, porta ad una loro decadenza nel tempo; una delle conseguenze di questo fatto è stato il cosiddetto buco dell’ozono; l’altro effetto l’intossicazione con derivati perfluorurati di persone ed ambienti, di cui ci ha parlato varie volte Mauro Icardi. (https://ilblogdellasci.wordpress.com/2018/04/23/emergenza-in-veneto/)

Per comprendere meglio la natura dell’inerzia dei perfluorurati facciamo un confronto fra due sostanze più semplici: cloroformio e fluoroformio.

molto simili come vedete; ora entrambi sono debolmente acidi:

HCCl3 ->H+ + CCl3

HCF3 ->H+ + CF3

La carica negativa sullo ione viene stabilizzata dall’effetto attrattivo degli alogeni; però succede una cosa interessante: l’acidità del cloroformio è MAGGIORE di quella del fluoroformio. Eppure la elettronegatività del fluoro è maggiore di quella del cloro; la sua capacità di attirare cariche negative maggiore; come si spiega?

Si spiega col fatto che la carica negativa da una parte deve stare; con gli atomi di cloro essa entra a far parte delle zone dominate dagli orbitali d del cloro che dunque ha due meccanismi di stabilizzazione. Invece il medesimo meccanismo manca al fluoro, perchè il fluoro NON HA ORBITALI d!!

Dunque non sa dove mettere quell’eccesso di carica negativa che pure può attrarre tranquillamente; questo è anche il motivo dell’inerzia chimica dei perfluorocomposti: per attivarsi devono poter avere uno spazio dove ficcare gli elettroni che la eccezionale forza di attrazione del fluoro mette a disposizione.

Ed ecco allora che o ci vogliono radiazioni capaci di ionizzare i legami, oppure ci vogliono eteroatomi, zone di più bassa elettronegatività per poter ospitare una quota di quella nuvola elettronica.

Conseguenza: i perfluorurati sono inerti. Troppo forti per lo spazio disponibile.

Tuttavia i composti perfluorurati con lo “spazio” opportuno sono reattivi; dunque gli intermedi delle lavorazioni industriali come PFOA o PFOS riescono prima o poi ad accumularsi da qualche parte e produrre effetti nocivi; come si è visto nel nostro Veneto o in USA, dove la malaccorta gestione degli scarichi (in Italia della Miteni, in USA della Dupont) ha condotto ad una profonda alterazione ambientale, in Veneto della falda idrica tramite la quale l’inquinamento è passato nei corpi delle persone. Ci abbiamo scritto vari post:

https://ilblogdellasci.wordpress.com/2018/04/23/emergenza-in-veneto/

https://ilblogdellasci.wordpress.com/2017/12/08/questione-pfas-ovvero-larte-di-spostare-il-problema/

Finora tuttavia nessuno aveva trovato il modo di risolvere il problema posto dall’accumulo di perfluorurati nel suolo e nelle acque; come depurare l’ambiente da queste molecole così “estranee” alla biosfera?

In questo lavoro che vi presento, comparso in questi giorni su Environmental Science and Technology, due colleghi di Princeton dimostrano che una particolare sottospecie di batterio, Acidimicrobium Strain sp. A6 è in grado di metabolizzare il fluoro organicato usando vari coreagenti: mentre idrogeno e ammoniaca si ossidano cedendo elettroni e dunque riducendo il Fe+2, anche il perfluorurato entra in gioco rompendo la propria catena e producendo ioni fluoruro.In effetti la ricerca di Jaffe e Huang aveva altri scopi. I due ricercatori , finanziati dalla Fondazione Shipley (i cui fondi vengono dall’industria chimica americana e in particolare da una azienda interessata ai materiali con cui si fanno le piastre per i circuiti stampati, fra i quali cito a memoria ci sono le cere perfluorurate; lo so perché le ho usate come riferimento dei più idrofobici materiali disponibili per l’angolo di contatto) il loro lavoro era dedicato alla degradazione dell’ammoniaca nei terreni umidi del New Jersey, in particolare usando classi di batteri capaci di un processo naturale chiamato Feammox; dopo parecchi anni di lavoro hanno isolato il batterio responsabile che è appunto l’Acidimicrobium A6.

Il momento successivo è stato la sostituzione di un elettrodo al Fe come accettore per poter agire su terreni poveri di ferro. Nello svolgere le prove di questo lavoro si resero conto della possibilità che si apriva nei confronti sia di materiali clorurati, che perclorurati ed a questo punto hanno provato ad aggredire i perfluorurati.

Prima di loro l’uso di alcune specie di Pseudomonas aveva portato ad un risultato apparentemente simile ma senza produzione di ione fluoruro, dunque senza l’eliminazione del fluoro organico.

Per la prima volta abbiamo dunque davanti la possibilità di estrarre un sistema enzimatico e attivare artificialmente reazioni in grado di attaccare il legame C-F il legame del carbonio più forte che conosciamo; questo ci dà speranza che si possa fare qualcosa contro l’inquinamento da PFOA e PFOS.

Ma la storia ci fa anche capire che l’industria che ha provocato in modo malaccorto (o peggio) i problemi, può anche risolverli finanziando una opportuna ricerca dotata di serendipità. Lo Stato dovrebbe supportare queste linee di ricerca. Ovviamente sarebbe meglio prevenire i problemi, come ha saggiamente scritto pochi giorni fa Luigi Campanella in un post sulle microparticelle.

27 Settembre 2019. Perchè sciopero per il clima.

Mauro Icardi

Il 27 Settembre anche in Italia si sono organizzate manifestazioni per focalizzare l’attenzione sul cambiamento climatico. Dopo quelle del 15 Marzo e del 24 Maggio, anche nella piccola città di Varese soprattutto i ragazzi, torneranno a scendere in piazza. Il cambiamento climatico è ormai un tema dibattuto con frequenza. Nei numeri di Aprile, Maggio, Giugno, Agosto e Settembre de “Le Scienze” si trovano articoli dedicati a vari aspetti del problema (Riscaldamento del bacino del mediterraneo, accelerazione della fusione del ghiaccio antartico, aumento degli eventi meteo estremi.) E’ una frequenza inusuale a mio parere. Si parla di cambiamento climatico in televisione sui giornali, nelle trasmissioni radiofoniche. Direi che questo può essere visto come un fatto positivo. Ma nello stesso tempo colgo anche dei segnali diversi. L’attenzione mediatica asfissiante che si rivolge a Greta Thurnberg ,l’ossessione che molti hanno di volerla cogliere in fallo, di analizzare in maniera quasi maniacale i suoi comportamenti per poterla criticare con molta durezza.

Fino ad arrivare alla creazione di un neologismo quale quello di “gretini” per definire chi segue, o partecipa alle iniziative del gruppo “Fridays for future”. Su questo neologismo faccio scendere un dignitoso silenzio. Non merita gli si dia troppa attenzione. Credo invece che si debbano fare degli sforzi. Credo che ci si debba impegnare per restare accanto a questi ragazzi. E si badi bene, non solo manifestando in piazza. Ma aiutandoli a comprendere i cambiamenti che dovranno affrontare. Ho parlato con molti di loro.Sono preparati. Sono a volte tristi, forse sgomenti, ma molto determinati. E probabilmente si chiedono perché a loro sia negata una parte delle possibilità che noi abbiamo avuto. Decenni di ubriacatura consumistica, lasciano a loro l’onere di porre non un rimedio, ma un freno, di trovare il modo di adattarsi ad una situazione ambientale e climatica che è già in parte irrimediabilmente compromessa, e diversa da quella vissuta da noi. Noi genitori, noi padri.

Noi che dobbiamo dire a loro “Guardate che dovrete fare i sacrifici che noi abbiamo solo pensato di fare”.

Molti hanno le risorse umane, etiche e culturali per provare a dar loro aiuto ed incoraggiamento.

Il cambiamento climatico esiste, è già qui e non da oggi. Non siamo stati in grado di accorgercene subito. Forse increduli e stupefatti noi stessi. Io stesso, che vedo L’Istituto Superiore per la Protezione e la Ricerca Ambientale organizzare un convegno per la gestione in emergenza dei servizi idrici. Dove si parlerà certamente degli eterni problemi di carenza infrastrutturale. Ma anche della crescente influenza degli effetti legati al mutamento climatico come le forti e concentrate precipitazioni o le siccità prolungate, sulla gestione di impianti, sulla disponibilità di acqua potabile, sulla necessità indifferibile di investire per limitare danni e impatto sull’ambiente nel settore depurazione.

Di questi temi ho scritto molte volte su questo blog. Per dare conto di una situazione che constato e vivo praticamente ogni giorno. Oggi la gestione del ciclo idrico è completamente diversa da come ho imparato a conoscerla ormai trent’anni fa. E questo aumenta in me la percezione del tempo che abbiamo trascorso invano, persi in mille tentennamenti o inutili guazzabugli burocratici. I ragazzi spesso parlano mi parlano di acqua. Io voglio essere al loro fianco. Una sfida di così grande portata richiederà un grande impegno. Di conoscenza, di applicazione pratica di quanto si è appreso. Ma soprattutto lo sforzo più grande, e forse temuto da molti. L’abbandonare le abitudini e gli stili di vita incompatibili con le leggi di natura. Non possiamo più perdere tempo. E io oggi sarò con loro.

Aerosol e clima

Luigi Campanella, già Presidente SCI

Il monitoraggio costante e continuo e le conseguenti valutazioni dei cambiamenti climatici globali condotti da Organizzazioni Intergovernative come IPCC (Intergovernmental Panel on Climate Change) hanno recentemente rivelato che nonostante le azioni finalizzate al contenimento di tali cambiamenti ,tutti gli indicatori esaminati concordano sul fatto che l’attuale ciclo climatico della Terra continuerà ad essere esacerbato dalle attività umane. Il Consiglio di IPCC ha deciso di esplorare l’opinione degli scienziati sui cambiamenti climatici e sul loro impatto sul nostro mondo. I risultati di tale esplorazione sono

-la maggior parte degli scienziati crede che ci sarà una grande varietà di impatti nei prossimi 50 anni includendo l’accresciuta incidenza di eventi atmosferici estremi e l’aumento del rapporto fra nuove e vecchie malattie

-gli scienziati sono pessimisti circa la capacità della società civile di prevenire il riscaldamento globale ; non credono che essa si adatterà in tempi ragionevoli alle misure stabilite dai politici nazionali ed internazionali

-gli scienziati credono che le innovazioni tecnologiche, particolarmente quelle correlate all’energia solare, potranno essere proficuamente usate per contrastare il riscaldamento globale

– gli scienziati temono che in molti casi gli inquinamenti criminali e colpevoli non vengano perseguiti non solo per scelta,ma anche per difficoltà ad individuarli.

Su questo specifico aspetto è di recente uscito un rapporto dell’Università di Lund in Svezia a cura di Hafiz Abdul Aseen dedicato all’aerosol atmosferico ed alla ricerca delle fonti del suo inquinamento. Dopo il campionamento la separazione dei suoi componenti mediante cromatografia e la rivelazione massaspettrometrica di questi è stata tentata la loro correlazione con le fonti di inquinamento attraverso il principio dell’impronta marker.

http://www.dmf.unisalento.it/sub-web/AerosolClima/

Gli aerosol atmosferici sono ubiquitari. Si tratta di miscele di particelle molto piccole e di goccioline liquide la cui dimensione significa che possono essere trasportate nell’atmosfera fino a distanze anche elevate, così cambiando le proprie caratteristiche, ad esempio per interazione con la componente UV della luce solare e con l’ozono.

Siamo esposti ad aerosol per tutta la vita e la loro origine può essere antropica o naturale:si può affermare che la natura delle molecole che lo compongono dipende comunque in larga parte dalla sorgente che lo ha prodotto. Gli aerosol formati dalla combustione di scarti di biomassa agricola (illegali) sono differenti da quelli prodotti dagli autoveicoli o dagli impianti di riscaldamento. Ci sono poi gli aerosol benefici e curativi utilizzati in medicina. La domanda diviene allora: è possibile dall’odore (dando a questa parola il significato più ampio) di un fumo riconoscerne l’origine? Il nostro organismo riesce con i mezzi di cui dispone a filtrare le particelle inquinanti evitando che giungano fino ai polmoni; ma in caso di malattie, di fumatori ,di lavori in ambienti fortemente inquinati questa capacità viene parzialmente o completamente meno e deve essere supportata da altri mezzi di difesa, come maschere, filtri ed altro ancora. Questo è tanto più necessario quanto più piccole e leggere sono le particelle anche se, al di sotto di una certa dimensione, vengono tenute continuamente in movimento dal moto browniano e non si depositano. L’abilità di analizzare i composti chimici presenti negli aerosol non soltanto può fornire importanti informazioni sulla loro potenziale tossicità,ma anche sulla loro origine. Per esempio i composti fenolici e gli zuccheri indicano aerosol formato da biomassa in combustione, mentre gli acidi carbossilici e gli idrocarburi policiclici aromatici in relazione alle specie identificate indicano attività antropica sia per emissione da autoveicoli che da impianti di riscaldamento a carbone. E’ possibile in alcuni casi ricorrere a marker di facile ed economica determinazione, ma molto significativi per l’assegnazione della sua origine ad un aerosol. Ci sono poi campionatori già predisposti per rivelare certi composti. Poiché l’impronta di emissione è sempre diversa per natura chimica non ci sono soluzioni uniche ed ideali: si tratta di combinare le varie tecniche in una vera e propria sfida il cui premio è però individuare i responsabili di un inquinamento ed intervenire per correggere ed eliminare i danni prodotti:si tratta di risultati di elevato valore sociale. I nasi elettronici e le sonde multisensore sono fra i dispositivi messi messi a punto più di recente per vincere questa sfida.

Cronache dalla Scuola Del Re

Mauro Icardi

Ho ricevuto l’invito a partecipare alla scuola Giuseppe Del Re dalla collega di redazione Margherita Venturi, da gennaio di quest’anno presidente della Divisione di Didattica della chimica. La scuola si è tenuta nel comune di San Miniato.

I ringraziamenti saranno (doverosamente) nella la parte finale di questo articolo. L’edizione di quest’anno è stata la quarta. Una scuola di didattica della chimica è un’esperienza che, tende ad accendere in me quella curiosità che mi accompagna praticamente da sempre. L’unico dubbio che ho avuto inizialmente era quello di capire cosa avrei potuto portare come contributo personale. Il tema di quest’anno era dedicato alle reazioni chimiche. Precisato che io di mestiere faccio il tecnico, e non il docente, ho pensato che poteva essere interessante parlare di reazioni che avvengono nelle vasche di ossidazione di un impianto di depurazione. Come ripeto da molti anni, una vasca di ossidazione può suscitare diversi tipi di impressione a chi la vede per la prima volta. Io normalmente tendo a ricordare che quella che si vede, non è solamente “una vasca piena di fango”, variamente agitato e mescolato. Ma che si tratta di un reattore biologico.

All’interno di questa vasca, una comunità di batteri, protozoi e microrganismi deve incaricarsi di mineralizzare sostanza organica, trasformandola in composti inorganici semplici, e di conseguenza depurare l’acqua reflua di risulta da insediamenti domestici, industriali e urbani. Chi si occupa di gestire il processo di trattamento deve occuparsi di gestire un reattore biologico, operazione che pone qualche limitazione. La prima relativa al tempo di ritenzione idraulico. Non sono molti gli impianti di depurazione che sono stati progettati e dotati di una vasca atta a smorzare sia le punte di carico organico influente, che quelle di variazione di portata idraulica. E l’effetto di queste variazioni va monitorato e gestito. Altro fattore importante è la temperatura del fango presente in vasca. Non è preimpostata, ma ha delle oscillazioni stagionali. Mediamente la temperatura invernale non scende sotto i 12°C, e quella estiva non supera i 20°C. L’aumento delle temperature che si sta verificando negli ultimi anni, in qualche caso ha portato ad avere temperature estive in ossidazione più alte, con un incremento massimo al momento di circa 3° C. Per quanto riguarda la gestione del processo una temperatura più elevata favorisce la velocità delle reazioni biochimiche, ma nello stesso tempo sfavorisce la dissoluzione dell’ossigeno in vasca, in accordo con la Legge di Henry.

Mi serviva per la scuola una dimostrazione effettuabile in Laboratorio chimico. Ho pensato quindi di mostrare la prima parte del processo di frazionamento del COD (chemical oxygen demand).

Il COD associato ad un’acqua reflua è costituito da vari apporti.

Materiale organico non biodegradabile,a sua volta ripartito in:

  • Materiale organico inerte solubile (SI), che, non partecipando né ai processi biologici né alla sedimentazione, transita immutato attraverso l’impianto;
  • Materiale organico inerte particolato (XI), che viene “intrappolato” nel fango attivo e rimosso mediante sedimentazione;

Materiale organico biodegradabile, a sua volta ripartito in:

Materiale organico rapidamente biodegradabile (SS) formato da molecole semplici che vengono assimilate dai batteri eterotrofi e usate per la formazione di nuova biomassa;

  • Materiale organico lentamente biodegradabile (XS), formato da molecole più complesse che devono essere idrolizzate in substrato rapidamente biodegradabile per essere utilizzate .

Suddividere il COD biodegradabile tra la frazione solubile biodegradabile e quella particolata biodegradabile su un’acqua reflua è un’operazione decisamente semplice. Basta infatti trattare il refluo con una soluzione di solfato di zinco e soda. Questo trattamento di flocculazione produce fiocchi compatti che si aggregano rapidamente e altrettanto rapidamente sedimentano. Esperienza che utilizzando un cilindro di vetro può riprodurre per esempio il funzionamento di un sedimentatore. Io ho eseguito questa operazione su un campione di acqua reflua proveniente dalla fase finale di trattamento di un impianto di depurazione. Mi serviva per puntualizzare alcuni concetti. Il campione che ho utilizzato aveva un COD residuo pari a 40 mg/L. Ma il precipitato che si è formato era ancora voluminoso. Le prove che ho eseguito in laboratorio prima dell’esperienza a San Miniato mostrano che la frazione di carbonio solubile ancora presente è pari 22 mg/lt pari al 55% del COD scaricato. Questa frazione è destinata ad essere ulteriormente mineralizzata dalla biomassa naturalmente presente nel corpo idrico ricettore. Questo ipotizzando un impianto privo di trattamento terziario di filtrazione o di trattamento su membrane. Situazione per altro ancora abbastanza diffusa. Ma messa in crisi dal cambiamento di regime delle precipitazioni piovose. Specialmente nei periodi estivi, la portata di alcuni fiumi subisce decisi cali di portata, se non anche situazioni di secca più o meno prolungate. Mettendo quindi in crisi questa filosofia costruttiva e progettuale. Cioè trovare il ragionevole punto d’incontro tra la rimozione della sostanza organica e degli inquinanti, e un costo di realizzazione dell’impianto non eccessivo. Le prove che ho eseguito in laboratorio prima dell’esperienza a San Miniato mostrano che la frazione di carbonio solubile ancora presente nel refluo testato è pari 22 mg/lt pari al 55% del COD scaricato. Frazione che può essere eliminata solo in condizioni normali di portata del corpo idrico ricettore. Oltre a questo la suddivisione della sostanza organica espressa come COD mostra anche le vie attraverso le quali i composti organici non biodegradabili rimangono nel flusso di acqua scaricata dagli impianti di depurazione (COD solubile inerte), o si accumulano nei fanghi di risulta (COD particolato inerte).

A corredo di questa esperienza non complicata, ma a mio parere significativa, ho voluto anche mostrare una operazione di condizionamento di fango biologico da sottoporre a successiva disidratazione.

Le operazioni per il trattamento delle acque che si svolgono in un impianto di depurazione sono certamente note (anzi arcinote) agli operatori. Ma spesso non conosciute dal pubblico dei non esperti. Quindi ho cercato di renderle in qualche modo meno sconosciute con esperimenti molto semplici.

Prima di chiudere con i ringraziamenti vorrei mostrare uno dei “giocattoli” che mi piacerebbe avere la possibilità di utilizzare

Il modello di depuratore didattico. Dimensioni contenute e pochi litri di acqua da trattare. Riproduzione schematica e semplice di una vasca di ossidazione con annesso sedimentatore.

Il tempo è sempre tiranno. Ma è un progetto su cui mi piacerebbe lavorare. Magari tentando l’autocostruzione.

A chiusura di questo articolo voglio ringraziare Margherita Venturi per avermi concesso l’opportunità di dare il mio piccolo contributo a questa edizione della scuola di didattica della chimica. Grazie all’Istituto Cattaneo per la messa adisposizione delle aule e del Laboratorio.

E tramite Margherita ringrazio anche tutti i partecipanti, le persone con cui ho potuto scambiare opinioni ed esperienze. Resto fermamente convinto che non sono gli esami che non finiscono mai, ma è la necessità di apprendere e studiare che va sempre coltivata. Con passione e costanza. I tre giorni sono stati intensi e densi di lavoro. Quindi un grazie, un riconoscimento anche e soprattutto al lavoro. Il lavoro di preparazione e organizzazione. Non è cosa da poco, e occorre ricordarlo. Ma il lavoro, i semi gettati sono l’auspicio di una crescita culturale, di un riportare l’insegnamento e (anche la ricerca) al centro di un futuro programma sia di investimenti, che di giusta considerazione. Io ero il non insegnante tra gli insegnanti. Ma non mi sono mai sentito estraneo.

Microparticelle nei cosmetici.

Luigi Campanella, già Presidente SCI

Ecobiocontrol è il portale che da quasi due decenni ha un ruolo di orientamento verso acquisti di detergenti e di cosmetici rispettosi del principio di sostenibilità, un vero proprio punto di riferimento (su base scientifica ovviamente). E’ un luogo di discussione e con il quale confrontare le formulazioni di detergenti per la casa e cosmetici, tramite l’Ecobiocontrol dizionario.
L‘Agenzia Europea per le Sostanze Chimiche (ECHA) non sembra impegnarsi troppo sull’argomento….; in effetti ha elaborato una proposta rivolta alle tecnologie di produzione ed impiego di microparticelle solide solubili ed insolubili per cosmetici e detergenti come anche alle regole transitorie verso soluzioni migliori delle attuali. L’associazione della piccole e media impresa europea con il sostegno di alcuni ricercatori ha commentato criticamente attraverso il portale suddetto questa proposta giudicandola asservita ad interessi economici e causa di un vistoso rallentamento dei processi innovativi in atto, giustificando attraverso il rischio accettabile atteggiamenti in contrasto con una politica amica dell’ambiente che nelle ultime decadi ha trovato anche il supporto di soluzioni tecnico-scientifiche.https://tg24.sky.it/ambiente/2018/01/22/cosmetici-microplastiche.html

La posizione che emerge non è aprioristicamente contraria all’utilizzo di micro particelle applicate a cosmetici e detergenti, ben consapevole che da questro utilizzo possono derivare funzionalità e convenienza. La convinzione espressa è che è sicuramente possibile sostituire i materiali esistenti largamente irrispettosi dell’ambiente con altri più rispondenti alle esigenze degli ecosistemi, ma per remare a favore, e non contro, delle correnti raccomandazioni e direttive con soluzioni reali è richiesto che il metabolismo dei sistemi naturali sia sempre considerato il punto di partenza.

Da questo si possono dedurre quali tipi di materiali, in quali forme e di quanto di essi possa essere fatto uso senza sfidare e compromettere i processi biotici ed abiotici del nostro pianeta.

Ciò premesso cosa ECHA intende per microplastiche? Si tratta di particelle con una dimensione minore di 5 mm di plastica macromolecolare insolubile ottenuta per polimerizzazione, modificazione chimica di macromolecole naturali o sintetiche, fermentazione microbica. C’è subito da osservare nella forma che, al di là della completezza, tale definizione adottata dall’ECHA è solo valida per prodotti volontariamente sottomessi ai suoi criteri, non per ogni prodotto introdotto sul mercato. Nel merito poi della sostanza vengono esclusi da essere considerate microplastiche i polimeri naturali non modificati, tranne che per idrolisi ed i polimeri biodegradabili. Con riferimento allo smaltimento non si può non notare che la raccomandazione alle 3R contenuta nella proposta (ridurre,riusare,riciclare) mal si adatta a sostanze come cosmetici e detergenti per la presenza in essi di numerosi eccipienti non riciclabili: solo una stretta selezione degli ingredienti e delle materie prime nelle fasi di sviluppo e produzione ed un’attenta sorveglianza e guida del consumatore possono implementare i criteri di protezione ambientale. Come conseguenza delle precedenti carenze rifiuti insufficientemente degradati raggiungono i mari e gli oceani in tempi variabili in dipendenza dalle situazioni diverse dei fiumi, ma mediamente valutabili per i fiumi europei in un paio di giorni. Passando alla composizione nel Mediterraneo le particelle di dimensione maggiore di 700 micron sono costituite per oltre la metà da polietilene e per un quinto da polipropilene; si ritrova ancora relativamente poco polivinilalcool, ma la sua presenza è crescente e questo deve preoccupare perché con le nuove tecnologie applicate ai polimeri naturali rinnovabili questo composto è fortemente lucrativo a causa del suo carattere di biodegradabilità in certe condizioni microbiche. Il punto più debole della proposta ECHA è nei test di biodegradazione che riproducono quelli ufficialmente riconosciuti ma estendendone i cicli a 90-120 giorni in luogo dei 28 previsti usualmente ed innalzandone le temperature sperimentali fino a più di 30°C. I test sono stati sviluppati per biodegradare tensioattivi solubili, non microplastiche insolubili. Con le microplastiche solubili è la stessa solubilità un segno di degradabilità. Le microplastiche, sia solubili che insolubili, dovrebbero essere testate con metodi appropriati. La microplastica media attuale non può essere degradata in condizioni aerobiche ed anaerobiche in tempi talmente brevi da mantenere l’ambiente in buone condizioni. Non ha quindi senso puntare a cicli di degradazione lunghi e per di più in condizioni di temperatura irrealistiche. In più l’attuale trattamento delle acque reflue non consente la separazione fra microplastiche solubili ed insolubili prima del rilascio dell’effluente nel sistema acquatico collettore ed i tempi di ritenzione negli impianti di trattamento delle acque reflue sono troppo brevi per consentire la degradazione.

Il documento conclude chiedendo che, secondo una scelta che pare ovvia e di buon senso comune, venga proibito il rilascio nell’ambiente di materiali aggiunti intenzionalmente, incluse le micro particelle, sia in forma solubile che insolubile, quando questi non soddisfano stretti criterihttps://tg24.sky.it/ambiente/2018/01/22/cosmetici-microplastiche.html

-provenienza da fonti rinnovabili

-trasformazione per via fisica o chimica,ma secondo i criteri della Green Chemistry

-assenza di addittivi indesiderati o dannosi

– bassa tossicità acquatica

-pronta degradabilità in condizioni aerobiche ed anaerobiche o compostabili

-assenza di rilascio di metaboliti stabili dopo la degradazione o il compostaggio

Questi criteri sono focalizzati sulla prevenzione e rispondono al primo e più importante principio della Green Chemistry: prevenire il rifiuto è meglio che trattarlo o eliminarlo dall’effluente. Esistono ormai in commercio parecchie molecole che soddisfano questo profilo. I costi sono spesso maggiori, ma nelle valutazioni economiche ci si dimentica sempre dei costi ambientali. La piccola e media impresa in questo senso viene spesso frenata nell’adozione di innovazioni dagli interessi dei grossi produttori generalmente più conservatori.

Elementi della tavola periodica: Tallio, Tl.

Rinaldo Cervellati

Il tallio ricevette notevole attenzione da parte dei media di tutto il globo e di conseguenza del grande pubblico sul finire del 2006, in relazione alla morte della ex-spia russa Alexander Valterovich Litvinenko. Litvinenko, ex ufficiale del FSB (il servizio segreto della Federazione Russa) già KGB, perseguitato da un Tribunale russo, ottenne asilo politico in Gran Bretagna. Si ammalò improvvisamente l’1 novembre 2006 e, poiché i sintomi combaciavano, la prima diagnosi fu avvelenamento da tallio, fu curato per questo ma le sue condizioni peggiorarono e morì all’University College Hospital di Londra il 22 novembre.

Alexander Litvinenko all’University College Hospital

In seguito l’autopsia rivelò che la causa del decesso era dovuta all’isotopo radioattivo 210Po del polonio, mai usato prima come veleno.

Il Tallio (Tl) è l’elemento n. 81 della Tavola periodica, la sua abbondanza stimata nella crosta terrestre è circa 0,7 ppm, quindi non è molto raro. Non si trova libero in natura, è contenuto nei minerali crookesite (seleniuro di rame), nella lorandite (solfoarseniuro di tallio) e nella hutchinsonite (solfo arseniuro di piombo e tallio). Si trova anche nella comune pirite (solfuro di ferro) dalla quale si estrae principalmente.

Il nome deriva dal greco θαλλός (thallos), che significa rametto, germoglio verde, poi latinizzato in thallium.

                                                                                                  Da sinistra a destra:   Crookesite, Lorandite, Hutchinsonite e (sotto) Pirite

Il tallio fu individuato indipendentemente nel 1861 dai chimici William Crookes[1] e Claude-Auguste Lamy[2] in residui della produzione di acido solforico. Entrambi utilizzarono il metodo della spettroscopia di fiamma[3] in cui il tallio emette una notevole riga spettrale di colore verde. Il termine thallós è stato coniato da Crookes. Nel 1862 fu isolato sia da Lamy tramite elettrolisi, sia da Crookes per precipitazione da soluzioni con zinco e fusione della polvere risultante.

Il tallio è l’ultimo elemento del gruppo 13 della Tavola periodica, insieme a boro, alluminio, gallio e indio. Possiede due numeri di ossidazione: +1 (I) e +3 (III), la riduzione dallo stato di ossidazione +3 a quello +1 è spontanea in condizioni standard (25°C, 1atm). Nello stato di ossidazione +1, che è il più frequente, il suo comportamento chimico assomiglia a quello dei metalli alcalini.

Il tallio metallico è malleabile e tenero, abbastanza da poter essere tagliato con un coltello a temperatura ambiente. Presenta lucentezza metallica che, se esposta all’aria, cambia rapidamente in una sfumatura grigio-bluastra, simile al piombo, per formazione di ossido di tallio.

Tallio metallico ossidato (a sinistra), tallio metallico sotto vuoto (a destra)

In presenza di acqua forma idrossido di tallio, deve quindi essere conservato in olio minerale o sotto vuoto. Gli acidi solforico e nitrico dissolvono rapidamente il tallio per formare i corrispondenti sali, solfato e nitrato, mentre l’acido cloridrico forma uno strato insolubile di cloruro di tallio (I).

Il tallio naturale è formato da due isotopi 203Tl (29.5%) e 205Tl (30.5%), oltre a questi sono 23 gli isotopi artificiali con masse che vanno da 184 a 210. Il più stabile di essi è il 204Tl con tempo di emivita di 3,78 anni, ma il più importante è il 201Tl con tempo di emivita di 73 ore, dimostratosi utile per applicazioni mediche.

Gli alogenuri di tallio(I) sono stabili, il cloruro e il bromuro hanno la struttura del cloruro di cesio, mentre il fluoruro e lo ioduro una struttura simile a quella del cloruro di sodio. Cloruro, bromuro e ioduro sono fotosensibili, come gli analoghi composti d’argento. La stabilità dei composti del tallio (I) mostra differenze rispetto agli altri elementi del gruppo: ossido, idrossido e carbonato sono stabili.

I composti di tallio (III) assomigliano ai corrispondenti composti di alluminio (III), ma sono generalmente instabili.

I composti organotallici tendono generalmente a essere termicamente instabili, in soluzione acquosa forma lo ione stabile dimetil tallio, [Tl(CH3)2]+. Il trimetilallio e il trietiltallio sono liquidi infiammabili con basso punto di ebollizione.

Sebbene contenuto nei minerali sopra citati la sua estrazione da questi richiederebbe processi poco economici. La maggior parte del tallio si ottiene come sottoprodotto dall’arrostimento della pirite per la produzione di acido solforico. Le scorie di arrostimento utilizzate per la produzione del tallio contengono grandi quantità di altri materiali e vengono inizialmente lisciviate mediante l’uso di una base o di acido solforico. Il tallio viene poi fatto precipitare più volte dalla soluzione per rimuovere le ulteriori impurità. Alla fine è convertito in solfato di tallio da cui il tallio viene estratto per elettrolisi su elettrodi di platino o acciaio inossidabile.

Il tallio può anche essere ottenuto come sottoprodotto dalla fusione di minerali di piombo e di zinco. I noduli di manganese trovati sul fondo dell’oceano contengono tallio, ma la loro raccolta oltre a essere proibitivamente costosa è dannosa per l’ambiente marino.

L’USGS (United States Geological Survey) stima in 10 tonnellate la produzione annua mondiale di tallio.

Applicazioni

Poiché il solfato di tallio è inodore e insapore è stato a lungo usato come veleno per topi e insetticida. Data la sua elevata e non selettiva tossicità, il suo impiego a questo scopo è stato vietato in moltissimi Paesi dai primi anni ’70 del secolo scorso[4].

In ottica, i cristalli di bromuro e ioduro di tallio (I) sono usati come materiali ottici a infrarossi, perché sono più duri di altri materiali, inoltre trasmettono lunghezze d’onda significativamente più lunghe. L’ossido di tallio (I) è stato usato per produrre vetri con un alto indice di rifrazione. Combinato con zolfo o selenio e arsenico, il tallio è stato utilizzato nella produzione di vetri ad alta densità con bassi punti di fusione nell’intervallo 125 e 150 °C. Questi vetri, a temperatura ambiente, hanno proprietà simili a quelli normali ma sono più resistenti, e hanno indici di rifrazione migliori.

In elettronica, la conduttività elettrica del solfuro di tallio (I) lo rende utile nei fotoresistori. Il seleniuro di tallio è stato utilizzato in bolometri per il rilevamento a infrarossi. Il drogaggio di semiconduttori al selenio con tallio migliora le loro prestazioni, quindi è utilizzato in tracce nei raddrizzatori al selenio. Un’altra applicazione del drogaggio con tallio sono i cristalli di ioduro di sodio nei dispositivi di rilevamento delle radiazioni gamma. Alcuni elettrodi degli analizzatori di ossigeno disciolto contengono tallio.

Sono in corso attività di ricerca sul tallio per lo sviluppo di materiali superconduttori ad alta temperatura per applicazioni quali la risonanza magnetica, la propulsione magnetica, e la trasmissione di energia elettrica. La ricerca su queste applicazioni è iniziata dopo la scoperta del primo superconduttore di ossido misto di rame, calcio, bario e tallio nel 1988. Sono stati scoperti superconduttori di cuprato di tallio con temperature di transizione superiori a 120 K. Alcuni superconduttori di questo materiale drogati con mercurio hanno temperature di transizione superiori a 130 K a pressione ambiente, quasi quanto i cuprati di mercurio che detengono il record mondiale.

In medicina, prima della diffusa applicazione del tecnezio-99[5] in medicina nucleare, l’isotopo radioattivo tallio-201 (201Tl), con un’emivita di 73 ore, era la sostanza principale per la cardiografia nucleare. Il nuclide è ancora usato nei test stress per la determinazione del rischio nei pazienti con malattia coronarica (CAD).

Uno stress test al tallio è una forma di scintigrafia in cui la quantità di tallio nei tessuti è correlata all’afflusso di sangue. Le cellule cardiache vitali hanno normali pompe di scambio ionico Na+/K+. Il catione Tl+ lega le pompe K+ e viene trasportato nelle cellule. L’esercizio fisico induce l’allargamento (vasodilatazione) delle arterie nel corpo. Ciò produce un’anomalia coronarica nelle aree in cui le arterie sono dilatate al massimo. Le aree di infarto o tessuto ischemico rimarranno invece “fredde”. Il tallio pre e post stress può indicare le aree che trarranno beneficio dalla rivascolarizzazione miocardica. La scintigrafia può rivelare l’esistenza di un’anomalia coronarica o la presenza di coronaropatia ischemica.

Altri usi

Una lega di mercurio-tallio, che forma un eutettico con il tallio all’8,5% congela a -60 ° C, e viene quindi utilizzata in termometri e interruttori a bassa temperatura. In chimica organica di sintesi, i sali di tallio (III), come il trinitrato di tallio o il triacetato, sono reagenti utili per favorire diverse trasformazioni di composti aromatici, come chetoni e olefine. Sali di tallio solubili sono aggiunti ai bagni di doratura per aumentare la velocità di doratura e ridurre le dimensioni dei granuli all’interno dello strato d’oro.

Tossicologia

Il tallio e i suoi composti sono estremamente tossici e devono essere maneggiati con cura. I composti del tallio (I) hanno un’alta solubilità in acqua e sono prontamente assorbiti attraverso la pelle. Sintomi di avvelenamento da tallio sono la perdita dei capelli e il danneggiamento dei nervi periferici. Esistono purtroppo numerosi casi registrati di avvelenamento fatale da tallio.

L’OSHA[6] (Amministrazione per la Sicurezza e la Salute sul Lavoro) ha fissato il limite di esposizione consentito per l’esposizione cutanea al tallio sul posto di lavoro in 0,1 mg/m2 per giorno lavorativo di 8 ore. A livello di 15 mg/ m2, il tallio è immediatamente pericoloso per la vita e la salute.

L’esposizione per inalazione non deve superare 0,1 mg/m2 in una media ponderata nel tempo di 8 ore (settimana lavorativa di 40 ore). Il tallio si assorbe facilmente attraverso la pelle e si dovrebbe prestare attenzione per evitare questa via di esposizione, poiché l’assorbimento cutaneo può superare la dose assorbita ricevuta per inalazione fino al limite di esposizione consentito.

Il tallio è un sospetto cancerogeno per l’uomo.

Uno dei metodi principali per rimuovere il tallio (sia radioattivo sia stabile) dall’organismo è usare il blu di Prussia[7], sostanza che assorbe il tallio. La terapia prevede la somministrazione per os di fino a 20 grammi al giorno di blu di Prussia che verrà poi espulso (insieme al tallio) con le feci. Per rimuovere il tallio dal siero del sangue vengono anche utilizzate l’emodialisi e l’emoperfusione.

Secondo la United States Environmental Protection Agency (EPA), le fonti antropiche di inquinamento da tallio includono emissioni gassose di cementifici, centrali elettriche a carbone e fognature. La principale fonte di elevate concentrazioni di tallio in acqua sono gli scarichi (peraltro vietati) delle acque di lisciviazione dalle operazioni di lavorazione delle piriti.

Smaltimento e riciclaggio

In un’ampia rassegna sull’impatto ambientale e sulla salute dell’uso di tallio e composti, pubblicata nel 2005, Peter e Viraraghavan [1], dopo aver affermato che i metodi convenzionali di rimozione dei metalli pesanti dalle acque reflue ha scarso effetto sul tallio, elencarono alcune tecniche di trattamento per proteggere l’ambiente dalla tossicità del tallio.

Posto che i rifiuti generati dalla produzione e l’uso di composti di tallio possono trovarsi sia in acque reflue (contenenti meno dell’1% in peso di solidi sospesi e di carbonio organico totale) sia in acque non reflue, nelle prime il tallio può essere ridotto a 2 ppb (parti per miliardo) facendolo precipitare come solfuro che richiede comunque un attento controllo simultaneo del pH e del potenziale della soluzione.

Il tallio può essere efficacemente rimosso dalle acque non reflue con limatura di ferro e perossido di idrogeno a pH 3-4. I composti di tallio sono ridotti a metallo che viene poi eliminato per filtrazione.

Le acque reflue contenenti composti del tallio (III) vengono miscelate con calce o idrossido di sodio fino a un pH fra 8 e 10. Il tallio precipita come idrossido e quindi filtrato.

Per la rimozione del Tl(I) si usa una tecnica di adsorbimento su biossido di manganese. Fanghi di biossido di manganese prodotti durante l’elettrolisi dello zinco hanno dimostrato di essere molto efficaci nella rimozione degli ioni tallio dalle acque di lavorazione di zinco e piombo, da una quantità iniziale di 12,5 mg/L alla finale inferiore a 100 μg/L.

In Cina l’inquinamento ambientale da tallio è un problema divenuto attuale poiché il Paese è ricco della risorsa e la sta intensivamente sfruttando nell’industria elettronica. Molto recentemente è apparsa un’esauriente rassegna sull’argomento, pubblicata dal gruppo di ricerca guidato da J. Wang e G. Sheng [2]. Gli autori ricordano che le tecnologie convenzionali di trattamento chimico e fisico sono sì in grado di rimuovere tracce di Tl, ma si sono rivelate non convenienti per raggiungere lo standard ambientale richiesto (≤0,1–5μg/L). Sono invece molto promettenti l’adsorbimento utilizzando nanomateriali di recente sviluppo, i materiali polimerici modificati con ossido di metallo e le celle a combustibile microbiche[8].

Cella a combustibile microbica

Ciclo biogeochimico

Così come per il litio, anche per il tallio non si trova quasi nulla sul suo ciclo biogeochimico poiché, a maggior ragione in questo caso, non sono noti enzimi in grado di interagire con esso. Esistono studi geochimici, limitati ad aree specifiche del pianeta.

Nel 2018, la rivista scientifica Minerals decise di proporre un numero speciale su “Thallium: Mineralogy, Geochemistry and Ore Processes”, nella sezione Mineral Deposits, richiedendo articoli su questi argomenti. Su 7 articoli ricevuti 3 riguardavano aspetti geochimici di minerali di tallio in zone specifiche: Alpi Apuane (Italia), Nord Urali (Russia), Legenbach Quarry (Svizzera) [3].

Infine, ricordiamo che nell’ottobre 2017, il decesso di due anziane persone di Desio, fu imputato da molti giornali, fra cui il Corriere della Sera, alle “esalazioni” degli escrementi di piccione che avrebbero contenuto sali di tallio. La notizia creò un certo panico, ma si trattava della solita bufala giornalistica, che a sostegno riportò fantomatiche ricerche dell’OMS, mai avvenute.

Ne parlò su questo blog Claudio della Volpe:

https://ilblogdellasci.wordpress.com/2017/10/04/il-tallio-i-piccioni-e-i-giornali/

concludendo che se davvero gli escrementi dei piccioni contenessero tallio, Piazza San Marco sarebbe vuota…

Opere consultate

CRC, Handbook of Chemistry and Physics, 85th, p. 4-31

https://en.wikipedia.org/wiki/Thallium

https://it.wikipedia.org/wiki/Tallio

Bibliografia

[1] A.L. John Peter , T. Viraraghavan, Thallium: a review of public health and environmental concerns., Environment International, 2005, 31, 493 – 501.

[2] J. Liu et al., Thallium pollution in China and removal technologies for waters: A review., Environment International, 2019, 126, 771– 790.

[3] https://www.mdpi.com/journal/minerals/special_issues/thallium

[1] Sir William Crookes (1832 – 1919) è stato un chimico e fisico britannico. Famoso per le sue ricerche sulla conduzione dell’elettricità nei gas a bassa pressione in tubi poi chiamati tubi di Crookes. Scoprì che quando la pressione era molto bassa, il catodo emetteva dei deboli raggi luminosi da lui chiamati raggi catodici. In seguito fu dimostrato che si trattava di un fascio di elettroni. Ebbe molte onorificenze e fu presidente della Society for Psychical Research.

[2] Claude-Auguste Lamy (1820 – 1878), chimico francese, fu compagno di studi di Louis Pasteur, intraprese poi la carriera di professore universitario all’École Normale Supérieure di Parigi. Indipendentemente da Crookes scoprì e isolò il tallio nel 1862.

[3] Tecnica spettroscopica ideata e perfezionata da Robert Wilhelm Eberhard Bunsen (1811 – 1899) chimico tedesco e Gustav Robert Kirchhoff (1824-1887) fisico tedesco, fondatori della spettroscopia di emissione.

[4]A causa della sua popolarità storica come “arma del delitto”, il tallio ha acquisito, insieme con l’arsenico, notorietà come “veleno dell’avvelenatore” e “polvere dell’eredità”.

[5] Il tecnezio (simbolo Tc) è l’elemento n. 43 della Tavola periodica e fu ottenuto artificialmente da Carlo Perrier ed Emilio Segré nel 1937. Il suo isotopo 99Tc è attualmente molto impiegato in medicina nucleare per il suo tempo di emivita.

[6] L’OSHA è un’agenzia del Dipartimento del Lavoro degli USA fondata nel dicembre 1970. Il suo compito è quello di garantire la sicurezza tramite l’introduzione di opportuni standard.  La EU-OSHA (Agenzia Europea per la Salute e Sicurezza sul Lavoro), fondata nel 1994, ha l’obiettivo di rendere i luoghi di lavoro europei più sicuri, produttivi e salutari, attraverso la condivisione e l’applicazione di informazioni di carattere giuslavoristico, sanitario e di prevenzione, non va quindi confusa con la statunitense OSHA.

[7] Il blu di Prussia (noto anche come Blu di Berlino) è un pigmento blu scuro usato nelle vernici e un tempo in pittura. Chimicamente è un sale misto di ferro e potassio, il ferrocianuro di ferro e potassio. Fu scoperto da due chimici tedeschi a Berlino, da cui il nome.

[8] Una pila a combustibile microbiologica (microbial fuel cellMFC) o pila a combustibile microbica è un sistema (bio)elettrochimico che mimando le interazioni batteriche naturali trasforma energia chimica in energia elettrica.

Nanoconi: nuovi allotropi del carbonio

Rinaldo Cervellati 

Dopo la scoperta del ciclocarbonio, recentemente oggetto di un post sul blog:

https://ilblogdellasci.wordpress.com/2019/08/26/un-nuovo-allotropo-del-carbonio-il-ciclocarbonio/

ecco che vengono individuati i nanoconi, nuovi allotropi del carbonio.

Lo scorso 3 settembre, su Chemistry & Engineering news on-line, Neil Savage riporta la scoperta di un nuovo allotropo del carbonio con struttura molecolare a forma di cono [1]. Poiché questa scoperta ha dato luogo a una disputa scientifica sulla priorità vale la pena ricordare anzitutto la versatilità del carbonio a formare allotropi.

Nel 1985 Harold Kroto dell’Università del Sussex, lavorando con James R. Heath, Sean O’Brien, Robert Curl e Richard Smalley della Rice University, scoprirono l’ormai famoso fullerene C60 nel residuo fuligginoso formatosi nella vaporizzazione del carbonio in atmosfera di elio, che essi chiamarono buckminsterfullerene[1] [2]. Gli stessi autori paragonarono la struttura della nuova molecola (un poligono con 60 vertici e 32 facce, di cui 12 pentagonali e 20 esagonali) a quella di un pallone da football, da cui deriva il nome popolare footballene (inglese) o soccerene (americano), v. fig. 1.

Figura 1. Un pallone da calcio in cuoio (a sinistra), se si immagina di sostituire ogni vertice sulle cuciture con un atomo di carbonio si ottiene la struttura del C60 (a destra).

Per dovere di cronaca, la struttura del C60 era stata prevista nel 1973 da due teorici sovietici in base a calcoli quantomeccanici, ma il loro articolo [3] fu ignorato, in patria e all’estero.

Dalla scoperta a oggi molti altri fullereni e loro derivati sostituiti sono stati sintetizzati e le loro proprietà indagate, così come nuove specie allotropiche: i nanotubi di carbonio e il grafene (fig. 2).

Figura 2. Struttura di un nanotubo (a sinistra) e del grafene (a destra)

In determinate condizioni la struttura dei fullereni tende a rilassarsi e, arrotolandosi su se stessa, dà luogo ai nanotubi di carbonio. Il grafene è un allotropo del carbonio sottoforma di un singolo strato di atomi in un reticolo esagonale bidimensionale in cui ciascun atomo si trova su un vertice. Può anche essere considerata una molecola aromatica indefinitamente grande, il caso ultimo della famiglia degli idrocarburi policiclici planari.

Queste molecole sono estensivamente studiate per i loro possibili impieghi in vari settori dell’elettronica.

Tornando alla notizia riportata da C&EN, il Prof. Frank Würthner, ordinario di chimica organica all’Università di Würzburg (Germania), in collaborazione con il ricercatore post-dottorato Kazutaka Shoyama ha pubblicato la sintesi e alcune proprietà di un nanocono, di diametro 1,68 nm e altezza 0,432 nm [4]. Un anello a cinque atomi di carbonio costituisce la punta del cono, utilizzando una tecnica particolare i due ricercatori hanno aggiunto attorno ai bordi del cono anelli a sei atomi fino a raggiungere un totale di 80 atomi di carbonio. Infine, alla periferia del cono sono stati inseriti cinque etero cicli con azoto per aumentare la solubilità del materiale, chiamato C80N5 (fig. 3)

Figura 3. Struttura del nanocono C80N5: vista dall’alto (a sinistra), vista laterale (a destra). Atomi di carbonio in grigio; di idrogeno in bianco; di azoto in blu; di ossigeno in rosso.

Frank Würthner

Dice Würthner: i nanoconi potrebbero rivelarsi più solubili in solventi organici rispetto al grafene; la solubilità è necessaria per realizzare film sottili per costruire dispositivi, come ad esempio componenti di celle solari. I nanoconi assorbono anche la luce di gran parte dello spettro visibile meglio dei fullereni. Come i fullereni, sono anche poveri di elettroni. Gli autori affermano che queste due proprietà potrebbero renderli utili per realizzare efficienti celle solari organiche, e la loro fluorescenza potrebbe essere sfruttata nei sensori. Tuttavia, la resa della sintesi è bassa, appena lo 0,6%.

Il Prof. Lawrence T. Scott, professore emerito, coordinatore del Gruppo di Ricerca in Chimica Organica dell’Università di Boston, un’autorità in merito a fullereni e nanotubi, ha postato il seguente commento:

Dovrebbe essere notato che abbiamo riportato la sintesi del nanocono genitore  C70H20 su Science Advances. Il gruppo di Würzburg e quello di Boston hanno presentato il loro lavoro indipendente al 18 ° Simposio internazionale sui nuovi composti aromatici (ISNA-18) a Sapporo, in Giappone, in luglio 2019. Ci congratuliamo con il professor Würthner per la sua sintesi di un derivato penta-imidico del nanocono, che è molto interessante come nuovo materiale che accetta elettroni per potenziali applicazioni a dispositivi elettronici. Abbiamo l’ambizione di usare il nostro nanocone non sostituito come un “seme” da cui far crescere nanoconi più grandi mediante ripetute aggiunte di anelli a 6 membri. Per gli storici interessati, il manoscritto di Würzburg è stato sottoposto al J. Am. Chem. Soc. il 21 giugno 2019 ed è stato pubblicato on-line il 5 agosto 2019, mentre il nostro manoscritto è stato inviato a Science Advances il 17 novembre 2018 ed è stato pubblicato il 23 agosto 2019.[5]

In fig. 4 è riportata una molecola citata da Scott.

Figura 4. Struttura cristallina del penta-mesitil carboncono, sintetizzata all’Oak Ridge National Laboratory [5]

Lawrence T. Scott

Bibliografia

[1] N. Savage, Nanocones extend the graphene toolbox. New structure joins fullerenes and nanotubes, adding interesting optical properties., C&EN news, September 3, 2019

[2] H. W. Kroto, J. R. Heath, S. C. O’Brien, R. F. Curl, R. E. Smalley, C60: Buckminsterfullerene., Nature, 1985, 314, 162-163, 14/11/1985.

[3] Bochvar, D.A.; Galpern, E.G., (1973).On hypothetical systems: carbon dodecahedron, S-icosahedron and carbon-S-icosahedron (in Russo), Dokl. Akad. Nauk SSSR (Proc. USSR Acad. Sci.), 1973, 209, 610.

[4] K. Shoyama, F. Würthner, Synthesis of a Carbon Nanocone by Cascade Annulation., J. Am. Chem. Soc., 2019, DOI: 10.1021/jacs.9b06617

[5] Z-Z Zhu et al., Rational synthesis of an atomically precise carboncone under mild conditions., Sci. Adv., 2019, https://advances.sciencemag.org/content/5/8/eaaw0982

[1] Il nome “buckminsterfullerene” fu scelto dagli scopritori in omaggio all’architetto statunitense Richard Buckminster Fuller (1895- 1983), teorico dei sistemi, scrittore, designer, inventore, e filosofo. Ha reso popolare la nota cupola geodetica. Fu anche professore alla Southern Illinois University.

Kroto, Curl e Smalley hanno ricevuto il Premio Nobel per la Chimica nel 1996 per il loro ruolo nella scoperta di questi materiali.

Molecole: una risorsa materiale e culturale

Giovanni Villani*

Lo scopo di questo articolo è di analizzare uno dei concetti chimici più importanti, quello di molecola, e di capire le sue relazioni con il mondo macroscopico. Quest’analisi seguirà un approccio sia storico sia filosofico, mettendo in evidenza i momenti storici fondamentali e le loro conseguenze per tutta la chimica.

Il mondo molecolare della chimica è talmente importante che nel titolo di questo lavoro è stato definito come una risorsa sia materiale sia culturale. Sull’importanza “materiale” diremo solamente che questo concetto, sia con gli aspetti legati alle proprietà sia con quelli legati alle trasformazioni (reazioni chimiche), è collegato alla quasi totalità della Chimica. Sull’importanza “culturale”, invece, spenderemo qualche parola in questo lavoro perché è un aspetto sottovalutato, persino in ambito chimico. Noi pensiamo, invece, che anche tramite i suoi aspetti culturali, oltre che con gli indubbi risultati materiali, si possa pubblicizzare un’immagine positiva della Chimica.

I concetti di molecola e composto seppure collegati hanno origini storiche molto diverse. Il primo, quello di molecola, è relativamente moderno e a lungo è stato confuso con il concetto di atomo. Ancora alla fine del XVIII e agli inizi del XIX secolo i chimici francesi assegnavano il termine molécule al limite di divisibilità delle sostanze, mentre i chimici inglesi usavano con lo stesso significato il termine atom. Parte della confusione veniva dal fatto che i chimici non riuscivano a immaginare che le molecole di alcuni elementi (idrogeno, ossigeno, ecc.) potessero essere formate da più atomi uguali (H2, O2, ecc.). Dalton, infatti, aveva escluso che potesse esistere un legame tra due atomi uguali.

Il fatto che con l’espressione “particella” alcuni chimici intendessero l’atomo e altri la molecola portò a un’apparente contraddizione tra le ipotesi di Dalton e quelle di Gay-Lussac. In pratica, la molecola si poteva “rompere” nelle reazioni chimiche, mentre l’atomo, per definizione, doveva restare immodificato. Avogadro, nel 1811, per primo rimosse queste contraddizioni e inizio a distinguere questi due concetti di particella elementare. Fu Gaudin, chimico francese del XIX secolo, che introdusse per i gas elementari la distinzione in molecole monoatomiche, biatomiche e poliatomiche. Egli scrisse che una molecola di gas idrogeno combinandosi con una molecola di gas cloro dava due molecole di gas acido cloridrico; affinché ciò avvenisse era necessario che le molecole originali si dividessero in due parti e poiché queste due mezze molecole non potevano più essere ulteriormente divise, egli suggerì di considerarle semplici atomi.

Tale chimico fu il primo a scrivere correttamente la sintesi dell’acqua:

                        2H2 + O2 → 2H2O

in cui appare chiaramente che le molecole di ossigeno e di idrogeno hanno due atomi, ma anche la necessità che la molecola di ossigeno si dividesse in due parti e che queste formalmente si aggiungessero alle due molecole di idrogeno.

Fu, tuttavia, il lavoro di Cannizzaro a risolvere definitivamente la questione della differenza tra atomo e molecola. A seguito della relazione di Cannizzaro a Karlsruhe del 1860 fu accettata la seguente proposta:

si propone di adottare concetti diversi per molecola e atomo, considerando molecola la quantità più piccola di sostanza che entra in reazione e che ne conserva le caratteristiche chimiche e intendendo per atomo la più piccola quantità di un corpo che entra nella molecola dei suoi composti.

Confrontiamo questa definizione di molecola con quella riscontrabile oggigiorno in un dizionario di chimica[1]:

Una delle unità fondamentali che formano i composti chimici; la parte più piccola di un composto chimico che può prendere parte a una reazione chimica. Nella maggior parte dei composti covalenti, le molecole consistono di gruppi di atomi tenuti insieme da legami covalenti o di coordinazione. Le sostanze covalenti che formano cristalli macro-molecolari non hanno molecole individuali (in un certo senso, l’intero cristallo costituisce una molecola). Analogamente i composti ionici non hanno molecole, perché sono raggruppamenti di ioni di carica opposta.

La molecola è l’unità fondamentale dei composti chimici, dove “fondamentale” viene legato alla reattività come aveva proposto Cannizzaro. In passato (e anche oggi in qualche libro divulgativo) si legava invece il concetto di molecola alle “proprietà macroscopiche”. Infatti, si diceva: “la molecola è la porzione di composto più piccola che conserva le proprietà del composto”. A questa definizione era facile obiettare che la singola molecola perde molte delle proprietà del composto in quanto la maggior parte di esse sono legate all’interazione tra le molecole e non alla singola molecola. Non esiste, infatti, una molecola “liquida” o “solida”, ma queste proprietà sono presenti solo quando si ha un numero grande di molecole.

Il legare molecola e composto chimico tramite la reattività ha dei vantaggi ed è allo stesso tempo un po’ riduttivo. Il vantaggio è che effettivamente la reattività molecolare e quella macroscopica della sostanza chimica sono collegabili in maniera biunivoca. Lo svantaggio è duplice:

–        In questo modo sembra che si definisca la reattività come una “proprietà” molecolare mentre è un concetto relativo a due o più partner. Su questo punto essenziale del concetto di reazione chimica non avendo il tempo di svilupparlo, si fa riferimento a[2].

–        Spariscono dalla definizione di molecola tutta una serie di proprietà macroscopiche effettivamente correlabili, seppure non in maniera biunivoca, alle molecole. Così facendo si diluisce il parallelismo atomo/elemento e molecola/composto, che è stato storicamente il modo di procedere che ha creato questi concetti e ha sviluppato un tipo di spiegazione specifica della chimica e particolarmente feconda.

Nella seconda parte della definizione odierna di molecola si trovano dei pasticci tra concetti del piano microscopico e quelli di quello macroscopico che andrebbero evitati. Il seguito della definizione moderna di molecola evidenzia due casi problematici del binomio molecola/composto: cristalli macromolecolari e cristalli ionici. In questi due casi il composto chimico non è formato da molecole, se si esclude il caso che si possa considerare formato da una sola enorme molecola.

Un punto essenziale da mettere in evidenza è, infatti, che non tutte le sostanze hanno un molecola. Non è, infatti, necessario per ogni sostanza prevedere che nel passaggio dal piano atomico a quello macroscopico possiamo individuare un’entità (la molecola) intermedia. Non l’avevano fatto i filosofi greci che passavano dal piano atomico a quello macroscopico senza vedere la necessità di un piano molecolare; non lo fa la “Natura” dove, accanto a elementi molecolari (idrogeno, ossigeno, ecc.) troviamo elementi in cui non possiamo distinguere molecole (tanti metalli) ed elementi come il carbonio, in cui possiamo trovare sia forme non molecolari (diamante e grafite) sia forme molecolari come il fullerene, C60.

Due aspetti, per niente presenti nella definizione molecolare sono da mettere in evidenza e differenziano i concetti di molecola e di composto chimico in maniera notevole.

–        Il mondo molecolare (e submolecolare) è in “continuo movimento”, cioè presenta una dinamica interna alla molecola e tra le molecole. La dinamica microscopica è del tutto assente nel concetto di composto, dove, tuttavia, si possono evidenziare le proprietà legate a tale dinamica con le spettroscopie.

–       La molecola presenta una sua “struttura”, detta appunto molecolare. Anche in questo caso, un identico discorso sull’assenza a livello macroscopico, può essere fatto. Riguardo alla struttura molecolare è senz’altro da mettere in evidenza che tale concetto permette di razionalizzare le reazioni chimiche mediante la rottura e/o la formazione di legami (variazione della struttura molecolare). Su questo punto essenziale della chimica moderna non avremo il tempo di tornare e faremo riferimento a[3].

Il mondo microscopico si rivela più ricco di quello macroscopico e questo è il motivo dell’efficacia di tale livello di spiegazione nel capire le proprietà delle sostanze chimiche. Per queste ultime il tempo entra solo nel momento della loro creazione o distruzione (reazioni chimiche), mentre per le molecole è un concetto presente sempre (tramite le vibrazioni, per esempio).

Da un punto di vista culturale, che cosa ha il mondo molecolare di tanto importante da meritare una trattazione filosofica e scientifica specifica? A tutti è nota la teoria atomica della materia e, seppure a grandi linee, la sua controparte filosofica. Molto meno studiata, per non dire completamente assente, è invece la teoria molecolare della materia. La sua controparte filosofica, poi, è tutta da scrivere. Nel mio libro La chiave del mondo ho cercato di mostrare l’importanza scientifica e filosofica della teoria molecolare della materia.

Il livello di complessità delle molecole, poi, presenta delle peculiarità. In una possibile lista dei livelli di complessità della realtà, quella che dall’atomo porta al macroscopico, il livello molecolare, anche a prima vista, si situerebbe immediatamente prima della biforcazione tra il mondo inanimato e quello animato. Rispetto al mondo vivente, le molecole sono il livello di studio immediatamente precedente (basta guardare al binomio cellula/costituenti cellulari) e sono, quindi, fondamentali nel suo studio, come la biochimica sta a evidenziare. Il livello molecolare è, tuttavia, anche il livello immediatamente precedente agli oggetti inanimati macroscopici che ci circondano e anche per essi il mondo molecolare entra nella loro spiegazione. In quest’ultimo caso, basti pensare ai minerali, alle rocce, ecc. e al ruolo che svolge la geochimica nel loro studio[4].

Non è, tuttavia, solo questa la peculiarità del mondo molecolare. Esso è un mondo ricco qualitativamente, cioè i suoi enti, milioni, sono tutti diversi gli uni dagli altri a tal punto da avere ognuno un nome proprio. È questa sua caratteristica che lo rende capace di spiegare tanto il complesso mondo macroscopico inanimato quanto l’ancora più complesso mondo vivente. Questa sua varietà è una diretta conseguenza della struttura molecolare, e su questo concetto scientifico fondamentale per la chimica e la scienza tutta, va posta l’attenzione. Infatti, un approccio scientifico e filosofico al mondo molecolare incentrato sul concetto di struttura crea un collegamento tra la scienza che studia le molecole (la chimica) e la filosofia e le avanguardie culturali, collegamento sostanzialmente interrotto nel XX secolo, rispetto alla ricchezza e all’intensità del passato.

È importante chiedersi quale è stata la causa della crisi del rapporto tra la chimica e la filosofia in questo ultimo secolo. Accanto a una crisi complessiva del rapporto tra le discipline scientifiche e le visioni più generali del mondo, e il pragmatismo scientifico ne è la logica conseguenza, la crisi tra la chimica e la filosofia ha una sua motivazione specifica. Fino all’Ottocento la chimica era sicura di avere un suo substrato filosofico e filosofi della natura si facevano chiamare i chimici di allora. Le particelle chimiche (atomo molecola) del XIX secolo erano, infatti, un patrimonio culturale di indubbio valore che tale disciplina apportava al più ampio campo scientifico. Con l’espropriazione del mondo atomico/molecolare da parte della Meccanica Quantistica (e, quindi, dei fisici), i chimici si sono sentiti privati della loro base culturale e si sono sempre più chiusi nei laboratori, nelle applicazioni industriali e nelle loro astrazioni specialistiche.

Il paradosso di ciò è che la chimica, che più della fisica plasma il mondo quotidiano, è diventata una cenerentola a livello culturale, una disciplina senza aspetti generali, una branca di fisica applicata. Io credo che solo quando sarà evidente, anche tra i chimici, che la loro disciplina ha una valenza generale specifica e diversa da quella della fisica, solo allora il rapporto tra la chimica e la cultura si potrà ristabilire. Il concetto di struttura molecolare è, a mio avviso, il punto di forza che permette una solida differenziazione della chimica dalla fisica e, per le sue fondamentali implicazioni, essere non solo un concetto tecnico fondamentale, ma anche un concetto squisitamente filosofico. Quindi, il ristabilirsi di un fecondo rapporto tra chimica e filosofia deve e può avvenire intorno al concetto di realtà strutturata (le molecole), cioè sul terreno di quegli approcci scientifici recenti chiamati “scienze della complessità”, riproiettando la chimica tra le avanguardie culturali[5],[6].

È un posto che essa merita e al quale può ambire se i suoi operatori, i chimici appunto, si scuotono e, senza abbandonare i tecnicismi, essenziali nella scienza moderna, pongano uguale attenzione agli aspetti più generali e concettuali, vorrei dire filosofici, della loro disciplina.

*Istituto di Chimica dei Composti OrganoMetallici ICCOM-CNR (UoS Pisa), Area della Ricerca di Pisa  E mail: giovanni.villani@cnr.it

Giovanni Villani è  stato Presidente della Divisione didattica della SCI fino al 2018. E’ primo ricercatore CNR i suoi interessi di ricerca sono: theoretical and computational chemistry; theoretical study of biological systems; software development; analysis of the main chemical concepts; relationship between chemistry and the other scientific disciplines.

[1] J. Daintith, Oxford Dictionary of Chemistry, Oxford University Press, NewYork (2004).

[2] G. Villani, “Sostanze e reazioni chimiche: concetti di chimica teorica di interesse generale”, Epistemologia, XVI (1993) 1.

[3] G. Villani, La Chiave del Mondo. Dalla filosofia alla scienza: l’onnipotenza delle molecole, CUEN, Napoli, 2001, Cap. 7 e 9. Reperibile in rete al sito http://www.culturachimica.it/wp-content/uploads/2017/04/La-chiave-del-mondo.pdf

[4] G. Villani, “Complesso e organizzato. Sistemi strutturati in fisica, chimica, biologia ed oltre”, (FrancoAngeli, Milano, 2008), Cap. 3.

[5] G. Villani, “La chimica: una scienza della complessità sistemica ante litteram” in “Strutture di mondo. Il pensiero sistemico come specchio di una realtà complessa”, Vol. 1, a cura di L. Urbani Ulivi (il Mulino, Bologna 2010).

[6] G. Villani, “Chemistry: a systemic complexity science” (Pisa University Press, Pisa 2017).

Dalle forze di van der Waals all’adesione. 3. “Polare/non polare?” Non è questo il problema.

Claudio Dellla Volpe

I post precedenti di questa serie sono stati pubblicati qui e qui.

Hugo Christiaan Hamaker (Broek op Langedijk, 23 marzo 1905Eindhoven, 7 settembre 1993), fisico olandese; lavorò presso i laboratori di fisica della Philips di Eindhoven, dove lavorava anche Casimir di cui abbiamo parlato nel primo post di questa serie, quando le grandi multinazionali erano ancora attori di progresso, non solo meccanismi per fare soldi espropriando il resto del mondo. Persona schiva, di lui esiste una sola foto in rete, quella che vedete qui sopra; pubblicò in tutta la vita solo 13 lavori (elencati in fondo), di cui parecchi di statistica.

Hamaker è stato un gigante della scienza del 900; di lui parleremo oggi; ha lavorato sempre al confine fra fisica e chimica; d’altronde le divisioni fra le discipline sono solo artifici. Scusate, ma io la penso così, la Natura è una ed una è la Scienza; il resto (a partire dai settori disciplinari, ANVUR, etc ) sono cavolate, umanissime cavolate.

Per meglio inquadrare i risultati di Hamaker e Lifshitz (di cui parleremo nel prossimo ed ultimo post) ricostruiamo una linea del tempo, una timeline delle scoperte a partire dalle forze di van der Waals.

1834.Emile Clapeyron: equazione di stato dei gas ideali
1873.J.D. van der Waals: equazione di van der Waals.
1936. F. London: forze di London.
1937. H.C. Hamaker: calcolo delle forze fra particelle macroscopiche usando il metodo additivo o di coppia e senza considerare gli effetti di ritardo nel calcolo delle forze di interazione
1948. H.B.G. Casimir: effetto Casimir, effetto del ritardo sulle forze di interazione
1955. E.M. Lifshitz: teoria generale delle forze di attrazione fra corpi solidi a partire da grandezze macroscopiche, correggendo il metodo di coppia o di additività e introducendo il ritardo; il più generale approccio alle forze di interazione fra corpi macroscopici.

Per passare dalla scoperta delle forze di interazione fra singoli atomi o molecole alla teoria generale in termini di descrizione quantistica delle forze di interazione fra corpi macroscopici e tenendo conto del “ritardo”, cioè della velocità finita della luce, ci sono voluti dunque oltre 120 anni.

Il processo come vedremo non è ancora completato, nel senso che ancora oggi, 2019, dopo quasi 70 anni dal lavoro di Lifshitz la cultura chimica media non ha ancora recepito gli effetti totali delle scoperte e delle messe a punto; e la prova è, come si discuterà in seguito, il linguaggio comunemente usato, in particolare le paroline magiche: polare/non polare che voi stessi avrete detto millemila volte e che sono inadeguate o erronee in molti casi.

Cosa dice Hamaker?

Cominciamo col dire che l’approccio di Hamaker è un approccio pre-Casimir e dunque non-ritardato. La logica del calcolo è riportata nell’immagine qua sotto, tratta dal famoso libro di Israelachvili (Intermolecular & surface forces, dotato di una schiera di esercizi molto ben fatti; libro da usare in un corso di chimica-fisica 2 o esercizi di Chimica fisica, se ci sono ancora nell’attuale ordinamento).

Si tratta del metodo dell’immagine applicato al campo elettrico e dunque un metodo di elettrostatica, in cui il campo elettrico è concepito in modo stazionario, senza considerare il fatto che il campo si trasmette (con le sue variazioni) alla velocità della luce. Per analizzare questi casi si applica la cosiddetta equazione di Poisson, la base dell’elettrostatica, che corrisponde a dire che il laplaciano del potenziale di quel certo campo è pari alla densità di carica diviso la costante dielettrica del vuoto cambiata di segno:

Il simbolo φ sta per il potenziale del campo elettrico (energia per unità di carica) e vale per una carica puntiforme ma anche per una distribuzione di carica nello spazio, come può essere quella di una molecola (in tal caso è una funzione anche complicata. Ovviamente per un lettore non a conoscenza della fisica questo può sembrare ostrogoto e anche per un chimico che non ricordi l’esame di fisica 2. Ma per la fortuna di questi ipotetici lettori ho avuto trenta a fisica 2 e proprio con una domanda su questo argomento.

Abbiamo già incontrato il laplaciano in precedenti post e l’abbiamo definito così:

è una opportuna media dei valori dei vettori in uscita da un punto. C’è un modo grafico per vedere il laplaciano: consideriamo il potenziale di origine come la funzione che descrive i livelli di grigio dei pixel in una immagine, quella a sinistra qui sotto:

Il laplaciano è rappresentato graficamente dall’immagine a destra, ottenuta sostituendo ad ogni punto dell’immagine un punto “trasformato” applicando pixel per pixel una operazione matriciale che estrae la somma delle derivate seconde calcolate in quel punto; si dimostra che tale “operatore” laplaciano è descritto dalla seguente matrice.

Immaginate che il punto di interesse sia quello al centro e gli date peso -8, poi date peso 1 a quelli appena sopra sotto, indietro ed avanti e poi ad ogni punto di interesse si sostituisce la somma di questi pesi moltiplicati per i punti matrice e divisi per un fattore costante denominato h2.

Il risultato automatico è l’immagine a destra che ha estratto le derivate seconde bidimensionali in ciascun punto, in sostanza ha estratto i contorni dell’immagine, nel caso specifico i profili delle case e del panorama.

Dunque se avete un campo potenziale rappresentato dall’immagine a sinistra il suo laplaciano sono i profili descritti a destra che individuano le zone di massima variazione della variazione (la derivata della derivata, la derivata seconda), le zone di massimo contrasto dell’immagine che voi col vostro occhio-cervello individuate come profili delle cose; eh già il nostro cervello fa continuamente in tempo reale il laplaciano di ciò che ci circonda, altro che miseri computer numerici!!

Hamaker voleva calcolare le forze di interazione fra le particelle del suo sistema di atomi e molecole di dimensioni macroscopiche ma non aveva il potenziale del campo che gli interessava, ma aveva la distribuzione di cariche, nuclei ed elettroni , ossia aveva la sua trasformata, il suo laplaciano e voleva trovare la funzione potenziale, da cui poi calcolare le forze; dunque voleva passare “alla rovescia” dall’immagine di destra a quella di sinistra. (questo perché la forza è la derivata del potenziale verso la distanza cambiata di segno). Come si fa a risolvere questo problema in modo generale?

Il metodo delle immagini delle cariche è una possibile soluzione; basata sulle proprietà dell’equazione di Poisson. Non so chi abbia inventato per primo il metodo, ma è chiaro che si basa su una matematica conosciuta fin dal XIX secolo, quella delle equazioni differenziali. Il concetto base è che c’è una sola soluzione accettabile per il problema del potenziale per ogni caso considerato; ci sono dei casi in cui la soluzione è semplice altri in cui non lo è affatto, ma se quelli in cui non è semplice soddisfano una equazione e una serie di condizioni al contorno identiche almeno in una parte dello spazio rispetto a quelli in cui la soluzione è semplice, per il teorema di unicità possiamo usare la stessa soluzione in quella parte di spazio.

Per fare un esempio pratico riferiamoci a R. Feynman; nel suo famoso libro di fisica tratta proprio il problema che ci interessa (link in fondo):

Guardate la destra dell’immagine: Abbiamo un piano infinito conduttore posto nello spazio, (per semplicità possiamo collegarlo a terra (così il suo potenziale è nullo) e, a una distanza finita a da questo, una carica elettrica positiva. Quale sarà il potenziale in tutto lo spazio di destra? Non abbiamo una soluzione chiara. Possiamo immaginare due o tre cose:

-la carica positiva induce sul conduttore una carica negativa, con densità non uniforme (probabilmente sarà maggiore in corrispondenza della carica e minore via via che ci si allontana lungo il conduttore); questa carica genera a sua volta un potenziale nello spazio; ma finchè non conosciamo la distribuzione della carica non sappiamo come va il potenziale.

– il potenziale lungo il piano conduttore è nullo perché è posto a terra

– il potenziale all’infinito rispetto alle cariche è nullo.

Ok; ma possiamo usare il criterio della soluzione unica. Immaginiamo di mettere una seconda carica uguale alla prima ma opposta (è la carica immagine o immaginaria); mettiamola alla medesima distanza dal piano e in corrispondenza come nel disegno di Feynman, così sul piano il potenziale sarà nullo.

Questo ci darà le medesime condizioni al contorno nel semispazio di destra, ma anche nuove condizioni nel semispazio di sinistra; la soluzione valida a destra sarà la medesima nei due casi questo ci dice la matematica, il teorema di unicità; e in questo caso però la soluzione formale è possibile, ve la risparmio; potete leggerla su libro di Feynman che è reperibile all’indirizzo indicato in fondo.

Questo metodo della carica immagine, della carica che sembra un riflesso della carica reale a destra del piano, si può usare in molti altri casi e consente a Hamaker di calcolare quel che gli serve. La carica riflessa, ricorda i comportamenti ottici e le due cose non sono così distanti come possa sembrare; e non solo perchè nella magia tradizionale l’immagine, il contatto visivo sono necessari (ricordate la partita di quidditch di Harry Potter? O l’occhio del male del Signore degli anelli? L’immagine è ciò che permette la applicazione della forza anche nella magia!!); ne riparleremo in seguito; nel nostro linguaggio “scientifico” le proprietà ottiche della materia sono importanti per valutarne l’interazione.

Hamaker usa un’altra condizione basilare oltre al metodo non ritardato dell’elettrostatica, usa il cosiddetto metodo della additività di coppia. Di che si tratta?

Si considerano le interazioni fra tutte le particelle (atomi o molecole) di un corpo e dell’altro una coppia alla volta e si sommano o si integrano fra di loro; questa cosa sembra ovvia ed è certamente la più semplice dal punto di vista matematico; ovviamente si divide per due perchè si considera ogni interazione due volte; ma il punto non è questo.

Questo punto di vista presuppone che ogni coppia di atomi o di molecole sia effettivamente in grado di arrivare nel MINIMO di energia potenziale; questo ha senso per casi in cui le particelle siano sufficientemente lontane come nei gas, e dunque libere di muoversi; ma NON ha senso, è sbagliato nei casi in cui le particelle siano molto vicine come nei solidi e nei liquidi; in questo secondo caso il minimo non è di coppia ma di multicorpo e non ha una espressione semplice. Riporto ancora una cosa che avevo scritto nel primo post:

In fase condensata la procedura scelta da Hamaker dà una importanza eccessiva alle interazioni polari perché sono calcolate col metodo additivo; tali interazioni non possono raggiungere il valore di minimo per ogni coppia ma piuttosto un unico minimo globale non calcolabile in modo banale; la comune diatriba su polare/non polare in fase condensata è basata sui risultati ottenuti dall’approccio di Hamaker che nei fatti è invece una approssimazione feroce, applicabile solo in fase gassosa; ma che è rimasta nel nostro gergo. Immeritatamente.

Nell’immagine qui sotto vedete i vari casi estraibili dal calcolo di Hamaker; come si vede in tutti i casi entra in gioco una costante; nel caso più semplice si tratta della costante che si usa nel potenziale di Lennard-Jones, ma nel caso di corpi macroscopici entra in gioco la “costante di Hamaker”, citata migliaia di volte nella letteratura, che corrisponde a questa grandezza:

Qui le due densità sono espresse in numeri di particelle dei materiali interagenti per unità di volume; la costante di Hamaker è simile in materiali anche molto diversi.

Vale circa 10-19J; Israelachvili fa notare come sia possibile avere valori molto simili anche in caso di sostanza molto diverse, fra 0.4 e 4 x 10-19 J:

Due domande con brevi risposte:

Quanto valgono le forze di van der Waals valutate con questo metodo?

Per due superfici planari a contatto (0.2nm di distanza) la pressione che le unisce è enorme anche se si riduce rapidamente con la distanza; a 10nm diventa solo 0.05 atm, ma è ancora misurabile.

Ma allora perchè se una cosa si rompe, non siamo capaci di riincollarla perfettamente solo rimettendone le parti insieme? Beh siamo in un oceano di aria umida e sporca che si intromette immediatamente fra le parti staccate deturpandone le superfici e sporcandole ed inoltre il contatto fra le parti che non sono piane sarà sempre inesatto, impreciso.

Le forze possono essere anche repulsive? Una risposta la trovate nel commento della prima figura del libro di Israelachvili che ho riportato; dipende dalle costanti dielettriche dei vari materiali in gioco, ma ne riparleremo nel prossimo ed ultimo post, dedicato alla teoria acido-base dell’adesione, fondata sulla teoria di Lifshitz.

(continua)

 

Ringrazio il mio collega Stefano Siboni, prof. di Fisica Matematica, per gli utili commenti.

Riferimenti.

Lavori pubblicati da Hamaker in tutta la sua vita; sono solo 13.

  • H.C. Hamaker (1934). Reflectivity and emissivity of tungsten : with a description of a new method to determine the total reflectivity of any surface in a simple and accurate way. Amsterdam: Noord-Hollandsche Uitg. Mij. x+76 pp. (Tesi di dottorato dell’Università di Utrecht)
  • H.C. Hamaker and W.F. Beezhold (1934). Gebrauch einer Selen Sperrschicht Photo Zelle zur Messung sehr schwacher Intensit¨aten. Physica 1, 119-122.
  • H.C. Hamaker (1937). The London-Van der Waals attraction between spherical particles. Physica 4(10), 1058–1072.
  • H.C. Hamaker (1942). A simple and general extension of the three halves power law. Physica 9(1), 135–138.
  • J.E. de Graaf and H.C. Hamaker (1942). The sorption of gases by barium. Physica 9(3), 297–309.
  • H.C. Hamaker (1950). Current distribution in triodes neglecting space charge and initial velocities. Applied Scientific Research, Section B, 1(1), 77–104.
  • H.C. Hamaker (1962). Applied statistics : an important phase in the development of experimental science (Inaugural lecture). Microelectronics and Reliability, 1(2), 101–109.
  • H.C. Hamaker (1962). On multiple regression analyses. Statistica Neerlandica, 16(1), 31–56.
  • H.C. Hamaker (1969). Nogmaals de wet en de kansspelen : commentaar op Hemelrijk’s beschouwingen. Statistica Neerlandica, 23(3), 203–207.
  • H.C. Hamaker (1968). Some applications of statistics in chemical and physical classroom experiments. In European Meeting on Statistics, Econometrics and Manag. Sci. (Amsterdam, The Netherlands, September 2–7, 1968).
  • H.C. Hamaker (1969). De wet en de kansspelen. Statistica Neerlandica, 23(2), 179–191.
  • H.C. Hamaker (1970). Over claimfrekwenties, claimbedragen en risicopremies bij de privé-autoverzekering. Het Verzekerings-archief, 47, 154–174.
  • H.C. Hamaker (1971). New techniques of statistical teaching. Revue de l’Institut International de Statistique, 39(3), 351–360.

Testo di riferimento:

Intermolecular & Surface forces di J. Israelachvili 2 ed. Academic Press 1992

Il cap. 11 di questo testo contiene l’essenziale delle idee di Hamaker a Lifshitz spiegate in modo lucido e con parecchi esercizi ed esempi.

http://www.feynmanlectures.caltech.edu/II_06.html

Il Litio: Origine e ruolo nello spazio

Diego Tesauro

La maggior parte dell’opinione pubblica, fino a non molti decenni fa, non aveva una grande familiarità con il litio che invece riscontrava l’interesse di scienziati di tutte le discipline, oltre naturalmente dei chimici, dai biologi, ai medici e soprattutto ai fisici e agli astronomi per le sue proprietà e i suoi impieghi specifici. Lo sviluppo delle batterie per le apparecchiature elettroniche, l’ha fatto assurgere agli onori della conoscenza di un più vasto pubblico. Ma quale è la sua abbondanza sul nostro pianeta? Il litio, terzo elemento della tavola periodica, di conseguenza tra gli elementi più leggeri, contrariamente a quanto si possa immaginare, non è un elemento particolarmente abbondante in natura. E’ presente in 65 ppm (in numero di atomi, circa 20 ppm in massa) nella crosta terrestre. (è solo il 25° elemento per abbondanza) E’ però un elemento essenziale, negli organismi viventi; è infatti presente tra le 21 e le 763 ppb nei tessuti e nei liquidi corporei . Fra tutti gli isotopi solo due sono stabili 6Li e 7Li in una distribuzione percentuale 7.60% contro il 92.40%. I minerali che lo contengono però possono presentare percentuali diverse in quanto i due isotopi sono sensibili alla separazione nei processi geologici di formazione dei minerali stessi o di scambio ionico, a causa della loro differenza, relativamente grande, di massa. Gli ioni Litio spiazzano il magnesio o il ferro in strutture ottaedriche nelle argille il litio-6 è qualche volta preferito al litio-7. Inoltre la differenza di distribuzione nei prodotti commerciali è dettata dall’estrazione dell’isotopo 6Li per scopi militari. Infatti da questo isotopo viene prodotto il Trizio alla base dei processi di fusione di nucleare attivi nelle testate nucleari a fusione. Nel sistema solare ha la stessa abbondanza oppure è presente in percentuali ancora minori?

Abbondanza dei nuclei a seguito della nucleosintesi nelle prime tre ore dopo il Bing bang . Il Litio si è formato dopo tre minuti, quando la temperatura è scesa sotto il miliardo di gradi.

Come si può vedere dal grafico su scala logaritmica il Litio è fra gli elementi più rari. Questa sua scarsa abbondanza è dovuta ad una “fragilità” del litio nei nuclei caldi delle stelle. Infatti i nuclei di litio partecipano alla sintesi dell’elio nella seconda reazione catena della catena protone-protone (vedi figura) a temperature relativamente basse (di qualche milione di gradi) e si esaurisce nei nuclei delle stelle. Da dove proviene allora il Litio presente sulla Terra? Questa domanda non ha una risposta univoca e soprattutto del tutto certa. Bisogna innanzitutto notare che il litio è uno dei pochi elementi presenti nell’universo (con idrogeno ed elio) che si è formato subito dopo il “Big Bang” nei primi tre minuti di esistenza dell’Universo nella cosiddetta fase fotonica [1]. Il Litio-7 si forma a seguito di un decadimento b+ del Berillio-7 prodottosi dalla fusione di un nucleo di 3He con 4He. Secondo la teoria della nucleosintesi standard la sua presenza in questa fase è stimata in rapporto in 10−10 relativamente all’ idrogeno.

Schema delle tre vie sintetiche seguite per la fusione dell’idrogeno in elio. Il Litio-7 è coivolto nella seconda via nell’ultimo step della reazione.

La determinazione di questa abbondanza “cosmica” (cioè primordiale) di litio è una delle prove del Big Bang stesso. I dati possono venire confermati osservando stelle molto vecchie di seconda popolazione (generatasi non da materia proveniente da altre stelle, ma dalla materia primordiale) molto rare nella nostra galassia presenti nell’alone galattico. Ebbene i dati risultano in contrasto con le stime teoriche (che invece sono confermate pienamente per l’elio e l’idrogeno) in quanto si osserva un’abbondanza circa 3 volte inferiore rispetto a quanto atteso. Una risposta non è, anche in questo caso, univoca e potrebbe risiedere in molte possibilità legate alla conoscenza dei processi di arricchimento di neutroni nella materia ad elevate temperature coinvolgendo il modello standard fino alla cosiddetta “materia oscura”. Nelle stelle invece più giovani il litio è quasi del tutto assente in quanto l’isotopo 7Li, fondendosi con un protone a temperature relativamente basse per le stelle di 2,5 milioni di gradi, genera due nuclei di 4He. E’ pertanto possibile rilevarlo nelle stelle come il Sole, solo nelle atmosfere stellari (in particolare nelle zone chiamate fotosfere dove ci giunge la radiazione nella lunghezza d’onda del visibile), che non presentano moti convettivi profondi di gas con zone confinanti dove sono in atto processi di fusione. In questo caso, il rimescolamento del gas provoca una sua scarsità anche nelle atmosfere di stelle giovani come le nane rosse (https://it.wikipedia.org/wiki/Nana_rossa). Queste ultime vengono riconosciute proprio dalla mancanza di litio e distinte da altre tipologie stellari come le nane brune (https://it.wikipedia.org/wiki/Nana_bruna) di dimensioni ancora inferiori. A questa scarsità di litio primordiale e nelle stelle più giovani, fa da contrappeso una presenza maggiore nella materia interstellare in prossimità del sistema solare. In questi ambiti si riscontra un’abbondanza di litio superiore al valore cosmico-. Ciò significa che ci sono stelle che producono litio e lo allontanano dalle zone più calde e successivamente lo espellono nello spazio interstellare prima che possa ulteriormente reagire con un protone. Questi meccanismi sono presenti nelle fase evolutive terminali di stelle di piccola massa. Analogamente nelle stelle giganti rosse, che sono al termine della loro fase evolutiva, nell’atmosfera si riscontra una quantità di litio maggiore rispetto a quanto previsto [2]. La ricerca e i modelli da sviluppare necessitano quindi ancora di essere ulteriormente affinati per poter rispondere a tutte le domande sulla presenza del litio nell’universo.

[1] B.D. Fields The Primordial Lithium Problem Annual Reviews of Nuclear and Particle Science 2011 1-29

[2] H.L. Yan et al. The nature of the lithium enrichment in the most Li-rich giant star Nature Astronomy 2018, 2, 790–795.