Informazioni su devoldev

chemist, university researcher, marxian, peakoiler,climate worried, bridge player, Mozart/Vivaldi loving, pedal biker

Dalle forze di van der Waals all’adesione. 4. La teoria acido-base dell’adesione.

In evidenza

Claudio Della Volpe

I precedenti post di questa serie sono stati publicati qui, qui e qui.

E siamo finalmente arrivati al tema di cui mi sono occupato negli ultimi 25 anni della mia vita professionale: l’adesione.

Per parlare di un punto di vista moderno sull’adesione ci sarebbe da scrivere un libro altro che un post; ma noi cercheremo di fare l’ultimo passo del cammino che ci ha portato fin qui: introdurre il punto di vista moderno sulle forze di van der Waals e sulle altre forze fra corpi macroscopici, generate dalla loro costituzione chimica, rifacendoci ad un lavoro basilare pubblicato nell’ormai lontano 1955-56 da un fisico russo molto famoso, un’altro dei grandi scienziati del XX secolo che si è di fatto interessato di chimica: Evgeny Mikhailovich Lifshitz.

Autore di molti lavori e fra l’altro, insieme a Lev Landau, suo tutor, della monumentale opera di fisica Corso di fisica teorica, ed. MIR, in 7 volumi, che ha rappresentato uno dei miei libri di testo preferiti. Nato nel 1915 morì nel 1985 e così la sua vita in qualche modo si sovrappose alla vita del suo paese, l’URSS, nel bene e nel male uno dei maggiori paesi del mondo. Una curiosità: Lifshitz fu il secondo dei soli 43 studenti che superarono l’esame di “Teoria minima”, un corso tenuto da Landau.

L’articolo a cui ci rifacciamo oggi è questo:Questo articolo è completamente teorico, è basato sulla meccanica quantistica, tiene conto del ritardo e considera la materia come una entità continua; in questo modo assegna le forze alle proprietà macroscopiche del materiale che si analizza.

In realtà Lifshitz affrontò il problema teorico solo dopo che un gruppo di ricercatori russi aveva tentato di ottenere misure sperimentali adeguate; la storia è raccontata da Deriaguin, un altro dei chimico fisici della scuola russa in un articolo comparso su Scientific American nel luglio 1960 (203, 47).

La scuola russa in effetti aveva una lunga tradizione in questo tipo di analisi se si pensa che il problema era stato già posto in maniera sostanzialmente corretta dal punto di vista concettuale nel 1894 dal fisico Lebedev sia pure in termini classici.

Il metodo ignora completamente le singole particelle e dipende solo dalle proprietà macroscopiche che possono essere misurate sperimentalmente.

Egli considera due corpi posti a piccola distanza e calcola i due campi elettromagnetici prodotti nella ristretta zona di separazione e nello spazio circostante dalle fluttuazioni nelle varie regioni del materiale; la differenza fra i campi delle due zone corrisponde alla forza agente sui corpi.

Le formule che ottiene sono molto complesse dal punto di vista algebrico ma contengono SOLO parametri misurabili macroscopicamente.

In particolare egli necessita della valutazione delle lunghezze d’onda assorbite dai materiali, ossia il loro spettro di assorbimento nell’infrarosso, nel visibile e nell’UV e le loro polarizzabilità o permeabilità dielettriche.

Questi parametri, a differenza dei loro corrispondenti relativi a singole molecole sono determinati in modo facile.

La teoria consente di ottenere la forza allo zero assoluto ma anche l’effetto delle oscillazioni termiche, che contribuiscono poco comunque. Vicino allo zero assoluto le forze variano molto poco, ma poi variano a temperature più alte, attraverso un effetto indiretto, nel senso che la variazione di temperatura cambia lo stato quantico degli elettroni ed altera il loro spettro di asssorbimento e dunque anche le forze agenti.

In sostanza Lifshitz sta calcolando gli effetti sulle molecole ma di fatti ignora l’esistenza delle molecole stesse!

C’è solo un aspetto microscopico che viene tenuto presente e cioè che le approssimazioni usate rimangono valide per distanze fra i corpi significativamente maggiori delle dimensioni molecolari; inoltre mentre come abbiamo visto anche nei post precedenti l’approssimazione di coppia è sbagliata per calcolare l’effetto totale, il contrario non è vero, dalla teoria di Lifshitz si possono ricalcolare le forze fra due molecole singole come caso limite.

Per distanze molto piccole la teoria di Lifshitz si riduce a quella di London e per distanza un pò più grandi a quella di Casimir -Polder.

Al solo scopo di mostrare una equazione consideriamo qua l’espressione usata per la equivalente della costante di Hamaker che appare molto più

complessa di quelle della terza parte del post a cui rimandiamo per un confronto.

Solo adesso dopo aver chiarito l’approccio di Lifshitz possiamo tornare ad un problema che avevamo lasciato in sospeso in uno dei post precedenti quando abbiamo parlato degli effetti macroscopici di queste forze microscopiche; il caso dell’acqua ( e di altri liquidi che sappiamo hanno legami idrogeno) risaltava per la sua particolarità: le forze di interazione calcolate da Lifshitz non tengono conto della struttura orbitalica delle molecole, ma solo di quelle proprietà macroscopiche legate alla loro struttura elettrica; abbiamo un materiale continuo, ma a comportamento quantistico dotato di energia di punto-zero (lo abbiamo detto nel primo post: un oggetto quantistico non sta mai fermo se no violerebbbe il principio di indeterminazione), il segnale è ritardato (ossia va alla velocità della luce non è istantaneo), abbiamo eliminato la questione della interazione di coppia (il cui erroneo minimo faceva sbagliare il calcolo per eccesso), abbiamo escluso dunque un errore sistematico importante compiuto invece dall’approccio di Hamaker, ma la struttura orbitalica interna come ogni altra caratteristica microscopica è scomparsa. Abbiamo un materiale quantistico continuo.

Derjaguin scrive sempre nell’articolo che abbiamo citato, che in certo senso l’approccio di Lifshitz è il coronamento di quello di Lebedev; ma che fine hanno fatto i dettagli quantomeccanici correlati alla struttura orbitalica delle molecole? Che fine ha fatto la struttura discreta della materia? Cosa succede se ce la reintroduciamo?

Il trucco concettuale sta tutto qua; esistono altre forze, diverse da quelle che Lifshitz ha considerato nel suo approccio? Se tali forze esistono potremmo attribuire ad esse la disparità nella correlazione fra le grandezze macroscopiche come la tensione superficiale e le forze di Lifshitz nel caso dell’acqua, di altri liquidi con legami idrogeno e casomai estenderne il significato. Nella seconda parte del post avevamo sottolineato la differenza fra la “pressione interna” dell’acqua e la entalpia di vaporizzazione per unità di volume; nel secondo caso la rottura di tutte le interazioni possibili rivelava un contributo attrattivo che la pressione interna non riusciva a rivelare; e questo si rivela critico nei liquidi con legami idrogeno. I legami idrogeno non ricadono nelle interazioni “dispersive” coperte dall’analisi di London, Lifshitz o di Hamaker; sono altre interazioni, connesse alla strutura microscopica della materia.

I chimici sono i massimi esperti di questo settore in quanto hanno perfino inventato un concetto che può aiutarci: si tratta delle cosiddette interazioni di trasferimento di carica o interazioni fra orbitali di frontiera.

Questo settore è uno dei campi più prolifici perché unifica la concezione dei materiali e delle molecole, con differenti proprietà; le bande di valenza e di conduzione dei conduttori e dei semiconduttori e gli orbitali di frontiera delle molecole come anche l’energia di Fermi, sono tutte idee e quantità che si unificano in questa descrizione divenendo casi particolari di una descrizione generale.

  1. Fukui, Role of frontier orbital in chemical reactions, Science 218(4574), 747 (Nov. 1982).

Fukui ha mostrato che la più importante interazione fra due molecole è quella fra i cosiddetti orbitali HOMO e LUMO, ossia rispettivamente l’orbitale occupato ad energia più elevata e quello vuoto ad energia più bassa. Un punto di vista alternativo è quello di considerare questo tipo di interazione come quello fra un donatore ed un accettore di densità elettronica o ancora come una interazione di Lewis generalizzata, non ristretta solo a coppie di elettroni di non legame (anche se gli elettroni di non legame sono favoriti). Questa particolare coppia di orbitali prende il nome di orbitali di frontiera. Tutte le altre possibili interazioni fra orbitali occupati e vuoti sono secondarie rispetto a questa e interferiscono solo con l’energetica degli stati di transizione.

Se ci riferiamo a sostanze solide l’HOMO è equivalente al top della banda di valenza, mentre il LUMO è equivalente alla parte inferiore della banda di conduzione. Anche i concetti di energia o livello di Fermi, di energia di ionizzazione o di affinità elettronica possono essere legati, e in modo quantitativo alle energie di questi medesimi orbitali di frontiera. Per esempio il livello di Fermi è pari alla media delle energie di HOMO e LUMO.

Alcuni tipi di interazione comuni come i legami ad idrogeno si possono vedere come interazioni fra HOMO e LUMO e dunque anche come interazioni acido-base generalizzate fra una base (l ‘ossigeno donatore di una molecola) e un’acido (l’idrogeno accettore dell’altra molecola).

Uno schema del tutto generale sull’interazione tra orbitali di ogni tipo (anche non HOMO-LUMO) utile può essere espresso da questo grafico, tratto da un testo classico sul tema:

  1. Rauk – Orbital interaction theory of organic chemistry

Il concetto base è che l’interazione fra atomi o molecole è l’interazione fra i loro orbitali, che sono funzioni matematiche esprimenti il comportamento dell’onda elettronica di materia e di carica; essa è sostanzialmente la loro combinazione lineare; e, cosa non intuitiva, questo processo può essere considerato sia che gli orbitali siano pieni sia che siano vuoti; potranno essere vuoti, semivuoti, pieni; in ogni caso l’interazione di orbitali appartenenti a sistemi diversi, atomi o molecole produrrà delle combinazioni che saranno di somma o di differenza, una di esse avrà energia inferiore a quelle di partenza, l’altra superiore, come si può vedere nello schema che abbiamo riportato.

Se gli orbitali sono vuoti la loro somma delle energie non cambierà, ma l’interazione possibile prevederà un orbitale potenzialmente accettore con energia più bassa di prima, in sostanza anche in un caso del genere il comportamento viene modificato: c’è un sito accettore, a comportamento acido di Lewis ad energia più bassa di prima! Potrebbero non esserci elettroni disponibili a riempirlo, ma l’orbitale c’è.

Man mano che si introducono elettroni, la loro repulsione giocherà un ruolo energetico crescente; il caso che ci interessa è quello di HOMO , dunque una coppia di elettroni e un LUMO, vuoto; cosa succede?

Ian Fleming , Frontier orbitals and organic chemical reactions

Qui abbiamo il caso riportato da un altro classico dell’argomento: si crea un nuovo set di orbitali molecolari di cui uno a più bassa energia; l’abbassamento di energia della nuova coppia “molecolare” dipende dalla somiglianza energetica dei due orbitali, prima del contatto.

Liste di LUMO ed HOMO delle molecole sono disponibili in rete, per esempio qui (https://pqr.pitt.edu/mol/NZZFYRREKKOMAT-UHFFFAOYSA-N ).

Tuttavia le cose non sono così semplici; nel senso che se prendiamo due molecole qualunque con HOMO e LUMO molto simili non è detto che abbiano le stesse proprietà.

Poniamo di considerare i valori nel diagramma qui sotto, dove HOMO e LUMO in eV sono come la x e la y; sostanze vicine dovrebbero avere le stesse proprietà; ma non è così. O almeno non sempre. In alcuni casi la cosa è vera, poniamo i derivati del benzene nella parte in basso a destra; ma come mai gli idrocarburi lineari sono divisi in gruppi, oppure al centro cosa ci fanno così vicini alcuni idrocarburi, l’MPK, la formammide, la trans-decalina?

E’ chiaro che ci vuole un altro passo ancora.

(dati tratti da https://pqr.pitt.edu/mol)

E questo passo finale si chiama “funzione di Fukui”; e si tratta di questa grandezza qua: una funzione che descrive punto per punto come varia la densità elettronica al variare del numero di elettroni, sia in riduzione (attacco elettrofilo)

che in aumento (attacco nucleofilo).

Questa grandezza non è tabulata ma si può calcolare ab initio. E ci dice dove specificamente la reattività molecolare in una direzione o nell’altra darà più facilmente origine ad una reazione.

Nel caso dell’adesione si ha la formazione di legami reversibili, ma la cui origine a parte la componente di van der Waals, scaturisce da questo tipo di interazione.

La teoria acido base dell’adesione tuttavia non ha riconosciuto subito questo aspetto, se non in modo semiempirico.

Secondo la teoria, sviluppata da Good, van Oss e Chaudury (C. J. van Oss; M. K. Chaudhury; R. J. Good, Interfacial Lifschitz-van der Waals and Polar Interactions in Macroscopic Systems. In: J. Chem. Rev. 88 (1988), P. 927-941.) l’adesione fra fasi diverse presente due componenti essenziali:

  • le interazioni di Lifshitz –van der Waals che scaturiscono dalle interazioni ritardate di cui abbiamo discusso fin dal primo post di questa serie
  • le interazioni che potremmo definire di Lewis generalizzate,densità elettronica accettata o donata fra HOMO e LUMO di molecole diverse.

Dunque la tensione superficiale di una fase s si può definire così:Dove gli apici LW si riferiscono alla componente di Lifshitz van der Waals e i segni positivo e negativo alla capacità di accettare o donare densità elettronica in LUMO ed HOMO. La scelta di usare la media geometrica è chiaramente una approssimazione.

Il lavoro di adesione fra due fasi diverse, indicate dai simboli lv ed sv, invece è esprimibile come seguedove la media geometrica è un metodo di approssimazione comune in altri casi di chimica fisica, i pedici lv ed sv si riferiscono alle rispettive fasi. Come si vede le interazioni di L-vdW fanno media geometrica, mentre quelle acido base lo fanno ma su base complementare, ossia la componente basica (donatrice di densità elettronica) di una fase e quella acida (accettrice di densità) di un‘altra (e viceversa). Tuttavia non è detto che ciascuna di esse sia diversa da zero; per esempio nel caso di un idrocarburo e dell’acqua, l’idrocarburo non riuscirà né a donare né ad accettare densità elettronica all’/dall’acqua e dunque rimarranno solo le interazioni L-vdW; diversamente fra fasi capaci di donare accettare, od anche una solo di donare e l’altra solo di accettare (o viceversa) ci saranno entrambe le componenti.

E’ importante sottolineare che l’acqua non aderisce principalmente su base polare ad altre fasi, ma sulla base di interazioni HOMO-LUMO, legami idrogeno, dunque tutto questo uso del termine polare quando ci si riferisce all’acqua è un errore bello e buono.

Al momento non c’è un calcolo teorico ma solo semiempirico e la correlazione fra l’approccio di Good, van Oss e Chaudury e quello delle funzioni di Fukui è stato ipotizzato ed analizzato in qualche dettaglio (anche da me e Stefano Siboni per esempio in Encyclopedy of Surface and Colloid Science, Acid-base behaviour of polymer surfaces (theory) pag. 1-36), ma il calcolo ab initio applicato a questo tipo di interazione è ancora da fare.

Termina così questo lungo viaggio che è partito dalle forze di van der Waals in fase gassosa ed è approdato alla moderna teoria acido base delle superfici.

Abbiamo approfittato del tema per passare in rassegna molte delle moderne teorie che stanno alla base della chimica e delle forze fra le molecole e gli atomi. Spero di non avervi annoiato.

Acid-Base Interactions: Relevance to Adhesion Science and Technology Ed. K. Mittal una serie di libri sul tema che raccoglie gli interventi in numerosi congressi internazionali

C.J. van Oss, Interfacial Forces in aqueous media, 2 ed, Taylor & Francis 2006

Elementi della tavola periodica: Idrogeno, H.

In evidenza

Claudio Della Volpe

L’anno della tavola periodica degli elementi è passato e noi arriviamo per ultimo al primo di essi, in un ciclo di discussione e divulgazione che non ha mai fine.

L’idrogeno, il primo, il più semplice e diffuso degli elementi nell’Universo; prodotto dalla nucleogenesi partita con il big bang. La nucleogenesi dell’idrogeno iniziò poco dopo il big-bang, solo 380.000 anni dopo; la combinazione fra protoni e elettroni, resa possibile dalla riduzione di temperatura legata all’espansione dell’Universo, consentì il flusso di radiazione in un Universo che era opaco, la zuppa cosmica, ma diventato finalmente pervio alla luce, la radiazione di fondo, quella catturata da Arno Penzias.

In conseguenza di questo iniziò anche il processo di formazione delle prime gigantesche stelle biancazzurre, la cui radiazione portò alla re-ionizzazione dell’idrogeno elementare nell’Universo. Questa radiazione assorbita a 78MHz è stata rivelata da un recente esperimento (EDGES) pubblicato su Nature e riportato qui sotto.

Dunque l’idrogeno non è solo il più leggero ma anche il più antico atomo dell’Universo conosciuto e per il primo miliardo di anni la sua produzione prima le sue reazioni nucleari poi e la sua capacità di assorbimento determinano la forma della radiazione cosmica.

Esso è anche il più abbondante atomo dell’Universo, ma non sul nostro pianeta, dove comunque lo troviamo legato a praticamente tutto il resto, data la sua notevole reattività. Acqua, metano, ammoniaca, acido solfidrico e cloridrico sono le forme più comuni di questi prodotti di reazione dell’idrogeno, con gli altri atomi comuni del pianeta.

Tuttavia è molto raro trovarlo da solo; è pur vero che lo troviamo in atmosfera, ma in una percentuale corrispondente a meno di 200 Mton in tutta l’atmosfera; lo estraiamo da sorgenti fossili, ma perciò stesso finite; inoltre come abbiamo raccontato in un recente post , l’idrogeno (insieme all’elio) è in grado di sfuggire all’attrazione terrestre in ragione di alcuni kg al secondo. In conclusione l’idrogeno per essere usato deve essere estratto dalle molecole che lo contengono; quelle che lo cedono a costo minore come il metano fossile sono di fatto finite e dunque dal punto di vista energetico l’idrogeno è e sarà sempre un vettore non una sorgente; estrarlo costerà sempre un accidenti; questo è essenziale da capire. Non è diverso in questo, come vettore, da altri atomi come alcuni metalli (Al e Zn) che viceversa devono essere liberati dall’ossigeno, ma almeno sono a costo zero di accumulo (nel senso non devi comprimerli) e durano una eternità. Non è alla base di nessuna sorgente primaria; potrebbe diventarlo se riuscissimo a sviluppare reattori a fusione, ma al momento la cosa è di là a venire.

                                              Densità         e   densità energetica dell’idrogeno:

Liquido                                        0.07 kg/L , 35 mol/L, 10 MJ/L

Gassoso (700 atm, 20°C)         0.042kg/L, 21 mol/litro, 6MJ/L

Gassoso (1 atm, 20°C)    0.00009kg/L, 0.045moli/L, 0.013MJ/L

Olio combustibile                 0.85Kg/L,                             , 35.7MJ/L

La sua densità di energia in massa è alta (circa 146 MJ/kg, dunque oltre tre volte quello del petrolio, 42MJ/kg), ma non si può dire altrettanto della sua densità volumetrica. Dato che l’idrogeno liquido ha una densità di 0.07 rispetto a 0.85 del petrolio; ne segue che in termini di volume l’idrogeno è nettamente peggio: 1 litro di petrolio produce circa 36MJ termici mentre 1 litro di idrogeno liquido, molto più complesso da stoccare, produce solo meno di un terzo di questa cifra ed uno di idrogeno compresso un sesto circa.

Aggiungiamo a questo che l’idrogeno non può essere bruciato in un normale motore a combustione in quanto è capace di penetrare nella struttura metallica ed indebolirla; dunque occorrono motori a combustione opportunamente progettati per resistere a tale problema.

Ovviamente si può usare nelle famose celle a combustibile, ossia può essere bruciato per via elettrochimica; con una serie di distinguo che provengono dai meccanismi specifici.

Ovviamente si potrà usare per accumulare energia solare; tuttavia qua consideriamo una cosa; l’efficienza complessiva in impianti effettivi con una densità di corrente ragionevole, è di circa l’80-90%, ma di questo decantato valore buona parte è energia termica (stiamo parlando di cogenerazione insomma non di sola elettricità) e scende significativamente se teniamo conto dei costi di pompaggio (a circa 700 atm che è la pressione comune di stoccaggio i costi di lavoro di pompaggio e di raffreddamento sono superiori ad 11MJ/kg di idrogeno). I dati più recenti sono qua sotto:(Energy Environ. Sci., 2019, 12, 463 The role of hydrogen and fuel cells in the global energy system)

In genere la reazione fra ossigeno ed idrogeno è termodinamicamente favorita a bassa temperatura, ma cineticamente lo è ad alta, dunque come nella reazione di Bosch Haber abbiamo un conflitto fra cinetica e termodinamica.

Le celle a combustibile usabili a bassa temperatura sono dunque molto efficienti ma necessitano di catalizzatori molto efficienti, come il platino, che sono soggetti ad avvelenamento da monossido di carbonio (CO). Dunque le celle che furono usate per fornire energia durante l’ammarraggio lunare nel 1969 necessitavano di reagenti purissimi, che erano disponibili per caso nel senso che il razzo Saturn usava idrogeno ed ossigeno liquidi come sorgente di energia. Inoltre la soluzione elettrolitica basica che si usava era avvelenabile se si fosse usata aria, in quanto la CO2, che l’avrebbe acidificata, fa parte integrante dell’aria del pianeta. Occorre usare un elettrolita acido come acido solforico.

Conclusione quella cella storica, non molto dissimile dalla originale cella inventata nel lontano 1839 da Grove non è mai stata usata.

Viceversa sono state sviluppate celle a membrana protonica (il nafion, un polimero sintetico superacido fatto di gruppi solfonici attaccati ad una base perfluorurata e già usato nel processo cloro-soda) che lavorano fino a 100°C ma sempre con catalizzatori costosi basati sul platino; celle ad acido fosforico che lavorano fino a circa 200°C. Tutte queste celle sono costose, soggette ad avvelenamento del catalizzatore, ma molto efficienti; se alimentate con aria, in cui la pressione parziale di ossigeno che è solo 0.2 atm riduce l’efficienza termodinamica possono essere usate come generatori di energia elettrica ad alta efficienza, fino al 70-80% (dipende dalla corrente richiesta).

Aumentando la temperatura della reazione si può ridurre il costo dei catalizzatori o farne a meno proprio; l’ENEA ha sviluppato brevetti sulle celle a carbonati fusi, in cui l’elettrolita è un carbonato e dunque la CO2 non è un problema, ma si tratta di apparecchiature lente ad avviarsi e da tenere permanentemente sopra la temperatura di fusione del carbonato, dunque adatte a fare da generatori fissi più che mobili.

(si veda il bel volumetto della Ronchetti: http://old.enea.it/produzione_scientifica/pdf_volumi/V2008_02CelleCombustibile.pdf )

Stessa situazione per le celle a combustibile ad ossidi solidi in cui il conduttore è un ossido di cerio drogato con un altro ossido come l’ittrio; con la loro carica più bassa del cerio gli ioni droganti riducono il numero di ioni di ossigeno necessari e dunque liberano posti nel reticolo cristallino incrementando la conducibilità.

Questo avviene a temperature vicine ai 1000°C; i catalizzatori non sono più necessari ma sono pochi i materiali che sono in grado di resistere al catodo e all’anodo a queste drastiche condizioni; e comunque anche queste ottime celle prodotte per esempo dalla Solid Power qui a pochi km da Trento sono adatte come generatori fissi di elettricità e calore (cogenerazione); a quella temperatura possono usare perfino un idrocarburo semplice come il metano come sorgente di idrogeno.

Nessuna di queste applicazioni è entrata nel mercato massicciamente per vari motivi legati al costo e anche alla affidabilità dei dispositivi. Sono tutte strade in fieri (secondo i dati che si trovano in rete a tutt’oggi sono stati installati 225.000 impianti fissi e circa 10.000 auto a idrogeno, essenzialmente la Toyota Mirai, 78.600 euro, di cui una in Italia, in provincia di Bolzano dove esiste una serie di distributori lungo la A22; ci sono altri due o tre modelli come la Hyunday Nexo (70.000 euro), Honda Clarity Fuel (70.000 euro) e Mercedes GLC (800 euro al mese) ma non sono in vendita da noi).

Ci sono sette isotopi dell’idrogeno, ma solo i primi tre hanno una emivita ragionevolmente lunga, superiore diciamo al millesimo di secondo. Di questi tre isotopi sono stabili il primo e il secondo, il deuterio (un neutrone aggiuntivo nel nucleo) mentre il terzo, il trizio, che ha due neutroni aggiuntivi nel nucleo, è radioattivo, decadendo con emivita di circa 12 anni in 3He.

Sembra che l’idrogeno sia stato scoperto per primo da Paracelso, che però avendo fatto reagire metalli ed acidi forti non si rese conto di aver ottenuto un nuovo elemento. Fu riscoperto da Boyle mescolando ferro ed acidi; ed infine fu ufficialmente “scoperto” da Cavendish nel 1766; egli però caratterizzò il prodotto ottenendo acqua dalla sua combustione. Ma nemmeno stavolta le cose andarono lisce del tutto, in quanto Cavendish aveva usato come metallo il mercurio e ritenne erroneamente che era stato il mercurio e non l’acido ad emettere la nuova sostanza. Il fatto fu definitivamente acclarato da Lavoisier che ripetè gli esperimenti ma comprese che l’origine era l’acido Era il 1783, e dunque la scoperta dell’idrogeno necessitò di ben due secoli e mezzo! Lavoisier gli assegnò anche il nome con cui lo conosciamo adesso.

L’idrogeno puro si ottiene mediante reazione di acidi con metalli, oppure industrialmente mediante l’elettrolisi dell’acqua oppure il reforming del gas naturale, la gassificazione di residui della raffinazione del petrolio e queste sono al momento le sorgenti più economiche.

Una delle cose più curiose e meno conosciute è che l’idrogeno è in realtà la miscela di due diverse specie, entrambe di formula H2, ma con proprietà chimiche non identiche: ortoidrogeno e paraidrogeno.

Ne abbiamo parlato in un post di qualche tempo fa. Sono specie che differiscono per gli orientamenti dello spin del nucleo, ossia dei due protoni, il cui campo magnetico è orientato nella medesima direzione (orto) o in direzioni opposte (para); questo secondo stato corrisponde a uno stato energetico leggermente più basso. L’equilibrio fra le due specie dipende ovviamente dalla temperatura, spostandosi verso orto al crescere delle temperatura; si tratta però di un equilibrio a cinetica lenta. Dunque senza un opportuno catalizzatore la variazione di stato dell’idrogeno durante la liquefazione lascia invariato il rapporto, e l’equilibrio si ripristina lentamente, cedendo calore; ovviamente il calore ceduto consente ad una parte almeno dell’idrogeno di ripassare allo stato gassoso. Dunque un problema non indifferente per lo stoccaggio dell’idrogeno a bassa temperatura; risolubile usando un catalizzatore per esempio un economico ossido di ferro.

L’idrogeno ci appare come la specie più comune e semplice della Chimica, ma c’è qualche trucco; in un post di qualche anno fa avevo analizzato (fra l’altro) i due ioni più importanti che può produrre H+ ed H, due numeri di ossidazione diversi +1 e -1. Il primo di cui parliamo sempre con la più grande facilità in realtà NON ESISTE nella materia ordinaria, in quanto la sua densità di carica è così alta che esso immediatamente strappa elettroni o si lega ad altre specie; dunque in acqua per esempio avremo specie come H3O+, H5O2+ e così via, ma non avremo mai il protone libero.

Al contrario avremo il secondo, lo ione idruro che è stabile avendo saturato il suo orbitale 1s, ha una densità di carica ragionevole e si trova perfino in reticoli cristallini, insomma è una vera specie chimica anche se molto meno conosciuta e nominata. La sua esistenza e le sue proprietà sono importanti in molti processi come le idrogenazioni sia chimiche che elettrochimiche, con il meccanismo del famoso “diagramma vulcano”, di cui casomai parleremo un’altra volta.

Quali sono le principali reazioni in cui si usa l’idrogeno? Beh ovviamente le idrogenazioni, ossia le reazioni per trasformare molecole insature in molecole sature (come i grassi insaturi in margarina) oppure la regina delle reazioni con l’idrogeno, ossia la reazione che ha trasformato l’agricoltura e la produzione di esplosivi: la reazione di Haber-Bosch, di cui abbiamo parlato in vari post.

Si tratta di una reazione di idrogenazione che fa reagire azoto ed idrogeno. La molecola di azoto ha un triplo legame, dunque è estremamente stabile. Le elevate temperature che sarebbero necessarie per attuare tale scissione accelerando la cinetica di reazione non la favoriscono termodinamicamente perché essa diventa endoergonica ad alta temperatura. Fritz Haber e Carl Bosch scoprirono come usare dei catalizzatori per utilizzare temperature di reazione minori e dunque non andare incontro ad un ostacolo termodinamico.

In realtà si prospettano usi più intensivi dell’idrogeno, considerato come un combustibile “pulito”, ossia privo di effetti collaterali.

In realtà l’idrogeno è si privo di effetto serra, a differenza di altre molecole come il metano, per esempio, ma ha una serie di effetti collaterali indiretti sia di tipo climatico che di altro tipo per cui ha senso chiedersi quale è il suo ciclo biogeochimico globale e cosa succederebbe se lo usassimo massicciamente come pensano i supporters dell’idrogeno come vettore.

L’argomento è complesso e non ben conosciuto ed è solo dal 1989 che esistono dati precisi sulla presenza dell’idrogeno in atmosfera e della sua distribuzione isotopica con studi che sono stati supportati dall’amministrazione USA, NOAA.

Vi indico due lavori, uno è il classico di Novelli e altri che però risale al 1999, (in calce) mentre il più recente, basato su una tesi di dottorato, di Pieterse e altri è del 2013. I principali risultati sono riportati sotto da una tabella di Pieterse che riassume i principali lavori dedicati al tema del ciclo dell’idrogeno.

Per fare un paragone che abbia senso consideriamo che l’idrogeno usato per produrre ammoniaca ogni anno (176 Mton nel 2016) è pari ad oltre 30 Mton. Questa quantità è enorme come si può vedere dal confronto con i dati complessivi (che in questa tabella non ne tengono conto perché quell’idrogeno non entra DIRETTAMENTE nel ciclo). Dunque anche in questo ciclo siamo dei player importanti.

(I simboli denominati S1, S2 etc sono i vari scenari di consumo previsti nel lavoro di Pieterse ma non analizzati da noi)

La stima che avevo riportato nel post sul ciclo di elio e idrogeno come vedete è perfino ridotta, circa 150 Mton (o Tg, teragrammi, 1012 grammi) con un tempo di vita in troposfera molto breve di circa due anni. Ogni anno il flusso è circa dunque la metà di tale deposito troposferico e proviene essenzialmente dall’attività fotochimica (ossia dalla degradazione fotochimica di metano e altri idrocarburi) e dalle combustioni (che sono in gran parte di origine umana); l’assorbimento aviene ancora una volta per via fotochimica, tramite la reazione con il radicale OH e in prevalenza tramite la deposizione secca sul suolo.

Come si vede parecchie fonti e pozzi sono ancora incerte.

Gli effetti indiretti dell’idrogeno in atmosfera sono potenzialmente notevoli: esso può alterare il tempo di permanenza del metano perché reagisce con OH. radicale che ne regola la distruzione; inoltre l’incremento in stratosfera può aumentare l’acqua stratosferica aumentando la quantità di nubi stratosferiche che a loro volta regolano le reazioni del radicale Cl. E quest’ultimo influenza lo strato di ozono. Ed infine se aumenta la concentrazione di idrogeno in atmosfera aumenta la sua quantità persa nello spazio; il calcolo di questi effetti è ai suoi inizi, ma devono essere presi in considerazione come prova dell’effetto che un metabolismo antropocenico ha sulla biosfera, perfino nelle sue versioni considerate più sostenibili.

L’idrogeno è un gas che ha dominato l’atmosfera terrestre primordiale e il residuo di questa enorme importanza viene dalla ubiquitaria presenza di enzimi di idrogenazione nei tessuti biologici; questo ci rivela che il suo ciclo complessivo e la sua interazione con quello del carbonio probabilmente dovrebbe essere meglio studiato, soprattutto se pensiamo di mettere mano più a fondo al suo uso .

Piché-Choquette S, Constant P. 2019. Molecular hydrogen, a neglected key driver of soil biogeochemical processes. Appl Environ Microbiol 85:e02418-18. https://doi.org/10 .1128/AEM.02418-18.

Paul C. Novelli et al. Molecular hydrogen in the troosphere: global distribution and budget, JGR vol 104 NO. D23, pg. 30,427-30-444 1999

Pieterse et al. JOURNAL OF GEOPHYSICAL RESEARCH: ATMOSPHERES, VOL. 118, 3764–3780, doi:10.1002/jgrd.50204, 2013   Reassessing the variability in atmospheric H2 using the two-way nested TM5 model

 

Parole crociate.

In evidenza

Piero Bartezzaghi era un perito chimico e fu anche un grande innovatore dell’enigmistica italiana; il suo “bartezzaghi” a pag. 41 della Settimana Enigmistica era il clou della rivista, un testo a schema libero o senza schema veramente difficile; Bartezzaghi innovò nell’alfabeto, che usava di 26 lettere, nella tipologia delle parole che introdusse ampiamente a partire dal linguaggio parlato, ma soprattutto nell’originalità e nella complessità stimolante dei giochi , non solo parole crociate. Non è che possiamo sperare di proporvi d’ambleau un gioco altrettanto eccelso, ma l’idea qua è diversa; far penetrare il pensiero che la Chimica è anche gioco, bellezza, entusiasmo, curiosità; e dunque il nostro cruciverba sia goduto per quello che è un gioco stimolante. In bocca al lupo. Grazie al “vecchio” socio Ted Toloz e alla sua disponibilità e bravura.

Ted Toloz

stampate e risolvete il cruciverba la cui soluzione sarà pubblicata lunedì prossimo.

soluzione del cruciverba

Riempimento a chiave

In evidenza

Ted Toloz

Come sapete fra la chimica e il linguaggio c’è un legame profondo, analizzato variamente per esempio nella conferenza su questo sito dedicata a Molecole e parole. Atomi come lettere di parole molecole, a crescere fino alle superstrutture biologiche come romanzi o biblioteche.

Da oggi inizia (speriamo) una nuova rubrica il cui autore, come è prammatica nell’enigmistica, ha un nome d’arte; che nel nostro caso è Ted Toloz e che ci proporrà dei giochi enigmistici a carattere chimico.

Uno dei più famosi enigmisti italiani Piero Bartezzaghi era un chimico, insomma Chimica ed Enigmistica non sono estranee.

Buona fortuna con questo “riempimento a chiave”, sperando sia il primo di una serie.

Per eseguirlo scaricate l’immagine qui sotto e seguite le semplici regole; potrete confrontare poi il vostro risultato con quello che pubblicheremo lunedì prossimo; buon lavoro e buon we con questa chimica enigmistica.gioco elementi con soluzione

 

Riciclare il PVC.

In evidenza

Claudio Della Volpe

In un recente articolo dedicato al riciclo della plastica avevo contrapposto come esempi apparentemente diversi il PVC e il PET, attribuendo al primo una percentuale di riciclo nulla e al PET il 70% ma facendo vedere che in dipendenza della durata del ciclo di vita dopo un certo periodo (30 anni) entrambi avevano riciclo nullo di fatto indipendentemente dalla percentuale, ma con forte dipendenza dalla lunghezza temporale del ciclo di vita; ho ricevuto una critica da una gentile lettrice che commentava :

Il PVC è perfettamente riciclabile. Quel poco che viene raccolto viene tutto riciclato.

La lettrice in questione non è una sconosciuta ma è la dott. Diana Castiglione, dunque una persona esperta del tema sul quale ha anche contributo a pubblicare dei testi; le ho risposto immediatamente, ma cerco in questo breve post di chiarire perché ho attribuito al PVC una percentuale nulla di riciclo.

Mi sono basato sui dati pubblici su questo tema che si possono compendiare nei fatti seguenti ciascuno accompagnato da un link o un lavoro da cui ho estratto i dati:

(dal 10 al )20% di tutta la plastica è PVC

https://www.bpf.co.uk/plastipedia/polymers/pvc.aspx

ogni anno si producono 65 milioni di ton di cloro

http://www.essentialchemicalindustry.org/chemicals/chlorine.html

il 30% va in PVC

http://www.essentialchemicalindustry.org/chemicals/chlorine.html

da qui si deduce che (0.3 x 65=) si usano 20 Mton di ton di cloro per fare il PVC ogni anno e dato che la formula PVC è (CH2-CHCl)n e il Cl rappresenta dunque il 56,8% in peso il totale produzione mondiale di PVC si aggira sui 37-40 Mton (per il ciclo del cloro si veda qui)

Annual production of chlorine

World 65 million tonnes1
U.S. 11 million tonnes1
Europe 10 million tonnes2

Dati da:
1) 2018 Elements of the Business of Chemistry, American Chemical Council.
2) In 2017 Chlor-Alkali Review 2017/2018 Euro Chlor, 2018.

Quanto di questo PVC si può riciclare?

La prospettiva di riciclo del PVC di Vyniplus (iniziativa europea) al 2020 è 800.000 ton   su circa 5 milioni di ton di PVC europeo ossia il 16% circa; è una prospettiva; quanto se ne ricicla adesso? Il documento (pieno di bei disegni) non lo dice.

http://www.eswa.be/pdf/camb01_4002_vinylplus_brochure_en.pdf

In mancanza di dati certi mi rifaccio ad un documento dell’UE del 2004-2005

https://ec.europa.eu/environment/waste/studies/pdf/pvc-final_report_lca.pdf

dove si legge:

The PVC recycling rate for post consumer waste (in the year 2000) is relatively low in the European Union, representing only 3%, in comparison to landfilling (82%) and incineration (15%). This is mainly due to high collection and separation costs. Nevertheless, this rate is expected to increase.

Dunque l’ultimo dato certo è 3% (e quello di prospettiva del prossimo anno di 16%).

Io nel mio esempio ho approssimato certamente per difetto, ma rispetto al 70% di riciclo del PET mi sembrava di poter contrapporre i due materiali.

I metodi di riciclo del PVC sono meccanici, triturazione e rifusione oppure chimici, rimetterlo nel ciclo industriale del cloro tramite la produzione del CaCl2, certamente si può fare; d’altronde qualunque materiale a patto di spendere sufficiente energia è riciclabile; ma, come si sa, per contrastare il 2 principio occorre spendere un flusso di energia (dalla raccolta alla separazione al riciclo vero e proprio); secondo la documentazione la cosa è fattibile ma non all’infinito:

quante volte si può riciclare il PVC?

PVC is fully recyclable.  Due to its properties it reprocesses well and can be recycled into second (or third life) applications with ease.

https://www.bpf.co.uk/plastipefrecycledia/polymers/pvc.aspx

Dunque anche chi lo produce sostiene che si può fare, ma solo due o tre volte. Evidentemente il danno da riciclo è sensibile. Ma il riciclo non è una operazione una-tantum; un buon riciclo è PER SEMPRE mentre ora siamo qua: 0.163=0.005. Chiara l’antifona? Smettiamola di parlare di riciclo una tantum, è il proseguimento della economia lineare, fare uno, due o tre cicli non basta occorre farne tanti; quanti? quanto serve!

Aggiungo che l’incinerazione riportata nel documento UE (che è datato consento) è presente sia in modo legale che illegale (gli incendi fraudolenti dei depositi di plastica italiani dopo il blocco cinese) e non corrisponde ad alcun modo di recupero, in quanto la quota di energia recuperata tramite combustione è solo una quota piccola dell’energia spesa nella filiera complessiva di produzione del PVC a partire da petrolio e sale marino. Secondo una stima riportata nel documento sottocitato la quantità di energia necessaria per produrre 1kg di PVC è di circa 70MJ contro i 18 MJ ottenibili dalla sua combustione, con una perdita netta del 300%.

http://www.inference.org.uk/sustainable/LCA/elcd/external_docs/epvc_31116f09-fabd-11da-974d-0800200c9a66.pdf

https://www.m-ep.co.jp/en/pdf/product/iupi_nova/physicality_04.pdf

Quest’ultimo elemento è quello che ho sviluppato di più nella risposta immediata sul blog. La conclusione è che al momento il riciclo di massa del PVC è certamente molto più complesso di quello di altri polimeri anche se la sua vita media è molto alta, attorno al valore che ho usato nell’esempio, circa 30 anni.

Per tutti i motivi che ho esposto qua mi sembra che il mio post sia ampiamente difendibile.

Quali vantaggi un chimico ha ad iscriversi alla SCI?

In evidenza

Gaetano Guerra

La Società Chimica Italiana è una associazione in buona salute, che sotto la presidenza di Angela Agostiano ha raggiunto quasi quattromila iscritti. Ma l’amico Claudio Della Volpe, responsabile del blog SCI, mi invita a rispondere alla domanda: Quali vantaggi un chimico ha ad iscriversi alla SCI?

La risposta è semplice. Ogni attività umana è valorizzata dalle relazioni sociali e la conoscenza, la ricerca e l’innovazione come pure la didattica non fanno eccezione, anzi sono estremamente dipendenti da quello che oggi si chiama “networking”.

L’importante merito che la SCI ha sempre avuto verso la Chimica Italiana è stato quello di potenziare connessioni tra le competenze chimiche del mondo accademico, del mondo industriale, delle professioni e della scuola, nonché tra le varie discipline chimiche.

Queste connessioni sono ancora più importanti adesso che l’innovazione industriale ed importanti settori dell’economia si appoggiano sempre di più ai principi della “Open Innovation”, che mette in atto reti che includono università, start-up, istituti pubblici e privati ed aziende.https://www.id106.org/che-cose-lopen-innovation/

Nel triennio della mia presidenza, cercherò di potenziare tutto ciò che tenda a favorire contatti interdisciplinari, favorendo anche contatti con competenze ormai indispensabili per tante attività di ricerca e professionali del chimico, quali quelle degli ingegneri, dei fisici, dei biologi e dei medici. Ma soprattutto cercherò di aumentare i contatti tra chimici accademici, dell’industria, delle professioni e della scuola. Come strumento saranno ad esempio utilizzati degli eventi satellite di interesse industriale al nostro congresso triennale (SCI2020, Milano 13-17 settembre), che hanno avuto già un ottimo riscontro nel congresso 2017 di Paestum.

A Milano eventi satellite intersettoriali ed interdisciplinari si terranno su argomenti molto caldi quali sostenibilità di polimeri e compositi, principi attivi e formulazioni in cosmetica e valorizzazione di scarti della filiera agroalimentare.