Aggirare l’indeterminazione?

Claudio Della Volpe

La Meccanica Quantistica (MQ) è una concezione delle cose radicalmente diversa dalla meccanica classica e basata su una matematica più sofisticata e complessa; proprio per questo motivo sia gli addetti ai lavori che il grande pubblico fanno fatica a capirsi e la divulgazione ne soffre moltissimo.

Un buon esempio di questo problema viene da una recente scoperta effettuata in terra spagnola ma ad opera di un gruppo internazionale di scienziati diretto da Morgan W. Mitchell e pubblicata su Nature in un articolo il cui primo nome è quello di un giovane italiano Giorgio Colangelo.

Simultaneous tracking of spin angle and amplitude beyond classical limits”, di Giorgio Colangelo, Ferran Martin Ciurana, Lorena C. Bianchet, Robert J. Sewell e Morgan W. Mitchell

La maggior parte dei giornali divulgativi che hanno riportato la scoperta si sono lanciati in titoli del tutto fuori luogo:

Scientists evade the Heisenberg uncertainty principle

oppure

The study reports a technique to bypass the Heisenberg uncertainty principle.

Ma se uno legge con attenzione non c’è nessuna evasione o aggiramento.

Anche il giornale dell’INAF che ha intervistato l’autore italiano, l’abruzzese Giorgio Colangelo scrive:

Indeterminazione, scacco ad Heisenberg

Il più celebre principio della meccanica quantistica è stato aggirato grazie a uno stratagemma, messo a punto all’Icfo di Barcellona

Le cose sono più complesse e dunque più difficili da esprimere; l’intervista successiva è a questo proposito più chiara, ma anche l’autore si lancia in una spiegazione tutto sommato al limite del rigore e che lascia un pò di ….incertezza.

D. Colangelo, partiamo dall’inizio, da quel principio che Werner Karl Heisenberg enunciò 90 anni fa, nel 1927, e che ora voi state sfidando. Cosa dice esattamente?

R.«Il principio di indeterminazione di Heisenberg correla due quantità per descrivere completamente un sistema fisico. Questo vale per posizione e velocità di un atomo ma anche per l’ampiezza e la fase di un segnale. Al conoscere precisamente una di queste due l’altra diventa indeterminata, per cui resta impossibile descrivere completamente il nostro sistema. Tuttavia altri sistemi fisici, come per esempio lo spin di un atomo, non vengono descritti da due, bensì da tre quantità, come per esempio le tre direzioni spaziali su cui può orientarsi lo spin».

D.Questi sistemi a tre quantità non sono soggetti anch’essi al principio d’indeterminazione?

R.«Questi sono descritti da una relazione d’indeterminazione un po’ più generale che correla le tre quantità dello spin: la relazione d’indeterminazione di Robertson-Schrödinger. Anche in questo caso risulta comunque impossibile conoscere esattamente tutto del sistema, cioè le tre orientazioni dello spin, tuttavia se ne possono conoscere quasi precisamente due. E quelle due sono sufficienti per conoscere l’ampiezza e la fase di un segnale rivelato dagli atomi con estrema precisione, che è quello a cui effettivamente siamo interessati».

D. Geniale: ne “sacrificate” una per salvare le due che vi servono. E siete stati voi i primi a pensarci?

R.«Probabilmente per un teorico questo fatto era già noto, perché è una conseguenza semplice della teoria. Ma spesso le idee semplici sono anche quelle che possono essere applicate ai sistemi più diversi. Il nostro merito è che noi siamo stati i primi ad accorgerci che da questa conseguenza si poteva derivare un protocollo sperimentale semplice da utilizzare nella pratica. E abbiamo dimostrato, con un esperimento, che se ne poteva ottenere un vantaggio metrologico significativo rispetto a quello che è fatto fino a ora, tanto da poter migliorare gli attuali strumenti».

 

«Il nostro esperimento ha dimostrato che, effettivamente, l’uso di spin atomici in opportune configurazioni rispetto al campo magnetico permette di misurare ampiezza e fase dello spin con precisione oltre i limiti classici.

Si può tentare di fare meglio senza avere la certezza di riuscirci? Ci provo e potrei non riuscirci.

Cominciamo col ricordare di cosa parliamo.

In MQ le grandezze fisiche sono rappresentate da operatori, ossia operazioni analitiche condotte su funzioni, le funzioni d’onda; poniamo di avere a che fare con le due operazioni prodotto e derivata applicate entrambe ad una funzione d’onda e sia questa funzione indicata da ψ(x).

Se applichiamo due operatori uno dopo l’altro alla funzione l’ordine di applicazione non è indifferente; poniamo di applicare prima il prodotto e poi la derivata o prima la derivata e poi il prodotto avremo:

Come si vede i due risultati non sono uguali e dunque la loro differenza non è nulla; tale differenza viene definita commutatore e si dice che il commutatore fra i due operatori non è nullo e che i due operatori non commutano.

Se questo avviene le due grandezze corrispondenti ai due operatori sono dette incompatibili; di più se la differenza fra le due operazioni è pari a ossia all’unità immaginaria per il quanto di Planck diviso 2 pigreco le due grandezze si dicono canonicamente coniugate.

Il famosissimo principio di indeterminazione di Heisenberg che proclama la non conoscibilità contemporanea delle quantità fisiche con precisione assoluta si riferisce proprio a grandezze o variabili incompatibili e coniugate, non a qualunque coppia (o tripletta) di grandezze o variabili.

Già in passato la comprensione del principio di indeterminazione ha portato a problemi; per esempio Condon nel 1929 credette di aver trovato una violazione del principio nel caso dei momenti angolari dell’atomo di idrogeno, ma le grandezze a cui faceva riferimento sono incompatibili ma non coniugate e dunque il principio di indeterminazione non si applicava.

U. Condon, Remarks on uncertainty principles, in Science, nº 69, 1929, pp. 573-574.

Alle variabili che non siano coniugate ma solo incompatibili si applica una diversa relazione detta relazione di indeterminazione di Robertson- Schroedinger. Mentre Schroedinger lo conoscete sicuramente , non molti si ricorderanno di Howard Percy Robertson un fisico matematico che diede punti anche ad Einstein, perchè fece da referee ad un suo lavoro e lo rifiutò, costringendo a cambiarne le conclusioni; Einstein non visse bene la cosa, ma la Fisica e noi tutti ne abbiamo avuto giovamento.

Questa però è un’altra storia che potete trovare qui:

Einstein Versus the Physical Review Daniel Kennefick

Physics Today 58, 9, 43 (2005); doi: 10.1063/1.2117822 View online: http://dx.doi.org/10.1063/1.2117822

In conclusione alle grandezze misurate dal gruppo di ricercatori guidato da Mitchell si applica la relazione di Robertson e non quella di Heisenberg e dunque non c’è alcun aggiramento. Ma cosa dice la relazione di Robertson?

La relazione dice che il prodotto delle due deviazioni standard riferite a due grandezze incompatibili deve essere superiore alla metà del valore medio del commutatore applicato ad una certa funzione; in definitiva mentre Heisenberg si applica nel caso di misure delle osservabili sullo stesso sistema la disuguaglianza di Robertson fa riferimento alla distribuzione dei valori (con deviazioni standard σA e σB ) delle osservabili A e B in un insieme statistico di sistemi quantistici identici. Le due condizioni sono alquanto diverse e dunque lo sono anche le rispettive “violazioni”. Tutto qua spero di non aver detto sciocchezze. Correggetemi.

Per saperne di più:

Simultaneous tracking of spin angle and amplitude beyond classical limits”, di Giorgio Colangelo, Ferran Martin Ciurana, Lorena C. Bianchet, Robert J. Sewell e Morgan W. Mitchell

Intercalazione e altre storie. 3.

Claudio Della Volpe

Continuiamo a parlare di accumulo energetico elettrochimico e di intercalazione come abbiamo fatto nei due post precedenti (che trovate qui e qui).

Molti sanno del litio come intercalante, e ne riparleremo in un prossimo post, ma pochi immaginano che altri ioni possano intercalare con utilità e parliamo qui di sodio e ione idronio, H3O+.

Il primo è vicino ad una applicazione commerciale, mentre il secondo è in stato di studi di laboratorio.

La ricerca nel campo delle batterie ad intercalazione usanti sodio è iniziata nel 1980, ma batterie commerciali allo ione sodio non sono di fatto ancora sul mercato mentre quelle allo ione litio i cui primi esemplari sono stati prodotti nel 1970 sono diventati una realtà pratica già nel 1991 Ovviamente la situazione attuale che spinge così fortemente verso le rinnovabili ha suscitato di nuovo interesse sul tema e così dal 2010 è ripresa una ricerca intensa.

Storicamente l’inserzione di ioni sodio a temperatura ambiente fu dimostrata nel 1980 in TiS2 e nel medesimo anno si provarono le proprietà elettrochimiche di composti come NaxCoO2 , simile a quello comunemente usato col nome di cobaltite nelle batterie al litio ricaricabili.

Vedete qui sotto uno schema del funzionamento delle batterie al sodio-ione, che non si distacca più di tanto da quello delle battterie al litio-ione.

           In fase di carica gli ioni sodio migrano dall’ossido misto alla grafite usata casomai in una forma nanocristallina che consente una penetrazione maggiore del sodio.

Tuttavia se consideriamo in dettaglio alcune proprietà dei diversi ioni che si possono usare al posto del litio ci rendiamo conto che mentre la capacità teorica rimane sostanzialmente invariata il voltaggio della batteria scende in modo significativo spostandosi verso ioni più carichi, la cui reversibilità di intercalazione fra l’altro è inferiore; ciò che attira verso ioni diversi dal litio è sostanzialmente il costo più basso; fra tutti questi aspetti il sodio costituisce un buon compromesso.

Journal of The Electrochemical Society, 162 (14) A2538-A2550 (2015) Review—Practical Issues and Future Perspective for Na-Ion Batteries Kei Kubotaa,b and Shinichi Komaba

Non è dunque strano se il lavoro di ricerca si è concentrato verso batterie di questo tipo sperimentando anche al posto della grafite altre sostanze di intercalazione, come per esempio composti di Na e Sb . C’è stato il ripetuto annuncio da parte di una ditta, la Aquion, della realizzazione di dispositivi commerciali la cui struttura è descritta nella figura qui sotto e che comprende un catodo misto di grafite e fosfato di titanio, mentre il catodo è un ossido misto di manganese. In effetti sembra sia già possibile comprare queste batterie definite “miste” anche in Italia:

http://www.tecnolario.it/prodotti/solare-fotovoltaico/batterie-per-accumulo-di-energia/177-batterie-aquion-energy.html

Un altro lavoro sulla intercalazione di ioni diversi da litio è stato molto recentemente publicato su Angewandte Chemie; si tratta di un lavoro ancora di laboratorio che ha testato la possibilità di intercalare reversibilmente lo ione idronio in un elettrodo cristallino di un colorante rosso con proprietà semiconduttrici, un derivato del perilene (i 5 anelli centrali qui sotto), la sua dianidride nelle posizioni 3,4,9,10 (PTCDA).

Gli autori di questo lavoro hanno dimostrato per la prima volta che gli ioni idronio possono essere reversibilmente immagazzinati in un elettrodo cristallino di questo materiale con una capacità di accumulo di 85 mAh/g alla velocità di scarica di 1A/g. L’analisi ai raggi X mostra che avviene una significativa e reversibile dilatazione della struttura per assorbimento degli ioni idronio da una soluzione acida, fenomeno spiegabile solo per intercalazione degli ioni idronio nella struttura originale come proposto qui sotto, con una reazione corrispondente alla riduzione della dianidride ad acido. Questa ipotesi è stata confermata attraverso una analisi teorica usando il metodo cosiddetto DFT la teoria del funzionale della densità (Density Functional Theory, DFT) una teoria quantistica microscopica per lo studio di sistemi a molti elettroni.

E’ interessante notare che i sistemi di accumulo elettrochimico di idrogeno esibiscono di solito efficienze coulombiche basse a causa della evoluzione di idrogeno indicata in inglese come HER. In questo caso invece la specie che si intercala è proprio lo ione idronio che ha un raggio ionico di 100pm (picometri) simile a quello dello ione sodio.

Certo al momento i risultati sono esclusivamente di laboratorio, ma considerate che questa è la dimostrazione sperimentale di un sistema di accumulo basato interamente sulla chimica organica e sarebbe il primo potenzialmente sostenibile. Una sorta di elettrodo ad idronio da accoppiare ad altri elettrodi per realizzare una batteria funzionante. E dite voi se è poco.

 

Acesulfame K: un dolcificante per monitorare l’urina nelle piscine

Rinaldo Cervellati

L’acesulfame potassico (ACE K) è un dolcificante di sintesi, oggi largamente impiegato da solo o in associazione con altri edulcoranti, solitamente con l’aspartame. A differenza di quest’ultimo, l’ACE K è resistente al calore e a pH sia acidi che basici, ha un potere dolcificante 200 volte quello della saccarina e uguale a quello dell’aspartame, il che lo rende particolarmente utile in pasticceria, per prodotti ad alta conservazione, come pure nell’industria cosmetica.

Dal punto di vista chimico l’ACE K è il sale di potassio del 6-metil-1,2,3-oxathiazine-4 (3H) -one 2,2-diossido[1]. Si presenta come polvere cristallina bianca, solubile in acqua. La sua struttura è mostrata in figura 1.

A tutt’oggi non sembrano esserci pericoli per la salute nell’impiego di acesulfame K come additivo alimentare, esso è stato approvato sia dall’agenzia statunitense FDA (Food and Drug Administration) sia dall’European Food Safety Authority (EFSA, con codice E950).

La caratteristica interessante di ACE K è che non viene metabolizzato dall’organismo, in altre parole una volta ingerito viene escreto con le urine praticamente intatto. Quindi non solo i tessuti non lo metabolizzano ma neanche la flora batterica presente nel lume dell’apparato digerente, dalla bocca all’intestino.

Questa caratteristica ha motivato un gruppo di ricercatori dell’Università di Alberta (Canada) a utilizzare ACE K come marker per l’urina nelle piscine. La ricerca, recentissima, riportata da c&en newsletter on line del 7 marzo è pubblicata su Environmental Science and Technology Letters

(L. K. Jmaiff BlackstockW. WangS. VemulaB. T. Jaeger, and X. F. Li, Sweetened Swimming Pools and Hot Tubs, Environ. Sci. Technol. Lett.2017, on web March 1, DOI: 10.1021/acs.estlett.7b00043)

L’immissione di urina umana nelle piscine e negli idromassaggi è un problema di sanità pubblica, affermano gli autori, infatti anche se l’urina di per sé è sterile, contiene però molti composti azotati (urea, ammoniaca, aminoacidi, creatinina) che possono reagire con i disinfettanti contenuti nell’acqua. Per esempio reagendo con il cloro queste sostanze formano composti volatili (trialometani, acidi aloacetici, aloammine, e alonitrometani) che possono indurre patologie. L’esposizione a questi composti, ad esempio alla tricloroammina provoca irritazione agli occhi e all’apparato respiratorio fino a indurre una forma di asma[2].

I ricercatori canadesi, guidati dalla Prof. Xing-Fang Li,hanno messo a punto un appropriato metodo analitico per la determinazione di ACE K nell’acqua senza necessità di pre-concentrazione. In breve si tratta di cromatografia liquida ad alta prestazione (HPLC) accoppiata a spettrometria di massa tandem (MS-MS), una tecnica di riframmentazioni successive effettuate su frammenti di ioni già analizzati. Si tratta in pratica di ripetere più volte la frammentazione e l’analisi sugli stessi ioni. Sono stati analizzati 250 campioni da 31 fra piscine e idromassaggi e più di 90 campioni di acqua dai corrispondenti rubinetti di alimentazione, tutta acqua municipale di due città canadesi.

Il monitoraggio è stato effettuato nell’arco di tre settimane e i campioni sono stati tutti analizzati in triplicato.

I risultati sulle due città hanno mostrato che la quantità di ACE K riscontrata nelle piscine e idromassaggi va da 30 ng/L a 7110 ng/L, in confronto all’intervallo 6 – 15 ng/L per l’acqua dei rubinetti. Nel caso delle piscine e vasche riscaldate i valori mostrano una grande variabilità, spiegabile in base ai cicli temporali di cambio dell’acqua, al numero di utenti ed eventi, e alle pratiche di facility management. In genere, nelle piscine si aggiunge acqua dolce solo per mantenerne i livelli, mentre nelle vasche idromassaggio di strutture comunitarie l’acqua viene sostituita frequentemente per evitare problemi di salute associati con il loro più intenso utilizzo.   La variabilità nel caso dell’acqua dei rubinetti è molto minore.

Con opportuni metodi statistici i ricercatori hanno potuto ricavare un valor medio per la quantità di ACE K contenuta nelle strutture delle due città: 156 ng/L per la prima città, 210 ng/L per la seconda, valori di molto superiori a quelli dell’acqua dei rubinetti (6-15 ng/L). A questo punto, in base alla capacità delle piscine, 420000 L per la prima città, 836000 L per la seconda e utilizzando il valor medio della quantità di ACE K contenuta nell’urina umana misurata su campioni provenienti da 20 individui (2360 mg/mL), i ricercatori hanno stabilito che il volume di urina contenuta in una tipica piscina pubblica della prima città è mediamente di 30 L, mentre nella seconda si arriva a 75 litri.

Sebbene sia considerata una grave scorrettezza, il 19% degli adulti ha ammesso di aver urinato in piscina almeno una volta, ma la situazione è più preoccupante come mostrato in una recente indagine:

http://healthypools.org/files/WQHC_swimmer_hygiene_survey_results.pdf

Il metodo analitico di analisi dell’urina nelle acque utilizzato dai ricercatori canadesi presenta ottime caratteristiche: LOD = 0.5 ng/L; LOQ = 2.2 ng/L, oltre a una rapida determinazione del marker acesulfame K.

I risultati riportati in questa ricerca sottolineano la necessità di monitoraggi frequenti dell’acqua di piscine e idromassaggi ma prima di tutto sarebbe necessario un maggiore rispetto delle regole e della salute pubblica da parte degli individui[3].

Per un dettagliato approfondimento della “chimica in piscina”, si rimanda a:

Henry Arnaud, C. The chemical reactions taking place in your swimming pool. Chem. Eng. News 2016, 94, 28−32.

http://cen.acs.org/articles/94/i31/chemical-reactions-taking-place-swimming.html

[1] Acesulfame K è stato sintetizzato casualmente per la prima volta nel 1967 dal chimico tedesco Karl Clauss della allora Hoechst AG Company.

[2] Molti continuano a pensare che episodi di irritazione a occhi e gola siano imputabili al cloro o ad altri disinfettanti che lo contengono, in realtà la causa principale di questi episodi è dovuta a composti prodotti dalla reazione fra urina e cloro.

[3] La ricerca riguarda il Canada, ma è presumibile che in altri Paesi la situazione non sia molto diversa (v. link). Nel 1997 una ricerca tedesca riportò che l’escrezione di urina media per nuotatore è di 70 mL.

L’acqua, un indicatore di sostenibilità.

Luigi Campanella, ex Presidente SCI

Acqua, cultura, pace: un triangolo molto significativo. Pace vuol dire messa in comune di ricchezze e di risorse: il nostro Pianeta è nato senza barriere, senza confini. Le risorse del pianeta appartengono a tutte le Nazioni. Il pianeta Terra non conosce né le Nazioni, né i confini di proprietà degli Uomini. Esso cela, conserva ed elargisce i beni primari perché i Regni di Natura più evoluti ne possano trarre sostentamento.

E’ in questo spirito che l’Umanità deve operare con scambievole collaborazione, utilizzando le materie prime secondo il principio di equità. Fra queste risorse l’acqua è di certo la più necessaria per il nostro corpo: si può sopravvivere alla fame non alla sete.

L’acqua è una risorsa essenziale per la vita dell’uomo.Essa è fondamentale non solo per la sopravvivenza stessa, ma anche per attività quali agricoltura ed industria. Senza di essa non vi può essere sviluppo ed il mantenimento delle risorse idriche è problema molto importante. Le riserve idriche sono infatti soggette ad un deterioramento dovuto a molti fattori, tra i quali gli scarichi industriali, l’utilizzo di pesticidi in agricoltura, l’inquinamento atmosferico, riportato al suolo dalle piogge acide.

La ricchezza d’acqua non sempre significa disponibilità: in un terreno agricolo ad esempio si possono creare a seguito di ripetuti interventi sbagliati da parte dell’uomo delle condizioni assai negative a fini della trasferibilità e del trasporto dell’acqua. Sono stati messi a punto test idonei propri e finalizzati a misurare non la quantità di acqua presente, ma il grado di disponibilità.

Anche l’aspetto energetico sembra oggi cambiare. L’era dell’idrogeno, la nuova forma pulita di accumulo dell’energia ci obbliga a considerare l’acqua anche da questo punto di vista: risorsa preziosa di idrogeno. Se poi gli aspetti economici di bilancio non saranno soddisfatti, questo nulla toglie ad un’ennesima preziosità dell’acqua, essere un abbondante potenziale contenitore di idrogeno. Tra l’altro l’impiego della luce solare (in presenza di un catalizzatore) come energia estrattiva apre ulteriori spazi da percorrere.

Lo stesso ruolo che l’acqua esercita per il nostro corpo, la cultura esercita per la nostra anima e la nostra mente che sono alimentate dalla cultura, intesa in senso formativo e stimolante, conoscitivo e sociale. Traduzioni, religioni, arti di un popolo ne rappresentano la ricchezza comune, ma anche quella di ogni singolo cittadino. Queste risorse, acqua e cultura, contribuiscono alla crescita sociale ed economica, alla qualità, della vita, alla salute dei popoli ma esse stesse, se distribuite in modo iniquo, diventano strumenti di discriminazione, di dominio e di potere. La pace ne risulta compromessa.

A chi vengono tolte acqua e cultura vengono sottratte risorse di vita. Ne risulta un quadro internazionale di paesi troppo ricchi e paesi troppo poveri: allora la globalizzazione che potrebbe in senso positivo essere interpretata come messa a comune di risorse, trasferimento di tecnologie, condivisione di progresso, caduta di barriere diviene invece occasione per discriminazioni, compressioni, prepotenze.

La comunità culturale è certamente più sensibile alle discriminazioni e all’equa ripartizione delle risorse di quanto non lo sia la comunità dell’acqua, intesa come espressione della comunità economica. La pace che da questo viene spesso compromessa può essere salvata da quella: in questo senso convegni, incontri, appelli delle comunità scientifiche e culturali rappresentano preziosi strumenti in difesa della pace, dell’equilibrio sociale,del diritto alla vita ed alle sue indispensabili risorse.

 

Quaestio de aqua. Riflessioni sulla giornata mondiale dell’acqua.

Mauro Icardi.

Mercoledì 22 Marzo 2017 è la giornata mondiale dell’acqua. E di acqua è molto difficile non parlare, per motivi davvero molto evidenti. Lo abbiamo sentito ripetere da almeno due decenni. L’acqua è una risorsa che non è inesauribile come inconsciamente abbiamo sempre pensato. Il tema della corretta gestione e protezione di una risorsa vitale indispensabile, si lega a filo doppio anche ad altri problemi ambientali che ci troviamo a dover affrontare. Uno su tutti quello del riscaldamento globale che impatta notevolmente sul ciclo idrogeologico dell’acqua.
Le risorse disponibili di acqua dolce sono sottoposte a una pressione crescente, ulteriormente aggravata dagli effetti dei cambiamenti climatici. Dagli anni ’80 il tasso dei prelievi di acqua dolce è cresciuto ogni anno dell’1%. Tra il 2011 e il 2050 si prevede che la popolazione mondiale crescerà del 33%, passando da 7 a 9 miliardi di persone, mentre la domanda di beni alimentari crescerà nello stesso periodo del 70%.
Ma contestualmente secondo quanto riportato dal quinto rapporto dell’IPCC (Gruppo intergovernativo sul cambiamento climatico) circa il 7% della popolazione mondiale vedrà ridursi la disponibilità di risorsa idrica del 20% per ogni grado di innalzamento della temperatura globale.
Altri numeri sono indicativi: 750 milioni di persone nel mondo secondo l’Unicef non hanno accesso all’acqua potabile. Noi ci permettiamo di usarla anche per i servizi igienici.

Foto-giornatamondiale-dellacqua

E a proposito di servizi igienici un terzo della popolazione mondiale non vi ha accesso.
Mentre lo scorso anno il tema centrale della giornata era dedicato al legame possibile tra acqua e lavoro, la giornata del 2017 pone l’attenzione ai reflui, alle acque rilasciate dagli impianti di depurazione civili e industriali, che raggiungono i corpi idrici superficiali; gli impianti non sempre sono presenti e talvolta non funzionano efficacemente o sono insufficienti.
Per il futuro ci si propone di raggiungere “l’Obiettivo di Sviluppo Sostenibile n°6” – acqua potabile e servizi igienico-sanitari per tutti entro il 2030 – dimezzando la percentuale di acque reflue non trattate e aumentando il riciclo dell’acqua con un riuso sicuro.
In futuro, la possibile carenza d’acqua richiederà l’impiego di risorse idriche non convenzionali, come ad esempio la raccolta di acqua piovana e il riciclaggio di acque reflue e di deflusso urbano.
Tutto questo richiede ovviamente un grande sforzo. E questo deve avvenire non solo nei paesi meno sviluppati, ma anche in Italia.

Discharge_pipe

Per le inadempienze nell’attuazione della Direttiva l’Italia ha già subito due condanne da parte della Corte di Giustizia Europea, e l’avvio di una nuova procedura di infrazione.
E a questo proposito devo purtroppo constatare che quando si parla di acqua appunto, sembra che tutto si limiti al parlare e basta. E che a parlare siano i soggetti più disparati, ma che troppo spesso i tecnici e gli operatori del servizio siano i meno ascoltati.
Dopo il referendum del 2011 che ha sancito la volontà degli Italiani che l’acqua sia gestita da aziende pubbliche, tutto sembra essersi rallentato. Premesso che ho votato a favore della gestione pubblica dell’acqua, devo però constatare che spesso si sono fatte molte discussioni stancanti ed inutili, di pura lana caprina. Uno dei tabù è quello legato alla tariffa del servizio idrico. Occorre ricordare che le aziende del ciclo idrico non ricevono finanziamenti dalla fiscalità generale, ma solo dalle bollette dell’acqua e dalla tariffazione degli scarichi industriali. Altro tasto dolente è la resistenza che c’è sia da parte della politica locale, che della pubblica opinione che spesso sono contrarie a priori all’aggregazione (prevista per legge) del ciclo idrico a livello di gestione unica provinciale. Per motivi diversi (campanilismo, lotte politiche) ma che di fatto impediscono la creazione di strutture più grandi che possano essere meglio organizzate a livello tecnico ed operativo.

Sedimentprima

Sono situazioni che vivo e seguo da ormai dieci anni. E’ infatti dal 2007 che in provincia di Varese si è iniziato il processo di aggregazione. Ancora non è terminato, si attende una decisione del Consiglio di Stato a seguito di un ricorso presentato da una delle aziende del territorio.
Nel frattempo gli investimenti ormai non più differibili sono ancora fermi.
Sarebbe il caso di fare una riflessione anche su queste tematiche. L’acqua non arriva nelle case se le strutture non sono efficienti, e questo vale per acquedotti e conseguentemente si riflette sui depuratori. Quindi fermo restando che debba essere un bene pubblico e universale non è con atteggiamenti di rigidità, e qualche volta di demagogia che si migliora la situazione. Le multe europee potrebbero costarci 482 milioni di euro l’anno.
Allo stesso tempo però non è accettabile che, come dichiarato dall’allora amministratore delegato di Nestlè Peter Brabeck nel 2005 l’acqua sia “la più importante delle materie prime che abbiamo oggi nel mondo“,
ma anche che “La questione è se dovremmo privatizzare la fornitura dell’acqua comune per la popolazione. E ci sono due opinioni diverse in merito. Un’opinione, che ritengo sia estremistica, è rappresentata dalle ONG, che fanno rumore allo scopo di dichiarare l’acqua un diritto pubblico.

L’acqua deve essere e restare un diritto pubblico universale.

Per farlo nel migliore dei modi dobbiamo tutti imparare a conoscerla, a rispettarla e a non sprecarla inutilmente. Visto che il tema riguarda quest’anno la depurazione voglio citare un piccolo esempio.
Ultimamente a pochi giorni di distanza uno dall’altro, nel territorio della provincia di Varese due sfioratori di piena sono entrati in funzione, sversando liquami nei fiumi Olona e Ticino in periodo di tempo secco. Questo si è verificato a causa del fatto che le pompe di sollevamento dei liquami agli impianti di depurazione sono risultate ostruite da stracci.

sfioratore

Sarebbe bastato buttare quegli stracci nel bidone apposito, e non nel wc per evitare l’inquinamento dei due corsi d’acqua.

Io credo che, almeno nei paesi sviluppati, molte persone considerino l’acqua disponibile in maniera praticamente inesauribile, ritengano che quella potabile debba costare poco se non essere gratuita, e non si preoccupino affatto di quello che è il processo laborioso di depurazione, ogni volta che premono il pulsante di uno sciacquone. E magari sono accaniti consumatori di acqua in bottiglia, ed in questo caso non si preoccupano del fatto che un bene demaniale, un bene universale sia gestito da multinazionali private che, per sfruttare i diritti di captazione delle fonti pagano canoni di fatto irrisori e fanno su questo bene di diritto universale profitti enormi.
Non sono questi gli atteggiamenti che dobbiamo adottare. Dobbiamo pensare che l’acqua è vita. Frase che può sembrare banale, ma che invece non lo è affatto.
Un impegno di tutti a preservarla, un impegno soprattutto di chi come me nell’acqua e nel suo trattamento e gestione ha trovato il suo lavoro quello di fare informazione e di impegnare le proprie risorse e le proprie conoscenze.
Per augurare a tutti buona giornata dell’acqua credo che questo brano de “ Il Piccolo Principe” sia davvero indicato.

pozzo principe

“Buongiorno”, disse il Piccolo Principe.
“Buongiorno”, disse il mercante.
Era un mercante di pillole perfezionate che calmavano la sete. Se ne inghiottiva una alla settimana e non si sentiva più il bisogno di bere.
“Perché vendi questa roba?” disse il Piccolo Principe.
“È una grossa economia di tempo” disse il mercante. “Gli esperti hanno fatto i calcoli. Si risparmiano cinquantatré minuti alla settimana.”
“E cosa se ne fa di questi cinquantatré minuti?”
“Se ne fa ciò che si vuole…”
“Io”, disse il Piccolo Principe, “se avessi cinquantatré minuti da spendere, camminerei adagio adagio verso una fontana…”

Intercalazione e altre storie.2.

Claudio Della Volpe

Nella prima parte di questo post abbiamo introdotto il concetto di intercalazione e discusso di una delle sue applicazioni in elettrochimica, come anche delle ricadute economiche della tecnologia elettrochimica moderna.

Ma perchè parlare di accumulo elettrochimico?

Personalmente ritengo che lo sviluppo del settore accumulo energetico sia fondamentale per la crescita seria delle energie rinnovabili; è pur vero che negli ultimissimi anni quasi il 40% dell’energia elettrica italiana è stata prodotta da rinnovabili, ma di fatto l’energia elettrica è solo una parte dell’energia che consumiamo, circa 300TWh/anno contro quasi 200 Mtoe/anno (oltre 2300TWh equivalenti) di energia primaria; pur considerando che il 60% dell’elettrico è prodotto da fossile, stiamo parlando (se vogliamo abbandonare il paradigma fossile) di almeno altri 1500-1600TWh equivalenti di elettrico da estrarre da qualche altra parte; dunque per passare integralmente alle rinnovabili quanti impianti FV o eolici o idro ci servono? E dato che il loro tempo di funzionamento complessivo annuale è solo del 10-15% (per il solare) e 20-30% (per l’eolico) del totale (tecnicamente si chiama fattore di capacità) quanti impianti nominali dobbiamo avere per usarli quando c’è sole o vento ed accumularne il prodotto per il futuro uso? Risposta approssimata diciamo in media 5 volte in più. Oggi per ogni MW rinnovabile installato occorre usare una guardia equivalente di fossile, questo pochi lo dicono, ma il settore fossile si frega le mani per questo; ma in futuro dovremo farne a meno e come faremo?

La risposta è questa: dovremo avere una quantità di impianti multipla rispetto alla loro potenza nominale e una corrispondente capacità di accumulo.

Il consumo italiano di energia annua primaria totale corrisponde (spalmando banalmente i numeri precedenti in un anno) a circa 200-250GW continui, ossia moltiplicando per il fattore di capacità delle rinnovabili parliamo di circa 1 TW installato e backuppato di energia rinnovabile; avete capito bene 1000GW (oggi sono 120 compreso tutto); e tenete presente che un backup di 1 giorno corrisponderebbe a 5-6TWh. E’ una quantità enorme, che occuperà molto territorio.

Al momento il nostro paese dispone di una ridicola capacità di idroelettrico di pompaggio come segue:Se li usassimo al massimo sono 67GWh, ossia 0.067TWh; ma li sottoutilizziamo perfino come qui mostrato:Quindi 0.067TWh, contro 5-6 al giorno, necessari per il futuro: caspita, ma sono 100 volte di meno del necessario (per ogni giorno di backup)!!!

E allora?

Deve cambiare tutto. Abbiamo molti investimenti da fare, altro che piattaforme petrolifere!

Ovviamente sto trascurando cose fondamentali; parlo del risparmio energetico (risparmio!! non efficienza), parlo di altri metodi di accumulo (si può estendere l’idro? Quanto possono pesare altri metodi fisici o chimici?), parlo per esempio dell’ammodernamento del parco dei principali utilizzatori elettrici, i motori elettrici installati che sono in Italia quasi 100GW totali; pochi aggiornati alle tecnologie moderne: abbiamo già accennato a questo tema che prevede l’uso generalizzato degli inverter e dei motori in grado di usare una frequenza variabile.

La velocità di rotazione del motore è strettamente connessa con la frequenza della tensione con cui lo si alimenta. Nell’inverter la tensione alternata della rete (trifase o monofase) viene raddrizzata in corrente continua e quindi viene riconvertita in corrente alternata trifase a frequenza variabile per alimentare il motore. Una cosa del genere consentirebbe di ridurre i consumi ed esaltare la flessibilità del sistema.

Chiaro che sto approssimando. Ci sarà anche dell’altro (penso all’eolico di alta quota per esempio che teoricamente è immune dal problema discontinuità).

Qualcuno dirà: e l’idrogeno, l’idrogeno dove lo metti? Secondo me l’idrogeno è un metodo molto sopravvalutato; l’efficienza complessiva dell’idrogeno è bassa, molto bassa e dunque la strada dell’drogeno come vettore ed accumulo probabilmente non è così facilmente percorribile; ma non posso parlare di tutto in un solo post, ne riparleremo. A parte che per usare l’idrogeno ci vogliono 9 g di acqua per ogni grammo di idrogeno e non è acqua sporca o di mare. Questo è un costo nascosto e spesso trascurato in un mondo che va incontro ad un enorme cambiamento climatico che sta alterando le precipitazioni.

Tornando all’accumulo elettrochimico; è una strada possibile e ragionevole, ma ci sono da mangiare molte pagnotte; una di queste è capire bene, molto bene l’intercalazione.

L’intercalazione è oggi un argomento di avanguardia nel senso che molte ricerche sulla scienza e la tecnologia delle batterie, nel tentativo di scoprire meccanismi e metodi di accumulo energetico che ci aiutino a risolvere il problema di rendere più affidabili le energie rinnovabili, cercano di usare ed estendere l’intercalazione. Cosa hanno concluso? Continueremo questo discorso in un prossimo post.

La struttura del benzene fra chimica classica e chimica quantistica

Rinaldo Cervellati

 Quando ai chimici capita di avere a che fare con il simbolo stilizzato del benzene, con un cerchio inscritto in un esagono, quasi inevitabilmente il pensiero va agli orbitali molecolari dei sei elettroni p degli atomi di carbonio della molecola. Tuttavia questo simbolo fu introdotto a rappresentare il “sestetto aromatico” nel 1925 dai chimici britannici James W. Armit e Sir Robert Robinson[1] [1], qualche anno prima dell’interpretazione in base al concetto di risonanza di Pauling (1928) e del metodo degli orbitali molecolari di Hückel (1931).

Sir Robert Robinson

Arbit e Robinson scrivono:

il possesso di tali gruppi [elettronici] conferisce stabilità chimica come mostrato, per esempio, da una ridotta insaturazione e dalla tendenza a mantenere il tipo[chimico]. Queste sono, naturalmente, le caratteristiche principali dei sistemi benzenici, e qui la spiegazione è ovviamente che sei elettroni sono in grado di formare un gruppo che resiste alla rottura e possono essere denominati il sestetto aromatico [enfatizzato nell’originale]. Perciò:

Il cerchio nell’anello simboleggia l’opinione che sei elettroni nella molecola di benzene producono una associazione stabile che è responsabile del carattere aromatico della sostanza.[1].

Gli autori non cercano di interpretare il motivo per cui questi sei elettroni conferiscano questa particolare proprietà, essi si muovono nell’ambito della teoria di Lewis e poiché in tale teoria un legame a coppia elettronica condivisa viene rappresentato con un segmento che collega i due atomi contraenti il legame, ritengono opportuno usare un particolare simbolo per il sestetto elettronico responsabile dell’aromaticità. Al momento, scrivono Armit e Robinson, non si richiede alcuna assunzione particolare per quanto riguarda la posizione degli elettroni o delle loro orbite nello spazio.

Riprenderemo più avanti le idee di Robinson in proposito, vale tuttavia la pena ricordare che il cerchio inscritto nell’esagono cominciò a essere largamente usato nei testi e nei lavori di chimica organica solo più di venticinque anni dopo, verso la fine degli anni ’50 − inizio degli anni ’60 del secolo scorso.

L’interpretazione della geometria e della struttura della molecola del benzene fin dalla sua scoperta nel 1825 da parte di Michael Faraday[2] che lo isolò dal residuo oleoso della produzione del gas illuminante[3], chiamandolo bicarburo di idrogeno, è una storia lunga e complicata che qui viene riassunta senza pretesa di completezza. Molti altri composti con le proprietà del benzene furono scoperti in seguito, tanto che nel 1855 il chimico tedesco August Wilhelm von Hofmann (1818 – 1892) usò per essi il termine aromatici[4].

Nel 1834 fu determinata la formula minima del benzene (CH) e qualche tempo dopo la sua formula molecolare, C6H6, la prima molecola conosciuta con un numero uguale di atomi di carbonio e idrogeno. Altri fattori intrigarono i chimici del 1800 nel tentativo di attribuire al benzene una ragionevole struttura molecolare, in particolare il fatto che preferisse di gran lunga le reazioni di sostituzione a quelle di addizione e non rispondesse ai test analitici tipici delle sostanze contenenti doppi o tripli legami.

Fra il 1867 e il 1899 furono proposte diverse possibili formule di struttura, le principali sono riportate in figura 2.

I chimici di oggi, soprattutto i più giovani, possono pensare che si tratti di baggianate prive di alcun fondamento ma le cose non stanno affatto così. Se questi tentativi (che comunque cercavano di accordarsi ai fatti sperimentali) non ci fossero stati, probabilmente la rappresentazione moderna (quella “vera”?) avrebbe richiesto più tempo. Inoltre si è poi scoperto che composti reali corrispondono ad alcune di esse. Ad esempio, il diene biciclico, biciclo[2.2.0]esa-2,5-diene, sintetizzato nel 1962 è anche chiamato diene di Dewar perché ha la stessa struttura di quella che Dewar propose per il benzene. Una molecola con struttura analoga a quella di Lademburg, esiste e si chiama prismano (tetraciclo[2.2.0.02,6.03,5]esano), chiamato anche benzene di Lademburg, sintetizzato nel 1973. Infine, il benzvalene (triciclo[3.1.0.02,6]esa-3-ene), sintetizzato nel 1971, ha una struttura somigliante a quella proposta da Armstrong per il benzene, ed è a partire da esso che si è ottenuto il prismano.

Si può far risalire la prima struttura geometrica in accordo con la reattività del benzene ai lavori di Friedrich August Kekulé von Stradonitz[5] che, basandosi sull’evidenza che tutti gli atomi di carbonio nel benzene sono equivalenti ai fini della sua reattività (un solo derivato monostituito, tre isomeri disostituiti), postulò che gli atomi di carbonio fossero legati tra loro a due a due alternativamente con un singolo e un doppio legame in un anello chiuso a forma esagonale.

F.A. Kekulè

Per spiegare il fatto che questa struttura insatura rispondesse in modo negativo ai saggi di insaturazione, Kekulé avanzò l’ipotesi che i legami doppi e semplici scambiassero la loro posizione lungo l’anello con velocità tanto elevata che le reazioni caratteristiche degli alcheni non potevano avvenire. Le formule di struttura originali di Kekulé sono riportate in figura 4

Guardando la formula di struttura proposta da Thiele[6] nel 1899, si potrebbe pensare che egli abbia preceduto Robinson nel rappresentare un cerchio inscritto in un esagono ma le cose non stanno così. Nella rappresentazione di Thiele il cerchio è tratteggiato e non a caso, egli nel tentativo di giustificare la struttura di Kekulé avanzò l’ipotesi della valenza parziale in relazione ai doppi legami carbonio−carbonio. Il cerchio tratteggiato starebbe quindi a indicare queste “valenze parziali”che poco hanno a che vedere con il sestetto aromatico di Robinson.

L’aneddotica ci racconta che nel 1890 durante un convegno in suo onore per il 25° anniversario della struttura esagonale del benzene, Kekulé raccontò che 25 anni prima si era addormentato davanti al fuoco e nel sonno aveva visto un serpente che si mordeva la coda (l’ouroboro, un antico simbolo di origine egizia rappresentante un serpente o un dragone che si mangia la coda). Lo scienziato si svegliò e per tutta la notte lavorò per risolvere l’enigma della struttura ciclica esagonale del benzene.

Tuttavia la versione italiana di wikipedia (https://it.wikipedia.org/wiki/Friedrich_August_Kekul%C3%A9_von_Stradonitz)

riporta che due biochimici americani, John Wotiz e Susanna Rudofsky, nel 1984, studiando gli archivi di Kekulé conservati all’università di Darmstadt trovarono alcuni riferimenti, rispettivamente del 1854 e del 1858, a un saggio del chimico francese August Laurent (1807-1856), mai più successivamente citato dallo scienziato tedesco. In questo saggio il chimico francese proponeva già per il cloruro di benzoile una formula di struttura esagonale. Sembra quindi che quando Kekulé pubblicò la struttura esagonale del benzene ne avesse idea fin da circa dodici anni prima, ciò che non gli toglie nulla ma ridimensiona un aneddoto circolato per molto tempo.

Nonostante l’enorme importanza che ebbero nello sviluppo della strutturistica organica, le formule di Kekulé non si accordavano con le evidenze sperimentali per cui le lunghezze dei sei legami C−C dell’anello sono tutte uguali cui corrisponde un’energia di legame intermedia fra quella di un singolo e di un doppio legame. Ciò ci riporta al sestetto di Sir Robinson e alle prime interpretazioni quantomeccaniche. Come ricordato all’inizio del post, nella seconda metà degli anni venti e l’inizio anni trenta del secolo scorso nascono e iniziano a svilupparsi parallelamente due teorie con lo scopo di applicare la meccanica quantistica all’interpretazione del legame chimico: la teoria del legame di valenza (VB) e quella dell’orbitale molecolare (MO). Le due teorie si diversificano in quanto la prima si concentra sugli orbitali degli elettroni fra atomi che contraggono il legame, mentre la seconda considera l’insieme degli orbitali elettronici nella molecola. Nella teoria VB ha giocato un ruolo importante il concetto di risonanza, introdotto da Linus Pauling[7] nel 1928, come un modo di descrivere elettroni delocalizzati entro certe molecole o ioni molecolari per i quali il legame non può essere espresso con un’unica struttura di Lewis. Una molecola (o ione) con tali elettroni delocalizzati è rappresentato da più strutture (chiamate anche strutture di risonanza o strutture canoniche) che nel loro insieme contribuirebbero alla struttura della molecola (o dello ione). La struttura del benzene sarebbe quindi un ibrido di risonanza fra le due strutture di Kekulé, schematizzata come in figura 5:

le (principali) strutture canoniche essendo separate dal simbolo della freccia a doppia testa.

Sir Robinson non accettò mai la teoria della risonanza e questo suo istinto era giustificato. Gli argomenti su cui Pauling aveva basato il concetto di risonanza si rivelarono in seguito poco fondati e di natura puramente fenomenologica.

Come sappiamo oggi le due teorie (VB e MO) sono sostanzialmente equivalenti, conducendo in tutti i casi a conclusioni simili. L’unica differenza sta nel formalismo usato e nel concetto di risonanza, rivelatosi, secondo alcuni, fuorviante per i chimici organici, avendo dato luogo a numerosi errori e malintesi. Ad esempio, Hugh Longuet-Higgins[8] ebbe ad affermare che la teoria della risonanza, lungi da essere una benedizione, aveva contribuito poco all’avanzamento della chimica del 20° secolo [2]. George Willard Wheland (1907-1972), allievo di Pauling, estimatore e diffusore della teoria della risonanza però scrisse:

“la risonanza è concetto inventato dall’uomo, in un certo senso più fondamentale della maggior parte delle altre teorie fisiche. Non corrisponde ad alcuna proprietà intrinseca della molecola stessa, ma è solo uno strumento matematico deliberatamente inventato dal fisico o chimico per la propria convenienza.” [3]

Molti pensano che sarebbe opportuno eliminare i termini risonanza ed energia di risonanza, sostituendoli con delocalizzazione ed energia di delocalizzazione.

Un ulteriore episodio contribuì ad alimentare la sfiducia di Sir Robertson verso la chimica quantistica. Lord Todd e J.W. Cornforth, biografi di Robinson, così lo raccontano [2].

Nel 1931 Erich Hückel[9] pubblicò un trattamento teorico (teoria MO) sulle sostituzioni aromatiche elettrofile giungendo alla conclusione che l’effetto di gruppi elettron attrattori doveva essere orto- para direttore, mentre i gruppi elettron repulsori sarebbero stati meta direttori. Conclusioni diametralmente opposte a quelle espresse da Robinson e sostenute da Lapworth, sicché i due scrissero una nota alla rivista Nature affermando che i risultati di Hückel erano in netto contrasto con le evidenze chimiche sperimentali. Hückel replicò, più con compatimento che con rabbia, che le sue conclusioni erano una conseguenza diretta della teoria quantistica, quindi al di là di ogni critica, pertanto dovevano essere i chimici organici a trovare l’errore nei loro esperimenti. Infastidito da questa supponenza Robinson interpellò Edward Milne, famoso matematico e fisico-matematico a Oxford per chiedergli di controllare i calcoli di Huckel. Dopo aver ascoltato attentamente Robinson, Milne rispose: “Se ho ragione, Hückel ha ottenuto tutto esattamente al contrario. In tal caso è ovvio cosa è successo, ha sbagliato un segno”. Tuttavia Milne rifiutò di perdere tempo a cercare uno sbaglio di segno nei calcoli di Hückel. Per quanto lo riguardava, la cosa finiva lì, per Robinson fu anche la fine della chimica quantistica.

(L’errore fu trovato più tardi dal chimico americano George Willard Wheland, però non era così banale come aveva pensato Milne. Hückel fece una serie di assunzioni semplificative non giustificabili o scorrette. Lo sbaglio non riguarda quindi la chimica quantistica, ma il suo uso scorretto da parte di Hückel).

La sfiducia di Sir Robinson nella chimica quantistica durò fino alla fine della sua vita. A questo proposito Lord Todd e J.W. Cornforth affermano:

Il primo trattamento quantistico rappresentò invero un effettivo avanzamento rispetto al concetto originale di Robinson del sestetto elettronico, culminato nei lavori di Lennard-Jones e Coulson[10] dell’inizio anni ’40 ma ci volle diverso tempo per essere fruibile, anche a causa della mancanza di sensibilità chimica da parte di coloro che vi contribuirono. Se Robinson avesse avuto un atteggiamento diverso e si fosse impegnato a fondo nello studio dei metodi quantomeccanici e con la sua profonda conoscenza della chimica organica, probabilmente la chimica organica teorica avrebbe seguito uno sviluppo molto più rapido [2].

Comunque il simbolo dell’esagono con cerchio inscritto non ebbe subito un grande impatto nei testi di chimica organica, lo stesso Robinson non ne fece uso nel suo saggio sulla teoria elettronica dei composti organici 4]. Solo alla fine del 1950 e primi anni 1960 il simbolo finalmente fece la sua comparsa nei testi introduttivi di chimica organica, in particolare nell’edizione 1959 del conosciutissimo testo di Morrison e Boyd, dove fu utilizzato non solo per il benzene, ma anche per naftalene, antracene, fenantrene e altri aromatici policiclici [5, 6]. Ma il dibattito sull’uso del simbolo non è cessato. Ancora nei tardi anni ’90 due autori avevano idee diametralmente opposte: McMurray (1996) rifiuta di usarlo considerandolo ambiguo mentre Solomons (1992) ne fa ampio uso. Questo dibattito prosegue anche sul significato del simbolo. Alcuni vorrebbero restringerlo al sestetto aromatico del benzene, come nell’originale intenzione di Robinson, altri lo ritengono applicabile a tutti i composti che obbediscono alla regola di Huckel[11] per l’aromaticità [6].

Infine, data l’importanza del simbolo per l’anello benzenico gli sono stati assegnati due unicode uno per l’esagono con cerchio inscritto:

http://www.fileformat.info/info/unicode/char/23e3/index.htm

l’altro per l’esagono con i tre doppi legami alternati: http://www.fileformat.info/info/unicode/char/232c/index.htm

Bibliografia

[1] J. W. Amit, R. Robinson, Polynuclear Heterocyclic Aromatic Types. Part II. Some Anhydronium Bases, J. Chem. Soc., 1925, 1604-1618.

[2.] Lord Todd and J. W. Cornforth, Robert Robinson 13 September 1886 – 8 February 1975., Biogr. Mems Fell. R. Soc., 1976, 414-527.

[3] George Willard Wheland, The Theory of Resonance and Its Application to Organic Chemistry, John Wiley & Sons, New York, 1944 (1a Ed.), 1955 (2a Ed.)

[4]R. Robinson, Outline of an Electrochemical (Electronic) Theory of the Course of Organic Reactions, Institute of Chemistry: London, 1932.

[5]R. T. Morrison, R. N. Boyd, Organic Chemistry, Allyn and Bacon: Boston, 1959. Gli autori originariamente utilizzarono linee tratteggiate per il cerchio. Nelle edizioni successive queste furono sostituite da linee continue.

[6] W.B. Jensen, The Circle Symbol for Aromaticity, J. Chem. Educ., 2009, 86, 423-424.

[1] Sir Robert Robinson (1886-1975) chimico organico britannico. Premio Nobel per la Chimica 1947 per i suoi studi sui composti contenuti nelle piante: polifenoli, antociani e alcaloidi. Noto anche per alcune sintesi e per la scoperta della struttura molecolare di morfina e penicillina. A lui si deve l’introduzione delle frecce per indicare gli spostamenti elettronici nei meccanismi della chimica organica. Membro dell’Ordine al Merito del Regno Unito 1949.

[2] Michael Faraday (1791-1867), insigne fisico e chimico inglese noto sopratutto per i suoi contributi fondamentali nell’elettromagnetismo e nell’elettrochimica.

[3] Il gas illuminante (o gas di città), ampiamente usato per l’illuminazione notturna delle città prima dell’energia elettrica, veniva ottenuto per distillazione del carbon fossile (litantrace) e distribuito attraverso un complicato sistema di tubazioni. Tipicamente la miscela gassosa era costituita dal 50% di idrogeno, 35% di metano, 10% di monossido di carbonio e 5% di etilene. In alcune città, ad es. Bologna, nei pressi della Stazione Centrale è ancora in piedi l’enorme struttura cilindrica del gasometro, dove veniva immagazzinato il gas illuminante.

[4] Il termine si riferì inizialmente ai derivati del benzene che hanno in generale un odore gradevole, al contrario dei composti alifatici, successivamente fu esteso a molti composti, ad es. contenuti nelle piante anch’essi di odore gradevole. Va detto comunque che vi sono composti “aromatici” dal cui “aroma” è meglio stare alla larga…

[5] Friedrich August Kekulé von Stradonitz (1829-1896) chimico tedesco pubblicò un primo lavoro sul benzene nel 1865 in francese perché in quell’anno stava insegnando nel Belgio francofono (Kekulé, F.S,Sur la constitution des substances aromatiques., Bulletin de la Societe Chimique de Paris, 1865, 3, 98–110.). L’anno successivo pubblicò un più ampio articolo in tedesco sullo stesso argomento (Untersuchungen über aromatische Verbindungen.,  Liebigs Annalen der Chemie und Pharmacie. 1866, 137, 129–36). Nella seconda metà del XIX secolo Kekulé è stato uno dei più eminenti chimici.

[6] Friedrich Karl Johannes Thiele (1865 – 1918), chimico organico tedesco, mise a punto diversi strumenti per la sintesi organica compreso un apparecchio per la misura del punto di fusione, detto tubo di Thiele. Fra le sintesi che si devono a lui ricordiamo la condensazione di chetoni e aldeidi con ciclopentadiene come strada per ottenere fulveni.

[7] Linus Carl Pauling (1901-1994) americano, chimico, biochimico, educatore, attivista per la pace, Premio Nobel per la chimica 1954 “per le sue ricerche sulla natura del legame chimico e la sua applicazione all’elucidazione della struttura di sostanze complesse”. Oltre che della chimica quantistica è considerato anche fondatore della biologia molecolare. Nel 1962 ottenne anche il Premio Nobel per la pace “per la sua campagna contro i test nucleari”.

[8] Hugh Cristopher Longuet-Higgins (1923-2004), inglese, chimico teorico e cognitivista, ancora prima di ottenere il dottorato propose la struttura corretta per il diborano B2H6 con legame a 2centri-3elettroni fra i due anelli H2B, talvolta detto legame a banana. Fu professore di Fisica teorica a Cambridge, poi cominciò a interessarsi di intelligenza artificiale e nel 1967 si trasferì a Edimburgh dove co-fondò il Dipartimento di Intelligenza delle Macchine. Cambiò ulteriormente interesse, occupandosi di psicologia sperimentale all’università del Sussex.

[9] Erich Armand Arthur Joseph Hückel (1896-1980), chimico e fisico tedesco. Noto principalmente per lo sviluppo della teoria di Debye-Huckel per le soluzioni elettrolitiche e per il metodo di Hückel per il calcolo approssimato degli orbitali molecolari di sistemi π.

[10] Charles Alfred Coulson (1910 –1974) britannico, matematico applicativo e chimico teorico. Considerato un pioniere nell’applicazione della teoria quantistica della valenza a problemi di struttura molecolare, dinamica e reattività. Curioso il fatto che Coulson succedette a Milne come Professore di Matematica a Oxford nel 1952. Fu poi chiamato a ricoprire la cattedra di Chimica teorica, istituita nel 1972.

[11] Secondo questa regola, tra tutti i composti ciclici, quelli aromatici: (a) hanno struttura planare e atomi di carbonio ibridati sp2; (b) hanno un numero di elettroni π delocalizzati su tutto il ciclo, pari a 4n + 2, dove n è un numero intero maggiore o uguale a 0.

 

Ci risiamo….

Mauro Icardi

Dopo che i giornali nel riferire di tristi fatti di cronaca, in particolare di violenza familiare o di genere hanno confuso con allarmante regolarità e frequenza acidi e basi, definendo acido un prodotto come la soda caustica, adesso anche il quiz preserale “L’eredità” mette in mostra alcune disarmanti lacune nella conoscenza chimica di base.

Qui a fare la brutta figura sono i concorrenti, non certo gli autori del programma.
Prima di riferire l’episodio nello specifico vorrei fare un breve preambolo. I quiz sono programmi televisivi che da sempre hanno avuto un gran riscontro da parte del pubblico televisivo. Se il programma a quiz annovera autori di valore, e propone argomenti validi può diventare utile nel suo insieme.
Io personalmente ho un buon ricordo di una certa televisione del passato, ed in particolare di programmi come “Chissà chi lo sa” condotto da Febo Conti.

Pensato per ragazzi che frequentavano la scuola dell’obbligo, in generale faceva riferimento nelle domande a quiz ad argomenti presenti nei programmi scolastici.
Negli anni successivi si è assistito ad una maggior tendenza alla spettacolarizzazione, e meno alla qualità del programma e delle domande poste. La televisione generalista ha perso molto nella qualità generale della sua offerta. La concorrenza delle tv a pagamento e di Internet si è fatta sentire, la rincorsa al sensazionalismo e alle ragioni degli inserzionisti pubblicitari e agli indici di share anche. Il risultato è stato quello di una flessione nella qualità dell’offerta televisiva.
Si sono proposti programmi letteralmente inguardabili. Ricordo con sgomento la “Pupa e il secchione”, “Tamarreide” e buon ultimo a rinverdire la tradizione “Riccanza”.
Io ho di fatto smesso da molti anni di guardare programmi televisivi, ma prima di cenare mi concedo un’ora per guardare programmi come “L’eredità”, oppure nel periodo estivo “Reazione a catena” perché sono costruiti sulla risoluzione di giochi che sono derivati dall’enigmistica.
Durante lo svolgimento della puntata i concorrenti sono chiamati a rispondere anche a domande di cultura generale.
Di strafalcioni e di risposte improbabili ne ho sentite molte. Molti concorrenti faticano a collocare personaggi storici nella loro giusta epoca, anche se si tratta di personaggi del novecento. Memorabile chi ha risposto che Hitler era stato nominato cancelliere tedesco nel 1979.

eredità

Qualche giorno fa su una domanda relativa alla chimica, nella quale ai concorrenti veniva mostrata la formula bruta del saccarosio (C12H22O11) e chiesto a quale composto chimico appartenesse, venivano loro date quattro possibilità di risposta. Una ovviamente era quella esatta e poi tra quelle errate vi era sia l’acido solforico che l’ammoniaca. Inutile dire che la risposta giusta è arrivata dopo che i tre concorrenti precedenti avevano indicato quelle errate.

Onestamente faccio molta fatica a capire come chi sia stato anche solo alla scuola dell’obbligo non abbia mai sentito parlare degli zuccheri, o che non si ricordi almeno a memoria che la desinenza –osio si riferisca ad essi. Oppure non abbia mai sentito parlare di formule elementari come quelle dell’acido solforico o dell’ammoniaca. La sensazione che ho provato è di delusione e sgomento. Bastava aver seguito con un minimo di attenzione le lezioni di quelle che ai miei tempi si chiamavano osservazioni scientifiche durante gli anni della scuola media, per non incorrere in errori così grossolani e banali.

acido solforico
Sono anni che veniamo informati del fatto che in Italia cresce l’analfabetismo di ritorno, che gli Italiani mostrano da sempre una ostinata disaffezione alla lettura ed allo studio.
Episodi come questo ne sono una triste conferma. Spesso però si tende a sminuire la gravità di cose come queste (mi riferisco agli errori grossolani su domande non eccessivamente difficili nei quiz televisivi). Spesso i commenti che sento in altri programmi radiofonici o televisivi tendono a sminuirne la gravità e a mettere in campo elementi quali l’emozione. In generale percepisco quasi una elevazione dell’ignoranza a pregio e simbolo di modernità.
E allora chiudo citando le parole che Isaac Asimov scienziato, oltre che scrittore di conosciutissimi racconti di fantascienza scrisse nel 1980 in un articolo pubblicato su Newsweek.
C’è una specie di culto dell’ignoranza negli Stati Uniti e c’è sempre stato. L’anti-intellettualismo si è insinuato come una traccia costante nella nostra vita politica e culturale, alimentato dal falso concetto che democrazia significhi la mia ignoranza vale quanto la tua conoscenza
Bisogna cercare di invertire questa tendenza senza alcun dubbio o tentennamento.

Briscole, tromboni e trombette.

Claudio Della Volpe

Qualche mese fa abbiamo segnalato su questo blog le posizioni di alcune riviste e di alcuni scienziati sulla elezione di Donald Trump* alla presidenza degli USA; posizioni molto critiche.

In questi giorni abbiamo la conferma di alcuni di quegli effetti e di quelle previsioni, in parte catastrofiche.

La prima è che Trump ha cominciato a revocare la precedente dirigenza e a nominarne una nuova; in particolare ha nominato il nuovo capo dell’EPA: Scott Pruitt.

Nel corso di un’intervista condotta dall’emittente CNBC, Pruitt ha risposto a una precisa domanda sul ruolo della CO2 e in generale dell’attività umana rispetto al riscaldamento climatico

I think that measuring with precision human activity on the climate is something very challenging to do and there’s tremendous disagreement about the degree of impact, so no, I would not agree that it’s a primary contributor to the global warming that we see,” ha detto alla CNBC; “But we don’t know that yet. … We need to continue the debate and continue the review and the analysis.”

Nei fatti non c’è alcuna “mancanza di consenso”, né tantomeno “enorme”. Negli ultimi anni tutte (e sottolineo il tutte) le principali organizzazioni scientifiche hanno concordato che siano le attività umane a contribuire più di ogni altro fenomeno al surriscaldamento del pianeta, attraverso le emissioni di CO2.

La stessa pagina web dell’EPA afferma “Il diossido di carbonio è il principale gas serra che sta contribuendo al recente cambio climatico

Il punto di vista di Pruitt è agli antipodi di quello di NASA e NOAA .

The planet’s average surface temperature has risen about 2.0 degrees Fahrenheit (1.1 degrees Celsius) since the late 19th century, a change driven largely by increased carbon dioxide and other human-made emissions into the atmosphere,” hanno affermato NASA e NOAA nel gennaio 2017.

Il Sen. Brian Schatz, co-presidente della Senate Climate Action Task Force, ha violentemente criticato Pruitt per i suoi commenti definiti “extreme” and “irresponsible.”

Anyone who denies over a century’s worth of established science and basic facts is unqualified to be the administrator of the EPA. Now more than ever, the Senate needs to stand up to Scott Pruitt and his dangerous views,” ha affermato.

Come ci racconta Il Post: Pruitt ha del resto una lunga storia alle spalle di negazionismo del riscaldamento globale. Da procuratore generale dell’Oklahoma, Pruitt fece causa all’EPA per 13 volte contestando i suoi regolamenti per proteggere l’ambiente, ridurre le emissioni e regolamentare lo sversamento di sostanze pericolose nei fiumi. Nel corso degli anni, Pruitt ha inoltre ricevuto numerosi contribuiti e finanziamenti da parte delle aziende petrolifere. Secondo un articolo del New York Times, Scott Pruitt intende portare nell’EPA suoi ex collaboratori e conoscenti che negano il riscaldamento globale.

In passato Pruitt ha anche detto di essere contrario all’accordo di Parigi sul clima, il più importante e incisivo degli ultimi anni, già osteggiato dall’amministrazione Trump. Il nuovo capo dell’EPA vorrebbe inoltre rivedere le regole dell’agenzia che impongono ai produttori di veicoli di costruire motori più efficienti e meno inquinanti.

Già questo basterebbe a far capire che le preoccupazioni che avevo richiamato nel post di qualche mese fa erano ragionevoli. Ma quel che mi preoccupa ancor più sono le conseguenze di questo cambio della guardia americano sul resto del mondo visto il ruolo guida in politica che gli USA hanno sulle classi dirigenti di molti altri paesi.

In Italia abbiamo assistito al seguente episodio che coinvolge il Corriere della Sera, un giornale che sappiamo essere in prima fila nell’attaccare l’interpretazione corretta del global warming; il suo ex-direttore Paolo Mieli non le manda a dire. Ai suoi commenti ha risposto in maniera dettagliata Oca Sapiens, una delle più famose blogger italiane. Ma stavolta Mieli e gli altri giornalisti-ignoralisti (l’autrice dell’articolo in questione si chiama Serena Danna) l’hanno combinata grossa; sentite qua.

Il blog Climalteranti (a cui ogni tanto contribuisco) l’ha definita “L’infortunio della Lettura”. Infatti riguarda il supplemento La lettura publicato settimanalmente dal Corriere.

Ne trovate il testo integrale qui.

Ci racconta Climalteranti:

L’idea della giornalista, Serena Danna, non è affatto nuova: un “dibattito” alla pari fra un negazionista con poche o nulle competenze in climatologia e un esperto di clima. Ne abbiamo visti tanti in passato, anche in televisione. Essendo la quasi totalità dei climatologi certa che la terra si sia surriscaldata, dare spazio a una tesi largamente minoritaria, peraltro sostenuta da un dilettante in materia, è una cosa poco sensata. Come lo sarebbe dare spazio all’odontotecnico che straparla di vaccini. 

William Happer, definito “guida degli scettici del cambiamento climatico”, è una pedina minore del negazionismo climatico. Il termine “scettico” per Happer è scorretto sia dal punto di vista culturale che giornalistico: si tratta di un fisico nucleare senza alcuna pubblicazione sul clima, consulente di petrolieri e produttori di carbone e membro di numerose lobby statunitensi dell’energia da fonti fossili, che si è dichiarato disponibile a scrivere articoli a pagamento (250 $/ora) sui benefici della CO2 (sarebbe utile sapere se Happer ha ricevuto un compenso per questo “confronto”). La sua presentazione nella colonna informativa si conclude con “negli ultimi anni il suo lavoro si è concentrato sui dubbi relativi al riscaldamento globale e ai danni della CO2”, senza precisare che si è trattato di un “lavoro” da opinionista, senza alcuna pubblicazione scientifica a supporto.

Nell’intervista pubblicata da “La Lettura” del 26 febbraio 2017, intitolata “Credetemi, il clima non è surriscaldato”, William Happer ha rispolverato molti dei miti del negazionismo climatico, da tempo confutati dalle evidenze scientifiche disponibili. Come spiegato nel precedente post, nell’articolo dell’inserto culturale del Corriere della Sera (qui il testo) è stato proposto un finto confronto fra il fisico William Happer e il climatologo Mark Cane (raggiunto via mail, Cane ha dichiarato di non essere al corrente della presenza di un interlocutore nell’articolo, com’è raccontato qui). Molte delle affermazioni di Happer non sono state confutate nell’articolo, che ha anzi dato pari dignità, e più spazio e visibilità complessiva, alle sue opinioni rispetto a quelle del climatologo Cane.

Sarebbe difficile confutare punto per punto qui le affermazioni di Happer, per cui vi rimando per una confutazione puntuale delle ridicole posizioni di Happer a questo post a cui ho anche un po’ contribuito.

Ma la cosa grave rimane: uno dei principali giornali italiani ha “costruito” un falso confronto fra le posizioni pro e contro il GW disinformando nel merito i suoi lettori e addirittura tenendo non informato almeno uno dei suoi intervistati di cui ha confuso volutamente il ruolo scientifico : uno esperto di lunga data definito un ambientalista, e un non–esperto lobbista a pagamento per Big Oil, definito come la guida degli scienziati scettici. Non solo.

Leggendo l’articolo del Corrierone-La Lettura si ha l’impressione che i due discutano tra di loro, ma in effetti non sanno nemmeno di farlo, come scritto da Cane (si veda l’ultima parte di questo link); le loro frasi sono semplicemente giustapposte dall’autrice secondo il proprio intendimento e non si capisce se quelle frasi siano risposte a precise domande o meno. E questo spiegherebbe anche perché le frasi citate di Cane a volte appaiano del tutto fuori tema. Ma è questo un modo di fare informazione o disinformazione? Non sembra il massimo della correttezza dott. Fontana(direttore del Corriere), dott. Troiano (direttore de La Lettura), dott. Mieli (attualmente redattore) e dott. Danna (autrice dell’articolo)!

*Il titolo del post viene dal significato della parola inglese trump: briscola; il resto potete immaginarlo da soli.

Link utili:

https://www.desmogblog.com/william-happer

http://ocasapiens-dweb.blogautore.repubblica.it/2017/03/05/californexit/

http://www.climalteranti.it/2017/02/27/linfortunio-de-la-lettura/

Il colore giallo.

Luigi Campanella, ex Presidente SCI.

Colori a base di sostanze minerali sono stati utilizzati sin dalla preistoria: gesso, ocra, nelle varie gradazioni dal rosso chiaro al giallo chiaro; neri ricavati da biossido di manganese o da carbone di legna, sono stati utilizzati per le pitture rupestri del paleolitico superiore, più raramente terre verdi e ossido di manganese marrone, ed eccezionalmente anche violetto di manganese.

A partire dal neolitico si amplia la gamma di minerali utilizzati per la pittura e la ceramica, e si creano vari coloranti a base vegetale o animale per la tintura di tessuti, quali il rosso di robbia, il blu indaco, il blu di guado, il giallo di reseda. Con lo sviluppo della tecnica metallurgica diventano inoltre disponibili nuovi composti metallici, come ossido salino e carbonato basico di piombo, antimoniato di piombo.

Gli Egizi sono stati il primo popolo a dedicare un particolare impegno nella preparazione di colori per la pittura. La “fritta Egizia” o “blu Egizio”, ottenuto per cottura in forno a 800-900o di una precisa miscela di calce, ossido di rame e quarzo, e successiva macinazione, partendo da minerali come calcare, malachite e sabbia, è il più antico pigmento di sintesi. Altro pigmento di sintesi è l’antimoniato di piombo, dal Seicento noto come giallo di Napoli, prodotto come ossido o carbonato di piombo e ossido d’antimonio, ottenuti mediante trasformazioni di minerali.

Alcuni pigmenti prodotti (inventati?) circa 4000-5000 anni fa sono rimasti dei colori fondamentali fino al 1700-1800. Per esempio la biacca rappresenta fino alla fine del 1800 un pigmento fondamentale della pittura.

Unico documento rimasto della pittura greca: La Tomba del Tuffatore a Paestum (480-470 a.C.)

Dell’epoca greca non sono rimasti documenti diretti dell’arte pittorica, ma solo ampie descrizioni (a parte la tomba del tuffatore e i dipinti su vaso).

In epoca romana, soprattutto a partire dall’epoca imperiale era disponibile una gamma sufficientemente ampia di pigmenti. Quelli più apprezzati erano il minio e il cinabro, estratti minerali che mescolati a ocre davano differenti toni di rosso, come quelli delle pareti pompeiane; il blu, il porpora, il verde estratto da una preziosa lega di rame e stagno utilizzata per produrre un bronzo dorato, il crisocalco; il giallo oro, il nero, il bianco, per il quale si utilizzavano almeno tre varianti di creta, distinguendo tra bianco brillante e bianco opaco. Si producevano anche colori splendidi, luminosi e resistenti, a partire da sostanze organiche, come il rosso porpora, che si ricava dalla secrezione di un gasteropodo del genere Murex, e un blu superbo, denominato vitrum, ottenuto dal guado, che si affiancava all’indaco e all’azzurrite, minerale composto di carbonato basico di rame. Anche i pigmenti gialli erano disponibili sin dall’antichità in molte varietà e in genere stabili e resistenti. Tra questi, terre gialle, solfuri come l’orpimento e il realgar, l’antimoniato di piombo e il giallo di reseda, un pigmento vegetale utile sia in tintoria che in pittura.

I pigmenti utilizzati nel Medioevo sono quelli ereditati dall’antichità. Minio e cinabro sono i due colori base del primo Medioevo (basti pensare alle miniature), insieme alla lamina d’oro, ottenuta semplicemente per battitura delle monete. Un importante nuovo pigmento è il blu oltremare prodotto dal blu lapislazzuli, importato dal lontano Afganistan, che si aggiunge all’azzurrite; da questa si sono ottenute diverse tonalità utilizzando differenti gradi di macinazione. I pittori medioevali fecero anche largo uso di sostanze organiche: tinture blu indaco e blu di guado cui aggiunsero il tornasole, oltre alla lacca di chermes, o cremisi, e alla lacca rossa del brasile.

Dal XI al XIV secolo la pratica della pittura passa dai monasteri alla città ed inizia l’attività professionale dei pittori, passando con Giovanni Bellini e con Tiziano, dalla tempera alla pittura a olio. I pittori erano costretti per dare luminosità ad aggiungervi biacca, divenuto segno rivelatore del passaggio dal colore medioevale a quello moderno. Ancora alla fine del Rinascimento i pittori preparavano direttamente nelle loro botteghe i propri pigmenti; così ai materiali di base si aggiungevano tutta una serie di materie come leganti e cariche.

I colori primari per il pittore sono il rosso (rosso-magenta), il blu (il blu-ciano) e il giallo. Ogni popolo in ogni tempo ha attribuito ai colori significati simbolici diversi e i nomi dati alle tinte variano da una cultura all’altra. Come racconta Manlio Brisantin, studioso dei colori, oggi il giallo affascina pittori, musicisti, stilisti, pubblicitari, consumatori, per la sua natura calda, luminosa, positiva. Ma non è sempre stato così. Nel passato il giallo è stato spesso associato a caratteristiche negative: era il colore della menzogna, del tradimento, della malattia, della follia.

Colore primario e perciò base di innumerevoli sfumature di colore, il giallo era uno dei colori prediletti dagli impressionisti, da Matisse e Gauguin, dai Fauves e dai rappresentanti dell’arte astratta come Mirò,che generalmente alla ricerca di colori vivi e contrari in buona parte a miscugli fra colori hanno trovato nel giallo le due caratteristiche cercate, colore caldo e preimario (insieme al rosso ed all’azzurro). Kandinskij nel suo “Lo spirituale è nell’arte” associa il giallo al triangolo, al misticismo e allo spirituale: colore dell’oro, del sole, del grano, del pane fragrante, dell’elevazione.

Orpimento giallo allo stato di minerale

Questo colore così pieno di significati, nasconde altri segreti che riguardano il mistero della sua composizione e produzione sin dall’antichità. Cennini lo definisce colore “artificiato” per poi ribadire, tuttavia, la sua provenienza non alchemica. Con il progredire della scienza moderna, questo colore divenne il centro di un dibattito sempre più appassionato che investì persino la prestigiosissima Acadèmie Royale des Sciences de Paris, dove vi si dedicano ancora oggi incontri enciclopedici, intrecciando la passione per settori culturali della conoscenza naturale all’attenzione per altri più coinvolti negli interessi economici dell’industria,come dimostrato dalle aree di studio più sviluppate nell’accademia,che vanno dalla biologia alla biofisica,dalla metrologia alla geodesia. Giallo di bario, giallo di cadmio, giallo di cobalto, giallo di cromo, giallo di marte, giallo di napoli, giallo di piombo-stagno, giallo di smalto, giallo di spincervino, giallo di stronzio, giallo di titanio, giallo di zinco, giallo indiano, giallo minerale, gomma gutta, lacca gialla, litargirio, massicot, ocra gialla, oro, oro musivo. orpimento, terra di siena naturale, terra d’ombra naturale, zafferano, sono i nomi dei pigmenti gialli più noti.

Nel XX secolo l’uso del colore deve essere messo in relazione soprattutto a Matisse (quello della forma probabilmente a Cezanne): colori basati sulla gioia indotta dalle tinte cobalto,cromo e cadmio della chimica del secolo prima.

Ulivi con cielo giallo e Sole di Vincent Van Gogh. 1889. SI trova in un museo di Minneapolis (USA)

La pittura acrilica, una tecnica nuova pittorica, è nata in epoca relativamente recente. Le prime ricerche ed i primi esperimenticon emulsioni sintetiche iniziarono intorno agli anni ventida parte di pittori messicani come Orozco, Rivera e Siqueiros,la cui esigenza era quella di avere colori con le caratteristiche di praticità come quelli ad olio,duttilità come quelli a tempera, trasparenza come l’acquarello e resistenza agli agenti atmosferici come l’affresco. Le vernici sono prodotte con polveri colorate (pigmenti) mischiate con una resina acrilica (quasi esclusivamente di origine chetonica) di essicazione variabile, generalmente veloce, a seconda delle resine, dei pigmenti e della fabbrica produttrice. Presentano vantaggi e difetti, ma hanno una caratteristica importante:a differenza delle tradizionali tempere, sono indissolubili una volta asciutti.

I colori acrilici sono tranquillamente mescolabili fra loro e come diluente è preferibile semplice acqua, utilizzabile anche per cancellare, prima dell’asciugatura, parti di colore. Alcuni tipi di colori acrilici sono sensibili alla luce che li fa schiarire, tipo i colori rosso-violacei e blu-violacei, perché creati con pigmenti derivati da composti chimici organici fotosensibili, a questo fenomeno si ovvia con una lacca di resina acrilica con filtro UV che protegge tali colori.

Per gli altri colori non c’è bisogno di fissativo perché la resina acrilica che li compone li fa resistere alla luce e agli agenti atmosferici, smog compreso. Si comprende allora l’importanza della scelta dei sistemi di illuminazione focali e generali all’interno dei musei e delle gallerie d’arte,in quanto da essa può dipendere la salvaguardia di opere d’arte pittoriche