Informazioni su devoldev

chemist, university researcher, marxian, peakoiler,climate worried, bridge player, Mozart/Vivaldi loving, pedal biker

Il chimico e l’intelligenza, un ricordo di H. Christopher Longuet-Higgins

In evidenza

Claudio Della Volpe

Quasi tutti i chimici sanno che c’è stato un famoso musicista che era anche chimico; beh in effetti egli si riteneva un chimico, e fu anche famoso, a contatto con i grandi chimici della sua epoca, ma coltivava la musica come passione. Poi la storia ha deciso che Borodin è stato prima una grande musicista (autore delle Danze Poloviciane e del Principe Igor) e poi un chimico analitico che si occupò delle reazioni delle aldeidi.
Ma oggi voglio parlarvi invece di un altro chimico di cui avete sentito certamente parlare almeno per una delle sue scoperte avvenute addirittura prima della laurea e che al colmo della sua carriera di chimico e fisico teorico abbandonò la chimica per dedicarsi alle “scienze cognitive”, alla musica ed alla percezione visiva, alle applicazioni della nascente intelligenza artificiale al tema della composizione musicale e della visione, un chimico che pubblicò, su riviste famose, sia di argomenti chimici che musicali e percettivi.
Sto parlando di Hugh Christopher Longuet-Higgins. La sua vita e la sua attività scientifica porterebbero a intitolare questo breve ricordo: l’intelligenza di un chimico, visto il carattere poliedrico e profondo delle sue ricerche.
Christopher nacque nella parrocchia di Lenham, nel Kent, secondo dei tre figli di un parroco. La sua famiglia era di origini ugonotte (i protestanti francesi). In realtà fu poi ateo per il resto della vita. Studiò alla Pilgrims’ School e quindi al Winchester College di Winchester.Si trattava di un ambiente prestigioso come attestano i nomi di parecchi dei suoi compagni di studi: Freeman Dyson e Michael Dewar fra gli altri. Insieme con Dyson costruì modelli dei poliedri. Vinse il premio per la matematica nel 1941 in forte concorrenza con Dyson.

Nel 1941 vinse anche una borsa di studio per il Balliol College di Oxford. Seguì il corso di chimica, ma fece anche esami di musica e fu organista al Balliol. Ebbe come insegnante di chimica Ronnie Bell con il quale pubblicò, ancora studente, il lavoro di chimica per cui è più famoso proponendo la struttura corretta del diborano, un composto chimico la cui struttura non era interpretabile con il modello allora in uso del legame di valenza. Si era nel 1943, in piena II guerra mondiale.

Il legame a tre centri (e 2 elettroni), come viene definito, è divenuto un classico della chimica; c’è da dire che la struttura adgeuata (ma senza le finezze della meccanica quantistica) era stata già proposta nel 1921 (W. Dilthey, Über die Konstitution des Wassers, in Angew. Chem., vol. 34, nº 95, 1921, p. 596, DOI:10.1002/ange.19210349509. ma questo sarà un altro post.)Iniziò il PhD e lo completò all’Università di Oxford sotto la supervisione di Charles Coulson, il celeberrimo autore di “Valence bond”. Coulson era un cristiano metodista, mentre Longuet-Higgins era ateo; ne seguirono dibattiti pubblici sul tema della religione cui entrambi parteciparono su sponde opposte. Seguì un’attività di post-dottorato all’Università di Chicago e all’Università di Manchester.

Nel 1947 Longuet-Higgins sviluppò la teoria degli orbitali delle molecole organiche coniugate ottenendo teoricamente risultati che erano stati conosciuti sperimentalmente già da molti decenni. Mostrò come le proprietà dei sistemi coniugati possono essere derivate combinando nella trattazione degli orbitali molecolari il comportamento degli orbitali di non legame. Formulò una teoria che descriveva le proprietà termodinamiche delle miscele che più tardi estese alle soluzioni di polimeri. Fece anche ricerche sulle proprietà ottiche delle molecole ad elica e sui loro spettri elettronici.

Nel 1952 fu nominato professore di fisica teorica al King’s College di Londra; nel 1954 diventò professore di chimica teorica all’Università di Cambridge e membro del Corpus Christi College (Cambridge). In questo periodo diede importanti contributi alla chimica teorica.
Dal 1954, usò tecniche matematiche per predire comportamenti chimici. Per esempio nel 1962 previde che il ciclobutadiene (che non era ancora stato sintetizzato) sarebbe potuto esistere come legando di un atomo di un metallo di transizione; tre anni più tardi, nel 1965, per la prima volta questo composto fu sintetizzato da Rowland Pettit della University of Texas, sebbene egli non riuscisse a isolarlo.
Applicò la teoria dei gruppi per definire gli elementi di simmetria delle molecole non rigide, come nel caso dell’idrazina (N2H4) e così fu capace di classificare i singoli livelli quantici della molecola.
All’inizio degli anni 70 maturò un cambiamento radicale della sua vita. Da affermato chimico teorico si trasformò in un esploratore dell’intelligenza aritificiale e delle sue applicazioni alle arti umane: musica e immagine. Egli era probabilmente arrivato a questo salto sulla base della sua esperienza come utente dei computer dell’epoca; tuttavia non ci considerò mai un ricercatore di AI ma piuttosto di “scienza cognitiva” , un termine che inventò lui stesso, intendendo che si occupava di come l’uomo guarda all’Universo atttorno a lui.
Si spostò prima all’Università di Edinburgo e poi, insieme ad altri scienziati nel 1974, fondò il Centro per le ricerche su Percezione e Cognizione alla Università del Sussex, Brighton. Qui sotto due dei lavori che pubblicò su Nature su temi di scienza cognitiva, sia di musica che di visione.

I suoi contributi al problema della rappresentazione tridimensionale nella visione sono ormai un fatto acquisito in tutte le applicazioni.

In particolare nell’articolo sulla visione egli introduce “il metodo degli otto punti” che serve a ricostruire un oggetto da una sua visione binoculare, dunque una rappresentazione del processo che il nostro cervello compie effettivamente.

Una breve rappresentazione del suo punto di vista sui temi musicaliLonguet-Higgins (1979): —

You’re browsing, let us imagine, in a music shop, and come across a box of faded pianola rolls. One of them bears an illegible title, and you unroll the first foot or two, to see if you can recognize the work from the pattern of holes in the paper. Are there four beats in the bar, or only three? Does the piece begin on the tonic, or some other note? Eventually you decide that the only way of finding out is to buy the roll, take it home, and play it on the pianola. Within seconds your ears have told you what your eyes were quite unable to make out—that you are now the proud possessor of a piano arrangement of “Colonel Bogey“.

Andò in pensione nel 1988 e morì nel 2004. Costituisce un esempio raro di scienziato abile sia nei temi puramente naturalistici che umanistici e di una capacità e visione culturale amplissima, come è difficile trovare oggi attorno a noi. Ai miei occhi il fatto che se ne parli poco è segno della povertà culturale dei nostri tempi, mascherata dalla parossistica preoccupazione per il numero delle pubblicazioni.

Referenze e testi consultati.

https://en.wikipedia.org/wiki/Christopher_Longuet-Higgins   dove si trova anche una lista pressocché completa di lavori; una lista sicuramente completa è su: https://royalsocietypublishing.org/doi/10.1098/rsbm.2006.0012

Gregory, R. L.; Murrell, J. N. (2006). “Hugh Christopher Longuet-Higgins. 11 April 1923 — 27 March 2004: Elected FRS 1958”. Biographical Memoirs of Fellows of the Royal Society. 52: 149–166. doi:10.1098/rsbm.2006.0012.

http://www.quantum-chemistry-history.com/Lo-Hi2Ue.htm

Longuet-Higgins, H. C.; Bell, R. P. (1943). “64. The Structure of the Boron Hydrides”. Journal of the Chemical Society (Resumed). 1943: 250–255. doi:10.1039/JR9430000250.

 Longuet-Higgins, Hugh Christopher (1947). Some problems in theoretical chemistry by the method of molecular orbitals. bodleian.ox.ac.uk (DPhil thesis). University of Oxford.

  Venn Cambridge University database Archived 14 June 2010 at the Wayback Machine

  H. C. Longuet Higgins; U. Öpik; M. H. L. Pryce; R. A. Sack (1958). “Studies of the Jahn-Teller effect .II. The dynamical problem”. Proc. R. Soc. A. 244 (1236): 1–16. Bibcode:1958RSPSA.244….1L. doi:10.1098/rspa.1958.0022.See page 12

  Longuet-Higgins, H. C.; Abrahamson, E. W. (1965). “The Electronic Mechanism of Electrocyclic Reactions”. Journal of the American Chemical Society. 87 (9): 2045. doi:10.1021/ja01087a033.

 Longuet-Higgins, H.C. (1963). “The symmetry groups of non-rigid molecules”. Molecular Physics. 6 (5): 445–460. Bibcode:1963MolPh…6..445L. doi:10.1080/00268976300100501.

Longuet-Higgins, H. C. (1981). “A computer algorithm for reconstructing a scene from two projections”. Nature. 293 (5828): 133–135. Bibcode:1981Natur.293..133L. doi:10.1038/293133a0.

I cicli biogeochimici degli elementi.

In evidenza

Claudio Della Volpe

L’idea di quest’anno di pubblicare post sugli elementi della tavola periodica sta avendo un certo successo; tuttavia devo dire che pochi di coloro che hanno contribuito hanno accettato lo spirito del mio invito completamente e in particolare una cosa che nella mia proposta era basilare: riportare per ogni elemento il ciclo biogeochimico e l’impatto del ciclo industriale su quello naturale.

E’ un argomento che mi affascina e che non è molto conosciuto né presente in letteratura e che fra l’altro ha a che fare col titolo e il soggetto del nostro blog; tutti conoscono i cicli degli elementi “maggiori” i cosiddetti “grandi nutrienti”, come il carbonio, l’azoto, il fosforo, l’ossigeno o lo zolfo casomai ma si fermano qua. Invece i cicli biogeochimici sono presenti per tutti gli elementi; come ho scritto recentemente (C&I 2019 n. 3) i cicli biogeochimici possono essere visti come parte degli ipercicli su cui Manfred Eigen (premio Nobel per la chimica nel 1967) ha basato la sua visione della vita; i cicli biogeochimici come volano degli ipercicli biologici e nel medesimo tempo come dissipatori del flusso di energia libera che dal Sole si scarica sulla Terra in ragione di decine di migliaia di terawatt.

Come scrisse nel suo libro Weather Prediction by Numerical Process (p 66) il fisico Lewis Fry Richardson

Big whirls have little whirls that feed on their velocity,

and little whirls have lesser whirls and so on to viscosity.

Grandi vortici hanno vortici più piccoli che si nutrono della loro velocità,

                        e piccoli vortici hanno vortici più piccoli e così via fino alla viscosità.

https://svs.gsfc.nasa.gov/vis/a000000/a003800/a003827/

Lo stesso meccanismo di degradazione dell’energia libera che funziona nei fluidi funziona dappertutto: “vortici han vortici più piccoli”.

Sembra una frase leonardesca: esprime qua come il flusso di energia solare si articola non solo sul piano meccanico dai grandi venti che coprono costantemente grandi zone di superficie ai piccoli venti regolari come l’Ora del Garda, dalle grandi correnti oceaniche alle onde che vi bagnano l’ombrellone, ma anche dai grandi cicli degli elementi ai processi chimici dentro la cellula vivente; la cascata dissipativa prosegue costantemente da quando la Terra esiste.

Il flusso dal Sole è di circa 174.000 terawatt (122.000 dopo albedo), ma quello netto che la macchina termodinamica terrestre, il sistema della biosfera, il Sistema Terra considerato come una macchina termica accoglie ed usa trasformandolo in “lavoro ordinato”, strutture è molto più basso, circa 6000 terawatt, come ho provato a calcolare in un post precedente).

In questa ottica l’economia umana è il metabolismo della nostra particolare specie; l’economia non è solo costrutto storicamente determinato, ma parte da una base biofisica, è ecological economics, come scriveva già tanti anni fa Enzo Tiezzi, una delle menti chimiche italiane più brillanti a cui va il mio grato ricordo sempre. E questo purtroppo nessun economista del Sole-24 ore lo capisce. E anche parecchi colleghi fanno spallucce!

Questo metabolismo ha inglobato i metalli facendo partire l’epoca che chiamiamo preistorica già oltre 7000 anni fa con il cosiddetto calcolitico, l’età del rame; dunque prima le rocce e la pietra, da sempre, godendo del lascito delle razze umane che ci hanno preceduto e affiancato, poi il carbonio, l’azoto e il fosforo con la scoperta dell’agricoltura circa 10-12000 anni fa e poi il rame, il bronzo, il ferro e così via.

Il nostro metabolismo sociale è stato questo.

A proposito dell’economia scriveva un filosofo ottocentesco:

«il lavoro non è la fonte di ogni ricchezza. La natura è la fonte dei valori d’uso (…) altrettanto quanto il lavoro»…..“dal punto di vista di una più elevata formazione economica della società, la proprietà privata del globo terrestre da parte di singoli individui apparirà così assurda come la proprietà privata di un uomo da parte di un altro uomo». “I beneficiari dei frutti della terra, infatti, sono soltanto «i suoi usufruttuari – e hanno il dovere di tramandarla migliorata, come boni patres familias, alle generazioni successive».

Appunto, la Natura! Come stanno le cose?

In un bel lavoro del 2009 (GLOBAL BIOGEOCHEMICAL CYCLES, VOL. 23, GB2001, doi:10.1029/2008GB003376, 2009) gli autori scrivono:

Sebbene i metalli servano come “nutrienti tecnologici” senza i quali la società moderna non può funzionare, essi non hanno ricevuto la stessa attenzione su scala globale dei “grandi nutrienti” C, N, S e P. Solo il ciclo globale completo del rame, comprendente sia i depositi che i flussi sia naturali che antropogenici è stato ricostruito quantitativamente [Rauch and Graedel, 2007]. (si tratta di un lavoro che è stato citato in un post precedente dedicato al rame)

Il lavoro è dotato di magnifiche tavole di cui vi riporto un esempio:

Il ciclo globale del Nickel:

E conclude con alcune considerazioni estremamente importanti ma non del tutto nuove per i lettori di questo blog:

La dimensione crescente della riserva in uso ha anche ripercussioni sul futuro delle sorgenti della risorsa metallica, poiché più metallo sarà ragionevolmente estratto dalle discariche dello stock in uso adesso attraverso il riciclo. Questo recupero non necessariamente ridurrà la pressione sulla estrazione del metallo da minerale, perché la maggior parte dei depositi metallici rimane molto concentrato rispetto agli stock in uso ed il minerale è necessario per i crescenti livelli di consumo e per compensare per le perdite del riciclo. Comunque , la stabilizzazione della popolazione mondiale ragionevolmente costituirà il primo passo per equilibrare il ciclo metallico mondiale. Enfasi dovrà essere messa sulla comprensione della quantità, la forma, e la distribuzione spaziale degli stock di metalli in uso poiché questa riserva diventerà importante in modo crescente come risorsa metallica cui attingere.

I nostri risultati complessivi indicano che l’azione dell’umanità è diventata un agente geomorfico (NdT relativo cioè alla morfologia della superficie terrestre) significativo attraverso la mobilizzazione dei metalli.

Flussi totali naturali ed antropogenici al presente esistono al medesimo ordine di grandezza per tutti i metalli investigati.

Il più grande movimento di masse nel sistema naturale (produzione crostale e subduzione, erosione dei sedimenti e loro denudazione, e deposizione oceanica) eccede di un ordine di grandezza o più il maggiore movimento di masse antropogenico (estrazione mineraria, produzione metallica e consumo del metallo) solo per Al e Fe. D’altronde Cu è l’unico metallo per il quale il flusso antropogenico eccede quello naturale per un ordine di grandezza o più.

Questa equivalenza degli ordini di grandezza si paragona bene con quello dei “grandi nutrienti”, dove la mobilizzazione del C da parte di attività umane è meno di un’ordine di grandezza rispetto a quello naturale, N e S sono approssimativamente gli stessi, mentre la mobilizzazione del P eccede quella naturale per più di mezzo ordine di grandezza. Queste perturbazioni dei cicli naturali globali dei metalli risultano nella riallocazione delle masse di metalli dai sedimenti superficiali ai margini continentali e dalle masse di minerali agli stock di metalli in uso.

Questo è l’Antropocene! I nostri “cicli”  (che sono “aperti”, non sono cicli ) dominano la situazione e questo sconvolge la biosfera; dobbiamo dedicare maggiore atttenzione a questi processi e cercare quanto più possibile di chiuderli come la Natura ha sempre fatto; non esistono discariche planetarie di metalli e rischiamo dunque di  trasformare la Terra in una pattumiera. Il primo passo è studiare e conoscere la situazione, per poterla adeguatamente trasformare. Ecco perché inserire il ciclo biogeochimico nei post sugli elementi è importante.

Voi che ne dite?

I modelli sconfitti. 2.

In evidenza

Claudio Della Volpe.

(la prima parte del post è qui)

Stiamo raccontando la storia dei modelli atomici del primo novecento e siamo arrivati a questo punto ad una proposta di atomo che incomincia ad avere caratteri rivoluzionari; il prossimo modello è intitolato a G. A. Schott(8).

Schott è stato un vero e proprio “maestro” della teoria elettromagnetica, un conoscitore tecnicamente approfondito delle equazioni di Maxwell e degli effetti che dipendono dal movimento delle cariche.

Ha tentato fino alla sua morte nel 1937 di opporsi alla teoria quantistica della materia cercando di sviluppare un approccio classico che tenesse fede ai necessari impegno sperimentali.

Anche se la teoria quantistica di Planck è del 1900 il primo attacco alla teoria classica per quanto riguarda la struttura atomica è solo del 1913, col modello planetario di Bohr, in cui si realizzano due punti di vista estremi: orbite elettroniche prive di emissione radiativa ed una espressione quantizzata per i salti energetici.

Schott è stato l’estremo campione della teoria classica della fisica; ha basato la sua difesa su una teoria “ad hoc” ma non priva di stimoli che riprenderemo appena dopo.

In particolare egli sostiene che la soluzione può venire da una struttura interna dell’elettrone che preveda che l’elettrone non sia una particella puntiforme e che esso invece si espanda sia pur a velocità bassa. E’ un’idea che riprende quella di Jeans dell'”elettrone strutturato”. Questa proposta contrasterebbe con la conservazione dell’energia e dunque l’autore è costretto a considerare uno stress interno all’elettrone causato dalla pressione esercitata dall’etere. Infine Schott propone sulla base di alcuni calcoli che questo fenomeno di interazione fra etere e elettrone sia all’origine della gravità.

La sua teoria non riesce comunque a riprodurre la relazione di Rydberg, ma getta le basi di un’idea interessante per spiegare il comportamento non-radiativo del sistema atomico: la espansione dell’elettrone, vedremo fra un momento.

Risale al 1910 il modello dell’archione, di J. Stark.(9)

Ancora una volta vediamo che la lingua può giocare un ruolo essenziale nella divulgazione delle teorie; questo è un lavoro in tedesco dunque meno accessibile sia allora che oggi allo scienziato medio. In questo originale lavoro non sufficientemente celebrato si introduce di fatto l’idea del protone, che viene chiamato “archione”.

As was determined, a chemical atom can contain several positive quanta, separable from each other, with which a mass is connected on the order of that of the hydrogen atom; we may not exclude after the current conditions of our experience the possibility that this also for the smallest chemical atom, which applies for hydrogen atom. As Archion we define now the individual which possesses an electrical charge equal that of the positive elementary quantity and whose mass afflicted with this charge cannot be made smaller, without the individual destroyed as such too. The designation positive quantity is to only characterize the size of the electrical charge, not those with it linked mass. The word Archion is, similar to the word electron, the statement about the charge and that statement about the minimum mass connected with the charge association towards.

Secondo l’idea di Stark l’archione possiede un momento dipolare magnetico, che consentirebbe all’archione di legarsi testa coda con un altro archione, allineandosi per formare un circolo chiuso che darebbe forma e struttura all’atomo come tale. La relativa debolezza dell’attrazione magnetica fra archioni sarebbe aiutata dalla opportuna presenza di elettroni che diminuirebbero la repulsione fra archioni. Ancora una volta questa proposta non risponde all’esigenza di prevedere la formula di Rydberg.

A questo punto nel medesimo 1910 viene pubblicato un articolo da parte di Ehrenfest che segna un punto a favore della meccanica classica ed anche un seme per il futuro problema della creazione di materiali per l’invisibilità, oggi si direbbe metamateriali per l’invisibilità. Solita sfiga , è in tedesco, ma rimedio mettendo l’immagine qua, non si sa mai qualche volenteroso……Questo articolo (10) non ebbe assolutamente il peso e l’impatto che avrebbe meritato.

Uno dei problemi fondamentali, abbiamo visto è quello della stabilità del modello atomico, e la domanda che ci si pone è: ma esiste nell’ambito della teoria di Maxwell un modo per evitare che un sistema di cariche in movimento accelerato emetta una radiazione elettromagnetica e dunque che la sua energia diminuisca? Si può passare ad una visione che impedisca di ricorrere a scelte radicali, ossia la MQ?

La traduzione grossolana del titolo sarebbe: “Movimenti elettrici senza radiazione elettromagnetica”, oggi si direbbe radiationless o nonradiating sources (potenza dell’inglese altro che impronunciabile ungleichformige!!!!!).

In questo brevissimo testo di una sola pagina (una modalità veramente wittgensteiniana) l’intuizione geniale di Ehrenfest è che possono esistere distribuzioni di cariche in accelerazione che non emettono radiazione. Una la vedete rappresentata nel piccolo filmino (in inglese gif) qua sotto (cliccate su quella che sembra una riga), una lamina infinita piana con densità di carica omogenea che accelera verticalmente, cioè perpendicolarmente a se stesso; dato che il campo elettromagnetico è TRASVERSALE, un tale movimento perpendicolare alla superficie NON corrisponde all’emissione di radiazione! Bellissima intuizione!

Lamina orizzontale d carica oscillante.

Tenete presente che al momento della pubblicazione di questo articolo geniale Bohr non aveva ancora scritto nulla sul suo modello e che i due modelli quello “dei Thomson” e di Nagaoka pongono al centro il problema della stabilità del moto di cariche elettriche. Dunque proposta perfettamente centrata. Articolo “economico” in linea con i tempi: dopo tutto il Tractatus di Wittgenstein è solo del 1921, il libro filosofico più breve del mondo, la scrittura essenziale; qua abbiamo l’idea geniale in una sola pagina. E questa E’ un’idea geniale, un seminal paper secolare.

Se il moto del sistema di cariche è perpendicolare alla superficie onde elettromagnetiche non si possono generare.

Perchè questo sistema non irradia? Perchè è un sistema infinito non puntiforme come l’esempio che si fa sempre; ovviamente sistemi infiniti non ne esistono; ma la soluzione finita c’è, la vedete nel secondo filmato qua sotto; una sfera uniformemente carica il cui raggio oscilli!!

Abbiamo la medesima situazione e non ci sono campi elettromagnetici emissibili da questo sistema che ricorda ovviamente l’elettrone autoespandente del campione dell’anti MQ: Schott!

Come se non bastasse Ehrenfest traccia la proprietà generale che un sistema di cariche accelerate deve possedere per non emettere un campo.

La condizione in modo riassuntivo recita: supponiamo di avere nella zona A indicata in figura una disposizione di cariche la quale generi un potenziale che al confine con la zona B va costantemente al valore presente in B; in B il laplaciano (come indicato nell’equazione) è costante, ossia in media il campo elettrico ha divergenza nulla, ha valore costante (se non vi ricordate cosa è il laplaciano non vi preoccupate, ve lo riassumo io in forma non rigorosa, è la media dei valori dei vettori in uscita da un punto).

.

mentre in A il campo elettrico è espresso dall’equazione seguente e

, , .

e H = 0; queste scelte garantiscono un comportamento non radiativo.

Ecco qua, in una paginetta, risolto in modo originale il problema della stabilità che aveva ossessionato per 10 anni i fisici classici; ma non bastò!

Accidenti agli articoli in tedesco! La MQ ha vinto per una questione di lingua? Certamente una diffusione di queste idee più ampia avrebbe reso inutili almeno nell’immediato le scelte radicali della MQ fatte solo tre anni dopo da Bohr, avrebbe aperto altre prospettive. Ma così non è stato.

Salto la storia dell’esperimento di Geiger-Marsden, gli studenti di Rutheford, dato che ne ho parlato in un post precedente. Quell’esperimento impose un modello “planetario”; ma nella descrizione di Rutheford (11) non ci sono commenti su come gli elettroni si muovano;

Considering the evidence as a whole, it seems simplest to suppose that the atom contains a central charge distributed through a very small volume, and that the large single deflexions are due to the central charge as a whole, and not to its constituents. At the same time, the experimental evidence is not precise enough to negative the possibility that a small fraction of the positive charge may be carried by satellites extending some distance from the centre.

Rutheford sapeva che quel movimento degli elettroni inteso in modo tradizionale avrebbe reso l’atomo instabile

The question of the stability of the atom proposed need not be considered at this stage, for this will obviously depend upon the minute structure of the atom, and on the motion of the constituent charged parts.

ma non coglie nessuno dei suggerimenti originali fatti da Schott o da Erhenfest, forse non li conosceva? Certo non li cita. Non so, non ho trovato commenti in merito. Sta di fatto, ma pochi lo ricordano, che Rutheford si tira indietro sulla questione della stabilità.

Alla fine il vincitore risultò N. Bohr (12)

Che modello di interazione aveva Bohr? Secondo questo lavoro (13) che ritraccia la storia del modello Nagaoka il modello Rutheford, quello di Bohr e di Nagaoka condividevano lo stesso tipo di potenziale e di interazione fra nucleo ed elettroni. Rimaneva il problema della stabilità.

Le regole nuove che Bohr ha suggerito per risolvere le contraddizioni di Rutheford, la solita instabilità elettromagnetica degli elettroni in rotazione attorno al nucleo piccolo e lontano, sono su un altro piano:

  1. Gli elettroni possono muoversi solo in orbite stabili che possiedono un momento angolare quantizzato.
  2. Un elettrone può cedere la sua energia solo tutta in una volta saltando da uno stato n ad uno n-1.

In queste regole Bohr ha riversato quello che Jeans aveva immaginato fosse necessario, ed era, h, la costante di Planck.

A questo punto i fisici avevano un modo di riprodurre finalmente la formula di Rydberg e tutti i sofisticati e sottili ragionamenti del decennio precedente furono in gran parte dimenticati.

Ma non del tutto, perchè qualcuno continuò a combattere contro i quanti.

Sto parlando ovviamente di Schott. Nel 1933 egli dimostrò un nuovo modo di costruire un sistema non radiativo(14).

Una carica sferica uniforme di raggio α sottoposta ad un moto periodico di periodo T non produrrà radiazioni se si soddisfa la seguente condizione :dove m è un intero piccolo e c la velocità della luce. Il fenomeno è mostrato in figura.Nel 1933 la teoria quantistica si era già rafforzata in modo tale che Schott non tentò assolutamente di costruire un modello atomico basato sul fenomeno appena scoperto, ma dato che nel 1930 si era scoperta una nuova forma di radiazione senza carica elettrica (che poi Chadwick dimostrerà essere il neutrone) Schott ipotizzò che il neutrone potesse farsi risalire alla sua scoperta. Il neutrone dunque come una collezione di una o più sfere non radianti.

Having now established the principal result of our investigation, we may perhaps be permitted to indulge in a little speculation, and, though models of the atom and its constituents, especially classical ones, are out of fashion, enquire whether such models, constructed out of charged sphere, like the one considered above, may not, after all, be of use in the elucidation of atomic problems… Obviously it does not help to account for Bohr’s radiationless electron orbits, for, if one of our spheres were used as a model of the electron, the radiationless orbits of its centre would be far too small, since they would lie entirely inside the electron, as we saw in the last section.

But this very fact suggests that, if two of our spheres were taken as models of the electron and proton, it might prove possible to use them to construct a permanent model of the neutron, possibly also permanent models of atomic nuclei; for we require radiationless orbits of nuclear dimensions, which can be provided by our spheres, if they are of such dimensions, and have no spin.

La teoria matematica usata per il calcolo è così elegante che si è pensato non potesse essere inutile; come ho scritto altrove: la bellezza è verità e la verità è bellezza, seguendo Keats.

In effetti questa teoria è diventata la base di partenza per lo studio di sistemi radiationless, senza emissione, le cosiddette nonradiating sources, che hanno dato la spinta alla ricerca sui cosiddetti metamateriali invisibili a indice di rifrazione negativo, ma questa è un’altra storia che vi racconterò in un altro post ed è anche un importante argomento non di magia ma di fisica e chimica dei metamateriali (15).

Concludiamo dicendo questo; i modelli atomici prequantistici sono stati numerosi; molti più di quanti ne ricordiamo comunemente; alcuni di essi contenevano idee matematiche e fisiche di notevole interesse; oggi quei modelli “erronei” rivivono in teorie fisiche diverse dalle originali e ci insegnano che forse il mondo potrebbe essere diverso da come lo rappresentiamo e lo raccontiamo.

Sappiamo che due teorie basilari come la relatività e la MQ presentano problemi di compatibilità; non abbiamo ancora una soluzione per questo problema, forse sia la MQ che la relatività sono “sbagliate”, sono casi particolari di altro. E forse proprio nei “modelli sconfitti” possiamo trovare suggerimenti per superare i problemi; e certamente possiamo trovare in essi lo spirito indomito di scienziati creativi e misconosciuti che vale la pena di ricordare con orgoglio. Attenti a parlare di modelli sconfitti e di modelli vincitori. Nel calorico c’era l’intuizione dell’entropia, nell’intuizione di Ehrenfest e Schott c’è il mondo dell’invisibilità.

Non tutto ciò che viene sconfitto è destinato a perire.

Riferimenti

  • 8) A. Schott, “On the electron theory of matter and the explanation of fine spectrum lines and of gravitation,” Phil. Mag., Ser. 6, Vol. 12 (1906), 21-29.)
  • 9) Stark, Prinzipien der Atomdynamik: Die Elektrischen Quanten (Leipzig, Verlag von S. Hirsel, 1910)
  • 10) Phys. Z. 11 (1910), 708-709) titolo:  “Ungleichförmige Elektrizitätsbewegungen ohne Magnet- und Strahlungsfeld”.
  • 11) Ernest Rutherford, The Scattering of α and β Particles by Matter and the Structure of the Atom – April 1911, Philos. Mag, 21:669-688,[
  • 12) Niels Bohr, “On the Constitution of Atoms and Molecules (Part 1 of 3),” Phil. Mag. 26 (1913), 1-25; sono tre articoli il primo si scarica liberamente gli altri no ed è una vergogna; abbasso il copyright che è in realtà un modo di coprire il selvaggio accumulo di profitto delle grandi case editoriali.
  • 13) https://www.ncbi.nlm.nih.gov/pmc/articles/PMC4989051/
  •  14) A. Schott, “The electromagnetic field of a moving uniformly and rigidly electrified sphere and its radiationless orbits,” Phil. Mag. Vol. 15, Ser. 7 (1933), 752-761.
  • 15) https://skullsinthestars.com/2008/04/19/invisibility-physics-acceleration-without-radiation-part-i/

I modelli sconfitti.1.

In evidenza

Claudio Della Volpe

Si dice comunemente (ma non so chi l’abbia detto o scritto per primo): la storia la scrivono i vincitori. Credo che ciò avvenga almeno sul breve periodo; sui tempi lunghi le cose poi si chiariscono, almeno spesso è così. Ma potrebbe meravigliare scoprire che questo meccanismo possa dominare anche in campo scientifico, dove la ricerca viene spesso vista (in modo erroneo) come il progresso da una idea vincente ad una migliore. Le cose non stanno così, sono molto più complesse e contraddittorie.

Uno degli argomenti dove si potrebbe raccontare qualcosa di interessante è quello dei modelli dell’atomo.

Comunemente la vulgata ci riporta che storicamente si sono succeduti il modello del plum pudding di Thomson, il cosiddetto panettone, l’esperimento di Rutheford con le particelle alfa e infine il nuovo modello atomico di Bohr. Anche io ho raccontato un po’ questa vulgata in un post di qualche tempo fa. Ma le cose stanno veramente così?

In un blog molto affascinante, che ho scoperto di recente, ho trovato un po’ di post che fanno vedere le cose diversamente.

In uno dei post si elencano ben 8 modelli atomici (della maggior parte dei quali non ero a conoscenza), ma soprattutto si introduce un discorso, una ipotesi di lavoro che cercava di spiegare un fenomeno basilare che ha spinto a introdurre la quantizzazione e per il quale c’è una alternativa; una volta che ve lo avrò indicato vi farà cadere dalla sedia. Dunque tenetevi forte; il punto del post sarà: sarebbe potuta esistere una alternativa alla meccanica quantistica? E ancor più cosa ci insegna questa possibile alternativa?

Ci sono alcuni fenomeni alla base dell’attuale modello atomico e della visione quantistica della realtà:

  • I fenomeni di emissione/assorbimento della luce: le righe degli spettri, un fenomeno scoperto da Fraunhofer nel lontano 1814 (quello del congresso di Vienna, la restaurazione antinapoleonica);  potete osservarlo facilmente usando un reticolo di diffrazione da pochi euro, nello spettro solare ci sono righe scure in posizioni fisse che oggi interpretiamo come dovute all’assorbimento della radiazione di corpo nero in uscita dal Sole alle sole lunghezze d’onda corrispondenti a salti quantici ben definiti. In modo analogo le righe di emissione si hanno quando si porta all’incandescenza un elemento, come avviene nel saggio alla fiamma; in quel caso le righe non sono scure ma molto luminose e la loro lunghezza d’onda misurata con l’equazione del reticolo, corrisponde alla medesima bloccata nell’atmosfera solare. Per alcuni elementi come l’idrogeno alla fine dell’800 era possibile avere le lunghezze d’onda espresse da serie matematiche in cui la variabile era un numero intero (serie di Rydberg) ; questo fenomeno era al giro del secolo del tutto ben conosciuto ed indispensabile da interpretare. A questo fenomeno dobbiamo aggiungere la questione dello spettro di corpo nero, il fatto che la probabilità di emettere energia non sia equipartita fra le frequenze ma abbia un massimo che dipende dalla temperatura (effetto Wien); la teoria di Planck della quantizzazione è del 1900. Ed infine l’effetto fotoelettrico studiato da Hertz e Lenard (che ritroveremo più avanti come modellatore di atomi) per cui l’emissione di elettroni da metalli avviene tramite radiazione UV; nei dettagli il fenomeno dipende dalla differenza di potenziale applicata ma funziona solo da un certo potenziale in poi (detto potenziale d’arresto): il potenziale d’arresto non dipendeva dall’intensità della luce incidente, sorprendendo lo sperimentatore, che si aspettava il contrario.
  • La seconda classe di fenomeni sono quelli del comportamento chimico, espressi dalla tavola periodica, di cui festeggiamo quest’anno il 150esimo anniversario; la possibilità rappresentata da Mendeleev nel 1869 di schematizzare le proprietà dei vari elementi raggruppandoli in quelli che oggi chiamiamo gruppi e periodi, proprietà simili o variabili in modo semplice; tale schema obbliga ad una struttura atomica che sia altrettanto schematica e prevedibile in base ad un parametro unico, che oggi chiamiamo numero atomico, ossia il numero di elettroni o di protoni.
  • Ed infine l’esistenza di particelle elementari di carica opposta; l’esistenza di elettricità di carica opposta era stata teorizzata fin dal 1734 e ne abbiamo parlato anche qui (l’elettricità resinosa e vitrea, di Charles François de Cisternay du Fay); nel 1897 J.J. Thomson (da non confondere con William Thomson, primo Lord Kelvin)) scoprì i raggi catodici, nel 1919 Rutheford scoprì il protone.

Queste tre classi di fenomeni sono da includere nella struttura dell’atomo in modo “naturale”, devono essere previsti dalla teoria.

Il modello di J.J. Thomson è stato preceduto dal modello del “dinamide”, dynamid, proposto da Lenard(1). Il modello del dinamide è sbagliato ma probabilmente è poco conosciuto prima di tutto perchè oggi esiste solo l’inglese mentre questa proposta come altre è scritta in tedesco.

Lenard, che vinse il Nobel per la fisica nel 1905 per il suo lavoro sui raggi catodici, era un convinto assertore del nazismo. Egli fece molte osservazioni importanti sul comportamento degli elettroni: dimostrò che l’assorbimento degli elettroni dipendeva più dalla massa di materiale che non dalla sua specifica composizione o dalle sue proprietà chimiche, suggerendo quindi che la composizione atomica fosse basata sui medesimi mattoni, sulla loro quantità più che sulla loro qualità; inoltre egli dimostrò che le forze di interazione erano essenzialmente elettriche e che queste forze comandavano le interazioni chimiche. Ne seguiva un modello illustrato nella immagine seguente in cui il blocco base di tutta la materia era il dinamide ossia una coppia di cariche positive e negative legate fra di loro. Le forze che tenevano insieme i dinamidi non erano spiegate ma la teoria rendeva conto della struttura della tavola periodica e della presenza di elettroni negli atomi anche se non era in grado di spiegare la formula di Rydberg degli spettri dell’idrogeno; infine le componenti positive avrebbero dovuto essere egualmente estraibili di quelle negative dall’atomo ma ciò non avveniva.

Il modello di Thomson fu presentato l’anno dopo (2).

L’idea originale del modello di JJ fu in effetti suggerita dall’altro Thomson ossia William, Lord Kelvin mentre il ruolo fondamentale di JJ fu di fare dei calcoli quantitativi che dimostrassero la stabilità del sistema. Non si confonda questa proposta di Lord Kelvin con quell’altra del 1867 dell’atomo come vortice di etere, che pure ha avuto una serie di emuli successivi ed è stata presa a base della teoria delle stringhe (https://en.wikipedia.org/wiki/William_Thomson,_1st_Baron_Kelvin – Kelvin’s_vortex_theory_of_the_atom). Non parlerò qui del vortice di etere e dei modelli “magnetici come quello di Mayer(1878) (3). Qua parliamo invece di una proposta fatta dal Thomson più famoso cioè William, del plum pudding model e ripresa dall’altro, J.J per valutarne la stabilità. Devo dire che non sono stato capace di trovare il testo originale di Kelvin e che non ci sono citazioni nel lavoro di JJ, ma moltissimi testi riportano questa dualità; se si tratta di una mera confusione non sono in grado di dire; non c’è nemmeno una lista completa dei lavori di William da verificare. Suppongo che sia così, è ragionevole ma potrebbe essere anche sbagliato. Chi vuole può provare a cercare un libro dedicato a questi problemi (4). Più avanti vi mostro un lavoro che fa riferimento alla proposta di William.

La stabilità era in effetti una questione molto importante nei primi modelli atomici. Per esempio Jean Baptiste Perrin avrebbe proposto un modello nucleo-planetario in anticipo (anche in questo caso non si trova il lavoro originale di Perrin, ma solo vari riferimenti a questa idea) nel quale gli elettroni negativi ruotavano attorno al nucleo, ma la difficoltà che cito qui la prima volta era che questo sistema era instabile; se una carica puntiforme si muove di moto accelerato genera un campo elettromagnetico variabile e dissipa energia, dunque prima o poi cade nel nucleo. Riparleremo di questo problema della instabilità dovuta a radiazione elettromagnetica.

La soluzione di Kelvin o di J.J. Thomson fu di sostituire il nucleo positivo con una distribuzione ampia ed omogenea di cariche positive in cui gli elettroni erano mescolati, come i canditi nel panettone. La forza elettrica nell’interno della sfera uniforme di carica aumenta con la distanza dal centro, mentre DIMINUISCE all’esterno di tale distribuzione, esattamente come avviene per la gravità: se scavate un tunnel che passi dentro la Terra, classico problema di fisica, la forza di attrazione diminuisce andando verso il centro a causa dell’effetto di tutti gli strati più esterni.

(Ovviamente la sfera è tenuta insieme da forze NON ELETTRICHE)

Nel 1906 J.J. concluse da una analisi dei raggi X riemessi dai gas e dall’assorbimento dei raggi beta dai solidi che il numero di elettroni era approssimativamente eguale al numero atomico. Forse analizzando i possibili modi di vibrazione degli elettroni in questa configurazione si sarebbe potuta avere una descrizione spettrale fedele alle formule conosciute.

La combinazione fra le forze di attrazione e di repulsione avrebbe prodotto un anello di elettroni in stabile equilibrio ad un certo raggio. J.J. Thomson provvide una serie di calcoli a questo scopo suggerendo che la stabilità dipendesse dalla velocità degli elettroni e che sotto una certa velocità la stabilità fosse rotta manifestandosi come radioattività. Thomson vinse il premio Nobel nel 1906

in recognition of the great merits of his theoretical and experimental investigations on the conduction of electricity by gases.”

Come si vede questi aspetti di calcolo non sono ben rappresentati dalla figura classica del plum pudding model e per certi aspetti si mescolano col modello seguente.

Nel 1904 lo studioso di origine giapponese Hantaro Nagaoka propose il modello “saturniano”, (5) rappresentato nella figura seguente.

La proposta di Nagaoka riprendeva un lavoro del 1859 di James Clerk Maxwell, che aveva dimostrato che gli anelli di Saturno erano sufficientemente stabili e composti da una serie relativamente piccola di oggetti; i disturbi inevitabili dell’orbita causavano solo delle oscillazioni ma non la distruzione dell’anello. Nagaoka applicò la medesima idea matematica, ma considerando che i corpi in rotazione non si attraevano come i componenti dell’anello di Saturno, ma si respingevano.

Egli dimostrò matematicamente che le oscillazioni dell’anello di elettroni producevano linee spettrali e una struttura a bande continua, che in presenza di un campo magnetico si sarebbe prodotto un effetto di splitting (analogo all’effetto Zeeman) e propose che la radioattività dipendesse da effetti repulsivi fra anelli di elettroni diversi attorno al medesimo atomo. Questa proposta, nonostante il notevole successo esplicativo che includeva gli spettri, non ebbe molta risonanza.

Nel 1906 arrivò una proposta (6) di uno dei maggiori scienziati del secolo Lord Rayleigh; nel suo caso l’idea è di considerare un numero di elettroni così alto da poter analizzare il loro comportamento come un fluido di elettroni continuo.

Come si vede qui Rayleigh fa riferimento ad un suggerimento di Kelvin rispetto al modello del plum-pudding, una conferma che conforta, ma rimane il problema di una citazione ad uno scritto di Kelvin. Inoltre Rayleigh considera un numero così elevato di elettroni da poterli considerare un fluido elettronico a cui attribuisce un paio di proprietà tipiche dei fluidi e diverse da quelle finora considerate. Il fluido elettronico di Rayleigh è irrotazionale, ossia non c’è nessun elemento che ruota attorno all’asse passante per il centro di massa dell’elemento stesso. Questo semplifica molto i calcoli ed unito alla supposta incompressibilità ne facilita la modellazione matematica. Il fluido elettronico, dunque, oscilla ma non ruota attorno al centro e lo fa con frequenze discrete e calcolabili, ma che non risultano essere quelle di Rydberg, difficoltà che Rayleigh cerca di superare considerandole come “battimenti” di frequenze molto più elevate. Rayleigh arriva anche alla conclusione che occorrono probabilmente altre condizioni per giustificare che le frequenze di oscillazione siano solo quelle rilevate, un’idea che in qualche modo è in accordo con le richiesta della MQ. Le idee di Rayleigh sono potenti, eliminano la necessità di una regolare rotazione ma indicano la necessità di nuove condizioni. Geniale.

Un paio di anni dopo continua il fermento di nuove intuzioni. Il modello di Jeans è quello dell’elettrone vibrante.(7)

Si tratta più che di un modello organico di una serie di suggerimenti per modificare il modello di Rayleigh. Scrive Jeans:

… may I mention that in the Phil. Mag. for Nov. 1901, I attacked a problem similar in many respects to that which forms the main substance of Lord Rayleigh’s paper? The actual premises upon which I worked were different from those of Lord Rayleigh – his positive sphere being represented, in my work, by a crowd of positive electrons, and the definiteness of structure, which he obtains by regarding this sphere as rigidly fixed, being obtained in my work by using a law more general than ee’/r^2.

Cercando delle condizioni distabilità che supportino il modello di Rayleigh, Jeans conclude che:

If this were so, these frequencies would depend only on the constituents of the atom and not on the actual type of motion taking place in the atom. Thus if we regard the atom as made up of point-charges influencing one another according to the usual electrodynamical laws, the frequencies could depend only on the number, masses, and charges of the point-charges and on the aether-constant V. What I wish to point out first is that it is impossible, by combining these quantities in any way, to obtain a quantity of the physical dimensions of a frequency.

In brief, no equation involving charge, mass, and aether-constant V will ever result in a frequency. Since we know that atoms are emitting light with definite frequency, something is missing in the description.

E suggerisce

It seems, then, that we must somehow introduce new quantities – electrons must be regarded as something more complex than point-charges. And when we have once been driven to surrendering the simplicity of the point-charge view of the electron, is there any longer any objection to putting the most obvious interpretation on the line-spectrum, and regarding its frequencies as those of isochronous vibrations about a position of statical equilibrium?

In simple words, if we imagine that the electron itself not as a point charge but as an object with its own internal structure, then the frequencies of light emitted from atoms could result from vibrations within this ‘structured electron’.

Come si vede Jeans arriva molto vicino alla necessità di una nuova fisica in cui l’elettrone sia un oggetto che vibra come un pendolo, il che ammetterete che è una sorprendente e rivoluzionaria conclusione che partorisce interamente dai geniali tentativi di risolvere i problemi rimanendo all’interno della fisica tradizionale.

Riferimenti

  1. Lenard, “Über die Absorption der Kathodenstrahlen verschiedener Geschwindigkeit,” Ann. Physik 12 (1903), 714-744.

2. Mag., Ser. 6, Vol. 7 (1904), 237-26

     3. http://galileo.phys.virginia.edu/classes/252/more_atoms.html

  • 4. Alex Keller, The Infancy of Atomic Physics: Hercules in his Cradle.
  • 5. H. Nagaoka, “Kinetics of a system of particles illustrating the line and the band spectrum and the phenomena of radioactivity,” Phil. Mag., Ser. 6, Vol. 7 (1904), 445-455.)
  • 6. Lord Rayleigh, “On electrical vibrations and the constitution of the atom,” Phil. Mag., Ser. 6, Vol. 11 (1906), 117-123.)

      7. J.H. Jeans, “On the constitution of the atom,” Phil. Mag., Ser. 6, Vol. 11 (1906), 604-607.)

 

(continua)

TRA FRONTIERE E CONFINI. Recensione

In evidenza

Eleonora Aquilini*

Recensione:  di INSEGNARE E APPRENDERE CHIMICA

 

Il libro di Valentina Domenici “Insegnare e apprendere chimica”(Mondadori, 2018, p.XIV-338 euro 23.80), è sicuramente una novità di rilievo per chi si occupa di didattica della chimica.

Mancava, infatti, un testo di riferimento che facesse il punto sulle teorie e le pratiche che costituiscono il panorama della didattica nazionale e internazionale. Uno strumento importante per studenti che affrontano per la prima volta il problema dell’insegnamento della chimica, per insegnanti di scuola in servizio e per insegnanti universitari. Il libro, nella prima parte che consta di tre capitoli, mostra i vari passaggi che ci portano verso l’insegnamento della disciplina prendendo in esame diversi aspetti: la natura della chimica, il suo insegnamento oggi, il suo apprendimento lungo tutto l’arco della vita, le buone pratiche e i casi di studio.

Valentina Domenici

Ognuno di questi aspetti costituisce una parte del libro che viene analizzata in chiave didattica con un’ampia bibliografia, sicuramente preziosa per il lettore. La prima parte individua lo statuto epistemologico della chimica, la sua storia e il ruolo del suo linguaggio nell’insegnamento, dando un quadro dei capisaldi entro i quali muoversi per ragionare di didattica. La seconda parte del libro viene introdotta dal capitolo 4 che prende in esame l’insegnamento della chimica a scuola e all’università; questa è una novità di non poco conto in quanto, solitamente, la didattica viene considerata un mezzo, un modo per trasporre il sapere accademico ufficiale, dato per scontato e che non si discute, al mondo della scuola. Qui si ragiona alla pari, prendendo la didattica della Chimica come problema comune. Sappiamo tutti, infatti, che se vogliamo cambiare il modo d’insegnare usuale, prevalentemente trasmissivo e “autoritario”, come sostiene Kuhn[1], la discussione su come e cosa s’insegna deve nascere anche in ambito accademico. Allora, il capitolo 4 getta proprio un ponte fra scuola e università, disegna un interregno, una proficua zona di confine, promettente per gli sviluppi di tutta la scuola. A questo riguardo, a proposito cioè di quanto può essere efficace la contaminazione fra campi diversi, viene in mente la distinzione fra frontiera e confine che Richard Sennett delinea in L’uomo artigiano. Facendo riferimento alle pareti e alle membrane cellulari che si differenziano per la maggiore possibilità di scambio con l’esterno delle seconde rispetto alle prime, Sennett scrive: “In tutti gli ecosistemi naturali si possono trovare strutture analoghe alla parete e alla membrana cellulari. Gli ecosistemi hanno frontiere, che assomigliano alle pareti della cellula, e hanno confini che assomigliano alla membrana cellulare. Le frontiere possono delimitare un territorio da difendere, come il territorio abitato da un gruppo di leoni o da un branco di lupi, o la zona controllata da una banda e proibita alle altre … Il confine ecologico, invece, è un luogo di scambio, dove gli organismi diventano più attivi. Tale è la linea costiera di un lago: al bordo di acqua e terra gli organismi possono trovare molti altri organismi di cui nutrirsi”[2]. Sennett ricorda poi come, in ambito antropico, le mura delle città medioevali, nate come frontiere, si siano trasformate in confini attivi, quando ai loro bordi, sono nati piccoli mercati clandestini, o si siano popolati di proscritti e altri vagabondi[3]. Secondo Sennett, la sfida di noi esseri umani è trasformare le frontiere in confini, ossia luoghi di scambio, resistenze porose. Seguendo questa singolare chiave di lettura, diversi sono i luoghi di scambio che vengono evidenziati soprattutto nella terza parte del libro di Valentina, quella che è intitolata “L’apprendimento della Chimica lungo l’arco della vita (Lifelong learning)”: la chimica nella vita di ogni giorno, la comunicazione della scienza, l’immagine della chimica, i contesti non formali, i musei scientifici. In questi casi la disciplina viene a patti con altre strutture di pensiero (si pensi all’Etica), con altre organizzazioni (si pensi ai complessi museali), e modifica se stessa, cambia rotta, o chissà, preferisce tacere. Questi sono tutti ambiti in cui la chimica si confronta, si contamina con altre realtà diventando meno formale e forse più fruibile dai cittadini. L’autrice mette poi in luce, nell’ultima parte del libro, le possibilità, offre prospettive, documentando ciò che già esiste e riportando le buone pratiche, le piste di lavoro che sono sperimentazioni attuate nei diversi ordini di scuola e riflessioni su concetti fondanti per la disciplina. È evidente in questa, come nelle altre parti del libro, la passione e la competenza con le quali Valentina affronta le varie tematiche e come sa documentarle. Sicuramente questo è un libro importante per gli studenti che si stanno preparando all’insegnamento e per tutti i docenti, compresi quelli universitari, un riferimento, uno strumento che accompagnerà costantemente il nostro lavoro.

*Eleonora Aquilini, vive a Pisa e insegna Chimica nella scuola secondaria di secondo grado. Dal 1995 svolge attività di ricerca didattica nel “Gruppo di ricerca e sperimentazione didattica in educazione scientifica” del CIDI di Firenze. Attualmente è vicepresidente della divisione didattica della Società Chimica Italiana. È co-autrice del volume Leggere il mondo oltre le apparenze e ha scritto numerosi articoli riguardanti la didattica della Chimica e delle Scienze.

[1] Thomas S. Kuhn, La struttura delle rivoluzioni scientifiche, Einaudi, Torino,1999.

[2] Richard Sennett, L’uomo artigiano, Feltrinelli, Milano, 2009, pag. 217.

[3] Ibidem, pag. 218.

I quattro elementi fondamentali dell’Universo.

In evidenza

Claudio Della Volpe

Afferma Empedocle:

«Conosci innanzitutto la quadruplice radice
di tutte le cose: Zeus è il fuoco luminoso,
Era madre della vita, e poi Idoneo,
Nesti infine, alle cui sorgenti i mortali bevono»

Secondo una interpretazione Empedocle indicherebbe Zeus, il dio della luce celeste come il Fuoco, Era, la sposa di Zeus è l’Aria, Edoneo (Ade), il dio degli inferi, la Terra e infine Nesti (Persefone), l’Acqua.

Secondo altri interpreti i quattro elementi designerebbero divinità diverse: il fuoco (Ade), l’aria (Zeus), la terra (Era) e l’acqua (Nesti-Persefone).Tiziano, Concerto campestre, 1509, Parigi, Museo del Louvre. La donna alla fonte è una personificazione dell’Acqua. Il suonatore di liuto rappresenta il Fuoco. L’uomo con i capelli scompigliati dal vento simboleggia l’Aria. La donna di spalle raffigura la Terra.

 Col tempo a questi quattro elementi se ne aggiunse un quinto, la “quintessenza” o etere.
L’idea che la Natura potesse esser costituita con pochissimi elementi mescolati fra di loro è stata una delle idee più antiche ma anche di maggior successo nella storia umana.

Di fatti potremmo dire che tutto sommato la chimica moderna dice lo stesso.

Voi mi direte: ma non è vero la tavola periodica di cui celebriamo quest’anno il valore riporta ben 118 elementi possibili e sappiamo ce ne sono anche altri non ancora scoperti o sintetizzati.

Già ma di cosa sono fatti questi 118 atomi? Di cosa è fatto tutto ciò che ci circonda sulla Terra almeno? Cosa c’è dietro e per così dire “sotto” la Tavola Periodica?

Bastano solo quattro particelle: fotoni, protoni, neutroni ed elettroni; con queste quattro entità le leggi della chimica e della meccanica quantistica ricostruiscono tutto ciò che ci circonda; beh quasi, nel senso che ogni tanto arrivano raggi cosmici dal fondo cielo che si trasformano in mesoni e quelli non sono parte dei quattro oggetti nominati.

L’idea che a partire da pochi elementi si possa ricostruire tutto è stata accettata da grandi menti antiche e moderne; ovviamente per spiegare questo si sono ipotizzate e poi misurate esattamente le forze fra le particelle.

Newton che fu prima di tutto un grande alchimista (e solo dopo un fisico, era un chimico-fisico ante litteram, ma ce lo siamo fatto scippare dai fisici puri) ma è anche uno dei fondatori della fisica moderna scriveva:

There are therefore agents in nature able to make the particles of bodies stick together by very strong attractions. And it is the business of experimental philosophy to find them out. Now the smallest particles of matter may cohere by the strongest attractions and compose bigger particles of weaker virtue; and many of these may cohere and compose bigger particles whose virtue is still weaker, and so on for diverse successions, until the progression ends in the biggest particles on which the operations in chemistry, and the colors of natural bodies depend.” (I. Newton, Opticks).

(notate come parla di chimica e fisica INSIEME!!!)

Dunque per spiegare queste associazioni ci vogliono le forze che le manovrano.

Ma voglio essere più preciso; ne ho già parlato tempo fa su questo blog, discutendo la chimica ipotetica della materia oscura; i fisici hanno la loro “tavola” che si chiama “modello standard”; purtroppo i chimici non studiano queste cose, ma secondo me dovrebbero.

oppure questa è un’altra rappresentazione:

Ci sono nella materia ordinaria 18 componenti essenziali divisi fra 6 leptoni, 6 quark e 6 vettori delle forze.

Di questi 18 componenti per fare tutto ciò che si vede sulla Terra occorrono solo:

3 mediatori delle forze: fotoni, gluoni e bosone di Higgs, 2 quark, up (u) e down (d) che nelle combinazioni uud e udd producono protone e neutrone ed 1 solo leptone, ossia l’elettrone; sei entità (appartenenti rispettivamente tre ad una classe di componenti, due ad un’altra e il terzo ad un’altra ancora). E tutto viene fuori da questi 6.

Alla fine non siamo cascati così lontani. Credo che Empedocle si meraviglierebbe se tornasse a vivere di come la sua idea fosse dopo tutto vicina alla verità considerata tale anche dopo vari millenni.

Certo noi abbiamo una solida serie di esperimenti e di relazioni matematiche che supportano il nostro punto di vista, anche se non è ben chiaro perchè poi la matematica abbia così tanto successo (E. Wigner, The Unreasonable Effectiveness of Mathematics in the Natural Sciences); c’è stato un ampio dibattito su questo tema, che inizia da Galileo (il mondo è scritto in linguaggio matematico; e passando per Wigner approda a conclusioni anche opposte: siamo noi che vediamo tutto attraverso la lente della matematica (Richard Hamming); dove è la verità? Non lo so. Esiste una terza via?

Pitagora aveva notato questo strano matematizzarsi dell’Universo già oltre 2000 anni fa.

Per Pitagora (575 a.C. circa – 495 a.C. circa) la successione aritmetica dei primi quattro numeri naturali, geometricamente disposti secondo un triangolo equilatero di lato quattro, ossia in modo da formare una piramide, aveva anche un significato simbolico: a ogni livello della tetraktys corrisponde uno dei quattro elementi.

1º livello. Il punto superiore: l’Unità fondamentale, la compiutezza, la totalità, il Fuoco

2º livello. I due punti: la dualità, gli opposti complementari, il femminile e il maschile, l’Aria

3º livello. I tre punti: la misura dello spazio e del tempo, la dinamica della vita, la creazione, l’Acqua

4º livello. I quattro punti: la materialità, gli elementi strutturali, la Terra

Non vi ricorda qualcosa? 1 punto di un tipo, due del secondo, tre del terzo!! Divisi per classi ed in quantità crescente, 1, 2, 3, come i 6 componenti del modello standard che abbiamo citato prima (1 leptone, 2 quark e 3 mediatori delle forze). Stupefacente combinazione?!

OK, può essere, comunque, siamo arrivati a 6 per descrivere quello che c’è sulla Terra dopo oltre 2000 anni di travaglio e lavoro, ma in fondo ci erano arrivati anche Pitagora ed Empedocle e Democrito e con caratteristiche per certi aspetti simili.

Ne è valsa la pena? E’ una teoria che torna periodicamente, un’applicazione dei cicli storici di Giambattista Vico? Eterni ritorni nella spirale dialettica hegeliana? Non so, credo che la scienza moderna post-galileiana sia un grande metodo di scoperta, ma anche l’intuizione e la osservazione degli uomini che ci hanno preceduto non era poi così male, e come insegna Lucio Russo gli scienziati alessandrini ci hanno preceduto nell’uso del metodo moderno. Abbiamo ancora da rifletterci a lungo su questa relazione fra scienza, matematica e osservazione, capacità di meravigliarsi.

Qualche collega potrebbe lamentarsi dell’eccessivo spazio che do alla fisica ed alla matematica in questo post; ma non è così. A mio parere la visione del mondo naturale dovrebbe essere unitaria per quanto possibile, la materia è una; e la Chimica costituisce evvero un linguaggio euristico ed indipendente rispetto alla Meccanica Quantistica, è esistita senza di essa, ma ha contribuito a svilupparla. Ci sono alternative alla meccanica quantistica? Non so ma ne riparleremo in un prossimo post.

Sarà vero casomai che dopo tutto la fisica teorica attuale e Pitagora sono simili perché guardano al mondo prima di tutto tramite la sua simmetria e bellezza:

La bellezza è verità, la verità è bellezza: questo è tutto ciò che voi sapete in terra e tutto ciò che vi occorre sapere.

(John Keats, poeta)

Ma non lo fa anche il chimico quando sintetizza le sue molecole, strutture la cui simmmetria e bellezza, che ci ricorda Vincenzo Balzani, viene prima del loro uso?

Non so, riflessioni catalizzate dall’anno della tavola.

Cosa ne dite chimici?

Uno sguardo all’effetto Volta e alla giunzione P-N.

In evidenza

Claudio Della Volpe

Da quasi 20 anni faccio un corso di elettrochimica, anche se con titoli diversi; il corso di quest’anno si chiama Electrochemical energy storage and conversion (originariamente il titolo conteneva production, ma il primo principio ci ha obbligato a cambiare nome) . Uno dei concetti che cito di più è l’effetto Volta o prima legge di Volta: il contatto tra due metalli diversi alla stessa temperatura fa sì che si stabilisca una differenza di potenziale caratteristica della natura dei metalli che non dipende dall’estensione del contatto.

Volta è stato un genio, un grande scienziato che con a disposizione strumenti limitati è stato in grado di costruire una coerente visione della realtà naturale.

Pochi sanno che Volta ha usato come strumento prima di tutto il proprio corpo; i suoi sensi e gli effetti biologici della corrente elettrica sono stati il suo primo strumento di lavoro (testava la corrente con la lingua, gli occhi, il naso).

Volta era anche un piacevole raccontatore; le sue opere, piacevolissime da leggere sono state raccolte da UTET (A. Volta Opere scelte, a cura di Mario Gliozzi, 1967), un testo che si trova anche in rete e che vi consiglio caldamente anche per la vasta e completa introduzione.La interpretazione moderna dell’effetto Volta è per me la chiave di volta, (scusate il gioco di parole) anche per introdurre i potenziali termodinamici misti: elettrochimico, gravitochimico o ancora termogravitochimico.

Concetti usati moltissimo in settori i più disparati, dall’elettrochimica alla meteorologia, ma che trovano la loro base nella formalizzazione robusta della termodinamica e nella trattazione della termodinamica del vicino equilibrio.

Nell’elettrochimica moderna l’elettrone è considerato una specie reattiva come un’altra; possiede dunque un suo potenziale chimico oltre che un potenziale elettrico. Per chi avesse difficoltà a considerare il potenziale chimico dell’elettrone gli consiglio di immaginarlo come la concentrazione di elettroni “liberi” in un certo ambiente.

I fenomeni legati al funzionamento delle valvole termoioniche per esempio rendono evidente che gli elettroni nel vuoto relativo della valvola si comportano come un gas di particelle libere in equilibrio con le superfici metalliche a diverse temperature; semplici esperimenti fattibili anche con lampadine da auto rotte vi consentono di mostrare che se aumentate la temperatura del metallo gli elettroni fluiscono verso un secondo elettrodo presente nella valvola.Insomma si comportano come particelle di un gas, ma in più trasportano una carica e dunque sono una corrente: chimica ed elettricità si fondono nell’analisi di una valvola termoionica, che purtroppo è uscita dall’orizzonte tecnologico, ma rimane un potente strumento didattico (si chiama anche effetto Edison).

(si veda per esempio : https://aapt.scitation.org/doi/abs/10.1119/1.5051166?journalCode=pte)

Allora tornando all’effetto Volta:

avete due metalli diversi a contatto, zinco e rame; il primo presenta un potenziale chimico dell’elettrone superiore, ossia i suoi elettroni hanno una maggiore tendenza a diffondere o se volete una maggiore “concentrazione”(i puristi si tappino il naso).

Ebbene essi si sposteranno dal lato del rame generando una differenza di potenziale che ad un certo punto si opporrà al moto ulteriore, ma la barriera di potenziale si sarà creata, sarà gratuita, stabile ed utile; questo concetto si può applicare a TUTTE le sostanze.

All’equilibrio avrete che le due differenze di potenziale si equivarranno:

Δμ+nFΔV=0 il potenziale misto, elettrochimico è nullo e il sistema è all’equilibrio

(per trasformare in energia la parte elettrica ho moltiplicato la differenza di potenziale elettrico per la carica, a sua volta espressa come prodotto del numero di moli di carica per il Faraday).

Il famoso esperimento che tutti i ragazzini fanno con penna a maglietta per caricare la penna, in realtà funziona anche senza grattare la penna sulla maglia ma molto meno; anche penna e maglietta sono (poco) conduttori; per esaltare le superfici di contatto e ampliare il fenomeno si grattano reciprocamente e l’attrito fa la sua parte; ma il fenomeno sarebbe evidente con un microelettroscopio.Qua si potrebbe estendere il discorso alla serie triboelettrica con innumerevoli applicazioni industriali: i polimeri idrofobici come il teflon ad una estremità, si caricano negativamente, l’aria positivamente. I chimici si sono inventati il concetto di “trasferimento di carica” per studiare queste cose o la teoria acido-base delle superfici (Good, van Oss e Chaudury), cui ho dato qualche contributo, ma i concetti sono sempre quelli.

Le motivazioni chimiche sono facilmente deducibili e il potenziale misto rappresenta un potente strumento concettuale unificante.

Lo strumento base dell’elettronica moderna è basato esattamente sull’esperimento di Volta: la giunzione P-N.

Due semiconduttori, in genere silicio ultrapuro da un lato arricchito di fosforo e dall’altro di boro; in questo modo si altera in modo opposto il potenziale chimico dell’elettrone; dal lato del fosforo si avranno elettroni in eccesso non legati, rispetto ai legami possibili (silicio-n)e dall’altra se ne avranno in difetto (silicio-p).

Per effetto Volta gli elettroni si spostano dall’-n al –p e a questo punto se per qualche motivo liberate elettroni a destra (tramite poniamo un fascio di luce solare) questi poverini spinti a diffondere verso potenziali superiori non potranno traversare la barriera e dovranno giocoforza fluire nel circuito elettrico (esterno all’immagine) che gli metteremo a disposizione!

Le celle FV sono esattamente questo; ma anche i LED sono questo, sono delle giunzioni PN in cui però la logica costruttiva e diversa perché finalizzata a fare la cosa opposta: trasformare in luce un flusso di corrente.

Un LED non è fatto come una cella FV ma è basato sui medesimi principi: primo effetto Volta.

se voi esponete un LED alla luce il LED fa il suo lavoro alla rovescia; produce una differenza di potenziale ed una minuscola corrente; si può costruire una cella FV fatta di LED; ovviamente sarebbe poco efficiente perché la sua geometria interna non è ottimale.

(si veda https://www.youtube.com/watch?v=L3-0aCJOedo)

Una cosa da precisare; queste giunzioni sono macchine termodinamiche che rispettano ovviamente il secondo principio: quando fate una trasformazione da una forma di energia all’altra avrete sempre una dissipazione termica; tutte le macchine termodinamiche (intese come i dispositivi di conversione dell’energia da una forma all’altra) seguono questa legge ma con un ma.

Ci sono due classi di macchine quelle che lavorano attraverso un salto termico come le macchine termiche tradizionali le turbine, le macchine a vapore o le giunzioni PN che sfruttano la luce oppure le macchine elettrochimiche o le giunzioni PN che NON sfruttano la luce.

Le prime seguono la seconda legge nella forma tradizionale di Carnot la loro efficienza massima è dettata da η=1-Tbassa/Talta

La altre no! Sono isoterme e dunque la temperatura non influenza la loro efficienza, ma invece lo fa il potenziale elettrico: η=Veff /Vequ per una cella elettrochimica. Le celle elettrochimiche e le batterie si fanno un baffo di Carnot.

Le giunzioni PN che sfruttano la luce si comportano come macchine termiche fra la T della sorgente e la T ambiente); le celle FV avrebbero una mostruosa efficienza (superiore al 90%) se potessero sfruttare TUTTA la radiazione in arrivo, ma di solito sono limitate ad un intervallo discreto e dunque la loro efficienza con la luce solare ed una giunzione PN singola non supera un modesto ma interessante 33.7% (il limite di Shockley–Queisser); se si mettono insieme più giunzioni diverse o si scelgono sorgenti diverse dal Sole le cose cambiano. Le celle multigiunzione arrivano ormai a superare il 45%! I LED possono addirittura arrivare ad efficienze teoriche si apure come ogni macchina che s rispetti a bassa intensità (https://phys.org/news/2012-03-efficiency.html).

Quando racconto queste cose ai miei studenti cerco di metterli in difficoltà il che non è difficile perché gli studenti raramente fondono insieme la visione termodinamica , chimica e quella della Fisica dello stato solido e dunque se chiedo:

ragazzi la Terra emette nell’IR tutta l’energia che riceve dal Sole, sia di giorno che di notte; allora come mai non posso mettere in cantina delle celle FV che siano centrate non sul visibile ma sull’IR e rivolte verso terra e ottenere energia elettrica in questo modo

rispondono:

si, buona idea, ma non ci sono i materiali adatti

Beh non è vero, ci sono le celle FV nell’IR e la loro efficienza sta rapidamente crescendo; ma il motivo è diverso; anche con i materiali migliori non potremo mai usare la Terra come sorgente IR nella nostra cantina, per un semplice motivo termodinamico; la T della sorgente terra sarebbe uguale a quella del ricevitore e allora l’efficienza termodinamica sarebbe nulla!

L’unica cosa che potremo fare è portare una aereo in stratosfera a -50°C ed applicare sotto le sue ali delle celle FV infrarosse; allora la loro efficienza teorica sarebbe η=1-Tbassa/Talta ossia circa il 22% non male!

Ma non è finita qui; cosa succederebbe se esponessimo una giunzione PN ad una sorgente più fredda di quella ambiente?

L’idea (del tutto geniale!) venne qualche anno fa

e dunque c’è un’altra via per convertire energia con una giunzione PN; invece di ottenere energia elettrica esponendo la giunzione ad una sorgente più calda si può ottenere energia esponendola ad una più fredda!

E questa “sorgente negativa” c’è sempre, è lo spazio, il nero del fondo cielo la cui temperatura è molto bassa, almeno 50 o più sottozero se si considera la quota stratosferica; in questo caso la corrente andrebbe non dalla porzione n alla porzione p, ma viceversa dalla p alla n; la cosa è stata fatta notare qualche tempo fa, accludo il lavoro e recentemente hanno fatto una celletta del genere (efficienza ridicola al momento); se usata verso lo spazio esterno da t ambiente farebbe anche oltre 50W/mq, ma di fatto il limte è “vedere” la sorgente fredda attraverso la copertura atmosferica il che si può fare solo in ristrette zone di frequenza; nel pratico al massimo farebbe il 4%, ma l’idea è comunque eccezionale, harvesting che sfrutta il calore ambiente e il suo spontaneo raffreddamento; idea del tutto eccezionale secondo me.

Recentemente han provato a costruirne una e, al di là delle sciocchezze che possiate aver letto sui giornali, la cosa è fattibile, ma al momento non utile praticamente. Guardate solo la immagine qua sotto e capirete subito il concetto;

(ricordiamo sempre che la corrente convenzionale è di cariche positive, dunque quella elettronica va in direzione opposta).

Qualunque sorgente sia esposta al diodo PN si realizza comunque un flusso di corrente!

Siamo arrivati alla fine di una rapida galoppata nel reame delle idee base dell’elettrochimica, ma forse da un punto di vista che non avevate esplorato mai così. Spero.

La nostra guida è stato un principio scoperto oltre 200 anni fa. Alessandro Volta, da qualche parte ci guarda sornione.