Il chimico di via Panisperna.

Riccardo Giustozzi

Nella foto il famoso ritratto dei ragazzi di Via Panisperna. D’Agostino è il primo a sinistra.

Il 1933 è l’anno in cui in Italia iniziarono ufficialmente le ricerche nel campo della Fisica Nucleare, portate avanti da tre differenti istituti: quello di Roma, di Firenze e di Padova. Ad ognuno era stato assegnato uno specifico argomento di ricerca; Orso Mario Corbino, Enrico Fermi e Franco Rasetti decisero di occuparsi della spettroscopia gamma. È da sottolineare che, inizialmente, fu presa in considerazione Firenze, e non Roma, per ospitare gli studi sui neutroni.

A Roma, dunque, Fermi e Rasetti si concentrarono sul perfezionamento di tecniche spettroscopiche e sul problema della diffusione dei raggi gamma. Questi argomenti di ricerca portarono alla costruzione di uno spettrografo a cristalli di bismuto che testarono attraverso dei piccoli che contenevano sorgenti di materiale radioattivo, preparate direttamente da Giulio Cesare Trabacchi che era a capo dell’Ufficio del Radio, unico organo che poteva distribuire campioni radioattivi ai diversi centri di ricerca. Per questo motivo Trabacchi era soprannominato “La Divina Provvidenza”.

La maggiore difficoltà era quella di isolare il Polonio dal materiale radioattivo disponibile per creare così sorgenti di particelle α ad alte energie con cui bombardare una serie di nuclei atomici. Questa estrazione è possibile, attraverso metodi molto sofisticati, dal Radio D e se ne occupò in prima battuta Rasetti. Ben presto però ci si rese conto che serviva un aiuto. Fermi chiese a Nicola Parravano, direttore dell’Istituto di Chimica dell’Università di Roma, di segnalargli il nome di un bravo chimico che potesse spalleggiare Rasetti durante questi esperimenti. Quel bravo chimico si chiamava Oscar D’Agostino.

D’Agostino era nato il 29 agosto del 1901 ad Avellino e si era laureato a Roma in Chimica qualche anno prima (1926). Dopo una breve esperienza di consulenza tecnica presso una società produttrice di pile, era entrato all’Istituto di Chimica come assistente del Prof. Parravano.

Era il 1933 quando Fermi lo chiamò all’Istituto di Via Panisperna per trattare quel processo, complesso e delicato, di estrazione del Polonio. Lo stesso D’Agostino descrisse quella pratica:

“Una di queste sorgenti era il Polonio, ricavabile dal RadioD, estratto dal deposito attivo lasciato dalla emanazione del Radio o da vecchi preparati di Sali di Radio lasciati per molti anni chiuse ed inutilizzati.”

Grazie al lavoro congiunto dei due, l’Istituto di Roma si trovò a possedere, nel giro di pochissimo tempo, una quantità di Radio seconda soltanto a quella prodotta dall’Institut du Radium di Parigi.

Proprio all’Institut du Radium fu indirizzato D’Agostino, su suggerimento di Corbino e Rasetti, nei primi mesi del 1934 grazie ad un assegno di ricerca che gli era stato conferito nel novembre dell’anno precedente dal CNR. A Parigi poté approfondire le sue conoscenze della radioattività attraverso le lezioni di Marie Curie e dei coniugi Irène e Frédéric Joliot-Curie, che agli inizi del 1934 avevano ottenuto i primi elementi radioattivi artificiali dopo aver bombardato alcuni elementi leggeri con particelle α.

Qualche mese dopo, verso la fine di marzo, D’Agostino rientrò a Roma per le vacanze di Pasqua e Fermi decise di coinvolgerlo nella ricerca sulla radioattività indotta dai neutroni come si legge in una lettera datata 26 giugno 1934:

Il Dr. O. D’Agostino, che ha una borsa di studio del CNR per Parigi, è, come ti accennai, stato trattenuto da me per lavorare qui alle nuove radioattività artificiali. So che ti ha scritto perché gli venga pagata la seconda rata della borsa di studio. Vedi se è possibile accontentarlo.

Coi più cordiali saluti e ringraziamenti

Enrico Fermi”.

Lo scopo era quello di bombardare tutti i 92 elementi presenti in natura in tempi molto brevi e D’Agostino ricoprì un ruolo fondamentale, separando e caratterizzando un gran numero di radioisotopi artificiali. Il solito Fermi dirà:

“Nel corso dei lavori si è presentato anche frequentemente il problema di manipolare e preparare sostanze radioattive naturali. In tutte queste ricerche ho potuto sempre apprezzare l’abilità e l’operosità del D’Agostino, nonché la sua attitudine ad orientarsi rapidamente di fronte a nuovi problemi.”

Durante questi bombardamenti fu indotta anche la radioattività nell’Uranio che portò al famoso dilemma della scoperta del 93esimo elemento, ipotesi rivelata sbagliata solo nel biennio1938-39 con i lavori di Meitner e Hanh sulla fissione nucleare**.

Nel 1935 iniziò a disgregarsi il nucleo romano, specialmente con la partenza di Segrè per Palermo dove aveva vinto il concorso a cattedre, e si allontanò anche D’Agostino e nel marzo del 1938 conseguì la libera docenza in Chimica Generale. Dopo alcuni anni al CNR, tornò definitivamente all’Istituto Superiore di Sanità dove si impegnò in ricerche di radioterapia, in particolar modo sull’utilizzo di isotopi radioattivi in ricerche chimiche e biologiche.

Edoardo Amaldi, in merito ai suoi tentativi di ricostruire un gruppo di ricerca nel 1939, scriverà:

“In quel periodo feci vari tentativi per convincere Oscar D’Agostino a tornare a lavorare in radiochimica, come aveva fatto con successo dalla primavera 1934 al giugno 1935. Sia la fissione dell’Uranio che l’impiego di nuovo isotopi radioattivi come traccianti erano settori di straordinario interesse scientifico. La sua collaborazione con il nostro gruppo, utilizzando l’impianto dell’Istituto Superiore di Sanità, avrebbe potuto dare notevoli frutti, ma i suoi interessi si erano spostati verso altri settori ed ogni mio sforzo fu inutile nonostante anche lui fosse enormemente colpito dalla scoperta della fissione”.

**************************************

*Riccardo Giustozzi, laureando in Fisica presso l’Università degli Studi di Camerino. Creatore e ideatore nell’agosto 2019 della pagina di divulgazione storico-scientifica chiamata “Storie Scientifiche”. Da gennaio 2020 collaboratore e autore di alcuni contenuti per il Centro Ricerche Enrico Fermi, con un occhio di riguardo per la storia dei fisici italiani del Novecento.

Sul centro ricerche Enrico Fermi e sul costituendo museo di via Panisperna diretto da Francesco Sylos Labini abbiamo pubblicato recentemente un post.

**Nota dell’Editor: a questo proposito richiamo l’attenzione dei lettori sulla storia di Ida Noddack che abbiamo raccontato in un post a firma di Rinaldo Cervellati

Cosa non dobbiamo più buttare nello scarico di casa.

Mauro Icardi

Nel marzo 2015 e stato pubblicato un mio articolo, che intitolai “ Cosa buttiamo nelle fognature?

 A distanza di più di sei anni devo riprendere il tema, modificando il titolo.

Nei sei anni trascorsi la gestione degli impianti di depurazione ha risentito fortemente delle modifiche dei regimi di caduta delle piogge. Ricordo per precisione, che le fognature sono ancora principalmente di tipo misto, raccolgono cioè anche acque di pioggia.

Le cronache meteorologiche dello scorso mese di luglio nella zona prealpina descrivono una situazione molto problematica.

Riporto dal sito del centro geofisico prealpino di Varese cosa accaduto a fine luglio.

Deciso cambiamento dal 24 a causa di correnti umide da SW, sospinte da una bassa pressione sulla Manica. Temporali forti e diffusi il 25 (forte grandinata Locarno-Avegno, tetto scoperchiato a Gallarate, grandinate abbondanti con strade imbiancate Lecco, h15 nubifragio a Varese e allagamenti, grandine a Orino fino 30 mm).
I temporali proseguono intensi anche nei giorni successivi. Il 26 in particolare su Valcuvia e Valganna. Il 27 nubifragi interessano il Mendrisiotto, il Lario (colate fango, interrotta SS Regina, a Cernobbio esonda torrente Breggia e distrugge il lungolago) e anche il Varesotto con allagamenti (Varese via Peschiera). Il 28 piogge battenti sul medio Varesotto (Brinzio 89mm, Cuvio 82 mm, Ganna=141 mm) e a ridosso del Campo dei Fiori. Esonda il torrente Tinella a Luvinate ed estesi allagamenti interessano Gavirate (frazioni Armino, Pozzolo e Trinità), Brusimpiano e Cuvio dove esonda il torrente Broveda.

Quando avvengono eventi piovosi di questa intensità, aumenta la quantità di materiale che viene raccolto dalle griglie poste a monte dei trattamenti successivi, cioè sedimentazione primaria e ossidazione biologica.

Negli scarichi di casa, siano essi quelli del lavandino di cucina, oppure quello dei servizi igienici non si devono assolutamente buttare materiali non biodegradabili.

Quindi no a plastica, bastoncini cotonati per orecchie, profilattici, parti di pannolini, rifiuti solidi di piccole dimensioni, mozziconi di sigaretta, stracci.

Mi sento di fare questa richiesta, perché tutto questo materiale provoca davvero problemi nel funzionamento delle fasi depurative. Manda in sofferenza i depuratori.

Basta guardare con attenzione questa immagine.

Dopo la giornata di pioggia del 28 luglio si è dovuto ripristinare il funzionamento della sezione di grigliatura.  La sezione di trattamento è rimasta fuori servizio per circa tre ore.  L’intervento non solo ha ripristinato il corretto funzionamento della fase di grigliatura, ma ha salvaguardato le successive fasi di trattamento. Evitando malfunzionamenti dovuti all’intasamento dei pozzetti dove sono installate le pompe, e i relativi sensori di livello. Il materiale che si vede, chiamato residuo di vagliatura non proviene dal dilavamento stradale. Arriva per i motivi più disparati dai nostri scarichi. Facciamo in modo di ricordarci di avere comportamenti attenti e responsabili, non solo nella gestione dei rifiuti, ma anche in quella della gestione dell’acqua che arriva nelle nostre abitazioni, prima di scaricarla.

La gestione di un bene prezioso come l’acqua richiede un atteggiamento di maggior attenzione, da parte di tutti. Solo in questo modo il termine “bene comune” assume un significato vero.

Piccola nota conclusiva: i colleghi addetti alla conduzione dell’impianto mi hanno chiesto di scrivere qualcosa, che raccontasse del loro impegno, quando si verificano situazioni come queste. Io ho accettato subito volentieri. In passato anche io ho preso in mano il badile. E loro lo ricordano. Se dovesse servire ancora, sanno che li aiuterei di nuovo. Purtroppo i fenomeni di piogge anomale si verificano piuttosto frequentemente.  E ci sono persone che si occupano di non interrompere mai né la fornitura, né la depurazione delle acque. Giusto e doveroso ricordarlo. E ringraziarli.

La TAC compie 50 anni

Luigi Campanella, già Presidente SCI

La TAC (Tomografia Assiale Computerizzata) compie 50 anni (il primo dispositivo venne installato nel 1971 nell’Atkinson Morley’s Hospital di Wimbledon) e la festeggiano oltre alla medicina, anche numerose altre discipline che si giovano delle sue straordinarie capacità,a partire proprio dalle Scienze dei Beni Culturali e da quelle Ambientali, con particolare riferimento ai paleoambienti ed alla radiazione ambientale.

Godfrey Hounsfield, il suo inventore si pose per primo l’obiettivo di fotografare anche i tessuti molli del nostro organismo che le normali radiografie non riescono a distinguere. I raggi X vedono solo gli oggetti compatti più densi, come ossa ,ma non quelli composti per la maggior parte da acqua come i muscoli. Per raggiungere il suo fine Hounsfield con l’aiuto di un tornio su cui montò il macchinario per radiografie effettuò migliaia di scansioni attorno al campione e le fece elaborare da un computer per ottenere un’immagine tridimensionale.Tempo impiegato: 9 giorni, troppi per dare un significato pratico alla scoperta.Con una raccolta di fondi a cui contribuirono in misura significativa anche i Beatles nel 1971 fu realizzato il primo prototipo di apparecchiatura TAC applicata ad una paziente con cisti al cervello. Il suo costo è stato di 69000 sterline,l’equivalente di 1,5 milioni di euro di oggi. Nel 1973 compaiono le prime TAC installate negli ospedali.Lo strumento scatta 160 immagini per ogni spostamento di 1 grado nell’intervallo 0–180 gradi per un totale di 28800 radiografie successivamente elaborate da un computer in un tempo complessivo di 2h con un salto di velocità rispetto ai 9 giorni del prototipo precedente Nel 1973 compaiono le prime TAC negli ospedali, anche in Italia a Bologna. 6 anni dopo Hounsfield riceve il premio Nobel per la medicina insieme ad Allan McCormack.


Oggi con i successivi perfezionamenti la TAC riesce distinguere dettagli dell’ordine del decimo di mm ed a studiare anche organi in movimento come il cuore.Combinata con le IA (Intelligenze artificiali) sta contribuendo alla lotta contro i tumori ancor più che in passato. Tale lotta è uno degli obbiettivi più ambiti della ricerca scientifica del nostro tempo e si articola in due principali linee, prevenzione e cura.
Un esempio molto rappresentativo è offerto dal tumore del colon retto rispetto al quale un grande passo in avanti si sta realizzando nello screening: si va a caccia di quelle lesioni precancerose, polipi, alterazioni tessutali, ma con strumenti sempre più sensibili. Questi avanzamenti sono stati resi possibili grazie alle applicazioni dell’intelligenza artificiale a tali strumenti.La nuova tecnologia da un lato immagazzina milioni di immagini e di dati relativi a polipi di ogni foggia e dimensioni il che consente di catalogare per pericolo e per caratteristiche fisiologiche e dall’altro può essere definita un occhio di falco capace di stanare lesioni di 2mm in precedenza difficilmente rilevabili.
Oggi la TAC, come accennavo all’inizio, ha trovato applicazioni anche in campi diversi dalla medicina, in particolare archeologia ed archeo-metria ed ambiente. Uno degli studi più recenti ha riguardato le mummie dell’antico Egitto, raccogliendo su di esse preziose informazioni
Nel caso di reperti ipogei come le tombe la problematica della stabilità ambientale assume gravità diverse a seconda dei metri di profondità del suolo che insiste sul sito considerato: se questa profondità è di pochi metri alle oscillazioni termo-igrometriche interne si sommano.infatti quelle esterne che possono modificare la condizione interna con conseguenti pericoli per le opere interessate. La conoscenza accurata dello stato preliminarmente a qualsiasi intervento risulta pertanto fondamentale. In campo ambientale la TAC ha consentito lo studio di reperti fossili contribuendo ad importanti avanzamenti della paleoantropologia.In qualche caso la TAC ha smontato ipotesi suggestive su opere d’arte relative ai materiali ussti (pigmenti naturali o artificiali ?) o agli stessi autori o chiarito se su un quadro fosse intervenuto sia pure in tempi diversi più di un pittore.

La mummia di Usai: figlio di Nekhet e di Heriubastet (XXVI dinastia, 664-525 a.C.) per lui è arrivato il momento della T.A.C. al Malpighi di Bologna.

Una ricerca dimenticata di Giacomo Ciamician.

Rinaldo Cervellati

Fra le molte ricerche di Giacomo Ciamician (1857-1922)[1] ci sono quelle sul pirrolo, questo composto “aromatico” eterociclico (Figura 1):

Figura 1. Struttura del pirrolo

Chiaramente, nell’ultimo ventennio del XIX secolo, le conoscenze sulla struttura atomico-molecolare erano molto limitate come pure la strumentazione, sicché si doveva ricorrere a metodi come l’analisi elementare, il comportamento chimico e la spettroscopia di emissione.

Come scrive Diego Savoia [1]: gli studi di Ciamician furono indirizzati ad approfondirne la reattività, l’aromaticità, l’acidità e la basicità e la sua trasformazione in derivati più complessi e funzionalizzati.

Dopo gli studi a Vienna e la laurea a Giessen (Germania), Ciamician divenne, nel 1880, assistente di chimica organica a Roma, nel gruppo di Stanislao Cannizzaro. Continuò gli studi sul pirrolo e, insieme a Max Dennstedt (1852-1931)[2] (Figura 2), scoprì una reazione che va sotto il nome di riarrangiamento di Ciamician-Dennstedt.  In pratica si tratta dell’espansione dell’anello pirrolico mediante riscaldamento con cloroformio o altri composti alogenati in soluzione alcalina, che oggi scriveremmo come:

L’intermedio diclorocarbene, in aggiunta al pirrolo, forma un dialogenociclopropano instabile che si riorganizza a 3-alogenopiridina.

Il lavoro fu pubblicato nel 1881 dal Berichte [2].

Figura 2. Giacomo Ciamician (sinistra) e Max Dennstedt (destra)

Nel numero del 9 agosto 2021 [3] di C&EN news, XiaoZhi Lim, ci informa che  i ricercatori guidati da Mark D. Levin (Figura 3) dell’Università di Chicago hanno aggiornato la reazione di  riarrangiamento Ciamician-Dennstedt del 1881, che produce anelli piridinici a sei membri inserendo un carbene in un anello pirrolico a cinque membri.

Figura 3. Mark D. Levin

 Levin afferma: “Purtroppo dovrebbe essere davvero utile, ma in pratica non funziona come dovrebbe”. Infatti, i chimici tipicamente generano il carbene aggiungendo cloroformio o composti trialogenati simili alla reazione di Ciamician-Dennstedt, che limita i sostituenti sull’anello piridinico risultante agli alogeni. Sicché, il gruppo di Levin ha sostituito il cloroformio con clorodiazirine, che si scompongono in un catione carbinile e azoto gas [4].

Come un carbene, il catione carbinile può aggiungersi ai pirroli o agli indoli, espandendoli in piridine o chinoloni. I reagenti clorodiazirina possono essere preparati in un unico passaggio ossidando le ammidine disponibili in commercio con ipoclorito di sodio, e ci sono più di 1.600 di tali ammidine che portano diversi sostituenti tra cui scegliere. Levin spera che questa reazione renda più facile per i chimici farmaceutici sintetizzare stimolanti farmaci a base di piridina o chinolone senza doverli costruire tutti da zero (Figura 4).

Figura 4. La reazione di un indolo (a sinistra) con una clorodiazirina espande la molecola in una chinolina con l’aggiunta di un gruppo fenile (a destra) [3]. Credit: J. Am. Chem. Soc.

Bibliografia

[1] D. Savoia, Ciamician e il pirrolo, in: M. Venturi (a cura di), Ciamician, Profeta dell’energia Solare, Atti del Convegno storico-scientifico in occasione del 150° anniversario della nascita. Fondazione Enrico Mattei, 2008, pp.125-147;  V. anche: M. Taddia, Ciamician, un chimico di vario sapere, ibid, pp. 7-32.

[2] G. L. Ciamician, M. Dennstedt,  Ber.,  14, 1153 (1881).

[3] XiaoZhi Lim, Reaction expands nitrogen-containing rings and options for medicinal chemists Reimagined 19th-century method could potentially take advantage of more than 1.600 commercially available reagents, special to C&EN, August 9, 2021

[4] B. D. Dherange, P. Q. Kelly, J. P. Liles, M. S. Sigman, M. D. Levin*. Carbon Atom Insertion into Pyrroles and Indoles Promoted by Chlorodiazirines.,  J. Am. Chem. Soc., 2021, 143, 11337–11344


[1] Giacomo (Luigi) Ciamician, Professore di Chimica Generale nell’Università di Bologna dal 1889 fino alla scomparsa è considerato il fondatore della fotochimica moderna, collaborò al progetto dell’edificio dell’Istituto di Chimica dell’Università di Bologna che oggi ospita il Dipartimento a lui intitolato. Si è occupato attivamente della sintesi di prodotti organici naturali.  Oltre a essere uno dei fondatori della fotochimica moderna, Giacomo Ciamician è considerato anche il precursore dell’utilizzo pratico dell’energia solare.

[2] Max Eugen Hermann Dennstedt (1852 -1931) è stato un chimico tedesco. Dopo aver conseguito il dottorato a Berlino nel 1879, dal 1880 fu professore visitatore all’Università di Roma, dove lavorò per Cannizzaro e Ciamician nel campo della chimica del pirrolo e conseguì la sua abilitazione.  Nel 1893 assunse la direzione del Laboratorio chimico statale dell’Università di Amburgo. E’ considerato uno dei pionieri delle applicazioni fotografiche nelle prove forensi. Dopo gli studi sul pirrolo si occupò di chimica analitica.

I progetti europei per la direttiva 3R sulla sperimentazione animale

Luigi Campanella, già Presidente SCI

Come ho più volte scritto sono contrario alla sperimentazione animale, nella convinzione che in molti casi possa essere sostituita, ma anche con la convinzione della sua possibile insostituibilità in certe situazioni. Il mio è un atteggiamento in cui la componente scientifica e quella etica si intrecciano, rendendo talvolta difficile anche a me distinguere una dall’altra.

Credo che la chimica possa contribuire proprio a ridurre progressivamente questi casi di insostituibilità. Guardo quindi con interesse ed attenzione, scientifica e personale, ai progetti di ricerca che si sviluppano attorno a questa problematica

La quantità e la varietà di composti chimici è in continua crescita. Migliaia di sostanze non sono mai state testate per la tossicità e la loro produzione è prevista raddoppiarsi entro il 2030. Mentre l’inquinamento viene accreditato come responsabile di una morte su 10 nel mondo risulta sempre più evidente il bisogno di sviluppare test più affidabili e più rapidi che al tempo stesso soddisfino i principi etici di ridurre quanto più possibile il ricorso alla sperimentazione animale. A tal fine l’Unione Europea sta investendo 60 Meuro in 5 anni (il doppio del precedente finanziamento) in 3 progetti internazionali interamente dedicati al progresso della tossicologia regolamentaria senza l’uso di test su animali.

Nel mese di marzo passato 15 organizzazioni guidate dall’Università di Birmingham hanno lanciato PrecisionTox.

Questo progetto è focalizzato su linee cellulari umane e su una diversa organizzazione degli organismi modello biomedici, come ad esempio la mosca della frutta, la zanzara dell’acqua, i vermi e gli embrioni del pesce zebra. Questi organismi non senzienti non sono guardati come animali negli standard legali e condividono molti geni con gli umani secondo l’evoluzione. Questi test rapidi che soddisfano le indicazioni della direttiva europea in materia delle 3 R (ridurre, sostituire, riformulare) e le esigenze di costo consentiranno di mappare le origini dell’azione tossica sui rami dell’albero dell’evoluzione animale per predire chimicamente effetti negativi sulla salute di tutti gli animali, compreso l’uomo.

Il secondo progetto ONTOX, coordinato dall’Universitá Vrije di Bruxelles, è partito in maggio con l’obiettivo di creare metodi innovativi senza sperimentazione animale capaci di predire tossicità cronica per gli umani a seguito di esposizione prolungata. Il progetto si basa sulle Intelligenze Artificiali per misurare gli effetti tossici indotti da ogni genere di composto chimico (farmaco, cosmetico, alimento, biocida) su fegato, rene, cervello, ma con una metodologia esportabile ad altri organi.

Infine il terzo progetto Risk-Hunt 3R raccoglierà il testimone dal progetto EU-ToxRisk che sta per concludersi avendo disposto di un finanziamento di 27 Meuro. Il consorzio  di 37 partner guidati dall’Università di Leiden è impegnato per trovare una nuova impostazione al problema dei test di tossicità esenti da sperimentazione animale combinando scenari di esposizione umana, test in vitro e metodologie computazionali per ottenere dati sui meccanismi di tossicità che possano identificare attraverso quali processi l’essere umano possa essere danneggiato dal contatto con i composti testati.

 Come si vede si tratta di 3 progetti che ben si integrano rispetto da un lato alla ottimizzazione delle conoscenze in materia e dall’altro alla esigenza di nuovi approcci che rispondano alla direttiva 3r. Di questa si tende ad esaltare gli aspetti relativi alla riduzione progressiva ed alla completa sostituzione dei test su animali, ma vorrei osservare che altrettanto e forse più importante è la terza R, che riguarda la riformulazione dei test ancora adottati ai fini di un rispetto per l’animale che ne riduca quanto più possibile disagi e sofferenze e di una maggiore affidabilità del dato sperimentale che consenta un minore numero di esperienze senza perdere in accuratezza del risultato.

La chimica e la fisica della stiratura (con qualche nota di profumo).

Claudio Della Volpe

Questo post ha una storia lunghissima; sono sposato da 44 anni e sono 44 anni che discuto con mia moglie della stiratura dei panni, della sua necessità e delle metodiche per farla od evitarla; in particolare ci sono alcune cose che mi hanno sempre stupito: una per tutte, perché sbattere i panni umidi prima di stenderli dovrebbe essere una strategia che aiuta a ridurre la stiratura?

Ecco oggi cerco di parlarvi di cose del genere e finalmente risponderò alla domanda o se volete allo sfottò di mia moglie (che è una chimica anche lei) del tipo: ok non so il motivo-chimico-fisico ma funziona così (“motivo chimico fisico” scritto con le lineette corrisponde alla particolare cantilena usata dalla consorte, una cosa che normalmente mi fa imbestialire).

Il fatto è che a me il motivo chimico fisico mi intriga troppo per trascurarlo e così dopo l’ennesima discussione, questa volta con amiche e sorelle che davano assolutamente ragione a mia moglie, ho deciso di capirci qualcosa.

Ok, mia moglie ha ragione e adesso so perché e ve lo voglio raccontare.

Sarà un segno dei tempi, un frutto poco goloso, ma comunque è il mio contributo al MeToo.

Dobbiamo partire dal materiale di cui sono fatti i vestiti: le fibre tessili.

La maggiore o minore inclinazione alla formazione di pieghe dipende prima di tutto dalla composizione dei tessuti. I tessuti in cellulosa naturale sono quelli più soggetti alla formazione di pieghe (cotone, lino…).

Nelle fibre naturali costituite di polisaccaridi come la cellulosa che è la molecola base del lino, del cotone le lunghe molecole di polisaccaride possono formare legami idrogeno che specie in presenza di umidità e molecole di acqua assorbite si rompono e riformano con l’asciugatura; questi legami sono più deboli di quelli covalenti o ionici e possono formarsi e rompersi con relativa facilità e soprattutto sono numerosi e non “obbligati” dalla struttura, se ne possono formare molti e fra parti diverse e non connesse in origine.

Aggiungo qui che questa osservazione per me, che mi occupo di adesione, ha un grande valore perché il legame idrogeno è il più comune dei legami acido-base di Lewis che costituiscono la base dei legami adesivi fra superfici; ne abbiamo parlato in altri post (per esempio qui e qui). Dunque come i legami adesivi comuni prevedono legami idrogeno e simili meccanismi di donazione-accettazione di densità elettronica fra molecole di superficie, così fanno i legami INTERNI fra molecole in materiali comuni come i tessuti; solo che nei tessuti questa adesione ne modifica la forma e la geometria producendo nel nostro caso pieghe a non finire specie se il tessuto è stato bagnato!

Tout se tien!

Scusate ma ho bisogno di un mondo fatto così, dove capisco cosa faccio!

Uno dei motivi per cui i tessuti naturali vengono arricchiti con fibre sintetiche o rigenerate, come elastan o viscosa, è limitare la formazione di pieghe oltre a migliorare elasticità e vestibilità; in pratica limitare la possibilità di formare legami idrogeno aiuta a limitare le pieghe nelle fibre a base di polisaccaridi.

I tessuti in fibra di cellulosa rigenerata tendono a piegarsi meno. Queste fibre sono prodotte dalla cellulosa naturale, che viene prima trasformata in nitrato o acetato di cellulosa, e poi riorganizzata in fibre. Rayon, viscosa, acetato o tencel sono esempi di tessuti in fibra di cellulosa rigenerata.

Le fibre sintetiche, come il poliestere e il nylon, sono caratterizzate da una tipologia più differenziata ma generalmente tendono a piegarsi meno (nel nylon i legami idrogeno ci sono, ma per fare legami idrogeno intercatena le difficoltà steriche sono maggiori).

Infine, le fibre meno soggette a pieghe sono quelle di origine animale fatte di proteine, non di polisaccaridi, come la seta e la lana e questo comporta anche la loro elevata cristallinità e una specifica struttura piana le cosiddette beta-sheet, legate alla struttura cosiddetta “secondaria” della catena proteica; le strutture possibili sono due ma entrambe rigide.

Qui i legami idrogeno ci sono eccome, ma sono tanti e tali e così ben connessi che la rigidità è strutturale; le fibre sono fortemente connesse e rimangono tali anche durante e dopo il lavaggio.

In definitiva la formazione delle odiate pieghe nei tessuti dipende dalla possibilità di formare legami interni fra le molecole delle fibre e tra le fibre stesse (le fibre sono complessi lineari di macromolecole); perché ciò avvenga ci vogliono tante molecole capaci di fare legami idrogeno ma anche senza obblighi strutturali, se no come succede nella seta o nella lana i legami non si spostano; nelle fibre a base di cellulosa la cosa è possibile, con calore o pressione e si esalta se si aggiungono molecole di acqua, ovviamente. Allontanando l’acqua (o il calore o la pressione) i legami si riformano nella nuova posizione (e fanno le pieghe!!!).

The glass transition of cotton PhD thesis di Chantal Denam, Deakin University 2016

Chiaramente ci sono condizioni di temperatura e pressione che facilitano la distruzione e formazione di questi legami. Nella chimica dei polimeri la condizione di temperatura che consente la trasformazione è chiamata “temperatura di transizione vetrosa” Tg, risente della pressione e dell’umidità  e consente di distruggere e formare nuovi legami, facendo anche variare lo spazio libero fra le fibre e dentro le fibre; per il cotone la temperatura in questione risente particolarmente dell’umidità come si vede dal grafico. In definitiva dunque lavaggio e successiva stiratura riproducono questa condizione e consentono di forzare od eliminare la piegatura; la stiratura, meglio se leggermente umida, come si fa stirando a vapore è un modo di mettersi in queste condizioni di Tg.

 C’è da dire che a volte la formazione di pieghe è desiderata: una gonna plissettata per esempio è una gonna a pieghe e come si formano?  Pare che le prime tecniche di stiratura vengano dai tentativi di fare tessuti plissettati svolti ai tempi degli egiziani e a freddo con uno strumento piatto e molto pesante detto lisciatoio, usato sui tessuti umidi.

Solo nel 200dC arrivò l’antenato del nostro ferro a caldo, un recipiente in bronzo con manico in legno, contenente brace incandescente, impiegato alla corte cinese per lisciare sete e tessuti. La storia dei ferri da stiro la potete trovare sulla pagina della Polti, uno dei più noti produttori di questo elettrodomestico, elencata in fondo.

Ci sono altri aspetti che favoriscono o meno la formazione di pieghe; la tessitura, in pratica i tessuti piatti (weave), come il tessuto di una camicia tradizionale, tendono a formare più pieghe rispetto ai tessuti a maglia (knit), come quelli di maglioni e felpe, anche a parità di composizione. E a parità di altri parametri la densità della tessitura, tessuti più fitti fanno meno pieghe.

Ed infine da notare che in anni recenti si sono sviluppate tecniche decisamente “chimiche” per ridurre le pieghe; i procedimenti attuali per ottenere tessuti antipiega consistono in trattamenti con urea-formaldeide e melammina-formaldeide che reticolano con legami covalenti i tessuti sia naturali che sintetici, impedendo la formazione di pieghe ma possono rilasciare molecole come la formaldeide.

Ho riassunto l’essenziale delle condizioni chimiche e fisiche che portano alla formazione di pieghe nei tessuti. Adesso torniamo alla pratica della manipolazione dei tessuti quando li si lava e li asciuga e poi li si stira.

La stiratura ha preso piede soprattutto all’inizio del 900 con la comprensione che essa aiutava ad igienizzare i panni eliminando per esempio le uova di pidocchio o le spore ed i batteri che fossero rimasti adesi al tessuto; oggi con le maggiori condizioni di igiene complessiva e la potenza dei nuovi detersivi questo ruolo è meno importante, ma è comunque ragionevole ricordarlo, specie nei paesi dove le condizioni igieniche non sono come le nostre. Inoltre la stiratura come tale aiuta a riposizionare le fibre nella posizione originale allungando la vita utile del tessuto, ma questo come vedremo si può fare anche altrimenti.

Quali procedure possono essere utili per ridurre la stiratura al minimo? Lo scopo è ridurre la spesa energetica della stiratura che viene stimata in alcuni kWh per chilo di tessuto

La prima è scegliere tessuti che non fanno le pieghe o ne fanno meno stando attenti in fase di acquisto; seguono poi alcuni criteri operativi.

Se si lava in lavatrice usare una centrifuga meno spinta perché le forze sviluppate durante la centrifugazione forzano i tessuti bagnati in una configurazione a pieghe, specie se avete riempito la lavatrice al massimo. Se lavate a mano e torcete i panni per asciugarli le pieghe si formano ancor più.

Stendere i panni al sole e al vento ma facendo attenzione a “stenderli” eliminando le pieghe che si sono formate durante il lavaggio; e qui, in questo momento topico, lo sbattimento del tessuto, di cui ho discusso innumerevoli volte con mia moglie, ha il suo ruolo maggiore; sbattere il tessuto prima di stenderlo, casomai più di una volta prendendolo in posti “chiave” e ricordandogli la sua forma “giusta”; non ci riuscirete subito, cari lettori maschi.

Nonostante io adesso l’abbia capito non ci riesco sempre.

Questo metodo si deve usare anche nell’appendere il vestito, sfruttando i posti da cui può pendere in modo simmetrico, evitando la formazione di nuove pieghe causate dalle mollette per esempio. Un trucco può anche essere di stendere non solo lungo il filo ma FRA due fili, perpendicolarmente al filo cercando di ottenere un supporto di dimensioni opportune. Quest’ultima operazione può essere motivo di discussione con i rispettivi consorti.

Usare per i capi di forma complessa come le camicie una stampella a cui appenderla nel modo più “naturale”.

Sto parlando di stendere al sole e al vento, nostri naturali alleati energetici; oggi si è creato anche in Italia un mercato di “asciugatrici” elettriche; personalmente credo siano spesso inutili; stendere al balcone i panni o alla finestra deve diventare un nuovo  status symbol, quello di chi capisce che risparmiare energia è necessario e civile. Non dico che non possa essere perfino indispensabile la asciugatrice ma certo la spinta ad acquistarla che viene dal mercato dei falsi bisogni deve essere ben valutata. Nella maggior parte dei casi non è necessaria.

Inoltre i panni asciugati al sole e al vento (asciugatura rinnovabile…..) hanno anche un particolare profumo che ricorda a molti di noi quando stendere i panni insieme a mamme e nonne era un momento clou dell’infanzia. Voglio finire con questa nota profumata ricordando qui un recente lavoro di una giovane ricercatrice italiana, Silvia Pugliese, ora all’Università di Copenhagen che ha pubblicato un interessante lavoro su cosa conferisca ai panni stesi al sole quel particolare profumo.

Silvia Pugliese

Come vedete dalla figura si tratta di un complesso effetto legato alla compresenza di idrocarburi atmosferici, luce solare e cotone bagnato.

Silvia Pugliese et al.  Environmental Chemistry 17(5) 355-363 https://doi.org/10.1071/EN19206 Chemical analysis and origin of the smell of line-dried laundry

Dice l’autrice: L'odore fresco e gradevole della biancheria asciugata all'aperto al sole è riconosciuto dalla maggior parte delle persone, ma nonostante decenni di speculazioni l'origine dell'odore non è stata dimostrata. Mostriamo che l'odore del bucato steso è dovuto alla combinazione unica di tracce di idrocarburi atmosferici, luce solare e superficie del tessuto bagnato. È probabile che questa fotochimica superficiale sia diffusa nell'ambiente su superfici di materiali naturali.
E ancora:
Proponiamo che l'ozono o le reazioni fotochimiche convertano i VOC (ossia i composti organici volatili, come gli idrocarburi) a catena corta nelle loro controparti ossigenate, che sono note per avere una varietà di odori, molti dei quali possono fungere da note che contribuiscono al caratteristico odore di bucato appena steso. La superficie del cotone lega i prodotti di reazione per fisisorbimento o legame idrogeno e può trattenere l'odore per alcuni giorni.

Brava Silvia!.

Da consultare:

https://www.polti.com/news/the-science-of-effective-ironing/

https://www.polti.it/stiro-e-cura-dei-capi/evoluzione-e-storia-del-ferro-da-stiro-con-caldaia/

La Polti produce ferri da stiro, ma ha anche costruito delle interessanti pagine web sul tema, dunque, al netto dei conflitti di interesse, grazie alla Polti ed alla collega Deborah García Bello che ne ha curate alcune molto interessanti.

Cocktail di erbicidi.

Mauro Icardi

Di glifosato come di altre centinaia di molecole che abbiamo sintetizzato ex-novo, e che poi sono state diffuse nell’ambiente, probabilmente  sentiremo parlare ancora a lungo. Perché il glifosato non è presente soltanto nel cibo che consumiamo ogni giorno, ma è stato rilevato anche nei fiumi italiani.

Un nuovo studio (vedi anche link in fondo) , condotto dall’Università Statale di Milano e coordinato da Caterina La Porta, docente di Patologia generale del dipartimento di Scienze e Politiche Ambientali e Stefano Bocchi, docente di Agronomia dello stesso dipartimento, ha valutato la presenza di erbicidi e insetticidi in fiumi e acque sotterranee della Lombardia. I risultati, anche stavolta, non sono certo confortanti e mostrano un livello di inquinamento da pesticidi molto alto.

Nelle acque lombarde (soprattutto quelle superficiali), infatti, vi è una grande presenza di sostanze “chimiche”, in particolare di glifosato e Ampa (metabolita che deriva dalla trasformazione microbica  dell’erbicida anche se dobbiamo ricordare che l’AMPA può derivare anche da altre fonti).

Lo scopo dello studio pubblicato su Scientific Reports però non rivolgeva l’attenzione solamente al glifosato, ma si prefiggeva di valutare gli effetti del mix di queste sostanze sull’ambiente, quello che è ormai noto come “effetto cocktail”. 

In merito al quale i ricercatori scrivono: Anche se un singolo pesticida potrebbe essere allo stesso tempo efficace e sicuro a una concentrazione sufficientemente bassa, oggi la questione principale è l’impatto dell’accumulo di più pesticidi nell’ambiente, considerando l’intero ecosistema e inclusi gli esseri umani.

Spesso insieme al glifosato, soprattutto nelle acque delle aree agricole, si trovano anche altri erbicidi come Terbutilazina, Bentazon, il 2,4-Diclorofenolo (intermedio di produzione di erbicidi) e Metolaclor (erbicida).

I risultati di questo studio hanno mostrato che l’esposizione per 7 giorni a un mix di inquinanti di questo genere è in grado di provocare problemi sulla crescita e sulla conformazione morfologica dell’alga C.Reinhardtii utilizzata come biosensore.

Il monitoraggio non ha preso in esame l’acqua che esce dal rubinetto ma quella dei corpi idrici.  Nella filiera di trattamento delle acque destinate al consumo umano, sono previsti sistemi di abbattimento e depurazione per poter immettere nel rubinetto acqua a norma. Questo perché i corpi idrici superficiali e sotterranei sono sempre più vulnerabili al cocktail di molecole definite come inquinanti emergenti.

Le aziende che gestiscono il ciclo idrico integrato perseguono una politica volta a implementare controlli e trattamenti adeguati per i nuovi inquinanti. Tra questi ad esempio il “water safety plan”.

Il 12 dicembre 2020 il parlamento europeo ha approvato in via definitiva la nuova direttiva sulle acque potabili (DIRETTIVA (UE) 2020/2184), la prima legislazione europea adottata in seguito a una mobilitazione dei cittadini, la campagna Right2Water del 2013. Per consentire e incoraggiare le persone a bere l’acqua del rubinetto piuttosto che l’acqua in bottiglia, la qualità dell’acqua sarà migliorata imponendo limiti più severi per alcuni inquinanti, tra cui il piombo. Entro l’inizio del 2022, la Commissione redigerà e monitorerà un elenco di sostanze o composti. Tra queste vi saranno i prodotti farmaceutici, i composti che alterano il sistema endocrino e le microplastiche.

Il problema però rimane aperto per quanto riguarda le acque superficiali. Ed è un problema che dovrebbe indurre a riflessioni importanti.

L’interesse verso la presenza di contaminanti emergenti risale  al famoso libro pubblicato da Rachel Carson nel 1962, Silent Spring, che mostrò come l’uso eccessivo di DDT e fitofarmaci avesse portato alla morte di molte specie, tra cui anche quelle che solitamente accompagnavano con il loro canto i mesi primaverili (da cui il titolo che voleva sottolineare come la primavera fosse diventata silenziosa).

E’ giusto precisare che l’inquinamento dovuto da un utilizzo eccessivo di prodotti fitosanitari può provocare una profonda alterazione dei suoli, ma anche altri fattori concorrono alla perdita di biodiversità. Per esempio il cambiamento climatico, e l’introduzione di specie alloctone.

 Sull’effetto della presenza diffusa di molecole di sintesi (nel senso di molecole non esistenti in natura e dunque ragionevolmente mancanti di meccanismi di depurazione naturali) nell’ambiente, occorre senza dubbio un attento lavoro di ricerca e di studio. Che data la complessità e l’importanza del tema, non potrà che essere multidisciplinare. Ma sul quale, come per altri problemi ambientali, non possiamo perdere troppo tempo.

Una nota finale è sulle quantità; ci sono molte altre molecole di sintesi che arrivano nei depuratori, farmaci umani per esempio o anche veterinari, (un buon esempio è il diclofenac un comune antinfiammatorio che ha effetti micidiali su alcuni uccelli); anche su questi i depuratori possono poco al momento, dovremo adattarli, ma considerate che il diclofenac viene prodotto in quantità che sono 400 volte inferiori al glifosato, 2400 ton/anno contro 1 milione in tutto il mondo.

Il lavoro di adeguamento degli impianti di trattamento delle acque reflue è iniziato già da tempo. Il percorso decennale che ha portato alla costituzione delle aziende di gestione del ciclo idrico, a livello di ambito provinciale, permette lo sblocco di investimenti  attesi e non più rimandabili. Per quanto riguarda  l’ambito provinciale di Varese  53 milioni nel quinquennio 2021-2025 sono destinati all’adeguamento tecnologico degli impianti di trattamento delle acque reflue già esistenti. Le tecnologie di abbattimento a livello di trattamento definito “terziario”, sono ormai tecnologie mature.  Il lavoro di depurazione deve essere completato in maniera più completa possibile, a monte del corpo idrico ricettore, diminuendo il carico di inquinanti che possano interferire con l’equilibrio ecologico dei corpi idrici. Una rivoluzione concettuale e progettuale, rispetto a quanto avveniva in passato quando si lasciava fare una parte del lavoro di rimozione degli inquinanti ai meccanismi di autodepurazione naturali.  Ma questa scelta mostrava già da tempo criticità importanti, legate al modificato regime delle precipitazioni idriche, alla riduzione dei ghiacciai alpini. Fenomeni che hanno impatti significativi sulle portate dei principali fiumi italiani. E che nei casi più gravi hanno provocato anche fenomeni di mancanza totale di acqua, come nel caso del Lambro nel 2015.

Link per approfondimento

https://www.nature.com/articles/s41598-021-93321-6#Fig2

Acqua torrenziale e siccità.

Luigi Campanella, già Presidente SCI

Dinnanzi alle piogge torrenziali di questi giorni ed alla siccità generale denunciata dai nostri agricoltori con i pericoli di incendi e di colture definitivamente spente un pensiero viene spontaneo: perché non si può utilizzare l’acqua che viene dal cielo per sopperire alle carenze di questa preziosa risorsa?

Riflettendo sulla situazione della presente estate nella quale abbiamo avuto un quinto del Paese sotto il diluvio ed i rimanenti 4 quinti nella morsa dell’aridità estrema nasce evidente la necessità di moltiplicare in tutte le nostre colline e montagne un cospicuo numero di piccoli e medi invasi  dedicati a trattenere l’acqua.

https://www.inmeteo.net/2021/08/05/siccita-estrema-in-italia-pioggia-latitante-da-mesi-in-molte-regioni/

Quanto più una risorsa è preziosa tanto più se ne rende fondamentale un uso sostenibile e sociale. Quando si affronta questo problema si finisce per parlare di risparmio, di uso intelligente dell’acqua, di sistemi di distribuzione colabrodo con conseguenti perdite, di riciclo, ma difficilmente si sente parlare di raccolta dell’acqua piovana e del suo successivo impiego. Il lago artificiale usato per immagazzinare una certa quantità d’acqua è creato, di solito, attraverso la costruzione di una diga che sbarra un corso d’acqua. Quando l’invaso è localizzato in zone montuose, l’acqua è contenuta dai lati della valle, mentre la diga è posizionata di solito nel punto più basso e più stretto sí da minimizzare il costo di costruzione. In zone collinari gli invasi sono a volte ricavati aumentando la capacità di laghi naturali già presenti.

Gli invasi possono essere ricavati anche  all’interno di fiumi, in zone pianeggianti; in questo caso una parte del volume è ottenuta per escavazione e l’altra attraverso la costruzione di argini. Gli invasi possono essere realizzati per differenti scopi, quali ad esempio: idroelettrico, irriguo, di produzione di acqua potabile, di controllo delle piene (le cosiddette casse di espansione). In un invaso a scopo idroelettrico l’acqua contenuta viene convogliata attraverso un sistema di tubazioni in alcune turbine.Il sistema idroelettrico è stato alla base della nostra industrializzazione tanto da rappresentare il 90% dell’elettricità nel periodo di boom economico. Oggi vale molto di meno, circa il 20%, per motivi diversi: invecchiamento degli impianti, nuove forme di energia, incertezze normative.

In corrispondenza di una caduta dei grandi invasi, a partire da ENEL, c’è invece una crescita dei piccoli basati su corsi di fiumi e torrenti che forse meritano una maggiore attenzione e per i quali è auspicabile un sostegno nell’ambito del PNRR(Piano Nazionale di Ripresa e Resilienza). La loro modesta potenza non risolve certamente il problema dell’energia pulita, ma ne permette uno sviluppo con investimenti che necessitano di contributi meno rilevanti di quelli degli impianti eolici. Siamo giustamente preoccupati per gli andamenti climatici sempre più estremi e sempre più altrettanto giustamente si invocano cambiamenti di stili di vita, ma si dimenticano una seria di altri importanti azioni.

26 e 27 luglio grandinate sul nord Italia.

https://www.ilmeteo.it/notizie/meteo-cronaca-nord-italia-travolto-da-nubifragi-frane-grandine-e-alluvioni-lampo-ancora-allerta-154137

Quella sugli invasi è una di queste eppure se correttamente sviluppata potrebbe rappresentare una efficace difesa. Un problema può essere rappresentato dalla recente liberalizzazione del settore adottata nel nostro Paese e dalla contemporanea norma sulla riduzione dei tempi delle concessioni che sconsigliano gli attuali acquirenti, Regioni incluse: questo significa puntare su imprese straniere che vogliano investire. Infine c’è il problema dell’abbandono delle campagne e delle colline proprio per l’assenza di una politica di sostegno anche relativa agli invasi: oggi le cause di quelle fughe sono anche ascrivibili all’abbandono degli invasi che ha portato ad una drammatica riduzione della produttività agricola. La mancanza d’acqua è la prima causa della morte della nostra montagna e della nostra collina.

Rimanendo al tema acqua voglio segnalare la moltiplicazione delle indicazioni “acqua non potabile” che ho personalmente rilevato anche lungo sentieri di montagna che di certo non possono giustificare tale raccomandazione. La burocrazia e le incertezze normative sulle responsabilità spingono gli amministratori locali verso una condotta di deresponsabilizzazione: meglio un cartello che procedere a controlli adeguati!!

Ma le cellule sono cariche o no? (parte 2)

Claudio Della Volpe

la prima parte di questo post è stata pubblicata qui.

Trasferiamoci adesso nel contesto delle soluzioni e delle cellule e ragioniamo in modo quasi analogo.

Vi consiglio la lettura di una pagina dedicata a questo tema:

http://book.bionumbers.org/what-is-the-electric-potential-difference-across-membranes/

Table 1: Differenza di potenziale elettrico su una gamma di membrane biologiche. I valori negativi indicano che il compartimento esterno è più positivo del compartimento interno. pmf è la forza motrice protonica totale che include l'effetto del pH. Quando il pH del mezzo cambia, il potenziale elettrico degli organismi unicellulari tende a cambiare in modo tale che il pmf rimane nell'intervallo da -100 a -200 mV.
 

La tabella qui riportata vi mostra i tipici potenziali presenti fra l’interno e l’esterno della cellula considerata, siamo attorno a un decimo di volt. Una cellula ha un potenziale elettrico più negativo dell’ambiente esterno di circa 100mV; ma quante cariche negative, se ce ne sono, sono in eccesso all’interno e all’esterno?

Notate che in realtà anche all’interno della cellula ci sono zone con diverso potenziale elettrico; i mitocondri, che sono gli organelli che aiutano la cellula a respirare e produrre energia, hanno una loro membrana ed una differenza di potenziale interno/esterno addirittura di -170mV. Questo ci obbliga a considerare che l’ambiente cellulare è più complesso di quello della giunzione p-n perché la sua geometria non è planare; inoltre la struttura è molto più complessa poiché prevede che ci siano delle “pompe” molecolari, installate lungo la membrana,  che sono in grado di esercitare una azione bidirezionale sul flusso di cariche controllando il  flusso delle cariche .

Tuttavia anche qui è necessario il modello elettrochimico del funzionamento, non ci sono solo grandezze elettriche ma anche grandezze chimiche ed il potenziale in gioco è un potenziale elettrochimico, non banalmente elettrico.

Nel caso della giunzione p-n nei solidi le cariche in moto sono elettroniche, elettroni (o buche) che diffondono velocemente e sono tutte uguali; qui invece non abbiamo elettroni liberi, abbiamo ioni di tipo diverso anche con cariche multiple, diversa diffusività, abbiamo un solvente che si può ionizzare e pompe molecolari specifiche, insomma una situazione molto più complessa.

In entrambi i casi vale ancora la elettroneutralità e il bilancio all’equilibrio fra la tendenza a diffondere dei vari ioni e l’attrazione elettrica fra le varie cariche; all’equilibrio la tendenza a diffondere degli ioni si bilancia col campo elettrico prodotto, come nel caso della giunzione p-n.

Nel funzionamento cellulare dobbiamo considerare anche l’attività delle pompe ioniche che sono attivate da molecole che trasportano pacchetti energetici, ATP e dagli onnipresenti “protoni”, anche se in realtà protoni liberi non ce ne sono, ma ci sono cluster di acqua che accettano volentieri i protoni liberi la cui esistenza è praticamente nulla; quando si parla di protoni in soluzione acquosa dunque si deve intendere cluster di molecole d’acqua con un protone eccesso, che grazie all’effetto Grotthus, che è di fatti un meccanismo quanto meccanico, può spostarsi velocemente nel cluster e in soluzione, circa 5-10 volte più velocemente di qualunque altro ione eccetto lo ione idrossido.

Il gradiente di concentrazione dei protoni che tendono a diffondere contro di esso è uno dei più comuni modi di produrre ATP e dunque altre molecole o generare altri processi diffusivi.

Questo avviene perché una differenza di pH tra due compartimenti legati alla membrana aggiunge 60 mV per differenza di unità di pH alla forza motrice complessiva per il trasporto di protoni. 
La somma di termini elettrici e di differenza di concentrazione è la cosiddetta forza protone-motrice, fondamentale per il funzionamento della maggior parte delle trasformazioni energetiche ancorate alla membrana, ad esempio nei cloroplasti. 
Avendo i potenziali si possono fare delle stime di energia associata ricordando che il prodotto (carica x differenza di potenziale, qV) è una energia. Dato che un singolo protone o elettrone ha una carica di ±1,6 x 10-19 coulomb il trasporto di una di queste cariche contro o a favore di una differenza di potenziale di 100mV converte un'energia in Joule di 1,6 x 10-20 J. 

Una domanda ancora più interessante è quella che ci siamo posti in principio; ossia quale carica elettrica in eccesso, se c’è, si trova fra i due lati della membrana biologica?

Per rispondere a tale domanda possiamo usare lo stesso metodo usato prima nel caso della giunzione p-n e che è espresso dalla seguente figura:

Figure 1: Schema di calcolo di quanti protoni sarebbero necessari per costruire la differenza di tensione della membrana se fosse fatta completamente attraverso il trasporto di protoni.

Ovviamente occorre considerare che la membrana si comporti come un condensatore, che le cariche in gioco siano sempre elementari, per esempio protoni, che la costante dielettrica della membrana in questo caso è solo 2; inoltre conosciamo le dimensioni della cellula, la sua superficie che si può stimare di alcuni micron quadrati e il suo spessore che adesso è solo pochi nanometri. Il risultato è che in una cellula di queste dimensioni (circa 1 micron cubico, 1.2 micron di diametro, molto piccola) bastano 10mila protoni o cariche elementari in eccesso su un lato.

Possiamo ancora stimare la frazione di cariche eccesso considerando per esempio quanti siano gli ioni in un tale spazio; la concentrazione tipica è dell’ordine di 100 mM e dunque dato che 1 litro è 1015 micron cubici nella cellulina da 1 micron ci sono dentro 108 ioni. Come abbiamo detto l’eccesso diventa allora solo 1/10millesimo del totale di cariche oppure stimando molto alla raffa gli atomi esistenti nella stessa cellula nell’ordine di 1/1000000 degli atomi totali; dunque una situazione in cui l’eccesso di cariche è veramente piccolo sia pure maggiore di quello esistente nel caso di una giunzione p-n.

La conclusione è che l’approssimazione di Nernst dell’elettroneutralità è una buona approssimazione e che l’analisi del comportamento dei sistemi elettrochimici o biologici dovrebbe essere condotto sempre tenendo conto della sua validità. Le cariche nette non sono il modello giusto, anche se un piccolo eccesso può esistere localmente nei sistemi che abbiamo considerato.

Da consultare oltre i due lavori citati nel testo sul tema dell’elettroneutralità:
1) Encyclopedia of Computational Neuroscience
DOI 10.1007/978-1-4614-7320-6_32-1  Springer Science+Business Media New York 2014  Capacitance, Membrane Jorge Golowasch* and Farzan Nadim

2) J Solid State Electrochem (2011) 15:1335–1345 DOI 10.1007/s10008-011-1323-x  – The electroneutrality approximation in electrochemistry  – Edmund J. F. Dickinson · Juan G. Limon-Petersen · Richard G. Compton

3) AM. ZOOLOCIST 10:347-354 (1970). The Origin of Bioelectrical Potentials in Plant and Animal Cells   JOHN GCTKNECHT

Ma le cellule sono cariche o no?(parte 1)

Claudio Della Volpe

Dopo vent’anni di insegnamento di elettrochimica in varie salse (da elettrochimica per chimici a elettrochimica per ingegneri dei materiali ad accumulo e conversione elettrochimica dell’energia per ingegneri energetici) credo di poter trarre il succo dicendo che ci sono due concetti veramente duri da assimilare per gli studenti: il potenziale chimico/elettrochimico e l’elettroneutralità.

Del primo ho scritto già in questo blog (una lista di post in fondo) e mi avvio a fare un commento sul secondo, ponendomi e ponendovi una domanda: ma le cellule viventi sono cariche elettricamente o no?

Una domanda del genere rischia di risvegliare i fantasmi delle teorie galvaniane!

Ma non è questo il mio scopo; al contrario è comune leggere anche parlando di celle elettrochimiche che dato che c’è una differenza di potenziale allora c’è una separazione di cariche.

Ora questa secondo me è sostanzialmente una sciocchezza; occorre sempre verificare se la separazione si verifichi o meno. E’ vero che se c’è una separazione di cariche allora c’è una differenza di potenziale, ma non è vero il contrario, ossia che se c’è una differenza di potenziale (elettrico) allora c’è per forza una separazione di cariche.

Gli elettroni che si muovono lungo un filo metallico si muovono lungo un campo elettrico verso potenziali più positivi, ma non sono respinti o attratti da un accumulo di cariche. Il filo è privo di accumuli di cariche nette lungo il suo percorso.

Il potenziale elettrico è l’energia per unità di carica e dunque ciò che ci dice una differenza di potenziale elettrico è che l’energia potenziale di due cariche o di due punti di un campo sono diversi, una maggiore dell’altra, ma non che ci siano più o meno cariche separate.  Tuttavia questo non esclude che ci possano essere cariche in eccesso, ma saranno in genere un numero molto molto basso a causa del secondo fenomeno, l’elettroneutralità

La cosiddetta ipotesi di elettroneutralità è stata introdotta nel 1889 da Nernst (Nernst W (1889) Die elektromotorische Wirksamkeit der Jonen. Z Phys Chem 4:129–181 ).

Nel par. 2 p. 133 dice: Poiché all'interno delle soluzioni non può esistere elettricità libera (almeno non in misura tale da essere solo lontanamente comparabile con la quantità totale di elettricità + e - legata agli ioni), deve valere la condizione
 
(riscritta da me con simboli moderni, dove le C sono le concentrazioni degli ioni iesimi e le z le cariche dei medesimi). Nernst si esprime in termini di "pressioni parziali" degli ioni che modernamente equivarrebbero alle attività e che ho approssimato con le concentrazioni.

L’idea base è che in soluzione (o comunque in fase condensata, aggiungeremmo oggi) non possano esercitarsi spontaneamente forze che porterebbero su distanze macroscopiche alla separazione di cariche elettriche.

Se applicate la legge di Coulomb a due cariche opposte di una femtomole, poste a distanza di  1 micron, ve ne rendete subito conto: fra di loro si eserciterebbe una forza di 100 N (10kg)!!

Una conferma della tipologia di forze che si esercitano in queste condizioni è data dalle variazioni geometriche e meccaniche che si ottengono cambiando il campo elettrico in una giunzione p-n, ossia in una condizione che riproduce l’esperimento originale di Volta ma in una coppia di semiconduttori dopati in modo opposto; le giunzioni p-n sono oggi la base della tecnologia elettronica, costituendo l’essenziale dei transistor, delle celle fotovoltaiche, ma anche dei LED. All’interfaccia fra la fase p e la fase n si forma una cosiddetta regione di deplezione, dell’ordine del micron ai cui estremi è presente un piccolo eccesso di cariche opposte, che determina una barriera di potenziale. Questo fenomeno si spiega per l’azione del diverso potenziale chimico dell’elettrone, ossia della tendenza a sfuggire o se volete, più banalmente, della concentrazione di elettroni “liberi”, di conduzione. Essi si sposteranno dal lato n, più ricco di elettroni di conduzione, al lato p, lasciando il lato n carico positivamente e caricando il lato p negativamente. Le forze di attrazione elettriche si oppongono a tale flusso e lo bloccano ad una distanza appunto di circa un micrometro. Questa barriera di potenziale permette sia il funzionamento delle celle FV, sia dei transistors che dei LED.

Di cosa parliamo quantitativamente?

Queste cariche generano un campo elettrico inferiore al volt (0.3-0.6V) ed esercitano anche uno sforzo meccanico sui materiali a contatto e reciprocamente, tramite un campo elettrico applicato, si possono far variare le distanze fra i due materiali p ed n costruendo così un nanoattuatore (Kanygin, M., Joy, A.P. & Bahreyni, B. Localized Mechanical Actuation using pn Junctions. Sci Rep 9, 14885 (2019). https://doi.org/10.1038/s41598-019-49988-z), senza la necessità di usare materiali piezoelettrici.

Comodo no? Il lavoro che vi cito dimostra che il fenomeno si comporta in modo elastico; usando un campo variabile potete far oscillare la giunzione a frequenze dell’ordine dei kHz espandendola e contraendola di qualche centinaio di picometri, diciamo l’1/1000 della zona di deplezione che è stimata a 0.3 micrometri.

La struttura e l’andamento del campo elettrico nella giunzione p-n.

Come si sa il lato p è dopato con circa un atomo per milione di boro e il lato n con circa un atomo per milione di fosforo, creando in tal modo un gradiente artificiale di elettroni di conduzione, “liberi”.

Il modulo di Young del silicio usato in questo esperimento è di 169 GPa e le misure portano ad un effetto di variazione dimensionale di qualche picometro per ogni volt di differenza di potenziale aggiuntiva.

Quale è la carica elettrica netta che si accumula agli estremi di questa sorta di condensatore? E’ un condensatore particolare poiché le armature sono solo zone di materiale ai bordi della deplezione.

Possiamo stimarla usando la formula della capacità per un condensatore a facce piane, ricordando che la permittività elettrica relativa del silicio è 12; avremo dunque

C = ε A / D

dove la costante ε è il prodotto della permittività del vuoto per quella relativa del siilicio ; su un metro quadro di superficie avremmo

C=12*8,854187817 × 10−12 [C]2[m]−2[N]−1*1m2/10-6m

Stiamo dunque parlando di una capacità di 10-4 farad, che si può anche esprimere come dQ/dV, una carica per unità di potenziale, per volt, che tenendo conto delle proprietà misurate nell’esperimento di Kanygin o di quelle medie di una giunzione (<1V) corrispondono a circa un decimillesimo di coulomb o un miliardesimo di Faraday per metro quadro.

In sostanza tenendo conto del volume della zona di deplezione e della densità del silicio parliamo di una carica elementare ogni 100 milioni di atomi presenti. (E comunque il numero di cariche di segno opposto è uguale.)

Vedete voi stessi che si tratta di quantità molto piccole, a conferma che l’ipotesi di Nernst vale non solo in soluzione ma anche nei solidi, e in genere nelle fasi condensate.

(continua)

Post sul potenziale chimico: