I quattro elementi fondamentali dell’Universo.

In evidenza

Claudio Della Volpe

Afferma Empedocle:

«Conosci innanzitutto la quadruplice radice
di tutte le cose: Zeus è il fuoco luminoso,
Era madre della vita, e poi Idoneo,
Nesti infine, alle cui sorgenti i mortali bevono»

Secondo una interpretazione Empedocle indicherebbe Zeus, il dio della luce celeste come il Fuoco, Era, la sposa di Zeus è l’Aria, Edoneo (Ade), il dio degli inferi, la Terra e infine Nesti (Persefone), l’Acqua.

Secondo altri interpreti i quattro elementi designerebbero divinità diverse: il fuoco (Ade), l’aria (Zeus), la terra (Era) e l’acqua (Nesti-Persefone).Tiziano, Concerto campestre, 1509, Parigi, Museo del Louvre. La donna alla fonte è una personificazione dell’Acqua. Il suonatore di liuto rappresenta il Fuoco. L’uomo con i capelli scompigliati dal vento simboleggia l’Aria. La donna di spalle raffigura la Terra.

 Col tempo a questi quattro elementi se ne aggiunse un quinto, la “quintessenza” o etere.
L’idea che la Natura potesse esser costituita con pochissimi elementi mescolati fra di loro è stata una delle idee più antiche ma anche di maggior successo nella storia umana.

Di fatti potremmo dire che tutto sommato la chimica moderna dice lo stesso.

Voi mi direte: ma non è vero la tavola periodica di cui celebriamo quest’anno il valore riporta ben 118 elementi possibili e sappiamo ce ne sono anche altri non ancora scoperti o sintetizzati.

Già ma di cosa sono fatti questi 118 atomi? Di cosa è fatto tutto ciò che ci circonda sulla Terra almeno? Cosa c’è dietro e per così dire “sotto” la Tavola Periodica?

Bastano solo quattro particelle: fotoni, protoni, neutroni ed elettroni; con queste quattro entità le leggi della chimica e della meccanica quantistica ricostruiscono tutto ciò che ci circonda; beh quasi, nel senso che ogni tanto arrivano raggi cosmici dal fondo cielo che si trasformano in mesoni e quelli non sono parte dei quattro oggetti nominati.

L’idea che a partire da pochi elementi si possa ricostruire tutto è stata accettata da grandi menti antiche e moderne; ovviamente per spiegare questo si sono ipotizzate e poi misurate esattamente le forze fra le particelle.

Newton che fu prima di tutto un grande alchimista (e solo dopo un fisico, era un chimico-fisico ante litteram, ma ce lo siamo fatto scippare dai fisici puri) ma è anche uno dei fondatori della fisica moderna scriveva:

There are therefore agents in nature able to make the particles of bodies stick together by very strong attractions. And it is the business of experimental philosophy to find them out. Now the smallest particles of matter may cohere by the strongest attractions and compose bigger particles of weaker virtue; and many of these may cohere and compose bigger particles whose virtue is still weaker, and so on for diverse successions, until the progression ends in the biggest particles on which the operations in chemistry, and the colors of natural bodies depend.” (I. Newton, Opticks).

(notate come parla di chimica e fisica INSIEME!!!)

Dunque per spiegare queste associazioni ci vogliono le forze che le manovrano.

Ma voglio essere più preciso; ne ho già parlato tempo fa su questo blog, discutendo la chimica ipotetica della materia oscura; i fisici hanno la loro “tavola” che si chiama “modello standard”; purtroppo i chimici non studiano queste cose, ma secondo me dovrebbero.

oppure questa è un’altra rappresentazione:

Ci sono nella materia ordinaria 18 componenti essenziali divisi fra 6 leptoni, 6 quark e 6 vettori delle forze.

Di questi 18 componenti per fare tutto ciò che si vede sulla Terra occorrono solo:

3 mediatori delle forze: fotoni, gluoni e bosone di Higgs, 2 quark, up (u) e down (d) che nelle combinazioni uud e udd producono protone e neutrone ed 1 solo leptone, ossia l’elettrone; sei entità (appartenenti rispettivamente tre ad una classe di componenti, due ad un’altra e il terzo ad un’altra ancora). E tutto viene fuori da questi 6.

Alla fine non siamo cascati così lontani. Credo che Empedocle si meraviglierebbe se tornasse a vivere di come la sua idea fosse dopo tutto vicina alla verità considerata tale anche dopo vari millenni.

Certo noi abbiamo una solida serie di esperimenti e di relazioni matematiche che supportano il nostro punto di vista, anche se non è ben chiaro perchè poi la matematica abbia così tanto successo (E. Wigner, The Unreasonable Effectiveness of Mathematics in the Natural Sciences); c’è stato un ampio dibattito su questo tema, che inizia da Galileo (il mondo è scritto in linguaggio matematico; e passando per Wigner approda a conclusioni anche opposte: siamo noi che vediamo tutto attraverso la lente della matematica (Richard Hamming); dove è la verità? Non lo so. Esiste una terza via?

Pitagora aveva notato questo strano matematizzarsi dell’Universo già oltre 2000 anni fa.

Per Pitagora (575 a.C. circa – 495 a.C. circa) la successione aritmetica dei primi quattro numeri naturali, geometricamente disposti secondo un triangolo equilatero di lato quattro, ossia in modo da formare una piramide, aveva anche un significato simbolico: a ogni livello della tetraktys corrisponde uno dei quattro elementi.

1º livello. Il punto superiore: l’Unità fondamentale, la compiutezza, la totalità, il Fuoco

2º livello. I due punti: la dualità, gli opposti complementari, il femminile e il maschile, l’Aria

3º livello. I tre punti: la misura dello spazio e del tempo, la dinamica della vita, la creazione, l’Acqua

4º livello. I quattro punti: la materialità, gli elementi strutturali, la Terra

Non vi ricorda qualcosa? 1 punto di un tipo, due del secondo, tre del terzo!! Divisi per classi ed in quantità crescente, 1, 2, 3, come i 6 componenti del modello standard che abbiamo citato prima (1 leptone, 2 quark e 3 mediatori delle forze). Stupefacente combinazione?!

OK, può essere, comunque, siamo arrivati a 6 per descrivere quello che c’è sulla Terra dopo oltre 2000 anni di travaglio e lavoro, ma in fondo ci erano arrivati anche Pitagora ed Empedocle e Democrito e con caratteristiche per certi aspetti simili.

Ne è valsa la pena? E’ una teoria che torna periodicamente, un’applicazione dei cicli storici di Giambattista Vico? Eterni ritorni nella spirale dialettica hegeliana? Non so, credo che la scienza moderna post-galileiana sia un grande metodo di scoperta, ma anche l’intuizione e la osservazione degli uomini che ci hanno preceduto non era poi così male, e come insegna Lucio Russo gli scienziati alessandrini ci hanno preceduto nell’uso del metodo moderno. Abbiamo ancora da rifletterci a lungo su questa relazione fra scienza, matematica e osservazione, capacità di meravigliarsi.

Qualche collega potrebbe lamentarsi dell’eccessivo spazio che do alla fisica ed alla matematica in questo post; ma non è così. A mio parere la visione del mondo naturale dovrebbe essere unitaria per quanto possibile, la materia è una; e la Chimica costituisce evvero un linguaggio euristico ed indipendente rispetto alla Meccanica Quantistica, è esistita senza di essa, ma ha contribuito a svilupparla. Ci sono alternative alla meccanica quantistica? Non so ma ne riparleremo in un prossimo post.

Sarà vero casomai che dopo tutto la fisica teorica attuale e Pitagora sono simili perché guardano al mondo prima di tutto tramite la sua simmetria e bellezza:

La bellezza è verità, la verità è bellezza: questo è tutto ciò che voi sapete in terra e tutto ciò che vi occorre sapere.

(John Keats, poeta)

Ma non lo fa anche il chimico quando sintetizza le sue molecole, strutture la cui simmmetria e bellezza, che ci ricorda Vincenzo Balzani, viene prima del loro uso?

Non so, riflessioni catalizzate dall’anno della tavola.

Cosa ne dite chimici?

Bianka Tchoubar (1910-1990)

In evidenza

Rinaldo Cervellati 

Bianka Tchoubar ha introdotto e sviluppato in Francia i meccanismi delle reazioni organiche vincendo le forti opposizioni della scuola tradizionalista di Prévost e Kirrmann[1].

Bianka nacque nel 1910 a Kharkov in Ucraina da una famiglia russo-ebraica appartenente alla minoranza caraita, fortemente perseguitata dai rabbini ortodossi. Nel 1920, dopo la rivoluzione d’ottobre, la famiglia si trasferì a Costantinopoli (oggi Istanbul) poi a Budapest, stabilendosi infine a Parigi dove Bianka trascorrerà tutta la vita.

All’età di 14 anni iniziò i suoi studi francesi presso il liceo russo di Parigi, dove incontrò la chimica nella persona della prof.ssa Chamier, ex collaboratrice di origine russa di Marie Curie. Si convertì alla religione ortodossa, ma molto presto diventò agnostica. Nel 1929 si iscrisse alla Sorbona diplomandosi in scienze due anni dopo. Con la vocazione di chimico ben salda, decise di proseguire gli studi per il diploma di studi superiori facendo ricerche originali su molecole e particelle cariche nel laboratorio del professor Paul Freundler[2]. Nonostante la disapprovazione del suo supervisore, Bianka Tchoubar ottenne il diploma nel 1932. Questo episodio mostra subito il carattere ribelle ma fermo nelle sue convinzioni di Tchoubar.

Fra la comunità degli emigrati russi, M. Magat, di qualche anno più anziano di lei, lavorava al Collége de France con Edmond Bauer[3], chimico fisico noto a livello internazionale. Magat raccomandò Tchoubar al prof. Marc Tiffeneau[4], chimico e farmacologo, anch’egli internazionalmente noto, direttore del laboratorio di farmacologia della Facoltà di Medicina. Tiffeneau la accolse inizialmente come assistente personale, resosi poi conto delle potenzialità della ragazza, integratasi perfettamente nel gruppo di ricerca, alla creazione del CNRS (Centre National de la Recherche Scientifique) nel 1937 la nominò assistente ricercatrice.

In questo periodo prima della guerra, viene fondato il gruppo chiamato “I giovani chimici” con lo scopo di discutere liberamente di chimica al di fuori della pesante e conformista Società Chimica di Francia. Subito Bianka Tchoubar ne entra a far parte facendo la conoscenza di F. Janot, futuro condirettore dell’Istituto di Sostanze Naturali del CNRS, di F. Gallais, che sarà vice direttore e responsabile del Dipartimento di Chimica e Medicina e soprattutto di R. Rumpf, pioniere della chimica fisica organica, disciplina innovatrice che ricevette a quel tempo in Francia la peggior considerazione (v. nota 1).

Nel 1939 scoppiò la guerra e dopo la conseguente occupazione nazista l’attività dell’Istituto rallentò, anche se ne entrarono a far parte alcuni giovani che saranno i primi allievi di Bianka Tchoubar. Con essi iniziò le ricerche sui meccanismi di reazione.

Bianka Tchoubar

Nel 1945 fu promossa Research Associate. Già in possesso di un notevole curriculum comprendente circa quindici pubblicazioni e la supervisione di diversi studenti, sotto la spinta di Marc Tiffeneau aveva preparato la tesi di dottorato: “Contribution à l’étude des extensions de cycles. Désamination nitreuse des aminométhyl-1 cyclanols-1“, che però fu discussa solo nel 1946.

La guerra e la resistenza furono certamente responsabili del rinvio della discussione. La sua famiglia e quella di Marc Tiffeneau erano molto attive, proteggendo partigiani e prigionieri evasi. Ma questo non fu l’unico motivo del ritardo. La sola descrizione dei risultati sperimentali non era abbastanza da soddisfare la sua avidità di sapere e capire. Molto presto annunciò, contro il suo stesso tornaconto immediato, di essere interessata alle specie cariche. Quando cercò di convincere Tiffeneau che “affinità” e “migrazione” non spiegavano molto, mentre le teorie moderne sulla natura del legame chimico consentivano di interpretare scientificamente la deaminazione nitrosa con estensione del ciclo, non ottenne un rifiuto, ma un silenzio molto più eloquente. Non ebbe molta più fortuna con Pauline Ramart-Lucas[5] che doveva difendere la tesi ma che era altrettanto insensibile alle teorie di Bianka Tchoubar. Fortunatamente nel 1946 fu accettato l’arbitrato del prof. Edmond Bauer (v. nota 3), che avrebbe assicurato la qualità della parte teorica della tesi. Bauer ne fu così entusiasta da presiedere persino la difesa, durante la quale Bianca sostenne i concetti di risonanza e mesomeria oltre che l’esistenza di carbocationi intermedi già postulati venti anni prima da Hans Meerwein[6], ignorato dai chimici francesi.

Divenuta incaricata di ricerca presso il CNRS, dovette aspettare il 1955 per ottenere il grado di ricercatore senior, che le sarebbe spettato per le funzioni che svolgeva, perché i “mandarini” del Centro non erano ancora molto ricettivi alle “teorie inglesi” che Tchoubar utilizzava per interpretare i meccanismi delle sue reazioni.

Riconosciuta finalmente specialista in un campo in piena effervescenza, tenne, negli anni 1957-58 diverse conferenze prima di pubblicare nel 1960 il libro intitolato Les mécanismes réactionnels en chimie organique, che ebbe un notevole successo e fu tradotto in sei lingue.

In realtà il suo talento pedagogico e la sua influenza si erano già espressi in un lavoro di riflessione svolto con alcuni colleghi sulle teorie strutturistiche in chimica organica, basate sui principi enunciati dal britannico Cristopher Ingold e dallo statunitense Linus Pauling, e altri.

Sull’importanza del libro di Tchoubar per la disseminazione delle metodologie di chimica fisica organica in Francia vale la pena citare il saggio di P. Laszlo [1], che riporta anche alcuni aspetti della personalità e del carattere di questa notevole scienziata. Scrive Laszlo:

…è stata un personaggio memorabile… non solo sembrava indomabile, dava l’impressione di essere sempre in conflitto con tutto e con tutti. Non curava l’abbigliamento e non le importava l’aspetto fisico…fumatrice accanita andava dappertutto con una sigaretta accesa fra le dita macchiate di nicotina. Allo stesso modo era totalmente inconsapevole nei confronti del rischio di guidare a tutta velocità la sua macchina, una piccola Citroën Due Cavalli… Solitamente a pranzo mangiava alla sua scrivania, un sandwich e un bicchiere di vino rosso…. Sulla scrivania una copia del quotidiano l’Humanité, l’organo del Partito Comunista Francese, di cui lei era militante.

… Potrebbe quindi sembrare ironico che Tchoubar, membro militante del PCF dalle salde opinioni, sia diventata la principale propagandista della scuola anglo-americana sui meccanismi di reazione. Il fatto è che per lei l’evidenza scientifica annullava qualsiasi ideologia politica.

Bianka Tchoubar

Nel 1956, in seguito alla discussione in URSS su: “La mesomeria e la risonanza sono delle teorie borghesi?”, Bianka rispose con il saggio rigorosamente scientifico “Etat actuel de la théorie de la structure en chimie organique” (Nuovo Cimento Supplemento n. 1, vol. 4, Serie X, p. 101), ulteriore dimostrazione della sua indipendenza scientifica nei confronti anche delle sue concezioni politiche.

Nel 1961, Bianka Tchoubar fu nominata direttore di ricerca e si stabilì con tutto il suo gruppo nel nuovo edificio dell’Istituto di Chimica delle Sostanze Naturali a Gif-sur-Yvette. La tenacia di Bianka Tchoubar aveva vinto.

Nel febbraio 1968, fu costituito il gruppo di ricerca n. 12 (GR-12) al CNRS di Thiais di cui divenne il leader scientifico. Al nucleo iniziale dei suoi collaboratori si aggiunsero sei nuovi gruppi per un totale di quasi 70 persone impegnate in vari argomenti di ricerca.

Il gruppo di ricerca. Tchoubar è alla sinistra di Hugh Felkin, britannico che lavorò in Francia per molti anni.

A Thiais Tchoubar terminò ufficialmente la carriera nel 1978. Di fatto però continuò a lavorare in laboratorio lanciandosi in nuove aree di ricerca: gli effetti dei solventi sulle competizioni E2/SN2, e sulle reazioni organiche senza solvente. Con André Loupy[7] pubblicò il libro Les Effets de sels en chimie organique et organométallique (editore Dunod), tradotto in inglese (Wiley-VCH) e in russo (MIR).

Durante la sua carriera professionale Bianka Tchoubar riuscì a realizzare un progetto che le stava a cuore da tempo: una collaborazione franco-sovietica. Per quanto fosse consentito dalle circostanze della “guerra fredda”, stabilì legami scientifici e di amicizia con il prof. A. E. Shilov[8] dell’Istituto di Chimica Fisica di Mosca, diretto dal Premio Nobel Nikolai N. Semionov[9].

La collaborazione si trasformò in un rapporto formale nel quadro degli accordi fra CNRS e Accademia delle Scienze dell’URSS. Vi fu uno scambio di ricercatori che portò alla realizzazione di una tecnica particolare di chimica organometallica.

A parte il suo anticonformismo, Bianka amava l’ambiente sociale, culturale e artistico di Parigi insieme a molte persone amiche.

Bianka Tchoubar morì il 24 agosto 1990 nella sua abitazione a causa di una emorragia interna.

Bibliografia

[1] P. Laszlo, How an Anglo-American Methodology Took Root in France, Bulletin for the History of Chemistry2011, 36, 75-81.

Opere consultate

  1. Charpentier-Morize, Bianca Tchoubar (1910-1990), L’Actualité chimique1991,166,‎ 444-446.

(contiene numerose citazioni dei più importanti articoli di Bianka Tchoubar)

  1. Jacquesy, A. Loupy, M. Gruselle, Bianca Tchoubar, la révolution des mécanismes », L’Actualité chimique, 2015, 397-398, p. 8-10.
  2. Astruc, Bianka Tchoubar (1910-1990), in: J. Apotheker, L.S. Sarkadi Eds., European Women in Chemistry, Wiley-VCH, Weinheim, Germany, 2011, p. 191-194.

[1] Charles Prévost (1899-1983) e Albert Kirrmann (1900-1974) rispettivamente: professore di Chimica Organica a Nancy, Lille poi alla Sorbonne dal 1953 al 1969, e preside della Facoltà di Scienze a Strasburgo poi direttore dei laboratori chimici dell’Ecole normale supérieure di Parigi dal 1955 al 1970. Nei primi anni ’30 pubblicarono una teoria delle reazioni organiche senza successo. Prévost e Kirrmann furono molto delusi dalla totale mancanza di impatto delle loro idee teoriche sulla letteratura internazionale. Di conseguenza fecero in modo che l’intero corpus di lavoro meccanicistico avviato da Ingold e Hughes nel Regno Unito negli anni ’30 fosse ignorato nei programmi di chimica organica delle università francesi. Poiché questi due professori erano a quei tempi i “mandarini” della chimica organica in Francia, l’embargo sulle nuove teorie anglosassoni fu quasi totale fino ai primi anni ’60.

[2] Paul Freundler (1874-1942) chimico francese, allievo di Charles Adolphe Wurtz e amico di Joseph-Achille Le Bel si è occupato di composti organici contenenti azoto asimmetrico in particolare ammine terziarie.

[3] Edmond Bauer (1880 -1963), chimico fisico e professore francese presso la Facoltà di Scienze di Parigi, si è occupato di meccanica statistica e di chimica quantistica.

[4] Marc Tiffeneau (1873-1945) chimico, farmacologo e medico francese, è noto per il suo lavoro sulle trasposizioni molecolari. Ha dato il suo nome alla reazione di Tiffeneau-Demjanov.

[5] Pauline Ramart-Lucas (1880 – 1953) è stata un chimico, accademico e politico francese. È stata la seconda donna, dopo Marie Curie, a occupare la cattedra di chimica organica, dal 1935 al 1941 e dal 1944 al 1953. Le succedette Charles Prévost (nota 1). Dal 1941 al 1944 fu perseguitata dal regime di Vichy. Nel 1944 designata dall’Unione delle Donne Francesi a far parte dell’Assemblée Consultative Provisoire, promossa dal CLNF.

[6] Hans Meerwein (1879 – 1965) chimico tedesco. Ha svolto ricerche di chimica organica, dando particolare importanza agli aspetti teorici e meccanicistici. Il suo nome è ricordato nella riduzione di Meerwein-Ponndorf-Verley, nel riarrangiamento di Wagner-Meerwein e nel reattivo di Meerwein.

[7] André Loupy vivente, chimico francese è stato direttore di ricerca in pensione del Laboratorio di ricerca sulle reazioni organiche media-selettive del CNRS, Université Paris-Sud, Orsay.

[8] Alexander E. Shilov (1930-2014) chimico russo, ha scoperto i primi esempi di reazioni degli alcani Pt- catalizzate in fase omogenea con attivazione dei legami CH, oggi note come sistemi di Shilov. Le sue ricerche spaziano dalla cinetica e catalisi chimica ai meccanismi di reazione e modellizzazione chimica dei sistemi enzimatici.

[9] Nikolaj Nikolaevič Semënov (1896 – 1986) è stato un chimico fisico sovietico, premio Nobel per la chimica nel 1956, insieme a C.N. Hinshelwood “per le loro ricerche sui meccanismi delle reazioni chimiche”.

L’etica del lavoro nell’opera di Primo Levi e la sua attualità.

In evidenza

Mauro Icardi

Il grande riconoscimento, o per meglio dire la collocazione di Primo Levi tra gli scrittori, e non solamente tra i memorialisti è certamente meritata. Levi si considerò scrittore a tutti gli effetti solo dopo il pensionamento dalla fabbrica di vernici Siva di Settimo Torinese, dove lavorò per la maggior parte della sua attività. Prima come chimico, e poi Direttore Tecnico, fino al suo ritiro dall’attività lavorativa.

E proprio il lavoro è uno dei temi che Levi sviluppa lungo tutto il dipanarsi della sua opera. Lavoro che avrebbe dovuto renderlo libero, secondo la crudele e beffarda scritta posta all’ingresso del campo di Buna Monowitz, parte dell’immenso sistema concentrazionario di Auschwitz. Lavoro che poi lo scrittore cerca con costanza subito dopo la liberazione dalla prigionia. Le pagine che narrano delle sue esperienze di lavoro sono la struttura del “Sistema periodico”, ma soprattutto de “La chiave a stella”. Ma per i lettori più attenti, si possono trovare molti racconti nei quali il tema e sviluppato. Anche in “Vizio di forma” dove nel racconto “Le nostre belle specificazioni” il lavoro è inserito in una trama narrativa di tipo fantascientifico. Dove lo scrittore torinese immagina una scheda di collaudo di una materia prima molto particolare, cioè dell’essere umano.

Non possiamo dimenticare, che il lavoro è uno dei fattori che contribuisce alla sopravvivenza di Levi durante la prigionia. Dal lavoro di schiavo, al lavoro sempre come essere inferiore, ma nel laboratorio della fabbrica di Buna. Al riparo dalle condizioni più disagevoli, al riparo dal freddo. Condizione questa che anche Liliana Segre ha evidenziato, nel raccontare la propria vicenda di deportata.

Levi si occupa di approfondire il tema del lavoro nel suo primo romanzo d’invenzione cioè “La chiave a stella”. In realtà, ad un’osservazione più approfondita, questo romanzo rappresenta un ibrido, una dualità (altro tema ricorrente nell’opera di Levi, chimico-scrittore, centauro quindi, cioè ibrido tra uomo e cavallo, come amava definirsi, e come si rappresenta in una delle sue sculture di fili di rame).

Infatti il protagonista Tino Faussone, il montatore di tralicci e derrick per l’industria petrolifera, altro non è che una delle due anime di Levi. L’alter ego con cui lo scrittore dialoga nello scorrere dei capitoli del romanzo. Faussone metalmeccanico, e Levi narratore che spiega in cosa consista il lavoro del chimico nei due bellissimi capitoli “Acciughe” uno e due. Dal chimico che assembla le molecole, al chimico che le deve determinare, utilizzando gli strumenti della tecnologia. In entrambi i casi sapendo della loro esistenza, ma senza vederle ad occhio nudo. Credo che queste siano tra le pagine più efficaci per spiegare i fondamenti della sintesi chimica, e della chimica analitica. E anche del percorso che da Democrito, passando per Avogadro e Lavoisier pone le basi della chimica.

Levi non solo ci tiene a raccontare la vita e le esperienze del chimico ma osserva con attenzione l’universo già allora, ma oggi più che mai variegato del mondo del lavoro. Lo descrive in molti racconti “Da zolfo” nel “Sistema periodico” fino a “La sfida della molecola” pubblicato nel volume “Lilit ed altri racconti”.

E questo suo scrivere di lavoro lo aiuta non solo a cancellare il ricordo del lavoro come strumento di annientamento dei deportati in Lager, ma anche darne una visione del tutto diversa rispetto a come viene descritto nella letteratura industriale degli anni 60. Penso a romanzi come “Memoriale” di Paolo Volponi, o l’ormai quasi dimenticato “Tre operai” di Carlo Bernari che ne è forse in qualche modo capostipite e che viene pubblicato nel 1934. Romanzi dove il lavoro non è realizzazione, ma spesso alienazione. Il secondo libro, proprio perché descriveva una classe operaia impossibilitata ad avere una vita dignitosa, venne censurato dal regime fascista.

Levi invece fa pronunciare a Faussone questa frase: “«Io l’anima ce la metto in tutti i lavori. Per me, ogni lavoro che incammino è come un primo amore»

E va oltre, arrivando anche a sconfessare la maledizione lanciata da Dio ad Adamo, che disubbidendo è condannato a perdere l’eden e lavorare con sforzo e sudore. Con questo paragone, credo abbastanza conosciuto tratto sempre da “La chiave a stella”: «Se si escludono istanti prodigiosi e singoli che il destino ci può donare, l’amore per il proprio lavoro (che purtroppo è privilegio di pochi) costituisce la miglior approssimazione concreta alla felicità sulla terra: ma questa è una verità che non molti conoscono».

E traccia anche un parallelo con l’idea di libertà: «Il termine libertà ha notoriamente molti sensi, ma forse il tipo di libertà più accessibile, più goduto soggettivamente, e più utile al consorzio umano, coincide con l’essere competenti nel proprio lavoro e quindi nel provare piacere a svolgerlo»

“La chiave a stella esce nel 1978, e Levi è conscio che potrebbe (come in effetti sarà) provocare discussioni e polemiche. E quindi precisa: «So che il mio libro è destinato a provocare qualche polemica anche se non è nato con intento polemico. Certo, al giorno d’oggi il rifiuto del lavoro è addirittura teorizzato da componenti giovanili ma anche senza giungere a queste posizioni estreme esiste in stati piuttosto diffusi una tendenza a sottovalutare la competenza professionale intesa come valore positivo in sé».

Ci si può chiedere se, al giorno d’oggi dove una delle parole più pronunciate e lette è crisi, e la seconda è crescita che viene invocata come fosse una litania, oggi che la sensazione più diffusa sembra essere l’insicurezza. Oggi che il lavoro è profondamente cambiato, si è parcellizzato arrivando a creare la singolare sigla NIL (cioè nuove identità di lavoro). Un termine che vorrebbe ricomprendere i lavori precari, sottopagati, i lavori che sottraggono tempo all’esperienza di vita. Oggi che molte persone con un percorso di istruzione si devono adattare a friggere patatine nei fast food, oppure a fare i fattorini. Oggi che addirittura la ricerca scientifica, ovvero una delle forme più necessarie di lavoro ormai viene snobbata. Oggi che parallelamente al lavoro si tende a denigrare e svilire la preparazione professionale, e lo studio che ne è la base. Oggi che anche il lavoro di insegnanti e docenti è difficile, è legittimo chiedersi se le parole di Levi hanno ancora un senso, riescono ancora a rappresentare la realtà.

Io credo di si. Le pagine di Levi dedicate al lavoro possono essere uno stimolo per la difesa della dignità. Di chi lavora, e di chi un lavoro lo sta cercando. Può sembrare utopico. agli studenti che ho seguito negli stages, che spesso mi confidavano le loro aspettative e le loro incertezze sul futuro, parlavo spesso di come Primo Levi concepiva il lavoro. E qualche volta stampavo per loro questo brano tratto dall’intervista del 1986 con Philiph Roth.

Ad Auschwitz ho notato spesso un fenomeno curioso: il bisogno del lavoro ben fatto è talmente radicato da spingere a far bene anche il lavoro imposto, schiavistico. Il muratore italiano che mi ha salvato la vita, portandomi cibo di nascosto per sei mesi, detestava i tedeschi, il loro cibo, la loro lingua, la loro guerra; ma quando lo mettevano a tirar su muri, li faceva dritti e solidi, non per obbedienza ma per dignità professionale”.

Per Primo Levi il “privilegio di pochi” è riferito a provare la gioia del lavoro ben fatto. E’ auspicabile e doveroso che invece questo privilegio possa essere offerto a più persone. E che le persone vedano tutelata la loro dignità umana, e non solo la loro professionalità. Con gli auspici e i suggerimenti che lo scrittore torinese ci ha indicato.

Uno sguardo all’effetto Volta e alla giunzione P-N.

In evidenza

Claudio Della Volpe

Da quasi 20 anni faccio un corso di elettrochimica, anche se con titoli diversi; il corso di quest’anno si chiama Electrochemical energy storage and conversion (originariamente il titolo conteneva production, ma il primo principio ci ha obbligato a cambiare nome) . Uno dei concetti che cito di più è l’effetto Volta o prima legge di Volta: il contatto tra due metalli diversi alla stessa temperatura fa sì che si stabilisca una differenza di potenziale caratteristica della natura dei metalli che non dipende dall’estensione del contatto.

Volta è stato un genio, un grande scienziato che con a disposizione strumenti limitati è stato in grado di costruire una coerente visione della realtà naturale.

Pochi sanno che Volta ha usato come strumento prima di tutto il proprio corpo; i suoi sensi e gli effetti biologici della corrente elettrica sono stati il suo primo strumento di lavoro (testava la corrente con la lingua, gli occhi, il naso).

Volta era anche un piacevole raccontatore; le sue opere, piacevolissime da leggere sono state raccolte da UTET (A. Volta Opere scelte, a cura di Mario Gliozzi, 1967), un testo che si trova anche in rete e che vi consiglio caldamente anche per la vasta e completa introduzione.La interpretazione moderna dell’effetto Volta è per me la chiave di volta, (scusate il gioco di parole) anche per introdurre i potenziali termodinamici misti: elettrochimico, gravitochimico o ancora termogravitochimico.

Concetti usati moltissimo in settori i più disparati, dall’elettrochimica alla meteorologia, ma che trovano la loro base nella formalizzazione robusta della termodinamica e nella trattazione della termodinamica del vicino equilibrio.

Nell’elettrochimica moderna l’elettrone è considerato una specie reattiva come un’altra; possiede dunque un suo potenziale chimico oltre che un potenziale elettrico. Per chi avesse difficoltà a considerare il potenziale chimico dell’elettrone gli consiglio di immaginarlo come la concentrazione di elettroni “liberi” in un certo ambiente.

I fenomeni legati al funzionamento delle valvole termoioniche per esempio rendono evidente che gli elettroni nel vuoto relativo della valvola si comportano come un gas di particelle libere in equilibrio con le superfici metalliche a diverse temperature; semplici esperimenti fattibili anche con lampadine da auto rotte vi consentono di mostrare che se aumentate la temperatura del metallo gli elettroni fluiscono verso un secondo elettrodo presente nella valvola.Insomma si comportano come particelle di un gas, ma in più trasportano una carica e dunque sono una corrente: chimica ed elettricità si fondono nell’analisi di una valvola termoionica, che purtroppo è uscita dall’orizzonte tecnologico, ma rimane un potente strumento didattico (si chiama anche effetto Edison).

(si veda per esempio : https://aapt.scitation.org/doi/abs/10.1119/1.5051166?journalCode=pte)

Allora tornando all’effetto Volta:

avete due metalli diversi a contatto, zinco e rame; il primo presenta un potenziale chimico dell’elettrone superiore, ossia i suoi elettroni hanno una maggiore tendenza a diffondere o se volete una maggiore “concentrazione”(i puristi si tappino il naso).

Ebbene essi si sposteranno dal lato del rame generando una differenza di potenziale che ad un certo punto si opporrà al moto ulteriore, ma la barriera di potenziale si sarà creata, sarà gratuita, stabile ed utile; questo concetto si può applicare a TUTTE le sostanze.

All’equilibrio avrete che le due differenze di potenziale si equivarranno:

Δμ+nFΔV=0 il potenziale misto, elettrochimico è nullo e il sistema è all’equilibrio

(per trasformare in energia la parte elettrica ho moltiplicato la differenza di potenziale elettrico per la carica, a sua volta espressa come prodotto del numero di moli di carica per il Faraday).

Il famoso esperimento che tutti i ragazzini fanno con penna a maglietta per caricare la penna, in realtà funziona anche senza grattare la penna sulla maglia ma molto meno; anche penna e maglietta sono (poco) conduttori; per esaltare le superfici di contatto e ampliare il fenomeno si grattano reciprocamente e l’attrito fa la sua parte; ma il fenomeno sarebbe evidente con un microelettroscopio.Qua si potrebbe estendere il discorso alla serie triboelettrica con innumerevoli applicazioni industriali: i polimeri idrofobici come il teflon ad una estremità, si caricano negativamente, l’aria positivamente. I chimici si sono inventati il concetto di “trasferimento di carica” per studiare queste cose o la teoria acido-base delle superfici (Good, van Oss e Chaudury), cui ho dato qualche contributo, ma i concetti sono sempre quelli.

Le motivazioni chimiche sono facilmente deducibili e il potenziale misto rappresenta un potente strumento concettuale unificante.

Lo strumento base dell’elettronica moderna è basato esattamente sull’esperimento di Volta: la giunzione P-N.

Due semiconduttori, in genere silicio ultrapuro da un lato arricchito di fosforo e dall’altro di boro; in questo modo si altera in modo opposto il potenziale chimico dell’elettrone; dal lato del fosforo si avranno elettroni in eccesso non legati, rispetto ai legami possibili (silicio-n)e dall’altra se ne avranno in difetto (silicio-p).

Per effetto Volta gli elettroni si spostano dall’-n al –p e a questo punto se per qualche motivo liberate elettroni a destra (tramite poniamo un fascio di luce solare) questi poverini spinti a diffondere verso potenziali superiori non potranno traversare la barriera e dovranno giocoforza fluire nel circuito elettrico (esterno all’immagine) che gli metteremo a disposizione!

Le celle FV sono esattamente questo; ma anche i LED sono questo, sono delle giunzioni PN in cui però la logica costruttiva e diversa perché finalizzata a fare la cosa opposta: trasformare in luce un flusso di corrente.

Un LED non è fatto come una cella FV ma è basato sui medesimi principi: primo effetto Volta.

se voi esponete un LED alla luce il LED fa il suo lavoro alla rovescia; produce una differenza di potenziale ed una minuscola corrente; si può costruire una cella FV fatta di LED; ovviamente sarebbe poco efficiente perché la sua geometria interna non è ottimale.

(si veda https://www.youtube.com/watch?v=L3-0aCJOedo)

Una cosa da precisare; queste giunzioni sono macchine termodinamiche che rispettano ovviamente il secondo principio: quando fate una trasformazione da una forma di energia all’altra avrete sempre una dissipazione termica; tutte le macchine termodinamiche (intese come i dispositivi di conversione dell’energia da una forma all’altra) seguono questa legge ma con un ma.

Ci sono due classi di macchine quelle che lavorano attraverso un salto termico come le macchine termiche tradizionali le turbine, le macchine a vapore o le giunzioni PN che sfruttano la luce oppure le macchine elettrochimiche o le giunzioni PN che NON sfruttano la luce.

Le prime seguono la seconda legge nella forma tradizionale di Carnot la loro efficienza massima è dettata da η=1-Tbassa/Talta

La altre no! Sono isoterme e dunque la temperatura non influenza la loro efficienza, ma invece lo fa il potenziale elettrico: η=Veff /Vequ per una cella elettrochimica. Le celle elettrochimiche e le batterie si fanno un baffo di Carnot.

Le giunzioni PN che sfruttano la luce si comportano come macchine termiche fra la T della sorgente e la T ambiente); le celle FV avrebbero una mostruosa efficienza (superiore al 90%) se potessero sfruttare TUTTA la radiazione in arrivo, ma di solito sono limitate ad un intervallo discreto e dunque la loro efficienza con la luce solare ed una giunzione PN singola non supera un modesto ma interessante 33.7% (il limite di Shockley–Queisser); se si mettono insieme più giunzioni diverse o si scelgono sorgenti diverse dal Sole le cose cambiano. Le celle multigiunzione arrivano ormai a superare il 45%! I LED possono addirittura arrivare ad efficienze teoriche si apure come ogni macchina che s rispetti a bassa intensità (https://phys.org/news/2012-03-efficiency.html).

Quando racconto queste cose ai miei studenti cerco di metterli in difficoltà il che non è difficile perché gli studenti raramente fondono insieme la visione termodinamica , chimica e quella della Fisica dello stato solido e dunque se chiedo:

ragazzi la Terra emette nell’IR tutta l’energia che riceve dal Sole, sia di giorno che di notte; allora come mai non posso mettere in cantina delle celle FV che siano centrate non sul visibile ma sull’IR e rivolte verso terra e ottenere energia elettrica in questo modo

rispondono:

si, buona idea, ma non ci sono i materiali adatti

Beh non è vero, ci sono le celle FV nell’IR e la loro efficienza sta rapidamente crescendo; ma il motivo è diverso; anche con i materiali migliori non potremo mai usare la Terra come sorgente IR nella nostra cantina, per un semplice motivo termodinamico; la T della sorgente terra sarebbe uguale a quella del ricevitore e allora l’efficienza termodinamica sarebbe nulla!

L’unica cosa che potremo fare è portare una aereo in stratosfera a -50°C ed applicare sotto le sue ali delle celle FV infrarosse; allora la loro efficienza teorica sarebbe η=1-Tbassa/Talta ossia circa il 22% non male!

Ma non è finita qui; cosa succederebbe se esponessimo una giunzione PN ad una sorgente più fredda di quella ambiente?

L’idea (del tutto geniale!) venne qualche anno fa

e dunque c’è un’altra via per convertire energia con una giunzione PN; invece di ottenere energia elettrica esponendo la giunzione ad una sorgente più calda si può ottenere energia esponendola ad una più fredda!

E questa “sorgente negativa” c’è sempre, è lo spazio, il nero del fondo cielo la cui temperatura è molto bassa, almeno 50 o più sottozero se si considera la quota stratosferica; in questo caso la corrente andrebbe non dalla porzione n alla porzione p, ma viceversa dalla p alla n; la cosa è stata fatta notare qualche tempo fa, accludo il lavoro e recentemente hanno fatto una celletta del genere (efficienza ridicola al momento); se usata verso lo spazio esterno da t ambiente farebbe anche oltre 50W/mq, ma di fatto il limte è “vedere” la sorgente fredda attraverso la copertura atmosferica il che si può fare solo in ristrette zone di frequenza; nel pratico al massimo farebbe il 4%, ma l’idea è comunque eccezionale, harvesting che sfrutta il calore ambiente e il suo spontaneo raffreddamento; idea del tutto eccezionale secondo me.

Recentemente han provato a costruirne una e, al di là delle sciocchezze che possiate aver letto sui giornali, la cosa è fattibile, ma al momento non utile praticamente. Guardate solo la immagine qua sotto e capirete subito il concetto;

(ricordiamo sempre che la corrente convenzionale è di cariche positive, dunque quella elettronica va in direzione opposta).

Qualunque sorgente sia esposta al diodo PN si realizza comunque un flusso di corrente!

Siamo arrivati alla fine di una rapida galoppata nel reame delle idee base dell’elettrochimica, ma forse da un punto di vista che non avevate esplorato mai così. Spero.

La nostra guida è stato un principio scoperto oltre 200 anni fa. Alessandro Volta, da qualche parte ci guarda sornione.

Castrazione “chimica”.

In evidenza

Claudio Della Volpe

Negli ultimi giorni i giornali hanno ripetutamente parlato di questo argomento; uno dei due vice presidenti del consiglio, durante la attuale campagna elettorale, ne ha parlato ripetutamente proponendo una legge a riguardo e pare da un sondaggio SWG che il 58% degli italiani sia favorevole, anche se non è chiaro bene a cosa siano favorevoli. Dato che il tema ha a che fare con la chimica mi sembra opportuno informare a riguardo per evitare confusione.

Cosa si intende per castrazione chimica?

Cominciamo dal dire che la castrazione in genere è l’atto di eliminare chirugicamente le gonadi maschili, l’atto corrispondente nel genere femminile (eliminazione delle ovaie) viene più pudicamente definito sterilizzazione e chirurgicamente è molto più invasivo. Entrambi vengono usati per motivi vari in specie animali e nella specie umana; di solito per impedire la riproduzione di animali ma anche solo per cambiarne il comportamento (il bue invece del toro, il cappone invece del gallo sono animali castrati e castrati in età precoce; cappone viene dal latino capo,-onis a sua volta dal verbo greco “κόπτω”, che significa “tagliare”).

L’esistenza di maschi castrati definiti eunuchi o castrati è stata diffusa nella storia della specie umana con varie motivazioni e si sa che induce modifiche notevoli nel corpo: voce, accumulo di grasso, comportamento si modificano; la castrazione è stata anche usata in particolare per indurre lo sviluppo di una voce canora di elevata qualità ed è presente nella nostra storia nazionale con riferimento alla storia della musica.

http://quinteparallele.net/2016/11/24/le-voci-senza-sesso-i-castrati/

Nel corso del XVIII secolo, circa centomila giovani ragazzi furono evirati per preservare le loro voci acute. Tra di loro, pochissimi riuscirono a salire all’Olimpo del bel canto, diventando i cantanti più famosi di quell’era, le prime vere e proprie superstar internazionali. Erano forse i performer più virtuosi mai sentiti sulla faccia della Terra: i castrati.

Chi era il castrato? Il termine castrato indica un tipo di cantante, molto in voga nel panorama operistico del XVII e XVIII secolo, che, non avendo sviluppato alcun carattere sessuale a seguito di un’evirazione precoce, aveva i riflessi e la potenza di una voce adulta e il timbro di una laringe da bambino. Eseguita prima della pubertà, la soppressione (o piuttosto l’annullazione delle funzioni) dei testicoli comprometteva l’apparizione dei caratteri sessuali principali e, in particolare, arrestava lo sviluppo della laringe. Mentre il corpo del giovane castrato cresceva, la mancanza di testosterone non permetteva alle articolazioni di irrigidirsi, perciò gli arti degli eunuchi spesso erano anormalmente lunghi, come anche le costole della loro cassa toracica. Queste particolarità anatomiche, a cui si aggiunge un intenso allenamento musicale, permettevano loro di avere un’impareggiabile potenza di voce e capacità di respiro.

Ritratto di Carlo Maria Broschi, detto Farinelli, che fu tra i più celebri cantanti castrati; il dipinto fu eseguito dall’amico Jacopo Amigoni nel 1750 e si trova a Madrid nella Real Academia de Bellas Artes de San Fernando

I castrati erano raramente chiamati con questo nome: nel XVIII secolo, veniva utilizzato più generalmente l’eufemismo musico, sebbene il termine contenesse delle implicazioni denigratorie; un altro sinonimo usato era evirato. La denominazione eunuco, invece, aveva un’accezione più generale, visto che storicamente parlando gli eunuchi venivano castrati dopo la pubertà e perciò il processo di evirazione non aveva alcun effetto sulla loro voce, già cambiata nella muta adolescenziale.

Castrati a scopi musicali esistettero e furono presenti in cori vaticani fino al 1902. Dunque questo atto così invasivo dal nostro punto di vista è in realtà un atto usato ampiamente in passato e anche nel nostro paese. Noto di passaggio che l’articolo che ho citato sostiene che la castrazione fisica non obbligava la persona né ad una vita omosessuale come qualcuno pensa e nemmeno a non poter avere una normale vita sessuale, con persone dell’altro sesso; dunque perfino la castrazione fisica non impedisce, né vieta di provare desiderio sessuale per l’altro sesso e di realizzare tale desiderio.

Ma pochi sanno che la castrazione fisica è usata ancora oggi in Europa e in Occidente seppure con scopi affatto diversi.

Man mano che la cultura si sviluppava si è compreso che una azione del genere era inaccettabile eticamente; ma sono rimasti dei casi in cui essa è considerata possibile ed è di fatto attuata; nel lavoro citato nei riferimenti si dice:

Though its use has declined, surgical castration of sex offenders still occurs, including in the West. At present, voluntary surgical castration of sex offenders is legal in California, Florida, Iowa, Louisiana, and Texas (del Busto and Harlow 2011). In Europe, it has remained in limited use in Germany and more widespread use in the Czech Republic, where, between 2001 and 2006, more than 50 sex offenders underwent surgical castration (European Committee for the Prevention of Torture 2009).

Dunque la castrazione fisica è ancora usata ma come mezzo di difesa sociale contro coloro che mostrino comportamenti sessualmente aggressivi nei confronti di minori o in genere (questo il senso di sex offender).

Con lo sviluppo delle conoscenze mediche e biologiche si è capito che si potevano trovare alternative a questo tipo di strategia; e lo si è fatto in passato anche recente per motivi che oggi considereremmo assolutamente abietti.

Basti ricordare il caso di Alain Turing.

Turing è stato uno dei maggiori scienziati nel campo dell’informatica, e probabilmente il più grande informatico moderno ed uno dei maggiori matematici del 900; potete leggere un mio breve articolo di qualche anno comparso su XlaTangente, in cui insieme al collega Stefano Siboni avevo cercato di raccontare i rapporti fra Turing, la matematica e la chimica: http://www.xlatangente.it/upload/files/margheritesito.pdf

Turing era omosessuale; era anche un genio matematico che contribuì in modo determinante alla vittoria alleata nella 2 guerra mondiale scoprendo il meccanismo di funzionamento di Enigma, la macchina tedesca che cifrava i messaggi usati per dare ordini all’armata tedesca. Dopo aver contribuito in segreto alla vittoria, qualche anno dopo, fu accusato di omosessualità, considerata un reato nell’Inghilterra postbellica. Fu costretto a scegliere tra una pena a due anni di carcere o la castrazione chimica mediante assunzione di estrogeni. Per non finire in prigione, lo scienziato optò per la seconda alternativa. Per oltre un anno si sottopose a trattamenti che provocarono in lui un calo della libido e lo sviluppo del seno (ginecomastia). La depressione legata al trattamento e all’umiliazione subita fu, a parere di molti storici, il motivo che lo condusse, il 7 giugno 1954, al suicidio.

E veniamo alla castrazione chimica, considerata oggi.

E’ un argomento ampio e complesso anche perchè sconfina con il controllo riproduttivo più in generale.

Anzitutto diciamo che interventi che impediscano la procreazione degli animali compresa la specie umana attraverso l’uso di sostanze apposite ce ne sono; da questo punto di vista anche l’uso della pillola anticoncezionale femminile entra in questa definizione. Ci sono sostanze che inibiscono parti del processo di riproduzione sia nel maschio che nella femmina; nella femmina inibiscono per esempio l’attaccamento dell’ovulo fecondato ai tessuti appositi, nel maschio invece abbassano il tasso di uno degli ormoni chiave che controlla la risposta sessuale, il testosterone e dunque inibiscono all’origine il desiderio sessuale; si tratta sempre di trattamenti reversibili; nel maschio di cane per esempio l’iniezione dura sei mesi, poi bisogna ripeterla e costa quanto una “castrazione fisica”.

Ma cosa avviene nella specie umana?

Qui il discorso cambia perchè la castrazione chimica a differenza del semplice controllo riproduttivo è inteso come un trattamento con sostanze di sintesi che inibisca NON la capacità riproduttiva, che anzi rimane, ma che controlli il desiderio sessuale e la sua messa in atto nei confronti specialmente di persone che per la loro condizione (minori o donne o perfino maschi in alcune circostanze) non riescano a difendersi da atti sessuali indesiderati.

Abbiamo già notato che perfino la castrazione fisica non impedisce necessariamente il desiderio e la sua attuazione, ma in effetti impedisce la sola riproduzione; e questo limite si accompagna anche alle procedure che usano inibitori di sintesi del comportamento sessuale.

Nella situazione più comune si desidera controllare la riproduzione umana senza conseguenze sul desiderio sia nell’uomo che nella donna; sappiamo che nella donna la sintesi chimica ha ottenuto il risultato perfetto con la cosiddetta “pillola”; la pillola nell’uomo, il “pillolo” viceversa che disgiunga la capacità riproduttiva dal desiderio non è ancora in commercio, ma si prova a sintetizzarlo; al contrario esistono prodotti che inducono e mantengono l’erezione, dunque una sorta di sottoprodotto del desiderio a qualunque età.

Qua invece stiamo parlando di una cosa ancora diversa: eliminare il solo desiderio ed in modo certo essenzialmente nell’uomo.

Il risultato, benchè largamente imperfetto può essere raggiunto usando vari tipi di molecole come

– dal 1960 medrossiprogesterone acetato (MPA) o ciproterone acetato (CPA), con MPA usato negli USA e il CPA in Europa, Medio oriente e Canadà; entrambi hanno potenti effetti collaterali ed uno è sospettato di essere cancerogeno.

Ciproterone acetato

Medrossiprogesterone acetato

Dal 1980 si è aggiunta la classe degli SSRI (selective serotonin reuptake inhibitors). Usati inizialmente nel trattare la depressione possono essere usati anche nei casi più lievi di sex offenders.

Paroxetina

Ed infine ci sono nuovi agenti ormonali—gonadotrophin-releasing hormone (GnRH) agonists—usati essenzialmente nel cancro della prostata ma che riducono fortemente il livello di testosterone e possono essere usati nella diminuzione reversibile dell’aggressività sessuale nei soggetti responsabili di questi comportamenti.

Nafarelina

Ci sono però almeno due considerazioni:

  • queste sostanze come tutte le medicine non sono onnipotenti, ossia sono efficaci solo in un certo numero di casi, devono essere somministrate in continuazione e secondo la maggioranza dei medici usate INSIEME ad un trattamento psicologico, ad un controllo continuo del comportamento effettivo della persona poichè potrebbero anche fallire sia pure in una percentuale ridotta di casi;
  • inoltre come tutte le medicine hanno effetti collaterali anche gravi e significativi di vario genere; per esempio riguardo la struttura ossea ma anche la circolazione sanguigna, dati gli effetti molteplici del testosterone

In conclusione il trattamento denominato “castrazione chimica” non è una soluzione perfetta, ha un costo di gestione e non può essere usato da solo oltre a poter indurre effetti collaterali indesiderati che pongono vari problemi etici.

Io non esprimo un giudizio sul tema, ma penso che sarebbe utile che quando si chiede il giudizio alle persone (come ha fatto SGW) sarebbe il caso che le persone siano informate con precisione dei problemi; e lasciatemi dubitare che questo sia vero per la maggioranza della popolazione italiana per la quale la chimica oscilla fra la nemica perenne e la pillola magica, immagini entrambe completamente sbagliate. E’ forse il caso che noi si contribuisca almeno ad informare la popolazione.

Riferimenti

https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3824348/

 

http://www.psicologiagiuridica.com/pub/docs/numero_14/articoli/la%20castrazione%20chimica%20-%20Annamaria%20Faraudo.pdf

 

Le prime molecole dell’universo finalmente trovate nello spazio

In evidenza

Rinaldo Cervellati.

Il titolo che abbiamo usato è il titolo sensazionale con cui Sam Lemonik annuncia, nel numero del 17 aprile di Chemistry & Engineering newsletter, la scoperta della molecola-ione HeH+ nel mezzo interstellare della nebulosa planetaria[1] NGC 7027, situata a circa 3000 anni luce dalla Terra. La luce di questa “piccola” nebulosa (dimensioni 0.1x 0.2 anni luce)[2] è visibile puntando un telescopio (di almeno 120-150 mm di apertura) verso la costellazione del Cigno, 5° a sud-ovest di Deneb, la stella più brillante del Cigno.

A sinistra: NGC 7027 a forte ingrandimento; a destra: la stessa al telescopio120-150 mm

L’osservazione della molecola-ione HeH+, a lungo cercata, può migliorare i modelli astrochimici dell’universo.

Si ritiene che circa 380.000 anni dopo il Big Bang, il plasma che formava l’universo primordiale si raffreddò abbastanza da permettere ai nuclei e agli elettroni di iniziare a combinarsi. L’elio fu il primo atomo a formarsi e i suoi atomi si unirono abbastanza presto con i protoni (nuclei di idrogeno) per formare la prima molecola-ione dell’universo, l’idruro di elio (HeH+).

L’idruro di elio HeH+ fu sintetizzato dai chimici in laboratorio già nel 1925, ma fu solo negli anni ’70 del secolo scorso che gli scienziati suggerirono che potesse trovarsi nel mezzo interstellare dello spazio. Quattro decenni dopo, un gruppo internazionale di astrofisici, coordinato dal Dr. Rolf Güsten riporta di averlo finalmente osservato nella nebula NGC 7027 (R. Güsten et al., Astrophysical detection of the helium hydride ion HeH+, Nature, 2019, DOI: 10.1038/s41586-019-1090-x).

Rolf Güsten

L’incapacità di individuare HeH+ era stata un vero grattacapo per il fisico dell’Università della Georgia Phillip Stancil, uno degli autori di un articolo del 2002 in cui, sulla base di calcoli basati su dati combinati di fisica atomica e molecolare e di astrofisica, veniva prevista HeH+ come prima molecola-ione formatasi nell’universo[3] [1].

Phillip Stancil

Stancil affermò che non si potevano sostenere modelli astrochimici senza riscontri sperimentali su HeH+. Ora, dice, finalmente si può.

Rolf Güsten e collaboratori hanno identificato una linea spettrale caratteristica di HeH+ nelle osservazioni della nebulosa planetaria NGC 7027, uno dei luoghi in cui era probabilmente ritenuta possibile l’esistenza di HeH+. Per l’esattezza è stata identificata la transizione rotazionale J = 1−0 dello stato fondamentale della molecola-ione a 149,137 μm. (2.01018 THz).

Alcuni fattori hanno ostacolato i precedenti tentativi di osservare HeH+, il primo dei quali è la sua relativa scarsità. Una transizione del legame carbonio-idrogeno a 149,09 μm maschera spesso questo segnale, oscurato anche dall’acqua e da altre molecole nell’atmosfera terrestre, rendendo improbabili le osservazioni dalla Terra.

Nell’ambito del progetto SOFIA (Stratospheric Observatory for Infrared Astronomy) dell’ente spaziale americano NASA, i ricercatori coordinati da Rolf Güsten hanno montato su un Boeing 747SP opportunamente modificato, il recente spettrometro eterodina GREAT (German Receiver for Astronomy at Terahertz Frequencies). L’aereo vola nella stratosfera, che blocca il 99% delle radiazioni infrarosse dalla Terra all’atmosfera, a un’altitudine fra 11000 e 14000 metri.

Il Boeing 747SP di SOFIA mentre vola sopra le montagne della Sierra Nevada. Notare la porta del vano per il GREAT

Lo spettrometro GREAT confronta la luce in ingresso con una luce di riferimento, una tecnica che ne aumenta la sensibilità. I ricercatori sono stati così in grado di distinguere la frequenza della transizione di HeH+ da quella del legame C-H.

“È stata una lunga ricerca”, afferma Jérôme Loreau, un fisico che ha sviluppato modelli di come HeH+ e altre molecole si siano sviluppate nell’universo primordiale. Una delle ragioni per cui questa osservazione è interessante, dice, “è che c’è una discrepanza tra l’abbondanza prevista di HeH+ e l’abbondanza osservata”. Sulla base delle loro osservazioni, il gruppo di Güsten ha infatti calcolato un’abbondanza di HeH+ di un fattore 3 più elevata di quanto previsto dai modelli disponibili per le reazioni chimiche nello spazio.

Questa discrepanza indica margini di miglioramento nei modelli astrofisici, afferma Loreau: “Mi aspetto che i modelli dell’universo primitivo cambieranno”. Güsten è d’accordo.

Stancil è meno sicuro. Informa di aver già pianificato con un collega il ricalcolo della velocità di reazione per HeH+ alla luce di questo risultato. Ma sostiene che i calcoli di molti ricercatori richiedono molte assunzioni che potrebbero nascondere qualcosa che non è stata ancora pienamente compresa. Ciononostante, afferma che questa scoperta potrebbe stimolare nuovi modelli e lavori di laboratorio per migliorare la comprensione della chimica nello spazio e nell’universo primordiale.

Articolo tradotto e ampliato da c&en del 17 aprile 2018.

Bibliografia

[1] S. Lepp, P.C. Stancil, A. Dalgarno, Atomic and molecular processes in the early Universe, J. Phys. B: At. Mol. Opt. Phys., 2002, 35, R57–R80.

[1]Una nebulosa planetaria è un tipo di nebulosa a emissione costituita da un guscio di gas ionizzato in espansione, incandescente, espulso dalle stelle giganti rosse al termine delle loro vite. Il termine “planetarie” fu coniato dal loro scopritore, l’astronomo William Herschel (1738-1922), ma in realtà esse spesso contengono stelle ma non pianeti visibili. Successivamente fu dimostrato che queste nebulose erano “piccole” galassie.

[2] La dimensione tipica per una nebulosa planetaria è di 1 anno luce.

[3]La prima molecola neutra formatasi nell’universo è stata l’idrogeno molecolare H2 e rimane il più abbondante [1].

La tavola periodica sottosopra.

In evidenza

Claudio Della Volpe

Un recente articolo comparso su Nature Chemistry pone il problema di una ulteriore rivisitazione della Tavola periodica.

(Nature Chemistry | VOL 11 | MAY 2019 | 391–393 | http://www.nature.com/naturechemistry )

L’idea di base è che quando una persona guarda la Tavola non ne coglie subito la struttura e non ne riesce a coprire con un solo sguardo molti degli elementi; inoltre dato che l’idea che sta alla base alla tavola è quella del riempimento degli orbitali, l’aufbau, detto in tedesco, il riempimento di una cosa avviene dal basso verso l’alto; mentre l’attuale tavola è più una lista che si forma appunto scrivendo da sinistra a destra ma in direzione verticale opposta, cioè dall’alto verso il basso.

Dunque una tavola considerata come un contenitore da riempire di elettroni dal basso verso l’alto contro una tavola considerata come una lista e scritta invece dall’alto verso il basso. La tavola attuale è una lista; viene proposto un contenitore.

Contemporaneamente si pone anche il problema della posizione degli elementi di tipo f che vengono rappresentati separatamente; nella classica rappresentazione essi quasi scompaiono essendo elencati nella parte più bassa della Tavola, anzi al di sotto della Tavola, mentre in questo modo essi acquisterebbero una posizione centrale, il che non guasta pensando al ruolo che hanno in termini di tecnologia.

In alternativa, come mostrato qui sotto si può pensare ad una tavola extra-large che li mette nel posto a loro naturale, ma ovviamente a costo di avere bisogno di un foglio molto più largo che lungo.

L’articolo è supportato da una analisi basata su gruppi di persone a cui la proposta è stata fatta, sia fra gli specialisti che fra i non specialisti e sulle loro reazioni.

E’ una delle tante proposte che sarà dimenticata o invece che cambierà il nostro modo di vedere la tavola periodica?

A voi i commenti.