Nell’Antropocene, l’epoca geologica attuale fortemente caratterizzata dalle attività dell’uomo, la Chimica ha il compito di custodire il pianeta e aiutare a ridurre le diseguaglianze mediante l’uso delle energie rinnovabili e dell’economia circolare.
Per carità solo una brevissima introduzione a questo “nuovo” tipo di molecole (hanno già trent’anni in realtà); che noi chimici chiameremmo volentieri “oligopeptidi e oligonucleotidi mirati”. L’uovo di colombo in un certo senso.
Ma il nuovo termine introduce il concetto (dal latino aptus) che ha uno scopo, che serve ad uno scopo, meglio ancora che si adatta ad uno scopo, che si adatta ad una proteina preesistente o ad un pezzo di acido nucleico preesistente e ne modifica il comportamento: mi ricorda molto una sorta di “anticorpo monoclonale” sintetico per dirla in modo semplice, ma non è poi proprio così.
Il termine aptamer (dal latino apto, che significa appunto “adattarsi”) per questi ligandi quando sono a base di acidi nucleici fu coniato nel laboratorio diretto da J. W Szostak (Harvard) premio Nobel per la medicina nel 2009 insieme a Elizabeth Blackburn e a Carol W. Greider per i loro studi su come i cromosomi sono protetti dai telomeri e dall’enzima telomerasi.
Probabilmente il primo a pensare ad una cosa del genere (per i nucleotidi) è stato Sol Spiegelman un biologo di New York convertito alla matematica e poi alla biologia molecolare.
Gli aptameri hanno una capacità innata di legarsi a qualsiasi molecola verso la quale abbiano affinità di legame, comprese quelle esistenti sulle cellule tumorali e i batteri.
Una volta legati a un bersaglio, gli aptameri possono agire come agonisti o antagonisti. Gli aptameri soffrono di problemi che ne limitano l’efficacia: in particolare sono facilmente digeribili in vivo dagli enzimi che attaccano gli oligonucleotidi o i peptidi. (fra parentesi questa solo relativa stabilità degli oligonucleotidi è uno dei problemi dei vaccini ad mRNA; ad onta delle cavolate dei no-vax sulla capacità di tali molecole di retrotrascriversi nel DNA, un processo che non è possibile se non in tessuti e contesti molto limitati; su questo ho trovato un bellissimo post qui).
Nel caso dei peptidi l’idea fu sviluppata da R. Brent (Nature. 1996;380:548–550).
ora ad Harvard (e marito della vincitrice del Nobel 2004 per la medicina per i suoi studi sui recettori olfattivi). In quel caso Brent introdusse l’idea di una breve sequenza di amminoacidi incorporata ("doppio vincolo") nel contesto di uno scheletro proteico piccolo e molto stabile (lo "scaffold").
Per quanto riguarda il modo di determinare la struttura specifica dell’oligomero nucleotidico occorre ricordare che la nozione di selezione in vitro è stata preceduta più di vent’anni prima, quando Sol Spiegelman ha utilizzato un sistema di replicazione Qbeta come un modo per evolvere una molecola autoreplicante. Inoltre, un anno prima della pubblicazione della selezione in vitro e di SELEX, Gerald Joyce utilizzò un sistema che chiamò “evoluzione diretta” per alterare l’attività di scissione di un ribozima.
Dalla scoperta degli aptameri, molti ricercatori hanno utilizzato la selezione degli aptameri come mezzo sia applicativo che scientifico. Nel 2001, il processo di selezione in vitro è stato automatizzato da J. Colin Cox nel laboratorio Ellington dell'Università del Texas ad Austin, riducendo la durata di un esperimento di selezione da sei settimane a tre giorni.
Nel 1990, due laboratori hanno sviluppato indipendentemente la tecnica di selezione: il Gold lab, utilizzando il termine SELEX per il loro processo di selezione dei ligandi dell'RNA contro la DNA polimerasi T4; e il laboratorio Szostak, coniando il termine selezione in vitro, selezionando ligandi di RNA contro vari coloranti organici. Due anni dopo, il laboratorio Szostak e Gilead Sciences, indipendentemente l'uno dall'altro, hanno utilizzato schemi di selezione in vitro per sviluppare ligandi di DNA a singolo filamento per coloranti organici e coagulante umano, trombina (i cosiddetti aptameri antitrombina), rispettivamente. Non sembrano esserci differenze sistematiche tra aptameri di RNA e DNA, salvo la maggiore stabilità chimica intrinseca del DNA.
Per gli aptameri peptidici le tecniche di selezione sono ovviamente diverse e forse più complesse e meno automatizzabili; non mi addentro nel problema.
Un primo aspetto è lo sviluppo di fitofarmaci innovativi, a basso impatto ambientale e ridotta tossicità come nel seguente lavoro di M. Colombo, S. Masiero, S. Vezzulli, P. Pesaresi che lavorano presso il Centro Ricerca ed Innovazione, Fondazione Edmund Mach a S. Michele all’Adige (dalle mie parti) e al Dipartimento di Bioscienze di Milano ; questi colleghi hanno sviluppato una applicazione di aptameri peptidici che sono individuati e testati sulla base della loro affinità e specificità per proteine vitali per un certo patogeno. Secondo loro l’utilizzo di questa tecnologia consente lo sviluppo di principi attivi che hanno un alto livello di specificità e ridotti rischi di insuccesso, sono dotati di una buona precisione nel colpire solo il bersaglio designato, e minimizzano i possibili effetti indesiderati su organismi non target. In particolare hanno messo a punto un aptamero peptidico, chiamato NoPv1 (No P. viticola 1), in grado di inibire la crescita di P. viticola su vite e dotato di ottime proprietà di attività, specificità e tossicità. L’aptamero NoPv1 ha infatti dimostrato di essere altamente efficace a dosi molto basse, non essere citotossico per le cellule umane, non essere tossico per le foglie di vite ed essere innocuo su organismi non target, quali batteri del suolo (Agrobacterium tumefaciens, Bacillus amyloliquefaciens) ed Erysiphe necator, agente causale dell’oidio della vite. Dunque un ottimo sostituto sia per i pesticidi di sintesi che per il solfato di rame (o la poltiglia bordolese usato in biologica)
Un secondo esempio sviluppato dai colleghi del centro CNR de La Casaccia (F. Vitali e collaboratori) è stato lo sviluppo di un biosensore qcm (quartz crystal microbalance) per la determinazione dell’ aflatossina b1 mediante un saggio sandwich aptamero-anticorpo
Come si vede dal grafico il sensore QCM è in grado di determinare con elevatissima specificità bassissime dosi di aflatossina B1.
Qui invece abbiamo un caso di possibile terapia antitumorale schematizzata nell’immagine che è diventata una invenzione concreta, il cui brevetto è detenuto anche dal CNR (CNR, Beth Israel Deaconess Medical Center, National University of Singapore ) contatto italiano Vittorio de Franciscis (amico di battaglie sessantottine a Napoli e che ritrovo per puro caso qui, ciao Vittorio! se leggi mai questo post)
Inconfondibile profilo di Vittorio de Franciscis.
Gli inventori hanno isolato aptameri ad RNA anti-DNMT1 (DNMT1 è l’enzima responsabile della metilazione del DNA, dunque strettamente correlato allo sviluppo di tumori) capaci di inibizione altamente specifica della metilazione del DNA, alta stabilità, e riduzione della vitalità cellulare, dimostrandosi efficaci ed innovativi per il trattamento del cancro, eventualmente anche inseriti in apposite nanostrutture per veicolare in maniera specifica prodotti antitumorali.
Le promesse erano già vent’anni fa e sono rimaste enormi in tutti i campi ma, come spesso accade, si tratta di tecniche nuove e da sperimentare con attenzione per evitare di introdurre strumenti potentissimi ma poco gestibili.
Esistono diversi studi preclinici con aptameri non modificati, ma la stragrande maggioranza degli studi sugli aptameri nucleotidici nell’uomo è stata condotta con aptameri modificati, poiché gli aptameri non modificati dimostrano instabilità metabolica, nonché rapida filtrazione ed eliminazione renale. A parte la modifica chimica dei nucleotidi per stabilizzarli contro la degradazione della nucleasi, la principale modifica per prolungare l’emivita è la pegilazione (il processo di legame covalente della catena polimerica del Glicole polietilenico (PEG) ad un’altra molecola, il PEG è uno dei pochissimi polimeri che sono stabili e sicuri nel corpo umano) un termine che è divenuto più conosciuto al grande pubblico perché questa tecnica di stabilizzazione è stata usata pure nei vaccini anticovid ad mRNA.
Mi fermo qua perché non è assolutamente il mio settore ma se qualcuno volesse cimentarsi lo aspettiamo.,
La nuova legge europea sul clima è stata approvata in via definitiva dalla Commissione Europea dopo il voto favorevole del Parlamento Europeo (442 voti a favore,203 contrari e 51 astenuti).Tale legge rende vincolante l’obbligo al rispetto dei temi del Green Deal che punta alla neutralità climatica,entro il 2050.
A parte lo spostamento sempre in avanti degli impegni ambientali assunti nei grandi consessi, forse in.questa occasione ci si poteva aspettare un po’ di più. Il fatto positivo è che il tasso di abbattimento delle emissioni di gas serra, al 2030 è stato fissato al 55% rispetto al 1990 con un aumento rispetto al precedente valore concordato che era del 40%. Inoltre una proposta della Commissione Europea per regolare le emissioni e le rimozioni di gas serra dall’uso del suolo (cambiamento d’uso e silvicoltura) aumenterà i pozzi di carbonio dell’UE e quindi porterà l’obiettivo dell ‘UE per il 2030 al 57%. Le foreste rappresentano degli importanti pozzi di carbonio per il pianeta, in grado di assorbire circa il 30% delle emissioni antropiche di gas-serra, cioè prodotte dall’attività umana. La vegetazione assorbe CO2 durante la fotosintesi e ciò significa che, fintanto che le piante sono vive, possono essere un importante strumento di stoccaggio a lungo termine di anidride carbonica.
Per tale ragione, uno studio (pubblicato su Nature Ecology & Evolution) ha realizzato una mappa della distribuzione delle aree forestali per analizzare il funzionamento dei pozzi di carbonio nelle varie regioni della Terra. L’accordo dovrebbe essere formalmente approvato a breve anche dal Consiglio Europeo ed il regolamento poi pubblicato nella G.U. dell’UE per entrare in vigore 20 giorni dopo. L’ approvazione di una legge europea sul clima è di certo evento storico, ma i contenuti non possono essere considerati soddisfacenti per un’Europa Verde. In particolare è proprio quel valore al 55 % che non convince perché in effetti se si considerano le emissioni assorbite dal suolo e dalle foreste la percentuale si ferma al 52%. In molti Paesi Europei è stata la Magistratura ad intervenire ricordando ai politici le loro responsabilità. E avvenuto in Germania, Francia, Olanda, ora avviene anche in Italia con il processo Giudizio Universale. Pur con i suoi limiti la legge è tuttavia stata equiparata per importanza al libro bianco sulla chimica che ha gettato 20 anni fa le basi della politica europea sui composti chimici e poi portato al regolamento Europeo REACH.
Uno dei ristoranti più famosi di Napoli quando ero un giovanotto si chiamava “Al sarago”; alla fine dell’allora Viale Elena (oggi viale Gramsci) a piazza Sannazzaro; nella classe media, nella “Napoli da bere” degli anni 70 cenare “Al sarago” casomai insieme a Ferlaino, il proprietario del Napoli calcio, era una sorta di punto di arrivo; voleva dire che non solo avevi i soldi per pagare, ma anche che apprezzavi la buona cucina.
Una storia di quegli anni la trovate qui (attenzione c’è un odore di destra politica, ma fa parte del …..piatto).
Negli anni successivi si spostò a Piazza Vittoria (cambiando nome in Sarago dal 1973) all’altro capo del lungomare di Napoli; oggi credo non ci sia più un locale con questo nome; sarà per il covid, sarà forse anche perché il sarago non è “più” un pesce apprezzatissimo e il nome ha perso di attrattiva.
Il sarago è in effetti un pesce tipico del nostro Mediterraneo, Diplodus vulgaris, sui 40cm di lunghezza e un paio di chili, è un pesce molto apprezzato in passato per le sue caratteristiche organolettiche. Ma le cose belle non sono fatte per durare in eterno. Come e perché ce lo racconta un recente lavoro pubblicato su Frontiers in marine science da parte di un composito gruppo di ricercatori italiani.
Il problema del sarago e dei suoi estimatori è cominciato dopo il 1990 quando laCaulerpa cylindracea, un’alga verde di origine Indo-Pacifica, australiana, è arrivata nel Mediterraneo (Verlaque et al. 2015: 251) verosimilmente trasportata dal flusso di navi che da quella zona del mondo risale l’Oceano indiano e poi il canale di Suez.
Detta anche “alga a grappoli verde”, la caulerpa è di origine australiana e fu segnalata per la prima volta nel bacino del Mediterraneo nel 1990 lungo le coste della Libia e in Italia lungo le coste siciliane nel 1993; ha avuto un enorme successo ecologico, diffondendosi in tutto il bacino mediterraneo, prima di tutto a causa della sua elevata capacità di riprodursi e colonizzare tutti i tipi di habitat (fondali sabbiosi, rocciosi e anche (ahimè!) le praterie di Posidonia oceanica), dalla superficie fino a oltre 60 m di profondità.
Caulerpa cylindracea è facilmente riconoscibile: il tallo, cioè il corpo dell’alga, è di colore verde brillante ed è formato da uno stolone strisciante dal quale si dipartono verso il fondo i così detti “rizoidi” e verso la superficie i cosiddetti “filloidi”. I rizoidi sono filamenti che, come le radici delle piante più grandi, consentono l’ancoraggio dell’alga al substrato, i filloidi invece si innalzano come fronde nell’acqua e sono caratterizzati dalla presenza di numerosissime vescicole a forma di clava.
Caulerpacylindracea è una specie altamente invasiva e competitiva nei confronti di altre specie in virtù di alcune sue caratteristiche quali la capacità di occupare tridimensionalmente lo spazio e produrre metaboliti secondari (caulerpina, caulerpenina, caulerpicina). Queste tre molecole sono un esempio di mediatore chimico fra specie diverse come discusso qui. Le Caulerpe sono insolite perché sono costituite da una sola cellula con molti nuclei, rendendole tra le più grandi singole cellule del mondo.
Il gruppo di ricerca costituito da colleghi dell’Università della Tuscia, di Trieste, di Catania, della Stazione Anton Dohrn di Napoli e dalla Fipsas, aveva già ipotizzato che il sarago avesse cambiato abitudini alimentari e che questo avesse avuto effetto sulla sua valenza organolettica ed alimentare. Si può ipotizzare una sorta di tendenza del sarago maschio a “drogarsi” con questa alga con la conseguenza che le sue carni diventano stoppose e, se cucinate come di solito, sono amare e si staccano dalla lisca.
L’abstract del lavoro ci riassume perfettamente la situazione:
Le invasioni biologiche provocano impatti negativi e imprevedibili sugli oceani di tutto il mondo. I macrofiti non indigeni spesso sintetizzano metaboliti secondari a fini difensivi e per aumentare l’efficienza competitiva: è il caso della Caulerpa cylindracea, entrata nel Mar Mediterraneo nel 1990 e da allora in competizione con la flora e la fauna locali. È stato dimostrato che il sarago Diplodus sargus (i) ha incluso le alghe nella sua dieta, (ii) è soggetto alla peculiare condizione di Abnormally Tough Specimen (ATS) post-cottura e (iii) soffre di disturbi fisiologici e comportamentali da caulerpina, uno dei tre principali metaboliti secondari algali. Questo documento conferma una relazione di alimentazione tra il pesce e le alghe, quantifica l’accumulo di caulerpina nel fegato, suggerisce una possibile biomagnificazione causata da molluschi ed echinodermi e mette in evidenza il fatto che tutti gli esemplari di ATS erano maschi. Le analisi multivariate su un pannello multi-biomarker rivelano correlazioni differenziali a processi cellulari chiave come lo stress ossidativo, il metabolismo, la neurotossicità e la perossidazione lipidica, nonché agli indici di condizionamento.
La responsabile di tutto ciò è la molecola qui rappresentata, la caulerpina, un alcaloide con attività antiinfiammatoria e forse anche antitumorale; le sue attività farmacologiche sono oggi oggetto di studio e in questo senso si potrebbe dire che non tutto il male vien per nuocere, o come diceva il mio relatore, il compianto Guido Barone, “ogni cosa ha due corni”.
Più modestamente io ricordo in questi casi un verso di Louis MacNeice (da Snow), un poeta comunista inglese amato e citato da J.B.S Haldane e A.I Oparin, (che pensavano all’origine della vita in una irripetibile stagione della cultura mondiale) e arrivato a me tramite un altro maestro di Napoli (Pierandrea Temussi, PAT per gli amici):
World is crazier and more of it than we think,
Incorrigibly plural.
Il mondo è più matto e ricco di quanto pensiamo,
incorreggibilmente plurimo.
Ecco perché quando facciamo qualcosa dobbiamo ricordarci che gli effetti sull’ecosfera sono spesso imprevedibili ed essere guardinghi e attenti, principio di precauzione: “solo la natura sa il fatto suo”, come diceva Barry Commoner.
Non sono credente (potrei accettare il dio di Spinoza, deus-sive-natura): ma penso che non siamo gli orgogliosi dominatori, ma al più gli umili guardiani di un mondo che non conosciamo, ancora; e se continuiamo così potremmo non conoscere. Mai.
Nelle ultime settimane si è riaccesa quella che potremmo definire la battaglia del glifosato, l’erbicida più venduto al mondo, del quale avevamo parlato parecchio negli anni dal 2015 al 2017, prima che la UE decidesse di consentirne l’uso per 5 anni, che scadranno nel 2022.
Alla fine dell’articolo troverete la lista dei post che pubblicammo (a mia firma meno uno all’epoca raccontando le varie situazioni); nei commenti ad uno di essi si sviluppò anche una polemica fra me e la senatrice Elena Fattori.
Come vedete dalla figura qua sotto lo IARC (attenzione in italiano la sigla AIRC corrisponde ad una associazione privata fondata da Veronesi, ma qui cita quasi punto per punto in italiano la pagina IARC sul glifosato) ritiene il glifosato un “probabile cancerogeno” cat. 2A; potete accedere a questa pagina qui. Il documento originale sul glifosato di IARC è qui*.
Perché si sta riaccendendo questa discussione?
Il motivo è semplice dato che il permesso di usare il glifosato scadrà il 15/12/2022 stanno scendendo in campo da una parte i produttori di glifosato e di prodotti collegati (soprattutto di semi geneticamente resistenti) riassunti nella sigla GRG (Glyphosate renewal group), una lobby e dall’altra le associazioni ambientaliste a partire per esempio da Stop Glyphosate.
Il suo utilizzo come erbicida è stato approvato nell’Unione europea nel 2017 fino al 2022, con alcune limitazioni, tra cui il divieto di avere nella stessa formulazione glifosato e ammina di sego polietossilata e una serie di divieti relativi al fatto che anche ECHA ha riconosciuto che il glifosato è tossico per l’uomo in certe condizioni e dannoso per l’ambiente acquatico.
I paesi europei arrivano divisi alla questione almeno al momento; scrive il Sole 24 ore:
Dopo la retromarcia dell’Austria, il Lussemburgo sarà il primo Stato Ue a vietare l’uso dell’erbicida già dal 2021. Una decisione che ha anticipato quelle di Francia e Germania. Parigi, nonostante un investimento pubblico da 400 milioni non è riuscita a far decollare il piano, denominato “Ecophyto”, che mira a ridurre del 50% i fitofarmaci in agricoltura entro il 2025. Dal lancio del piano nel 2008 il loro uso è aumentato del 12%, secondo i dati presentati dalla corte dei conti al governo francese
L’Italia non ha una posizione chiara.
Cosa è successo di interessante nel frattempo dal punto di vista scientifico?
Il sito http://www.weedscience.org che riporta lo sviluppo delle resistenza ai vari fitofarmaci mostra che c’è stato un continuo incremento delle resistenze anche per il glifosato
Dal 2017 altre 15 specie sono diventate resistenti al glifosato per un totale attuale di 53; è un fenomeno che dovrebbe far riflettere poiché riguarda TUTTI i fitofarmaci- erbicidi usati nel mondo come mostra quest’altro grafico:
A questo occorre aggiungere che l’azione dei movimenti ambientalisti ha obbligato a rendere pubblici i documenti su cui si sono basate le autorizzazioni delle varie istituzioni pubbliche; se ricordate è stata proprio la diversa strategia nell’accettare la documentazione che ha portato all’inimmaginabile conflitto fra IARC ed ECHA o EFSA nell’autorizzazione del glifosato.
IARC usa una metodologia autorizzativa basata solo su documenti privi di ogni conflitto di interesse, pubblicati sulla letteratura internazionale, mentre ECHA, EFSA o EPA accettano la documentazione dei produttori, che fra l’altro NON E’ PUBBLICA o almeno non lo è sempre.
Dato che sono in corso negli USA centinaia di cause di privati che sostengono di essere stati danneggiati dall’uso del glifosato le associazioni antiglifosato sono riuscite a rendere pubblici molti dei documenti di cui si parlava grazie alla forza della magistratura; analogamente nel marzo 2019 quattro europarlamentari verdi hanno ottenuto una sentenza della Corte di giustizia in cui si afferma che l’EFSA dovrebbe pubblicare tutti gli studi (segreti) sui rischi di cancro del glifosato. L’ONG SumOfUs ha richiesto all’EFSA 54 studi di genotossicità e ha avviato un’azione di finanziamento pubblico per poter pagare scienziati indipendenti per lo screening di questi studi ne è seguita una analisi dettagliata di queste documentazioni che sono ora pubbliche e che è stata condotta da alcuni specialisti.
Tutta la storia è stata pubblicata dal Guardian e sono disponibili anche i documenti stessi.
L’analisi dei documenti condotta da due specialisti del settore, Armen Nersesyan and Siegfried Knasmueller, dello Institute of Cancer Research, Department of Medicine I, Medical University of Vienna, è scaricabile da qui.
L’analisi è stata condotta gratuitamente da Knasmueller, mentre l’altro autore (precario) è stato ricompensato con 3500 euro.
Cosa si conclude in questa analisi?
«Non meno di 34 dei 53 studi di genotossicità finanziati dall’industria utilizzati per l’attuale autorizzazione dell’Ue del glifosato sono stati identificati come “non affidabili”, a causa di sostanziali deviazioni dalle linee guida per i test dell’OCSE, che potrebbero compromettere la sensibilità e la precisione del sistema di prova. Per quanto riguarda il resto dei 53 studi, 17 erano “parzialmente affidabili” e solo 2 studi “affidabili” da un punto di vista metodologico».
Su questa base molte associazioni ambientaliste e di consumatori chiedono una revisione dei permessi che tenga conto di questi nuovi punti di vista.
Come chimici ci resta da dire che vorremmo che ci fossero metodologie non inficiate da scelte discutibili e soprattutto completamente trasparenti; non è possibile che gli enti regolatori debbano scegliere sulla base di documenti non solo soggetti a conflitti di interesse, ma perfino non completamente pubblici; le stesse leggi europee dovrebbero tener conto di queste profonde debolezze dei processi di accertamento; e non sono le sole modifiche legislative da considerare.
Ricordo qui per la sua assonanza la questione posta dal tema PFAS: l’uso dei brevetti contro i ricercatori che vogliono misurare la presenza di inquinanti nell’ambiente, come denunciato da alcuni colleghi dell’Università di Padova e raccontato in un nostro recente post. Questa situazione porta all’impossibilità di avere lo standard di misura utile per misurare l’inquinamento perché i detentori del brevetto dell’inquinante ne impediscono l’uso o non ne diffondono lo standard.
Poi non ci si dica che non si sa perché la chimica è considerata “sporca e cattiva” o perché molti siano i chemofobici. Sta a noi chimici schierarci apertamente e sempre per la trasparenza dei dati.
SEMPRE.
grazie a Francesco Pascale per avermi fatto notare questa possibile confusione.
Negli anni 30 all’Istituto di Fisica di via Panisperna a Roma Enrico Fermi con la supervisione di Orso Mario Corbino formò un Gruppo di Ricerca con Franco Rasetti,Emilio Segre,Bruno Pontecorvo, Edoardo Amaldi ed Ettore Majorana che si rese protagonista di grandi scoperte nel campo della Fisica Nucleare, ma che già dalle parole di Fermi riaffermò il principio della unitarietà delle Scienze:
”La speranza è che i progetti in corso permetteranno di realizzare qui in forma costruttiva quella collaborazione fra Fisica,Chimica e Biologia che è così fortemente auspicata dai cultori di queste 3 discipline,le quali pure avendo nomi diversi ed essendo per una necessaria divisione del lavoro coltivate da persone diverse non sono in realtà altro che capitoli dell’unica grande scienza della Natura”.
Purtroppo per lunghi anni la struttura originaria, la palazzina, è stata dismessa e solo l’incancellabile valore storico ne ha rappresentato la difesa dell’identità. Finalmente nel 1999 è stato fondato il Centro Ricerche Enrico Fermi (CREF) come composizione fra un ruolo di Museo dedicato alla eredità scientifica di Fermi con reperti originali degli esperimenti ed adeguati sistemi audio/video per renderne fruibile la comprensione ed uno di struttura di ricerca propria. All’atto della fondazione del Centro ne è stata ribadita la funzione di promozione della ricognizione sistematica delle testimonianze storiche delle scienze e delle tecniche conservate nel Paese, nonché delle relative pertinenti risorse bibliografiche e documentali. Sono anche state focalizzate nell’atto istitutivo l’incentivazione, anche in collaborazione con università e centri di ricerca, delle attività formative e professionali per gestire musei, città della scienza e la promozione della cultura e divulgazione scientifica. Bisogna però fare un salto di 20 anni per arrivare a vedere, come oggi è possibile, qualcosa di concreto, la palazzina completamente restaurata da potere essere utilizzata per gli obbiettivi scientifici del CREF.
A quelli codificati vorrei aggiungerne un altro connesso ad una mancanza che nell’area romana si sente dal tempo della chiusura del Laboratorio di Didattica delle Scienze della Facoltà di SMFN della Sapienza. Oggi la didattica delle Scienze soffre della mancanza di strumentazione trasparente quindi didattica. Sempre più spesso gli strumenti ai giorni nostri si configurano come vere e proprie “scatole nere”.
Nel passato recente e meno recente purtroppo esigenze di spazio e di rinnovamento hanno indotto a sacrificare strumenti obsoleti, forse sul piano scientifico, ma straordinariamente utili sul piano didattico in quanto modulari e trasparenti rispetto ai loro contenuti tecnici ed alla loro modalità costruttiva. In tale situazione strumentazioni che si sono salvate dalla rottamazione divengono preziose tanto più se si riflette sulla difficile esperienza a Roma di Kircher e Neviani (Liceo Visconti al Collegio Romano) per formare una collezione museale.
Diceva Neviani “Non vi ha dubbio che per l’incremento delle collezioni (intendiamoci-precisava- non dell’accumulo di materiale qualsiasi che si lasci dormire nei cassetti e negli scaffali a coprirsi di polvere ed essere preda dei tarli)occorrono alcuni elementi di fatto, senza i quali esse sarebbero impossibili. Locali, arredamento e dotazioni proporzionate” Questo impegno sul CREF oggi finalmente riattivato non deve andare disperso ed in questo senso bisogna affidarsi alla lungimiranza dei nostri governanti. Quando nel 1870 tutte le proprietà del Vaticano passarono allo Stato Italiano, la cultura dell’epoca non era sufficientemente preparata ad accogliere e valutare il valore di questo tipo di Museo che fu insipientemente smembrato e volutamente disperso, distruggendo quanto Kircher aveva razionalmente aggregato.Oggi la situazione e le sensibilità sono diverse.
La ricomposizione culturale ed il valore della Storia e dei suoi insegnamenti è molto cresciuto nella convinzione popolare:la richiesta di conoscenza,non di semplice informazione,deve essere soddisfatta perché davanti ad essa c’è una scelta partecipata dei cittadini alle domande che la vita- e di conseguenza la politica- pone continuamente davanti.
Le anomale precipitazioni piovose, che hanno interessato Germania, Belgio e Olanda dovrebbero indurci non solo a maggiori riflessioni, ma anche all’adozione di piani concreti contro il cambiamento climatico. Le ultime notizie parlano di oltre 180 morti e un numero non ben definito di dispersi.
Ridurre le emissioni dovute all’uso dei combustibili fossili, modificherà inevitabilmente e in maniera profonda il nostro modo di vivere. Sia nell’ambito della nostra vita privata, che in quella sociale e nell’organizzazione del lavoro. Non credo si possa pensare di risolvere problemi di questa importanza tramite compromessi. Dovremo adattarci a dei cambiamenti che modificheranno in maniera profonda le nostre abitudini.
L’adattamento a nuove situazioni è un processo che richiede indubbiamente risorse personali, una sorta di meccanismo di omeostasi psicologica, al quale però occorre essere stati preparati.
Ricordo bene che nel periodo della mia infanzia e poi dell’adolescenza, sono stato educato a non eccedere nella richiesta di beni materiali. A non legare in maniera esagerata le mie soddisfazioni personali al possesso di beni materiali. Soprattutto se questi erano superflui. Queste indicazioni provenivano dai miei genitori, che nati negli anni 30, avevano vissuto in maniera ovviamente diversa.
Personalmente ho vissuto anch’ io il periodo della necessità di essere parte di una comunità di amici, ma fortunatamente nessuno di noi era influenzato in maniera eccessiva dalle lusinghe pubblicitarie.
Oggi invece molte, direi troppe cose sono cambiate. Ci confrontiamo con i problemi ambientali ormai da tempo. Ma quando ne parlo con amici, conoscenti e persone che frequento, rimango sempre piuttosto perplesso. Le obiezioni che mi sono rivolte quando cerco di spiegare quelle che possono essere le soluzioni (per altro non più rimandabili) sono le stesse che ho iniziato a sentire negli anni 70.
In genere sentivo dire che, la Terra è grande e ha ancora sterminati territori da sfruttare, che l’inquinamento fosse il prezzo da pagare per il progresso, che fosse un diritto fondamentale quello del possesso dell’auto e magari della seconda casa al mare.
La sensazione che provo è che non sia cambiato nulla, quando ascolto le persone che parlano, magari sul tram o al ristorante. Invece sono cambiate diverse cose. E’ aumentata la concentrazione di CO2 in atmosfera, la biodiversità è profondamente compromessa, cosi come i cicli biogeochimici di fosforo e azoto.
Lo scopo di questo blog è questo. Informare nella maniera più rigorosa possibile come si debba preservare il pianeta. La scienza, soprattutto quella del clima ha già indicato con chiarezza quali sono gli scenari probabili con cui dovremo fare i conti, se non invertiamo la tendenza. Le leggi fisiche non sono emendabili per decreto. Si è detto e scritto molte volte, su questo blog e su migliaia di altri. Su centinaia di riviste scientifiche.
I segnali che ci dovrebbero far reagire immediatamente, pretendendo un impegno immediato e reale da parte della politica si susseguono con un’ allarmante regolarità. Il 2020 ha chiuso il decennio più caldo mai registrato. La temperatura globale è stata di circa 1,2 °C sopra il livello pre-industriale.
E mi chiedo cosa altro dobbiamo aspettare che accada per smuoverci da questo torpore.
“ Le basi più elementari dei presupposti su cui si fonda il nostro futuro benessere economico sono marce. La nostra società vive una fase di rifiuto collettivo della realtà che, quanto a proporzioni e implicazioni non ha precedenti nella storia”
Jeremy Legget- Fine corsa Einaudi 2006.
Gli avvertimenti arrivano da lontano. Questo che ho tratto è solo uno dei tanti. Non abbiamo troppo tempo, e sprecarlo non è saggio.
Nota: L’intensità di questo evento alluvionale è stata certamente inusuale, se confrontata con le altre alluvioni avvenute in passato in Germania. E quindi non è corretto attribuire un singolo episodio, sia pure catastrofico come questo direttamente al riscaldamento globale, come affermato dal ministro tedesco Horst Seehofer. Ma quello che ci si può ragionevolmente supporre, e che eventi estremi di questo genere si possano verificare più frequentemente in un’atmosfera modificata dai gas serra. Riporto quanto dichiarato da Antonio Navarra, climatologo e presidente della fondazione Centro Euro Mediterraneo sui cambiamenti climatici, intervistato a proposito di quanto successo in Germania.
Professor Navarra, eventi come questo sono certamente riconducibili all’emergenza climatica? «È molto probabile, ma per essere scientificamente corretti non possiamo parlare di certezza. Si tratta di fenomeni che hanno scale temporali completamente diverse ed è difficile spiegare un evento puntuale con un processo che invece si estende per secoli. Sarebbe come voler creare un rapporto di causa-effetto tra il fatto che sono inciampato in una strada della capitale e il crollo dell’Impero Romano. Probabilmente il legame, c’è ma è difficile dimostrarlo scientificamente. Qualche collega sta cercando di dimostrate il legame tra global warming e singoli eventi meteo estremi, ma alla fine non si può che parlarne in termini statistici». Un dato, statistico appunto, consolidato è che frequenza e intensità dei fenomeni estremi stanno aumentando. «Questo è fuor di dubbio. C’è una chiara correlazione tra l’aumento della concentrazione dell’anidride carbonica nell’atmosfera e la frequenza e l’intensità di alluvioni, ondate di calore e periodi di siccità. Nel caso specifico delle precipitazioni assistiamo a un graduale spostamento verso nord delle due fasce che attraversano l’Europa. Una passa nella zona centrale del continente, l’altra attraversa il Mediterraneo. Quest’ultima sta migrando verso latitudini più alte: tra qualche anno da noi ci saranno sempre meno piogge che si riverseranno proprio dove c’è stata l’alluvione di ieri. Le nostre proiezioni danno per l’area mediterranea un calo delle precipitazioni compreso tra il 15 e il 20%».
Recentemente, è stato pubblicato da parte delle National Academies of Sciences, Engineering and Medecine (Usa) un nuovo rapporto, seguente quello del 2015 del National Research Council, sulla praticabilità della geoingegneria quale possibile risposta al rapido cambiamento climatico che sta creando impatti severi su individui, comunità, economie ed ecosistemi.
Il rapporto dal titolo “Reflecting Sunlight: Recommendations for Solar Geoengineering Research and Research Governance” è dedicato a Paul J. Crutzen, recentemente scomparso, laureato Nobel in Chimica nel 1995 per l’individuazione della causa dell’impoverimento dell’ozono stratosferico, il quale in tempi più recenti si occupò anche della geoingegneria solare (SG) quale tecnica per contrastare gli effetti del cambiamento climatico.
La sfida dell’emergenza climatica richiede una serie di opzioni di mitigazione (che vanno dalla riduzione dell’emissione dei gas climalteranti alla rimozione e sequestro del carbonio dall’atmosfera) e di adattamento. La preoccupazione che l’adozione dell’insieme delle opzioni di mitigazione non avvenga alla dovuta velocità o che comunque non sia sufficiente ad evitare le peggiori conseguenze, ha portato a suggerire di esplorare ulteriori strategie come la geoingegneria solare. Con questo nome si intende l’aumento della riflessione verso lo spazio della radiazione solare o la riduzione della quantità di radiazione termica intrappolata. Naturalmente, per avere efficacia, queste strategie dovrebbero essere perseguite per tempi molto lunghi, come l’uso di un farmaco salvavita che non possa più essere abbandonato. Esse però introducono anche dei nuovi potenziali rischi, alcuni dei quali con effetti molto difficili da prevedere.
La SG è comunque una strategia che non sostituisce la necessaria riduzione dell’emissione dei gas climalteranti, i quali altrimenti continuerebbero a produrre l’acidificazione degli oceani e ad incrementare il cambiamento climatico. Inoltre, non servirebbe a riportare il clima globale o regionale ad uno stato precedente e se dovesse essere interrotto, in assenza di contestuale riduzione delle emissioni, potrebbe portare ad un repentino riscaldamento con effetti catastrofici.
La parola geoingegneria comprende numerose strategie incluse l’alterazione della riflettività della terra, del mare e dei ghiacci, nonché quelle per rimuovere la CO2 dall’atmosfera (emissioni negative). Il rapporto si limita ad esaminare quelle strettamente “solari” che sono:
Iniezione stratosferica di aerosol (Stratosferic Aerosol Injection, SAI), con aumento del numero delle particelle in grado di aumentare la riflessione della luce incidente.
Lo schiarimento delle nubi marine (Marine Cloud Brightening, MCB), con aumento della riflettività delle nuvole nella bassa atmosfera al di sopra di certe regioni degli oceani.
Assottigliamento delle nuvole cirri (Cirrus Cloud Thinning, CCT), con aumento della trasparenza delle nuvole ghiacciate in modo da favorire la radiazione infrarossa in uscita.
La ricerca indica che la SG può ridurre la temperatura, ma al tempo stesso può introdurre nuovi potenziali rischi come la perdita dell’ozono stratosferico, la modificazione regionale del clima interferendo ad esempio sul monsone indiano, e con numerosi effetti ambientali, sociali, politici ed economici (ad esempio, effetti regionali positivi per una certa regione possono implicare effetti negativi per altre regioni, che vanno dal cambio del regime delle piogge con problemi per la produzione di cibo alla induzione di migrazioni interne di popolazione).
SAI: è la tecnica più studiata e meglio compresa. Diversamente dalla troposfera, la stratosfera è relativamente poco turbolenta e gli aerosol possono permanere in sospensione per oltre un anno, prima di passare alla troposfera o precipitare al suolo. L’eruzione vulcanica del M. Pinatubo, nel 1991, ha iniettato nella stratosfera grandi quantità di idrogeno solforato (H2S) e biossido di zolfo (SO2), che si sono ossidati a formare un aerosol con proprietà riflettenti di acido solforico (H2SO4). Si stima che l’eruzione abbia abbassato la temperatura globale di circa mezzo grado centigrado per oltre un anno. Tuttavia, benchè simile agli effetti naturali di grandi eruzioni vulcaniche, lo spargimento di solfati può provocare effetti indesiderati come la riduzione della concentrazione dell’ozono, che protegge dalla dannosa radiazione ultravioletta. La superficie addizionale degli aerosol riduce i livelli di NOx via conversione di N2O5 ad acido nitrico. Nella bassa stratosfera questo aumenta la perdita di ozono per via dell’incremento dei livelli di HO2 e ClO.
Inoltre, l’incremento di riscaldamento infrarosso associato all’aggiunta di solfati cambierebbe la circolazione stratosferica, alterando la distribuzione dell’ozono. Nei prossimi 50-100 anni la concentrazione dell’ozono dovrebbe aumentare per effetto delle restrizioni nella produzione dei clorofluorocarburi. Tuttavia, la messa in opera della SAI potrebbe ritardare questo recupero.
Sostanze alternative ai solfati potrebbero essere particelle solide di calcite, di alluminio o di rutilo, ma la microfisica di questi composti, come la coagulazione sulle superfici degli aerosol non è ancora compresa. Un altro effetto non ben compreso è il possibile aumento del rapporto tra luce diffusa e luce diretta, con implicazioni sulla fotosintesi (produzione agricola, ecosistemi) e sulla produzione di energia fotovoltaica.
Un altro potenziale effetto indesiderato per la salute umana può essere l’esposizione cronica delle popolazioni via ingestione di acqua e cibo contaminati dalle particelle che si depositerebbero al suolo. Infatti, alcuni degli aerosol proposti contengono per esempio alluminio.
MCB: la ricerca mostra che aggiungendo aerosol alle nubi marine (tra 0 e 3 km sulla superficie marina) può in certi casi aumentare la riflettività, come accade per esempio sulla scia lasciata dai gas di scarico dalle navi. È stato proposto che lo stesso effetto possa essere ottenuto spruzzando una nebbia sottile di acqua salata. Non è però chiaro dove e quanto l’albedo delle nuvole possa cambiare e se i feedback amplifichino o mascherino gli effetti. Anche la scala ridotta di questo processo potrebbe essere un problema.
CCT: le nuvole cirri sono composte prevalentemente da cristalli di ghiaccio nella alta troposfera. Queste contribuiscono al riscaldamento del pianeta, in quanto riducono la radiazione infrarossa in uscita più di quanto riflettano la radiazione solare incidente. Disseminando i cirri con nuclei di ghiaccio si possono produrre cristalli più grandi che cadono più in fretta, riducendo il tempo di vita e quindi la copertura di queste nuvole. L’efficacia della CCT non è ben compresa e le simulazioni di pochi modelli climatici hanno fornito risultati contrastanti.
Etica e geoingegneria
Dal punto di vista etico vi sono parecchie considerazioni, di seguito estremamente sintetizzate e solo accennate.
Alcuni ricercatori sociali hanno prospettato che questo “giocare a essere Dio” di una parte dell’umanità è una brama eccessiva. Altri invece pensano che poiché l’uomo sta già alterando il clima, anche se non intenzionalmente, il farlo invece in modo intenzionale non sarebbe più problematico. Se in futuro si dovesse ricorrere alla geoingegneria come misura disperata, sarebbe meglio conoscere a fondo quali approcci sono più efficaci e quali ne sono i limiti e le incertezze. Sempre nell’ambito delle discipline filosofico/sociali, altri ancora pensano che la ricerca sulla SG potrebbe distrarre dalla ricerca sulla mitigazione (azzardo morale), perché la geoingegneria sarebbe ingovernabile o perché non ha il consenso delle popolazioni indigene del Sud Globale. Un altro aspetto riguarda la giustizia intergenerazionale, in quanto la SG è un’impresa multigenerazionale alla scala dei decenni o dei secoli. La percezione del pubblico è un altro aspetto da considerare, perché esistono tanti pubblici con differenti vedute, come ad esempio la questione delle vaccinazioni anti-Covid sta dimostrando. Inoltre, gli studi (pochi) sinora fatti riguardano quasi esclusivamente i paesi sviluppati (Europa, Usa e Canada, con poche eccezioni in Giappone e Cina) e non si sa quale sia l’opinione delle popolazioni del Sud Globale, che sono maggiormente vulnerabili.
Una conclusione è che la ricerca sulla SG è in uno stadio embrionale e non permette di fornire elementi di supporto ad eventuali decisioni.
Aspetti legali
Anche qui la questione è piuttosto complessa. Ad esempio, la Convenzione di Vienna sulla protezione dello strato di ozono (1985), ratificata da quasi tutte le nazioni, chiede alle parti di proteggere la salute umana e l’ambiente dagli effetti avversi risultanti dalle attività umane che possono modificare lo strato di ozono. L’iniezione di aerosol solfatici nella stratosfera può appunto esacerbare la perdita di ozono. Il Protocollo di Montrèal (1987) restringe la produzione e l’uso di una serie di sostanze elencate in una lista, che dovrebbe essere aggiornata.
In risposta ai tentativi di usare come arma la modificazione del clima durante la guerra del Vietnam è stata ratificata una specifica convenzione (Environment Modification, ENMOD, 1978), che però non esclude usi diversi da quelli militari. La convenzione è comunque carente nel definire le istituzioni che dovrebbero implementare o espandere l’accordo.
La Convenzione delle nazioni unite sulla legge del mare (UNCLOS), ratificata da più di 160 stati ma non dagli Usa, prevede l’obbligo di proteggere gli oceani dall’inquinamento “da o attraverso l’atmosfera”.
Sta aumentando il riconoscimento che il cambiamento climatico e le risposte possono impattare i diritti umani. Il preambolo dell’Accordo di Parigi (2015) incoraggia le parti a rispettare e promuovere gli obblighi rispetto ai diritti umani quando si implementino azioni sul cambiamento climatico.
Una conclusione è che non esiste attualmente una azione coordinata sulla ricerca SG e che i meccanismi legali esistenti, nati in altri contesti, possono applicarsi solo ad alcuni aspetti su impatti di tipo fisico.
Il rapporto 2021 delle National Academies of Sciences, Engineering and Medecine fornisce una serie di proposte per un governo della ricerca su SG e delle raccomandazioni sulle modalità da rispettare per eventuali esperimenti in atmosfera, laddove non sia possibile ottenere informazioni tramite modelli e studi di laboratorio. Nelle conclusioni, si evidenzia che “dato che il cambiamento climatico è una delle sfide più complesse che l’umanità abbia mai affrontato, e che la SG è uno degli aspetti più controversi di risposta, la comunità scientifica deve raccogliere questa sfida con umiltà e creatività, mettendosi alla prova tra discipline diverse e confini nazionali, con nuove modalità oltre gli approcci business-as-usual della ricerca”.
Appare qua evidente il carattere di predicament dell’Antropocene, di cui il cambiamento climatico è uno dei tanti effetti. Non si può risolvere un predicament (situazione spiacevole, difficile o pericolosa), si può solo cercare di farvi fronte con umiltà, sapendo che le risposte non possono essere solo di tipo scientifico e tecnologico, ma anche sociale, culturale, politico ed ecologico.
National Academies of Sciences, Engineering, and Medicine 2021. Reflecting Sunlight: Recommendations for Solar Geoengineering Research and Research Governance. Washington, DC: The National Academies Press.
una versione libera del testo è scaricabile previa registrazione
Rasch, P. J., P. J. Crutzen, and D. B. Coleman. 2008. Exploring the geoengineering of climate using stratospheric sulfate aerosols: The role of particle size. Geophysical Research Letters 35(2). https://doi.org/10.1029/2007GL032179.
*l’autore, già conosciuto dai nostri lettori per altri interessanti contributi è prof. associato di geologia presso UniPd e presidente di Aspo-Italia.
Quando Turing aveva 39 anni nel 1951, si dedicò alla biologia matematica, pubblicando finalmente il suo capolavoro “Le basi chimiche della morfogenesi” nel gennaio 1952.
Alan Turing
Si interessò alla morfogenesi, allo sviluppo di schemi e forme negli organismi biologici. Suggerì che un sistema di sostanze chimiche che reagiscono tra loro e si diffondono nello spazio, chiamato sistema di reazione-diffusione, potrebbe spiegare “i principali fenomeni della morfogenesi” [4]. Usò sistemi di equazioni differenziali alle derivate parziali per modellare reazioni chimiche catalitiche. Ad esempio, se è necessario un catalizzatore A affinché una certa reazione chimica abbia luogo e se la reazione ha prodotto più del catalizzatore A, allora diciamo che la reazione è autocatalitica e c’è un feedback positivo che può essere modellato dal differenziale non lineare di equazioni. Turing scoprì che si potevano creare schemi se la reazione chimica non solo producesse il catalizzatore A, ma producesse anche un inibitore B che rallentasse la produzione di A. Se A e B si diffondessero poi attraverso il contenitore a velocità diverse, allora si potevano avere alcune regioni dove A dominava e in alcuni dove dominava B. Per calcolare l’entità di questo fenomeno, Turing avrebbe avuto bisogno di un potente computer, che non era così liberamente disponibili nel 1951, quindi dovette usare approssimazioni lineari per risolvere le equazioni a mano. Questi calcoli hanno dato i giusti risultati qualitativi e hanno prodotto, ad esempio, una miscela uniforme che stranamente aveva macchie rosse regolarmente distanziate. Il biochimico russo Boris Belousov[1] aveva eseguito esperimenti con risultati simili, ma non era riuscito a pubblicare i suoi articoli a causa del pregiudizio contemporaneo che una cosa del genere violasse il secondo principio della termodinamica. Belousov non era a conoscenza dell’articolo di Turing nelle Philosophical Transactions of the Royal Society.
Sebbene pubblicato prima che la struttura e il ruolo del DNA fossero compresi, il lavoro di Turing sulla morfogenesi rimane rilevante oggi ed è considerato un lavoro fndamentale nella biologia matematica. Una delle prime applicazioni dell’articolo di Turing fu il lavoro di James Murray che spiegava macchie e strisce sulla pelliccia dei gatti, grandi e piccoli [5,6]. Ulteriori ricerche nell’area suggeriscono che il lavoro di Turing può spiegare in parte la crescita di “piume, follicoli piliferi, il modello di ramificazione dei polmoni e persino l’asimmetria sinistra-destra che mette il cuore sul lato sinistro del torace”[7]. Nel 2012, Sheth, et al. hanno scoperto che nei topi, la rimozione dei geni Hox provoca un aumento del numero di cifre senza un aumento della dimensione complessiva dell’arto, suggerendo che i geni Hox controllano la formazione delle cifre sintonizzando la lunghezza d’onda di un meccanismo di tipo Turing [8]. I documenti successivi non furono disponibili fino alla pubblicazione delle Collected Works of A. M. Turing nel 1992 [9].
La condanna e la morte
Nel 1941, Turing propose il matrimonio alla collega Joan Clarke, una matematica e criptoanalista, ma il loro fidanzamento fu di breve durata. Dopo aver ammesso la sua omosessualità con la sua fidanzata, che secondo quanto riferito non era “per nulla turbata” dalla rivelazione, Turing decise che non poteva portare avanti il matrimonio.
Nel gennaio 1952, Turing aveva 39 anni quando iniziò una relazione con Arnold Murray, un disoccupato di 19 anni. Poco prima di Natale, Turing stava camminando lungo Oxford Road a Manchester quando incontrò Murray appena fuori dal Regal Cinema e lo invitò a pranzo. Il 23 gennaio, la casa di Turing fu svaligiata. Murray disse a Turing che lui e il ladro si conoscevano e Turing denunciò il crimine alla polizia. Durante le indagini, riconobbe una relazione sessuale con Murray. Gli atti omosessuali erano reati penali nel Regno Unito a quel tempo,ed entrambi gli uomini furono accusati di “gravi atti osceni” ai sensi della Sezione 11 del Criminal Law Amendment Act del 1885. Il 27 febbraio si svolsero i primi procedimenti di rinvio a giudizio per il processo, durante i quali l’avvocato di Turing “si è riservato la difesa”, cioè non ha sostenuto o fornito prove contro le accuse.
Turing fu poi convinto dai consigli di suo fratello e del suo stesso avvocato, e presentò una dichiarazione di colpevolezza. Il caso, Regina v. Turing e Murray, fu portato in giudizio il 31 marzo 1952. Turing fu condannato e gli fu data una scelta tra la reclusione e la libertà vigilata. La sua libertà vigilata sarebbe stata subordinata al suo consenso a sottoporsi a cambiamenti fisici ormonali volti a ridurre la libido. Accettò la possibilità di iniezioni di quello che allora veniva chiamato stilbestrolo (ora noto come dietilstilbestrolo o DES), un estrogeno sintetico; questa femminilizzazione del suo corpo è proseguita per un anno. Il trattamento rese Turing impotente e causò la formazione di tessuto mammario, adempiendo in senso letterale alla predizione di Turing secondo cui “senza dubbio ne emergerò un uomo diverso, ma proprio non l’ho scoperto”. A Murray fu dato un congedo condizionale (!).
La condanna di Turing portò alla rimozione del suo nulla osta di sicurezza e gli impedì di continuare con la sua consulenza criptografica per il Government Communications Headquarters, l’agenzia di intelligence dei segnali britannica che si era evoluta da GC&CS nel 1946, sebbene mantenne il suo lavoro accademico. Gli fu negato l’ingresso negli Stati Uniti dopo la sua condanna nel 1952, ma fu libero di visitare altri paesi europei. Turing non fu mai accusato di spionaggio ma, come tutti coloro che avevano lavorato a Bletchley Park, gli fu impedito dall’Official Secrets Act di discutere il suo lavoro di guerra.
L’8 giugno 1954, la governante di Turing lo trovò morto all’età di 41 anni; era morto il giorno prima. L’avvelenamento da cianuro è stato stabilito come causa della morte. Quando il suo corpo fu scoperto, una mela giaceva mezza mangiata accanto al suo letto, e sebbene la mela non fosse stata testata per il cianuro, fu ipotizzato che questo fosse il mezzo con cui Turing aveva consumato una dose fatale[2]. Un’inchiesta stabilì che si era suicidato. Andrew Hodges e un altro biografo, David Leavitt, hanno entrambi ipotizzato che Turing stesse rifacendo una scena del film di Walt Disney Biancaneve e i sette nani (1937), la sua fiaba preferita. Entrambi gli uomini notarono che (secondo le parole di Leavitt) provava “un piacere particolarmente intenso nella scena in cui la Regina Perfida immerge la sua mela nell’infuso velenoso”. I resti di Turing furono cremati al crematorio di Woking il 12 giugno 1954, e le sue ceneri furono sparse nei giardini del crematorio, proprio come lo era stato per suo padre.
Il professore di filosofia Jack Copeland ha messo in dubbio vari aspetti del verdetto storico del coroner. Ha suggerito una spiegazione alternativa per la causa della morte di Turing: l’inalazione accidentale di fumi di cianuro da un apparato utilizzato per placcare l’oro su cucchiai. Il cianuro di potassio è infatti stato utilizzato per sciogliere l’oro. Turing aveva un tale apparato installato nella sua minuscola stanza degli ospiti. Copeland ha notato che i risultati dell’autopsia erano più coerenti con l’inalazione che con l’ingestione del veleno. Turing mangiava abitualmente una mela prima di andare a letto, e non era insolito che la mela venisse scartata mezza mangiata (v. nota 3). Inoltre, secondo quanto riferito, Turing aveva sopportato le sue battute d’arresto legali e il trattamento ormonale “con buon umore” e non aveva mostrato alcun segno di sconforto prima della sua morte. Fece anche un elenco di compiti che intendeva portare a termine al suo ritorno in ufficio dopo il fine settimana festivo. La madre di Turing credeva che l’ingestione fosse accidentale, a causa dello stoccaggio negligente di suo figlio di sostanze chimiche di laboratorio. Il biografo Andrew Hodges ha teorizzato che Turing abbia organizzato la consegna dell’attrezzatura per consentire deliberatamente a sua madre una negazione plausibile riguardo a qualsiasi affermazione di suicidio[3].
Le “lacrime di coccodrillo” di parlamento e governo e la “giustizia” postuma.
Nell’agosto 2009, il programmatore britannico John Graham-Cumming lanciò una petizione chiedendo al governo britannico di scusarsi per l’accusa a Turing come omosessuale. Il Primo Ministro, Gordon Brown, riconobbe la petizione, rilasciando una dichiarazione il 10 settembre 2009 in cui si scusava e descriveva il trattamento di Turing come “spaventoso”.
Migliaia di persone si sono unite per chiedere giustizia per Alan Turing e il riconoscimento del modo spaventoso in cui è stato trattato. Sebbene Turing sia stato trattato secondo la legge del tempo, il suo trattamento è stato ovviamente assolutamente ingiusto e sono lieto di avere la possibilità di dire quanto profondamente dispiaciuto io e tutti noi siamo per quello che è successo a lui … Quindi, a nome del governo britannico, e di tutti coloro che vivono liberamente grazie al lavoro di Alan, sono molto orgoglioso di dire: ci dispiace, meritavi molto di meglio.
Nel dicembre 2011, William Jones e il membro del Parlamento, John Leech, hanno lanciato una petizione elettronica, chiedendo che il governo britannico condoni Turing per la condanna per “gravi atti osceni”. Chiediamo al governo di Sua Maestà di concedere la grazia ad Alan Turing per la condanna per “gravi atti osceni”. Alan Turing è stato portato a una terribile disperazione e alla morte prematura dalla nazione che aveva fatto così tanto per salvare. Questo rimane una vergogna per il governo britannico e la storia britannica. Un perdono può fungere da scuse per molti altri uomini gay, non così noti come Alan Turing, che sono stati soggetti a queste leggi .La petizione ha raccolto oltre 37.000 firme, ed è stata presentata al Parlamento dal deputato di Manchester John Leech, ma la richiesta è stata scoraggiata dal ministro della Giustizia Lord McNally.
John Leech, il deputato di Manchester, ha presentato diversi progetti di legge al Parlamento e ha condotto una campagna di alto profilo per ottenere la grazia. Leech ha sostenuto alla Camera dei Comuni che il contributo di Turing alla guerra lo ha reso un eroe nazionale e che era “alla fine solo imbarazzante” che la condanna fosse ancora valida. Leech ha continuato a portare il disegno di legge in Parlamento e ha condotto una campagna per diversi anni, ottenendo il sostegno pubblico di numerosi eminenti scienziati, tra cui Stephen Hawking. Alla premiere britannica di un film basato sulla vita di Turing, “The Imitation Game”, i produttori hanno ringraziato Leech per aver portato l’argomento all’attenzione del pubblico e aver ottenuto il “perdono di Turing”. Leech, successivamente alla legge Alan Turing, ha continuato a garantire la grazia per 75.000 altri uomini e donne condannati per crimini simili.
Nel 2012 è stato presentato alla Camera dei Lord un disegno di legge per concedere la grazia legale a Turing per i reati ai sensi della sezione 11 del Criminal Law Amendment Act 1885, per il quale fu condannato il 31 marzo 1952. Alla fine dell’anno in una lettera al The Daily Telegraph, il fisico Stephen Hawking e altri 10 firmatari tra cui l’astronomo Royal Lord Rees, il presidente della Royal Society Sir Paul Nurse, Lady Trumpington (che ha lavorato per Turing durante la guerra) e Lord Sharkey (sponsor del disegno di legge) ha invitato il primo ministro David Cameron ad agire sulla richiesta di grazia. Il governo ha indicato che avrebbe sostenuto il disegno di legge, e ha approvato la sua terza lettura alla Camera dei Lord in ottobre 2012.
Alla seconda lettura del disegno di legge alla Camera dei Comuni il 29 novembre 2013, il deputato conservatore Christopher Chope si è opposto al disegno di legge, ritardandone l’approvazione. Il disegno di legge sarebbe dovuto tornare alla Camera dei Comuni il 28 febbraio 2014, ma prima che il disegno di legge potesse essere discusso, il governo ha deciso di procedere sotto la prerogativa reale della “misericordia”. Il 24 dicembre 2013, la regina Elisabetta II ha firmato la grazia per la condanna di Turing per “gravi atti osceni”, con effetto immediato.
Questa storia ricorda (a parte gli anni trascorsi), la “riabilitazione” di Galileo da parte delle alte gerarchie della chiesa cattolica…(N.d. R.).
Ci fa piacere ricordare che Alan Turing fu nominato Ufficiale dell’Ordine dell’Impero Britannico nel 1946, nonchè eletto Fellow della Royal Society (FRS) nel 1951. Turing è stato onorato in vari modi a Manchester, la città dove ha lavorato verso la fine della sua vita, come mostrano le seguenti figure.
Figure: (sotto) l’Edificio Alan Turing; (sopra) placca commemorativa. Città di Manchester.
Oggi, l’effige di Alan Turing è stampata sulla banconota da 50 sterline:
Bibliografia
[1] A.M. Turing, On Computable Numbers, with an Application to the Entscheidungsproblem.,London Math. Soc., 1936
[1] Boris Pavlovich Belousov (1893–1970) è stato un chimico e biofisico sovietico che ha scoperto la reazione Belousov-Zhabotinsky (reazione BZ) nei primi anni ’50. Il suo lavoro ha avviato il campo della moderna dinamica chimica non lineare, anche se la prima reazione chimica periodica fu in realtà scoperta da William Crowell Bray nel 1921. V. anche J. Chem. Educ. 2017, 94 (2), 195-201.
[2] A me sembra che questa “ricostruzione” sia abbastanza fantasiosa: si ritiene che sia sufficiente mezza tazza di semi di mela per uccidere un adulto, e una mezza mela smangiucchiata non è certamente sufficiente.
[3] I Servizi segreti, che già avevano Turing nel mirino, non è difficile pensare che abbiano avuto un loro interesse nell’eliminarlo.
I bugiardi del clima. Potere, politica psicologia di chi nega la crisi del secolo
di Stella Levantesi,ed.Laterza p.256 2021 17 euro
In questi 2 fine settimana di luglio ho avuto il tempo di leggere un libro che merita alcune riflessioni in relazione all’impegno del nostro blog rispetto ad alcuni temi per i quali l’aspetto scientifico, sociale e politico si intrecciano intimamente. Mi riferisco a “I bugiardi del clima” di Stella Levantesi, ed.Laterza. Il libro vuole rispondere ad una domanda: perchè nonostante decenni di consapevolezza scientifica sui motivi dei cambiamenti climatici l’azione politica è così lenta e le iniziative più significative sono quelle affidate alla società civile? La risposta può aiutare a comprendere gli errori del passato ed a non commetterne ancora.
La novità del libro secondo me deriva dal suo metodo:percorrere al fine di comprendere non il.percorso di chi è giunto alla conclusione dell’emergenza climatica, ma di chi afferma che non c’è. Si comprende quindi come i negazionisti siano abili nel trasformare un fenomeno scientifico da tutti osservabile in un tema politico: così il fenomeno perde il suo fondamento scientifico e diventa questione politica, se non addirittura partitica, e come tale è più facile metterne in discussione l’esistenza e, soprattutto, l’urgenza.
Il libro presenta anche una interpretazione storica della nascita del negazionismo ambientale: alcune aziende di gas,carbone e petrolio sapevano come realmente stessero le cose sin dagli anni ’70-’80 con.i loro tecnici capaci di collegare attività produttive, combustibili fossili ed emissioni climalteranti, causa dell’innalzamento termico del pianeta. Per dirottare la conoscenza delle cose e delle relative responsabilità tali tecnici hanno attuato una campagna di disinformazione durata fino al 2015, quando tali fatti vennero alla luce con riferimento specifico alla Exxon.
In effetti anche Shell ed altri sapevano,ma nessuno aveva parlato cosicché il fronte negazionista aveva avuto la possibilità di crescere e rinforzarsi. Non erano state coinvolte nell’operazione solo aziende di combustibili fossili: associazioni industriali avevano arruolato negazionisti a noleggio (la denominazione è dovuta allo scienziato Michael Mann) ed alcuni circoli conservatori avevano promosso una camera dell’eco che comprendeva alcune piattaforme mediatiche negazioniste. Tra i primi obbiettivi di queste sono stati e sono tuttora l’ostacolo e la resistenza a qualunque regolamentazione al settore fossile ed alla politica climatico ambientale e la semina di discredito alla scienza del clima. Questa – può essere una giusta osservazione a posteriori -si é dispersa in molti troppi rivoli frazionando dati e conoscenze a svantaggio della loro significatività. La macchina negazionista per acquisire forza si serve di differenti strumenti, dai finanziamenti alla propaganda politica alle strategie di comunicazione.Secondo uno studio le maggiori compagnie di gas e petrolio spendono più di 200 milioni di dollari l’anno al fine di esercitare pressioni per ostacolare le politiche climatiche e la regolamentazione del settore. Circa i dati scientifici gli strumenti più adottati per finalizzarli al proprio tornaconto negazionista sono quelli del cosiddetto cherry pickling per cui si isolano dei dati e si sopprimono le prove e le vie di accesso al quadro completo e dell’argumentum ad hominem,strategia per cui invece di criticare i contenuti di un’argomentazione si lancia discredito su chi l’ha formulata. Infine viene confusa l’opinione pubblica dando l’impressione che il dibattito scientifico sui cambiamenti climatici sia ancora in corso e su questo torna l’osservazione già prima formulata, circa alcune responsabilità del mondo scientifico talvolta ubriacato da un numero crescente di dati in un approccio olistico che però finisce per fare perdere la visione di sintesi.
La prima bugia che si può raccontare sull’emergenza climatica è che non è colpa dell’essere umano;la seconda è che tutti gli esseri umani ne sono responsabili in uguale misura.Queste bugie, insieme alla paura di perdere lo status quo ed i propri benefici all’interno della società, finiscono per alimentare il negazionismo. Ed ecco perché la crisi climatica non riguarda solo la Scienza, ma va reinterpretata come crisi che interseca tutte le altre, dalla giustizia sociale alla salute pubblica. Non voglio chiudere queste note sul libro di Stella Levantesi senza ricordare il significativo paragone che vi si può leggere descritto circa come le strategie negazioniste ricalchino quelle dell’industria del tabacco. I parallelismi tra le due campagne di disinformazione sono evidenti: per continuare a vendere sigarette si nascondono dati e si screditano quanti su basi scientifiche dimostrano la correlazione stretta fra fumo e tumore dei polmoni o anche semplici patologie respiratorie. Non sono Stella Levantesi ed ho solo cercato di sintetizzare il suo pensiero descritto con chiarezza ed incisività nel suo libro.Il fatto che io condivida quanto riportato non deve togliere a quanti leggono questo post la curiosità di leggere in dettaglio il libro per poi elaborarlo nella propria coscienza al fine di contribuire affinchè il dibattito perda quei caratteri di strumentalità che nuocciono a scelte sostenibili.
A proposito del mio post su scienziati e scienziate LGBT, un attento lettore mi ha fatto notare che mi sarei dimenticato di Alan Turing, ampiamente considerato il padre dell’informatica e dell’intelligenza artificiale, oltre di altre “cosette” oggi ricordate dai ricercatori in dinamica non-lineare.(NdP) Ebbene, non mi sono certo dimenticato di Turing, avendo letto la versione italiana della sua ponderosa biografia compilata da Andrew Hodgens[1]. Dopo questo volume, è certamente difficile scrivere un post su Turing, tenendo conto che, dopo aver servito l’Inghilterra decifrando il codice tedesco “Enigma”, fu costretto, nel 1952, alla “castrazione chimica” per la sua omosessualità. Dopo di che, due anni dopo, Alan Turing si suicidò. Guardate che sono solo circa meno di 70 anni fa, ma in Inghilterra le cose stavano così.
E adesso, perdonatemi, ma la mia biografia è presa da wikipedia (English edition)[2]. Molto recentemente, una breve storia di Turing è stata riportata su Rai Storia, “Passato e Presente”, il 23 giugno[3].
Turing nacque a Maida Vale, Londra, mentre suo padre, Julius Mathison Turing, era in congedo dalla sua occupazione come Presidente di Madras nello Stato di Odisha, in India. La madre di Turing, era Ethel Sara Turing, figlia di Edward Waller Stoney, ingegnere capo delle ferrovie di Madras, in India.
Il lavoro di Julius portò la famiglia nell’India britannica, dove suo nonno era stato generale nell’esercito del Bengala. Tuttavia, sia Julius che Ethel volevano che i loro figli crescessero in Gran Bretagna, quindi si trasferirono a Maida Vale(in seguito il Colonnade Hotel), Londra, dove Alan Turing nacque il 23 giugno 1912, Turing aveva un fratello maggiore, John.
L’attività per il servizio civile del padre di Alan era ancora attiva e durante gli anni dell’infanzia di Turing, i suoi genitori viaggiarono tra Hastings nel Regno Unito e l’India, lasciando i loro due figli con una coppia dell’esercito in pensione. Ad Hastings, Turing soggiornò a Baston Lodge, Upper Maze Hill, St Leonards-on-Sea, ora contrassegnato da una targa blu. La targa è stata svelata il 23 giugno 2012, centenario della nascita di Turing.
Molto presto nella vita, Turing mostrò segni del genio che in seguito avrebbe mostrato in modo prominente. I suoi genitori acquistarono una casa a Guildford nel 1927 e Turing visse lì durante le vacanze scolastiche.
I genitori di Turing lo iscrissero a St Michael’s, una scuola diurna di Charles Road, all’età di sei anni. La direttrice riconobbe presto il suo talento, così come molti dei suoi successivi insegnanti.
Tra il gennaio 1922 e il 1926, Turing studiò alla Hazelhurst Preparatory School, una scuola indipendente nel villaggio di Frant nel Sussex. Nel 1926, all’età di 13 anni, passò alla Sherborne School, un collegio indipendente nella città di Sherborne nel Dorset, dove si iscrisse alla Westcott House. Il primo giorno di scuola coincise con lo sciopero generale del 1926, in Gran Bretagna, ma Turing era così determinato a partecipare che percorse in bicicletta 60 miglia (97 km) da Southampton a Sherborne, fermandosi per la notte in una locanda.
La naturale inclinazione di Turing verso la matematica e le scienze non gli valse il rispetto di alcuni degli insegnanti di Sherborne, la cui definizione di educazione poneva più enfasi sui classici. Il suo preside scrisse ai suoi genitori: “Spero che non cada tra due sgabelli. Se vuole restare alla scuola pubblica, deve mirare a diventare istruito. Se vuole essere solo uno specialista scientifico, sta perdendo il suo tempo in una scuola pubblica”. Nonostante ciò, Turing continuò a mostrare notevole abilità negli studi che amava, risolvendo problemi avanzati nel 1927 senza aver studiato nemmeno il calcolo elementare. Nel 1928, all’età di 16 anni, Turing lesse il lavoro di Albert Einstein; non solo lo comprese, ma è possibile che sia riuscito a dedurre l’interrogativo di Einstein sulle leggi del moto di Newton da un testo che non è mai stato reso esplicito.
Ritratto di Alan Turing a 16 anni
A Sherborne, Turing strinse un’amicizia particolare con il compagno di studi Christopher Collan Morcom (1911 – 1930), che è stato descritto come il “primo amore” di Turing. La loro relazione fornì ispirazione per i futuri sforzi di Turing, ma fu interrotta dalla morte di Morcom, nel febbraio 1930, per complicazioni della tubercolosi bovina, contratta dopo aver bevuto latte di mucca infetto alcuni anni prima. L’evento causò grande dolore a Turing. Affrontò il suo dolore lavorando molto più duramente sui temi della scienza e della matematica che aveva condiviso con Morcom. In una lettera alla madre di Morcom, Frances Isobel Morcom (nata Swan), Turing scrisse:
Sono sicuro che non avrei potuto trovare da nessuna parte un altro compagno così brillante eppure così affascinante e senza presunzione. Consideravo il mio interesse per il mio lavoro, e in cose come l’astronomia (che mi ha fatto conoscere) come qualcosa da condividere con lui e penso che lui provasse un po’ lo stesso per me… so che devo mettere tanta energia se non tanto interesse per il mio lavoro come se fosse vivo, perché così vorrebbe che facessi.
La relazione di Turing con la madre di Morcom continuò a lungo dopo la morte di Morcom, con l’invio di regali a Turing e l’invio di lettere da parte di lui. Un giorno prima del terzo anniversario della morte di Morcom (13 febbraio 1933), scrisse che continuava a mostrare notevole abilità negli studi che amava, risolvendo problemi avanzati. Alcuni hanno ipotizzato che la morte di Morcom sia stata la causa dell’ateismo e del materialismo di Turing. Apparentemente, a questo punto della sua vita credeva ancora in concetti come uno spirito, indipendente dal corpo e sopravvissuto alla morte. In una lettera successiva, scritta anche alla madre di Morcom, Turing scrisse:
Personalmente ritengo che lo spirito sia realmente eternamente connesso con la materia ma certamente non dallo stesso tipo di corpo… per quanto riguarda l’effettiva connessione tra spirito e corpo ritengo che il corpo possa trattenere uno ‘spirito’, mentre il corpo è vivo e sveglio i due sono saldamente collegati.Quando il corpo dorme non riesco a indovinare cosa succede ma quando il corpo muore, il ‘meccanismo’ del corpo, che tiene lo spirito è sparito e lo spirito trova un nuovo corpo prima o poi, forse immediatamente.
Dopo Sherborne, Turing studiò come studente universitario dal 1931 al 1934 al King’s College di Cambridge, dove ricevette il massimo dei voti in matematica. Nel 1935, all’età di 22 anni, fu eletto Fellow del King’s College sulla base di una tesi in cui dimostrò il teorema del limite centrale. Nel 1936 Turing pubblicò il suo articolo “On Computable Numbers, with an Application to the Entscheidungsproblem”[1], sulla rivista Proceedings of the London Mathematical Society in due parti, la prima il 30 novembre e la seconda il 23 dicembre. In questo articolo, Turing ha riformulato i risultati del 1931 di Kurt Gödel sui limiti della dimostrazione e del calcolo, sostituendo il linguaggio formale universale basato sull’aritmetica di Gödel con i dispositivi ipotetici formali e semplici che divennero noti come macchine di Turing. L’Entscheidungsproblem (problema decisionale) fu originariamente posto dal matematico tedesco David Hilbert nel 1928. Turing dimostrò che la sua “macchina di calcolo universale” sarebbe stata in grado di eseguire qualsiasi calcolo matematico concepibile se fosse rappresentabile come un algoritmo. Proseguì dimostrando che non esisteva una soluzione al problema decisionale dimostrando innanzitutto che il problema dell’arresto per le macchine di Turing è indecidibile: non è possibile decidere algoritmicamente se una macchina di Turing si fermerà. Questo articolo è stato definito “il documento di matematica più influente della storia”.
Al King’s College di Cambridge, dove Turing era uno studente nel 1931 e divenne Fellow nel 1935, la sala computer prende il suo nome.
Sebbene la dimostrazione di Turing sia stata pubblicata poco dopo la dimostrazione equivalente di Alonzo Church usando il suo lambda calcolo, l’approccio di Turing è considerevolmente più accessibile e intuitivo di quello di Church.[2] Comprendeva anche una nozione di “macchina universale” (ora nota come macchina di Turing), con l’idea che tale macchina potesse svolgere i compiti di qualsiasi altra macchina di calcolo (come in effetti potrebbe fare il lambda calcolo di Church). Secondo la tesi di Church-Turing, le macchine di Turing e il lambda calcolo sono in grado di calcolare qualsiasi cosa sia calcolabile. John von Neumann riconobbe che il concetto centrale del computer moderno era dovuto all’articolo di Turing. Fino ad oggi, le macchine di Turing sono un oggetto di studio centrale nella teoria del calcolo.
Dal settembre 1936 al luglio 1938, Turing trascorse la maggior parte del suo tempo a studiare con Church alla Princeton University, nel secondo anno come Jane Eliza Procter Visiting Fellow. Oltre al suo lavoro puramente matematico, studiò la criptografia e costruì anche tre dei quattro stadi di un moltiplicatore binario elettromeccanico. Nel giugno 1938 conseguì il dottorato di ricerca presso il Dipartimento di Matematica di Princeton; la sua tesi, Systems of Logic Based on Ordinals,[3] introdusse il concetto di logica ordinale e la nozione di calcolo relativo, in cui le macchine di Turing sono potenziate con i cosiddetti “oracoli”, che consentono lo studio di problemi che non possono essere risolti dalle macchine di Turing. John von Neumann voleva assumerlo come suo assistente post-dottorato, ma tornò nel Regno Unito.
Quando Turing tornò a Cambridge, frequentò le lezioni tenute nel 1939 da Ludwig Wittgenstein sui fondamenti della matematica. Le lezioni sono state ricostruite testualmente, comprese le interiezioni di Turing e di altri, dagli appunti degli studenti. Turing e Wittgenstein discutevano e non erano d’accordo, con Turing che difendeva il formalismo e Wittgenstein che proponeva la sua opinione secondo cui la matematica non scopre verità assolute, ma piuttosto le inventa.
Criptoanalisi
Durante la seconda guerra mondiale, Turing fu uno dei principali partecipanti alla violazione dei codici tedeschi a Bletchley Park[4]. Lo storico e decodificatore del tempo di guerra Asa Briggs ha detto: “Avevi bisogno di talento eccezionale, avevi bisogno di genio a Bletchley e Turing era quel genio”.
Dal settembre 1938, Turing lavorò part-time con la Government Code and Cypher School (GC&CS), l’organizzazione britannica per la decifrazione dei codici. Si concentrò sulla criptoanalisi della macchina per cifrare Enigma usata dalla Germania nazista, insieme a Dilly Knox, un decifratore anziano di GC&CS. Subito dopo l’incontro del luglio 1939 vicino a Varsavia, durante il quale l’Ufficio di crittografia polacco fornì ai britannici e ai francesi i dettagli del cablaggio dei rotori della macchina Enigma e il loro metodo per decifrare i messaggi della macchina Enigma, Turing e Knox svilupparono una soluzione più ampia. Il metodo polacco si basava su una procedura di indicatore insicura che i tedeschi avrebbero probabilmente cambiato, cosa che in effetti fecero nel maggio 1940. L’approccio di Turing era più generale, utilizzando una decifrazione per la quale produsse la specifica funzionale della “bomba” (un miglioramento sulla “Bomba” polacca).
Il 4 settembre 1939, il giorno dopo che il Regno Unito dichiarò guerra alla Germania, Turing riferì a Bletchley Park, la stazione di guerra di GC&CS. Specificare la bomba fu il primo dei cinque grandi progressi criptoanalitici che Turing fece durante la guerra. Gli altri erano: dedurre la procedura di indicizzazione utilizzata dalla marina tedesca; sviluppare una procedura statistica chiamata Banburismus per fare un uso molto più efficiente delle bombe; sviluppo di una procedura soprannominata Turingery per elaborare le impostazioni dei rotori della macchina cifratrice Lorenz SZ 40/42 (Tunny) e, verso la fine della guerra, lo sviluppo di uno scrambler vocale sicuro portatile a Hanslope Park che è stato nome in codice Delilah .
Utilizzando tecniche statistiche per ottimizzare la sperimentazione di diverse possibilità nel processo di decifrazione del codice, Turing ha dato un contributo innovativo all’argomento. Ha scritto due articoli che discutono gli approcci matematici, intitolati The Applications of Probability to Cryptography e Paper on Statistics of Repetitions, che sono stati di tale valore per GC&CS e il suo successore GCHQ, che non sono stati rilasciati agli archivi nazionali del Regno Unito fino all’aprile 2012, poco prima del centenario della sua nascita. Un matematico del GCHQ, “che si identificò solo come Richard”, disse all’epoca che il fatto che il contenuto fosse stato limitato per circa 70 anni dimostrava la loro importanza, e la loro rilevanza per la criptoanalisi del dopoguerra: [Egli] ha affermato che il fatto che i contenuti siano stati ristretti “dimostra l’enorme importanza che ha nei fondamenti del nostro argomento”. … I documenti dettagliati utilizzando “l’analisi matematica per cercare di determinare quali sono le impostazioni più probabili in modo che possano essere provate il più rapidamente possibile”. … Richard ha detto che GCHQ aveva ora “spremuto il succo” ed era “felice che fossero rilasciati nel pubblico dominio”.
Turing aveva la reputazione di essere eccentrico a Bletchley Park. Era noto ai suoi colleghi come “Prof” e il suo trattato su Enigma era noto come “Libro del prof”. Lo storico Ronald Lewin, Jack Good, un criptoanalista che ha lavorato con Turing, ha detto del suo collega:
Nella prima settimana di giugno di ogni anno aveva un brutto attacco di febbre da fieno e andava in bicicletta in ufficio indossando una maschera antigas di servizio per tenere lontano il polline. La sua bicicletta aveva un difetto: la catena si staccava a intervalli regolari. Invece di farla riparare contava il numero di giri dei pedali e scendeva dalla bicicletta in tempo per aggiustare a mano la catena.
Peter Hilton ha raccontato, nelle sue “Reminiscenze di Bletchley Park”, la sua esperienza di lavoro con Turing nel capanno 8: “È un’esperienza rara incontrare un autentico genio. Quelli di noi che hanno il privilegio di vivere nel mondo della borsa di studio hanno familiarità con gli stimoli intellettuali forniti da colleghi di talento. Possiamo ammirare le idee che condividono con noi e di solito siamo in grado di comprenderne la fonte; possiamo anche spesso credere che noi stessi avremmo potuto creare tali concetti e originato tali pensieri. Tuttavia, l’esperienza di condividere la vita intellettuale di un genio è completamente diversa; ci si accorge di essere in presenza di un’intelligenza, di una sensibilità di tale profondità e originalità che si riempie di stupore ed eccitazione. Alan Turing era un tale genio, e chi, come me, ha avuto la sorprendente e inaspettata opportunità, creata dalle strane esigenze della seconda guerra mondiale, di poter avere Turing come collega e amico, non dimenticherà mai quell’esperienza, né potrà perdere mai il suo immenso beneficio per noi.”
Mentre lavorava a Bletchley, Turing, che era un talentuoso fondista, occasionalmente correva per 40 miglia (64 km) fino a Londra quando era necessario per le riunioni, ed era capace di standard di maratona di livello mondiale. Turing provò per la squadra olimpica britannica del 1948, ma fu ostacolato da un infortunio. Il suo tempo di prova per la maratona è stato di soli 11 minuti più lento del tempo di gara olimpico di 2 ore e 35 minuti di Thomas Richards, medaglia d’argento britannica. Era il miglior corridore del Walton Athletic Club, un fatto scoperto quando ha superato il gruppo mentre correva da solo. Quando gli è stato chiesto perché ha corso così tanto in allenamento, ha risposto: “Ho un lavoro così stressante che l’unico modo per togliermelo dalla testa è correre duro; è l’unico modo per ottenere un po’ di libertà.”
Entro poche settimane dall’arrivo a Bletchley Park, Turing aveva ideato una macchina elettromeccanica chiamata “bomba”, che poteva decifrare Enigma in modo più efficace della bomba kryptologiczna polacca, da cui derivava il nome. La bomba, con un miglioramento suggerito dal matematico Gordon Welchman, divenne uno degli strumenti principali, e il principale automatizzato, utilizzato per decifrare i messaggi cifrati da Enigma.
Una replica completa e funzionante di una bomba è ora al National Museum of Computing a Bletchley Park
Una replica completa e funzionante di una macchina di Turing (“bomba”). National Museum a Bletchley Park
La “bomba” ha cercato possibili impostazioni corrette utilizzate per un messaggio Enigma (cioè, ordine del rotore, impostazioni del rotore e impostazioni del plugboard) utilizzando un frammento di probabile testo in chiaro. Per ogni possibile impostazione dei rotori (che aveva dell’ordine 1019 stati, o 1022 stati per la variante U-boat a quattro rotori), la “ bomba” eseguiva una catena di deduzioni logiche, attuate in modo elettromeccanico.
La bomba ha rilevato quando si verificava una contraddizione ed ha escluso tale impostazione, passando alla successiva. La maggior parte delle possibili impostazioni causerebbe contraddizioni e verrebbe scartata, lasciandone solo alcune da indagare in dettaglio. Si sarebbe verificata una contraddizione quando una lettera cifrata sarebbe stata ritrasformata nella stessa lettera in chiaro, cosa impossibile con Enigma. La prima bomba fu installata il 18 marzo 1940.
Alla fine del 1941, Turing e i suoi colleghi criptoanalisti Gordon Welchman, Hugh Alexander e Stuart Milner-Barry erano frustrati. Basandosi sul lavoro dei polacchi, avevano messo a punto un buon sistema funzionante per decifrare i segnali Enigma, ma il loro personale limitato impedivano loro di tradurre tutti i segnali. In estate ebbero un notevole successo e le perdite dei convogli erano scese a meno di 100.000 tonnellate al mese; tuttavia, avevano un disperato bisogno di più risorse per tenersi al passo con gli adeguamenti tedeschi. Avevano cercato di ottenere più persone e finanziare più bombe attraverso i canali appropriati, ma avevano fallito.
Il 28 ottobre scrissero direttamente a Winston Churchill spiegando le loro difficoltà, con Turing come primo nominato. Sottolineavano quanto fosse esiguo il loro bisogno rispetto all’ingente dispendio di uomini e denaro da parte di esercito e marina e rispetto al livello di assistenza che potevano offrire alle forze armate.
Nel luglio 1942, Turing ideò una tecnica chiamata Turingery (o scherzosamente Turingismus) da usare contro i messaggi cifrati di Lorenz prodotti dalla nuova macchina tedesca Geheimschreiber (scrittore segreto). Questa era una tecnica di cifratura del rotore di una telescrivente, nome in codice Tunny a Bletchley Park. Turingery era una procedura per elaborare le impostazioni dei rotori di Tunny. Ha anche presentato il team di Tunny a Tommy Flowers che, sotto la guida di Max Newman, ha continuato a costruire il computer Colossus, il primo computer elettronico digitale programmabile al mondo, che ha sostituito una macchina precedente più semplice (la Heath Robinson), e la cui velocità superiore ha permesso di applicare utilmente ai messaggi le tecniche di decrittazione statistica. Alcuni hanno erroneamente affermato che Turing fosse una figura chiave nella progettazione del computer Colossus. Turingery e l’approccio statistico di Banburismus hanno senza dubbio alimentato il pensiero sulla criptoanalisi del cifrario di Lorenz, ma non è stato direttamente coinvolto nello sviluppo di Colossus.
Dopo il suo lavoro presso i Bell Labs negli Stati Uniti, Turing perseguì l’idea della cifratura elettronica nel sistema telefonico. Nell’ultima parte della guerra, si trasferì a lavorare per il servizio di sicurezza radio dei servizi segreti (in seguito HMGCC) a Hanslope Park. A Hanslope, ha ulteriormente sviluppato la sua conoscenza dell’elettronica con l’assistenza dell’ingegnere Donald Bayley. Insieme hanno intrapreso la progettazione e la costruzione di una macchina portatile per comunicazioni vocali sicure, nome in codice Delilah. La macchina era destinata a diverse applicazioni, ma non aveva la capacità di essere utilizzata con trasmissioni radio a lunga distanza. In ogni caso, Delilah fu completata troppo tardi per essere utilizzata durante la guerra. Sebbene il sistema funzionasse pienamente, con Turing che lo dimostrava ai funzionari crittografando e decifrando una registrazione di un discorso di Winston Churchill, Delilah non fu usata. Turing si consultò anche con i Bell Labs sullo sviluppo di SIGSALY, un sistema vocale sicuro che fu utilizzato negli ultimi anni della guerra.
Tra il 1945 e il 1947, Turing visse a Hampton, Londra, mentre lavorava alla progettazione dell’ACE (Automatic Computing Engine) presso il National Physical Laboratory (NPL). Presentò un progetto il 19 febbraio 1946, che è stato il primo progetto dettagliato di un computer a programma memorizzato. La prima bozza incompleta di un rapporto sull’EDVAC di von Neumann era precedente all’articolo di Turing, ma era molto meno dettagliata e, secondo John R. Womersley, sovrintendente della divisione matematica della NPL, “contiene una serie di idee che sono proprio del dottor Turing”. Sebbene ACE fosse un progetto fattibile, la segretezza che circondava il lavoro in tempo di guerra a Bletchley Park portò a ritardi nell’avvio del progetto e Turing rimase deluso. Alla fine del 1947 tornò a Cambridge per un anno sabbatico durante il quale produsse un’opera fondamentale sulle macchine intelligenti che non fu pubblicata durante la sua vita. Mentre era a Cambridge, il Pilot ACE venne costruito in sua assenza. Eseguì il suo primo programma il 10 maggio 1950 e un certo numero di computer successivi in tutto il mondo gli devono molto, tra cui l’inglese Electric DEUCE e l’americano Bendix G-15. La versione completa dell’ACE di Turing fu costruita solo dopo la sua morte.
Secondo le memorie del pioniere tedesco dei computer Heinz Billing del Max Planck Institute for Physics, pubblicate da Genscher, Düsseldorf, ci fu un incontro tra Turing e Konrad Zuse. Ebbe luogo a Göttingen nel 1947. L’interrogatorio ha avuto la forma di un colloquio. I partecipanti erano Womersley, Turing, Porter dall’Inghilterra e alcuni ricercatori tedeschi come Zuse, Walther e Billing.
Nel 1948 Turing fu nominato lettore nel dipartimento di matematica della Victoria University di Manchester. Un anno dopo, divenne vicedirettore del Computing Machine Laboratory, dove lavorò al software per uno dei primi computer a programma memorizzato, il Manchester Mark 1. Turing scrisse la prima versione del Manuale del programmatore per questa macchina, e fu reclutato da Ferranti come consulente nello sviluppo della loro macchina commercializzata, la Ferranti Mark 1. Ha continuato a ricevere commissioni di consulenza da Ferranti fino alla sua morte. Durante questo periodo, continuò a fare lavori più astratti in matematica,e in “Computing Machinery and Intelligence”, Turing affrontò il problema dell’intelligenza artificiale e propose un esperimento che divenne noto come Turing test, un tentativo di definire uno standard per una macchina da chiamare “intelligente”. L’idea era che si potesse dire che un computer “pensa” se un interrogatore umano non poteva distinguerlo, attraverso la conversazione, da un essere umano. Nell’articolo, Turing suggerì che piuttosto che costruire un programma per simulare la mente dell’adulto, sarebbe stato meglio produrne uno più semplice per simulare la mente di un bambino e poi sottoporlo a un corso di educazione. Una forma inversa del test di Turing è ampiamente utilizzata su Internet; il test CAPTCHA ha lo scopo di determinare se l’utente è un essere umano o un computer.
Nel 1948 Turing, lavorando con il suo ex collega di laurea, D.G. Champernowne, iniziò a scrivere un programma di scacchi per un computer che non esisteva ancora. Nel 1950, il programma fu completato e ribattezzato Turochamp. Nel 1952, tentò di implementarlo su una Ferranti Mark 1, ma mancando di potenza sufficiente, il computer non fu in grado di eseguire il programma. Invece, Turing “eseguiva” il programma sfogliando le pagine dell’algoritmo ed eseguendo le sue istruzioni su una scacchiera, impiegando circa mezz’ora per mossa. Il gioco è stato registrato. Secondo Garry Kasparov, il programma di Turing “ha giocato una partita a scacchi riconoscibile”. Il programma ha perso contro il collega di Turing, Alick Glennie, anche se si dice che abbia vinto una partita contro Isabel Champernowne. Il test di Turing è stato un contributo significativo, tipicamente provocatorio e duraturo sul dibattito sull’intelligenza artificiale, che continua dopo più di mezzo secolo.
(continua)
[1] Andrew Hodges, Storia di un Enigma. Vita di Alan Turing 1912-1954, Bollati Boringhieri, Torino, 1991.
[4] Bletchley Park, anche nota come Stazione X, è una tenuta situata a Bletchley, un paese a circa 75 km a nord-ovest di Londra. Durante la seconda guerra mondiale, Bletchley Park fu il sito dell’unità principale di criptoanalisi del Regno Unito, nonché sede della Scuola governativa di codici e cifrazione (GC&CS). Codici e messaggi cifrati dei paesi dell’Asse sono stati decifrati a Bletchley Park. Il più noto è il codice nazista ottenuto con la macchina Enigma e la cifratrice di Lorenz.
NdP.
Oltre alla completa bibliografia di Rinaldo ricordo anche i seguenti link:
un articoletto per una rivista divulgativa di matematica Xlatangente, n. 18 2009
Margherite, morfogeni e automi cellulari C. Della Volpe e S. Siboni