La vita, l’entropia e la rottura della simmetria.

In evidenza

Claudio Della Volpe

Accolgo l’invito di Luigi Campanellla (e le osservazioni di Alfredo Tifi) che pur non essendo un termodinamico ha sentito l’esigenza di introdurre questo argomento nel blog.

Oggi vorrei parlarvi della vita e di come la termodinamica può interpretarla e per fare questo vorrei discutere con voi l’argomento dell’entropia del corpo umano.

Il corpo umano non è un sistema all’equilibrio e dunque non è banalmente soggetto alla lettera delle regole che valgono per i sistemi approssimabili come di equilibrio; inoltre la seconda legge è scritta classicamente per un sistema isolato mentre il corpo umano è un sistema aperto, scambia materia ed energia con l’ambiente che lo circonda e nel fare questo attraversa un complesso insieme di stati che gli consente di nascere, crescere e svilupparsi; dopodichè, dopo un percorso che temporalmente dura circa 100 anni, nei casi più fortunati (o sfortunati, dipende dalle circostanze), ossia all’incirca 3×109 sec, il corpo umano va incontro ad una fase che si avvicina moltissimo a quello che definiamo equilibrio; comunemente, nell’inesatto linguaggio comune, tale fase prende anche il nome di morte.

Per parafrasare una antica poesia egiziana:

La morte non è che l’inizio, ma della fase di equlibrio.

– Antica Preghiera Egizia –

(XXV sec. a.C.)

La morte non è che la soglia di una nuova vita…
oggi noi viviamo, e così sarà ancora…
sotto molte forme noi torneremo.

http://www.miezewau.it/anonimo_egiziano.htm

Una prima osservazione che possiamo fare è che la massa di atomi che costituisce un corpo umano non è poi molto grande, circa 70-80kg di carbonio, idrogeno, ossigeno, azoto, zolfo, calcio, sodio, fosforo ed alcuni metalli; lo stato di massima simmetria (ed anche il più probabile) di tale insieme di atomi non è certo un corpo umano; piuttosto sarebbe quella di un gas di tali atomi completamente ed uniformemente mescolati.

Se dispersi nello spazio, lontano da qualunque sorgente di gravità e di calore esso costituirebbe uno stato simmetrico e verosimilmente di equilibrio; in ogni direzione un tale gas avrebbe le medesime proprietà e rimarrebbe così mescolato per un tempo indefinito se lo isolassimo in un contenitore senza che nulla potesse interagire con esso.

Di tutti i possibili stati che tale sistema di atomi potrebbe occupare, il corpo umano (e se è per questo quello di qualunque altro organismo vivente) rappresenta uno stato la cui probabilità di esistenza spontanea è sostanzialmente nulla. Di più, nonostante nel linguaggio comune si tenda ad attribuire a tale corpo una notevole simmetria e bellezza, di fatto, a stare alle definizioni correnti della fisica, e rispetto a quello stato di mescolamento ipotetico, il corpo umano di simmetrie ne avrebbe perse molte; tecnicamente il confronto del sistema di atomi del corpo nell’ipotetico stato gassoso mescolato e in quello ordinario porta a concludere che nella trasformazione (gasà corpo umano) si sarebbe ottenuta una “rottura di simmetria” del medesimo tipo di quella che si ottiene in una transizione di fase fra un gas ed il solido o liquido corrispondente; anche in quel caso la simmetria del gas viene ridotta passando ad un cristallo, certamente più bello ai nostri occhi ma dotato di un numero nettamente inferiore di elementi di simmetria, ossia di operazioni di traslazione di vario tipo nello spazio/tempo rispetto alle quali esso mostrasse invarianza.

In soldoni, l’ordine del corpo umano che spesso si beatifica è sostanzialmente il corrispondente di una grossa perdita di simmetria, di una conservazione ridotta dell’elevata simmetria corrispondente ai medesimi atomi casualmente mescolati; l’uomo di Vitruvio è bello (e forse per molti una donna di Vitruvio sarebbe il massimo) ma tecnicamente è meno simmetrico del corrispondente gassoso. La vita può essere vista come un fenomeno di rottura di simmetria se paragonata al materiale di partenza.

Per fare questa trasformazione di fase serve usare una enorme quantità di informazione che è contenuta in una lunghissima molecola polimerica costituita da un ristretto numero di monomeri (4) e che prende il nome di DNA, scoperta da meno di 100 anni, meno dunque della vita di un uomo ed una copia della quale è immagazzinata in ciascuna cellula del corpo umano.

Casualmente il numero di basi monomeriche necessarie, che è di circa tre miliardi, eguaglia la durata della vita media umana in secondi: si tratta di una combinazione del tutto casuale, ma sono certo che un poeta potrebbe scriverci qualche verso. Noto di passaggio che ogni base è appaiata in una struttura accoppiata (sono 6 miliardi di basi appaiate a due a due).

Dunque una transizione di fase, una rottura di simmetria estremamente improbabile e che necessita per essere portata a termine di un complesso sistema di reazioni chimiche autocatalitiche, in base alle quali coppie di esseri umani analoghi ma non identici (indicati di solito come maschio e femmina) reagiscono fra di loro e si riproducono, in quella che costituisce una delle più complesse reazioni autocatalitiche che conosciamo: il sesso, anche detto amore (ma solo nelle sue manifestazioni più estreme).

Si incomincia ad intravedere la possibilità di eliminare questa serie così primitiva di reazioni, mai innovata negli ultimi milioni di anni, per affidare la generazione umana a sistemi altamente automatici. Sfortunatamente non si conoscono al momento le conseguenze dell’eliminazione dell’amore come ambiente di reazione.

L’idea di stimare l’informazione contenuta in un messaggio venne nel 1948 a Claude Shannon che ci scrisse un libro, “Teoria matematica dell’informazione”. Claude Shannnon racconta:

« La mia più grande preoccupazione era come chiamarla. Pensavo di chiamarla informazione, ma la parola era fin troppo usata, così decisi di chiamarla incertezza. Quando discussi della cosa con John Von Neumann, lui ebbe un’idea migliore. Mi disse che avrei dovuto chiamarla entropia, per due motivi: “Innanzitutto, la tua funzione d’incertezza è già nota nella meccanica statistica con quel nome. In secondo luogo, e più significativamente, nessuno sa cosa sia con certezza l’entropia, così in una discussione sarai sempre in vantaggio »

 

Shannon definisce l’informazione come I=-log2P, dove P è la probabilità che si verifichi un dato evento; tale equazione permette di ottenere un valore misurato in bit. 1 bit equivale ad esempio all’informazione ottenibile dal lancio di una moneta (P = 0,5).

Usando l’equazione S= log2P si ottiene invece la entropia del medesimo sistema; ne segue che I=-S. In pratica a un aumento di entropia corrisponde una perdita di informazione su un dato sistema, e viceversa

Per il DNA umano nel quale ogni lettera può avere 4 valori (ossia 2 bit in quanto 22=4) si può calcolare che il contenuto informativo è dell’ordine di 6 Gbit, ossia circa 750Mbytes, fate il paragone con il contenuto informativo del vostro hard disk attuale o con quello di un CD musicale o un DVD.

Ma al di là delle quantità di informazione in gioco la questione è come un corpo umano o un altro organismo opera per realizzare l’informazione contenuta nel DNA; o meglio se la vita del corpo umano e di altri organismi è un processo spontaneo come esso può realizzarsi in apparente contrasto con la tendenza dei sistemi isolati ad un massimo di entropia e dunque di disordine, di minima informazione?

La risposta è che il corpo umano NON è un sistema isolato ma è un sistema aperto che scambia energia e materia con l’ambiente esterno; tale apertura, tale scambio consente di resistere attivamente alla tendenza espressa dalla seconda legge della termodinamica e che a rigore è valida solo per sistemi isolati.

Il problema di come misurare l’entropia del corpo umano appare veramente complesso ed in realtà potrebbe anche non avere senso dato che un corpo umano non è all’equilibrio, ma è anzi lontanissimo dall’equilibrio (almeno fino al momento della morte).

Si può invece stimare, anche se con qualche difficoltà, il flusso entropico del sistema costituito dal corpo umano, dunque non misurare il valore assoluto dell’entropia del sistema uomo, ma il valore della sua variazione, ossia del flusso entropico in entrata ed in uscita da esso.

Si tratta di un calcolo non particolarmente complesso eppure pubblicato solo in tempi recenti.

In particolare dobbiamo la forma comunemente accettata di tale calcolo ad Aoki.

Usando i dati sperimentali ottenuti in uno speciale calorimetro da Hardy e Dubois nel 1938, Aoki calcolò il flusso entropico dei corpi sottoposti agli esperimenti di Hardy e Dubois. Il risultato è espresso in questo grafico, in cui abbiamo a destra l’input di entropia e a sinistra l’output.

Come si interpreta questo grafico?

Semplice.

Anzitutto è stato ottenuto sulla base di dati sperimentali raccolti mettendo in uno speciale calorimetro il corpo del volontario e misurando poi gli scambi termici fra corpo del volontario e calorimetro.

Dallo schema si vede che i tre flussi di calore e dunque i tre flussi di entropia maggiori sono:

  • quello radiante dal calorimetro al volontario 3.16 J/sec K; ottenuto usando l’equazione dell’entropia della radiazione ( dove β è la costante di Stefan Boltzmann, V il volume del corpo del volontario e T la sua temperatura assoluta (273.15+27.4); l’equazione è stata riadattata al sistema in cui c’è una superficie di scambio e il flusso entropico è per unità di superficie; la superficie tipica del corpo umano è fra 1.5 e 2metri quadri.
  • quello radiante in uscita dal corpo del volontario che ammonta a 3.34 J/sec K, calcolato nel medesimo modo;
  • la produzione metabolica di calore di 0.26 J/sec K; se vi fate due conti un uomo che si nutra con 1800 grandi calorie al giorno, ossia circa 7-8Mjoule, negli 86400 secondi di una giornata dissipa come una lampadina da 80-90W; dividete questo valore per la temperatura corporea in kelvin ed otterrete un valore molto simile (80/310=0.26).

Ci sono poi gli scambi di entropia dovuti alla respirazione ed alla evaporazione di acqua, e agli scambi di materia, ma sono minimi. In totale il flusso netto abbassa l’entropia corporea del volontario, ossia il corpo del volontario si “ordina” per circa 0.32 J/sec K, emette un flusso netto di 0.32 J/sec K, abbassando la propria entropia e lottando disperatamente per conservare la propria struttura interna.

Come si vede gli scambi sono dominati dal flusso radiante di energia, non dallo scambio diretto di calore per conduzione; la convezione sarebbe più efficace, ma è impedita poi dai nostri vestiti; tuttavia è da dire che la pelle è un buon isolante termico e che i vestiti sono una invenzione relativamente recente. A conferma dell’importanza della radiazione nella nostra vita, una cosa che molti non sospettano nemmeno, stanno le copertine isotermiche metallizzate usate dalla protezione civile, basate sul fatto che uno strato metallico anche sottile intercetta le radiazioni infrarosse efficacemente (potete provare a isolare termicamente la parete dietro un termosifone mettendoci un sottile strato di alluminio da cucina) .

Dunque grazie a questo scambio entropico con l’esterno la struttura unica ed improbabile del corpo umano ordinata sul comando del DNA (ma vale lo stesso per qualunque altro essere vivente) combatte la sua battaglia quotidiana contro il secondo principio; è una battaglia che in una forma biologica o in un’altra, dura da circa 4 miliardi di anni su questo pianeta e che ha visto milioni di miliardi di caduti ma ci ha dato come risultato la biosfera e la coscienza come le conosciamo.

Da questo particolare punto di vista la necessaria e certa sconfitta di ciascuno di noi esseri viventi, la resa incondizionata all’equilibrio, che chiamiamo volgarmente morte, corrisponde alla vittoria di un processo che trova la sua origine nel Sole come sorgente di calore e di energia libera sotto forma di energia radiante e trova come assorbitore finale di questa radiazione l’infinito vuoto dello spazio esterno pieno solo della radiazione di fondo, che assicurò il Nobel a Wilson e Pentzias.

Ognuno di noi arrendendosi all’equilibrio, passa la bandiera ai suoi simili e grida la vittoria della coscienza contro “la materia stupida, neghittosamente nemica come è nemica la stupidità umana, e come quella forte della sua ottusità passiva.”(Primo Levi).

La radiazione, i fotoni hanno potenziale chimico nullo e la loro trasformazione da radiazione centrata sul visibile, a 0.5 micron quando emessa dal Sole a radiazione riemessa dalla Terra nell’infrarosso e centrata attorno a 10 micron non fa che aumentare esponenzialmente il numero di fotoni ma lascia intatta l’energia totale (il potenziale chimico è nullo proprio per questo dU/dN=0). Di fatto è questo il senso dell’equilibrio radiativo del pianeta.

Analogamente si può stimare il flusso entropico della Terra e della biosfera, ma sarà l’oggetto di un prossimo post in cui racconterò come fa la biosfera ad ordinarsi dissipando la propria entropia a spese del flusso di energia solare.

Il calorico è solo un inutile idea del passato. O no?

Claudio Della Volpe

Forse vi scandalizzerò, ma il mio primo approccio con la termodinamica è stato di delusione. Delusione per non tener fede al suo nome: termodinamica; dinamica del calore; ma dove è la dinamica in una situazione in cui l’oggetto dello studio sono gli equilibri, anzi l’equilibrio, una situazione fisica del tutto ipotetica e che si realizza solo parzialmente in particolari condizioni. E la dinamica che fine ha fatto? Questo mi sono chiesto per un po’.

E badate non sono il solo ad essersi posto questo problema apparentemente metafisico; me ne sono reso conto mentre studiavo per l’esame di Chimica Fisica. Nella Napoli del 1971, studente del terzo anno, avevo come insegnante il mitico Vincenzo Vitagliano (con cui ho poi collaborato per qualche anno da ricercatore); Vincenzo è un ricercatore in gamba, ma consentitemi di confessare che come insegnante era difficile da seguire. Io preferivo leggere i libri da solo e spulciando spulciando mi ero guardato il testo consigliato da lui “Lewis e Randall”(Lewis and Randall, Thermodynamics, nella revisione di Pitzer e Brewer ed. Wiley 1970), un testo ormai datato, ampio, classico, discorsivo che spesso sui punti chiave mi sembrava nicchiasse. Bello ampio, pieno di informazioni, ma dispersivo, e a volte anche vago, non mi era piaciuto. C’erano molti esercizi, questo si, ma mi sembrava fosse sfuggente in certe cose; so che non tutti saranno d’accordo.

Ho già trattato il tema dell’insegnamento della termodinamica. In particolare in un precedente gruppo di post (cercate nel blog “quanto è chimico il potenziale chimico” *) ho affrontato il tema di come presentare il potenziale chimico. Il potenziale chimico insieme con l’entropia si presenta come il concetto più astratto e difficile da presentare a tutti i livelli.

L’entropia è un classico dell’astrazione e della difficoltà formale; allo studente universitario che ha da poco superato l’apprendimento del calcolo differenziale ed integrale si apre uno scenario ancora più complesso con l’introduzione dei differenziali incompleti o non esatti, le famigerate (ma come vedremo non troppo) grandezze di processo, calore e lavoro; nella maggior parte dei casi questo concetto rimarrà un punto oscuro.

Ma è necessario un così astratto trattamento dell’entropia?

Ci sono varie soluzioni al problema:

1) l’approccio di Callen; è un approccio ancora molto formale, ma nel quale almeno la parte matematica viene chiarita e formalmente strutturata; le proprietà matematiche delle funzioni vengono introdotte usando essenzialmente il calcolo differenziale tradizionale; alcuni aspetti, come l’importanza della proprietà di omogeneità del primo ordine** (in pratica il modo matematico di introdurre le grandezze estensive (omogenee del primo ordine) e di differenziarle da quelle intensive (omogenee di ordine zero)) che non sono assolutamente presenti nel trattamento storico vengono introdotti e ben fondati, così come la relazione formale fra le varie funzioni (le funzioni tradizionali, entalpia, energia libera, etc. introdotte come trasformate di Legendre dell’energia o dell’entropia, dunque sostituendo ad una o più variabili estensive alcune variabili intensive, come hamiltoniano e laplaciano in meccanica). Il libro è molto ben scritto, anche se denso e compatto, analizza le questioni della stabilità dei sistemi e nella sua seconda edizione si estende alle proprietà di simmetria, al teorema di Noether perfino, ma anche per esempio ad argomenti tabù in certi settori di ricerca come il criterio endoreversibile per le macchine termiche, un approccio che tenta di superare ancora una volta l’astrattezza del teorema di Carnot sull’efficienza usando una geniale idea: la irreversibilità nei processi termomeccanici è essenzialmente concentrata nei salti termici, non nel dispositivo meccanico che, specie quando usato alla massima potenza, può essere assimilato ad un dispositivo ideale. In questo modo ed applicando un semplice criterio di linearità nello scambio di calore fra sorgente e macchina termica, i valori effettivi di efficienza delle macchine termiche diventano calcolabili senza modellazioni sofisticate e complesse. In fisica tecnica la cosa non ha avuto successo, ma non me ne meraviglio, gli ingegneri sono (in genere) sostanzialmente conservatori, più attenti alle applicazioni che ai principi. Herbert Callen, Termodinamica, pubblicato negli anni 60 è diventato con lenta sicurezza un classico.

Il libro aveva un sottotitolo: “an introduction to the physical theories of equilibrium thermostatics and irreversible thermodynamics”.

Questa cosa mi predispose bene; era un libro scritto da uno che si era posto il mio stesso problema!

(un breve riassunto del Callen lo trovate in J. Non-Newtonian Fluid Mech. 96 (2001) 5–17 Equilibrium thermodynamics — Callen’s postulational approach Robert J.J. Jongschaap, Hans Christian Öttinger)

2) l’approccio di Prigogine; qua si va verso lo scandalo; Prigogine introduce il tempo fin dall’inizio, non ci sono grandezze di stato e di processo, i differenziali sono tutti esatti; il calore o il lavoro corrispondono semplicemente all’energia termica o meccanica trasferita nell’unità di tempo; e dunque la legge del trasferimento termico o la potenza meccanica vengono usate per esprimere queste grandezze; la differenza fra reversibilità ed irreversibilità è chiarita secondo me in modo trasparente; il libro originale di Prigogine e Kondepudi (MODERN THERMODYNAMICS From Heat Engines to Dissipative Structures, Wiley 1988)e anche la seconda edizione (INTRODUCTION TO MODERN THERMODYNAMICS, Kondepudi, 2008 ed Wiley) scritta dal solo Kondepudi (che è l’autore fra l’altro di un bel lavoro sulla rottura di simmetria nei sistemi chimici, con l’esempio di come la semplice agitazione in un sistema sovrasaturo di clorato di sodio può catalizzare la formazione di cristalli di un solo tipo chirale, Kondepudi, D. K., Kaufman, R. J. & Singh, N. (1990). “Chiral Symmetry Breaking in Sodium Chlorate Crystallization”. Science 250: 975-976), tuttavia presentano un elevato numero di errori di stampa che ne indeboliscono e rendono difficoltoso l’uso (i segni sbagliati possono essere micidiali) ; ma se corretti (e spero lo siano stati nelle ristampe successive) comunque questi libri sono molto utili nel superare la assurda dicotomia fra processi di equilibrio e di non equilibrio.

3)La terza soluzione è la più recente e per me anche la più stimolante; si tratta della scuola tedesca, Hermann e Fuchs in particolare; teniamo presente che i tedeschi hanno conservato una tradizione incredibile nella quale la didattica della fisica è non solo studiata come disciplina a parte, ma è basata su centri di eccellenza e gruppi di ricerca che ne fanno una disciplina viva; i fisici hanno questa tradizione in tutto il mondo, ma in certi paesi più che in altri; noi chimici dovremmo imparare da loro e non considerare chi studia la didattica uno studioso di serie b: al contrario insegnare bene le cose necessita non solo di averle ben capite ma anche di riuscire a comprendere come insegnarle: scienza e pedagogia. Nel caso della termodinamica stiamo parlando di libri come quello recente di Hans U. Fuchs. The dynamics of heat (sottotitolo: A unified approach to thermodynamics and heat transfer) ed. Springer, 2010.

Qua si parte dall’idea di dare una visione unificata della meccanica, dell’elettricità e della termodinamica basata sulle “grandezze che fluiscono”, la quantità di moto, la carica, il calore; si dimostra che da questo punto di vista le varie discipline fisiche usano il medesimo approccio concettuale e arrivano perfino a scrivere le stesse relazioni matematiche.

La scuola tedesca in questo caso arriva ad una conclusione importante: la entropia di oggi non è altro che il calorico di due secoli fa.

Mentre il libro di Fuchs è massiccio, quasi 700 pagine, vi consiglio, se volete entrare in questo punto di vista un articoletto tutto sommato datato (G. Falk, Entropy, a resurrection of caloric, Eur. J. Phys (1985)108-115).

L’idea che il vecchio calorico fosse in realtà una concezione sbagliata del calore ma una molto precisa dell’entropia non è nuova.

Nel 1911 H.L. Callendar (padre del Guy Callendar che per primo rese quantitativa l’dea del ruolo serra del diossido di carbonio antropogenico e di altri gas) nella cerimonia con cui accettava la prestigiosa carica di presidente della società inglese di Fisica (Proc. Phys. Soc London, 23, 153-189) arrivò essenzialmente alla medesima conclusione, che Carnot cioè avesse sviluppato in realtà sulla base del calorico una visione moderna ed aggiornata, solo che stava chiamando calorico l’entropia. Analogamente K. Schreber, che tradusse in tedesco nel 1926 il lavoro di Clapeyron del 1834 con cui illustrava per la prima volta i risultati del defunto Carnot (Clapeyron E. 1834, J. de l’Ecole polytechnique 14) scriveva (Ostwalds Klassiker 216, 41) che gli sarebbe sembrato meglio usare il termine entropia invece che calorico nella presentazione del lavoro di Carnot e che questo avrebbe ridotto le differenze fra le idee di Carnot e quelle moderne nell’analisi dei processi termici.

Occorre sostituire il calore non con un differenziale inesatto, ma con il corrispondente flusso entropico.

Carnot non aveva l’idea dell’energia; non a caso il suo libro più famoso si chiama: Riflessioni sulla potenza motrice del fuoco, il termine energia non compare nelle sue riflessioni. Fu solo dopo il 1840 che la scoperta di Mayers e Joule della conservazione dell’energia cambiò le cose. Il calorico non si conservava se non a metà, poteva essere prodotto ma non poteva essere distrutto, solo scambiato. Lavorando in condizioni adiabatiche si può dimostrare che esso viene prodotto, ma non può essere distrutto. Gli esperimenti a riguardo sono suggestivi e quella linea di ricerca è stata poi completamente cambiata dall’uso del concetto di energia. Chi ricorda più oggi il tentativo di Davy (On Heat, Light and Combinations of Light,” 1799) di dimostrare che strisciando due pezzi di ghiaccio fra di loro a zero gradi si ottiene fusione del ghiaccio? Chi ricorda più la lampada pneumatica? Ossia la accensione di un pezzo di stoffa ottenuto in un cilindro trasparente di vetro tramite la compressione dell’aria contenuta con un pistone scorrevole? Si tenga infine presente che il calorico era a sua volta diviso in due tipologie: libero, legato alla temperatura e legato, connesso ad altre transizioni.

La questione fondamentale può esser posta così: nell’approccio di Carnot il calorico è una forma di energia?

Noi oggi diciamo che la variazione di energia interna di un corpo è data dalla somma di calore più lavoro; e dunque anche se lo consideriamo una grandezza di processo diamo al calore le stesse unità di misura dell’energia.

Ma ragioniamo con un approccio da calorico, consideriamo questo fluido immaginario, ma non più della carica elettrica o della quantità di moto.

Paragoniamo tre processi: accelerare una pietra, caricarla elettricamente e riscaldarla; nel primo cediamo quantità di moto alla pietra ed essa viene accelerata; nel secondo ancora più chiaramente se carichiamo elettricamente la pietra, la sua energia aumenta ma noi le abbiamo introdotto della carica elettrica che ovviamente non è energia.

Se cediamo calorico alla pietra essa si riscalda; in tutti i casi la sua energia aumenta, ma nel primo abbiamo ceduto momento e nel secondo carica, nel terzo calorico e come il momento o la carica elettrica non sono energia così non lo è il calorico.

Un altro modo di comprendere la cosa è paragonare il flusso di massa in un salto di potenziale e quello di calorico nel produrre energia; nel primo caso l’energia è proporzionale al potenziale gravitazionale gh secondo la massa, W= m(gh1-gh2); nel caso del calorico il fluido o la grandezza estensiva è il calorico stesso e il potenziale la differenza di temperatura: W=q*(T1-T2); ma questa equazione equivale a considerare che le dimensioni del calorico q* siano q/T, ossia un’entropia (si veda anche Eur. J. Phys. 30 (2009) 713–728 -Carnot to Clausius: caloric to entropy, Ronald Newburgh).

Il fluido che Carnot avrebbe immaginato di cedere alla pietra è nient’altro che l’odierna entropia.

Insomma una unica intuizione, una unica descrizione concettuale per proprietà meccaniche, termiche od elettriche aiuta a meglio comprendere il comportamento dei sistemi e chiarisce che il vecchio calorico non era un modello sbagliato di calore ma un modello, sia pur primitivo, e certamente originale ed avanzato per i suoi tempi, di entropia.

Qualcuno oggi tenta di riutilizzare a scopo didattico questo modello concettuale. Pensiamoci.

********************************************************************

* https://ilblogdellasci.wordpress.com/2013/10/10/quanto-e-chimico-il-potenziale-chimico-1-parte/

https://ilblogdellasci.wordpress.com/2013/10/17/quanto-e-chimico-il-potenziale-chimico-2-parte/

https://ilblogdellasci.wordpress.com/2013/10/25/quanto-e-chimico-il-potenziale-chimico-3-parte/

https://ilblogdellasci.wordpress.com/2014/04/28/quanto-e-chimico-il-potenziale-chimico-iv/

https://ilblogdellasci.wordpress.com/2014/06/17/quanto-e-chimico-il-potenziale-chimico-v/

**omogeneità del primo ordine equivale a dire che se in una funzione U(S,V,N) moltiplico per una costante a ciascuna variabile indipendente allora tutta la funzione U viene moltiplicata per la medesima variabile, a1; aU= U(aS,aV,aN), U è estensiva; il primo ordine è l’esponente della a; ordine zero vuol dire che se faccio lo stesso per una funzione poniamo T(S,V,N), allora la funzione rimane moltiplicata per a0 e dunque non cambia valore, T è intensiva. T=T(aS,aV,aN).