giovedì 3 dicembre 2009

Entropia

Trovo che l'insegnamento universitario italiano sia sorprendente. Lo studio della termodinamica, in particolare, si discosta poco dalla logica "delle macchine termiche", ossia è centrato sulle trasformazioni nel piano pressione-volume e poco sulle grandezze di rilevanza fisica, come l'energia del sistema. Il problema è che lo studente non è ancora in grado di comprendere appieno l'importanza di queste osservabili (= grandezze fisiche misurabili) nella nostra descrizione del mondo. Ci dicono che l'energia interna è una funzione di stato, come l'entropia o l'entalpia, ma poco altro. Solo al terzo anno, finalmente, ci spiegano la relazione tra l'equazione di Hamilton, che genera l'evoluzione temporale di un dato sistema, e l'energia. Solo da qui possiamo, forse, intravedere il significato di "stato del sistema".


Cos'è poi l'entropia? Sappiamo che una delle formulazioni del secondo principio della termodinamica recita: la variazione di entropia in un sistema isolato è sempre maggiore o uguale a zero. Al primo anno, e alle superiori, non viene realmente spiegato (se non, magari, con formulazioni alternative). La stessa entropia, si sa, viene introdotta tramite due approcci. Quello di Clausius, che la lega ad un integrale che coinvolge calore e temperatura, e quindi utile per la fisica delle trasformazioni termodinamiche, nonché per capire che si tratta, dimensionalmente, di un'energia fratto una temperatura; quello di Boltzmann, che la lega, tramite una costante (che ha dimensioni di una energia fratto una temperatura) ad una distribuzione di probabilità. Si nota che i due approcci, l'uno energetico e l'altro statistico, sono molto differenti. Perché dunque in fisica li studiamo entrambi? La ragione è semplice: il primo viene affrontato in termodinamica, disciplina che tratta trasformazioni e funzioni di stato; il secondo è introdotto nella meccanica statistica, disciplina che studia i sistemi di molte particelle con un approccio che è una via di mezzo fra la meccanica (conoscenza esatta dei moti del sistema) e la termodinamica (misura delle variabili di stato, come la temperatura, che corrispondono a valori macroscopici delle variabili meccaniche microscopiche). È dunque evidente che la doppia descrizione è relativa a due diversi livelli di "ingrandimento" con cui studiamo il sistema fisico. E se l'enunciato di Clausius ci dice che l'entropia è una forma di energia, quello di Boltzmann spiega che essa altro non è che la mancanza di informazione sul sitema. Studiando le quantità macroscopiche, infatti, perdiamo informazioni riguardo alla distribuzione sopra citata. In particolare, lo stato è legato non alle singole particelle ma ad una distribuzione che necessariamente non contiene tutte le informazioni. Se le contenesse, sarebbe equivalente a studiare la dinamica conoscendo posizione e velocità di ogni particella in ogni istante di tempo (= determinismo causale), e quindi l'entropia non aumenterebbe ma rimarrebbe costante. L'entropia, o mancanza di informazione, o "minimo pregiudizio" sul sistema, aumenta perché noi scegliamo di studiare il problema con un basso livello di dettaglio. Solo così possiamo descrivere sistemi complessi, e solo così l'universo è soggetto ad una legge così importante da dominarne la nostra concezione e consolidare, infine, la concezione di irreversibilità dei processi fisici, opposta al determinismo causale, e l'istituzione di una "freccia del tempo" termodinamica rivolta inesorabilmente verso il futuro.

Nessun commento:

Posta un commento

Related Posts Plugin for WordPress, Blogger...