Entropia
L'entropia è un concetto astratto che riguarda la quantità di
"disordine" presente nei sistemi e il fatto che le
trasformazioni naturali hanno una direzione definita nel tempo e non sono
reversibili. E' una misura della casualità, della confusione, del rumore
e del decadimento dei sistemi. Il concetto di entropia ha avuto origine dagli
studi sul flusso del calore; attualmente si ritiene che abbia un profondo
significato in aree che vanno dalle scienze fisiche e biologiche alla teoria
dell'informazione, alle scienze sociali e, infine, al problema del destino
dell'universo.
Il termine entropia fu introdotto verso la metà del sec. XIX dal fisico tedesco
Rudolf Clausius, durante i suoi studi sul flusso di calore nei motori a vapore.
Clausius applicò questo termine all'inevitabile
aumento dell'energia inutilizzabile che si ha ogni volta che si vuole
trasformare il calore in lavoro.
Il concetto di entropia fu ripreso dai fisici e dai chimici e divenne noto come seconda
legge della termodinamica: questa legge afferma che l'entropia aumenta in
tutte le trasformazioni che avvengono in natura. In altre parole, tutti i
processi fisici naturali tendono verso l'equilibrio, e un qualsiasi uso
dell'energia provoca un'inevitabile perdita della capacità di questa energia a
produrre lavoro. Se la sorgente di energia è un oggetto caldo, una parte
soltanto del suo calore è disponibile per produrre lavoro utile; il resto
dell'energia termica viene disperso nell'ambiente circostante e il disordine
generale del sistema aumenta. L'entropia è la misura di questo disordine. Dire
che l'entropia aumenta in tutti gli eventi spontanei, equivale a dire che tali
eventi finiscono sempre in un disordine maggiore di quello iniziale. Per
esempio, l'acqua non scorre spontaneamente verso l'alto, le uova rotte non
ritornano intere e le molecole di profumo uscite da una boccetta e diffuse
nell'aria non ritornano di nuovo spontaneamente nella boccetta. L'aumento
dell'entropia è la direzione del tempo; il disordine termodinamico degli eventi
osservati aumenta al passare del tempo. Una delle conseguenze della seconda
legge della termodinamica è che le macchine a moto perpetuo non sono possibili.
Nessun apparecchio può adoperare l'energia che produce come sua sola sorgente
di energia. Al contrario dell'energia, l'entropia non viene conservata.
Nel sec. XX il concetto di entropia fu ripreso da altre discipline, in
particolar modo dalla teoria dell'informazione.
Qui l'entropia viene usata anche come una misura della casualità e del
disordine, ma senza far intervenire l'inevitabilità e l'irreversibilità. Nelle
comunicazioni, l'entropia si riferisce al contenuto d'informazioni di un
messaggio ed è una misura dell'incertezza del flusso d'informazioni. Claude
Elwood Shannon fu il primo a usare questo termine nel 1948 per descrivere il
"rumore" che interferisce con la corretta ricezione delle
informazioni. D'altra parte si può definire entropia negativa la ridondanza
artificiale d'informazioni, usata spesso per assicurare una ricezione corretta.
Perciò nelle comunicazioni vi può essere sia un guadagno che una perdita di
entropia. Anche molti altri modelli di comunicazione interpersonale tengono
conto dell'entropia, inclusa l'entropia "psicologica" del ricevente.
Tali modelli cercano di ottenere i metodi di codifica più efficienti possibile
per la trasmissione delle informazioni.
L'utilità e l'importanza del concetto di entropia nei sistemi sociali, così
come in quelli fisici e biologici, diventa evidente quando si fanno certe
considerazioni. Nel mondo fisico la "freccia del tempo" sembra puntare
verso un inevitabile aumento dell'entropia, in quanto gli atomi e le molecole di
cui è costituito il mondo tendono verso la loro configurazione più probabile,
e il disordine aumenta. La vita, al contrario, dalla sua prima apparizione fino
allo sviluppo e all'evoluzione delle società umane complesse, rappresenta una
diminuzione, invece che un aumento, di entropia, cioè partendo dal disordine
tende verso un ordine sempre maggiore. La seconda legge della termodinamica
sembra implicare un decadimento finale dell'universo, mentre la vita è un
movimento nella direzione opposta.
Talvolta la vita viene considerata semplicemente una manifestazione locale di
diminuzione dell'entropia, senza implicazioni per l'intero universo, cioè
soltanto come una via più tortuosa verso la fine inevitabile. Tuttavia alcuni
scienziati contestano questa ipotesi. A esempio il chimico belga Ilya Prigogine
ha dedicato i suoi studi ad allargare il campo della termodinamica in modo da
includere gli organismi viventi e i sistemi sociali. Prigogine, che ha vinto il
premio Nobel per la chimica nel 1977, ha sviluppato modelli matematici di quelle
che lui chiama strutture dissipative,
cioè sistemi in cui l'entropia decresce spontaneamente. Tali sistemi sono stati
osservati in certe reazioni chimiche e trasformazioni fisiche, così come nel
fenomeno della vita. Il termine dissipativo si riferisce alla loro capacità di
dissipare entropia nell'ambiente circostante, aumentando perciò il loro ordine
interno. Le idee matematiche di Prigogine, e le conseguenze riguardanti
l'interazione creativa fra energia e materia, hanno attirato l'attenzione dei
sociologi e degli economisti, così come dei fisici e dei biologi.
Copyright © 2002 Motta Editore
|