Storia della fisica
Lo sviluppo della fisica non solo ha prodotto mutamenti fondamentali nella
concezione del mondo materiale, ma ha anche portato a una grande trasformazione
della società per mezzo delle scoperte di laboratorio, rese possibili dai
progressi della tecnologia. Qui la fisica sarà considerata sia come l'insieme
delle conoscenze, sia come l'insieme dei metodi per realizzarle e
trasmetterle.
La fisica acquistò la sua forma classica tra la fine del Rinascimento e la
fine del sec. XIX; l'anno 1900 è considerato il punto di separazione tra la
fisica classica e quella moderna.
Secondo la tradizione aristotelica, la fisica significava lo studio della
natura in generale; era uno studio letterario e qualitativo e anche
onnicomprensivo; non proponeva esperimenti e non utilizzava la matematica.
L'ottica geometrica, la meccanica e l'idrostatica appartenevano alla matematica
applicata. I concetti aristotelici sulla sfera d'azione della fisica prevalsero,
nelle università, fino al sec. XVIII. Nel frattempo, al di fuori delle scuole,
si sviluppò un concetto diverso, esemplificato dal De magnete (1600) del
medico inglese William Gilbert. Questo libro di
Gilbert sul magnetismo fu il primo resoconto di una serie di esperimenti,
ripetuti e ricontrollati, in tutta la storia della fisica. Il magnetismo
diventò una materia di studio popolare, e non solo per le possibili
applicazioni pratiche: infatti poteva anche essere usato nella "magia
naturale", cioè nella produzione di effetti sconcertanti per mezzo di
meccanismi nascosti. Questa magia si ritrova in grande evidenza nelle accademie
e nei musei fondati nel sec. XVII da signori virtuosi e interessati
all'insolito. I loro giochi spesso arrivavano all'esperimento, e molte delle
loro pratiche, per esempio il lavoro in cooperazione e le dimostrazioni davanti
al pubblico, si ritrovarono nelle prime accademie nazionali delle scienze, che
furono fondate a Londra e a Parigi nel decennio tra il 1660 e il 1670.
Molti di questi "artisti" spiegavano la loro magia o i loro
esperimenti, in base ai principi della nuova filosofia meccanica, di cui i Principia
Philosophiae (Principi di filosofia, 1644) di René
Descartes furono la principale guida e apologia. I suoi lettori non avevano
bisogno di accettare i modelli particolari o la metafisica di Descartes per
vedere i vantaggi del suo sistema. Un importante filosofo meccanico, Robert
Boyle, spiegò questi vantaggi: in paragone allo schema di Aristotele,
il corpuscolarismo rende conto in modo semplice, comprensivo, utile e
intelleggibile dei fenomeni fisici, ed è una valida base per ulteriori
progressi. Descartes fece notare anche un altro vantaggio: la sua fisica, basata
sull'estensione e sul moto, era implicitamente matematica.
Come Galileo Galilei prima di lui, Descartes
richiedeva una fisica modellata sulla matematica. Ciascuno dei due riuscì a
ottenere piccole parti di tale fisica, ma nessuno di loro riuscì a quantificare
un vasto campo di fenomeni. Sir Isaac Newton fu
il primo a farlo, nei suoi Principia mathematica philosophiae naturalis
(Principi matematici di filosofia naturale, 1687). Il campo di validità dei
suoi principi, dai satelliti di Saturno ai pendoli oscillanti sulla Terra, e la
precisione dei suoi risultati stupirono i suoi contemporanei. Tuttavia, essi non
videro nel capolavoro di Newton il modello per una fisica esatta ed esauriente.
Per quanto i Principia fossero un successo come descrizione matematica,
furono considerati un fallimento, come fisica, da coloro che credevano nello
scopo di Descartes. O si prendeva il principio di gravità, cioè la mutua
attrazione fra tutte le particelle dell'universo, come una descrizione
matematica, come fece Newton, e perciò non ne otteneva una fisica, oppure si
supponeva che i corpi potevano agire a distanza l'uno sull'altro, e in questo
caso, secondo i fisici del sec. XVII, si ritornava alle spiegazioni
incomprensibili e magiche da cui Descartes aveva salvato la filosofia naturale.
Durante il sec. XVII, i fisici abbandonarono gli scrupoli che avevano
preoccupato sia Newton che i suoi avversari riguardo le forze agenti a distanza.
Anche se il fisico ignorava tutto sulla vera natura di queste forze, esse erano
utili per i calcoli e i ragionamenti; con un po' di pratica, come disse un
fisico, le forze si possono "addomesticare".
Lo strumentalismo cominciò a essere diffuso dopo il 1750, stabilendo il
criterio di scegliere le teorie fisiche sulla base, non della loro conformità a
principi comprensibili generali e qualitativi, ma per il loro accordo
quantitativo con misure di fenomeni isolati.
Durante la prima metà del sec. XVIII, gli esperimenti dimostrativi, da
lungo tempo praticati nelle accademie, entrarono nei corsi di fisica
universitari. Per ragioni pratiche, la maggior parte di queste dimostrazioni
riguardavano la fisica in senso moderno.
Nel frattempo la fisica diventò importante nelle scuole per minatori, ingegneri
e artiglieri. La migliore di queste scuole, cioè l'Ecole Polytechnique
fondata a Parigi nel 1793, fu presa ad esempio per elevare i curricula
sia delle università che delle scuole tecniche. Fra le sue discendenti vi sono
le Technische Hochschulen di lingua tedesca, di cui ne esistevano 15 nel
1900.
Durante il sec. XIX, i vecchi cabinets de physique delle vecchie
università furono trasformati in istituti di fisica. Questa trasformazione
avvenne in due tempi. Dapprima l'università si assunse l'obbligo di far seguire
corsi di laboratorio agli studenti dei primi anni. In secondo luogo fornì
facilitazioni alla ricerca per gli studenti dei corsi superiori e per i membri
della facoltà. Il primo passo ebbe luogo nel 1850 circa; il secondo verso la
fine del secolo. Dal 1900 in poi, nei paesi più progrediti nella fisica (Gran
Bretagna, Francia, Germania e Stati Uniti), fu accettato il principio che
l'istituto di fisica universitario dovesse dare un'istruzione sia teorica che
pratica ai futuri maestri della scuola secondaria, ai medici e agli ingegneri,
oltre che fornire spazio, strumenti e attrezzature per la ricerca degli studenti
di fisica degli anni superiori.
Nel 1900 esistevano in tutto il mondo circa 160 istituti universitari di fisica,
con un personale di 1100 fisici. Le spese in percentuale del prodotto nazionale
lordo erano circa le stesse nelle quattro nazioni più avanzate. I fisici
universitari mantennero una certa pressione sul governo e sui finanziatori
privati facendo notare l'aumento della domanda di persone tecnicamente
addestrate, da parte dell'industria, del governo e dell'esercito. Questa
pressione venne non solo da persone singole ma anche dalle associazioni
professionali, una novità caratteristica del sec. XIX. La prima delle
associazioni nazionali per il progresso della scienza, in cui i fisici hanno
sempre avuto una parte preminente, fu fondata in Germania poco dopo il 1820. A
cominciare dal 1845 i fisici fondarono anche associazioni professionali
nazionali.
Mentre la fisica prosperava all'esterno, crebbe anche internamente inglobando i
rami fisici della matematica applicata. Questa crescita fu però eccessiva. A
cominciare dal 1860 circa fu riconosciuta una specialità, la fisica teorica,
che trattava i rami più matematici, ponendo l'accento sulle loro
interconnessioni e sulla loro unità. Nel 1900 esistevano circa 50 cattedre di
fisica teorica, la maggior parte in Germania. Durante lo stesso periodo ebbero
origine molti nuovi e importanti campi di studio ai confini fra la fisica,
l'astronomia, la biologia, la geologia e la chimica.
L'unificazione a cui si riferivano i fisici teorici era la riduzione di
tutti i fenomeni naturali a fatti meccanici. Gli scopi della fisica della fine
del sec. XVIII, cioè di ridurre i fenomeni fisici a forze trasportate da
sostanze speciali, come i fluidi elettrici, nel 1850 circa dettero luogo a una
revisione del corpuscolarismo. La nuova dottrina della conservazione
dell'energia e della interconvertibilità delle forze, faceva pensare che tutte
le trasformazioni fisiche si sarebbero potute far derivare da una base comune. I
fisici considerarono come fondamentali i concetti della meccanica, per le stesse
ragioni espresse da Boyle, e si sforzarono di spiegare i fenomeni della luce,
del calore, dell'elettricità e del magnetismo in termini di sforzi e
deformazioni di un ipotetico etere, che si supponeva operasse come un
meccanismo.
Questo programma aveva come fine remoto un modello come l'atomo a vortice, che
permetteva di costruire la materia a partire da minuscoli vortici permanenti
nello stesso etere, che mediava le interazioni elettromagnetiche e che propagava
la luce. Il presidente della società di fisica francese probabilmente aveva in
mente l'atomo a vortice quando aprì il Congresso internazionale di fisica del
1900 con le parole: "Lo spirito di Cartesio aleggia sulla fisica moderna, o
meglio ne è il suo faro".
I rami principali della fisica classica sono la meccanica, l'elettricità e
il magnetismo, la luce, il calore e la termodinamica.
Il primo ramo della fisica che fu possibile descrivere matematicamente è
stato la meccanica. Benché gli antichi avessero quantificato alcuni problemi
riguardanti la bilancia e l'idrostatica, e i filosofi medievali avessero
discusso possibili descrizioni matematiche della caduta libera, solo all'inizio
del sec. XVII il desiderio di quantificazione fu messo a confronto con i
principi accettati della fisica. Lo sfidante principale fu Galileo Galilei che
iniziò con una spiegazione medievale del moto, la cosiddetta teoria
dell'impeto, e finì per rinunciare a una dinamica esplicita. Per lui era
sufficiente che, come primo passo, il fisico descrivesse quantitativamente come
gli oggetti cadono e come i proiettili volano. Il metodo cinematico di Galilei
non soddisfaceva Descartes, che insisteva sul fatto che il fisico deve basarsi
su principi ricavati dalla conoscenza della natura dei corpi. Descartes fornì
questa conoscenza come leggi del moto, quasi tutte scorrette ma comprendenti un
solido enunciato sul principio dell'inerzia rettilinea, che doveva diventare il
primo assioma del moto di Newton. Un altro principio cartesiano importante per
Newton era l'universalizzazione della meccanica. Nella fisica aristotelica, i
cieli sono fatti di materiali che non si trovano sulla Terra. I progressi
dell'astronomia avevano già minato questa distinzione di Aristotele, e Newton,
come Descartes, unificò esplicitamente la meccanica celeste e terrestre.
Nel sistema di Descartes i corpi interagiscono solo per spinta, e lo spazio
vuoto di corpi è una contraddizione in termini.
Perciò, nel moto di qualsiasi oggetto si deve generare un vortice che ne
coinvolge altri. I pianeti vengono trasportati da uno di tali vortici; un altro
trasporta la Luna, crea le maree e provoca la caduta dei corpi; un altro ancora
media l'interazione degli oggetti sulla superficie della Terra o vicino ad essa.
Newton cercò di costruire una meccanica celeste quantitativa basata sui
vortici, ma non riuscì; il libro secondo dei Principia riporta la sua
dimostrazione che quei vortici che ubbidiscono agli assiomi meccanici validi per
la materia terrestre non possono trasportare i pianeti secondo le leggi di
Keplero. Proponendo la gravitazione universale, invece, Newton riuscì a
derivare le leggi di Keplero e a legare fra loro i moti planetari, le maree e la
precessione degli equinozi. In uno dei passi essenziali della sua trattazione,
Newton ha usato la regola di Galilei sulla distanza percorsa sotto accelerazione
costante. Egli ritenne anche necessario assumere l'esistenza di uno "spazio
assoluto", cioè di un sistema di riferimento privilegiato rispetto a cui
si potessero definire le accelerazioni.
Dopo essere stati messi in una forma analitica definitiva da Leonardo
Eulero, gli assiomi del moto di Newton furono rielaborati da Joseph
Louis de Lagrange, William Rowan Hamilton,
da Carl Gustav Jacobi e trasformati in metodi
molto potenti e generali che impiegano nuove quantità analitiche, come i
potenziali, collegati alle forze ma lontani dall'esperienza immediata.
Nonostante questi trionfi, alcuni fisici mantennero comunque molte riserve
riguardo al concetto di forza. Vari schemi per farne a meno furono proposti, in
particolare da Joseph Johan Thomson e Heinrich
Hertz, ma senza che ne risultasse niente di utile.
Con la sua apparente azione a distanza, il magnetismo sfidò l'ingegnosità
dei filosofi corpuscolari. Descartes spiegò che il vortice terrestre, che
trasportava la Luna, conteneva particelle di forma tale da poter passare
facilmente attraverso i pori filiformi che definiscono la struttura interna dei
magneti e della Terra. Queste particelle speciali si accumulano in vortici
attorno ai magneti e vicino alla Terra, orientano gli aghi delle bussole e
trasportano l'attrazione e la repulsione magnetica. Questa rappresentazione
pittoresca dominò le teorie continentali sul magnetismo fino al 1750. Nel
frattempo i discepoli di Newton cercarono di trovare una legge della forza
magnetica analoga alla legge di gravità. Essi fallirono perché non seguirono
il metodo di Newton di integrare ipotetiche forze microscopiche per ottenere
un'accelerazione macroscopica. Nel 1785 Charles A.
Coulomb dimostrò le leggi della forza magnetica fra elementi di un supposto
fluido magnetico. Egli fu facilitato da una maggior pratica sull'uso delle
forze, da una più sviluppata comprensione dei procedimenti di Newton e da una
tecnica di costruire magneti artificiali con poli ben definiti.
Gilbert definì e delimitò lo studio dell'elettricità
come risultato dei suoi tentativi di distinguere l'attrazione elettrica da
quella magnetica. L'elettricità fece progressi saltuari fino a quando, nel
1706, Francis Hauksbee introdusse un generatore
nuovo e più potente, cioè il tubo di vetro. Con questo strumento Stephen
Gray e C.F. Dufay scoprirono la conduzione
elettrica e le regole dell'elettrificazione vetrosa e resinosa. Negli anni dopo
il 1740, l'elettricità cominciò ad attrarre una maggiore attenzione a causa
delle invenzioni della macchina elettrostatica, e della bottiglia di Leida e
della loro applicazione a giochi di salotto. La dimostrazione nel 1751 che il
fulmine era un gioco elettrico della natura, aumentò ulteriormente la
reputazione dell'elettricità. Fino al 1750 i fisici accettarono una teoria
dell'elettricità poco differente da quella di Gilbert: lo strofinamento dei
corpi elettrici li obbliga a emettere un etere, o materia elettrica, che causa
l'attrazione e la repulsione, sia direttamente sia facendo intervenire l'aria.
Questa teoria confondeva i ruoli delle cariche e dei loro campi. L'invenzione
della bottiglia di Leida (1745) contribuì a chiarire le cose; ma fu solo la
teoria di Benjamin Franklin dell'elettricità
positiva e negativa, sviluppata probabilmente senza riferirsi alla bottiglia di
Leida, che risolse la questione. Franklin asserì che l'accumulo di materia
elettrica all'interno della bottiglia di Leida (la carica positiva) agiva a
distanza attraverso il fondo della bottiglia per espellere verso terra altra
materia elettrica, producendo così la carica elettrica negativa. In questo modo
entrarono nella teoria dell'elettricità le forze a distanza.
La loro azione fu quantificata da F.U.T. Aepinus
(1759), da Henry Cavendish (1771) e da Coulomb, il
quale nel 1785 dimostrò che la forza tra gli elementi delle ipotetiche materie,
o fluidi elettrici, diminuiva col quadrato della distanza. Molti fisici tuttavia
preferirono la teoria introdotta da Robert Symmer
nel 1759, che sostituiva l'elettricità negativa di Franklin (assenza di materia
elettrica) con l'esistenza di un secondo fluido elettrico. Dato che la forza
elettrica elementare seguiva la stessa legge della gravitazione, la matematica
della teoria del potenziale era già pronta per essere utilizzata dai teorici
dell'elettricità. La quantificazione dell'elettrostatica fu portata a termine
ai primi del sec. XIX, principalmente ad opera di Siméon
Denis Poisson.
Nel 1800 Alessandro Volta annunciò l'invenzione
di un generatore continuo di elettricità, cioè una "pila" di dischi
di rame, di zinco e di cartone umido. Questa invenzione, la prima batteria,
aprì due nuovi campi di studio molto estesi: l'elettrochimica,
di cui i primi risultati notevoli furono l'isolamento dei metalli alcalini da
parte di Humphry Davy, e l'elettromagnetismo, basato sulla soluzione delle
questioni aperte da Gilbert nel 1600.
La scoperta nel 1820 da parte di Hans Christian
Oersted che i fili congiungenti i poli di una cella voltaica potevano
esercitare una forza su un ago magnetico, fu seguita nel 1831 dalla scoperta di Michael
Faraday che un magnete può far scorrere la corrente in una spira chiusa di
filo metallico. Il fatto che la forza elettromagnetica dipende dal moto, e che
non è diretta lungo la linea che congiunge gli elementi di corrente, rese
difficile portare le nuove scoperte entro gli schemi delle forze a distanza.
Alcuni fisici del continente, per primo André
Marie Ampère, poi Wilhelm Eduard Weber e
Rudolf Clausius e quindi altri, ammisero
l'esistenza di forze dipendenti dalle velocità e relative accelerazioni.
La speranza che le interazioni elettriche e magnetiche potessero essere chiarite
senza far ricorso a forze agenti su distanze macroscopiche, persistette anche
dopo i lavori di Coulomb. Secondo questa tradizione Faraday considerava che il
mezzo situato tra i corpi interagenti elettricamente, fosse la sede delle forze
elettromagnetiche. La sua teoria rimase oscura a tutti fuorché a lui stesso,
finché William Thomson (lord Kelvin) e James
Clerk Maxwell non espressero le sue intuizioni nel linguaggio matematico di
Cambridge: ne risultò la sintesi fra elettricità, magnetismo e luce ad opera
di Maxwell. Molti fisici inglesi e, dopo la rivelazione di Heinrich Hertz delle
onde elettromagnetiche avvenuta nel 1887, vari altri del continente, cercarono
di inventare un etere obbediente alle normali leggi della meccanica e le cui
deformazioni e tensioni potessero render conto dei fenomeni trattati dalle
equazioni di Maxwell (v. Maxwell, equazioni di).
Negli anni dopo il 1890 Hendrik Antoon Lorentz riuscì
a trovare un buon compromesso. Dagli inglesi egli prese l'idea di un etere, o
campo, attraverso cui si propagano i disturbi elettromagnetici. Dalla teoria dei
fisici del continente prese il concetto di cariche elettriche, di cui fece le
sorgenti del campo. Egli rifiutò il presupposto che il campo debba essere
trattato come un sistema meccanico e che ad esso si dovessero assegnare tutte le
proprietà necessarie per render conto dei fenomeni. Per esempio, per spiegare
il risultato dell'esperimento di Michelson Morley,
Lorentz suppose che gli oggetti in moto attraverso l'etere si contraggano lungo
la direzione del moto. Fra le proprietà non analizzate e forse non analizzabili
dell'etere c'è la sua capacità di accorciare i corpi che si muovono attraverso
di esso.
Nel 1896 e 1897 la teoria di Lorentz ricevette una conferma dall'effetto
Zeeman, che confermò la presenza di cariche elettriche negli atomi neutri,
e dall'isolamento dell'elettrone, che si poteva identificare come la sorgente
del campo. L'elettrone unì insieme molte parti della fisica del sec. XIX e
suggerì che le caratteristiche della materia stessa, compresa la sua inerzia,
potevano essere dovute a gocce di fluido elettrico in moto. Ma l'elettrone non
salvò l'etere. I continui fallimenti nel cercare gli effetti dovuti al moto
attraverso di esso e, soprattutto, certe asimmetrie nell'elettrodinamica dei
corpi in moto, indussero Albert Einstein a
rifiutare l'etere e, con esso, gli ultimi resti dello spazio assoluto di Newton.
Durante il sec. XVII lo studio dell'ottica era strettamente associato a
problemi astronomici, come la correzione delle osservazioni per la rifrazione
atmosferica e il miglioramento dei progetti di telescopi. Keplero
ottenne una buona approssimazione della rifrazione e spiegò la geometria
dell'occhio, il funzionamento delle lenti e l'inversione dell'immagine.
Descartes calcolò la forma migliore per le lenti dei telescopi e trovò, o
riferì, la legge di rifrazione formulata per primo da Willebrord
Snell nel 1621. Cercando di correggere l'aberrazione cromatica dei
telescopi, Newton scoprì che raggi di colori differenti sono deviati dal prisma
di quantità differenti, ma caratteristiche. Questa scoperta rivoluzionò la
fisica della luce.
La teoria tradizionale considerava la luce bianca come omogenea e i colori come
impurità o modificazioni. Newton dedusse dalla sua scoperta che i colori sono
fondamentali e omogenei, e li descrisse come formati da particelle. Questo
modello era anche in conflitto con quello ordinario. Per esempio, Christiaan
Huygens, a cui non interessavano i colori, dette una bella spiegazione della
propagazione della luce, compresa una spiegazione della birifrangenza,
supponendo che la luce consiste di onde longitudinali in un mezzo diffuso.
Newton aveva bisogno anche di un etere ottico per spiegare i fenomeni
attualmente chiamati interferenza fra onde di luce. L'emissione delle particelle
pone in vibrazione l'etere e le vibrazioni impongono proprietà periodiche alle
particelle. Benché molti fisici del sec. XVIII preferissero una teoria
ondulatoria nello stile di Huygens, nessuno riuscì a inventarne una
paragonabile a quella di Newton. Nell'ottica i progressi avvennero
principalmente in campi che Newton non aveva esaminato, come la fotometria, e
nella correzione dell'aberrazione cromatica delle lenti che egli aveva creduto
impossibile.
Nei primi anni del sec. XIX Thomas Young, che aveva
studiato accuratamente l'opera di Newton e che era esperto di teoria delle
vibrazioni, mostrò come si doveva quantificare la teoria di Huygens. Young
riuscì a spiegare certi casi di interferenza e Augustin
Jean Fresnel ben presto costruì un'approfondita teoria analitica basata sul
principio di superposizione di Young. Le particelle di luce di Newton, che si
combinavano bene con i fluidi speciali ipotizzati nelle teorie del calore e
dell'elettricità, trovarono difensori vigorosi che ponevano l'accento sul
problema della polarizzazione. Nella teoria di Newton la polarizzazione poteva
essere introdotta attribuendo proprietà differenti ai differenti
"lati" delle particelle, mentre le onde di Young si potevano
caratterizzare soltanto per l'ampiezza (collegata all'intensità), per il
periodo (colore), per la fase (interferenza) e per la velocità (rifrazione).
Nel 1820 circa, Young e Fresnel trovarono indipendentemente il grado di libertà
mancante, facendo l'ipotesi che le perturbazioni delle onde di luce agiscono ad
angolo retto rispetto alla loro direzione di moto; gli effetti della
polarizzazione sono dovuti all'orientamento delle perturbazioni rispetto
all'asse ottico del corpo polarizzante.
Ipotizzando che le vibrazioni della luce siano trasversali, i teorici ondulatori
poterono descrivere semplicemente ed esattamente una gran varietà di fenomeni.
Tuttavia rimaneva la difficoltà di sviluppare un modello dell'"etere
luminifero", le cui vibrazioni essi supponevano costituissero la luce.
Furono proposti molti modelli in cui l'etere assomigliava a un solido elastico:
nessuno ebbe successo. Dopo che Maxwell ebbe collegato luce ed
elettromagnetismo, i compiti dell'etere divennero sempre più difficili e
ambigui, finché Lorentz e Einstein, in modi differenti, lo sottrassero alla sua
sudditanza dalla meccanica.
Nella fisica aristotelica il calore era associato alla presenza di una
qualità non meccanica, trasportata dall'elemento fuoco. I filosofi crepuscolari
respinsero in tutto o in parte questa rappresentazione; concordavano sul fatto
che il calore si originasse dal moto rapido delle parti dei corpi ma erano
divisi sull'esistenza di uno speciale elemento fuoco. La prima teoria dopo
Aristotele a ottenere un ampio consenso fu sviluppata da Herman
Boerhaave durante la seconda decade del sec. XVIII; incorporava una
peculiare, onnipresente ed espansiva "materia di fuoco", l'agitazione
della quale causava il calore e la fiamma.
I fisici esaminarono le proprietà di questo fuoco con l'aiuto dei termometri,
che furono grandemente migliorati durante il sec. XVIII. Con i termometri
Fahrenheit, G.W. Richmann, negli anni 1747-48,
ricavò la formula calorimetrica delle mescolanze, che esprime come il fuoco di
corpi differenti a temperature differenti raggiunge l'equilibrio a una
temperatura intermedia se i corpi vengono messi in contatto. Studiando le
discrepanze fra i valori sperimentali e i risultati previsti dalla formula di
Richmann, Joseph Black e J.C.
Wilcke scoprirono indipendentemente i fenomeni che li condussero ai concetti
di calore latente e di calore specifico. Nel 1790 circa, i fisici cominciarono a
considerare le conseguenze analitiche dell'ipotesi che fosse conservata la base
materiale del calore, che essi chiamarono calorico. La teoria
del calorico dette una spiegazione quantitativa soddisfacente delle
trasformazioni adiabatiche nei gas, inclusa la propagazione del suono, che i
fisici avevano cercato invano di capire in base ai soli principi meccanici.
Un'altra teoria matematica del calorico fu, nel 1824, l'analisi di Sadi
Carnot sull'efficienza di un motore termico ideale e reversibile, e che
sembrava basarsi sull'ipotesi di un calore materiale conservato.
Nel 1822 Joseph Fourier pubblicò la sua teoria
della conduzione del calore, sviluppata usando le serie trigonometriche che
portano il suo nome (v. Fourier, analisi di), e senza specificare la natura del
calore. Egli perciò sfuggì agli attacchi sulla teoria del calorico da parte di
quelli che sostenevano gli argomenti del conte Benjamin
Rumford. Dalle alte temperature delle canne di cannone durante la rettifica,
Rumford aveva dedotto che il calore viene creato dalla frizione e perciò non
può essere una sostanza conservata (v. conservazione, leggi di). Le sue
argomentazioni qualitative non potevano avere la meglio sulla teoria del
calorico, ma dettero origine a dubbi, fra gli altri in Carnot stesso.
Durante la fine del sec. XVIII i fisici avevano speculato sulle correlazioni fra
i vari fluidi che essi associavano alla luce, al calore e all'elettricità.
Quando la teoria ondulatoria indicò che la luce e il calore radiante erano
costituiti da movimento invece che da una sostanza, la teoria del calorico ne fu
scossa. Gli esperimenti di James Prescott Joule,
negli anni dopo il 1840, mostrarono che una
corrente elettrica poteva produrre sia calore sia, per mezzo di un motore
elettrico, lavoro meccanico; ne concluse che il calore, come la luce, era
uno stato di moto e riuscì a misurare il calore generato dal lavoro meccanico.
Joule ebbe difficoltà a farsi ascoltare, dato che i suoi esperimenti erano
molto delicati e i suoi risultati sembravano minacciare quelli di Carnot.
Poco dopo il 1850 la disputa fu risolta indipendentemente da Kelvin e da
Clausius, che si resero conto che erano stati confusi due principi distinti.
Joule asserì correttamente che il calore poteva essere creato e distrutto, e
sempre nella stessa proporzione rispetto alla quantità di forza (o, per usare
un nuovo termine, "energia") meccanica, elettrica o chimica consumata
o prodotta. Questa asserzione è la prima legge della termodinamica, cioè la
legge di conservazione dell'energia. Tuttavia valgono anche i risultati di
Carnot: essi non si basano sulla conservazione del calore ma sull'entropia, il
rapporto tra il calore e la temperatura a cui viene scambiato. La seconda legge
della termodinamica stabilisce che in tutte le trasformazioni naturali,
l'entropia o rimane costante o aumenta.
Incoraggiati dai ragionamenti di Hermann Helmoltz
e di altri, i fisici presero per fondamentale l'energia meccanica, cioè la
forma di energia che era loro più familiare, e cercarono di rappresentare le
altre forme per mezzo di essa.
Maxwell e Ludwig Boltzmann posero le fondamenta
di un nuovo ramo della fisica, la teoria
meccanica del calore, che per la prima volta includeva considerazioni
statistiche come parte integrale dell'analisi fisica. Dopo un notevole successo
iniziale, la teoria crollò sulla rappresentazione meccanica dell'entropia.
L'apparente contrasto delle equazioni della meccanica (che non hanno una
direzione del tempo) e le richieste della seconda legge (che proibisce
all'entropia di decrescere nel futuro) indussero alcuni fisici a dubitare che si
potesse mai ottenere una rappresentazione meccanica del calore. Poco dopo il
1890, un piccolo gruppo radicale condotto dal chimico-fisico Wilhelm
Ostwald arrivò a proporre di rifiutare tutti i modelli meccanici, compreso
il concetto di atomo.
Benché il programma dell'energetica di Ostwald avesse pochi seguaci e cadesse
in poco tempo, l'attacco ai modelli meccanici si dimostrò premonitore. Altri
lavori attorno al 1900, cioè le scoperte dei raggi X e della radioattività e
lo sviluppo della teoria quantistica e della teoria della relatività, alla fine
obbligarono in linea di principio, anche se non in pratica, i fisici a non fare
più affidamento sulla chiara rappresentazione nello spazio e nel tempo su cui
era stata costruita la fisica classica.
Verso il 1900 era andata definitivamente in frantumi l'immagine
dell'universo fisico come insieme di parti meccaniche. Nella decade precedente
lo scoppio della prima guerra mondiale apparvero nuovi fenomeni sperimentali. Le
prime scoperte della radioattività e dei raggi X furono fatte da Antoine
Henri Becquerel e da Wilhelm Conrand
Roentgen. Questi nuovi fenomeni furono studiati estesamente, ma soltanto con
la prima teoria atomica di Niels Bohr, nel 1913, emerse
una teoria generale della generazione dei raggi X. Il decadimento radioattivo
venne gradualmente spiegato col sorgere della meccanica quantistica, con la
scoperta di nuove particelle fondamentali, con il neutrone e il neutrino e con
innumerevoli esperimenti fatti usando acceleratori di particelle.
Le più importanti sintesi teoriche della fisica del sec. XX, cioè le teorie
della relatività e della meccanica quantistica, erano associate soltanto
indirettamente alle ricerche sperimentali della maggior parte dei fisici. Albert
Einstein e Wolfgang Pauli, per esempio, ritenevano
che l'esperimento dovesse essere l'arbitro finale di una teoria, ma che le
teorie stesse fossero molto più ricche di immaginazione di qualsiasi insieme di
induzioni ricavate da dati sperimentali. Durante il primo terzo di secolo,
divenne chiaro che le nuove idee della fisica richiedevano che i fisici
riesaminassero i fondamenti filosofici del loro lavoro. Per questa ragione, i
fisici divennero noti al pubblico come bramini intellettuali che indagavano
sugli oscuri misteri dell'universo. L'entusiasmo per la riorganizzazione delle
conoscenze fisiche durò per tutti gli anni Venti. Questa decade vide la
formulazione della meccanica quantistica e una nuova epistemologia
indeterministica da parte di Pauli, Werner Karl
Heisenberg, Max Born, Erwin
Schrödinger e Paul Dirac.
Nella prima parte del sec. XX, nei circoli universitari, dove gli schemi
giornalieri di attività erano stati fissati fin dall'ultimo ventennio del
secolo precedente, la visione dell'universo dipendeva principalmente dagli studi
fatti nell'Europa di lingua tedesca. Nel periodo fra le due guerre i più
importanti progetti di ricerca in fisica fiorirono in ambienti non europei, come
gli Stati Uniti, il Giappone, l'India e l'Argentina. Nuovi schemi di attività,
annunciati nel mondo precedente al 1914, alla fine si cristallizzarono. La
ricerca fisica, come quella di Clinton Davisson,
venne sostenuta in misura notevole dalle industrie che usavano l'ottica e
l'elettricità. Il National Research Council e fondazioni private negli
Stati Uniti e in particolare i Rockefeller, finanziarono esperimenti costosi e
di lunga durata. I governi europei incoraggiarono speciali stabilimenti di
ricerca, compresi gli istituti Kaiser Wilhelm e l'Osservatorio Einstein a
Potsdam. La cosiddetta grande fisica emerse negli anni Trenta. Un gran numero di
fisici lavorò ad apparecchi complicati, in laboratori speciali affiliati
indirettamente con le università. Una delle conseguenze più significative di
questa nuova sistemazione istituzionale fu che per i fisici divenne sempre più
difficile imitare scienziati come Enrico Fermi, che
aveva padroneggiato sia il lato teorico che quello sperimentale della sua
materia. Seguendo i modelli suggeriti dalle carriere di J.
Robert Oppenheimer e Luis Walter Alvarez,
il fisico di successo diventò un manager che passava la maggior parte del suo
tempo a convincere persone senza cultura scientifica a finanziare arcani
progetti di ricerca.
Il grande rispetto di cui godevano i fisici negli anni Cinquanta, quando gli
Stati Uniti e l'Unione Sovietica si dedicavano a estese ricerche sulle armi
termonucleari e lanciavano satelliti artificiali, è andato diminuendo negli
ultimi anni. In parte questo nuovo sviluppo è il risultato di un continuo
sorgere di nuove specialità; l'elettronica applicata, per esempio, fino a poco
fa parte del regno dei fisici, è ormai diventata un campo di studio
indipendente; nello stesso modo la chimica-fisica, la geofisica e l'astrofisica
si divisero dalla disciplina madre attorno al 1900. Tuttavia, mentre la fisica
ha ristretto il suo campo fenomenologico, fisici come Richard
Phillips Feynman sono arrivati a enfatizzare il valore estetico della loro
ricerca, più che le sue applicazioni.
In tempi recenti la fisica ha partecipato a fondamentali scoperte
interdisciplinari nei campi della biofisica, della fisica dello stato solido e
dell'astrofisica. L'identificazione della struttura a doppia elica del DNA, la
sintesi di complesse molecole di proteine e lo sviluppo dell'ingegneria genetica
poggiano tutte sui progressi delle tecniche spettroscopiche e microscopiche. La
tecnologia dei semiconduttori, alla base della rivoluzione informatica, si giova
di iniziali esperienze di fisica dello stato solido. Osservazioni fondamentali
sulla struttura dell'universo a livello macroscopico sono dipese da
corrispondenze segnalate in precedenza da fisici teorici. Queste interazioni tra
branche diverse hanno avuto, del resto, effetti positivi sulla fisica stessa,
permettendo una migliore comprensione di leggi fisiche fondamentali, da quelle
che governano le particelle elementari a quelle dei processi termodinamici
irreversibili.
Copyright © 2002 Motta Editore |