Storia della fisica

Lo sviluppo della fisica non solo ha prodotto mutamenti fondamentali nella concezione del mondo materiale, ma ha anche portato a una grande trasformazione della società per mezzo delle scoperte di laboratorio, rese possibili dai progressi della tecnologia. Qui la fisica sarà considerata sia come l'insieme delle conoscenze, sia come l'insieme dei metodi per realizzarle e trasmetterle. 

La fisica acquistò la sua forma classica tra la fine del Rinascimento e la fine del sec. XIX; l'anno 1900 è considerato il punto di separazione tra la fisica classica e quella moderna.

METODI DELLA FISICA

Secondo la tradizione aristotelica, la fisica significava lo studio della natura in generale; era uno studio letterario e qualitativo e anche onnicomprensivo; non proponeva esperimenti e non utilizzava la matematica. L'ottica geometrica, la meccanica e l'idrostatica appartenevano alla matematica applicata. I concetti aristotelici sulla sfera d'azione della fisica prevalsero, nelle università, fino al sec. XVIII. Nel frattempo, al di fuori delle scuole, si sviluppò un concetto diverso, esemplificato dal De magnete (1600) del medico inglese William Gilbert. Questo libro di Gilbert sul magnetismo fu il primo resoconto di una serie di esperimenti, ripetuti e ricontrollati, in tutta la storia della fisica. Il magnetismo diventò una materia di studio popolare, e non solo per le possibili applicazioni pratiche: infatti poteva anche essere usato nella "magia naturale", cioè nella produzione di effetti sconcertanti per mezzo di meccanismi nascosti. Questa magia si ritrova in grande evidenza nelle accademie e nei musei fondati nel sec. XVII da signori virtuosi e interessati all'insolito. I loro giochi spesso arrivavano all'esperimento, e molte delle loro pratiche, per esempio il lavoro in cooperazione e le dimostrazioni davanti al pubblico, si ritrovarono nelle prime accademie nazionali delle scienze, che furono fondate a Londra e a Parigi nel decennio tra il 1660 e il 1670.
Molti di questi "artisti" spiegavano la loro magia o i loro esperimenti, in base ai principi della nuova filosofia meccanica, di cui i Principia Philosophiae (Principi di filosofia, 1644) di René Descartes furono la principale guida e apologia. I suoi lettori non avevano bisogno di accettare i modelli particolari o la metafisica di Descartes per vedere i vantaggi del suo sistema. Un importante filosofo meccanico, Robert Boyle, spiegò questi vantaggi: in paragone allo schema di Aristotele, il corpuscolarismo rende conto in modo semplice, comprensivo, utile e intelleggibile dei fenomeni fisici, ed è una valida base per ulteriori progressi. Descartes fece notare anche un altro vantaggio: la sua fisica, basata sull'estensione e sul moto, era implicitamente matematica.
Come Galileo Galilei prima di lui, Descartes richiedeva una fisica modellata sulla matematica. Ciascuno dei due riuscì a ottenere piccole parti di tale fisica, ma nessuno di loro riuscì a quantificare un vasto campo di fenomeni. Sir Isaac Newton fu il primo a farlo, nei suoi Principia mathematica philosophiae naturalis (Principi matematici di filosofia naturale, 1687). Il campo di validità dei suoi principi, dai satelliti di Saturno ai pendoli oscillanti sulla Terra, e la precisione dei suoi risultati stupirono i suoi contemporanei. Tuttavia, essi non videro nel capolavoro di Newton il modello per una fisica esatta ed esauriente. Per quanto i Principia fossero un successo come descrizione matematica, furono considerati un fallimento, come fisica, da coloro che credevano nello scopo di Descartes. O si prendeva il principio di gravità, cioè la mutua attrazione fra tutte le particelle dell'universo, come una descrizione matematica, come fece Newton, e perciò non ne otteneva una fisica, oppure si supponeva che i corpi potevano agire a distanza l'uno sull'altro, e in questo caso, secondo i fisici del sec. XVII, si ritornava alle spiegazioni incomprensibili e magiche da cui Descartes aveva salvato la filosofia naturale.
Durante il sec. XVII, i fisici abbandonarono gli scrupoli che avevano preoccupato sia Newton che i suoi avversari riguardo le forze agenti a distanza. Anche se il fisico ignorava tutto sulla vera natura di queste forze, esse erano utili per i calcoli e i ragionamenti; con un po' di pratica, come disse un fisico, le forze si possono "addomesticare". 

Lo strumentalismo cominciò a essere diffuso dopo il 1750, stabilendo il criterio di scegliere le teorie fisiche sulla base, non della loro conformità a principi comprensibili generali e qualitativi, ma per il loro accordo quantitativo con misure di fenomeni isolati.

Istituti di fisica

Durante la prima metà del sec. XVIII, gli esperimenti dimostrativi, da lungo tempo praticati nelle accademie, entrarono nei corsi di fisica universitari. Per ragioni pratiche, la maggior parte di queste dimostrazioni riguardavano la fisica in senso moderno.
Nel frattempo la fisica diventò importante nelle scuole per minatori, ingegneri e artiglieri. La migliore di queste scuole, cioè l'Ecole Polytechnique fondata a Parigi nel 1793, fu presa ad esempio per elevare i curricula sia delle università che delle scuole tecniche. Fra le sue discendenti vi sono le Technische Hochschulen di lingua tedesca, di cui ne esistevano 15 nel 1900.
Durante il sec. XIX, i vecchi cabinets de physique delle vecchie università furono trasformati in istituti di fisica. Questa trasformazione avvenne in due tempi. Dapprima l'università si assunse l'obbligo di far seguire corsi di laboratorio agli studenti dei primi anni. In secondo luogo fornì facilitazioni alla ricerca per gli studenti dei corsi superiori e per i membri della facoltà. Il primo passo ebbe luogo nel 1850 circa; il secondo verso la fine del secolo. Dal 1900 in poi, nei paesi più progrediti nella fisica (Gran Bretagna, Francia, Germania e Stati Uniti), fu accettato il principio che l'istituto di fisica universitario dovesse dare un'istruzione sia teorica che pratica ai futuri maestri della scuola secondaria, ai medici e agli ingegneri, oltre che fornire spazio, strumenti e attrezzature per la ricerca degli studenti di fisica degli anni superiori.
Nel 1900 esistevano in tutto il mondo circa 160 istituti universitari di fisica, con un personale di 1100 fisici. Le spese in percentuale del prodotto nazionale lordo erano circa le stesse nelle quattro nazioni più avanzate. I fisici universitari mantennero una certa pressione sul governo e sui finanziatori privati facendo notare l'aumento della domanda di persone tecnicamente addestrate, da parte dell'industria, del governo e dell'esercito. Questa pressione venne non solo da persone singole ma anche dalle associazioni professionali, una novità caratteristica del sec. XIX. La prima delle associazioni nazionali per il progresso della scienza, in cui i fisici hanno sempre avuto una parte preminente, fu fondata in Germania poco dopo il 1820. A cominciare dal 1845 i fisici fondarono anche associazioni professionali nazionali.
Mentre la fisica prosperava all'esterno, crebbe anche internamente inglobando i rami fisici della matematica applicata. Questa crescita fu però eccessiva. A cominciare dal 1860 circa fu riconosciuta una specialità, la fisica teorica, che trattava i rami più matematici, ponendo l'accento sulle loro interconnessioni e sulla loro unità. Nel 1900 esistevano circa 50 cattedre di fisica teorica, la maggior parte in Germania. Durante lo stesso periodo ebbero origine molti nuovi e importanti campi di studio ai confini fra la fisica, l'astronomia, la biologia, la geologia e la chimica.

Contenuto e scopo della fisica

L'unificazione a cui si riferivano i fisici teorici era la riduzione di tutti i fenomeni naturali a fatti meccanici. Gli scopi della fisica della fine del sec. XVIII, cioè di ridurre i fenomeni fisici a forze trasportate da sostanze speciali, come i fluidi elettrici, nel 1850 circa dettero luogo a una revisione del corpuscolarismo. La nuova dottrina della conservazione dell'energia e della interconvertibilità delle forze, faceva pensare che tutte le trasformazioni fisiche si sarebbero potute far derivare da una base comune. I fisici considerarono come fondamentali i concetti della meccanica, per le stesse ragioni espresse da Boyle, e si sforzarono di spiegare i fenomeni della luce, del calore, dell'elettricità e del magnetismo in termini di sforzi e deformazioni di un ipotetico etere, che si supponeva operasse come un meccanismo.
Questo programma aveva come fine remoto un modello come l'atomo a vortice, che permetteva di costruire la materia a partire da minuscoli vortici permanenti nello stesso etere, che mediava le interazioni elettromagnetiche e che propagava la luce. Il presidente della società di fisica francese probabilmente aveva in mente l'atomo a vortice quando aprì il Congresso internazionale di fisica del 1900 con le parole: "Lo spirito di Cartesio aleggia sulla fisica moderna, o meglio ne è il suo faro".

SVILUPPO DEI RAMI PRINCIPALI DELLA FISICA

I rami principali della fisica classica sono la meccanica, l'elettricità e il magnetismo, la luce, il calore e la termodinamica.

Meccanica

Il primo ramo della fisica che fu possibile descrivere matematicamente è stato la meccanica. Benché gli antichi avessero quantificato alcuni problemi riguardanti la bilancia e l'idrostatica, e i filosofi medievali avessero discusso possibili descrizioni matematiche della caduta libera, solo all'inizio del sec. XVII il desiderio di quantificazione fu messo a confronto con i principi accettati della fisica. Lo sfidante principale fu Galileo Galilei che iniziò con una spiegazione medievale del moto, la cosiddetta teoria dell'impeto, e finì per rinunciare a una dinamica esplicita. Per lui era sufficiente che, come primo passo, il fisico descrivesse quantitativamente come gli oggetti cadono e come i proiettili volano. Il metodo cinematico di Galilei non soddisfaceva Descartes, che insisteva sul fatto che il fisico deve basarsi su principi ricavati dalla conoscenza della natura dei corpi. Descartes fornì questa conoscenza come leggi del moto, quasi tutte scorrette ma comprendenti un solido enunciato sul principio dell'inerzia rettilinea, che doveva diventare il primo assioma del moto di Newton. Un altro principio cartesiano importante per Newton era l'universalizzazione della meccanica. Nella fisica aristotelica, i cieli sono fatti di materiali che non si trovano sulla Terra. I progressi dell'astronomia avevano già minato questa distinzione di Aristotele, e Newton, come Descartes, unificò esplicitamente la meccanica celeste e terrestre.
Nel sistema di Descartes i corpi interagiscono solo per spinta, e lo spazio vuoto di corpi è una contraddizione in termini.
Perciò, nel moto di qualsiasi oggetto si deve generare un vortice che ne coinvolge altri. I pianeti vengono trasportati da uno di tali vortici; un altro trasporta la Luna, crea le maree e provoca la caduta dei corpi; un altro ancora media l'interazione degli oggetti sulla superficie della Terra o vicino ad essa. Newton cercò di costruire una meccanica celeste quantitativa basata sui vortici, ma non riuscì; il libro secondo dei Principia riporta la sua dimostrazione che quei vortici che ubbidiscono agli assiomi meccanici validi per la materia terrestre non possono trasportare i pianeti secondo le leggi di Keplero. Proponendo la gravitazione universale, invece, Newton riuscì a derivare le leggi di Keplero e a legare fra loro i moti planetari, le maree e la precessione degli equinozi. In uno dei passi essenziali della sua trattazione, Newton ha usato la regola di Galilei sulla distanza percorsa sotto accelerazione costante. Egli ritenne anche necessario assumere l'esistenza di uno "spazio assoluto", cioè di un sistema di riferimento privilegiato rispetto a cui si potessero definire le accelerazioni.
Dopo essere stati messi in una forma analitica definitiva da Leonardo Eulero, gli assiomi del moto di Newton furono rielaborati da Joseph Louis de Lagrange, William Rowan Hamilton, da Carl Gustav Jacobi e trasformati in metodi molto potenti e generali che impiegano nuove quantità analitiche, come i potenziali, collegati alle forze ma lontani dall'esperienza immediata. Nonostante questi trionfi, alcuni fisici mantennero comunque molte riserve riguardo al concetto di forza. Vari schemi per farne a meno furono proposti, in particolare da Joseph Johan Thomson e Heinrich Hertz, ma senza che ne risultasse niente di utile.

Elettricità e magnetismo

Con la sua apparente azione a distanza, il magnetismo sfidò l'ingegnosità dei filosofi corpuscolari. Descartes spiegò che il vortice terrestre, che trasportava la Luna, conteneva particelle di forma tale da poter passare facilmente attraverso i pori filiformi che definiscono la struttura interna dei magneti e della Terra. Queste particelle speciali si accumulano in vortici attorno ai magneti e vicino alla Terra, orientano gli aghi delle bussole e trasportano l'attrazione e la repulsione magnetica. Questa rappresentazione pittoresca dominò le teorie continentali sul magnetismo fino al 1750. Nel frattempo i discepoli di Newton cercarono di trovare una legge della forza magnetica analoga alla legge di gravità. Essi fallirono perché non seguirono il metodo di Newton di integrare ipotetiche forze microscopiche per ottenere un'accelerazione macroscopica. Nel 1785 Charles A. Coulomb dimostrò le leggi della forza magnetica fra elementi di un supposto fluido magnetico. Egli fu facilitato da una maggior pratica sull'uso delle forze, da una più sviluppata comprensione dei procedimenti di Newton e da una tecnica di costruire magneti artificiali con poli ben definiti.
Gilbert definì e delimitò lo studio dell'elettricità come risultato dei suoi tentativi di distinguere l'attrazione elettrica da quella magnetica. L'elettricità fece progressi saltuari fino a quando, nel 1706, Francis Hauksbee introdusse un generatore nuovo e più potente, cioè il tubo di vetro. Con questo strumento Stephen Gray e C.F. Dufay scoprirono la conduzione elettrica e le regole dell'elettrificazione vetrosa e resinosa. Negli anni dopo il 1740, l'elettricità cominciò ad attrarre una maggiore attenzione a causa delle invenzioni della macchina elettrostatica, e della bottiglia di Leida e della loro applicazione a giochi di salotto. La dimostrazione nel 1751 che il fulmine era un gioco elettrico della natura, aumentò ulteriormente la reputazione dell'elettricità. Fino al 1750 i fisici accettarono una teoria dell'elettricità poco differente da quella di Gilbert: lo strofinamento dei corpi elettrici li obbliga a emettere un etere, o materia elettrica, che causa l'attrazione e la repulsione, sia direttamente sia facendo intervenire l'aria. Questa teoria confondeva i ruoli delle cariche e dei loro campi. L'invenzione della bottiglia di Leida (1745) contribuì a chiarire le cose; ma fu solo la teoria di Benjamin Franklin dell'elettricità positiva e negativa, sviluppata probabilmente senza riferirsi alla bottiglia di Leida, che risolse la questione. Franklin asserì che l'accumulo di materia elettrica all'interno della bottiglia di Leida (la carica positiva) agiva a distanza attraverso il fondo della bottiglia per espellere verso terra altra materia elettrica, producendo così la carica elettrica negativa. In questo modo entrarono nella teoria dell'elettricità le forze a distanza.
La loro azione fu quantificata da F.U.T. Aepinus (1759), da Henry Cavendish (1771) e da Coulomb, il quale nel 1785 dimostrò che la forza tra gli elementi delle ipotetiche materie, o fluidi elettrici, diminuiva col quadrato della distanza. Molti fisici tuttavia preferirono la teoria introdotta da Robert Symmer nel 1759, che sostituiva l'elettricità negativa di Franklin (assenza di materia elettrica) con l'esistenza di un secondo fluido elettrico. Dato che la forza elettrica elementare seguiva la stessa legge della gravitazione, la matematica della teoria del potenziale era già pronta per essere utilizzata dai teorici dell'elettricità. La quantificazione dell'elettrostatica fu portata a termine ai primi del sec. XIX, principalmente ad opera di Siméon Denis Poisson.
Nel 1800 Alessandro Volta annunciò l'invenzione di un generatore continuo di elettricità, cioè una "pila" di dischi di rame, di zinco e di cartone umido. Questa invenzione, la prima batteria, aprì due nuovi campi di studio molto estesi: l'elettrochimica, di cui i primi risultati notevoli furono l'isolamento dei metalli alcalini da parte di Humphry Davy, e l'elettromagnetismo, basato sulla soluzione delle questioni aperte da Gilbert nel 1600.
La scoperta nel 1820 da parte di Hans Christian Oersted che i fili congiungenti i poli di una cella voltaica potevano esercitare una forza su un ago magnetico, fu seguita nel 1831 dalla scoperta di Michael Faraday che un magnete può far scorrere la corrente in una spira chiusa di filo metallico. Il fatto che la forza elettromagnetica dipende dal moto, e che non è diretta lungo la linea che congiunge gli elementi di corrente, rese difficile portare le nuove scoperte entro gli schemi delle forze a distanza. Alcuni fisici del continente, per primo André Marie Ampère, poi Wilhelm Eduard Weber e Rudolf Clausius e quindi altri, ammisero l'esistenza di forze dipendenti dalle velocità e relative accelerazioni.
La speranza che le interazioni elettriche e magnetiche potessero essere chiarite senza far ricorso a forze agenti su distanze macroscopiche, persistette anche dopo i lavori di Coulomb. Secondo questa tradizione Faraday considerava che il mezzo situato tra i corpi interagenti elettricamente, fosse la sede delle forze elettromagnetiche. La sua teoria rimase oscura a tutti fuorché a lui stesso, finché William Thomson (lord Kelvin) e James Clerk Maxwell non espressero le sue intuizioni nel linguaggio matematico di Cambridge: ne risultò la sintesi fra elettricità, magnetismo e luce ad opera di Maxwell. Molti fisici inglesi e, dopo la rivelazione di Heinrich Hertz delle onde elettromagnetiche avvenuta nel 1887, vari altri del continente, cercarono di inventare un etere obbediente alle normali leggi della meccanica e le cui deformazioni e tensioni potessero render conto dei fenomeni trattati dalle equazioni di Maxwell (v. Maxwell, equazioni di).
Negli anni dopo il 1890 Hendrik Antoon Lorentz riuscì a trovare un buon compromesso. Dagli inglesi egli prese l'idea di un etere, o campo, attraverso cui si propagano i disturbi elettromagnetici. Dalla teoria dei fisici del continente prese il concetto di cariche elettriche, di cui fece le sorgenti del campo. Egli rifiutò il presupposto che il campo debba essere trattato come un sistema meccanico e che ad esso si dovessero assegnare tutte le proprietà necessarie per render conto dei fenomeni. Per esempio, per spiegare il risultato dell'esperimento di Michelson Morley, Lorentz suppose che gli oggetti in moto attraverso l'etere si contraggano lungo la direzione del moto. Fra le proprietà non analizzate e forse non analizzabili dell'etere c'è la sua capacità di accorciare i corpi che si muovono attraverso di esso.
Nel 1896 e 1897 la teoria di Lorentz ricevette una conferma dall'effetto Zeeman, che confermò la presenza di cariche elettriche negli atomi neutri, e dall'isolamento dell'elettrone, che si poteva identificare come la sorgente del campo. L'elettrone unì insieme molte parti della fisica del sec. XIX e suggerì che le caratteristiche della materia stessa, compresa la sua inerzia, potevano essere dovute a gocce di fluido elettrico in moto. Ma l'elettrone non salvò l'etere. I continui fallimenti nel cercare gli effetti dovuti al moto attraverso di esso e, soprattutto, certe asimmetrie nell'elettrodinamica dei corpi in moto, indussero Albert Einstein a rifiutare l'etere e, con esso, gli ultimi resti dello spazio assoluto di Newton.

La luce

Durante il sec. XVII lo studio dell'ottica era strettamente associato a problemi astronomici, come la correzione delle osservazioni per la rifrazione atmosferica e il miglioramento dei progetti di telescopi. Keplero ottenne una buona approssimazione della rifrazione e spiegò la geometria dell'occhio, il funzionamento delle lenti e l'inversione dell'immagine. Descartes calcolò la forma migliore per le lenti dei telescopi e trovò, o riferì, la legge di rifrazione formulata per primo da Willebrord Snell nel 1621. Cercando di correggere l'aberrazione cromatica dei telescopi, Newton scoprì che raggi di colori differenti sono deviati dal prisma di quantità differenti, ma caratteristiche. Questa scoperta rivoluzionò la fisica della luce.
La teoria tradizionale considerava la luce bianca come omogenea e i colori come impurità o modificazioni. Newton dedusse dalla sua scoperta che i colori sono fondamentali e omogenei, e li descrisse come formati da particelle. Questo modello era anche in conflitto con quello ordinario. Per esempio, Christiaan Huygens, a cui non interessavano i colori, dette una bella spiegazione della propagazione della luce, compresa una spiegazione della birifrangenza, supponendo che la luce consiste di onde longitudinali in un mezzo diffuso.
Newton aveva bisogno anche di un etere ottico per spiegare i fenomeni attualmente chiamati interferenza fra onde di luce. L'emissione delle particelle pone in vibrazione l'etere e le vibrazioni impongono proprietà periodiche alle particelle. Benché molti fisici del sec. XVIII preferissero una teoria ondulatoria nello stile di Huygens, nessuno riuscì a inventarne una paragonabile a quella di Newton. Nell'ottica i progressi avvennero principalmente in campi che Newton non aveva esaminato, come la fotometria, e nella correzione dell'aberrazione cromatica delle lenti che egli aveva creduto impossibile.
Nei primi anni del sec. XIX Thomas Young, che aveva studiato accuratamente l'opera di Newton e che era esperto di teoria delle vibrazioni, mostrò come si doveva quantificare la teoria di Huygens. Young riuscì a spiegare certi casi di interferenza e Augustin Jean Fresnel ben presto costruì un'approfondita teoria analitica basata sul principio di superposizione di Young. Le particelle di luce di Newton, che si combinavano bene con i fluidi speciali ipotizzati nelle teorie del calore e dell'elettricità, trovarono difensori vigorosi che ponevano l'accento sul problema della polarizzazione. Nella teoria di Newton la polarizzazione poteva essere introdotta attribuendo proprietà differenti ai differenti "lati" delle particelle, mentre le onde di Young si potevano caratterizzare soltanto per l'ampiezza (collegata all'intensità), per il periodo (colore), per la fase (interferenza) e per la velocità (rifrazione). Nel 1820 circa, Young e Fresnel trovarono indipendentemente il grado di libertà mancante, facendo l'ipotesi che le perturbazioni delle onde di luce agiscono ad angolo retto rispetto alla loro direzione di moto; gli effetti della polarizzazione sono dovuti all'orientamento delle perturbazioni rispetto all'asse ottico del corpo polarizzante.
Ipotizzando che le vibrazioni della luce siano trasversali, i teorici ondulatori poterono descrivere semplicemente ed esattamente una gran varietà di fenomeni. Tuttavia rimaneva la difficoltà di sviluppare un modello dell'"etere luminifero", le cui vibrazioni essi supponevano costituissero la luce. Furono proposti molti modelli in cui l'etere assomigliava a un solido elastico: nessuno ebbe successo. Dopo che Maxwell ebbe collegato luce ed elettromagnetismo, i compiti dell'etere divennero sempre più difficili e ambigui, finché Lorentz e Einstein, in modi differenti, lo sottrassero alla sua sudditanza dalla meccanica.

Calore e termodinamica

Nella fisica aristotelica il calore era associato alla presenza di una qualità non meccanica, trasportata dall'elemento fuoco. I filosofi crepuscolari respinsero in tutto o in parte questa rappresentazione; concordavano sul fatto che il calore si originasse dal moto rapido delle parti dei corpi ma erano divisi sull'esistenza di uno speciale elemento fuoco. La prima teoria dopo Aristotele a ottenere un ampio consenso fu sviluppata da Herman Boerhaave durante la seconda decade del sec. XVIII; incorporava una peculiare, onnipresente ed espansiva "materia di fuoco", l'agitazione della quale causava il calore e la fiamma.
I fisici esaminarono le proprietà di questo fuoco con l'aiuto dei termometri, che furono grandemente migliorati durante il sec. XVIII. Con i termometri Fahrenheit, G.W. Richmann, negli anni 1747-48, ricavò la formula calorimetrica delle mescolanze, che esprime come il fuoco di corpi differenti a temperature differenti raggiunge l'equilibrio a una temperatura intermedia se i corpi vengono messi in contatto. Studiando le discrepanze fra i valori sperimentali e i risultati previsti dalla formula di Richmann, Joseph Black e J.C. Wilcke scoprirono indipendentemente i fenomeni che li condussero ai concetti di calore latente e di calore specifico. Nel 1790 circa, i fisici cominciarono a considerare le conseguenze analitiche dell'ipotesi che fosse conservata la base materiale del calore, che essi chiamarono calorico. La teoria del calorico dette una spiegazione quantitativa soddisfacente delle trasformazioni adiabatiche nei gas, inclusa la propagazione del suono, che i fisici avevano cercato invano di capire in base ai soli principi meccanici. Un'altra teoria matematica del calorico fu, nel 1824, l'analisi di Sadi Carnot sull'efficienza di un motore termico ideale e reversibile, e che sembrava basarsi sull'ipotesi di un calore materiale conservato.
Nel 1822 Joseph Fourier pubblicò la sua teoria della conduzione del calore, sviluppata usando le serie trigonometriche che portano il suo nome (v. Fourier, analisi di), e senza specificare la natura del calore. Egli perciò sfuggì agli attacchi sulla teoria del calorico da parte di quelli che sostenevano gli argomenti del conte Benjamin Rumford. Dalle alte temperature delle canne di cannone durante la rettifica, Rumford aveva dedotto che il calore viene creato dalla frizione e perciò non può essere una sostanza conservata (v. conservazione, leggi di). Le sue argomentazioni qualitative non potevano avere la meglio sulla teoria del calorico, ma dettero origine a dubbi, fra gli altri in Carnot stesso.
Durante la fine del sec. XVIII i fisici avevano speculato sulle correlazioni fra i vari fluidi che essi associavano alla luce, al calore e all'elettricità. Quando la teoria ondulatoria indicò che la luce e il calore radiante erano costituiti da movimento invece che da una sostanza, la teoria del calorico ne fu scossa. Gli esperimenti di James Prescott Joule, negli anni dopo il 1840, mostrarono che una corrente elettrica poteva produrre sia calore sia, per mezzo di un motore elettrico, lavoro meccanico; ne concluse che il calore, come la luce, era uno stato di moto e riuscì a misurare il calore generato dal lavoro meccanico. Joule ebbe difficoltà a farsi ascoltare, dato che i suoi esperimenti erano molto delicati e i suoi risultati sembravano minacciare quelli di Carnot.
Poco dopo il 1850 la disputa fu risolta indipendentemente da Kelvin e da Clausius, che si resero conto che erano stati confusi due principi distinti. Joule asserì correttamente che il calore poteva essere creato e distrutto, e sempre nella stessa proporzione rispetto alla quantità di forza (o, per usare un nuovo termine, "energia") meccanica, elettrica o chimica consumata o prodotta. Questa asserzione è la prima legge della termodinamica, cioè la legge di conservazione dell'energia. Tuttavia valgono anche i risultati di Carnot: essi non si basano sulla conservazione del calore ma sull'entropia, il rapporto tra il calore e la temperatura a cui viene scambiato. La seconda legge della termodinamica stabilisce che in tutte le trasformazioni naturali, l'entropia o rimane costante o aumenta.
Incoraggiati dai ragionamenti di Hermann Helmoltz e di altri, i fisici presero per fondamentale l'energia meccanica, cioè la forma di energia che era loro più familiare, e cercarono di rappresentare le altre forme per mezzo di essa.
Maxwell e Ludwig Boltzmann posero le fondamenta di un nuovo ramo della fisica, la teoria meccanica del calore, che per la prima volta includeva considerazioni statistiche come parte integrale dell'analisi fisica. Dopo un notevole successo iniziale, la teoria crollò sulla rappresentazione meccanica dell'entropia. L'apparente contrasto delle equazioni della meccanica (che non hanno una direzione del tempo) e le richieste della seconda legge (che proibisce all'entropia di decrescere nel futuro) indussero alcuni fisici a dubitare che si potesse mai ottenere una rappresentazione meccanica del calore. Poco dopo il 1890, un piccolo gruppo radicale condotto dal chimico-fisico Wilhelm Ostwald arrivò a proporre di rifiutare tutti i modelli meccanici, compreso il concetto di atomo.
Benché il programma dell'energetica di Ostwald avesse pochi seguaci e cadesse in poco tempo, l'attacco ai modelli meccanici si dimostrò premonitore. Altri lavori attorno al 1900, cioè le scoperte dei raggi X e della radioattività e lo sviluppo della teoria quantistica e della teoria della relatività, alla fine obbligarono in linea di principio, anche se non in pratica, i fisici a non fare più affidamento sulla chiara rappresentazione nello spazio e nel tempo su cui era stata costruita la fisica classica.

LA FISICA MODERNA

Verso il 1900 era andata definitivamente in frantumi l'immagine dell'universo fisico come insieme di parti meccaniche. Nella decade precedente lo scoppio della prima guerra mondiale apparvero nuovi fenomeni sperimentali. Le prime scoperte della radioattività e dei raggi X furono fatte da Antoine Henri Becquerel e da Wilhelm Conrand Roentgen. Questi nuovi fenomeni furono studiati estesamente, ma soltanto con la prima teoria atomica di Niels Bohr, nel 1913, emerse una teoria generale della generazione dei raggi X. Il decadimento radioattivo venne gradualmente spiegato col sorgere della meccanica quantistica, con la scoperta di nuove particelle fondamentali, con il neutrone e il neutrino e con innumerevoli esperimenti fatti usando acceleratori di particelle.
Le più importanti sintesi teoriche della fisica del sec. XX, cioè le teorie della relatività e della meccanica quantistica, erano associate soltanto indirettamente alle ricerche sperimentali della maggior parte dei fisici. Albert Einstein e Wolfgang Pauli, per esempio, ritenevano che l'esperimento dovesse essere l'arbitro finale di una teoria, ma che le teorie stesse fossero molto più ricche di immaginazione di qualsiasi insieme di induzioni ricavate da dati sperimentali. Durante il primo terzo di secolo, divenne chiaro che le nuove idee della fisica richiedevano che i fisici riesaminassero i fondamenti filosofici del loro lavoro. Per questa ragione, i fisici divennero noti al pubblico come bramini intellettuali che indagavano sugli oscuri misteri dell'universo. L'entusiasmo per la riorganizzazione delle conoscenze fisiche durò per tutti gli anni Venti. Questa decade vide la formulazione della meccanica quantistica e una nuova epistemologia indeterministica da parte di Pauli, Werner Karl Heisenberg, Max Born, Erwin Schrödinger e Paul Dirac.
Nella prima parte del sec. XX, nei circoli universitari, dove gli schemi giornalieri di attività erano stati fissati fin dall'ultimo ventennio del secolo precedente, la visione dell'universo dipendeva principalmente dagli studi fatti nell'Europa di lingua tedesca. Nel periodo fra le due guerre i più importanti progetti di ricerca in fisica fiorirono in ambienti non europei, come gli Stati Uniti, il Giappone, l'India e l'Argentina. Nuovi schemi di attività, annunciati nel mondo precedente al 1914, alla fine si cristallizzarono. La ricerca fisica, come quella di Clinton Davisson, venne sostenuta in misura notevole dalle industrie che usavano l'ottica e l'elettricità. Il National Research Council e fondazioni private negli Stati Uniti e in particolare i Rockefeller, finanziarono esperimenti costosi e di lunga durata. I governi europei incoraggiarono speciali stabilimenti di ricerca, compresi gli istituti Kaiser Wilhelm e l'Osservatorio Einstein a Potsdam. La cosiddetta grande fisica emerse negli anni Trenta. Un gran numero di fisici lavorò ad apparecchi complicati, in laboratori speciali affiliati indirettamente con le università. Una delle conseguenze più significative di questa nuova sistemazione istituzionale fu che per i fisici divenne sempre più difficile imitare scienziati come Enrico Fermi, che aveva padroneggiato sia il lato teorico che quello sperimentale della sua materia. Seguendo i modelli suggeriti dalle carriere di J. Robert Oppenheimer e Luis Walter Alvarez, il fisico di successo diventò un manager che passava la maggior parte del suo tempo a convincere persone senza cultura scientifica a finanziare arcani progetti di ricerca.
Il grande rispetto di cui godevano i fisici negli anni Cinquanta, quando gli Stati Uniti e l'Unione Sovietica si dedicavano a estese ricerche sulle armi termonucleari e lanciavano satelliti artificiali, è andato diminuendo negli ultimi anni. In parte questo nuovo sviluppo è il risultato di un continuo sorgere di nuove specialità; l'elettronica applicata, per esempio, fino a poco fa parte del regno dei fisici, è ormai diventata un campo di studio indipendente; nello stesso modo la chimica-fisica, la geofisica e l'astrofisica si divisero dalla disciplina madre attorno al 1900. Tuttavia, mentre la fisica ha ristretto il suo campo fenomenologico, fisici come Richard Phillips Feynman sono arrivati a enfatizzare il valore estetico della loro ricerca, più che le sue applicazioni.
In tempi recenti la fisica ha partecipato a fondamentali scoperte interdisciplinari nei campi della biofisica, della fisica dello stato solido e dell'astrofisica. L'identificazione della struttura a doppia elica del DNA, la sintesi di complesse molecole di proteine e lo sviluppo dell'ingegneria genetica poggiano tutte sui progressi delle tecniche spettroscopiche e microscopiche. La tecnologia dei semiconduttori, alla base della rivoluzione informatica, si giova di iniziali esperienze di fisica dello stato solido. Osservazioni fondamentali sulla struttura dell'universo a livello macroscopico sono dipese da corrispondenze segnalate in precedenza da fisici teorici. Queste interazioni tra branche diverse hanno avuto, del resto, effetti positivi sulla fisica stessa, permettendo una migliore comprensione di leggi fisiche fondamentali, da quelle che governano le particelle elementari a quelle dei processi termodinamici irreversibili.

Copyright © 2002 Motta Editore

Questa pagina è stata realizzata da Vittorio Villasmunta

Ultimo aggiornamento: 29/11/14