LA TEORIA QUANTISTICA
di Tiziano Cantalupi
"… quelli che non sono rimasti scioccati quando si sono
imbattuti per la prima volta nella teoria quantistica non
possono averla capita …" [1]
Niels Bohr
1 Preambolo
La teoria quantistica, o meccanica quantistica (o fisica quantistica) è una disciplina scientifica nata per spiegare la struttura fine della materia. Essa pur risultando, assieme alla teoria della Relatività, il paradigma scientifico di riferimento del XX secolo, non è mai riuscita a superare in modo significativo la ristretta cerchia degli addetti ai lavori. Questo fatto risulta tanto più sorprendente se si pensa che le più rilevanti innovazioni tecnologiche, le più importanti teorie scientifiche che si occupano dell'indefinitamente piccolo o dell'infinitamente grande si basano su effetti squisitamente quantistici. Tali effetti riguardano l'energia atomica (e purtroppo anche le armi nucleari), la moderna microelettronica (sfruttata nei Computer "classici" e quantistici), gli orologi digitali, i laser, i sistemi superconduttori, le celle fotoelettriche, le apparecchiature per la diagnostica e la cura medica e tante altre applicazioni che riguardano i settori scientifico-tecnologici più disparati.
La ragione che sta alla base dell’isolamento che la fisica quantistica si trova a vivere nei confronti del panorama scientifico-culturale va innanzitutto ricercata nella estrema complessità concettuale dei suoi assunti fondamentali, nonché nella difficoltà del suo formalismo matematico, che ne fanno una materia ostica persino per gli stessi fisici. E’ noto infatti come l'esame universitario di Meccanica Quantistica risulti essere uno degli ostacoli più duri da superare per qualsiasi studente del Corso di Laurea in Fisica.
Si è posto dunque l'accento sulla complessità concettuale della teoria quantistica. A dire il vero più che di complessità concettuale bisognerebbe parlare di difficoltà nell'accettare certi sui controintuitivi postulati. Questa sensazione di disagio nell'accogliere determinati assunti quantistici era paradossalmente avvertita anche dagli stessi padri fondatori del paradigma quantistico (i cosiddetti esponenti della scuola di Copenaghen): Max Born, Niels Bohr, Werner Heisenberg, Wolfgang Pauli, Pascual Jordan1. L'ideatore del principio di Indeterminazione, Heisenberg, al riguardo così si esprimeva [2] :
"Ricordo delle discussioni con Bohr che si prolungavano per molte ore fino a notte piena e che ci conducevano quasi ad uno stato di disperazione; e quando al termine della discussione me ne andavo solo a fare una passeggiata nel parco vicino continuavo sempre a ripropormi il problema: è possibile che la natura sia così assurda come ci appare in questi esperimenti atomici [in questi esperimenti di fisica quantistica] ? "
1
Max Born. Fisico di origine polacca (Breslavia 1882 - Gottinga 1970). Per l'interpretazione probabilistica della "funzione d'onda", nel 1954 ricevette il premio Nobel.Niels Bohr. Fisico danese (Copenaghen 1885 - 1962). Nel 1922, per la formulazione del suo modello di atomo e della radiazione da esso emessa, vinse il premio Nobel.
Werner Heisenberg. Fisico tedesco (Wüzburg 1901 - Monaco 1976). Per la formulazione del Principio di Indeterminazione nel 1932 (a soli 31 anni) ricevette il premio Nobel.
Wolfgang Pauli. Fisico austriaco (Vienna 1900 - Zurigo 1958). Per la scoperta del Principio di Esclusione che porta il suo nome, nel 1945 vinse il premio Nobel.
Pascual Jordan. Fisico e matematico tedesco (Hannover 1902 - Amburgo 1980). Le sue ricerche contribuirono in modo decisivo a fare della meccanica quantistica una struttura formale rigorosa dalla quale era possibile trarre delle predizioni esatte così da poter essere verificate negli esperimenti.
1.1 Fondamenti della meccanica quantistica:
-
Non esiste una realtà definita della materia, ma una realtà oggettivamente indistinta, fatta di stati sovrapposti.- Le dinamiche fondamentali del micromondo sono caratterizzate dalla acausalità e dalla "non netta" separazione tra sperimentatore, apparato di misura e oggetto osservato.
- E’ possibile che, in determinate condizioni, ciò che avviene in un dato luogo possa avere un corrispettivo istantaneo in un luogo ad esso distante.
- Materia ed energia possono (per tempi brevissimi) scaturire dal "nulla".
L'elenco appena fatto degli assunti fondamentali della meccanica quantistica ci fa capire quanto sia risultato (e risulti) difficile non solo accettare, ma anche spiegare, i fondamenti di questa teoria, senza correre il rischio di non essere compresi, oppure, peggio ancora, di essere fraintesi. Il linguaggio a disposizione dei fisici o di chiunque altro addetto ai lavori cerchi di esprimere concetti come l'acausalità o la sovrapposizione degli stati, risulta molto spesso inadeguato. Le parole che le lingue ci mettono a disposizione per comunicare determinati concetti, determinate esperienze (o organizzare un coerente scenario gnoseologico), sono spesso inadatte, anche perché le parole sono state concepite per descrivere e rappresentare la realtà ordinaria, ma la meccanica quantistica ha ben poco di ordinario. Questo aspetto della "descrivibilità" dei fenomeni quantistici è ben espresso in una frase scritta da Max Born [3] :
"L’origine ultima delle difficoltà risiede nel fatto (o nel principio filosofico) che siamo costretti a usare parole del linguaggio comune quando vogliamo descrivere un fenomeno [quantistico] Il linguaggio comune è cresciuto con l’esperienza quotidiana e non potrà mai oltrepassare certi limiti ..."
1.2 La fisica classica
La presente Sezione è dedicata alla visione classica della scienza, è dedicata alla fisica che precedette l’avvento della meccanica dei quanti.
Nei tempi antichi gli uomini che incominciavano ad interrogarsi sulle dinamiche degli eventi naturali che accadevano intorno a loro, ricevettero un’immagine molto "sfuggente" dal mondo che li circondava. Essi si rendevano conto che alcuni eventi erano regolari e prevedibili; l’alternarsi del giorno e della notte, il ciclo delle stagioni, le fasi dei corpi celesti, mentre altri erano occasionali e apparivano in modo irregolare, come gli eventi meteorologici, i terremoti e le eruzioni vulcaniche. In che modo quegli uomini avrebbero potuto organizzare le loro conoscenze in un quadro esplicativo della natura? In alcuni casi, per gli eventi naturali si trovò una spiegazione evidente: osservando, ad esempio, la neve sciogliersi al calore del Sole o lo spegnersi del fuoco al contatto con l’acqua. Tuttavia non vennero compresi e rappresentati in modo chiaro i concetti di causa ed effetto: in loro vece dovette essere risultato naturale costruire un modello dei fatti del mondo basato sull’intervento di forze soprannaturali. Si ebbero così gli spiriti del legno, del fiume, del fuoco, ecc. Le società più evolute costruirono una gerarchia di divinità quanto mai complessa e fortemente antropomorfa. Terra, Luna, Sole, pianeti vennero considerati personaggi simili a quelli umani e le loro vicende come l’equivalente di azioni, emozioni e desideri umani. "L’ira degli dei" poteva quindi essere considerata come una spiegazione sufficiente per le calamità naturali, da placarsi con sacrifici appropriati.
Parallelamente all’instaurarsi delle sopra citate idee crebbe un’altra serie di convinzioni nate in seguito allo sviluppo delle città e alla comparsa degli stati. In questi contesti si pensò che, per evitare confusione, i cittadini si sarebbero dovuti adeguare a un rigoroso codice di comportamento, che fu istituzionalizzato sotto forma di leggi. Come era prevedibile, anche gli dei furono considerati soggetti a leggi e, in virtù della loro maggiore autorità e potenza, sancirono il sistema delle leggi umane attraverso i loro intermediari, i sacerdoti.
Nell’antica Grecia la concezione di un universo governato da leggi era già ampiamente diffusa. Le spiegazioni di fatti come la caduta di una pietra o il volo di un freccia, erano già formulate sotto forma di inalterabili leggi di natura. Questa concezione chiarificatrice dei fenomeni, che si sarebbero prodotti autonomamente in stretta relazione con le leggi naturali, era in stringente contrasto con la concezione di un mondo complessivamente finalistico. Naturalmente i fenomeni veramente importanti come la creazione dell’uomo e dell’universo o i cicli degli astri, richiedevano ancora la più rigorosa "attenzione" degli dei; i fatti quotidiani potevano invece andare avanti da soli. Ma, una volta attecchita l’idea che un sistema fisico poteva evolvere in modo autonomo seguendo determinati principi fissi e inviolabili, era inevitabile una graduale erosione del dominio degli dei.
Benché la rinuncia all’interpretazione teologica del mondo fisico non sia completa neppure oggi, si può approssimativamente collegare a Galileo Galilei, Isaac Newton e in parte a Charles Darwin, la svolta decisiva a favore dell’importanza delle leggi fisiche. A cavallo tra il XVI e il XVII secolo, quello che oggi viene unanimemente indicato come il padre della "scienza moderna", Galileo, iniziò una serie di esperimenti destinati a cambiare il corso della fisica e non solo. L’idea centrale del genio di Pisa era che un pezzo di mondo il più possibile isolato dalle influenze esterne, si sarebbe lasciato studiare con relativa facilità, dimostrando nel contempo un comportamento relativamente semplice. Una delle più note indagini condotte da Galileo fu l’osservazione del comportamento dei corpi in caduta. Il precipitare di un corpo è un processo di solito molto complesso, dipendente dal peso, dalla forma, dalla composizione, nonché dalla velocità del vento e dalla densità dell’aria. La genialità di Galileo consistette nell’intuire che tutte queste variabili non sono che complicazioni accidentali, sovrapposte a una legge in realtà molto semplice. Facendo rotolare corpi di forma regolare lungo piani inclinati, i quali riducevano drasticamente le influenze dell’azione dell’aria, Galileo riuscì ad averla vinta sulla complessità (sulle perturbazioni accidentali) e a isolare la legge fondamentale della caduta dei gravi. Oggi la procedura adottata da Galileo può sembrare quanto mai ragionevole, ma nel 1500 richiedeva una notevole dose di inventiva; così come una notevole dose di ingegno richiedeva l’introduzione del concetto di tempo nello studio del moto.
Introducendo la variabile tempo nello studio della caduta dei gravi, Galileo scoprì una legge semplice quanto fondamentale e cioè che "il tempo necessario per cadere da una data altezza (partendo da una posizione di quiete) è esattamente proporzionale alla radice quadrata dell’altezza stressa." Con questa semplice relazione nasceva la "scienza moderna". Faceva la sua comparsa l’idea di una formula matematica in luogo di un dio regolatore per descrivere il comportamento di un sistema fisico. Non sarà mai enfatizzata a sufficienza l’importanza di questa conquista dell’intelletto per il progresso del genere umano. Una legge della natura espressa come equazione matematica non vuol dire solo sintesi e universalità, ma anche possibilità di calcolo. Tutto ciò significava che cessava di essere indispensabile osservare la natura per accertarne il comportamento (o l’evoluzione): lo si sarebbe potuto anche calcolare a tavolino con carta e penna. Usando la matematica per esplicitare le leggi gli scienziati avrebbero potuto predire il comportamento futuro del mondo, nonché ricostruire quello passato.
Alla fine del 1600 il fisico inglese Isaac Newton riprese e sviluppò il lavoro di Galileo elaborando dei principi applicabili in linea generale a tutti i corpi in movimento. Generalizzando i risultati ottenuti da Galileo per la forza di gravità sulla Terra, Newton ipotizzò che il Sole e tutti i corpi dell’universo esercitassero una forza gravitazionale reciproca che diminuiva col quadrato della distanza (ancora una volta ci si trova a fare i conti con una semplice quanto precisa relazione matematica che chiama in causa l’inverso del quadrato).
Dopo aver matematizzato il moto, Newton, matematizzò anche la gravità. Riunendo i due dati, e ricorrendo al calcolo infinitesimale, egli conseguì un grande risultato predicendo esattamente il comportamento dei pianeti e le date delle eclissi.
L’estensione della meccanica newtoniana al sistema solare fu qualcosa di più di un semplice esercizio di fisica e matematica applicata: essa demolì la fede secolare nell’idea che le dinamiche del cosmo fossero rette da forze puramente celesti.
L’universo di Newton è un meccanismo perfetto. Il movimento di ogni granello di materia, di ogni atomo, è in linea di principio determinato in modo completo e assoluto, per tutto il tempo futuro e passato dalla conoscenza delle forze impresse e dalle condizioni iniziali. La conoscenza delle condizioni iniziali e la possibilità di "calcolare" gli eventi (o gli effetti) futuri, caratterizza fortemente il lavoro di Newton così come tutta la scienza sino all’avvento della meccanica dei quanti.
1.3 La scoperta dei Quanti
Il 1900 vede ufficialmente la nascita della meccanica quantistica. E’ questo l’anno in cui il fisico tedesco Max Planck scopre che tutte le manifestazioni energetiche, dal flusso radiante proveniente da una fonte di calore quale un pezzo di legno che brucia, alla luce prodotta dal sole, si trasmettono per mezzo di scambi di enti discreti. Planck, in particolare, si rende conto che per spiegare adeguatamente quello che in fisica era noto come "il problema dello spettro del corpo nero" (lo spettro delle energie generate da un corpo perfettamente radiante) occorreva abbandonare il presupposto della fisica classica secondo cui l'emissione di energia è continua, sostituendola con l'ipotesi (rivoluzionaria per l'epoca) secondo la quale l'energia deve venir erogata per quantità separate, discontinue. Planck definì queste quantità discrete quanta, plurale del vocabolo latino quantum, che letteralmente significa "quanto" (da qui il termine meccanica quantistica), e le rappresentò come il quanto d'azione identificato con la lettera h (h è un numero piccolissimo corrispondente ad una grandezza di 6,6
· 10- 27).Il successo ottenuto dall’ipotesi avanzata da Planck aveva tuttavia aspetti inquietanti: ammettere che l’energia radiante potesse essere emessa o assorbita soltanto in modo discreto, significava riconoscere implicitamente che in un’onda luminosa l’energia non era distribuita in modo continuo, ma era concentrata sotto forma di granuli o corpuscoli di luce.
Planck che non era un rivoluzionario e con i suoi quarantadue anni, era, secondo i criteri dalla scienza dell'epoca, già vecchio; in un primo tempo rifiutò la portata dirompente delle sue idee, temendo che potesse essere rimessa in discussione la struttura ondulatoria della luce (perfettamente descritta -almeno in apparenza- dall’elettromagnetismo di Maxwell), ma tutti gli esperimenti confermavano2 le sue ipotesi. Ad un certo momento, Planck, anche incalzato dai fatti, finì con l'accettare le sue stesse idee. Da quel momento in poi la discontinuità dei fenomeni energetici vide una estensione ad ogni settore della fisica e non solo3. Il quanto d'azione h finì
col diventare una costante fondamentale della natura (la nota "costante di Planck"), alla stregua della c (la velocità della luce nel vuoto) di Einstein.
2
L'esperimento più famoso a conferma dell’attendibilità delle ipotesi avanzate da Planck chiama in causa l'effetto fotoelettrico di Einstein. E' curioso osservare come, a differenza di quanto molte persone credono, Albert Einstein non vinse il premio Nobel per la formulazione della teoria della Relatività, ma per la scoperta, o per meglio dire, per la spiegazione dell'effetto fotoelettrico messo in evidenza per la prima volta nel 1887 da H. R. Hertz.Con la spiegazione dell'effetto fotoelettrico Einstein (il quale per l'occasione introdusse anche il concetto di quanto di luce: l’odierno fotone) riuscì a rendere conto del fatto che una lastra di metallo investita da un fascio di luce, emette una nube di elettroni. La ragione di questa emissione va ricercata secondo il fisico tedesco nella natura discreta della luce; va ricercata nell'interazione tra le particelle incidenti della luce (i fotoni) e gli elettroni degli atomi del metallo che, nell'urto, vengono scalzati via dalle loro orbite.
3
La natura corpuscolare dei "fenomeni energetici" ebbe ripercussioni anche a livello filosofico. Il principio metafisico della continuità dei fenomeni naturali esplicitato nella famosa frase: natura non facit saltus e fortemente sostenuto, fra gli altri, anche dal grande Leibniz, in seguito alla scoperta dei quanti venne messo in discussione.
1.4 Il dualismo onda-corpuscolo
Con la scoperta dei quanti la fisica dei primi del novecento si trovava di fronte ad una profonda contraddizione. Da un lato vi erano i lavori di Planck (confermati da Einstein e Compton), i quali dimostravano la natura corpuscolare dei fenomeni luminosi, dall'altro vi erano i lavori di Young, Fresnel e Maxwell (formulati nel XIX
secolo) i quali indicavano che la luce non poteva che essere un fenomeno ondulatorio. In particolare gli esperimenti di interferenza condotti da Young dimostravano in modo inequivocabile la natura ondulatoria dei fenomeni luminosi.
La possibilità di analizzare e comprendere il fenomeno dell'interferenza ci è data dall'osservazione dell'acqua di uno stagno ove vengano gettati simultaneamente due sassi. Ciascuno dei due corpi da l'avvio a una sequenza di increspature che si allontanano dall'area di impatto. Nel punto di incontro delle due serie di increspature, sulla superficie dell'acqua si forma una figura sistematica di creste e avvallamenti dovuta al fatto che, dove le creste delle onde di una serie coincidono con quelle dell'altra, la perturbazione viene rinforzata, mentre dove le creste di una serie incontrano gli avvallamenti dell'altra, le due perturbazioni si annullano a vicenda e la superficie dell'acqua risulta pressoché piatta.
Se si immagina ora di sostituire i moti ondosi prodotti dall'impatto sull'acqua della coppia di sassi, con due flussi di onde luminose (provenienti da due direzioni parallele) le quali terminino la loro corsa su uno schermo, si vedrà che in seguito all'interazione tra le onde sullo schermo compariranno bande chiare e scure derivanti dall'interferenza delle singole ampiezze d'onda. Ora, nel caso in cui due creste risultino "in fase", si avrà un rinforzo e l'ampiezza conseguente diverrà doppia (interferenza costruttiva). Nel caso in cui una cresta e un avvallamento risultino una opposta all'altro, si annulleranno reciprocamente, con una ampiezza conseguente nulla (interferenza distruttiva). La figura che si formerà sullo schermo in seguito all'interazione tra le onde luminose sarà quindi costituita da una serie di bande chiare, nel caso dell'interferenza costruttiva, e scure, nel caso della interferenza distruttiva. Questa situazione sperimentale dimostra (così come molti altri contesti di fisica ottica) inequivocabilmente la natura ondulatoria, continua, della luce.
Ecco, dunque, l'inizio del XX secolo, vedere i fisici che tentano di interpretare la natura dei fenomeni luminosi di fronte a uno strano dilemma. A seconda della modalità di osservazione, la luce, si presenta come un corpuscolo (effetto fotoelettrico) o come un'onda (effetti di interferenza). Dovrebbe risultare chiaro a chiunque l'assurdità di una tale situazione: soprattutto se si pensa che un'onda è qualcosa che occupa volume, mentre un corpuscolo è qualcosa di concentrato in un punto ben preciso dello spazio. A seconda della situazione sperimentale quindi, la luce manifesta caratteristiche intrinsecamente opposte.
1.5 La natura ondulatoria della materia
Nel 1923 il fisico francese Louis de Broglie (meditando sulle simmetrie della natura) avanzò un’ipotesi ardita quanto geniale: perché, si chiese, dato che la luce si manifesta sotto un duplice aspetto, ondulatorio e corpuscolare, non potrebbe essere la stessa cosa anche per la materia. Egli formulò quindi una teoria la quale associava ad ogni corpuscolo di materia un’onda di determinata lunghezza
l (l = h/m · v: dove h è la costante di Planck, m e v sono, rispettivamente, la massa e la velocità del corpuscolo in movimento), cioè un fenomeno periodico esteso nello spazio che circonda la particella. La natura dualistica dei fenomeni luminosi veniva così estesa da de Broglie ad ogni forma di materia: dal piccolo elettrone, all’atomo, a qualsiasi ente macroscopico in movimento.Osservando attentamente il formalismo dianzi riportato (e non dimenticandosi dell’estrema esiguità del valore del quanto d'azione h) si comprenderà come a parità di velocità, la massa dell’ente in movimento considerato risulti determinante per la definizione della lunghezza d’onda ad esso associata. Più grande è la massa, minore è la lunghezza dell’onda. Ciò spiega perché le onde di materia non possono avere rilevanza nel mondo macroscopico. L’equazione di de Broglie ci dice, infatti, che tali onde anche se associate ad uno dei più "piccoli" oggetti visibili -un granello di sabbia- sono talmente ridotte se confrontate con le dimensioni (con la massa) dell’oggetto che il loro effetto è trascurabile. Solo a livello delle particelle subatomiche la natura ondulatoria della materia diventa rilevante. La ridottissima dimensione di un elettrone, ad esempio, implica che questa particella subisca una notevole influenzata dalla propria onda associata4.
Dopo i lavori di de Broglie quindi, un raggio di luce, un fascio di elettroni, può essere immaginato sia come un "treno di onde" elettromagnetiche, sia come un "getto di palline" che si muovono nello spazio.
All'inizio del 1926 il fisico-matematico austriaco Erwin Schrödinger, formula un’equazione che permette di descrivere compiutamente ogni singola proprietà
ondulatoria della materia. Essa migliora l’equazione delle onde materiali di de Broglie, e, con l'introduzione della funzione d’onda (identificata con la lettera greca
Y ), consente di descrivere ogni singolo comportamento nello spazio e nel tempo degli enti del micromondo, nonché di calcolare la distribuzione di "possibilitàstatistica" di trovare una particella all'interno dello spazio corrispondente alle dimensioni della propria onda associata.
4
Di seguito si confronta il rapporto "dimensione"-lunghezza d’onda associata di un ente macroscopico e un ente microscopico.L’ente del mondo macroscopico considerato è un moscone. Un moscone di taglia media possiede una massa di circa 1 g e può volare sino a 1000 cm/sec. La lunghezza d'onda ad esso associata sarà quindi: l = h/m · v = 6,6 · 10 -27 /1 · 1000 = 6.6 • 10 -30 cm; il 10 elevato alla -30 cm ci fa capire quanto piccola sia l'onda associata ad un moscone.
Vediamo ora l'entità dell'onda associata ad un elettrone. Un elettrone ha una massa di 9 · 10 -28 g e nel caso in cui si muova ad una velocità di 100.000.000 cm/sec esso avrà un'onda associata (secondo la formula l = h/m · v) di circa 7,3 · 10 -8 cm.
Confrontando i rapporti "dimensioni"-lunghezza d'onda del moscone e dell'elettrone, si comprende quanto enormemente preponderante sia l'aspetto ondulatorio per il secondo ente rispetto al primo.
1.6 Conferme della natura ondulatoria della materia
Intorno alla metà degli anni Venti del secolo scorso il fisico americano Clinton Davisson stava conducendo una serie di ricerche per la Bell Telephone Company quando, nel corso di determinati esperimenti, osservò alcune curiose deviazioni degli elettroni in seguito all’interazione con cristalli di nichel; deviazioni di cui non seppe
spiegare la natura. Nel 1927 Davisson effettuò una versione migliorata dell’esperimento assieme ad un collega, Lester Germer, e comprese come quelle strane deviazioni non fossero altro che "figure di diffrazione" tipiche della riflessione di onde -in quel caso "onde elettroniche"- sui piani cristallini del nichel: la natura ondulatoria della materia (e quindi l’ipotesi di de Broglie) era così dimostrata. Successivi esperimenti, oltre confermare i risultati di Davisson e Germer, misero in evidenza che anche gli atomi e le molecole manifestano un comportamento ondulatorio. Praticamente, quindi, qualsiasi "oggetto" ha un’onda associata: un elettrone, una palla da golf, un’automobile e anche una persona, sebbene per questi ultimi enti essa abbia dimensioni e influenze insignificanti.
1.7
Il probabilismo e l'acausalitàAll’inizio del XX secolo i fisici ritenevano che tutti i processi dell’universo fossero perfettamente calcolabili purché si avessero a disposizione dati di partenza sufficientemente precisi. Questa filosofia deterministica, come si è constatato nella Sezione dedicata alla fisica classica, aveva preso le mosse oltre due secoli prima quando Newton, con la sua legge di gravitazione universale, era riuscito a descrivere le orbite dei pianeti. In un sol colpo lo scienziato inglese aveva dimostrato che una mela che cade da un albero e un corpo celeste che si muove nello spazio, sono governati dalla stessa legge: l’universo ticchettava come un gigantesco orologio perfettamente regolato. Il matematico francese del XIX secolo Laplace, fu uno dei più convinti sostenitori del determinismo. In più di un'occasione non mancò di ribadire che se un'intelligenza onnisciente (una sorta di superuomo) fosse stato in grado di osservare tutte le forze che agiscono in natura e registrare la posizione di ogni frammento di materia in un particolare momento "sarebbe stato in grado di includere i moti dei corpi più grandi e quelli degli atomi più piccoli in una sola formula [...] niente sarebbe risultato indeterminato; ai suoi occhi, futuro e passato sarebbero diventati presente".
Ma in concomitanza con la fine dell’epoca vittoriana, la credenza in un universo perfettamente "calcolabile" e comprensibile svanì; avvenne nel momento in cui i fisici tentarono di applicare le leggi deterministiche al comportamento del mondo atomico. In quel minuscolo regno, come abbiamo visto, la materia sembra divertirsi a manifestare aspetti contraddittori.
Alla fine del 1926 il fisico Max Born, anche alla luce dell'impasse in cui la fisica si era venuta a trovare, con una tesi profondamente innovativa diede una interpretazione in chiave quanto-meccanica della relazione che doveva legare l’aspetto ondulatorio e corpuscolare della materia. L’ipotesi di Born, la quale trasformava di fatto la "possibilità statistica" schrödingeriana di trovare una particella all’interno della sua onda associata, in "probabilità", costituì un’idea rivoluzionaria e generò una serie lunghissima di discussioni, in quanto sancì la fine del determinismo in fisica. Tale ipotesi fu poi accettata dalla maggior parte dei fisici in quanto in accordo con i risultati sperimentali.
Nelle teorie classiche il calcolo delle probabilità è essenzialmente suggerito da ragioni pratiche, non di principio. Secondo l’interpretazione quantistica di Born, invece, l’esatto risultato di un esperimento è in generale imprevedibile anche in linea di principio e la probabilità ha in essa il ruolo di una nozione primitiva imposta non dall’ignoranza di cause concettualmente conoscibili con esattezza, ma dal fatto che l’analisi causale è limitata dalle leggi fondamentali che governano i fenomeni del mondo atomico. Il probabilismo borniano nasce sostanzialmente dal comportamento ondulatorio-corpuscolare della materia e dal fatto che tale comportamento non consente di formulare previsioni univoche e certe circa l’evoluzione dei microsistemi. L'equazione d'onda di Schrödinger ci dice che una particella può occupare tutte le possibili posizioni all'interno dell'onda associata. Occupando tutte le possibili posizioni la particella non ha più una localizzazione ed una traiettoria definite: la mancanza di queste "condizioni" non consente più di formulare previsioni precise circa il suo comportamento futuro. La meccanica classica ammette che sia possibile compiere previsioni deterministiche solo nel caso in cui siano disponibili informazioni contemporanee dei valori delle coordinate canoniche (posizione, "velocità") dell'oggetto in esame in un dato istante. Il probabilismo evidenziato da Born (unitamente all'indeterminismo insito nei Principi formulati da Heisenberg; vedremo più avanti di cosa si tratta), mette in risalto l'impossibilità di conoscere con precisione le coordinate canoniche di partenza di qualsiasi microente e dunque preclude la possibilità di eseguire previsioni certe circa il futuro comportamento di ogni microoggetto, nonché di tutti gli "oggetti" che interagiscono con esso5. L'impossibilità di effettuare previsioni certe sull'evoluzione spazio-temporale degli enti del mondo atomico mette in crisi il principio di causalità.
Volendo riassumere quanto sino ad ora illustrato si può affermare che, intorno alla metà degli anni venti del XX secolo, Max Born propone un’interpretazione probabilistica della funzione d’onda
Y di Schrödinger. Per spiegare quale deve essere l’onda e quale deve essere la particella costruisce una rappresentazione in cui la Y rappresenta la distribuzione di probabilità di trovare una particella in ogni punto dello spazio costituito dall’onda associata. Born paragona l’onda materialeoriginariamente postulata da Schrödinger, all’onda d’urto prodotta da un’esplosione:
la sua densità deve essere molto elevata vicino al punto di deflagrazione e deve
decrescere man mano che ci si allontana. La figura di seguito riportata rappresenta
5
In un articolo apparso sul numero 302 (1993) della rivista "Le Scienze" i fisici statunitensi Chiao, Kwiat e Steinberg, danno un chiaro esempio di come una particella, nella visione quantistica, perda per sempre una localizzazione e una traiettoria definita: "In meccanica quantistica [il] concetto di traiettoria si incrina: la posizione di una particella non è descritta come un punto matematico preciso; la particella è meglio rappresentata, invece, come un pacchetto d’onda [il termine pacchetto d’onda è sinonimo di funzione d’onda y ] diffuso. Comunque, quando la particella viene rivelata in un punto, l’intero pacchetto d’onda sparisce. La meccanica quantistica non dice dov’era la particella prima di quel momento".
visivamente la forma dell'onda di probabilità postulata da Born.
Nel paradigma borniano l’elettrone (o un qualsiasi altro microente) perde per sempre una sua specifica collocazione. Di un elettrone ruotante attorno a un nucleo di un atomo di idrogeno, ad esempio, può solo dirsi che ha una certa probabilità di essere trovato in un dato punto dello spazio (del livello orbitale) intorno al nucleo stesso.
Il fisico italiano Franco Selleri, nel suo libro La Causalità Impossibile [4], offre un chiaro esempio del significato di probabilismo quantistico e dell'acausalità che ne consegue; egli scrive :
"Il problema che risulta molto naturale porsi è quello di capire le cause che determinano le differenti vite individuali dei neutroni [liberi]. Lo stesso problema si pone per ogni tipo di sistema instabile come atomi eccitati [...]. L’interpretazione di Copenaghen della teoria dei quanti non solo non fornisce alcuna conoscenza di queste cause, ma accetta esplicitamente una filosofia acausale secondo la quale ogni processo di disintegrazione di un sistema instabile ha una natura assolutamente spontanea [probabilistica] che non ammette una spiegazione in termini causali. Secondo tale linea di pensiero il problema delle diverse vite individuali dei sistemi instabili dovrebbe necessariamente restare privo di risposta e dovrebbe anzi essere considerato un problema non scientifico".
E' in seguito all’introduzione del probabilismo quantistico e alle sue conseguenze sulle relazioni causa-effetto che Einstein pronunciò la famosa frase:
"Sembra difficile dare uno sguardo alle carte che Dio ha nelle sue mani, ma
neppure per un istante posso credere che egli giochi a dadi".
E ancora, in una lettera inviata a Born, Einstein scrive:
"Le teorie [quantistiche] sulla radiazione mi interessano moltissimo, tuttavia non vorrei essere costretto ad abbandonare la causalità stretta senza difenderla più tenacemente di quanto abbia fatto finora. Trovo assolutamente intollerabile l'idea che un elettrone esposto a radiazione scelga di sua spontanea volontà non soltanto il momento di "saltare", ma anche la direzione del "salto". In questo caso preferirei fare il croupier di casinò piuttosto che il fisico".
Dalle citazioni appena riportate (e da quelle che verranno riportate nelle prossime pagine), risulta evidente la posizione critica di Albert Einstein nei riguardi della meccanica quantistica. Tale posizione appare tanto più singolare se si considera i notevoli contributi dati dal grande scienziato tedesco allo sviluppo del paradigma quantistico. Si pensi alla spiegazione in termini di interazione tra quanti di luce ed elettroni atomici dell’effetto fotoelettrico. Uno dei più autorevoli biografi di Einstein riguardo il travagliato rapporto tra il padre della Relatività e la teoria quantistica scrive:
"Nessun fisico ha contribuito più di Einstein alla creazione della fisica quantistica. Il suo lavoro in questo campo avrebbe significato in sé stesso un’intera carriera scientifica per qualsiasi altro fisico [...] non meno decisamente la respinse, quando era ormai generalmente accettata."
Dal punto di vista strettamente umano la contrapposizione tra Einstein e gli esponenti della teoria quantistica ortodossa (gli esponenti della scuola di Copenaghen) vede la lotta continua di un uomo che procede, inesorabile e coerente con se stesso, lungo una strada lontana dal principale corso della fisica, ma a suo parere l’unica vera per comprendere i meccanismi della natura.
1.8 La sovrapposizione degli stati e l'atto di osservazione
L’interpretazione probabilistica dell’equazione di Schrödinger data da Born, costituisce un aspetto peculiare della teoria quantistica, poiché con essa le leggi rigidamente deterministiche della meccanica classica vengono sostituite da leggi probabilistiche. All’interno della meccanica quantistica l’interpretazione probabilistica della
y fa emergere un’ulteriore particolare aspetto: la "sovrapposizione degli stati". Per spiegare di cosa si tratta si ricorrerà ad un’analogia psicologica.Si supponga che l’umore di una persona sia Cattivo (stato C) o Buono (stato B) e che la probabilità di trovarla in uno di questi due stati sia del 50 %. Il formalismo quantistico ci dice allora che l’umore della persona in oggetto in un momento qualunque della giornata, è rappresentato dalla sovrapposizione lineare dei sotto-stati C e B, ma che la probabilità (P) di trovarla di cattivo o di buon umore è nel rapporto 0,5 a 0,5; il che si traduce simbolicamente con: P = 0,5 P (C) + 0,5 P (B). Si può quindi dire che l’umore della persona oscilla dallo stato C allo stato B e per saperne di più occorre incontrarla ("osservarla") per verificare quale sia realmente il suo umore. La potremo trovare nello stato B, esperienza che ci permetterà di dire che al momento dell’incontro/misura abbiamo ridotto la sua funzione d’onda al solo sotto-stato P = (B).
La meccanica quantistica offre esempi molto significativi di sovrapposizione di stati; uno di questi è la durata della vita del mesone K 0 (il mesone è una particella sub-atomica). La durata della vita di K0 può essere 10 – 7 oppure 10 – 10 secondi. Applicando la teoria della sovrapposizione degli stati si può affermare che la durata della vita di K0 è la sovrapposizione di due stati K01 (10 – 7) e K02 (10 – 10). Il mesone può così, in parti uguali, manifestarsi probabilisticamente (cioè in maniera del tutto "spontanea") dopo un determinato tempo. Questa situazione trova esemplificazione nella formula
½ K0½ 2 = 0,5½ K01½ 2 + 0,5½ K02½ 2. Il fatto che la probabilità sia il quadrato del coefficiente che determina la sua influenza nel momento della riduzione della funzione d'onda, lo si deve al formalismo della meccanica quantistica (lo si deve a Born) il quale richiede che la probabilità effettiva sia il quadrato dell’ampiezza di probabilità 6.Un altro esempio di sovrapposizione quantistica riguarda il comportamento duale della materia. Come evidenziato nei precedenti paragrafi la materia manifesta una duplice natura: ondulatoria e corpuscolare. Bene, queste due caratteristiche della realtà fisica -nel paradigma quantistico- devono convivere assieme in una miscela di sovrapposizioni: nella fattispecie sovrapposizioni di stati ondulatori e corpuscolari. E' il tipo di misurazione scelta dallo sperimentatore (la quale produce la riduzione della funzione d'onda) che determina come la materia dovrà presentarsi al mondo; se come ente con carattere ondulatorio o corpuscolare.
Da quanto sino ad ora scritto il lettore si sarà reso conto che "l’attuarsi" delle caratteristiche della materia, in particolare nel caso della sovrapposizione onda-corpuscolo, non avviene "spontaneamente" come nella durata della vita del mesone
K0 (il quale "sceglie spontaneamente" quando manifestarsi: se dopo 10 – 7 o dopo 10 – 10 secondi), ma è "forzata" dalle scelte dello sperimentatore: vedremo più avanti cosa ciò comporti.
Volendo esemplificare visivamente uno stato di sovrapposizione7 si può ricorrere alle immagini duplicemente ambigue caratteristiche dal movimento psicologico tedesco della Gestalt. Nei contorni che costituiscono le figure gestaltiche sono infatti contemporaneamente presenti i due significati da esse assunti. La figura di seguito riportata è concretamente e nello stesso momento la rappresentazione di un vaso e di due profili umani.
6 Nel momento in cui si va a calcolare la somma dei quadrati delle ampiezze delle probabilità dei sotto-stati ½ K01½ e ½ K02½ , si ottengono quelli che nel formalismo quantistico vengono chiamati "termini incrociati" i quali portano al non localismo (vedremo nelle prossime Sezioni di cosa si tratta).
7
Per amor di verità occorre precisare che per gli esponenti della meccanica quantistica ortodossa è impossibile fornire una qualsiasi raffigurazione di uno stato di sovrapposizione. Uno stato sovrapposto è di per sé non rappresentabile, impensabile: "è impossibile comprendere la struttura e l'evoluzione di uno stato sovrapposto nel senso di formarsi immagini mentali nello spazio e nel tempo corrispondenti alla sua realtà ...", scrive Bohr in uno dei suoi più noti lavori. La ragione per cui chi scrive ha deciso di derogare da questa "legge" della teoria quantistica, è quella di fornire un qualche tipo di rappresentazione di una realtà (la realtà sovrapposta) che altrimenti sfuggirebbe a qualsiasi modalità di raffigurazione.
Ad un certo punto dell’esposizione riguardante gli stati di sovrapposizione si è esplicitamente parlato della circostanza per la quale la conoscenza dell’umore di una persona può avvenire solo in seguito ad un incontro (ad una "osservazione"). Questo aspetto attivo del processo di conoscenza è fondamentale in meccanica quantistica. All'interno del paradigma di Copenaghen infatti, il ruolo dello sperimentatore, dell'osservatore (in fisica quantistica chi esegue un qualsiasi tipo di esperimento viene definito osservatore), oltre risultare ineliminabile non può mai essere disgiunto dall'ente osservato. Osservatore ed oggetto studiato, nel momento di una misurazione, formano un tutt'uno, cosicché le scelte del primo determinano e si fondono con le caratteristiche del secondo. Tutto questo deriva sostanzialmente dal fatto che la materia, prima di una qualsiasi misurazione (la materia allo "stato naturale") vive in uno stato sovrapposto. E' solo l'intervento dello sperimentatore che, per mezzo di un atto di osservazione, produce quello che nel formalismo quantistico viene chiamata riduzione della funzione d'onda, consentendo allo stato sovrapposto di risolversi in un determinato modo, forzando la materia a presentarsi al mondo come "ente" che ha una determinata realtà.
L'interazione tra sperimentatore e oggetto osservato, nel caso della vita del mesone K0, "costringe" il mesone a dirci qualcosa sulla durata della sua vita, mentre nel caso dell'aspetto ondulatorio-corpuscolare della materia, l'interazione osservatore-oggetto-osservato costringe (a seconda del tipo di esperimento scelto) la materia a presentarsi al mondo sotto una determinata forma: ovvero come onda o come corpuscolo.
Nell'ambito del paradigma quantistico quindi, lo sperimentatore è un osservatore partecipante, è un "elemento" mai veramente disgiunto dall'oggetto dell'indagine. L’apparato di misura che interviene nell’esperimento e che fa da tramite fra osservatore e oggetto osservato, diventa anch’esso ente attivo nelle misurazioni. Al riguardo, Bohr, nel libro Unità della conoscenza, scrive:
"La differenza fondamentale, rispetto all'analisi dei fenomeni, tra fisica classica e fisica quantistica, è che nella prima l'interazione tra gli oggetti e gli apparati di misura può venire trascurata o eliminata, mentre nella seconda questa interazione è parte integrante del fenomeno".
1.9 La sovrapposizione degli stati e l’esperimento della doppia fenditura
Esiste un test in fisica quantistica che più di ogni altro mette in evidenza lo stato di sovrapposizione che caratterizza la materia "allo stato naturale", questo test è noto come esperimento della doppia fenditura.
Si supponga, come nell’esempio proposto per spiegare l’interferenza nella Sezione dedicata al dualismo onda-copruscolo, che vengano prodotti due fasci di onde luminose provenienti da due direzioni parallele, i quali terminino la loro corsa su uno schermo sensibile alla luce (una sorta di lastra fotografica). Nell'esperimento illustrato in Figura 1 (il quale rappresenta un tipico esempio di esperimento a due fenditure) il parallelismo tra i fasci luminosi è ottenuto opponendo ad una sorgente di luce un diaframma con due fenditure.
Figura 1
A
Sorgente
SCHERMOdi luce
B
DIAFRAMMA con le fenditure
Ora, come ben evidenziato dalla figura, nella parte centrale a destra del diaframma, le onde dei fasci luminosi uscenti dalle fenditure interferiscono tra di loro, e, nel caso in cui tali onde risultino "in fase" si avrà sullo schermo una banda chiara (interferenza costruttiva), nel caso in cui tali onde risultino "in opposizione", si avrà sullo schermo una banda scura (interferenza distruttiva). Secondo le leggi dell’ottica, l’interferenza appena descritta deve aver luogo solo nel caso in cui entrambe le fenditure siano attraversate dai fasci luminosi. Nel caso in cui solo una delle fenditure sia percorsa da un fascio di luce -non avendosi nessuna interferenza- nessuna banda può prodursi sullo schermo. La cosa straordinaria che accade, invece, è che anche inviando un solo fascio di luce, o meglio anche inviando un solo fotone per volta, si formano ugualmente sullo schermo bande chiare e scure tipiche dell’interferenza costruttiva e distruttiva.
Come può accadere tutto ciò si chiedevano perplessi i fisici all’inizio del XX secolo. La risposta venne dalla meccanica quantistica ed in particolare dai lavori di Born, Bohr ed Heisenberg i quali dimostrarono che qualsiasi "microsistema" (fotone, elettrone, atomo) non è obbligato da leggi deterministiche a percorrere traiettorie precise. Il "probabilismo" borniano, unitamente al principio di sovrapposizione e all’indeterminismo di Heisenberg, vietano esplicitamente a qualsiasi microente di possedere una traiettoria definita. Nel caso dell’esperimento a due fenditure illustrato in Figura 1, anche un solo fotone percorre quindi tutte le possibili ("potenziali") traiettorie "sovrapposte" comprese tra la sorgente e il diaframma. Percorrendo tutte le possibili traiettorie il fotone inevitabilmente incontra anche le due fenditure, riuscendo, dopo averle oltrepassate (e avendo quindi interferito con sé stesso), a produrre sullo schermo le bande chiare a scure tipiche dell’interferenza costruttiva e distruttiva. In un celebre passo scritto da Bohr al riguardo leggiamo:
"Quando il "fotone" passa attraverso la fenditura A ciò determina un certo mondo possibile (che chiameremo mondo A); quando passa attraverso la fenditura B avremo invece il mondo B. Nel nostro caso significa che entrambi questi mondi coesistono in qualche modo, l'uno sovrapposto all'altro [...]".
E ancora il fisico Richard Feynman scrive:
"In un esperimento a due fenditure il microoggetto non passa attraverso una sola delle due fenditure."
La spiegazione quanto-meccanica dell’esperimento della doppia fenditura, venne accolta (al suo apparire) con scetticismo da una parte della comunità scientifica. Svariati fisici, soprattutto quelli che più di altri si riconoscevano nelle posizioni realistiche8, non ritenevano ammissibile che un ente seppur speciale come un fotone, un elettrone o un atomo potesse "sdoppiarsi" e percorrere contemporaneamente strade diverse.
Per avere la certezza della giustezza delle posizioni quantistiche fu allora proposto un esperimento semplice quanto decisivo. Se effettivamente un solo fotone passa per entrambe le fenditure, autointeragisce con sé stesso e produce le bande tipiche dell’interferenza, basta chiudere una delle due fenditure e verificare se effettivamente le bande continuano a prodursi.
L’esperimento fu effettuato, un solo fotone per volta fu inviato all’interno dell’apparato di misura, e l’esito fu chiarissimo: la chiusura di una delle fenditure bloccava la formazione delle bande chiare e scure sullo schermo. Anche se può risultare difficile credere che un unico oggetto possa avere la capacità di "sondare" allo stesso tempo due luoghi diversi, questo è ciò che avviene, questo è ciò che gli esperimenti dimostrano.
1.10 Il Principio di Indeterminazione
Nel 1927 il fisico tedesco Werner Heisenberg scoprì che la natura probabilistica delle leggi della meccanica quantistica poneva grossi limiti al nostro grado di conoscenza di un sistema atomico. Normalmente ci si aspetta che lo stato di una microparticella in movimento -consideriamo ad esempio un elettrone in rotazione attorno ad un nucleo di un atomo- sia caratterizzato completamente ricorrendo a due parametri: velocità (quantità di moto) e posizione. Heisenberg postulò invece, che a un certo livello queste quantità (che nel linguaggio tecnico vengono chiamate variabili coniugate) sarebbero dovute rimanere sempre indefinite. Tale limitazione prese il nome di principio di Indeterminazione. Questo principio afferma che maggiore è l’accuratezza nel determinare la posizione di un particella, minore è la
precisione con la quale si può accertarne la velocità e viceversa9.
8
Il realismo è quel complesso di posizioni scientifico-filosofiche propugnanti la tesi per cui gli "oggetti del mondo" hanno sempre e comunque una realtà definita (ad esempio una posizione e una velocità precise), la quale non dipende dal loro essere percepiti (o misurati). Il realismo si fonda anche sull’accettazione incondizionata del "localismo", ovvero sull’impossibilità di "azioni dirette a distanza" e sulla causalità, ovvero sulla evidenza che tutti gli effetti si propagano sempre dal passato al futuro e che il passato non può essere modificato.9
Più precisamente nella misura simultanea delle coordinate di posizione x e di velocità (quantità di moto) p di una particella è impossibile ottenere valori x' e p' con indeterminazione piccola a piacere. Infatti, se D x e D p definiscono rispettivamente l'indeterminazione in x e p, deve valere la relazione: D x · D p @ h.
Quando si pensa all’apparecchiatura necessaria per eseguire le misurazioni, questa indeterminazione risulta intuitiva. I dispositivi di rilevazione sono così grandi rispetto alle dimensioni di una particella che la misurazione di un parametro come la posizione è destinato a modificare anche la velocità. Occorre sottolineare però (seguendo Heisenberg) che le limitazioni in parola, non derivano solo dalla interazione tra mondo microscopico e mondo macroscopico, ma sono proprietà intrinseche della materia. In nessun senso si può ritenere che una microparticella possieda in un dato istante una determinata posizione e una determinata velocità. Queste sono, secondo Heisenberg, caratteristiche incompatibili; quale delle due si manifesti con maggior precisione dipende solo dal tipo di misurazione scelta.
Oltre alla posizione e alla velocità delle particelle, il principio di Indeterminazione pone limiti anche alla misura simultanea di parametri come l’energia e il tempo. Ciò significa che al diminuire della durata di una osservazione, aumenta l’imprecisione nella misura dell'energia e viceversa10.
Da notare infine che il principio di Indeterminazione, così come le relazioni che legano la dimensione della lunghezza d'onda associata ad un ente materiale in
movimento teorizzata da de Broglie, è valido per qualsiasi "oggetto", ma in pratica ha conseguenze importanti solo se applicato a oggetti di dimensioni atomiche o subatomiche, poiché quando si tratta di corpi ordinari, le infime dimensioni della costante h, fa perdere al principio stesso gran parte del sua influenza.
1.10.1 L’indeterminazione sperimentale
Per misurare la posizione di un oggetto microscopico come un elettrone occorre investirlo con un raggio di luce (un flusso di fotoni) o comunque qualcosa che in ultima analisi risulta avere all'incirca le medesime dimensioni dell'elettrone. Questo fa si che l'elettrone risulti perturbato da questa interazione che ne modifica inesorabilmente la velocità; la stessa cosa, ma in situazioni opposte, avviene nel caso in cui si voglia conoscere la velocità di un elettrone.
Heisenberg, con il suo principio di Indeterminazione, pone con forza l'accento sul fatto che l’effetto dell’interazione tra il raggio di luce incidente e la particella "osservata" può anche essere reso uguale a zero, in tal caso però non si compie nessuna misurazione e non si acquista alcuna conoscenza sulle proprietà del sistema
osservato. Se l’interazione è invece diversa da zero, essa non può essere resa arbitrariamente piccola e non è quindi neppure concettualmente eliminabile.
Un esempio di indeterminazione sperimentale portato alle dimensioni umane può essere il tentativo di determinare simultaneamente la traiettoria e la posizione di un oggetto in movimento. Si supponga di voler determinare, attraverso una fotografia, la posizione di un oggetto in movimento: per esempio una palla di cannone. Naturalmente se la palla percorre la propria traiettoria a notevole velocità, la fotografia risulterà mossa a meno che si usi un otturatore ad alta velocità. Con un
10
Più esattamente l'indeterminazione energia-tempo definisce l’impossibilità di determinare, in seguito ad una osservazione che duri un tempo D t, l'energia di una particella con un'incertezza inferiore a D E, legata a D t dalla relazione: D E · D t @ h.
otturatore ad alta velocità si riuscirà a "fissare" la posizione dell'oggetto sulla pellicola, ma si pagherà un prezzo nella definizione della traiettoria; risultando la palla di cannone ferma. D'altro canto usando un otturatore a bassa velocità, si fotograferà una linea indistinta che rappresenta fedelmente la traiettoria della palla, ma che non da nessuna indicazione sulla posizione.
1.10.2 L’indeterminazione teorica
Come poco sopra osservato, il fatto che non si riesca a misurare contemporaneamente la posizione e la velocità di una particella non è dovuto soltanto a restrizioni di ordine pratico, ma è un limite obiettivo della natura. In altri termini, per Heisenberg, e per i fisici quantistici in generale, qualsiasi microente (la materia) allo "stato naturale" non ha oggettivamente (ontologicamente) una posizione e una velocità definite, non ha una "realtà definita". Questa è una conseguenza del principio di sovrapposizione e del formalismo alla base delle relazioni di indeterminazione. Infatti come sin qui evidenziato, la materia, prima di qualsiasi misurazione, vive sempre come un mix di stati sovrapposti. Nel caso delle variabili coniugare velocità-posizione ed energia-tempo, la particella vive come ente che presenta "mischiate" queste quattro qualità.
L'analisi del formalismo alla base delle relazioni di indeterminazione posizione-velocità,
D x · D p @ h, con le equazioni "inverse" D p = h/D x (1) e D x = h/D p (2), dimostra che nel caso in cui si definisca con precisione la posizione di una particella (ovvero con D x = 0) l'indeterminazione sulla velocità nel caso dell’equazione (1), diventa infinita. Viceversa se si suppone di definire esattamente la velocità di una particella (D p = 0), la sua posizione nel caso dell’equazione (2) risulterà occupare tutti gli infiniti punti dello spazio.I semplici esempi testé riportati dimostrano chiaramente l’incompatibilità per una particella a possedere (se non come un "miscuglio" di stati indistinti, sovrapposti) ad un tempo posizione e velocità: quando una di queste due variabili tende a zero l'altra tende all'infinito e viceversa.
Con la dimostrazione teorica delle relazioni di indeterminazione emerge chiaro l’inevitabile passaggio dal livello epistemico dell'esperimento, dove gli apparati strumentali dimostrano limiti insormontabili nella possibilità di effettuare determinate misure, al livello ontologico del formalismo, ove la materia dimostra di non possedere per principio determinate caratteristiche.
1.11 La Complementarità
Da quanto sino ad ora esposto emerge chiaro l’aspetto contraddittorio insito nella natura duale della materia. Il principio di Complementarità formulato alla fine del 1927 da Bohr11, consente di superare tale contraddizione eliminando ogni
11
Una delle formulazioni più lucide di Complementarità date da Bohr è la seguente:"La Complementarità è la concezione dell'oggettività nella teoria quantistica. La realtà non è mai descritta in sé, ma come parte non isolabile di insiemi di fenomeni e rappresentazioni. Una stessa realtà può essere l'oggetto di due raffigurazioni complete, contraddittorie [...]. Queste due rappresentazioni sono dette complementari. E' il caso dell'aspetto corpuscolare ed ondulatorio della materia ...".
inconciliabilità logica tra la descrizione corpuscolare e ondulatoria (oppure tra le "proprietà" di posizione e velocità, energia e tempo), implicando l'impossibilità di dimostrare la verità dell'una o la falsità dell'altra. Nell'ambito del modello complementare gli aspetti ondulatori e corpuscolari manifestati dagli enti del micromondo, vengono ad essere elementi complementari di una stessa realtà, vengono ad essere due facce di una medesima medaglia. Entrambi risultano alternativamente necessari per una descrizione completa della realtà osservata.
Nella Complementarità la contraddizione dovuta all'interpretazione dualistica della materia viene a diventare una "quasi naturale" impossibilità a tracciare una netta linea di demarcazione tra l'oggetto conosciuto e il soggetto conoscente: il manifestarsi della materia in modo definito sotto una forma piuttosto che un'altra dipende solo dal tipo di esperimento scelto per osservarla.
1.12 L'Indeterminazione energia-tempo e le sue conseguenze
La relazione di indeterminazione energia-tempo, con le sue conseguenze al livello del principio di conservazione dell'energia12, da conto di fenomeni quali la radioattività o la nascita delle particelle virtuali.
Si supponga di voler determinare l’energia di un fotone. Secondo il formalismo ideato da Planck, l’energia (E) di un fotone è direttamente proporzionale alla frequenza (
n ) della luce (infatti: E = h n ). Se, quindi, si raddoppia la frequenza, anche l’energia raddoppia. Un sistema pratico per misurare l’energia è quindi quello di misurare la frequenza dell’onda luminosa, il che si può fare contando il numero di oscillazioni in un dato intervallo di tempo. Per poter applicare questa procedura occorre comunque che si verifichi almeno una e preferibilmente più di una oscillazione completa, la qual cosa richiede un intervallo di tempo definito. L’onda deve passare da un massimo ad un minimo, e poi di nuovo tornare a un massimo. Misurare la frequenza della luce in un tempo inferiore a quello occorrente per un’oscillazione completa è evidentemente impossibile, anche in via di principio. Per la luce il tempo occorrente è ridottissimo (un milionesimo di miliardesimo di secondo). Onde elettromagnetiche con lunghezze d’onda maggiore e frequenza minore, come le onde radio, possono richiedere qualche millesimo di secondo per compiere un’oscillazione completa. Queste semplici considerazioni mettono in evidenza l’esistenza di un limite fondamentale nella precisione con cui è possibile misurare la frequenza di un fotone (e quindi la sua energia) in un dato intervallo di tempo. Se l’intervallo è inferiore a un periodo intero dell’onda, l’energia e quanto mai indeterminata. Per avere una determinazione esatta dell’energia si deve effettuare una misurazione "relativamente lunga" (corrispondente ad almeno un’oscillazione completa), ma se ciò che ci interessa è invece l’istante in cui si verifica un evento, lo si potrà determinare in modo esatto solo a spese
12
Il principio di conservazione dell'energia asserisce che in natura "nulla si crea e nulla si distrugge, ma può solo cambiare di stato". In altri termini è impossibile che in natura una qualsivoglia forma di energia (o massa) possa scaturire dal nulla, oppure che una qualsivoglia forma di energia (o massa) possa essere totalmente cancellata dall'universo.
dell’informazione sull’energia. Ci si trova così a dover scegliere tra l’informazione sull’energia e l’informazione sul tempo, che presentano un’incompatibilità analoga a quella per la posizione e la quantità di moto.
Da quanto sino ad ora illustrato risulta chiaro che i limiti nelle misurazioni della energia e del tempo (così come per la posizione e la quantità di moto), non sono semplici insufficienze tecnologiche, ma proprietà oggettive dalla natura. In nessun senso si può ritenere che un fotone (o un elettrone, ecc.) possieda realmente un’energia definita in un dato istante. Per i fotoni energia e tempo sono due caratteristiche "contrastanti", complementari; quale delle due si manifesti con maggior precisione dipende solo dalla natura della misurazione che si sceglie (che lo sperimentatore sceglie) di effettuare.
Una conseguenza immediata delle dimostrazioni sin qui riportate, è che per tempi brevissimi si apre la possibilità per una violazione del principio di conservazione dell'energia. Per tempi che si aggirano intorno al milionesimo di miliardesimo di miliardesimo di secondo, una particella alfa (ovvero una "particella" formata da due protoni e due neutroni) può prendere in prestito dal "nulla" una certa quantità di energia "scavarsi" una sorta di tunnel (da qui il termine Effetto Tunnel), attraversare la barriera di potenziale che la tiene ancorata al nucleo e sfuggire dell’atomo a cui appartiene. Per tempi che si aggirano attorno al miliardesimo di trilionesimo di secondo un elettrone ed il suo compagno di antimateria -il positrone- possono prendere forma improvvisamente dal nulla, congiungersi e quindi svanire. Tutti questi fenomeni sono possibili poiché la relazione di indeterminazione
Dt×DE @ h, con la sua "inversa" DE = h/Dt, consente di ottenere dal "nulla" energia (o massa).Dalla relazione DE = h/Dt risulta chiaro che al tendere a zero di Dt, DE tende all'infinito. Per tempi brevissimi quindi (ovvero per tempi con un ordine di grandezza di molto inferiore ad h), è possibile ottenere dal "nulla" notevoli quantità di energia; ciò spiega il perché delle emissioni alfa ad alta velocità (scoperte nel 1898 da Henri Becquerel) o la nascita delle particelle virtuali.
1.13 L'Elettrodinamica Quantistica e le fluttuazioni del vuoto
Un’altra interessante conseguenza dell’indeterminazione energia-tempo è la fluttuazione del campo elettromagnetico. L’Elettrodinamica Quantistica (il cui acronimo inglese è QED), si occupa delle fluttuazioni dei campi e fonde in sé due concetti: quello di campo elettromagnetico e quello di fotoni intesi come manifestazione corpuscolare delle onde elettromagnetiche. Attraverso l'Elettrodinamica Quantistica ha trovato coerente spiegazione il fenomeno dell'attrazione e della repulsione elettrica, il magnetismo, le anomalie del momento magnetico dell'elettrone, ecc.
Il campo quantistico è un concetto completamente nuovo che è stato applicato alla descrizione di tutte le particelle subatomiche e delle loro interazioni, facendo corrispondere a ciascun tipo di particella un diverso tipo di campo. Il campo quantistico è visto come l’entità fisica fondamentale: un mezzo continuo presente ovunque nello spazio.
Nell’Elettrodinamica Quantistica l’interazione tra due microparticelle (due elettroni ad esempio) avviene attraverso lo scambio di fotoni virtuali. I fotoni virtuali nascono e vivono grazie al piccolissimo grado di indeterminazione esistente tra i livelli di energia e tempo ben evidenziato nella precedente Sezione e che caratterizza lo "stato oggettivo" degli enti e degli eventi del micromondo. Questa nuova concezione della interazione subatomica può sembrare difficile da comprendere e rappresentare, ma essa diventa relativamente facile ed accessibile quando il processo di scambio di un fotone virtuale è raffigurato per mezzo di un diagramma spazio-temporale di Feynman13. La Figura 2 mostra un diagramma di Feynman nel quale sono rappresentati due elettroni che si avvicinano tra loro; uno di essi emette un fotone virtuale (indicato con
g ) nel punto A, l’altro lo assorbe nel punto B. Dopo aver emesso il fotone, il primo elettrone devia dalla propria direzione e così fa anche il secondo elettrone quando assorbe il fotone. L’interazione completa tra gli elettroni avviene attraverso una serie continua di scambi di fotoni.Figura 2
e - e - tempog
A B
e - e -
spazioOgni particella elettricamente carica emette e riassorbe di continuo fotoni virtuali e/o li scambia con altre particelle cariche. Quando due elettroni (ovvero due cariche dello stesso segno) si scambiano fotoni virtuali, si respingono; quando un protone e un elettrone (ovvero due cariche di segno opposto) si scambiano fotoni virtuali, si attraggono. In termini di fisica classica, si potrebbe dire che le particelle esercitano l’una sull’altra una forza repulsiva o attrattiva.
E' interessante notare come nei suindicati "scambi di forze" nessuna delle due
particelle "urta" effettivamente l’altra: esse semplicemente interagiscono (inter-agiscono) mediante lo scambio di fotoni, e la forza non è altro che l’effetto macroscopico collettivo di questi ripetuti scambi di fotoni. Il concetto di forza in
fisica subatomica deve perciò lasciare il passo al concetto di interazione (inter-
azione) tra particelle attraverso campi costituiti da insiemi di fotoni virtuali. Nel caso delle interazioni elettromagnetiche, le particelle virtuali del campo scambiate sono fotoni; nel caso delle interazioni tra i componenti del nucleo atomico le particelle scambiate sono mesoni.
Il meccanismo di "inter-azione" appena descritto può essere ulteriormente esemplificato immaginando due pattinatori fermi su una lastra di ghiaccio e distanti tra loro qualche metro. La forza repulsiva tra di essi può essere illustrata attraverso lo
scambio di un oggetto: ad esempio una pesante palla. Il primo pattinatore lancia la
13
I diagrammi di Feynman risultano lo strumento più semplice ed efficace per rappresentare le interazioni elettromagnetiche. Nel 1965, per i suoi contributi dati alla formulazione dell'Elettrodinamica Quantistica Richard Feynman ricevette il premio Nobel per la fisica.palla e conseguentemente rincula; l’altro riceve la palla e viene da essa spinto all’indietro, cosicché alla fine del processo, i due pattinatori si allontanano reciprocamente con traiettorie divergenti. I due pattinatori dell’esempio rappresentano le particelle che interagiscono, la palla la particella virtuale.
Quando, come nella Figura 2, un elettrone emette un fotone virtuale che viene assorbito da un altro elettrone, si dice che la microparticella sta interagendo con un’altra particella. Quando invece un elettrone emette un fotone e lo riassorbe, si dice che sta interagendo con se stesso. L’auto-interazione rende il mondo delle particelle subatomiche una realtà caleidoscopica fatta da incessanti processi di trasformazione. I protoni, come gli elettroni, possono interagire con se stessi in più di una maniera. La più semplice auto-interazione che può effettuare un protone è l'emissione e il riassorbimento di una particella virtuale chiamata pione neutro (vedere la Figura 3) nei tempi consentiti dal principio di Indeterminazione.
Figura 3
protone
protone
pione virtualeprotone
Se, però, per una qualsiasi ragione, il protone (o qualsiasi altra particella "madre") scomparisse, il pione virtuale non potrebbe più essere riassorbito; assumerebbe così lui stesso lo status di particella reale. E’ questo ciò che accade quando un protone incontra un antiprotone, entrambi scompaiono improvvisamente, lasciando il pione, o magari la nube di fotoni virtuali che li accompagnano, da soli. Queste particelle virtuali si presentano così al mondo come particelle reali, dato che il loro "debito" al principio di Indeterminazione è stato saldato dalla massa-energia della coppia protone-antiprotone scomparsa. Nelle Figure 2 e 3 è stata rappresentata la creazione (e lo scambio) di particelle virtuali in presenza di enti reali: elettroni e protoni. Il formalismo dell’Elettrodinamica Quantistica prevede che un processo di creazione di particelle virtuali possa avvenire anche in assenza di materia. Il diagramma di Figura 4 mostra un processo di creazione e distruzione (annichilazione) nel vuoto di particelle virtuali di carica opposta elettrone-positrone (il positrone è un elettrone con carica positiva).
Figura 4
e-
e+(elettrone) (positrone)
Nell’Elettrodinamica Quantistica il vuoto subisce una sorta di "polarizzazione" (e questo in seguito a fluttuazioni spontanee del campo elettromagnetico) consentendo alla materia di nascere spontaneamente. La vita media delle coppie virtuali create è comunque brevissima. Per la coppia elettrone-positrone ad esempio, non può superare il miliardesimo di trilionesimo di secondo (tempo concesso dal principio di Indeterminazione per avere massa/energia dal "nulla").
Gli eventi subatomici appena descritti hanno dato ai fisici una nuova prospettiva per comprendere lo spazio vuoto. Per Heinz Pagels della Rockfeller University, il vuoto assomiglia alla superficie dell'oceano: "Immaginate di sorvolare l'oceano con un jet. Da quel punto di osservazione ottimale la superficie sembra perfettamente uniforme e piatta. Ma voi sapete che se foste su una barca, vedreste enormi onde tutt'attorno. Così si comporta il vuoto. Su grandi distanze -ovvero le distanze che noi sperimentiamo come esseri umani- lo spazio ci appare completamente vuoto. Ma se potessimo analizzarlo da molto vicino vedremmo tutte le particelle quantistiche entrare e uscire dal nulla". Il concetto sembra sfidare il buonsenso ma è perfettamente valido nell'ambito dell’Elettrodinamica Quantistica. "Non c'è punto più fondamentale di questo", ha scritto il fisico John Wheeler, "lo spazio vuoto non è vuoto. In realtà è la regione dove avvengono i fenomeni fisici più violenti".
1.14 Esperimenti a scelta ritardata
Alla fine degli anni settanta del secolo scorso uno dei più prestigiosi fisici americani, John Wheeler, avvalendosi di uno strumento chiamato interferometro di Mach-Zehnder (tale strumento richiama molto da vicino il funzionamento delle apparecchiature a due fenditure viste in una delle precedenti Sezioni) dimostrò che ci sono situazioni un cui è possibile assistere ad una inversione dell'ordine temporale dei fenomeni. Prima di illustrare nel dettaglio in cosa consistono gli esperimenti proposti ed eseguiti da Wheeler e collaboratori (che la comunità scientifica conosce come "esperimenti a scelta ritardata") è bene fare alcune precisazioni sul funzionamento degli interferometri Mach-Zehnder.
La Figura 5 mostra cosa accade ad un fotone (o a un elettrone, o a un qualsiasi microente) che entra in un interferometro Mach-Zehnder. La prima cosa che il fotone incontra è uno specchio semitrasparente (M): il lettore avrà certamente visto una versione di detto specchio in alcuni film polizieschi, nelle situazioni in cui occorreva vedere senza essere visti. In seguito all'interazione con M il fotone ha il 50 % di probabilità di attraversarlo (dirigendosi quindi verso lo specchio B) oppure essere deviato (dirigendosi verso lo specchio A). Indipendentemente dal ramo preso e della deflessione subita, il fotone finirà la sua corsa sullo schermo S. In assenza di S il fotone impatterà sul rivelatore P1 o P2. I rivelatori sono apparecchi che registrano in modo permanente l'arrivo di particelle come fotoni, elettroni, ecc.
Figura 5
P1S
Specchio
A P2(a riflessione totale)
Sorgente
M
B SpecchioSpecchio semitrasparente
(a riflessione totale)Si immagini ora una situazione in cui due fotoni attraversino contemporaneamente i due rami dell’interferometro (ovvero il ramo con lo specchio A e il ramo con lo specchio B). Vista la componente ondulatoria associata ai fotoni accadrà che l'incontro degli stessi in S produrrà una tipica situazione di interferenza.
A questo punto le leggi dell'ottica (e del buon senso) ci dicono che tale interferenza può aversi soltanto nel caso in cui entrambi i rami dell'interferometro siano attraversati da un fotone. Nell'evenienza in cui un solo fotone stia interessando l'interferometro, avendosi un solo fronte d'onda nessuna interferenza in S può prodursi. Invece, come negli esperimenti a due fenditure, anche inviando un solo fotone per volta, sullo schermo S si producono gli esiti di una interferenza. La spiegazione in chiave quantistica di questo fenomeno (come per i test a due fenditure) è che il fotone, dopo aver attraversato lo specchio M, si "divide in due", percorre contemporaneamente entrambi i rami dell'interferometro, autointeragisce con sé stesso e, infine, giunto in S, manifesta gli effetti dell'interferenza costruttiva o distruttiva. Questa situazione, seppur estremamente semplificata (per varie ragioni non si è tenuto conto dei ritardi che un fotone accumula interagendo con gli specchi A e B), è quella che si produce eseguendo esperimenti con un solo fotone che si muove all'interno di un interferometro Mach-Zehnder.
Ritorniamo ora a Wheeler e ai suoi test. Gli esperimenti proposti e condotti dal fisico americano si incentrano sulla possibilità che lo schermo S possa venire rimosso immediatamente dopo che il fotone ha interagito con lo specchio M. Compiendo questa operazione i fatti dimostrano che il fotone viene registrato dal rivelatore P1 o P2, manifestando, il fotone stesso, un comportamento specificamente corpuscolare. Schematizzando quindi:
A questo punto però, Wheeler fa notare che si è verificato qualcosa di molto strano. Infatti la realtà ondulatoria o corpuscolare deve venire assunta dal fotone (così come da qualsiasi altro microente) non a livello di S, P1 o P2, ma nel momento in cui esso interagisce con lo specchio M. E' al livello dello specchio semitrasparente che avviene materialmente l'atto di osservazione, che avviene la risoluzione dallo stato di sovrapposizione, assumendo, il fotone, le proprietà di ente con caratteristiche "ondulatorie" o "corpuscolari". Se però il fotone che ha interagito con M e con lo schermo S in posizione (ovvero davanti ai rivelatori), alla fine della sua corsa arriva come ente ondulatorio in prossimità S e non trova questo schermo, non può fare altro che svanire nel "nulla", attraversando i rivelatori. Quando un'onda incontra un rivelatore di particelle, infatti, non viene da questo registrata, lo attraversa e basta! Come fanno allora i rivelatori a registrare il fotone come corpuscolo se dopo l'interazione con lo specchio semitrasparente questo aveva assunto le caratteristiche di onda? La spiegazione che Wheeler da di questi fatti è che la presenza o meno dello schermo S dopo che il fotone ha interagito con M produce un effetto nel passato, "forzando" il fotone a cambiare il suo stato. Praticamente la scelta (nel futuro) di lasciare o meno S, condiziona il modo di propagarsi (nel passato) del fotone.
Per meglio comprendere quanto appena illustrato vediamo cosa scrive lo stesso Wheeler riguardo il significato da dare agli esperimenti a scelta ritardata:
"Strumenti di registrazione che operano qui ed ora hanno un ruolo innegabile nel generare ciò che è accaduto [...]. La Fisica Quantistica dimostra che ciò che l'osservatore farà in futuro definisce ciò che accade nel passato"
E ancora nell’intervento intitolato "Esperimenti a scelta ritardata e dialogo Bohr-Einstein", tenuto a Londra (1980) alla riunione congiunta della Società Americana di Filosofia e della Società Reale inglese, Wheeler afferma:
"E’ sbagliato pensare al passato come già esistente in ogni dettaglio, Il passato è teoria. Il passato non ha esistenza tranne che per l’essere registrato nel presente [...] Ciò che abbiamo il diritto di dire circa lo spazio-tempo passato, e circa gli eventi passati, è deciso da scelte -di quali misure effettuare- compiute nel passato recente e nel presente. I fenomeni resi esistenti da queste decisioni si estendono all’indietro nel tempo nelle loro conseguenze [...]. Strumenti di registrazione che oprano qui ed ora hanno un ruolo innegabile nel generare ciò che appare essere accaduto. Per quanto utile possa essere nella vita di ogni giorno il dire "il mondo esiste la fuori indipendentemente da noi", questo punto di vista non può più essere mantenuto. C’è uno strano senso in cui il nostro è un universo partecipato ..."
1.15 Logica classica, logica quantistica e "unicità" degli esperimenti
Con Aristotele nasce ufficialmente la Logica, la scienza della dimostrazione capace di indicare con esattezza quando e perché un ragionamento è coerente, vero o falso, ben costruito rispetto alle premesse. Dai tempi di Aristotele i problemi di tutti i giorni vengono affrontati e risolti con l'ausilio della logica del "si o no", del "vero o falso". Questa logica bivalente si fonda sostanzialmente sul principio di non contraddizione -una cosa non può essere e non essere allo stesso tempo- e sul principio del terzo escluso -non è ammissibile una terza possibilità tra il vero e il falso: tertium non datur-. Per la sua importanza il principio di non contraddizione viene definito da Aristotele "il più forte di tutti i principi"; la sua negazione renderebbe impossibile il pensiero e il linguaggio, poiché ogni concetto potrebbe alludere a una cosa e contemporaneamente a qualcos'altro, anche all'opposto.
Le certezze derivate dalla logica aristotelica subirono, però, un duro attacco con l'irrompere sulla scena scientifica della meccanica quantistica. Determinate situazioni che vedono in azione il principio di sovrapposizione -particolarmente nei test a due fenditure o nelle esperienze con interferometri Mach-Zehnder- sperimentano una violazione del principio di non contraddizione. La possibilità che una particella possa trovarsi allo stesso tempo in due luoghi diversi; possa percorrere contemporaneamente strade diverse, rappresenta la coesistenza (seppur di un certo tipo) di stati antitetici.
Nella teoria quantistica, inoltre, quei gruppi di affermazioni che Bohr-Heisenberg definiscono "prive di significato" e che sostanzialmente si riferiscono agli stati indeterminati (agli stati della materia non osservati), collocandosi a metà strada tra i valori di verità e falsità, negano di fatto validità universale al principio del terzo escluso.
Non volendo escludere dal linguaggio speculativo comune, dal campo delle
affermazioni significative, le asserzioni relative agli stati indeterminati14 è possibile
applicare una regola che non permetta di considerarle vere o false. Ciò si ottiene introducendo un terzo valore di verità; si ottiene avvalendosi di una logica a tre valori. Alla logica ordinaria, quindi, per il caso della meccanica quantistica, dovrà "associarsi" un terzo valore; un valore di verità neutro; il quale in ultima analisi potrà consentire di includere gli stati indeterminati tra le affermazioni dotate di significato.
La significatività per la teoria quantistica del valore di verità indeterminato è reso particolarmente evidente nelle seguenti considerazioni. Si immagini uno stato fisico generico S sul quale si compia una misurazione della grandezza X (ad esempio posizione), nel fare ciò, però, si è costretti a rinunciare alla conoscenza di quale sarebbe stato il risultato se si fosse fatta una misurazione della "grandezza coniugata" V (velocità). E' inutile fare una misurazione di V nel nuovo stato fisico, poiché la misurazione di X ha cambiato la situazione. E' altrettanto inutile costruire un altro sistema con lo stesso stato iniziale S, e fare una misurazione di V, dato che il risultato di quella misura è determinato soltanto con una certa probabilità. Questa ripetizione della misurazione può dare un valore differente da quello che si sarebbe potuto
14
Il significato di "stato indeterminato" è totalmente diverso dal significato di "sconosciuto". Il termine "sconosciuto" si applica normalmente anche ad affermazioni a due valori; il valore di verità di un'affermazione della logica "comune" può essere sconosciuto, ma far parte del gruppo di affermazioni vere o false.
ottenere nel primo caso. Il carattere probabilistico delle previsioni della meccanica quantistica comporta un assolutismo per il caso singolo; esso rende il singolo evento unico e irripetibile.
Una situazione simile a quella appena illustrata, si ha nel caso di una persona, la chiameremo Anna, che affermi : "Se getto un dado al prossimo tiro, farò tre" e un'altra persona, la chiameremo Bruno, che affermi : "Se lancio io il dado, invece, farò quattro". Anna getta il dado, e ottiene due. Sappiamo allora che l'affermazione di Anna era falsa. Quanto all'affermazione di Bruno, però, non abbiamo possibilità di giudizio, in quanto Bruno non ha potuto materialmente lanciare il dado. Un modo per verificare le affermazioni di Bruno potrebbe essere quello di misurare la posizione iniziale del dado, lo stato dei suoi muscoli, la densità dell'aria, ecc. Potremmo allora predire con una precisione grande a piacere il risultato del lancio di Bruno; o, per meglio dire, dato che noi non potremmo mai farlo, lo potrebbe fare per noi il superuomo di Laplace, il quale in linea di principio può riprodurre qualsiasi situazione.
Per la meccanica quantistica comunque, neanche il superuomo di Laplace può riprodurre in tutto e per tutto l'esito del lancio di Bruno, in quanto, come sottolineato in precedenza, gli esperimenti di fisica quantistica sono governati dalla legge della probabilità e quindi il risultato di qualsiasi osservazione è per principio incerto, "variabile" e quindi non riproducibile.
1.16 Non localismo tra azioni a distanza e non separabilità
Il non localismo (ovvero la possibilità di "influenze a distanza") è uno di quei particolari fenomeni che caratterizzano le dinamiche della meccanica quantistica. Nella realtà ordinaria le influenze tra sistemi distanti non avvengono mai
direttamente o in tempo reale. Un’epidemia d’influenza che nasce in Asia, ad esempio, non si diffonde immediatamente anche in Europa. Per arrivare nel nostro continente impiega un certo tempo; occorrono settimane infatti perché gli individui infetti, spostandosi da un luogo all’altro della Terra, diffondano la malattia. L’esempio (di localismo) appena fatto, non vale nel mondo della fisica quantistica, dove le azioni tra luoghi diversi dello spazio sono all’ordine del giorno, dove la realtà sembra divertirsi ad dimostrarsi bizzarra.
Per avere un’idea chiara di non localismo quantistico si immagini di avere davanti a sé due scatole che contengono ognuna un guanto di uno stesso paio. E’ "ovvio" che, ancora prima di guardare dentro le scatole, si avrà la certezza che esse conterranno guanti con un "verso" ben definito: la scatola di destra, ad esempio, potrà contenere un guanto "destro", la scatola di sinistra un guanto "sinistro" o viceversa. Ora se anziché usare normali guanti, usassimo "guanti quantistici", ci renderemmo conto che il "verso" dei guanti nelle rispettive scatole, verrebbe definito solo nel momento in cui si guarda all’interno di una di esse. L’atto di guardare all’interno di una delle due scatole conferisce realtà alla coppia dei guanti; conferisce, a distanza (cioè non localmente), un "verso" al guanto non oggetto (in quel momento) di osservazione.
Secondo il paradigma quantistico, prima dell’osservazione, prima che un osservatore decida di guardare dentro una delle scatole, i guanti vivono in uno stato sovrapposto, intrecciato; uno stato che vede i guanti "mischiati" in un unico ente: un guanto destro/sinistro. Si ricorderà come nell’ambito dell’interpretazione ortodossa della teoria quantistica, le caratteristiche oggettive di qualsiasi microente o coppia di microenti vengono definite solo nel momento in cui si compie un atto di osservazione, soltanto l’atto di osservare risolve lo stato sovrapposto che caratterizza la materia.
Si consideri ora l’emissione da parte di un atomo eccitato di una coppia di particelle correlate15: diciamo due protoni. La logica dell'uomo della strada (la logica classica) ci dice che se anche queste due particelle venissero portate una sulla Luna e l’altra su Venere un eventuale esperimento condotto sul protone che si trova sul nostro satellite non avrebbe effetti sul protone che si trova su Venere. Questo ci dice il buon senso e dicevano anche (nel 1935) i fisici Albert Einstein, Boris Podolsky e Nathan Rosen, quando, nell’intento di dimostrare l’incompletezza della teoria quantistica, scrivevano una serie di articoli critici fra i quali uno famosissimo intitolato: "Can quantum-mechanical description of physical reality be considered complete?" ("Può considerarsi completa la descrizione della realtà fisica data dalla meccanica quantistica?") [5]. In particolare Einstein, riguardo il non localismo insito nella meccanica quantistica, insito nel formalismo di questa teoria, scriveva :
"Un aspetto essenziale delle cose della fisica è che a un certo momento esse possono affermare la loro esistenza indipendente le une dalle altre, purché situate in parti diverse dello spazio. Se non si fa questo tipo di ipotesi circa l’indipendente esistenza degli oggetti che sono lontani l’uno dall’altro nello
spazio il pensiero fisico nel senso familiare diventa impossibile [...] La seguente idea caratterizza l’indipendenza relativa di oggetti lontani nello
spazio (A e B); un’influenza esterna su A non ha influenza diretta su B [...] Se
questo assioma dovesse essere abolito la formulazione di leggi che possono
essere controllate empiricamente nel senso accettato diventerebbe impossibile."
Nel passo appena citato Einstein è categorico nel ribadire l’assoluta indipendenza degli oggetti lontani nello spazio, pena il caos nella fisica.
Su posizioni diametralmente opposte si collocano gli esponenti della scuola della fisica quantistica ortodossa, i quali attraverso le parole del loro più autorevole esponente, N. Bohr, stigmatizzano:
"Anche se due fotoni [correlati] si trovassero su due diverse galassie continuerebbero pur sempre a rimanere un unico ente ... e l’azione compiuta su uno di essi avrebbe effetti anche sull’altro … ".
15
Le particelle correlate sono microenti (protoni, fotoni, ecc.) che hanno un'origine comune. Esse possono essere in qualche modo assimilate ai gemelli omozigoti delle specie animali.La disintegrazione di una particella sub-atomica come un mesone p , il passaggio dal I al II livello energetico di un atomo di Calcio, produce coppie di fotoni correlati.
Una delle caratteristiche principali delle particelle correlate è manifestare, a seconda della situazione sperimentale, "proprietà simmetriche": ad esempio "oscillazione" sullo stesso piano.
Pur con una terminologia leggermente diversa rispetto a quella di Einstein e compagni (Bohr infatti parla di "unicità della materia", di "inseparabilità della
materia", non di Non localismo), i quantistici ribadiscono che il destino di qualsiasi particella correlata deve essere sempre comune all’interno dell’evoluzione spazio-temporale della coppia. La contrapposizione tra gli esponenti della scuola di Copenaghen da una parte, e coloro i quali si riconoscevano nelle posizioni di Einstein dall’altra, ebbe il suo epilogo nel 1982 quando Alain Aspect dell’Università di Parigi condusse una serie di avanzatissimi esperimenti16 i quali dimostrarono inequivocabilmente la giustezza delle posizioni sostenute dai teorici quantistici.
16
A questo punto l'obiettività storica impone venga menzionato il lavoro condotto dal grande fisico irlandese John Bell. Nel 1964 Bell formulò un teorema [6] il quale, se applicato a determinati contesti sperimentali, poteva fornire gli strumenti teorici per arrivare a dirimere il contenzioso aperto tra Einstein, Podolsky, Rosen e i fisici quantistici. Il teorema di Bell -o disuguaglianza di Bell- riusciva con una elegante costruzione matematica a trasformare la disputa tra i localisti e i non localisti, che ai più era sembrata soltanto una contrapposizione di carattere filosofico, in qualcosa che poteva essere sottoposta a verifica sperimentale. La formulazione della disuguaglianza di Bell può riassumersi dicendo che qualsiasi teoria locale, la quale assume che determinate coppie di particelle correlate separate ed inviate verso rivelatori lontani abbiano proprietà definite anche prima di essere sottoposte a test, non può riprodurre le previsioni probabilistiche della meccanica quantistica. In sostanza Bell, con la sua disuguaglianza, definisce i termini dell'incompatibilità tra le tesi che prevedono che le coppie di particelle correlate abbiano sempre e comunque proprietà oggettivamente definite e locali, rispetto alle assunzioni della meccanica quantistica, la quale prevede che la realtà del micromondo debba essere definita soltanto nel momento in cui si esegue una misurazione, e che di fatto questa misurazione deve avere effetti non locali. Secondo alcuni autorevoli studiosi, le implicazioni al livello della natura della realtà che emergono dal teorema di Bell, travalicano la disputa tra Einstein e i fisici quantistici, presentandoci un mondo non localistico "a priori". Non è questa la sede per entrare nei dettagli tecnico-formali del lavoro di Bell, qui possiamo comunque -riportando le opinioni di alcuni studiosi- fornire un sommario resoconto di una lettura eminentemente non locale del lavoro del grande fisico irlandese. Il primo degli studiosi di cui si riporta l’opinione è James Cushing il quale scrive [7]: "Bell non ha mai elaborato alcuna teoria locale e deterministica. Ma, senza mai entrare nei dettagli dinamici, egli ha dimostrato che, in linea di principio, nessuna teoria siffatta può esistere [...] Il teorema di Bell non dipende in alcun modo dalla meccanica quantistica. Esso rigetta un’intera categoria di teorie (essenzialmente) classiche senza neppur dover menzionare la meccanica quantistica. E accade che i risultati sperimentali non solo escludono l’intera classe delle teorie locali e deterministiche, ma anche che confermano le previsioni della meccanica quantistica".A completamento delle argomentazioni di Cushing così si esprimono rispettivamente il fisico David Lindley e il fisico e filosofo della Colunbia University David Albert: "Quand'anche non ci piacesse la Meccanica Quantistica, quand'anche pensassimo che qualche altra teoria potrebbe infine venire a soppiantarla, non potremmo però tornare alla vecchia visione della realtà. Essa semplicemente non funziona: questa è la vera importanza, è il vero messaggio del teorema di Bell.". "Ciò che il teorema di Bell ci ha consegnato è la dimostrazione che sussiste ineluttabilmente un'autentica non-località nello svolgersi dei processi della natura, comunque si tenti di descriverla. Tale non-località è, anzitutto, una caratteristica della stessa meccanica quantistica; ma in base al teorema di Bell, risulta essere necessariamente anche una caratteristica di ogni possibile modalità di calcolo ...".
Al riguardo scrive il fisico David Lindley [8]:
"Nel 1982 venne infine la soluzione, la quale fu accettata come definitiva dal mondo dei fisici. La natura non obbediva alle leggi del Realismo Locale, la meccanica quantistica celebrò il suo trionfo, e la nostra comprensione della realtà del mondo naturale diventò più complessa."
Gli esperimenti condotti oltralpe da Aspect prevedevano che una coppia di fotoni correlati venissero separati e lanciati verso rivelatori lontani, i quali a loro volta dovevano misurare il comportamento dei fotoni dopo che lungo la traiettoria di uno di essi veniva casualmente inserito un "filtro" che ne modificava la direzione.
Il risultato dei test di Aspect dimostrò che, allorquando uno dei due fotoni deviava in seguito all’interazione col "filtro" posto lungo il suo cammino, istantaneamente deviava anche l’altro, benché si trovasse spazialmente separato (per l’esattezza distanziato tredici metri: uno spazio enorme per particelle di dimensioni subnucleari).
Il fatto straordinario, già previsto e temuto da Einstein sin dal 1935 delle esperienze condotte all’Università di Parigi, non si rivelò tanto la conferma del non localismo, delle "azioni a distanza", quanto l’evidenza che queste azioni avvenivano praticamente "in tempo reale", quasi ci fosse tra le particelle correlate una trasmissione di informazioni istantanea: violando la insuperabilità della velocità della luce.
Il non localismo, o la non separabilità per dirla con le parole dei fisici quantistici, ci presenta uno spazio-tempo agli antipodi rispetto alle concezioni classiche, rispetto a quello che si è abituati a sperimentare ogni giorno.
1.17 Gli esperimenti di Alain Aspect
Nel 1982 Alain Aspect con la collaborazione di due ricercatori, J. Dalibard e G. Roger, dell’Istituto di Ottica dell’Università di Parigi, raccolse la sfida per una rigorosa verifica delle ipotesi "non localistiche" della teoria quantistica. Egli realizzò una serie di apparecchiature sofisticatissime nel campo dell’ottica-fisica, le quali permisero di risolvere il contenzioso che ormai da mezzo secolo opponeva i fisici che si riconoscevano nelle posizioni "classiche" (Einstein, ecc.), con i fisici quantistici della scuola di Copenaghen. Nella figura di seguito riportata vediamo una schematizzazione delle apparecchiature utilizzate da Aspect e collaboratori nei loro esperimenti. Al centro abbiamo un atomo di Calcio eccitato il quale produce una
coppia di fotoni correlati che si muovono lungo percorsi opposti. Lungo uno di questi percorsi (nel caso rappresentato in figura, il Percorso A), di tanto in tanto e in maniera del tutto casuale, viene inserito un "filtro" (un Cristallo Birifrangente) il quale, una volta che un fotone interagisce con esso, può, con una probabilità del 50 %, deviarlo oppure lasciarlo proseguire indisturbato per la sua strada facendosi attraversare. Agli estremi di ogni tragitto previsto per ciascun fotone è posto un rivelatore di fotoni.
Ora, la cosa straordinaria verificata da Aspect con le sue apparecchiature è che nel momento in cui lungo il Percorso A veniva inserito il Cristallo Birifrangente e si produceva una deviazione del fotone 1 verso il rivelatore c, anche il fotone 2 (ovvero il fotone del Percorso B; il fotone separato e senza "ostacoli" davanti), "spontaneamente" ed istantaneamente, deviava verso il rivelatore d. Praticamente l’atto di inserire il Cristallo Birifrangente con la conseguente deviazione del fotone 1, faceva istantaneamente e a distanza deviare il fotone 2.
Tutto ciò può sembrare strano, ma è quello che effettivamente accade quando si eseguono esperimenti su coppie di particelle correlate.
Queste bizzarrie della natura, stigmatizzano i fisici quantistici, sono tali solo se si ragiona secondo una "logica classica". In uno scenario ove si immagina che qualsiasi sistema correlato possa godere della prerogativa di non risentire della distanza spaziale, tutto risulta semplificato, "normale". Abbandonando l’idea che le particelle correlate situate in luoghi distanti rappresentino enti distinti, scompaiono anche buona parte degli ostacoli concettuali (e di fatto) che impediscono una comunicazione o "un’azione" non locale.
In riferimento all’unicità della materia che scaturisce dalla visione non localistica della teoria quantistica, così si esprime il premio Nobel per la Fisica Brian Josephson:
"L’universo non è una collezione di oggetti, ma una inseparabile rete di modelli di energia vibrante nei quali nessun componente ha realtà indipendente dal tutto: includendo nel tutto l’osservatore".
1.18 La fisica quantistica ieri e oggi
In chiusura di esposizione dei fondamenti e delle implicazioni della teoria quantistica, chi scrive ritiene utile riproporre alcune pagine tratte da un famoso libro scritto da Louis de Broglie [9]. Attraverso queste pagine il lettore avrà l’opportunità di rivivere il clima intellettuale (spesso fatto di aspre contrapposizioni) che a partire dal 1927 caratterizzò l'affermarsi sulla scena scientifica della meccanica quantistica. Le righe scritte da Louis de Broglie permetteranno altresì di cogliere, nella posizione dei fisici della prima metà del secolo scorso, lo stesso approccio degli scienziati di oggi nei riguardi delle implicazioni e delle conclusioni più "sorprendenti" della meccanica quantistica.
"Alla fine dell’ottobre 1927 ebbe luogo a Bruxelles il quinto Consiglio di Fisica Solvay dedicato alla meccanica ondulatoria [in questo caso il termine meccanica ondulatoria si riferisce alla meccanica quantistica] e alla sua interpretazione. Io [Louis de Broglie] vi feci un’esposizione del mio tentativo [di confutare l'interpretazione probabilistica della meccanica quantistica], ma per diverse ragioni lo feci sotto una forma un po’ monca e insistendo principalmente sull’immagine idrodinamica.
Il mio rapporto non fu affatto apprezzato: unito attorno a Bohr e Born, il gruppo molto attivo dei giovani teorici, che comprendeva Pauli, Heisenberg e Dirac, era completamente conquistato dalla interpretazione puramente probabilistica di cui essi erano gli autori.
Tuttavia si levarono alcune voci per combattere queste nuove idee, Lorentz affermava il suo convincimento che occorresse conservare il determinismo dei fenomeni e la loro interpretazione mediante immagini precise nel quadro dello spazio e del tempo; ma il suo intervento molto notevole non apportava alcun elemento costruttivo [...].
Che cosa avrebbe detto Einstein in questo dibattito dal quale doveva uscire la soluzione del formidabile problema che l’aveva tanto preoccupato dopo la sua geniale intuizione sui quanti di luce ?
Con mio grande disappunto non disse quasi niente. Una sola volta egli prese la parola per alcuni minuti : rifiutando l’interpretazione probabilistica egli lo fece in termini molto semplici. Una obiezione che io credo abbia comunque conservato il suo notevole peso. Poi egli ricadde nel suo mutismo. In conversazioni private egli m’incoraggiava nei miei tentativi, senza tuttavia pronunciarsi sulla teoria della doppia soluzione che egli non sembrava aver studiata molto da vicino.
Affermava che la fisica quantistica si impegnava su una cattiva strada e davanti a questa evoluzione sembrava scoraggiato. Un giorno mi disse: Questi problemi di fisica quantica divengono troppo complessi. Io non posso più mettermi a studiare questioni così difficili: sono troppo vecchio! Frase ben strana nella bocca di questo illustre scienziato che non aveva allora che quarantotto anni e il cui pensiero audace non era certo di quelli che si lasciano facilmente scoraggiare dalla difficoltà dei problemi !
Ritornai dal Consiglio Solvay molto sconcertato per l’accoglienza che vi avevano ricevuto le mie idee. Non vedevo il modo di superare gli ostacoli che esse incontravano e le obiezioni che mi erano state fatte. Avevo l’impressione che la corrente, che portava la quasi unanimità dei teorici qualificati ad adottare l’interpretazione probabilistica, fosse irresistibile. Mi allineai dunque con questa interpretazione e la presi come base dei miei insegnamenti e delle mie ricerche. Il solo tentativo che era stato fatto (il solo forse che poteva essere fatto) per risolvere il problema delle onde e dei corpuscoli, nel senso che Einstein auspicava, sembrava essere decisamente fallito.
Einstein tuttavia non si arrendeva. Emigrando negli Stati Uniti, non cessava di rivolgere in tutti i suoi scritti, vivaci critiche all’interpretazione puramente probabilistica della meccanica quantistica. Vi furono degli scontri vivaci tra Bohr e lui, particolarmente nel 1935 [...]
In questa disputa, Einstein si trovava quasi isolato e non aveva per compagno di lotta che Schrödinger, autore anche lui di numerose e molto fini obiezioni contro l’interpretazione probabilistica. Ma l’atteggiamento di Einstein restava puramente negativo: egli rifiutava la soluzione dell’enigma delle onde e dei corpuscoli che era prevalsa, ma non ne proponeva alcun’altra: il che, evidentemente, indeboliva la sua posizione. Egli si dedicava allora alle sue ricerche sulle teorie unitarie che, prolungando lo sforzo realizzato dallo sviluppo della relatività generale, cercavano di conglobare il campo gravitazionale, il campo elettromagnetico ed eventualmente altri campi in un’immagine unica. Ma anche se questi interessanti tentativi unitari dovevano continuare a svilupparsi, essi non potevano in alcun modo condurre, almeno nella loro forma attuale, ad una rappresentazione esatta della realtà fisica, poiché essi non contenevano i quanti. Einstein lo sapeva meglio di ogni altro, egli che aveva scoperto i quanti di luce ! Si rendeva conto molto bene che gli si poteva rimproverare di aver abbandonato ogni lavoro costruttivo nel dominio dei quanti: e nell’ultima lettera che egli mi scrisse il 15 febbraio 1954 mi diceva scherzosamente: Io devo rassomigliare ad uno struzzo che nasconde continuamente la sua testa nella sabbia relativistica per non aver da guardare in faccia questi villani quanti.
Frattanto la controversia si andava lentamente spegnendo. La maggior parte dei fisici ammetteva, senza discussione, l’interpretazione probabilistica, gli uni perché la trovavano realmente soddisfacente, gli altri più pragmatici, perché il formalismo della meccanica quantica sembrava loro in grado di fornire tutti gli strumenti che erano necessari per le loro previsioni e perché non si preoccupano più in nessun modo di sapere quale realtà potesse nascondersi dietro il velo delle equazioni".
E' in quest'ultima frase che si può riconoscere l’attuale posizione della comunità scientifica nei riguardi della meccanica quantistica, nei riguardi delle implicazioni più "sorprendenti"del paradigma di Copenaghen.
Per i fisici la teoria quantistica è utilissima per descrivere fenomeni, fare previsioni e formulare nuove teorie, ma preoccuparsi di conoscere cosa in realtà si nasconda dietro il velo delle equazioni, cosa si celi dietro il modello di realtà che emerge dal paradigma quanto-meccanico, è più materia per filosofi o epistemologi che per scienziati.
1.19 Filosofia Cartesiana e fisica quantistica
Nella filosofia di Descartes la materia viene essenzialmente pensata come qualcosa di opposto allo spirito. La materia e lo spirito, o per meglio dire la "res extensa" e la "res cogitans", sono due aspetti incompatibili del mondo.
Descartes filosofo della natura e matematico esclude ogni influenza dei fenomeni corporei sulle forze spirituali, la materia può venire considerata come una realtà a sé, indipendente dallo spirito e da ogni forza soprannaturale. La materia è materia formata, interpretandosi il processo di formazione come una catena causale di interazioni meccaniche.
Ma "a mettere in profonda crisi" le idee di Descartes, scrive in Fisica e Filosofia (il Saggiatore, Milano) Werner Heisenberg, venne la fisica quantistica:
"A questo punto la situazione si modificò notevolmente in seguito alla teoria dei quanta e possiamo perciò venire ora ad un confronto fra il sistema filosofico cartesiano e la situazione della fisica moderna. Nella interpretazione di Copenaghen della teoria dei quanta noi possiamo in realtà procedere senza menzionare noi stessi come individui, ma non possiamo trascurare il fatto che la scienza naturale è formata da uomini. La scienza naturale non descrive e spiega semplicemente la natura; essa è una parte dell’azione reciproca fra noi e la natura, descrive la natura in rapporto ai sistemi usati da noi per interrogarla. E’ qualcosa, questo che Descartes poteva non aver pensato, ma che rende impossibile un netta separazione fra il mondo e l’Io.
Se si pensa alle gravi difficoltà che anche eminenti scienziati, come Einstein, incontrarono per intendere ed accettare l’interpretazione di Copenaghen della teoria dei quanta, esse si possono far risalire alla divisione cartesiana di materia e spirito. Tale divisione è penetrata profondamente nella mente umana durante i tre secoli che seguirono Descartes e ci vorrà molto tempo perché possa esser sostituita da un atteggiamento veramente diverso nei riguardi del problema della realtà".
Indicazioni bibliografiche
[1] Werner Heisenberg, Physics and Beyond, Harper e Row, New York (1971).
[2] Werner Heisenberg, Fisica e Filosofia, il Saggiatore, Milano (1961).
[3] Max Born, "Atomic Physics", Hafner (1957).
[4] Franco Selleri, La Causalità Impossibile, Jaca Book, Milano (1987).
[5] A. Einstein, B. Podolsky e N. Rosen, Can quantum-mechanical description of physical reality be considered complete?, Physical Review, 47 (1935).
[6] John Bell, On the Einstein-Podolsky-Rosen Paradox, Physics, vol.1, pp. 195-200 (1964).
[7] James T. Cushing, Quantum Mechanics, Chicago University Press, Chicago, (1994).
[8] David Lindley, La Luna di Einstein, Longanesi, Milano (1997).
[9]
Louis de Broglie, Nuove Prospettive in Microfisica, Fratelli Fabbri Editori, Milano (1969).